BR112018007979A2 - métodos e aparelho para minimização de falso positivo em aplicações de reconhecimento facial - Google Patents

métodos e aparelho para minimização de falso positivo em aplicações de reconhecimento facial Download PDF

Info

Publication number
BR112018007979A2
BR112018007979A2 BR112018007979A BR112018007979A BR112018007979A2 BR 112018007979 A2 BR112018007979 A2 BR 112018007979A2 BR 112018007979 A BR112018007979 A BR 112018007979A BR 112018007979 A BR112018007979 A BR 112018007979A BR 112018007979 A2 BR112018007979 A2 BR 112018007979A2
Authority
BR
Brazil
Prior art keywords
data
user
image
location
facial recognition
Prior art date
Application number
BR112018007979A
Other languages
English (en)
Inventor
Resnick Adam
Joshpe Brett
Sabitov Ruslan
Original Assignee
15 Seconds Of Fame Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 15 Seconds Of Fame Inc filed Critical 15 Seconds Of Fame Inc
Publication of BR112018007979A2 publication Critical patent/BR112018007979A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • CCHEMISTRY; METALLURGY
    • C07ORGANIC CHEMISTRY
    • C07KPEPTIDES
    • C07K16/00Immunoglobulins [IGs], e.g. monoclonal or polyclonal antibodies
    • C07K16/40Immunoglobulins [IGs], e.g. monoclonal or polyclonal antibodies against enzymes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61KPREPARATIONS FOR MEDICAL, DENTAL OR TOILETRY PURPOSES
    • A61K39/00Medicinal preparations containing antigens or antibodies
    • A61K39/395Antibodies; Immunoglobulins; Immune serum, e.g. antilymphocytic serum
    • A61K39/39591Stabilisation, fragmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61KPREPARATIONS FOR MEDICAL, DENTAL OR TOILETRY PURPOSES
    • A61K47/00Medicinal preparations characterised by the non-active ingredients used, e.g. carriers or inert additives; Targeting or modifying agents chemically bound to the active ingredient
    • A61K47/06Organic compounds, e.g. natural or synthetic hydrocarbons, polyolefins, mineral oil, petrolatum or ozokerite
    • A61K47/26Carbohydrates, e.g. sugar alcohols, amino sugars, nucleic acids, mono-, di- or oligo-saccharides; Derivatives thereof, e.g. polysorbates, sorbitan fatty acid esters or glycyrrhizin
    • CCHEMISTRY; METALLURGY
    • C07ORGANIC CHEMISTRY
    • C07KPEPTIDES
    • C07K16/00Immunoglobulins [IGs], e.g. monoclonal or polyclonal antibodies
    • C07K16/18Immunoglobulins [IGs], e.g. monoclonal or polyclonal antibodies against material from animals or humans
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Abstract

a presente invenção refere-se a um aparelho que pode incluir um processador que pode receber dados de localização de um dispositivo de usuário, e armazenar os dados de localização em uma estrutura de dados de perfil de usuário também armazenando dados de reconhecimento facial. o processador pode também receber pelo menos uma imagem, e pode identificar uma localização com base pelo menos em parte em um conjunto de características dentro da pelo menos uma imagem. o processador pode, para cada estrutura de dados de perfil de usuário armazenada em um banco de dados, comparar os dados de localização naquela estrutura de dados de perfil de usuário com a localização. o processador pode, quando os dados de localização da estrutura de dados de perfil de usuário e a localização coincidem, conduzir um reconhecimento facial para determinar se o usuário associado à estrutura de dados de perfil de usuário pode ser identificado na pelo menos uma imagem. o processador pode então associar a pelo menos uma imagem à estrutura de dados de perfil de usuário se o usuário puder ser identificado.

Description

Relatório Descritivo da Patente de Invenção para MÉTODOS E APARELHO PARA MINIMIZAÇÃO DE FALSO POSITIVO EM
APLICAÇÕES DE RECONHECIMENTO FACIAL.
REFERÊNCIA CRUZADA A PEDIDO RELATIVO [001] Este pedido reivindica prioridade para e o benefício do Pedido Provisório U.S. Número de Série 62/244.419, depositado em 21 de Outubro de 2015, e intitulado MÉTODOS E APARELHO PARA MINIMIZAÇÃO DE FALSO POSITIVO EM APLICAÇÕES DE RECONHECIMENTO FACIAL. O conteúdo inteiro do pedido acima mencionado está aqui expressamente incorporado por referência.
ANTECEDENTES [002] As modalidades aqui descritas referem-se geralmente a analítica de reconhecimento facial e vídeo, e mais especificamente, a aparelho e métodos para minimização de falso positivo em aplicações de reconhecimento facial.
[003] Os aumentos na disponibilidade e capacidade de dispositivos eletrônico tais como câmeras, tablets, smartphones, etc. permitiram que algumas pessoas façam imagens e/ou capturem vídeo de suas experiências. Por exemplo, a inclusão e aperfeiçoamento de câmeras em smartphones, tablets, e/ou outros dispositivos similares levaram a um aumento nestes dispositivos sendo utilizados para fazer imagens (por exemplo, dados fotográficos, dados de imagem, etc.) e vídeos (por exemplo, dados de fluxo de vídeo). Apesar de que, tornou-se mais fácil para algumas pessoas fazer imagens e/ou vídeos de suas experiências, em alguns casos, podem ainda existir desafios em incluir as partes desejadas (incluindo a pessoa que de outro modo estaria fazendo a imagem ou vídeo). Mais ainda, uma pessoa geralmente precisa lembrar e/ou ter a chance de fazer a imagem e/ou vídeo, e falhando em fazê-lo pode resultar uma oportunidade perdida.
[004] Em alguns casos, locais e/ou eventos tais como eventos
Petição 870180048519, de 07/06/2018, pág. 5/90
2/68 esportivos, concertos, ralis, formatura, e/ou similares têm câmeras que podem fazer imagens e/ou vídeo daqueles em comparecimento. Em alguns casos, no entanto, analisar, analisar gramaticalmente, e/ou de outro modo tornar as imagens e/ou fluxo de vídeo disponíveis pode utilizar uma quantidade de recursos relativamente grande, pode ser impreciso, e/ou pode falhar em prover dados contextuais associados ou similares. Mais especificamente, em alguns casos, pode ser difícil verificar que uma pessoa específica detectada em uma imagem, estava real mente na localização capturada na imagem, devido a falsos positivos obtidos de utilizar reconhecimento facial somente para identificar pessoas em imagens.
[005] Assim, uma necessidade existe para um aparelho e métodos aperfeiçoados para utilizar dados contextuais e de localização para minimizar falsos positivos em, por exemplo, eventos públicos.
SUMÁRIO [006] Em algumas implementações, um aparelho pode incluir uma memória e um processador operativamente acoplado na memória. O processador pode, em um primeiro tempo, receber dados de localização de um dispositivo de usuário, e pode armazenar os dados de localização em uma estrutura de dados de perfil de usuário. A estrutura de dados de perfil de usuário pode incluir dados de reconhecimento facial de um usuário do dispositivo de usuário associado ao usuário com base em pelo menos uma de analítica de reconhecimento facial bidimensional, analítica de reconhecimento facial tridimensional, ou redes neurais convolucionais (CNN). O processador pode receber, em um segundo tempo diferente do primeiro tempo, pelo menos uma imagem de um dispositivo de captura de imagem. O processador pode identificar uma localização com base pelo menos em parte em um conjunto de características com a pelo menos uma imagem recebida, e pode recuperar, de um banco de dados, múltiplas estruturas de dados
Petição 870180048519, de 07/06/2018, pág. 6/90
3/68 de perfil de usuário incluindo a estrutura de dados de perfil de usuário. O processador pode, para cada estrutura de dados de perfil de usuário de múltiplas estruturas de dados de perfil de usuário, comparar os dados de localização naquela estrutura de dados de perfil de usuário com a localização. O processador pode, quando os dados de localização da estrutura de dados de perfil de usuário e a localização estão dentro de uma distância predeterminada um do outro, determinar se o usuário associado à estrutura de dados de perfil de usuário pode ser identificado na pelo menos uma imagem. Por exemplo, o processador pode analisar a pelo menos uma imagem com relação aos dados de reconhecimento facial do usuário com base em pelo menos uma da analítica de reconhecimento facial bidimensional, da analítica de reconhecimento facial tridimensional, ou da CNN para identificar uma pontuação de confiança de reconhecimento facial. O processador pode então associar a pelo menos uma imagem com a estrutura de dados de perfil de usuário com base na pontuação de confiança de reconhecimento facial atendendo um critério predeterminado.
BREVE DESCRIÇÃO DOS DESENHOS [007] Figura 1A é uma ilustração esquemática de um sistema de reconhecimento de acordo com uma modalidade.
[008] Figura 1B é uma ilustração esquemática de um sistema de reconhecimento de acordo com outra modalidade.
[009] Figura 2 é uma ilustração esquemática de um dispositivo hospedeiro incluído no sistema de reconhecimento da Figura 1.
[0010] Figura 3 é um fluxograma que ilustra um método de utilizar um sistema de reconhecimento de vídeo de acordo com uma modalidade.
[0011] Figura 4 é um fluxograma que ilustra um método de utilizar um sistema de reconhecimento de vídeo de acordo com outra modalidade.
Petição 870180048519, de 07/06/2018, pág. 7/90
4/68 [0012] Figura 5 é uma ilustração de um dispositivo de captura de imagem capturando informações contextuais em mídia, de acordo com uma modalidade.
[0013] Figura 6 é um fluxograma lógico que ilustra utilizar informações contextuais em mídia, e dados de localização, para identificar um usuário na mídia, de acordo com uma modalidade.
DESCRIÇÃO DETALHADA [0014] Em algumas implementações, um aparelho pode incluir uma memória e um processador operativamente acoplado na memória. O processador pode, em um primeiro tempo, receber dados de localização de um dispositivo de usuário, e pode armazenar os dados de localização em uma estrutura de dados de perfil de usuário. A estrutura de dados de perfil de usuário pode incluir dados de reconhecimento facial de um usuário do dispositivo de usuário associado ao usuário com base em pelo menos uma de analítica de reconhecimento facial bidimensional, analítica de reconhecimento facial tridimensional, ou redes neurais convolucionais (CNN). O processador pode receber, em um segundo tempo diferente do primeiro tempo, pelo menos uma imagem de um dispositivo de captura de imagem. O processador pode identificar uma localização com base pelo menos em parte em um conjunto de características com a pelo menos uma imagem recebida, e pode recuperar, de um banco de dados, múltiplas estruturas de dados de perfil de usuário que incluem a estrutura de dados de perfil de usuário. O processador pode, para cada estrutura de dados de perfil de usuário das múltiplas estruturas de dados de perfil de usuário, comparar os dados de localização naquela estrutura de dados de perfil de usuário com a localização. O processador pode, quando os dados de localização da estrutura de dados de perfil de usuário e a localização estão dentro de uma distância predeterminada um do outro, determinar se o usuário associado à estrutura de dados de perfil de usuário
Petição 870180048519, de 07/06/2018, pág. 8/90
5/68 pode ser identificado na pelo menos uma imagem. Por exemplo, o processador pode analisar a pelo menos uma imagem com relação aos dados de reconhecimento facial do usuário com base em pelo menos uma da analítica de reconhecimento facial bidimensional, da analítica de reconhecimento facial tridimensional, ou da CNN para identificar uma pontuação de confiança de reconhecimento facial. O processador pode então associar a pelo menos uma imagem com a estrutura de dados de perfil de usuário com base na pontuação de confiança de reconhecimento facial atendendo um critério predeterminado.
[0015] As modalidades aqui descritas referem-se a detectar um usuário na mídia com base em dados de reconhecimento facial e informações de localização. Em algumas modalidades, um método de análise de imagem inclui receber, em um dispositivo hospedeiro e de um dispositivo de cliente através de uma rede, um sinal indicativo de check-ins de usuário em uma localização. O usuário pode fazer checkin através de seu dispositivo móvel. Um dispositivo de captura de imagem pode capturar uma mídia (por exemplo, fotografias, vídeos, áudio, e/ou conteúdo similar) que pode incluir o usuário. O dispositivo hospedeiro pode utilizar o panorama e/ou outras informações de fundo na mídia (por exemplo, após processar a mídia através de técnicas de processamento de imagem) para determinar uma localização específica na qual a mídia foi capturada. O dispositivo hospedeiro pode também receber informações de localização para o dispositivo de captura de imagem, por exemplo, para verificar a localização do dispositivo de captura de imagem e/ou a localização que a mídia detecta. O dispositivo hospedeiro pode coincidir a localização detectada na mídia, com dados de localização de usuários que fizeram check-in, para determinar quais usuários fizeram check-in em uma localização próxima aonde a mídia foi capturada. O dispositivo hospedeiro pode então execu
Petição 870180048519, de 07/06/2018, pág. 9/90
6/68 tar um processamento de imagem sobre a mídia para determinar ser os usuários os quais fizeram check-in próximo da localização na mídia aparecem na mídia. O dispositivo hospedeiro pode enviar notificações para os usuários os quais o dispositivo hospedeiro detecta na mídia. Neste modo, o dispositivo hospedeiro pode reduzir o número de usuários para pesquisar em um arquivo de mídia específico, e reduzir falsos positivos amarrando tanto a localização do usuário quanto a aparência do usuário aos dados obtidos da mídia.
[0016] Como utilizado neste relatório descritivo, as formas singulares uma, um e o incluem referentes plurais a menos que o contexto claramente dite de outro modo. Assim, por exemplo, o termo um módulo pretende significar um único módulo ou uma combinação de módulos, uma rede pretende significar uma ou mais redes, ou uma sua combinação.
[0017] Como aqui utilizado o termo módulo refere-se a qualquer montagem e/ou conjunto de componentes elétricos operativamente acoplados que podem incluir, por exemplo, uma memória, um processador, trilhas elétricas, conectores óticos, software (executando em hardware), e/ou similares. Por exemplo, um módulo executado no processador pode ser qualquer combinação de módulo baseado em hardware (por exemplo, uma rede de portas programáveis no campo (FPGA), um circuito integrado de aplicação específica (ASIC), um processador de sinal digital (DSP)) e/ou módulo baseado em software (por exemplo, um módulo de código de computador armazenado na memória e/ou executado no processador) capaz de executar uma ou mais funções específicas associadas àquele módulo.
[0018] As modalidades e métodos aqui descritos podem utilizar dados de reconhecimento facial para (1) pesquisar por uma ou mais imagens de um usuário registrado (por exemplo, uma pessoa cujos dados de reconhecimento facial são predeterminados) em um fluxo de
Petição 870180048519, de 07/06/2018, pág. 10/90
7/68 vídeo e (2) prover um fluxo de vídeo que inclui dados contextuais para um dispositivo de cliente associado ao usuário (por exemplo, um smartphone, tablet, computador, dispositivo eletrônico usável, etc.). Reconhecimento facial geralmente envolve analisar uma ou mais imagens de uma face da pessoa para determinar, por exemplo, características salientes de sua estrutura facial (por exemplo, maçãs do rosto, queixo, orelhas, olhos, mandíbula, nariz, linha de cabelo, etc.) e então definir um conjunto de dados qualitativos e/ou quantitativos associados a e/ou de outro modo representando as características salientes. Uma proposta, por exemplo, inclui extrair dados associados às características salientes de uma face da pessoa e definir um conjunto de dados que inclui informações geométricas e/ou baseadas em coordenadas (por exemplo, uma análise tridimensional (3D) de dados de reconhecimento facial). Outra proposta, por exemplo, inclui destilar dados de imagem em valores qualitativos e comparar estes valores com gabaritos ou similares (por exemplo, uma análise bidimensional (2D) de dados de reconhecimento facial). Em alguns casos, outra proposta pode incluir qualquer combinação adequada de analítica 3D e analítica 2D.
[0019] Alguns métodos e/ou algoritmos de reconhecimento facial incluem Análise de Componente Principal utilizando Eigenfaces (por exemplo, Eigenvector associado a reconhecimento facial), Análise Discriminativa Linear, Coincidência de Gráfico de Bunch Elástico que utiliza o algoritmo Fisherface, modelo Hidden Markov, Aprendizado de Subespaço Multilinear que utiliza representação de tensor, coincidência de conexão dinâmica motivada neuronal, redes neurais convolucionais (CNN), e/ou similares ou sua combinação. Qualquer das modalidades e/ou métodos aqui descritos podem utilizar e/ou implementar qualquer método e/ou algoritmo de reconhecimento facial ou sua combinação tal como aqueles acima descritos.
[0020] A Figura 1A é uma ilustração esquemática de um sistema
Petição 870180048519, de 07/06/2018, pág. 11/90
8/68 de reconhecimento de vídeo 100 de acordo com uma modalidade. Em alguns casos, o sistema de reconhecimento de vídeo 100 (também aqui referido como sistema) pode ser utilizado para apresentar um fluxo de vídeo de um usuário com base pelo menos em parte em dados de reconhecimento facial. Pelo menos uma porção do sistema 100 pode ser por exemplo, representado e/ou descrito por um conjunto de instruções ou código armazenado em uma memória e executado em um processador de um dispositivo eletrônico (por exemplo, um dispositivo hospedeiro, um servidor ou grupo de servidores, um computador pessoal (PC), um dispositivo de rede, etc.) e/ou similares. Por exemplo, em algumas modalidades, um dispositivo hospedeiro pode receber um sinal associado a uma solicitação para registrar dados de reconhecimento facial associados a um usuário e em resposta, pode armazenar os dados de reconhecimento facial em um banco de dados. Similarmente, o dispositivo hospedeiro pode receber um sinal associado aos dados de fluxo de vídeo. Em alguns casos, um ou mais processadores do dispositivo hospedeiro pode então executar um conjunto de instruções ou código, armazenado em uma memória do dispositivo hospedeiro, associado à análise de dados de fluxo de vídeo para determinar se uma ou mais imagens do usuário estão presentes no fluxo de vídeo com base pelo menos em parte nos dados de reconhecimento facial e/ou informações de localização (tal como dados de marco). Se as imagens forem encontradas nos dados de fluxo de vídeo, os um ou mais processadores podem isolar uma porção associada aos dados de fluxo de vídeo. Mais ainda, os um ou mais processadores podem executar um conjunto de instruções ou código para (1) associar dados contextuais tal como tempo, localização, evento, etc. com dados de fluxo de vídeo e (2) definir um fluxo de vídeo contextual do usuário. Os um ou mais processadores pode então enviar, para um dispositivo de cliente associado ao usuário, um sinal indicativo de uma
Petição 870180048519, de 07/06/2018, pág. 12/90
9/68 instrução para apresentar o fluxo de vídeo contextual do usuário em um display do dispositivo de cliente (por exemplo, graficamente renderizando o fluxo de vídeo contextual em uma interface instanciada sobre o dispositivo de cliente).
[0021] O sistema 100 inclui um dispositivo hospedeiro 110 em comunicação com um banco de dados 140, um dispositivo de cliente 150, e um sistema de captura de imagem 160. O dispositivo hospedeiro 110 pode ser qualquer dispositivo hospedeiro adequado tal como um servidor ou grupo de servidores, um dispositivo de gerenciamento de rede, um computador pessoal (PC), uma unidade de processamento, e/ou similares em comunicação eletrônica com o banco de dados 140, o dispositivo de cliente 150, e o sistema de captura de imagem 160. Por exemplo, nesta modalidade, o dispositivo hospedeiro 110 pode ser um servidor ou grupo de servidores (dispostos substancialmente na mesma localização e/ou instalação ou distribuídos em mais do que uma localização) em comunicação eletrônica como o banco de dados 140, o dispositivo de cliente 150, e o sistema de captura de imagem 160 através de uma rede 105, como aqui descrito em mais detalhes.
[0022] O dispositivo de cliente 150 pode ser qualquer dispositivo adequado tal como um PC, um laptop, um laptop convertível, um tablet, um assistente digital pessoal (PDA), um smartphone, um dispositivo eletrônico usável (por exemplo, um relógio inteligente, etc.), e/ou similares. Apesar de não mostrado na Figura 1, em algumas modalidades, o dispositivo de cliente 150 pode ser um dispositivo eletrônico que inclui pelo menos uma memória, um processador, uma interface de comunicação, um display, e uma ou mais entradas. A memória, o processador, a interface de comunicação, o display, e a(s) entrada(s) podem estar conectados e/ou eletricamente acoplados uns nos outros de modo a permitir que sinais sejam enviados entre estes. Por exemPetição 870180048519, de 07/06/2018, pág. 13/90
10/68 pio, em algumas modalidades, a memória pode ser uma memória de acesso randômico (RAM), uma memória temporária, uma unidade rígida, uma memória somente de leitura (ROM), uma memória somente de leitura programável apagável (EPROM), e/ou similares. O processador pode ser qualquer dispositivo de processamento adequado configurado para operar ou executar um conjunto de instruções ou código (por exemplo, armazenados na memória) tal como um processador de uso geral (GPP), uma unidade de processamento central (CPU), uma unidade de processamento acelerada (APU), uma unidade de processador gráfico (GPU), um Circuito Integrado de Aplicação Específica (ASIC), e/ou similares. Tal processador pode operar ou executar um conjunto de instruções ou código armazenados na memória associada à utilização de uma aplicação de PC, uma aplicação móvel, um navegador da web de internet, uma comunicação celular e/ou sem fio (através de uma rede), e/ou similares. Mais especificamente, o processador pode executar um conjunto de instruções ou código armazenadas na memória associada a envio de reconhecimento facial para o e/ou receber dados de reconhecimento facial e/ou dados de fluxo de vídeo contextual do dispositivo hospedeiro 110, como aqui descrito em mais detalhes.
[0023] A interface de comunicação do dispositivo de cliente 150 pode ser qualquer módulo e/ou dispositivo adequado que possa colocar o recurso em comunicação com o dispositivo hospedeiro 110 tal como uma ou mais placas de interface de rede ou similares. Tal placa de interface de rede pode incluir, por exemplo, uma porta Ethernet, um rádio WiFi®, um rádio Bluetooth®, um rádio de comunicação de campo próximo (NFC), e/ou um rádio celular que pode colocar o dispositivo de cliente 150 em comunicação com o dispositivo hospedeiro 110 através de uma rede (por exemplo, a rede 105) ou similares. Como tal, a interface de comunicação pode enviar sinais para o e/ou receber sinais do
Petição 870180048519, de 07/06/2018, pág. 14/90
11/68 processador associado à comunicação eletrônica com o dispositivo hospedeiro 110 através da rede 105.
[0024] O display do dispositivo de cliente 150 pode ser, por exemplo, um monitor de tubo de raios catódicos (CRT), um monitor display de cristal líquido (LCD), um monitor de diodo de emissão de luz (LED), e/ou similares que pode graficamente representar qualquer porção adequada do sistema 100 (por exemplo, uma interface de usuário gráfica (GUI) associada a uma webpage, aplicação de PC, aplicação móvel, e/ou similares). Em algumas modalidades, tal display pode ser e/ou pode incluir uma tecla de toque configurada para receber uma entrada de usuário háptica. Em alguns casos, o display pode estar configurado para graficamente representar os dados associados a um processo de reconhecimento facial e/ou dados associados a um fluxo de vídeo, como aqui descrito em mais detalhes.
[0025] A(s) entrada(s) do dispositivo de cliente 150 pode ser qualquer módulo e/ou dispositivo adequado que possa receber uma ou mais entradas (por exemplo, usuário entradas) e que possam enviar sinais para o e/ou receber sinais do processador associado a uma ou mais entradas. Em algumas modalidades, a(s) entrada(s) podem ser e/ou podem incluir portas, plugues, e/ou outras interfaces configuradas para serem colocadas em comunicação eletrônica com um dispositivo. Por exemplo, tal entrada pode ser uma porta de barramento serial universal (USB), uma porta de Institute of Electrical and Electronics Engineers (IEEE) 1394 (FireWire), uma porta Thunderbolt, uma porta Lightning, e/ou similares. Em algumas modalidades, o display pode estar incluído em uma tela de toque ou similares configurada para receber uma entrada de usuário háptica.
[0026] Em algumas modalidades, uma entrada pode ser uma câmera e/ou outro dispositivo de formação de imagem. Por exemplo, em algumas modalidades, tal câmera pode estar integrada no dispositivo
Petição 870180048519, de 07/06/2018, pág. 15/90
12/68 de cliente 150 (por exemplo, como em smartphones, tablets, laptops, etc.) e/ou pode estar em comunicação com o dispositivo de cliente 150 através de uma porta ou similares (por exemplo, tal como aquelas acima descritas). A câmera pode ser qualquer dispositivo de formação de imagem adequado tal como, por exemplo, um webcam ou uma câmera que faceia para frente incluída em um smartphone ou tablet (por exemplo, uma câmera apontada substancialmente na mesma direção que o display). Neste modo, o usuário pode manipular o dispositivo de cliente 150 para fazer com que a câmera capture uma imagem (por exemplo, uma foto) ou um vídeo. Mais ainda, em alguns casos, o display pode estar configurado para graficamente renderizar dados associados a uma imagem capturada pela câmera. Por meio de exemplo, em algumas modalidades, o dispositivo de cliente 150 pode ser um smartphone, tablet, ou dispositivo eletrônico usável que inclui uma câmera que faceia para frente. Em alguns casos, a usuário pode manipular o dispositivo de cliente 150 para fazer uma imagem ou vídeo de si mesmo ou si mesma através da câmera (por exemplo, também conhecido como uma selfie).
[0027] Em alguns casos, uma câmera (por exemplo, uma entrada) incluída no dispositivo de cliente 150 pode ser utilizada para capturar uma imagem da face do usuário, a qual por sua vez, pode ser utilizada para registrar dados de reconhecimento facial associados ao usuário. Especificamente, o usuário pode manipular o dispositivo de cliente 150 de modo que a câmera capture uma imagem da face do usuário. Em alguns casos, o display pode estar configurado para graficamente renderizar uma indicação, quadro, limite, guia, e/ou qualquer outra representação gráfica de dados adequada, os quis podem prover uma indicação para um usuário associado a um alinhamento desejado para a imagem da face do usuário. Uma vez que a câmera captura a imagem desejada, o processador pode receber e/ou recuperar dados associa
Petição 870180048519, de 07/06/2018, pág. 16/90
13/68 dos à imagem da face do usuário e, por sua vez, pode executar um conjunto de instruções ou código (por exemplo, armazenadas na memória) associadas a pelo menos uma porção de um processo de reconhecimento facial. Por exemplo, em alguns casos, o processador pode executar um conjunto de instruções ou código associados a verificação de um alinhamento entre uma indicação, quadro, limite, etc. graficamente renderizado sobre o display e a imagem capturada da face do usuário. Em alguns casos, o dispositivo de cliente 150 pode estar configurado para enviar, através da rede 105, um sinal associado a dados que representam a imagem do usuário para o dispositivo hospedeiro 110 quando o alinhamento é verificado, e em resposta, o dispositivo hospedeiro 110 pode executar qualquer processo ou processos de reconhecimento facial adequados sobre os dados, como aqui descrito em mais detalhes.
[0028] O sistema de captura de imagem 160 pode ser e/ou pode incluir qualquer dispositivo ou dispositivos adequados configurados para capturar dados de imagem. Por exemplo, o sistema de captura de imagem 160 pode ser e/ou pode incluir uma ou mais câmeras e/ou dispositivos de gravação de imagem configurados para capturar uma imagem (por exemplo, uma foto) e/ou gravar um fluxo de vídeo. Em algumas modalidades, o sistema de captura de imagem 160 pode incluir múltiplas câmeras em comunicação com um dispositivo de computação central tal como um servidor, um computador pessoal, um dispositivo de armazenamento de dados (por exemplo, um dispositivo de armazenamento anexado a rede (NAS), um banco de dados, etc.), e/ou similares. Em tais modalidades, as câmeras podem ser autônomas (por exemplo, podem capturar dados de imagem sem estímulo e/ou entrada de usuário), e podem cada uma enviar dados de imagem para o dispositivo de computação central (por exemplo, através de uma conexão com fio ou sem fio, uma porta, um barramento serial,
Petição 870180048519, de 07/06/2018, pág. 17/90
14/68 uma rede, e/ou similares), o qual por sua vez, pode armazenar os dados de imagem em uma memória e/ou outro dispositivo de armazenamento de dados. Mais ainda, o dispositivo de computação central pode estar em comunicação com o dispositivo hospedeiro 110 (por exemplo, através da rede 105) e pode estar configurado para enviar pelo menos uma porção dos dados de imagem para o dispositivo hospedeiro 110. Apesar de mostrado na Figura 1 como estando em comunicação com o dispositivo hospedeiro 110 através da rede 105, em outras modalidades, tal dispositivo de computação central pode estar incluído em, uma parte de, e/ou de outro modo acoplado no dispositivo hospedeiro 110. Em ainda outras modalidades, as câmeras podem estar em comunicação com o dispositivo hospedeiro 110 (por exemplo, através da rede 105) sem tal dispositivo de computação central.
[0029] Em algumas modalidades, o sistema de captura de imagem 160 pode estar associado a e/ou possuído por um local ou similares tal como, por exemplo, uma arena de esportes, um parque temático, um teatro, e/ou qualquer outro local adequado. Em outras modalidades, o sistema de captura de imagem 160 pode ser utilizado dentro ou em um local mas possuído por uma diferente entidade (por exemplo, uma entidade licenciada e/ou de outro modo autorizada para utilizar o sistema de captura de imagem 160 dentro ou no local tal como, por exemplo, uma câmera de televisão em um evento esportivo). Em ainda outras modalidades, o sistema de captura de imagem 160 pode incluir qualquer número de dispositivos de cliente (por exemplo, dispositivo de usuários) ou similares tais como smartphones, tablets, etc., os quais podem ser utilizados como câmeras ou gravadores. Em tais modalidades, pelo menos alguns dos dispositivos de cliente podem estar em comunicação com o dispositivo hospedeiro 110 e/ou um dispositivo de computação central associado ao local (por exemplo, como acima descrito).
Petição 870180048519, de 07/06/2018, pág. 18/90
15/68 [0030] Por exemplo, em algumas modalidades, a câmera integrada no dispositivo de cliente 150 pode formar e/ou compreender pelo menos uma porção do sistema de captura de imagem 160, como mostrado na Figura 1B. Neste modo, o usuário pode manipular o dispositivo de cliente 150 para capturar uma imagem e/ou gravação de vídeo e em resposta, o dispositivo de cliente 150 pode carregar e/ou de outro modo enviar a imagem (por exemplo, dados de imagem, dados fotográficos, etc.) e/ou dados de gravação de vídeo para o dispositivo hospedeiro 110. Em alguns casos, a imagem e/ou dados de gravação de vídeo podem ser armazenados no dispositivo de cliente 150 por qualquer tempo adequado e carregados e/ou enviados para o dispositivo hospedeiro 110 em um tempo posterior. Mais ainda, a imagem e/ou dados de gravação de vídeo podem ser armazenados no dispositivo de cliente 150 após a imagem e/ou dados de gravação de vídeo serem enviados para o dispositivo hospedeiro 110. Isto quer dizer, enviar a imagem e/ou dados de gravação de vídeo não apaga e/ou remove a imagem e/ou dados de gravação de vídeo do dispositivo de cliente 150 (por exemplo, uma cópia dos dados é enviada para o dispositivo hospedeiro 110). Assim, como mostrado na Figura 1B, o sistema de captura de imagem 160 não precisa estar associado a um evento e/ou local específico. Em tais casos, o usuário pode manipular o dispositivo de cliente 150 (por exemplo, uma aplicação do dispositivo de cliente 150) para capturar um conteúdo gerado pelo usuário (por exemplo, imagens, dados de imagem, dados fotográficos, dados de fluxo de vídeo, etc.) através da câmera e/ou dispositivo de gravação (por exemplo, o sistema de captura de imagem 160) integrado no dispositivo de cliente 150.
[0031] Em alguns casos, o sistema de captura de imagem 160 está configurado para capturar dados de imagem associados a um local e/ou evento. Em outras palavras, o sistema de captura de imagem
Petição 870180048519, de 07/06/2018, pág. 19/90
16/68
160 está configurado para capturar dados de imagem dentro de um contexto predeterminado, conhecido, e/ou dado. Por exemplo, em alguns casos, o sistema de captura de imagem 160 pode incluir um ou mais dispositivos de captura de imagem (por exemplo, câmeras e/ou vídeo gravadores) que estão instalados em uma arena ou similares e que estão configurados para capturar dados de imagem associados a patronos, convidados, intérpretes, etc. na arena. Neste modo, o sistema de captura de imagem 160 está configurado para capturar dados de imagem dentro do contexto da arena e/ou um evento que ocorre na arena. Assim, os dados de imagem capturados podem ser, por exemplo, dados de imagem contextuais. Isto quer dizer, os dados de imagem estão associados a dados contextuais. Como aqui descrito em mais detalhes, o dispositivo hospedeiro 110 pode receber os dados de imagem e/ou dados de fluxo de vídeo do sistema de captura de imagem 160 e dados associados ao contexto (por exemplo, dados contextuais associados ao arena e/ou o evento que ocorre na arena, e/ou quaisquer outros contextuais e/ou metadados adequados) de qualquer fonte de dados adequada e/ou similares; pode associar os dados contextuais com, por exemplo, os dados de imagem; pode definir uma imagem contextual específica de usuário e/ou fluxo de vídeo contextual específico de usuário associados a, por exemplo, um usuário do dispositivo de cliente 150; e pode enviar a imagem contextual específica de usuário e/ou fluxo de vídeo contextual específico de usuário associados ao usuário para o dispositivo de cliente 150.
[0032] Como acima descrito, o dispositivo de cliente 150 e o sistema de captura de imagem 160 podem estar em comunicação com o dispositivo hospedeiro 110 através de uma ou mais redes. Por exemplo, como mostrado na Figura 1 A, o dispositivo de cliente 150 e o sistema de captura de imagem 160 podem estar em comunicação com o dispositivo hospedeiro 110 através de sua interface de comunicação e
Petição 870180048519, de 07/06/2018, pág. 20/90
17/68 a rede 105. A rede 105 pode ser qualquer tipo de rede tal como, por exemplo, uma rede de área local (LAN), uma rede virtual tai como uma rede de área local virtual (VLAN), uma rede de área ampla (WAN), uma rede de área metropolitana (MAN), uma interoperabilidade mundial para rede de acesso de microondas (WiMAX), uma rede celular, a Internet, e/ou qualquer outra rede adequada implementada como uma rede com fio e/ou sem fio. Por meio de exemplo, a rede 105 pode ser implementada como uma rede de área local sem fio (WLAN) com base nos padrões do Institute of Electrical and Electronics Engineers (IEEE)
802.11 (também conhecida como WiFi ®). Mais ainda, a rede 105 pode incluir uma combinação de redes de qualquer tipo, tal como, por exemplo, uma LAN ou WLAN e a Internet. Em algumas modalidades, o dispositivo de cliente 150 pode comunicar com o dispositivo hospedeiro 110 e a rede 105 através de redes intermediárias e/ou redes alternadas (não mostradas), as quais podem ser similares a ou diferentes da rede 105. Como tal, o dispositivo de cliente 150 pode enviar dados para e/ou receber dados do dispositivo hospedeiro 110 utilizando múltiplos modos de comunicação (por exemplo, associado a qualquer uma das redes acima descritas) que podem ou não ser transmitidos para o dispositivo hospedeiro 110 utilizando uma rede comum. Por exemplo, o dispositivo de cliente 150 pode ser um telefone móvel (por exemplo, smartphone) conectado no dispositivo hospedeiro 110 através de uma rede celular e a Internet (por exemplo, a rede 105).
[0033] Em alguns casos, a rede pode facilitar, por exemplo, uma seção de rede em par ou similares. Em tais casos, a seção de rede em par pode incluir, por exemplo, dispositivos de cliente e/ou qualquer outro dispositivo eletrônico adequado, cada um dos quais compartilha uma característica comum. Por exemplo, em alguns casos, a seção de rede em par pode incluir qualquer outro dispositivo de cliente adequado (por exemplo, um dispositivo eletrônico registrado no banco de
Petição 870180048519, de 07/06/2018, pág. 21/90
18/68 dados 140 e/ou similares) que está dentro de uma proximidade predeterminada de um local, evento, localização, etc. Por exemplo, em alguns casos, tal seção de rede em par pode incluir qualquer número de dispositivos de cliente registrados presentes em um local (por exemplo, um evento de esporte). Em alguns casos, a seção de rede em par pode ser automaticamente estabelecida com base em dados contextuais associados ao usuário e/ou o dispositivo de cliente. Em outros casos, a seção de rede em par pode ser automaticamente estabelecida com base em um ou mais usuários fazendo check-in e/ou de outro modo publicando a sua presença no local ou similares (por exemplo, gritar a presença do usuário). Em alguns casos, a usuário pode fazer check-in em um tempo que o usuário chegou em um evento ou similares (por exemplo, evento de esporte, concerto, casamento, festa de aniversário, reunião, etc.), em um tempo de registro, em um tempo de capturar uma imagem ou fluxo de vídeo, e/ou similares. Ainda, o check-in pode incluir identificar informações tais como, por exemplo, dados de geolocalização, dados de data e hora, dados de identificação pessoal ou de usuário, etc. Em algumas implementações, um usuário pode também, através de uma aplicação no seu dispositivo de cliente 150, pesquisar por eventos e/ou localizações para os quis os dados de fluxo de vídeo contextual foram capturados. O usuário pode fazer check-in no evento e/ou localizações que são retornadas da pesquisa. Como aqui descrito, fazer check-in em um evento e/ou localização pode iniciar um processamento dos dados de fluxo de vídeo contextuais associados àquele evento e/ou localização, por exemplo, para determinar se ou não o usuário pode ser coincidido com os dados de fluxo de vídeo contextuais.
[0034] Em outros casos, um usuário pode manualmente estabelecer uma seção de rede em par que inclui, por exemplo, um conjunto ou grupo de usuários predeterminado. Em alguns casos, tais seções de
Petição 870180048519, de 07/06/2018, pág. 22/90
19/68 rede em par podem ser redes públicas, redes privadas, e/ou de outro modo redes de acesso limitado. Por exemplo, em alguns casos, um usuário pode solicitar unir a uma seção de rede e/ou pode receber um convite para unir a uma seção de rede e/ou similares. Em alguns casos, estabelecer uma seção de rede em par pode, por exemplo, facilitar a comunicação (por exemplo, seções de bate papo de grupo ou similares) e/ou compartilhamento de imagem e/ou dados de vídeo entre os usuários incluídos na seção de rede em par.
[0035] O dispositivo hospedeiro 110 pode ser qualquer dispositivo adequado configurado para enviar dados para e/ou receber dados do banco de dados 140, do dispositivo de cliente 150, e/ou do sistema de captura de imagem 160. Em algumas modalidades, o dispositivo hospedeiro 110 pode funcionar como, por exemplo, um servidor dispositivo (por exemplo, um dispositivo de servidor da web), um dispositivo de gerenciamento de rede, um dispositivo administrator, e/ou assim por diante. Em algumas modalidades, o dispositivo hospedeiro 110 pode ser um grupo de servidores ou dispositivos alojados juntos dentro ou sobre a mesma placa, gabinete, e/ou instalação ou distribuídos em ou sobre múltiplas placas, gabinetes, e/ou instalações. O dispositivo hospedeiro 110 inclui pelo menos uma memória 115, um processador 120, e uma interface de comunicação 125 (ver, por exemplo, Figura 2). Em algumas modalidades, a memória 115, o processador 120, e a interface de comunicação 125 estão conectadas e/ou eletricamente acopladas de modo que sinais possam ser enviados entre a memória 115, o processador 120, e a interface de comunicação 125. O dispositivo hospedeiro 110 pode também incluir e/ou pode de outro modo estar operativamente acoplado no banco de dados 140 configurado para armazenar dados de usuário, dados de reconhecimento facial, dados contextuais (por exemplo, associados a um tempo, localização, local, evento, etc.), fluxos de vídeo, e/ou similares.
Petição 870180048519, de 07/06/2018, pág. 23/90
20/68 [0036] A memória 115 pode ser, por exemplo, uma RAM, uma memória temporária, uma unidade rígida, um banco de dados, uma ROM, uma EPROM, uma EEPROM, e/ou assim por diante. Em alguns casos, a memória 115 do dispositivo hospedeiro 110 inclui um conjunto de instruções ou código utilizados para executar uma ou mais ações de reconhecimento facial e/ou utilizada para comunicar (por exemplo, enviar e/ou receber) dados com pelo menos um dispositivo (por exemplo, o dispositivo de cliente 150) utilizando um ou mais modos de comunicação adequados. O processador 120 pode ser qualquer processador adequado tal como, por exemplo, um GPP, uma CPU, uma APU, uma GPU, um processador de rede, um processador de interface inicial, um ASIC, uma FPGA, e/ou similares. Assim, o processador 120 pode estar configurado para operar e/ou executar um conjunto de instruções, módulos, e/ou código armazenados na memória 115. Por exemplo, o processador 120 pode estar configurado para executar um conjunto de instruções e/ou módulos associados a, inter alia, receber dados de reconhecimento facial (por exemplo, do dispositivo de cliente 150), analisar os dados de reconhecimento facial, registrar e/ou armazenar os dados de reconhecimento facial, receber dados de fluxo de vídeo (por exemplo, do sistema de captura de imagem 160), analisar os dados de fluxo de vídeo e comparar os dados de fluxo de vídeo com os dados de reconhecimento facial, enviar dados de fluxo de vídeo (por exemplo, para o dispositivo de cliente 150), receber e/ou analisar características dos dados de fluxo de vídeo (por exemplo, informações de localização determinadas com base em tais dados de marco de fundo e/ou cenário de fundo incluídos nos dados de fluxo de vídeo, e/ou similares), e/ou qualquer outro processo adequado, como adicionalmente aqui descrito. A interface de comunicação 125 pode ser qualquer dispositivo adequado que possa colocar o dispositivo hospedeiro 110 em comunicação com o banco de dados 140, o dispo
Petição 870180048519, de 07/06/2018, pág. 24/90
21/68 sitivo de cliente 150, o dispositivo de captura de imagem 160 e/ou qualquer outro dispositivo adequado e/ou serviço em comunicação com a rede 105 (por exemplo, qualquer dispositivo configurado para reunir e/ou pelo menos temporariamente armazenar dados tais como dados de reconhecimento facial, fluxos de vídeo, e/ou similares). Em algumas modalidades, a interface de comunicação 125 pode incluir uma ou mais interfaces com fio e/ou sem fio, tal como, por exemplo, placas de interface de rede (NIC), interfaces Ethernet, interfaces de portadora ótica (OC), interfaces de modo de transferência assíncrono (ATM), interfaces e/ou sem fio (por exemplo, um rádio WiFi®, um rádio Bluetooth®, um rádio NFC, e/ou similares).
[0037] Retornando à Figura 1 A, o banco de dados 140 associado ao dispositivo hospedeiro 110 pode ser qualquer banco de dados adequado tal como, por exemplo, um banco de dados relacionai, um banco de dados de objeto, uma banco de dados relacionai de objeto, um banco de dados hierárquico, um banco de dados de rede, um banco de dados de relação de entidade, banco de dados de linguagem de consulta estruturada (SQL), um banco de dados de linguagem markup extensível (XML), repositório digital, uma biblioteca de mídia, um servidor ou armazenamento de nuvem, e/ou similares. Em algumas modalidades, o dispositivo hospedeiro 110 pode estar em comunicação com o banco de dados 140 sobre qualquer rede adequada (por exemplo, a rede 105) através da interface de comunicação 125. Em tais modalidades, o banco de dados 140 pode estar incluído ou armazenado por um dispositivo de armazenamento anexado em rede (NAS) que pode comunicar com o dispositivo hospedeiro 110 sobre a rede 105 e/ou quaisquer outras rede(s). Em outras modalidades, o banco de dados pode estar armazenado na memória 115 do dispositivo hospedeiro 110. Em ainda outras modalidades, o banco de dados pode estar operativamente acoplado no dispositivo hospedeiro 110 através de
Petição 870180048519, de 07/06/2018, pág. 25/90
22/68 um cabo, um barramento, um gabinete de servidor, e/ou similares.
[0038] O banco de dados 140 pode armazenar e/ou pelo menos temporariamente reter dados associados ao sistema de reconhecimento de vídeo 100. Por exemplo, em alguns casos, o banco de dados 140 pode armazenar dados associados a e/ou de outro modo representando perfis de usuário, listas de recursos, dados de reconhecimento facial, modos, e/ou métodos, dados contextuais (por exemplo, associada a um tempo, localização, local, evento, etc.), fluxos de vídeo ou suas porções, informações de localização (tal como dados de marco), e/ou similares. Em outras palavras, o banco de dados 140 pode armazenar dados associados a usuários cujos dados de imagem facial foram registrados pelo sistema 100 (por exemplo, usuários registrados). Em algumas modalidades, o banco de dados 140 pode ser e/ou pode incluir um banco de dados relacionai, no qual os dados podem ser armazenados, por exemplo, em tabelas, matrizes, vetores, etc. de acordo com o modelo relacionai. Por meio de exemplo, em alguns casos, o dispositivo hospedeiro 110 pode estar configurado para armazenar no banco de dados 140 os dados de fluxo de vídeo recebidos de uma fonte de vídeo ou imagem (por exemplo, o sistema de captura de imagem 160) e dados contextuais associados aos dados de fluxo de vídeo. Em alguns casos, os dados de fluxo de vídeo e os dados contextuais associados a estes podem coletivamente definir um fluxo de vídeo contextual ou similares, como aqui descrito em mais detalhes. Em outros casos, os dados de fluxo de vídeo podem ser armazenados no banco de dados 140 serem dados contextuais ou similares.
[0039] Em algumas implementações, os perfis de usuário pode ser estruturas de dados de perfil de usuário que incluem informações relativas a usuários que acessam os dados de fluxo de vídeo. Por exemplo, uma estrutura de dados de perfil de usuário pode incluir um identificador de perfil de usuário, dados de reconhecimento facial (por
Petição 870180048519, de 07/06/2018, pág. 26/90
23/68 exemplo, dados obtidos de uma imagem do usuário (por exemplo, dados de característica facial) que podem ser utilizados para coincidir o usuário com uma imagem dos dados de fluxo de vídeo contextual), uma lista de identificadores associados a estruturas de dados de fluxo de vídeo contextual armazenadas no banco de dados 140 e associadas ao usuário, uma lista de identificadores associados às estruturas de dados de perfil de usuário de outros usuários com os quais o usuário está associado (por exemplo, como um amigo e/ou contato), a dados de localização de usuário, e/ou similares.
[0040] Em algumas implementações, os usuários podem adicionar uns aos outros como amigos dentro de uma aplicação através da qual estes acessam os dados de fluxo de vídeo contextual. Os usuários podem também ser automaticamente associados uns aos outros, por exemplo, quando um usuário associado a um primeiro perfil de usuário é um contato de outro usuário associado a um segundo perfil de usuário. Por exemplo, um usuário que opera um dispositivo de cliente pode ter uma lista de contatos, e/ou outras informações de contato, armazenadas no dispositivo de cliente. A aplicação pode recuperar e importar as informações de contato, pode coincidir as informações de contato com informações em pelo menos um perfil de usuário no banco de dados, e pode automaticamente associar este pelo menos um perfil de usuário com este usuário. Em algumas implementações, os usuários podem ser associados uns aos outros armazenando uma lista de amigos e/ou contatos (por exemplo, uma lista de identificadores de perfis de usuário a serem adicionados como amigos de um usuário específico) dentro de cada perfil de usuário de cada usuário. Quando um usuário adiciona um amigo e/ou contato, o usuário pode automaticamente ser notificado quando o amigo e/ou contato grava e/ou recebe dados de fluxo de vídeo contextual, e/ou similares. Em algumas implementações, o dispositivo hospedeiro 110 pode também utilizar as relações
Petição 870180048519, de 07/06/2018, pág. 27/90
24/68 armazenadas entre os usuários para automaticamente processar os dados de fluxo de vídeo contextual associados ao usuário (por exemplo, para determinar se os amigos e/ou contatos do usuário podem ser encontrados dentro dos dados de fluxo de vídeo contextual). Por exemplo, quando os dados de fluxo de vídeo contextual são recebidos, quando um amigo e/ou contato é associado ao usuário, e/ou similares, o dispositivo hospedeiro 110 pode automaticamente processar os dados de fluxo de vídeo contextual para determinar se os dados de imagem facial associados aos amigos e/ou contatos do usuário podem ser coincididos com os dados de fluxo de vídeo contextual.
[0041] Apesar do dispositivo hospedeiro 110 ser mostrado e descrito com referência à Figura 1 como incluindo e/ou de outro modo sendo operativamente acoplado no banco de dados 140 (por exemplo, um único banco de dados), em algumas modalidades, o dispositivo hospedeiro 110 pode ser operativamente acoplado a qualquer número de banco de dados. Tais bancos de dados podem estar configurados para armazenar pelo menos uma porção de um conjunto de dados associado ao sistema 100. Por exemplo, em algumas modalidades, o dispositivo hospedeiro 110 pode estar operativamente acoplado a e/ou de outro modo em comunicação com um primeiro banco de dados configurado para receber e pelo menos temporariamente armazenar os dados de usuário, perfis de usuário, e/ou similares e um segundo banco de dados configurado para receber e pelo menos temporariamente armazenar dados de fluxo de vídeo e dados contextuais associados aos dados de fluxo de vídeo. Em algumas modalidades, o dispositivo hospedeiro 110 pode estar operativamente acoplado a e/ou de outro modo em comunicação com um banco de dados que está armazenado dentro ou sobre o dispositivo de cliente 150 e/ou o sistema de captura de imagem 160. Em outras palavras, pelo menos uma porção de um banco de dados pode estar implementada em e/ou armazenada
Petição 870180048519, de 07/06/2018, pág. 28/90
25/68 pelo dispositivo de cliente 150 e/ou o sistema de captura de imagem 160. Neste modo, o dispositivo hospedeiro 110 e, em alguns casos, o banco de dados 140 pode estar em comunicação com qualquer número de banco de dados que podem estar fisicamente dispostos em uma diferente localização do que o dispositivo hospedeiro 110, apesar de estar em comunicação com o dispositivo hospedeiro 110 (por exemplo, através da rede 105).
[0042] Em algumas modalidades, o banco de dados 140 pode ser banco de dados e/ou repositório pesquisável. Por exemplo, em alguns casos, o banco de dados 140 pode armazenar dados de fluxo de vídeo associados a um usuário (por exemplo, dados de fluxo de vídeo contextual). Em alguns casos, o usuário pode pesquisar o banco de dados 140 para recuperar e/ou ver um ou mais fluxo de vídeo contextuais associados ao usuário que estão armazenados no banco de dados 140. Em alguns casos, o usuário pode ter um acesso e/ou privilégios limitados para atualizar, editar, apagar, e/ou adicionar fluxos de vídeo associados ao seu perfil de usuário (por exemplo, fluxos de vídeo contextuais específicos de usuários e/ou similares). Em alguns casos, o usuário pode, por exemplo, atualizar e/ou modificar permissões e/ou acesso associados a fluxos de vídeo específicos de usuário associados àquele usuário. Por exemplo, em alguns casos, o usuário pode redistribuir, compartilhar, e/ou salvar dados associados ao usuário. Em outros casos, o usuário pode bloquear o acesso a dados específicos do usuário e/ou similares. Em alguns casos, o usuário pode redistribuir e/ou compartilhar conteúdo, dados, e/ou fluxos de vídeo de outro modo compartilhados com o usuário (por exemplo, que pode ou não estar associados ao usuário).
[0043] Retornando à Figura 2, como acima descrito, o processador 120 do dispositivo hospedeiro 110 pode estar configurado para executar módulos específicos. Os módulos podem ser, por exemplo, módu
Petição 870180048519, de 07/06/2018, pág. 29/90
26/68 los de hardware, módulos de software armazenados na memória 115 e/ou executados no processador 120, e/ou qualquer sua combinação. Por exemplo, como mostrado na Figura 2, o processador 120 inclui e/ou executa um módulo de análise 121, um módulo de banco de dados 122, um módulo de apresentação 123 e um módulo de localização 124. Como mostrado na Figura 2, o módulo de análise 121, o módulo de banco de dados 122, o módulo de apresentação 123, e o módulo de localização podem estar conectados e/ou eletricamente acoplados. Como tal, os sinais podem ser enviados entre o módulo de análise 121, o módulo de banco de dados 122, o módulo de apresentação 123, e o módulo de localização 124.
[0044] O módulo de análise 121 inclui um conjunto de instruções que podem ser executadas pelo processador 120 (ou sua porção) que estão associadas a receber /ou coletar dados associados a um reconhecimento facial de um usuário e/ou um fluxo de vídeo. Mais especificamente, o módulo de análise 121 pode estar operativamente acoplado a e/ou de outro modo em comunicação com a interface de comunicação 125 e pode receber dados desta. Tais dados podem ser, por exemplo, associados a um usuário (por exemplo, informações de reconhecimento facial, informações de perfil, preferências, registros de atividade, informações de localização, informações de contato, informações de calendário, informações de atividade de mídia social, etc.), um local (por exemplo, dados de localização, dados de recursos, programação de evento), um evento, e/ou similares. Como aqui descrito em mais detalhes, o módulo de análise 121 pode receber um sinal da interface de comunicação 125 associado a uma solicitação e/ou uma instrução para operar e/ou executar qualquer número de processos associados a reconhecimento facial.
[0045] Em alguns casos, o módulo de análise 121 pode receber dados da interface de comunicação 125 em tempo substancialmente
Petição 870180048519, de 07/06/2018, pág. 30/90
27/68 real. Isto quer dizer, em alguns casos, um dispositivo eletrônico incluído no sistema 100 (por exemplo, o dispositivo de cliente 150) pode ser manipulado por um usuário para definir e/ou atualizar dados associados a reconhecimento facial do usuário e uma vez definidos e/ou atualizados pode enviar a dados para o dispositivo hospedeiro 110 através da rede 105. Assim, a interface de comunicação 125 pode, quando recebendo os dados, enviar um sinal para o módulo de análise 121, o qual recebe os dados em um período de tempo muito curto após serem definidos e/ou atualizados pelo dispositivo eletrônico. Em outras modalidades, o módulo de análise 121 pode receber dados da interface de comunicação 125 em uma taxa predeterminada ou similares com base em, por exemplo, um processo de agregação, um processador corrente e/ou predito, memória, e/ou carga de rede, e/ou similares. [0046] Como acima descrito, o módulo de análise 121 pode estar configurado para receber, agregar, analisar, classificar, analisar gramaticalmente, alterar, e/ou atualizar dados associados a um processo de reconhecimento facial ou similares. Mais especificamente, em alguns casos, um usuário pode manipular o dispositivo de cliente 150 para capturar uma ou mais imagens ou fluxos de vídeo de sua face (como aqui descrito em mais detalhes) e, por sua vez, pode enviar sinais associados a e/ou representando os dados de imagem para o dispositivo hospedeiro 110, por exemplo, através da rede 105. Em alguns casos, a interface de comunicação 125 pode receber os dados de imagem e pode enviar um sinal associado para o módulo de análise 121. Quando do recebimento, o módulo de análise 121 pode executar um conjunto de instruções ou código (por exemplo, armazenados no módulo de análise 121 e/ou na memória 115) associados a agregar, analisar, classificar, atualizar, analisar gramaticalmente, e/ou de outro modo processar os dados de imagem. Mais especificamente, a módulo de análise 121 pode executar qualquer processo e/ou algoritmo de
Petição 870180048519, de 07/06/2018, pág. 31/90
28/68 reconhecimento facial adequado tal como, por exemplo, Análise de Componente Principal utilizando Eigenfaces (por exemplo, Eigenvector associado a reconhecimento facial), Análise de Discriminação Linear, Coincidência de Gráfico Bunch Elástico utilizando o algoritmo Fisherface, modelo Hidden Markov, Aprendizado de Subespaço Multilinear que utiliza representação de tensor, coincidência de conexão dinâmica motivada neuronal, redes neurais convolucionais (CNN), e/ou similares ou sua combinação. Em algumas implementações, os dados de imagem que o usuário provê para o dispositivo hospedeiro 110 podem ser utilizados em subsequentes processos de reconhecimento facial para identificar o usuário, através do módulo de análise 121.
[0047] O módulo de análise 121 pode definir um perfil de usuário ou similares que inclui os dados de imagem do usuário, e quaisquer outras informações ou dados adequados associados ao usuário tal como, por exemplo, uma imagem, gravação de vídeo e/ou gravação de áudio, informações pessoais e/ou de identificação (por exemplo, nome, idade, sexo, aniversário, hobbies, etc.), informações de calendário, informações de contato (por exemplo, associadas ao usuário e/ou os amigos do usuário, família, associados, etc.), informações de dispositivo (por exemplo, um endereço de controle de acesso de mídia (MAC), endereço de Protocolo de Internet (IP), etc.), informações de localização (por exemplo, dados de localização correntes e/ou dados de localização históricos), informações de mídia social (por exemplo, informações de perfil, nome de usuário, senha, amigos ou listas de contatos, etc.), e/ou qualquer outra informações ou dados adequados. Como tal, o módulo de análise 121 pode enviar um sinal para o módulo de banco de dados 122 indicativo de uma instrução para armazenar os dados de perfil de usuário no banco de dados 140, como aqui descrito em mais detalhes.
[0048] Em alguns casos, o módulo de análise 121 pode receber
Petição 870180048519, de 07/06/2018, pág. 32/90
29/68 dados de fluxo de video (ou dados de imagem, por exemplo, de uma fotografia) e pode estar configurado para analisar e/ou processar os dados de fluxo de vídeo para determinar se uma porção dos dados de fluxo de vídeo coincide com qualquer porção adequada de dados de imagem do usuário. Isto quer dizer, o módulo de análise 121 pode utilizar dados de imagem de usuário previamente armazenados como um gabarito contra o qual os dados incluídos no fluxo de vídeo são comparados. Dito de outro modo, o módulo de análise 121 executa um processo de reconhecimento facial e/ou análise sobre os dados de fluxo de vídeo com base pelo menos em parte nos dados de imagem de usuário previamente armazenados. Em algumas modalidades, o dispositivo hospedeiro 110 e mais especificamente, a interface de comunicação 125 recebe os dados de fluxo de vídeo do sistema de captura de imagem 160 ou diretamente (por exemplo, de uma ou mais câmeras através da rede 105) ou indiretamente (por exemplo, de um dispositivo de computação através da rede 105, o qual por sua vez, está em comunicação com as uma ou mais câmeras). Em algumas modalidades, o módulo de análise 121 pode estar configurado para analisar e/ou processar os dados de fluxo de vídeo com base pelo menos em parte em separar, analisar gramaticalmente, classificar, e/ou de outro modo desconstruir os dados de fluxo de vídeo em seus quadros individuais (por exemplo, uma imagem estática em um tempo predeterminado durante o fluxo de vídeo). Como tal, o módulo de análise 121 pode comparar e/ou analisar os dados incluídos no quadro de fluxo de vídeo em relação aos dados de imagem de usuário previamente armazenados.
[0049] Em alguns casos, o módulo de análise 121 pode também analisar os dados de fluxo de vídeo para determinar as informações contextuais associadas ao fluxo de vídeo tal como, por exemplo, localização, local, tempo, evento coincidente (por exemplo, um time de es
Petição 870180048519, de 07/06/2018, pág. 33/90
30/68 porte marcando um gol, sendo capturado, por exemplo, em uma kiss cam, etc.), e/ou quaisquer outras informações contextuais adequadas. Em alguns casos, o módulo de análise 121 pode estar configurado para coincidir, agregar, e/ou de outro modo associar pelo menos uma porção do fluxo de vídeo com os dados contextuais. Por exemplo, em alguns casos, os dados de fluxo de vídeo podem representar, por exemplo, um usuário em um evento de esporte. Em tais casos, os dados contextuais podem ser, por exemplo, um fluxo de vídeo do evento de esporte ou jogo, e podem incluir dados associados a um tempo, localização, local, times, etc. Como tal, o módulo de análise 121 pode estar configurado para agregar os dados de fluxo de vídeo e os dados contextuais de modo que os dados de fluxo de vídeo e os dados contextuais substancialmente coincidam (por exemplo, ocorram e/ou capturem dados associados substancialmente ao mesmo tempo). Em outros casos, os dados contextuais podem incluir dados associados com qualquer outro contexto adequado. Em alguns casos, o módulo de análise 121 pode estar configurado para utilizar as informações contextuais associadas ao fluxo de vídeo, juntamente com os dados relativos à localização de um usuário, para adicionalmente conectar o fluxo de vídeo a um usuário específico. O módulo de análise 121 pode estar configurado para comparar as informações contextuais a uma localização do usuário antes de comparar os dados incluídos no fluxo de vídeo com os dados de imagem de usuário previamente armazenados (ver Figuras 5 e 6 para mais detalhes).
[0050] Se o módulo de análise 121 determinar que pelo menos uma porção dos dados no fluxo de vídeo satisfaz um critério (por exemplo, coincide os dados de imagem de usuário previamente armazenados com uma probabilidade predeterminada e/ou aceitável), o módulo de análise 121 pode enviar um ou mais sinais para o módulo de banco de dados 122 indicativos de uma instrução para armazenar
Petição 870180048519, de 07/06/2018, pág. 34/90
31/68 pelo menos a porção dos dados de imagem e/ou fluxo de vídeo no banco de dados 140 e associar e/ou de outro modo armazenar estes dados com os dados de imagem de usuário previamente armazenados. Em alguns casos, o módulo de análise 121 pode enviar sinais para o módulo de banco de dados 122 de modo que quadros individuais sejam armazenados no banco de dados 140, os quais por sua vez, podem ser subsequentemente recuperados e processados para definir um fluxo de vídeo. Em outros casos, o módulo de análise 121 pode enviar um ou mais sinais para o módulo de banco de dados 122 de modo que a porção dos dados de fluxo de vídeo seja armazenada no banco de dados 140. Isto quer dizer, o módulo de análise 121 pode pelo menos parcialmente redefinir e/ou reconstruir o fluxo de vídeo dos quadros individuais (que foram separados ou descontruídos como acima descrito).
[0051] Em alguns casos, o dispositivo hospedeiro 110 pode receber dados de fluxo de vídeo (por exemplo, do sistema de captura de imagem 160 e através da rede 105 e da interface de comunicação 125) e o módulo de análise 121 e/ou qualquer outro módulo adequado não mostrado na Figura 2, pode executar um ou mais procedimentos de pré-processamento e/ou pré-classificação antes de executar o processo de reconhecimento facial (apenas descrito). Por exemplo, em algumas modalidades, o módulo de análise 121 (ou outro módulo) pode analisar os dados de fluxo de vídeo para determinar como e/ou definir um conjunto de dados que inclui, por exemplo, informações de identificação e/ou informações contextuais tais como localização, tempo, evento, etc. Uma vez definido, o módulo de análise 121 pode analisar os dados de usuário armazenados no banco de dados 140 (por exemplo, através do envio de um sinal para o módulo de banco de dados 122 indicativo de uma instrução para consultar o banco de dados 140 e/ou similares) para determinar se uma porção de dados associaPetição 870180048519, de 07/06/2018, pág. 35/90
32/68 dos a um usuário satisfaz um(uns) critério(s) tal como coincidir o conjunto de dados incluindo as informações contextuais associadas ao fluxo de vídeo.
[0052] Em alguns casos, o(s) critério(s) podem estar associados a um nível de confiança e/ou limite de coincidência, representado em qualquer modo adequado (por exemplo, um valor tal como um decimal, uma percentagem, e/ou similares). Por exemplo, em alguns casos, o(s) critério(s) podem ser um valor limite ou similares tal como uma coincidência de 70% dos dados de fluxo de vídeo e pelo menos uma porção dos dados armazenados no banco de dados, uma coincidência de 75% dos dados de fluxo de vídeo e pelo menos uma porção dos dados armazenados no banco de dados, uma coincidência de 80% dos dados de fluxo de vídeo e pelo menos uma porção dos dados armazenados no banco de dados, uma coincidência de 85% dos dados de fluxo de vídeo e pelo menos uma porção dos dados armazenados no banco de dados, uma coincidência de 90% dos dados de fluxo de vídeo e pelo menos uma porção dos dados armazenados no banco de dados, uma coincidência de 95% dos dados de fluxo de vídeo e pelo menos uma porção dos dados armazenados no banco de dados, uma coincidência de 97,5% dos dados de fluxo de vídeo e pelo menos uma porção dos dados armazenados no banco de dados, uma coincidência de 99% dos dados de fluxo de vídeo e pelo menos uma porção dos dados armazenados no banco de dados, ou qualquer percentagem entre estas.
[0053] Em alguns casos, os dados associados ao usuário podem incluir, por exemplo, dados de calendário, dados de localização, dados de preferência, e/ou similares. Se, por exemplo, os dados não satisfazem o critério, o módulo de análise 121 pode definir uma indicação que os dados associados àquele usuário podem ser excluídos, por exemplo, do processo de reconhecimento facial. Neste modo, o préPetição 870180048519, de 07/06/2018, pág. 36/90
33/68 processamento e/ou pré-classificação podem reduzir uma quantidade de carga de processamento ou similares durante o processo de reconhecimento facial. Apesar de acima descrito como consultando o banco de dados 140 para os dados de usuário, em algumas modalidades, o dispositivo hospedeiro 110 pode enviar um sinal para um dispositivo associado ao usuário (por exemplo, o dispositivo de cliente 150) indicativo de uma solicitação para dados de localização ou similares associados àquele dispositivo. Quando do recebimento dos dados de localização (por exemplo, dados de serviço de posicionamento global (GPS) do dispositivo, utilizando informações de localização e/ou características, tal como um marco e/ou cenário de fundo, dentro de uma imagem ou vídeo, etc.) ou similares, o módulo de análise 121 pode determinar se os dados de localização coincidem com os dados de localização associados ao fluxo de vídeo, como acima descrito.
[0054] Por meio de exemplo, em alguns casos, o módulo de análise 121 pode receber dados de fluxo de vídeo de um evento de esporte que também incluem dados de localização associados a, por exemplo, uma arena. Em resposta, o módulo de análise 121 pode enviar uma solicitação para dados de localização de um dispositivo de cliente (por exemplo, o dispositivo de cliente 150) associado a um usuário. Se, por exemplo, os dados de localização associados ao fluxo de vídeo e os dados de localização associados ao dispositivo de cliente forem substancialmente similares (por exemplo, os dados de localização associados ao fluxo de vídeo e os dados de localização associados ao dispositivo de cliente indicam que a fonte do fluxo de vídeo e do dispositivo de cliente estão e/ou estavam dentro de uma distância predeterminada um do outro) e/ou os dados de localização associados ao dispositivo de cliente estão dentro de uma faixa predeterminada de valores de dados de localização ou similares, o módulo de análise 121 pode aumentar uma pontuação de confiança e/ou de outro modo considerar o
Petição 870180048519, de 07/06/2018, pág. 37/90
34/68 resultado como contribuindo para encontrar o limite e/ou de outro modo satisfazer o(s) critério(s). Os dados de localização podem ser, por exemplo, dados de geolocalização com base em um GPS, localização e/ou dados de rede (por exemplo, através de verificação de NFC, verificação de Bluetooth, triangulação de celular, comutação e/ou protocolos de rede cognitiva, etc.), dados de rede social tal como um checkin, e/ou similares. Por exemplo, o módulo de localização 124 pode processar os dados de localização de modo a identificar a localização do fluxo de vídeo e/ou do usuário, e prover dados para o módulo de análise 121 de modo a permitir que o módulo de análise 121 modifique a pontuação de confiança. Neste modo, a pontuação de confiança pode ser calculada com base nos dados de localização.
[0055] Em outras implementações, o módulo de localização 124 pode processar os dados de localização e pode prover os dados de localização processados para o módulo de análise 121 quando os dados de localização associados ao fluxo de vídeo e os dados de localização associados ao usuário forem substancialmente similares (por exemplo, os dados de localização associados ao fluxo de vídeo e os dados de localização associados ao dispositivo de cliente indicam que a fonte do fluxo de vídeo e o dispositivo de cliente estão e/ou estiveram dentro de uma distância predeterminada um do outro). O módulo de análise 121 pode então gerar e/ou modificar uma pontuação de confiança com base nos dados de localização e uma análise de reconhecimento facial do fluxo de vídeo. Neste modo, a pontuação de confiança pode ser gerada e/ou modificada quando os dados de localização associados ao fluxo de vídeo e os dados de localização associados ao usuário forem determinados serem substancialmente similares e não podem ser gerados e/ou modificados quando os dados de localização associados ao fluxo de vídeo e os dados de localização associados ao usuário não forem substancialmente similares. Ainda, neste
Petição 870180048519, de 07/06/2018, pág. 38/90
35/68 modo, a pontuação de confiança pode ser calculada como um resultado tanto de uma análise de dados de localização quanto uma análise de reconhecimento facial. Mais detalhes sobre o módulo de localização 124 podem ser encontrados pelo menos nas Figuras 5-6. Neste modo, o dispositivo hospedeiro 110 (por exemplo, através do módulo de análise 121) pode determinar, por exemplo, uma proximidade de um dispositivo de cliente a uma localização onde os dados de fluxo de vídeo foram capturados.
[0056] Apesar de descrito como analisando dados de localização, em outros casos, o módulo de análise 121 pode analisar dados associados a qualquer fonte, atividade, localização, padrão, aquisição, etc. adequado. Por exemplo, em alguns casos, o módulo de análise 121 pode analisar vendas de bilhetes associadas a um local. Em outros casos, o módulo de análise 121 pode analisar posts de mídia social, comentários, gostos, etc. Em alguns casos, o módulo de análise 121 pode coletar e/ou analisar dados associados a um usuário (como acima descrito) e pode define, por exemplo, um perfil de usuário que pode incluir, inter alia, dados de identificação de usuário, dados de reconhecimento facial, dados de dispositivo de cliente, dados compra, dados de navegação na web de internet, dados de localização, dados de mídia social, dados de preferência, etc. Assim, dados de perfil do usuário podem ser analisados para determinar uma pontuação de confiança, valor, e/ou indicador, o qual pode ser avaliado em relação a uma pontuação limite, valor, e/ou indicador para determinar se os dados de usuário e/ou os dados de fluxo de vídeo satisfazem o critério(s). Consequentemente, em tais modalidades, dados de reconhecimento não facial (por exemplo, dados de venda de bilhetes, posts de mídia social, e/ou características tal como um vestuário de um indivíduo em um vídeo ou imagem, dados de localização tal como marcos dentro da imagem, cenário de fundos dados, etc.) podem ser utilizados
Petição 870180048519, de 07/06/2018, pág. 39/90
36/68 para corroborar os dados de reconhecimento facial e/ou aumentar I diminuir uma pontuação de confiança.
[0057] Apesar do módulo de análise 121 ser acima descrito como analisando os dados de fluxo de vídeo para definir os dados de reconhecimento facial e dados contextuais associados ao fluxo de vídeo, em outras modalidades, o processo de reconhecimento facial e o processo de dados contextuais podem ser executados separadamente e/ou independentemente. Por exemplo, em algumas modalidades, o módulo de análise 121 pode estar configurado para executar o processo de reconhecimento facial enquanto um diferente módulo, processador, dispositivo, servidor, etc. pode estar configurado para executar o processo de dados contextuais. Por exemplo, o módulo de localização 124 pode executar uma análise da imagem e/ou fluxo de vídeo com base nos dados de localização, características da imagem, e/ou similares. Assim, um tempo para analisar os dados de fluxo de vídeo pode ser reduzido e/ou a carga de processamento pode ser distribuída quando comparada com o processo de reconhecimento facial e o processo de dados contextuais sendo executados pelo mesmo módulo.
[0058] Como acima descrito, o módulo de banco de dados 122 inclui um conjunto de instruções executadas pelo processador 120 (ou sua porção) que está associado ao monitoramento do banco de dados 140 e/ou atualização de dados armazenados neste. Por exemplo, o módulo de banco de dados 122 pode incluir instruções para fazer com que o processador 120 atualize os dados armazenados no banco de dados 140 com pelo menos uma porção dos dados de reconhecimento facial recebidos do módulo de análise 121. Mais especificamente, o módulo de banco de dados 122 pode receber, por exemplo, os dados de imagem de usuário associados ao usuário do módulo de análise 121 e, em resposta, pode armazenar os dados de imagem de usuário no banco de dados 140. Em alguns casos, o módulo de banco de da
Petição 870180048519, de 07/06/2018, pág. 40/90
37/68 dos 122 pode receber um sinal do módulo de análise 121 indicativo de uma solicitação para consultar o banco de dados 140 para determinar se os dados armazenados no banco de dados 140 e associado aos dados de imagem de usuário para o usuário coincidem com qualquer porção adequada dos dados de fluxo de vídeo, como acima descrito. Se, por exemplo, pelo menos uma porção dos dados de fluxo de vídeo satisfaz um critério(s) (referido de agora em diante como critério para simplicidade e não para a exclusão de múltiplos critérios), o módulo de banco de dados 122 pode estar configurado para atualizar os dados armazenados no banco de dados 140 associados àquele usuário. Isto quer dizer, se pelo menos uma porção dos dados de fluxo de vídeo coincide com os dados de imagem de usuário dentro de uma probabilidade predeterminada ou similares. Se, no entanto, os dados de fluxo de vídeo não coincidirem com os dados de imagem de usuário armazenados no banco de dados 140, o módulo de banco de dados 122 pode, por exemplo, consultar o banco de dados 140 a próxima entrada (por exemplo, dados associados ao próximo usuário) e/ou pode de outro modo não atualizar o banco de dados 140. Mais ainda, o módulo de banco de dados 122 pode estar configurado para armazenar os dados no banco de dados 140 em um modo baseado relacionai (por exemplo, o banco de dados 140 pode ser um banco de dados relacionai e/ou similares) e/ou em qualquer outro modo adequado.
[0059] O módulo de apresentação 123 inclui um conjunto de instruções executadas pelo processador (ou uma sua porção) que está associada a definição de um fluxo de vídeo contextual e/ou uma apresentação que representa pelo menos uma porção dos dados de fluxo de vídeo satisfazendo o critério durante o processo de reconhecimento facial, como acima descrito. Mais especificamente, o módulo de apresentação 123 pode estar configurado para definir um fluxo de vídeo contextual e/ou uma apresentação que representa um usuário identifi
Petição 870180048519, de 07/06/2018, pág. 41/90
38/68 cado (por exemplo, através de reconhecimento facial) em um evento, local, localização, e/ou similares. Uma vez que o fluxo de vídeo contextual é definido, o módulo de apresentação 123 pode enviar um sinal associado ao fluxo de vídeo contextual para a interface de comunicação 125, a qual por sua vez, pode enviar um sinal (por exemplo, através da rede 105) para o dispositivo de cliente 150 que é indicativo de uma instrução para graficamente renderizar o fluxo de vídeo contextual em seu display.
[0060] Apesar do módulo de apresentação 123 e/ou outra porção do dispositivo hospedeiro 110 serem acima descrito como enviando um sinal para o dispositivo de cliente 150 indicativo de instrução para apresentar o fluxo de vídeo contextual no display do dispositivo de cliente 150, em outros casos, o módulo de apresentação 123 pode definir o fluxo de vídeo contextual e pode enviar um sinal para o módulo de banco de dados 122 indicativo de uma instrução para armazenar o fluxo de vídeo contextual no banco de dados 140. Em tais casos, os dados associados ao fluxo de vídeo contextual podem ser armazenados e/ou de outro modo associado aos dados de usuário armazenados no banco de dados 140. Em alguns casos, o dispositivo hospedeiro 110 pode recuperar o fluxo de vídeo contextual do banco de dados 140 em resposta a uma solicitação do dispositivo de cliente 150 (e/ou qualquer outro dispositivo adequado). Mais especificamente, em algumas modalidades, o usuário pode manipular o dispositivo de cliente 150 para acessar uma webpage na Internet. Após ser autenticado (por exemplo, inserindo credenciais ou similares) o usuário pode interagir com a webpage de modo que uma solicitação para acesso ao fluxo de vídeo contextual é enviada do dispositivo de cliente 150 para o dispositivo hospedeiro 110. Assim, o dispositivo hospedeiro 110 (por exemplo, o módulo de banco de dados 122) pode recuperar o fluxo de vídeo contextual do banco de dados 140 e pode enviar um sinal para o
Petição 870180048519, de 07/06/2018, pág. 42/90
39/68 dispositivo de cliente 150 operável em apresentar o fluxo de vídeo contextual no display (por exemplo, renderizando o fluxo de vídeo contextual através da Internet e da webpage). Em outras palavras, o fluxo de vídeo contextual pode ser armazenado na nuvem e acessado através de um navegador da web e a Internet.
[0061] Apesar do módulo de análise 121, o módulo de banco de dados 122, e o módulo de apresentação 123 serem acima descritos como sendo armazenados e/ou executados no dispositivo hospedeiro 110, em outras modalidades, qualquer um dos módulos pode ser armazenado e/ou executado, por exemplo, no dispositivo de cliente 150 e/ou no sistema de captura de imagem 160. Por exemplo, em algumas modalidades, o dispositivo de cliente 150 pode incluir, definir, e/ou armazenar um módulo de apresentação (por exemplo, como uma aplicação nativa). O módulo de apresentação pode ser substancial mente similar a ou o mesmo que o módulo de apresentação 123 do dispositivo hospedeiro 110. Em tais modalidades, o módulo de apresentação do dispositivo de cliente 150 pode substituir a função do módulo de apresentação 123 de outro modo incluído e/ou executado no dispositivo hospedeiro 110. Assim, o módulo de apresentação do dispositivo de cliente 150 pode receber, por exemplo, um conjunto de dados associado a um fluxo de vídeo contextual e quando do recebimento, pode definir uma apresentação a ser apresentada no display do dispositivo de cliente 150.
[0062] A Figura 3 é um fluxograma que ilustra um método 300 para definir um fluxo de vídeo contextual de acordo com uma modalidade. O método 300 inclui receber, em um dispositivo hospedeiro e de um dispositivo de cliente através de uma rede, um sinal indicativo de uma solicitação para registrar dados de imagem facial associados à usuário, em 302. Por exemplo, em algumas modalidades, a rede pode ser qualquer rede adequada ou combinação de redes tal como, por
Petição 870180048519, de 07/06/2018, pág. 43/90
40/68 exemplo, a rede 105 acima descrita com referência à Figura 1. O dispositivo hospedeiro pode ser substancialmente similar a ou mesmo que o dispositivo hospedeiro 110 acima descrito com referência às Figuras 1 e 2. Similarmente, o dispositivo de cliente pode ser substancialmente similar a ou o mesmo que o dispositivo de cliente 150 acima descrito com referência às Figuras 1-2. Em alguns casos, o dispositivo de cliente pode estar configurado para capturar dados de imagem facial iniciais e pode enviar os dados de imagem facial iniciais para o dispositivo hospedeiro. Especificamente, em algumas modalidades, o dispositivo de cliente pode estar configurado para capturar uma imagem ou imagens faciais do usuário em qualquer modo adequado. Consequentemente, o dispositivo hospedeiro pode receber dados de imagem facial do dispositivo de cliente e pode executar qualquer processo adequado ou similares associado ao registro de um usuário e/ou os dados de imagem facial do usuário.
[0063] O método 300 inclui registrar os dados de reconhecimento facial associados ao usuário e armazenar os dados de reconhecimento facial em um banco de dados em comunicação com o dispositivo hospedeiro, em 304. O banco de dados pode ser qualquer banco de dados adequado tal como, por exemplo, o banco de dados 140 acima descrito com referência à Figura 1. O registro dos dados de reconhecimento facial pode incluir qualquer processo adequado, método, e/ou algoritmo associado a reconhecimento facial tal como aqueles acima descritos. Em alguns casos, o dispositivo hospedeiro pode estar configurado para definir dados de imagem de usuário ou similares com base no reconhecimento facial e pode armazenar pelo menos uma porção dos dados de imagem de usuário no banco de dados.
[0064] O dispositivo hospedeiro recebe dados de fluxo de vídeo contextual associados a um evento e/ou localização, em 306. O dispositivo hospedeiro pode receber os dados de fluxo de vídeo contex
Petição 870180048519, de 07/06/2018, pág. 44/90
41/68 tual de um sistema de captura de imagem tal como o sistema de captura de imagem 160 (por exemplo, uma câmera e/ou dispositivo de cliente) acima descrito com referência à Figura 1. Mais especificamente, o dispositivo hospedeiro pode receber os dados de fluxo de vídeo contextual ou diretamente (por exemplo, de uma ou mais câmeras através da rede) ou indiretamente (por exemplo, de um dispositivo de computação através da rede, o qual por sua vez, está em comunicação com as uma ou mais câmeras).
[0065] Em um exemplo, a câmera pode gravar os dados de fluxo de vídeo contextual, e pode enviar os dados de fluxo de vídeo contextual para o dispositivo hospedeiro. Em outro exemplo, um usuário pode gravar um vídeo através de uma aplicação que executa em um dispositivo de cliente sendo operado pelo usuário (por exemplo, através de uma interface de Conteúdo Gerado por Usuário (UGC) dentro da aplicação que executa no dispositivo de cliente). Iniciando a gravação através da aplicação (por exemplo, clicando um botão de Gravar e/ou similar na interface de UGC), o usuário pode gravar um fluxo de vídeo contextual, como o qual o dispositivo de cliente pode associar dados de localização (por exemplo, geolocalização, dados de Comunicação de Campo Próximo (NFC), dados de comunicações Bluetooth com outros dispositivos, triangulação de celular, dados de check-in de evento e/ou localização, e/ou informações de conexão de Wi-Fi de rede) com o fluxo de vídeo contextual. Especificamente, o fluxo de vídeo contextual pode ser identificado com os dados de localização, e/ou pode estar associado a uma estrutura de dados que encapsula os dados de localização.
[0066] Os dados de fluxo de vídeo contextual são analisados para determinar se os dados de fluxo de vídeo contextual satisfazem um critério associado ao reconhecimento facial dos dados de imagem facial nos dados de fluxo de vídeo contextual, em 308. Por exemplo, o
Petição 870180048519, de 07/06/2018, pág. 45/90
42/68 dispositivo hospedeiro pode receber os dados de fluxo de vídeo contextual (ou dados de imagem, por exemplo, de uma fotografia) e pode analisar e/ou processar os dados de fluxo de vídeo contextual para determinar se uma porção dos dados de fluxo de vídeo contextual coincide com qualquer porção adequada dos dados de imagem facial. Isto quer dizer, o dispositivo hospedeiro pode utilizar os dados de imagem facial como um gabarito contra o qual os dados incluídos no fluxo de vídeo contextual são comparados. Dito de outro modo, o dispositivo hospedeiro executa um processo de reconhecimento facial e/ou análise sobre os dados de fluxo de vídeo contextual com base pelo menos em parte nos dados de imagem facial. Em alguns casos, o critério pode estar, por exemplo, associado a uma coincidência dos dados de fluxo de vídeo contextual com os dados de imagem facial com uma probabilidade predeterminada e/ou aceitável. Em algumas modalidades, o dispositivo hospedeiro pode estar configurado para analisar e/ou processar os dados de fluxo de vídeo contextual com base pelo menos em parte em separar, analisar gramaticalmente, classificar, e/ou de outro modo descontruir os dados de fluxo de vídeo contextual em seus quadros individuais (por exemplo, uma imagem estática em um tempo predeterminado durante o fluxo de vídeo). Como tal, o dispositivo hospedeiro pode comparar e/ou analisar dados incluídos no quadro de fluxo de vídeo contextual em relação aos dados de imagem facial.
[0067] Em alguns casos, a análise dos dados de fluxo de vídeo contextual também inclui analisar os dados de fluxo de vídeo contextual para determinar as informações contextuais associadas ao fluxo de vídeo tal como, por exemplo, localização, local, tempo, evento coincidente (por exemplo, um time de esporte marcando um gol, sendo capturado, por exemplo, em uma kiss cam, etc.), marcos dentro da imagem, e/ou quaisquer outras informações contextuais adequadas.
Petição 870180048519, de 07/06/2018, pág. 46/90
43/68
Em alguns casos, o dispositivo hospedeiro pode estar configurado para coincidir, agregar, e/ou de outro modo associar pelo menos uma porção do fluxo de vídeo aos dados contextuais. Por exemplo, em alguns casos, os dados de fluxo de vídeo podem representar, por exemplo, um usuário em um evento de esporte. Em tais casos, os dados contextuais podem ser, por exemplo, um fluxo de vídeo do evento de esporte ou jogo, e podem incluir dados associados a um tempo, localização, local, times, etc. Como tal, o dispositivo hospedeiro pode estar configurado para agregar os dados de fluxo de vídeo e os dados contextuais de modo que os dados de fluxo de vídeo e os dados contextuais substancialmente coincidem (por exemplo, ocorra e/ou capture dados associados substancialmente ao mesmo tempo). Em outros casos, os dados contextuais podem incluir dados associados a qualquer outro contexto adequado.
[0068] Um fluxo de vídeo contextual do usuário é definido quando o critério associado a reconhecimento facial dos dados de imagem facial nos dados de fluxo de vídeo contextual é satisfeito, em 310. Por exemplo, quando o dispositivo hospedeiro determina que pelo menos uma porção dos dados no fluxo de vídeo contextual satisfaz um critério (por exemplo, coincide os dados de imagem facial com uma probabilidade predeterminada e/ou aceitável), o dispositivo hospedeiro pode definir o fluxo de vídeo contextual do usuário e pode armazenar o fluxo de vídeo contextual do usuário no banco de dados. Com o fluxo de vídeo contextual do usuário definido, o dispositivo hospedeiro envia um sinal indicativo de uma instrução para apresentar o fluxo de vídeo contextual do usuário em um display do dispositivo de cliente, em 312 (por exemplo, graficamente renderizando o fluxo de vídeo contextual em uma interface instanciada no dispositivo de cliente). Por exemplo, em algumas modalidades, o dispositivo hospedeiro pode enviar um sinal para o dispositivo de cliente, através da rede, que é operável em
Petição 870180048519, de 07/06/2018, pág. 47/90 apresentar o fluxo de vídeo contextual do usuário no display do dispositivo de cliente. Em outras modalidades, o dispositivo hospedeiro pode armazenar o fluxo de vídeo contextual (por exemplo, no banco de dados ou similares) e pode estar configurado para recuperar o fluxo de vídeo contextual do usuário do banco de dados em resposta a uma solicitação do dispositivo de cliente (e/ou qualquer outro dispositivo adequado). Mais especificamente, em algumas modalidades, o usuário pode manipular o dispositivo de cliente para acessar uma webpage na Internet. Após ser autenticada (por exemplo, inserindo credenciais ou similares) o usuário pode interagir com a webpage de modo que uma solicitação para acesso ao fluxo de vídeo contextual é enviada do dispositivo de cliente para o dispositivo hospedeiro. Assim, o dispositivo hospedeiro pode recuperar o fluxo de vídeo contextual do banco de dados e pode enviar um sinal para o dispositivo de cliente operável em apresentar o fluxo de vídeo contextual no display (por exemplo, graficamente renderizando o fluxo de vídeo contextual através da Internet e da webpage). Em outras palavras, o fluxo de vídeo contextual pode estar armazenado na nuvem e acessado através de um navegador da web e a Internet.
[0069] Em outras implementações, quando um fluxo de vídeo contextual satisfaz o critério (por exemplo, quando o fluxo de vídeo contextual coincide com os dados de imagem facial do usuário a uma probabilidade predeterminada, e/ou similares), o dispositivo hospedeiro pode automaticamente enviar os dados de fluxo de vídeo contextual para o usuário. Por exemplo, em algumas implementações, o usuário pode também estar operando um dispositivo de cliente instanciando uma aplicação que está rastreando os dados de localização de usuário para este usuário. Quando um dispositivo de captura de imagem (por exemplo, tal como uma câmera autônoma e/ou outro usuário) grava os dados de fluxo de vídeo contextual, o dispositivo hospedeiro pode de
Petição 870180048519, de 07/06/2018, pág. 48/90
45/68 terminar que os dados de fluxo de vídeo contextual coincidem com o usuário com base em uma análise facial do fluxo de vídeo contextual e dados de imagem facial associados ao usuário. O dispositivo de cliente do usuário pode também enviar dados de localização associados ao usuário e o dispositivo de cliente para o dispositivo hospedeiro. O dispositivo hospedeiro pode refinar, utilizando tanto a análise facial quanto as informações de localização, a probabilidade que o usuário aparece no fluxo de vídeo contextual. Se a probabilidade que o usuário aparece no fluxo de vídeo contextual satisfizer um critério (por exemplo, excede um limite predeterminado, e/ou similares), o dispositivo hospedeiro pode enviar os dados de fluxo de vídeo contextual para o usuário. Alternativamente, o dispositivo hospedeiro pode pré-filtrar o fluxo de vídeo contextual com base nas informações de localização, de modo que a probabilidade é calculada quando as informações de localização do usuário são substancialmente similares às informações de localização do fluxo de vídeo contextual, e não calcula a probabilidade quando os dados de localização do fluxo de vídeo contextual não são substancialmente similares às informações de localização do usuário.
[0070] Em outras implementações, quando um fluxo de vídeo contextual satisfizer o critério (por exemplo, quando o fluxo de vídeo contextual coincide com os dados de imagem facial do usuário a uma probabilidade predeterminada, e/ou similares), o dispositivo hospedeiro pode armazenar os dados de fluxo de vídeo contextual e associar os dados de fluxo de vídeo contextual com o usuário com base na interação do usuário com o vídeo. Por exemplo, em algumas implementações, o usuário pode acessar uma aplicação instanciada em um dispositivo de cliente associado ao usuário, para pesquisar e/ou acessar os dados de fluxo de vídeo contextual. O usuário por, por exemplo, ver os dados de fluxo de vídeo contextual dentro do perfil de usuário de outro usuário associado àquele usuário, e/ou pode pesquisar por da
Petição 870180048519, de 07/06/2018, pág. 49/90
46/68 dos de fluxo de video contextual para ver dentro de uma interface da aplicação. Quando s usuário acessa os dados de fluxo de video contextual dentro da aplicação, a aplicação pode enviar um sinal para o dispositivo hospedeiro indicando que usuário está acessando aqueles dados de fluxo de vídeo contextual. O dispositivo hospedeiro pode automaticamente determinar se ou não uma análise facial dos dados de fluxo de vídeo contextual foi executada com base nos dados de imagem facial associados àquele usuário, e pode automaticamente executar uma análise facial dos dados de fluxo de vídeo contextual, com base nos dados de imagem facial daquele usuário, se os dados de imagem facial do usuário não foram previamente comparados com os dados de fluxo de vídeo contextual. Neste modo, o dispositivo hospedeiro pode retardar o processamento dos dados de fluxo de vídeo contextual para identificar os usuários dentro dos dados de fluxo de vídeo contextual, até que os usuários tentam acessar os dados de fluxo de vídeo contextual.
[0071] Em alguns casos, um usuário pode pesquisar por um evento e fazer check-in naquele evento após o evento. Por exemplo, o usuário pode identificar um evento (por exemplo, vendo uma lista de eventos, vendo a localização de eventos em um mapa, etc.) e pode selecionar um evento. Com base na seleção do usuário do evento, o dispositivo hospedeiro pode executar uma análise facial dos fluxos de vídeo e/ou imagens associados àquele evento com base nos dados de imagem facial daquele usuário. Se o dispositivo hospedeiro identificar um fluxo de vídeo e/ou imagem que inclui o usuário (por exemplo, com uma probabilidade predeterminada), o dispositivo hospedeiro pode prover tais fluxos de vídeo e/ou imagens para o usuário.
[0072] Apesar do método 300 ser acima descrito como enviando e/ou recebendo fluxos de vídeo, dados de imagem, dados contextuais, etc. e apresentando e/ou compartilhando fluxos de vídeo e/ou dados
Petição 870180048519, de 07/06/2018, pág. 50/90
47/68 de imagem específicos de usuário com um ou mais usuários, deve ser compreendido que um sistema pode ser disposto de modo que os dados de fluxo de vídeo e/ou dados de imagem possam ser capturados em qualquer modo adequado, analisados por qualquer dispositivo adequado, e enviados para e/ou compartilhados com qualquer usuário ou dispositivo de usuário adequado. Por meio de exemplo, em alguns casos, um usuário pode manipular um dispositivo de usuário (por exemplo, um dispositivo de cliente tal como o dispositivo de cliente 150) para capturar uma imagem facial do usuário. Por exemplo, o usuário pode abrir uma aplicação móvel (por exemplo, quando o usuário ou dispositivo de cliente é um smartphone ou outro dispositivo eletrônico móvel ou usável) e pode capturar uma imagem facial (por exemplo, uma selfie) através de uma câmera do dispositivo de cliente. Em outras palavras, o usuário pode controlar a câmera do dispositivo de cliente através da aplicação para capturar uma selfie. Tal selfie pode ser provida para registra um usuário de modo que a aplicação possa identificar os dados de reconhecimento facial (por exemplo, características de aspecto facial) do usuário. Estes dados de reconhecimento facial podem ser utilizados para identificar o usuário em vídeos e/ou imagens subsequentemente recebidos.
[0073] Em alguns casos, o usuário pode capturar um conteúdo (por exemplo, dados de imagem e/ou a fluxo de vídeo) através da aplicação. Como acima descrito, o conteúdo pode ser um fluxo de vídeo de uma ou mais pessoas em um dado contexto tal como, por exemplo, uma ou mais pessoais em um evento de esporte ou similares. Em alguns casos, o conteúdo capturado (por exemplo, gerado) do usuário pode ser associado a dados contextuais tais como um tempo, data, localização, local, evento, etc. e/ou pode de outro modo ser identificado com dados e/ou metadados. Em outros casos, o conteúdo gerado pelo usuário não precisa ser associado a dados contextuais. O conte
Petição 870180048519, de 07/06/2018, pág. 51/90
48/68 údo gerado pelo usuário (por exemplo, dados de fluxo de vídeo ou similares) pode ser analisado através de reconhecimento facial e/ou outra análise de imagem através do dispositivo de cliente ou um dispositivo hospedeiro para determinar a presença de qualquer usuário registrado (por exemplo, qualquer usuário com um perfil de usuário armazenado no banco de dados). Se um usuário registrado for identificado no fluxo de vídeo, o usuário, o dispositivo de cliente, e/ou o dispositivo hospedeiro podem definir um fluxo de vídeo específico de usuário associado a um ou mais dos usuários identificados. O usuário, o dispositivo de cliente, e/ou o dispositivo hospedeiro pode então determinar podem então determinar se compartilhar o fluxo de vídeo específico de usuário com cada usuário identificado. Em alguns casos, o compartilhamento do(s) fluxo(s) de vídeo específico de usuário pode ser automático com base em um perfil de usuário e/ou preferência e/ou com base em um ajuste ou similares dentro da aplicação ou conta móvel. Em outros casos, o compartilhamento do(s) fluxo(s) de vídeo específico de usuário pode ser baseado em uma entrada manual ou outra entrada do usuário (por exemplo, com base em uma seção ou similar). Em ainda outros casos, o compartilhamento do(s) fluxo(s) de vídeo específico de usuário pode ser baseado em uma seção de rede em par, na qual cada usuário (ou cada dispositivo de cliente utilizado na seção de rede em par) recebe um fluxo de vídeo específico de usuário. Neste modo, o conteúdo gerado pelo usuário (por exemplo, o fluxo de vídeo e/ou dados de imagem capturados pelo usuário) pode ser capturado, analisado, e/ou compartilhado em um modo similar àqueles aqui descritos.
[0074] A Figura 4 é um fluxograma que ilustra um método para apresentar um fluxo de vídeo contextual para, por exemplo, um dispositivo móvel associado a um usuário de acordo com uma modalidade. Em alguns casos, arquivo(s) de vídeo e/ou arquivo(s) de foto podem
Petição 870180048519, de 07/06/2018, pág. 52/90
49/68 ser carregados para um carregador de mídia 485. O carregador de mídia 485 pode ser qualquer dispositivo adequado configurado para receber e/ou processar arquivos de vídeo e/ou imagem tal como, por exemplo, o dispositivo hospedeiro 110 acima descrito com referência às Figuras 1 A, 1B e 2. Um arquivo de vídeo e/ou foto mestre é então armazenado em um armazenamento de mídia mestre 486. O armazenamento de mídia mestre 486 pode ser qualquer dispositivo de armazenamento adequado. Por exemplo, o armazenamento de mídia mestre 486 pode estar incluído em e/ou uma parte de memória incluída no carregador de mídia 485. Em outras modalidades, o armazenamento de mídia mestre 486 pode ser um banco de dados ou similares tal como, por exemplo, o banco de dados 140 acima descrito com referência às Figuras 1A e 1B.
[0075] Em alguns casos, o arquivo de vídeo mestre pode ser enviado do armazenamento de mídia mestre 486 para um codificador de vídeo 487. O codificador de vídeo 487 pode ser qualquer dispositivo adequado ou porção de um dispositivo configurado para converter o arquivo de vídeo mestre em um ou mais formatos desejados. Por exemplo, como mostrado na Figura 4, o codificador de vídeo 487 pode converter o arquivo de vídeo mestre em um vídeo de reconhecimento facial e um arquivo de vídeo compatível móvel, cada um dos quais está armazenado no armazenamento de mídia mestre 486. Uma lista de um ou mais arquivos de vídeo de reconhecimento facial e/ou arquivos de foto é então enviada para um condutor de fluxo de trabalho 488, o qual pode priorizar, organizar e/ou de outro modo controlar uma ordem na qual os arquivos são subsequentemente processados e pode enviar um sinal operável em iniciar o processamento do(s) arquivo(s) de vídeo de reconhecimento facial e/ou arquivo(s) de foto para um processador de detecção e coincidência de face 491 (por exemplo, um processador, módulo, dispositivo, etc. tal como, por exemplo, o módulo
Petição 870180048519, de 07/06/2018, pág. 53/90
50/68 de análise 121 acima descrito com referência à Figura 2), como aqui descrito em mais detalhes. Além disso, uma indicação associada ao fluxo de trabalho pode ser enviada do condutor de fluxo de trabalho 488 para um banco de dados 493, o qual pode armazenar a indicação associada ao fluxo de trabalho e que pode enviar dados associados à indicação para um processador de serviço da web 494 (por exemplo, um provedor de serviço de website de Internet, processador, módulo, e/ou dispositivo), como aqui descrito em mais detalhes.
[0076] Como mostrado na Figura 4, o arquivo de vídeo compatível móvel é enviado do armazenamento de mídia mestre 486 para um cortador de videoclipe 489, o qual pode também receber dados associados a eventos de reconhecimento, como aqui descrito em mais detalhes. O arquivo de vídeo mestre ou arquivo de foto é enviado do armazenamento de mídia mestre 486 para um redimensionador de miniatura 490, o qual pode também receber dados associados aos eventos de reconhecimento, como aqui descrito em mais detalhes. O(s) arquivo(s) vídeo de reconhecimento facial ou foto é/são enviados do armazenamento de mídia mestre 486 para o processador de detecção e coincidência de face 491, o qual por sua vez pode executar qualquer processo de reconhecimento facial adequado para definir os eventos de reconhecimento. Mais ainda, o processador de detecção e coincidência de face 491 pode analisar e/ou processar o vídeo de reconhecimento facial e/ou arquivo de foto de acordo com a prioridade e/ou ordem definida pelo condutor de fluxo de trabalho 488.
[0077] Como acima descrito, os dados associados aos eventos de reconhecimento podem então ser enviados do processador de detecção e coincidência de face 491 para o cortador de videoclipe 489 e o redimensionador de miniatura 490. O cortador de videoclipe 489 pode ser qualquer processador, módulo, e/ou dispositivo adequado que pode receber o arquivo de vídeo compatível móvel e que pode subsePetição 870180048519, de 07/06/2018, pág. 54/90
51/68 quentemente aparar, cortar, extrair, separar, e/ou de outro modo definir um videoclipe associado aos eventos de reconhecimento de um usuário dentro do vídeo de reconhecimento facial e/ou foto. O videoclipe associado ao evento de reconhecimento do usuário pode então ser enviado do cortador de videoclipe 489 para um armazenamento de mídia compatível móvel 492. O redimensionador de miniatura 490 pode ser qualquer processador adequado, módulo, e/ou dispositivo que pode receber o vídeo mestre e/ou arquivo(s) de foto e que pode subsequentemente definir uma ou mais miniaturas (por exemplo, pequenas imagens com um tamanho de arquivo relativamente pequeno, as quais por sua vez, podem ser associadas a e/ou indicativas de uma maior imagem e/ou vídeo). Nesta modalidade, as miniaturas podem ser associadas a e/ou indicativas dos eventos de reconhecimento e podem ser enviadas do redimensionador de miniatura 490 para o armazenamento de mídia compatível móvel 492.
[0078] Como mostrado na Figura 4, os videoclipes e as miniaturas podem ser enviados do armazenamento de mídia compatível móvel 492, por exemplo, para uma ou mais aplicação móveis e/ou websites 495. Por exemplo, em alguns casos, os videoclipes e miniaturas podem ser enviados para um servidor de Internet ou similares, o qual por sua vez, pode apresentar os videoclipes e miniaturas em um website ou similares. Em outros casos, os videoclipes e miniaturas podem ser enviados para um dispositivo de cliente associado ao usuário, o qual por sua vez, pode apresentar os videoclipes e miniaturas em um display (por exemplo, quando uma aplicação móvel é aberta, selecionada, executando, etc.). Mais ainda, metadados (por exemplo, identidade de usuário, identidade de evento, localização de evento, localização de um dispositivo de cliente, etc.) ou similares associado à indicação do fluxo de trabalho (acima descrito) podem ser enviados do processador de serviços da web 494 para a aplicação móvel e/ou websites
Petição 870180048519, de 07/06/2018, pág. 55/90
52/68
495. Neste modo, um videoclipe de um usuário e qualquer contextual e/ou metadados associados a este pode ser enviado para e/ou acessado pelo usuário através de uma aplicação móvel e/ou website.
[0079] A Figura 5 é uma ilustração de um sistema de captura de imagem 560 (por exemplo, similar ao sistema de captura de imagem 160 mostrado na Figura 1) que captura informações contextuais em mídia, de acordo com uma modalidade. Inicialmente, o sistema de captura de imagem 560 pode capturar imagens e/ou vídeo de um local. O sistema de captura de imagem 560 pode identificar características tais como marcos de fundo, características únicas das paredes, piso, elementos de projeto, mobília, e/ou similares dentro das imagens e/ou vídeo do local. O sistema de captura de imagem 560 pode enviar estas características (também aqui referido como dados de marco e/ou informações) para o dispositivo hospedeiro 510 e o dispositivo hospedeiro 510 pode armazenar estas informações (por exemplo, dentro de um banco de dados). O dispositivo hospedeiro 510 pode armazenar estas informações associadas a informações de localização do local. Similarmente declarado, o dispositivo hospedeiro 510 pode armazenar as informações de marco de modo que estas sejam associadas à localização daquele marco dentro do local.
[0080] Em algumas implementações (como descritas nas Figuras 1-4), o sistema de captura de imagem 560 pode capturar uma mídia (por exemplo, um fluxo de vídeo, fotografias, e/ou outra mídia) que inclui um usuário 502. O usuário 502 pode utilizar um dispositivo móvel 504 que inclui uma aplicação móvel configurada para enviar dados de localização 506 (por exemplo, coordenadas de Sistema de Posicionamento Global (GPS), sinal de Wi-Fi que indica estar dentro do alcance de um ponto de acesso, informação de sinal de NFC, comunicações de Bluetooth que indicam estar dentro do alcance de um IBeacon, informações de triangulação de celular, informações de comutação e
Petição 870180048519, de 07/06/2018, pág. 56/90
53/68 protocolo de rede cognitiva que estima uma distância de um ponto de captura de conteúdo, dados de localização associados a uma posição em um local tal como um número de assento ou seção, e/ou dados de localização similares) para o dispositivo hospedeiro 110, por exemplo, quando os dispositivo móvel detecta um sinal e/ou rede Wi-Fi associada a um local. Em algumas implementações, a aplicação móvel pode estar configurada para interagir com um iBeacon (e/ou um dispositivo similar configurado para transmitir informações para dispositivos), e pode estar configurada para enviar dados de localização para o dispositivo hospedeiro 110 (por exemplo, tal como o identificador de iBeacon, dados de GPS de dispositivo móvel, e/ou outras tais informações).
[0081] A mídia 508 (por exemplo, fotografias, vídeos, e/ou arquivos de mídia relativos) capturada pelo sistema de captura de imagem 160 pode incluir uma imagem ou vídeo do usuário 502, assim como prédios, características do local, objetos, marcos de fundo, e/ou outros aspectos do fundo 510 da cena. Por exemplo, a mídia pode incluir não somente o usuário 502, mas os assentos próximos do usuário 502 em um local de esporte, marcos no fundo da mídia e associados a uma localização específica (por exemplo, dentro de um local), placas, e/ou outras tais informações (por exemplo, características únicas das paredes, piso, elementos de projeto, mobília, etc.). O dispositivo hospedeiro 110 pode utilizar o fundo com os dados de localização do usuário para adicional mente verificar que o usuário 502 é provável aparecer na mídia. Mais especificamente, em alguns casos, um módulo de análise do dispositivo hospedeiro 510 (por exemplo, similar ao módulo de análise 121 mostrado na Figura 2) pode executar um processamento de imagem sobre o fluxo de vídeo, por exemplo, para extrair um cenário e/ou outro fundo, dados não de pessoa do fluxo de vídeo (também referidos como dados de marco). Por exemplo, o módulo de análise po
Petição 870180048519, de 07/06/2018, pág. 57/90
54/68 de utilizar técnicas de processamento de imagem para detectar um número de assento 200 na mídia. Um módulo de localização do dispositivo hospedeiro 510 (por exemplo, similar a 124 mostrado na Figura 2) pode coincidir os dados extraídos com os dados de localização no banco de dados (por exemplo, utilizando metadados, senhas, e/ou processamento de imagem de imagens de localização previamente armazenadas) para estimar uma localização do fluxo de vídeo. Por exemplo, o módulo de localização pode utilizar um número de assento 200 para estimar o assento 514 no qual o usuário 502 parece sentar na mídia, e pode determinar uma localização aproximada na qual a mídia foi capturada com base na localização do assento dentro do local. Para outro exemplo, o módulo de localização pode comparar os dados de marco no fluxo de vídeo com as imagens e/ou vídeo previamente capturados e armazenados pelo dispositivo hospedeiro 510. Devido à associação entre a localização e os dados de marco armazenados pelo dispositivo hospedeiro 510, o dispositivo hospedeiro 510 pode identificar uma localização do fluxo de vídeo.
[0082] Em alguns casos, um usuário pode também fazer check-in no local. Especificamente, o dispositivo móvel do usuário pode enviar uma mensagem que inclui informações de localização para o usuário (por exemplo, as coordenadas de GPS do dispositivo móvel do usuário, um identificador para um iBeacon, identificação de NFC, rede de celular, Wi-Fi e/ou outra rede, e/ou dispositivo similar em proximidade imediata ao dispositivo móvel, e/ou similares). O módulo de localização pode armazenar os dados de localização nos dados de conta do usuário. Após o módulo de localização ter determinado uma localização do fluxo de vídeo e do usuário, o módulo de localização pode comparar o assento 208 com os dados de localização providos pelo dispositivo móvel do usuário para determinar a probabilidade que o usuário 502 estava realmente sentado no assento 208. Por exemplo, o
Petição 870180048519, de 07/06/2018, pág. 58/90
55/68 módulo de localização pode recuperar gravações de usuários cujos dados de localização mais recentes proximamente coincidem com a localização estimada da mídia (por exemplo, cujos dados de localização mais recentes estão dentro de um número de metros predeterminado da localização estimada da mídia, e/ou similares). Para cada gravação de usuário recuperada, o módulo de análise pode executar reconhecimento facial sobre a mídia, por exemplo, utilizando os dados de imagem do usuário para comparação, para determinar ser o usuário aparece na mídia. Com base nestas informações, o dispositivo hospedeiro pode determinar uma lista de usuários cuja imagem poderia ter sido capturada na mídia em uma localização específica, e pode determinar, deste reduzido grupo de usuários, se uma coincidência positiva entre pessoas na mídia, e qualquer um dos usuários 502 na lista de usuários, foi feita. Em alguns casos, um reconhecimento facial pode então ser executado para a imagem para identificar quais usuários do reduzido grupo de usuários (por exemplo, os usuários identificados como estando na área geral com base em informações de marco e/ou informações de localização de dispositivo de usuário) são identificados na mídia. Reduzir o grupo de usuários utilizando dados de marco e informações de localização de dispositivo de usuário reduz o número de falsos positivos quando utilizando reconhecimento facial. Em algumas implementações, o dispositivo hospedeiro pode utilizar a análise de reconhecimento facial, e dados de localização, para determinar se ou não armazenar e/ou descartar (por exemplo, apagar e/ou não armazenar) o fluxo de vídeo no banco de dados. Em outras implementações, o dispositivo hospedeiro pode armazenar o fluxo de vídeo, independentemente se ou não o fluxo de vídeo pode ser coincidido com um usuário específico. O dispositivo hospedeiro pode então associar o fluxo de vídeo com um usuário específico quando a localização de dispositivo de usuário, e quando dados de reconhecimento
Petição 870180048519, de 07/06/2018, pág. 59/90
56/68 facial associados ao usuário, são utilizados em combinação com o marco e/ou outros dados de localização, para determinar se ou não o usuário pode ser identificado no fluxo de vídeo.
[0083] A Figura 6 é um fluxograma lógico que ilustra utilizar informações contextuais em mídia, e dados de localização, para identificar um usuário na mídia, de acordo com uma modalidade. Em algumas implementações, por exemplo, o dispositivo móvel do usuário 504 pode fazer check-in em um local e/ou outra localização em 602 (por exemplo, enviando dados de localização e/ou identificadores de iBeacon para o dispositivo hospedeiro 110 (mostrado na Figura 1)). Isto pode prover o mesmo local e/ou um dispositivo hospedeiro associado ao sistema de reconhecimento de vídeo (por exemplo, o dispositivo hospedeiro 110 da Figura 1) uma indicação que o usuário está dentro do local e/ou no evento. Além disso, isto pode prover uma indicação de uma localização do usuário dentro do local e/ou no evento. Em algumas implementações, o dispositivo móvel 504, através da aplicação móvel armazenada no dispositivo, pode estar configurado para periodicamente enviar dados de GPS atualizados para o dispositivo hospedeiro 110, e/ou pode ser estimulado a enviar dados de localização para o dispositivo hospedeiro 110 quando o dispositivo móvel 504 fica dentro de proximidade imediata a um iBeacon, Wi-Fi hotspot e/ou similar dispositivo. O dispositivo hospedeiro 110 pode armazenar 604 os dados de localização no banco de dados 140.
[0084] Em algumas implementações, ao invés do dispositivo móvel do usuário fazer check-in, um dispositivo de vendas de bilhete e/ou processamento de bilhete em um local pode enviar uma mensagem para o dispositivo hospedeiro 110 indicando que um usuário comprou e/ou utilizou um bilhete para um evento específico no local, o tempo no qual o bilhete foi adquirido e/ou resgatado, e/ou similares. Em outras implementações, uma localização do usuário pode ser inferida, por
Petição 870180048519, de 07/06/2018, pág. 60/90
57/68 exemplo, com base em dados de localização previamente armazenados para o usuário, com base em bilhetes que o usuário comprou para eventos em locais específicos, e/ou similares.
[0085] Um sistema de captura de imagem 160 (mostrado na Figura 1) pode capturar uma mídia (por exemplo, incluindo mas não limitado a gravar uma extensão de vídeo e/ou capturar pelo menos uma fotografia), em 606, e pode enviar a mídia para o dispositivo hospedeiro 110 (mostrado na Figura 1), em 608. O sistema de captura de imagem 160 pode também enviar seus dados de localização (por exemplo, coordenadas de GPS para o sistema de captura de imagem 160, e/ou similares) para o dispositivo hospedeiro 110. O dispositivo hospedeiro 110 pode identificar uma localização na mídia, em 610 (por exemplo, utilizando dados de marco no cenário e/ou fundo da mídia). Por exemplo, em algumas implementações, o dispositivo hospedeiro 110 (por exemplo, através de módulo de análise 121 mostrado Figura 1) pode utilizar técnicas de processamento de reconhecimento de imagem para detectar objetos específicos no fundo (assentos, marcos locais, e/ou similares), para detectar informações de identificação no fundo (por exemplo, placas, números de assento, características de local, e/ou similares), e/ou estimar uma distância entre o dispositivo de captura de imagem 160 e o usuário 502 (por exemplo, utilizando o tamanho de objetos na mídia, em relação à localização do sistema de captura de imagem e/ou do usuário 502, para estimar a distância). O dispositivo hospedeiro 110 (por exemplo, através do módulo de localização 124) pode então utilizar as informações de identificação, objetos, e/ou distância para identificar a localização capturada na mídia. Por exemplo, se o módulo de análise 121 detectar um número de assento em um local de esporte, o módulo de localização 124 pode utilizar os dados de localização do sistema de captura de imagem para determinar em qual local de esporte o sistema de captura de imagem 160 está localiPetição 870180048519, de 07/06/2018, pág. 61/90
58/68 zado, e pode recuperar um mapa do local e/ou outros dados para determinar onde no local um assento com o número de assento estaria localizado. Como outro exemplo, o módulo de localização 124 pode detectar um marco nacional (por exemplo, uma estátua famosa) e/ou uma placa de estado, e pode determinar uma localização de GPS para o usuário com base em dados de localização conhecidos para o marco nacional e/ou placa de estado. Se o dispositivo de captura de imagem 160 prover dados de localização, o módulo de localização 124 pode verificar a localização detectada com base nos dados de localização do dispositivo de captura de imagem.
[0086] Em algumas implementações, o módulo de localização 124 pode também determinar uma localização com base em outra mídia previamente armazenada no dispositivo hospedeiro 110. Por exemplo, o sistema de captura de imagem 160 pode gravar um vídeo que inclui uma estátua famosa, e o módulo de localização 124 pode determinar as coordenadas de GPS para a estátua e armazenar as ditas coordenadas, por exemplo, como metadados para os dados de vídeo como armazenados no banco de dados 140. Se o dispositivo de captura de imagem 160 posteriormente enviar uma mídia subsequente que também inclui a estátua, o módulo de localização 124 pode detectar, utilizando técnicas de processamento de imagem similares àquelas aqui descritas, a identidade da estátua utilizando os dados de vídeo previamente recebidos, e pode determinar a localização da estátua utilizando os dados de vídeo anteriores (por exemplo, através de metadados armazenados com os dados de vídeo, e/ou similares). Para outro exemplo, o módulo de localização pode utilizar dados de imagem précapturados de marcos dentro de um local que associa os marcos com uma localização dentro do local para identificar a localização dentro do local capturada na mídia.
[0087] O módulo de localização 124 pode então recuperar os da
Petição 870180048519, de 07/06/2018, pág. 62/90
59/68 dos de localização de usuário (por exemplo, dados de GPS, dados de iBeacon, dados de aquisição de bilhete, e/ou similares) para usuários no banco de dados 140 em 612. Para cada usuário 614, o dispositivo hospedeiro pode mapear os dados de localização do usuário para uma localização no local e/ou no evento em 616. Por exemplo, se os dados de localização de usuário indicarem que o usuário está em um local de esporte específico, o módulo de localização 124 pode mapear os dados de localização do usuário para uma localização dentro do local, por exemplo, utilizando um mapa do local e/ou dados similares. O módulo de localização 124 pode então determinar 618 se ou não a localização do usuário no local coincide com a localização que o módulo de localização 124 identificou na mídia. Por exemplo, o dispositivo hospedeiro 110 pode determinar se um número de assento detectado na mídia coincide com um número de assento próximo do iBeacon identificada em uma mensagem de check-in do dispositivo móvel do usuário, e/ou se o número de assento está em proximidade imediata a um número de assento associado ao bilhete do usuário. Se as duas localizações não coincidirem, o módulo de localização 124 determina que o usuário provavelmente não está na localização onde a mídia foi gravada, e o módulo de localização 124 pode analisar 620 os dados de localização do próximo usuário.
[0088] Se as duas localizações coincidirem, o módulo de análise 121 (por exemplo, mostrado na Figura 2) pode executar um reconhecimento facial 622 sobre a mídia, por exemplo, utilizando os dados de imagem previamente armazenados do usuário e a mídia recebida do sistema de captura de imagem 160. Se o módulo de análise 121 detectar uma coincidência 624 entre o usuário e uma pessoa na mídia, o dispositivo hospedeiro pode armazenar 626 a mídia (por exemplo, incluindo metadados tais como a localização na qual a mídia foi gravada, um identificador associado ao usuário, e/ou outras informações). O
Petição 870180048519, de 07/06/2018, pág. 63/90
60/68 dispositivo hospedeiro 110 pode então notificar o usuário (por exemplo, através de um email, uma mensagem de texto (por exemplo, Serviço de Mensagem Curta (SMS) e/ou Serviço de Mensagem de Multimídia (MMS)), uma notificação de aplicação de dispositivo móvel, e/ou similares) que o sistema de captura de imagem 160 capturou uma mídia que inclui o usuário. O usuário pode então acessar a mídia. Se as duas localizações não coincidirem, o módulo de análise pode não executar a análise facial, e pode terminar o processo de coincidir o usuário com a mídia.
[0089] Em algumas implementações, o módulo de localização 124 pode executar a análise de localização antes de executar o reconhecimento facial sobre a mídia. Em outras implementações, o dispositivo hospedeiro 110 pode executar a análise de localização após executar o reconhecimento facial sobre a mídia. Executar a análise de localização antes do reconhecimento facial pode reduzir o número de comparações feitas (assim reduzindo a quantidade de tempo e recursos utilizados para executar o reconhecimento facial), e pode reduzir a quantidade de dados recuperados e processados do banco de dados 140. Isto pode também reduzir o número de falsos positivos produzidos do processo de reconhecimento facial já que a análise de reconhecimento facial pode ser executada sobre aqueles indivíduos cuja localização coincide com a localização da imagem e não sobre os indivíduos cuja localização não coincide com a localização da imagem.
[0090] Em alguns casos, uma pontuação de confiança de reconhecimento facial pode ser calculada com base nas informações de localização identificadas pelos dados de marco na mídia. Por exemplo, se um marco na mídia indicar que o vídeo é uma porção específica de um local e um dispositivo do usuário indicar que o usuário está dentro daquela porção do local, a pontuação de confiança que o usuário está dentro da mídia pode aumentar. Ao contrário, se um marco na
Petição 870180048519, de 07/06/2018, pág. 64/90
61/68 mídia indicar que o vídeo é de uma porção específica de um local e um dispositivo do usuário indicar que o usuário não está dentro daquela porção do local, a pontuação de confiança que o usuário está dentro da mídia pode diminuir. Assim, apesar de não limitar o número de indivíduos sobre os quais o reconhecimento facial é executado, os dados de marco podem reduzir falsos positivos afetando as pontuações de confiança de usuários.
[0091] Apesar de acima descritas como sendo utilizadas em conjunto com o reconhecimento facial, em outras modalidades, as informações de localização recebidas do dispositivo do usuário e as informações de localização derivadas dos dados de marco na imagem e/ou vídeo podem ser utilizadas sem reconhecimento facial para identificar um usuário no vídeo. Especificamente, por exemplo, o módulo de localização (por exemplo, mostrado na Figura 2) pode determinar utilizar as informações no vídeo (por exemplo, utilizar informações no cenário e/ou fundo da mídia) de uma localização do vídeo. Se um dispositivo de usuário indicar que um usuário está naquela localização específica, o usuário pode ser identificado como sendo incluída no vídeo. O vídeo pode então ser provido para o usuário, como acima descrito.
[0092] Apesar de acima descritas como recebendo informações de localização de um dispositivo de captura de imagem (por exemplo, uma posição com o local), em outras modalidades tais informações de localização não são recebidas e a localização do dispositivo de captura de imagem pode ser identificada somente com base nos dados de marco na mídia (por exemplo, utilizando as informações no cenário e/ou fundo da mídia). Em tais modalidades, o dispositivo de captura de imagem não associados ao sistema de reconhecimento de vídeo (por exemplo, o sistema de reconhecimento de vídeo 100 da Figura 1) e/ou dispositivos de captura de imagem não comunicativamente acoplados com o sistema de reconhecimento de vídeo podem ser utilizaPetição 870180048519, de 07/06/2018, pág. 65/90
62/68 dos para capturar imagens e/ou vídeos. A localização de tais imagens pode ser identificada sem localização dados específicos (outros que a própria imagem) sendo providos para o dispositivo de captura de imagem.
[0093] Apesar de várias modalidades terem sido acima descritas, deve ser compreendido que estas foram apresentadas por meio de exemplo somente, e não limitação. Por exemplo, apesar das modalidades e métodos terem sidos aqui descritos como definindo um fluxo de vídeo contextual de um usuário em um evento ou similares e enviando o fluxo de vídeo contextual para um dispositivo de cliente e/ou de outro modo permitindo acesso ao fluxo de vídeo contextual através de, por exemplo, um navegador da web e a Internet, em outras modalidades, um dispositivo hospedeiro pode armazenar, em um banco de dados, qualquer número de fluxos de vídeo contextual associados a um usuário. Em alguns casos, o dispositivo hospedeiro pode estar configurado para definir um perfil de usuário ou similares que pode incluir qualquer número de fluxos de vídeo contextual do usuário. Em alguns casos, o usuário pode acessar o seu perfil de usuário através de uma aplicação móvel, uma aplicação de computador, um navegador da web e a Internet, e/ou similares. Mais ainda, em alguns casos, o usuário pode compartilhar ou de outro modo solicitar o dispositivo hospedeiro para compartilhar qualquer número de fluxos de vídeo contextual do usuário com um diferente usuário e/ou através de um site de mídia social. Em alguns casos, um usuário pode permitir acesso a uma porção do seu perfil de usuário de modo que outros usuários possam ver os fluxos de vídeo contextual incluídos neste.
[0094] Apesar de exemplos específicos terem sido especificamente acima descritos, as modalidades e métodos aqui descritos podem ser utilizados em qualquer modo adequado. Por exemplo, apesar do sistema 100 ser acima descrito como definindo um fluxo de vídeo conPetição 870180048519, de 07/06/2018, pág. 66/90
63/68 textual de um usuário em um evento de esporte, em outras modalidades, os métodos aqui descritos podem ser utilizados para identificar um indivíduo utilizando, por exemplo, reconhecimento facial e analítica de vídeo em qualquer ambiente adequado, local, arena, evento, etc. Por exemplo, em algumas modalidades, os métodos acima descritos podem ser utilizados para capturar um fluxo de vídeo contextual m um concerto, um rali, uma formatura, uma festa, um shopping center, um local de negócios, etc. Em um exemplo, um dispositivo hospedeiro pode receber um fluxo de vídeo contextual de, por exemplo, uma formatura. Em alguns casos, como acima descrito, o dispositivo hospedeiro pode executar qualquer reconhecimento facial e/ou analítica de vídeo adequado para identificar o formando (e/ou qualquer indivíduo e/ou usuário). Mais ainda, o dispositivo hospedeiro pode estar configurado para analisar informações contextuais tais como, um perfil de usuário associado ao formando, uma ordem de estudantes que caminham através do palco, dados de localização associados ao dispositivo de cliente do formando, e/ou quaisquer outros dados adequados. Como tal, o dispositivo hospedeiro pode analisar os dados para verificar a identidade do formando (por exemplo, quando os dados satisfazem um critério(s)) e pode definir um fluxo de vídeo contextual do formando, por exemplo, conforme ele ou ela caminha através do palco para receber um diploma ou similares. Em outros casos, o dispositivo hospedeiro pode identificar um membro de família ou amigo do formando e pode definir um fluxo de vídeo contextual dele ou dela em um modo similar.
[0095] Apesar das modalidades terem sido acima descritas como sendo executadas sobre dispositivos específicos e/ou em porções específicas de um dispositivo, em outras modalidades, qualquer uma das modalidades e/ou métodos aqui descritos pode ser executada sobre qualquer dispositivo adequado. Por exemplo, apesar dos fluxos de
Petição 870180048519, de 07/06/2018, pág. 67/90
64/68 video contextual terem sido acima descritos como sendo enviados para um dispositivo hospedeiro (por exemplo, o dispositivo hospedeiro 110) para reconhecimento facial e/ou análise de imagem, em outras modalidades, qualquer análise adequada pode ser executada sobre ou em um dispositivo de cliente. Por exemplo, em alguns casos, um usuário pode capturar um fluxo de vídeo (por exemplo, um fluxo de vídeo contextual) através de uma câmera do dispositivo de cliente e em resposta, o dispositivo de cliente pode analisar o vídeo para identificar qualquer número de usuários registrados ou similares no fluxo de vídeo. Em alguns casos, a análise pode ser através de uma rede neural convolucional enviada para e/ou armazenada sobre o dispositivo de cliente (por exemplo, armazenada na memória e associada à aplicação de sistema). Em alguns casos, a análise pode ser pré-processada e/ou pré-classificada com base em, por exemplo, a lista de contatos do usuário, lista de amigos, conexões estabelecidas, etc., como acima descrito. Em alguns casos, o dispositivo de cliente pode enviar um fluxo de vídeo específico de usuário para qualquer usuário identificado, como acima descrito. Em outras modalidades, o dispositivo de cliente pode carregar e/ou enviar o fluxo de vídeo analisado e/ou o(s) fluxo(s) de vídeo específicos de usuário para o dispositivo hospedeiro 110 e/ou o banco de dados 140.
[0096] Apesar dos fluxos de vídeo e/ou dados de imagem serem acima descritos como sendo contextuais, deve ser compreendido que os dados de fluxo de vídeo e/ou dados de imagem podem ser independentes de e/ou não associados a dados contextuais. Por exemplo, em alguns casos, um usuário pode capturar um fluxo de vídeo e/ou imagem e pode carregar o fluxo de vídeo e/ou imagem para processamento sem definir e/ou enviar dados contextuais associados ao fluxo de vídeo e/ou dados de imagem. Em alguns casos, o dispositivo hospedeiro ou similares (por exemplo, o dispositivo hospedeiro
Petição 870180048519, de 07/06/2018, pág. 68/90
65/68
110) pode receber o fluxo de vídeo e/ou dados de imagem gerados pelo usuário e em resposta, pode executar um ou mais processos de reconhecimento facial e/ou qualquer outra analítica adequada sobre os dados para definir, por exemplo, um fluxo de vídeo específico de usuário ou imagem específica de usuário que é independente de dados contextuais.
[0097] Apesar das modalidades terem sido especificamente mostradas e descritas, será compreendido que várias mudanças em forma e detalhes podem ser feitas. Apesar de várias modalidades terem sido descritas com tendo características específicas e/ou combinações de componentes, outras modalidades são possíveis que têm uma combinação de quaisquer características e/ou componentes de qualquer uma das modalidades como acima discutido.
[0098] Onde métodos e/ou eventos acima descritos indicam certos eventos e/ou procedimentos ocorrendo em uma certa ordem, a ordenação de certos eventos e/ou procedimentos pode ser modificada. Além disso, certos eventos e/ou procedimentos podem ser executados concorrentemente em um processo paralelo quando possível, assim como executados sequencialmente como acima descrito. Apesar de métodos de reconhecimento facial específicos terem sido acima descritos de acordo com modalidades específicas, em alguns casos, qualquer um dos métodos de reconhecimento facial pode ser combinado, aumentado, melhorado, e/ou de outro modo coletivamente executado sobre um conjunto de dados de reconhecimento facial. Por exemplo, em alguns casos, um método de reconhecimento facial pode incluir analisar dados de reconhecimento facial utilizando Eigenvectors, Eigenfaces, e/ou outras análise 2D, assim como qualquer análise 3D adequada tal como, por exemplo, reconstrução 3D de múltiplas imagens 2D. Em alguns casos, a utilização de um método de análise 2D e um método de análise 3D pode, por exemplo, gerar resultados mais
Petição 870180048519, de 07/06/2018, pág. 69/90
66/68 precisos com menos carga sobre recursos (por exemplo, dispositivos de processamento) que de outro modo resultaria de somente uma análise 3D ou somente uma análise 2D. Em alguns casos, o reconhecimento facial pode ser executado através de redes neurais convolucionais (CNN) e/ou através de CNN em combinação com quaisquer métodos de reconhecimento facial bidimensional (2D) e/ou tridimensional (3D). Mais ainda, a utilização de múltiplos métodos de análise pode ser utilizada, por exemplo, para redundância, verificação de erro, balanceamento de carga, e/ou similares. Em alguns casos, a utilização de múltiplos métodos de análise pode permitir um sistema seletivamente analisar um conjunto de dados de reconhecimento facial com base pelo menos em parte em dados específicos incluídos nestes.
[0099] Algumas modalidades aqui descritas referem-se a um produto de armazenamento de computador com um meio legível por computador não transitório (também pode ser referido como um meio legível por processador não transitório) que tem instruções ou código de computador sobre o mesmo para executar várias operações implementadas por computador. O meio legível por computador (ou meio legível por processador) é não transitório no sentido que este não inclui sinais de propagação transitórios por si (por exemplo, uma onda eletromagnética de propagação que carrega informações sobre um meio de transmissão tal como espaço ou a cabo). O meio e código de computador (também podem ser referidos como código) podem ser aqueles projetados e construídos para propósito ou propósitos específicos. Exemplos de meio legível por computador não transitório incluem, mas não estão limitados a, meio de armazenamento magnético tal como discos rígidos, discos flexíveis, e fita magnética; meio de armazenamento ótico tal como Disco Compacto / Discos de Vídeo Digital (CD/DVDs), Memórias Somente de Leitura de Disco Compacto (CDROMs), e dispositivos holográficos; meio de armazenamento magneto
Petição 870180048519, de 07/06/2018, pág. 70/90
67/68 ótico tal como discos óticos; módulos de processamento de sinal de onda portadora; e dispositivos de hardware que estão especialmente configurados para armazenar e executar código de programa, tal como dispositivos de Circuitos Integrados de Aplicação Específica (ASICs), Dispositivos Lógicos Programáveis (PLDs), Memória Somente de Leitura (ROM) e Memória de Acesso Randômico (RAM). Outras modalidades aqui descritas referem-se a um produto de programa de computador, o qual pode incluir, por exemplo, as instruções e/ou código de computador aqui discutidos.
[00100] Algumas modalidades e/ou métodos aqui descritos podem ser executados por software (executado sobre hardware), hardware, ou uma sua combinação. Os módulos de hardware podem incluir, por exemplo, um processador de uso geral, uma rede de portas programáveis no campo (FPGA), e/ou um circuito integrado de aplicação específica (ASIC). Os módulos de software (executados sobre hardware) podem ser expressos em uma variedade de linguagens de software (por exemplo, código de computador), incluindo C, C++, Java™, Ruby, Visual Basic™, e/ou outros procedimentos orientados em objetos, ou outras ferramentas de linguagem de programação e desenvolvimento. Exemplos de código de computador incluem, mas não estão limitados a, microcódigo ou microinstruções, instruções de máquina, tal como produzidas por um compilador, código utilizados para produzir um serviço da web, e arquivos que contêm instruções de alto nível que são executadas por um computador utilizando um interpretador. Por exemplo, modalidades podem ser implementadas utilizando linguagens de programação imperativas (por exemplo, C, Fortran, etc.), linguagens de programação funcionais (Haskell, Erlang, etc.), linguagens de programação lógicas (por exemplo, Prolog), linguagens de programação orientadas em objeto (por exemplo, Java, C++, etc.) ou outras linguagens de programação adequadas e/ou ferramentas de desenPetição 870180048519, de 07/06/2018, pág. 71/90
68/68 volvimento. Exemplos adicionais de código de computador incluem, mas não estão limitados a, sinais de controle, código criptografado, e código comprimido.

Claims (20)

  1. REIVINDICAÇÕES
    1. Aparelho, caracterizado pelo fato de compreender:
    uma memória; e um processador operativamente acoplado na memória, o processador configurado para, em um primeiro tempo, receber dados de localização de um dispositivo de usuário, o processador configurado para armazenar os dados de localização em uma estrutura de dados de perfil de usuário, a estrutura de dados de perfil de usuário incluindo dados de reconhecimento facial de um usuário do dispositivo de usuário associado ao usuário com base em pelo menos uma de analítica de reconhecimento facial bidimensional, analítica de reconhecimento facial tridimensional, ou redes neurais convolucionais (CNN), o processador configurado para receber, em um segundo tempo diferente do primeiro tempo, pelo menos uma imagem de um dispositivo de captura de imagem, o processador configurado para identificar uma localização com base pelo menos em parte em um conjunto de características dentro da pelo menos uma imagem recebida, o processador configurado para recuperar, de um banco de dados, uma pluralidade de estruturas de dados de perfil de usuário que inclui a estrutura de dados de perfil de usuário, o processador configurado para, para cada estrutura de dados de perfil de usuário da pluralidade de estruturas de dados de perfil de usuário, comparar os dados de localização naquela estrutura de dados de perfil de usuário com a localização, o processador configurado para, quando os dados de localização da estrutura de dados de perfil de usuário e a localização estão dentro de uma distância predeterminada um do outro, determinar ser o usuário associado à estrutura de dados de perfil de usuário pode ser identificado na pelo menos uma imagem analisando a pelo menos uma imagem com relação aos dados de reconhecimento facial do usuário
    Petição 870180048519, de 07/06/2018, pág. 73/90
  2. 2/6 com base em pelo menos uma da analítica de reconhecimento facial bidimensional, a analítica de reconhecimento facial tridimensional, ou a CNN para identificar uma pontuação de confiança de reconhecimento facial, o processador configurado para associar a pelo menos uma imagem à estrutura de dados de perfil de usuário com base na pontuação de confiança de reconhecimento facial atendendo um critério predeterminado.
    2. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que os dados de localização são pelo menos um de dados de iBeacon, dados de Serviço de Posicionamento Global (GPS), um identificador de assento, ou um identificador de rede Wi-Fi.
  3. 3. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que o usuário é um primeiro usuário, o primeiro dispositivo de captura de imagem é um de uma câmera autônoma ou um dispositivo de cliente de usuário associado a um segundo usuário diferente do primeiro usuário.
  4. 4. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que o processador está configurado para identificar a localização ao:
    executar um processamento de imagem sobre a pelo menos uma imagem;
    identificar pelo menos um marco de local com base no processamento de imagem; e identificar a localização determinando uma localização do marco de local.
  5. 5. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que os dados de reconhecimento facial do usuário incluem dados relativos a uma fotografia do usuário que está associada à estrutura de dados de perfil de usuário.
  6. 6. Aparelho de acordo com a reivindicação 1, caracterizado
    Petição 870180048519, de 07/06/2018, pág. 74/90
    3/6 pelo fato de que a pelo menos uma imagem é armazenada no banco de dados se o usuário puder ser identificado na pelo menos uma imagem.
  7. 7. Método, caracterizado pelo fato de compreender:
    receber, em um primeiro tempo, dados de localização de usuário de um dispositivo de usuário;
    armazenar os dados de localização de usuário em uma estrutura de dados de perfil de usuário em um banco de dados;
    receber, em um segundo tempo diferente do primeiro tempo, pelo menos uma imagem de um dispositivo de captura de imagem;
    identificar uma localização com base pelo menos em parte em um conjunto de características dentro da pelo menos uma imagem;
    comparar os dados de localização de usuário de cada estrutura de dados de perfil de usuário de uma pluralidade de estruturas de dados de perfil de usuário armazenadas no banco de dados com a localização, a estrutura de dados de perfil de usuário sendo incluída na pluralidade de estruturas de dados de perfil de usuário; e quando os dados de localização de usuário da estrutura de dados de perfil de usuário da pluralidade de estruturas de dados de perfil de usuário coincidem com a localização:
    analisar os dados de reconhecimento facial dentro da estrutura de dados de perfil de usuário para a pelo menos uma imagem, e armazenar a pelo menos uma imagem como associada à estrutura de dados de perfil de usuário quando a pelo menos uma imagem coincide com os dados de reconhecimento facial.
  8. 8. Método de acordo com a reivindicação 7, caracterizado pelo fato de que os dados de localização de usuário são pelo menos um de dados de iBeacon, dados de Serviço de Posicionamento Global (GPS), um número de assento, ou um identificador de rede Wi-Fi.
  9. 9. Método de acordo com a reivindicação 7, caracterizado
    Petição 870180048519, de 07/06/2018, pág. 75/90
    4/6 pelo fato de ainda compreender:
    pré-processar a pelo menos uma imagem para determinar as informações contextuais antes de comparar os dados de reconhecimento facial com a pelo menos uma imagem, as informações contextuais incluindo pelo menos um de um nome de local, um tempo que a pelo menos uma imagem foi capturada, ou um evento coincidente que ocorreu quando a pelo menos uma imagem foi capturada.
  10. 10. Método de acordo com a reivindicação 7, caracterizado pelo fato de ainda compreender:
    calcular um nível de confiança para a pelo menos uma imagem com base na comparação dos dados de reconhecimento facial com a pelo menos uma imagem; e determinar que a pelo menos uma imagem coincide com os dados de reconhecimento facial quando o nível de confiança excede um limite predeterminado.
  11. 11. Método de acordo com a reivindicação 7, caracterizado pelo fato de que a pelo menos uma imagem é uma de uma fotografia ou um vídeo que inclui a pelo menos uma imagem, o método ainda compreendendo:
    dividir o vídeo em uma série de imagens quando a pelo menos uma imagem é um vídeo, de modo que os dados de reconhecimento facial são comparados com cada imagem na série de imagens quando os dados de reconhecimento facial são comparados com a pelo menos uma imagem.
  12. 12. Método de acordo com a reivindicação 7, caracterizado pelo fato de ainda compreender:
    enviar um sinal para graficamente renderizar a pelo menos uma imagem no dispositivo de usuário quando a pelo menos uma imagem coincide com os dados de reconhecimento facial.
    Petição 870180048519, de 07/06/2018, pág. 76/90
    5/6
  13. 13. Método de acordo com a reivindicação 7, caracterizado pelo fato de que quando a identificação da localização inclui identificar a localização com base pelo menos em parte em um cenário de fundo ou um marco de fundo incluído na pelo menos uma imagem.
  14. 14. Método de acordo com a reivindicação 7, o método caracterizado pelo fato de ainda compreender:
    descartar a pelo menos uma imagem se a pelo menos uma imagem não coincidir com os dados de reconhecimento facial de pelo menos uma estrutura de dados de perfil de usuário da pluralidade de estruturas de dados de perfil de usuário.
  15. 15. Aparelho, caracterizado pelo fato de compreender:
    uma memória; e um processador operativamente acoplado na memória, o processador configurado para obter pelo menos uma imagem, o processador configurado para identificar um conjunto de características dentro da pelo menos uma imagem, o processador configurado para identificar uma localização na qual a pelo menos uma imagem foi capturada com base na comparação do conjunto de características com dados de localização de marco armazenados em um banco de dados, o processador configurado para selecionar um conjunto de dispositivos de cliente de uma pluralidade de dispositivos de cliente, cada dispositivo de cliente do conjunto de dispositivos de cliente sendo selecionado com base em dados de localização de usuário associados àquele dispositivo de cliente estando dentro de uma distância predeterminada da localização, o processador configurado para coincidir um dispositivo de cliente no conjunto de dispositivos de cliente com a pelo menos uma imagem com base em uma análise da pelo menos uma imagem e dados de reconhecimento facial associados ao dispositivo de cliente, o processador configurado para enviar um sinal de modo que a pelo
    Petição 870180048519, de 07/06/2018, pág. 77/90
    6/6 menos uma imagem seja renderizada no dispositivo de cliente.
  16. 16. Aparelho de acordo com a reivindicação 15, caracterizado pelo fato de que a análise é uma análise de reconhecimento facial da pelo menos uma imagem para detectar um usuário associado aos dados de reconhecimento facial, na pelo menos uma imagem.
  17. 17. Aparelho de acordo com a reivindicação 15, caracterizado pelo fato de que o conjunto de características inclui pelo menos um de um marco de local ou cenário de fundo.
  18. 18. Aparelho de acordo com a reivindicação 15, caracterizado pelo fato de que:
    o processador está ainda configurado para armazenar a pelo menos uma imagem e associar a pelo menos uma imagem aos dados de reconhecimento facial associados com o dispositivo de cliente.
  19. 19. Aparelho de acordo com a reivindicação 15, caracterizado pelo fato de que o dispositivo de cliente é coincidido com a pelo menos uma imagem quando um nível de confiança da pelo menos uma imagem atende um critério predeterminado, o nível de confiança sendo determinado com base na análise da pelo menos uma imagem e dos dados de reconhecimento facial.
  20. 20. Aparelho de acordo com a reivindicação 15, caracterizado pelo fato de que a pelo menos uma imagem é pelo menos um de uma fotografia ou um vídeo que inclui a pelo menos uma imagem.
BR112018007979A 2015-10-21 2016-10-21 métodos e aparelho para minimização de falso positivo em aplicações de reconhecimento facial BR112018007979A2 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562244419P 2015-10-21 2015-10-21
PCT/US2016/058189 WO2017070519A1 (en) 2015-10-21 2016-10-21 Methods and apparatus for false positive minimization in facial recognition applications

Publications (1)

Publication Number Publication Date
BR112018007979A2 true BR112018007979A2 (pt) 2019-11-12

Family

ID=58557907

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112018007979A BR112018007979A2 (pt) 2015-10-21 2016-10-21 métodos e aparelho para minimização de falso positivo em aplicações de reconhecimento facial

Country Status (11)

Country Link
US (2) US10654942B2 (pt)
EP (1) EP3365838A4 (pt)
JP (2) JP6850291B2 (pt)
KR (1) KR20180105636A (pt)
CN (1) CN108369652A (pt)
AU (1) AU2016342028B2 (pt)
BR (1) BR112018007979A2 (pt)
CA (1) CA3040856C (pt)
IL (1) IL258817B (pt)
SG (2) SG10201912947XA (pt)
WO (1) WO2017070519A1 (pt)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6504453B2 (ja) * 2015-07-01 2019-04-24 カシオ計算機株式会社 画像送信装置、画像送信方法及びプログラム
US10094655B2 (en) 2015-07-15 2018-10-09 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition and video analytics to identify individuals in contextual video streams
CN105095873B (zh) * 2015-07-31 2018-12-18 小米科技有限责任公司 照片共享方法、装置
EP3365838A4 (en) 2015-10-21 2019-08-28 15 Seconds Of Fame, Inc. METHODS AND APPARATUS FOR MINIMIZING FALSE POSITIVES IN FACIAL RECOGNITION APPLICATIONS
CN106096009A (zh) * 2016-06-23 2016-11-09 北京小米移动软件有限公司 消息生成方法及装置
US10140675B2 (en) * 2016-11-28 2018-11-27 Google Llc Image grid with selectively prominent images
CN108876944A (zh) 2017-05-12 2018-11-23 阿里巴巴集团控股有限公司 一种车载支付的方法和装置
WO2019083508A1 (en) * 2017-10-24 2019-05-02 Hewlett-Packard Development Company, L.P. FACIAL RECOGNITION BASED ON CONTEXTUAL INFORMATION
KR102433393B1 (ko) * 2017-12-12 2022-08-17 한국전자통신연구원 동영상 콘텐츠 내의 인물을 인식하는 장치 및 방법
JP6975666B2 (ja) * 2018-03-20 2021-12-01 株式会社日立ソリューションズ・クリエイト 人物特定システム及び人物特定方法
US10311459B1 (en) * 2018-04-04 2019-06-04 Capital One Services, Llc User recognition based user experience platform
US10936856B2 (en) * 2018-08-31 2021-03-02 15 Seconds of Fame, Inc. Methods and apparatus for reducing false positives in facial recognition
WO2020076225A1 (en) * 2018-10-10 2020-04-16 Delaval Holding Ab Animal identification using vision techniques
US10810403B2 (en) * 2018-10-30 2020-10-20 AMI Holdings Limited Apparatus and method for coordinating the matching and initial communications between individuals in a dating application
US11012387B2 (en) 2018-10-30 2021-05-18 AMI Holdings Limited Apparatus and method for matching individuals during an ephemeral time period based upon voting and matching criteria
CN111428516B (zh) * 2018-11-19 2022-08-19 腾讯科技(深圳)有限公司 一种信息处理的方法以及装置
US11010596B2 (en) * 2019-03-07 2021-05-18 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition systems to identify proximity-based connections
US11335060B2 (en) * 2019-04-04 2022-05-17 Snap Inc. Location based augmented-reality system
WO2020211923A1 (en) * 2019-04-15 2020-10-22 Telefonaktiebolaget Lm Ericsson (Publ) Mobile communications device and application server
US11423694B2 (en) 2019-06-19 2022-08-23 Samsung Electronics Company, Ltd. Methods and systems for dynamic and incremental face recognition
CN110276777B (zh) * 2019-06-26 2022-03-22 山东浪潮科学研究院有限公司 一种基于深度图学习的图像分割方法及装置
US11283937B1 (en) * 2019-08-15 2022-03-22 Ikorongo Technology, LLC Sharing images based on face matching in a network
WO2021084519A1 (en) * 2019-11-01 2021-05-06 Aerial Technologies Inc. System for multi-path 5g and wi-fi motion detection
JP7092104B2 (ja) * 2019-11-07 2022-06-28 日本電気株式会社 認証装置、認証システム、認証方法及びコンピュータプログラム
US11341351B2 (en) 2020-01-03 2022-05-24 15 Seconds of Fame, Inc. Methods and apparatus for facial recognition on a user device
EP3855348A1 (en) * 2020-01-27 2021-07-28 Microsoft Technology Licensing, LLC Error management
WO2021163075A1 (en) * 2020-02-13 2021-08-19 Best Apps, Llc Computer aided systems and methods for creating custom products
US11907521B2 (en) * 2021-01-28 2024-02-20 Samsung Electronics Co., Ltd. Augmented reality calling interface
KR102625656B1 (ko) * 2022-03-23 2024-01-16 전남대학교산학협력단 비대면 소통 플랫폼 맞춤형 영상 합성 방법

Family Cites Families (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
US5694546A (en) 1994-05-31 1997-12-02 Reisman; Richard R. System for automatic unattended electronic information transport between a server and a client by a vendor provided transport software with a manifest list
US6532345B1 (en) 1994-08-02 2003-03-11 L. N. C. J. Limited Imaging system and method
US20030118216A1 (en) 1996-09-04 2003-06-26 Goldberg David A. Obtaining person-specific images in a public venue
EP1016002A4 (en) 1996-09-04 2000-11-15 David A Goldberg METHOD AND DEVICE FOR PRODUCING PERSONAL-SPECIFIC IMAGES IN A PUBLIC SPACE
US6819783B2 (en) 1996-09-04 2004-11-16 Centerframe, Llc Obtaining person-specific images in a public venue
US6142876A (en) 1997-08-22 2000-11-07 Cumbers; Blake Player tracking and identification system
US7330875B1 (en) 1999-06-15 2008-02-12 Microsoft Corporation System and method for recording a presentation for on-demand viewing over a computer network
JP3955170B2 (ja) 2000-07-03 2007-08-08 富士フイルム株式会社 画像検索システム
JP3992909B2 (ja) 2000-07-03 2007-10-17 富士フイルム株式会社 本人画像提供システム
US6745186B1 (en) 2000-08-17 2004-06-01 Eastman Kodak Company Product and method for organizing and searching digital images
US7376276B2 (en) 2000-08-29 2008-05-20 Imageid Ltd Indexing, storage and retrieval of digital images
WO2002019137A1 (en) 2000-08-29 2002-03-07 Imageid Ltd. Indexing, storage & retrieval of digital images
US6591068B1 (en) 2000-10-16 2003-07-08 Disney Enterprises, Inc Method and apparatus for automatic image capture
US7321387B2 (en) 2001-07-30 2008-01-22 Eastman Kodak Company System and method for offering imaging services of a customer and participants at a live entertainment event
GB2380556A (en) 2001-10-05 2003-04-09 Hewlett Packard Co Camera with vocal control and recording
US8321231B2 (en) 2001-11-07 2012-11-27 Toshiba Global Commerce Solutions Holding Corporation Method and apparatus for providing customized souvenir images
JP2003317100A (ja) 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd 情報端末装置、認証システム、及び登録・認証方法
GB2386276B (en) 2002-03-09 2004-09-08 Rx Technology Europ Ltd Image capture and retrieval apparatus
US7494061B2 (en) 2006-06-30 2009-02-24 Evercom Systems, Inc. Systems and methods for identity verification using continuous biometric monitoring
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7636365B2 (en) 2004-05-13 2009-12-22 Korea Advanced Institute Of Science And Technology (Kaist) Smart digital modules and smart digital wall surfaces combining the same, and context aware interactive multimedia system using the same and operation method thereof
JP4789511B2 (ja) 2004-06-04 2011-10-12 キヤノン株式会社 状況モニタリング装置及び状況モニタリングシステム
US8832138B2 (en) 2004-06-17 2014-09-09 Nokia Corporation System and method for social network search operations
US7532811B2 (en) 2004-07-13 2009-05-12 David Andrew Sauder System and method for capturing, associating and distributing photographic images
US20060020630A1 (en) 2004-07-23 2006-01-26 Stager Reed R Facial database methods and systems
US7848566B2 (en) 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
EP1810505B1 (en) 2004-11-04 2014-03-12 Koninklijke Philips N.V. Incorporation of lead actor information for tv recommenders
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US20060171603A1 (en) 2005-01-31 2006-08-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Resampling of transformed shared image techniques
WO2006091869A2 (en) 2005-02-25 2006-08-31 Youfinder Intellectual Property Licensing Limited Liability Company Automated indexing for distributing event photography
US7023367B1 (en) 2005-03-10 2006-04-04 National Semiconductor Corporation Current steering digital to analog converter with improved dynamic linearity
US7765231B2 (en) 2005-04-08 2010-07-27 Rathus Spencer A System and method for accessing electronic data via an image search engine
US20060229063A1 (en) 2005-04-12 2006-10-12 Microsoft Corporation Systems and methods automatically updating contact information
US7966223B2 (en) 2005-04-15 2011-06-21 David Clifford R Interactive image activation and distribution system and associated methods
US8260674B2 (en) 2007-03-27 2012-09-04 David Clifford R Interactive image activation and distribution system and associate methods
JP2008537228A (ja) 2005-04-15 2008-09-11 クリフォード・アール.・デイヴィッド 対話式撮影及び配信システム並びに関連の方法
EP1907980B1 (en) 2005-07-18 2013-01-02 Hysterical Sunset Limited Manually-assisted automated indexing of images using facial recognition
JP2007052646A (ja) 2005-08-18 2007-03-01 Fujifilm Holdings Corp 画像検索装置、画像プリント装置、プリント注文システム、店頭プリント端末装置、撮像装置、画像検索プログラム及び方法
US7945653B2 (en) 2006-10-11 2011-05-17 Facebook, Inc. Tagging digital media
US7783085B2 (en) 2006-05-10 2010-08-24 Aol Inc. Using relevance feedback in face recognition
US7907755B1 (en) 2006-05-10 2011-03-15 Aol Inc. Detecting facial similarity based on human perception of facial similarity
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7684651B2 (en) 2006-08-23 2010-03-23 Microsoft Corporation Image-based face search
US8315463B2 (en) 2006-11-14 2012-11-20 Eastman Kodak Company User interface for face recognition
US20080260212A1 (en) 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
US20080201327A1 (en) 2007-02-20 2008-08-21 Ashoke Seth Identity match process
WO2008109172A1 (en) 2007-03-07 2008-09-12 Wiklof Christopher A Recorder with retrospective capture
US9075808B2 (en) 2007-03-29 2015-07-07 Sony Corporation Digital photograph content information service
JP2008250830A (ja) * 2007-03-30 2008-10-16 Toshiba Corp 出欠確認システムおよび出欠確認方法
US8189880B2 (en) 2007-05-29 2012-05-29 Microsoft Corporation Interactive photo annotation based on face clustering
US8014572B2 (en) 2007-06-08 2011-09-06 Microsoft Corporation Face annotation framework with partial clustering and interactive labeling
KR101378372B1 (ko) 2007-07-12 2014-03-27 삼성전자주식회사 디지털 이미지 처리장치, 그 제어방법 및 제어방법을실행시키기 위한 프로그램을 저장한 기록매체
US8144944B2 (en) 2007-08-14 2012-03-27 Olympus Corporation Image sharing system and method
US20090074258A1 (en) 2007-09-19 2009-03-19 James Cotgreave Systems and methods for facial recognition
KR101382499B1 (ko) 2007-10-22 2014-04-21 삼성전자주식회사 영상 태깅 방법 및 이를 사용하는 영상 재생 장치.
US7391886B1 (en) 2008-01-09 2008-06-24 International Business Machines Corporation Digital camera with image tracking system
US8180112B2 (en) * 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
KR101432177B1 (ko) 2008-01-21 2014-08-22 삼성전자주식회사 휴대용 장치 및 그 사진처리방법, 이를 포함하는사진처리시스템
US7953690B2 (en) 2008-01-25 2011-05-31 Eastman Kodak Company Discovering social relationships from personal photo collections
CN103281190B (zh) 2008-02-22 2018-03-09 安全第一公司 安全工作组管理和通信的系统和方法
WO2009116049A2 (en) 2008-03-20 2009-09-24 Vizi Labs Relationship mapping employing multi-dimensional context including facial recognition
JP2011516966A (ja) 2008-04-02 2011-05-26 グーグル インコーポレイテッド デジタル画像集合内に自動顔認識を組み込む方法および装置
US8406531B2 (en) * 2008-05-15 2013-03-26 Yahoo! Inc. Data access based on content of image recorded by a mobile device
US8284990B2 (en) 2008-05-21 2012-10-09 Honeywell International Inc. Social network construction based on data association
US20100036875A1 (en) 2008-08-07 2010-02-11 Honeywell International Inc. system for automatic social network construction from image data
US9646025B2 (en) * 2008-05-27 2017-05-09 Qualcomm Incorporated Method and apparatus for aggregating and presenting data associated with geographic locations
US20090316961A1 (en) 2008-06-21 2009-12-24 Microsoft Corporation Method for tagging image content
JP2010009389A (ja) * 2008-06-27 2010-01-14 Toshiba Corp 辞書情報登録装置、辞書情報登録方法、顔認証装置および入退場管理システム
JP5049899B2 (ja) 2008-06-30 2012-10-17 キヤノン株式会社 撮像装置及びその制御方法
WO2010006367A1 (en) 2008-07-16 2010-01-21 Imprezzeo Pty Ltd Facial image recognition and retrieval
US8204437B1 (en) 2008-08-08 2012-06-19 Srr Patent Holdings, Llc Wireless image distribution system and method
JP5436559B2 (ja) * 2008-09-02 2014-03-05 エコール・ポリテクニーク・フェデラル・ドゥ・ローザンヌ(エーペーエフエル) ポータブル・デバイス上での画像アノテーション
US8457366B2 (en) 2008-12-12 2013-06-04 At&T Intellectual Property I, L.P. System and method for matching faces
US8442922B2 (en) 2008-12-24 2013-05-14 Strands, Inc. Sporting event image capture, processing and publication
US9495583B2 (en) 2009-01-05 2016-11-15 Apple Inc. Organizing images by correlating faces
US8254699B1 (en) 2009-02-02 2012-08-28 Google Inc. Automatic large scale video object recognition
US8289130B2 (en) 2009-02-19 2012-10-16 Apple Inc. Systems and methods for identifying unauthorized users of an electronic device
US8782709B2 (en) 2009-02-19 2014-07-15 Hulu, LLC Method and apparatus for providing a program guide having search parameter aware thumbnails
US20100216441A1 (en) 2009-02-25 2010-08-26 Bo Larsson Method for photo tagging based on broadcast assisted face identification
US8392957B2 (en) 2009-05-01 2013-03-05 T-Mobile Usa, Inc. Automatic content tagging, such as tagging digital images via a wireless cellular network using metadata and facial recognition
US8886206B2 (en) 2009-05-01 2014-11-11 Digimarc Corporation Methods and systems for content processing
US8325999B2 (en) 2009-06-08 2012-12-04 Microsoft Corporation Assisted face recognition tagging
US20110013810A1 (en) 2009-07-17 2011-01-20 Engstroem Jimmy System and method for automatic tagging of a digital image
US20110022529A1 (en) 2009-07-22 2011-01-27 Fernando Barsoba Social network creation using image recognition
US8670597B2 (en) 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
US8510383B2 (en) 2009-09-14 2013-08-13 Clixtr, Inc. Method for providing event based media streams
US20110066431A1 (en) 2009-09-15 2011-03-17 Mediatek Inc. Hand-held input apparatus and input method for inputting data to a remote receiving device
US8438484B2 (en) * 2009-11-06 2013-05-07 Sony Corporation Video preview module to enhance online video experience
US8386620B2 (en) 2009-12-15 2013-02-26 Apple Inc. Ad hoc networking based on content and location
US8416997B2 (en) 2010-01-27 2013-04-09 Apple Inc. Method of person identification using social connections
US20110188742A1 (en) 2010-02-02 2011-08-04 Jie Yu Recommending user image to social network groups
US20110211737A1 (en) 2010-03-01 2011-09-01 Microsoft Corporation Event Matching in Social Networks
US9465993B2 (en) 2010-03-01 2016-10-11 Microsoft Technology Licensing, Llc Ranking clusters based on facial image analysis
US8957981B2 (en) 2010-03-03 2015-02-17 Intellectual Ventures Fund 83 Llc Imaging device for capturing self-portrait images
US20110238755A1 (en) 2010-03-24 2011-09-29 Hameed Khan Proximity-based social networking
US20110257985A1 (en) * 2010-04-14 2011-10-20 Boris Goldstein Method and System for Facial Recognition Applications including Avatar Support
WO2011146391A2 (en) 2010-05-16 2011-11-24 Access Business Group International Llc Data collection, tracking, and analysis for multiple media including impact analysis and influence tracking
WO2011156633A2 (en) 2010-06-09 2011-12-15 Brian Holmes Live event social networking system
JP5545084B2 (ja) 2010-07-08 2014-07-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8270684B2 (en) * 2010-07-27 2012-09-18 Google Inc. Automatic media sharing via shutter click
US9202091B2 (en) 2010-09-02 2015-12-01 Intelleflex Corporation RFID reader with camera, video, and/or audio capture device
US8824748B2 (en) * 2010-09-24 2014-09-02 Facebook, Inc. Auto tagging in geo-social networking system
US8928760B2 (en) 2010-12-07 2015-01-06 Verizon Patent And Licensing Inc. Receiving content and approving content for transmission
US8341145B2 (en) 2010-12-20 2012-12-25 Microsoft Corporation Face recognition using social data
JP5795650B2 (ja) 2011-02-18 2015-10-14 グーグル・インク 顔認識
WO2012122269A2 (en) 2011-03-07 2012-09-13 Kba2, Inc. Systems and methods for analytic data gathering from image providers at an event or geographic location
US9317530B2 (en) 2011-03-29 2016-04-19 Facebook, Inc. Face recognition based on spatial and temporal proximity
US20120265758A1 (en) 2011-04-14 2012-10-18 Edward Han System and method for gathering, filtering, and displaying content captured at an event
US8631084B2 (en) 2011-04-29 2014-01-14 Facebook, Inc. Dynamic tagging recommendation
US8918463B2 (en) 2011-04-29 2014-12-23 Facebook, Inc. Automated event tagging
US8971924B2 (en) 2011-05-23 2015-03-03 Apple Inc. Identifying and locating users on a mobile network
US8891832B2 (en) * 2011-06-03 2014-11-18 Facebook, Inc. Computer-vision-assisted location check-in
US9082235B2 (en) 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
US8885960B2 (en) 2011-10-05 2014-11-11 Microsoft Corporation Linking photographs via face, time, and location
US9131147B2 (en) 2011-10-07 2015-09-08 Fuji Xerox Co., Ltd. System and method for detecting and acting on multiple people crowding a small display for information sharing
US9143601B2 (en) 2011-11-09 2015-09-22 Microsoft Technology Licensing, Llc Event-based media grouping, playback, and sharing
US9087273B2 (en) 2011-11-15 2015-07-21 Facebook, Inc. Facial recognition using social networking information
US9280708B2 (en) 2011-11-30 2016-03-08 Nokia Technologies Oy Method and apparatus for providing collaborative recognition using media segments
US8723962B2 (en) 2011-12-13 2014-05-13 International Business Machines Corporation Camera based information exchange mechanism
EP2834774A4 (en) 2012-04-01 2016-06-08 Intel Corp ANALYSIS OF HUMAN COMMUNICATIONS IN GESTURE
US9407860B2 (en) * 2012-04-06 2016-08-02 Melvin Lee Barnes, JR. System, method and computer program product for processing image data
US9137246B2 (en) 2012-04-09 2015-09-15 Brivas Llc Systems, methods and apparatus for multivariate authentication
US9179021B2 (en) 2012-04-25 2015-11-03 Microsoft Technology Licensing, Llc Proximity and connection based photo sharing
US20140342330A1 (en) 2013-05-17 2014-11-20 Gary A. Freeman Cameras for Emergency Rescue
US8849041B2 (en) 2012-06-04 2014-09-30 Comcast Cable Communications, Llc Data recognition in content
US8710751B2 (en) 2012-07-26 2014-04-29 Polestar Electric Industries Co., Ltd. LED string with a capability to maintain a current path and LED unit thereof
US9204247B2 (en) 2012-08-13 2015-12-01 Google Inc. Proximity-based notifications for photos
US8560625B1 (en) 2012-09-01 2013-10-15 Google Inc. Facilitating photo sharing
US9141848B2 (en) 2012-09-04 2015-09-22 Intel Corporation Automatic media distribution
AU2012101375A4 (en) * 2012-09-06 2012-10-18 Oracle Recording's FutureNetID
US10027727B1 (en) 2012-11-21 2018-07-17 Ozog Media, LLC Facial recognition device, apparatus, and method
US10019136B1 (en) 2012-11-21 2018-07-10 Ozog Media, LLC Image sharing device, apparatus, and method
US10027726B1 (en) 2012-11-21 2018-07-17 Ozog Media, LLC Device, apparatus, and method for facial recognition
WO2014100519A1 (en) 2012-12-19 2014-06-26 Fanpix Llc Image capture, processing and delivery at group events
US9712800B2 (en) 2012-12-20 2017-07-18 Google Inc. Automatic identification of a notable moment
US9411831B2 (en) 2013-03-01 2016-08-09 Facebook, Inc. Photo clustering into moments
US9654761B1 (en) 2013-03-15 2017-05-16 Google Inc. Computer vision algorithm for capturing and refocusing imagery
US20140350840A1 (en) 2013-05-23 2014-11-27 Cellco Partnership D/B/A Verizon Wireless Crowd proximity device
WO2014194488A1 (en) 2013-06-05 2014-12-11 Intel Corporation Karaoke avatar animation based on facial motion data
JP2015015570A (ja) * 2013-07-04 2015-01-22 株式会社ニコン 画像管理システム、画像管理装置および画像管理プログラム
US9104907B2 (en) 2013-07-17 2015-08-11 Emotient, Inc. Head-pose invariant recognition of facial expressions
WO2015031863A1 (en) 2013-08-29 2015-03-05 FanPix, LLC Imaging attendees at event venues
US20150062334A1 (en) 2013-08-29 2015-03-05 FanPix, LLC Systems and Methods for Image Capture and Distribution in Venues
US20150066920A1 (en) 2013-09-04 2015-03-05 Google Inc. Media clip sharing on social networks
US9807161B2 (en) 2013-09-16 2017-10-31 Axis Ab Distributed events in an access control system
JP5935777B2 (ja) 2013-09-17 2016-06-15 コニカミノルタ株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US10460151B2 (en) 2013-09-17 2019-10-29 Cloudspotter Technologies, Inc. Private photo sharing system, method and network
US9569656B2 (en) 2013-12-06 2017-02-14 Google Inc. Local real-time facial recognition
US9773162B2 (en) 2013-12-12 2017-09-26 Evernote Corporation User discovery via digital ID and face recognition
US20150172787A1 (en) 2013-12-13 2015-06-18 Amazon Technologies, Inc. Customized movie trailers
US9007420B1 (en) 2014-01-10 2015-04-14 Securus Technologies, Inc. Verifying presence of authorized persons during an electronic visitation
US10121060B2 (en) * 2014-02-13 2018-11-06 Oath Inc. Automatic group formation and group detection through media recognition
US20150227780A1 (en) 2014-02-13 2015-08-13 FacialNetwork, Inc. Method and apparatus for determining identity and programing based on image features
US9189682B2 (en) 2014-02-13 2015-11-17 Apple Inc. Systems and methods for sending digital images
US9858601B2 (en) * 2014-03-05 2018-01-02 Ricoh Co., Ltd. Grouping users based on user profiles
US9852364B2 (en) 2014-03-19 2017-12-26 Hulu, LLC Face track recognition with multi-sample multi-view weighting
US9910479B2 (en) 2014-04-16 2018-03-06 Facebook, Inc. Location based content promotion on online social networks
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9420315B2 (en) 2014-06-17 2016-08-16 Bruce Melanson Systems and methods for sharing video data via social media
US9826133B2 (en) 2014-07-23 2017-11-21 Orcam Technologies Ltd. Wearable apparatus with wide viewing angle image sensor
US10264175B2 (en) 2014-09-09 2019-04-16 ProSports Technologies, LLC Facial recognition for event venue cameras
US20160071101A1 (en) 2014-09-09 2016-03-10 Tyson York Winarski Selfie financial security transaction system
US9516472B2 (en) 2014-10-10 2016-12-06 Verizon Patent And Licensing Inc. Method and system for evaluating a user response to a presence based action
US20160150124A1 (en) 2014-11-24 2016-05-26 Kyocera Document Solutions Inc. Image Forming Apparatus with User Identification Capabilities
US20160182816A1 (en) 2014-12-23 2016-06-23 Ebay Enterprise, Inc. Preventing photographs of unintended subjects
US20160191434A1 (en) 2014-12-24 2016-06-30 Blue Yonder Labs Llc System and method for improved capture, storage, search, selection and delivery of images across a communications network
WO2017004241A1 (en) 2015-07-02 2017-01-05 Krush Technologies, Llc Facial gesture recognition and video analysis tool
US10094655B2 (en) 2015-07-15 2018-10-09 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition and video analytics to identify individuals in contextual video streams
EP3365838A4 (en) 2015-10-21 2019-08-28 15 Seconds Of Fame, Inc. METHODS AND APPARATUS FOR MINIMIZING FALSE POSITIVES IN FACIAL RECOGNITION APPLICATIONS
US9668002B1 (en) 2015-11-19 2017-05-30 Amazon Technologies, Inc. Identification of live streaming content
US10607081B2 (en) 2016-01-06 2020-03-31 Orcam Technologies Ltd. Collaboration facilitator for wearable devices
KR102233175B1 (ko) 2017-01-05 2021-03-29 한국전자통신연구원 특징배우 결정 및 특징배우 출연확률 기반 영상 식별 방법 및 장치
US10572767B2 (en) 2017-04-12 2020-02-25 Netflix, Inc. Scene and shot detection and characterization
US10885396B2 (en) 2017-05-24 2021-01-05 Amazon Technologies, Inc. Generating composite images using audio/video recording and communication devices
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
KR102433393B1 (ko) 2017-12-12 2022-08-17 한국전자통신연구원 동영상 콘텐츠 내의 인물을 인식하는 장치 및 방법
US10607484B2 (en) 2017-12-28 2020-03-31 Intel Corporation Privacy-preserving distributed visual data processing
US10797863B2 (en) 2017-12-28 2020-10-06 Intel Corporation Multi-domain cascade convolutional neural network

Also Published As

Publication number Publication date
AU2016342028B2 (en) 2020-08-20
CN108369652A (zh) 2018-08-03
CA3040856C (en) 2024-01-02
WO2017070519A1 (en) 2017-04-27
US20170116466A1 (en) 2017-04-27
JP6850291B2 (ja) 2021-03-31
JP2018536929A (ja) 2018-12-13
US20200262931A1 (en) 2020-08-20
CA3040856A1 (en) 2017-04-27
SG11201803263WA (en) 2018-05-30
KR20180105636A (ko) 2018-09-28
EP3365838A1 (en) 2018-08-29
JP7091504B2 (ja) 2022-06-27
SG10201912947XA (en) 2020-02-27
JP2021099852A (ja) 2021-07-01
IL258817B (en) 2021-10-31
US11286310B2 (en) 2022-03-29
EP3365838A4 (en) 2019-08-28
US10654942B2 (en) 2020-05-19
IL258817A (en) 2018-06-28
AU2016342028A1 (en) 2018-06-07

Similar Documents

Publication Publication Date Title
US11286310B2 (en) Methods and apparatus for false positive minimization in facial recognition applications
US10900772B2 (en) Apparatus and methods for facial recognition and video analytics to identify individuals in contextual video streams
JP7224442B2 (ja) 顔認識において偽陽性を低減するための方法および装置
US11010596B2 (en) Apparatus and methods for facial recognition systems to identify proximity-based connections
US11341351B2 (en) Methods and apparatus for facial recognition on a user device

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B11B Dismissal acc. art. 36, par 1 of ipl - no reply within 90 days to fullfil the necessary requirements
B350 Update of information on the portal [chapter 15.35 patent gazette]