BRPI0710701B1 - memória, método e dispositivo de computação para anotação por pesquisa - Google Patents
memória, método e dispositivo de computação para anotação por pesquisa Download PDFInfo
- Publication number
- BRPI0710701B1 BRPI0710701B1 BRPI0710701-3A BRPI0710701A BRPI0710701B1 BR PI0710701 B1 BRPI0710701 B1 BR PI0710701B1 BR PI0710701 A BRPI0710701 A BR PI0710701A BR PI0710701 B1 BRPI0710701 B1 BR PI0710701B1
- Authority
- BR
- Brazil
- Prior art keywords
- images
- image
- annotations
- annotation
- given image
- Prior art date
Links
- 238000011160 research Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 title claims description 38
- 230000000007 visual effect Effects 0.000 claims description 45
- 230000000295 complement effect Effects 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims 2
- 238000005065 mining Methods 0.000 claims 1
- 239000013589 supplement Substances 0.000 claims 1
- 239000013598 vector Substances 0.000 description 5
- 238000013500 data storage Methods 0.000 description 3
- 241000220317 Rosa Species 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/40—Data acquisition and logging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Library & Information Science (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Hardware Design (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
Abstract
ANOTAÇÃO POR PESQUISA. Anotação por pesquisa é descrita. Em um aspecto, um armazenamento de dados é pesquisado por imagens que estão semanticamente relacionadas a uma anotação de linha base de uma imagem dada e visualmente similar à imagem dada. A imagem dada é depois anotada com conceitos comuns de anotações associadas a pelo menos um subconjunto das imagens semântica e visualmente relacionadas.
Description
[0001] Um método tradicional para anotar imagens digitais émanualmente anotar cada imagem digital com uma ou mais palavras- chaves semanticamente relacionadas. Tais palavras-chaves são frequentemente usadas para facilitar a pesquisa de imagem com base em palavra-chave e operações de recuperação em ambientes de pesquisa com base em computador (por exemplo, ao longo de dispositivos de computação, bases de dados, a Internei, etc.). Por causa do número muito grande de imagens digitais que em geral existem em tais ambientes de pesquisa, anotação manual de imagens digitais para facilitar a pesquisa de imagem e operações de recuperação representa um trabalho muito intensivo e tarefa morosa.
[0002] Anotação por pesquisa é descrita. Em um aspecto, umarmazenamento de dados é pesquisado para imagens que são semanticamente relacionadas a uma anotação de linha base de uma imagem dada e visualmente similares à imagem dada. A imagem dada é depois anotada com conceitos comuns de anotações associadas a pelo menos um subconjunto das imagens semântica e visualmente relacionadas.
[0003] Este Sumário é fornecido para introduzir uma seleção deconceitos em uma forma simplificada que é também descrita abaixo na descrição detalhada. Este Sumário não é intencionado identificar características relevantes ou essenciais do assunto reivindicado, nem é intencionado ser usado como uma ajuda em determinar o escopo do assunto reivindicado.
[0004] Nas Figuras, o dígito mais à esquerda de um número dereferência do componente identifica a Figura particular em que o componente aparece primeiro.
[0005] Fig. 1 mostra um sistema exemplar para anotação porpesquisa, de acordo com uma modalidade.
[0006] Fig. 2 mostram um procedimento exemplar para anotaçãopor pesquisa, de acordo com uma modalidade.
[0007] Fig. 3 mostra uns dados exemplares e fluxo de processopara anotação por pesquisa, de acordo com uma modalidade.
[0008] Sistemas e métodos para anotação por pesquisa sãodescritos. Os sistemas e métodos executam uma pesquisa baseada em palavra-chave de base(s) de dados Iocal(is) e/ou remota(s) para localizar imagens digitais que são semanticamente relacionadas a uma anotação de linha base de imagem dada. Os sistemas e métodos medem similaridade visual de cada uma das imagens semanticamente relacionadas à imagem dada. Estas medições de similaridade visual são usadas para selecionar imagens que são mais relevantes no espaço visual à imagem dada que outras das imagens semanticamente relacionadas. Estas imagens selecionadas são similares em texto e espaço visual à imagem dada. Anotações complementares candidatas associadas às imagens selecionadas são extraídas dos respectivos contextos das imagens selecionadas. As anotações extraídas são agrupadas. Cada agrupamento inclui anotações com conceito(s) comum(ns) ou relacionado(s). Por exemplo, um agrupamento de anotações associadas a uma imagem de uma abelha em uma rosa pode conter anotações relacionadas a uma abelha, uma rosa, etc. Os sistemas e métodos classificam relevância dos conceitos usando um ou mais critérios de classificação para identificar um conjunto de conceitos de classificação máxima. Os sistemas e métodos anotam a imagem dada com pelo menos um subconjunto da informação fornecida pelos conceitos de classificação máxima.
[0009] Estes e outros aspectos dos sistemas e métodos paraanotação por pesquisa são agora descritos em maior detalhe.
[00010] Embora não requerido, sistemas e métodos para anotação por pesquisa são descritos no contexto geral de instruções executáveispor computador executadas por um dispositivo de computação tal como um computador pessoal. Módulos de programa em geral incluem rotinas, programas, objetos, componentes, estruturas de dados, etc., que executam tarefas particulares ou implementam tipos de dados de resumo particulares. Embora os sistemas e métodos sejam descritos no contexto precedente, ações e operações descritas doravante podem também ser implementadas em hardware.
[00011] Fig. 1 mostra um sistema 100 exemplar para anotar imagens, de acordo com uma modalidade. Sistema 100 inclui, por exemplo, um dispositivo de computação 102. Dispositivo de computação102 representa qualquer tipo de dispositivo de computação tal como um dispositivo de computação de propósito geral, um servidor, um laptop, um dispositivo de computação móvel, etc. Dispositivo de computação 102 inclui um ou mais processadores 104 acoplados à memória do sistema 106. A memória do sistema 106 inclui memória volátil (por exemplo, RAM) e memória não-volátil (por exemplo, ROM, instantânea, disco rígido, óptico, etc.). Memória do sistema 106 inclui módulos de programa de computador 108 e dados de programa 110. Processador(es) 104 irá(ão) buscar e executar instruções de programa de computador dos respectivos módulos de programa 108. Módulos de programa 108 incluem, por exemplo, módulo de anotação 112 para automaticamente anotar uma imagem dada 114 com anotações relevantes e complementares 116 de vocabulário ilimitado. Módulos de programa 108 também incluem, por exemplo, outros módulos de programa 118 tais como um sistema operacional para fornecer um ambiente de tempo de execução, uma aplicação de pesquisa baseada em palavra-chave, uma comparação de imagem e aplicação de classificação, uma aplicação de agrupamento de texto/documento, uma aplicação de rastejador de rede, e/ou assim por diante.
[00012] Para identificar anotações relevantes e complementares 116, o módulo de anotação 112 executa uma pesquisa baseada em palavra-chave padrão da(s) base(s) de dados remota(s) 119 e/ou base(s) de dados local(is) para localizar um conjunto de imagens digitais (isto é, imagens minadas 120) que são semanticamente relacionadas a uma anotação de linha base 122 da imagem dada 114. Em uma implementação, anotação de linha base 122 representa uma localização, um nome de evento, um nome de pasta, uma descrição, etc. associado à imagem dada 114, texto circundando a imagem dada 114 em uma página de rede, texto associado a outras imagens relacionadas (por exemplo, em uma mesma página de rede, em uma mesma pasta, etc.) com a imagem dada 114, entrada de consulta recebida de um usuário, e/ou assim por diante. As bases de dados locais e/ou remotas representam qualquer tipo de armazenamento de dados para imagens digitais. Por exemplo, o(s) armazenamento(s) de dados pode(m) ser um ou mais de um CD, disco flexível e/ou em qualquer outro meio de armazenamento removível, um disco rígido, etc. Para propósitos de ilustração exemplar, base(s) de dados local(is) é/são mostrada(s) como uma respectiva porção de “outros dados de programa” 124. Em uma implementação, as bases de dados locais e/ou remotas foram povoadas com imagens digitais anotadas por um módulo de programa de rastejador, transferidas por indivíduos, e/ou assim por diante. Nesta implementação, base de dados remota 119 é mostrada acoplada ao dispositivo de computação 102 na rede 123. Rede 123 pode incluir qualquer combinação de uma rede local (LAN) e uns ambientes de comunicação gerais de rede de longa distância (WAN), tais como aqueles que são comuns em escritórios, redes de computador de grandes empresas, intranets, e a internet.
[00013] As operações de pesquisa com base em palavra-chave descritas retornam imagens minadas 120 que são semanticamente relacionadas à anotação de linha base 122. Porém, vocabulários usados por autores de conteúdo podem variar grandemente, e a maioria das palavras na linguagem natural tem ambiguidade inerente. Como resultado, palavras-chaves não são sempre descritores bons de conteúdos de documento relevantes. Tal ambiguidade frequentemente resulta em problemas de disparidade do termo palavra-chave/docu- mento de pesquisa com base em palavra-chave. Porque as palavras- chaves representando anotações podem ser ambíguas, o módulo de anotação 112 também avalia as imagens minadas 120 para identificar a(s) imagem(ns) que é/são também pelo menos conceitualmente relacionada(s) em espaço visual à imagem dada 114 (a(s) imagem(ns) identificada(s)) poderia(m) também ser duplicada(s) e/ou de modo substancial visualmente similar(es) à imagem dada 114). Mais particularmente, o módulo de anotação 112 compara as características visuais das imagens minadas 120 às características visuais da imagem dada 114 para gerar medições de similaridade visual (isto é, classificações) para identificar as imagens que estão não apenas relacionadas em espaço de texto (isto é, semanticamente relacionadas), mas também em espaço visual à imagem dada 114. (As medições de similaridade visual são mostradas como uma respectiva porção de “outros dados de programa” 124). Há muitas técnicas conhecidas para comparar similaridade visual entre imagens digitais.
[00014] Nesta implementação, por exemplo, o módulo de anotação 112 codifica as características visuais da imagem dada 114 e imagens minadas 120 para gerar as respectivas assinaturas de valores hash para cada imagem digital como segue. Nesta implementação, o módulo de anotação 112 cria os respectivos vetores de característica para imagem dada 114 e cada imagem minada 120 usando operações com base em correlograma de cor de Ncaixa bem conhecida (por exemplo, uma caixa 36). Outras técnicas conhecidas, além daquelas com base em um correlograma de cor, podem também ser usadas para gerar os vetores de característica. Módulo de anotação 112 multiplica os vetores de característica gerados com um modelo de transformação de PCA gerado de um número grande de imagens digitais (por exemplo, milhões de imagens) para quantização subsequente em bits binários para comparação. Por exemplo, se um elemento de um vetor de característica for maior que uma média do vetor Eigen maior associado ao modelo de transformação de PCA, o módulo de anotação 112 quantiza (codifica) o elemento para 1, do contrário o elemento é codificado para 0. Estas codificações binárias representam as respectivas assinaturas valores hash.
[00015] Módulo de anotação 112 usa a assinatura de valores hash de cada imagem minada 120 e a assinatura de valores hash da imagem dada 114 para medir uma similaridade visual entre cada imagem minada 120 e imagem dada 114. O módulo de anotação 120 pode usar uma ou mais técnicas conhecidas para medir tal similaridade visual. Por exemplo, o módulo de anotação 112 pode implementar uma ou mais de múltiplas técnicas de medição de distância de espaço visual de imagem digital tal como de-duplicação de código de valores hash mais distância Euclidiana, distância de código valores hash, distância ponderada de código de valores hash, ou outras técnicas podem ser usadas para medir similaridade visual. Em uma implementação, por exemplo, o módulo de anotação 112 usa de- duplicação de código de valores hash mais distância Euclidiana para medir a similaridade visual entre uma imagem minada 120 e a imagem dada 114. Neste exemplo, o módulo de anotação 112 utiliza fragmentos de n bits mais altos da assinatura de valores hash da imagem dada 114 como um índice para medir a similaridade visual. (Bits mais altos correspondem aos valores Eigen maiores que a distância média maior no espaço visual). Módulo de anotação 112 calcula a distância Euclidiana com base nos correlogramas associados às imagens semanticamente relacionadas.
[00016] Em outro exemplo, o módulo de anotação 112 usa distância de código de valores hash para medir a similaridade visual entre uma imagem minada 120 e a imagem dada 114. Por exemplo, em uma implementação o modelo de anotação 112 utiliza a distância de Hamming para medir o número de bits diferentes entre as duas respectivas imagens e determina uma medida de similaridade de imagem. Com respeito em usar distância ponderada de código de valores hash, e porque os bits mais altos são em geral considerados ser mais significativos que os bits mais baixos, o módulo de anotação 112 fornece a diferença entre os bits mais altos (associados às imagens sendo comparadas) com mais peso que a diferença entre os bits mais baixos. O módulo de anotação 112 separa uniformemente as assinaturas de valores hash em caixas (por exemplo, códigos de valores hash de 32-bits em 8 caixas), e pondera a ji caixa por 288-i, 1 < i< 8. Esta equação pode ser modificada para ajustar-se aos melhores resultados. Por exemplo, se o número de caixas não for igual a oito, a equação é ajustada para representar o número de caixas sendo usadas. Desta maneira, a distância visual (classificação) entre uma primeira imagem e uma segunda imagem é a distância de Hamming ponderada.
[00017] Módulo de anotação 112 identifica N imagens de classificação máxima 126 das magens minadas 120 com base nas medições de similaridade visual entre as respectivas das imagens minadas 120 e imagem dada 114. Nesta implementação, o parâmetro N é configurável com base na implementação particular do sistema 100. Por exemplo, em uma implementação, Né igual a 2000, embora N possa também ser um valor diferente.
[00018] Módulo de anotação 112 recupera ou extrai outras anotações associadas à(s) imagem(ns) de classificação máxima 126. Estas outras anotações são mostradas como anotação(ões) extraída(s) 128. Estes outras anotações são recuperadas pelo módulo de anotação (ou de um módulo de programa diferente tal como um módulo rastejador de rede) do(s) contexto(s) da(s) imagem(ns) de classificação máxima 126 em suas respectivas localizações nas bases de dados locais e/ou remotas. Tais contextos incluem, por exemplo, um título de um recurso (uma imagem de classificação máxima 126), um nome de uma pasta de diretório associado ao recurso, uma descrição do recurso, texto em associação com o recurso em uma página de rede ou em um documento, texto associado a outras imagens em relação (por exemplo, em uma mesma página de rede, em uma mesma pasta, documento, etc.) ao recurso, um Identificador de Recurso Universal (URI) especificando uma localização do recurso, uma categoria do recurso, e/ou assim por diante.
[00019] Módulo de anotação 112 agrupa as anotações extraídas 128 (isto é, trata cada uma das anotações extraídas 128 como um respectivo documento) para identificar conceitos de classificação máxima (por exemplo, palavras e/ou frases) das anotações extraídas 128. Para propósitos de ilustração exemplar, tais agrupamentos e conceitos são mostrados como respectivas porções de “outros dados de programa” 124. Em uma implementação, por exemplo, o módulo de anotação 112 identifica estes conceitos implementando (ou do contrário acessando de “outros módulos de programa” 118) operações de agrupamento tais como aquelas descritas em “Learning to Cluster Web Search Results”, Zeng, H. J., He, Q. C., Chen, Z., e Ma, W.-Y, 27a Annual lnternational Conference on Research and Development in lnformation Retrieval, Sheffield, Reino Unido, (julho de 2004), págs. 21 0-21 7, embora diferentes técnicas de agrupamento possam também ser usadas. As operações de agrupamento geram vários agrupamentos, cada agrupamento sendo atribuído a um respectivo conceito comum (ou frase relevante).
[00020] Para obter um conceito comum para cada agrupamento (um nome de agrupamento), as operações de agrupamento extraem frases (n-gramas) das anotações extraídas 128, e calcula uma ou mais propriedades para cada frase extraída (por exemplo, frequências de frase, frequências de documento (isto é, frequências de frase-para- anotação), etc.). As operações de agrupamento aplicam um modelo de regressão pré-configurado para combinar as propriedades calculadas em uma classificação de relevância simples para cada agrupamento. Usando a classificação de relevância, as operações de agrupamento usam as frases de classificação máxima como os conceitos comuns (nomes) de agrupamentos candidatos. Estes agrupamentos cândida- tos são também fundidos de acordo com seus documentos correspondentes (isto é, imagens digitais associadas) para atribuir uma classificação de relevância final a cada agrupamento.
[00021] Nesta implementação, e para cada agrupamento, um limiar é usado para fundir (filtrar) imagens candidato de classificação máxima 126 para o agrupamento (outras técnicas podem também ser usadas para fundir imagens com os respectivos agrupamentos). O limiar é igual a um peso de similaridade de imagem * uma classificação de similaridade visual média. Nesta implementação, o peso de similaridadeé selecionado de uma faixa de 0,8—1,6 com base na implementação da operação de agrupamento específica, embora outras faixas possam ser usadas também. Por exemplo, nesta implementação, o peso de similaridade é igual a 1,2 (quando o peso de similaridade for igual a 1,6 imagens não suficientes foram usadas para o agrupamento, enquanto que quando o peso de similaridade foi ajustado em 0,08, quase todas imagens foram usadas para o agrupamento). A classificação de similaridade visual de imagem média é igual à SOMA da similaridade visual de imagem i para a imagem dada 114 (isto é, produzida pelas operações acima descritas de palavra-chave e de filtração visual) dividido pelo número de imagens minadas 120.
[00022] A classificação de relevância final de um agrupamento pode ser determinada usando vários critérios. Por exemplo, classificações de relevância dos agrupamentos podem ser determinadas usando critério de tamanho de agrupamento máximo, critério de classificação média de imagem de membro, etc. Com respeito ao critério de tamanho de agrupamento máximo que é estimação de Maximum a Posteriori (MAP), este critério assume que conceitos comuns com a maior relevância para imagem dada 114 são frases de conceitos dominantes das imagens de membro de agrupamento. Desse modo, de acordo com esta técnica, a classificação de relevância final de um agrupamento é igual ao número de suas imagens de membro. Nesta implementação, por exemplo, o critério de tamanho de agrupamento máximo é utilizado e os 3 agrupamentos maiores (e nomes de agrupamento associados) são selecionados.
[00023] Com respeito em usar critério de classificação média de imagem de membro para atribuir classificações de relevância aos agrupamentos, esta técnica usa uma média de similaridade de imagem de membro como a classificação de um agrupamento. Se todas as imagens em um agrupamento forem as mais relevantes para anotação de linha base 122, o conceito comum deste agrupamento provavelmente representa o da imagem dada 114. Para este fim, um limiar (ou outros critérios) é usado como um intervalo para determinar se agrupamentos de classificação mais baixa serão omitidos do conjunto final de agrupamentos. Nesta implementação, o limiar é fixado de acordo com o seguinte: 0,95 * (classificação do agrupamento que classificou i-1), em que i representa uma classificação de um agrupamento atual. Se a classificação do agrupamento atual (isto é, o agrupamento que classificou i) for menor que este limiar, o agrupamento atual e todos os outros agrupamentos de variação mais baixa não são usados. Se mais que um número particular de agrupamentos (por exemplo, 3 ou algum outro número de agrupamentos) exceder este limiar, apenas o número particular de classificação máxima (por exemplo, 3 ou algum outro número) de agrupamentos será usado para identificar os conceitos extraídos finais.
[00024] Nesta implementação, o módulo de anotação 112 gera anotações relevantes e complementares 116 removendo palavras- chaves duplicadas, termos, etc., dos conceitos comuns (nomes de agrupamento) associados aos agrupamentos que têm classificações de relevância finais (classificações) que excedem o limiar. Módulo de anotação 112 anota a imagem dada 114 com anotações relevantes e complementares 116.
[00025] Fig. 2 mostra um procedimento exemplar 200 paraanotação por pesquisa, de acordo com uma modalidade. Para propósitos de ilustração e descrição exemplares, as operações de procedimento 200 são descritas com respeito aos componentes da Fig. 1. No bloco 202, um conjunto de imagens digitais (isto é, imagens minadas 120) que são semanticamente relacionadas a uma anotação de linha base 122 de uma imagem dada 114 são identificadas. Como um exemplo, o módulo de anotação 112 executa uma pesquisa baseada em palavra-chave de base(s) de dados local(is) e/ou remota(s) para localizar um conjunto de imagens digitais (isto é, imagens minadas 120) que estão semanticamente relacionadas a uma anotação de linha base 122 da imagem dada 114. Em uma implementação, a imagem dada 114 e anotação de linha base 122 representam uma consulta de pesquisa (mostrada em “outros dados de programa” 124) de um usuário do dispositivo de computação 102. Um usuário pode entrar os comandos e informação no computador 102 por meio de dispositivos de entrada (não mostrados) tais como teclado, dispositivo de apontamento, reconhecimento de voz, etc. Em outra implementação, a imagem dada 114 e anotação de linha base 122 representam uma consulta de pesquisa 130 de um usuário do dispositivo de computação remoto 132 que está acoplado ao dispositivo de computação 102 na rede 123. Por exemplo, um usuário do dispositivo de computação remoto 130.
[00026] No bloco 204, similaridade visual de cada uma da imagem minada 120 à imagem dada 114 é medida (classificada). Em uma implementação, por exemplo, o módulo de anotação 112 mede a similaridade visual de cada imagem minada 120 à imagem dada 114. Existem múltiplas possíveis técnicas para medir similaridade visual entre cada imagem minada 120 à imagem dada 114. Tais técnicas incluem, por exemplo, de-duplicação de código de valores hash mais distância Euclidiana, distância de código de valores hash, distância ponderada de código de valores hash, etc
[00027] No bloco 206, as imagens de classificação máxima 126 das imagens minadas 120 que são visualmente similares à imagem dada 114 são identificadas (derivadas). Em um exemplo, o módulo de anotação 112 identifica as imagens de classificação máxima 126 das imagens minadas 120 com base nas medições de similaridade visual (isto é, as classificações de similaridade visual) entre as respectivas das imagens minadas 120 e imagem dada 114. Nesta implementação, o número de imagens de classificação máxima 126 é configurável com base na implementação particular do sistema 100. No bloco 208, outras anotações (isto é, anotação(ões) extraída(s) 128) associadas às imagem(ns) de classificação máxima 126 são dos contextos de imagens de classificação máxima 126. Tais contextos incluem, por exemplo, um título de um recurso (uma imagem de classificação máxima 126), um nome de uma pasta de diretório associada ao recurso, uma descrição do recurso, texto em associação com o recurso em uma página de rede ou em um documento, texto associado a outras imagens em relação (por exemplo, em uma mesma página de rede, em uma mesma pasta, documento, etc.) ao recurso, um Identificador de Recurso Universal (URI) especificando uma localização do recurso, uma categoria do recurso, e/ou assim por diante. Em um exemplo, o módulo de anotação 112 recupera ou extrai outras anotações (isto é, anotação(ões) extraída(s) 128) associadas à(s) imagem(ns) de classificação máxima 126.
[00028] No bloco 210, as anotações extraídas 128 são agrupadas para identificar conceitos comuns de classificação máxima (por exemplo, palavras e/ou frases que compreendem anotações relevantes e complementares 116) das anotações extraídas 128. Estes conceitos comuns de classificação máxima são mostrados como anotações relevantes e complementares 116. Em uma implementação, o módulo de anotação 112 agrupa as anotações extraídas 128 para identificar as anotações relevantes e complementares 116. No bloco 212, imagem dada 114 (suplementada) é anotada com pelo menos um subconjunto de anotações relevantes e complementares 116. Por exemplo, em uma implementação, palavras-chaves duplicadas, termos, etc. são removidos das anotações relevantes e complementares 116 antes de anotar a imagem dada 114 com anotações relevantes e complementares 116. Em uma implementação, o módulo de anotação 112 anota a imagem dada 114 com pelo menos um subconjunto de anotações relevantes e complementares 116.
[00029] Fig. 3 mostra estrutura exemplar 300 de dados e fluxo de processo para anotação por pesquisa do sistema 100, de acordo com uma modalidade. Para propósitos de descrição e referência exemplares, aspectos de estrutura 300 são descritos com respeito aos componentes e/ou operações das Figs. 1 e 2. Na descrição, o numeral mais à esquerda de um número de referência indica a primeira figura em que o componente ou operação é apresentada.
[00030] Referindo à Fig. 3, estrutura 300 mostra três estágios para anotação por pesquisa, incluindo um estágio de pesquisa baseado em palavra-chave (mostrado pelo numeral (1)), um estágio de pesquisa de característica visual (mostrado pelo numeral (2)), e um agrupamento de anotação, ou estágio de aprendizagem (mostrado por numeral (3)). Dados 302 representam uma consulta associada a uma imagem 304 (isto é, imagem dada 114) e uma legenda 306 (isto é, anotação de linha base 122). Em uma implementação, a consulta 302 é uma consulta de pesquisa recebida de um usuário do dispositivo de computação 102 ou dispositivo de computação remoto 132 (por exemplo, por favor vide consulta 130 da Fig. 1). Neste exemplo, imagem de consulta 304 é uma paisagem incluindo pelo menos um lago, nuvens e árvores. Pode ser apreciado, que imagem de consulta 304 possa representar qualquer tipo de imagem. Neste exemplo, a legenda 306 indica a palavra “pôr-do-sol” para anotar a imagem de consulta 304.
[00031] Operação 308, usando a legenda 306 (“pôr-do-sol”), executa uma pesquisa baseada em palavra-chave da base de dados 310 para identificar um conjunto de imagens 312 (isto é, imagens minadas 120) que estão semanticamente relacionadas à imagem de consulta. Base de dados 310 representa qualquer combinação de bases de dados de imagem locais e/ou remotas do sistema 100 da Fig. 1. Fluxo de dados de informação associada à legenda 306 é mostrado na Fig. 3 com linhas sólidas. Operação 309 gera os respectivos mapas/assinaturas de valores hash 314 para cada uma da imagem de consulta 304 e imagens semanticamente relacionadas 312 para operações de pesquisa de similaridade subsequentes. Fluxo de dados de informação associada à imagem dada 114 é mostrado na Fig. 3 com linhas tracejadas.
[00032] Operação 316 classifica (isto é, mede) similaridade visual de imagens semanticamente relacionadas 312 à imagem de consulta 304 usando a respectiva assinatura de valores hash 314 de cada imagem 312 e a assinatura de valores hash 314 da imagem de consulta 304. Há várias técnicas para medir esta similaridade visual (ou distância) com assinaturas de valores hash 314. Tais técnicas incluem, por exemplo, de- duplicação de código de valores hash mais distância Euclidiana, distância de código de valores hash, distância ponderada de código de valores hash, etc. Estrutura 300 usa as classificações de similaridade visual para selecionar um número configurável das imagens 312 que são visualmente mais similares à imagem de consulta 304 que outra das imagens 312. Estas imagens visualmente mais similares 312 são mostradas como imagens 318 de classificação máxima (318-1 a 318-N). Imagens de classificação máxima 318 representam imagens de classificação máxima 126 da Fig. 1.
[00033] Estrutura 300 extrai anotações de contextos associados às imagens de classificação máxima 318. Como debatido acima, tais contextos incluem, por exemplo, um título de uma imagem 318, um nome de uma pasta de diretório associado a uma imagem 318, uma descrição de uma imagem 318, texto em associação com uma imagem 318 em uma página de rede ou em um documento, texto associado a outras imagens em relação (por exemplo, em uma mesma página de rede, em uma mesma pasta, documento, etc.) a uma imagem 318, um Identificador de Recurso Universal (URI) especificando uma localização de uma imagem 318, uma categoria de uma imagem 318, e/ou assim por diante. Estas anotações extraídas são mostradas como anotações extraídas 320 (isto é, anotações extraídas 128 da Fig. 1). Fluxo de dados associado às anotações extraídas 320 é mostrado com linhas tracejadas e pontilhadas associadas ao estágio (3).
[00034] No bloco 322, a estrutura 300 executa as operações de agrupamento de resultado de pesquisa (isto é, agrupamento) para identificar os conceitos comuns de classificação máxima (por exemplo, anotações complementares 324-1 a 324-N) dos agrupamentos (por exemplo, agrupamentos 326-1 326-N) das anotações extraídas 320. Nesta implementação, estes conceitos comuns são determinados usando as operações descritas em “Learning to Cluster Web Search Results”, Zeng, H J., He, Q. C., Chen, Z., e Ma, W.,-Y, 27th Annual International Conference on Research and Developlment in Information Retrieval, Sheffield, Reino Unido, (julho de 2004), págs. 210-217, embora técnicas de agrupamento diferentes pudessem também ser usadas.
[00035] Embora cada agrupamento 326 seja ilustrado com um respectivo conjunto de imagens e um conceito comum subjacente 324, os agrupamentos 326 não contêm imagens. Do contrário, cada agrupamento 326 inclui certas anotações extraídas 320. Esta ilustração de imagens em um agrupamento é meramente simbólica para mostrar a relação de cada conceito comum 324 a cada imagem de classificação máxima 318 associada a uma ou mais das respectivas anotações extraídas 320. Estrutura 300 remove palavras-chaves duplicadas, termos, e/ou assim por diante, dos conceitos comuns 324 para gerar anotações complementares 328. Anotações complementares 328 representam anotações relevantes e complementares 116 da Fig. 1. Nas operações 330, a estrutura 300 anota a imagem de consulta 304 com anotações complementares 328.
[00036] Em uma implementação, as operações descritas da estrutura 300 são executadas por um respectivo módulo de programa 108 da Fig. 1. Por exemplo, em uma implementação, módulo de anotação 112 implementa as operações de estrutura 300.
[00037] Embora os sistemas e métodos para anotação por pesquisa tenham sido descritos em linguagem específica às características estruturais e/ou operações ou ações metodológicas, é entendido que as implementações definidas nas reivindicações em anexo não necessáriamente são limitadas às características ou ações específicas descritas acima. Por exemplo, embora o sistema 100 tenha sido descrito como identificando primeiro imagens semanticamente relacionadas e depois determinando similaridade visual das imagens semanticamente relacionadas para gerar imagens de classificação máxima 126, em outra implementação, o sistema 100 gera imagens de classificação máxima 126 usando apenas um de: (a) as operações de pesquisa por palavra- chave descritas; ou (b) uma pesquisa de bases de dados locais e/ou remotas para imagens visualmente similares. Quando as imagens de classificação máxima 126 são geradas de apenas imagens visualmente similares, a imagem dada 114 pode ser entrada como uma imagem de consulta independente da anotação de linha base 122. Em outro exemplo, em uma implementação o dispositivo de computação 102 fornece uma anotação através de serviço de pesquisa aos dispositivos de computação remotos 132 na rede 123. Em vista do acima, as características e operações específicas do sistema 100 são reveladas como formas exemplares de implementar o assunto reivindicado.
Claims (16)
1. Memória que armazena um método caracterizado pelo fato de que compreende: pesquisar um ou mais armazenamentos de dados para imagens que são semanticamente relacionadas a uma anotação de linha base de uma determinada imagem e visualmente semelhantes à imagem fornecida; medir a semelhança visual das imagens semanticamente relacionadas com a imagem dada, em que pelo menos um subconjunto das imagens é selecionado a partir de algumas das imagensdeterminadas como sendo mais semelhantes visualmente à imagem dada do que outras das imagens; calcular propriedades para frases extraídas das respectivas anotações associadas a pelo menos um subconjunto das imagens, as anotações sendo agrupadas em um respectivo cluster de múltiplos clusters; combinar, para cada cluster, as propriedades associadas para gerar uma classificação de relevância para o cluster, em que conceitos comuns estão associados a um ou mais clusters com classificações de relevância mais altas em comparação com as classificações de relevância associadas a outros dos clusters; e anotar a imagem fornecida com conceitos comuns de anotações associadas a pelo menos um subconjunto das imagens que são semanticamente relacionadas e visualmente semelhantes à imagem fornecida.
2. Memória, de acordo com a reivindicação 1, caracterizada pelo fato de que ainda compreende a remoção de termos duplicados dos conceitos comuns antes de anotar a imagem dada.
3. Memória, de acordo com a reivindicação 1, caracterizada pelo fato de que ainda compreende receber uma consulta de pesquisa que compreende a imagem dada e a anotação de linha base.
4. Memória, de acordo com a reivindicação 1, caracterizada pelo fato de que ainda compreende: recuperar as imagens que estão semanticamente relacionadas a um ou mais armazenamentos de dados sendo pesquisados; e determinar um conceito comum de anotações com base em pelo menos um ou mais grupos ponderados de anotações associados a pelo menos um subconjunto das imagens sendo recuperadas, em que a anotação inclui anotar a imagem dada com o conceito comum de anotações.
5. Método implementado por computador caracterizado pelo fato de que compreende: pesquisar um primeiro conjunto de imagens semânticamente relacionadas a uma anotação de linha base de uma determinada imagem; avaliar cada imagem no primeiro conjunto de imagens para identificar um segundo conjunto de imagens que estão pelo menos conceitualmente relacionadas no espaço visual com a imagem dada; identificar anotações associadas ao segundo conjunto de imagens; determinação de conceitos comuns entre as respectivas anotações, em que a determinação de conceitos compreende: agrupar as anotações em uma pluralidade de clusters de modo que cada cluster dos clusters seja associado a um conceito relevante do cluster; determinar as classificações de relevância para cada conceito relevante de vários conceitos relevantes associados aos clusters; selecionar um conjunto de conceitos de relevância com classificação máxima a partir de vários conceitos relevantes com base nos respectivos das classificações de relevância, em que pelo menos um subconjunto dos conceitos de relevância com classificação máxima são as anotações complementares; e anotar a imagem fornecida com pelo menos um subconjunto dos conceitos como anotações complementares.
6. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que ainda compreende receber entrada compreendendo a imagem dada e a anotação de linha base.
7. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que a pesquisa ainda compreende correlacionar a anotação de linha base com textos associados ao primeiro conjunto de imagens.
8. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que a avaliação ainda compreende comparar recursos visuais codificados por assinatura hash da imagem dada com os respectivos recursos visuais codificados por assinatura hash de cada imagem no primeiro conjunto de imagens.
9. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que a avaliação ainda compreende: medir a semelhança visual de cada imagem no primeiro conjunto de imagens com a imagem dada; identificar, com base em medições de similaridade visual determinadas na medição, um conjunto de imagens com classificação máxima que estão mais visualmente relacionadas à imagem dada do que outras imagens do primeiro conjunto de imagens; e em que o segundo conjunto de imagens são as imagens com classificação máxima.
10. Método, de acordo com a reivindicação 5, caracte- rizado pelo fato de que identificar anotações compreende ainda extrair texto de contextos do segundo conjunto de imagens.
11. Dispositivo de computação, caracterizado pelo fato de que compreende: um processador; e uma memória acoplada ao processador, a memória tendo um método caracterizado por compreender: receber uma consulta de pesquisa que compreende uma determinada imagem e uma anotação de linha base da imagem dada; pesquisar um primeiro conjunto de imagens semânticamente relacionadas à anotação de linha base da imagem dada; avaliar cada imagem no primeiro conjunto de imagens para identificar um segundo conjunto de imagens que estão visualmente relacionadas com a imagem dada, em que o segundo conjunto de imagens compreende certas imagens determinadas a serem mais visualmente relacionadas com a imagem dada do que outras das imagens ; calcular propriedades para frases extraídas das respectivas das anotações, as anotações sendo agrupadas em um respectivo cluster de múltiplos clusters; combinar, para cada cluster, as propriedades associadas para gerar uma classificação de relevância para o cluster, em que conceitos comuns estão associados a um ou mais clusters com classificações de relevância mais altas em comparação com as classificações de relevância associadas a outros dos clusters; e suplementar a imagem dada com anotações adicionais associadas ao segundo conjunto de imagens, cada imagem no primeiro segundo conjunto de imagens sendo visualmente semelhante à imagem dada e associada a anotações que estão semanticamente relacionadas à anotação de linha base, em que as anotações adicionais são selecionadas a partir de anotações de imagens e não de uma lista predeterminada.
12. Dispositivo de computação, de acordo com a reivindicação 11, caracterizado pelo fato de que as anotações adicionais representam um ou mais dentre um título, uma descrição, uma categoria, informações de uma página da web, um nome de pasta, pelo menos uma parte de um Identificador de Recurso Uniforme, e texto em associação com uma imagem diferente que não está no primeiro conjunto de imagens.
13. Dispositivo de computação, de acordo com a reivindicação 11, caracterizado pelo fato de que ainda compreende derivar o primeiro conjunto de imagens por mineração das imagens de um ou mais bancos de dados de imagens, cada imagem no primeiro conjunto de imagens sendo extraída com base no texto associado à imagem dada.
14. Dispositivo de computação, de acordo com a reivindicação 11, caracterizado pelo fato de que ainda compreende: realizar uma pesquisa baseada em palavras-chave para localizar o primeiro conjunto de imagens que estão semanticamente relacionadas à anotação de linha base; pesquisar o primeiro conjunto de imagens por uma ou mais imagens que tenham semelhança visual substancial com a imagem dada; extrair texto de um ou mais contextos de uma ou mais imagens que têm semelhança visual substancial com a imagem dada; e em que o texto compreende pelo menos anotações adicionais.
15. Dispositivo de computação, de acordo com a reivindicação 14, caracterizado pelo fato de que ainda compreende: identificar frases no texto; atribuir classificações de relevância às frases com base nas respectivas propriedades da frase; e em que as anotações adicionais compreendem pelo menos uma parte do texto com classificações de relevância mais altas em comparação com as classificações de relevância associadas a outras partes do texto.
16. Dispositivo de computação, de acordo com a reivindi-cação 15, caracterizado pelo fato de que as respectivas propriedades de frase compreendem uma ou mais das frequências de frase e frequências de frase para anotação.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/419,368 | 2006-05-19 | ||
US11/419,368 US8341112B2 (en) | 2006-05-19 | 2006-05-19 | Annotation by search |
PCT/US2007/012193 WO2007136861A2 (en) | 2006-05-19 | 2007-05-17 | Annotation by search |
Publications (3)
Publication Number | Publication Date |
---|---|
BRPI0710701A2 BRPI0710701A2 (pt) | 2011-08-23 |
BRPI0710701A8 BRPI0710701A8 (pt) | 2017-01-17 |
BRPI0710701B1 true BRPI0710701B1 (pt) | 2021-02-09 |
Family
ID=38713143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BRPI0710701-3A BRPI0710701B1 (pt) | 2006-05-19 | 2007-05-17 | memória, método e dispositivo de computação para anotação por pesquisa |
Country Status (9)
Country | Link |
---|---|
US (1) | US8341112B2 (pt) |
EP (1) | EP2021959A4 (pt) |
JP (1) | JP5346279B2 (pt) |
KR (1) | KR101354755B1 (pt) |
CN (1) | CN101449271B (pt) |
BR (1) | BRPI0710701B1 (pt) |
MX (1) | MX2008013657A (pt) |
RU (1) | RU2439686C2 (pt) |
WO (1) | WO2007136861A2 (pt) |
Families Citing this family (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8064650B2 (en) * | 2002-07-10 | 2011-11-22 | Hewlett-Packard Development Company, L.P. | File management of digital images using the names of people identified in the images |
US8341112B2 (en) | 2006-05-19 | 2012-12-25 | Microsoft Corporation | Annotation by search |
US8065313B2 (en) * | 2006-07-24 | 2011-11-22 | Google Inc. | Method and apparatus for automatically annotating images |
US8234277B2 (en) * | 2006-12-29 | 2012-07-31 | Intel Corporation | Image-based retrieval for high quality visual or acoustic rendering |
US8321424B2 (en) * | 2007-08-30 | 2012-11-27 | Microsoft Corporation | Bipartite graph reinforcement modeling to annotate web images |
US8180760B1 (en) | 2007-12-20 | 2012-05-15 | Google Inc. | Organization system for ad campaigns |
EP2248048A1 (en) * | 2008-01-25 | 2010-11-10 | Nxp B.V. | Method and apparatus for organizing media data in a database |
KR101388638B1 (ko) | 2008-06-06 | 2014-04-24 | 구글 인코포레이티드 | 이미지에 주석 달기 |
US7890512B2 (en) * | 2008-06-11 | 2011-02-15 | Microsoft Corporation | Automatic image annotation using semantic distance learning |
US20110184960A1 (en) * | 2009-11-24 | 2011-07-28 | Scrible, Inc. | Methods and systems for content recommendation based on electronic document annotation |
US20090313239A1 (en) * | 2008-06-16 | 2009-12-17 | Microsoft Corporation | Adaptive Visual Similarity for Text-Based Image Search Results Re-ranking |
US8463053B1 (en) | 2008-08-08 | 2013-06-11 | The Research Foundation Of State University Of New York | Enhanced max margin learning on multimodal data mining in a multimedia database |
TW201013426A (en) * | 2008-09-19 | 2010-04-01 | Esobi Inc | Combination method for document clusters |
CN101387983B (zh) * | 2008-09-28 | 2011-02-23 | 北大方正集团有限公司 | 一种自动测试栅格图像处理器的方法及系统 |
US8411953B2 (en) * | 2008-09-30 | 2013-04-02 | International Business Machines Corporation | Tagging images by determining a set of similar pre-tagged images and extracting prominent tags from that set |
US8131734B2 (en) * | 2008-10-09 | 2012-03-06 | Xerox Corporation | Image based annotation and metadata generation system with experience based learning |
CN101414307A (zh) * | 2008-11-26 | 2009-04-22 | 阿里巴巴集团控股有限公司 | 提供图片搜索的方法和服务器 |
US8196022B2 (en) * | 2009-01-16 | 2012-06-05 | International Business Machines Corporation | Hamming radius separated deduplication links |
JP5268787B2 (ja) * | 2009-06-04 | 2013-08-21 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム |
US8150860B1 (en) * | 2009-08-12 | 2012-04-03 | Google Inc. | Ranking authors and their content in the same framework |
US8781231B1 (en) | 2009-08-25 | 2014-07-15 | Google Inc. | Content-based image ranking |
US20110072047A1 (en) * | 2009-09-21 | 2011-03-24 | Microsoft Corporation | Interest Learning from an Image Collection for Advertising |
US8761512B1 (en) * | 2009-12-03 | 2014-06-24 | Google Inc. | Query by image |
US9665620B2 (en) * | 2010-01-15 | 2017-05-30 | Ab Initio Technology Llc | Managing data queries |
US20110191336A1 (en) * | 2010-01-29 | 2011-08-04 | Microsoft Corporation | Contextual image search |
US8554731B2 (en) * | 2010-03-31 | 2013-10-08 | Microsoft Corporation | Creating and propagating annotated information |
KR101116434B1 (ko) * | 2010-04-14 | 2012-03-07 | 엔에이치엔(주) | 이미지를 이용한 쿼리 제공 방법 및 시스템 |
US9703782B2 (en) * | 2010-05-28 | 2017-07-11 | Microsoft Technology Licensing, Llc | Associating media with metadata of near-duplicates |
US8903798B2 (en) | 2010-05-28 | 2014-12-02 | Microsoft Corporation | Real-time annotation and enrichment of captured video |
US10496714B2 (en) * | 2010-08-06 | 2019-12-03 | Google Llc | State-dependent query response |
WO2012058794A1 (en) * | 2010-11-01 | 2012-05-10 | Microsoft Corporation | Image search |
KR101672579B1 (ko) * | 2010-11-05 | 2016-11-03 | 라쿠텐 인코포레이티드 | 키워드 추출에 관한 시스템 및 방법 |
US8559682B2 (en) | 2010-11-09 | 2013-10-15 | Microsoft Corporation | Building a person profile database |
US8463026B2 (en) * | 2010-12-22 | 2013-06-11 | Microsoft Corporation | Automated identification of image outliers |
US9026942B2 (en) * | 2011-02-25 | 2015-05-05 | Cbs Interactive Inc. | Song lyric processing with user interaction |
US20120290573A1 (en) * | 2011-05-12 | 2012-11-15 | Alexander Kachkovsky | Information capturing methods and components |
US9678992B2 (en) | 2011-05-18 | 2017-06-13 | Microsoft Technology Licensing, Llc | Text to image translation |
US8606780B2 (en) * | 2011-07-08 | 2013-12-10 | Microsoft Corporation | Image re-rank based on image annotations |
US8832096B1 (en) | 2011-09-01 | 2014-09-09 | Google Inc. | Query-dependent image similarity |
US8533204B2 (en) * | 2011-09-02 | 2013-09-10 | Xerox Corporation | Text-based searching of image data |
KR20130033721A (ko) * | 2011-09-27 | 2013-04-04 | 삼성전자주식회사 | 휴대용 단말기의 컨텐츠 정보를 기반으로 하는 클립장치 및 방법 |
CN103136228A (zh) * | 2011-11-25 | 2013-06-05 | 阿里巴巴集团控股有限公司 | 一种图片搜索方法以及图片搜索装置 |
US8971644B1 (en) * | 2012-01-18 | 2015-03-03 | Google Inc. | System and method for determining an annotation for an image |
US9239848B2 (en) | 2012-02-06 | 2016-01-19 | Microsoft Technology Licensing, Llc | System and method for semantically annotating images |
US8745059B1 (en) | 2012-05-11 | 2014-06-03 | Google Inc. | Clustering queries for image search |
US20150169525A1 (en) * | 2012-09-14 | 2015-06-18 | Leon Gomes Palm | Augmented reality image annotation |
US9424279B2 (en) | 2012-12-06 | 2016-08-23 | Google Inc. | Presenting image search results |
CN103971244B (zh) | 2013-01-30 | 2018-08-17 | 阿里巴巴集团控股有限公司 | 一种商品信息的发布与浏览方法、装置及系统 |
US10235358B2 (en) * | 2013-02-21 | 2019-03-19 | Microsoft Technology Licensing, Llc | Exploiting structured content for unsupervised natural language semantic parsing |
US9367646B2 (en) | 2013-03-14 | 2016-06-14 | Appsense Limited | Document and user metadata storage |
US9465856B2 (en) | 2013-03-14 | 2016-10-11 | Appsense Limited | Cloud-based document suggestion service |
KR20140119217A (ko) * | 2013-03-27 | 2014-10-10 | (주)네오넷코리아 | 키워드 검색을 통해 사진 검색이 가능한 사진 공유 시스템 및 사진 공유 방법 |
CN103164539B (zh) * | 2013-04-15 | 2016-12-28 | 中国传媒大学 | 一种结合用户评价与标注的交互式图像检索方法 |
US9147125B2 (en) | 2013-05-03 | 2015-09-29 | Microsoft Technology Licensing, Llc | Hand-drawn sketch recognition |
US9183467B2 (en) | 2013-05-03 | 2015-11-10 | Microsoft Technology Licensing, Llc | Sketch segmentation |
US9754177B2 (en) * | 2013-06-21 | 2017-09-05 | Microsoft Technology Licensing, Llc | Identifying objects within an image |
US9384213B2 (en) | 2013-08-14 | 2016-07-05 | Google Inc. | Searching and annotating within images |
US10319035B2 (en) | 2013-10-11 | 2019-06-11 | Ccc Information Services | Image capturing and automatic labeling system |
US10175850B2 (en) | 2013-11-23 | 2019-01-08 | Sharp Laboratories Of America | Search inquiry method using contextual annotation |
JP6216467B2 (ja) * | 2013-11-30 | 2017-10-18 | ベイジン センスタイム テクノロジー デベロップメント シーオー.,エルティーディー | 視覚・意味複合ネットワーク、および当該ネットワークを形成するための方法 |
KR20160146978A (ko) | 2014-04-28 | 2016-12-21 | 콘비다 와이어리스, 엘엘씨 | 리소스 디렉터리를 위한 검색 엔진 최적화 |
CN104008146B (zh) * | 2014-05-09 | 2017-02-15 | 中国科学院信息工程研究所 | 一种基于共同视觉模式的图像查询扩展方法及系统 |
US9628805B2 (en) * | 2014-05-20 | 2017-04-18 | AVAST Software s.r.o. | Tunable multi-part perceptual image hashing |
WO2016038535A1 (en) * | 2014-09-10 | 2016-03-17 | Koninklijke Philips N.V. | Image report annotation identification |
US9607216B2 (en) * | 2015-03-30 | 2017-03-28 | International Business Machines Corporation | Identifying updated content in images |
US9898452B2 (en) * | 2015-10-16 | 2018-02-20 | International Business Machines Corporation | Annotation data generation and overlay for enhancing readability on electronic book image stream service |
US11030259B2 (en) * | 2016-04-13 | 2021-06-08 | Microsoft Technology Licensing, Llc | Document searching visualized within a document |
US10885392B2 (en) * | 2016-12-08 | 2021-01-05 | Koninklijke Philips N.V. | Learning annotation of objects in image |
US20190095525A1 (en) * | 2017-09-27 | 2019-03-28 | International Business Machines Corporation | Extraction of expression for natural language processing |
CN107909088B (zh) * | 2017-09-27 | 2022-06-28 | 百度在线网络技术(北京)有限公司 | 获取训练样本的方法、装置、设备和计算机存储介质 |
CN109598716B (zh) * | 2018-12-05 | 2020-08-07 | 武汉楚精灵医疗科技有限公司 | 基于计算机视觉的肠镜退镜速度实时监测方法和系统 |
KR102522926B1 (ko) * | 2019-02-21 | 2023-04-19 | 한국전자통신연구원 | 전자책 변환 저작 시스템 |
US11676701B2 (en) | 2019-09-05 | 2023-06-13 | Pearl Inc. | Systems and methods for automated medical image analysis |
CN112581477A (zh) * | 2019-09-27 | 2021-03-30 | 京东方科技集团股份有限公司 | 图像处理方法、图像匹配方法、设备以及存储介质 |
US11055789B1 (en) * | 2020-01-17 | 2021-07-06 | Pearl Inc. | Systems and methods for insurance fraud detection |
EP3985560A1 (en) * | 2020-10-15 | 2022-04-20 | Aptiv Technologies Limited | Methods and systems for determining candidate data sets for labelling |
WO2022150821A1 (en) | 2021-01-06 | 2022-07-14 | Pearl Inc. | Computer vision-based analysis of provider data |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01196176A (ja) | 1988-02-01 | 1989-08-07 | Sharp Corp | Mis型半導体装置 |
RU2193797C2 (ru) | 1990-04-26 | 2002-11-27 | Джон СУТЕРЛАНД | Устройство ассоциативной памяти (варианты) и способ распознавания образов (варианты) |
US5893095A (en) * | 1996-03-29 | 1999-04-06 | Virage, Inc. | Similarity engine for content-based retrieval of images |
US5913205A (en) * | 1996-03-29 | 1999-06-15 | Virage, Inc. | Query optimization for visual information retrieval system |
US5852823A (en) * | 1996-10-16 | 1998-12-22 | Microsoft | Image classification and retrieval system using a query-by-example paradigm |
JP3500930B2 (ja) * | 1997-09-22 | 2004-02-23 | ミノルタ株式会社 | キーワード付与方法およびキーワード自動付与装置 |
US6480841B1 (en) * | 1997-09-22 | 2002-11-12 | Minolta Co., Ltd. | Information processing apparatus capable of automatically setting degree of relevance between keywords, keyword attaching method and keyword auto-attaching apparatus |
US6463426B1 (en) * | 1997-10-27 | 2002-10-08 | Massachusetts Institute Of Technology | Information search and retrieval system |
US6128446A (en) * | 1997-12-11 | 2000-10-03 | Eastman Kodak Company | Method and apparatus for annotation of photographic film in a camera |
US6804659B1 (en) * | 2000-01-14 | 2004-10-12 | Ricoh Company Ltd. | Content based web advertising |
US6285995B1 (en) * | 1998-06-22 | 2001-09-04 | U.S. Philips Corporation | Image retrieval system using a query image |
US6397213B1 (en) * | 1999-05-12 | 2002-05-28 | Ricoh Company Ltd. | Search and retrieval using document decomposition |
AU2001238354A1 (en) * | 2000-02-18 | 2001-08-27 | The University Of Maryland | Methods for the electronic annotation, retrieval, and use of electronic images |
US20020038299A1 (en) * | 2000-03-20 | 2002-03-28 | Uri Zernik | Interface for presenting information |
US20050210393A1 (en) * | 2000-07-05 | 2005-09-22 | Forgent Networks, Inc. | Asynchronous collaboration via audio/video annotation |
US7624337B2 (en) * | 2000-07-24 | 2009-11-24 | Vmark, Inc. | System and method for indexing, searching, identifying, and editing portions of electronic multimedia files |
US6813618B1 (en) * | 2000-08-18 | 2004-11-02 | Alexander C. Loui | System and method for acquisition of related graphical material in a digital graphics album |
AUPR033800A0 (en) * | 2000-09-25 | 2000-10-19 | Telstra R & D Management Pty Ltd | A document categorisation system |
US6970860B1 (en) * | 2000-10-30 | 2005-11-29 | Microsoft Corporation | Semi-automatic annotation of multimedia objects |
CN1531826A (zh) * | 2001-02-09 | 2004-09-22 | 带有数据注释的全向图像和3维数据获取的方法和装置以及动态范围扩展方法 | |
US6804684B2 (en) * | 2001-05-07 | 2004-10-12 | Eastman Kodak Company | Method for associating semantic information with multiple images in an image database environment |
US20020184196A1 (en) | 2001-06-04 | 2002-12-05 | Lehmeier Michelle R. | System and method for combining voice annotation and recognition search criteria with traditional search criteria into metadata |
US7068309B2 (en) * | 2001-10-09 | 2006-06-27 | Microsoft Corp. | Image exchange with image annotation |
EP1304625B1 (en) | 2001-10-19 | 2007-01-10 | Xerox Corporation | Method and apparatus for forward annotating documents and for generating a summary from a document image |
US7716199B2 (en) * | 2005-08-10 | 2010-05-11 | Google Inc. | Aggregating context data for programmable search engines |
US7043474B2 (en) * | 2002-04-15 | 2006-05-09 | International Business Machines Corporation | System and method for measuring image similarity based on semantic meaning |
US20040003351A1 (en) | 2002-06-28 | 2004-01-01 | Microsoft Corporation | Navigating a resource browser session |
US20040021780A1 (en) * | 2002-07-31 | 2004-02-05 | Intel Corporation | Method and apparatus for automatic photograph annotation with contents of a camera's field of view |
KR100644016B1 (ko) | 2002-12-18 | 2006-11-10 | 삼성에스디에스 주식회사 | 동영상 검색 시스템 및 방법 |
JP2004234228A (ja) * | 2003-01-29 | 2004-08-19 | Seiko Epson Corp | 画像検索装置、画像検索装置におけるキーワード付与方法、及びプログラム |
GB2399983A (en) * | 2003-03-24 | 2004-09-29 | Canon Kk | Picture storage and retrieval system for telecommunication system |
US7394947B2 (en) * | 2003-04-08 | 2008-07-01 | The Penn State Research Foundation | System and method for automatic linguistic indexing of images by a statistical modeling approach |
JP2005011079A (ja) | 2003-06-19 | 2005-01-13 | Canon Inc | 情報検索装置、情報検索方法及びプログラム |
AU2003903728A0 (en) | 2003-07-21 | 2003-07-31 | Hao Hang Zheng | Method and system for performing combined image classification storage and rapid retrieval on a computer database |
JP4478513B2 (ja) * | 2004-06-10 | 2010-06-09 | キヤノン株式会社 | デジタルカメラ、デジタルカメラの制御方法、プログラムおよびそれを格納した記録媒体 |
US8156123B2 (en) * | 2004-06-25 | 2012-04-10 | Apple Inc. | Method and apparatus for processing metadata |
FR2872660B1 (fr) | 2004-07-05 | 2006-12-22 | Eastman Kodak Co | Appareil de prise de vue et procede pour la formation d'images annotees |
US20060179453A1 (en) * | 2005-02-07 | 2006-08-10 | Microsoft Corporation | Image and other analysis for contextual ads |
US7519200B2 (en) * | 2005-05-09 | 2009-04-14 | Like.Com | System and method for enabling the use of captured images through recognition |
US7702681B2 (en) * | 2005-06-29 | 2010-04-20 | Microsoft Corporation | Query-by-image search and retrieval system |
EP1938208A1 (en) * | 2005-09-30 | 2008-07-02 | Philips Intellectual Property & Standards GmbH | Face annotation in streaming video |
US20070106685A1 (en) * | 2005-11-09 | 2007-05-10 | Podzinger Corp. | Method and apparatus for updating speech recognition databases and reindexing audio and video content using the same |
US20070160275A1 (en) * | 2006-01-11 | 2007-07-12 | Shashidhar Sathyanarayana | Medical image retrieval |
US20070240060A1 (en) * | 2006-02-08 | 2007-10-11 | Siemens Corporate Research, Inc. | System and method for video capture and annotation |
US20070255618A1 (en) * | 2006-04-28 | 2007-11-01 | Meerbergen Jason R | System and method for improving online advertising effectiveness and promoting digital content creation |
US20070266001A1 (en) * | 2006-05-09 | 2007-11-15 | Microsoft Corporation | Presentation of duplicate and near duplicate search results |
US8341112B2 (en) | 2006-05-19 | 2012-12-25 | Microsoft Corporation | Annotation by search |
US20070288453A1 (en) * | 2006-06-12 | 2007-12-13 | D&S Consultants, Inc. | System and Method for Searching Multimedia using Exemplar Images |
US20080004953A1 (en) * | 2006-06-30 | 2008-01-03 | Microsoft Corporation | Public Display Network For Online Advertising |
US7559017B2 (en) * | 2006-12-22 | 2009-07-07 | Google Inc. | Annotation framework for video |
US7739304B2 (en) * | 2007-02-08 | 2010-06-15 | Yahoo! Inc. | Context-based community-driven suggestions for media annotation |
US20080319844A1 (en) * | 2007-06-22 | 2008-12-25 | Microsoft Corporation | Image Advertising System |
US8140973B2 (en) * | 2008-01-23 | 2012-03-20 | Microsoft Corporation | Annotating and sharing content |
US8229865B2 (en) * | 2008-02-04 | 2012-07-24 | International Business Machines Corporation | Method and apparatus for hybrid tagging and browsing annotation for multimedia content |
US9646025B2 (en) * | 2008-05-27 | 2017-05-09 | Qualcomm Incorporated | Method and apparatus for aggregating and presenting data associated with geographic locations |
US8566353B2 (en) * | 2008-06-03 | 2013-10-22 | Google Inc. | Web-based system for collaborative generation of interactive videos |
US20090313239A1 (en) * | 2008-06-16 | 2009-12-17 | Microsoft Corporation | Adaptive Visual Similarity for Text-Based Image Search Results Re-ranking |
US20090319883A1 (en) * | 2008-06-19 | 2009-12-24 | Microsoft Corporation | Automatic Video Annotation through Search and Mining |
US7961986B1 (en) * | 2008-06-30 | 2011-06-14 | Google Inc. | Ranking of images and image labels |
US8145648B2 (en) * | 2008-09-03 | 2012-03-27 | Samsung Electronics Co., Ltd. | Semantic metadata creation for videos |
US20100076923A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | Online multi-label active annotation of data files |
US8452794B2 (en) * | 2009-02-11 | 2013-05-28 | Microsoft Corporation | Visual and textual query suggestion |
US8719249B2 (en) * | 2009-05-12 | 2014-05-06 | Microsoft Corporation | Query classification |
-
2006
- 2006-05-19 US US11/419,368 patent/US8341112B2/en active Active
-
2007
- 2007-05-17 WO PCT/US2007/012193 patent/WO2007136861A2/en active Application Filing
- 2007-05-17 CN CN200780017842.6A patent/CN101449271B/zh active Active
- 2007-05-17 RU RU2008145584/08A patent/RU2439686C2/ru not_active IP Right Cessation
- 2007-05-17 EP EP07795180A patent/EP2021959A4/en not_active Ceased
- 2007-05-17 KR KR1020087028292A patent/KR101354755B1/ko active IP Right Grant
- 2007-05-17 JP JP2009511113A patent/JP5346279B2/ja not_active Expired - Fee Related
- 2007-05-17 MX MX2008013657A patent/MX2008013657A/es active IP Right Grant
- 2007-05-17 BR BRPI0710701-3A patent/BRPI0710701B1/pt active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101354755B1 (ko) | 2014-02-07 |
US8341112B2 (en) | 2012-12-25 |
BRPI0710701A8 (pt) | 2017-01-17 |
KR20090012243A (ko) | 2009-02-02 |
WO2007136861A3 (en) | 2008-01-31 |
MX2008013657A (es) | 2008-11-04 |
EP2021959A4 (en) | 2010-12-29 |
US20070271226A1 (en) | 2007-11-22 |
CN101449271B (zh) | 2015-09-23 |
WO2007136861A2 (en) | 2007-11-29 |
CN101449271A (zh) | 2009-06-03 |
RU2008145584A (ru) | 2010-05-27 |
EP2021959A2 (en) | 2009-02-11 |
JP5346279B2 (ja) | 2013-11-20 |
BRPI0710701A2 (pt) | 2011-08-23 |
JP2009537901A (ja) | 2009-10-29 |
RU2439686C2 (ru) | 2012-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BRPI0710701B1 (pt) | memória, método e dispositivo de computação para anotação por pesquisa | |
JP5216063B2 (ja) | 未登録語のカテゴリを決定する方法と装置 | |
JP6767042B2 (ja) | シナリオパッセージ分類器、シナリオ分類器、及びそのためのコンピュータプログラム | |
Jin et al. | Entity linking at the tail: sparse signals, unknown entities, and phrase models | |
BRPI1002397B1 (pt) | Sistemas e métodos implementados por computador para geração de uma consulta booleana | |
Gupta et al. | Plagiarism detection in text documents using sentence bounded stop word n-grams | |
Xu et al. | Exploring similarity between academic paper and patent based on Latent Semantic Analysis and Vector Space Model | |
US8229970B2 (en) | Efficient storage and retrieval of posting lists | |
Ngo et al. | Vireo/dvmm at trecvid 2009: High-level feature extraction, automatic video search, and content-based copy detection | |
Spasojevic et al. | Dawt: Densely annotated wikipedia texts across multiple languages | |
Groza et al. | Reference information extraction and processing using random conditional fields | |
Alfarra et al. | Graph-based Growing self-organizing map for Single Document Summarization (GGSDS) | |
Ramachandran et al. | Document Clustering Using Keyword Extraction | |
Sheikh et al. | Improved neural bag-of-words model to retrieve out-of-vocabulary words in speech recognition | |
Liu et al. | Document representation based on semantic smoothed topic model | |
Youness et al. | Semantic indexing of a Corpus | |
Gottron | External plagiarism detection based on standard IR technology and fast recognition of common subsequences | |
CN114547259B (zh) | 一种基于主题关系图的公式描述自动生成方法与系统 | |
Li et al. | Improving Kernel-based protein-protein interaction extraction by unsupervised word representation | |
Kumar et al. | A trigram word selection methodology to detect textual similarity with comparative analysis of similar techniques | |
Janarthanan et al. | Performance analysis on graph based information retrieval approaches | |
Özdem et al. | Locality Sensitive Hashing Based Clustering for Large Scale Documents | |
Hussein et al. | Keyphrase-based hierarchical clustering for arabic documents | |
Elhadi | Using Text's Terms and Syntactical Properties for Document Similarity | |
Shapiro et al. | Sequence Labeling for Citation Field Extraction from Cyrillic Script References |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B25A | Requested transfer of rights approved |
Owner name: MICROSOFT TECHNOLOGY LICENSING, LLC (US) |
|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B15K | Others concerning applications: alteration of classification |
Free format text: AS CLASSIFICACOES ANTERIORES ERAM: G06F 17/30 , G06F 17/40 Ipc: G06F 17/40 (2006.01), G06F 16/58 (2019.01) |
|
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 09/02/2021, OBSERVADAS AS CONDICOES LEGAIS. |