BRPI0719356A2 - Método implementado por computador para gerenciamento de informação e sistema - Google Patents

Método implementado por computador para gerenciamento de informação e sistema Download PDF

Info

Publication number
BRPI0719356A2
BRPI0719356A2 BRPI0719356-4A BRPI0719356A BRPI0719356A2 BR PI0719356 A2 BRPI0719356 A2 BR PI0719356A2 BR PI0719356 A BRPI0719356 A BR PI0719356A BR PI0719356 A2 BRPI0719356 A2 BR PI0719356A2
Authority
BR
Brazil
Prior art keywords
words
digital images
character recognition
optical character
digital image
Prior art date
Application number
BRPI0719356-4A
Other languages
English (en)
Inventor
Krishnendu Chaudhury
Ashutosh Garg
Prasenjit Phukan
Arvind Saraf
Original Assignee
Google Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google Inc filed Critical Google Inc
Publication of BRPI0719356A2 publication Critical patent/BRPI0719356A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Character Discrimination (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

Relatório Descritivo da Patente de Invenção para "MÉTODO IMPLEMENTADO POR COMPUTADOR PARA GERENCIAMENTO DE IN- FORMAÇÃO E SISTEMA".
Antecedentes
5 O presente relatório descritivo discute os sistemas e métodos de
organização de informação e mais particularmente as características refe- rentes ao arquivamento e recuperação automatizados dos documentos.
No dia a dia, as pessoas frequentemente recebem documentos físicos com informação que pode ou não ser importante, e pode ou não ser necessária posteriormente. Por exemplo, recibos e cartões de visita são fre- quentemente recebidos durante o dia, e quem as recebe frequentemente não tem certeza se, e por quanto temo, guardar tais documentos. Tais do- cumentos podem ser guardados fisicamente ou digitalizados para armaze- namento em um computador. Em qualquer caso, o documento salvo é tipi- camente colocado em algum lugar sem qualquer informação sobre o arqui- vamento (por exemplo, deixado dentro de uma gaveta ou uma pasta), ou uma pessoa pode deliberadamente associar a informação de arquivamento com o documento (por exemplo, colocando o documento em uma pasta es- pecífica de acordo com algum sistema de documentação, ou pela digitação da informação para associar com o documento salvo em um computador).
Sumário
O presente relatório descritivo descreve os métodos e sistemas relacionados com o arquivamento de documento. Esses métodos e sistemas permitem que um usuário armazene e recupere prontamente as representa- 25 ções digitais de documentos físicos. As imagens digitais de documentos físi- cos podem ser processadas utilizando-se as técnicas de reconhecimento de caractere ótico (OCR), então indexadas e armazenadas para recuperação posterior. A aquisição de imagem, o processamento OCR e arquivamento de imagem podem ser combinados em um sistema de extremidade para extre- 30 midade que pode facilitar o gerenciamento da constelação de documentos encontrados na vida cotidiana (por exemplo, recibos, cartões de visita, recei- tas médicas, passagens, contratos, etc.), e o usuário desse sistema só pre- cisa tirar uma imagem para acionar o processo de arquivamento de docu- mento em algumas implementações.
Os usuários do sistema podem arquivar prontamente as ima- gens digitais dos documentos (com a mesma facilidade e informalidade de colocação de um documento em uma gaveta) e também recuperar pronta- mente as imagens digitais utilizando buscas por palavras chave. As câmeras digitais embutidas nos telefones celulares podem ser utilizadas para capturar imagens, e técnicas de OCR podem ser utilizadas para reconhecer e extrair palavras chave relevantes a partir dessas imagens para permitir as buscas efetivas posteriormente. As imagens de documento adquiridas podem ser distribuídas diretamente a partir de um dispositivo móvel para um sistema de extremidade auxiliar (por exemplo, um gateway móvel e um servidor de cor- reio eletrônico). Um usuário do sistema não precisa descarregar as imagens de um dispositivo móvel para um computador pessoal a fim de arquivar e armazenar as imagens, tornando, assim, o arquivamento de imagem um processo simples para o usuário. Ademais, imagens de resolução mais baixa também podem ser manuseadas utilizando-se técnicas OCR melhoradas, incluindo várias operações de pré-processamento e pós-processamento. Dessa forma, a constelação de documentos encontrada na vida cotidiana pode ser prontamente digitalizada, organizada, armazenada e recuperada rapidamente e de forma eficiente.
Em geral, um aspecto da presente matéria descrita nesse relató- rio descritivo pode ser consubstanciado em um método implementado por comutador que inclui o recebimento de uma mensagem a partir de um dis- 25 positivo móvel configurado para conectar a uma rede de dispositivo móvel, o dispositivo móvel incluindo uma câmera digital, e a mensagem incluindo uma imagem digital tirada pela câmera digital e incluindo informação correspon- dente às palavras; determinação das palavras a partir da informação da i- magem digital utilizando o reconhecimento de caractere ótico; a indexação 30 da imagem digital com base nas palavras; e o armazenamento da imagem digital para recuperação posterior da imagem digital com base em um ou mais termos de busca recebidos. O método pode adicionalmente incluir o recebimento de um ou mais termos de busca; e recuperação da imagem di- gital com base no um ou mais termos da busca.
O método pode incluir a validação do dispositivo móvel (por e- xemplo, com base em um número de telefone móvel e/ou informação asso- 5 ciada com a imagem digital recebida). O recebimento da imagem pode inclu- ir o recebimento de uma mensagem de correio eletrônico possuindo a ima- gem digital em anexo; e o método pode incluir a adição de pelo menos uma das palavras, e um rótulo predefinido correspondente ao dispositivo móvel, à mensagem de correio eletrônico; e a determinação, indexação, e armaze- 10 namento podem ser realizados em um sistema de correio eletrônico.
O recebimento da imagem digital pode incluir o recebimento de pelo menos duas imagens digitais tiradas de um único objeto em resposta a uma única entrada na câmera digital, e a determinação das palavras pode incluir a realização do reconhecimento de caractere ótico correlativo em pelo 15 menos duas imagens digitais para se encontrar as palavras. A determinação das palavras pode incluir a realização do reconhecimento de caractere ótico em múltiplas escalas.
O método pode incluir o pré-processamento da imagem digital para aperfeiçoar o reconhecimento de caractere ótico. O pré-processamento 20 pode incluir a identificação de um limite de binarização para a imagem digital pela minimização da variação de posição das margens esquerda e direita de um documento representado na imagem digital. O pré-processamento pode incluir a obtenção de um nível cinza com um pixel de resolução mais alta pela combinação ponderada interativa dos níveis de cinza de pixels vizinhos 25 em uma resolução mais baixa.
O método pode incluir o pós-processamento das palavras para identificação e correção das identificações errôneas de caractere comum resultando do reconhecimento de caractere ótico. O recebimento da mensa- gem pode incluir o recebimento de uma indicação do tipo para um documen- 30 to representado na imagem digital, e o pós-processamento pode incluir a seleção entre pelo menos dois modelos de linguagem com base em dicioná- rio de acordo com a indicação do tipo para o documento, e o pós- processamento das palavras de acordo com o modelo de linguagem com base em dicionário selecionado. Ademais, o recebimento da indicação do tipo pode incluir o recebimento de uma categoria especificada pelo usuário na mensagem, a categoria especificada pelo usuário selecionada a partir de um grupo incluindo cartões de visita e recibos de cartão de crédito.
Outras modalidades desse aspecto incluem sistemas correspon- dentes, aparelho e um ou mais produtos de programa de computador, isso é, um ou mais módulos de instruções de programa de computador codificadas em um meio legível por computador para execução por, ou para controle da operação do aparelho de processamento de dados.
Um aspecto da presente matéria descrito nesse relatório descri- tivo pode ser consubstanciado em um sistema que inclui uma rede de dispo- sitivo móvel; uma pluralidade de dispositivos móveis configurados para tirar imagens digitais, conectar à rede de dispositivo móvel, e transmitir as ima- 15 gens digitais através da rede de dispositivo móvel; um ou mais computado- res configurados para receber as imagens digitais a partir dos dispositivos móveis, aplicar o reconhecimento de caractere ótico para extrair as palavras das imagens digitais, indexar as imagens digitais com base nas palavras extraídas, e armazenar as imagens digitais para recuperação posterior com 20 base nos termos de busca recebidos. Os um ou mais computadores podem incluir um primeiro componente de extremidade auxiliar e um segundo com- ponente de extremidade auxiliar, o primeiro componente de extremidade au- xiliar configurado para receber as imagens digitais, validar os dispositivos móveis e aplicar o reconhecimento de caractere ótico, e o segundo compo- 25 nente de extremidade auxiliar configurado para indexar as imagens digitais e armazenar as imagens digitais. O segundo componente de extremidade au- xiliar pode incluir um sistema de correio eletrônico.
Os dispositivos móveis podem incluir telefones móveis, e a rede de dispositivo móvel pode incluir uma rede de telefone móvel. Os um ou mais computadores podem incluir um computador pessoal. Os um ou mais computadores podem incluir um aparelho de busca. Os um ou mais compu- tadores podem ser configurados para validar os dispositivos móveis com base nos números de telefone móvel associados com os dispositivos mó- veis.
Os um ou mais computadores podem ser configurados para re- ceber os termos de busca, e recuperar as imagens digitais com base nos 5 termos de busca. Os um ou mais computadores podem ser configurados para adicionar palavras extraídas e um rótulo predefinido às mensagens in- cluindo as imagens digitais. Os um ou mais computadores podem ser confi- gurados para realizar o reconhecimento de caractere ótico correlativo. Os um ou mais computadores podem ser configurados para realizar o reconhe- 10 cimento de caractere ótico em múltilas escalas.
Os um ou mais computadores podem ser configurados para pré- processar as imagens digitais para aperfeiçoar o reconhecimento de caracte- re ótico, e pós-processar as palavras extraídas para identificar e corrigir i- dentificações errôneas de caractere comum resultando do reconhecimento 15 de caractere ótico. Os um ou mais computadores podem ser configurados para identificar um limite de binarização para uma imagem digital pela mini- mização da variação de posição das margens esquerda e direita de um do- cumento representado na imagem digital. Os um ou mais computadores po- dem ser configurados para obter um nível de cinza em um pixel de resolução 20 maior pela combinação ponderada interativa dos níveis de cinza de pixels vizinhos em uma resolução mais baixa.
Os um ou mais computadores podem ser configurados para re- ceber indicações do tipo de documento juntamente com as imagens digitais, selecionar entre pelo menos dois modelos de linguagem com base em dicio- 25 nário de acordo com as indicações do tipo de documento, e pós-processar as palavras extraídas de acordo com o modelo de linguagem com base em dicionário. Ademais, uma indicação do tipo de documento pode incluir uma categoria especificada por usuário selecionada a partir de um grupo que in- clui cartões de visita e recibos de cartão de crédito.
Um aspecto da presente matéria descrita nesse relatório descri-
tivo pode ser consubstanciado em um sistema que inclui uma rede de dispo- sitivo móvel configurada para transmitir as imagens digitais; um ambiente de servidor configurado para fornecer o serviço de busca eletrônica através da rede de computador; e meios para conexão da rede de dispositivo móvel ao ambiente de servidor, os meios de conexão incluindo meios de aplicação do reconhecimento de caractere ótico para extrair as palavras das imagens digi- 5 tais e meios para fornecer as palavras extraídas e as imagens digitais para o ambiente de servidor para o serviço de busca eletrônica das imagens digitais através da rede de computador. Os meios de conexão podem incluir meios para validar os dispositivos móveis na rede de dispositivo móvel. Os meios para o fornecimento podem incluir meios para a adição de palavras extraídas 10 e um rótulo predefinido às mensagens incluindo as imagens digitais.
Os meios de aplicação podem incluir meios para a realização de reconhecimento de caractere ótico correlativo. Os meios de aplicação podem incluir meios para a realização do reconhecimento de caractere ótico em múltiplas escalas. Os meios para aplicação podem incluir meios para o pré- 15 processamento de imagens digitais para aperfeiçoar o reconhecimento de caractere ótico, e meios para o pós-processamento das palavras extraídas para identificação e correção de identificações errôneas de caractere comum resultando do reconhecimento de caractere ótico.
Os meios de aplicação podem incluir meios de identificação de um limite de binarização de uma imagem digital pela minimização da varia- ção de posição das margens esquerda e direita de um documento represen- tado na imagem digital Os meios de aplicação podem incluir meios de ob- tenção de um nível de cinza em um pixel de resolução mais alta pela combi- nação ponderada interativa dos níveis e cinza dos pixels vizinhos em uma resolução mais baixa. Os meios de aplicação podem incluir meios de sele- ção entre pelo menos dois modelos de linguagem com base em dicionário de acordo com as indicações recebidas sobre o tipo de documento, e meios para o pós-processamento das palavras extraídas de acordo com o modelo de linguagem com base em dicionário selecionado. Ademais, uma indicação do tipo de documento pode incluir uma categoria especificada por usuário selecionada a partir de um grupo incluindo cartões de visita e recibos de car- tão de crédito. Os detalhes de uma ou mais modalidades da invenção são a- presentados nos desenhos em anexo e na descrição abaixo. Outras caracte- rísticas, objetivos e vantagens da invenção serão aparentes a partir da des- crição e dos desenhos e a partir das reivindicações.
Descrição dos Desenhos
A figura 1 é um diagrama esquemático de um sistema de arqui- vamento de imagem digital ilustrativo;
A figura 2 é um fluxograma de um método de arquivamento e recuperação de imagem digital ilustrativo;
A figura 3 é um fluxograma de um método de reconhecimento de
caractere ótico melhorado ilustrativo;
A figura 4 é um diagrama esquemático de um exemplo de um sistema de computador genérico.
Descrição Detalhada
A figura 1 é um diagrama esquemático de um sistema de arqui-
vamento de imagem digital ilustrativo 100. O sistema 100 inclui múltiplos dispositivos móveis 110 (por exemplo, telefones celulares ou assistentes digitais pessoais (PDAs)) que se comunicam através de uma rede de dispo- sitivo móvel 120 (por exemplo, uma rede de telefonia celular privada ou uma 20 rede de correio eletrônico sem fio). Os dispositivos 110 são móveis no senti- do de poderem se comunicar utilizando as transmissões sem fio (de curto, médio e longo alcance). No entanto, os dispositivos móveis 110 podem inclu- ir também conectores para comunicações com fio (por exemplo, um conector de Barramento Serial Universal (USB)).
Os dispositivos móveis 110 são configurados para recolher as
imagens digitais. Dessa forma, um dispositivo móvel 110 inclui uma câmera digital 112. A câmera digital 112 pode ser embutida em um dispositivo pos- suindo outras funções (por exemplo, um telefone móvel ou PDA com uma câmera embutida), ou o dispositivo móvel 110 pode ser a câmera digital 112, que também possui uma capacidade de comunicação sem fio.
O dispositivo móvel 110 pode ser utilizado para tirar uma ou mais imagens digitais 132 de um documento físico 105. O documento 105 pode ser qualquer documento físico que inclua uma ou mais palavras. Por exemplo, o documento 105 pode ser um cartão de visita, um recibo de caixa eletrônico, um recibo de compra com cartão de crédito, uma receita medica, uma passagem (por exemplo, passagem aérea ou passagem de trem), um 5 contrato, uma carta, uma receita vista em uma revista, etc. Mais geralmente, o documento 105 não precisa ser um documento em papel. O documento 105 pode ser qualquer artigo físico com palavras para o qual se deseje uma imagem digital que possa ser arquivada e recuperada, por exemplo, uma placa de rua, uma notícia publicada, um aviso de animal perdido, uma cami- 10 seta, etc. Note-se que como utilizado aqui, o termo "palavras" inclui toda a forma de informação de texto que possa ser identificada utilizando-se técni- cas de reconhecimento de caractere ótico, e múltiplos sinais ("tokens") po- dem ser agrupados e considerados uma única "palavra" pelo sistema, inde- pendentemente da separação do espaço em branco.
As imagens digitais 132 podem ser enviada para um primeiro
componente de extremidade auxiliar 150 em uma mensagem 130. A mensa- gem 130 pode ser uma mensagem de Especificação de Mensagem de Mul- timídia (MMS) incluindo as imagens digitais 132. Outros formatos de mensa- gem também são possíveis. Por exemplo, a mensagem 30 pode ser uma mensagem de correio eletrônico.
O primeiro componente de extremidade auxiliar 150 pode conec- tar à rede de dispositivo móvel 120 através de outra rede 140, tal como a Internet. Alternativamente, o primeiro componente de extremidade auxiliar 150 pode se conectar à rede móvel 120 ou pode ser incluído na rede móvel 25 120. Por exemplo, o primeiro componente de extremidade auxiliar 150 pode ser um gateway móvel utilizado para validar um telefone celular 110 antes de as imagens digitais 132 serem aceitas para arquivamento.
O primeiro componente de extremidade auxiliar 150 pode incluir um motor de validação 152 configurado para validar os dispositivos móveis 110, e um motor OCR 154 configurado para aplicar o reconhecimento de caractere ótico às imagens digitais 132. O primeiro componente de extremi- dade auxiliar 150 pode gerar informação de índice 134 para adicionar à mensagem 130 (por exemplo, pela adição da informação a uma linha de as- sunto de uma mensagem de correio eletrônico), associando, assim, a infor- mação de índice 134 às imagens digitais 132.
A informação de índice 134 inclui uma ou mais palavras identifi- cadas nas imagens de documento 132 utilizando o reconhecimento de ca- ractere ótico. A informação de índice 134 também pode incluir informação adicional, tal como um rótulo predefinido, informação de tipo de documento, e informação de estado de sistema. O rótulo predefinido pode corresponder ao dispositivo móvel (por exemplo, número de telefone do móvel fonte), um nome de função associado com a característica de arquivamento de imagem do dispositivo móvel (por exemplo, "PIC" para "Recipiente de Imagem Pes- soal" pode ser o rótulo utilizado na interface do usuário do dispositivo móvel para indicar a natureza do documento (por exemplo, cartão de visita X recibo de cartão de crédito) e pode ser registrado por um usuário (por exemplo, pela seleção a partir de um menu na interface de usuário do dispositivo mó- vel) ou determinado automaticamente (por exemplo, com base nas dimen- sões vertical e horizontal relativas de um documento representado nas ima- gens digitais 132).
A informação de estado de sistema pode incluir a informação tal 20 como hora e data (por exemplo, selo de tempo) da aquisição, transmissão, recebimento de imagem ou uma combinação das mesmas. A informação de estado de sistema adicional também pode ser incluída, tal como localização geográfica do dispositivo móvel no momento da aquisição, transmissão, re- cebimento da imagem ou uma combinação das mesmas.
O primeiro componente de extremidade auxiliar 150 pode enviar
a mensagem 130, com a informação de índice incluída 134 para um segun- do componente de extremidade auxiliar 160. O segundo componente de ex- tremidade auxiliar 160 pode conectar à rede de dispositivo móvel 120 atra- vés de outra rede 140, tal como a Internet. Alternativamente, o segundo 30 componente de extremidade auxiliar 160 pode conectar diretamente à rede móvel 120 ou pode ser incluído na rede móvel 120.
O segundo componente de extremidade auxiliar 160 pode incluir um motor de índice 162 e um motor de recuperação 164. O motor de índice 162 pode arquivar as imagens de documento 132 com base na informação de índice 134. O motor de recuperação 164 pode recolher as imagens de documento 132, para distribuição para um dispositivo de rede 170, com base 5 em um ou mais termos de busca recebidos do dispositivo de rede 170. O dispositivo de rede 170 pode conectar à rede de dispositivo móvel ou rede adicional 140. O dispositivo de rede 170 pode ser um dispositivo móvel 110 ou outra máquina. Por exemplo, o dispositivo de rede 170 pode ser um com- putador pessoal conectado à Internet e rodando em um navegador de rede. 10 Deve-se compreender que o sistema ilustrativo 100 ilustrado na
figura 1 pode ser implementado de várias formas diferentes, e a divisão par- ticular dos componentes operacionais ilustrada não é limitadora, mas, ao invés disso, apresentada apenas como exemplo. Como utilizado aqui, o ter- mo "componente de extremidade auxiliar" inclui ambos os componentes de 15 extremidade auxiliar tradicional (por exemplo, um servidor de dados) e com- ponentes de middleware (por exemplo, um servidor de aplicativo). Em geral, os primeiro e segundo componentes de extremidade auxiliar 150 e 160 po- dem ser implementados utilizando um ou mais servidores em um ou mais locais, isso é, um ambiente servidor. Por exemplo, os primeiro e segundo 20 componentes de extremidade auxiliar 150 e 160 podem ser máquinas servi- doras em um sistema de correio eletrônico publicamente acessível, tal como o sistema GMAIL™ fornecido por Google, Inc. de Mountain View, CA.
Adicionalmente, deve-se compreender que a mensagem 130 pode ter seu formato modificado entre os vários componentes do sistema 25 100, e, dessa forma, pode ser considerada mensagens separadas em cada estagio. Por exemplo, a mensagem recebida do dispositivo móvel 150 pode estar em um formato de mensagem proprietário utilizado entre os primeiro e segundo componentes 150 e 160, e finalmente a mensagem recebida do segundo componente de extremidade auxiliar 160 pelo dispositivo de rede 30 170 pode estar no formato de Linguagem de Marcação de Hipertexto (HT- ML).
Independentemente dos formatos e configurações de compo- nente utilizados, o sistema 100 integra os dispositivos móveis 110, a rede de dispositivo móvel 120, e os componentes de extremidade auxiliar 150 e 160 em um serviço para usuários dos dispositivos móveis 110. Dessa forma, por exemplo, um usuário pode tirar fotos com seu telefone celular e enviar as 5 imagens por correio eletrônico (ou enviar um MMS) para sua conta de cor- reio eletrônico, onde as imagens são automaticamente OCR e indexadas. O usuário pode então acessar e buscar as imagens utilizando a interface de usuário do sistema de correio eletrônico.
A figura 2 é um fluxograma de um método ilustrativo 200 de ar- quivamento e recuperação de uma imagem digital. Uma mensagem é rece- bida 210 a partir de um dispositivo móvel possuindo uma câmera digital. O dispositivo móvel pode ser um telefone celular para o qual o usuário regis- trou o número de telefone celular com sua conta em um sistema de correio eletrônico, e a mensagem pode ser um e-mail enviado a partir de um telefo- ne celular (por exemplo, para um endereço de correio eletrônico conhecido, tal como archive@qooqle.com) ou um MMS enviado para um código curto de sistema de correio eletrônico (por exemplo, com uma palavra chave indi- cando o serviço de arquivamento). A mensagem do dispositivo móvel inclui uma ou mais imagens digitais tiradas pela câmera digital, e as imagens digi- tais incluem informação correspondente às palavras (isso é, dados de ima- gem que representam visualmente o texto de documento).
O dispositivo móvel pode ser validado 220 com base na mensa- gem recebida. Por exemplo, um gateway móvel ou o sistema de correio ele- trônico pode validar o telefone celular com base em um mecanismo de au- 25 tenticação e associação empregado anteriormente. Uma conta de usuário pode ser limitada a um número de telefone, e o mecanismo de autenticação e associação pode operar como se segue. Um usuário pode iniciar uma a- glutinação pelo preenchimento de um formulário em um sítio da rede (por exemplo, o sítio da rede do sistema de correio eletrônico) especificando o 30 número do dispositivo móvel do usuário. Um sistema automatizado pode processar o formulário e enviar uma mensagem de SMS (serviço de mensa- gem curta) para o dispositivo móvel do usuário para a solicitação da rede juntamente com uma seqüência gerada de forma aleatória. O usuário pode então verificar essa seqüência na rede ou através de um SMS enviada de volta a partir do mesmo dispositivo móvel. O usuário conhecerá a seqüência apenas se o dispositivo móvel pertencer ao usuário. Alternativamente, o u- 5 suário pode iniciar essa aglutinação a partir do dispositivo móvel, enviando uma mensagem a partir do mesmo para um número ou código curto ade- quado com um identificador associado com o usuário (por exemplo, como designado pelo sítio da rede). A conta do usuário recebe uma mensagem com a seqüência a ser verificada de forma similar.
As palavras são determinadas 230 a partir da informação de i-
magem digital utilizando o reconhecimento de caractere ótico. Isso pode en- volver a determinação de todas as palavras na imagem ou extração apenas das palavras chave relevantes. Por exemplo, cada palavra comum, tal como "um", "uma" e "o", "a" pode ser ignorada, enquanto as palavras com menor 15 ocorrência frequentemente em um dicionário podem ser classificadas como mais relevantes. Isso pode envolver técnicas tradicionais de retirada simples de palavras não indexadas (por exemplo, "e", "para", "um", "uma", "o", "a", etc.) como utilizado na tecnologia de busca na rede. Isso também pode en- volver a identificação ativa de algumas palavras como sendo mais relevan- 20 tes, tal como a identificação de nomes próprios ou entidades nomeadas (por exemplo, "João", "San Diego", "Barnes & Noble", etc.), que significam prova- velmente uma pessoa, um lugar, uma companhia, etc. Em algumas imple- mentações, todas as palavras podem ser identificadas, e um motor de pro- cessamento na extremidade posterior (por exemplo, motor de indexação) 25 pode manusear a discriminação entre as palavras relevantes e não relevan- tes.
Em algumas implementações, a mensagem pode incluir pelo menos duas imagens do mesmo documento, e as palavras podem ser de- terminadas pela realização de reconhecimento de caractere ótico correlativo 30 nas pelo menos duas imagens digitais para encontrar as palavras. Por e- xemplo, duas imagens digitais podem ser tiradas separadamente por um usuário e agrupadas manualmente para transmissão por correio eletrônico ou MMS1 ou duas imagens digitais podem ser tiradas de um único objeto em resposta a uma única entrada na câmera digital. Por exemplo, com referên- cia à figura 1, a câmera digital 112 pode ter uma entrada 114 que aciona duas imagens a serem tiradas em sucessão rápida e enviadas automatica- 5 mente para o primeiro componente de extremidade auxiliar 150. Note-se que a entrada 114 também pode ser designada para acionar uma imagem e para envio automático.
A entrada 114 pode ser um botão físico no dispositivo móvel 110 ou um elemento gráfico em uma interface de usuário gráfica do dispositivo 10 móvel 110. A entrada 114 pode ser multifuncional, tal como um botão pres- sionável montado lateralmente. Alternativamente, a entrada 114 pode ser dedicada ao sistema de arquivamento de imagem, de forma que qualquer imagem exibida na tela do dispositivo móvel possa ser automaticamente transmitida para a realização de OCR e arquivamento em resposta a uma 15 interação de usuário único com a entrada 114. Em qualquer caso, a entrada 114 pode ser configurada para acionar o envio de uma imagem para o pri- meiro componente de extremidade auxiliar 150 em resposta a uma ou duas das ações de entrada de usuário (por exemplo, um ou dois pressionamentos de botão).
Com referência novamente à figura 2, as palavras determinadas
podem ser adicionadas à linha de assunto, linha de cabeçalho ou corpo de um correio eletrônico, e as imagens totais podem ser armazenadas como um anexo à mensagem de correio eletrônico. Adicionalmente, a mensagem de correio eletrônico pode ser automaticamente marcada com um rótulo prede- 25 finido (por exemplo, "PIC"). A imagem digital pode ser indexada 240 com base nas palavras, e também possivelmente com base no rótulo predefinido. Vários tipos de indexação de palavra podem ser utilizados. Por exemplo, os sistemas e técnicas descritos nos pedidos de patente a seguir podem ser utilizados: patente publicada U.S. No. 2005/0222985 A1, de Paul Buchheit et 30 al„ intitulada "EMAIL CONVERSATION MANAGEMENT SYSTEM," deposi- tada em 31 de março de 2004, e publicada em 6 de outubro de 2005, e pa- tente U.S. publicada No. 2005/0223058 A1 de Paul Buchheit et al., intitulada "IDENTIFYING MESSAGES RELEVANT TO A SEARCH QUERY IN A CONVERSATION-BASED EMAIL SYSTEM," depositada em 6 de agosto de 2004 e publicada em 6 de outubro de 2005, ambas as quais são incorpora- das aqui por referências. A imagem digital é armazenada 250 para recupe- 5 ração posterior da imagem digital. Note-se que em algumas implementa- ções, as operações de indexação e armazenamento são integradas uma à outra.
Um ou mais termos de busca podem ser recebidos 260 a partir de um dispositivo de rede. Esses termos de busca podem ser registrados 10 por um usuário, tal como na interface de navegação de rede (em um telefone móvel, computador pessoal, etc.) e enviados para o sistema de arquivamen- to de imagem. Alternativamente, esses termos de busca podem ser gerados por um computador em resposta a algum registro. Em qualquer caso, a ima- gem digital pode ser recuperada 270 com base em um ou mais dos termos 15 de busca, e apresentados para um usuário ou enviados para outro compo- nente do sistema para o processamento adicional.
Em algumas implementações, as técnicas OCR manuseiam as imagens de resolução mais baixa (por exemplo, imagens de câmeras de um mega pixel). Adicionalmente, as etapas podem ser realizadas para solucio- 20 nar os problemas encontrados decorrentes da qualidade da câmera/lente, a distância a partir da qual o documento foi fotografado, e assim por diante. As técnicas de melhoria de imagem e super resolução podem ser utilizadas pa- ra o pré-processamento da imagem de documento para a capacidade OCR aperfeiçoada.
A figura 3 é um fluxograma de um método ilustrativo 300 do re-
conhecimento de caractere ótico melhorado. Uma mensagem incluindo uma imagem digital pode ser recebida 310, e a mensagem pode incluir uma indi- cação do tipo de documento representado na imagem digital. Essa indicação de tipo pode ser explicitamente incluída, tal como quando um usuário anota 30 um tipo de documento (por exemplo, cartão de visita X recibo) quando a i- magem é tirada. Alternativamente, a indicação do tipo pode ser um aspecto da imagem propriamente dita, tal como dimensões vertical e horizontal rela- tivas de um documento representado na imagem digital, por exemplo, os cartões de visita possuem tipicamente uma razão de aparência comum, que pode ser determinada a partir de uma imagem digital pela verificação das bordas de qualquer documento em papel na imagem e sua relação ao texto 5 no documento. A indicação de tipo também pode ser determinada por uma passagem OCR inicial que encontra algumas palavras, e então essas pala- vras podem ser utilizadas para indicar o tipo de documento, que pode afetar o processo OCR posterior.
A imagem digital pode ser pré-processada 320 para aperfeiçoar 10 o reconhecimento de caractere ótico. O pré-processamento pode envolver a remoção de ruído e de enviesamento da imagem utilizando técnicas tradi- cionais. O pré-processamento pode envolver a identificação de um limite de binarização para a imagem digital pela minimização da variação de posição das margens esquerda e direita de um documento representado na imagem 15 digital. Adicionalmente, o pré-processamento pode empregar um esquema de refinamento interativo que obtém o nível de cinza em cada pixel de alta resolução pela combinação ponderada interativa dos níveis de cinza dos pixels vizinhos na imagem de baixa resolução.
Os algoritmos de super resolução tradicionais com base em in- terpolação bicúbica/bilinear/de junção essencialmente rodam um filtro de passa baixa na imagem, eliminando as bordas agudas. Isso resulta em man- chas adicionais na imagem, que podem ser indesejáveis quando a imagem original já foi parcialmente manchada. As manchas nos limites da letra po- dem causar a degradação da qualidade OCR. Por outro lado, os algoritmos de super resolução de preservação de borda como a interpolação vizinha mais próxima podem causar artefatos de distorção de imagem que confun- dem a máquina de OCR. Em contraste, a nova abordagem descrita abaixo pode remover a mancha, enquanto realiza a super amostragem sem aumen- tar o ruído. Note-se que as palavras "super amostragem" e "super resolução" são utilizadas de forma sinônima aqui.
Deixe g(x,y)|(x,y)e [1...M, 1...N], onde M, N são imagens de di- mensão, representadas na imagem observada. Deixe f(x,y)|((x,y)eR2) ser a imagem verdadeira subjacente. Nesse modelo, g é uma versão manchada de f, isso é, g = f*hPSF, onde * denota o operador de convolução, e hPSF deno- ta a Função de Espalhamento de Ponto (essa função modela efetivamente o processo de mancha). hPSF não precisa ser conhecido explicitamente visto 5 que é sabido que hPSF é geralmente uma função de janela realizando uma suavização de vizinhança ponderada. Como tal, a Função de Espalhamento de Ponto pode ser modelada com uma função Gaussian.
Considerando-se f*n) como uma aproximação de f e g(n) = f<n)*hpsF> as equações podem ser reescritas como:
g = f*hPSF*-> G = (F Hpsf)
gn=fn*hPSF<-> G(n)=(F(n)-HPSF) onde as letras maiúsculas denotam as Transformações Fourier. A partir das equações acima,
(G-G(n))=(F-F(n)-HPSF ou (G-G(n)MHBP)/C=(F-F(n))
onde c é uma constante e Hbp é um filtro. Idealmente, 1-(HBP)/c HPSF=0. No entanto, visto que a Função de Espalhamento de Ponto é um filtro de passa baixa, sua Transformação Fourier é normalmente igual a zero em muitas frequências, o que complica a busca pelo inverso da função.
Dessa forma, na prática, um esquema de refinamento interativo
pode ser utilizado; F(n+1)=F(n)+(G-G(n)) (HBP)/c e c são escolhidos de forma que 1-(Hbp)/c Hpsf>0. A escolha de c geralmente envolve uma troca. O c maior implica em maior ruído e tolerância de erro, mas uma convergência mais lenta e vice-versa. A aproximação inicial da imagem subjacente, f*0), 25 pode ser criada através da interpolação de Junção B Bicúbica. Dessa forma, o esquema de refinamento interativo obtém o nível de cinza em cada pixel de alta resolução pela combinação ponderada interativa dos níveis de cinza de seus pixels vizinhos na imagem de baixa resolução.
O reconhecimento de caractere ótico pode ser realizado 330 na imagem digital pré-processada para determinar as palavras na imagem digi- tal. A operação OCR pode ser realizada em múltiplas escalas. Rodando o algoritmo de remoção de mancha de super resolução acima, múltiplas ver- sões do documento podem ser criadas e sofrer OCR. Por exemplo, uma primeira versão em escala original, uma segunda em escala 2x, e uma ter- ceira versão em escala 3x podem ser alimentadas individualmente para o motor OCR e a união das palavras resultantes pode ser armazenada. O do- 5 cumento original pode ter uma mistura de tamanhos de fonte - a fonte me- nor pode ser muito pequena para o motor OCR reconhecer. Essas fontes podem ser reconhecidas a partir das versões de resolução mais alta (e sem manchas) do documento. Por outro lado, os tamanhos de fonte maiores no documento original, podem se tornar muito grandes, depois da super resolu- 10 ção, para que o motor OCR reconheça. Essas fontes podem ser reconheci- das a partir das versões de resolução mais baixa.
Adicionalmente, independentemente de se OCR é realizado em múltiplas escalas, frequentemente, o resultado inicial do reconhecimento de caractere ótico será seqüências de caracteres agrupados em palavras, que 15 podem ou não ser palavras reais (por exemplo, a palavra "clip" pode ser lida como "clip", com a letra minúscula "I" substituída pelo número "1"). Dessa forma, o pós-processamento pode ser realizados nas palavras para identifi- car e corrigir as identificações erradas de caractere comum resultando do reconhecimento de caractere ótico. O pós-processamento pode ser baseado 20 em modelo de linguagem e pode utilizar um ou mais dicionários.
Em algumas implementações, modelos de linguagem com base em múltiplos dicionários podem ser utilizados. Uma seleção pode ser feita 340 entre pelo menos dois modelos de linguagem com base em dicionário de acordo com a indicação do tipo de documento. Então, as palavras podem 25 ser utilizadas para todas as imagens a receberem OCR (por exemplo, o di- cionário pode ser um subconjunto de palavras encontrado na rede).
O pós-processamento com base em linguagem pode aperfeiçoar a qualidade dos resultados de OCR obtidos a partir da imagem de documen- to. O pós-processamento com base em linguagem pode ser compreendido 30 dentro do contexto de uma estrutura de trabalho probabilística que conecta as saídas da seqüência de caracteres do OCR, com palavras encontradas em um dicionário. Note-se que o dicionário não precisa ser um dicionário de palavras padrão, mas pode ser qualquer conjunto de palavras derivadas de um ou mais corpora.
Considere-se w como denotando a palavra (uma combinação de letras delimitadas por espaço). Considere-se s como denotando uma se- quência observada enviada pelo processo OCR. Utilizando-se a regra Ba- yes,
P(w|s) = P(s|w)P(w)/P(s)
De acordo com uma seqüência observada s, o objetivo é se ob- ter
W*=argmaxwP(w|s)=argmaxw(P(s|w)P(w))
onde P(w) indica a probabilidade de a palavra w ocorrer, P(w|s) indica a pro- babilidade de a palavra ser na verdade w quando observada por OCR como s. Dessa forma, um w que maximiza a probabilidade a posteriori de uma pa- lavra de acordo com uma seqüência de saída OCR observada pode ser bus- 15 cada durante o pós-processamento. Adicionalmente, o pós-processamento pode computar w* utilizando dois componentes: (1) um modelo de linguagem para estimar P(w) no contexto de texto determinado; e (2) um modelo de erro OCR para estimar a probabilidade de leitura da palavra w como s, P(s|w).
O modelo de linguagem fornece a probabilidade de uma palavra
w ocorrer no contexto determinado. Por exemplo, as ocorrências de cada palavra em um corpo dos documentos seqüenciados podem ser contadas para compor um dicionário de palavras e probabilidades de palavra. Tal mo- delo de linguagem com base em dicionário pode ser representado por uma 25 máquina de estado finito ponderado (WFSM) com os rótulos de entrada co- mo caracteres e aceitando os estados correspondentes a todas as palavras do dicionário. Note-se que esse modelo de linguagem ilustrativo pode não cobrir bem os nomes próprios.
Os modelos de linguagem com base em caractere que estimam a probabilidade do próximo caractere de acordo com a seqüência observada até agora frequentemente têm melhor desempenho com nomes próprios. A representação pode novamente ser uma WFSM, com a medida de custo a seguir:
C(SlICl--Ci-I)-IogP(SilCi--XM)
Ao invés da computação das probabilidades acima como condi- ção para toda a seqüência de caractere observada até agora, apenas um 5 histórico de poucos caracteres precisa ser utilizado. Isso permite a cobertura de muitas palavras a mais do que no conjunto de sequenciamento. Ver, por exemplo, Kolak O., Resnik P., Byrne W., "A regenerative probabilistic OCR model for NLP applications," HLT-NAACL 2003. Adicionalmente, os modelos com base em palavra n-grama podem ser utilizados. Esses modelos utilizam 10 a probabilidade de ocorrência de uma palavra de acordo com algumas pala- vras anteriores. Outros modelos com base em linguagem também podem ser utilizados.
O modelo de erro computa a probabilidade de 0 motor OCR Ier uma seqüência de caractere de entrada w como s. Isso também pode ser estimado utilizando-se uma abordagem de aprendizado de máquina, e um modelo de erro pode ser criado utilizando-se os dados de sequenciamento, isso é, imagens ilustrativas com texto e a saída OCR. Ambos o texto de en- trada e saída podem ser segmentados em segmentos de caractere corres- pondentes w e s, respectivamente. Por exemplo, essa segmentação pode ser realizada utilizando-se a distância de edição Levenshtein. A distância Levenshtein mede a distância entre duas seqüências como o número míni- mo de operações (inserção/eliminação/substituição de caractere único) ne- cessário para transformar uma seqüência em outra. Com os pares de se- qüência segmentados (s, w) em mãos, um transdutor de estado finito ponde- rado (WSFT) pode ser computado, com rótulos de entrada correspondentes aos caracteres originais e os rótulos de saída sendo os caracteres de saída OCR. Ver, por exemplo, Kolak O., Resnik P., Byrne W., "A regenerative pro- babilistic OCR model for NLP applications," HLT-NAACL 2003. Alternativa- mente, a abordagem de distância de edição pode ser utilizada para compu- tar as probabilidades de transição diretamente pela medição de P(s|w) das contagens acima, e utilização da inversão como custo de transformação.
Um corpo de documento com verdades conhecidas pode ser utilizado para estimar o custo/probabilidade de substituição de letra. As transformações reais (inserção/eliminação/substituição de caracteres únicos) necessárias para se transformar cada seqüência OCR observada para a verdade conhecida podem ser registradas. O número de ocorrências de ca- 5 da transformação é uma medida da probabilidade/custo dessa transforma- ção em particular ocorrendo durante o processo OCR. Dessa forma, existe provavelmente um grande número de casos da letra "I" ser confundida pelo número "1", e, dessa forma, designando uma alta probabilidade a essa ocor- rência.
Os dados de sequenciamento para computação do modelo de
erro podem ser criados pela geração artificial de imagens a partir do texto, adição de ruído às imagens geradas, e então geração da saída de motor OCR a partir das imagens. Para os recibos de cartão de crédito e cartões de visita, dados de listagens comerciais locais podem ser utilizados para se a- 15 prender o modelo de linguagem/dicionário. Adicionalmente, os usuários do sistema podem ser solicitados a submeter as imagens de documento de vá- rios tipos para servir como dados de sequenciamento.
A figura 4 é um diagrama esquemático de um exemplo de um sistema de computador genérico 400. O sistema 400 pode ser utilizado para 20 as operações descritas em associação com os métodos 200 e 300 de acor- do com algumas implementações. Por exemplo, o sistema 400 pode ser in- cluído em todo e qualquer dispositivo móvel 110, nos primeiro e segundo componentes de extremidade auxiliar 150 e 160, e no dispositivo de rede 170.
O sistema 400 inclui um processador 410, uma memória 420,
um dispositivo de armazenamento 430, e um dispositivo de entrada/saída 440. Cada um dos componentes 410, 420, 430, e 440 é interconectado utili- zando um barramento do sistema 450. O processador 410 é capaz de pro- cessar as instruções para execução dentro do sistema 400. Em algumas 30 implementações, o processador 410 é um processador de rosca única. Em outras implementações, o processador 410 é um processador de múltiplas roscas e/ou múltiplos núcleos. O processador 41 é capaz de processar ins- truções armazenadas na memória 420 ou no dispositivo de armazenamento 430 para exibir informação gráfica para uma interface de usuário no disposi- tivo de entrada/saída 440.
A memória 420 armazena informação dentro do sistema 400.
Em algumas implementações, a memória 420 é um meio legível por compu- tador. Em algumas implementações, a memória 420 é uma unidade de me- mória volátil. Em algumas implementações, a memória 420 é uma unidade de memória não-volátil.
O dispositivo de armazenamento 430 é capaz de fornecer o ar- 10 mazenamento em massa para o sistema 400. Em algumas implementações, o dispositivo de armazenamento 430 é um meio legível por computador. Em várias implementações diferentes, o dispositivo de armazenamento 430 po- de ser um dispositivo de disco flexível, um dispositivo de disco rígido, um dispositivo de disco ótico, ou um dispositivo de fita.
O dispositivo de entrada/saída 440 fornece as operações de en-
trada e saída para o sistema 400. Em algumas implementações, o dispositi- vo de entrada e saída 440 inclui um teclado e/ou dispositivo de apontar. Em algumas implementações, o dispositivo de entrada e saída 440 inclui uma unidade de exibição para exibir as interfaces de usuário gráfica.
As características descritas podem ser implementadas em um
conjunto de circuito eletrônico digital ou em hardware de computador, firm- ware, software ou em combinações dos mesmos. O aparelho pode ser im- plementado em um produto de programa de computador consubstanciado de forma tangível em um portador de informação, por exemplo, em um dis- 25 positivo de armazenamento legível por máquina ou em um sinal propagado, para execução por um processador programável; e operações de método podem ser realizadas por um processador programável executando um pro- grama de instruções par a realização de funções das implementações des- critas operando em dados de entrada e gerando saída. As características 30 descritas podem ser implementadas de forma vantajosa em um ou mais pro- gramas de computador que são executáveis em um sistema programável incluindo pelo menos um processador programável acoplado para receber dados e instruções a partir de e transmitir dados e instruções para um siste- ma de armazenamento de dados, pelo menos um dispositivo de entrada e pelo menos um dispositivo de saída. Um programa de computador é um con- junto de instruções que podem ser utilizadas, direta ou indiretamente, em um 5 computador para realizar uma determinada atividade ou alcançar um resul- tado determinado. Um programa de computador pode ser escrito em qual- quer forma de linguagem de programação, incluindo linguagens compiladas ou interpretadas, e pode ser desenvolvido em qualquer forma, incluindo um programa independente ou um módulo, componente, sub-rotina, ou outra 10 unidade adequada para uso em um ambiente de computação.
Os processadores adequados para execução de um programa de instruções incluem, por meio de exemplo, ambos os microprocessadores de finalidade geral e especial, e o processador único ou um dentre múltiplos processadores de qualquer tipo de computador. Geralmente, um processa- 15 dor receberá instruções e dados de uma memória de leitura apenas ou uma memória de acesso randômico ou ambas. Os elementos essenciais de um computador são um processador para execução das instruções e uma ou mais memórias para o armazenamento de instruções e dados. Geralmente, um computador também incluirá, ou será acoplado de forma operacional pa- 20 ra se comunicar com um ou mais dispositivos de armazenamento em massa para o armazenamento de arquivos de dados; tais dispositivos incluem dis- cos magnéticos, tal como discos rígidos internos e discos removíveis; discos magnetos-óticos; e disco óticos. Os dispositivos de armazenamento ade- quados para se consubstanciar de forma tangível as instruções de programa 25 de computador e dados incluem todas as formas de memória não-volátil, incluindo, por meio de exemplo, dispositivos de memória semicondutores, tal como EPROM, EEPROM, e dispositivos de memória flash; discos magnéti- cos tal como discos rígidos internos e discos removíveis; discos magnetos- óticos; e discos tipos CD-ROM e DVD-ROM. O processador e a memória 30 podem ser suplementados por, ou incorporados em ASICs (circuitos integra- dos específicos de aplicativos).
Para se fornecer a interação com um usuário, as características podem ser implementadas em um computador possuindo um dispositivo de exibição tal como um monitor CRT (tubo de raio catodo) ou LCD (monitor de cristal líquido) para exibição da informação para o usuário e um teclado e um dispositivo de apontar tal como um mouse ou uma TrackBaII pelos quais o 5 usuário pode fornecer o registro ao computador.
As características podem ser implementadas em um sistema de computador que inclui um componente de extremidade auxiliar, tal como um servidor de dados, ou que incluam um componente de middleware, tal como um servidor de aplicativo ou um servidor de Internet, ou que inclua um com- 10 ponente de extremidade dianteiro, tal como um computador de cliente pos- suindo uma interface de usuário gráfica ou um navegador de Internet, ou uma combinação dos mesmos. Os componentes do sistema podem ser co- nectados por qualquer forma ou meio de comunicação de dados digitais tal como uma rede de comunicação. Os exemplos de redes de comunicação 15 incluem, por exemplo, uma LAN, uma WAN, e os computadores e redes formando a Internet.
O sistema de computador pode incluir clientes e servidores. Um cliente e servidor são geralmente remotos um do outro e interagem tipica- mente através de uma rede tal como a descrita. A relação entre cliente e 20 servidor surge em virtude dos programas de computador rodando em um ou mais computadores e possuindo uma relação de cliente e servidor um com o outro.
Apesar de poucas implementações terem sido descritas em de- talhes acima, outras modificações são possíveis. Por exemplo, qualquer am- 25 biente de servidor configurado para fornecer dispositivo de busca eletrônica e conectar a uma rede (isso é, qualquer motor de busca em rede) pode ser integrado com uma rede de dispositivo móvel utilizando os sistemas e técni- cas descritos. O ambiente de servidor pode funcionar como um acionador de disco acessível por rede. Ademais, o ambiente de servidor não precisa ser 30 um componente de extremidade auxiliar tradicional ou middleware. O ambi- ente servidor pode ser um programa instalado em um computador pessoal e utilizado para a busca eletrônica de arquivos locais, ou o ambiente servidor pode ser um aparelho de busca (por exemplo, Google® in a Box1 fornecido pela Google, Inc. de Mountain View, CA) instalado em uma rede empresari- al.
Adicionalmente, os fluxos lógicos apresentados nas figuras não 5 exigem a ordem particular ilustrada, ou ordem seqüencial, para obter os re- sultados desejáveis. Outras operações podem ser fornecidas, ou operações podem ser eliminadas, dos fluxos descritos, e outros componentes podem ser adicionados ou removidos dos sistemas descritos. De acordo, outras im- plementações estão dentro do escopo das reivindicações a seguir.

Claims (35)

1. Método implementado por computador para gerenciamento de informação, o método caracterizado por compreender: o recebimento de uma mensagem a partir de um dispositivo mó- vel (110) configurado para conectar a uma rede de dispositivo móvel (120), o dispositivo móvel (110) compreendendo uma câmera digital (112), e a men- sagem (130) compreendendo uma imagem digital tirada (132) pela câmera digital (112) e incluindo informação correspondente a palavras; a determinação das palavras a partir da informação de imagem digital utilizando reconhecimento ótico de caracteres; a indexação da imagem digital com base nas palavras; e o armazenamento da imagem digital para recuperação posterior da imagem digital com base em um ou mais termos de busca recebidos.
2. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente a validação do dispositivo móvel (110).
3. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente: o recebimento de um ou mais dos termos de busca; e a recuperação da imagem digital com base nos um ou mais ter- mos da busca.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o recebimento da mensagem compreende o recebimento de uma mensagem de correio eletrônico possuindo a imagem digital anexada; o método compreendendo adicionalmente a adição de pelo menos uma das palavras, e um rotulo previamente definido correspondente ao dispositivo móvel, para a mensagem de correio eletrônico; e onde a determinação, in- dexação e armazenamento são realizados em um sistema de correio eletrô- nico.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o recebimento da imagem digital compreende o recebimento de pelo menos duas imagens digitais tiradas de um único objeto em resposta a uma única entrada para a câmera digital, e a determinação das palavras compreendendo a realização do reconhecimento de caractere ótico correlati- vo nas pelo menos duas imagens digitais para encontrar as palavras.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a determinação das palavras compreende a realização do reco- nhecimento de caractere ótico em múltiplas escalas.
7. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente o processamento prévio da imagem digital para aperfeiçoar o reconhecimento de caractere ótico.
8. Método, de acordo com a reivindicação 7, caracterizado pelo fato de que o processamento prévio compreende a identificação de um limite de binarização para a imagem digital pela minimização da variação de posi- ção das margens esquerda e direita de um documento (105) representado na imagem digital.
9. Método, de acordo com a reivindicação 7, caracterizado pelo fato de que o processamento prévio compreende a obtenção de um nível de cinza em um pixel de resolução mais alta pela coleta interativa de uma com- binação ponderada de níveis de cinza dos pixels vizinhos em uma resolução mais baixa.
10. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente o processamento posterior das palavras para identificar e corrigir identificações errôneas de caractere comum resultando do reconhecimento de caractere ótico.
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que o recebimento da mensagem compreende o recebimento de uma indicação do tipo de um documento representado na imagem digital (132), e o processamento posterior compreendendo: a seleção entre pelo menos dois modelos de linguagem com ba- se em dicionário de acordo com a indicação do tipo para o documento; e o processamento posterior das palavras de acordo com o mode- de linguagem com base em dicionário selecionado.
12. Método, de acordo com a reivindicação 11, caracterizado pelo fato de que o recebimento da indicação do tipo compreende o recebi- mento de uma categoria especificada por usuário na mensagem, a categoria especificada por usuário selecionada a partir de um grupo incluindo cartões de visita e recibos de cartão de crédito.
13. Sistema, caracterizado por compreender: uma rede de dispositivo móvel (120); uma pluralidade de dispositivos móveis (110) configurados para obter imagens digitais (132), conectar à rede de dispositivos móveis (120), e transmitir imagens digitais (132) através da rede de dispositivos móveis (120); um ou mais computadores configurados para receber as ima- gens digitais (132) dos dispositivos móveis (110), aplicar o reconhecimento de caractere ótico para extrair as palavras das imagens digitais (132), inde- xar as imagens digitais com base nas palavras extraídas, e armazenar ima- gens digitais (132) para recuperação posterior com base nos termos de bus- ca recebidos.
14. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que um ou mais computadores compreendem um primeiro com- ponente auxiliar 150 e um segundo componente auxiliar 160, o primeiro componente auxiliar 150 configurado para receber as imagens digitais, vali- dar os dispositivos móveis e aplicar o reconhecimento de caractere ótico, e o segundo componente auxiliar 160 configurado para indexar as imagens digi- tais e armazenar as imagens digitais.
15. Sistema, de acordo com a reivindicação 14, caracterizado pelo fato de que o segundo componente auxiliar 160 compreende um siste- ma de correio eletrônico.
16. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que os um ou mais computadores são configurados para validar os dispositivos móveis com base nos números de telefone móvel associados com os dispositivos móveis.
17. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que os um ou mais computadores são configurados para rece- ber os termos de busca, e recuperar as imagens digitais com base nos ter- mos de busca.
18. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que os um ou mais computadores são configurados para adicio- nar as palavras extraídas e um rótulo previamente definido às mensagens incluindo as imagens digitais.
19. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que os um ou mais computadores são configurados para reali- zar o reconhecimento de caractere ótico correlativo.
20. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que os um ou mais computadores são configurados para reali- zar o reconhecimento de caractere ótico em múltiplas escalas.
21. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que os um ou mais computadores são configurados para pro- cessar previamente as imagens digitais para aperfeiçoar o reconhecimento de caractere ótico, e o processamento posterior das palavras extraídas para identificar e corrigir as identificações errôneas do caractere comum resultan- do do reconhecimento de caractere ótico.
22. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que os um ou mais computadores são configurados para identi- ficar um limite de binarização para uma imagem digital pela minimização da variação de posição de margens esquerda e direita de um documento (105) representado na imagem digital.
23. Sistema, de acordo com a reivindicação 13, caracterizado pelo fato de que os um ou mais computadores são configurados para obter um nível cinza em um pixel de resolução mais alta pela obtenção interativa de uma combinação ponderada de níveis de cinza de pixels vizinhos em uma resolução mais baixa.
24. Sistema, de acordo com a reivindicação 13, no qual os um ou mais computadores são configurados para receber indicações do tipo de documento juntamente com as imagens digitais, selecionar entre pelo menos dois modelos de linguagem com base em dicionário de acordo com as indi- cações do tipo de documento, e processar posteriormente as palavras extra- idas de acordo com o modelo de linguagem com base em dicionário selecio- nado.
25. Sistema, de acordo com a reivindicação 27, no qual uma in- dicação do tipo de documento compreende uma categoria especificada por usuário selecionada a partir de um grupo que inclui cartões de visita e reci- bos de cartão de credito.
26. Sistema, caracterizado por compreender: uma rede de dispositivo móvel (120) configurada para transmitir imagens digitais (132); um ambiente servidor configurado para fornecer o serviço de busca eletrônica através de uma rede de computadores; e meios para conectar a rede de dispositivo móvel (120) com o ambiente servidor, os meios de conexão compreendendo meios para aplica- ção do reconhecimento de caractere ótico para extração de palavras a partir de imagens digitais e meios para fornecer as palavras extraídas e as ima- gens digitais para o ambiente do servidor para o serviço de busca eletrônica das imagens digitais através da rede de computador.
27. Sistema, de acordo com a reivindicação 29, caracterizado pelo fato de que os meios para a conexão compreendem meios para validar os dispositivos móveis na rede de dispositivo móvel.
28. Sistema, de acordo com a reivindicação 29, caracterizado pelo fato de que os meios de fornecimento compreendem meios para a adi- ção de palavras extraídas e um rótulo definido previamente para mensagens incluindo as imagens digitais.
29. Sistema, de acordo com a reivindicação 29, caracterizado pelo fato de que os meios de aplicação compreendem meios para a realiza- ção do reconhecimento de caractere ótico correlativo.
30. Sistema, de acordo com a reivindicação 29, caracterizado pelo fato de que os meios de aplicação compreendem meios para a realiza- ção do reconhecimento de caractere ótico em múltiplas escalas.
31. Sistema, de acordo com a reivindicação 29, caracterizado pelo fato de que os meios de aplicação compreendem meios para o proces- sarnento prévio de imagens digitais para aperfeiçoar o reconhecimento de caractere ótico, e meios para o processamento posterior das palavras extra- ídas para identificar e corrigir identificações errôneas de caractere comum resultando do reconhecimento de caractere ótico.
32. Sistema, de acordo com a reivindicação 29, caracterizado pelo fato de que os meios de aplicação compreendem meios para a identifi- cação de um limite de binarização para uma imagem digital pela minimiza- ção da variação de posição das margens esquerda e direita de um docu- mento (105) representado na imagem digital.
33. Sistema, de acordo com a reivindicação 29, caracterizado pelo fato de que os meios de aplicação compreendem meios para a obten- ção de um nível de cinza em um pixel de maior resolução pela obtenção ite- rativa de uma combinação ponderada de níveis de cinza de pixels vizinhos em uma resolução mais baixa.
34. Sistema, de acordo com a reivindicação 29, caracterizado pelo fato de que os meios de aplicação compreendem meios para a seleção entre pelo menos dois modelos de linguagem com base em dicionário de acordo com as indicações recebidas do tipo de documento, e meios para o processamento posterior das palavras extraídas de acordo com o modelo de linguagem com base em dicionário selecionado.
35. Sistema, de acordo com a reivindicação 37, caracterizado pelo fato de que uma indicação do tipo de documento compreende uma ca- tegoria especificada por usuário selecionada a partir de um grupo incluindo cartões de visita e recibos de cartão de credito.
BRPI0719356-4A 2006-11-29 2007-11-28 Método implementado por computador para gerenciamento de informação e sistema BRPI0719356A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/564,823 US7986843B2 (en) 2006-11-29 2006-11-29 Digital image archiving and retrieval in a mobile device system
US11/564,823 2006-11-29
PCT/US2007/085764 WO2008067380A1 (en) 2006-11-29 2007-11-28 Digital image archiving and retrieval using a mobile device system

Publications (1)

Publication Number Publication Date
BRPI0719356A2 true BRPI0719356A2 (pt) 2014-02-04

Family

ID=39469536

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0719356-4A BRPI0719356A2 (pt) 2006-11-29 2007-11-28 Método implementado por computador para gerenciamento de informação e sistema

Country Status (9)

Country Link
US (3) US7986843B2 (pt)
EP (2) EP3246829B1 (pt)
JP (2) JP5266246B2 (pt)
KR (1) KR101462289B1 (pt)
CN (1) CN101589389B (pt)
AU (1) AU2007325200B9 (pt)
BR (1) BRPI0719356A2 (pt)
CA (2) CA2671025C (pt)
WO (1) WO2008067380A1 (pt)

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US8054971B2 (en) * 2001-04-27 2011-11-08 Comverse Ltd Free-hand mobile messaging-method and device
US7707188B2 (en) * 2002-12-20 2010-04-27 Schlumberger Technology Corporation System and method for electronic archival and retrieval of data
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US8521772B2 (en) 2004-02-15 2013-08-27 Google Inc. Document enhancement system and method
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US20060041484A1 (en) 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US20080313172A1 (en) 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20070300142A1 (en) 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US9460346B2 (en) 2004-04-19 2016-10-04 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US20120113273A1 (en) * 2004-11-29 2012-05-10 Ariel Inventions Llc System, Method, and Devices for Searching for a Digital Image over a Communication Network
US20080092055A1 (en) * 2006-10-17 2008-04-17 Silverbrook Research Pty Ltd Method of providing options to a user interacting with a printed substrate
US20080103901A1 (en) * 2006-10-17 2008-05-01 Silverbrook Research Pty Ltd Resource initiated by a computer system causing printed substrate click facilitator to collect ad click-through fee
US8511565B2 (en) * 2006-10-17 2013-08-20 Silverbrook Research Pty Ltd Method of providing information via context searching of a printed graphic image
US20080088581A1 (en) * 2006-10-17 2008-04-17 Silverbrook Research Pty Ltd Online ad placement in response to zone of paper input
US20090065523A1 (en) * 2007-09-06 2009-03-12 Chunghwa United Television Co., Ltd. Broadcasting system extracting characters from images in hospital and a method of the same
US8244037B2 (en) * 2007-11-15 2012-08-14 Master Wave International Company Ltd Image-based data management method and system
US20120290601A1 (en) * 2007-11-15 2012-11-15 Master Wave International Co., Ltd. Image-based Data Management Method and System
US20090138560A1 (en) * 2007-11-28 2009-05-28 James Joseph Stahl Jr Method and Apparatus for Automated Record Creation Using Information Objects, Such as Images, Transmitted Over a Communications Network to Inventory Databases and Other Data-Collection Programs
US8611661B2 (en) * 2007-12-26 2013-12-17 Intel Corporation OCR multi-resolution method and apparatus
ITRM20080296A1 (it) * 2008-06-09 2009-12-10 Ugo Nevi Tecniche di salvataggio in tempo reale delle foto scattate per mezzo della fotocamera del telefonino.
US8499046B2 (en) * 2008-10-07 2013-07-30 Joe Zheng Method and system for updating business cards
EP2189926B1 (en) * 2008-11-21 2012-09-19 beyo GmbH Method for providing camera-based services using a portable communication device of a user and portable communication device of a user
CN102369724B (zh) * 2009-02-18 2016-05-04 谷歌公司 自动捕获信息,例如使用文档感知设备捕获信息
JP4762321B2 (ja) * 2009-02-24 2011-08-31 株式会社東芝 画像認識装置、画像認識方法
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
CN102349087B (zh) 2009-03-12 2015-05-06 谷歌公司 自动提供与捕获的信息例如实时捕获的信息关联的内容
JP5347673B2 (ja) * 2009-04-14 2013-11-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8626897B2 (en) * 2009-05-11 2014-01-07 Microsoft Corporation Server farm management
US8761511B2 (en) * 2009-09-30 2014-06-24 F. Scott Deaver Preprocessing of grayscale images for optical character recognition
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US20110170788A1 (en) * 2010-01-12 2011-07-14 Grigori Nepomniachtchi Method for capturing data from mobile and scanned images of business cards
US8516063B2 (en) 2010-02-12 2013-08-20 Mary Anne Fletcher Mobile device streaming media application
JP2011203823A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012008733A (ja) * 2010-06-23 2012-01-12 King Jim Co Ltd カード情報管理装置
KR101175174B1 (ko) * 2010-08-20 2012-08-23 주식회사에어플러그 실물의 이미지를 매개로 하여 정보를 전달하는 방법 및 장치
US9349063B2 (en) * 2010-10-22 2016-05-24 Qualcomm Incorporated System and method for capturing token data with a portable computing device
US10402898B2 (en) 2011-05-04 2019-09-03 Paypal, Inc. Image-based financial processing
US8724931B2 (en) * 2011-05-27 2014-05-13 Ebay Inc. Automated user information provision using images
CA2842427A1 (en) * 2011-08-05 2013-02-14 Blackberry Limited System and method for searching for text and displaying found text in augmented reality
US20130106894A1 (en) 2011-10-31 2013-05-02 Elwha LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
US9063936B2 (en) * 2011-12-30 2015-06-23 Verisign, Inc. Image, audio, and metadata inputs for keyword resource navigation links
US8965971B2 (en) 2011-12-30 2015-02-24 Verisign, Inc. Image, audio, and metadata inputs for name suggestion
KR101919008B1 (ko) 2012-02-24 2018-11-19 삼성전자주식회사 정보 제공 방법 및 이를 위한 이동 단말기
KR101894395B1 (ko) 2012-02-24 2018-09-04 삼성전자주식회사 캡쳐 데이터 제공 방법 및 이를 위한 이동 단말기
KR102008495B1 (ko) 2012-02-24 2019-08-08 삼성전자주식회사 데이터 공유 방법 및 이를 위한 이동 단말기
US8983211B2 (en) * 2012-05-14 2015-03-17 Xerox Corporation Method for processing optical character recognizer output
US20140068515A1 (en) * 2012-08-29 2014-03-06 mindHIVE Inc. System and method for classifying media
US20140067631A1 (en) * 2012-09-05 2014-03-06 Helix Systems Incorporated Systems and Methods for Processing Structured Data from a Document Image
US9942334B2 (en) 2013-01-31 2018-04-10 Microsoft Technology Licensing, Llc Activity graphs
US20140229860A1 (en) * 2013-02-13 2014-08-14 Microsoft Corporation Activity Cards
TWI477982B (zh) * 2013-03-07 2015-03-21 Univ Southern Taiwan Sci & Tec 雲端證件系統及其操作方法
US10007897B2 (en) 2013-05-20 2018-06-26 Microsoft Technology Licensing, Llc Auto-calendaring
CN103347151B (zh) * 2013-06-25 2015-11-18 腾讯科技(深圳)有限公司 一种图像处理方法、装置和终端
US9530067B2 (en) 2013-11-20 2016-12-27 Ulsee Inc. Method and apparatus for storing and retrieving personal contact information
US9628416B2 (en) * 2014-05-30 2017-04-18 Cisco Technology, Inc. Photo avatars
US9286326B1 (en) * 2014-09-05 2016-03-15 WhisperText, Inc. System and method for selecting sponsored images to accompany text
TWI566593B (zh) * 2015-02-17 2017-01-11 沈國曄 應用於多媒體視訊服務的互動系統及其方法
CN106845323B (zh) * 2015-12-03 2020-04-28 阿里巴巴集团控股有限公司 一种打标数据的收集方法、装置以及证件识别系统
KR102002225B1 (ko) 2017-11-23 2019-07-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 번호판 인식 방법 및 그 시스템
US20200026726A1 (en) * 2018-07-17 2020-01-23 Vidit, LLC Systems and methods for interactive searching
US20200026731A1 (en) * 2018-07-17 2020-01-23 Vidit, LLC Systems and Methods for Archiving and Accessing of Image Content
US10740400B2 (en) 2018-08-28 2020-08-11 Google Llc Image analysis for results of textual image queries
JP7322468B2 (ja) * 2019-03-29 2023-08-08 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
KR102179552B1 (ko) 2019-05-15 2020-11-17 주식회사 한컴위드 Ocr 기반의 증거 수집 장치 및 그 방법
US11227490B2 (en) 2019-06-18 2022-01-18 Toyota Motor North America, Inc. Identifying changes in the condition of a transport
US11494847B2 (en) 2019-08-29 2022-11-08 Toyota Motor North America, Inc. Analysis of transport damage
JP7468103B2 (ja) 2020-04-15 2024-04-16 株式会社リコー Fax受信装置、fax受信方法およびプログラム
US11328120B2 (en) * 2020-09-08 2022-05-10 Vmware, Inc. Importing text into a draft email
KR102656230B1 (ko) * 2020-11-30 2024-04-09 박회준 획득된 이미지의 정보 제공방법 및 디바이스
KR102618275B1 (ko) * 2020-11-30 2023-12-27 박회준 의약 관련 이미지 획득 방법 및 디바이스
US11956400B2 (en) 2022-08-30 2024-04-09 Capital One Services, Llc Systems and methods for measuring document legibility
CN116958986B (zh) * 2023-05-11 2024-05-14 东莞市铁石文档科技有限公司 一种用于档案管理的数据化转换系统

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3641495A (en) * 1966-08-31 1972-02-08 Nippon Electric Co Character recognition system having a rejected character recognition capability
US3872433A (en) * 1973-06-07 1975-03-18 Optical Business Machines Optical character recognition system
JPS5381839A (en) 1976-12-27 1978-07-19 Isuzu Motors Ltd Engine starting-up acceleration control system
JPS6277172A (ja) 1985-09-27 1987-04-09 Mazda Motor Corp 鋳物の製造装置
JPH0612438B2 (ja) 1987-09-28 1994-02-16 大日本スクリーン製造株式会社 走査データ記憶装置を備える原画保持装置
US4949392A (en) * 1988-05-20 1990-08-14 Eastman Kodak Company Document recognition and automatic indexing for optical character recognition
JPH0273598A (ja) 1988-09-09 1990-03-13 Matsushita Electric Ind Co Ltd 電流検出装置
JPH02183665A (ja) 1989-01-09 1990-07-18 Sanyo Electric Co Ltd ファクシミリ装置
JP2888252B2 (ja) 1990-06-04 1999-05-10 田中電子工業株式会社 半導体素子用ボンディング線
JPH05267249A (ja) 1992-03-18 1993-10-15 Hitachi Ltd ドライエッチング方法及びドライエッチング装置
JPH0571349A (ja) 1991-09-12 1993-03-23 Royal Pootoreeto:Kk 内燃機関装置
JPH05189538A (ja) 1992-01-13 1993-07-30 Hitachi Ltd 画像ファイル装置
JPH06195923A (ja) 1992-12-28 1994-07-15 Sony Corp ディスクカセット及びその製造方法
JP2759589B2 (ja) 1992-12-28 1998-05-28 キヤノン株式会社 強誘電性液晶表示素子
US6002798A (en) * 1993-01-19 1999-12-14 Canon Kabushiki Kaisha Method and apparatus for creating, indexing and viewing abstracted documents
US5748780A (en) * 1994-04-07 1998-05-05 Stolfo; Salvatore J. Method and apparatus for imaging, image processing and data compression
CA2155891A1 (en) 1994-10-18 1996-04-19 Raymond Amand Lorie Optical character recognition system having context analyzer
JPH08123800A (ja) 1994-10-27 1996-05-17 Nec Software Ltd 光学式文字読み取り認識装置
US5963966A (en) * 1995-11-08 1999-10-05 Cybernet Systems Corporation Automated capture of technical documents for electronic review and distribution
JPH11102414A (ja) * 1997-07-25 1999-04-13 Kuraritec Corp ヒートマップを用いて光学式文字認識の訂正を行うための方法および装置、並びに、ocr出力の誤りを発見するための一連の命令を記録したコンピュータ読み取り可能な記録媒体
JPH11120185A (ja) * 1997-10-09 1999-04-30 Canon Inc 情報処理装置及びその方法
JP3773642B2 (ja) 1997-12-18 2006-05-10 株式会社東芝 画像処理装置および画像形成装置
US6646765B1 (en) 1999-02-19 2003-11-11 Hewlett-Packard Development Company, L.P. Selective document scanning method and apparatus
US6711585B1 (en) * 1999-06-15 2004-03-23 Kanisa Inc. System and method for implementing a knowledge management system
US6775665B1 (en) 1999-09-30 2004-08-10 Ricoh Co., Ltd. System for treating saved queries as searchable documents in a document management system
US6704120B1 (en) 1999-12-01 2004-03-09 Xerox Corporation Product template for a personalized printed product incorporating image processing operations
US6362895B1 (en) * 2000-01-10 2002-03-26 Imagex, Inc. PDF to PostScript conversion of graphic image files
US7324139B2 (en) * 2000-01-20 2008-01-29 Ricoh Company, Ltd. Digital camera, a method of shooting and transferring text
FR2806814B1 (fr) 2000-03-22 2006-02-03 Oce Ind Sa Procede de reconnaissance et d'indexation de documents
US6993205B1 (en) * 2000-04-12 2006-01-31 International Business Machines Corporation Automatic method of detection of incorrectly oriented text blocks using results from character recognition
US20040049737A1 (en) * 2000-04-26 2004-03-11 Novarra, Inc. System and method for displaying information content with selective horizontal scrolling
AU2001268274A1 (en) 2000-06-09 2001-12-24 Eclik Corporation Network interface having client-specific information and associated method
US20020103834A1 (en) * 2000-06-27 2002-08-01 Thompson James C. Method and apparatus for analyzing documents in electronic form
US20020053020A1 (en) * 2000-06-30 2002-05-02 Raytheon Company Secure compartmented mode knowledge management portal
US7054508B2 (en) * 2000-08-03 2006-05-30 Canon Kabushiki Kaisha Data editing apparatus and method
US7092870B1 (en) * 2000-09-15 2006-08-15 International Business Machines Corporation System and method for managing a textual archive using semantic units
US7426513B2 (en) * 2000-10-12 2008-09-16 Sap Portals Israel Ltd. Client-based objectifying of text pages
JP2002183665A (ja) * 2000-12-11 2002-06-28 Hitachi Ltd パターン認識方法
JP2002259388A (ja) * 2001-03-05 2002-09-13 Fujitsu Ltd 画像検索システム、方法及び画像検索プログラム
US20020135816A1 (en) 2001-03-20 2002-09-26 Masahiro Ohwa Image forming apparatus
US7149784B2 (en) * 2001-04-23 2006-12-12 Ricoh Company, Ltd. System, computer program product and method for exchanging documents with an application service provider at a predetermined time
US7284191B2 (en) * 2001-08-13 2007-10-16 Xerox Corporation Meta-document management system with document identifiers
JP4240859B2 (ja) * 2001-09-05 2009-03-18 株式会社日立製作所 携帯端末装置及び通信システム
US20030110158A1 (en) * 2001-11-13 2003-06-12 Seals Michael P. Search engine visibility system
US20030125929A1 (en) * 2001-12-10 2003-07-03 Thomas Bergstraesser Services for context-sensitive flagging of information in natural language text and central management of metadata relating that information over a computer network
US6768816B2 (en) * 2002-02-13 2004-07-27 Convey Corporation Method and system for interactive ground-truthing of document images
US20030189603A1 (en) * 2002-04-09 2003-10-09 Microsoft Corporation Assignment and use of confidence levels for recognized text
US6737967B2 (en) 2002-05-10 2004-05-18 Simplexgrinnell, Lp Wireless walk through test system
DE10226257A1 (de) 2002-06-13 2003-12-24 Bosch Gmbh Robert Verfahren zur Detektion einer Person in einem Raum
JP2004038840A (ja) 2002-07-08 2004-02-05 Fujitsu Ltd メモ画像管理装置、メモ画像管理システムおよびメモ画像管理方法
US6868424B2 (en) * 2002-07-25 2005-03-15 Xerox Corporation Electronic filing system with file-placeholders
AU2003287495A1 (en) * 2002-11-04 2004-06-07 Deepq Technologies, A General Partnership Document processing based on a digital document image input with a confirmatory receipt output
US20040252197A1 (en) * 2003-05-05 2004-12-16 News Iq Inc. Mobile device management system
DE602004005216T2 (de) 2003-08-20 2007-12-20 Oce-Technologies B.V. Dokumentenscanner
US7287037B2 (en) * 2003-08-28 2007-10-23 International Business Machines Corporation Method and apparatus for generating service oriented state data mapping between extensible meta-data model and state data including logical abstraction
US7424672B2 (en) * 2003-10-03 2008-09-09 Hewlett-Packard Development Company, L.P. System and method of specifying image document layout definition
US7370034B2 (en) * 2003-10-15 2008-05-06 Xerox Corporation System and method for performing electronic information retrieval using keywords
CN1278533C (zh) * 2003-12-17 2006-10-04 大唐移动通信设备有限公司 可自动录入文字、图像的手机及其录入与处理方法
US7707039B2 (en) * 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US7466875B1 (en) 2004-03-01 2008-12-16 Amazon Technologies, Inc. Method and system for determining the legibility of text in an image
JP2005267249A (ja) * 2004-03-18 2005-09-29 Sharp Corp データ処理システム、サーバおよび通信装置
US7814155B2 (en) * 2004-03-31 2010-10-12 Google Inc. Email conversation management system
US7912904B2 (en) * 2004-03-31 2011-03-22 Google Inc. Email system with conversation-centric user interface
US7499588B2 (en) * 2004-05-20 2009-03-03 Microsoft Corporation Low resolution OCR for camera acquired documents
US20050289182A1 (en) * 2004-06-15 2005-12-29 Sand Hill Systems Inc. Document management system with enhanced intelligent document recognition capabilities
US20050289016A1 (en) * 2004-06-15 2005-12-29 Cay Horstmann Personal electronic repository
US7911655B2 (en) * 2004-10-06 2011-03-22 Iuval Hatzav System for extracting information from an identity card
JP2006195923A (ja) * 2005-01-17 2006-07-27 Ricoh Co Ltd 画像情報処理システム、および画像情報処理方法
US20060206462A1 (en) 2005-03-13 2006-09-14 Logic Flows, Llc Method and system for document manipulation, analysis and tracking
WO2008033926A2 (en) * 2006-09-12 2008-03-20 Stanley, Morgan Document handling
US20080162603A1 (en) * 2006-12-28 2008-07-03 Google Inc. Document archiving system
US20080162602A1 (en) * 2006-12-28 2008-07-03 Google Inc. Document archiving system
JP5267249B2 (ja) 2009-03-17 2013-08-21 タイヨーエレック株式会社 遊技機

Also Published As

Publication number Publication date
CN101589389B (zh) 2012-04-11
AU2007325200A1 (en) 2008-06-05
US7986843B2 (en) 2011-07-26
US8897579B2 (en) 2014-11-25
JP2010511253A (ja) 2010-04-08
EP3246829A1 (en) 2017-11-22
US8620114B2 (en) 2013-12-31
JP5559899B2 (ja) 2014-07-23
KR20090084968A (ko) 2009-08-05
JP2013127815A (ja) 2013-06-27
AU2007325200B9 (en) 2012-11-22
WO2008067380A1 (en) 2008-06-05
EP2102762A4 (en) 2009-12-16
US20140044365A1 (en) 2014-02-13
CN101589389A (zh) 2009-11-25
CA2671025C (en) 2019-07-16
EP3246829B1 (en) 2021-03-03
KR101462289B1 (ko) 2014-11-14
US20110274373A1 (en) 2011-11-10
US20080126415A1 (en) 2008-05-29
JP5266246B2 (ja) 2013-08-21
CA3027962A1 (en) 2008-06-05
CA2671025A1 (en) 2008-06-05
EP2102762B1 (en) 2017-06-28
CA3027962C (en) 2021-04-06
EP2102762A1 (en) 2009-09-23
AU2007325200B2 (en) 2012-07-19

Similar Documents

Publication Publication Date Title
BRPI0719356A2 (pt) Método implementado por computador para gerenciamento de informação e sistema
US11455525B2 (en) Method and apparatus of open set recognition and a computer readable storage medium
US20190251179A1 (en) Language generation from flow diagrams
CN111597803A (zh) 一种要素提取方法、装置、电子设备及存储介质
WO2022143608A1 (zh) 语言标注方法、装置、计算机设备和存储介质
CN113568934B (zh) 一种数据查询方法、装置、电子设备和存储介质
KR101966627B1 (ko) 모바일용 의료기록지 번역시스템
US20160162639A1 (en) Digital image analysis and classification
CN111783572B (zh) 一种文本检测方法和装置
Pattnaik et al. A Framework to Detect Digital Text Using Android Based Smartphone
CN113792570A (zh) 理赔数据处理方法、装置、电子设备及可读介质
US11455812B2 (en) Extracting non-textual data from documents via machine learning
Schmidt et al. Integrating Distance Sampling and Minimum Count Data
CN116229496A (zh) 一种居民健康日志管理方法、系统、终端及存储介质
CN117789230A (zh) 关键信息提取方法、装置和合同签约的监管方法、装置
CN117668336A (zh) 文档处理方法及装置
CN113449515A (zh) 一种医学文本的预测方法、预测装置及电子设备
CN118070789A (zh) 一种信息抽取方法及装置
CN116912853A (zh) 基于医疗费用清单图像的ocr识别方法及系统
CN116882383A (zh) 基于文本分析的数字化智能校对系统
CN114817163A (zh) 习题分类录入方法、系统及电子设备

Legal Events

Date Code Title Description
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 9A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2386 DE 27-09-2016 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.