BR102012021598A2 - Ajustes sem supervisão de parâmetros para algoritmos de rastreio de objetos - Google Patents

Ajustes sem supervisão de parâmetros para algoritmos de rastreio de objetos Download PDF

Info

Publication number
BR102012021598A2
BR102012021598A2 BR102012021598-5A BR102012021598A BR102012021598A2 BR 102012021598 A2 BR102012021598 A2 BR 102012021598A2 BR 102012021598 A BR102012021598 A BR 102012021598A BR 102012021598 A2 BR102012021598 A2 BR 102012021598A2
Authority
BR
Brazil
Prior art keywords
parameter set
image frames
series
updated
computer
Prior art date
Application number
BR102012021598-5A
Other languages
English (en)
Other versions
BR102012021598B1 (pt
Inventor
Wencheng Wu
Beilei Xu
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of BR102012021598A2 publication Critical patent/BR102012021598A2/pt
Publication of BR102012021598B1 publication Critical patent/BR102012021598B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

AJUSTES SEM SUPERVISÃO DE PARÂMETROS PARA ALGORITMOS DE RASTREIO DE OBJETOS. A presente invenção refere-se a um método para otimizar automaticamente um conjunto de parâmetros para um algoritmo de rastreio compreendendo receber uma série de quadros de imagens e processar os quadros de imagens usando um algoritmo de rastreio com um conjunto de parâmetros inicializado. Um conjunto de parâmetros atualizados é então criado, de acordo com os quadros de imagens processados, utilizando componentes de ratreio estimados. Os parâmetros são validados usando uma medida desempenho, que pode ser conduzida, manual ou automaticamente, por uso de uma GUI. Os quadros de imagens são coletados de uma câmera de vídeo com um ajuste fixo em um local fixo. Os quadros de imagens podem incluir um vídeo de instrução de tráfego ou um vídeo de instrução para rastreio de seres humanos.

Description

Relatório Descritivo da Patente de Invenção para "AJUSTES SEM SUPERVISÃO DE PARÂMETROS PARA ALGORITMOS DE RAS-TREIO DE OBJETOS".
CAMPO TÉCNICO
As concretizações são geralmente relacionadas ao campo de a-plicações de computadores. As concretizações são também relacionadas a métodos e sistemas para rastreio de objetos.
ANTECEDENTES DA INVENÇÃO O rastreio de objetos tem ficado cada vez mais predominante em aplicações modernas. Isso é particularmente verdadeiro no campo de rastreio de veículos. Portanto, é cada vez mais necessário a otimização de algoritmos de rastreio e dos ajustes de parâmetros correspondentes.
Por exemplo, uma regra especificando que um veículo não pode subir uma parede pode ser benéfico no desenvolvimento de um algoritmo de rastreio. Na prática, uma solução comum é ter-se um ser humano para especificar, manualmente, as regiões adequadas para a detecção e o rastreio de objetos, e ignorar outras regiões, tais como paredes. No entanto, a intervenção humana nesses algoritmos é cara, intensa em tempo e propensa a erro. Portanto, seria benéfico automatizar o processo de ajuste de parâmetros para o rastreio de algoritmos utilizando informações dependentes de aplicação e dependentes de meio físico.
BREVE SUMÁRIO A presente invenção refere-se a um método e um sistema para a otimização de parâmetros, que compreendem: receber uma série de quadros de imagens; e processar os quadros de imagens usando um algoritmo de rastreio com um conjunto de parâmetros inicializado, são descritos. Um conjunto de parâmetros atualizados é então criado de acordo com os quadros de imagens processados, e validado por uso de uma medida de desempenho, automatizando, desse modo, o conjunto de parâmetros para o algoritmo de rastreio. Os componentes analíticos de rastreio podem ser também estimados de acordo com os quadros de imagens. A criação de um conjunto de parâmetros atualizados pode compreender ainda derivar o con- junto de parâmetros atualizados, utilizando os componentes analíticos de rastreio estimados. A validação do conjunto de parâmetros atualizados inclui ainda inspecionar e/ou modificar manualmente o conjunto de parâmetros atualizados usando uma interface de usuário gráfica associada com um computador. A abordagem descrita no presente relatório descritivo inclui: coletar quadros de imagens de uma câmera de vídeo, com um ajuste fixo em um local fixo, tal como próximo a uma pista de rolamento ou calçada. Os quadros de imagens podem incluir um vídeo de instrução de tráfego ou um vídeo de instrução para rastreio de seres humanos.
BREVE DESCRIÇÃO DOS DESENHOS A figura 1 ilustra um diagrama de blocos de um sistema computadorizado, que é implementado de acordo com as concretizações descritas. A figura 2 ilustra uma representação gráfica de uma rede de dispositivos de processamento de dados, nos quais os aspectos da presente invenção podem ser implementados. A figura 3 ilustra um fluxograma de nível alto, ilustrando as etapas operacionais lógicas em um método de otimização de parâmetros, de acordo com as concretizações descritas. A figura 4 ilustra um fluxograma detalhado ilustrando as etapas operacionais lógicas, derivando um conjunto de parâmetros atualizados de acordo com as concretizações descritas. A figura 5 ilustra uma representação de um quadro de imagem de acordo com as concretizações descritas. A figura 6a ilustra uma interface de usuário gráfica exemplificative, para validar e modificar os ajustes de parâmetros no modo "Zona de detecção". A figura 6b ilustra uma interface de usuário gráfica exemplificative, para validar e modificar os ajustes de parâmetros no modo "Loops Virtuais".
DESCRIÇÃO DETALHADA
Um diagrama de blocos de um sistema computadorizado 100, que executa a programação para execução dos métodos e sistemas, descri- tos no presente relatório descritivo, é mostrado na figura 1. Um dispositivo de computação genérico, na forma de um computador 100, pode incluir uma unidade de processamento 102, uma memória 104, um armazenamento removível 112 e um armazenamento não removível 114. A memória 104 pode incluir a memória volátil 106 e a memória não volátil 108. O computador 110 pode incluir ou ter acesso a um meio físico computacional, que inclui vários meios legíveis por computador, tais como uma memória volátil 106, uma memória não volátil 108, um armazenamento removível 112 e um armazenamento não removível 114. O armazenamento de computador inclui, por exemplo, uma memória de acesso aleatório (RAM), uma memória exclusiva de leitura (ROM), uma memória exclusiva de leitura programável apagável (EPROM) e uma memória exclusiva de leitura programável apagável eletricamente (EEPROM), uma memória instantânea ou outras tecnologias de memória, memória exclusiva de leitura em disco compacto (CD ROM), Discos Versáteis Digitais (DVDs) ou outro armazenamento em disco óptico, cassetes magnéticos, fita magnética, armazenamento em disco magnético, ou outros dispositivos de armazenamento magnético, ou qualquer outro meio capaz de armazenar instruções legíveis por computador, bem como dados, incluindo quadros de vídeos. O computador 110 pode incluir ou ter acesso a um meio físico de computação, que inclui a entrada 116, a saída 118, e uma conexão de comunicação 120. O computador pode operar em um meio físico ligado em rede, por uso de uma conexão de comunicação para conexão a um ou mais computadores ou dispositivos remotos. O computador remoto pode incluir um computador pessoal (PC), um servidor, um PC em rede, um dispositivo ponto a ponto ou outro nó de rede comum, ou similares. O dispositivo remoto pode incluir uma câmera fotográfica, uma câmera de vídeo, um dispositivo de rastreio, ou similares. A conexão de comunicação pode incluir uma Rede de Área Local (LAN), uma Rede de Longa Distância (WAN), ou outras redes. Essa funcionalidade é descrita em mais detalhes na figura 2. A saída 118 é proporcionada mais comumente como um monitor de computador, mas pode incluir qualquer dispositivo de saída de computa- dor. A saída 118 pode também incluir um aparelho de coleta de dados, associado com o sistema computacional 100. Além disso, a entrada 116, que inclui comumente um teclado de computador e/ou um dispositivo de apontamento, tal como um mouse de computador, permite que um usuário selecione e instrua o sistema computacional 100. Uma interface de usuário pode ser proporcionada usando a saída 118 e a entrada 116. A saída 118 pode funcionar como uma tela, para exibir dados e informações a um usuário e para exibir interativamente uma interface gráfica de usuário (GUI) 130. Uma concretização exemplificativa da GUI 130 é proporcionada nas figuras 6a e 6b abaixo.
Notar que o termo "GUI" se refere, de uma maneira geral, a um tipo de meio físico, que representa programas, arquivos, opções e assim por diante, por meio de ícones, menus e caixas de diálogo exibidas graficamente em uma tela de monitor de computador. Um usuário pode interagir com a GUI para selecionar e ativar essas opções, tocando diretamente na tela e/ou apontando e clicando com um dispositivo de entrada de usuário 116, tal como, por exemplo, um dispositivo de apontamento, tal como um mouse, e/ou com um teclado. Um item particular pode funcionar da mesma maneira para o usuário em todas as aplicações, porque a GUI proporciona rotinas usuais de software (por exemplo, o módulo 125), para manusear esses elementos e registrar as ações de usuários. A GUI pode ser ainda usada para exibir os quadros de imagens de serviços eletrônicos, como discutido abaixo.
As instruções legíveis por computador, por exemplo, o módulo de programa 125, são armazenadas em um meio legível por computador e são executáveis pela unidade de processamento 102 do computador 110. O módulo de programa 125 pode incluir uma aplicação de computador. Uma unidade de disco rígido, um CD-ROM, uma RAM, uma memória instantânea, e uma unidade USB são apenas alguns exemplos de artigos incluindo um meio legível por computador. A figura 2 ilustra uma representação gráfica de uma rede de sistemas de processamento de dados 200, nos quais aspectos da presente invenção podem ser implementados. O sistema de processamento de dados em rede 200 é uma rede de computadores, na qual as concretizações da presente invenção podem ser implementadas. Notar que o sistema 200 pode ser implementado no contexto de um módulo de software, tal como um módulo de programa 125. O sistema 200 inclui uma rede 202 em comunicação com um ou mais clientes 210, 212 e 214. A rede 202 é um meio que pode ser usado para proporcionar ligações de comunicação entre os vários dispositivos e computadores conectados conjuntamente dentro de um sistema de processamento de dados ligado em rede, tal como um sistema computacional 100. A rede 202 pode incluir conexões, tais como ligações de comunicação ligadas com fio, ligações de comunicação ligadas sem fio, ou cabos de fibra óptica. A rede 202 pode incluir comunicação com um ou mais servidores 204 e 206 e uma unidade de armazenamento de memória, tal como, por exemplo, uma memória ou base de dados 208.
No exemplo ilustrado, o servidor 204 e o servidor 206 são conectados a uma rede 202, juntamente com a unidade de armazenamento 208. Além disso, os clientes 210, 212 e 214 são conectados à rede 202. Esses clientes 210, 212 e 214 podem ser, por exemplo, computadores pessoais ou computadores em rede. O sistema computacional 100, ilustrado na figura 1, pode ser, por exemplo, um cliente, tais como os clientes 210, 212 e/ou 214. Alternativamente, os clientes 210, 212 e 214 podem ser, por exemplo, uma câmera fotográfica, uma câmera de vídeo, um dispositivo de rastreio, etc. O sistema computacional 100 pode ser também implementado como um servidor, tais como os servidores 204 e/ou 206, dependendo das considerações de projeto. No exemplo ilustrado, o servidor 204 proporciona dados, tais como arquivos de iniciação, imagens de sistemas operacionais, aplicação e atualizações de aplicações para os clientes 210, 212 e 214. Os clientes 210, 212 e 214 são, nesse exemplo, clientes para o servidor 204. O sistema de processamento de dados em rede 200 pode incluir servidores, clientes e outros dispositivos adicionais não mostrados. Especificamente, os clientes podem se conectar a qualquer elemento de uma rede de servidores, que proporcione conteúdo equivalente.
No exemplo ilustrado, o sistema de processamento de dados em rede 200 é a Internet com a rede 202, representando uma coleção mundial de redes e portas, que usam a suíte de protocolos de Protocolo de Controle de Transmissão / Protocolo de Internet (TCP/IP), para comunicação entre si. No coração da Internet fica uma estrutura de linhas de comunicação de dados de alta velocidade, entre os grandes nós ou computadores centrais, consistindo de milhares de sistemas computacionais comerciais, governamentais, educacionais e outros, que roteiam dados e mensagens. Naturalmente, o sistema de processamento de dados em rede 200 pode ser também implementado como vários diferentes tipos de redes, tais como, por exemplo, uma Intranet, uma rede de área local (LAN) ou uma rede de longa distância (WAN). As figuras 1 e 2 são intencionadas como exemplos e não como limitações arquitetônicas para as diferentes concretizações da presente invenção. A descrição a seguir é apresentada com relação às concretizações da presente invenção, que podem ser indicadas no contexto de um sistema de processamento de dados, tal como o sistema computacional 100, em conjunto com o programa 125, e o sistema de processamento de dados 200, e a rede 202, ilustrada nas figuras 1 e 2. A presente invenção, no entanto, não é limitada a qualquer aplicação particular ou qualquer meio físico particular. Em vez disso, aqueles versados na técnica vão verificar que o sistema e os métodos da presente invenção podem ser aplicados vantajosamente a vários softwares de sistemas e aplicações, incluindo sistemas de controle de bases de dados, processadores de texto e similares. Além do mais, a presente invenção pode ser indicada em várias diferentes plataformas, incluindo Macintosh, UNIX, LINUX e similares. Portanto, as descrições das concretizações exemplificativas, apresentadas a seguir, são para fins ilustrativos e não consideradas como uma limitação. A figura 3 ilustra um fluxograma de nível alto 300 de etapas de operações lógicas, associadas com um método de otimização de parâmetros, de acordo com as concretizações descritas. Esse método propicia uma otimização sem supervisão de parâmetros usados em algoritmos de rastreio de veículos ou objetos. O método começa no bloco 305. O bloco 310 indica que os dados de instrução são recebidos, por exemplo, em um sistema computacional 100. Os dados de instrução podem incluir dados de vídeo, tais como dados de uma câmera de vídeo de tráfego, uma câmera de vídeo de pedestres, ou outra câmera de rastreio. Em uma concretização preferida, os dados de vídeo de instrução e os quadros de imagens associados são obtidos de uma câmera, com um ajuste fixo em um local fixo. Esse local pode ser um sinal de tráfego, um cruzamento ou qualquer outro ponto de interesse.
Uma pessoa versada na técnica vai considerar que quando uma câmera é disposta, os ajustes associados da câmera, tais como a altura de montagem, o ângulo de inclinação, o zoom, pan, localização da câmera, etc., vão diferir de acordo com a localização da câmera. Desse modo, pode ser, consequentemente, necessário ajustar os parâmetros usados pelos algoritmos de rastreio. Esses parâmetros podem incluir os parâmetros descritos a seguir.
Um parâmetro de zona de detecção associado com as regiões, nas quais a detecção de veículo é feita. Um parâmetro de zona de detecção genérica usaria toda a região. Esse parâmetro pode ser ajustado, manual ou automaticamente, para limitar uma zona de detecção a uma região de interesse específica. Isso diminui as falsas leituras de áreas que não são de interesse e/ou tipicamente problemáticas para os algoritmos de detecção e rastreio (por exemplo, oclusão devido a um outro objeto fixo na cena, galhos que vão se movimentar / sacudir devido ao vento, etc.) e aperfeiçoar a eficiência computacional. Por exemplo, uma zona de detecção total de um cruzamento pode incluir galhos movimentando-se ao vento ou uma pista de rolamento lateral, que não é de interesse. O parâmetro de zona de detecção pode ser ajustado para ignorar essas regiões da zona de detecção.
Os parâmetros de limiares para o tamanho do veículo podem ser usados para determinar se o objeto móvel, em uma zona de detecção, é um veículo. Uma faixa razoável de tamanhos de veículos, em dimensões reais, pode ser estabelecida. No entanto, os ajustes da câmera podem afetar, drasticamente, os tamanhos nas unidades de pixels de imagens proporcio- nadas pela câmera. As unidades de pixels de imagens podem ser, portanto, convertidas em coordenadas reais, o que requer um conjunto relacionado de parâmetros dependentes de meio físico, que vão ser incorporados no método de ajuste de parâmetros.
Um parâmetro de disparo pode ser utilizado para determinar a sincronização para disparo de captura de imagem de um veículo, a identificação da placa, ou outra identificação. O parâmetro de disparo pode disparar um ou mais quadros de imagens para identificação de veículo, quando um novo veículo é detectado. Por exemplo, quando um veículo passa pela zona de detecção, o tempo ótimo para captura de uma placa de identificação de veículo, para identificar o veículo, pode se originar na medida em que o veículo passa pelo quadrante direito inferior da zona de detecção. O parâmetro de disparo pode também depender da direção relativa do tráfego, do ângulo de visão da câmera, etc. Todos esses fatores podem ser usados para encontrar a região na zona de detecção que corresponde à maior imagem do veículo, de modo que a placa de identificação do veículo seja, portanto, mais reconhecível.
Os parâmetros de medida de velocidade podem ser usados para medir ou derivar a veículo de um veículo na zona de detecção. Por exemplo, loops virtuais podem ser usados para medir a velocidade. Consistem, geralmente, de pelo menos um par de linhas virtuais, dispostas ortogonalmente nas vias na zona de detecção, com uma distância conhecida entre as linhas. A velocidade pode ser derivada por divisão da distância conhecida entre as linhas pelo tempo que leva para um veículo se deslocar de uma linha para a outra. De preferência, a distância física entre as linhas virtuais é significativa, mas não tão distante do foco da câmera. Se a linha estiver muito distante do foco, o rastreio fica mais fraco, na medida em que o objeto em deslocamento fica menor. Também, é preferível evitar áreas de oclusão, uma vez que o rastreio de objeto pode ser ruim nessas áreas. Por exemplo, se o quadrante direito superior estiver fora de foco ou ocluído por árvores, essa é uma seleção ruim par a colocação da linha virtual, e vai, portanto, precisar ser ajustada por uso do parâmetro de medida de velocidade.
Outros parâmetros, tais como as regras de classificação de vias, o tamanho da placa de identificação nas coordenadas de pixels de imagens, a distorção de projeção, os modelos de trajetórias de veículos comuns, o escoamento do tráfego, a hora do dia, e o limiar de informações de vias podem ser todos usados na presente invenção. A descrição precedente de parâmetros não é completa ou exclusiva, e não é intencionada para limitar o âmbito deste pedido de patente. Em vez disso, esses parâmetros são intencionados para ilustrar a natureza dos parâmetros, que podem ser usados de acordo com a presente invenção. Uma pessoa versada na técnica vai considerar que qualquer número de outros parâmetros podem ser também usados necessariamente em conjunto com a presente invenção. O método então continua no bloco 320, que mostra que os dados de instrução coletados são processados por uso de um algoritmo selecionado, com um conjunto de parâmetros inicial. O algoritmo de rastreio pode ser, por exemplo, um algoritmo de rastreio de veículo. A inicialização dos parâmetros é selecionada de acordo com a experiência passada com câmeras localizadas em situações similares. Os valores iniciais dos parâmetros precisam ser apenas estimados aproximadamente. Os dados de instrução são processados para estimar os componentes analíticos de rastreio, tais como os tamanhos e trajetórias. O resultado pode ser uma lista de objetos, correspondentes aos objetos em movimento pela zona de detecção, determinados do conjunto inicial de parâmetros. NO entanto, esses dados não são provavelmente ótimos como os parâmetros inicializados, resultando, provavelmente, em uma perda computacional significativa, objetos detectados falsamente correspondentes ao movimento de objetos não importantes, oclusão de galhos ou outros obstáculos naturais, etc. Esses componentes analíticos de vídeo são ilustrados pela seta 325. Desse modo, os parâmetros não precisam ser ajustados. O bloco 330 ilustra que um conjunto de parâmetros atualizados é derivado. Para atualizar o conjunto de parâmetros sem supervisão, é necessário desenvolver ainda métodos de derivação de parâmetros. Isso é exibido na figura 4, que ilustra um exemplo das etapas detalhadas associadas com o bloco 330 da figura 3.
Primeiro, o método associado com a etapa 330 começa como indicado pelo bloco 405. A seguir, os componentes analíticos de vídeo representativos são selecionados como descrito pelo bloco 410. Nessa etapa, todos os objetos detectados, cujas trajetórias foram bem localizadas, de a-cordo com um limiar predeterminado, ou em um tempo muito curto, são removidos. Essa etapa ajuda a eliminar as falsas detecções associadas com os galhos móveis ou um rastreio parcial devido a oclusão.
No bloco 420, os componentes analíticos de vídeo são agrupados e/ou reunidos. Nessa etapa, as trajetórias são agrupadas com base nas suas direções de deslocamento. Como um exemplo, essa etapa pode incluir para cada trajetória, a aplicação de uma técnica de filtração temporal, o ajuste de uma curva polinomial, o cálculo da direção de deslocamento, e a classificação da trajetória usando uma abordagem de agrupamento de meios K. Uma pessoa versada na técnica vai, naturalmente, considerar que outros métodos de agrupamento de trajetórias podem ser usados para configurações de trajetórias mais complexas, por exemplo, o rastreio de cruzamentos, rotatórias, estradas de rodagem, etc. A etapa seguinte é para selecionar grupos de interesse, como i-lustrado pelo bloco 430. Essa etapa promove a seleção de qual dos grupos mencionados acima manter, de acordo com alguns parâmetros predefinidos. Esse pode ser, por exemplo, o tamanho de pixels médio dos objetos no grupo. Essa seleção pode ser também feita de acordo com qualquer fator definidor, considerado necessário para a situação particular. Por exemplo, no caso no qual grandes vistas são necessárias para ver placas de identificação de veículos para identificação, faz sentido montar e apontar a câmera na direção mais adequada para esse fim. Desse modo, o grupo selecionado é aquele com o maior tamanho de pixels médio, para visão vantajosa das placas de identificação de veículos.
Finalmente, os parâmetros podem ser derivados com base nos componentes analíticos selecionados e nos algoritmos, como indicado pelo bloco 440. Após esta etapa, o método é finalizado, como ilustrado pelo bloco 445. Nesse ponto no método ilustrado nas figuras 3 e 4, um grupo ou vários grupos de interesse foram identificados. Então, outros parâmetros úteis podem ser derivados e atualizados.
Por exemplo, nesse estágio, um dispositivo de determinação de regra de disparo ótima pode ser determinado. Em virtude do tempo de disparo ótimo para identificação de veículo ser quando o objeto (tal como o próprio veículo ou mesmo a placa de identificação do veículo) é maior, esse se torna o ponto de disparo ótimo. Essa sincronização pode ser determinada com base no traço do tamanho do objeto com o tempo e nas formas, por exemplo, das placas de identificação dos veículos selecionados previamente para serem mantidos no grupo. O parâmetro de disparo ótimo pode também corresponder a outros fatores, como quando o objeto é menos distorcido.
Igualmente, na etapa 440, um parâmetro de determinação da zona de detecção pode ser definido. Como descrito acima, as caixas de limites relativas à zona de detecção são criadas e examinadas, quando um objeto é primeiramente detectado. Para reduzir o ruído, pontos adicionais ao longo da trajetória também podem ser examinados, se necessário. A zona de detecção ótima é então definida como a região mínima que abrangería todas as caixas de limites. Usando-se um mínimo permite-se uma computação eficiente por redução da probabilidade de seleção de uma área ocluída, ou zonas com deslocamento na direção errada. No entanto, pode também resultar em detecções falhas, se o vídeo de instrução não incluir o maior veículo de interesse. Esse problema pode ser solucionado de vários modos. A zona de detecção ótima pode ser aumentada manualmente de acordo com percentual pré-especificado, ou por inspeção do vídeo de instrução para i-dentificar o maior veículo. De outro modo, a caixa de limite pode ser ajustada de acordo com os dados da base de dados pública e por uso de extrapolação, para determinar o maior veículo de interesse comum. Finalmente, uma zona de detecção ótima pode ser manipulada por aplicação de uma máscara ou aumento do número de cantos na zona. Essa operação vai requerer um ser humano para que seja feita; embora, um treinamento mínimo dessa pessoa seja necessário, pois os ajustes são extremamente simples.
Um parâmetro de determinação de loops virtuais pode ser determinado e usado para medida de velocidade. Um quadro de imagem 500, associado com um par de parâmetros de determinação de loops virtuais, é ilustrado na figura 5. A figura 5 mostra três objetos 540, 541 e 542 sendo rastreados em uma zona de detecção 510. A seta 560 indica a direção de tráfego no lado direito dà via de rolamento 570. Primeiro, as trajetórias detectadas podem ser usadas para estimar a distorção projetiva (especificada por uma matriz projetiva) da visão da câmera. Isso proporciona uma indicação da direção na imagem, que é ortogonal à via de rolamento, de modo que o loop virtual possa ser estabelecido. A seguir, as trajetórias são convertidas em coordenadas não distorcidas, em que o loop virtual é simplesmente definido pelas linhas horizontais 520 e 521, mostradas na figura 5. Finalmente, uma determinação de que linhas horizontais são ótimas pode ser feita. Em geral, as duas linhas 520 e 521 devem ser colocadas o mais distante possível entre si, embora ainda abranjam as seções das trajetórias para algum percentual dos objetos sendo rastreados. Isso propicia a interpolação, em vez de extrapolação, do tempo exato para um objeto cruzar o loop virtual. Além disso, a maior distância propicia uma medida de velocidade, que é menos sensível a erro associado com a distância entre as duas linhas horizontais 530 no loop virtual.
Alternativamente, o loop virtual pode ser definido por detecção de marcas de via de rolamento e/ou marcos divisórios conhecidos na região detectada, tal como, por exemplo, o marco divisório 550. Isso pode ser parti-cularmente útil, quando há no local uma infraestrutura existente. Isso pode ser ainda suportado pelas informações ou infraestrutura existentes, proporcionadas pelo Departamento de Transporte ou outra dessas organizações. Se essa infraestrutura existe e as marcas ou marcos divisórios de vias de rolamento têm distâncias conhecidas entre eles, a distorção projetiva pode ser estimada usando essas informações. Os loops virtuais vão ser colocados o mais próximo possível do marco divisório, sem passar por uma zona de oclusão, ou quando necessário, com uma sobreposição mínima de uma zona de oclusão. Esse método pode ser usado para ajuste fino de um parâme- tro de loop virtual, e pode ser usado opcionalmente como um loop virtual ótimo sugerido, que pode ser depois validado ou ajustado por um ser humano.
Outros fatores também precisam ser abordados com relação aos loops virtuais. Por exemplo, podem ser necessárias estimativas de aceleração. Isso pode ser obtido por subdivisão das regiões entre dois loops virtuais, uniformemente em espaço não distorcido, para gerar loops virtuais extras para resolução mais fina de medidas de velocidade.
Um determinador de classificação de pista pode ser também i-dentificado. Esse parâmetro é usado simplesmente para identificar as pistas nas quais os veículos estão passando a um certo momento do dia ou por uma certa extensão de via. Esse parâmetro pode ser útil na identificação de motoristas agressivos. A presente concretização da invenção propicia uma instrução de identificação de pista em uma sequência de vídeo inicial, que mostra veículos se deslocando ao longo das pistas de interesse. Um método de agrupamento de trajetória, tal como o Modelo de Mistura Gaussiana (GMM), que é baseado nos locais (x, y) e, opcionalmente, o tamanho da caixa de limite detectada de um veículo para cada ponto ao longo de uma determinada trajetória, pode ser usado para agrupar a trajetória observada em um conjunto de pistas na cena. A trajetória média de cada pista identificada, no conjunto de pistas, é então calculada. A localização associada com a trajetória média de cada pista é armazenada. Quando uma nova trajetória é observada durante a execução, essa distância da trajetória da trajetória média é calculada. Um presente limiar é então usado para determinar automaticamente a que pista a nova trajetória pertence. Um ser humano pode rever periodicamente essa marcação e corrigir quaisquer trajetórias mal marcadas. Essas trajetórias pode ser depois usadas para atualizar a localização da trajetória média armazenada. Vários outros determinadores de parâmetros também podem ser usados. Essas extensões incluem determinadores para o tamanho de placas de identificação, as matrizes de distorções projetivas para as placas de identificação associadas com cada pista, a extração de modelos de veículos, os parâmetros associados com o tempo, data ou condições metereológicas de uma determinada cena, ou outros parâmetros úteis. Algumas dessas extensões vão requerer maiores conjuntos de vídeos de instrução, por exemplo, amostras baseadas em condições de tempo variáveis. Igualmente, podem ser necessários algoritmos de autoconhecimento específicos, que podem ser desenvolvidos se necessários.
Nesse ponto, o método mostrado na figura 3 continua no bloco 340, no qual uma validação do conjunto atualizado de parâmetros pode ser feita. Essa validação pode ser baseada em uma medida de desempenho pré-selecionada, ou por uma inspeção manual. Por exemplo, o vídeo de instrução pode ser então reanalisado com o conjunto de parâmetros atualizados, para determinar se o aprendizado sem supervisão foi efetivo, de acordo com uma medida de desempenho pré-selecionada. A medida de desempenho pode incluir uma consideração do custo computacional, quando esse custo deve usar memória e tempo iguais ou inferiores; a taxa de detecção, na qual nenhum veículo de interesse foi perdido; e a convergência do conjunto de parâmetros atualizados. O bloco 350 se refere à checagem para convergência do conjunto de parâmetros atualizados. Se os parâmetros forem validados como mostrado no bloco 351, o método termina. Se os parâmetros não são validados, como mostrado pelo bloco 352, o vídeo de instrução é processado de novo com o conjunto de parâmetros atualizados no bloco 360, e depois retorna para o bloco 330, no qual as etapas são repetidas. Desse modo, um loop iterativo é criado para checar a convergência do conjunto de parâmetros a-tualizados. O bloco 350 se refere à checagem para convergência do conjunto de parâmetros atualizados. Se os parâmetros forem validados como mostrado no bloco 351, o método termina. Se os parâmetros não são validados, como mostrado pelo bloco 352, o vídeo de instrução é processado de novo com o conjunto de parâmetros atualizados no bloco 360, e depois retorna para o bloco 330, no qual as etapas são repetidas. Desse modo, um loop iterativo é criado para checar a convergência do conjunto de parâmetros a- tualizados. O método descrito acima pode requerer calibração e/ou intervenção humana periódica, para obter um nível de precisão desejado. Portanto, é um outro aspecto da presente invenção proporcionar uma ferramenta auxiliada por computador, para simplificar os ajustes de parâmetros, que são dependentes de aplicação e dependentes de meio físico. Isso pode ser atingido por uso de uma interface gráfica de usuário (GUI), em conjunto com o sistema computacional e a rede mostrados nas figuras 1 e 2. Um exemplo de uma GUI 130, mostrada na figura 1, é proporcionado para ajudar um ser humano a validar ou ajustar os parâmetros atualizados derivados pelo método de aprendizado sem supervisão, descrito acima nas figuras 3 e 4.
Uma GUI exemplificativa para validar ou modificar os ajustes de parâmetros é mostrada nas figuras 6a e 6b. Em geral, a GUI 130, ilustrada na figura 6a, proporciona várias cenas da zona de detecção, tal como a zona de detecção 600. Isso pode incluir imagens sobrepostas de objetos detectados, quando são primeiramente detectados, e a zona de detecção ótima. O usuário pode então aprovar ou modificar a cena pela GUI. Os objetos sobrepostos e as zonas de detecção proporcionadas do método das figuras 3 e 4 ajudam a orientar o usuário. Por exemplo, se nenhum veículo grande é encontrado na imagem sobreposta, o usuário pode aumentar a zona de detecção 600. Ainda mais, vários botões 605 são proporcionados pela GUI, o que propicia manipulação assistida dos ajustes de parâmetros. A GUI 130 pode também proporcionar instruções ao usuário de como operar a GUI, tais como instruções na barra superior 610. A GUI pode também incluir funções de desenho padrões (não mostradas) na barra superior 610, que permitem que um usuário manipule as linhas e os polígonos mostrados na GUI.
Por exemplo, na figura 6b, o botão de loops virtuais 606 é proporcionado na GUI 130. A ativação desse botão vai selecionar um objeto detectado dos dados de vídeo e sobrepor as duas imagens desse objeto, quando intercepta o loop ótimo 620 (isto é, em dois tempos diferentes). O usuário pode investigar os dados proporcionados pelo método automatizado e aprovar ou modificar o mesmo por uso da GUI. Por exemplo, a GUI pode ser usada para orientar o usuário para modificar as linhas horizontais, que definem o loop virtual 610, para alinhamento com as bordas do veículo ou ortogonalmente à direção da via de rolamento.
Desse modo, a GUI, por exemplo, a GUI 130, pode ser usada para mostrar alguns dos componentes analíticos de vídeo gerados automaticamente com um conjunto de quadros de vídeo, para ajudar a orientar o o-perador em como é melhor selecionar ou modificar os parâmetros. Uma pessoa versada na técnica vai considerar que qualquer número de parâmetros associados com os componentes analíticos do vídeo pode ser ajustado ou aprovado desse modo. A GUI 130 pode também inclui deslizadores ou campos de texto manuais (não mostrados), que podem ser usados, por e-xemplo, para modificar os limiares dos tamanhos dos veículos, ou outros parâmetros numéricos associados com os parâmetros.
Com base no que foi mencionado acima, pode-se considerar que várias concretizações, preferidas e alternativas, são descritas no presente relatório descritivo. Por exemplo, em uma concretização, um método pode ser implementado para otimização dos parâmetros. Esse método pode incluir, por exemplo, receber uma série de quadros de imagens, e processar a série de quadros de imagens utilizando um algoritmo de rastreio, com um conjunto de parâmetros inicializado. Esse método pode incluir também criar um conjunto de parâmetros atualizados, de acordo com os quadros de imagens processados de entre a série de quadros de imagens, e validar o conjunto de parâmetros atualizados, utilizando uma medida de desempenho para otimizar automaticamente o conjunto de parâmetros para o algoritmo de rastreio.
Em outra concretização, a operação ou etapa para receber a série de quadros de imagens pode compreender ainda coletar a série de quadros de imagens de pelo menos uma câmera de vídeo, com um ajuste fixo em um local fixo. Em outras concretizações, a operação ou etapa para processar a série de quadros de imagens pode compreender ainda estimar os componentes analíticos de rastreio para os quadros de imagens recebidos de entre a série de quadros de imagens. Em mais uma outra concretização, a operação ou etapa de criação do conjunto de parâmetros atualizados, de acordo com os quadros de imagens processados de entre a série de quadros de imagens, pode compreender ainda derivar o conjunto de parâmetros atualizados utilizando os componentes analíticos de rastreio, em resposta à estimativa dos componentes analíticos de rastreio de acordo com os quadros de imagens recebidos de entre a série de quadros de imagens.
Em mais outras concretizações, a série de quadros de imagens mencionada acima pode ser um vídeo de tráfego de instrução e/ou um vídeo de instrução para rastreio de um ser humano. Em mais outras concretizações, a operação ou etapa de validação do conjunto de parâmetros atualizados, utilizando a medida de desempenho para otimizar, automaticamente, o parâmetro para rastreio, o algoritmo de rastreio pode compreender ainda a validação do conjunto de parâmetros atualizados por inspeção manual do conjunto de parâmetros atualizados, utilizando uma interface gráfica de usuário associada com um computador. Em outra concretização, a etapa de validação do conjunto de parâmetros atualizados, por inspeção manual do conjunto de parâmetros atualizados usando a interface gráfica de usuário associada com o computador, pode incluir ainda exibir a análise de vídeo dos quadros de imagens, proporcionando, desse modo, uma atualização semiau-tomática do conjunto de parâmetros.
Em outra concretização, um método para otimização de parâmetros pode ser implementado. Esse método pode incluir: receber uma série de quadros de imagens coletada de uma câmera de vídeo, com um ajuste fixo em um local fixo; processar a série de quadros de imagens utilizando um algoritmo de rastreio com um conjunto de parâmetros inicializado; estimar os componentes analíticos de rastreio para os quadros de imagens recebidos de entre a série de quadros de imagens; criar um conjunto de parâmetros atualizados utilizando os componentes analíticos de rastreio, de acordo com os quadros de imagens processados de entre a série de quadros de imagens; e validar o conjunto de parâmetros atualizados utilizando a medida de desempenho, para otimizar automaticamente o conjunto de parâmetros para o algoritmo de rastreio.
Em mais uma outra concretização, um sistema para otimização de parâmetros pode ser proporcionado, que inclui, por exemplo, um processador, um barramento de dados acoplado ao processador, e um meio utilizável por computador incorporando um código de computador. O meio utilizável por computador pode ser acoplado (por exemplo, conectado eletricamente ou em comunicação elétrica) ao barramento de dados. O código de programa de computador pode compreender instruções executáveis pelo processador, e configurado para receber uma série de quadros de imagens, processar a série de quadros de imagens utilizando um algoritmo de rastreio, com um conjunto de parâmetros inicializado, criar um conjunto de parâmetros atualizados de acordo com os quadros de imagens processados de entre a série de quadros de imagens, e validar o conjunto de parâmetros atualizados utilizando uma medida de desempenho, para otimizar automaticamente o conjunto de parâmetros para o algoritmo de rastreio.
Em outras concretizações, essas instruções podem ser ainda configuradas para coletar a série de quadros de imagens de uma câmera de vídeo, com um ajuste fixo em um local fixo. Em outra concretização, essas instruções podem ser configuradas para estimar os componentes analíticos de rastreio, de acordo com os quadros de imagens recebidos de entre a série de quadros de imagens. Em mais uma outra concretização, essas instruções podem ser configuradas ainda para derivar o conjunto de parâmetros atualizado utilizando os componentes analíticos de rastreio estimados. Em outra concretização, a série de quadros de imagens mencionada acima pode compreender, por exemplo, um vídeo de instrução de tráfego e/ou um vídeo de instrução para rastreio de um ser humano.
Em mais outras concretizações, essas instruções podem ser a-inda configuradas para validar o conjunto de parâmetros atualizados por inspeção manual do conjunto de parâmetros atualizados, utilizando uma interface gráfica de usuário associada com um computador. Em outra concretização, essas instruções podem ser configuradas para validar o conjunto de parâmetros atualizados por exibição de uma análise de vídeo da série de quadros de imagens, e inspecionar manualmente o conjunto de parâmetros atualizados utilizando a interface gráfica de usuário associada com o computador, para proporcionar uma atualização semiautomática do conjunto de parâmetros.
Ainda que as concretizações tenham sido particularmente mostradas e descritas no presente relatório descritivo, aqueles versados na técnica vão entender que várias mudanças nas forma e detalhes podem ser feitas nelas, sem que se afaste dos espírito e âmbito dessas concretizações. Considera-se que as variações dos aspectos e funções descritos acima e de outros, ou alternativas deles, podem ser combinados desejavelmente em muitos outros sistemas ou aplicações diferentes. Também, as várias alternativas, modificações, variações ou aperfeiçoamentos atualmente imprevistos ou não prognosticados podem ser também, subsequentemente, intencionados para que sejam abrangidos pelas reivindicações que se seguem.

Claims (20)

1. Método para otimização de parâmetros, o dito método compreendendo: receber uma série de quadros de imagens; processar a dita série de quadros de imagens utilizando um algoritmo de rastreio, com um conjunto de parâmetros inicializado; criar um conjunto de parâmetros atualizados, de acordo com os quadros de imagens processados de entre a dita série de quadros de imagens; e validar o dito conjunto de parâmetros atualizados utilizando uma medida de desempenho, para otimizar automaticamente o dito conjunto de parâmetros para o dito algoritmo de rastreio.
2. Método de acordo com a reivindicação 1, em que receber a dita série de quadros de imagens compreende ainda: coletar a dita série de quadros de imagens de pelo menos uma câmera de vídeo, com um ajuste fixo em um local fixo.
3. Método de acordo com a reivindicação 2, em que processar a dita série de quadros de imagens compreende ainda: estimar os componentes analíticos de rastreio, de acordo com os quadros de imagens recebidos de entre a dita série de quadros de imagens.
4. Método de acordo com a reivindicação 3, em que criar o dito conjunto de parâmetros atualizados, de acordo com os ditos quadros de i-magens processados de entre a dita série de quadros de imagens, compreende ainda: derivar o dito conjunto de parâmetros atualizados utilizando os ditos componentes analíticos de rastreio estimados, em resposta à estimativa dos ditos componentes analíticos de rastreio, de acordo com os ditos quadros de imagens recebidos de entre a dita série de quadros de imagens.
5. Método de acordo com a reivindicação 4, em que a dita série de quadros de imagens compreende um vídeo de instrução de tráfego.
6. Método de acordo com a reivindicação 4, em que a dita série de quadros de imagens compreende um vídeo de instrução para rastreio de um ser humano.
7. Método de acordo com a reivindicação 1, em que validar o dito conjunto de parâmetros atualizados utilizando a dita medida de desempenho, para otimizar automaticamente o dito conjunto de parâmetros para o dito algoritmo de rastreio, compreende ainda: validar o dito conjunto de parâmetros atualizados por inspeção manual do dito conjunto de parâmetros atualizados, utilizando uma interface gráfica de usuário associada com um computador.
8. Método de acordo com a reivindicação 7, em que validar o dito conjunto de parâmetros atualizados por inspeção manual do dito conjunto de parâmetros atualizados, usando a dita interface gráfica de usuário associada com o dito computador, inclui: exibir análise de vídeo dos ditos quadros de imagens, proporcionando, desse modo, uma atualização semiautomática do dito conjunto de parâmetros.
9. Método para otimização de parâmetros, o dito método compreendendo: receber uma série de quadros de imagens coletada de uma câmera de vídeo, com um ajuste fixo em um local fixo; processar a dita série de quadros de imagens utilizando um algoritmo de rastreio, com um conjunto de parâmetros inicializado; estimar os componentes analíticos de rastreio, de acordo com os quadros de imagens recebidos de entre a dita série de quadros de imagens, criar um conjunto de parâmetros atualizados utilizando os ditos i componentes analíticos de rastreio, de acordo com os quadros de imagens processados de entre a dita série de quadros de imagens, e validar o dito conjunto de parâmetros atualizados utilizando uma medida de desempenho, para otimizar automaticamente o dito conjunto de parâmetros para o dito algoritmo de rastreio.
10. Método de acordo com a reivindicação 9, em que a dita série de quadros de imagens compreende pelo menos um de: um vídeo de instrução de tráfego e um vídeo de instrução para rastreio de um ser humano.
11. Método de acordo com a reivindicação 9, em que validar o dito conjunto de parâmetros atualizados inclui ainda: validar o dito conjunto de parâmetros atualizados por inspeção manual do dito conjunto de parâmetros atualizados, utilizando uma interface gráfica de usuário associada com um computador.
12. Método de acordo com a reivindicação 11, em que validar o dito conjunto de parâmetros atualizados por inspeção manual do dito conjunto de parâmetros atualizados, usando a dita interface gráfica de usuário associada com o dito computador, compreende ainda: exibir análise de vídeo da dita série de quadros de imagens, para proporcionar uma atualização semiautomática do dito conjunto de parâmetros.
13. Sistema para otimização de parâmetros, o dito sistema compreendendo: um processador; um barramento de dados acoplado ao dito processador, e um meio utilizável por computador incorporando um código de computador, o dito meio utilizável por computador sendo acoplado ao dito barramento de dados, o dito programa de computador compreendendo instruções executáveis pelo dito processador, e configurado para. receber uma série de quadros de imagens; processar a dita série de quadros de imagens utilizando um algoritmo de rastreio, com um conjunto de parâmetros inicializado, criar um conjunto de parâmetros atualizados de acordo com os i ditos quadros de imagens processados de entre a dita série de quadros de imagens; e validar o dito conjunto de parâmetros atualizados utilizando uma medida de desempenho, para otimizar automaticamente o dito conjunto de parâmetros para o dito algoritmo de rastreio.
14. Sistema de acordo com a reivindicação 13, em que as ditas instruções são ainda configuradas para: coletar a dita série de quadros de imagens de uma câmera de vídeo, com um ajuste fixo em um local fixo.
15. Sistema de acordo com a reivindicação 14, em que as ditas instruções são ainda configuradas para: estimar os componentes analíticos de rastreio, de acordo com os ditos quadros de imagens recebidos de entre a dita série de quadros de i-magens.
16. Sistema de acordo com a reivindicação 15, em que as ditas instruções são ainda configuradas para: derivar o dito conjunto de parâmetros atualizados utilizando os ditos componentes analíticos de rastreio estimados.
17. Sistema de acordo com a reivindicação 16, em que a dita série de quadros de imagens compreende um vídeo de instrução de tráfego.
18. Sistema de acordo com a reivindicação 16, em que a dita série de quadros de imagens compreende um vídeo de instrução para rastreio de um ser humano.
19. Sistema de acordo com a reivindicação 13, em que as instruções são ainda configuradas para: validar o dito conjunto de parâmetros atualizados por inspeção manual do dito conjunto de parâmetros atualizados, utilizando uma interface gráfica de usuário associada com um computador.
20. Sistema de acordo com a reivindicação 13, em que as ditas instruções são ainda configuradas para: validar o dito conjunto de parâmetros atualizados por exibição de uma análise de vídeo da dita série de quadros de imagens, e ; inspecionar manualmente o dito conjunto de parâmetros atuali- zados, utilizando a dita interface gráfica de usuário associada com o dito computador, para proporcionar uma atualização semiautomática do dito conjunto de parâmetros.
BR102012021598-5A 2011-09-01 2012-08-28 método e sistema para otimização de parâmetros BR102012021598B1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/223,420 2011-09-01
US13/223,420 US8582811B2 (en) 2011-09-01 2011-09-01 Unsupervised parameter settings for object tracking algorithms

Publications (2)

Publication Number Publication Date
BR102012021598A2 true BR102012021598A2 (pt) 2014-12-02
BR102012021598B1 BR102012021598B1 (pt) 2021-04-06

Family

ID=47753205

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102012021598-5A BR102012021598B1 (pt) 2011-09-01 2012-08-28 método e sistema para otimização de parâmetros

Country Status (3)

Country Link
US (1) US8582811B2 (pt)
BR (1) BR102012021598B1 (pt)
MX (1) MX2012009946A (pt)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917910B2 (en) * 2012-01-16 2014-12-23 Xerox Corporation Image segmentation based on approximation of segmentation similarity
US8971573B2 (en) * 2012-09-12 2015-03-03 Xerox Corporation Video-tracking for video-based speed enforcement
US9390329B2 (en) 2014-04-25 2016-07-12 Xerox Corporation Method and system for automatically locating static occlusions
US9390328B2 (en) 2014-04-25 2016-07-12 Xerox Corporation Static occlusion handling using directional pixel replication in regularized motion environments
US9875664B2 (en) 2014-06-02 2018-01-23 Xerox Corporation Virtual trainer optimizer method and system
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
KR20160071242A (ko) * 2014-12-11 2016-06-21 삼성전자주식회사 안구 움직임에 기반한 컴퓨터 보조 진단 장치 및 방법
CN107977596A (zh) * 2016-10-25 2018-05-01 杭州海康威视数字技术股份有限公司 一种车牌状态识别方法及装置
US10309787B2 (en) * 2016-11-10 2019-06-04 Sap Se Automatic movement and activity tracking
US10796185B2 (en) * 2017-11-03 2020-10-06 Facebook, Inc. Dynamic graceful degradation of augmented-reality effects
CN108596955B (zh) * 2018-04-25 2020-08-28 Oppo广东移动通信有限公司 一种图像检测方法、图像检测装置及移动终端
CN111292359A (zh) * 2018-12-06 2020-06-16 西安光启未来技术研究院 算法的性能衡量方法及装置
CN111563913B (zh) * 2020-04-15 2021-12-10 上海摩象网络科技有限公司 基于跟踪目标的搜索方法、设备及其手持相机
US20220165060A1 (en) * 2020-11-20 2022-05-26 Miovision Technologies Incorporated Automatic and Semi-Automatic Traffic Configuration System

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754663B1 (en) 1998-11-23 2004-06-22 Nestor, Inc. Video-file based citation generation system for traffic light violations
WO2000031707A1 (en) 1998-11-23 2000-06-02 Nestor, Inc. Non-violation event filtering for a traffic light violation detection system
CN100533482C (zh) * 1999-11-03 2009-08-26 特许科技有限公司 基于视频的交通监控系统的图像处理技术及其方法
US7821422B2 (en) 2003-08-18 2010-10-26 Light Vision Systems, Inc. Traffic light signal system using radar-based target detection and tracking
US7688222B2 (en) 2003-09-18 2010-03-30 Spot Devices, Inc. Methods, systems and devices related to road mounted indicators for providing visual indications to approaching traffic
US7403664B2 (en) 2004-02-26 2008-07-22 Mitsubishi Electric Research Laboratories, Inc. Traffic event detection in compressed videos
US20060170769A1 (en) * 2005-01-31 2006-08-03 Jianpeng Zhou Human and object recognition in digital video
US8098889B2 (en) * 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking
US7953544B2 (en) * 2007-01-24 2011-05-31 International Business Machines Corporation Method and structure for vehicular traffic prediction with link interactions

Also Published As

Publication number Publication date
BR102012021598B1 (pt) 2021-04-06
US20130058523A1 (en) 2013-03-07
MX2012009946A (es) 2013-03-15
US8582811B2 (en) 2013-11-12

Similar Documents

Publication Publication Date Title
BR102012021598A2 (pt) Ajustes sem supervisão de parâmetros para algoritmos de rastreio de objetos
US10360247B2 (en) System and method for telecom inventory management
US9870704B2 (en) Camera calibration application
CN105809658B (zh) 关心区域设定方法及装置
US9754178B2 (en) Long-term static object detection
JP2018087484A (ja) ひび割れ解析装置、ひび割れ解析方法及びひび割れ解析プログラム
US8885885B2 (en) Multi-cue object association
US11068713B1 (en) Video-based intelligent road traffic universal analysis
US20160180201A1 (en) Image processing
JP7305965B2 (ja) ビデオ監視システムのパラメータ設定方法、装置及びビデオ監視システム
KR102279339B1 (ko) 감염병 확산 위치 예측 시뮬레이션 장치 및 시스템 및 방법
WO2018133101A1 (zh) 图像前景检测装置及方法、电子设备
KR101842141B1 (ko) 3차원 스캐닝 장치 및 방법
WO2021036243A1 (zh) 识别车道的方法、装置及计算设备
BR112020020949A2 (pt) método de registro de imagem de fluorescência, instrumento e sistema de sequenciamento genético e meio de armazenagem
CN111008609B (zh) 交通灯与车道的匹配方法、装置及电子设备
CN115460353B (zh) 教学跟踪摄像设备配置方法、装置、电子设备及介质
JP6087218B2 (ja) 画像解析装置
CN117575878B (zh) 交通设施资产数据智能管理方法、装置、电子设备和介质
US20220165060A1 (en) Automatic and Semi-Automatic Traffic Configuration System
JP7450182B2 (ja) 地上物体検出システム、地上物体検出方法及びプログラム
KR20190070235A (ko) 비전 기반 위치 추정 기법을 이용한 6-자유도 상대 변위 추정 방법 및 그 장치
KR20170090081A (ko) 컴퓨터 비전을 사용한 교통량 측정 방법 및 시스템
KR20240066001A (ko) 신호등의 신호 상태를 판단하는 방법 및 장치
KR20230056250A (ko) 인공지능 기반 차선 손상 상태 평가 방법 및 장치

Legal Events

Date Code Title Description
B15U Others concerning applications: numbering cancelled

Free format text: NUMERACAO ANULADA POR NAO CUMPRIMENTO DE EXIGENCIA PUBLICADA NA RPI 2210, DE 14/05/13

B150 Others concerning applications: publication cancelled [chapter 15.30 patent gazette]

Free format text: PUBLICACAO ANULADA POR TER SIDO INDEVIDA. REFERENTE A RPI 2225, DE 27/08/2013, COD. DE DESPACHO 15.21.

B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 8A ANUIDADE.

B08G Application fees: restoration [chapter 8.7 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 28/08/2012, OBSERVADAS AS CONDICOES LEGAIS.

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 11A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2737 DE 20-06-2023 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.