ES2522589T3 - Sistema de reconocimiento conductual - Google Patents

Sistema de reconocimiento conductual Download PDF

Info

Publication number
ES2522589T3
ES2522589T3 ES08729422.9T ES08729422T ES2522589T3 ES 2522589 T3 ES2522589 T3 ES 2522589T3 ES 08729422 T ES08729422 T ES 08729422T ES 2522589 T3 ES2522589 T3 ES 2522589T3
Authority
ES
Spain
Prior art keywords
frame
objects
scene
identified
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08729422.9T
Other languages
English (en)
Inventor
John Eric Eaton
Wesley Kenneth Cobb
Dennis Gene Urech
Bobby Ernest Blythe
David Samuel Friedlander
Rajkiran Kumar Gottumukkal
Lon William Risinger
Kishor Adinath Saitwal
Ming-Jung Seow
David Marvin Solum
Gang Xu
Tao Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Behavioral Recognition Systems Inc
Original Assignee
Behavioral Recognition Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=39682435&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2522589(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Behavioral Recognition Systems Inc filed Critical Behavioral Recognition Systems Inc
Application granted granted Critical
Publication of ES2522589T3 publication Critical patent/ES2522589T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B23/00Alarms responsive to unspecified undesired or abnormal conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Un procedimiento para procesar un flujo de tramas de vídeo que registra sucesos dentro de una escena, comprendiendo el procedimiento: recibir una primera trama del flujo (210, 215), en el que la primera trama incluye datos para una pluralidad de píxeles incluidos en la trama; identificar uno o más grupos de píxeles en la primera trama, en el que cada grupo representa un objeto dentro de la escena (225); generar un modelo de búsqueda que almacena una o más características asociadas con cada objeto identificado; clasificar cada uno de los objetos usando un clasificador entrenado (235); rastrear, en una segunda trama, cada uno de los objetos identificados en la primera trama usando el modelo de búsqueda (230); suministrar la primera trama, la segunda trama y las clasificaciones de objetos a un motor de aprendizaje automático; y generar, por el motor de aprendizaje automático, una o más representaciones semánticas de conducta en la que toman parte los objetos en la escena a lo largo de una pluralidad de tramas (245), en el que el motor de aprendizaje automático está configurado para aprender patrones de conducta observada en la escena a lo largo de la pluralidad de tramas (255) y para identificar apariciones de los patrones de conducta en la que toman parte los objetos clasificados (260).

Description

5
10
15
20
25
30
35
40
45
50
55
E08729422
30-10-2014
DESCRIPCIÓN
Sistema de reconocimiento conductual
Antecedentes de la invención
Campo de la invención
La presente invención se refiere, en general, al análisis de vídeo, y más en particular a analizar y aprender una conducta en base a la generación de una corriente de datos de vídeo.
Descripción de la técnica relacionada
Algunos sistemas de vídeo vigilancia actualmente disponibles tienen unas capacidades de reconocimiento simples. No obstante, muchos sistemas de vigilancia de este tipo requieren un conocimiento avanzado (antes de que se haya desarrollado un sistema) de las acciones y / o los objetos que los sistemas han de ser capaces de buscar. Debe desarrollarse un código de aplicación subyacente dirigido a conductas “anormales” específicas para que estos sistemas de vigilancia sean operativos y lo bastante funcionales. Dicho de otra forma, a menos que el código subyacente al sistema incluya descripciones de determinadas conductas, el sistema será incapaz de reconocer tales conductas. Además, para conductas distintas, a menudo es necesario desarrollar unos productos de soporte lógico independientes. Esto hace que los sistemas de vigilancia con capacidades de reconocimiento sean laboriosos y prohibitivamente costosos. Por ejemplo, supervisar entradas de aeropuertos en busca de criminales al acecho e identificar nadadores que no se están moviendo en una piscina son dos situaciones distintas y, por lo tanto, pueden requerir el desarrollo de dos productos de soporte lógico distintos que tengan sus respectivas conductas “anormales” previamente codificadas.
Los sistemas de vigilancia también pueden diseñarse para memorizar escenas normales y generar una alarma siempre que cambie lo que se considera normal. No obstante, estos tipos de sistemas de vigilancia han de estar preprogramados para saber cuánto de anormal es el cambio. Además, tales sistemas no pueden caracterizar con precisión lo que ha tenido lugar en realidad. En su lugar, estos sistemas determinan que algo previamente considerado “normal” ha cambiado. Por lo tanto, los productos desarrollados de tal forma están configurados para detectar solo un margen limitado de un tipo previamente definido de conducta.
El documento WO2006 / 012645 describe un sistema sensitivo que combina detección, rastreo y visualización envolvente de un entorno atestado y abarrotado, tal como un edificio de oficinas, una terminal, u otro sitio cerrado usando una red de cámaras estereoscópicas. Un vigilante supervisa el sitio usando un modelo en 3D en directo, que se actualiza a partir de diferentes direcciones usando los múltiples flujos de vídeo.
Sumario de la invención
Realizaciones de la presente invención proporcionan un procedimiento y un sistema para analizar y aprender una conducta basándose en un flujo adquirido de tramas de vídeo. Los objetos representados en el flujo se determinan basándose en un análisis de las tramas de vídeo. Cada objeto puede tener un modelo de búsqueda correspondiente, que se usa para rastrear los movimientos de los objetos trama a trama. Se determinan las clases de los objetos y se generan representaciones semánticas de los objetos. Las representaciones semánticas se usan para determinar las conductas de los objetos y para aprender acerca de conductas que tienen lugar en un entorno representado por los flujos de vídeo adquiridos. De esta forma, el sistema aprende con rapidez y en tiempo real conductas normales y anormales para cualquier entorno mediante el análisis de movimientos o actividades o ausencia de las mismas en el entorno e identifica y predice una conducta anormal y sospechosa basándose en lo que se ha aprendido.
Una realización particular de la invención incluye un procedimiento para procesar un flujo de tramas de vídeo que registran sucesos dentro de una escena. El procedimiento puede incluir en general recibir una primera trama del flujo. La primera trama incluye datos para una pluralidad de píxeles incluidos en la trama. El procedimiento puede incluir además identificar uno o más grupos de píxeles en la primera trama. Cada grupo representa un objeto dentro de la escena. El procedimiento puede incluir todavía adicionalmente generar un modelo de búsqueda que almacena una o más características asociadas con cada objeto identificado, clasificar cada uno de los objetos usando un clasificador entrenado, rastrear, en una segunda trama, cada uno de los objetos identificados en la primera trama usando el modelo de búsqueda, y suministrar la primera trama, la segunda trama y las clasificaciones de objeto a un motor de aprendizaje automático. El procedimiento puede incluir todavía adicionalmente generar, por el motor de aprendizaje automático, una o más representaciones semánticas de conducta en la que toman parte los objetos en la escena a lo largo de una pluralidad de tramas. El motor de aprendizaje automático puede configurarse en general para aprender patrones de conducta observada en la escena a lo largo de la pluralidad de tramas y para identificar apariciones de los patrones de conducta en la que toman parte los objetos clasificados.
Breve descripción de los dibujos
Para que la forma en la que las características, ventajas y objetos que se han enunciado en lo que antecede de la
E08729422
30-10-2014
presente invención se obtengan y puedan entenderse con detalle, una descripción más particular de la invención, que se ha resumido brevemente en lo que antecede, puede tenerse por referencia a las realizaciones que se ilustran en los dibujos adjuntos.
Ha de observarse, no obstante, que los dibujos adjuntos ilustran solo realizaciones típicas de la presente invención 5 y, por lo tanto, no han de considerarse limitantes de su ámbito, ya que la invención puede admitir otras realizaciones igualmente eficaces.
La figura 1 es un diagrama de bloques de alto nivel de un sistema de reconocimiento de conducta, de acuerdo con una realización de la presente invención.
La figura 2 ilustra un diagrama de flujo de un procedimiento para analizar y aprender una conducta basándose en 10 un flujo de tramas de vídeo, de acuerdo con una realización de la presente invención.
La figura 3 ilustra un módulo de segundo plano -primer plano de un motor de visión de ordenador, de acuerdo con una realización de la presente invención.
La figura 4 ilustra un módulo para rastrear objetos de interés en un motor de visión de ordenador, de acuerdo con una realización de la presente invención.
15 La figura 5 ilustra un módulo de estimador / identificador de un motor de visión de ordenador, de acuerdo con una realización de la presente invención.
La figura 6 ilustra un componente de procesador de contexto de un motor de visión de ordenador, de acuerdo con una realización de la presente invención.
La figura 7 ilustra un módulo de análisis semántico de un motor de aprendizaje automático, de acuerdo con una 20 realización de la presente invención.
La figura 8 ilustra un módulo de percepción de un motor de aprendizaje automático, de acuerdo con una realización de la presente invención.
Las figuras 9A-9C ilustran una secuencia de unas tramas de vídeo en la que un sistema de reconocimiento de conducta detecta una conducta anormal y emite una alerta, de acuerdo con una realización de la presente
25 invención.
Descripción detallada de las realizaciones preferentes
Los sistemas de reconocimiento de conducta de aprendizaje automático, tal como las realizaciones de la invención que se describe en el presente documento, aprenden conductas basándose en información adquirida con el tiempo. En el contexto de la presente invención, se analiza información a partir de un flujo de vídeo (es decir, una secuencia 30 de tramas de vídeo individuales). La presente divulgación describe un sistema de reconocimiento de conducta que aprende a identificar y distinguir entre una conducta normal y anormal dentro de una escena mediante el análisis de movimientos y / o actividades (o ausencia de las mismas) con el tiempo. Las conductas normales / anormales no están previamente definidas o son de codificación fija. En su lugar, el sistema de reconocimiento de conducta que se describe en el presente documento aprende con rapidez lo que es “normal” para cualquier entorno e identifica una
35 conducta anormal y sospechosa basándose en lo que se aprende a través de la supervisión de la ubicación, es decir, mediante el análisis del contenido de vídeo registrado trama a trama.
A continuación, se hace referencia a realizaciones de la invención. No obstante, debería entenderse que la invención no se limita a realización alguna descrita de manera específica. En su lugar, se contempla cualquier combinación de las siguientes características y elementos, ya estén relacionados o no con diferentes realizaciones, para 40 implementar y poner en práctica la invención. Además, en diversas realizaciones la invención proporciona numerosas ventajas frente a la técnica anterior. No obstante, a pesar de que realizaciones de la invención pueden lograr ventajas frente a otras posibles soluciones y / o frente a la técnica anterior, que se consiga o no una ventaja particular por una realización dada no es limitante de la invención. Por lo tanto, los siguientes aspectos, características, realizaciones y ventajas son meramente ilustrativos y no se consideran elementos o limitaciones de
45 las reivindicaciones adjuntas excepto cuando se indique explícitamente en una reivindicación o reivindicaciones. De forma similar, la referencia a “la invención” no deberá interpretarse como una generalización de cualquier materia objeto de la invención que se divulgue en el presente documento y no ha de considerarse que es un elemento o limitación de las reivindicaciones adjuntas excepto cuando se indique explícitamente en una reivindicación o reivindicaciones.
50 Una realización de la invención se implementa como un producto de programa para su uso con un sistema de ordenador. El programa o programas del producto de programa definen funciones de las realizaciones (incluyendo los procedimientos que se describen en el presente documento) y puede estar contenido en una diversidad de medios de almacenamiento legibles por ordenador. Los medios de almacenamiento legibles por ordenador ilustrativos incluyen, pero sin limitarse a: (i) medios de almacenamiento no grabables (por ejemplo, dispositivos de
15
25
35
45
55
E08729422
30-10-2014
memoria de solo lectura dentro de un ordenador tal como discos de CD-ROM legibles por una unidad de CD-ROM) en los que se almacena una información de manera permanente; (ii) medios de almacenamiento grabables (por ejemplo, disquetes flexibles dentro de una unidad de disquete o una unidad de disco duro) en los que se almacena una información alterable. Tales medios de almacenamiento legibles por ordenador; cuando portan unas instrucciones legibles por ordenador que dirigen las funciones de la presente invención, son realizaciones de la presente invención. Otros medios incluyen medios de comunicaciones a través de los cuales se transporta información a un ordenador, tal como a través de un ordenador o una red de telefonía, incluyendo redes de comunicaciones inalámbricas. La última realización incluye de manera específica transmitir información a y desde Internet y otras redes. Tales medios de comunicaciones, cuando portan unas instrucciones legibles por ordenador que dirigen las funciones de la presente invención, son realizaciones de la presente invención. En términos generales, en el presente documento puede hacerse referencia a los medios de almacenamiento legibles por ordenador y a los medios de comunicaciones como medios legibles por ordenador.
En general, las rutinas que se ejecutan para implementar las realizaciones de la invención pueden ser parte de un sistema operativo o una aplicación, componente, programa, módulo, objeto, o secuencia de instrucciones, específico. El programa informático de la presente invención por lo general está compuesto por una multitud de instrucciones que se traducirán por el ordenador nativo a un formato legible por máquina y, por lo tanto, serán instrucciones ejecutables. Así mismo, los programas están compuestos por variables y estructuras de datos que o bien residen de forma local en el programa o se encuentran en memoria o en dispositivos de almacenamiento. Además, diversos programas que se describen en el presente documento pueden identificarse basándose en la aplicación para la que estos se implementan en una realización específica de la invención. No obstante, debería apreciarse que todas las nomenclaturas de programa particulares que siguen se usan meramente por conveniencia y, por lo tanto, la invención no debería limitarse a su uso únicamente en aplicación específica alguna identificada y /
o implicada por tal nomenclatura.
Realizaciones de la presente invención proporcionan un sistema de reconocimiento de conducta y un procedimiento para analizar, aprender y reconocer conductas. La figura 1 es un diagrama de bloques de alto nivel del sistema de reconocimiento de conducta 100, de acuerdo con una realización de la presente invención. Tal como se muestra, el sistema de reconocimiento de conducta 100 incluye una entrada de vídeo 105, una red 110, un sistema de ordenador 115, y dispositivos de entrada y de salida 145 (por ejemplo, un monitor, un teclado, un ratón, una impresora, y similares).
La red 110 recibe datos de vídeo (por ejemplo, flujo o flujos de vídeo, imágenes de vídeo, o similares) a partir de la entrada de vídeo 105. La entrada de vídeo 105 puede ser una cámara de vídeo, una VCR, un DVR, un DVD, un ordenador, o similares. Por ejemplo, la entrada de vídeo 105 puede ser una cámara de vídeo estacionaria orientada hacia una determinada área (por ejemplo, una estación de metro) y que registra de forma continua el área y los sucesos que tiene lugar en la misma. En general, se hace referencia al área visible para la cámara como la “escena”. La entrada de vídeo 105 puede configurarse para registrar la escena como una secuencia de tramas de vídeo individuales a una velocidad de trama especificada (por ejemplo, 24 tramas por segundo), en la que cada trama incluye un número fijo de píxeles (por ejemplo, 320 x 240). Cada píxel de cada trama especifica un valor de color (por ejemplo, un valor de RGB). Además, puede darse formato al flujo de vídeo usando formatos conocidos tales como, por ejemplo, MPEG2, MJPEG, MPEG4, H.263, H.264, y similares. Tal como se analiza con mayor detalle en lo sucesivo, el sistema de reconocimiento de conducta analiza esta información sin procesar para identificar objetos activos en el flujo, clasifica tales elementos, obtiene una diversidad de metadatos con respecto a las acciones e interacciones de tales elementos, y suministra esta información a un motor de aprendizaje automático. A su vez, el motor de aprendizaje automático puede configurarse para evaluar, aprender y recordar con el tiempo. Además, basándose en el “aprendizaje”, el motor de aprendizaje automático puede identificar determinadas conductas como anómalas.
La red 110 puede usarse para transmitir los datos de vídeo registrados por la entrada de vídeo 105 al sistema de ordenador 115. En una realización, la red 110 transmite el flujo recibido de tramas de vídeo al sistema de ordenador
115.
A modo de ilustración, el sistema de ordenador 115 incluye una CPU 120, un almacenamiento 125 (por ejemplo, una unidad de disco, una unidad de disco óptico, una unidad de disquete flexible, y similares), y una memoria 130 que contiene un motor de visión de ordenador 135 y un motor de aprendizaje automático 140. El motor de visión de ordenador 135 puede proporcionar una aplicación de soporte lógico configurada para analizar una secuencia de tramas de vídeo proporcionada por la entrada de vídeo 105. Por ejemplo, en una realización, el motor de visión de ordenador 135 puede configurarse para analizar tramas de vídeo para identificar objetivos de interés, rastrear esos objetivos de interés, deducir propiedades acerca de los objetivos de interés, clasificar estos por categorías, y etiquetar los datos observados. En una realización, el motor de visión de ordenador 135 genera una lista de atributos (tales como la textura, el color, y similares) de los objetos de interés clasificados y proporciona la lista al motor de aprendizaje automático 140. Adicionalmente, el motor de visión de ordenador puede suministrar al motor de aprendizaje automático 140 una diversidad de informaciones acerca de cada objeto rastreado dentro de una escena (por ejemplo, datos cinemáticos, datos de profundidad, color, datos, datos de apariencia, etc.).
El motor de aprendizaje automático 140 recibe las tramas de vídeo y los resultados que se generan por el motor de
10
15
20
25
30
35
40
45
50
55
60
E08729422
30-10-2014
visión de ordenador 135. El motor de aprendizaje automático 140 analiza los datos recibidos, construye representaciones semánticas de los sucesos representados en las tramas de vídeo, determina patrones, y aprende a partir de estas conductas observadas a identificar sucesos normales y / o anormales. El motor de visión de ordenador 135 y el motor de aprendizaje automático 140 y sus componentes se describen con mayor detalle en lo sucesivo. Los datos que describen si se ha determinado una conducta / suceso normal / anormal, y / o lo que es tal conducta / suceso, pueden proporcionarse a un dispositivo de salida 145 para emitir alertas, por ejemplo, un mensaje de alerta que se presenta en una pantalla de interfaz GUI.
En general, tanto el motor de visión de ordenador 135 como el motor de aprendizaje automático 140 procesan los datos de vídeo recibidos en tiempo real. No obstante, las escalas de tiempo para procesar información por el motor de visión de ordenador 135 y el motor de aprendizaje automático 140 pueden ser diferentes. Por ejemplo, en una realización, el motor de visión de ordenador 135 procesa los datos de vídeo recibidos trama a trama, mientras que el motor de aprendizaje automático procesa los datos recibidos cada N tramas. Dicho de otra forma, mientras que el motor de visión de ordenador 135 analiza cada trama en tiempo real para obtener un conjunto de información acerca de lo que está teniendo lugar dentro de una trama dada, el motor de aprendizaje automático 140 no está limitado por la velocidad de trama en tiempo real de la entrada de vídeo.
Obsérvese, no obstante, que la figura 1 ilustra meramente una posible disposición del sistema de reconocimiento de conducta 100. Por ejemplo, mientras que la entrada de vídeo 105 se muestra conectada con el sistema de ordenador 115 por medio de la red 110, la red 110 no siempre se encuentra presente o es necesaria (por ejemplo, la entrada de vídeo 105 puede estar conectada directamente con el sistema de ordenador 115). Además, en una realización, el motor de visión de ordenador 135 puede implementarse como una parte de un dispositivo de entrada de vídeo (por ejemplo, como un componente de soporte lógico inalterable cableado directamente a una cámara de vídeo). En un caso de este tipo, las salidas de la cámara de vídeo pueden proporcionarse al motor de aprendizaje automático 140 para el análisis.
La figura 2 ilustra un procedimiento 200 para analizar y aprender una conducta a partir de un flujo de tramas de vídeo, de acuerdo con una realización de la presente invención. Tal como se muestra, el procedimiento 200 comienza en la etapa 205. En la etapa 210, se recibe un conjunto de tramas de vídeo a partir de una fuente de entrada de vídeo. En la etapa 215, las tramas de vídeo pueden procesarse para minimizar el ruido de vídeo, una iluminación de escena irregular o inusual, problemas relacionados con el color, y así sucesivamente. Es decir, el contenido de las tramas de vídeo puede potenciarse para mejorar la visibilidad de las imágenes antes del procesamiento por los componentes de un sistema de reconocimiento de conducta (por ejemplo, el motor de visión de ordenador 135 y el motor de aprendizaje automático 140 que se han analizado en lo que antecede).
En la etapa 220, cada trama de vídeo sucesiva se analiza para identificar y / o actualizar una imagen de primer plano y de segundo plano para su uso durante fases subsiguientes del procedimiento 200. En general, la imagen de segundo plano incluye elementos estacionarios de la escena que se está capturando por la entrada de vídeo (por ejemplo, píxeles que representan una plataforma de una estación de metro), mientras que la imagen de primer plano incluye elementos volátiles capturados por la entrada de vídeo (por ejemplo, píxeles que representan un hombre que se mueve por la plataforma). Dicho de otra forma, la imagen de segundo plano proporciona un escenario en el cual los elementos de primer plano pueden entrar, interactuar entre sí, y salir del mismo. La imagen de segundo plano puede incluir un valor de color para cada píxel en la imagen de segundo plano. En una realización, la imagen de segundo plano puede obtenerse mediante el muestreo de valores de color para un píxel dado a lo largo de un número de tramas. Así mismo, a medida que se reciben nuevas tramas, pueden actualizarse elementos de la imagen de segundo plano basándose en una información adicional incluida en cada trama sucesiva. Por lo general, qué píxeles son partes del segundo plano o el primer plano puede determinarse para cada trama en una secuencia de tramas de vídeo, y los elementos de primer plano pueden identificarse mediante la comparación de la imagen de segundo plano con los valores de color de píxel en una trama dada. Una vez que los píxeles de primer plano se han identificado, puede aplicarse una máscara a la trama, recortando de forma efectiva los píxeles que son parte del segundo plano con respecto a una imagen, dejando solo una o más manchas de píxeles de primer plano en la imagen. Por ejemplo, podrían aplicarse máscaras a una trama de tal modo que cada píxel de primer plano se representa como blando y cada píxel de segundo plano se representa como negro. La imagen en blanco y negro resultante (que se representa como una matriz bidimensional) puede proporcionarse a elementos subsiguientes del sistema de reconocimiento de conducta. En una realización, el sistema de ordenador 115 puede proveerse con modelos iniciales de una imagen de segundo plano para una escena dada.
En la etapa 225, una imagen de primer plano asociada con una trama dada puede analizarse para identificar un conjunto de manchas (es decir, un grupo de píxeles relacionados) mediante la segmentación de la imagen de primer plano en unos objetivos de interés. Dicho de otra forma, el sistema puede configurarse para aislar manchas diferenciadas dentro de la imagen de primer plano, en el que es probable que cada mancha represente un objeto en primer plano diferente dentro de la trama (por ejemplo, un coche, un hombre; una maleta, y similares). Para cada mancha de primer plano, puede inicializarse un modelo de búsqueda cuando una mancha de primer plano se identifica inicialmente. El modelo de búsqueda se usa para capturar una posición de una mancha dentro del esquema, identificar qué píxeles están incluidos como parte de la mancha, y almacenar una diversidad de metadatos con respecto a la conducta observada de la mancha de trama a trama. Además, el modelo de búsqueda puede usarse por un módulo de rastreo para predecir, encontrar y rastrear los movimientos de un objeto correspondiente
10
15
20
25
30
35
40
45
50
55
60
E08729422
30-10-2014
de trama a trama. A medida que se reciben tramas sucesivas, el modelo de búsqueda se actualiza mientras la mancha de primer plano continúe encontrándose presente a través de tramas de vídeo sucesivas. Tales actualizaciones pueden realizarse con cada trama de vídeo adicional, de manera periódica, a medida que se recibe nueva información que permita que se refine el modelo de búsqueda, según sea necesario, o similar.
El modelo de búsqueda puede implementarse en una diversidad de formas. Por ejemplo, en una realización, el modelo de búsqueda puede ser un modelo de apariencia configurado para capturar un número de características acerca de un objeto en primer plano dado, incluyendo qué píxeles se consideran parte de ese objeto en primer plano. El modelo de apariencia de un objeto dado puede actualizarse a continuación, basándose en los píxeles que representan ese objeto de trama a trama. En otra realización, el modelo de búsqueda puede ser un rectángulo circunscrito mínimo para abarcar un objeto. A pesar de que se calcula más rápidamente, un rectángulo mínimamente circunscrito incluye píxeles como parte de la mancha que son, de hecho, parte del segundo plano. Sin embargo, para algunos tipos de análisis, este enfoque puede ser efectivo. Estos modelos de búsqueda se describen en lo sucesivo con mayor detalle. En la etapa 230, los modelos de búsqueda se usan para rastrear los movimientos de los objetos en primer plano cuando estos se mueven por la escena de trama a trama. Es decir, una vez que un objeto se ha identificado en una primera trama y un modelo de apariencia (y / o recuadro circunscrito) se ha generado para ese objeto, el modelo de búsqueda puede usarse para identificar y rastrear ese objeto en tramas subsiguientes, basándose en el modelo de apariencia (y / o recuadro circunscrito), hasta que ese objeto en primer plano sale de la escena. El modelo de búsqueda puede usarse para identificar un objeto dentro de las tramas de vídeo después de que el objeto, por ejemplo, cambios la ubicación o posición. Por lo tanto, se determinan diferentes tipos de información con respecto a los mismos objetos (por ejemplo, características cinemáticas del objeto, orientación, dirección de movimiento, y así sucesivamente) a medida que un objeto de este tipo se mueve a través de la escena.
En la etapa 235, el sistema de reconocimiento de conducta intenta clasificar las manchas de primer plano como una de un número discreto de clasificaciones. Por ejemplo, en una realización, el sistema de reconocimiento de conducta puede configurarse para clasificar cada objeto en primer plano como uno de un “ser humano”, un “vehículo”, “otro”, o “desconocido”. Por supuesto, pueden usarse más clasificaciones y además, las clasificaciones pueden adaptarse para adecuarse a las necesidades de un caso individual. Por ejemplo, un sistema de reconocimiento de conducta que recibe imágenes de vídeo de una cinta transportadora de equipaje podría clasificar los objetos sobre la cinta como diferentes tipos / tamaños de equipaje. Después de clasificar un objeto en primer plano, pueden hacerse estimaciones adicionales con respecto a tal objeto, por ejemplo, se estiman la postura (por ejemplo, orientación, actitud, y similares), la ubicación (por ejemplo, la ubicación dentro de una escena representada por las imágenes de vídeo, la ubicación en relación con otros objetos de interés, y similares), y el movimiento (por ejemplo, trayectoria, rapidez, dirección, y similares) del objeto. Esta información puede usarse por el motor de aprendizaje automático 140 para caracterizar determinadas conductas como normales o anómalas, basándose en observaciones pasadas de objetos similares (por ejemplo, otros objetos clasificados como seres humanos).
En la etapa 240, los resultados de etapas previas (por ejemplo, los resultados de rastreo, los datos de imagen de segundo plano / primer plano, los resultados de clasificación, y así sucesivamente) se combinan y se analizan para crear un mapa de una escena representada por las tramas de vídeo. En una realización, la escena se segmenta en regiones espacialmente separadas, estando definido cada segmento por un conjunto de píxeles. Las regiones se clasifican de acuerdo con la profundidad z (es decir, qué segmento se encuentra más cerca y qué segmento se encuentra más lejos de un dispositivo de captura de vídeo) y se etiquetan de forma opcional (por ejemplo, como naturales, fabricadas por el hombre, etc.). En la etapa 245, se crean representaciones semánticas de los movimientos de los objetos. Dicho de otra forma, se crean representaciones simbólicas de los movimientos y / o las acciones de los objetos rastreados (por ejemplo, “el coche aparca”, “el coche se detiene”, “la persona se inclina”, “la persona desaparece”, y así sucesivamente). En la etapa 250, las representaciones semánticas se analizan en busca de patrones reconocibles.
Las representaciones semánticas resultantes, el mapa con comentarios de una escena, y los resultados de clasificación se analizan en la etapa 255. El sistema de reconocimiento de conducta analiza tales resultados para aprender patrones de conducta, generaliza basándose en observaciones, y aprende mediante la realización de analogías. Esto también permite que el sistema de reconocimiento de conducta determine y / o aprenda qué tipo de conducta es normal y qué tipo de conducta es anormal. Es decir, el motor de aprendizaje automático puede configurarse para identificar patrones reconocibles, evaluar nuevas conductas para un objeto dado, reforzar o modificar los patrones de conductas aprendidos acerca de un objeto dado, etc.
En la etapa 260, los resultados de las etapas previas se analizan de forma opcional para una conducta reconocida. Adicionalmente, el sistema de reconocimiento de conducta puede configurarse para realizar una acción especificada en respuesta a reconocer la aparición de un suceso dado. Por ejemplo, basándose en los resultados de etapas previas, el sistema de reconocimiento de conducta puede emitir una alerta cuando un objeto en primer plano clasificado como un ser humano toma parte en una conducta inusual. Además, que una cierta conducta sea “inusual” puede estar basado en lo que el motor de aprendizaje ha “aprendido” que es una conducta “normal” para seres humanos en una escena dada. En una realización, se emiten alertas solo si se ha determinado una conducta anormal (por ejemplo, una alerta que indica que una persona dejó una bolsa sin vigilancia en una estación de metro). En otra realización, se emiten alertas para indicar que están teniendo lugar sucesos normales en la escena
10
15
20
25
30
35
40
45
50
55
60
E08729422
30-10-2014
(por ejemplo, una alerta que indica que un coche aparcó). El procedimiento concluye con la etapa 275.
Debe observarse que no es necesario realizar la totalidad de las etapas que se han descrito en lo que antecede en el orden indicado. Además, no todas las etapas que se describen son necesarias para que funcione el procedimiento descrito. Qué etapas deberían usarse, en qué orden deberían realizarse las etapas, y si algunas etapas deberían repetirse más a menudo que otras etapas se determina, basándose en, por ejemplo, las necesidades de un usuario particular, las cualidades específicas de un entorno observado, y así sucesivamente.
Las figuras 3 a 6 ilustran diferentes componentes del motor de visión de ordenador 135 que se ilustra en la figura 1, de acuerdo con una realización de la presente invención. De manera específica, la figura 3 ilustra componentes de un módulo de segundo plano -primer plano 300. El módulo de segundo plano -primer plano 300 usa características en cada trama de vídeo para identificar qué píxeles pertenecen a una imagen de segundo plano y cuales pertenecen a una imagen de primer plano. En una realización, se analizan tramas de vídeo para clasificar cada píxel como que visualiza parte de la imagen de segundo plano para la escena (y esa trama) o que visualiza parte de una imagen de primer plano para esa trama.
Por lo general, píxeles que no cambian de color con el tiempo se consideran parte de la imagen de segundo plano. Mediante el muestreo del valor de color de un píxel con el tiempo, la presencia de un objeto en primer plano en algunas tramas puede eliminarse. Además, debido a que la imagen de segundo plano puede actualizarse de manera dinámica, la imagen de segundo plano puede compensar los cambios en luz y sombra. De forma similar, se supone que los píxeles que cambian de color, en relación con la imagen de segundo plano, están visualizando un objeto en primer plano. Dicho de otra forma, los movimientos de los objetos en primer plano en una escena se determinan basándose en diferencias entre valores de color de píxel en tramas de vídeo sucesivas. En general, una imagen de segundo plano puede concebirse como una trama de vídeo de píxeles que tiene los objetos en primer plano recortados. Las imágenes de primer plano pueden concebirse como píxeles que ocluyen el segundo plano. Como alternativa, puede usarse solo una imagen de primer plano. Tal imagen de primer plano puede concebirse como una trama de vídeo transparente con parches de los píxeles de primer plano. Debería observarse, que a pesar de que dos tramas consecutivas pueden ser suficientes para rastrear un objeto en primer plano dado, comparar múltiples tramas consecutivas proporciona resultados más precisos cuando se determina la imagen de segundo plano para una escena dada.
También debe observarse, que un píxel originalmente determinado como un píxel de segundo plano (en una trama) puede volverse un píxel de primer plano (en otra trama) y viceversa. Por ejemplo, si el valor de color de un píxel en el segundo plano comienza a cambiar, puede ser apropiado volver a clasificar este como un píxel de primer plano (por ejemplo, un coche aparcado en una zona de aparcamiento durante un periodo de tiempo prolongado empieza a moverse). De forma similar, un píxel cambiante podría volverse estático, por lo tanto podría ser necesario volver a calificar tal píxel como un píxel de segundo plano (por ejemplo, una papelera se ha llevado a una estación de metro para un uso permanente). No obstante, para evitar una reclasificación de píxeles innecesaria y para mejorar la interpretación de lo que está incluido en las imágenes de segundo plano y de primer plano, en una realización, el sistema de reconocimiento de conducta puede clasificar píxeles como parte de un segundo plano a corto plazo (STBG), un primer plano a corto plazo (STFG), un segundo plano a largo plazo (LTBG) y un primer plano a largo plazo (LTFG). STBG y STFG se almacenan en memoria durante un corto periodo de tiempo (por ejemplo, segundos
o menos), mientras que LTBG y LTFG se almacenan en memoria para periodos de tiempo más prolongados (por ejemplo, minutos). Determinar los píxeles que van a ser STBG / STFG al principio, y a continuación interpretar solo los píxeles de calificación como LTBG / LTFG permite una determinación más precisa de qué píxeles son parte de la imagen de segundo plano / primer plano. Por supuesto, los periodos de tiempo pueden ajustarse de acuerdo con los sucesos que tienen lugar dentro de una escena particular.
La figura 3 ilustra componentes del módulo de segundo plano -primer plano 300 que pueden usarse para generar imágenes de segundo plano y de primer plano para una trama de vídeo, de acuerdo con una realización de la invención. Inicialmente, se reciben tramas de vídeo por un módulo de entrenamiento de segundo plano 305. El módulo de segundo plano -primer plano 300 puede entrenarse usando una secuencia inicial de tramas. El entrenamiento permite que el módulo de segundo plano -primer plano 300 construya una imagen de segundo plano de la escena representada en las tramas de vídeo adquiridas. El procedimiento de entrenamiento puede tener lugar durante una fase de inicialización del sistema; a saber, antes de que se haya determinado una imagen de segundo plano de la escena.
El módulo de compensación de escenas oscuras 310 puede procesar valores de píxel para compensar unas condiciones de iluminación baja u oscura en porciones de la escena. Adicionalmente, el módulo de compensación de escenas oscuras 310 puede configurarse para proporcionar las tramas de vídeo procesadas a un módulo de STFG / STBG 315 y un módulo de LTBG / LTBG 320. El módulo de STFG / STBG 315 puede configurarse para identificar píxeles de STFG y de STBG dentro de una trama dada y proporcionar esta información a un módulo de FG obsoleto 325 y un módulo de compensación de iluminación 335, respectivamente. El módulo de LTFG / LTBG 320 puede configurarse para identificar píxeles de LTFG y de LTBG y, de forma similar al módulo de STFG / STBG 315, proporcionar esta información al módulo de FG obsoleto 325 y el módulo de compensación de iluminación 335, respectivamente. El módulo de FG obsoleto 325 identifica píxeles de primer plano obsoletos y proporciona los resultados a un módulo de BG de actualización 330. Un píxel puede volverse “obsoleto” cuando, la determinación de
10
15
20
25
30
35
40
45
50
55
60
E08729422
30-10-2014
BG / FG es obsolescente y es necesario volver a evaluarla. Una vez que se ha recibido, el módulo de compensación de iluminación 335 puede ajustar de manera dinámica el procesamiento para los cambios en la iluminación (por ejemplo, la intensificación de brillo / oscurecimiento de una escena debido a nubes que oscurecen el sol, o ajustes a las fuentes de luz artificial), y el módulo de compensación de escenas oscuras 310 proporcionará de manera dinámica un procesamiento especial en el límite de regiones extremadamente oscuras y / o condiciones de baja luz. El módulo de BG de actualización 330 actualiza un modelo de imágenes de segundo plano y transfiere los resultados al módulo de compensación de iluminación 335, que a su vez, después del procesamiento de la totalidad de los resultados recibidos, proporciona los resultados procesados al módulo de LTFG / LTBG.
Por lo tanto, de forma colectiva, el módulo de segundo plano -primer plano 300 determina un conjunto de imágenes de segundo plano y de primer plano y / o modelos de segundo plano y de primer plano para su uso por otros componentes del sistema de reconocimiento de conducta. Los modelos de segundo plano y de primer plano distinguen entre píxeles que son parte del segundo plano de la escena (es decir, parte del escenario) y píxeles que visualizan objetos en primer plano (es decir, elementos que realizan una cierta acción sobre el escenario). Debería observarse que a pesar de que en la descripción anterior del módulo de segundo plano -primer plano 300 las referencias se hacen solo a una imagen de segundo plano, como alternativa, el módulo de segundo plano -primer plano 300 puede emplear múltiples imágenes de segundo plano (por ejemplo, la escena de la trama de imagen podría dividirse en varias zonas de segundo plano para una identificación de segundo plano más precisa).
En una realización, la imagen / modelo de segundo plano puede incluir una información adicional, tal como colores de píxel. Además, la imagen / modelo de primer plano por lo general incluye características de píxel adicionales, tales como color. No obstante, mantener o recopilar tal información podría omitirse (por ejemplo, para conservar recursos en un entorno en el que conocer los colores no mejora de manera significativa la distinción entre objetos de interés, por ejemplo una línea de transporte que transporta objetos en su mayor parte del mismo color, o uno similar).
La figura 4 ilustra un módulo de objetos en primer plano 400 configurado para identificar objetos visualizados en las imágenes de primer plano de una escena, de acuerdo con una realización de la invención. En general, el módulo de objetos en primer plano 400 puede configurarse para recibir las imágenes de primer plano producidas por el módulo de segundo plano -primer plano 300 para una trama dada, construir / actualizar modelos de búsqueda para las imágenes de primer plano, e intentar rastrear los movimientos de un objeto visualizado en las imágenes de primer plano cuando ese objeto se mueve por la escena de trama a trama.
Tal como se ilustra en la figura 4, el módulo de objetos en primer plano 400 incluye un módulo de detección de manchas 405, un módulo de construcción / actualización 410, un módulo de rastreo 420 y 1-M modelos de búsqueda, del modelo de búsqueda 1 (4151), el modelo de búsqueda 2 (4152), al modelo de búsqueda M (415M). En una realización, el módulo de detección de manchas 405 puede configurarse para analizar imágenes de primer plano para detectar grupos de píxeles relacionados, a los que se hace referencia como las manchas de primer plano, en las que es probable que cada grupo de píxeles de este tipo represente un objeto diferenciado dentro de la escena. Adicionalmente, a cada mancha de primer plano detectada se le asigna un número de identificación de rastreo. Las manchas de primer plano se usan por el módulo de construcción / actualización 410 para construir / actualizar los modelos de búsqueda 4151 -415M, en el que los modelos de búsqueda ya existentes se han construido o actualizado para manchas identificadas en tramas de vídeo previas. En una realización, para actualizar los modelos de búsqueda 4151 -415M, el módulo de construcción / actualización 410 también usa resultados que se generan por el módulo de rastreo 420. Si una mancha actualmente detectada no tiene modelo de búsqueda respectivo, se construye (se crea) tal modelo de búsqueda.
En cualquier instante dado, el módulo de objetos en primer plano 400 puede incluir múltiples modelos de búsqueda, representando cada uno una mancha de primer plano diferente. El número de modelos de búsqueda puede depender de cuántas manchas de primer plano se identifican por el módulo de detección de manchas 405 dentro de una imagen de primer plano. En una realización, los modelos de búsqueda pueden configurarse con capacidades predictivas con respecto a lo que las manchas de primer plano pueden hacer en tramas de vídeo subsiguientes. Por ejemplo, el modelo de búsqueda asociado con una mancha de primer plano dada puede incluir una posición (y forma) futura esperada de esa mancha basándose en una posición, y unos datos cinemáticos, presentes. Además, cada modelo de búsqueda también puede incluir una diversidad de informaciones que se obtiene acerca de una mancha de primer plano dada (por ejemplo, texturas, colores, patrones, la posición de profundidad z dentro de una escena, tamaño, tasas de movimiento, cinemática y similares).
Además, diferentes tipos de modelos de búsqueda pueden usarse de acuerdo con los principios de la presente invención. Tal como se indica, un modelo de búsqueda puede usarse por el módulo de rastreo 420 para predecir, encontrar y rastrear los movimientos de un objeto correspondiente de trama a trama. En una realización, se usa un modelo de apariencia. El modelo de apariencia incluye píxeles que se usan para visualizar un objeto (por ejemplo, cuando una trama visualiza un ser humano en la imagen de primer plano, el modelo de apariencia incluiría en su mayor parte píxeles que perfilan el ser humano y píxeles en el interior del perfil). En otra realización, el modelo de búsqueda se implementa como un modelo basado en características, en el que el modelo basado en características representa píxeles en el interior de un rectángulo, tal como un rectángulo circunscrito mínimo que abarca un objeto (por ejemplo, cuando un objeto es un ser humano, el modelo basado en características podría incluir un rectángulo
10
15
20
25
30
35
40
45
50
55
E08729422
30-10-2014
circunscrito que abarca el ser humano). Como alternativa, el modelo basado en características puede incluir múltiples rectángulos circunscritos para un objeto dado, tal como rectángulos de tamaños mínimamente posibles, que abarcan diferentes regiones de ese objeto (por ejemplo, cuando la trama visualiza un ser humano, el modelo basado en características para tal objeto podría incluir varios rectángulos de tamaño mínimo en el que los rectángulos abarcan diferentes regiones del ser humano, tal como brazos, piernas, cabeza y torso).
Qué modelo de búsqueda se usa puede depender, por ejemplo, de un entorno que se está observando, de las preferencias de un usuario de un sistema de reconocimiento de conducta, y así sucesivamente. Por ejemplo, a pesar de que es probable que el modelo de apariencia proporcione un rastreo más preciso, el modelo basado en características puede conservar recursos, cuando, por ejemplo, las formas de los objetos de interés rastreados son simples (por ejemplo, una cinta transportadora de equipaje).
Tal como se ha mencionado en lo que antecede, el módulo de rastreo 420 usa los modelos de búsqueda 415 para rastrear los movimientos de los objetos correspondientes representados en una secuencia de vídeo de trama a trama cuando tales objetos se mueven por la escena. El módulo de rastreo 420 toma una mancha de primer plano detectada de una trama de vídeo actual y busca un modelo de búsqueda de una trama de vídeo previa que proporciona la coincidencia más aproximada con la mancha de primer plano. En una realización, para cada mancha de primer plano actualmente detectada, el módulo de rastreo 420 busca un modelo de búsqueda 415 que una distancia vectorial dimensional relativa entre el modelo de búsqueda y la mancha de primer plano es un mínimo global. De esta forma, el módulo de rastreo 420 puede rastrear las ubicaciones de cada objeto representado por uno de los modelos de búsqueda 415 de trama a trama. En una realización, el módulo de rastreo 420 usa información cinemática adquirida basándose en tramas de vídeo previas para estimar ubicaciones del modelo de búsqueda dentro de la trama de vídeo actual.
La figura 5 ilustra un módulo de estimador / identificador 500 de un motor de visión de ordenador, de acuerdo con una realización de la presente invención. En general, el estimador / identificador 500 recibe manchas de primer plano y modelos de búsqueda respectivos e intenta clasificar objetos en una trama de vídeo, tal como se representa por las manchas de primer plano, como miembros de categorías conocidas (clases). En una realización, si un objeto de interés se ha identificado a continuación el módulo de estimador / identificador 500 estima la postura, la ubicación y el movimiento del objeto de interés. El estimador / identificador 500 se entrena por lo general en numerosos ejemplos positivos y negativos que representan ejemplos de una clase dada. Además, un entrenamiento en línea puede usarse para actualizar el clasificador dinámicamente a la vez que se analiza vídeo trama a trama.
Como se muestra, el estimador / identificador 500 incluye un clasificador 505, de la clase 1 (5101) a la clase N (510N), y un identificador 515. El clasificador 505 intenta clasificar un objeto en primer plano como un miembro de una de las clases, de la clase 1 (5101) a la clase N (520N). Si es satisfactorio, también pueden determinarse datos estáticos (por ejemplo, tamaño, color, y similares) y datos cinemáticos (por ejemplo, rapidez, velocidad, dirección y similares) representativos del objeto clasificado a lo largo de un periodo de tiempo (por ejemplo, X -número de tramas) por el identificador 515. Para cada objeto identificado, el estimador / identificador 500 emite sucesos de contexto sin procesar que contienen las características estáticas y cinemáticas que se han descrito en lo que antecede del objeto de interés y observaciones de objeto conocidas que contienen características estáticas y cinemáticas de un miembro promedio de la clase del objeto identificado.
En una realización, el sistema emplea cuatro clasificadores: ser humano, vehículo, otro, y desconocido. Hasta que se determine una clase de objeto de interés, tal objeto se trata como un miembro de clase “desconocido”. Cada clase contiene postura, datos estáticos y cinemáticos con respecto a un miembro promedio de la clase. En una realización, tales datos se actualizan de forma continua a medida que se clasifican e identifican más objetos de interés y se determinan y recopilan su postura, datos estáticos y cinemáticos. Debería observarse que, por lo general, el estimador / identificador 500 procesa información en tiempo real, de una forma trama a trama.
La figura 6 ilustra un procesador de contexto 600 de un motor de visión de ordenador 135, de acuerdo con una realización de la presente invención. En general, el procesador de contexto 600 combines resultados que se reciben a partir de otros componentes del motor de visión de ordenador 135, tal como el módulo de segundo plano -primer plano 300, el módulo de objetos en primer plano 400, y el módulo de estimador / identificador 500, para crear un mapa con comentarios de una escena capturada en las tramas de vídeo. En una realización, la escena se segmenta en regiones espacialmente separadas que se clasifican de acuerdo con la profundidad z de la escena y se etiquetan de forma opcional como que representa elementos de origen natural o fabricados por el hombre.
Como se muestra, el procesador de contexto 600 puede incluir un segmentador en regiones 605 para descomponer la escena en unas áreas (regiones) más pequeñas, un secuenciador de regiones 610 para definir relaciones entre las regiones (por ejemplo, como más cerca / más lejos de un dispositivo de captura de vídeo en relación entre sí), y un generador de mapas de escena 615 para generar el mapa con comentarios. En una realización, el procesador de contexto 600 usa información con respecto a los movimientos (tal como trayectorias) y las ubicaciones de los objetos de interés rastreados para generar el mapa con comentarios.
Las figuras 7 y 8 ilustran diferentes componentes del motor de aprendizaje automático 140 que se ilustra en la figura
1. De manera específica, la figura 7 ilustra componentes de un módulo de análisis semántico 700 y la figura 8 ilustra
10
15
20
25
30
35
40
45
50
55
60
E08729422
30-10-2014
componentes de un módulo de percepción 800, de acuerdo con una realización de la presente invención. En general, el módulo semántico 700 crea representaciones semánticas (es decir, representaciones simbólicas) de los movimientos y las acciones de los objetos rastreados. La representación semántica proporciona una manera formal de describir lo que se cree que está sucediendo en la escena basándose en los movimientos de un objeto rastreado particular (y en última instancia, basándose en los cambios en los valores de color de píxel de trama a trama). Se usa una gramática de lenguaje formal (por ejemplo, nombres y verbos) para describir sucesos en la escena (por ejemplo, “el coche aparca”, “la persona aparece”, y similares).
Subsiguientemente, las representaciones semánticas se analizan en busca de patrones reconocibles y los resultados se proporcionan a un módulo de percepción 800 que se ilustra en la figura 8. En una realización, el módulo semántico 700 también construye un mapa simbólico de la escena, incluyendo diferentes aspectos de los sucesos que tienen lugar en la escena, tal como representaciones simbólicas de trayectorias de los objetos en la escena. En una realización, el mapa simbólico también puede incluir una distribución de frecuencia (por ejemplo, datos con respecto a con qué frecuencia y dónde están presentes determinadas clases o tipos de objetos en la escena).
Tal como se muestra en la figura 7, el módulo semántico 700 incluye una memoria sensorial 710, un módulo de análisis semántico latente (LSA) 715, un módulo de sucesos primitivos 725, un módulo de división de espacio de fase 730, un módulo de análisis semántico latente incremental (iLSA) 735, y un módulo de lenguaje formal 740. La memoria sensorial 710 adquiere información proporcionada para el módulo semántico 700 y almacena esta información para un uso subsiguiente por el módulo de sucesos primitivos 725 y el módulo de división de espacio de fase 730. En una realización, la memoria sensorial 710 identifica qué información debería proporcionarse para un análisis adicional al módulo de sucesos primitivos 725 y el módulo de división de espacio de fase 730.
El módulo de detección de sucesos primitivos 725 puede configurarse para identificar la aparición de sucesos primitivos (por ejemplo, el coche se detiene, invierte el sentido, desaparece, aparece; la persona se inclina, cae; intercambio, y similares) en la memoria sensorial 710. Los sucesos primitivos por lo general reflejan los cambios en las características cinemáticas de los objetos rastreados. Por lo tanto, una vez que un objeto se ha clasificado como un “coche”, el módulo de detección de sucesos primitivos 725 puede evaluar datos con respecto al coche para identificar diferentes sucesos conductuales a medida que estos tienen lugar. En una realización, los sucesos primitivos están predefinidos (por ejemplo, para un entorno específico en el que se usa el sistema de reconocimiento de conducta con autoaprendizaje). En otra realización, solo algunos de los sucesos primitivos están predefinidos (por ejemplo, aparcamiento, giro, caída), mientras que otros sucesos primitivos se aprenden con el tiempo (por ejemplo, objetos de una determinada clase pueden encontrarse en un punto específico de la escena).
El módulo de división de espacio de fase 730 determina información con respecto a la posición geométrica que tiene velocidad de los objetos en la escena. Por consiguiente, el módulo de sucesos primitivos 725 y el módulo de división de espacio de fase 730 permiten que el módulo semántico 700 analice datos de dos maneras diferenciadas. En base a los resultados del módulo de sucesos primitivos 725 y el módulo de división de espacio de fase 730, el LSA 715 y el iLSA 735 construyen / actualizan un modelo de la escena, en el que el modelo incluye los objetos de interés.
LSA 715 es en general un módulo de entrenamiento inicial del módulo semántico 700. LSA reúne datos a lo largo de un periodo de tiempo hasta que el LSA 715 genera resultados de suficiente peso estadístico. Dicho de otra forma, LSA 715 aprende la distribución básica de la escena, mientras que iLSA 735 actualiza de manera incremental una distribución de este tipo. Debe observarse que iLSA 735 es lo bastante flexible para manejar los cambios en los patrones de conducta que tienen lugar en la escena. El módulo de aprendizaje de lenguaje formal 740 usa los datos que se generan por el iLSA 735 para crear las representaciones semánticas (la representación simbólica de lo que está sucediendo en la escena) y proporciona las representaciones semánticas al módulo de percepción 800 para aprender lo que significan las representaciones semánticas creadas.
La figura 8 ilustra un módulo de percepción de un motor de aprendizaje automático, de acuerdo con una realización de la invención. El módulo de percepción 800 puede configurarse para procesar los resultados que se generan por al menos algunos de los componentes de la visión de ordenador 135 y el motor de aprendizaje automático 140 (por ejemplo, el módulo de estimador / identificador 500, el procesador de contexto 600, el módulo semántico 700, etc.). En general, el módulo de percepción 800 aprende patrones, generaliza basándose en observaciones, y aprende mediante la realización de analogías.
Como se muestra en la figura 8, el módulo de percepción 800 puede incluir una memoria asociativa perceptiva 805, un programador 810, un espacio de trabajo 815, una memoria episódica 820, y una memoria a largo plazo 825. El espacio de trabajo 815 proporciona una región de memoria que refleja qué información se está evaluando en la actualidad por el motor de aprendizaje automático 140. Es decir, el espacio de trabajo 815 almacena qué elementos de datos tienen en la actualidad la “atención” del entorno de aprendizaje automático 140. Tal como se describe en lo sucesivo, los datos en el espacio de trabajo 815 pueden incluir una colección de perceptos (describiendo cada uno un suceso) y fragmentos de código especializado (la memoria asociativa perceptiva 805 recoge datos proporcionados al módulo de percepción 800 y almacena tales datos como perceptos. Cada percepto puede proporcionar datos que describen algo que tuvo lugar en el vídeo, tal como un suceso primitivo. La memoria asociativa perceptiva 805 proporciona perceptos y / o fragmentos de código especializado al espacio de trabajo 815.
15
25
35
45
55
E08729422
30-10-2014
Un fragmento de código especializado proporciona un fragmento de código ejecutable, que describe y / o busca relaciones entre diferentes perceptos. Dicho de otra forma, un fragmento de código especializado resume reglas para determinar una conducta / suceso específico (por ejemplo, suceso de aparcamiento), en el que la conducta / suceso implica uno o más perceptos. Cada fragmento de código especializado puede configurarse para tomar un conjunto de preceptos de entrada y procesarlos de una manera particular. Por ejemplo, un fragmento de código especializado puede tomar un conjunto de perceptos de entrada y evaluarlos para determinar si ha tenido lugar un suceso particular (por ejemplo, un coche aparcando). Usando el ejemplo de un coche aparcando, el percepto puede actualizar la memoria episódica 820 con información acerca de qué coche, el color del coche, en dónde el coche aparcó, etc. Además, la información acerca de este suceso primitivo detectado puede usarse para actualizar la definición del suceso primitivo en la memoria a largo plazo 825. Aún más, fragmentos de código especializado que reconocen anomalías se emplean por el módulo de percepción 800. Tales fragmentos de código especializado acceden a perceptos y si un determinado percepto no se correlaciona estadísticamente con datos estadísticos previamente acumulados, puede identificarse un suceso anormal.
En una realización, los fragmentos de código especializado están completamente pre-escritos. En otra realización, al menos algunos fragmentos de código especializado no están completamente pre-escritos, sino que en su lugar, se generan con el tiempo. Por ejemplo, un fragmento de código especializado que describe una conducta normal para un determinado percepto(s) puede modificarse / generarse a sí mismo basándose en datos acumulados que describen sucesos observados correspondientes.
El programador 810 determina qué fragmento de código especializado es necesario activar en cualquier instante dado. Por ejemplo, el programador 810 puede buscar identificar una coincidencia entre perceptos ubicados en el espacio de trabajo 815 y los fragmentos de código especializado. Cuando se encuentra disponible un conjunto apropiado de entradas requeridas para un fragmento de código especializado dado (por ejemplo, un conjunto de preceptos), ese fragmento de código especializado puede ubicarse en el espacio de trabajo 815 e invocarse. Cuando múltiples fragmentos de código especializado se encuentran disponibles para su activación, la determinación de cuándo y qué fragmento de código especializado activar puede ser aleatoria. No obstante, en una realización, determinados fragmentos de código especializado configurados tendrán prioridad frente a otros (por ejemplo, un fragmento de código especializado que define una determinada conducta anormal). En cada instante dado, numerosos fragmentos de código especializado pueden activarse por el programador 810 dentro del espacio de trabajo 815.
El módulo de percepción 800 también usa la memoria episódica 820 y la memoria a largo plazo 825 para capturar datos tanto a corto plazo como a largo plazo con respecto a sucesos primitivos. La memoria episódica 820 es una memoria a corto plazo para almacenar perceptos recientes. Por ejemplo, un percepto que se ha cambiado recientemente se encuentra en la memoria episódica 820. Los perceptos se ubican en la memoria episódica 820 del espacio de trabajo 815. Al mismo tiempo, el espacio de trabajo 815 puede usar los perceptos almacenados en la memoria episódica 820 para hacer que coincidan con los fragmentos de código especializado respectivos.
Por lo general, al menos algunos perceptos emigran de la memoria episódica 820 a la memoria a largo plazo 825. No obstante, no todos los fragmentos de datos ubicados en la memoria episódica 820 emigran a la memoria a largo plazo 825. Algunos datos decaen de la memoria episódica 820 sin alcanzar nunca la memoria a largo plazo 825 (por ejemplo, datos que describen un suceso que ocurre una sola vez que no se ha determinado como anormal).
Al mismo tiempo, los aspectos de ese suceso pueden usarse para reforzar la información en la memoria a largo plazo 825 (por ejemplo, aspectos de cómo, dónde, y por cuánto tiempo un coche aparcó en un espacio de aparcamiento). Por lo tanto, la memoria a largo plazo 825 puede usarse para construir y acumular patrones generales de conducta dentro de una escena dada. En una realización, los patrones de conducta almacenados en la memoria episódica 820 y los patrones de conducta que han adquirido suficiente peso estadístico se mueven a la memoria a largo plazo 825 como los patrones generales de conducta. No obstante, no todos los datos ubicados en la memoria a largo plazo 825 permanecen ahí. Algunos datos finalmente decaen (por ejemplo, detalles específicos). Por ejemplo, si se han aparcado varios coches de diferentes colores en el mismo lugar a lo largo de un periodo de tiempo, puede aprenderse un patrón general de un coche que pude aparcar en ese lugar específico y colocarse en la memoria a largo plazo 825. No obstante, los detalles con respecto a los coches previamente aparcados, tal como sus colores, decaerían de la memoria a largo plazo 825 después de un cierto periodo de tiempo.
En una realización, el espacio de trabajo 815 usa los patrones generales de conducta encontrados en la memoria a largo plazo 825 para determinar sucesos que tienen lugar en la escena. Una vez que un suceso se ha reconocido, se genera la información que indica que el suceso reconocido se ha identificado. Tal información se usa subsiguientemente para generar alertas. Mientras que en una realización, solo se emiten alertas con respecto a una conducta anormal identificada (por ejemplo, asalto), en otra realización, se emiten así mismo alertas que se describen como normales (por ejemplo, coche aparcado).
Las figuras 9A-9C ilustran un escenario que tiene lugar place en una estación de metro 900 en el que un sistema de reconocimiento de conducta detecta una conducta anormal y emite una alerta, de acuerdo con una realización de la presente invención. Tal como se muestra, una cámara de vídeo estacionaria 915 captura sucesos que tienen lugar en la estación de metro 900 y proporciona unas imágenes de vídeo que representan los sucesos para el sistema de
E08729422
30-10-2014
reconocimiento de conducta. Tal como se ilustra en las figuras 9A-9C, la cámara de vídeo 915 captura unas imágenes de vídeo de un hombre 905 que porta una bolsa 910 a la vez que se aproxima a la papelera 920 (figura 9A), pone la bolsa 910 en el suelo junto a la papelera 920 (figura 9B), y deja la bolsa 910 atrás (figura 9C). En base al aprendizaje a partir de la observación de seres humanos, entrar en la estación de metro 900, el acto de dejar
5 “otro” objeto (es decir, la bolsa) portado por un objeto clasificado como un ser humano puede identificarse como anormal, y por consiguiente, el sistema de reconocimiento de conducta puede emitir una alerta para indicar la aparición de un suceso de este tipo.
De acuerdo con los principios que se han analizado en lo que antecede, el sistema de reconocimiento de conducta trata los píxeles que visualizan la papelera 920 estacionaria como una parte de una imagen de segundo plano, sin 10 identificar de manera específica la papelera 920 como una papelera. Por el contrario, el sistema de reconocimiento de conducta trata tanto al hombre 905 como a la bolsa 910 como imagen o imágenes de primer plano. Inicialmente (figura 9A), el sistema de reconocimiento de conducta con autoaprendizaje puede considerar al hombre 905 y a la bolsa 910 como una mancha de primer plano. No obstante, cuando el hombre 905 pone la bolsa 910 en el suelo (figuras 9B-9C), el hombre y la bolsa 910 se vuelven partes de manchas de primer plano independientes. A pesar de
15 que en una realización, cuando el hombre 905 recoge la bolsa 910 sus manchas de primer plano respectivas se fundirían en unas nuevas manchas de primer plano, en otra realización, el hombre 905 y la bolsa 910 siguen tratándose como dos manchas de primer plano diferenciadas. En aún otra realización, se considera que el hombre 905 y la bolsa 910 son manchas de primer plano independientes desde el principio (figuras 9A).
Tanto para el hombre 905 como la bolsa 910 el sistema de reconocimiento de conducta construye y actualiza
20 modelos de búsqueda para rastrear estos objetos trama a trama. Además, el sistema de reconocimiento de conducta clasifica el hombre 905 como un “ser humano” y la bolsa 910 como “otro” (como alternativa como una “bolsa”), recopila información acerca de los mismos, y predice sus acciones basándose en una conducta previamente aprendida de personas y bolsas en la estación de metro. Debido a que dejar atrás una bolsa no está asociado con una conducta aprendida normal, el sistema de reconocimiento de conducta identifica tal conducta
25 como anormal y emite una alerta. Como alternativa, tal conducta puede identificarse como anormal debido a que el sistema ha aprendido previamente que la situación de dejar atrás una bolsa indica una conducta anormal.
A pesar de que lo anterior se refiere a realizaciones de la presente invención, pueden concebirse otras, y adicionales, realizaciones de la invención sin apartarse del ámbito básico de la misma, y el alcance de la misma está determinado por las reivindicaciones que siguen.
30

Claims (13)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    E08729422
    30-10-2014
    REIVINDICACIONES
    1.
    Un procedimiento para procesar un flujo de tramas de vídeo que registra sucesos dentro de una escena, comprendiendo el procedimiento:
    recibir una primera trama del flujo (210, 215), en el que la primera trama incluye datos para una pluralidad de píxeles incluidos en la trama; identificar uno o más grupos de píxeles en la primera trama, en el que cada grupo representa un objeto dentro de la escena (225); generar un modelo de búsqueda que almacena una o más características asociadas con cada objeto identificado; clasificar cada uno de los objetos usando un clasificador entrenado (235); rastrear, en una segunda trama, cada uno de los objetos identificados en la primera trama usando el modelo de búsqueda (230); suministrar la primera trama, la segunda trama y las clasificaciones de objetos a un motor de aprendizaje automático; y generar, por el motor de aprendizaje automático, una o más representaciones semánticas de conducta en la que toman parte los objetos en la escena a lo largo de una pluralidad de tramas (245), en el que el motor de aprendizaje automático está configurado para aprender patrones de conducta observada en la escena a lo largo de la pluralidad de tramas (255) y para identificar apariciones de los patrones de conducta en la que toman parte los objetos clasificados (260).
  2. 2.
    El procedimiento de la reivindicación 1, que comprende además emitir al menos una alerta que indica una aparición de uno de los patrones identificados de conducta por uno de los objetos rastreados.
  3. 3.
    El procedimiento de la reivindicación 1, en el que cada modelo de búsqueda es generado como uno de un modelo de apariencia y un modelo basado en características.
  4. 4.
    El procedimiento de la reivindicación 1, en el que la etapa de rastrear, en la segunda trama, cada uno de los objetos identificados en la primera trama usando el modelo de búsqueda comprende:
    ubicar los objetos identificados dentro de la segunda trama; y actualizar el modelo de búsqueda respectivo para cada objeto identificado.
  5. 5.
    El procedimiento de la reivindicación 1, en el que el clasificador entrenado está configurado para clasificar cada objeto como uno de un ser humano, un coche, u otro.
  6. 6.
    El procedimiento de la reivindicación 1, en el que la etapa de identificar uno o más grupos de píxeles en la primera trama comprende:
    identificar al menos un grupo de píxeles que representan una región de primer plano de la primera trama y al menos un grupo de píxeles que representan una región de segundo plano de la primera trama; segmentar regiones de primer plano en manchas de primer plano, en el que cada mancha de primer plano representa un objeto representado en la primera trama; y actualizar una imagen de segundo plano de la escena basándose en las regiones de segundo plano identificadas en la primera trama.
  7. 7.
    El procedimiento de la reivindicación 6, que comprende además:
    actualizar un mapa con comentarios de la escena representada por el flujo de vídeo usando los resultados de las etapas de generar un modelo de búsqueda que almacena una o más características asociadas con cada objeto identificado; clasificar cada uno de los objetos usando un clasificador entrenado; y rastrear, en una segunda trama, cada uno de los objetos identificados en la primera trama usando el modelo de búsqueda, en el que el mapa con comentarios describe una geometría tridimensional de la escena que incluye una posición tridimensional estimada de los objetos identificados y una posición tridimensional estimada de una pluralidad de objetos representados en la imagen de segundo plano de la escena, y en el que la etapa de construir representaciones semánticas comprende además analizar las representaciones semánticas construidas para patrones de conducta reconocibles usando análisis semántico latente.
  8. 8.
    Un sistema, que comprende:
    una fuente de entrada de vídeo (105); un procesador (120); y una memoria (130) que almacena:
    un motor de visión de ordenador (135), en el que el motor de visión de ordenador está configurado para:
    13
    E08729422
    30-10-2014
    recibir, a partir de la fuente de entrada de vídeo, una primera trama de un flujo de vídeo, en el que la primera trama incluye datos para una pluralidad de píxeles incluidos en la trama, identificar uno o más grupos de píxeles en la primera trama, en el que cada grupo representa un objeto dentro de la escena (225),
    5 generar un modelo de búsqueda que almacena una o más características asociadas con cada objeto identificado, clasificar cada uno de los objetos usando un clasificador entrenado (235), rastrear, en una segunda trama, cada uno de los objetos identificados en la primera trama usando el modelo de búsqueda (230), y
    10 suministrar la primera trama, la segunda trama y las clasificaciones de objetos a un motor de aprendizaje automático; y
    el motor de aprendizaje automático, en el que el motor de aprendizaje automático está configurado para generar una o más representaciones semánticas de conducta en la que toman parte los objetos en la escena a lo largo de una pluralidad de tramas (245) y está configurado además para aprender patrones de conducta observada en
    15 la escena a lo largo de la pluralidad de tramas (255) y para identificar apariciones de los patrones de conducta en la que toman parte los objetos clasificados (260).
  9. 9. El sistema de la reivindicación 8, en el que el motor de aprendizaje automático está configurado además para emitir al menos una alerta que indica una aparición de uno de los patrones identificados de conducta por uno de los objetos rastreados.
    20 10. El sistema de la reivindicación 8, en el que cada modelo de búsqueda es generado como uno de un modelo de apariencia y un modelo basado en características.
  10. 11. El sistema de la reivindicación 8, en el que la etapa de rastrear, en la segunda trama, cada uno de los objetos identificados en la primera trama usando el modelo de búsqueda comprende:
    ubicar los objetos identificados dentro de la segunda trama; y 25 actualizar el modelo de búsqueda respectivo para cada objeto identificado.
  11. 12.
    El sistema de la reivindicación 8, en el que el clasificador entrenado está configurado para clasificar cada objeto como uno de un ser humano, un coche, u otro.
  12. 13.
    El sistema de la reivindicación 12, en el que el clasificador entrenado está configurado además para estimar al menos uno de una postura, una ubicación, y un movimiento para al menos uno de los objetos clasificados,
    30 basándose en cambios en el grupo de píxeles que representan el objeto a lo largo de una pluralidad de tramas sucesivas.
  13. 14. El sistema de la reivindicación 8, en el que el motor de visión de ordenador está configurado para identificar el uno o más grupos de píxeles en la primera trama realizando las etapas de:
    identificar al menos un grupo de píxeles que representan una región de primer plano de la primera trama y al
    35 menos un grupo de píxeles que representan una región de segundo plano de la primera trama; segmentar regiones de primer plano en manchas de primer plano, en el que cada mancha de primer plano representa un objeto representado en la primera trama; y actualizar una imagen de segundo plano de la escena basándose en las regiones de segundo plano identificadas en la primera trama.
    40 15. El sistema de la reivindicación 14, en el que el motor de visión de ordenador está configurado además para:
    actualizar un mapa con comentarios de la escena representada por el flujo de vídeo usando los resultados de las etapas de generar un modelo de búsqueda que almacena una o más características asociadas con cada objeto identificado; clasificar cada uno de los objetos usando un clasificador entrenado; y
    45 rastrear, en una segunda trama, cada uno de los objetos identificados en la primera trama usando el modelo de búsqueda, en el que el mapa con comentarios describe una geometría tridimensional de la escena que incluye una posición tridimensional estimada de los objetos identificados y una posición tridimensional estimada de una pluralidad de objetos representados en la imagen de segundo plano de la escena, y en el que la etapa de construir representaciones semánticas comprende además analizar las representaciones semánticas construidas
    50 para patrones de conducta reconocibles usando análisis semántico latente.
    14
ES08729422.9T 2007-02-08 2008-02-08 Sistema de reconocimiento conductual Active ES2522589T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US88877707P 2007-02-08 2007-02-08
US888777P 2007-02-08
PCT/US2008/053457 WO2008098188A2 (en) 2007-02-08 2008-02-08 Behavioral recognition system

Publications (1)

Publication Number Publication Date
ES2522589T3 true ES2522589T3 (es) 2014-11-17

Family

ID=39682435

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08729422.9T Active ES2522589T3 (es) 2007-02-08 2008-02-08 Sistema de reconocimiento conductual

Country Status (17)

Country Link
US (2) US8131012B2 (es)
EP (1) EP2118864B1 (es)
JP (2) JP5278770B2 (es)
KR (1) KR101260847B1 (es)
CN (1) CN101622652B (es)
AU (1) AU2008213586B2 (es)
BR (1) BRPI0806968B1 (es)
CA (1) CA2674311C (es)
DK (1) DK2118864T3 (es)
EG (1) EG26304A (es)
ES (1) ES2522589T3 (es)
MX (1) MX2009008376A (es)
NZ (1) NZ578752A (es)
PL (1) PL2118864T3 (es)
RU (1) RU2475853C2 (es)
WO (1) WO2008098188A2 (es)
ZA (1) ZA200905257B (es)

Families Citing this family (213)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010030978A2 (en) * 2008-09-15 2010-03-18 Aman James A Session automated recording together with rules based indexing, analysis and expression of content
CA2674311C (en) 2007-02-08 2015-12-29 Behavioral Recognition Systems, Inc. Behavioral recognition system
US8411935B2 (en) 2007-07-11 2013-04-02 Behavioral Recognition Systems, Inc. Semantic representation module of a machine-learning engine in a video analysis system
US8200011B2 (en) 2007-09-27 2012-06-12 Behavioral Recognition Systems, Inc. Context processor for video analysis system
US8300924B2 (en) * 2007-09-27 2012-10-30 Behavioral Recognition Systems, Inc. Tracker component for behavioral recognition system
US8175333B2 (en) * 2007-09-27 2012-05-08 Behavioral Recognition Systems, Inc. Estimator identifier component for behavioral recognition system
US8094943B2 (en) * 2007-09-27 2012-01-10 Behavioral Recognition Systems, Inc. Background-foreground module for video analysis system
IL190232A (en) 2008-03-17 2013-05-30 Fst21 Ltd Automatic / Semi-automatic incoming sorting system and method
US8358805B2 (en) * 2008-05-21 2013-01-22 Honeywell International Inc. System having a layered architecture for constructing a dynamic social network from image data
EP2135498B1 (en) * 2008-06-20 2012-06-20 AGROCOM GmbH & Co. Agrarsystem KG A method of navigating an agricultural vehicle and an agricultural vehicle
US9141863B2 (en) * 2008-07-21 2015-09-22 Facefirst, Llc Managed biometric-based notification system and method
US10929651B2 (en) 2008-07-21 2021-02-23 Facefirst, Inc. Biometric notification system
US9721167B2 (en) * 2008-07-21 2017-08-01 Facefirst, Inc. Biometric notification system
US10043060B2 (en) 2008-07-21 2018-08-07 Facefirst, Inc. Biometric notification system
US9633275B2 (en) * 2008-09-11 2017-04-25 Wesley Kenneth Cobb Pixel-level based micro-feature extraction
US8126833B2 (en) * 2008-09-11 2012-02-28 Behavioral Recognition Systems, Inc. Detecting anomalous events using a long-term memory in a video analysis system
US8121968B2 (en) * 2008-09-11 2012-02-21 Behavioral Recognition Systems, Inc. Long-term memory in a video analysis system
JP5289022B2 (ja) * 2008-12-11 2013-09-11 キヤノン株式会社 情報処理装置及び情報処理方法
US9373055B2 (en) * 2008-12-16 2016-06-21 Behavioral Recognition Systems, Inc. Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood
US9697535B2 (en) 2008-12-23 2017-07-04 International Business Machines Corporation System and method in a virtual universe for identifying spam avatars based upon avatar multimedia characteristics
US9704177B2 (en) 2008-12-23 2017-07-11 International Business Machines Corporation Identifying spam avatars in a virtual universe (VU) based upon turing tests
US8285046B2 (en) * 2009-02-18 2012-10-09 Behavioral Recognition Systems, Inc. Adaptive update of background pixel thresholds using sudden illumination change detection
US20100208063A1 (en) * 2009-02-19 2010-08-19 Panasonic Corporation System and methods for improving accuracy and robustness of abnormal behavior detection
US8477994B1 (en) * 2009-02-26 2013-07-02 Google Inc. Creating a narrative description of media content and applications thereof
US8537219B2 (en) * 2009-03-19 2013-09-17 International Business Machines Corporation Identifying spatial locations of events within video image data
US8553778B2 (en) 2009-03-19 2013-10-08 International Business Machines Corporation Coding scheme for identifying spatial locations of events within video image data
US8416296B2 (en) * 2009-04-14 2013-04-09 Behavioral Recognition Systems, Inc. Mapper component for multiple art networks in a video analysis system
US20100291527A1 (en) * 2009-05-12 2010-11-18 Jennifer Baldi Kit and process for diagnosing multiple intelligences profile
US8656476B2 (en) 2009-05-28 2014-02-18 International Business Machines Corporation Providing notification of spam avatars
US8280153B2 (en) * 2009-08-18 2012-10-02 Behavioral Recognition Systems Visualizing and updating learned trajectories in video surveillance systems
US9805271B2 (en) 2009-08-18 2017-10-31 Omni Ai, Inc. Scene preset identification using quadtree decomposition analysis
US8625884B2 (en) * 2009-08-18 2014-01-07 Behavioral Recognition Systems, Inc. Visualizing and updating learned event maps in surveillance systems
US8493409B2 (en) * 2009-08-18 2013-07-23 Behavioral Recognition Systems, Inc. Visualizing and updating sequences and segments in a video surveillance system
US20110043689A1 (en) * 2009-08-18 2011-02-24 Wesley Kenneth Cobb Field-of-view change detection
US8295591B2 (en) * 2009-08-18 2012-10-23 Behavioral Recognition Systems, Inc. Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system
US8379085B2 (en) * 2009-08-18 2013-02-19 Behavioral Recognition Systems, Inc. Intra-trajectory anomaly detection using adaptive voting experts in a video surveillance system
US8358834B2 (en) * 2009-08-18 2013-01-22 Behavioral Recognition Systems Background model for complex and dynamic scenes
US8340352B2 (en) * 2009-08-18 2012-12-25 Behavioral Recognition Systems, Inc. Inter-trajectory anomaly detection using adaptive voting experts in a video surveillance system
US8270733B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Identifying anomalous object types during classification
US8167430B2 (en) * 2009-08-31 2012-05-01 Behavioral Recognition Systems, Inc. Unsupervised learning of temporal anomalies for a video surveillance system
US8797405B2 (en) * 2009-08-31 2014-08-05 Behavioral Recognition Systems, Inc. Visualizing and updating classifications in a video surveillance system
US8786702B2 (en) 2009-08-31 2014-07-22 Behavioral Recognition Systems, Inc. Visualizing and updating long-term memory percepts in a video surveillance system
US8270732B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Clustering nodes in a self-organizing map using an adaptive resonance theory network
US8285060B2 (en) * 2009-08-31 2012-10-09 Behavioral Recognition Systems, Inc. Detecting anomalous trajectories in a video surveillance system
US8218819B2 (en) * 2009-09-01 2012-07-10 Behavioral Recognition Systems, Inc. Foreground object detection in a video surveillance system
US8218818B2 (en) * 2009-09-01 2012-07-10 Behavioral Recognition Systems, Inc. Foreground object tracking
US8180105B2 (en) 2009-09-17 2012-05-15 Behavioral Recognition Systems, Inc. Classifier anomalies for observed behaviors in a video surveillance system
US8170283B2 (en) * 2009-09-17 2012-05-01 Behavioral Recognition Systems Inc. Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing
AU2009243442B2 (en) 2009-11-30 2013-06-13 Canon Kabushiki Kaisha Detection of abnormal behaviour in video objects
EP2345998B1 (en) * 2009-12-01 2019-11-20 Honda Research Institute Europe GmbH Multi-object tracking with a knowledge-based, autonomous adaptation of the tracking modeling level
US20110167357A1 (en) * 2010-01-05 2011-07-07 Todd Benjamin Scenario-Based Content Organization and Retrieval
US9251506B2 (en) * 2010-01-05 2016-02-02 Apple Inc. User interfaces for content categorization and retrieval
SE534706C2 (sv) * 2010-04-16 2011-11-22 Metod för videoövervakning av ett område med beteendeanalys och datorsystem för genomförande av metoden
US9324244B1 (en) * 2010-05-15 2016-04-26 David Sol Distributed multi-nodal operant conditioning system and method
TWI430212B (zh) * 2010-06-08 2014-03-11 Gorilla Technology Inc 利用多特徵自動集群法之異常行為偵測系統與方法
US8977005B2 (en) * 2010-09-17 2015-03-10 Nec Corporation Carried item region extraction device, carried item region extraction method, and computer readable medium
US20120131393A1 (en) * 2010-11-19 2012-05-24 International Business Machines Corporation Detecting System Component Failures In A Computing System
US8527817B2 (en) 2010-11-19 2013-09-03 International Business Machines Corporation Detecting system component failures in a computing system
US8855361B2 (en) * 2010-12-30 2014-10-07 Pelco, Inc. Scene activity analysis using statistical and semantic features learnt from object trajectory data
US20120249468A1 (en) * 2011-04-04 2012-10-04 Microsoft Corporation Virtual Touchpad Using a Depth Camera
US11025865B1 (en) * 2011-06-17 2021-06-01 Hrl Laboratories, Llc Contextual visual dataspaces
JP5780979B2 (ja) * 2012-02-17 2015-09-16 株式会社東芝 車両状態検出装置、車両挙動検出装置及び車両状態検出方法
ITCS20120011A1 (it) * 2012-02-23 2013-08-24 Angelo Rizzo Procedimento per rilevare una situazione di pericolo e relativo sistema e prodotto informatico.
WO2013138700A1 (en) 2012-03-15 2013-09-19 Behavioral Recognition Systems, Inc. Alert volume normalization in a video surveillance system
CN102592408A (zh) * 2012-03-19 2012-07-18 四川省绵阳西南自动化研究所 基于视觉信息分析的智能哨位安全预警系统
US9317908B2 (en) * 2012-06-29 2016-04-19 Behavioral Recognition System, Inc. Automatic gain control filter in a video analysis system
US9723271B2 (en) 2012-06-29 2017-08-01 Omni Ai, Inc. Anomalous stationary object detection and reporting
BR112014032832A2 (pt) * 2012-06-29 2017-06-27 Behavioral Recognition Sys Inc aprendizagem não supervisionada de anomalias de função para um sistema de vigilância por vídeo
US9911043B2 (en) 2012-06-29 2018-03-06 Omni Ai, Inc. Anomalous object interaction detection and reporting
US9113143B2 (en) 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Detecting and responding to an out-of-focus camera in a video analytics system
US9111353B2 (en) 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Adaptive illuminance filter in a video analysis system
US9104918B2 (en) 2012-08-20 2015-08-11 Behavioral Recognition Systems, Inc. Method and system for detecting sea-surface oil
JP2015534202A (ja) 2012-11-12 2015-11-26 ビヘイヴィアラル レコグニション システムズ, インコーポレイテッド ビデオ監視システムのための画像安定化技法
US9589190B2 (en) 2012-12-21 2017-03-07 Robert Bosch Gmbh System and method for detection of high-interest events in video data
US9342759B1 (en) * 2013-03-14 2016-05-17 Hrl Laboratories, Llc Object recognition consistency improvement using a pseudo-tracklet approach
KR20150144772A (ko) 2013-04-19 2015-12-28 무슈라즈 라자마니 범죄 증거 제공장치 겸 지원 요청장치
JP6443330B2 (ja) 2013-04-23 2018-12-26 日本電気株式会社 情報処理システム、情報処理方法およびプログラム
WO2014174796A1 (ja) * 2013-04-23 2014-10-30 日本電気株式会社 情報処理システム、情報処理方法および記憶媒体
US20160140727A1 (en) * 2013-06-17 2016-05-19 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirket I A method for object tracking
JP6474107B2 (ja) 2013-06-28 2019-02-27 日本電気株式会社 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム
US10387729B2 (en) 2013-07-09 2019-08-20 Outward, Inc. Tagging virtualized content
CN103402079A (zh) * 2013-07-31 2013-11-20 广东威创视讯科技股份有限公司 一种基于vw的异常事件智能追踪存储显示方法
US9507768B2 (en) 2013-08-09 2016-11-29 Behavioral Recognition Systems, Inc. Cognitive information security using a behavioral recognition system
CN103475882B (zh) * 2013-09-13 2017-02-15 北京大学 监控视频的编码、识别方法和监控视频的编码、识别系统
US9305225B2 (en) * 2013-10-14 2016-04-05 Daon Holdings Limited Methods and systems for determining user liveness
US9310908B2 (en) * 2013-10-30 2016-04-12 Htc Corporation Color sampling method and touch control device thereof
KR20150071781A (ko) * 2013-12-18 2015-06-29 한국전자통신연구원 궤적변환 기반 이동궤적 모델링 장치 및 방법
PL406971A1 (pl) 2014-01-28 2015-08-03 Politechnika Poznańska Sposób analizy zachowania osób w inteligentnym systemie monitorowania oraz inteligentny system monitorowania
FR3017480B1 (fr) * 2014-02-07 2017-09-08 Thales Sa Procede de detection et de classification d'evenements d'une scene
US9524426B2 (en) * 2014-03-19 2016-12-20 GM Global Technology Operations LLC Multi-view human detection using semi-exhaustive search
CN103955671B (zh) * 2014-04-23 2017-02-15 浙江工业大学 基于快速判别公共向量算法的人体行为识别方法
JP2017525064A (ja) * 2014-05-30 2017-08-31 プレイスメーター インコーポレイテッドPlacemeter Inc. ビデオデータを用いた活動モニタリングのためのシステム及び方法
CN104159090A (zh) * 2014-09-09 2014-11-19 联想(北京)有限公司 一种信息处理方法和智能监控设备
US10102738B2 (en) * 2014-09-30 2018-10-16 Henry's Products Llc Portable security device
US11116423B2 (en) 2014-10-13 2021-09-14 Koninklijke Philips N.V. Patient monitoring system and method
CA2934311C (en) 2014-10-21 2017-06-13 Robert L. Grossman Cybersecurity system
US10409909B2 (en) * 2014-12-12 2019-09-10 Omni Ai, Inc. Lexical analyzer for a neuro-linguistic behavior recognition system
US10409910B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Perceptual associative memory for a neuro-linguistic behavior recognition system
US10552750B1 (en) 2014-12-23 2020-02-04 Amazon Technologies, Inc. Disambiguating between multiple users
US10475185B1 (en) 2014-12-23 2019-11-12 Amazon Technologies, Inc. Associating a user with an event
US10438277B1 (en) 2014-12-23 2019-10-08 Amazon Technologies, Inc. Determining an item involved in an event
US20160188980A1 (en) * 2014-12-30 2016-06-30 Morphotrust Usa, Llc Video Triggered Analyses
KR101649961B1 (ko) 2014-12-31 2016-08-22 삼성에스디에스 주식회사 영상 데이터 처리 방법 및 장치
US9679387B2 (en) * 2015-02-12 2017-06-13 Mitsubishi Electric Research Laboratories, Inc. Depth-weighted group-wise principal component analysis for video foreground/background separation
CN106034222A (zh) * 2015-03-16 2016-10-19 深圳市贝尔信智能系统有限公司 一种立体式捕捉物体的方法、装置以及系统
CN105069425A (zh) * 2015-07-31 2015-11-18 小米科技有限责任公司 视频异常信息提醒方法及装置
US20170083790A1 (en) * 2015-09-23 2017-03-23 Behavioral Recognition Systems, Inc. Detected object tracker for a video analytics system
IL241863A0 (en) * 2015-10-06 2016-11-30 Agent Video Intelligence Ltd A method and system for classifying objects from a sequence of images
US9734455B2 (en) 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US10334050B2 (en) 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US10248119B2 (en) 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
WO2017079341A2 (en) * 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
KR101817583B1 (ko) * 2015-11-30 2018-01-12 한국생산기술연구원 깊이 이미지를 이용한 행동 패턴 분석 시스템 및 방법
KR101758693B1 (ko) * 2015-12-11 2017-07-19 연세대학교 산학협력단 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치
KR101720781B1 (ko) * 2015-12-21 2017-03-28 고려대학교 산학협력단 객체에 대한 이상 행동 예측 장치 및 이를 이용한 이상 행동 예측 방법
CA3012889A1 (en) * 2016-01-29 2017-08-03 Kiwisecurity Software Gmbh Methods and apparatus for using video analytics to detect regions for privacy protection within images from moving cameras
CN105608446B (zh) * 2016-02-02 2019-02-12 北京大学深圳研究生院 一种视频流异常事件的检测方法及装置
BR112018072407A2 (pt) * 2016-06-17 2019-02-19 Hewlett-Packard Development Company, L.P. estrutura de dados comum em máquina de aprendizagem.
GB2554633B (en) * 2016-06-24 2020-01-22 Imperial College Sci Tech & Medicine Detecting objects in video data
LT3338205T (lt) 2016-07-14 2019-06-25 IronNet Cybersecurity, Inc. Modeliavimas ir virtualia realybe pagrįsta kibernetinės elgsenos sistema
US10380756B2 (en) 2016-09-08 2019-08-13 Sony Corporation Video processing system and method for object detection in a sequence of image frames
TWI616086B (zh) 2016-10-20 2018-02-21 攝影裝置畫面異常種類之檢測方法
WO2018084577A1 (en) 2016-11-03 2018-05-11 Samsung Electronics Co., Ltd. Data recognition model construction apparatus and method for constructing data recognition model thereof, and data recognition apparatus and method for recognizing data thereof
CN108377407B (zh) * 2016-11-04 2021-03-12 株式会社理光 全景视频的处理方法、装置及电子设备
US10198621B2 (en) 2016-11-28 2019-02-05 Sony Corporation Image-Processing device and method for foreground mask correction for object segmentation
CA3077830C (en) * 2016-12-05 2023-03-07 Avigilon Coporation System and method for appearance search
US10445565B2 (en) * 2016-12-06 2019-10-15 General Electric Company Crowd analytics via one shot learning
EP3340104B1 (en) * 2016-12-21 2023-11-29 Axis AB A method for generating alerts in a video surveillance system
US10839203B1 (en) 2016-12-27 2020-11-17 Amazon Technologies, Inc. Recognizing and tracking poses using digital imagery captured from multiple fields of view
US10044980B1 (en) 2017-02-06 2018-08-07 International Busines Machines Corporation Conference management
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
US10699421B1 (en) 2017-03-29 2020-06-30 Amazon Technologies, Inc. Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras
CN106971166A (zh) * 2017-03-29 2017-07-21 纵目科技(上海)股份有限公司 停车位检测的图像预处理方法及系统
US20180300557A1 (en) * 2017-04-18 2018-10-18 Amazon Technologies, Inc. Object analysis in live video content
US10671840B2 (en) 2017-05-04 2020-06-02 Intel Corporation Method and apparatus for person recognition using continuous self-learning
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
WO2019005257A2 (en) * 2017-06-07 2019-01-03 Hrl Laboratories, Llc NEUROMORPHIC SYSTEM FOR REAL-TIME VISUAL ACTIVITY RECOGNITION
US10157476B1 (en) * 2017-06-15 2018-12-18 Satori Worldwide, Llc Self-learning spatial recognition system
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
TWI639978B (zh) 2017-07-19 2018-11-01 和碩聯合科技股份有限公司 視訊監控系統與視訊監控方法
TWI684160B (zh) * 2017-07-31 2020-02-01 陳兆煒 分析提示系統及方法
US11232294B1 (en) 2017-09-27 2022-01-25 Amazon Technologies, Inc. Generating tracklets from digital imagery
KR102481883B1 (ko) * 2017-09-27 2022-12-27 삼성전자주식회사 위험 상황을 감지하는 방법 및 장치
CN107944960A (zh) * 2017-11-27 2018-04-20 深圳码隆科技有限公司 一种无人售货方法和设备
US11030442B1 (en) * 2017-12-13 2021-06-08 Amazon Technologies, Inc. Associating events with actors based on digital imagery
US11284041B1 (en) 2017-12-13 2022-03-22 Amazon Technologies, Inc. Associating items with actors based on digital imagery
MX2020006273A (es) 2017-12-15 2020-09-14 Revolution Medicines Inc Compuestos policiclicos como inhibidores alostericos de shp2.
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
CN111566661B (zh) * 2018-01-30 2023-11-17 赫尔实验室有限公司 用于视觉活动分类的系统、方法、计算机可读介质
RU2683499C1 (ru) * 2018-03-15 2019-03-28 Антон Владимирович Роженков Система автоматического создания сценарного видеоролика с присутствием в кадре заданного объекта или группы объектов
US10769494B2 (en) * 2018-04-10 2020-09-08 Pony Ai Inc. Enhanced training information generation
US11529950B2 (en) 2018-04-10 2022-12-20 Pony Ai Inc. Enhanced training information generation
CN108717521A (zh) * 2018-04-17 2018-10-30 智慧互通科技有限公司 一种基于图像的停车场秩序管理方法及系统
US11196669B2 (en) 2018-05-17 2021-12-07 At&T Intellectual Property I, L.P. Network routing of media streams based upon semantic contents
CN110706194B (zh) * 2018-06-21 2021-07-06 北京三快在线科技有限公司 一种定位方法、装置及移动设备
US11468698B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11468681B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11482045B1 (en) 2018-06-28 2022-10-25 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
KR102268040B1 (ko) * 2018-09-13 2021-06-22 박상열 기계학습을 이용한 가축관리장치 및 방법
US10518750B1 (en) 2018-10-11 2019-12-31 Denso International America, Inc. Anti-theft system by location prediction based on heuristics and learning
CN112955900B (zh) * 2018-10-25 2023-08-04 上海趋视信息科技有限公司 智能视频监控系统和方法
US11312594B2 (en) 2018-11-09 2022-04-26 Otis Elevator Company Conveyance system video analytics
KR102043366B1 (ko) * 2018-11-21 2019-12-05 (주)터보소프트 최대 공통 뷰를 이용한 공간참조 영상들간의 궤적 유사도 측정방법
WO2020107327A1 (en) 2018-11-29 2020-06-04 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for target identification in video
KR20200084395A (ko) * 2018-12-20 2020-07-13 삼성전자주식회사 영상에서 오브젝트를 인식하는 전자 장치 및 그 동작 방법
US11763561B2 (en) 2018-12-26 2023-09-19 Nec Corporation Information processing apparatus, information processing method, and program
CN111476838A (zh) * 2019-01-23 2020-07-31 华为技术有限公司 图像分析方法以及系统
CN109858965A (zh) * 2019-01-25 2019-06-07 上海基分文化传播有限公司 一种用户识别方法和系统
US10733457B1 (en) * 2019-03-11 2020-08-04 Wipro Limited Method and system for predicting in real-time one or more potential threats in video surveillance
CN110097722A (zh) * 2019-03-20 2019-08-06 合肥名德光电科技股份有限公司 基于图像处理的车辆监控报警方法及装置
CN110147712A (zh) * 2019-03-27 2019-08-20 苏州书客贝塔软件科技有限公司 一种行人分析智能云平台
RU2694139C1 (ru) * 2019-04-04 2019-07-09 Общество с ограниченной ответственностью "Скайтрэк" (ООО "Скайтрэк") Способ определения девиантного поведения человека в режиме одновременной работы группы видеокамер
US11080861B2 (en) 2019-05-14 2021-08-03 Matterport, Inc. Scene segmentation using model subtraction
EP3739503B1 (en) * 2019-05-14 2023-10-25 Nokia Technologies Oy Video processing
RU196355U1 (ru) * 2019-06-26 2020-02-26 Леся Николаевна Анищенко Устройство для автоматизированного распознавания поведения с целью выявления агрессии
KR20210009066A (ko) 2019-07-16 2021-01-26 삼성전자주식회사 사용자의 의도를 추정하는 방법 및 장치
US10997730B2 (en) 2019-08-21 2021-05-04 XNOR.ai, Inc. Detection of moment of perception
US10930032B1 (en) * 2019-08-22 2021-02-23 International Business Machines Corporation Generating concept images of human poses using machine learning models
BE1027605B1 (nl) 2019-09-30 2021-04-26 Secury360 Bv Verbeterde werkwijze en systeem voor camerabeveiliging
US11284824B2 (en) * 2019-12-02 2022-03-29 Everseen Limited Method and system for determining a human social behavior classification
CN111046819B (zh) * 2019-12-18 2023-09-05 浙江大华技术股份有限公司 一种行为识别处理方法及装置
CN111178323B (zh) * 2020-01-10 2023-08-29 北京百度网讯科技有限公司 基于视频的群体行为识别方法、装置、设备及存储介质
CN111461223B (zh) * 2020-04-01 2023-04-07 支付宝(杭州)信息技术有限公司 异常交易识别模型的训练方法及异常交易识别方法
RU2748581C1 (ru) * 2020-04-02 2021-05-27 Антон Владимирович Роженков Система автоматического создания сценарного видеоролика с присутствием в кадре заданного объекта или группы объектов
US11443516B1 (en) 2020-04-06 2022-09-13 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
US11398094B1 (en) 2020-04-06 2022-07-26 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
CN111666916B (zh) * 2020-06-18 2023-03-28 安徽超清科技股份有限公司 一种基于自学习技术后厨违规行为识别方法
WO2021261985A1 (en) * 2020-06-23 2021-12-30 Mimos Berhad A system and method for classifying level of aggressiveness
CN112037254A (zh) * 2020-08-11 2020-12-04 浙江大华技术股份有限公司 目标跟踪方法及相关装置
CN112634329B (zh) * 2020-12-26 2024-02-13 西安电子科技大学 一种基于时空与或图的场景目标活动预测方法及装置
CN112597961B (zh) * 2020-12-30 2021-09-24 上海大学 一种基于大数据的兴趣目标提取方法及系统
US11516311B2 (en) * 2021-01-22 2022-11-29 Avago Technologies International Sales Pte. Limited Distributed machine-learning resource sharing and request routing
CN112926474A (zh) * 2021-03-08 2021-06-08 商汤集团有限公司 一种行为识别及特征提取的方法、装置、设备及介质
CN113052147B (zh) * 2021-04-30 2023-04-25 北京邮电大学 一种行为识别方法及装置
CN113239791B (zh) * 2021-05-11 2022-08-23 青岛以萨数据技术有限公司 基于神经网络和目标追踪的考官异常行为监控方法及系统
IT202100022397A1 (it) * 2021-08-27 2023-02-27 Visio Tech S R L Metodo per il monitoraggio di target su un nastro trasportatore, su sorter e su rulliere di un impianto di smistamento
IT202100022403A1 (it) * 2021-08-27 2023-02-27 Visio Tech S R L Metodo per il monitoraggio di target in un impianto di smistamento
KR102593463B1 (ko) * 2021-09-27 2023-10-24 고려대학교 산학협력단 일반 상식 추론 기반의 언어 생성 장치 및 방법
KR20230100418A (ko) 2021-12-28 2023-07-05 경북대학교 산학협력단 시공간 어텐션 네트워크를 이용한 행동경계 생성방법 및 행동경계 생성장치
WO2023168389A2 (en) * 2022-03-04 2023-09-07 Supernal, Llc Systems, methods, and devices for passenger monitoring
DE102022202942A1 (de) 2022-03-25 2023-09-28 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsvorrichtung, Überwachungsanordnungen, Verfahren, Computerprogramm und Speichermedium
US20230316726A1 (en) * 2022-03-27 2023-10-05 Deep Sentinel Corp. Using guard feedback to train ai models
US12002268B2 (en) 2022-07-06 2024-06-04 Universal City Studios Llc Amusement park interactive guidance system
CN116189089A (zh) * 2023-02-14 2023-05-30 深圳市巨龙创视科技有限公司 智能视频监控方法及系统
CN116403162B (zh) * 2023-04-11 2023-10-27 南京航空航天大学 一种机场场面目标行为识别方法、系统及电子设备
CN117115718B (zh) * 2023-10-20 2024-01-09 思创数码科技股份有限公司 政务视频数据的处理方法、系统及计算机可读存储介质

Family Cites Families (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4679077A (en) 1984-11-10 1987-07-07 Matsushita Electric Works, Ltd. Visual Image sensor system
GB2219461B (en) 1988-05-02 1992-11-18 Canon Kk Exposure control device
US4998162A (en) 1988-08-22 1991-03-05 Sony Corporation Video camera
US5113507A (en) 1988-10-20 1992-05-12 Universities Space Research Association Method and apparatus for a sparse distributed memory system
US5091780A (en) 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
JPH04273689A (ja) * 1991-02-28 1992-09-29 Hitachi Ltd 監視装置
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
US5574845A (en) * 1994-11-29 1996-11-12 Siemens Corporate Research, Inc. Method and apparatus video data management
US6252974B1 (en) 1995-03-22 2001-06-26 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for depth modelling and providing depth information of moving objects
US7076102B2 (en) 2001-09-27 2006-07-11 Koninklijke Philips Electronics N.V. Video monitoring system employing hierarchical hidden markov model (HMM) event learning and classification
US5969755A (en) 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
US5751378A (en) 1996-09-27 1998-05-12 General Instrument Corporation Scene change detector for digital video
US6263088B1 (en) 1997-06-19 2001-07-17 Ncr Corporation System and method for tracking movement of objects in a scene
US6532022B1 (en) 1997-10-15 2003-03-11 Electric Planet, Inc. Method and apparatus for model-based compositing
EP0967584B1 (en) 1998-04-30 2004-10-20 Texas Instruments Incorporated Automatic video monitoring system
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6570608B1 (en) 1998-09-30 2003-05-27 Texas Instruments Incorporated System and method for detecting interactions of people and vehicles
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US7136525B1 (en) 1999-09-20 2006-11-14 Microsoft Corporation System and method for background maintenance of an image sequence
US7136097B1 (en) 1999-10-04 2006-11-14 Hamamatsu Photonics K.K. Camera system for high-speed image processing including selection of at least one frame based on processed results
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6940998B2 (en) 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
US6642940B1 (en) 2000-03-03 2003-11-04 Massachusetts Institute Of Technology Management of properties for hyperlinked video
JP2001333389A (ja) * 2000-05-17 2001-11-30 Mitsubishi Electric Research Laboratories Inc ビデオ再生システムおよびビデオ信号処理方法
US7868912B2 (en) 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
US6678413B1 (en) 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
WO2007126525A2 (en) 2006-04-17 2007-11-08 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US6625310B2 (en) 2001-03-23 2003-09-23 Diamondback Vision, Inc. Video segmentation using statistical pixel modeling
US6825769B2 (en) 2001-09-14 2004-11-30 Koninklijke Philips Electronics N.V. Automatic shut-off light system when user sleeps
US20030058237A1 (en) 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Multi-layered background models for improved background-foreground segmentation
US20030107650A1 (en) * 2001-12-11 2003-06-12 Koninklijke Philips Electronics N.V. Surveillance system with suspicious behavior detection
US20060165386A1 (en) 2002-01-08 2006-07-27 Cernium, Inc. Object selective video recording
US7436887B2 (en) 2002-02-06 2008-10-14 Playtex Products, Inc. Method and apparatus for video frame sequence-based object tracking
US6856249B2 (en) 2002-03-07 2005-02-15 Koninklijke Philips Electronics N.V. System and method of keeping track of normal behavior of the inhabitants of a house
US7254268B2 (en) 2002-04-11 2007-08-07 Arcsoft, Inc. Object extraction
JP4352653B2 (ja) * 2002-04-12 2009-10-28 三菱電機株式会社 映像コンテンツ管理運用システム
US7034833B2 (en) 2002-05-29 2006-04-25 Intel Corporation Animated photographs
US6970190B2 (en) 2002-06-12 2005-11-29 Litton Systems, Inc. Event synchronization for detector systems
US7308136B2 (en) 2002-07-01 2007-12-11 Xerox Corporation Weak edge repositioning in a MRC segmentor
US20040032906A1 (en) 2002-08-19 2004-02-19 Lillig Thomas M. Foreground segmentation for digital video
US7227893B1 (en) 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
US7200266B2 (en) 2002-08-27 2007-04-03 Princeton University Method and apparatus for automated video activity analysis
US7349574B1 (en) 2002-10-11 2008-03-25 Sensata Technologies, Inc. System and method for processing non-linear image data from a digital imager
US7336803B2 (en) 2002-10-17 2008-02-26 Siemens Corporate Research, Inc. Method for scene modeling and change detection
US7236190B2 (en) 2002-10-31 2007-06-26 Freescale Semiconductor, Inc. Digital image processing using white balance and gamma correction
US7639741B1 (en) 2002-12-06 2009-12-29 Altera Corporation Temporal filtering using object motion estimation
US6999600B2 (en) 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
US7421418B2 (en) * 2003-02-19 2008-09-02 Nahava Inc. Method and apparatus for fundamental operations on token sequences: computing similarity, extracting term values, and searching efficiently
JP2004328622A (ja) 2003-04-28 2004-11-18 Matsushita Electric Ind Co Ltd 行動パターン識別装置
US7026979B2 (en) 2003-07-03 2006-04-11 Hrl Labortories, Llc Method and apparatus for joint kinematic and feature tracking using probabilistic argumentation
US7280673B2 (en) 2003-10-10 2007-10-09 Intellivid Corporation System and method for searching for changes in surveillance video
US20050104958A1 (en) 2003-11-13 2005-05-19 Geoffrey Egnal Active camera video-based surveillance systems and methods
US7127083B2 (en) 2003-11-17 2006-10-24 Vidient Systems, Inc. Video surveillance system with object detection and probability scoring based on object class
US7218756B2 (en) 2004-03-24 2007-05-15 Cernium, Inc. Video analysis using segmentation gain by area
US7508455B2 (en) 2004-03-26 2009-03-24 Ross Video/Live Production Technology Method, system, and device for automatic determination of nominal backing color and a range thereof
US20050219362A1 (en) 2004-03-30 2005-10-06 Cernium, Inc. Quality analysis in imaging
US20060018516A1 (en) 2004-07-22 2006-01-26 Masoud Osama T Monitoring activity using video information
US8289390B2 (en) * 2004-07-28 2012-10-16 Sri International Method and apparatus for total situational awareness and monitoring
EP1779294A4 (en) 2004-07-30 2010-12-29 Euclid Discoveries Llc DEVICE AND METHOD FOR PROCESSING VIDEO DATA
US8589315B2 (en) * 2004-08-14 2013-11-19 Hrl Laboratories, Llc Behavior recognition using cognitive swarms and fuzzy graphs
US7620266B2 (en) 2005-01-20 2009-11-17 International Business Machines Corporation Robust and efficient foreground analysis for real-time video surveillance
US20060190419A1 (en) 2005-02-22 2006-08-24 Bunn Frank E Video surveillance data analysis algorithms, with local and network-shared communications for facial, physical condition, and intoxication recognition, fuzzy logic intelligent camera system
ATE487201T1 (de) 2005-03-17 2010-11-15 British Telecomm Verfolgen von objekten in einer videosequenz
JP4741650B2 (ja) * 2005-03-17 2011-08-03 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
US20060222206A1 (en) 2005-03-30 2006-10-05 Cernium, Inc. Intelligent video behavior recognition with multiple masks and configurable logic inference module
WO2006115676A2 (en) 2005-03-30 2006-11-02 Cernium Corporation Video ghost detection by outline
US8316407B2 (en) 2005-04-04 2012-11-20 Honeywell International Inc. Video system interface kernel
US7825954B2 (en) 2005-05-31 2010-11-02 Objectvideo, Inc. Multi-state target tracking
RU2378790C1 (ru) * 2005-09-27 2010-01-10 Квэлкомм Инкорпорейтед Методики масштабируемости на основе информации содержимого
US20070092149A1 (en) 2005-10-24 2007-04-26 Sung Chih-Ta S Method and apparatus of high quality video compression
TWI285047B (en) 2005-11-24 2007-08-01 Sunplus Technology Co Ltd Method of automatic exposure control and automatic exposure compensated apparatus
EP2013823A1 (en) 2006-03-28 2009-01-14 The University Court Of The University Of Edinburgh A method for automatically characterizing the behavior of one or more objects
US8467570B2 (en) 2006-06-14 2013-06-18 Honeywell International Inc. Tracking system with fused motion and object detection
US7710466B2 (en) 2007-01-25 2010-05-04 Research In Motion Limited Method and apparatus for controlling a camera module to compensate for the color spectrum of a white LED
US7916944B2 (en) 2007-01-31 2011-03-29 Fuji Xerox Co., Ltd. System and method for feature level foreground segmentation
CA2674311C (en) 2007-02-08 2015-12-29 Behavioral Recognition Systems, Inc. Behavioral recognition system
WO2008103929A2 (en) 2007-02-23 2008-08-28 Johnson Controls Technology Company Video processing systems and methods
US8086036B2 (en) 2007-03-26 2011-12-27 International Business Machines Corporation Approach for resolving occlusions, splits and merges in video images
US7929729B2 (en) 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
US8306348B2 (en) 2007-04-24 2012-11-06 DigitalOptics Corporation Europe Limited Techniques for adjusting the effect of applying kernels to signals to achieve desired effect on signal
US8064639B2 (en) 2007-07-19 2011-11-22 Honeywell International Inc. Multi-pose face tracking using multiple appearance models
US8300924B2 (en) 2007-09-27 2012-10-30 Behavioral Recognition Systems, Inc. Tracker component for behavioral recognition system
US8094943B2 (en) 2007-09-27 2012-01-10 Behavioral Recognition Systems, Inc. Background-foreground module for video analysis system
US8200011B2 (en) 2007-09-27 2012-06-12 Behavioral Recognition Systems, Inc. Context processor for video analysis system
WO2009049314A2 (en) 2007-10-11 2009-04-16 Trustees Of Boston University Video processing system employing behavior subtraction between reference and observed video image sequences
US8452108B2 (en) 2008-06-25 2013-05-28 Gannon Technologies Group Llc Systems and methods for image recognition using graph-based pattern matching
US8121968B2 (en) 2008-09-11 2012-02-21 Behavioral Recognition Systems, Inc. Long-term memory in a video analysis system
US8611677B2 (en) 2008-11-19 2013-12-17 Intellectual Ventures Fund 83 Llc Method for event-based semantic classification
US9373055B2 (en) 2008-12-16 2016-06-21 Behavioral Recognition Systems, Inc. Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood
US8285046B2 (en) 2009-02-18 2012-10-09 Behavioral Recognition Systems, Inc. Adaptive update of background pixel thresholds using sudden illumination change detection
US8416296B2 (en) 2009-04-14 2013-04-09 Behavioral Recognition Systems, Inc. Mapper component for multiple art networks in a video analysis system

Also Published As

Publication number Publication date
WO2008098188A3 (en) 2008-11-13
NZ578752A (en) 2012-03-30
CA2674311C (en) 2015-12-29
JP5602792B2 (ja) 2014-10-08
AU2008213586A1 (en) 2008-08-14
JP5278770B2 (ja) 2013-09-04
BRPI0806968A8 (pt) 2018-01-16
EP2118864A2 (en) 2009-11-18
JP2012230686A (ja) 2012-11-22
RU2475853C2 (ru) 2013-02-20
PL2118864T3 (pl) 2015-03-31
DK2118864T3 (da) 2014-11-10
JP2010518522A (ja) 2010-05-27
EG26304A (en) 2013-07-03
KR101260847B1 (ko) 2013-05-06
BRPI0806968A2 (pt) 2014-04-08
US8620028B2 (en) 2013-12-31
RU2009133474A (ru) 2011-03-20
WO2008098188A2 (en) 2008-08-14
US20080193010A1 (en) 2008-08-14
MX2009008376A (es) 2009-12-14
EP2118864A4 (en) 2012-08-01
AU2008213586B2 (en) 2013-07-11
US8131012B2 (en) 2012-03-06
US20120163670A1 (en) 2012-06-28
KR20090121309A (ko) 2009-11-25
CN101622652A (zh) 2010-01-06
ZA200905257B (en) 2010-10-27
BRPI0806968B1 (pt) 2018-09-18
CA2674311A1 (en) 2008-08-14
EP2118864B1 (en) 2014-07-30
CN101622652B (zh) 2012-03-21

Similar Documents

Publication Publication Date Title
ES2522589T3 (es) Sistema de reconocimiento conductual
Muhammad et al. Early fire detection using convolutional neural networks during surveillance for effective disaster management
US8200011B2 (en) Context processor for video analysis system
US9959630B2 (en) Background model for complex and dynamic scenes
US9373055B2 (en) Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood
US8285060B2 (en) Detecting anomalous trajectories in a video surveillance system
US8614744B2 (en) Area monitoring using prototypical tracks
US20050073585A1 (en) Tracking systems and methods
US8712096B2 (en) Method and apparatus for detecting and tracking vehicles
US8786702B2 (en) Visualizing and updating long-term memory percepts in a video surveillance system
JP2004534315A (ja) 移動対象物を監視する方法およびシステム
CN106296677A (zh) 一种基于双背景模型的双掩膜背景更新的遗留物检测方法
Ilias et al. An edge-based method for effective abandoned luggage detection in complex surveillance videos
Shariff et al. Event Cameras in Automotive Sensing: A Review
US20220189210A1 (en) Occlusion-Aware Prediction of Human Behavior
KR20220098677A (ko) 교통사고 예측 방법 및 시스템
Patino et al. Multicamera trajectory analysis for semantic behaviour characterisation
Ahmed et al. Development of pedestrian tracking system using Lucas Kanade technique
Elmarhomy A Method for Real Time Counting Passersby utilizing Space-time Imagery