ES2948189T3 - Procedimiento de control de una cámara PTZ, producto de programa de ordenador y dispositivo de control asociados - Google Patents

Procedimiento de control de una cámara PTZ, producto de programa de ordenador y dispositivo de control asociados Download PDF

Info

Publication number
ES2948189T3
ES2948189T3 ES18159092T ES18159092T ES2948189T3 ES 2948189 T3 ES2948189 T3 ES 2948189T3 ES 18159092 T ES18159092 T ES 18159092T ES 18159092 T ES18159092 T ES 18159092T ES 2948189 T3 ES2948189 T3 ES 2948189T3
Authority
ES
Spain
Prior art keywords
camera
interest
observation
observation position
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18159092T
Other languages
English (en)
Inventor
Jean-François Goudou
Andreï Stoian
Céline Craye
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Application granted granted Critical
Publication of ES2948189T3 publication Critical patent/ES2948189T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/20Calibration, including self-calibrating arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Details Of Television Systems (AREA)

Abstract

La presente invención se refiere a un método para controlar una cámara PTZ que comprende un dispositivo de disparo ajustable según una pluralidad de posiciones de observación, definiendo cada posición de observación un campo de visión de la cámara, comprendiendo el método una fase de vigilancia (PS) que comprende los pasos de ajustar (170) la cámara para tomar fotografías de acuerdo con una de las posiciones de observación y disparo (180) del campo de observación correspondiente a la posición de observación según la cual se establece la cámara. El método se caracteriza porque comprende además un fase de aprendizaje (PA) implementada al menos una vez antes de la fase de seguimiento (PS) y que comprende el establecimiento dinámico de una lista de ajustes según objetos de interés presentes en diferentes campos de visión de la cámara. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimiento de control de una cámara PTZ, producto de programa de ordenador y dispositivo de control asociados [0001] La presente invención se refiere a un procedimiento de control de una cámara PTZ.
[0002] La presente invención se refiere igualmente a un producto de programa de ordenador y a un dispositivo de control asociados a esta cámara.
[0003] Por cámara PTZ se entiende una cámara apta para regular de manera automática o casi automática su orientación y su nivel de ampliación de la escena conocida también como "zoom". En este contexto, la sigla "PTZ" corresponde a los tres movimientos que caracterizan a una cámara de este tipo; a saber, hacer una panorámica, inclinar y ampliar o hacer zoom (del inglés "pan", "tilt" y "zoom"). Una cámara de este tipo se utiliza a menudo en la vigilancia a distancia.
[0004] Existen diferentes métodos de control de una cámara PTZ en el estado de la técnica.
[0005] Algunos de estos métodos consisten especialmente en modificar periódicamente la orientación de la cámara, realizando así un barrido homogéneo de las escenas alrededor de la cámara.
[0006] Durante un barrido de este tipo, cuando es necesario tener más detalles de una escena, un operador puede generalmente intervenir para controlar, por ejemplo, el zoom de la cámara manualmente.
[0007] Según otros métodos de control conocidos, la cámara PTZ pasa sucesivamente por posiciones de observación determinadas previamente por un operador, por ejemplo, durante la instalación de la cámara. Cada posición de observación comprende la orientación de la cámara así como el nivel de su zoom.
[0008] Estas posiciones de observación se determinan, por ejemplo, en función de los objetos fijos que se encuentran alrededor de la cámara o incluso en función de los lugares donde es más probable que se produzcan cambios.
[0009] Las imágenes adquiridas por la cámara en diferentes posiciones de observación son, por ejemplo, procesadas posteriormente por el operador.
[0010] Sin embargo, los métodos existentes presentan una serie de inconvenientes.
[0011] En particular, durante el ciclo de vida de una cámara PTZ, a menudo es necesario calibrar las posiciones de observación predeterminadas para adaptarlas a cada evolución del entorno de la cámara. Esto requiere la intervención regular de un operador de mantenimiento, lo que aumenta considerablemente los costes de las instalaciones correspondientes.
[0012] Además, algunas posiciones de observación presentan zooms demasiado amplios, por lo que la cámara enfoca detalles de la escena, pero no ofrece una visión general. No obstante, a menudo es más ventajoso tener una visión de conjunto que una visión demasiado detallada.
[0013] El documento WC9e5/15542 A1 (ZCCeMe CITY PTY LTD [AU];GILD RCBeERT JCSeEPH [AU]) 8 de junio de 1995 (08-06-1995) divulga un sistema de observación turística de monedas o tokens, dotado de una cámara de vídeo, una pantalla táctil y un sistema de control que permite al usuario operar el sistema en modo automático, semiautomático o manual.
[0014] El documento EP 3070643 A1 (THALES SA [FR]) 21 de septiembre de 2016 (21-09-2016) divulga un método de reconocimiento, por ejemplo, de un objeto, durante la videovigilancia, implica la orientación de un dispositivo de adquisición de imágenes, la adquisición de una señal de imagen digital con una resolución y la realización de una clasificación de objeto de una parte de escena con ayuda de una señal de imagen.
[0015] El documento US 2013/342700 A1 (KASS AHARCNe [IL]) 26 de diciembre de 2013 (26-12-2013) divulga un sistema de uso de coincidencia de patrones para determinar la presencia de un objeto designado en imágenes digitales, que comprende una cámara configurada para grabar un evento que se produce y un procesador para seleccionar una acción a realizar durante la determinación de la presencia de un objeto designado.
[0016] El documento US 2012/148160 A1 (SWAMINATHAN GURU-MURTHY [IN] Y CCLe) 14 de junio de 2012 (14-06-2012) divulga un método de detección puntos de referencia, por ejemplo, ojos de individuos que entran en una instalación de construcción, implica el uso de un clasificador en cascada y fuerte para determinar las ubicaciones de los puntos de referencia faciales identificados utilizando las dimensiones del rostro de la imagen.
[0017] El documento KR 101 480 636 B1 (S 1 CCReP [KR]) 9 de enero de 2015 (09-01-2015) divulga un procedimiento de vigilancia para un dispositivo de videovigilancia, que consiste en volver a fotografiar una región de vigilancia e introducir datos de la fase de aprendizaje de un objeto de vigilancia en una máquina de clasificación, donde se inicia una ranura de datos para un objeto de vigilancia.
[0018] El documento EP 2945366 A1 (SCNeY CCReP [JP]) 18 de noviembre de 2015 (18-11-2015) divulga un aparato de procesamiento de imágenes utilizado, por ejemplo, una cámara digital, con una unidad principal de determinación de objetos a fotografiar para determinar los principales objetos que se van a fotografiar en función de la tendencia de contacto/separación del objeto que se va a fotografiar.
[0019] La presente invención tiene como objetivo proponer un procedimiento de control de una cámara PTZ que permita evitar la necesidad de calibración de posiciones de observación garantizando al mismo tiempo una vigilancia eficaz.
[0020] Además, el procedimiento de control según la invención permite adaptar mejor el zoom elegido en diferentes posiciones de observación para evitar las pérdidas en la visión global.
[0021] A tal efecto, la invención tiene por objeto un procedimiento de control de una cámara PTZ de acuerdo con la reivindicación 1.
[0022] Según otros aspectos ventajosos de la invención, el procedimiento de control comprende una o varias de las características de las reivindicaciones 2 a 6.
[0023] La invención tiene también por objeto un producto de programa de ordenador que incluye instrucciones de software que, cuando son implementadas por un equipo informático, implementa el procedimiento tal como se define anteriormente.
[0024] La invención tiene también por objeto un dispositivo de control que implementa el procedimiento tal como se define anteriormente.
[0025] Por último, la invención tiene por objeto una cámara PTZ de acuerdo con la reivindicación 9.
[0026] Estas características y ventajas de la invención aparecerán con la lectura de la descripción que se ofrece a continuación, proporcionada únicamente a modo de ejemplo no limitativo, y hecha en referencia a los dibujos adjuntos, en los que:
- la figura 1 es una vista esquemática de una cámara PTZ según la invención, incluyendo la cámara en particular un dispositivo de control según la invención;
- la figura 2 es una vista esquemática del dispositivo de control de la figura 1; y
- la figura 3 es un organigrama de un procedimiento de control, según la invención, siendo el procedimiento implementado por el dispositivo de control de la figura 1.
[0027] La cámara 10 de la figura 1 es una cámara PTZ que se utiliza en particular en el campo de la vigilancia a distancia para observar una pluralidad de objetos de interés.
[0028] Por objeto de interés, se entiende cualquier objeto que presente un interés cualquiera para la vigilancia a distancia.
[0029] Así, por ejemplo, tal objeto de interés comprende un ser vivo, tal como un animal o una persona, un objeto al menos parcialmente móvil, tal como un vehículo o cualquier otro artefacto apto para desplazarse en el espacio, o incluso un objeto sustancialmente estático pero que presenta una cierta evolución en el tiempo, tal como una planta.
[0030] La cámara 10 está dispuesta, por ejemplo, de manera fija sobre un soporte 12 que presenta al menos localmente un plano de soporte 13 dispuesto, por ejemplo, horizontalmente.
[0031] Por supuesto, el soporte 12 puede presentar cualquier otra forma y disposición adaptadas para fijar la cámara 10 según los métodos conocidos en sí.
[0032] Como se ilustra en la figura 1, la cámara 12 comprende una parte fija 15 fijada al plano de soporte 13 y una parte móvil 16.
[0033] La parte fija 15 presenta una carcasa, por ejemplo, de forma cilíndrica que comprende un dispositivo de motorización 21 de la parte móvil 16, un dispositivo de control 22 y un dispositivo de comunicación externo 23.
[0034] La parte fija 15 comprende además unos medios de soporte 27 necesarios para asegurar la rotación de la parte móvil 16 como se explicará a continuación. Estos medios de soporte 27 sobresalen, por ejemplo, con respecto a la carcasa cilíndrica.
[0035] La parte móvil 16 presenta una carcasa, por ejemplo, de forma esférica que comprende un dispositivo de captura de imágenes 30 integrado de manera fija en esta carcasa.
[0036] La parte móvil 16 está montada de forma giratoria sobre los medios de soporte 27 de la parte fija 15, alrededor de un primer eje Z perpendicular al plano de soporte 13 y alrededor de un segundo eje X paralelo al plano de soporte 13.
[0037] El dispositivo de captura de imágenes 30 comprende un elemento óptico y un elemento de procesamiento de señales procedentes del elemento óptico.
[0038] El elemento óptico es, por ejemplo, un objeto variofocal. De una manera conocida en sí, dicho objeto define un campo de visión de la cámara 10.
[0039] En particular, el elemento óptico del dispositivo de captura de imágenes 30 define un eje de captura de imágenes Y que es, en el ejemplo descrito, perpendicular al segundo eje X y atraviesa el plano de soporte 13. El ángulo formado entre el eje de captura de imágenes Y y el plano de soporte 13 está denotado posteriormente por la expresión "ángulo de inclinación" de la cámara 10.
[0040] Además, en proyección sobre el plano de soporte 13, el ángulo formado entre la proyección del eje de captura de imágenes Y y un eje de referencia R comprendido en este plano y que atraviesa el primer eje Z está denotado posteriormente por la expresión "ángulo de acimut" de la cámara 10.
[0041] De este modo, la rotación de la parte móvil 16 de la cámara 10 alrededor del segundo eje X implica un cambio en el ángulo de inclinación de la cámara 10 que es variable, por ejemplo, entre -90° y 90°.
[0042] La rotación de la parte móvil 16 de la cámara 10 alrededor del primer eje Z implica un cambio del ángulo de acimut de la cámara 10 que es variable, por ejemplo, entre 0° y 360°.
[0043] Por lo tanto, los ángulos de inclinación y de acimut de la cámara 10 definen su orientación en el espacio.
[0044] El elemento óptico del dispositivo de captura de imágenes 30 define además un nivel de ampliación de la escena que se conoce también con el término "zoom". Este nivel es variable, por ejemplo, por unos medios de motorización previstos a tal efecto en el dispositivo de captura de imágenes 30.
[0045] El elemento de procesamiento está conectado directamente al elemento de óptica y permite reconstituir un flujo de vídeo a partir de las señales procedentes del elemento óptico según unos métodos conocidos en sí.
[0046] El dispositivo de captura de imágenes 30 está conectado al dispositivo de comunicación externo 23 y al dispositivo de control 22.
[0047] De este modo, el dispositivo de comunicación externo 23 es apto para recibir el flujo de vídeo generado por el dispositivo de captura de imágenes 30 y para transmitirlo hacia unos medios de procesamiento externos a través, por ejemplo, de unos medios de transmisión alámbricos o inalámbricos. Los medios de procesamiento externos presentan, por ejemplo, unos medios de visualización del flujo de vídeo o unos medios de grabación de este flujo.
[0048] El dispositivo de motorización 21 dispone, por ejemplo, de uno o varios motores eléctricos aptos para accionar con un movimiento rotatorio la parte móvil 16 alrededor del primer eje Z y del segundo eje X.
[0049] El dispositivo de control 22 es apto para recibir el flujo de vídeo transmitido por el dispositivo de captura de imágenes 30 y para controlar el funcionamiento de la cámara 10 y, en particular, el funcionamiento del dispositivo de motorización 21 y del dispositivo de captura de imágenes 30.
[0050] Así, en relación con el dispositivo de captura de imágenes 30, el dispositivo de control 22 es apto para controlar la activación o la desactivación del funcionamiento de este dispositivo de captura de imágenes 30. Es además apto para ordenar un cambio del nivel de ampliación dado por este dispositivo 30.
[0051] En relación con el dispositivo de motorización 21, el dispositivo de control 22 es apto para controlar la activación o la desactivación del o de los motores eléctricos correspondientes para hacer girar la parte móvil 16 alrededor del primer eje Z y/o alrededor del segundo eje Y.
[0052] Por control del nivel de ampliación y de la orientación de la cámara 10, el dispositivo de control 22 permite ajustar la cámara 10 definiendo una posición de observación de la cámara 10.
[0053] Así, por posición de observación, se comprende la orientación de la cámara 10; es decir, su ángulo de inclinación y su ángulo de acimut, y el nivel de ampliación dado por el dispositivo de captura de imágenes 30.
[0054] Cada posición de observación define así un campo de visión de la cámara 10. Diferentes posiciones de observación corresponden entonces a diferentes campos de visión.
[0055] El dispositivo de control 22 se ilustra con más detalle en la figura 2.
[0056] De este modo, en referencia a esta figura 2, el dispositivo de control 22 comprende un módulo de aprendizaje 34, un módulo de vigilancia 36 y una base de datos 38.
[0057] Los módulos de aprendizaje 34 y de vigilancia 36 presentan, por ejemplo, unos circuitos electrónicos programables que están programados de manera que implementen respectivamente una fase de aprendizaje PA y una fase de vigilancia PS de un procedimiento de control que se explicará con más detalle a continuación.
[0058] Según otro ejemplo de realización, los módulos de aprendizaje 34 y de vigilancia 36 presentan software que implementa respectivamente la fase de aprendizaje PA y la fase de vigilancia PS. Estos softwares se almacenan en una memoria prevista para este fin en el dispositivo de control 22 y son ejecutables por un procesador igualmente previsto para este fin en el dispositivo de control 22.
[0059] La base de datos 38 presenta una memoria prevista para este fin en el dispositivo de control 22 y apta para almacenar una lista de ajustes como se explicará a continuación.
[0060] Según un ejemplo de realización, el dispositivo de control 22 no está integrado en la cámara 10 sino que se presenta en la forma de un módulo remoto que se comunica con la cámara 10, por ejemplo, a través del dispositivo de comunicación externo 23.
[0061] El procedimiento de control de la cámara 10 según la invención se explicará ahora en referencia a la figura 3 que presenta un organigrama de sus etapas.
[0062] Así, como se ha mencionado anteriormente, el procedimiento de control comprende una fase de aprendizaje PA y una fase de vigilancia PS. La fase de aprendizaje PA se implementará al menos una vez antes de la implementación de la fase de vigilancia PS.
[0063] En particular, la fase de aprendizaje PA permite establecer dinámicamente la lista de ajustes en función de objetos de interés presentes en diferentes campos de visión de la cámara 10.
[0064] Durante una etapa inicial 110 de la fase de aprendizaje PA, el módulo de aprendizaje 34 controla un barrido de diferentes campos de visión de la cámara 10.
[0065] Por barrido, se comprende en particular una captura de imágenes por el dispositivo de captura de imágenes 30 en diferentes posiciones de observación de la cámara 10. Cada cambio de una posición de observación se controla, por ejemplo, modificando el ángulo de inclinación de la cámara 10 y/o su ángulo de acimut y/o el nivel de ampliación.
[0066] Durante dicho barrido, el módulo de aprendizaje 10 recibe el flujo de vídeo generado por el dispositivo de captura de imágenes 30 e implementa la detección de objetos de interés según unos métodos conocidos en sí.
[0067] Así, por ejemplo, estos métodos consisten en reconocer un objeto de interés analizando características predeterminadas de este objeto o de los campos de visión barridos por la cámara 12.
[0068] Las características predeterminadas comprenden, por ejemplo, formas o texturas esperadas del objeto de interés y/o de su entorno. Estos métodos permiten, por ejemplo, reconocer a una persona detectando su rostro u otras partes de su cuerpo que tienen formas predeterminadas.
[0069] Cuando el módulo de aprendizaje 34 detecta un objeto de interés, implementa la etapa 120 siguiente.
[0070] Durante esta etapa 120, el módulo de aprendizaje 34 determina la posición de observación que define el campo de visión que incluye el objeto de interés detectado.
[0071] Según una variante de realización, la fase de aprendizaje PA comprende además una etapa 115 de optimización del campo de visión que comprende el objeto de interés detectado que se implementa después de la etapa 110 y antes de la etapa 120.
[0072] Durante esta etapa 115, el módulo de aprendizaje 34 adapta el campo de visión del objeto de interés detectado durante la etapa 110 para, por ejemplo, ver mejor este objeto de interés o su entorno.
[0073] En particular, el módulo de aprendizaje 34 adapta este campo de visión ajustando el nivel de ampliación y/o la orientación de la cámara 10 en función, por ejemplo, de al menos algunas características predeterminadas del objeto de interés.
[0074] Como en el caso anterior, las características predeterminadas comprenden, por ejemplo, formas o texturas esperadas del objeto de interés y/o de su entorno.
[0075] El módulo de aprendizaje 34 obtiene así un campo de visión óptimo que incluye el objeto de interés.
[0076] El campo de visión óptimo obtenido comprende, por ejemplo, además del objeto de interés detectado durante la etapa 110, otro objeto de interés no visible o poco visible en el campo de visión inicial. En este caso, durante la etapa 115, el módulo de aprendizaje 34 ajusta de manera adecuada el nivel de ampliación para que el campo de visión óptimo comprenda los dos objetos de interés.
[0077] Según otro ejemplo, el campo de visión óptimo comprende únicamente el objeto de interés detectado durante la etapa 110 con un nivel de ampliación óptimo. Este nivel de ampliación óptimo permite, por ejemplo, ver en detalle este objeto de interés.
[0078] Si se ha implementado la etapa 115, durante la etapa 120, el módulo de aprendizaje 34 determina la posición de observación que define el campo de visión óptimo.
[0079] Durante la etapa 130 siguiente, el módulo de aprendizaje 34 almacena la posición de observación determinada en la lista de ajustes, por ejemplo, en la forma de tres valores numéricos que definen los ángulos de inclinación y de acimut de la cámara 10, así como el nivel de ampliación dado por el dispositivo de captura de imágenes 30.
[0080] Las siguientes etapas 140-150 se implementan de forma opcional.
[0081] De este modo, durante la etapa 140, el módulo de aprendizaje 34 determina un contexto local asociado al objeto de interés detectado.
[0082] Por contexto local, se entiende cualquier información que permita caracterizar la detección del objeto de interés.
[0083] Así, por ejemplo, el contexto local corresponde a la hora de la detección del objeto de interés.
[0084] Según otro ejemplo, el contexto local corresponde a la hora de la detección del objeto de interés con al menos otro objeto de interés.
[0085] Durante la etapa 145 siguiente, el módulo de aprendizaje 34 asocia el contexto local determinado a la posición de observación correspondiente al objeto detectado.
[0086] Durante la etapa 150 siguiente, el módulo de aprendizaje 34 almacena el contexto local determinado en la lista de ajustes con la posición de observación correspondiente.
[0087] Al final de la etapa 150 o de la etapa 130, el módulo de aprendizaje vuelve a ejecutar la etapa 110. Así, las etapas 110 a 130 o las etapas 110 a 150 se repiten por ejemplo hasta que se alcanza un número de iteraciones máximo predeterminado o hasta la expiración de un intervalo temporal predeterminado.
[0088] La fase de vigilancia PS se implementa posteriormente.
[0089] Varias variantes de la implementación de la fase de vigilancia PS son posibles.
[0090] Así, según una primera variante de realización que se implementa cuando, en particular, las etapas 140 a 150 de la fase de aprendizaje PA no se han ejecutado, durante la etapa inicial 160 de la fase de vigilancia, el módulo de vigilancia 36 recorre todas las posiciones de observación comprendidas en la lista de ajustes.
[0091] El orden de dicho recorrido se define, por ejemplo, por el orden de escritura de las posiciones de observación en esta lista.
[0092] Según otro ejemplo de realización, el orden de recorrido está definido por cualquier otra regla predeterminada que permita, por ejemplo, optimizar el tiempo de recorrido.
[0093] Luego, para cada posición de observación recorrida, el módulo de vigilancia 36 implementa la etapa 170 durante la cual, controla el dispositivo de motorización 21 y el dispositivo de captura de imágenes 30 para ajustar la cámara 10 según esta posición de observación.
[0094] A continuación, durante la etapa 180 siguiente, el módulo de vigilancia 36 controla la captura de imágenes por el dispositivo de captura de imágenes 30 hasta que se cumple un criterio de parada predeterminado.
[0095] El criterio de parada se basa, por ejemplo, en el tiempo transcurrido desde el inicio de la etapa 180 o en el contenido del flujo de vídeo proporcionado.
[0096] Así, por ejemplo, el criterio de parada se cumple al expirar un intervalo temporal predeterminado o en ausencia de movimiento significativo en el campo de visión correspondiente.
[0097] A continuación, el módulo de vigilancia vuelve a la etapa 160 para pasar, por ejemplo, a otra posición de observación.
[0098] Según una segunda variante de realización de la fase de vigilancia PS que se implementa cuando se han ejecutado las etapas 140 a 150 de la fase de aprendizaje PA, durante la etapa inicial 160 de la fase de vigilancia PS, el módulo de vigilancia 36 implementa la observación del contexto local.
[0099] Cuando este contexto local corresponde a uno de los contextos locales almacenados en la lista de ajustes, el módulo de vigilancia 36 determina la posición de observación que corresponde a este contexto local.
[0100] En otras palabras, cuando uno de los contextos locales almacenados en la lista de ajustes se repite, el módulo de vigilancia 36 determina la posición de observación correspondiente a ese contexto local.
[0101] Así, por ejemplo, cuando un contexto local almacenado corresponde a una hora precisa del día, el módulo de vigilancia 36 detecta una repetición de ese contexto local a la misma hora todos los días.
[0102] Por supuesto, también son posibles muchos otros ejemplos de contextos locales y condiciones para su repetición.
[0103] Además, es posible adaptar el módulo de vigilancia 36 para predecir una repetición de un contexto local. Esto permite ajustar la cámara 10 antes de que el contexto local se repita efectivamente. Así, por ejemplo, cuando un contexto local almacenado corresponde a una hora precisa del día, el módulo de vigilancia 36 predice una repetición de ese contexto local unos minutos o segundos antes.
[0104] A continuación, para la posición de observación que corresponde al contexto local detectado o predicho, el módulo de vigilancia 36 implementa las etapas 170 y 180 como se ha descrito anteriormente.
[0105] Debe entenderse por otra parte que las fases de aprendizaje PA y de vigilancia PS pueden implementarse de forma paralela después de que la fase de aprendizaje PA se haya implementado al menos una vez.
[0106] En efecto, en este caso, la etapa de barrido 110 de la fase de aprendizaje PA se implementa por ejemplo al mismo tiempo que la etapa 180 de captura de imágenes de la fase de vigilancia PS.
[0107] La implementación de las otras etapas puede efectuarse de manera sustancialmente independiente por el módulo de aprendizaje 34 y el módulo de vigilancia 36.
[0108] Se entiende así que la presente invención presenta un cierto número de ventajas.
[0109] En primer lugar, el procedimiento según la invención propone implementar una fase de aprendizaje que permite determinar posiciones de observación de manera dinámica. Esto evita la necesidad de calibrar estas posiciones de observación con el tiempo y, por lo tanto, disminuye los costes de mantenimiento de las instalaciones correspondientes.
[0110] Además, la implementación paralela de las fases de aprendizaje y de vigilancia permite mantener una buena calidad de aprendizaje al tiempo que la cámara sigue funcionando.
[0111] Finalmente, el aprendizaje permite adaptar mejor el nivel de ampliación al entorno de la cámara. En particular, el procedimiento según la invención permite crear una lista de ajustes que comprende no solo diferentes orientaciones de la cámara, sino también diferentes niveles de ampliación en función de las características particulares de los objetos de interés o de su entorno. Esto permite evitar la pérdida de información debido, por ejemplo, a un zoom excesivo hacia un solo objeto de interés, lo que hace que el comportamiento dinámico de la cámara sea más eficiente.

Claims (9)

REIVINDICACIONES
1. Procedimiento de control de una cámara PTZ (10) que incluye un dispositivo de captura de imágenes (30) regulable según una pluralidad de posiciones de observación procedentes de una lista de ajustes, definiendo cada posición de observación un campo de visión de la cámara (10), comprendiendo el procedimiento una fase de vigilancia (PS) que incluye las siguientes etapas:
- ajuste (170) del dispositivo de captura de imágenes (30) según una de las posiciones de observación procedente de la lista de ajustes
- captura de imágenes (180) del campo de observación correspondiente a la posición de observación según la cual el dispositivo de captura de imágenes (30) está regulado; el procedimiento comprende además una fase de aprendizaje (PA) implementada al menos una vez antes de la fase de vigilancia (PS) y que comprende el establecimiento dinámico de la lista de ajustes en función de objetos de interés presentes en diferentes campos de visión de la cámara (10);
estando el procedimiento caracterizado porque la fase de aprendizaje (PA) comprende las siguientes etapas: - detección (110) de un objeto de interés, siendo el objeto de interés al menos parcialmente móvil;
- determinación (120) de la posición de observación que define el campo de visión que incluye el objeto de interés detectado;
- memorización (130) de la posición de observación en la lista de ajustes;
- determinación (140) de un contexto local asociado al objeto de interés detectado, correspondiendo el contexto local a la hora de la detección del objeto de interés o a la hora de la detección del objeto de interés con al menos otro objeto de interés;
- asociación (145) del contexto local a la posición de observación correspondiente al objeto detectado;
- memorización (150) del contexto local en la lista de ajustes,
en el que la fase de vigilancia (PS) incluye además la etapa de detección o de predicción (160) de una repetición de uno de los contextos locales memorizados en la lista de ajustes, estando la etapa de ajuste (170) del dispositivo de captura de imágenes (30) implementada para la posición de observación asociada a este contexto local.
2. Procedimiento según la reivindicación 1, en el que la fase de aprendizaje (PA) comprende además una etapa (115) de optimización del campo de visión que comprende el objeto de interés detectado, para obtener un campo de visión optimizado, en la que el nivel de ampliación y/o la orientación de la cámara PTZ (10) está regulado en función de al menos determinadas características predeterminadas del objeto de interés;
comprendiendo la etapa de determinación (120) de la posición de observación la determinación de la posición de observación que define el campo de visión optimizado.
3. Procedimiento según una cualquiera de las reivindicaciones anteriores, en el que las fases de aprendizaje (PA) y de vigilancia (PS) se implementan en paralelo cuando la fase de aprendizaje (PA) se ha implementado al menos una vez antes de la fase de vigilancia (PS).
4. Procedimiento según una cualquiera de las reivindicaciones anteriores, en el que durante la fase de vigilancia (PS), la etapa (180) de captura de imágenes del campo de observación correspondiente se implementa hasta que se cumple un criterio de parada.
5. Procedimiento según la reivindicación 4, en el que el criterio de parada se cumple al expirar un intervalo temporal predeterminado o en ausencia de movimiento significativo en el campo de visión correspondiente.
6. Procedimiento según una cualquiera de las reivindicaciones anteriores, en el que cada posición de observación comprende la orientación del dispositivo de captura de imágenes (30) y el nivel de ampliación dada por este dispositivo (30).
7. Producto de programa de ordenador que incluye instrucciones de software que, cuando son implementadas por un equipo informático de un dispositivo de control de una cámara PTZ según la reivindicación 8, implementa el procedimiento según una cualquiera de las reivindicaciones anteriores.
8. Dispositivo de control (22) de una cámara PTZ (10) que implementa el procedimiento según una cualquiera de las reivindicaciones 1 a 6.
9. Cámara PTZ (10) que incluye un dispositivo de captura de imágenes (30) regulable según una pluralidad de posiciones de observación procedentes de una lista de ajustes y un dispositivo de control (22) según la reivindicación 8.
ES18159092T 2017-02-28 2018-02-28 Procedimiento de control de una cámara PTZ, producto de programa de ordenador y dispositivo de control asociados Active ES2948189T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1700197A FR3063409B1 (fr) 2017-02-28 2017-02-28 Procede de pilotage d'une camera ptz, produit programme d'ordinateur et dispositif de pilotage associes

Publications (1)

Publication Number Publication Date
ES2948189T3 true ES2948189T3 (es) 2023-09-01

Family

ID=59520951

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18159092T Active ES2948189T3 (es) 2017-02-28 2018-02-28 Procedimiento de control de una cámara PTZ, producto de programa de ordenador y dispositivo de control asociados

Country Status (6)

Country Link
EP (1) EP3367353B1 (es)
ES (1) ES2948189T3 (es)
FR (1) FR3063409B1 (es)
MX (1) MX2018002498A (es)
PL (1) PL3367353T3 (es)
PT (1) PT3367353T (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110537364A (zh) * 2018-08-30 2019-12-03 深圳市大疆创新科技有限公司 云台系统的控制方法、云台系统及计算机可读存储介质
WO2020224752A1 (en) * 2019-05-03 2020-11-12 Toyota Motor Europe Image obtaining means for finding an object

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995015542A1 (en) * 1993-11-30 1995-06-08 Zoom City Pty. Ltd. An observation system
US20120148160A1 (en) * 2010-07-08 2012-06-14 Honeywell International Inc. Landmark localization for facial imagery
US20130342700A1 (en) * 2012-06-26 2013-12-26 Aharon Kass System and method for using pattern matching to determine the presence of designated objects in digital images
US10547774B2 (en) * 2013-01-09 2020-01-28 Sony Corporation Image processing device, image processing method, and program
KR101480636B1 (ko) * 2013-09-23 2015-01-09 주식회사 에스원 영상 감시 장치의 감시 방법
FR3033913B1 (fr) * 2015-03-20 2018-06-15 Thales Procede et systeme de reconnaissance d'objets par analyse de signaux d'image numerique d'une scene

Also Published As

Publication number Publication date
MX2018002498A (es) 2018-11-09
EP3367353A1 (fr) 2018-08-29
PL3367353T3 (pl) 2023-07-24
FR3063409B1 (fr) 2021-07-16
PT3367353T (pt) 2023-06-22
EP3367353B1 (fr) 2023-03-22
FR3063409A1 (fr) 2018-08-31

Similar Documents

Publication Publication Date Title
US8899849B2 (en) Camera apparatus and method of controlling camera apparatus
JP6237698B2 (ja) 天体自動追尾撮影方法及び天体自動追尾撮影装置
WO2016030878A1 (en) Self-image augmentation
KR20160129779A (ko) 비-라이트 필드 이미징 디바이스를 사용하여 라이트 필드 데이터를 획득하는 방법, 대응하는 디바이스, 컴퓨터 프로그램 제품 및 비일시적 컴퓨터 판독가능 캐리어 매체
EP3815597A1 (en) Automatic image orientation based on use
KR20080027443A (ko) 촬상장치 및 촬상장치 제어방법과, 컴퓨터 프로그램
JP5875453B2 (ja) 自動追尾装置
ES2948189T3 (es) Procedimiento de control de una cámara PTZ, producto de programa de ordenador y dispositivo de control asociados
JP2017143427A (ja) 監視カメラ
CN104410797A (zh) 天体缩时摄影的设备和方法
US20180310812A1 (en) Endoscope apparatus and method for operating endoscope apparatus
JP2016049260A (ja) 車載用撮像装置
CN105282420A (zh) 拍摄的实现方法及装置
KR20140050603A (ko) 이동 식별 플랫폼
CN102316260A (zh) Ptz摄影机控制系统、方法及ptz摄影机调整装置
CN109528315B (zh) 术野图像控制系统、方法、计算机设备及存储介质
CN103167234B (zh) 安装监控摄像机的方法
US20180103829A1 (en) Endoscope apparatus and focus control method
CN112991255B (zh) 机器人平衡判定装置及机器人平衡判定方法
CN112149473B (zh) 虹膜图像采集方法
CN113841376B (zh) 拍摄控制方法和装置
KR101738514B1 (ko) 어안 열상 카메라를 채용한 감시 시스템 및 이를 이용한 감시 방법
JP2008021121A (ja) 瞳孔検出装置および虹彩認証装置ならびに瞳孔検出方法
JP2005175852A (ja) 撮影装置及び撮影装置の制御方法
JP2016008830A (ja) 測量装置、測量装置の表示方法およびプログラム