FR3005544A1 - RECORDING AN EVENT MANAGEMENT - Google Patents

RECORDING AN EVENT MANAGEMENT Download PDF

Info

Publication number
FR3005544A1
FR3005544A1 FR1359364A FR1359364A FR3005544A1 FR 3005544 A1 FR3005544 A1 FR 3005544A1 FR 1359364 A FR1359364 A FR 1359364A FR 1359364 A FR1359364 A FR 1359364A FR 3005544 A1 FR3005544 A1 FR 3005544A1
Authority
FR
France
Prior art keywords
event
cameras
network
capture
management method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1359364A
Other languages
French (fr)
Inventor
Yunus Arslan
La Forest Divonne Aymeric De
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1359364A priority Critical patent/FR3005544A1/en
Publication of FR3005544A1 publication Critical patent/FR3005544A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19669Event triggers storage or change of storage policy
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • G08B13/19643Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19621Portable camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19676Temporary storage, e.g. cyclic memory, buffer storage on pre-alarm
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/016Personal emergency signalling and security systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

La présente invention a trait à un procédé de gestion de l'enregistrement d'un événement (I) se produisant dans un lieu incluant une pluralité de dispositifs de prises de vue (CAM1-CAM3) aptes à communiquer avec un réseau de communication. Le procédé comprend les étapes suivantes : - Une étape de détection (ET1) d'un événement, - Une étape de transmission (ET5) d'une commande d'enregistrement via le réseau de la scène à des dispositifs de prise de vue aptes à prendre des vues de l'événement ; - Une étape de capture (ET7) de l'événement par les dispositifs.The present invention relates to a method for managing the recording of an event (I) occurring in a location including a plurality of cameras (CAM1-CAM3) able to communicate with a communication network. The method comprises the following steps: - a step of detecting (ET1) an event, - a step of transmitting (ET5) a recording command via the scene network to shooting devices adapted to take pictures of the event; - A step of capture (ET7) of the event by the devices.

Description

Domaine technique L'invention se rapporte à un procédé de gestion de l'enregistrement d'un événement se produisant dans un lieu géographique donné. L'événement vise par exemple un accident de la circulation, un vol, une agression, un attentat, etc. L'enregistrement s'effectue par exemple par le biais d'un dispositif de prise de vues tel qu'une caméra vidéo, des lunettes connectées équipées d'un tel dispositif de prise de vue, etc. Etat de la technique Les systèmes de vidéosurveillance se sont beaucoup développés ces dernières années pour répondre à un besoin de sécurisation de biens et de lieux accueillant un public. Un système connu de vidéosurveillance inclut des caméras dans un lieu à surveiller (centre-ville, maison, banque, etc.) et des écrans de visualisation dans un poste de contrôle. Un agent visualise les scènes filmées par les caméras et détecte tout événement suspect tel qu'un vol, agression, etc. Les différentes caméras filment des zones distinctes voire qui se recouvrent partiellement. Le nombre de caméras capables de filmer une zone géographique donnée, et donc un événement s'y produisant comme une agression, un vol, etc., est donc limité. Cela pose problème pour reconstituer l'événement. L'invention offre une solution ne présentant pas les inconvénients de l'état de la technique. L'invention A cet effet, selon un aspect fonctionnel, l'invention se rapporte à un procédé de gestion de l'enregistrement d'un événement se produisant dans un lieu incluant une pluralité de dispositifs de prise de vues aptes à communiquer avec un réseau de communication, les dispositifs étant équipés de dispositifs de prise de vues respectifs, caractérisé en ce qu'il comprend les étapes suivantes - Une étape de détection d'un événement, - Une étape de transmission, via le réseau, à des dispositifs de prise de 5 vues aptes à prendre des vues de l'événement, d'une commande de capture de l'événement. L'invention propose de détecter un événement, par exemple depuis un premier dispositif, et de commander la capture de l'événement à des seconds dispositifs capables de prendre des vues de l'événement notamment par ce qu'ils 10 se situent à proximité de l'événement, ou parce qu'ils sont proches du premier dispositif. L'invention augmente ainsi le nombre de captures de la scène. La reconstitution de la scène sera alors plus aisée que dans l'état de la technique. Selon un premier un mode de réalisation de l'invention, l'étape de détection est réalisée au niveau d'un premier dispositif ; et les dispositifs de prise 15 de vues auxquels sont transmises des commandes de capture respectives sont des seconds dispositifs situés à proximité du premier dispositif. Ainsi, les dispositifs visés ci-dessus sont situés à une distance telle du premier dispositif qu'une prise de vue de l'événement est possible par ces dispositifs. Il en résulte un réseau de caméras aptes à capturer l'événement. Le réseau ainsi obtenu 20 permet l'obtention d'un nombre de captures qui permettra une reconstitution plus précise de l'événement que dans l'état de la technique. Selon un second mode de mise en oeuvre particulier de l'invention, qui pourra être mis en oeuvre alternativement ou cumulativement avec le précédent, l'étape de détection est réalisée par une action de l'utilisateur du premier 25 dispositif. De cette manière, ce sont les utilisateurs des caméras eux-mêmes qui peuvent activer l'alerte et non un logiciel de détection d'événements. La détection est donc fiable. L'action en question est par exemple un appui sur un bouton de sélection présent sur un dispositif de prise de vue, entraînant l'émission d'un message informant la détection d'un événement.TECHNICAL FIELD The invention relates to a method of managing the recording of an event occurring in a given geographical location. The event is for example a traffic accident, a robbery, an assault, an attack, etc. The recording is effected for example by means of a camera such as a video camera, connected glasses equipped with such a camera, and so on. State of the art CCTV systems have greatly developed in recent years to meet a need for securing goods and places welcoming an audience. A known CCTV system includes cameras in a location to be monitored (downtown, home, bank, etc.) and viewing screens in a control post. An agent visualizes the scenes filmed by the cameras and detects any suspicious event such as theft, aggression, etc. The different cameras film separate areas or even partially overlap. The number of cameras capable of filming a given geographical area, and thus an event occurring as an aggression, theft, etc., is therefore limited. This poses a problem for reconstructing the event. The invention offers a solution that does not have the drawbacks of the state of the art. The invention For this purpose, according to a functional aspect, the invention relates to a method of managing the recording of an event occurring in a location including a plurality of cameras capable of communicating with a network. communication device, the devices being equipped with respective cameras, characterized in that it comprises the following steps - A step of detecting an event, - A step of transmission, via the network, to devices for taking 5 views able to take views of the event, a capture command of the event. The invention proposes to detect an event, for example from a first device, and to control the capture of the event to second devices capable of taking views of the event, in particular because they are in the vicinity of the event. event, or because they are close to the first device. The invention thus increases the number of captures of the scene. The reconstruction of the scene will then be easier than in the state of the art. According to a first embodiment of the invention, the detection step is performed at a first device; and the cameras to which respective capture commands are transmitted are second devices located near the first device. Thus, the devices referred to above are located at such a distance from the first device that shooting of the event is possible by these devices. The result is a network of cameras capable of capturing the event. The network thus obtained 20 makes it possible to obtain a number of captures which will allow a more precise reconstitution of the event than in the state of the art. According to a second particular embodiment of the invention, which may be implemented alternately or cumulatively with the previous one, the detection step is performed by an action of the user of the first device. In this way, it is the users of the cameras themselves that can activate the alert and not event detection software. The detection is therefore reliable. The action in question is for example a press of a selection button present on a shooting device, resulting in the transmission of a message informing the detection of an event.

Selon un troisième mode de mise en oeuvre particulier de l'invention, qui pourra être mis en oeuvre alternativement ou cumulativement avec les précédents, les dispositifs sont équipés de modules mémoires respectifs ; dans cette configuration, l'étape de transmission est suivie d'une étape de capture suivie d'une étape d'enregistrement de la capture dans des modules mémoires respectifs des dispositifs. De cette manière, la capture sera accessible quel que soit l'état de connexion du dispositif vis-à-vis du réseau. Selon une variante de ce troisième mode, les enregistrements réalisés sont chiffrés au moyen d'un algorithme de chiffrement, respectivement. De cette manière, les enregistrements ne peuvent pas être lus par des tiers ne détenant pas la clé de déchiffrement capable de déchiffrer l'enregistrement chiffré. De plus, l'enregistrement ne peut pas être modifié sans la clé de déchiffrement ; cet enregistrement constitue donc une preuve irréfutable. Selon un quatrième mode de mise en oeuvre particulier de l'invention, qui pourra être mis en oeuvre alternativement ou cumulativement avec les précédents, un identifiant est attribué à l'événement ; et les enregistrements relatifs à cet événement sont associés à cet identifiant. De cette manière, lors de la reconstitution d'un évènement, on retrouve facilement tous les enregistrements même lorsque le nombre d'événements stockés est important.According to a third particular embodiment of the invention, which may be implemented alternately or cumulatively with the previous ones, the devices are equipped with respective memory modules; in this configuration, the transmission step is followed by a capture step followed by a step of recording the capture in respective memory modules of the devices. In this way, the capture will be accessible regardless of the connection state of the device vis-à-vis the network. According to a variant of this third mode, the recordings made are encrypted by means of an encryption algorithm, respectively. In this way, the records can not be read by third parties not holding the decryption key capable of decrypting the encrypted record. In addition, the record can not be changed without the decryption key; this recording is therefore irrefutable proof. According to a fourth particular mode of implementation of the invention, which may be implemented alternately or cumulatively with the preceding, an identifier is assigned to the event; and the records relating to this event are associated with this identifier. In this way, during the reconstruction of an event, all the records are easily found even when the number of stored events is important.

Selon un cinquième mode de mise en oeuvre particulier de l'invention, qui pourra être mis en oeuvre alternativement ou cumulativement avec les précédents, suite à la commande d'enregistrement, un second dispositif est déconnecté du réseau ; dans cette configuration, l'étape de transmission est suspendue et reprise après qu'une connexion soit établie avec le réseau. Cette caractéristique garantit une récupération de l'ensemble des enregistrements même si l'état de connexion du dispositif concerné ne permet pas momentanément une transmission de l'enregistrement sur le réseau. Selon un sixième mode de mise en oeuvre particulier de l'invention, qui pourra être mis en oeuvre alternativement ou cumulativement avec les précédents, les dispositifs destinataires de la commande de capture reçoivent en outre des informations à prendre en compte pour la prise de vue. De cette manière, les différents dispositifs concernés par une prise de vue filment de façon optimale la scène souhaitée, notamment dans la bonne direction. Selon un aspect matériel, l'invention se rapporte à un système pour la gestion de l'enregistrement d'un événement se produisant dans un lieu incluant une pluralité de dispositifs de prise de vues aptes à communiquer avec un réseau de communication, caractérisé en ce qu'il comprend : - un module de détection d'un événement, - un module de transmission apte à transmettre, via le réseau, une commande de capture de l'événement, à des dispositifs de prise de vue aptes à prendre des vues de l'événement. L'invention sera mieux comprise à la lecture de la description qui suit, donnée à titre d'exemple et faite en référence aux dessins annexés sur lesquels : La figure 1 représente un système informatique sur lequel est illustré un exemple de réalisation de l'invention. La figure 2 est une vue schématique des circuits inclus dans une caméra selon un mode de réalisation de l'invention. La figure 3 représente une vue schématique d'un lieu géographique dans lequel l'invention peut être mise en oeuvre.According to a fifth particular mode of implementation of the invention, which may be implemented alternately or cumulatively with the previous ones, following the recording command, a second device is disconnected from the network; in this configuration, the transmission step is suspended and resumed after a connection is established with the network. This feature ensures recovery of all records even if the connection state of the device concerned does not momentarily allow a transmission of the record on the network. According to a sixth particular mode of implementation of the invention, which may be implemented alternatively or cumulatively with the previous embodiments, the receiving devices of the capture command also receive information to be taken into account for the shooting. In this way, the various devices involved in shooting optimally film the desired scene, especially in the right direction. According to a material aspect, the invention relates to a system for managing the recording of an event occurring in a location including a plurality of cameras capable of communicating with a communication network, characterized in that it comprises: - an event detection module, - a transmission module able to transmit, via the network, a capture command of the event, to shooting devices able to take views of the event. The invention will be better understood on reading the description which follows, given by way of example and with reference to the appended drawings in which: FIG. 1 represents a computer system on which is illustrated an exemplary embodiment of the invention . Figure 2 is a schematic view of the circuits included in a camera according to one embodiment of the invention. Figure 3 shows a schematic view of a geographical location in which the invention can be implemented.

La figure 4 représente des échanges de données échangés notamment entre les dispositifs de prise de vue selon un mode de réalisation. La figure 5 illustre un mode de réalisation d'une fourniture d'informations à prendre en compte par les dispositifs de prise de vue. Description détaillée d'un exemple de réalisation illustrant l'invention La figure 1 est une vue schématique d'un système informatique SYS incluant une pluralité de dispositifs de prise de vues répartis géographiquement. Dans notre exemple, le système inclut également un serveur SRV. Dans notre exemple, les dispositifs de prise de vues sont des caméras.FIG. 4 represents exchanges of data exchanged, in particular between the cameras according to one embodiment. FIG. 5 illustrates an embodiment of a provision of information to be taken into account by the shooting devices. DETAILED DESCRIPTION OF AN EMBODIMENT EXPRESSING THE INVENTION FIG. 1 is a schematic view of a SYS computer system including a plurality of geographically distributed imaging devices. In our example, the system also includes an SRV server. In our example, the cameras are cameras.

La figure 2 est une vue schématique d'un lieu incluant plusieurs utilisateurs (UT1-UT3) disposant de caméras respectives (CAM1-CAM3). Dans notre exemple, les utilisateurs et les caméras sont au nombre de trois ; cependant, ce nombre pourrait être inférieur ou supérieur. Sur cette figure 2, est représentée une zone géographique ZG dans laquelle se situent les trois dispositifs de prise de vues. En référence à la figure 3, les caméras CAMn (n=1 à 3) sont équipées d'un processeur CPUn, d'une module de capture CPTn, d'un écran ECRn, d'un module de communication COMn pour communiquer avec d'autres dispositifs, un module mémoire MEMn pour mémoriser des données, reliés entre eux par l'intermédiaire d'un bus. Rappelons qu'un bus a pour fonction d'assurer le transfert de données numériques entre les différents circuits d'un ordinateur. Dans notre exemple, le bus en question inclut un bus de données et un bus de contrôle. A noter aussi que, dans notre exemple, le module mémoire décrit ci- dessus est une mémoire permanente, par exemple de type ROM (acronyme anglo-saxon de Read Only Memory) et que la caméra inclut également une mémoire vive respective (non représentée) servant à stocker de manière non durable des données de calcul utilisées notamment lors de la mise en oeuvre du procédé.FIG. 2 is a schematic view of a location including several users (UT1-UT3) having respective cameras (CAM1-CAM3). In our example, users and cameras are three in number; however, this number could be lower or higher. In this figure 2, there is shown a geographical zone ZG in which are located the three cameras. With reference to FIG. 3, CAMn cameras (n = 1 to 3) are equipped with a CPUn processor, a CPTn capture module, an ECRn screen, a COMn communication module for communicating with the device. other devices, a MEMn memory module for storing data, interconnected by means of a bus. Recall that a bus has the function of ensuring the transfer of digital data between the different circuits of a computer. In our example, the bus in question includes a data bus and a control bus. Note also that, in our example, the memory module described above is a permanent memory, for example ROM type (acronym for Read Only Memory) and that the camera also includes a respective RAM (not shown) used for unsustainably storing calculation data used in particular during the implementation of the method.

L'écran ECR décrit ci-dessus servira, par exemple, comme nous le verrons dans la suite, des informations sur la prise de vue à prendre en compte. Dans notre exemple, le module de communication permet d'accéder à internet via un réseau Wi-Fi/3G/4G.The ECR screen described above will serve, for example, as we will see in the following, information on the shooting to take into account. In our example, the communication module allows access to the internet via a Wi-Fi / 3G / 4G network.

La caméra peut être une caméra classique c'est-à-dire manipulable avec la main, ou peut être placée sur des lunettes, ou intégrée à des lunettes connectées connues de l'homme du métier. Ces lunettes connectées incluent généralement une caméra intégrée, un micro, un pavé tactile sur l'une des branches, un mini-écran pour l'affichage d'informations et un module de communication pour l'accès à internet via un réseau Wi-Fi/3G/4G ou Bluetooth. Le module de communication peut aussi être un module une liaison de communication de courte portée du type Bluetooth permettant aux lunettes de communiquer avec un dispositif, tel qu'un smartphone, apte à communiquer via un réseau de télécommunication. Dans cette configuration, Les lunettes sont une extension du Smartphone. Dès que le Smartphone est apparié avec les lunettes, ces derniers peuvent communiquer ensemble. Notre exemple se basera sur des caméras équipées d'un module de communication COM apte à communiquer avec un réseau 3G.The camera may be a conventional camera that is to say manipulable with the hand, or can be placed on glasses, or integrated glasses connected known to those skilled in the art. These connected glasses generally include an integrated camera, a microphone, a touchpad on one of the branches, a mini-screen for displaying information and a communication module for access to the internet via a Wi-Fi network. / 3G / 4G or Bluetooth. The communication module can also be a module of a short-range communication link of the Bluetooth type enabling the glasses to communicate with a device, such as a smartphone, capable of communicating via a telecommunication network. In this configuration, the glasses are an extension of the smartphone. As soon as the Smartphone is paired with the glasses, they can communicate with each other. Our example will be based on cameras equipped with a communication module COM able to communicate with a 3G network.

Dans notre exemple, un serveur SRV centralise des données (captures ou autres) pouvant provenir des caméras, notamment des vues capturées par les caméras. La localisation de ce serveur est quelconque ; il peut être localisé dans une mémoire d'une lunette ou sur le réseau de télécommunication. Dans notre exemple le serveur se situe sur le réseau RES.In our example, an SRV server centralizes data (captures or otherwise) that can come from cameras, including views captured by cameras. The location of this server is arbitrary; it can be located in a memory of a telescope or on the telecommunication network. In our example, the server is on the RES network.

Le système comprend également un module de localisation LOC apte à localiser les caméras. La méthode utilisée pour obtenir la localisation est quelconque. Ce moyen peut être indifféremment, un moyen de localisation utilisant le positionnement par satellite GPS (Global Positionning System), un moyen de localisation utilisant les réseaux de téléphonie mobile tel que le différentiel temps plus connu sous le sigle EOTD (Enhanced Observed Time Difference), le système d'identification de cellule GSM, la triangulation, etc. Le moyen de localisation peut aussi être tout simplement un moyen apte à recevoir une localisation fournie par l'utilisateur de la caméra.The system also includes a location module LOC able to locate the cameras. The method used to obtain the location is arbitrary. This means can be indifferently, a location means using GPS positioning (Global Positioning System), a location means using mobile telephony networks such as the time differential better known by the acronym EOTD (Enhanced Observed Time Difference), the GSM cell identification system, triangulation, etc. The locating means may also be simply a means capable of receiving a location provided by the user of the camera.

Tout comme le serveur, la localisation du module de localisation LOC dans le système SYS est quelconque. Dans notre exemple, ce module est situé dans le serveur SRV. Le système comprend aussi un module apte à obtenir la direction des prises de vue de chaque caméra. La connaissance de la direction permet de connaître la zone capturée par un dispositif de prise de vue à une position géographique donnée. On considère, dans la suite, un lieu tel qu'illustré à la figure 3 dans lequel se situent les trois utilisateurs décrits ci-dessus et qu'un événement I se produit tel qu'un incident par exemple une agression physique. Lors d'une première étape ET1, l'utilisateur de la première caméra CAM1 visualise l'incident I avec sa caméra. A cet instant, lors d'une deuxième étape ET2, la première caméra CAM1 transmet sur le réseau RES à destination du serveur SRV une alerte AL. La transmission peut par exemple être à l'origine d'une action de l'utilisateur sur la caméra ; l'action ayant pour fonction la transmission de l'alerte AL. Nous verrons en référence à la figure 5 que l'alerte peut être accompagnée d'une information sur la direction DIR1 de la prise de vues de la caméra afin de repérer l'événement dans l'espace.Like the server, locating the location module LOC in the SYS system is arbitrary. In our example, this module is located in the SRV server. The system also includes a module capable of obtaining the direction of shooting of each camera. The knowledge of the direction makes it possible to know the area captured by a shooting device at a given geographical position. We consider, in the following, a place as illustrated in Figure 3 in which are located the three users described above and that an event I occurs such as an incident for example a physical aggression. In a first step ET1, the user of the first camera CAM1 visualizes the incident I with his camera. At this moment, during a second step ET2, the first camera CAM1 transmits on the network RES to the server SRV an AL alert. The transmission may for example be at the origin of a user action on the camera; the action having the function of transmitting the AL alert. We will see with reference to Figure 5 that the alert can be accompanied by information on the direction DIR1 of the shooting of the camera to locate the event in space.

Dans notre exemple, lors d'une deuxième étape ET2b, la caméra réalise une prise de vue PV1 de l'incident I, et dans notre exemple un enregistrement WR1 de cette prise de vue. A noter que l'enregistrement est optionnel, la capture pouvant être transmise à la volée vers le serveur SRV. Dans notre exemple, les étapes ET2 et ET2b s'effectuent en parallèle ; cependant ces deux étapes pourraient être exécutées l'une après l'autre. Lors d'une troisième étape ET3, suite à la réception de l'alerte AL, le serveur SRV localise la caméra à l'origine de la transmission de l'alerte AL, à savoir la première caméra CAM1 dans notre exemple. Le serveur obtient une localisation LOCI grâce au module de localisation LOC. Lors d'une quatrième étape ET4, le serveur SRV détermine si une caméra, autre que la première caméra, est présente dans le lieu de l'incident.In our example, during a second step ET2b, the camera takes a picture PV1 of the incident I, and in our example a recording WR1 of this shot. Note that the recording is optional, the capture can be transmitted on the fly to the SRV server. In our example, the steps ET2 and ET2b are carried out in parallel; however, these two steps could be executed one after the other. During a third step ET3, following receipt of the AL alert, the SRV server locates the camera that originated the transmission of the AL alert, namely the first CAM1 camera in our example. The server obtains a location LOCI thanks to the location module LOC. In a fourth step ET4, the server SRV determines if a camera, other than the first camera, is present in the incident location.

Dans notre exemple, les deux caméras CAM2 et CAM3 sont présentent sur le lieu de l'incident I. Lors d'une cinquième étape ET5, le serveur SRV commande auprès des caméras CAM2 et CAM3 une capture des vues capturées par les caméras CAM2 et CAM3. Dans notre exemple, le serveur commande également un enregistrement en local de la prise de vue, c'est-à-dire dans les modules mémoires MEM2 et MEM3 des caméras. Les commandes résultantes Cd-WR2 et Cd-WR3 respectives peuvent être transmises simultanément ou à des instants différents. De manière à ce que les prises de vue s'effectuent dans une direction adéquate, le serveur notifie, lors d'une sixième étape, aux caméras des informations INF2 et INF3 sur la prise de vue souhaitée. La notification peut être reçue par les utilisateurs des caméras concernées sous forme sonore ou visuelle. La notification peut être affichée sur l'écran ECRn. Si la caméra est équipée de moyens de restitution sonore tels que haut-parleurs, ou écouteurs, la notification peut être restituée par le biais de ces moyens de restitution. Par exemple, si les caméras sont disposées sur des lunettes connectées disposant d'un écran, les informations sur la prise de vues souhaitée peuvent être affichées sur l'écran des lunettes. A réception des informations souhaitées sur la prise de vues, les utilisateurs UT2 et UT3 se déplacent respectivement de manière à respecter les informations de manière à capturer la zone incluant l'incident. Le sens d'exécution de la cinquième et de la sixième étape est quelconque. Ces deux étapes peuvent aussi se réaliser simultanément ; dans cette configuration, les commandes d'écriture incluent des informations sur la prise de vue souhaitée. Il en résulte, lors d'une septième étape, des prises de vue PV2 et PV3 respectives par les caméras CAM2 et CAM3 et, dans notre exemple, des enregistrements WR2 et WR3, de ces prises de vue, respectivement. A noter que les enregistrements peuvent être commandés à l'insu des utilisateurs. Une fois les enregistrements réalisés, lors d'une huitième étape ET8, les caméras transmettent respectivement les enregistrements fi, 12 et 13, réalisés 10 par les caméras CAM1, CAM2 et CAM3 respectivement au serveur SRV pour y être stockés. Les instants de transmission peuvent être les mêmes ou différents. Ensuite, ces enregistrements peuvent servir à reconstituer l'incident I. Selon une première variante possible, une fois les enregistrements effectués à la septième étape ET7, ces derniers sont chiffrés par un algorithme 15 de chiffrement connu de l'homme du métier. Dans notre exemple, les enregistrements sont chiffrés par les caméras. Dans cette configuration, les enregistrements chiffrés son transmis au serveur SRV. Ce chiffrement est utile par exemple à des fins de preuves reconnues légalement, la clé déchiffrement étant détenue par un tiers autorisé, par exemple la police. 20 A noter que le chiffrement des enregistrements pourrait être effectué par une autre entité par exemple le serveur SRV. Au fil du temps, le serveur SRV peut stocker plusieurs enregistrements relatifs à divers incidents Ik (k identifiant un identifiant particulier). De manière à rassembler des enregistrements relatifs à un même incident, des identifiants ID- 25 Ik sont attribués aux incidents, respectivement. Dans notre exemple, les enregistrements WR1-WR3 sont liés à un identifiant ID-I1 si on considère que l'incident est noté Il.In our example, the two cameras CAM2 and CAM3 are present at the place of the incident I. During a fifth step ET5, the server SRV commands from the cameras CAM2 and CAM3 a capture of the views captured by the cameras CAM2 and CAM3 . In our example, the server also controls a local recording of the shooting, that is to say in the memory modules MEM2 and MEM3 of the cameras. The resulting commands Cd-WR2 and Cd-WR3 respectively can be transmitted simultaneously or at different times. In such a way that the shots take place in a proper direction, the server notifies, during a sixth step, the cameras of information INF2 and INF3 on the desired shot. The notification can be received by the users of the cameras concerned in sound or visual form. The notification can be displayed on the ECRn screen. If the camera is equipped with sound reproduction means such as speakers, or headphones, the notification can be returned through these means of restitution. For example, if the cameras are arranged on connected glasses having a screen, the information on the desired shot can be displayed on the screen of the glasses. Upon receipt of the desired information on the shooting, UT2 and UT3 users respectively move to respect the information so as to capture the area including the incident. The direction of execution of the fifth and sixth steps is arbitrary. These two steps can also be realized simultaneously; in this configuration, the write commands include information about the desired shot. As a result, in a seventh step, the respective PV2 and PV3 shots by cameras CAM2 and CAM3 and, in our example, WR2 and WR3 recordings of these shots, respectively. Note that recordings can be ordered without the knowledge of users. Once the recordings have been made, during an eighth step ET8, the cameras respectively transmit the recordings fi, 12 and 13, made by cameras CAM1, CAM2 and CAM3 respectively to the server SRV for storage there. The times of transmission may be the same or different. Then, these recordings can be used to reconstruct the incident I. According to a first possible variant, once the recordings are made in the seventh step ET7, the latter are encrypted by an encryption algorithm known to those skilled in the art. In our example, the recordings are encrypted by the cameras. In this configuration, the encrypted records are transmitted to the SRV server. This encryption is useful for example for legally recognized proof purposes, the decryption key being held by an authorized third party, for example the police. It should be noted that the encryption of the records could be performed by another entity, for example the SRV server. Over time, the SRV server can store multiple records relating to various incidents Ik (k identifying a particular identifier). In order to collect records relating to the same incident, ID-25 identifiers are assigned to the incidents, respectively. In our example, the records WR1-WR3 are linked to an identifier ID-I1 if we consider that the incident is noted II.

Dans notre exemple, l'identifiant ID-1k est généré après réception de l'alerte AL. Une fois l'identifiant généré, celui-ci est transmis aux caméras concernées par la prise de vue d'un incident. Par exemple, cet identifiant peut être transmis lors de la cinquième étape ET5 avec la commande d'écriture.In our example, the identifier ID-1k is generated after receiving the AL alert. Once the identifier has been generated, it is transmitted to the cameras concerned by the shooting of an incident. For example, this identifier can be transmitted during the fifth step ET5 with the write command.

La durée des enregistrements correspond idéalement à la durée de l'incident. Cependant cette durée n'est pas toujours prévisible. Dans cette configuration, la durée peut être fixée au préalable ou être fonction d'une commande de fin actionnée par l'utilisateur ou par un logiciel d'analyse intelligente d'images capables de détecter la fin d'un événement. Un tel logiciel « d'analyse intelligente » permet par exemple de détecter automatiquement un objet abandonné, mais aussi de permettre la détection automatisée de « comportements suspects ». Dans le mode décrit ci-dessus, les dispositifs enregistrent les captures respectives. Selon une variante, suite aux enregistrements, les dispositifs transmettent au serveur SRV les captures pour y être enregistrées. Nous avons introduit précédemment que le système comprend un module apte à obtenir la direction des prises de vue de chaque caméra et que la connaissance de la direction permettait de connaître la zone capturée par un dispositif de prise de vue à une position géographique donnée. On a vu aussi que, à la sixième étape, des informations sont transmises aux caméras CAM2 et CAM3 pour que ces dernières capturent la scène correctement. Dans cette configuration, pour l'obtention des directions de prises de vue, tout ou partie des caméras sont équipées d'un accéléromètre et d'une boussole. Dans notre exemple, une direction est donnée par l'intermédiaire d'un angle et d'un point cardinal choisi parmi les 4 points cardinaux à savoir le Nord, le Sud, l'Est et l'Ouest. Dans notre exemple, le Nord forme l'angle 0°, et les degrés vont dans le sens des aiguilles d'une montre. Ainsi, à 900 se trouve l'est, à 180° se trouve le Sud et à 270° se trouve l'Ouest.The duration of the recordings ideally corresponds to the duration of the incident. However, this duration is not always predictable. In this configuration, the duration can be fixed beforehand or be a function of a user-operated end command or intelligent image analysis software capable of detecting the end of an event. Such "intelligent analysis" software makes it possible, for example, to automatically detect an abandoned object, but also to allow automated detection of "suspicious behavior". In the mode described above, the devices record the respective captures. According to one variant, following the recordings, the devices transmit to the server SRV the captures to be recorded therein. We previously introduced that the system includes a module capable of obtaining the direction of shooting of each camera and that the knowledge of the direction made it possible to know the area captured by a camera at a given geographical position. We also saw that, in the sixth step, information is transmitted to the cameras CAM2 and CAM3 so that they capture the scene correctly. In this configuration, for obtaining directions of shooting, all or part of the cameras are equipped with an accelerometer and a compass. In our example, a direction is given through an angle and a cardinal point chosen from the 4 cardinal points namely North, South, East and West. In our example, the North forms the angle 0 °, and the degrees go in the direction of the clockwise. Thus, at 900 is the east, 180 ° is the South and 270 ° is the West.

En référence à la figure 5, deux exemples sont décrits. Sur cette figure 5, nous avons représenté uniquement la deuxième caméra CAM2 à des fins de simplification de l'exposé. Un premier exemple dans lequel la première caméra a une localisation LOCI et une direction DIR1 à 95°. Un deuxième exemple dans lequel la première caméra est orientée à 280°. Dans cette configuration, parmi les informations que reçoit la deuxième caméra à la sixième étape ET6, une information concerne la direction DIR2 de la prise de vue à prendre en compte par la deuxième caméra CAM2; Dans notre exemple, lorsque l'angle est de 95° pour la première caméra, l'information INF2 inclut un angle de l'ordre de 170° ; et lorsque l'angle est de 280°, l'information INF2 inclut un angle de l'ordre de 270°. Précisons enfin que dans ce qui précède, le terme module peut correspondre aussi bien à un composant logiciel qu'à un composant matériel ou un ensemble de composants matériels et logiciels, un composant logiciel correspondant lui-même à un ou plusieurs programmes ou sous-programmes d'ordinateur ou de manière plus générale à tout élément d'un programme apte à mettre en oeuvre une fonction ou un ensemble de fonctions telles que décrites pour les modules concernés. De la même manière, un composant matériel correspond à tout élément d'un ensemble matériel (ou hardware) apte à mettre en oeuvre une fonction ou un ensemble de fonctions pour le module concerné (circuit intégré, carte à puce, carte à mémoire, etc.).With reference to FIG. 5, two examples are described. In this FIG. 5, we have represented only the second camera CAM2 for the purpose of simplifying the presentation. A first example in which the first camera has a location LOCI and a direction DIR1 at 95 °. A second example in which the first camera is oriented at 280 °. In this configuration, among the information received by the second camera in the sixth step ET6, information relates to the direction DIR2 of the shooting to be taken into account by the second camera CAM2; In our example, when the angle is 95 ° for the first camera, the information INF2 includes an angle of the order of 170 °; and when the angle is 280 °, the INF2 information includes an angle of the order of 270 °. Finally, it should be noted that in the foregoing, the term module may correspond to a software component as well as a hardware component or a set of hardware and software components, a software component corresponding to one or more programs or subprograms. computer or more generally to any element of a program capable of implementing a function or a set of functions as described for the modules concerned. In the same way, a hardware component corresponds to any element of a hardware set (or hardware) able to implement a function or a set of functions for the module concerned (integrated circuit, smart card, memory card, etc. .).

Claims (9)

REVENDICATIONS1. Procédé de gestion de l'enregistrement d'un événement (I) se produisant dans un lieu incluant une pluralité de dispositifs de prise de vues (CAM1- CAM3) aptes à communiquer avec un réseau de communication, caractérisé en ce qu'il comprend les étapes suivantes - Une étape de détection (ET1) d'un événement, - Une étape de transmission (ET5), via le réseau, à des dispositifs de prise de vues aptes à prendre des vues de l'événement, d'une commande de capture (Cd-WR2, Cd-WR3) de l'événement,REVENDICATIONS1. A method for managing the recording of an event (I) occurring in a location including a plurality of cameras (CAM1-CAM3) capable of communicating with a communication network, characterized in that it comprises the next steps - A step of detecting (ET1) an event, - A transmission step (ET5), via the network, to shooting devices able to take views of the event, a command of capture (Cd-WR2, Cd-WR3) of the event, 2. Procédé de gestion selon la revendication 1, caractérisé en ce que l'étape de détection est réalisée au niveau d'un premier dispositif (CAM1) et en ce que les dispositifs de prise de vues (CAM2, CAM3) auxquels sont transmises des commandes de capture respectives sont des seconds dispositifs situés à proximité du premier dispositif.2. Management method according to claim 1, characterized in that the detection step is performed at a first device (CAM1) and in that the cameras (CAM2, CAM3) to which are transmitted respective capture commands are second devices located near the first device. 3. Procédé de gestion selon les revendications 1 et 2, caractérisé en ce que l'étape de détection est réalisée par une action de l'utilisateur du premier dispositif.3. Management method according to claims 1 and 2, characterized in that the detection step is performed by an action of the user of the first device. 4. Procédé de gestion selon la revendication 1, caractérisé en ce que les dispositifs sont équipés de modules mémoires respectifs et en ce l'étape de transmission est suivie d'une étape de capture suivie d'une étape d'enregistrement (ET7, WR2-WR3) de la capture dans des mémoires respectives des dispositifs.4. Management method according to claim 1, characterized in that the devices are equipped with respective memory modules and in that the transmission step is followed by a capture step followed by a recording step (ET7, WR2 -WR3) of the capture in respective memories of the devices. 5. Procédé de gestion selon la revendication 4, caractérisé en ce que les enregistrements réalisés sont chiffrés au moyen d'un algorithme de chiffrement, respectivement.5. Management method according to claim 4, characterized in that the recordings made are encrypted by means of an encryption algorithm, respectively. 6. Procédé de gestion selon la revendication 1, caractérisé en ce qu'un identifiant (ID-In) est attribué à l'événement (I), et en ce que les enregistrements relatifs à cet événement sont associés à cet identifiant.6. Management method according to claim 1, characterized in that an identifier (ID-In) is assigned to the event (I), and in that the records relating to this event are associated with this identifier. 7. Procédé de gestion selon la revendication 4, caractérisé en ce que les captures réalisées sont transmises sur le réseau et en ce que si un dispositif est déconnecté du réseau lors de la transmission, la transmission est suspendue et reprise après qu'une connexion soit établie avec le réseau.7. Management method according to claim 4, characterized in that the captures made are transmitted over the network and in that if a device is disconnected from the network during transmission, the transmission is suspended and resumed after a connection is established with the network. 8. Procédé de gestion selon la revendication 1, caractérisé en ce que les dispositifs destinataires de la commande de capture reçoivent en outre des informations à prendre en compte pour la prise de vue.8. Management method according to claim 1, characterized in that the receiving devices of the capture control further receive information to be taken into account for shooting. 9. Système (SYS) de gestion de l'enregistrement d'un événement se produisant dans un lieu incluant une pluralité de dispositifs de prise de vues (CAM1-CAM3) aptes à communiquer avec un réseau de communication (RES), caractérisé en ce qu'il comprend : - un module de détection d'un événement, - un module de transmission apte à transmettre, via le réseau, une commande de capture (Cd-WR2, Cd-WR3) de l'événement, à des dispositifs de prise de vue aptes à prendre des vues de l'événement.9. System (SYS) for managing the recording of an event occurring in a location including a plurality of cameras (CAM1-CAM3) able to communicate with a communication network (RES), characterized in that it includes: - a module for detecting an event, - a transmission module able to transmit, via the network, a capture command (Cd-WR2, Cd-WR3) of the event, to shooting able to take views of the event.
FR1359364A 2013-09-27 2013-09-27 RECORDING AN EVENT MANAGEMENT Pending FR3005544A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1359364A FR3005544A1 (en) 2013-09-27 2013-09-27 RECORDING AN EVENT MANAGEMENT

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1359364A FR3005544A1 (en) 2013-09-27 2013-09-27 RECORDING AN EVENT MANAGEMENT

Publications (1)

Publication Number Publication Date
FR3005544A1 true FR3005544A1 (en) 2014-11-14

Family

ID=50101925

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1359364A Pending FR3005544A1 (en) 2013-09-27 2013-09-27 RECORDING AN EVENT MANAGEMENT

Country Status (1)

Country Link
FR (1) FR3005544A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2379354A (en) * 2001-07-31 2003-03-05 Hewlett Packard Co Monitoring system with motion-dependent resolution selection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2379354A (en) * 2001-07-31 2003-03-05 Hewlett Packard Co Monitoring system with motion-dependent resolution selection

Similar Documents

Publication Publication Date Title
US11972036B2 (en) Scene-based sensor networks
US10019773B2 (en) Authentication and validation of smartphone imagery
FR3004565A1 (en) FUSION OF SEVERAL VIDEO STREAMS
TWI519167B (en) System for applying metadata for object recognition and event representation
EP1787475A1 (en) Protection and monitoring of content diffusion in a telecommunications network
WO2017012899A1 (en) Method for displaying a laser spot
EP3008693A1 (en) System for tracking the position of the shooting camera for shooting video films
FR3005544A1 (en) RECORDING AN EVENT MANAGEMENT
FR3052003B1 (en) AUDIENCE MEASUREMENT SYSTEM AND METHOD, AND CORRESPONDING PORTABLE INDIVIDUAL AUDITOR.
FR2852768A1 (en) Digital photographic image data processing control method for mobile telephone, involves executing control instructions so as to prohibit image processing stage when localization data corresponds to place where image capture is prohibited
WO2019110913A1 (en) Processing of data of a video sequence in order to zoom on a speaker detected in the sequence
EP2701398B1 (en) Method for processing a multimedia stream, corresponding server and computer program
FR2982942A1 (en) Detecting device for detecting exit of equipment in protection zone in e.g. military field, has alarm module providing alert and/or erasing stored data, and/or destructing physical elements of equipment when equipment is outside of zone
FR3049801A1 (en) METHOD FOR DIFFUSION OF AT LEAST ONE DATA SEQUENCE ON SMARTPHONE OR TABLET-TYPE PORTABLE TERMINALS
EP3560147B1 (en) Automation of exchanges between communicating objects
FR2935188A1 (en) METRIC TELEMETRY METHOD
FR2996714A1 (en) METHOD FOR SELECTING A VIDEO STREAM BASED ON A TARGET TO BE VIEWED, CORRESPONDING COMPUTER DEVICE AND PROGRAM
CN113596317A (en) Live-action shot image security method, terminal and system
EP4009630A1 (en) Method for detecting intrusion
FR3079060A1 (en) PARTICIPATORY THREE-DIMENSIONAL RECONSTRUCTION
FR3045880A1 (en) METHOD FOR CONTROLLING THE CONSULTATION OF DATA RELATING TO A SOFTWARE APPLICATION INSTALLED IN A COMMUNICATION TERMINAL
FR3116973A1 (en) Method and installation for controlling and/or configuring IP cameras installed in a network
FR2854527A1 (en) Football match video data displaying system for graphical terminal, has module storing and displaying video data, received from image processing module, on television, computer and mobile phone through internet protocol network
FR3135341A1 (en) Method and installation for data processing based on artificial intelligence
FR3019704A1 (en) METHOD FOR TRANSMITTING INFORMATION VIA A VIDEO CHANNEL BETWEEN TWO TERMINALS