SE528330C2 - Method for monitoring a geographical area - Google Patents
Method for monitoring a geographical areaInfo
- Publication number
- SE528330C2 SE528330C2 SE0402748A SE0402748A SE528330C2 SE 528330 C2 SE528330 C2 SE 528330C2 SE 0402748 A SE0402748 A SE 0402748A SE 0402748 A SE0402748 A SE 0402748A SE 528330 C2 SE528330 C2 SE 528330C2
- Authority
- SE
- Sweden
- Prior art keywords
- camera
- model
- images
- sensors
- area
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three-dimensional [3D] modelling for computer graphics
- G06T17/05—Geographic models
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19697—Arrangements wherein non-video detectors generate an alarm themselves
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Alarm Systems (AREA)
Abstract
Description
20 25 30 35 (51 l\ 'I C_ x (N CN CD fig. 1 visar känd teknik för projektion av kameravyer på en 3D-modell, fig. 2 visar kombination ett akustiskt sensomät med kameravyema och 3D-modellen i fig.1, fig. 3 visar en skytts skottfält visualiserat i 3D-modellen och fig. 4 visar kombination av tre passagedetektorer med kameravyema och âD-modellen i fig. 1. 20 25 30 35 (51 l \ 'I C_ x (N CN CD fi g. 1 shows known technology for projecting camera views on a 3D model, fi g. 2 shows combination an acoustic sensor measurement with the camera views and the 3D model in fi g.1 , fi g. 3 shows a shooter's firing range visualized in the 3D model and fi g. 4 shows a combination of three passage detectors with the camera views and the âD model in fi g. 1.
Den grundläggande idén vid uppfinningen år att man använder en tredimensionell virtuell datorrnodell, 3D-modell, av området som ska övervakas, se fig. 1. l området som skall övervakas använder man olika typer av fasta ochleller rörliga sensorer, såsom akustiska sensomät 4 och passagedetektorer 9, 10, 11 samt kameror 1, 2, 3.The basic idea of the invention is to use a three-dimensional virtual computer model, 3D model, of the area to be monitored, see fi g. In the area to be monitored, different types of fixed and / or moving sensors are used, such as acoustic sensor measurements 4 and passage detectors 9, 10, 11 and cameras 1, 2, 3.
Dessa visualiseras med olika typer av virtuella symboler 5, 6, 7 i 3D-modellen till- sammans med sensordata, dvs. olika typer av detektioner. Det de virtuella kameroma 1, 2, 3 ser projiceras 1', 2', 3' på 3D-modellen, dvs. kameroma fungerar som videoprojektoreri (eller stillbildsprojektorer om kameroma är stillbildskameror).These are visualized with different types of virtual symbols 5, 6, 7 in the 3D model together with sensor data, ie. different types of detections. What the virtual cameras 1, 2, 3 see is projected 1 ', 2', 3 'on the 3D model, ie. the cameras act as video projectors (or still image projectors if the cameras are still cameras).
Sammantaget innebär användandet av en virtuell 3D-modell med inlagda kameravyer och sensordata från sensorer såväl innanför som utanför kameravyema att man får en oerhört ökad förmåga till sammanhang och överblick över ett geografiskt omrâde.All in all, the use of a virtual 3D model with embedded camera views and sensor data from sensors both inside and outside the camera views means that you get an extremely increased ability for context and overview of a geographical area.
Metoden ger också möjlighet att följa ett rörligt objekt inom området. Objektet kan vara en person eller ett fordon som man följer framåt eller bakåt itiden, såväl när det är i bild som när det gàr ur bild för att eventuellt återigen komma i bild. Studiet av förfluten tid kan naturligtvis inte ske i realtid, vilket emellertid är möjligt för ett följande framåt i tiden. Genom att följa en intressant person bakåt i tiden kan man t.ex. i polisiära sammanhang knyta honom till andra personer som vid ett tidigare tillfäile vari bild och som man då i realtid inte noterade särskilt.The method also provides the opportunity to follow a moving object within the area. The object can be a person or a vehicle that you follow forwards or backwards in time, both when it is in the picture and when it goes out of the picture to possibly come into the picture again. The study of for fl without time can of course not take place in real time, which is, however, possible for a following forward in time. By following an interesting person back in time, you can e.g. in police contexts link him to other persons who on an earlier occasion were pictured and who were then not noticed in real time.
Kombinationen av en 3D-modell med inlagda kameravyer 1', 2', 3' medför att man direkt ser hur en kameras bilder hänger ihop med den omgivande miljön. Man kan även se bilder fràn flera kameror samtidigt så att man direkt ser hur bildema är relaterade till varandra. Denna teknik är känd genom Video Flashlight från Samoff Corporation. 10 15 20 25 30 35 528 330 3 När det gäller de olika sensorema kan akustiska sensomät 4 lokalisera, följa och klassificera olika ljud, som sedan visualiseras 5, 6, 7 i 3D-modellen. Till exempel kan fordon och/eller människor följas mellan och utanför kameromas bilder och visualiseras i 3D-modellen. Kombinationen av 3D-modell, kameraövervakning och akustiskt sensomät illustreras i figur 2.The combination of a 3D model with built-in camera views 1 ', 2', 3 'means that you can immediately see how a camera's images are connected to the surrounding environment. You can also see images from your cameras at the same time so that you can directly see how the images are related to each other. This technology is known through Video Flashlight from Samoff Corporation. 10 15 20 25 30 35 528 330 3 As for the different sensors, acoustic sensor measurements 4 can locate, follow and classify different sounds, which are then visualized 5, 6, 7 in the 3D model. For example, vehicles and / or people can be followed between and outside the cameras' images and visualized in the 3D model. The combination of 3D model, camera surveillance and acoustic sensor measurement is illustrated in Figure 2.
Vid skottlossning kan sensomätet 4 lokalisera skottet, och skyttens position kan markeras i 3D-modellen, vilket i sin tur medför en rad nya förmågor. (1) Om skytten 5 befinner sig i en kameras synfält kan han pekas ut. Därefter kan han följas framåt och bakåt i bildmaterialet (eller med hjälp av andra sensor- data) för att välja ut bilder lämpliga för identifiering, för att varna omgivningen, att analysera beteende, att identiflera medbrottslingar, m.m. (2) Om skytten 5 befinner sig utanför de tillgängliga kameromas synfält kan han följas med andra sensorer (framåt och bakåt i tiden) till dess att han syns i en kamera. (3) Skyttens 5 synfält 5' (skottfält), liksom varje annat objekts synfält, kan beräknas i 3D-modellen och direkt visualiseras i densamma. Därmed kan man vama personer i riskomràdet, och undvika att någon går in i det. Visuali- seríngen går till så att man placerar en (virtuell) ljuskälla i 3D-modellen i skyttens position. Det område som lampan belyser är skyttens skottfält.When firing, the sensor gauge 4 can locate the shot, and the shooter's position can be marked in the 3D model, which in turn brings a number of new abilities. (1) If the shooter 5 finds himself in a camera's field of view, he can be pointed out. He can then be followed forwards and backwards in the image material (or with the help of other sensor data) to select images suitable for identification, to warn the environment, to analyze behavior, to identify accomplices, etc. (2) If the shooter 5 is outside the field of view of the available cameras, he can be followed with other sensors (forwards and backwards in time) until he is visible in a camera. (3) The shooter's 5 field of view 5 '(firing field), as well as the field of view of any other object, can be calculated in the 3D model and directly visualized in it. This allows you to warn people in the risk area, and avoid anyone entering it. The visualization is done by placing a (virtual) light source in the 3D model in the shooter's position. The area that the lamp illuminates is the shooter's firing range.
Visualisering av skottfält illustreras i figur 3.Visualization of firing ranges is illustrated in Figure 3.
Ett akustiskt sensomät 4 fungerar på följande vis. Varje nod i nätet består av (minst) två mikrofoner 8. När en ljuclvàg, t.ex. från ett avfyrat skott, når noden kan man mäta skillnaden i ljudvàgens ankomsttid för de två mikrofonema och därmed beräkna från vilken riktning ljudvågen kom. Om ljudvågen registrerats av flera noder kan man med klassisk krysspejling lokalisera ljudkällan.An acoustic sensor 4 works in the following way. Each node in the network consists of (at least) two microphones 8. When a light wave, e.g. from a fired shot, reaching the node, one can measure the difference in the arrival time of the sound wave for the two microphones and thus calculate from which direction the sound wave came. If the sound wave is registered by your nodes, you can locate the sound source with classic cross-mirroring.
Det registrerade ljudet kan även klassificeras, dvs. man kan avgöra om ljudet är t.ex. motorljud, röster eller avlossade skott. Det finns flera kända metoder tillgängliga för sådan klassificering, exempelvis sådan som används i röststyming av datorer och mobiltelefoner. 10 15 20 25 30 35 528 335) 4 En annan typ av detektor är en passagedetektor 9, 10, 11 som vamar för när någon eller något passerar detektom (sensom), vilket kan visualiseras i 3D-modellen och direkt sättas i relation till övervakningsbilderna. Detta visas i figur 4. Exempel pà passagedetektorer är. (1) Sà kallade marklarm 9, dvs. anordningar nergrävda i marken som känner av när marken utsätts för tryck. Marklannen reagerar på såväl människor som fordon. Flera olika typer finns tillgängliga på marknaden; hydrauliska, elektro- magnetiska och fiberoptiska system. (2) Laserdetektorer eller IR-barriärer 10 reagerar när en (vanligen infraröd) laser- stråle bryts av, till exempel, en passerande person eller ett fordon. (3) Geofoner 11 är seismiska sensorer som registrerar vibrationer i marken och reagerar när människor eller fordon passerar.The registered sound can also be classified, ie. you can determine if the sound is e.g. engine noises, voices or fired shots. There are known methods available for such classification, for example those used in voice control of computers and mobile phones. 10 15 20 25 30 35 528 335) 4 Another type of detector is a passage detector 9, 10, 11 which warns when someone or something passes the detector (sensor), which can be visualized in the 3D model and directly related to the surveillance images . This is shown in Figure 4. Examples of passage detectors are. (1) So-called ground alarm 9, ie. devices buried in the ground that sense when the ground is exposed to pressure. The land responds to both people and vehicles. Several different types are available on the market; hydraulic, electromagnetic and professional systems. (2) Laser detectors or IR barriers react when a (usually infrared) laser beam is refracted by, for example, a passing person or a vehicle. (3) Geophones 11 are seismic sensors that detect vibrations in the ground and react when people or vehicles pass.
Andra viktiga sensorer vars data kan kombineras med övrig information är sådana som ger den egna positionen. t.ex. GPS-mottagare och mobiltelefoner. Genom att lägga in symboliska markörer för sådana sensorer kan människor och/eller fordon följas i 3D-modellen.Other important sensors whose data can be combined with other information are those that provide their own position. for example GPS receivers and mobile phones. By adding symbolic markers for such sensors, people and / or vehicles can be followed in the 3D model.
Uppfinningen ger också en förbättrad förmåga att planera framtida övervaknings- verksamhet. När man ska planera utplacering av belysning, vakter, skyttar eller kameror är det viktigt att veta vilka synfält de får i sina respektive positioner. Genom att visualisera synfälten på det sätt som beskrivits ovan, kan man pröva sig fram, vilket underlättar planeringen.The invention also provides an improved ability to plan future monitoring activities. When planning the placement of lighting, guards, shooters or cameras, it is important to know which fields of view they get in their respective positions. By visualizing the fields of view in the way described above, you can try your hand at it, which facilitates planning.
En viktig ytterligare funktion vid uppfinningen är som nämnts att den ger möjlighet att följa ett objekt, exempelvis en person, ett fordon eller en sensor, i bilder frán en övervakningskamera. Det är då viktigt att fortlöpande kunna markera objektets position i SD-modellen. Detta kan ske på följande sätt: (1) Antag att ett objekts position p i en bild är känd iform av 2D-koordinater. (2) Antag att kameran fràn vilken bilden kommer har en känd fokallängd. Då kan bildpositionen p räknas om till vinklar vi horisontal- och vertikalled relativt kamerans orientering. (3) Antag att kamerans orientering är känd. Dä kan vinklama v räknas om till en (tredimensionell) riktning w, dvs. riktningen frän kameran till objektet. 10 15 20 25 30 528 330 5 (4) Antag att kamerans .position k är känd i tre dimensioner. För att fä fram objektets position i 3D-modellen vill man veta SD-positionen x på modellen som motsvarar p. Det görs genom en att utnyttja en så kallad intersect-j operation som finns inbyggd i de flesta datorers grafikkort som ett hjälpmedel för att beräkna belysning. Intersect-operationen tar en punkt och en riktning, och ger tillbaka koordinatema för det första objektet som skär vektom i den givna riktningen utgående fràn den givna punkten. l vårt fall ger vi intersect- operationen kamerans position k och riktningen frân kameran till objektet w och får tillbaka den sökta positionen x. (5) Positionen x markeras i 3D-modellen, exempelvis genom att placera en symbol iden givna positionen.An important further function of the invention is, as mentioned, that it provides the possibility to follow an object, for example a person, a vehicle or a sensor, in images from a surveillance camera. It is then important to be able to continuously mark the object's position in the SD model. This can be done as follows: (1) Assume that the position p of an object in an image is known in the form of 2D coordinates. (2) Assume that the camera from which the image comes has a known focal length. Then the image position p can be converted to angles horizontally and vertically relative to the orientation of the camera. (3) Assume that the camera orientation is known. Then the angles v can be converted to a (three-dimensional) direction w, ie. the direction from the camera to the subject. 10 15 20 25 30 528 330 5 (4) Assume that the position k of the camera is known in three dimensions. To obtain the position of the object in the 3D model, you want to know the SD position x on the model that corresponds to p. This is done by using a so-called intersect-j operation that is built into most computers' graphics cards as an aid to calculate lighting. The intersect operation takes a point and a direction, and returns the coordinates of the first object that intersects the vector in the given direction starting from the given point. In our case, we give the intersect operation the position k of the camera and the direction from the camera to the object w and get back the desired position x. (5) The position x is marked in the 3D model, for example by placing a symbol in the given position.
Såväl för att utföra projektionen av kamerabilder på 3D-modellen som för att följa objekt enligt ovan krävs att kamerans parametrar är kända. Parametrama ifråga är position, orientering samt synfält och/eller fokallängd. Parametrarna kan tas fram manuellt, exempelvis genom att använda GPS och mäta in kamerans position samt en punkt mitt i kamerans synfält, men eftersom detta i praktiken är svårt kan man i stället använda ett automatiskt iterativt förfarande som utgår fràn en grov upp- skattning av parametrama: (1) En virtuell kamera placeras i 3D-modellen enligt den grova uppskattningen. (2) Bilden från den virtuella kameran jämförs med bilden från den verkliga kameran. Jämförelsen går till så att ett antal viktiga punkter, t.ex. höm på byggnader, identifieras i båda bildema. Punktema skall ha samma position i båda bildema för bildema skall antas överensstämma. (3) Om bildema överensstämmer, är de uppskattade parametrama korrekta. (4) Om bilderna inte överensstämmer ändras parametrama och en ny bild genereras från den virtuella kameran. Gå tillbaka till steg 2.Both to perform the projection of camera images on the 3D model and to follow objects as above, the camera parameters are known. The parameters in question are position, orientation and field of view and / or focal length. The parameters can be retrieved manually, for example by using GPS and measuring the camera's position and a point in the middle of the camera's field of view, but since this is difficult in practice, you can instead use an automatic iterative procedure based on a rough estimate of the parameters. : (1) A virtual camera is placed in the 3D model according to the rough estimate. (2) The image from the virtual camera is compared with the image from the real camera. The comparison is made so that a number of important points, e.g. höm on buildings, identified in both pictures. The points must have the same position in both images for the images must be assumed to match. (3) If the images match, the estimated parameters are correct. (4) If the images do not match, the parameters change and a new image is generated from the virtual camera. Go back to step 2.
Det finns flera metoder för hur man kan ändra parametrama i steg 4, exempelvis slumpmässigt, med gradientsökning eller med algebraiska metoder.There are methods for how to change the parameters in step 4, for example randomly, with gradient search or with algebraic methods.
Claims (17)
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| SE0402748A SE528330C2 (en) | 2004-11-11 | 2004-11-11 | Method for monitoring a geographical area |
| PCT/SE2005/001700 WO2006052204A1 (en) | 2004-11-11 | 2005-11-11 | Method for surveillance of a geographical area and a system utilising the method |
| EP05800729.5A EP1812910A4 (en) | 2004-11-11 | 2005-11-11 | METHOD FOR MONITORING A GEOGRAPHIC AREA, AND SYSTEM USING THE SAME |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| SE0402748A SE528330C2 (en) | 2004-11-11 | 2004-11-11 | Method for monitoring a geographical area |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| SE0402748D0 SE0402748D0 (en) | 2004-11-11 |
| SE0402748L SE0402748L (en) | 2006-05-12 |
| SE528330C2 true SE528330C2 (en) | 2006-10-24 |
Family
ID=33488214
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| SE0402748A SE528330C2 (en) | 2004-11-11 | 2004-11-11 | Method for monitoring a geographical area |
Country Status (3)
| Country | Link |
|---|---|
| EP (1) | EP1812910A4 (en) |
| SE (1) | SE528330C2 (en) |
| WO (1) | WO2006052204A1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102012211154B4 (en) | 2012-06-28 | 2019-02-14 | Robert Bosch Gmbh | Monitoring system, open space monitoring and monitoring of a surveillance area |
| DE102018208604A1 (en) * | 2018-05-30 | 2019-12-05 | Siemens Aktiengesellschaft | Determining a recording behavior of a recording unit |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2355612A (en) * | 1999-10-19 | 2001-04-25 | Tricorder Technology Plc | Image processing arrangement producing a combined output signal from input video signals. |
| US7522186B2 (en) * | 2000-03-07 | 2009-04-21 | L-3 Communications Corporation | Method and apparatus for providing immersive surveillance |
| US20050146605A1 (en) * | 2000-10-24 | 2005-07-07 | Lipton Alan J. | Video surveillance system employing video primitives |
| FR2821172B1 (en) * | 2001-02-16 | 2003-05-23 | Immervision Internat Pte Ltd | METHOD AND DEVICE FOR ORIENTATION OF A DIGITAL PANORAMIC IMAGE |
-
2004
- 2004-11-11 SE SE0402748A patent/SE528330C2/en not_active IP Right Cessation
-
2005
- 2005-11-11 WO PCT/SE2005/001700 patent/WO2006052204A1/en not_active Ceased
- 2005-11-11 EP EP05800729.5A patent/EP1812910A4/en not_active Withdrawn
Also Published As
| Publication number | Publication date |
|---|---|
| WO2006052204A1 (en) | 2006-05-18 |
| EP1812910A1 (en) | 2007-08-01 |
| EP1812910A4 (en) | 2013-05-29 |
| SE0402748L (en) | 2006-05-12 |
| SE0402748D0 (en) | 2004-11-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7432595B2 (en) | Cooperative virtual interface | |
| US9520040B2 (en) | System and method for real-time 3-D object tracking and alerting via networked sensors | |
| JP6532106B2 (en) | Monitoring device, monitoring method and program for monitoring | |
| US8761436B2 (en) | Device for identifying and/or classifying movement patterns in an image sequence of a surveillance scene, method and computer program | |
| US20110115909A1 (en) | Method for tracking an object through an environment across multiple cameras | |
| CN116339337A (en) | Target intelligent positioning control system and method based on infrared imaging, laser radar and sound directional detection | |
| CN114120171A (en) | Fire and smoke detection method, device, device and storage medium based on video frame | |
| KR102531272B1 (en) | Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same | |
| WO1997042764A1 (en) | Abnormality detection and surveillance system | |
| US11210529B2 (en) | Automated surveillance system and method therefor | |
| JP2021077295A (en) | Monitoring device, monitoring method, and program | |
| CN112562005A (en) | Space calibration method and system | |
| CN112541403B (en) | A method for indoor person fall detection using infrared cameras | |
| US7489255B2 (en) | Self-position identification apparatus and self-position identification method | |
| KR102750851B1 (en) | Multimodal sensor based integrated fire monitoring system | |
| SE528330C2 (en) | Method for monitoring a geographical area | |
| CN120766202A (en) | Real-time monitoring and identification method and system of mountain conditions based on deep learning | |
| CN119694087A (en) | A LSTM-based edge protection warning method, device and medium | |
| CN116524540B (en) | Coal mine underground people counting method based on bipartite graph | |
| WO2024127392A1 (en) | System and method for event detection and tracking using optical and acoustic signals | |
| Hayouni et al. | Towards Cognitive Vehicles: GNSS-free Localization using Visual Anchors | |
| Jain et al. | Optimal Deep Learning Models for Post-Flood House Detection in Drone Imagery | |
| Michail et al. | Innovative Visual Analysis Solutions to Support Disaster Management | |
| Boonjun et al. | Real time automatic object detection by using template matching for protecting pipelines | |
| KR102810985B1 (en) | System and method for automatically collecting location data for safety of worker |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| NUG | Patent has lapsed |