DE202022106633U1 - Ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets der Dinge - Google Patents

Ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets der Dinge Download PDF

Info

Publication number
DE202022106633U1
DE202022106633U1 DE202022106633.7U DE202022106633U DE202022106633U1 DE 202022106633 U1 DE202022106633 U1 DE 202022106633U1 DE 202022106633 U DE202022106633 U DE 202022106633U DE 202022106633 U1 DE202022106633 U1 DE 202022106633U1
Authority
DE
Germany
Prior art keywords
processing unit
command
unit
control processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202022106633.7U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE202022106633.7U priority Critical patent/DE202022106633U1/de
Publication of DE202022106633U1 publication Critical patent/DE202022106633U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Ein intelligentes städtisches Umweltmanagementsystem, das auf dem Internet der Dinge basiert, das System umfasst:
eine Eingabeeinheit, bestehend aus einer Audio-Sammeleinheit und einer Video-Sammeleinheit zum Sammeln von Audio-, Bild- und Videodaten eines Echtzeit-Überwachungspunktes;
eine Sprachübermittlungseinheit zum Empfang einer von einer Befehls- und Steuerverarbeitungseinheit gesendeten Sprachübermittlung;
einen Cloud-Server zum Speichern von Audio-, Bild- und Videodaten zum Abspielen und Herunterladen durch die Befehls- und Steuerungsverarbeitungseinheit und ein registriertes Benutzer-Rechengerät;
eine Gesichtserkennungs-Verarbeitungseinheit zum automatischen Erkennen und Sammeln eines Gesichts, das im Echtzeit-Überwachungsbereich erscheint, wodurch das Bild auf den Cloud-Server oder die Befehls- und Steuerungsverarbeitungseinheit hochgeladen wird;
eine zentrale Verarbeitungseinheit zum automatischen Erkennen und Sammeln von Nummernschildern, die im Echtzeit-Überwachungsbereich erscheinen, und zum Hochladen auf den Cloud-Server oder die Befehls- und Kontrollverarbeitungseinheit;
einen Erfassungsknoten zum Sammeln von Umgebungsparametern des Echtzeit-Überwachungspunktes, wodurch die entsprechende Position des Bildes und des Videos überlagert wird, und zum Hochladen auf den Cloud-Server und die Befehls- und Kontrollverarbeitungseinheit; und
eine Datenübertragungseinheit zum Hochladen der gesammelten Bezugsdaten auf einen Cloud-Plattformserver oder die Befehls- und Steuerungsverarbeitungseinheit und zum Empfangen der von der Befehls- und Steuerungsverarbeitungseinheit zurückgesendeten Sprachübertragung.

Description

  • BEREICH DER ERFINDUNG
  • Die vorliegende Offenlegung bezieht sich auf ein intelligentes städtisches Umgebungsmanagementsystem, das auf dem Internet der Dinge basiert, genauer gesagt, auf ein System, das die Sicherheit des gewünschten Bereichs gewährleistet.
  • HINTERGRUND DER ERFINDUNG
  • Die Flut der globalen Informatisierung wird durch die rasche Entwicklung des Internets vorangetrieben, und infolgedessen steigen die Anforderungen und Erwartungen an die Intellektualisierung der Menschheit. Die Strafverfolgungsbehörden müssen angesichts der gesellschaftlichen Entwicklung dringend ihre mobilen Strafverfolgungsfähigkeiten und Reaktionszeiten erhöhen. Die Strafverfolgungsbehörden wiederum haben ein breites Spektrum an Aufgaben, ein kompliziertes forensisches Umfeld, strenge Fristen und hohe Anforderungen an die Zusammenarbeit. Aufgrund dieser praktischen Herausforderungen müssen mobile Kommunikationstools der Strafverfolgungsbehörden in der Lage sein, den Tatort richtig darzustellen und die Bemühungen umgehend zu koordinieren, hat die Fähigkeit, schnell zu reagieren.
  • In Anbetracht der vorangegangenen Diskussion wird deutlich, dass ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets der Dinge erforderlich ist.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Offenlegung zielt darauf ab, ein auf dem Internet der Dinge basierendes Smart-City-Umgebungsmanagementsystem bereitzustellen, das dem gewünschten Gebiet Sicherheit bietet.
  • In einer Ausführungsform wird ein auf dem Internet der Dinge basierendes intelligentes städtisches Umweltmanagementsystem offengelegt. Das System umfasst eine Eingabeeinheit, bestehend aus einer Audio-Sammeleinheit und einer Video-Sammeleinheit zum Sammeln von Audio-, Bild- und Videodaten eines Echtzeit-Überwachungspunktes. Das System umfasst ferner eine Sprachübertragungseinheit zum Empfangen einer Sprachübertragung, die von einer Befehls- und Steuerungsverarbeitungseinheit gesendet wird. Das System umfasst ferner einen Cloud-Server zum Speichern von Audio-, Bild- und Videodaten zum Abspielen und Herunterladen durch die Befehls- und Kontrollverarbeitungseinheit und ein registriertes Benutzer-Computergerät. Das System umfasst ferner eine Gesichtserkennungs-Verarbeitungseinheit zum automatischen Erkennen und Sammeln eines Gesichts, das im Echtzeit-Überwachungsbereich erscheint, wodurch das Bild auf den Cloud-Server oder die Befehls- und Steuerungsverarbeitungseinheit hochgeladen wird. Das System umfasst ferner eine zentrale Verarbeitungseinheit zum automatischen Erkennen und Sammeln von Nummernschildern, die im Echtzeit-Überwachungsbereich erscheinen, und zum Hochladen auf den Cloud-Server oder die Befehls- und Kontrollverarbeitungseinheit. Das System umfasst ferner einen Erfassungsknoten zum Sammeln von Umgebungsparametern des Echtzeitüberwachungspunkts, wodurch die entsprechende Position des Bildes und des Videos überlagert wird, und zum Hochladen auf den Cloud-Server und die Befehls- und Steuerverarbeitungseinheit. Das System umfasst ferner eine Datenübertragungseinheit zum Hochladen der gesammelten Daten auf einen Cloud-Plattformserver oder die Befehls- und Kontrollverarbeitungseinheit und zum Empfangen der von der Befehls- und Kontrollverarbeitungseinheit zurückgesendeten Sprachübertragung.
  • In einer Ausführungsform umfasst der Cloud-Plattform-Server: eine Datenerfassungseinheit zum Sammeln von Daten, die von einer Front-End-Überwachungsdatensammeleinheit empfangen werden; den Cloud-Server zum Speichern von empfangenen Daten und Workflow-Daten; Rechteverwaltung, Benutzerverwaltung und Dienstverwaltung; und eine Cloud-Analyseeinheit zum Durchführen von Datenanalysen an der Gesichtserkennungseinheit, der zentralen Verarbeitungseinheit und dem Sensorknoten.
  • In einer Ausführungsform ist die Gesichtserkennungseinheit mit der Cloud-Analyseeinheit gekoppelt, um das Gesicht aus den gesammelten Bild- oder Videodaten zu analysieren, um das Alter und das Geschlecht des Gesichts in den Bild- oder Videodaten zu analysieren und dadurch den Personenstrom zu zählen und zu bestimmen, ob die Gesichtsdatenbank-Whitelist, die Alarmschwelle, die Gesichtsdatenbank-Blacklist, die Push-, Backup- und Alarm-zugehörigen Parameter geöffnet und eingestellt sind.
  • In einer Ausführungsform wird ein Satz von Merkmalen des gesammelten Gesichts mit der Gesichtsdatenbank verglichen, wodurch ein Push an den entsprechenden Client in Übereinstimmung mit der Alarmbedingung erfolgt, wenn die Gesichtsdatenbank-Whitelist, die Alarmschwelle, die Gesichtsdatenbank-Blacklist, der Push, das Backup und die mit dem Alarm verbundenen Parameter geöffnet und eingestellt sind.
  • In einer Ausführungsform wird der Personenstrom anhand der Anzahl der Gesichter gezählt, die innerhalb des festgelegten Zeitraums zurückgegeben werden, und der Personenstrom wird anhand der Anzahl der Gesichter in jedem Einzelbild gezählt.
  • In einer Ausführungsform umfasst das System eine grafische Benutzeroberfläche, die mit dem Cloud-Plattformserver gekoppelt ist, um eine Vielzahl von Diensten bereitzustellen, darunter eine Betreiberdienstplattform, eine öffentliche Behördendienstplattform und eine öffentliche Sozialnetzdienstplattform, wobei die Dienstelemente der Dienstplattform öffentliche Dienste und Betreiberdienste umfassen.
  • In einer Ausführungsform zeigt die grafische Benutzeroberfläche das erkannte Gesicht und die Nummernschilder an, die im Echtzeit-Überwachungsbereich erscheinen, der optional aus der Ferne zugänglich ist.
  • In einer Ausführungsform umfasst der Sensorknoten eine Vielzahl von Sensoren wie Temperatursensor, Drucksensor, Lichtsensor, Luftreinigungsindexsensor und dergleichen.
  • In einer Ausführungsform umfasst die Analyse der Gesichtserkennungseinheit durch die Cloud-Analyseeinheit die folgenden Schritte: Durchführen einer Gesichtsbildanalyse an den gesammelten Bild- oder Videodaten, um das Alter und das Geschlecht des Gesichts in den Bild- oder Videodaten zu analysieren; Zählen des Personenstroms entsprechend der Anzahl der Gesichter, die innerhalb der eingestellten Zeitspanne zurückgegeben werden, und Zählen des Personenstroms entsprechend der Anzahl der Gesichter in jedem Bildrahmen; und Bestimmen, ob die Gesichtsdatenbank-Whitelist, die Alarmschwelle, die Gesichtsdatenbank-Blacklist, die Push-, Backup- und Alarm-assoziierten Parameter geöffnet und eingestellt sind, um dadurch den Satz von Merkmalen des gesammelten Gesichts mit der Gesichtsdatenbank zu vergleichen und entsprechend der Alarmbedingung an den relevanten Client zu schieben.
  • In einer Ausführungsform wird ein maschinelles Lernverfahren verwendet, um ein Gesicht zu erkennen, das im Echtzeit-Überwachungsbereich auftaucht, und um Nummernschilder zu erkennen, die im Echtzeit-Überwachungsbereich auftauchen, indem vorab gespeicherte Daten verglichen werden.
  • Ein Ziel der vorliegenden Offenlegung ist es, die empfangenen Bild-, Audio- und Videodaten zu überprüfen und Daten mit den registrierten mobilen Endgeräten der Strafverfolgungsbehörden auszutauschen.
  • Ein weiteres Ziel der vorliegenden Offenbarung ist es, auf die empfangenen Bild-, Audio- und Videodaten zuzugreifen, sie zu speichern und zu analysieren, die voreingestellten Daten unabhängig zu sichern und sie an ein zugehöriges Client-End oder ein verbundenes Front-End- oder Back-End-Alarmgerät zu senden.
  • Ein weiteres Ziel der vorliegenden Erfindung ist es, ein schnelles und kosteneffizientes Smart-City-Management- und Dispatching-Plattformsystem bereitzustellen.
  • Zur weiteren Verdeutlichung der Vorteile und Merkmale der vorliegenden Offenbarung wird eine genauere Beschreibung der Erfindung durch Bezugnahme auf bestimmte Ausführungsformen gegeben, die in den beigefügten Figuren dargestellt sind. Es wird davon ausgegangen, dass diese Figuren nur typische Ausführungsformen der Erfindung darstellen und daher nicht als Einschränkung des Umfangs der Erfindung zu betrachten sind. Die Erfindung wird mit zusätzlicher Spezifität und Detail mit den beigefügten Figuren beschrieben und erläutert werden.
  • Figurenliste
  • Diese und andere Merkmale, Aspekte und Vorteile der vorliegenden Offenbarung werden besser verstanden, wenn die folgende detaillierte Beschreibung unter Bezugnahme auf die beigefügten Figuren gelesen wird, in denen gleiche Zeichen gleiche Teile in den Figuren darstellen, wobei:
    • 1 ein Blockdiagramm eines intelligenten städtischen Umweltmanagementsystems, das auf dem Internet der Dinge basiert, gemäß einer Ausführungsform der vorliegenden Offenbarung zeigt;
    • 2 eine Architektur des Smart-City-Umweltmanagementsystems gemäß einer Ausführungsform der vorliegenden Offenbarung zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Um das Verständnis der Erfindung zu fördern, wird nun auf die in den Figuren dargestellte Ausführungsform Bezug genommen und diese mit bestimmten Worten beschrieben. Es versteht sich jedoch von selbst, dass damit keine Einschränkung des Umfangs der Erfindung beabsichtigt ist, wobei solche Änderungen und weitere Modifikationen des dargestellten Systems und solche weiteren Anwendungen der darin dargestellten Grundsätze der Erfindung in Betracht gezogen werden, wie sie einem Fachmann auf dem Gebiet der Erfindung normalerweise einfallen würden.
  • Es versteht sich für den Fachmann von selbst, dass die vorstehende allgemeine Beschreibung und die folgende detaillierte Beschreibung beispielhaft und erläuternd für die Erfindung sind und diese nicht einschränken sollen.
  • In 1 ist ein Blockdiagramm eines auf dem Internet der Dinge basierenden Smart-City-Umweltmanagementsystems gemäß einer Ausführungsform der vorliegenden Offenbarung dargestellt. Das System 100 umfasst eine Eingabeeinheit 102, bestehend aus einer Audio-Sammeleinheit 124a und einer Video-Sammeleinheit 124b zum Sammeln von Audio-, Bild- und Videodaten eines Echtzeit-Überwachungspunkts.
  • In einer Ausführungsform ist eine Sprachübertragungseinheit 104 zum Empfang einer von einer Befehls- und Steuerverarbeitungseinheit 106 gesendeten Sprachübertragung vorgesehen.
  • In einer Ausführungsform speichert ein Cloud-Server 108 Audio-, Bild- und Videodaten zum Abspielen und Herunterladen durch die Befehls- und Kontrollverarbeitungseinheit 106 und ein registriertes Benutzer-Computergerät 118.
  • In einer Ausführungsform dient eine Gesichtserkennungs-Verarbeitungseinheit 110 zur automatischen Erkennung und Erfassung eines im Echtzeit-Überwachungsbereich erscheinenden Gesichts, wodurch das Bild auf den Cloud-Server 108 oder die Befehls- und Kontrollverarbeitungseinheit 106 hochgeladen wird.
  • In einer Ausführungsform dient eine zentrale Verarbeitungseinheit 112 zur automatischen Erkennung und Erfassung von Nummernschildern, die im Echtzeit-Überwachungsbereich auftauchen, und zum Hochladen auf den Cloud-Server 108 oder die Befehls- und Kontrollverarbeitungseinheit 106.
  • In einer Ausführungsform wird ein Erfassungsknoten 114 zum Sammeln von Umgebungsparametern des Echtzeit-Überwachungspunkts verwendet, wodurch die entsprechende Position des Bildes und des Videos überlagert und auf den Cloud-Server 108 und die Befehls- und Kontrollverarbeitungseinheit 106 hochgeladen wird.
  • In einer Ausführungsform ist eine Datenübertragungseinheit 116 zum Hochladen der gesammelten Daten auf einen Cloud-Plattformserver 126 oder die Befehls- und Kontrollverarbeitungseinheit 106 und zum Empfangen der von der Befehls- und Kontrollverarbeitungseinheit 106 zurückgesendeten Sprachübertragung vorgesehen.
  • In einer Ausführungsform umfasst der Cloud-Plattform-Server 126 eine Datenerfassungseinheit zum Sammeln von Daten, die von einer Front-End-Überwachungsdatenerfassungseinheit empfangen werden. Der Cloud-Server 108 wird für die Speicherung empfangener Daten und Workflow-Daten, die Rechteverwaltung, die Benutzerverwaltung und die Dienstverwaltung verwendet.
  • In einer Ausführungsform wird eine Cloud-Analyseeinheit 120 verwendet, um die Datenanalyse der Gesichtserkennungseinheit 110, der zentralen Verarbeitungseinheit 112 und des Sensorknotens durchzuführen.
  • In einer Ausführungsform ist die Gesichtserkennungseinheit 110 mit der Cloud-Analyseeinheit 120 gekoppelt, um das Gesicht aus den gesammelten Bild- oder Videodaten zu analysieren, um das Alter und das Geschlecht des Gesichts in den Bild- oder Videodaten zu analysieren und dadurch den Personenstrom zu zählen und zu bestimmen, ob die Gesichtsdatenbank-Whitelist, die Alarmschwelle, die Gesichtsdatenbank-Blacklist, die Push-, Backup- und Alarm-zugehörigen Parameter geöffnet und eingestellt sind.
  • In einer Ausführungsform wird ein Satz von Merkmalen des gesammelten Gesichts mit der Gesichtsdatenbank verglichen, wodurch ein Push an den entsprechenden Client in Übereinstimmung mit der Alarmbedingung erfolgt, wenn die Gesichtsdatenbank-Whitelist, die Alarmschwelle, die Gesichtsdatenbank-Blacklist, der Push, das Backup und die mit dem Alarm verbundenen Parameter geöffnet und eingestellt sind.
  • In einer Ausführungsform wird der Personenstrom anhand der Anzahl der Gesichter gezählt, die innerhalb des festgelegten Zeitraums zurückgegeben werden, und der Personenstrom wird anhand der Anzahl der Gesichter in jedem Einzelbild gezählt.
  • In einer Ausführungsform umfasst das System eine grafische Benutzeroberfläche 122, die mit dem Cloud-Plattformserver 126 gekoppelt ist, um eine Vielzahl von Diensten bereitzustellen, darunter eine Betreiberdienstplattform, eine öffentliche Behördendienstplattform und eine öffentliche Sozialnetzwerkdienstplattform, wobei die Dienstelemente der Dienstplattform öffentliche Dienste und Betreiberdienste umfassen.
  • In einer Ausführungsform zeigt die grafische Benutzeroberfläche 122 das erkannte Gesicht und die Nummernschilder an, die im Echtzeit-Überwachungsbereich erscheinen, der optional aus der Ferne zugänglich ist.
  • In einer Ausführungsform wird ein maschinelles Lernverfahren verwendet, um ein Gesicht zu erkennen, das im Echtzeit-Überwachungsbereich auftaucht, und um Nummernschilder zu erkennen, die im Echtzeit-Überwachungsbereich auftauchen, indem vorab gespeicherte Daten verglichen werden.
  • 2 zeigt eine Architektur des Smart-City-Umgebungsmanagementsystems gemäß einer Ausführungsform der vorliegenden Offenbarung. Die Audiosammeleinheit 124a wird zum Sammeln von Sprachsignalen und die Videosammeleinheit 124b zum Sammeln von Bild- und Videodaten eines Echtzeitüberwachungspunkts und zum Speichern von Audio-, Bild- und Videodaten auf dem Cloud-Server 108 zum Abspielen und Herunterladen durch die Befehls- und Steuerverarbeitungseinheit 106 und ein registriertes Benutzer-Computergerät 118 verwendet.
  • In einer anderen Ausführungsform dient die Sprachübertragungseinheit 104 zum Empfang einer von der Befehls- und Steuerungsverarbeitungseinheit 106 gesendeten Sprachübertragung.
  • In einer anderen Ausführungsform erkennt und erfasst die Gesichtserkennungs-Verarbeitungseinheit 110 automatisch ein Gesicht, das im Echtzeit-Überwachungsbereich erscheint.
  • In einer anderen Ausführungsform erkennt und sammelt die zentrale Verarbeitungseinheit 112 automatisch die im Echtzeit-Überwachungsbereich auftauchenden Nummernschilder.
  • In einer anderen Ausführungsform umfasst der Erfassungsknoten 114 eine Vielzahl von Erfassungsknoten 114 zur Erfassung von Umgebungsparametern des Echtzeit-Überwachungspunktes, die der entsprechenden Position des Bildes und des Videos überlagert werden.
  • In einer Ausführungsform umfasst der Messknoten 114 eine Vielzahl von Sensoren, einschließlich Temperatursensor, Drucksensor, Lichtsensor, Luftreinigungsindexsensor und dergleichen.
  • In einer anderen Ausführungsform lädt die Datenübertragungseinheit 116 die gesammelten zugehörigen Daten auf einen Cloud-Plattformserver 126 oder die Befehls- und Kontrollverarbeitungseinheit hoch und empfängt die von der Befehls- und Kontrollverarbeitungseinheit zurückgesendete Sprachübertragung.
  • In einer Ausführungsform umfasst der Cloud-Plattform-Server 126 eine Datenerfassungseinheit zum Sammeln von Daten, die von einer Front-End-Überwachungsdatenerfassungseinheit empfangen werden. Der Cloud-Server 108 wird für die Speicherung empfangener Daten und Workflow-Daten, die Rechteverwaltung, die Benutzerverwaltung und die Dienstverwaltung verwendet.
  • In einer Ausführungsform wird eine Cloud-Analyseeinheit 120 verwendet, um die Datenanalyse der Gesichtserkennungseinheit 110, der zentralen Verarbeitungseinheit 112 und des Sensorknotens durchzuführen.
  • Die in dieser Spezifikation beschriebenen Funktionseinheiten sind als Geräte bezeichnet worden. Zu den Funktionseinheiten gehören die Eingabeeinheit 102, die Sprachübertragungseinheit 104, die Befehls- und Steuerungsverarbeitungseinheit 106, der Cloud-Server 108, die Gesichtserkennungsverarbeitungseinheit 110, die zentrale Verarbeitungseinheit 112, der Erfassungsknoten 114, die Datenübertragungseinheit 116, die Recheneinheit 118, die Cloud-Analyseeinheit 120, die grafische Benutzeroberfläche 122, die Audiosammeleinheit 124a, die Videosammeleinheit 124b und der Cloud-Plattformserver 126. Eine Vorrichtung kann in programmierbaren Hardwarevorrichtungen wie Prozessoren, digitalen Signalprozessoren, zentralen Verarbeitungseinheiten, feldprogrammierbaren Gate-Arrays, programmierbaren Array-Logikvorrichtungen, programmierbaren Logikvorrichtungen, Cloud-Verarbeitungssystemen oder Ähnlichem implementiert sein. Die Geräte können auch in Software für die Ausführung durch verschiedene Arten von Prozessoren implementiert werden. Ein identifiziertes Gerät kann einen ausführbaren Code enthalten und kann beispielsweise einen oder mehrere physische oder logische Blöcke von Computeranweisungen umfassen, die beispielsweise als Objekt, Prozedur, Funktion oder anderes Konstrukt organisiert sein können. Die ausführbaren Daten eines identifizierten Geräts müssen jedoch nicht physisch an einem Ort liegen, sondern können aus verschiedenen, an unterschiedlichen Orten gespeicherten Anweisungen bestehen, die, wenn sie logisch miteinander verbunden werden, das Gerät bilden und den erklärten Zweck des Geräts erfüllen.
  • Der ausführbare Code eines Geräts oder Moduls kann ein einzelner Befehl oder viele Befehle sein und kann sogar über mehrere verschiedene Codesegmente, verschiedene Anwendungen und mehrere Speichergeräte verteilt sein. In ähnlicher Weise können Betriebsdaten innerhalb des Geräts identifiziert und dargestellt werden, und sie können in jeder geeigneten Form vorliegen und in jeder geeigneten Art von Datenstruktur organisiert sein. Die Betriebsdaten können als ein einziger Datensatz gesammelt werden oder über verschiedene Orte, einschließlich verschiedener Speichergeräte, verteilt sein und können zumindest teilweise als elektronische Signale in einem System oder Netzwerk vorliegen.
  • In Übereinstimmung mit den beispielhaften Ausführungsformen können die offengelegten Computerprogramme oder -module auf viele beispielhafte Arten ausgeführt werden, beispielsweise als Anwendung, die im Speicher eines Geräts resident ist, oder als gehostete Anwendung, die auf einem Server ausgeführt wird und mit der Geräteanwendung oder dem Browser über eine Reihe von Standardprotokollen wie TCP/IP, HTTP, XML, SOAP, REST, JSON und andere ausreichende Protokolle kommuniziert. Die offengelegten Computerprogramme können in beispielhaften Programmiersprachen geschrieben werden, die vom Speicher auf dem Gerät oder von einem gehosteten Server ausgeführt werden, wie BASIC, COBOL, C, C++, Java, Pascal oder Skriptsprachen wie JavaScript, Python, Ruby, PHP, Perl oder andere ausreichende Programmiersprachen.
  • Einige der offengelegten Ausführungsformen umfassen oder beinhalten die Datenübertragung über ein Netzwerk, z. B. die Übermittlung verschiedener Eingaben oder Dateien über das Netzwerk. Das Netzwerk kann beispielsweise das Internet, Wide Area Networks (WANs), Local Area Networks (LANs), analoge oder digitale drahtgebundene und drahtlose Telefonnetzwerke (z. B. PSTN, Integrated Services Digital Network (ISDN), ein zellulares Netzwerk und Digital Subscriber Line (xDSL)), Radio, Fernsehen, Kabel, Satellit und/oder andere Übertragungs- oder Tunnelmechanismen zur Übertragung von Daten umfassen. Das Netz kann mehrere Netze oder Teilnetze umfassen, von denen jedes z. B. einen drahtgebundenen oder drahtlosen Datenpfad enthalten kann. Das Netz kann ein leitungsvermitteltes Sprachnetz, ein paketvermitteltes Datennetz oder ein beliebiges anderes Netz für die Übertragung elektronischer Kommunikation umfassen. Das Netzwerk kann beispielsweise Netzwerke umfassen, die auf dem Internet-Protokoll (IP) oder dem asynchronen Übertragungsmodus (ATM) basieren, und es kann Sprache unterstützen, indem es z. B. VoIP, Voice-over-ATM oder andere vergleichbare Protokolle für die Sprachdatenkommunikation verwendet. In einer Implementierung umfasst das Netzwerk ein zellulares Telefonnetz, das so konfiguriert ist, dass es den Austausch von Text- oder SMS-Nachrichten ermöglicht.
  • Beispiele für ein Netzwerk sind unter anderem ein Personal Area Network (PAN), ein Storage Area Network (SAN), ein Home Area Network (HAN), ein Campus Area Network (CAN), ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Metropolitan Area Network (MAN), ein Virtual Private Network (VPN), ein Enterprise Private Network (EPN), das Internet, ein Global Area Network (GAN) und so weiter.
  • Die Figuren und die vorangehende Beschreibung geben Beispiele für Ausführungsformen. Der Fachmann wird verstehen, dass eines oder mehrere der beschriebenen Elemente durchaus zu einem einzigen Funktionselement kombiniert werden können. Alternativ dazu können bestimmte Elemente in mehrere Funktionselemente aufgeteilt werden. Elemente aus einer Ausführungsform können einer anderen Ausführungsform hinzugefügt werden. So kann beispielsweise die Reihenfolge der hier beschriebenen Prozesse geändert werden und ist nicht auf die hier beschriebene Weise beschränkt. Darüber hinaus müssen die Aktionen eines Flussdiagramms nicht in der gezeigten Reihenfolge ausgeführt werden; auch müssen nicht unbedingt alle Aktionen durchgeführt werden. Auch können die Handlungen, die nicht von anderen Handlungen abhängig sind, parallel zu den anderen Handlungen ausgeführt werden. Der Umfang der Ausführungsformen ist durch diese spezifischen Beispiele keineswegs begrenzt. Zahlreiche Variationen sind möglich, unabhängig davon, ob sie in der Beschreibung explizit aufgeführt sind oder nicht, wie z. B. Unterschiede in der Struktur, den Abmessungen und der Verwendung von Materialien. Der Umfang der Ausführungsformen ist mindestens so groß wie in den folgenden Ansprüchen angegeben.
  • Vorteile, andere Vorzüge und Problemlösungen wurden oben im Hinblick auf bestimmte Ausführungsformen beschrieben. Die Vorteile, Vorzüge, Problemlösungen und Komponenten, die dazu führen können, dass ein Vorteil, ein Nutzen oder eine Lösung auftritt oder ausgeprägter wird, sind jedoch nicht als kritisches, erforderliches oder wesentliches Merkmal oder Komponente eines oder aller Ansprüche zu verstehen.
  • Bezugszeichenliste
  • 100
    Ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets.
    102
    Eingabeeinheit
    104
    Sprachübertragungseinheit
    106
    Befehls- und Kontrollverarbeitungseinheit
    108
    Cloud-Server
    110
    Gesichtserkennung
    112
    Zentrale Verarbeitungseinheit
    114
    Erfassungsknoten
    116
    Datenübertragungseinheit
    118
    Computergerät für registrierte Benutzer
    120
    Cloud-Analyseeinheit
    122
    Grafische Benutzeroberfläche
    124a
    Audio-Erfassungseinheit
    124b
    Videoerfassungseinheit
    126
    Cloud-Plattform-Server

Claims (7)

  1. Ein intelligentes städtisches Umweltmanagementsystem, das auf dem Internet der Dinge basiert, das System umfasst: eine Eingabeeinheit, bestehend aus einer Audio-Sammeleinheit und einer Video-Sammeleinheit zum Sammeln von Audio-, Bild- und Videodaten eines Echtzeit-Überwachungspunktes; eine Sprachübermittlungseinheit zum Empfang einer von einer Befehls- und Steuerverarbeitungseinheit gesendeten Sprachübermittlung; einen Cloud-Server zum Speichern von Audio-, Bild- und Videodaten zum Abspielen und Herunterladen durch die Befehls- und Steuerungsverarbeitungseinheit und ein registriertes Benutzer-Rechengerät; eine Gesichtserkennungs-Verarbeitungseinheit zum automatischen Erkennen und Sammeln eines Gesichts, das im Echtzeit-Überwachungsbereich erscheint, wodurch das Bild auf den Cloud-Server oder die Befehls- und Steuerungsverarbeitungseinheit hochgeladen wird; eine zentrale Verarbeitungseinheit zum automatischen Erkennen und Sammeln von Nummernschildern, die im Echtzeit-Überwachungsbereich erscheinen, und zum Hochladen auf den Cloud-Server oder die Befehls- und Kontrollverarbeitungseinheit; einen Erfassungsknoten zum Sammeln von Umgebungsparametern des Echtzeit-Überwachungspunktes, wodurch die entsprechende Position des Bildes und des Videos überlagert wird, und zum Hochladen auf den Cloud-Server und die Befehls- und Kontrollverarbeitungseinheit; und eine Datenübertragungseinheit zum Hochladen der gesammelten Bezugsdaten auf einen Cloud-Plattformserver oder die Befehls- und Steuerungsverarbeitungseinheit und zum Empfangen der von der Befehls- und Steuerungsverarbeitungseinheit zurückgesendeten Sprachübertragung.
  2. System nach Anspruch 1, wobei der Cloud-Plattform-Server umfasst: eine Datenerfassungseinheit zum Sammeln von Daten, die von einer Front-End-Überwachungsdatenerfassungseinheit empfangen werden; den Cloud-Server zum Speichern empfangener Daten und Workflow-Daten; Rechteverwaltung, Benutzerverwaltung und Dienstverwaltung; und eine Cloud-Analyseeinheit zum Durchführen einer Datenanalyse an der Gesichtserkennungseinheit, der zentralen Verarbeitungseinheit und dem Sensorknoten.
  3. System nach Anspruch 1, wobei die Gesichtserkennungseinheit mit der Cloud-Analyseeinheit gekoppelt ist, um das Gesicht aus den gesammelten Bild- oder Videodaten zu analysieren, um das Alter und das Geschlecht des Gesichts in den Bild- oder Videodaten zu analysieren und dadurch den Personenstrom zu zählen und zu bestimmen, ob die Gesichtsdatenbank-Whitelist, die Alarmschwelle, die Gesichtsdatenbank-Blacklist, die Push-, Backup- und Alarm-assoziierten Parameter geöffnet und eingestellt sind.
  4. System nach Anspruch 1, wobei ein Satz von Merkmalen des gesammelten Gesichts mit der Gesichtsdatenbank verglichen wird, wodurch ein Push an den relevanten Client in Übereinstimmung mit der Alarmbedingung erfolgt, wenn die Gesichtsdatenbank-Whitelist, die Alarmschwelle, die Gesichtsdatenbank-Blacklist, der Push, das Backup und die mit dem Alarm verbundenen Parameter geöffnet und eingestellt sind.
  5. System nach Anspruch 4, wobei der Personenstrom entsprechend der Anzahl der Gesichter gezählt wird, die innerhalb des festgelegten Zeitraums zurückgegeben werden, und der Personenstrom entsprechend der Anzahl der Gesichter in jedem Bild gezählt wird.
  6. System nach Anspruch 1, wobei das System eine grafische Benutzerschnittstelle umfasst, die mit dem Cloud-Plattformserver gekoppelt ist, um eine Vielzahl von Diensten bereitzustellen, einschließlich einer Betreiberdienstplattform, einer öffentlichen Regierungsdienstplattform und einer öffentlichen Sozialnetzwerkdienstplattform, wobei die Dienstelemente der Dienstplattform öffentliche Dienste und Betreiberdienste umfassen, wobei die grafische Benutzerschnittstelle das erkannte Gesicht und die Nummernschilder anzeigt, die in dem Echtzeitüberwachungsbereich erscheinen, der optional aus der Ferne zugänglich ist.
  7. System nach Anspruch 1, wobei der Messknoten eine Vielzahl von Sensoren umfasst, einschließlich Temperatursensor, Drucksensor, Lichtsensor, Luftreinigungsindexsensor und dergleichen.
DE202022106633.7U 2022-11-27 2022-11-27 Ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets der Dinge Active DE202022106633U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202022106633.7U DE202022106633U1 (de) 2022-11-27 2022-11-27 Ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets der Dinge

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202022106633.7U DE202022106633U1 (de) 2022-11-27 2022-11-27 Ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets der Dinge

Publications (1)

Publication Number Publication Date
DE202022106633U1 true DE202022106633U1 (de) 2023-01-10

Family

ID=85039722

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202022106633.7U Active DE202022106633U1 (de) 2022-11-27 2022-11-27 Ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets der Dinge

Country Status (1)

Country Link
DE (1) DE202022106633U1 (de)

Similar Documents

Publication Publication Date Title
CN111928888B (zh) 一种水域污染智能监控分析方法及系统
CN110399550B (zh) 一种信息推荐方法及装置
CN110808945B (zh) 一种基于元学习的小样本场景下网络入侵检测方法
DE112013005981T5 (de) Systeme und Verfahren zur rechnergestützten Einsatzleitung, zur Videosuche und zum Tagging auf der Grundlage von Ereignisberichten
DE102021109767A1 (de) Systeme und methoden zur vorausschauenden sicherheit
DE112020005071B4 (de) Verfahren für eine datenschutzgerechte anomalie-erkennung im iot
DE112006001378T5 (de) Automatische Verwaltung einer Speicherzugriffssteuerung
DE112021006232T5 (de) Proaktive anomalieerkennung
DE102019109288A1 (de) Anlage und Verfahren für Analyse des importierten Videos
CN106779485B (zh) 基于soa架构的综合管理系统及数据处理方法
KR102296274B1 (ko) 사용자 학습 기반 딥러닝 객체 인식 서비스 제공 방법
DE112014001344T5 (de) Verfahren und Vorrichtung zur Filterung von Vorrichtungen innerhalb einessozialen Sicherheitsnetzwerkes
CN111918039A (zh) 基于5g网络的人工智能高风险作业管控系统
CN113992893A (zh) 园区巡检方法、装置、存储介质及电子装置
CN113572757B (zh) 服务器访问风险监测方法及装置
CN115935003B (zh) 一种基于大数据的信息收集方法与系统
CN114970899A (zh) 一种智慧园区运维系统、方法、介质和电子设备
DE102013201664B4 (de) Vorausschauendes Zwischenspeichern bei Telekommunikationstürmen unter Verwendung der Weitergabe der Kennung von Elementen von Daten mit hohem Bedarf auf einer geographischen Ebene
Usmanova et al. Field monitoring application based on video surveillance: Evaluation of system performance
CN114694015A (zh) 基于通用框架的多任务联邦学习场景识别方法及相关组件
DE202022106633U1 (de) Ein intelligentes städtisches Umweltmanagementsystem auf der Grundlage des Internets der Dinge
DE112020002798T5 (de) Kognitives kontrollieren von datenübermittlung
CN115567563B (zh) 基于端边云的综合交通枢纽监测预警系统及其控制方法
WO2020126168A1 (de) Verfahren zur zusammenarbeit von mehreren geräten eines lokalen netzwerks
DE112022002157T5 (de) Dynamische microservice-interkommunikations-konfiguration

Legal Events

Date Code Title Description
R207 Utility model specification
R082 Change of representative

Representative=s name: LIPPERT STACHOW PATENTANWAELTE RECHTSANWAELTE , DE