AT502551A1 - Verfahren und bildauswertungseinheit zur szenenanalyse - Google Patents
Verfahren und bildauswertungseinheit zur szenenanalyse Download PDFInfo
- Publication number
- AT502551A1 AT502551A1 AT0101105A AT10112005A AT502551A1 AT 502551 A1 AT502551 A1 AT 502551A1 AT 0101105 A AT0101105 A AT 0101105A AT 10112005 A AT10112005 A AT 10112005A AT 502551 A1 AT502551 A1 AT 502551A1
- Authority
- AT
- Austria
- Prior art keywords
- scene
- change
- local
- optical sensor
- detected
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
- Die Erfindung betrifft ein Verfahren gemäss dem Kennzeichen des Anspruches 1 sowie eine Bildauswertungseinheit gemäss dem Oberbegriff des Patentanspruches 7. Die Erfindung beschäftigt sich mit der Verarbeitung von Informationen, welche mittels optischer Sensoren aufgenommen werden. Der Gegenstand der Erfindung ist ein Verfahren basierend auf einem speziellen optischen Halbleiter-Sensor mit asynchroner, digitaler Datenübertragung zu einer Verarbeitungseinheit, in welcher besondere Algorithmen zur Szenenanalyse implementiert sind. Das Verfahren liefert ausgewählte Informationen zum Szeneninhalt, welche ausgewertet und z.B. zur Steuerung von Maschinen oder Installationen o.a., benutzt werden können. Die eingesetzten Sensoren geben die vorverarbeitete Szeneninformation in Form von Signalen asynchron weiter bzw. ab, und zwar nur dann, wenn die Szene Veränderungen erfährt bzw. einzelne Bildelemente der Sensoren bestimmte Merkmaie in der Szene detektieren. Dieses Prinzip reduziert die anfallenden Datenmengen im Vergleich zu einer Bilddarstellung erheblich und erhöht gleichzeitig den Informationsgehalt der Daten indem es bereits Eigenschaften der Szene extrahiert. Die Szenenerfassung mit herkömmlicher, digitaler Bildverarbeitung beruht auf der Auswertung von Bildinformationen, die von einem Bildsensor geliefert werden. Dabei wird üblicherweise das Bild, Bildpunkt für Bildp[upsilon]nkt sequentiell, in einem vorgegebenen Takt (synchron), viele Male pro Sekunde aus dem Bildsensor ausgelesen und die in den Daten enthaltene Information über die Szene ausgewertet. Dieses Prinzip stösst aufgrund der grossen Datenmengen und aufwändigen Auswertungsverfahren auch bei Verwendung von entsprechend leistungsfähigen Prozessorsystemen an Grenzen mit folgenden Schwierigkeiten: 1.) Die Datenrate digitaler Übertragungskanäle ist begrenzt und für manche Aufgaben der Hochleistungs-Bildverarbeitung nicht ausreichend gross. 2.) Leistungsfähige Prozessoren haben für viele, insbesondere mobile, Anwendungen einen zu hohen Energieverbrauch. 3.) Leistungsfähige Prozessoren benötigen aktive Kühlung. Systeme, die mit solchen Prozessoren arbeiten, können daher für viele Anwendungen nicht kompakt genug gebaut werden. 4.) Leistungsfähige Prozessoren sind für viele Anwendungsgebiete zu teuer. Erfindungsgemäss werden diese Nachteile durch die im Kennzeichen des Anspruches 1 angeführten Merkmale behoben. Eine erfindungsgemässe Bildauswertungseinheit ist durch die Merkmale des Kennzeichens des Anspruches 7 charakterisiert. Mit der erfindungsgemässen Vorgangsweise erfolgt eine rasche Verarbeitung der Signale und ein entsprechend rasches Erkennen signifikanter Informationen in der betrachteten Szene. Die eingesetzten statistischen Verfahren leisten eine exakte Auswertung in Hinblick auf interessierende Szenenparameter bzw. Erkennung von Objekten. Im Folgenden wird die Erfindung anhand der Zeichnungen beispielsweise näher erläutert. Fig. 1 zeigt schematisch Unterschiede zwischen der bisher üblichen Vorgangsweise und der erfindungsgemässen Vorgangsweise. Fig. 2 zeigt ein Schema einer erfindungsgemässen Bildauswertungseinheit. Fig. 3a und 3b wie Fig. 4 und 5 zeigen schematisch anhand von aufgenommenen Bildern die erfindungsgemässe Vorgangsweise. In Fig. 1 wird der Unterschied zwischen dem Stand der Technik und der erfindungsgemässen Vorgangsweise näher eriäutert. Bislang wurden die von einem Bildsensor gelieferten Informationen bzw. Daten synchron weitergeleitet und nach einer digitalen Bildvorverarbeitung und Szenenanalyse das Ergebnis über die Schnittstelle des Gerätes weitergegeben (Fig. 1 a). Erfindungsgemäss erfolgt die Verarbeitung der Bildsignale des optischen Sensors in einer bestimmten Weise, nämlich derart, dass in den Bildelementen des optischen Sensors die von einem Photosensor aufgenommene Helligkeitsinformation mittels einer analogen, elektronischen Schaltung vorverarbeitet wird. Ganz allgemein wird bemerkt, dass in einem Bildelement die Verarbeitung der Signale mehrerer, benachbarter Photosensoren zusammengefasst werden kann. Die Ausgangssignale der Bildelemente werden über eine Schnittstelle des Sensors asynchron zu einer digitalen Datenauswerteeinheit übertragen, in der eine Szenenanalyse durchgeführt wird und das Ergebnis der Auswertung an einer Schnittstelle des Geräts zur Verfügung gestellt wird (Fig. 1 b). Anhand von Fig. 2 wird die erfindungsgemässe Vorgangsweise schematisch erläutert. Dabei wird eine Szene über eine nicht dargestellte optische Aufnahmeanordnung auf die Bildebene des optischen Sensors 1 abgebildet. Die visuelle Information wird von den Bildelementen des Sensors erfasst und in elektronischen Schaltungen in den Bildelementen kontinuierlich verarbeitet. Durch diese Verarbeitung werden in Echtzeit bestimmte Merkmale im Szeneninhalt erkannt. Zu detektierende Merkmale im Bildinhalt können unter anderem statische Kanten, lokale Intensitätsänderungen, optischer Fluss, etc. sein. Das Detektieren eines Merkmals wird im Folgenden als ein "Event" bezeichnet. Beim jedem Auftreten eines Events wird vom Bildelement in Echtzeit ein digitales Ausgangssignal am asynchronen Datenbus erzeugt. Dieses Signal enthält die Adresse des Bildelements und somit die Koordinaten im Bildfeld an welchen das Merkmal erkannt wurde. Dieses Datum wird im Folgenden als "Address-Event" (AE) bezeichnet. Es können zusätzlich weitere Eigenschaften des Merkmals, insbesondere der Zeitpunkt des Auftretens, in den Daten kodiert werden. Diese Informationen sendet der Sensor 1 als >relevante Daten über den asynchronen Datenkanal an die Verarbeitungseinheit CPU. Ein Buskontroller 2 verhindert Datenkollisionen am Übertragungskanal. In manchen Fällen kann es vorteilhaft sein, zwischen Sensor und Verarbeitungseinheit einen Pufferspeicher 3, z.B. ein FIFO, zu verwenden um unregelmässige Datenraten zufolge des asynchronen Übertragungsprotokolls auszugleichen (Fig. 2). Die erfindungsgemässe Vorgangsweise besteht auf der Kombination des speziell ausgebildeten Sensors, der Datenübertragung und der vorgesehenen statistischmathematischen Verfahren zur Datenverarbeitung. Der vorgesehene Sensor detektiert Änderungen der Lichtintensität und reagiert daher z.B. auf bewegte Kanten bzw. helldunkel Begrenzungslinien in einer Szene. Der Sensor verfolgt in jedem Bildelement die Änderungen des Fotostroms eines Photosensors. Diese Änderungen werden für jedes Bildelement in einem Integrator summiert. Wenn die Summe der Änderungen einen Schwellwert überschreitet, sendet das Bildelement diesen Event sofort, asynchron über den Datenbus an die Verarbeitungseinheit. Nach jedem Event wird der Wert des Integrators gelöscht. Positive und negative Änderungen des Fotostroms werden getrennt verarbeitet und erzeugen Events unterschiedlicher Polarität (so genannte "on" und "off"Events). Der eingesetzte Sensor erzeugt keine Bilder im herkömmlichen Sinn. Im Folgenden werden jedoch, zum besseren Verständnis, zweidimensionale Darstellungen von Events verwendet. Dafür werden die Events für jedes Bildelement innerhalb eines Zeitintervalls gezählt. Bildelementen ohne Events wird ein weisser Bildpunkt zugeordnet. Bildelemente mit "on" bzw. ."off Events werden mit grauen bzw. schwarzen Bildpunkten dargestellt. Für die folgenden Ausführungen werden Begriffe eingeführt, um eine Verwechselung mit Begriffen aus der digitalen Bildverarbeitung zu vermeiden: AE-Frame wird definiert als die in einem Pufferspeicher gespeicherten AE's welche innerhalb einer definierten Zeitspanne generiert wurden. AE-Bild ist die Darstellung eines AE-Frames in einem Bild, in dem Polarität und Häufigkeit der Events Farben oder Grauwerten zugeordnet werden. Fig. 3 zeigt (a) ein Videobild einer Szene und (b) ein AE-Bild derselben Szene, produziert von einem Sensor der auf Änderungen der Lichtintensität reagiert. In der Datenverarbeitungseinheit CPU werden die Merkmale aus der Szene mittels statischmathematischer Methoden untersucht und höherwertige, abstrakte Informationen zum Szeneninhalt gewonnen. Solche Informationen können z.B. die Anzahl der Personen in einer Szene oder die Geschwindigkeit und der Abstand von Fahrzeugen auf einer Strasse sein. Es ist leicht zu erkennen, dass die Datenmenge erheblich geringer ist als im ursprünglichen Bild. Die Bearbeitung von Events benötigt weniger Rechenleistung und Speicher als bei digitaler Bildverarbeitung und kann daher sehr viel effizienter erfolgen. Ein Raum-Personenzähler kann verwirklicht werden, indem der Bildsensor z.B. an der Decke in der Mitte eines Raumes montiert wird. Die einzelnen Events werden von der Verarbeitungseinheit entsprechenden quadratischen Bereichen im Bildfeld, welche ungefähr die Grösse einer Person haben, zugeordnet. Über einfache statistische Methoden und einen Korrekturmechanismus ist eine leichte Abschätzung der mit bewegten Objekten bedeckten Fläche möglich. Diese ist proportional der Anzahl der Personen im Blickfeld des Sensors. Der Berechnungsaufwand für die Personenanzahl ist dabei gering, sodass sich dieses System mit einfachen und kostengünstigen Mikroprozessoren realisieren lässt. Bewegen sich keine Personen oder Objekte im Bildfeld des Sensors werden keine Events generiert und der Mikroprozessor kann in einen Stromsparmodus schalten, was den Energieverbrauch des Systems bedeutend minimiert. Dies ist in Bildverarbeitungssystemen nach Stand der Technik nicht möglich, weil zu jeder Zeit das Sensorbild verarbeitet und nach Personen durchsucht werden muss. Für einen Tür-Personenzähler wird der Bildsensor über der Tür oder einem anderen Ein- oder Ausgang eines Raumes montiert. Die Personen werden perspektivisch nicht verzerrt und die AE's werden, wenn die Personen den Beobachtungsbereich durchqueren, auf Achsen (z.B.: vertikale Achsen) projiziert und so in einem Histogramm (Fig. 4) aufsummiert. Bewegt sich eine Person unter dem Sensor durch die Türe, können ein oder mehrere in Bewegungsrichtung laufende Maxima 1 im Histogramm detektiert werden. Mittels statistischer Gewichtung kann die Berechnung des Maximums und der Bewegungsrichtung robust gegen Störungen gemacht werden. Für jeden AE-Frame wird der Index des Histogramms ermittelt der die grösste Anzahl von Events beinhaltet und dieser wird mit dem Index des letzten AE-Frame verglichen. Wenn sich der Index verschiebt ist das ein Indikator dafür, dass die Person sich bewegt, und die Wahrscheinlichkeit für die entsprechende Bewegungsrichtung wird erhöht. Die Wahrscheinlichkeit steigt bis ein Schwellwert erreicht wird. In diesem Fall wird die Person gezählt und beide Wahrscheinlichkeiten werden auf definierte Werte zurückgesetzt. Auf diese Weise ist es dem System möglich, ein- und ausgehende Personen zu unterscheiden und einen Zähler zu inkrementieren, bzw. zu dekrementieren wenn Personen den Raum betreten bzw. verlassen. Das Zurücksetzen beider Wahrscheinlichkeiten hat sich als vorteilhaft erwiesen, um den Algorithmus robuster zu machen, wenn eine hohe Aktivität im Blickfeld herrscht. Mit der Wahl von negativen Werten wird eine künstliche Zeitkonstante eingeführt um das doppelte Zählen von Personen zu verhindern. Mehrere parallel gehende Personen können durch eine a Aufteilung der Projektionsbereiche in verschiedene "Spuren" längs der Bewegungsrichtung erkannt werden. Viele Schutzwege sind durch Blinklichter gekennzeichnet, die Autofahrer vor Fussgängern warnen. Diese Warnlichter blinken rund um die Uhr und werden oftmals von Autofahrern ignoriert, da sie meist keine tatsächliche Gefahr anzeigen. Intelligente Sensoren die nur dann ein Warnsignal auslösen wenn ein Fussgänger die Strasse überquert oder sich dem Schutzweg nähert, können dazu beitragen, dass die Verkehrsicherheit verbessert wird, indem Warnlichtern mehr Beachtung geschenkt wird. Für eine automatische Aktivierung von Warnlampen an Schutzwegen werden ein Bildsensor und ein digitaler Prozessor eingesetzt, die in der Lage sind, Schutzwege und deren unmittelbare Umgebung zu überwachen und Objekte (Personen, Radfahrer,...), die die Strasse queren, zu erkennen. Das vorgeschlagene System aus Bild-Sensor und einfacher digitaler Verarbeitungseinheit ist fähig, die AE's von Personen und Fahrzeuge in der Nähe des und auf dem Schutzweg im Datenstrom zu segmentieren und zu verfolgen (Fig. 5). Die vom System erkannte Grösse und Geschwindigkeit der Objekte erlaubt eine Einteilung in die Kategorien Fussgänger und Fahrzeuge. Fig. 5 zeigt eine vom Sensor aufgenommene Szene zu zwei Zeitpunkten, die korrespondierenden AE-Bilder und das Resultat der mathematisch-statistischen Auswertung welche die einzelnen Objekte erkennt und deren Bewegungsrichtung ermittelt. Nach einem gewissen Beobachtungszeitraum ist es dem System möglich, durch den Einsatz von Lernmethoden die auf statischen Konzepten beruhen, die Lage und Orientierung von Strasse, Fusswegen und Schutzwegen zu erkennen. In der Folge kann dann vor jedem Fussgänger der sich auf den Schutzweg zubewegt bzw. auf dem Schutzweg bewegt, gewarnt werden. Fussgänger die sich z.B. auf Fusswegen parallel zur Fahrbahn bewegen lösen auf Grund ihrer erkannten Bewegungsrichtung keine Warnung aus. Systeme mit einfachen Sensoren (z.B. Infrarot-Bewegungssensoren) sind nur in der Lage, die Anwesenheit von Personen in der Nähe des Schutzwegs zu erkennen, nicht jedoch deren Bewegungsrichtung zu erfassen und damit spezifisch vor Fussgängern zu warnen die sich direkt auf den Schutzweg zu bewegen.
Claims (8)
1. Verfahren zur Szenenanalyse, bei dem Szeneninformationen mit einem optischen Sensor aufgenommen werden, wobei die Szene oder die Objekte in der Szene und der optische Sensor eine Relativbewegung vollführen und die erhaltenen Szeneinformationen ausgewertet werden, dadurch gekennzeichnet,
- dass von den einzelnen Bildelementen des optischen Sensors die visuelle Information der Szene erfasst wird, wobei die einzelnen Bildelemente bei Feststellung einer einen vorgegebenen Schwellwert überschreitenden absoluten Intensitätsänderung oder relativen Intensitätsänderung (Kontrast) des aufgenommenen Lichtes ein Ausgangssignal abgeben, das als relevant für eine erfolgte Relativbewegung zwischen dem aufgenommenen Szenenpunkt und dem optischen Sensor und/oder für eine Szeneninhaltsänderung angesehen wird,
- dass die Orte bzw. Bildelementskoordinaten der festgestellten Intensitätsänderungen ermittelt bzw. festgehalten werden,
- dass die Zeitabhängigkeit der festgestellten Intensitätsänderungen, insbesondere Zeitpunkt und Aufeinanderfolge, ermittelt bzw. festgehalten werden,
- dass mit statistischen Methoden, insbesondere Mittelwertbildung, Histogrammen, Schwerpunktbildung, Dokument- bzw. Ordnungbildungsmethoden, Filterung über Zeit od. dgl., lokale Häufungen der Intensitätsänderungen der Bildelemente ermittelt werden,
- dass die lokalen Häufungen mit statistischen Methoden, z.B. Wichtung, Schwellwertvorgabe bezüglich Anzahl und/oder Lage, Datenbereichsbereinigungmethoden od. dgl., bewertet werden, insbesondere in Hinblick auf die zeitliche Änderung der Häufungsdichte und/oder Änderung der örtlichen Verteilung, dass die ermittelten Werte als Parameter, z.B. Grösse, Geschwindigkeit, Bewegungsrichtung, Form od. dgl., eines erfassten Szenenbereichs angesehen werden,
- dass zumindest einer der, vorzugsweise eine Anzahl von, Parametern) mit zumindest einem, vorzugsweise einer Anzahl von, vorgegebenen Parameter(n) verglichen wird (werden), der (die) als charakteristisch für ein Objekt angesehen wird (werden) und
- dass bei Erfüllung der vorgegebenen Vergleichskriterien die dem jeweiligen Szenenbereich zugeordnete(n) und bewertete(n) lokale(n) Häufung(en) als Abbildung dieses Objektes angesehen wird (werden).
,.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die lokalen Häufungen in Hinblick auf linienförmig zusammenhängende sich über die aufgenommene Szene fortbewegende Intensitätsänderungen untersucht werden und derartige als zusammenhängend bewertete oder eine vorgegebene Menge überschreitende Intensitätsänderungen als Trajektorie eines sich relativ zum optischen Sensor bewegenden Objekts angesehen werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Änderung der Grösse einer lokalen Häufung als Annäherung zum Sensor bzw. Entfernen eines Objekt vom Sensor interpretiert wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass eine zeitliche und/oder räumliche Änderung in der Struktur der Häufungen als charakteristisch für ein bestimmtes Merkmal eines Szenenbereichs angesehen wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass in jedem Bildelement die, insbesondere aufgrund von Heiligkeitsänderungen eintretende Änderung des Fotostromes überwacht und generiert bzw. integriert werden, dass bei Überschreiten eines Schwellwertes das Bildelement sofort ein Signal asynchron an die Verarbeitungseinheit abgibt und dass insbesondere nach jeder Signalgabe ein Neubeginn der Summierung bzw. Integration erfolgt.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass positive und negative Änderungen des Fotostromes getrennt festgestellt bzw. detektiert und verarbeitet bzw. ausgewertet werden.
7. Bildauswertungseinheit zur Aufnahme von Szeneninformationen, wobei die Szene oder die Objekte in der Szene und der optische Sensor eine Relativbewegung zueinander vollführen und mit einer Auswerteeinheit für die erhaltenen Szeneinformationen, wobei der optische Sensor Bildelemente aufweist, die die visuelle Information der Szene erfassen, insbesondere zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die einzelnen Bildelemente bzw. Pixel bei Feststellung einer einen vorgegebenen Schwellwert überschreitenden absoluten Intensitätsänderung oder relativen Intensitätsänderung (Kontrast) des aufgenommenen Lichtes ein Ausgangssignal abgeben, das relevant für eine erfolgte Relativbewegung zwischen dem aufgenommenen Szenenpunkt und dem optischen Sensor und/oder für eine Szeneninhaltsänderung ist,
- dass eine Einheit zur Ermittlung der Orte bzw. Bildelementskoordinaten der festgestellten Intensitätsänderungen sowie zur Ermittlung der Zeitabhängigkeit der festgestellten Intensitätsänderungen, insbesondere Zeitpunkt und Aufeinanderfolge, vorgesehen ist,
- dass eine Recheneinheit vorgesehen bzw. dieser Einheit zugeordnet ist, in der mit statistischen Methoden, insbesondere Mittelwertbildung, Histogrammen, Schwerpunktbildung, Dokument- bzw. Ordnungbildungsmethoden, Filterung über Zeit od. dgl., lokale Häufungen der Intensitätsänderungen der Bildelemente ermittelt werden,
- dass eine Bewertungseinheit vorgesehen ist, mit der die lokalen Häufungen mit statistischen Methoden, z.B. Wichtung, Schwellwertvorgabe bezüglich Anzahl und/oder Lage, Datenbereichsbereinigungmethoden od. dgl., bewertet werden, insbesondere in Hinblick auf die zeitliche Änderung der Häufungsdichte und/oder Änderung der örtlichen Verteilung, wobei die ermittelten Werte die Parameter, z.B. Grösse, Geschwindigkeit, Bewegungsrichtung, Form od. dgl., eines erfassten Szenenbereichs darstellen,
- dass eine Vergleichseinheit vorgesehen bzw. der Bewertungseinheit zugeordnet ist, die zumindest einen der, vorzugsweise eine Anzahl der, Parameter mit zumindest einem, vorzugsweise einer Anzahl von, vorgegebenen Parametern) vergleicht, der (die) als charakteristisch für ein Objekt angesehen wird (werden) und
- dass bei Erfüllung der vorgegebenen Vergleichskriterien die dem jeweiligen Szenenbereich zugeordnete(n) und bewertete(n) lokale(n) Häufung(en) als Abbildung dieses Objektes angesehen wird (werden).
8. Compute[phi]rogrammprodukt mit Programmcode-Mitteln, die auf einem computeriesbaren Datenträger gespeichert sind, um das Verfahren nach jedem beliebigen der Ansprüche 1 bis 6 durchzuführen, wenn das Programmprodukt auf einem Computer ausgeführt wird.
Wien, am 15. Juni 2005
<EMI ID=8.1>
durch:
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AT0101105A AT502551B1 (de) | 2005-06-15 | 2005-06-15 | Verfahren und bildauswertungseinheit zur szenenanalyse |
CA002610965A CA2610965A1 (en) | 2005-06-15 | 2006-06-14 | Method and image evaluation unit for scene analysis |
EP06741041A EP1897032A1 (de) | 2005-06-15 | 2006-06-14 | Verfahren und bildauswertungseinheit zur szenenanalyse |
JP2008516063A JP2008547071A (ja) | 2005-06-15 | 2006-06-14 | シーン解析するための方法および画像評価ユニット |
CNA2006800212545A CN101258512A (zh) | 2005-06-15 | 2006-06-14 | 用于场景分析的方法和图像分析单元 |
PCT/AT2006/000245 WO2006133474A1 (de) | 2005-06-15 | 2006-06-14 | Verfahren und bildauswertungseinheit zur szenenanalyse |
KR1020077030584A KR20080036016A (ko) | 2005-06-15 | 2006-06-14 | 영상 분석을 위한 방법 및 이미지 평가 유닛 |
US11/957,709 US20080144961A1 (en) | 2005-06-15 | 2007-12-17 | Method and Image Evaluation Unit for Scene Analysis |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AT0101105A AT502551B1 (de) | 2005-06-15 | 2005-06-15 | Verfahren und bildauswertungseinheit zur szenenanalyse |
Publications (2)
Publication Number | Publication Date |
---|---|
AT502551A1 true AT502551A1 (de) | 2007-04-15 |
AT502551B1 AT502551B1 (de) | 2010-11-15 |
Family
ID=36933426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
AT0101105A AT502551B1 (de) | 2005-06-15 | 2005-06-15 | Verfahren und bildauswertungseinheit zur szenenanalyse |
Country Status (8)
Country | Link |
---|---|
US (1) | US20080144961A1 (de) |
EP (1) | EP1897032A1 (de) |
JP (1) | JP2008547071A (de) |
KR (1) | KR20080036016A (de) |
CN (1) | CN101258512A (de) |
AT (1) | AT502551B1 (de) |
CA (1) | CA2610965A1 (de) |
WO (1) | WO2006133474A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009005920A1 (de) * | 2009-01-23 | 2010-07-29 | Hella Kgaa Hueck & Co. | Verfahren und Vorrichtung zum Steuern mindestens einer Lichtzeichenanlage eines Fußgängerüberwegs |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8065197B2 (en) * | 2007-03-06 | 2011-11-22 | Portrait Innovations, Inc. | System, method, and computer program product for evaluating photographic performance |
US8103056B2 (en) * | 2008-10-15 | 2012-01-24 | Honeywell International Inc. | Method for target geo-referencing using video analytics |
US8452599B2 (en) * | 2009-06-10 | 2013-05-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for extracting messages |
CN101931789A (zh) * | 2009-06-26 | 2010-12-29 | 上海宝康电子控制工程有限公司 | 关键区域中的高清晰人像自动记录及比对系统及其方法 |
US8269616B2 (en) * | 2009-07-16 | 2012-09-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for detecting gaps between objects |
US8744131B2 (en) * | 2009-09-29 | 2014-06-03 | Panasonic Corporation | Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device |
US8337160B2 (en) * | 2009-10-19 | 2012-12-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | High efficiency turbine system |
US8237792B2 (en) * | 2009-12-18 | 2012-08-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for describing and organizing image data |
US8424621B2 (en) | 2010-07-23 | 2013-04-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Omni traction wheel system and methods of operating the same |
CN102739919A (zh) * | 2011-04-14 | 2012-10-17 | 江苏中微凌云科技股份有限公司 | 动态监测的方法及设备 |
FR2985065B1 (fr) * | 2011-12-21 | 2014-01-10 | Univ Paris Curie | Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere |
EP2720171B1 (de) * | 2012-10-12 | 2015-04-08 | MVTec Software GmbH | Erkennung und Haltungsbestimmung von 3D-Objekten in multimodalen Szenen |
FR3020699A1 (fr) * | 2014-04-30 | 2015-11-06 | Centre Nat Rech Scient | Procede de suivi de forme dans une scene observee par un capteur asynchrone de lumiere |
CN106991418B (zh) * | 2017-03-09 | 2020-08-04 | 上海小蚁科技有限公司 | 飞虫检测方法、装置及终端 |
KR102103521B1 (ko) | 2018-01-12 | 2020-04-28 | 상명대학교산학협력단 | 인공지능 심층학습 기반의 영상물 인식 시스템 및 방법 |
KR102027878B1 (ko) | 2018-01-25 | 2019-10-02 | 상명대학교산학협력단 | 딥러닝 기술과 이미지 특징 추출 기술을 결합한 영상물 내 미술품 인식 방법 |
JP2020053827A (ja) * | 2018-09-27 | 2020-04-02 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像素子、および、撮像装置 |
EP3903074A1 (de) * | 2019-04-25 | 2021-11-03 | Prophesee SA | Systeme und verfahren zur bildgebung und erfassung von vibrationen |
JP7393851B2 (ja) * | 2019-05-31 | 2023-12-07 | 慎太朗 芝 | 撮像装置、撮像方法及びプログラム |
CN111166366A (zh) * | 2019-12-31 | 2020-05-19 | 杭州美诺瓦医疗科技股份有限公司 | 基于束光器光野的屏蔽装置、屏蔽方法及x光检查装置 |
KR102694598B1 (ko) | 2021-12-07 | 2024-08-13 | 울산과학기술원 | 테스트 영상 특징 반영에 의한 영상 분석 개선 시스템 및 방법 |
US11558542B1 (en) * | 2022-01-03 | 2023-01-17 | Omnivision Technologies, Inc. | Event-assisted autofocus methods and apparatus implementing the same |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE68909271T2 (de) * | 1988-02-23 | 1994-03-24 | Philips Nv | Verfahren und Anordnung zum Abschätzen des Bewegungsausmasses bei einem Bildelement eines Fernsehbildes. |
US5341439A (en) * | 1989-09-21 | 1994-08-23 | Hsu Shin Yi | System for texture-based automatic detection of man-made objects in representations of sensed natural environmental scenes |
JPH096957A (ja) * | 1995-06-23 | 1997-01-10 | Toshiba Corp | 濃度画像の2値化方法および画像2値化装置 |
US5956424A (en) * | 1996-12-23 | 1999-09-21 | Esco Electronics Corporation | Low false alarm rate detection for a video image processing based security alarm system |
JP3521109B2 (ja) * | 1997-02-17 | 2004-04-19 | シャープ株式会社 | 動き検出用固体撮像装置 |
GB2368021A (en) * | 2000-10-21 | 2002-04-24 | Roy Sennett | Mouth cavity irrigation device |
US20020131643A1 (en) * | 2001-03-13 | 2002-09-19 | Fels Sol Sidney | Local positioning system |
US7327393B2 (en) * | 2002-10-29 | 2008-02-05 | Micron Technology, Inc. | CMOS image sensor with variable conversion gain |
US7796173B2 (en) * | 2003-08-13 | 2010-09-14 | Lettvin Jonathan D | Imaging system |
JP4193812B2 (ja) * | 2005-05-13 | 2008-12-10 | カシオ計算機株式会社 | 撮像装置、撮像方法及びそのプログラム |
US7755672B2 (en) * | 2006-05-15 | 2010-07-13 | Zoran Corporation | Techniques for modifying image field data obtained using illumination sources |
-
2005
- 2005-06-15 AT AT0101105A patent/AT502551B1/de not_active IP Right Cessation
-
2006
- 2006-06-14 WO PCT/AT2006/000245 patent/WO2006133474A1/de active Application Filing
- 2006-06-14 JP JP2008516063A patent/JP2008547071A/ja not_active Withdrawn
- 2006-06-14 KR KR1020077030584A patent/KR20080036016A/ko not_active Application Discontinuation
- 2006-06-14 EP EP06741041A patent/EP1897032A1/de not_active Withdrawn
- 2006-06-14 CA CA002610965A patent/CA2610965A1/en not_active Abandoned
- 2006-06-14 CN CNA2006800212545A patent/CN101258512A/zh active Pending
-
2007
- 2007-12-17 US US11/957,709 patent/US20080144961A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009005920A1 (de) * | 2009-01-23 | 2010-07-29 | Hella Kgaa Hueck & Co. | Verfahren und Vorrichtung zum Steuern mindestens einer Lichtzeichenanlage eines Fußgängerüberwegs |
EP2466566A1 (de) * | 2009-01-23 | 2012-06-20 | Hella KGaA Hueck & Co. | Verfahren und Vorrichtung zum Steuern mindestens einer Lichtzeichenanlage eines Fußgängerüberwegs |
Also Published As
Publication number | Publication date |
---|---|
JP2008547071A (ja) | 2008-12-25 |
KR20080036016A (ko) | 2008-04-24 |
US20080144961A1 (en) | 2008-06-19 |
WO2006133474A1 (de) | 2006-12-21 |
CN101258512A (zh) | 2008-09-03 |
CA2610965A1 (en) | 2006-12-21 |
AT502551B1 (de) | 2010-11-15 |
EP1897032A1 (de) | 2008-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AT502551B1 (de) | Verfahren und bildauswertungseinheit zur szenenanalyse | |
US6985172B1 (en) | Model-based incident detection system with motion classification | |
DE60020420T2 (de) | Situationsdarstellungs-Anzeigesystem | |
DE602005001627T2 (de) | Vorrichtung zur Extraktion von Fussgängern | |
EP1854083B1 (de) | Kamera zum verfolgen von objekten | |
DE102005026876B4 (de) | Fahrzeugumgebungs-Überwachungsvorrichtung | |
DE69622476T2 (de) | Verfahren und Gerät zur Objekterkennung innerhalb des Gesichtfeldes eines Abbildungsgerätes | |
DE102017217056A1 (de) | Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug | |
DE69322306T2 (de) | Gegenstandserkennungssystem mittels Bildverarbeitung | |
DE102013004073A1 (de) | Videostromauswertung | |
DE112013001424T5 (de) | Objekterkennungsvorrichtung | |
EP1486932A2 (de) | Bildverarbeitungssystem für ein Fahrzeug | |
DE10030421A1 (de) | Fahrzeugumgebungsüberwachungssystem | |
WO2013072231A1 (de) | Verfahren zur nebeldetektion | |
WO2009003793A2 (de) | Vorrichtung zur erkennung und/oder klassifizierung von bewegungsmustern in einer bildsequenz von einer überwachungsszene, verfahren sowie computerprogramm | |
DE102018212655A1 (de) | Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern | |
EP1346330B1 (de) | Video-rauchdetektionssystem | |
Choeychuen | Available car parking space detection from webcam by using adaptive mixing features | |
WO2012110654A1 (de) | Verfahren zur auswertung einer mehrzahl zeitlich versetzter bilder, vorrichtung zur auswertung von bildern, überwachungssystem | |
DE19937928B4 (de) | Einrichtung zum Erkennen eines beweglichen Körpers und Einrichtung zum Überwachen eines Kraftfahrzeugs | |
Sheikh et al. | Visual monitoring of railroad grade crossing | |
EP2483834B1 (de) | Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objekts in einem Bild | |
DE102009024066A1 (de) | Verfahren und Vorrichtung zum Klassifizieren von Situationen | |
Mota et al. | Bio-inspired motion detection for a blind spot overtaking monitor | |
EP2254104B1 (de) | Verfahren zum automatischen Erkennen einer Situationsänderung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM01 | Lapse because of not paying annual fees |
Effective date: 20190615 |