RU2251739C2 - Система распознавания объектов и слежения за ними - Google Patents

Система распознавания объектов и слежения за ними Download PDF

Info

Publication number
RU2251739C2
RU2251739C2 RU2001121986/09A RU2001121986A RU2251739C2 RU 2251739 C2 RU2251739 C2 RU 2251739C2 RU 2001121986/09 A RU2001121986/09 A RU 2001121986/09A RU 2001121986 A RU2001121986 A RU 2001121986A RU 2251739 C2 RU2251739 C2 RU 2251739C2
Authority
RU
Russia
Prior art keywords
sensor
type
matrix
sensors
objects
Prior art date
Application number
RU2001121986/09A
Other languages
English (en)
Other versions
RU2001121986A (ru
Inventor
Питер Джеффри КОУЭН (AU)
Питер Джеффри КОУЭН
Original Assignee
Бионик Корпорейшн Пти Лтд
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Бионик Корпорейшн Пти Лтд filed Critical Бионик Корпорейшн Пти Лтд
Publication of RU2001121986A publication Critical patent/RU2001121986A/ru
Application granted granted Critical
Publication of RU2251739C2 publication Critical patent/RU2251739C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/70Radar-tracking systems; Analogous systems for range tracking only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4008Means for monitoring or calibrating of parts of a radar system of transmitters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

Изобретение относится к системам распознавания объектов и слежения за ними. Его использование позволяет получить технический результат в виде создания такой системы, приспособленной для распознавания объектов определённого типа, к примеру, в магазинах или на магистралях. Этот результат достигается за счёт того, что система имеет матричные датчики, каждый из которых предназначен для выполнения функций датчика первого типа, обеспечивающего возможность обнаружения присутствия объекта в рабочей зоне датчика и определения его положения, и датчика второго типа, обеспечивающего возможность использования этого положения объекта, определенного датчиком первого типа, для идентификации или распознавания объекта и возможность фокусирования или работы с более высокой разрешающей способностью, чем датчик первого типа. 15 з.п.ф-лы, 12 ил.

Description

Область техники
Изобретение касается системы распознавания объектов и слежения за ними.
Обзор известных технических решений
Известны системы для подсчета объектов, таких как люди, проходящие по коридору, например, в торговом центре, но такие системы не приспособлены для распознавания или различения объектов определенного типа или различных типов и их положения и для слежения за такими объектами в течение времени.
Целью данного изобретения является создание системы распознавания объектов и слежения за ними.
Сущность изобретения
В соответствии с одной из форм своего осуществления, которая может не быть единственной или самой широкой, изобретение касается системы распознавания объектов и слежения за ними, содержащей по меньшей мере один матричный датчик, причем указанный или каждый матричный датчик содержит датчик первого типа и датчик второго типа, датчик первого типа выполнен с возможностью обнаружения присутствия объекта в рабочей зоне датчика и определения его положения, а датчик второго типа выполнен с возможностью использования этого определенного первым датчиком положения объекта для идентификации или распознавания объекта либо для подсчета или регистрации присутствия объекта, если он является объектом некоторого выбранного типа.
Присутствие объекта, которое определяется первым датчиком, может быть обнаружено по изменениям в контрастных границах или по изменениям в картине изображения либо по перемещениям. Таким образом можно обнаруживать объекты, которые движутся в рабочей зоне датчика.
Датчики могут быть выполнены с возможностью использования части электромагнитного спектра, выбранной из радиолокационного, микроволнового, радиочастотного, инфракрасного, миллиметрового и оптического диапазонов либо с возможностью использования звуковой локации или другой системы обнаружения.
Датчики первого и второго типов могут быть приборами одного типа или же они могут быть приборами различных типов. Таким образом, датчик первого типа может быть телевизионной камерой с низкой разрешающей способностью, а датчик второго типа может быть радиочастотной системой обнаружения.
В случае, если первый датчик и второй датчик фактически являются одним и тем же прибором, второй датчик может работать с более высокой разрешающей способностью, чем первый, или может быть датчиком конкретного идентифицирующего типа.
В предпочтительной форме осуществления изобретения датчик первого типа может являться прибором типа глаза насекомого. А именно он может быть датчиком, который предназначен для обнаружения изменений в контрасте между смежными пикселами в поле зрения, а не для окончательной идентификации объектов. В такой форме осуществления изобретения датчик второго типа может быть датчиком с цифровой обработкой сигнала, например цифровым телевизионным датчиком. Таким образом, датчик первого типа служит для того, чтобы идентифицировать в рабочей зоне датчика определенную область, представляющую интерес, а затем датчик с цифровой обработкой сигнала должен лишь идентифицировать объект, просматривая эту определенную область рабочей зоны, а не обрабатывать все телевизионное изображение контролируемого пространства. Благодаря этому требуется значительно меньшая вычислительная мощность и может быть достигнута более высокая эффективность.
Первый датчик и второй датчик могут быть одним устройством, где второй датчик обеспечивает вторую ступень обработки данных.
Таким образом, в альтернативной форме осуществления изобретения датчики первого и второго типов могут быть выполнены в виде единого телевизионного датчика, наблюдаемое которым изображение обрабатывается двумя различными путями. Сначала наблюдаемое изображение может преобразовываться в цифровую форму, записываться в следующие друг за другом области памяти, а затем последовательные изображения могут анализироваться для обнаружения изменений в последовательных кадрах цифрового изображения, которые будут указывать на перемещающуюся контрастную границу. Там самым определяется движущийся объект в рабочей зоне датчика, и то же самое цифровое изображение может затем быть проанализировано в этой определенной области рабочей зоны датчиком второго типа. Для улучшения распознавания или результата в отношении объекта, представляющего интерес, датчик второго типа может использовать последующие или предыдущие кадры.
Если процесс распознавания не достигает пороговых уровней надежности, заранее заданных или полученных в результате искусственного обучения, то тогда дополнительные хранимые или загружаемые алгоритмы могут использоваться в итеративном процессе до тех пор, пока результаты не улучшатся.
В то время как датчик первого типа используется для идентификации объектов, представляющих интерес, датчик второго типа используется для целей распознавания. Каждый объект обладает рядом характеристик, такими как масса, высота, форма, контраст, яркость, цвет, узоры, скорость, тепло, отражательная способность, сигнатура и многие другие. Каждая характеристика сама по себе не обязательно пригодна в качестве признака, который может отдельно использоваться для распознавания объекта, и некоторые характеристики могут быть более легко идентифицируемыми, чем другие. Предпочтительно, изобретение предусматривает, что анализ наиболее легко распознаваемых характеристик выполняется сначала, а затем, используя другие характеристики и следующие друг за другом во времени кадры, система на каждом шаге в процессе итеративного анализа улучшает вероятность распознавания ею объекта с большей точностью. Определение, какие характеристики анализируются сначала, и порядок, в котором они анализируются, представляет собой наиболее важную часть данного изобретения.
В еще одной форме осуществления изобретения система может быть построена с искусственным интеллектом, чтобы принимать эти решения без внешнего вмешательства. В этом случае система определяет, какая характеристика будет анализироваться сначала. С течением времени система может идентифицировать новую характеристику или новую последовательность характеристик, которые могут лучше идентифицировать объект, представляющий интерес, и поэтому становится самосовершенствующейся. В этом случае самоусовершенствованные процедуры или алгоритмы хранятся в памяти в имеющейся резидентной библиотеке для будущих обращений. Система будет использовать анализ с использованием искусственного интеллекта, чтобы решить, используя вероятностный анализ, какой алгоритм является наиболее подходящим, по его успеху и скорости распознавания.
Таким образом, изобретение в целом описывает систему, которая может быть разбита на несколько ступеней. Первая ступень обработки будет включать машину для обнаружения объекта, предназначенную для захвата изображения и загрузки последовательностей оцифрованных изображений из аппаратных средств в соответствующем цифровом формате для машины для распознавания объекта. Датчик первого типа может опознавать границу объекта, определяя ее по последовательным кадрам, когда объект перемещается через рабочую зону датчика. Датчик второго типа, который может формировать вторую ступень системы, будет машиной для распознавания объекта, которая, во-первых, используется для преобразования определенных характеристик в подходящие математические образы или алгоритмы и, во-вторых, может использоваться для представления и записи результатов в течение времени, необходимого для анализа конкретных характеристик рассматриваемых объектов. Характеристики, подвергаемые анализу, могут включать, но не ограничиваются этим, один или несколько признаков, таких как масса, высота, форма, цвет, узор, контраст, текстура, тепло, отражательная способность, частота, скорость, излучение сигнала, сигнатура и т.д. Каждой характеристике обнаруженного объекта присваивается вероятность того, что обнаружен объект, представляющий интерес. Чтобы получить более высокие уровни точности, последовательные оцифрованные изображения могут анализироваться в течение времени с использованием хранимых процедур, хранимых библиотек, алгоритмов анализа, а также итеративного процесса анализа, который может обеспечивать наблюдение множества характеристик множества объектов в реальном времени.
Каждая итерация анализа увеличивает (или уменьшает, в соответствующих случаях) вероятность для обнаруженного объекта являться объектом, представляющим интерес. Если уровень вероятности достигает заранее заданного уровня признания или порогового уровня, то объект распознается как объект, представляющий интерес. Чтобы улучшить вероятностный анализ и повысить вероятность распознавания объекта, дополнительные разновидности датчиков второго типа могут быть включены в одну рабочую зону, используемую для наблюдения различных характеристик объекта, представляющего интерес.
Датчики дополнительных разновидностей могут быть расположены в различных местах и направлены под различными углами, но для просмотра одной и той же рабочей зоны, чтобы улучшить вероятность различения объектов, позиционирования объектов в трехмерном пространстве либо определения местоположения объекта, который иначе, при использовании датчика только одного типа, был бы затенен.
Датчик второго типа может быть выполнен с возможностью запрашивания запрашиваемого устройства, связанного с объектом. В одной такой форме осуществления изобретения первый датчик может быть выполнен с возможностью наблюдения того, что объект перемещается в пределах рабочей зоны, а запрашивающее устройство второго датчика служит для последующего запроса радиочастотной сигнатурной интегральной схемы, например интегральной схемы смарт-карты или транспондера, чтобы обеспечить уверенную идентификацию объекта и его прохождения через рабочую зону датчика.
Система распознавания и слежения за объектами может включать несколько матричных датчиков, датчики нескольких типов и несколько рабочих зон датчиков.
Матричный датчик может быть выполнен с возможностью взаимодействия с соседними матричными датчиками в нескольких рабочих зонах датчиков, чтобы передавать или принимать информацию, которая принята или получена путем обучения. Эта передача информации может осуществляться по замкнутой сети типа Intranet или по открытой сети типа Internet. Решения или информация будут передаваться дальше на следующие датчики или другие устройства третьих лиц, требующие такой информации для осуществления, когда это необходимо, запрограммированных действий. Датчики могут принимать решения, подавать команды или инициировать некоторые другие формы действий без человеческого вмешательства.
Третья ступень системы может быть представлена машиной для слежения. Распознав объект, представляющий интерес, машина для слежения может выполнять такие задачи, как инициализация координатной сетки, двумерное или трехмерное отображение, назначение метки, слежение за меткой и передача метки в следующие рабочие зоны датчиков. Это требует существенно меньшей мощности обработки, чем у машины для распознавания объекта, когда идентифицированный и отмеченный меткой объект перемещается из рабочей зоны одного датчика в рабочую зону другого. Если в следующей рабочей зоне датчика появляется объект, который предварительно не был обнаружен из-за того, что был заслонен другим объектом, процесс может быть прослежен в обратном направлении по всем возможным записанным кадрам изображения и записи могут соответствующим образом корректироваться. Система в целом обновляется с помощью этой новой информации. Это существенно увеличивает точность системы. С этого момента объект может прослеживаться дальше во времени до тех пор, пока он не выйдет из всех рабочих зон датчиков. После распознавания вида объекта, который требуется отследить, позиция каждого объекта, представляющего интерес, с течением времени последовательно отображается на универсальную координатную сетку. Поскольку вычислительная мощность, необходимая для слежения, существенно уменьшается в последовательных рабочих зонах датчиков, множество объектов может быть отслежено с высоким уровнем точности и надежности.
В предпочтительной форме осуществления изобретения могут использоваться несколько матричных датчиков, датчики нескольких типов и несколько рабочих зон датчиков в двумерном или трехмерном пространстве, а система может содержать средства взаимодействия между соседними матричными датчиками для передачи слежения за выбранным объектом из одной рабочей зоны датчика в соседнюю рабочую зону датчика и регистрации перемещения объекта с течением времени.
С помощью этих средств система может быть способна следить за движущимися объектами выбранного типа в намного большей области, чем рабочая зона одного датчика. Это может быть использовано, например, если требуется отслеживать объекты как по всему торговому центру, так и в рабочих зонах отдельных датчиков, таких как выставочная площадь.
Необходимо отметить, что поскольку объекты, которые не перемещаются в рабочей зоне датчика, например предметы мебели или другие неподвижные объекты, не наблюдаются датчиком первого типа, который наблюдает только перемещающиеся контрастные границы или изменения, например, между соседними кадрами телевизионного изображения, то они не отслеживаются или не наблюдаются и вторым датчиком. Это будет экономить значительную вычислительную мощность.
Должно быть понятно, что если матричный датчик, установленный на потолке здания, смотрит по существу вниз, например на коридор, то объект, когда он находится непосредственно под датчиком, будет иметь определенный контур, а когда объект перемещается через рабочую зону датчика, контур, наблюдаемый неподвижным матричным датчиком, будет изменяться вместе с углом наблюдения. Поэтому в одной из предпочтительных форм осуществления изобретения устройство обработки данных для идентификации движущихся объектов в рабочей зоне датчика может содержать средства учета угла, под которым объект находится относительно матричного датчика, или учета смещения объектов относительно центра в пределах этой зоны.
В системе распознавания объектов и слежения за ними все или некоторые из матричных датчиков могут быть установлены сбоку от их рабочей зоны, например на стене, определяющей границу рабочей зоны, или в углах этой зоны.
Система распознавания объектов и слежения за ними согласно данному изобретению может использоваться для подсчета людей в супермаркетах или других подобных местах или для транспорта, перемещающегося вдоль дороги, для охранного наблюдения и контроля, а также для определения предпочтений людей при их передвижении по магазину или выставочной площади либо для подсчета числа людей, находящихся в трехмерном пространстве, таком как комната или некоторая территория.
Система может использоваться для отслеживания перемещений, кажущихся случайными, чтобы определять их законы или тенденции во времени.
Система может использоваться как система наблюдения с пользовательским интерфейсом, чтобы формировать удобочитаемое изображение того, что наблюдает датчик, такой как телевизионная камера.
Следует отметить, что матричный датчик может быть установлен на подвижном объекте, например на автомобиле, и его наблюдения будут касаться стационарных объектов, таких как дорожные знаки или стоп-сигналы. Он может использоваться и для обнаружения присутствия пешеходов.
Для более полного понимания ниже приводится описание изобретения со ссылкой на приложенные чертежи, на которых показана предпочтительная форма осуществления изобретения.
На чертежах:
На фиг.1 показана рабочая зона датчика с некоторыми объектами в ней.
На фиг.2 показаны объекты и области, которые наблюдаются датчиком первого типа.
На фиг.3 показана область, наблюдаемая датчиком второго типа, и обнаруживаемые им объекты.
На фиг.4 показана расширенная рабочая зона датчиков с несколькими матричными датчиками и объектами, перемещающимися по ней.
На фиг.5 показана более реалистичная картина объектов, наблюдаемых датчиком первого типа в его рабочей зоне.
На фиг.6 показаны объекты фиг.5, наблюдаемые датчиком второго типа.
На фиг.7 показана схема системы распознавания и слежения согласно данному изобретению.
На фиг.8 показана схема системы обнаружения согласно другой форме осуществления данного изобретения.
На фиг.9 показана схема системы обнаружения согласно еще одной форме осуществления данного изобретения.
На фиг.10 показана схема системы обнаружения согласно еще одной форме осуществления данного изобретения.
На фиг.11 показана схема системы обнаружения согласно еще одной форме осуществления данного изобретения.
На фиг.12 показана схема системы обнаружения согласно еще одной форме осуществления данного изобретения, использующей транспондерное сигнатурное устройство идентификации.
Подробное описание предпочтительных вариантов осуществления изобретения
Обратимся к чертежам устройств, показанных на фиг.1-3, где в рабочей зоне (контролируемом пространстве) 1 датчика имеется несколько объектов. Первым объектом является человек 2, толкающий тележку 3, а другими объектами являются два человека 4 и 5, перемещающиеся близко друг к другу.
Как можно видеть на фиг.2, деталями объектов, обнаруживаемыми датчиком 7 первого типа, являются только контур 8 человека 2, контур 9 тележки 3 и контуры 10 и 11 людей 4 и 5.
Информация об этих контурах, определяющая области, которые нужно просмотреть в деталях, передается на датчик 15 второго типа, и наблюдаемое изображение, например оцифрованное телевизионное изображение, наблюдается только в областях, показанных пунктирными линиями. Область 16 наблюдается, чтобы идентифицировать объект 2, область 17 наблюдается, чтобы идентифицировать тележку 3, но поскольку тележка не является объектом, который следует подсчитывать, устройство обработки данных системы слежения не принимает тележку 3 во внимание и не подсчитывает ее. Двое людей 4 и 5 наблюдаются при просмотре областей 18 и 19 и идентифицируются как два человека, идущие вместе.
Следовательно, система, выполненная согласно данному изобретению, в этом просматриваемом ею пространстве подсчитывает 3 человек, перемещающихся в этом пространстве, и игнорирует четвертый объект - тележку.
На фиг.4 можно видеть шесть рабочих зон 20, 21, 22, 23, 24 и 25 датчиков. Человек 28 входит в зону 21, проходит через эту зону в зону 23 и затем выходит из зоны 23 в том ее углу, который расположен по соседству с зоной 25. Человек, толкающий тележку, входит в рабочую зону 20 датчика, перемещается по диагонали через нее в рабочую зону 22 другого датчика и затем в зону 24.
Матричный датчик (матрица чувствительных элементов) 31 в рабочей зоне 21 датчика наблюдает и условно отмечает человека, входящего в рабочую зону датчика, отслеживает движение этого человека через свою рабочую зону и затем передает на матричный датчик 32 в рабочей зоне 23 информацию о том, что человек вошел в эту зону в определенном месте, и матричный датчик 32 продолжает отслеживать отмеченного человека до тех пор, пока он не оставляет рабочую зону этого датчика. За непрерывным перемещением этого человека наблюдают так, что по данным наблюдений можно проследить и определить, почему данный человек повернул в рабочей зоне 23 датчика, а не предпочел продолжить идти прямо. При наблюдении за множеством людей, перемещающихся в различных рабочих зонах датчиков, можно наблюдать некоторые тенденции, которые могут дать некоторые указания относительно того, почему такое действие происходит. Однако человек 29, толкающий тележку 30, переместился по прямой линии из одной рабочей зоны датчика в следующую. Передача функции слежения в другую зону выполнена так, что человека 28 подсчитывают только один раз, несмотря на то, что он был в двух рабочих зонах датчиков, и человека 29 подсчитывают только один раз, хотя он побывал в трех рабочих зонах. Тележку 30 не подсчитывают вообще, потому что устройства обнаружения предназначены только для наблюдения движущихся людей.
Конечно, должно быть понятно, что для других устройств обнаружения объектами, за которыми следует наблюдать, могут быть перемещающиеся тележки или транспортные средства, а люди могут игнорироваться.
На фиг.5 и 6 показана несколько более реалистичная картина, где в своей рабочей зоне 40 матричный датчик 41 первого типа наблюдает объект 42, имеющий неправильную форму, и другой объект 43, имеющий неправильную форму. Эта неправильность формы является следствием того, что наблюдаемые объекты находятся не прямо под матричным датчиком 41, и, когда наблюдаются только перемещающиеся контрастные границы, в каждом случае определяется несколько неровная контрастная граница (контур). Детали этой границы объекта передаются на второй матричный датчик 44, как показано на фиг.6, и им наблюдается только ограниченная область, в которой при данном угле наблюдения определяется, что перемещающийся объект 42 фактически является человеком, а объект 43 - тележкой. Аналогично на фиг.5 два объекта 47 и 48 имеют несколько неровную форму, но если задан их угол относительно датчика 41, они идентифицируются как люди 49 и 50.
Как можно видеть на фиг.7, матричный датчик 60 содержит датчик 61 первого типа и датчик 62 второго типа, наблюдающие за рабочей зоной 63 датчика. Первичный сигнальный процессор 64, связанный с матричным датчиком, принимает и обрабатывает сигналы от датчика 61 первого типа и подает датчику 62 второго типа команды о том, что наблюдать в рабочей зоне датчика. Детали релевантных наблюдений передаются в центральный пункт 65, который также принимает информацию от соседних матричных датчиков по линиям 66 и 67 и позволяет следить за объектами, перемещающимися по рабочим зонам соседних датчиков. Релевантная информация, такая как результаты подсчета, подается на другие матричные датчики или устройства, соединенные сетью связи, либо в устройство 68 подсчета.
На фиг.8 матричный датчик 70 находится с одной стороны от рабочей зоны и охватывает область 71, которая включает рабочую зону, состоящую их четырех секторов 72, 73, 74 и 75. В этой форме осуществления изобретения матричный датчик 70 выполняет функции как датчика первого типа, так и датчика второго типа и может обнаруживать объекты в нескольких рабочих зонах, представленных этими четырьмя секторами 72, 73, 74 и 75.
На фиг.9 матричный датчик 76 имеет по существу то же самое расположение, что и на фиг.8, с областью 71 охвата, которая включает рабочую зону, состоящую их четырех секторов 72, 73, 74 и 75. В этой форме осуществления изобретения матричный датчик 70 содержит датчик 77 первого типа и отдельный датчик 78 второго типа. Здесь датчик 77 первого типа может обнаруживать перемещение объектов в нескольких рабочих зонах, представленных этими четырьмя секторами 72, 73, 74 и 75, а датчик 78 второго типа может идентифицировать каждый объект.
На фиг.10 показано расположение матричных датчиков, при котором имеются два матричных датчика 80 и 81, каждый сбоку от рабочей зоны датчиков, состоящей из четырех секторов 72, 73, 74 и 75. Матричный датчик 80 имеет область 83 охвата, которая позволяет выполнять обнаружение и идентификацию объектов в секторах 72 и 73 рабочей зоны. Матричный датчик 81 имеет область 84 охвата, которая позволяет выполнять обнаружение и идентификацию объектов в секторах 74 и 75 рабочей зоны.
На фиг.11 матричные датчики 80 и 81 имеют по существу то же самое расположение, что и на фиг. 10, с соответствующими областями 85 и 86 охвата, но они позволяют выполнять наблюдение только в секторах 73 и 75 соответственно, в то время как наблюдение в секторах 72 и 74 обеспечивается соответствующими матричными датчиками 87 и 88, расположенными сверху.
На фиг.12 показано шоссе 90, по которому перемещаются два автомобиля 91 и 92. Автомобили 91 и 92 движутся по шоссе в различных направлениях. Автомобиль 91 имеет интегральную схему транспондера (ответчика) 93, установленную на нем, и автомобиль 92 имеет интегральную схему транспондера 93, установленную на нем. С одной стороны от шоссе 90 находится матричный датчик, содержащий первый датчик, например телевизионный датчик 95, работающий в инфракрасной области электромагнитного спектра, и второй микроволновый датчик 97, предназначенный для опроса транспондеров 93 и 94. Область 96 охвата телевизионного датчика 95 включает обе полосы дороги и значит он может обнаруживать перемещающиеся автомобили 91 и 92. Когда каждый автомобиль обнаружен, приводится в действие второй микроволновый датчик 97, чтобы опросить сфокусированными лучами 99 и 98 транспондеры 93 и 94 соответственно. Посредством этого регистрируется не только тот факт, что определенный автомобиль прошел данную точку, но также и направление его передвижения. Без первого этапа наблюдения матричный датчик может зарегистрировать, что транспондер прошел данную точку, но направление передвижения регистрироваться не будет.
В этом описании были даны различные указания относительно объема этого изобретения, но изобретение не ограничивается каким-либо одним из них, а может состоять из двух или более, объединенных вместе. Примеры приведены только для иллюстрации, а не для ограничения.
В этом описании, если из контекста не следует иного, слова "содержат", "включают" и производные от них, такие как "содержащий" и "включающий", должны пониматься как подразумевающие включение некоторого целого или их группы, но не исключение любого другого целого или их группы.

Claims (16)

1. Система распознавания объектов и слежения за ними, содержащая по меньшей мере один матричный датчик, причем указанный или каждый матричный датчик предназначен для выполнения функций датчика первого типа, обеспечивающего возможность обнаружения присутствия объекта в рабочей зоне датчика и определения положения этого объекта, и датчика второго типа, обеспечивающего возможность использования этого положения объекта, определенного датчиком первого типа, для идентификации и распознавания объекта, и возможность фокусирования или работы с более высокой разрешающей способностью, чем датчик первого типа.
2. Система по п. 1, отличающаяся тем, что присутствие объекта, определяемое датчиком первого типа, может быть обнаружено по изменениям в контрастных границах или по изменениям в картине изображения или по перемещениям, и тем самым система может обнаруживать объекты, которые движутся в рабочей зоне датчика.
3. Система по п. 1, отличающаяся тем, что датчик второго типа выполнен с возможностью подсчёта или регистрации присутствия объекта, если он является объектом некоторого выбранного типа.
4. Система по п. 1, отличающаяся тем, что матричный датчик выполнен с возможностью использования части электромагнитного спектра, выбранной из радиолокационного, микроволнового, радиочастотного, инфракрасного, миллиметрового и оптического диапазонов, либо с возможностью использования звуковой локации или другой системы обнаружения.
5. Система по п. 1, отличающаяся тем, что датчики первого и второго типа выполнены в виде единого телевизионного датчика, наблюдаемое которым изображение обрабатывается двумя различными путями, при использовании первого из которых наблюдаемое изображение может оцифровываться и последовательные изображения могут анализироваться для обнаружения изменений в последовательных кадрах оцифрованного изображения, которые указывают на присутствие объекта, а при использовании второго то же самое оцифрованное изображение в определенной области рабочей зоны датчика может затем анализироваться более детально.
6. Система по п. 5, отличающаяся тем, что датчик второго типа выполнен с возможностью использования последующих или предыдущих кадров для улучшения распознавания или результата в отношении объекта, представляющего интерес.
7. Система по п. 1, отличающаяся тем, что для определения и идентификации объектов используется одна или несколько таких характеристик, как масса, высота, форма, контраст, яркость, цвет, узоры, скорость, тепло, отражательная способность, сигнатура.
8. Система по п. 1, отличающаяся тем, что она дополнительно содержит машину для слежения, выполненную с возможностью слежения за определенным объектом.
9. Система по п. 1, отличающаяся тем, что она содержит несколько матричных датчиков и несколько рабочих зон датчиков.
10. Система по п. 9, отличающаяся тем, что она включает средства взаимодействия между матричными датчиками для передачи слежения за выбранным объектом из одной рабочей зоны в соседнюю рабочую зону.
11. Система по п. 10, отличающаяся тем, что средства взаимодействия между матричными датчиками содержат средства передачи информации на следующие датчики или другие устройства третьих лиц, требующие такой информации для осуществления, когда это необходимо, запрограммированных действий без человеческого вмешательства.
12. Система по п. 1, отличающаяся тем, что она содержит средства учета угла, под которым объект находится относительно матричного датчика, или учета смещения объектов относительно центра в пределах двумерной или трехмерной зоны.
13. Система по п. 1, отличающаяся тем, что указанный или каждый матричный датчик установлен, по существу, над своей рабочей зоной.
14. Система по п. 1, отличающаяся тем, что указанный или каждый матричный датчик установлен сбоку от своей рабочей зоны.
15. Система по п. 1, отличающаяся тем, что она используется для подсчета людей в супермаркетах или других подобных местах или для транспорта, перемещающегося вдоль дороги, для охранного наблюдения и контроля и для определения законов или тенденций кажущихся случайными перемещений в течение некоторого времени, например, при передвижении людей по магазину или выставочной площади.
16. Система по п. 1, отличающаяся тем, что она используется на движущемся транспортном средстве для обнаружения объектов, которые по сравнению с транспортным средством относительно неподвижны.
RU2001121986/09A 1999-02-01 2000-02-01 Система распознавания объектов и слежения за ними RU2251739C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AUPP8391 1999-02-01
AUPP8391A AUPP839199A0 (en) 1999-02-01 1999-02-01 Object recognition & tracking system

Publications (2)

Publication Number Publication Date
RU2001121986A RU2001121986A (ru) 2003-07-20
RU2251739C2 true RU2251739C2 (ru) 2005-05-10

Family

ID=3812591

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2001121986/09A RU2251739C2 (ru) 1999-02-01 2000-02-01 Система распознавания объектов и слежения за ними

Country Status (18)

Country Link
US (1) US6754368B1 (ru)
EP (1) EP1157355B1 (ru)
JP (1) JP2002536646A (ru)
KR (1) KR20010113663A (ru)
CN (1) CN1206610C (ru)
AT (1) ATE360858T1 (ru)
AU (1) AUPP839199A0 (ru)
BR (1) BR0007899A (ru)
CA (1) CA2361486A1 (ru)
DE (1) DE60034555T2 (ru)
HK (1) HK1042152A1 (ru)
IL (2) IL144588A0 (ru)
NO (1) NO20013726L (ru)
NZ (1) NZ513232A (ru)
RU (1) RU2251739C2 (ru)
TR (1) TR200102222T2 (ru)
WO (1) WO2000046743A1 (ru)
ZA (1) ZA200106386B (ru)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2455686C2 (ru) * 2006-10-02 2012-07-10 Джонсон Энд Джонсон Конзьюмер Компаниз, Инк. Устройство и способ для идентификации лицевых областей
RU2479018C2 (ru) * 2007-04-24 2013-04-10 Конинклейке Филипс Электроникс Н.В. Способ, система и пользовательский интерфейс для автоматического создания атмосферы, в частности освещенной атмосферы, на основании ввода ключевого слова
RU2563721C2 (ru) * 2009-12-23 2015-09-20 Дж.Д. С.п.А. Разгрузочный блок упаковочной машины, изготавливающей контейнеры для табачных изделий
RU2619059C2 (ru) * 2012-07-27 2017-05-11 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов и способ обнаружения трехмерных объектов

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242489A (ja) * 2002-02-20 2003-08-29 Canon Inc 画像入力装置及び指紋認識装置
CN1235172C (zh) * 2002-02-20 2006-01-04 佳能株式会社 图像输入装置
SE524603C2 (sv) * 2002-05-28 2004-08-31 Tagmaster Ab Förfarande och anordning för passage- och behörighetskontroll
GB2395779A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7092815B2 (en) 2003-12-17 2006-08-15 Vrbia, Inc. Traffic control systems for vehicle spacing to dissipate traffic gridlock
EP1571584A1 (en) 2004-03-03 2005-09-07 Honda Research Institute Europe GmbH Integrating visual and object information in a pervasive computing environment
CN104883661B (zh) * 2004-03-31 2018-07-24 皇家飞利浦电子股份有限公司 利用短程射频技术来定位无线医疗装置的方法
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7710452B1 (en) 2005-03-16 2010-05-04 Eric Lindberg Remote video monitoring of non-urban outdoor sites
US7714726B2 (en) 2005-05-06 2010-05-11 Dominic M. Kotab Semi-transparent RFID tags
DE602005017376D1 (de) 2005-06-27 2009-12-10 Honda Res Inst Europe Gmbh Räumliche Annäherung und Objekterkennung für humanoiden Roboter
JP4290164B2 (ja) * 2006-01-31 2009-07-01 キヤノン株式会社 識別領域を示す表示を画像と共に表示させる表示方法、コンピュータ装置に実行させるプログラム、および、撮像装置
US8184154B2 (en) * 2006-02-27 2012-05-22 Texas Instruments Incorporated Video surveillance correlating detected moving objects and RF signals
ATE497218T1 (de) 2006-06-12 2011-02-15 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
DE102006049454A1 (de) * 2006-10-17 2008-04-24 Wolfgang Krieger Verfahren und Vorrichtung zur Identifizierung von mit RFID-Transpondern gekennzeichneten Objekten
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
EP2115662B1 (en) 2007-02-28 2010-06-23 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
KR101247147B1 (ko) 2007-03-05 2013-03-29 디지털옵틱스 코포레이션 유럽 리미티드 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
EP2075740A1 (en) * 2007-12-24 2009-07-01 Katholieke Hogeschool limburg industriele Wetenschappen en technologie Method for making a decision.
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
CN106919911A (zh) 2008-07-30 2017-07-04 快图有限公司 使用脸部检测的自动脸部和皮肤修饰
US8319665B2 (en) * 2009-02-20 2012-11-27 Appareo Systems, Llc Adaptive instrument and operator control recognition
US8319666B2 (en) 2009-02-20 2012-11-27 Appareo Systems, Llc Optical image monitoring system and method for vehicles
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
EP2534929B2 (en) 2010-02-09 2022-02-16 Signify Holding B.V. Presence detection system and lighting system comprising such system
US9508213B2 (en) * 2010-03-22 2016-11-29 Dominic M. Kotab Systems and methods of reading gaming chips and other stacked items
US8527445B2 (en) * 2010-12-02 2013-09-03 Pukoa Scientific, Llc Apparatus, system, and method for object detection and identification
US8947524B2 (en) 2011-03-10 2015-02-03 King Abdulaziz City For Science And Technology Method of predicting a trajectory of an asteroid
KR101287522B1 (ko) 2011-08-10 2013-07-19 엘아이지넥스원 주식회사 기동패턴을 고려하여 위협 표적을 식별하기 위한 방법
CN102592288B (zh) * 2012-01-04 2014-07-02 西安理工大学 一种光照环境变化情况下的行人目标匹配跟踪方法
US10607424B2 (en) 2012-02-10 2020-03-31 Appareo Systems, Llc Frequency-adaptable structural health and usage monitoring system (HUMS) and method with smart sensors
EP2812661B1 (en) 2012-02-10 2019-11-27 Appareo Systems, LLC Frequency-adaptable structural health and usage monitoring system
JP6013756B2 (ja) * 2012-04-12 2016-10-25 株式会社日立情報通信エンジニアリング シミュレータ
DE102012104742A1 (de) * 2012-06-01 2013-12-05 Continental Safety Engineering International Gmbh Verfahren und Vorrichtung zur Objektdetektion
DK2701133T3 (en) * 2012-08-22 2016-02-29 Kapsch Trafficcom Ag Method and devices for image recording of a vehicle speed border
DE102013200817A1 (de) * 2013-01-18 2014-07-24 Hella Kgaa Hueck & Co. Verfahren zur Erkennung einer Belegung einer überwachten Zone
DE102013209484A1 (de) * 2013-05-22 2014-11-27 Hella Kgaa Hueck & Co. Verfahren zur Ermittlung eines Flächenbelegungsgrads oder eines Volumenbelegungsgrads
EP3005231B1 (en) * 2013-05-29 2021-10-06 Sicpa Brasil Indústria de Tintas e Sistemas Ltda. Method and device for counting objects in image data in frames, computer program product
KR101466300B1 (ko) * 2013-07-05 2014-11-28 삼성중공업 주식회사 레이더 영상 표시 장치 및 방법
US9672463B2 (en) 2013-11-07 2017-06-06 Hanwha Techwin Co., Ltd. People counting method and apparatus
KR102150706B1 (ko) 2013-11-07 2020-09-01 한화테크윈 주식회사 사람들을 계수하는 방법 및 장치
KR102158834B1 (ko) 2013-12-05 2020-09-22 한화테크윈 주식회사 사람들을 계수하는 방법 및 장치
KR101527876B1 (ko) * 2013-11-21 2015-06-11 한국해양과학기술원 소나 영상의 실시간 영상처리를 이용한 수중물체의 인식 및 추적방법
CN104504906B (zh) * 2014-12-25 2017-09-19 深圳市捷顺科技实业股份有限公司 一种车牌识别方法及系统
DE102015007028A1 (de) * 2015-05-29 2016-12-01 Mbda Deutschland Gmbh Verfahren zur Fokussierung eines hochenergetischen Strahls auf einem Haltepunkt auf der Oberfläche eines fliegenden Flugobjekts
CN105425308A (zh) * 2015-12-18 2016-03-23 同方威视技术股份有限公司 物品跟踪系统和方法
DE102016000532B4 (de) * 2016-01-21 2019-04-25 Jenoptik Robot Gmbh Verfahren und Vorrichtung zum Betreiben eines Verkehrsüberwachungsgerätes, Verkehrsüberwachungsgerät und Verkehrsüberwachungssystem
KR102618759B1 (ko) * 2016-04-01 2023-12-28 주식회사 에이치엘클레무브 물체의 이동경로감지장치, 이동경로감지방법 및 그에 포함되는 물체감지장치
US10317218B2 (en) * 2016-07-12 2019-06-11 David Byron Douglas Planetary surveillance system
CA3033676A1 (en) * 2016-08-15 2018-02-22 Arizona Board Of Regents On Behalf Of The University Of Arizona Novel automotive radar using 3d printed luneburg lens
US10585185B2 (en) 2017-02-03 2020-03-10 Rohde & Schwarz Gmbh & Co. Kg Security scanning system with walk-through-gate
US10725152B2 (en) * 2017-03-14 2020-07-28 Aptiv Technologies Limited Detector device including a shifted multi-dimensional array of detector elements
US11423791B2 (en) * 2018-01-05 2022-08-23 Gopro, Inc. Adaptive object detection
CN108416254A (zh) * 2018-01-17 2018-08-17 上海鹰觉科技有限公司 一种用于人流行为识别和人数统计的统计系统以及方法
CN109143221B (zh) * 2018-07-23 2022-06-10 奇瑞汽车股份有限公司 目标跟踪方法及装置
KR102636740B1 (ko) * 2018-12-17 2024-02-15 현대자동차주식회사 차량 및 그 제어방법
CN110245653A (zh) * 2019-06-06 2019-09-17 深圳市宏电技术股份有限公司 一种物体识别装置及方法
US11231498B1 (en) 2020-07-21 2022-01-25 International Business Machines Corporation Concealed object detection
CN111913177A (zh) * 2020-08-11 2020-11-10 中国原子能科学研究院 对目标物探测方法、装置以及存储介质
CN113064805A (zh) * 2021-03-29 2021-07-02 联想(北京)有限公司 一种电子设备的控制方法以及控制装置
CN113740838B (zh) * 2021-09-13 2024-02-06 四川启睿克科技有限公司 一种基于毫米波雷达的全屋人员追踪方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2020748A1 (en) * 1989-08-22 1991-02-23 Thomas F. Look Method and apparatus for machine reading of retroreflective vehicle identification articles
US5610815A (en) * 1989-12-11 1997-03-11 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
IL99823A0 (en) * 1990-11-16 1992-08-18 Orbot Instr Ltd Optical inspection method and apparatus
WO1992009904A1 (en) * 1990-11-29 1992-06-11 Vpl Research, Inc. Absolute position tracker
US5153722A (en) * 1991-01-14 1992-10-06 Donmar Ltd. Fire detection system
US5809161A (en) * 1992-03-20 1998-09-15 Commonwealth Scientific And Industrial Research Organisation Vehicle monitoring system
US5512743A (en) * 1994-01-25 1996-04-30 The United States Of America As Represented By The Secretary Of The Navy Space-based asteroid detection and monitoring system
JPH10512694A (ja) * 1995-01-17 1998-12-02 サーノフ コーポレイション 連続画像内での物体の移動を検知する方法及び装置
US5517019A (en) * 1995-03-07 1996-05-14 Lopez; Luis R. Optical compound eye sensor with ommatidium sensor and related methods
DE19511713A1 (de) * 1995-03-30 1996-10-10 C Vis Computer Vision Und Auto Verfahren und Vorrichtung zur automatischen Bildaufnahme von Gesichtern
AU699910B2 (en) * 1996-07-12 1998-12-17 Beonic Corporation Pty Ltd A traffic analysis system
IT1286684B1 (it) * 1996-07-26 1998-07-15 Paolo Sodi Dispositivo e metodo per il rilevamento di infrazioni stradali con sistemi di puntamento dinamico
GB9617592D0 (en) * 1996-08-22 1996-10-02 Footfall Limited Video imaging systems
SE510810C2 (sv) * 1997-01-13 1999-06-28 Qualisys Ab Rörelseanalyssystem
EP0878965A3 (en) * 1997-05-14 2000-01-12 Hitachi Denshi Kabushiki Kaisha Method for tracking entering object and apparatus for tracking and monitoring entering object
JP3567066B2 (ja) * 1997-10-31 2004-09-15 株式会社日立製作所 移動体組合せ検出装置および方法
US6154133A (en) * 1998-01-22 2000-11-28 Ross & Baruzzini, Inc. Exit guard system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2455686C2 (ru) * 2006-10-02 2012-07-10 Джонсон Энд Джонсон Конзьюмер Компаниз, Инк. Устройство и способ для идентификации лицевых областей
RU2479018C2 (ru) * 2007-04-24 2013-04-10 Конинклейке Филипс Электроникс Н.В. Способ, система и пользовательский интерфейс для автоматического создания атмосферы, в частности освещенной атмосферы, на основании ввода ключевого слова
RU2563721C2 (ru) * 2009-12-23 2015-09-20 Дж.Д. С.п.А. Разгрузочный блок упаковочной машины, изготавливающей контейнеры для табачных изделий
RU2619059C2 (ru) * 2012-07-27 2017-05-11 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов и способ обнаружения трехмерных объектов

Also Published As

Publication number Publication date
WO2000046743A1 (en) 2000-08-10
JP2002536646A (ja) 2002-10-29
NZ513232A (en) 2003-06-30
EP1157355A4 (en) 2005-06-29
ATE360858T1 (de) 2007-05-15
TR200102222T2 (tr) 2001-12-21
NO20013726L (no) 2001-09-20
CN1339137A (zh) 2002-03-06
KR20010113663A (ko) 2001-12-28
CN1206610C (zh) 2005-06-15
NO20013726D0 (no) 2001-07-30
IL144588A0 (en) 2002-05-23
US6754368B1 (en) 2004-06-22
AUPP839199A0 (en) 1999-02-25
HK1042152A1 (zh) 2002-08-02
DE60034555D1 (de) 2007-06-06
EP1157355A1 (en) 2001-11-28
IL144588A (en) 2009-07-20
BR0007899A (pt) 2001-10-23
ZA200106386B (en) 2002-02-11
CA2361486A1 (en) 2000-08-10
EP1157355B1 (en) 2007-04-25
DE60034555T2 (de) 2007-12-27

Similar Documents

Publication Publication Date Title
RU2251739C2 (ru) Система распознавания объектов и слежения за ними
US10909695B2 (en) System and process for detecting, tracking and counting human objects of interest
US20050012817A1 (en) Selective surveillance system with active sensor management policies
Nissimov et al. Obstacle detection in a greenhouse environment using the Kinect sensor
US6816186B2 (en) Automatic zone monitoring
RU2001121986A (ru) Система распознавания объектов и слежения за ними
US11475671B2 (en) Multiple robots assisted surveillance system
Khan et al. Tracking in uncalibrated cameras with overlapping field of view
JP2004531842A (ja) サーベイランスシステムおよび監視システムに関する方法
JP2004534315A (ja) 移動対象物を監視する方法およびシステム
JP2004537790A (ja) 移動対象物評価システムおよび方法
Snidaro et al. Automatic camera selection and fusion for outdoor surveillance under changing weather conditions
CN113486777A (zh) 一种目标对象的行为分析方法、装置、电子设备及存储介质
US20020052708A1 (en) Optimal image capture
Arsic et al. Applying multi layer homography for multi camera person tracking
JPH09130781A (ja) 広域監視装置
AU760298B2 (en) Object recognition and tracking system
Ling et al. A multi-pedestrian detection and counting system using fusion of stereo camera and laser scanner
Llorca et al. Assistive pedestrian crossings by means of stereo localization and rfid anonymous disability identification
KR102603692B1 (ko) 전자 태그를 이용한 입국장 내 우범 여행자 실시간 추적 시스템 및 방법
Lo Presti et al. Activity Monitoring Made Easier by Smart 360-degree Cameras
Ablameyko Formalization of People and Crowd Detection and Tracking for Smart Video Surveillance
AU2022353189A1 (en) Image-based subject individuation and monitoring
WO2021152053A1 (en) A surveillance sensor system
KR20230135962A (ko) 영상의 사람 계수장치 및 방법

Legal Events

Date Code Title Description
PD4A Correction of name of patent owner
PC41 Official registration of the transfer of exclusive right

Effective date: 20190521