RU2310289C2 - Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения - Google Patents

Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения Download PDF

Info

Publication number
RU2310289C2
RU2310289C2 RU2004110724/09A RU2004110724A RU2310289C2 RU 2310289 C2 RU2310289 C2 RU 2310289C2 RU 2004110724/09 A RU2004110724/09 A RU 2004110724/09A RU 2004110724 A RU2004110724 A RU 2004110724A RU 2310289 C2 RU2310289 C2 RU 2310289C2
Authority
RU
Russia
Prior art keywords
video data
digital video
source
current
difference ratio
Prior art date
Application number
RU2004110724/09A
Other languages
English (en)
Other versions
RU2004110724A (ru
Inventor
Джин Артур ГРИНДСТАФФ (US)
Джин Артур ГРИНДСТАФФ
Термэн Уод МАККЕЙ III (US)
Термэн Уод МАККЕЙ III
Сузан Хит Кэлвин ФЛЕТЧЕР (US)
Сузан Хит Кэлвин ФЛЕТЧЕР
Original Assignee
Интегрэф Софтвеа Текнолоджис Кампэни
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Интегрэф Софтвеа Текнолоджис Кампэни filed Critical Интегрэф Софтвеа Текнолоджис Кампэни
Publication of RU2004110724A publication Critical patent/RU2004110724A/ru
Application granted granted Critical
Publication of RU2310289C2 publication Critical patent/RU2310289C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Of Color Television Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)

Abstract

Изобретение относится к анализу телевизионных изображений и может быть использовано в системах видеонаблюдения. Технический результат - разделение цифровых видеоданных, которые выдаются несколькими источниками, достигается тем, что набор цифровых видеоданных от первого источника, представляющих первое изображение, идентифицирован как образцовые видеоданные первого источника. Затем берется второй набор цифровых видеоданных, представляющих текущее изображение. Вычисляется разностное отношение с использованием образцовых цифровых видеоданных и текущего набора цифровых видеоданных. Если разностное отношение превышает порог, пользователю системы представляется на дисплее запрос для получения ответа о том, принадлежат ли текущие цифровые видеоданные к идентифицированному источнику, или они исходят от нового источника. Если в ответе есть указание на новый источник, то текущий набор цифровых видеоданных направляется для хранения во вторую ячейку памяти, связанную со вторым источником. Затем этот текущий набор цифровых видеоданных идентифицируется как образцовые цифровые видеоданные для второго источника. 5 н. и 30 з.п. ф-лы, 9 ил.

Description

Область техники, к которой относится изобретение
Настоящее изобретение относится к анализу телевизионных изображений. В частности, настоящее изобретение относится к разделению неиндексированного потока сигнала телевизионного изображения.
Уровень техники
В предшествующем уровне технике известно объединение выходных сигналов нескольких камер наблюдения с образованием видеосигнала, представляющего собой комбинированный сигнал, состоящий из выходных сигналов камер. Обычно объединение изображений производится последовательно, когда один или более кадров какой-либо камеры вводится в видеосерию (видеопоследовательность), а затем мультиплексор добавляет один или более кадров от следующей камеры. Число кадров, взятых от каждой камеры, определяется подаваемым на мультиплексор сигналом синхронизации, числом камер и скоростью съемки. Также в уровне техники используется цифровое представление видеосигнала и идентификация изображений, поступающих от каждой камеры в объединенном видеосигнале. В уровне техники, однако, эта процедура выполняется последовательно, то есть изображения, получаемые от одной камеры, идентифицируются путем сопоставления по всему массиву оцифрованного видеосигнала. Другими словами, для получения видеосигналов для всех N камер требуется N просмотров видеосигнала. Кроме того, в таких системах производится только прямое сопоставление изображений. Например, после того, как первое изображение идентифицировано и связано (ассоциировано) с первой камерой, выполняется сравнение для каждого из других изображений в видеосигнале. Если во время съемки произойдет изменение в поле зрения первой камеры и в результате возникнут значительные отличия по сравнению с первым изображением, система отвергнет изображение как не отождествляемое, даже если это изображение должно быть ассоциировано с этой камерой. Таким образом, в известных системах не обеспечивается надежное распознавание движения, происходящего перед камерой. Более того, подобные системы не подходят для камер, ведущих панорамную съемку, в которых сцена в поле зрения камеры непрерывно меняется. Таким образом, требуется система, в которой возможно проведение параллельной обработки сигналов со всех камер по оцифрованному видеосигналу за один проход. Также нужен способ, обеспечивающий работу с камерами панорамной съемки, и соответствующая система. Кроме того, требуется система, в которой не происходит сброса кадров при разделении сигналов и обеспечивается распознавание движения в поле зрения камеры.
Раскрытие изобретения
В одном из вариантов выполнения изобретения предлагается способ разделения цифровых видеоданных, исходящих от нескольких источников, в котором в объединяемых изображениях нет индексации, либо отсутствуют идентификационные данные, позволяющие разделить источники. Источниками обычно являются камеры, которые могут быть неподвижными или подвижными - поворачивающимися, что обычно используется в системах наблюдения. Первый набор цифровых видеоданных, представляющих первое изображение, извлекается из запоминающего устройства или из видеомагнитофонной записи. Первый набор цифровых видеоданных сохраняют в ячейке памяти, связанной (ассоциированной) с первым источником. Первый набор видеоданных также идентифицируется как образцовые видеоданные, представляющие первый источник. Затем получают второй набор цифровых видеоданных, представляющих текущее изображение. Вычисляют разностное отношение с использованием образцовых цифровых видеоданных и набора цифровых видеоданных текущего изображения. Если разностное отношение превосходит пороговую величину (далее - "порог"), пользователю системы представляется на дисплее запрос для получения ответа о том, принадлежат ли текущие цифровые видеоданные к идентифицированному источнику, или они исходят от нового источника. В том случае, если в ответе на запрос указывается, что текущий набор цифровых видеоданных относится к новому источнику, текущий набор цифровых видеоданных сохраняют во второй ячейке памяти, связанной со вторым источником. Затем этот текущий набор цифровых видеоданных идентифицируется как образцовые видеоданные для второго источника.
Если разностное отношение находится ниже порога, текущие цифровые видеоданные сохраняют в ячейке памяти, связанной с первым источником, при этом текущий набор цифровых видеоданных теперь становится образцовыми видеоданными для первого источника. В некоторых вариантах выполнения, перед вычислением разностного отношения производят нормализацию цифровых видеоданных для компенсации разницы в яркости. Если имеется несколько источников, и источники идентифицированы и имеют ассоциированные образцовые кадры, разностное отношение рассчитывают для каждого образцового кадра, и каждое разностное отношение сравнивают с порогом. Если разностное отношение, соответствующее образцовому кадру источника, находится ниже порога, текущий кадр цифровых видеоданных принимается за новый образцовый кадр для данного источника.
В некоторых вариантах выполнения цифровые видеоданные, хранящиеся в качестве образцового кадра, подвергают сжатию перед хранением. В таких вариантах выполнения, текущие цифровые видеоданные, представляющие текущий видеокадр, также подвергают сжатию перед вычислением разностного отношения.
В других вариантах выполнения пользователь может направить сигнал, содержащий информацию, представляющую часть изображения. Данные, находящиеся в этой части изображения, представляют собой данные, которые используются для сравнения и в которых одни и те же части текущего кадра и части каждого образцового кадра используются в расчете разностного отношения.
Описанная выше методика отличается тем, что принадлежность всех кадров из массива данных к источнику может быть определена за один проход по массиву данных. Описанная методика может быть реализована в компьютерном программном продукте, использующем компьютерный код, читаемый компьютером.
Данный способ может быть осуществлен в устройстве, состоящем из модулей. Устройство может быть частью системы, включающей камеру и процессор для приема каждого видеосигнала и объединения сигнала в объединенный видеосигнал. Система может дополнительно включать память для хранения объединенного и разделенного видеосигналов. В этой системе процессор получает запрос на разделение и процессор разделяет объединенный видеосигнал за один проход по объединенному видеосигналу. Система может включать модуль приема для приема первого набора цифровых видеоданных, представляющих первое изображение, и приема текущего набора видеоданных, представляющих текущее изображение. Далее, система должна иметь модуль памяти, вычислительный модуль и модуль запросов. Вычислительный модуль вычисляет разностное отношение с использованием первого набора цифровых видеоданных и текущего набора цифровых видеоданных, а модуль памяти хранит первый набор цифровых видеоданных в ячейке памяти, связанной с первым источником. Модуль запросов вырабатывает запрос на дисплее, требующий ответа относительно принадлежности цифровых видеоданных идентифицированному источнику или их происхождения от нового источника, если разностное отношение превышает порог.
Модуль памяти также направляет текущий набор цифровых видеоданных для хранения во вторую ячейку памяти, связанную со вторым источником, в соответствии с полученным ответом, указывающим, что текущий набор цифровых видеоданных связан с новым источником. Если разностное отношение имеет значение ниже порога, модуль памяти направляет текущие цифровые видеоданные для хранения в ячейку памяти, связанную с первым источником. Система может также включать модуль нормализации для нормализации цифровых видеоданных для компенсации разницы в яркости перед выдачей цифровых видеоданных в вычислительный модуль для расчета разностного отношения. В этой системе вычислительный модуль является средством вычисления разностного отношения для каждого образцового набора цифровых видеоданных, представляющего источник, и текущего набора цифровых видеоданных, а модуль запросов является средством сравнения разностного отношения с пороговой величиной.
Краткое описание чертежей
Признаки изобретения станут более понятны при ознакомлении с приведенным ниже подробным описанием вместе с приложенными чертежами, на которых:
Фиг.1 представляет конфигурацию системы для реализации первого варианта выполнения для разделения телевизионных изображений;
Фиг.2 представляет блок-схему, иллюстрирующую последовательность разделения телевизионных кадров от нескольких камер из потока кадров телевизионного изображения;
Фиг.3 представляет блок-схему, иллюстрирующую дополнительные особенности разделения телевизионных кадров;
Фиг.4 представляет кадр сравнения, изображенный на дисплее, а прямоугольник с линиями показывает выделенную пользователем зону;
Фиг.5 представляет текущий кадр, изображенный на дисплее, и показывает, что та же выделенная пользователем зона, что и на Фиг.4, используется для сравнения;
Фиг.6 показывает три камеры (камера 1, камера 2 и камера 3), вырабатывающие последовательность объединенных телевизионных кадров, где изображение от каждой камеры вводится в последовательность через промежутки времени;
Фиг.7 и 8 показывает выбранную пользователем область, представляющую интерес, в которой воспроизводятся дата и время;
Фиг.8 иллюстрирует вариант выполнения изобретения, в котором модули представлены в виде аппаратных средств, выполняющих функции заявляемого способа.
Осуществление изобретения
В приведенном ниже тексте под термином "цифровой видеосигнал" подразумевают представление в цифровой форме последовательности сигналов изображений, которые могут быть последовательно воспроизведены на дисплее. Обычно цифровой видеосигнал содержит несколько кадров, каждый из которых воспроизводит отдельное изображение. Кадры, в свою очередь, могут быть также разделены, представляя собой совокупность пикселов. В приведенном тексте термином "пиксел" обозначается одна точка изображения. Чем большее число пикселов содержится в изображении, тем выше разрешающая способность телевизионного изображения. Разрешающая способность обычно описывается количеством пикселов по длине и ширине, например разрешающая способность 800×600 соответствует 800 пикселам по длине изображения и 600 пикселам по ширине изображения.
В варианте выполнения настоящего изобретения, телевизионные изображения в потоке изображений, формируемые несколькими источниками видеосигнала, разделяются таким образом, что изображение от конкретного источника может быть передано, проанализировано и выведено для просмотра.
На Фиг.1 представлена конфигурация системы для осуществления варианта выполнения изобретения. На Фиг.1 показано несколько камер (Камера А, Камера В и Камера С). Каждая камера вырабатывает видеосигнал, содержащий видеоинформацию, которая объединяется и хранится либо в цифровой форме в запоминающем устройстве, объединенном с процессором 20, либо в цифровой или аналоговой форме на ленте 25. Объединенная (мультиплексированная) информация не содержит ни заголовков, идентифицирующих источник, ни каких-либо индексов для идентификации источника. Затем объединенная информация разделяется (демультиплексируется) процессором. Если видеоинформация представлена в аналоговой форме, то сначала производится ее преобразование в цифровую форму посредством аналого-цифрового преобразования, хорошо знакомого специалистам среднего уровня. После оцифровки последовательность цифровых данных передается в процессор. Сигналы изображения могут быть, а могут и не быть подвергнуты сжатию и представлены в формате полей или кадров. Аналогично, цифровой видеосигнал может быть представлен любым из имеющихся способов передачи цвета, включая RGB и YUV. Процессор выполняет операции по разделению цифрового видеосигнала в соответствии с блок-схемой на Фиг.2 и 3. Следует иметь в виду, что в рамках настоящего раскрытия термин "кадр" используется для обозначения телевизионного изображения, которое должно воспроизводиться в течение заданного промежутка времени. Настоящее раскрытие в равной степени применимо к телевизионным полям, формируемым для дисплеев, использующих для формирования изображения через строчную развертку.
На Фиг.2 и 3 показано разделение видеосигналов от нескольких источников 100. Первый кадр телевизионного сигнала в цифровом видеосигнале анализируется и сохраняется в ячейке памяти 110. Этот кадр по умолчанию обозначается как кадр сравнения для первого источника, которым в данном варианте выполнения является камера 1. Кадр сравнения представляет кадр, с которым будет сопоставляться текущий кадр. В одном из вариантов выполнения кадр, который может быть кадром в стандарте NTSC, перед операцией сравнения подвергается уменьшению до, например, 1/8 своего исходного размера перед занесением в память. Уменьшение размера кадра может осуществляться просто исключением пикселов. Например, для уменьшения числа пикселов в 4 раза в изображении размером 800×600 пикселов следует исключить пикселы через один, в результате чего остается 400×300 пикселов. В другом варианте выполнения объем данных может быть сокращен посредством усреднения. Например, каждые восемь рядов по восемь пикселов могут быть усреднены так, что 64 пиксела сводятся к одному пикселу. Затем из цифрового видеосигнала собирается следующий кадр ("текущий кадр").
Затем для кадра сравнения выделяется выбранная область пользователя. Эта выбранная область используется для сопоставления выбранной области кадра сравнения с такой же выбранной областью текущего кадра. В некоторых вариантах выполнения выбранной областью по умолчанию является весь кадр, и никакого взаимодействия с пользователем системы не требуется. Перед сравнением кадра сравнения и текущего кадра производится нормализация выбранных областей кадров, чтобы исключить из сравнения любые изменения в яркости/интенсивности. Например, производится вычисление значения средней интенсивности для пикселов в выбранной области пользователя в кадре сравнения и в той же области в текущем кадре. Затем величина интенсивности для каждого пиксела делится на среднее значение интенсивности для соответствующей выбранной области пользователя. На этом шаге производится нормализация величин в связи с любыми изменениями яркости, например, из-за внезапных вспышек света. Например, если камерой производится мониторинг банкомата и к банкомату приближается автомашина, фары которой внезапно освещают обозреваемое пространство, такое изменение освещенности будет учтено. Подобная нормализация может быть выполнена любым известным способом, включая использование для выбранной области пользователя вместо средней интенсивности среднеквадратического значения.
Затем, используя выбранную область пользователя, на шаге 130 производят сравнение текущего кадра с той же областью кадра сравнения. На Фиг.4 и 5 приведен пример, где на Фиг.4 представлен кадр 200 сравнения, изображаемый на дисплее 250, с выбранной областью 275А пользователя, выделенной прямоугольником с координатной сеткой. На Фиг.5 представлен текущий кадр 201, изображенный на дисплее 250, и показано, что та же выбранная область 275В пользователя на экране дисплея, что и на Фиг.4, используется для сравнения. В варианте выполнения, в котором кадр сравнения перед сохранением подвергался уменьшению в размерах, текущий кадр перед операцией сравнения подвергается сокращению размера. Благодаря уменьшению размера телевизионных кадров сокращается требуемый объем памяти и средняя частота возникновения ошибок, что снижает дрожание изображения.
Разностные отношения между текущим кадром и каждым кадром сравнения идентифицируемого источника (камеры) вычисляются на шаге 130. Вычисляется сумма абсолютной величины различия между пикселами текущего кадра и пикселами кадра сравнения в выбранной области пользователя и делится затем на сумму значений интенсивности по пикселам текущего кадра в выбранной области пользователя. Это отношение представляет различие между текущим кадром и кадром сравнения для данной камеры. В первой итерации, поскольку здесь выполняется идентификация только одного источника, производится вычисление разностного отношения только для образцовых данных от камеры 1. Самое низкое значение разностного отношения сравнивается с пороговым значением, установленным пользователем. Если на шаге 140 самое низкое значение разностного отношения оказывается ниже установленного пользователем порога, текущий кадр определяется как приходящий от источника, ассоциирующегося с наименьшим значением разностного отношения. В одном из вариантов выполнения текущий кадр, соотнесенный с источником, затем копируется в кадр сравнения соответствующей камеры и этот кадр на шаге 150 заносится в память. Процесс замены кадра сравнения на текущий кадр способствует идентификации источника, поскольку при этом сводится к минимуму воздействие постепенно происходящих изменений, например изменения освещенности при смене дня и ночи и поворота поля зрения камеры.
Если минимальное значение разностного отношения равно установленному пользователем пороговому значению или превышает его, пользователю предлагается идентифицировать кадр. Текущий кадр и последние кадры сравнения для каждой камеры выводятся на дисплей пользователя на шаге 170, чтобы пользователь мог визуально сравнить кадры. Текущий кадр может быть кадром от нового источника или кадром от источника, который уже был идентифицирован, либо представлять ошибочные данные, которые следует пропустить.
Если пользователь на шаге 210 идентифицирует кадр как кадр от нового источника, т.е., камеры, до этого не идентифицированной, то кадр копируется как кадр сравнения нового источника, и кадр записывается в память как первый кадр новой камеры. Если пользователь на шаге 180 идентифицирует кадр как соответствующий существующему источнику, то кадр копируется в кадр сравнения соответствующего источника на шаге 150 и затем выдается в качестве соответствующего источника. Если пользователь идентифицирует кадр как ошибочные данные, которые должны быть пропущены (шаг 190), кадр отбрасывается (шаг 200) и обработка продолжается. Процесс повторяется с шага 160, пока не будут обработаны все кадры и операция разделения не закончится на шаге 250. Надо отметить, что после того, как каждая камера идентифицирована и кадр сравнения ассоциирован с камерой-источником, сравнения будут производиться между текущим кадром и кадром сравнения каждого источника.
В системах наблюдения создание объединенного телевизионного изображения производится таким образом, что кадр или несколько кадров от каждой камеры сохраняются в памяти последовательно (камера 1, камера 2 и т.д.). В результате, после обработки первых нескольких кадров обычно происходит идентификация всех камер. К пользователю в этом случае обращаются только, когда кадр не согласуется ни с одним из существующих источников. Рассогласование может быть вызвано воздействием шумов, либо искажением кадра телевизионного изображения, и данные могут быть пропущены, или может быть идентифицирован источник, который хранит искаженные или зашумленные кадры. Рассогласование может возникнуть, если в кадре происходят значительные изменения, например, когда через выбранную область двигается большой объект.
В конкретном варианте выполнения настоящего изобретения пользователь может изменить порог. Например, повышение порога может быть выгодным, если возникают излишне частые обращения к оператору, когда изображения от общего источника не идентифицируются надлежащим образом. В таком варианте выполнения текущий порог вместе с текущими разностными отношениями выводится на дисплей пользователю и пользователь может либо выбрать один из нескольких заранее определенных порогов, либо пользователь может ввести порог вручную.
В другом варианте выполнения имеются два разных порога, с которыми сравниваются разностные отношения. Первый порог, как описано выше, используется для определения соответствия текущего изображения какой-либо из камер. Второй порог определяет уровень, при превышении которого кадры должны отбрасываться. Если превышается второй порог, данные, ассоциированные с соответствующим изображением, автоматически отбрасываются. Второй порог имеет величину, превышающую величину первого порога, которая может быть установлена на основе изучения предыдущего опыта работы или путем эксперимента.
В одном из вариантов выполнения изобретения телевизионный сигнал от камер 300, 301, 302, которые производят съемку пространства, последовательно сканируя его, разделяется, как показано на Фиг.6. В этом варианте выполнения при установке порога для привязки изображения к камере учитываются временные изменения в изображениях при осуществлении обзора камерой. Например, на Фиг.6 показаны три камеры (камера 1, камера 2 и камера 3), вырабатывающие последовательность объединенных телевизионных кадров 320, где к этой последовательности постепенно добавляются изображения от каждой камеры. После того, как кадр от всех трех камер был сохранен в составе последовательности, процесс повторяется. На Фиг.6 изображения от камеры 1 появляются в моменты Т0 и Т3. Как показано на Фиг.6, если изображение от момента времени Т0 сдвинется на три пиксела за счет перемещения камеры за время между Т0 и Т3, и изображения налагаются, большая часть пикселов изображения в момент Т0 перекроется с изображением в момент Т3. Посредством замены кадра сравнения на текущий кадр и использования обновленного кадра сравнения в процедуре сравнения сводится к минимуму величина смещения между кадром сравнения и текущим кадром, благодаря чему нет необходимости в использовании более сложных методов сопровождения и сравнения изображений. Если скорость перемещения камеры невысока по сравнению с интервалом между моментами сохранения изображений, то выбор порога может быть согласован со скоростью перемещения.
В других вариантах выполнения для того, чтобы учесть перемещение поля зрения камеры, перед выполнением сравнения с текущим кадром производится смещение пикселов кадра сравнения. Кроме того, в процессе сравнения текущее изображение может быть сдвинуто несколько раз в нескольких направлениях при вычислении разностного отношения и проведении сравнения отношения с порогом. Далее, можно предугадать направление перемещения на основе анализа тенденции, когда направление движения определяется с учетом предшествующего движения того же источника. Таким образом, отслеживая направление движения, можно сократить число сдвигов ячеек хранения данных и операций сравнения.
В другом конкретном варианте выполнения порог устанавливается для отдельной камеры таким образом, что производится идентификация движения или изменений в кадре за счет изменений в поле зрения камеры, и только эти кадры сохраняются в ячейках памяти телевизионного изображения. В этом варианте выполнения используется тот же способ сравнения, но текущий кадр и кадры сравнения хранятся в оперативной памяти, а кадры, которые превосходят порог, хранятся в постоянной памяти, связанной с системой. В другом варианте при превышении порога изображение предъявляется пользователю системы и на экране дисплея ему предлагается определить, следует ли направлять кадр для хранения в постоянной памяти.
В некоторых обстоятельствах телевизионные кадры перед выполнением сравнения с текущим кадром могут быть разделены по времени и/или дате. В некоторых системах мультиплексирования, где в качестве камер применяются цифровые камеры, например использующие ПЗС (приборы с зарядовыми связями), поток цифровых данных, содержащий кадр в цифровой форме, перед цифровым сигналом телевизионного кадра может содержать отметку времени и даты. В этом случае хранение и разделение кадров может проводиться в соответствии с датой и временем. В других системах мультиплексирования, где камеры вырабатывают аналоговый сигнал с наложенным сигналом даты и времени, или в которых цифровые камеры вводят дату и время в пределы цифрового кадра, телевизионные кадры могут быть разделены по времени и дате. В этом варианте выполнения после того, как видеосигнал оцифрован, на дисплей выведены дата и время, производится определение выбранной области контроля. Если телевизионные кадры должны разделяться по времени, выбранная область пользователя может представлять собой час 400А, показанный на Фиг.7, и при каждом изменении в этой области телевизионного кадра данные телевизионного кадра сохраняются в новой ячейке памяти, ассоциирующейся с этим часом. Аналогично, заданной пользователем выбранной областью является день месяца 400В, как это показано на выведенных на телевизионный дисплей 410 цифровых данных изображения (Фиг.8). В этом случае система может постоянно отслеживать изменения в дате в определенной пользователем выбранной области, превышающие порог, для идентификации кадров, относящихся к различным дням месяца.
На Фиг.9 представлен другой вариант выполнения изобретения, где изобретение имеет форму устройства 500. Устройство 500 может быть электронным устройством, например модулем на базе программируемой пользователем вентильной матрицы (FPGA), либо чипом специализированной интегральной схемы (ASIC). Устройство 500 содержит модуль 501 приема, который получает цифровые данные 550 изображения. Цифровые данные изображения включают кадры видеоданных от различных источников. Модуль 501 приема получает первый набор цифровых видеоданных, представляющий первое изображение, и также принимает текущий набор цифровых видеоданных, представляющих текущее изображение. Модуль 501 приема передает первый набор цифровых данных в модуль 502 памяти. Модуль 502 памяти направляет для хранения в запоминающее устройство 560 первый набор цифровых видеоданных в ячейку памяти, связанную с первым источником 561. Эти данные также идентифицируются как образцовые видеоданные первого источника. Модуль 501 приема передает первый набор цифровых видеоданных вместе с текущим набором цифровых видеоданных в вычислительный модуль 503. Вычислительный модуль 503 вычисляет разностное отношение, используя первый набор цифровых видеоданных и текущий набор цифровых видеоданных, как это было описано выше. Если было идентифицировано более одного источника, принимаются цифровые видеоданные для каждого образцового кадра для источника, и для каждого производится вычисление разностного отношения. Разностное отношение(я) направляется в модуль 504 запросов. Модуль 504 запросов сравнивает разностное отношение(я) с порогом. Если разностное отношение для образцового кадра источника оказывается ниже порога, то текущий кадр ассоциируется с этим источником.
Затем цифровые видеоданные сохраняются в памяти, связанной с идентифицированным источником 562. Например, если разностное отношение для образцового кадра 4-го источника находится ниже порога, текущие цифровые видеоданные будут ассоциированы с этим источником. Кроме того, текущий кадр станет образцовым кадром 4-го источника.
Если значения всех разностных отношений превышают порог, модуль 504 запросов направляет запрос в дисплей 510 с предложением пользователю устройства классифицировать текущую цифровую видеоинформацию как относящуюся к идентифицированному источнику или исходящую из нового источника. Таким путем пользователь получает на дисплей 510 сообщение, что текущий кадр видеоданных не может быть безусловно ассоциирован с конкретным источником, поскольку разностное отношение превышает порог. Пользователь может, используя устройство 511 ввода, например клавиатуру или мышь, соединенные с устройством, направить ответ, которым определит, принадлежит ли текущий кадр первому источнику или другому ранее идентифицированному источнику, следует ли ассоциировать его с новым источником, либо он должен быть отброшен. Модуль 504 запросов получает эту информацию и дает команду модулю 502 памяти сохранить текущие цифровые видеоданные для текущего телевизионного кадра в ячейке памяти с идентифицированным источником. Пользователю системы на дисплей выводится текущее изображение, а также каждый образцовый кадр для источника. Это позволяет пользователю выполнять визуальное сравнение, способствуя процессу идентификации.
Следует понимать, что если пользователь идентифицирует текущие цифровые видеоданные как приходящие от нового источника, текущие цифровые видеоданные будут ассоциированы с ячейкой памяти, связанной с новым источником. В устройство также может быть включен модуль 505 нормализации. Модуль нормализации нормализует цифровые видеоданные текущего телевизионного кадра при сравнении с образцовыми телевизионными кадрами. Как было показано выше, нормализация цифровых видеоданных позволяет учесть изменения в освещенности сцены при смене дня и ночи. Нормализация производится перед вычислением разностного отношения.
Следует отметить, что блок-схемы используются здесь для иллюстрации различных особенностей изобретения и не должны восприниматься как ограничивающие настоящее изобретение какой-либо конкретной логической схемой или вариантом выполнения. Описанная логическая схема может быть разделена на отдельные логические группы (например, программы, модули, функции или подпрограммы) без изменения общих результатов или какого-либо иного отклонения от истиной области притязаний изобретения. Зачастую логические элементы могли добавляться, модифицироваться, исключаться, выполняться в ином порядке или выполняться с использованием других логических структур (например, логических вентилей, циклических базисных элементов и иных логических структур) без изменения общих результатов или какого-либо иного отклонения от истиной области притязаний изобретения.
Настоящее изобретение может быть выполнено во многих различных формах, включая компьютерную программную логику для использования с процессором (например, микропроцессором, микроконтроллером, процессором цифрового сигнала или компьютером общего назначения), программируемую логику для использования с программируемым логическим устройством (например, программируемой пользователем вентильной матрицы (FPGA) или иным программируемым логическим устройством), дискретные компоненты, интегральные схемы (например, специализированные интегральные схемы (ASIC)), либо любые иные средства, включая любые их комбинации, но и не ограничиваясь ими.
Компьютерная программная логика, выполняющая все или часть функций, описанных выше, может быть реализована в различных формах, например в форме исходного кода, в форме, исполняемой компьютером, и различных промежуточных формах (например, формах, генерируемых ассемблером, компилятором или устройством ввода позиций), не ограничиваясь только ими. Исходный код может включать последовательности команд компьютерных программ, реализованных на любом из различных языков программирования (например, объектная программа, язык ассемблера, или язык высокого уровня, например Fortran, С, C++, JAVA или язык HTML) для использования с различными операционными системами или операционными средами. Исходный код может определять и использовать различные структуры данных и сообщений. Исходный код может быть в исполняемой компьютером форме (например, посредством интерпретирующей программы), либо исходный код может быть преобразован (например, посредством транслятора, ассемблера или компилятора) в код, исполняемый компьютером.
Компьютерная программа может быть записана в любой форме (например, в форме исходного кода, форме, исполняемой компьютером, либо промежуточной форме), либо постоянно, либо временно в среде запоминающего устройства (например, RAM, ROM, PROM, EEPROM или программируемая RAM с групповой перезаписью), в устройстве с магнитной памятью (например, дискета или несъемный диск), в оптическом запоминающем устройстве (например, CD-ROM), на PC-карте (например, карте ассоциации PCNCIA), или в другом запоминающем устройстве. Компьютерная программа может быть записана в любой форме в сигнале, который может передаваться к компьютеру с использованием различных способов связи, включая аналоговую связь, цифровую связь, оптическую связь, беспроводную связь, связь в сети и связь между сетями. Компьютерные программы могут распространяться в любой форме с использованием переносимой среды хранения с сопровождающей документацией в печатной или электронной форме (например, программы, упакованные в термоусадочную пленку, или магнитная лента), быть предустановленными в системе компьютера (например, в постоянной памяти системы или несъемном диске) или распространяться с сервера или электронной системы телеконференцсвязи по системе связи (например, Internet или Всемирной Сети).
Логические устройства (включая программируемую логику для использования с программируемыми логическими устройствами), выполняющие все или часть функций, описанных выше, могут быть разработаны с использованием традиционных методов вручную, либо могут быть разработаны, каптированы, смоделированы, либо представлены в виде электронного документа, с использованием различных инструментов, например автоматизированного проектирования (CAD), языка описания аппаратных средств (например, VHDL или AHDL), либо языка программирования программируемых логических устройств (например, PALASM, ABEL или CUPL).
Настоящее изобретение может быть выполнено в иных конкретных формах в пределах области притязаний изобретения. Описанные варианты выполнения не имеют ограничивающего характера и должны рассматриваться во всех отношениях только в качестве примера.

Claims (35)

1. Способ идентификации цифровых видеоданных от нескольких источников, отличающийся тем, что получают первый набор цифровых видеоданных, представляющих первое изображение, сохраняют их в ячейке памяти, ассоциированной с первым источником, являющимся идентифицированным источником, в виде образцовых цифровых видеоданных первого источника, получают текущий набор цифровых видеоданных, представляющих текущее изображение, после чего вычисляют разностное отношение, представляющее различие между образцовыми цифровыми видеоданными и текущим набором цифровых видеоданных, посредством вычисления величины различия между пикселами соответствующих им изображений, и при превышении разностным отношением его заданной пороговой величины формируют на дисплее запрос относительно определения принадлежности текущих цифровых видеоданных к идентифицированному источнику или их исхождения от нового источника, причем указанные источники, ячейка памяти и дисплей связывают посредством процессора.
2. Способ по п.1, отличающийся тем, что запрос направляют на дисплей от процессора и при получении им ответа на запрос, указывающего на связь текущего набора цифровых видеоданных с новым источником, дополнительно сохраняют текущий набор цифровых видеоданных во второй ячейке памяти, ассоциированной со вторым источником, в виде образцовых цифровых видеоданных второго источника.
3. Способ по п.1, отличающийся тем, что при разностном отношении ниже его заданной пороговой величины сохраняют текущие цифровые видеоданные в виде новых образцовых цифровых видеоданных для первого источника в ячейке памяти, ассоциированной с первым источником.
4. Способ по п.1, отличающийся тем, что перед вычислением разностного отношения дополнительно осуществляют нормализацию образцовых и текущих цифровых видеоданных для компенсации разницы в яркости соответствующих пикселов этих видеоданных и исключения ее из указанного вычисления величины различия между пикселами.
5. Способ по п.1, отличающийся тем, что формируют наборы образцовых цифровых видеоданных для разных источников и дополнительно осуществляют вычисление разностного отношения для каждого набора образцовых цифровых видеоданных от источника и текущего набора цифровых видеоданных и сравнивают каждое разностное отношение с его заданной пороговой величиной.
6. Способ по п.5, отличающийся тем, что дополнительно осуществляют идентификацию источника, для которого значение разностного отношения ниже его заданной пороговой величины, и осуществляют идентификацию текущего набора цифровых видеоданных как образцового набора цифровых видеоданных для этого источника.
7. Способ по п.1, отличающийся тем, что наборы видеоданных подвергают сжатию с уменьшением требуемого ими объема памяти, причем первый набор видеоданных - перед сохранением, а текущий набор цифровых видеоданных - перед определением разностного отношения.
8. Способ по п.1, отличающийся тем, что дополнительно выделяют в первом изображении выбранную пользователем часть и принимают сигнал, содержащий информацию о соответствующей части текущего изображения, и используют в вычислении разностного отношения одни и те же части текущего и образцового изображений.
9. Способ по п.1, отличающийся тем, что при разностном отношении ниже его заданной пороговой величины дополнительно осуществляют идентификацию текущего изображения как образцового изображения источника, причем набор данных для образцового изображения используют для выполнения сравнений с набором данных для последующих изображений.
10. Способ по п.1, отличающийся тем, что при идентификации каждого из различных порождающих видеоданные источников, набор данных, представляющих текущее изображение, сохраняют как образцовое изображение для этого источника.
11. Способ по п.1, отличающийся тем, что источниками являются неподвижные камеры наблюдения.
12. Способ по п.1, отличающийся тем, что источниками являются поворачивающиеся камеры наблюдения.
13. Способ по п.1, отличающийся тем, что посредством процессора дополнительно принимают направляемый пользователем сигнал, содержащий информацию, представляющую заданную пороговую величину указанного разностного отношения.
14. Способ идентификации цифровых видеоданных от нескольких источников, отличающийся тем, что получают первый набор цифровых видеоданных, представляющих изображение, сохраняют их в ячейке памяти, ассоциированной с первым источником, в виде образцовых цифровых видеоданных первого источника, получают текущий набор цифровых видеоданных, представляющих текущее изображение, выбирают подгруппу из первого набора цифровых видеоданных и выбирают подгруппу из текущего набора цифровых видеоданных, причем подгруппа из первого набора и подгруппа из текущего набора имеют одинаковые расположения пикселов, затем вычисляют разностное отношение, представляющее различие между подгруппой из первого набора и подгруппой из текущего набора, посредством вычисления величины различия между пикселами соответствующих им изображений, причем при превышении разностного отношения его заданной пороговой величины формируют на дисплее запрос относительно принадлежности текущих цифровых видеоданных к идентифицированному источнику или их исхождения от нового источника, и при этом указанные источники, ячейку памяти и дисплей связывают посредством процессора.
15. Способ по п.14, отличающийся тем, что запрос направляют на дисплей от процессора и при получении им ответа на запрос, указывающий на связь текущего набора цифровых видеоданных с новым источником, дополнительно сохраняют текущий набор цифровых видеоданных во второй ячейке памяти, ассоциированной с новым источником, в виде образцовых цифровых видеоданных нового источника.
16. Способ по п.14, отличающийся тем, что при разностном отношении ниже его заданной пороговой величины сохраняют текущие цифровые видеоданные в виде новых образцовых цифровых видеоданных для первого источника в ячейке памяти, ассоциированной с первым источником.
17. Способ по п.14, отличающийся тем, что перед вычислением разностного отношения дополнительно осуществляют нормализацию образцовых и текущих цифровых видеоданных для компенсации разницы в яркости соответствующих пикселов этих видеоданных, и исключения ее из указанного вычисления величины различия между пикселами.
18. Способ по п.14, отличающийся тем, что формируют наборы образцовых цифровых видеоданных для разных источников и дополнительно осуществляют вычисление разностного отношения для каждого набора образцовых цифровых видеоданных от источника и текущего набора цифровых видеоданных и сравнивают каждое разностное отношение с его заданной пороговой величиной.
19. Способ по п.14, отличающийся тем, что дополнительно осуществляют идентификацию источника, для которого значение разностного отношения ниже его заданной пороговой величины, и осуществляют идентификацию текущего набора цифровых видеоданных как образцового набора цифровых видеоданных для источника.
20. Способ по п.14, отличающийся тем, что наборы видеоданных подвергают сжатию с уменьшением требуемого ими объема памяти, причем первый набор видеоданных - перед сохранением, а текущий набор цифровых видеоданных - перед определением разностного отношения.
21. Способ по п.14, отличающийся тем, что при разностном отношении ниже его заданной пороговой величины дополнительно осуществляют идентификацию текущего изображения как образцового изображения источника, причем набор данных для образцового изображения используют для выполнения сравнений с набором данных для последующих изображений.
22. Способ по п.14, отличающийся тем, что при идентификации каждого из различных порождающих видеоданные источников, набор данных, представляющих текущее изображение, сохраняют как образцовое изображение для этого источника.
23. Способ по п.14, отличающийся тем, что источниками являются неподвижные камеры наблюдения.
24. Способ по п.14, отличающийся тем, что источниками являются поворачивающиеся камеры наблюдения.
25. Способ по п.14, отличающийся тем, что посредством процессора дополнительно принимают направляемый пользователем сигнал, содержащий информацию, представляющую заданную пороговую величину разностного отношения.
26. Способ идентификации цифровых видеоданных от нескольких источников, отличающийся тем, что принимают объединенную цифровую видеосерию, включающую ряд кадров, анализируют и сравнивают цифровые данные пикселов различных кадров объединенной цифровой видеосерии, на основе чего каждый кадр идентифицируют с источником в процессе одного прохода по объединенной цифровой видеосерии.
27. Способ по п.26, отличающийся тем, что при сравнении цифровых видеоданных от проанализированных кадров, пикселы первого проанализированного кадра сравнивают с пикселами второго проанализированного кадра, и если второй проанализированный кадр идентифицируется как исходящий из того же источника, что и первый проанализированный кадр, второй проанализированный кадр идентифицируют как образцовый кадр этого источника.
28. Способ по п.27, отличающийся тем, что образцовый кадр используют для сравнения с третьим проанализированным кадром и на основе сравнения пикселов этих кадров определяют, исходит ли третий проанализированный кадр из этого источника.
29. Система телевизионного наблюдения, отличающаяся тем, что она содержит группу камер для выдачи видеосигнала, процессор для приема каждого видеосигнала и объединения сигнала в объединенный видеосигнал, запоминающее устройство для хранения объединенного видеосигнала, дисплей, связанный с процессором с возможностью вывода на дисплей запроса о принадлежности текущего видеосигнала, средство ввода, связанное с процессором с возможностью направления в процессор запроса от пользователя на разделение и разделения объединенных видеосигналов за один проход по объединенному видеосигналу.
30. Устройство для идентификации цифровых видеоданных от нескольких источников, отличающееся тем, что оно содержит модуль приема, связанный с источниками с возможностью получения первого набора цифровых видеоданных, представляющих первое изображение, и получения текущего набора цифровых видеоданных, представляющих текущее изображение, модуль памяти для хранения первого набора цифровых видеоданных, полученных от модуля приема, в ячейке памяти, ассоциированной с первым источником, являющимся идентифицированным источником, вычислительный модуль для вычисления разностного отношения, представляющего различие между образцовыми цифровыми видеоданными и текущим набором цифровых видеоданных, посредством вычисления величины различия между пикселами соответствующих им изображений, дисплей и модуль запросов, связанный с вычислительным модулем и дисплеем с возможностью формирования запроса на дисплее и получения ответа о принадлежности цифровых видеоданных к идентифицированному источнику или исхождения их от нового источника при превышении разностным отношением его заданной пороговой величины.
31. Устройство по п.30, отличающееся тем, что модуль памяти подключен с возможностью направления текущего набора цифровых видеоданных на хранение во вторую ячейку памяти, ассоциированную со вторым источником, в соответствии с полученным ответом, указывающий, что текущий набор цифровых видеоданных связан с новым источником.
32. Устройство по п.30, отличающееся тем, что модуль памяти подключен с возможностью направления текущих цифровых видеоданных на хранение в ячейку памяти, ассоциированную с первым источником при значении разностного отношения ниже его заданной пороговой величины.
33. Устройство по п.30, отличающееся тем, что оно дополнительно содержит связанный с вычислительным модулем модуль нормализации образцовых и текущих цифровых видеоданных для компенсации различий в яркости соответствующих пикселов этих видеоданных и исключения их из вычисления величины различия между пикселами.
34. Устройство по п.30, отличающийся тем, что вычислительный модуль является средством вычисления разностного отношения для каждого образцового набора цифровых видеоданных, представляющих источник, и текущего набора видеоданных, а модуль запросов также является средством сравнения разностного отношения с заданной пользователем его пороговой величиной.
35. Устройство по п.30, отличающееся тем, что модуль запросов является также средством идентификации источника, для которого величина разностного отношения ниже его заданной пороговой величины, а модуль памяти является средством ассоциирования текущего набора цифровых видеоданных с идентифицированным источником.
RU2004110724/09A 2001-09-07 2002-09-06 Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения RU2310289C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US31816401P 2001-09-07 2001-09-07
US60/318164 2001-09-07

Publications (2)

Publication Number Publication Date
RU2004110724A RU2004110724A (ru) 2005-09-27
RU2310289C2 true RU2310289C2 (ru) 2007-11-10

Family

ID=23236945

Family Applications (3)

Application Number Title Priority Date Filing Date
RU2004110724/09A RU2310289C2 (ru) 2001-09-07 2002-09-06 Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения
RU2004110722/09A RU2308816C2 (ru) 2001-09-07 2002-09-06 Способ (варианты) и система стабилизации изображения
RU2004110723/09A RU2308761C2 (ru) 2001-09-07 2002-09-06 Система для обнаружения первого объекта, скрытого вторым объектом, способ визуального отображения первого объекта и способ представления на экране дисплея данных первого объекта

Family Applications After (2)

Application Number Title Priority Date Filing Date
RU2004110722/09A RU2308816C2 (ru) 2001-09-07 2002-09-06 Способ (варианты) и система стабилизации изображения
RU2004110723/09A RU2308761C2 (ru) 2001-09-07 2002-09-06 Система для обнаружения первого объекта, скрытого вторым объектом, способ визуального отображения первого объекта и способ представления на экране дисплея данных первого объекта

Country Status (15)

Country Link
US (6) US6654049B2 (ru)
EP (3) EP1430444B1 (ru)
KR (3) KR100927918B1 (ru)
CN (4) CN1299240C (ru)
AU (3) AU2002335713B2 (ru)
BR (3) BR0212546A (ru)
CA (3) CA2459823C (ru)
CO (3) CO5570718A2 (ru)
HK (3) HK1069470A1 (ru)
IL (4) IL160760A0 (ru)
MX (3) MXPA04002209A (ru)
NZ (3) NZ531976A (ru)
RU (3) RU2310289C2 (ru)
WO (3) WO2003024095A1 (ru)
ZA (2) ZA200401972B (ru)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2473138C2 (ru) * 2008-02-13 2013-01-20 Долби Лэборетериз Лайсенсинг Корпорейшн Временная фильтрация видеосигналов
RU2575648C2 (ru) * 2010-04-09 2016-02-20 Хонейвелл Интернэшнл Инк. Способ и устройство видеоконтроля

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL160760A0 (en) 2001-09-07 2004-08-31 Intergraph Hardware Tech Co Image stabilization using color matching
US7489802B2 (en) * 2002-09-10 2009-02-10 Zeev Smilansky Miniature autonomous agents for scene interpretation
JP4307910B2 (ja) * 2003-03-07 2009-08-05 富士フイルム株式会社 動画像切り出し装置および方法並びにプログラム
JP3768968B2 (ja) 2003-03-28 2006-04-19 株式会社エヌ・ティ・ティ・ドコモ 通信端末及びプログラム
JP4017578B2 (ja) * 2003-09-19 2007-12-05 三洋電機株式会社 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体
US7840067B2 (en) * 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
US7506267B2 (en) * 2003-12-23 2009-03-17 Intel Corporation Compose rate reduction for displays
US7616220B2 (en) * 2003-12-23 2009-11-10 Intel Corporation Spatio-temporal generation of motion blur
KR100562119B1 (ko) * 2004-04-29 2006-03-21 삼성탈레스 주식회사 동영상의 특성을 이용한 이미지의 정렬 방법
US7671916B2 (en) * 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
WO2006023863A1 (en) 2004-08-23 2006-03-02 Intergraph Software Technologies Company Real-time image stabilization
US20060120615A1 (en) * 2004-12-06 2006-06-08 Huiqiong Wang Frame compensation for moving imaging devices
CN101228549B (zh) * 2005-03-31 2012-10-17 本田技研工业株式会社 文件管理系统、文件管理方法
US7952612B2 (en) * 2006-06-22 2011-05-31 Nokia Corporation Method and system for image construction using multiple exposures
US20090010617A1 (en) * 2007-07-05 2009-01-08 International Business Machines Corporation Method and Apparatus for Optimizing Space Allocations for Digital Video Recordings
KR101392732B1 (ko) 2007-08-20 2014-05-08 삼성전자주식회사 손떨림에 의한 움직임 추정 장치 및 방법, 그를 이용한영상 촬상 장치
KR101268987B1 (ko) * 2007-09-11 2013-05-29 삼성전자주식회사 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치
US7800652B2 (en) * 2007-12-12 2010-09-21 Cyberlink Corp. Reducing video shaking
WO2009078132A1 (ja) * 2007-12-18 2009-06-25 Panasonic Corporation 画像再生装置、画像再生方法及び画像再生プログラム
US8457371B2 (en) * 2008-04-18 2013-06-04 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8164655B2 (en) * 2008-05-19 2012-04-24 Spatial Cam Llc Systems and methods for concurrently playing multiple images from a storage medium
US20100026822A1 (en) * 2008-07-31 2010-02-04 Itt Manufacturing Enterprises, Inc. Multiplexing Imaging System for Area Coverage and Point Targets
JP5233708B2 (ja) * 2009-02-04 2013-07-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8458105B2 (en) * 2009-02-12 2013-06-04 Decisive Analytics Corporation Method and apparatus for analyzing and interrelating data
US20100235314A1 (en) * 2009-02-12 2010-09-16 Decisive Analytics Corporation Method and apparatus for analyzing and interrelating video data
EP2355037A1 (en) * 2009-12-18 2011-08-10 Nxp B.V. Method of and system for determining an average colour value for pixels
WO2011149558A2 (en) 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate
CN102457701B (zh) * 2010-11-02 2014-03-12 华为终端有限公司 图像显示处理方法及装置
JP4932027B1 (ja) * 2010-11-15 2012-05-16 株式会社ナナオ 映像表示方法およびそれを用いた液晶表示装置
JP6122269B2 (ja) 2011-12-16 2017-04-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10715817B2 (en) 2012-12-19 2020-07-14 Nvidia Corporation Apparatus and method for enhancing motion estimation based on user input
US9530310B2 (en) 2013-11-01 2016-12-27 Xerox Corporation Method and system for detecting and tracking a vehicle of interest utilizing a network of traffic image-capturing units
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
CN104599226B (zh) * 2015-02-14 2017-05-10 安徽大学 一种大容量隐写方法
US10019737B2 (en) * 2015-04-06 2018-07-10 Lewis Beach Image processing device and method
US10033926B2 (en) 2015-11-06 2018-07-24 Google Llc Depth camera based image stabilization
CN105282400B (zh) * 2015-11-20 2018-07-13 北京理工大学 一种基于几何插值的高效视频稳定方法
US11386759B2 (en) 2016-05-09 2022-07-12 Herbert S Kobayashi Three level detector signal for multicamera video alarm system for remote monitoring and method
US10679477B2 (en) 2016-05-09 2020-06-09 Herbert S Kobayashi Multicamera video alarm system for remote monitoring and method
KR101818129B1 (ko) * 2017-04-25 2018-01-12 동국대학교 산학협력단 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법
CN110114748A (zh) * 2017-10-09 2019-08-09 华为技术有限公司 一种显示处理方法及电子设备
US11526970B2 (en) * 2019-09-04 2022-12-13 Samsung Electronics Co., Ltd System and method for video processing with enhanced temporal consistency
JP7209653B2 (ja) * 2020-02-05 2023-01-20 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
CN111312127B (zh) * 2020-02-24 2023-07-28 北京京东方光电科技有限公司 旋转显示屏的显示画面调整方法及装置、旋转显示屏
US11620967B2 (en) * 2020-03-16 2023-04-04 Lewis S. Beach Image processing device and method
CN113534281A (zh) * 2020-04-14 2021-10-22 深圳市博利凌科技有限公司 用于感测物体表面之后隐藏物位置的扫描仪及方法

Family Cites Families (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3652790A (en) 1970-01-28 1972-03-28 Itt Search and tracking television system and method
US3891798A (en) 1971-03-19 1975-06-24 Rockwell International Corp Tracker unit
US3952151A (en) * 1973-08-13 1976-04-20 Trw Inc. Method and apparatus for stabilized reproduction of remotely-sensed images
FR2302004A5 (fr) 1973-08-31 1976-09-17 Thomson Csf Systeme de poursuite automatique d'une cible, procedant par analyse de contraste video
US3988533A (en) 1974-09-30 1976-10-26 Video Tek, Inc. Video-type universal motion and intrusion detection system
US4120004A (en) 1976-01-26 1978-10-10 Coutta John M Surveillance system
US4405940A (en) 1977-05-31 1983-09-20 Westinghouse Electric Corp. Apparatus and method for preprocessing video frame signals
NL7801727A (nl) 1978-02-16 1979-08-20 Hollandse Signaalapparaten Bv Drempelspanningsselectieschakeling.
EP0028933A3 (en) 1979-11-09 1981-06-03 Ascotts Ltd. Surveillance system
US4603430A (en) * 1984-09-21 1986-07-29 Hughes Aircraft Company Target discrimination utilizing median filters
JPS61166289A (ja) * 1985-01-18 1986-07-26 Hitachi Ltd 画像伝送システム
JP2528789B2 (ja) * 1985-06-26 1996-08-28 中央電子 株式会社 映像情報管理装置
DE3750703T2 (de) * 1986-03-25 1995-03-30 Nippon Oils & Fats Co Ltd Transparenter optischer Gegenstand und Verfahren zu seiner Herstellung.
DE3634414C2 (de) * 1986-10-09 1994-12-08 Thomson Brandt Gmbh Fernsehkamera mit einem Target
JPH0695008B2 (ja) 1987-12-11 1994-11-24 株式会社東芝 監視装置
KR920010034B1 (en) 1988-03-31 1992-11-13 Toshiba Co Ltd Image track display apparatus
GB2220319B (en) * 1988-07-01 1992-11-04 Plessey Co Plc Improvements in or relating to image stabilisation
JP2563567B2 (ja) * 1989-03-20 1996-12-11 松下電器産業株式会社 揺れ補正装置
KR910004009A (ko) 1989-07-27 1991-02-28 강진구 비디오 카메라의 자동촬영장치
US5175694A (en) 1990-02-08 1992-12-29 The United States Of America As Represented By The Secretary Of The Navy Centroid target tracking system utilizing parallel processing of digital data patterns
KR100204101B1 (ko) 1990-03-02 1999-06-15 가나이 쓰도무 화상처리장치
US5030984A (en) * 1990-07-19 1991-07-09 Eastman Kodak Company Method and associated apparatus for minimizing the effects of motion in the recording of an image
JP2863818B2 (ja) * 1990-08-31 1999-03-03 工業技術院長 動画像の変化点検出方法
US5243418A (en) 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
EP0508476B1 (en) * 1991-04-12 1996-12-11 Victor Company Of Japan, Limited Apparatus for detecting relative motion between contents of successive fields of a video signal
EP0520765B1 (en) 1991-06-25 1999-05-12 Canon Kabushiki Kaisha Movement vector detecting method/apparatus and encoding method/apparatus using such method/apparatus
US5164827A (en) 1991-08-22 1992-11-17 Sensormatic Electronics Corporation Surveillance system with master camera control of slave cameras
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US6469746B1 (en) * 1992-12-28 2002-10-22 Sanyo Electric Co., Ltd. Multi-vision screen adapter
WO1994017636A1 (en) 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
DE69434657T2 (de) * 1993-06-04 2007-02-15 Sarnoff Corp. System und Verfahren zur elektronischen Bildstabilisierung
JPH0773308A (ja) * 1993-09-03 1995-03-17 Matsushita Electric Ind Co Ltd デジタル画像処理装置
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
CA2125300C (en) * 1994-05-11 1999-10-12 Douglas J. Ballantyne Method and apparatus for the electronic distribution of medical information and patient services
DE4417128A1 (de) 1994-05-16 1995-12-14 Elnic Gmbh Bilderfassungs- und -verarbeitungsverfahren insbesondere zur Steuerung von Vorrichtungen sowie zugehöriges Bilderfassungs- und -verarbeitungssystem
US5635982A (en) 1994-06-27 1997-06-03 Zhang; Hong J. System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions
US20020186874A1 (en) * 1994-09-07 2002-12-12 Jeffrey H. Price Method and means for image segmentation in fluorescence scanning cytometry
JP2902966B2 (ja) * 1994-12-16 1999-06-07 三洋電機株式会社 手振れ補正装置およびそれを用いたビデオカメラ
KR960028217A (ko) 1994-12-22 1996-07-22 엘리 웨이스 움직임 검출 카메라 시스템 및 방법
JPH08186760A (ja) * 1994-12-28 1996-07-16 Philips Japan Ltd 画揺れ補正装置
JP3268953B2 (ja) 1995-02-27 2002-03-25 三洋電機株式会社 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置
US5821985A (en) * 1995-02-28 1998-10-13 Nec Corporation Multi-point videoconference system having a fixed control station for data transfer
JP3892059B2 (ja) 1995-03-07 2007-03-14 松下電器産業株式会社 動物体追跡装置
US5973733A (en) * 1995-05-31 1999-10-26 Texas Instruments Incorporated Video stabilization system and method
WO1997010564A1 (en) 1995-09-15 1997-03-20 Interval Research Corporation A method of compressing a plurality of video images
US6018562A (en) * 1995-11-13 2000-01-25 The United States Of America As Represented By The Secretary Of The Army Apparatus and method for automatic recognition of concealed objects using multiple energy computed tomography
KR100188116B1 (ko) * 1995-12-28 1999-06-01 김광호 손떨림 영상 안정화 회로
US6108576A (en) * 1996-03-18 2000-08-22 The Research Foundation Of City College Of New York Time-resolved diffusion tomographic 2D and 3D imaging in highly scattering turbid media
CA2173677C (en) * 1996-04-09 2001-02-20 Benoit Sevigny Processing image data
US5940139A (en) * 1996-08-07 1999-08-17 Bell Communications Research, Inc. Background extraction in a video picture
US5953055A (en) 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
US5915038A (en) * 1996-08-26 1999-06-22 Philips Electronics North America Corporation Using index keys extracted from JPEG-compressed images for image retrieval
US5974111A (en) * 1996-09-24 1999-10-26 Vivid Technologies, Inc. Identifying explosives or other contraband by employing transmitted or scattered X-rays
US5751378A (en) 1996-09-27 1998-05-12 General Instrument Corporation Scene change detector for digital video
US5822542A (en) 1996-10-31 1998-10-13 Sensormatic Electronics Corporation Electronic and structural components of an intelligent video information management apparatus
GB2321358A (en) 1997-01-20 1998-07-22 O E M Project Management Ltd Video security system coupled to a fax modem
JP3317176B2 (ja) * 1997-02-06 2002-08-26 松下電器産業株式会社 映像伝送装置
US6360022B1 (en) * 1997-04-04 2002-03-19 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two signal sequences
KR100554190B1 (ko) * 1997-06-03 2006-02-22 코닌클리케 필립스 일렉트로닉스 엔.브이. 텔레비전 프로그램 네비게이팅
JP4240554B2 (ja) * 1997-07-11 2009-03-18 ソニー株式会社 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法
US6128108A (en) * 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
JPH1185654A (ja) * 1997-09-12 1999-03-30 Matsushita Electric Ind Co Ltd 仮想wwwサーバ装置およびカメラ制御可能なwwwサーバ装置
GB2329541B (en) 1997-09-17 2002-05-29 Sony Uk Ltd Security control system
US5973723A (en) * 1997-12-12 1999-10-26 Deluca; Michael Joseph Selective commercial detector and eliminator apparatus and method
US6363380B1 (en) 1998-01-13 2002-03-26 U.S. Philips Corporation Multimedia computer system with story segmentation capability and operating program therefor including finite automation video parser
US6151336A (en) * 1998-02-11 2000-11-21 Sorrento Networks, Inc. Time division multiplexing expansion subsystem
US6795112B1 (en) * 1998-03-13 2004-09-21 General Instrument Corp. Composite video multiplexing scheme
US6847737B1 (en) * 1998-03-13 2005-01-25 University Of Houston System Methods for performing DAF data filtering and padding
US6211913B1 (en) * 1998-03-23 2001-04-03 Sarnoff Corporation Apparatus and method for removing blank areas from real-time stabilized images by inserting background information
GB9813632D0 (en) 1998-06-24 1998-08-26 Robinson Alan W Outside televised broadcast shadow compensator
US6493041B1 (en) * 1998-06-30 2002-12-10 Sun Microsystems, Inc. Method and apparatus for the detection of motion in video
US6714909B1 (en) * 1998-08-13 2004-03-30 At&T Corp. System and method for automated multimedia content indexing and retrieval
US6459822B1 (en) * 1998-08-26 2002-10-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Video image stabilization and registration
US6741656B1 (en) * 1998-12-16 2004-05-25 Matsushita Electric Industrial Co., Ltd. Image communication apparatus
CN1116649C (zh) * 1998-12-23 2003-07-30 皇家菲利浦电子有限公司 个性化视频分类与获取系统
EP1081960B1 (en) 1999-01-29 2007-12-19 Sony Corporation Signal processing method and video/voice processing device
KR20010108159A (ko) * 1999-01-29 2001-12-07 다니구찌 이찌로오, 기타오카 다카시 화상 특징 부호화 방법 및 화상 검색 방법
KR100442991B1 (ko) * 1999-02-01 2004-08-04 주식회사 팬택앤큐리텔 트리구조의 동영상 색인 기술자를 이용한 검색장치 및 그 방법
EP1161837A1 (en) * 1999-03-16 2001-12-12 Central Research Laboratories Limited Closed circuit television (cctv) camera and system
FR2794880B1 (fr) * 1999-06-10 2001-12-14 Philippe Crochat Procede automatique de suivi d'une cible en mouvement par une camera electronique et dispositif pour sa mise en oeuvre
US6476858B1 (en) 1999-08-12 2002-11-05 Innovation Institute Video monitoring and security system
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
US6683995B2 (en) * 1999-12-23 2004-01-27 Eastman Kodak Company Method and apparatus for correcting large defects in digital images
JP2003519410A (ja) * 1999-12-30 2003-06-17 アプライド、サイエンス、フィクシャン、インク 可視光を使用してデジタルフィルムを現像するための改良されたシステムおよび方法
JP2004514156A (ja) * 2000-02-03 2004-05-13 アプライド・サイエンス・フィクション フィルム処理液カートリッジ、および、フィルムを現像しかつディジタル化するための方法
WO2001095028A2 (en) * 2000-02-03 2001-12-13 Applied Science Fiction Method and system for self-service film processing
AU2001239745A1 (en) * 2000-02-03 2001-08-14 Applied Science Fiction Method, system, and software for signal processing using pyramidal decomposition
JP2001243477A (ja) * 2000-02-29 2001-09-07 Toshiba Corp 動画像による交通量解析装置
AU3948701A (en) * 2000-03-10 2001-09-17 Infotech Ag Digital feature separation
US20040125877A1 (en) 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
DE20104329U1 (de) 2001-03-14 2001-05-31 Vtq Videotronik Gmbh Überwachungseinrichtung mit Sensoren
US20020168091A1 (en) * 2001-05-11 2002-11-14 Miroslav Trajkovic Motion detection via image alignment
TWI236294B (en) 2001-05-11 2005-07-11 Ulead Systems Inc Method and device for capturing digital video
US6525658B2 (en) * 2001-06-11 2003-02-25 Ensco, Inc. Method and device for event detection utilizing data from a multiplicity of sensor sources
US6805501B2 (en) * 2001-07-16 2004-10-19 Eastman Kodak Company System and method for digital film development using visible light
US20050007452A1 (en) * 2001-09-07 2005-01-13 Mckay Therman Ward Video analyzer
IL160760A0 (en) * 2001-09-07 2004-08-31 Intergraph Hardware Tech Co Image stabilization using color matching
US6831590B1 (en) * 2001-09-12 2004-12-14 Cyterra Corporation Concealed object detection
US6816622B2 (en) * 2001-10-18 2004-11-09 Microsoft Corporation Generating resized images using ripple free image filtering
US6944331B2 (en) * 2001-10-26 2005-09-13 National Instruments Corporation Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching
EP1316933B1 (en) 2001-11-28 2006-08-09 Matsushita Electric Industrial Co., Ltd. Home security system
US6999613B2 (en) 2001-12-28 2006-02-14 Koninklijke Philips Electronics N.V. Video monitoring and surveillance systems capable of handling asynchronously multiplexed video
RU2005126623A (ru) 2003-01-23 2006-01-27 Интегрэф Хадвеа Текнолоджис Кампэни (US) Способ демультиплексирования видеоизображений (варианты)
US7486318B2 (en) * 2003-06-23 2009-02-03 Sony Corporation Method, apparatus, and program for processing an image
US7840067B2 (en) * 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
US7587086B2 (en) * 2004-06-04 2009-09-08 Microsoft Corporation Identifying selected pixels in a digital image
WO2006023863A1 (en) * 2004-08-23 2006-03-02 Intergraph Software Technologies Company Real-time image stabilization

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2473138C2 (ru) * 2008-02-13 2013-01-20 Долби Лэборетериз Лайсенсинг Корпорейшн Временная фильтрация видеосигналов
US8493313B2 (en) 2008-02-13 2013-07-23 Dolby Laboratories Licensing Corporation Temporal filtering of video signals
RU2575648C2 (ru) * 2010-04-09 2016-02-20 Хонейвелл Интернэшнл Инк. Способ и устройство видеоконтроля

Also Published As

Publication number Publication date
CA2459821C (en) 2011-01-11
IL160758A0 (en) 2004-08-31
CN1593061A (zh) 2005-03-09
BR0212375A (pt) 2006-03-01
EP1428378A1 (en) 2004-06-16
CA2459732A1 (en) 2003-04-10
CA2459823C (en) 2012-04-03
EP1430444B1 (en) 2013-05-08
CO5650190A2 (es) 2006-06-30
IL160759A0 (en) 2004-08-31
US20080095437A1 (en) 2008-04-24
RU2308816C2 (ru) 2007-10-20
AU2002335713B2 (en) 2008-08-28
RU2004110722A (ru) 2005-09-27
AU2002336445B2 (en) 2007-11-01
WO2003024095A1 (en) 2003-03-20
CO5580855A2 (es) 2005-11-30
CN1299240C (zh) 2007-02-07
IL160759A (en) 2010-04-15
ZA200401970B (en) 2007-01-31
BR0212377A (pt) 2006-10-03
RU2004110723A (ru) 2005-09-27
BRPI0212377B1 (pt) 2015-10-27
KR100927918B1 (ko) 2009-11-19
WO2003030103A1 (en) 2003-04-10
US7436437B2 (en) 2008-10-14
US20030048359A1 (en) 2003-03-13
HK1069470A1 (en) 2005-05-20
EP1428378B1 (en) 2013-03-20
US6654049B2 (en) 2003-11-25
US20030048282A1 (en) 2003-03-13
HK1073038A1 (en) 2005-09-16
US7310110B2 (en) 2007-12-18
EP1428389A1 (en) 2004-06-16
NZ531974A (en) 2005-08-26
ZA200401972B (en) 2004-09-15
CN1554073A (zh) 2004-12-08
BRPI0212375B1 (pt) 2016-05-24
RU2004110724A (ru) 2005-09-27
US8233044B2 (en) 2012-07-31
EP1430444A1 (en) 2004-06-23
CA2459823A1 (en) 2003-03-20
KR100919340B1 (ko) 2009-09-25
CA2459821A1 (en) 2003-03-20
BR0212546A (pt) 2006-05-23
KR20040048408A (ko) 2004-06-09
KR100888095B1 (ko) 2009-03-11
US7079701B2 (en) 2006-07-18
RU2308761C2 (ru) 2007-10-20
MXPA04002209A (es) 2005-02-17
AU2002327612B2 (en) 2008-01-17
CN101072364B (zh) 2012-05-09
IL160760A0 (en) 2004-08-31
WO2003030103A8 (en) 2005-01-06
CN100359923C (zh) 2008-01-02
KR20040054679A (ko) 2004-06-25
US20060215926A1 (en) 2006-09-28
NZ531975A (en) 2007-11-30
CO5570718A2 (es) 2005-10-31
US20040061786A1 (en) 2004-04-01
MXPA04002211A (es) 2005-02-17
US20030048947A1 (en) 2003-03-13
WO2003024112A1 (en) 2003-03-20
KR20040047814A (ko) 2004-06-05
MXPA04002210A (es) 2005-02-17
NZ531976A (en) 2007-07-27
HK1074726A1 (en) 2005-11-18
US7477797B2 (en) 2009-01-13
CA2459732C (en) 2017-07-11
CN100559873C (zh) 2009-11-11
CN101072364A (zh) 2007-11-14
CN1554184A (zh) 2004-12-08

Similar Documents

Publication Publication Date Title
RU2310289C2 (ru) Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения
AU2002327612A1 (en) Method, device and computer program product for demultiplexing of video images
US8891826B2 (en) Image processing system, image processing method, and computer program
US6297846B1 (en) Display control system for videoconference terminals
US8144207B2 (en) Computer program product for photographic subject tracking, photographic subject tracking device, and camera
CN109299703B (zh) 对鼠情进行统计的方法、装置以及图像采集设备
US9036977B2 (en) Automatic detection, removal, replacement and tagging of flash frames in a video
US9344640B2 (en) Imaging device, integrated circuit, and flicker reduction method
US11302045B2 (en) Image processing apparatus, image providing apparatus,control methods thereof, and medium
KR20170038144A (ko) 어텐션 검출 장치 및 어텐션 검출 방법
JP7084795B2 (ja) 画像処理装置、画像提供装置、それらの制御方法及びプログラム
ZA200506054B (en) Video analyzer
JP3227179B2 (ja) 動物体検出および追跡処理方式
JP2000020722A (ja) 動画像中の物体抽出装置及び方法
KR100537028B1 (ko) 실시간 물체추출 시스템 및 방법
KR100225611B1 (ko) 스포츠 영상 효과장치
Ratnarajah et al. Forensic Video Analytic Software
JP2000348163A (ja) 物体検出装置および物体検出方法ならびに物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体
JP2012137829A (ja) 画像処理装置及びその制御方法、並びにプログラム
JPH0981714A (ja) 画像処理装置及びその方法
JPS63187393A (ja) 画像センサ

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20170907