RU2310289C2 - Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения - Google Patents
Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения Download PDFInfo
- Publication number
- RU2310289C2 RU2310289C2 RU2004110724/09A RU2004110724A RU2310289C2 RU 2310289 C2 RU2310289 C2 RU 2310289C2 RU 2004110724/09 A RU2004110724/09 A RU 2004110724/09A RU 2004110724 A RU2004110724 A RU 2004110724A RU 2310289 C2 RU2310289 C2 RU 2310289C2
- Authority
- RU
- Russia
- Prior art keywords
- video data
- digital video
- source
- current
- difference ratio
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 48
- 230000004044 response Effects 0.000 claims abstract description 10
- 238000000926 separation method Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 abstract description 2
- 239000000126 substance Substances 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 210000004027 cell Anatomy 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229920006300 shrink film Polymers 0.000 description 1
- 210000000352 storage cell Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Facsimile Image Signal Circuits (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Of Color Television Signals (AREA)
- Color Television Image Signal Generators (AREA)
- Spectrometry And Color Measurement (AREA)
- Studio Devices (AREA)
- Studio Circuits (AREA)
Abstract
Изобретение относится к анализу телевизионных изображений и может быть использовано в системах видеонаблюдения. Технический результат - разделение цифровых видеоданных, которые выдаются несколькими источниками, достигается тем, что набор цифровых видеоданных от первого источника, представляющих первое изображение, идентифицирован как образцовые видеоданные первого источника. Затем берется второй набор цифровых видеоданных, представляющих текущее изображение. Вычисляется разностное отношение с использованием образцовых цифровых видеоданных и текущего набора цифровых видеоданных. Если разностное отношение превышает порог, пользователю системы представляется на дисплее запрос для получения ответа о том, принадлежат ли текущие цифровые видеоданные к идентифицированному источнику, или они исходят от нового источника. Если в ответе есть указание на новый источник, то текущий набор цифровых видеоданных направляется для хранения во вторую ячейку памяти, связанную со вторым источником. Затем этот текущий набор цифровых видеоданных идентифицируется как образцовые цифровые видеоданные для второго источника. 5 н. и 30 з.п. ф-лы, 9 ил.
Description
Область техники, к которой относится изобретение
Настоящее изобретение относится к анализу телевизионных изображений. В частности, настоящее изобретение относится к разделению неиндексированного потока сигнала телевизионного изображения.
Уровень техники
В предшествующем уровне технике известно объединение выходных сигналов нескольких камер наблюдения с образованием видеосигнала, представляющего собой комбинированный сигнал, состоящий из выходных сигналов камер. Обычно объединение изображений производится последовательно, когда один или более кадров какой-либо камеры вводится в видеосерию (видеопоследовательность), а затем мультиплексор добавляет один или более кадров от следующей камеры. Число кадров, взятых от каждой камеры, определяется подаваемым на мультиплексор сигналом синхронизации, числом камер и скоростью съемки. Также в уровне техники используется цифровое представление видеосигнала и идентификация изображений, поступающих от каждой камеры в объединенном видеосигнале. В уровне техники, однако, эта процедура выполняется последовательно, то есть изображения, получаемые от одной камеры, идентифицируются путем сопоставления по всему массиву оцифрованного видеосигнала. Другими словами, для получения видеосигналов для всех N камер требуется N просмотров видеосигнала. Кроме того, в таких системах производится только прямое сопоставление изображений. Например, после того, как первое изображение идентифицировано и связано (ассоциировано) с первой камерой, выполняется сравнение для каждого из других изображений в видеосигнале. Если во время съемки произойдет изменение в поле зрения первой камеры и в результате возникнут значительные отличия по сравнению с первым изображением, система отвергнет изображение как не отождествляемое, даже если это изображение должно быть ассоциировано с этой камерой. Таким образом, в известных системах не обеспечивается надежное распознавание движения, происходящего перед камерой. Более того, подобные системы не подходят для камер, ведущих панорамную съемку, в которых сцена в поле зрения камеры непрерывно меняется. Таким образом, требуется система, в которой возможно проведение параллельной обработки сигналов со всех камер по оцифрованному видеосигналу за один проход. Также нужен способ, обеспечивающий работу с камерами панорамной съемки, и соответствующая система. Кроме того, требуется система, в которой не происходит сброса кадров при разделении сигналов и обеспечивается распознавание движения в поле зрения камеры.
Раскрытие изобретения
В одном из вариантов выполнения изобретения предлагается способ разделения цифровых видеоданных, исходящих от нескольких источников, в котором в объединяемых изображениях нет индексации, либо отсутствуют идентификационные данные, позволяющие разделить источники. Источниками обычно являются камеры, которые могут быть неподвижными или подвижными - поворачивающимися, что обычно используется в системах наблюдения. Первый набор цифровых видеоданных, представляющих первое изображение, извлекается из запоминающего устройства или из видеомагнитофонной записи. Первый набор цифровых видеоданных сохраняют в ячейке памяти, связанной (ассоциированной) с первым источником. Первый набор видеоданных также идентифицируется как образцовые видеоданные, представляющие первый источник. Затем получают второй набор цифровых видеоданных, представляющих текущее изображение. Вычисляют разностное отношение с использованием образцовых цифровых видеоданных и набора цифровых видеоданных текущего изображения. Если разностное отношение превосходит пороговую величину (далее - "порог"), пользователю системы представляется на дисплее запрос для получения ответа о том, принадлежат ли текущие цифровые видеоданные к идентифицированному источнику, или они исходят от нового источника. В том случае, если в ответе на запрос указывается, что текущий набор цифровых видеоданных относится к новому источнику, текущий набор цифровых видеоданных сохраняют во второй ячейке памяти, связанной со вторым источником. Затем этот текущий набор цифровых видеоданных идентифицируется как образцовые видеоданные для второго источника.
Если разностное отношение находится ниже порога, текущие цифровые видеоданные сохраняют в ячейке памяти, связанной с первым источником, при этом текущий набор цифровых видеоданных теперь становится образцовыми видеоданными для первого источника. В некоторых вариантах выполнения, перед вычислением разностного отношения производят нормализацию цифровых видеоданных для компенсации разницы в яркости. Если имеется несколько источников, и источники идентифицированы и имеют ассоциированные образцовые кадры, разностное отношение рассчитывают для каждого образцового кадра, и каждое разностное отношение сравнивают с порогом. Если разностное отношение, соответствующее образцовому кадру источника, находится ниже порога, текущий кадр цифровых видеоданных принимается за новый образцовый кадр для данного источника.
В некоторых вариантах выполнения цифровые видеоданные, хранящиеся в качестве образцового кадра, подвергают сжатию перед хранением. В таких вариантах выполнения, текущие цифровые видеоданные, представляющие текущий видеокадр, также подвергают сжатию перед вычислением разностного отношения.
В других вариантах выполнения пользователь может направить сигнал, содержащий информацию, представляющую часть изображения. Данные, находящиеся в этой части изображения, представляют собой данные, которые используются для сравнения и в которых одни и те же части текущего кадра и части каждого образцового кадра используются в расчете разностного отношения.
Описанная выше методика отличается тем, что принадлежность всех кадров из массива данных к источнику может быть определена за один проход по массиву данных. Описанная методика может быть реализована в компьютерном программном продукте, использующем компьютерный код, читаемый компьютером.
Данный способ может быть осуществлен в устройстве, состоящем из модулей. Устройство может быть частью системы, включающей камеру и процессор для приема каждого видеосигнала и объединения сигнала в объединенный видеосигнал. Система может дополнительно включать память для хранения объединенного и разделенного видеосигналов. В этой системе процессор получает запрос на разделение и процессор разделяет объединенный видеосигнал за один проход по объединенному видеосигналу. Система может включать модуль приема для приема первого набора цифровых видеоданных, представляющих первое изображение, и приема текущего набора видеоданных, представляющих текущее изображение. Далее, система должна иметь модуль памяти, вычислительный модуль и модуль запросов. Вычислительный модуль вычисляет разностное отношение с использованием первого набора цифровых видеоданных и текущего набора цифровых видеоданных, а модуль памяти хранит первый набор цифровых видеоданных в ячейке памяти, связанной с первым источником. Модуль запросов вырабатывает запрос на дисплее, требующий ответа относительно принадлежности цифровых видеоданных идентифицированному источнику или их происхождения от нового источника, если разностное отношение превышает порог.
Модуль памяти также направляет текущий набор цифровых видеоданных для хранения во вторую ячейку памяти, связанную со вторым источником, в соответствии с полученным ответом, указывающим, что текущий набор цифровых видеоданных связан с новым источником. Если разностное отношение имеет значение ниже порога, модуль памяти направляет текущие цифровые видеоданные для хранения в ячейку памяти, связанную с первым источником. Система может также включать модуль нормализации для нормализации цифровых видеоданных для компенсации разницы в яркости перед выдачей цифровых видеоданных в вычислительный модуль для расчета разностного отношения. В этой системе вычислительный модуль является средством вычисления разностного отношения для каждого образцового набора цифровых видеоданных, представляющего источник, и текущего набора цифровых видеоданных, а модуль запросов является средством сравнения разностного отношения с пороговой величиной.
Краткое описание чертежей
Признаки изобретения станут более понятны при ознакомлении с приведенным ниже подробным описанием вместе с приложенными чертежами, на которых:
Фиг.1 представляет конфигурацию системы для реализации первого варианта выполнения для разделения телевизионных изображений;
Фиг.2 представляет блок-схему, иллюстрирующую последовательность разделения телевизионных кадров от нескольких камер из потока кадров телевизионного изображения;
Фиг.3 представляет блок-схему, иллюстрирующую дополнительные особенности разделения телевизионных кадров;
Фиг.4 представляет кадр сравнения, изображенный на дисплее, а прямоугольник с линиями показывает выделенную пользователем зону;
Фиг.5 представляет текущий кадр, изображенный на дисплее, и показывает, что та же выделенная пользователем зона, что и на Фиг.4, используется для сравнения;
Фиг.6 показывает три камеры (камера 1, камера 2 и камера 3), вырабатывающие последовательность объединенных телевизионных кадров, где изображение от каждой камеры вводится в последовательность через промежутки времени;
Фиг.7 и 8 показывает выбранную пользователем область, представляющую интерес, в которой воспроизводятся дата и время;
Фиг.8 иллюстрирует вариант выполнения изобретения, в котором модули представлены в виде аппаратных средств, выполняющих функции заявляемого способа.
Осуществление изобретения
В приведенном ниже тексте под термином "цифровой видеосигнал" подразумевают представление в цифровой форме последовательности сигналов изображений, которые могут быть последовательно воспроизведены на дисплее. Обычно цифровой видеосигнал содержит несколько кадров, каждый из которых воспроизводит отдельное изображение. Кадры, в свою очередь, могут быть также разделены, представляя собой совокупность пикселов. В приведенном тексте термином "пиксел" обозначается одна точка изображения. Чем большее число пикселов содержится в изображении, тем выше разрешающая способность телевизионного изображения. Разрешающая способность обычно описывается количеством пикселов по длине и ширине, например разрешающая способность 800×600 соответствует 800 пикселам по длине изображения и 600 пикселам по ширине изображения.
В варианте выполнения настоящего изобретения, телевизионные изображения в потоке изображений, формируемые несколькими источниками видеосигнала, разделяются таким образом, что изображение от конкретного источника может быть передано, проанализировано и выведено для просмотра.
На Фиг.1 представлена конфигурация системы для осуществления варианта выполнения изобретения. На Фиг.1 показано несколько камер (Камера А, Камера В и Камера С). Каждая камера вырабатывает видеосигнал, содержащий видеоинформацию, которая объединяется и хранится либо в цифровой форме в запоминающем устройстве, объединенном с процессором 20, либо в цифровой или аналоговой форме на ленте 25. Объединенная (мультиплексированная) информация не содержит ни заголовков, идентифицирующих источник, ни каких-либо индексов для идентификации источника. Затем объединенная информация разделяется (демультиплексируется) процессором. Если видеоинформация представлена в аналоговой форме, то сначала производится ее преобразование в цифровую форму посредством аналого-цифрового преобразования, хорошо знакомого специалистам среднего уровня. После оцифровки последовательность цифровых данных передается в процессор. Сигналы изображения могут быть, а могут и не быть подвергнуты сжатию и представлены в формате полей или кадров. Аналогично, цифровой видеосигнал может быть представлен любым из имеющихся способов передачи цвета, включая RGB и YUV. Процессор выполняет операции по разделению цифрового видеосигнала в соответствии с блок-схемой на Фиг.2 и 3. Следует иметь в виду, что в рамках настоящего раскрытия термин "кадр" используется для обозначения телевизионного изображения, которое должно воспроизводиться в течение заданного промежутка времени. Настоящее раскрытие в равной степени применимо к телевизионным полям, формируемым для дисплеев, использующих для формирования изображения через строчную развертку.
На Фиг.2 и 3 показано разделение видеосигналов от нескольких источников 100. Первый кадр телевизионного сигнала в цифровом видеосигнале анализируется и сохраняется в ячейке памяти 110. Этот кадр по умолчанию обозначается как кадр сравнения для первого источника, которым в данном варианте выполнения является камера 1. Кадр сравнения представляет кадр, с которым будет сопоставляться текущий кадр. В одном из вариантов выполнения кадр, который может быть кадром в стандарте NTSC, перед операцией сравнения подвергается уменьшению до, например, 1/8 своего исходного размера перед занесением в память. Уменьшение размера кадра может осуществляться просто исключением пикселов. Например, для уменьшения числа пикселов в 4 раза в изображении размером 800×600 пикселов следует исключить пикселы через один, в результате чего остается 400×300 пикселов. В другом варианте выполнения объем данных может быть сокращен посредством усреднения. Например, каждые восемь рядов по восемь пикселов могут быть усреднены так, что 64 пиксела сводятся к одному пикселу. Затем из цифрового видеосигнала собирается следующий кадр ("текущий кадр").
Затем для кадра сравнения выделяется выбранная область пользователя. Эта выбранная область используется для сопоставления выбранной области кадра сравнения с такой же выбранной областью текущего кадра. В некоторых вариантах выполнения выбранной областью по умолчанию является весь кадр, и никакого взаимодействия с пользователем системы не требуется. Перед сравнением кадра сравнения и текущего кадра производится нормализация выбранных областей кадров, чтобы исключить из сравнения любые изменения в яркости/интенсивности. Например, производится вычисление значения средней интенсивности для пикселов в выбранной области пользователя в кадре сравнения и в той же области в текущем кадре. Затем величина интенсивности для каждого пиксела делится на среднее значение интенсивности для соответствующей выбранной области пользователя. На этом шаге производится нормализация величин в связи с любыми изменениями яркости, например, из-за внезапных вспышек света. Например, если камерой производится мониторинг банкомата и к банкомату приближается автомашина, фары которой внезапно освещают обозреваемое пространство, такое изменение освещенности будет учтено. Подобная нормализация может быть выполнена любым известным способом, включая использование для выбранной области пользователя вместо средней интенсивности среднеквадратического значения.
Затем, используя выбранную область пользователя, на шаге 130 производят сравнение текущего кадра с той же областью кадра сравнения. На Фиг.4 и 5 приведен пример, где на Фиг.4 представлен кадр 200 сравнения, изображаемый на дисплее 250, с выбранной областью 275А пользователя, выделенной прямоугольником с координатной сеткой. На Фиг.5 представлен текущий кадр 201, изображенный на дисплее 250, и показано, что та же выбранная область 275В пользователя на экране дисплея, что и на Фиг.4, используется для сравнения. В варианте выполнения, в котором кадр сравнения перед сохранением подвергался уменьшению в размерах, текущий кадр перед операцией сравнения подвергается сокращению размера. Благодаря уменьшению размера телевизионных кадров сокращается требуемый объем памяти и средняя частота возникновения ошибок, что снижает дрожание изображения.
Разностные отношения между текущим кадром и каждым кадром сравнения идентифицируемого источника (камеры) вычисляются на шаге 130. Вычисляется сумма абсолютной величины различия между пикселами текущего кадра и пикселами кадра сравнения в выбранной области пользователя и делится затем на сумму значений интенсивности по пикселам текущего кадра в выбранной области пользователя. Это отношение представляет различие между текущим кадром и кадром сравнения для данной камеры. В первой итерации, поскольку здесь выполняется идентификация только одного источника, производится вычисление разностного отношения только для образцовых данных от камеры 1. Самое низкое значение разностного отношения сравнивается с пороговым значением, установленным пользователем. Если на шаге 140 самое низкое значение разностного отношения оказывается ниже установленного пользователем порога, текущий кадр определяется как приходящий от источника, ассоциирующегося с наименьшим значением разностного отношения. В одном из вариантов выполнения текущий кадр, соотнесенный с источником, затем копируется в кадр сравнения соответствующей камеры и этот кадр на шаге 150 заносится в память. Процесс замены кадра сравнения на текущий кадр способствует идентификации источника, поскольку при этом сводится к минимуму воздействие постепенно происходящих изменений, например изменения освещенности при смене дня и ночи и поворота поля зрения камеры.
Если минимальное значение разностного отношения равно установленному пользователем пороговому значению или превышает его, пользователю предлагается идентифицировать кадр. Текущий кадр и последние кадры сравнения для каждой камеры выводятся на дисплей пользователя на шаге 170, чтобы пользователь мог визуально сравнить кадры. Текущий кадр может быть кадром от нового источника или кадром от источника, который уже был идентифицирован, либо представлять ошибочные данные, которые следует пропустить.
Если пользователь на шаге 210 идентифицирует кадр как кадр от нового источника, т.е., камеры, до этого не идентифицированной, то кадр копируется как кадр сравнения нового источника, и кадр записывается в память как первый кадр новой камеры. Если пользователь на шаге 180 идентифицирует кадр как соответствующий существующему источнику, то кадр копируется в кадр сравнения соответствующего источника на шаге 150 и затем выдается в качестве соответствующего источника. Если пользователь идентифицирует кадр как ошибочные данные, которые должны быть пропущены (шаг 190), кадр отбрасывается (шаг 200) и обработка продолжается. Процесс повторяется с шага 160, пока не будут обработаны все кадры и операция разделения не закончится на шаге 250. Надо отметить, что после того, как каждая камера идентифицирована и кадр сравнения ассоциирован с камерой-источником, сравнения будут производиться между текущим кадром и кадром сравнения каждого источника.
В системах наблюдения создание объединенного телевизионного изображения производится таким образом, что кадр или несколько кадров от каждой камеры сохраняются в памяти последовательно (камера 1, камера 2 и т.д.). В результате, после обработки первых нескольких кадров обычно происходит идентификация всех камер. К пользователю в этом случае обращаются только, когда кадр не согласуется ни с одним из существующих источников. Рассогласование может быть вызвано воздействием шумов, либо искажением кадра телевизионного изображения, и данные могут быть пропущены, или может быть идентифицирован источник, который хранит искаженные или зашумленные кадры. Рассогласование может возникнуть, если в кадре происходят значительные изменения, например, когда через выбранную область двигается большой объект.
В конкретном варианте выполнения настоящего изобретения пользователь может изменить порог. Например, повышение порога может быть выгодным, если возникают излишне частые обращения к оператору, когда изображения от общего источника не идентифицируются надлежащим образом. В таком варианте выполнения текущий порог вместе с текущими разностными отношениями выводится на дисплей пользователю и пользователь может либо выбрать один из нескольких заранее определенных порогов, либо пользователь может ввести порог вручную.
В другом варианте выполнения имеются два разных порога, с которыми сравниваются разностные отношения. Первый порог, как описано выше, используется для определения соответствия текущего изображения какой-либо из камер. Второй порог определяет уровень, при превышении которого кадры должны отбрасываться. Если превышается второй порог, данные, ассоциированные с соответствующим изображением, автоматически отбрасываются. Второй порог имеет величину, превышающую величину первого порога, которая может быть установлена на основе изучения предыдущего опыта работы или путем эксперимента.
В одном из вариантов выполнения изобретения телевизионный сигнал от камер 300, 301, 302, которые производят съемку пространства, последовательно сканируя его, разделяется, как показано на Фиг.6. В этом варианте выполнения при установке порога для привязки изображения к камере учитываются временные изменения в изображениях при осуществлении обзора камерой. Например, на Фиг.6 показаны три камеры (камера 1, камера 2 и камера 3), вырабатывающие последовательность объединенных телевизионных кадров 320, где к этой последовательности постепенно добавляются изображения от каждой камеры. После того, как кадр от всех трех камер был сохранен в составе последовательности, процесс повторяется. На Фиг.6 изображения от камеры 1 появляются в моменты Т0 и Т3. Как показано на Фиг.6, если изображение от момента времени Т0 сдвинется на три пиксела за счет перемещения камеры за время между Т0 и Т3, и изображения налагаются, большая часть пикселов изображения в момент Т0 перекроется с изображением в момент Т3. Посредством замены кадра сравнения на текущий кадр и использования обновленного кадра сравнения в процедуре сравнения сводится к минимуму величина смещения между кадром сравнения и текущим кадром, благодаря чему нет необходимости в использовании более сложных методов сопровождения и сравнения изображений. Если скорость перемещения камеры невысока по сравнению с интервалом между моментами сохранения изображений, то выбор порога может быть согласован со скоростью перемещения.
В других вариантах выполнения для того, чтобы учесть перемещение поля зрения камеры, перед выполнением сравнения с текущим кадром производится смещение пикселов кадра сравнения. Кроме того, в процессе сравнения текущее изображение может быть сдвинуто несколько раз в нескольких направлениях при вычислении разностного отношения и проведении сравнения отношения с порогом. Далее, можно предугадать направление перемещения на основе анализа тенденции, когда направление движения определяется с учетом предшествующего движения того же источника. Таким образом, отслеживая направление движения, можно сократить число сдвигов ячеек хранения данных и операций сравнения.
В другом конкретном варианте выполнения порог устанавливается для отдельной камеры таким образом, что производится идентификация движения или изменений в кадре за счет изменений в поле зрения камеры, и только эти кадры сохраняются в ячейках памяти телевизионного изображения. В этом варианте выполнения используется тот же способ сравнения, но текущий кадр и кадры сравнения хранятся в оперативной памяти, а кадры, которые превосходят порог, хранятся в постоянной памяти, связанной с системой. В другом варианте при превышении порога изображение предъявляется пользователю системы и на экране дисплея ему предлагается определить, следует ли направлять кадр для хранения в постоянной памяти.
В некоторых обстоятельствах телевизионные кадры перед выполнением сравнения с текущим кадром могут быть разделены по времени и/или дате. В некоторых системах мультиплексирования, где в качестве камер применяются цифровые камеры, например использующие ПЗС (приборы с зарядовыми связями), поток цифровых данных, содержащий кадр в цифровой форме, перед цифровым сигналом телевизионного кадра может содержать отметку времени и даты. В этом случае хранение и разделение кадров может проводиться в соответствии с датой и временем. В других системах мультиплексирования, где камеры вырабатывают аналоговый сигнал с наложенным сигналом даты и времени, или в которых цифровые камеры вводят дату и время в пределы цифрового кадра, телевизионные кадры могут быть разделены по времени и дате. В этом варианте выполнения после того, как видеосигнал оцифрован, на дисплей выведены дата и время, производится определение выбранной области контроля. Если телевизионные кадры должны разделяться по времени, выбранная область пользователя может представлять собой час 400А, показанный на Фиг.7, и при каждом изменении в этой области телевизионного кадра данные телевизионного кадра сохраняются в новой ячейке памяти, ассоциирующейся с этим часом. Аналогично, заданной пользователем выбранной областью является день месяца 400В, как это показано на выведенных на телевизионный дисплей 410 цифровых данных изображения (Фиг.8). В этом случае система может постоянно отслеживать изменения в дате в определенной пользователем выбранной области, превышающие порог, для идентификации кадров, относящихся к различным дням месяца.
На Фиг.9 представлен другой вариант выполнения изобретения, где изобретение имеет форму устройства 500. Устройство 500 может быть электронным устройством, например модулем на базе программируемой пользователем вентильной матрицы (FPGA), либо чипом специализированной интегральной схемы (ASIC). Устройство 500 содержит модуль 501 приема, который получает цифровые данные 550 изображения. Цифровые данные изображения включают кадры видеоданных от различных источников. Модуль 501 приема получает первый набор цифровых видеоданных, представляющий первое изображение, и также принимает текущий набор цифровых видеоданных, представляющих текущее изображение. Модуль 501 приема передает первый набор цифровых данных в модуль 502 памяти. Модуль 502 памяти направляет для хранения в запоминающее устройство 560 первый набор цифровых видеоданных в ячейку памяти, связанную с первым источником 561. Эти данные также идентифицируются как образцовые видеоданные первого источника. Модуль 501 приема передает первый набор цифровых видеоданных вместе с текущим набором цифровых видеоданных в вычислительный модуль 503. Вычислительный модуль 503 вычисляет разностное отношение, используя первый набор цифровых видеоданных и текущий набор цифровых видеоданных, как это было описано выше. Если было идентифицировано более одного источника, принимаются цифровые видеоданные для каждого образцового кадра для источника, и для каждого производится вычисление разностного отношения. Разностное отношение(я) направляется в модуль 504 запросов. Модуль 504 запросов сравнивает разностное отношение(я) с порогом. Если разностное отношение для образцового кадра источника оказывается ниже порога, то текущий кадр ассоциируется с этим источником.
Затем цифровые видеоданные сохраняются в памяти, связанной с идентифицированным источником 562. Например, если разностное отношение для образцового кадра 4-го источника находится ниже порога, текущие цифровые видеоданные будут ассоциированы с этим источником. Кроме того, текущий кадр станет образцовым кадром 4-го источника.
Если значения всех разностных отношений превышают порог, модуль 504 запросов направляет запрос в дисплей 510 с предложением пользователю устройства классифицировать текущую цифровую видеоинформацию как относящуюся к идентифицированному источнику или исходящую из нового источника. Таким путем пользователь получает на дисплей 510 сообщение, что текущий кадр видеоданных не может быть безусловно ассоциирован с конкретным источником, поскольку разностное отношение превышает порог. Пользователь может, используя устройство 511 ввода, например клавиатуру или мышь, соединенные с устройством, направить ответ, которым определит, принадлежит ли текущий кадр первому источнику или другому ранее идентифицированному источнику, следует ли ассоциировать его с новым источником, либо он должен быть отброшен. Модуль 504 запросов получает эту информацию и дает команду модулю 502 памяти сохранить текущие цифровые видеоданные для текущего телевизионного кадра в ячейке памяти с идентифицированным источником. Пользователю системы на дисплей выводится текущее изображение, а также каждый образцовый кадр для источника. Это позволяет пользователю выполнять визуальное сравнение, способствуя процессу идентификации.
Следует понимать, что если пользователь идентифицирует текущие цифровые видеоданные как приходящие от нового источника, текущие цифровые видеоданные будут ассоциированы с ячейкой памяти, связанной с новым источником. В устройство также может быть включен модуль 505 нормализации. Модуль нормализации нормализует цифровые видеоданные текущего телевизионного кадра при сравнении с образцовыми телевизионными кадрами. Как было показано выше, нормализация цифровых видеоданных позволяет учесть изменения в освещенности сцены при смене дня и ночи. Нормализация производится перед вычислением разностного отношения.
Следует отметить, что блок-схемы используются здесь для иллюстрации различных особенностей изобретения и не должны восприниматься как ограничивающие настоящее изобретение какой-либо конкретной логической схемой или вариантом выполнения. Описанная логическая схема может быть разделена на отдельные логические группы (например, программы, модули, функции или подпрограммы) без изменения общих результатов или какого-либо иного отклонения от истиной области притязаний изобретения. Зачастую логические элементы могли добавляться, модифицироваться, исключаться, выполняться в ином порядке или выполняться с использованием других логических структур (например, логических вентилей, циклических базисных элементов и иных логических структур) без изменения общих результатов или какого-либо иного отклонения от истиной области притязаний изобретения.
Настоящее изобретение может быть выполнено во многих различных формах, включая компьютерную программную логику для использования с процессором (например, микропроцессором, микроконтроллером, процессором цифрового сигнала или компьютером общего назначения), программируемую логику для использования с программируемым логическим устройством (например, программируемой пользователем вентильной матрицы (FPGA) или иным программируемым логическим устройством), дискретные компоненты, интегральные схемы (например, специализированные интегральные схемы (ASIC)), либо любые иные средства, включая любые их комбинации, но и не ограничиваясь ими.
Компьютерная программная логика, выполняющая все или часть функций, описанных выше, может быть реализована в различных формах, например в форме исходного кода, в форме, исполняемой компьютером, и различных промежуточных формах (например, формах, генерируемых ассемблером, компилятором или устройством ввода позиций), не ограничиваясь только ими. Исходный код может включать последовательности команд компьютерных программ, реализованных на любом из различных языков программирования (например, объектная программа, язык ассемблера, или язык высокого уровня, например Fortran, С, C++, JAVA или язык HTML) для использования с различными операционными системами или операционными средами. Исходный код может определять и использовать различные структуры данных и сообщений. Исходный код может быть в исполняемой компьютером форме (например, посредством интерпретирующей программы), либо исходный код может быть преобразован (например, посредством транслятора, ассемблера или компилятора) в код, исполняемый компьютером.
Компьютерная программа может быть записана в любой форме (например, в форме исходного кода, форме, исполняемой компьютером, либо промежуточной форме), либо постоянно, либо временно в среде запоминающего устройства (например, RAM, ROM, PROM, EEPROM или программируемая RAM с групповой перезаписью), в устройстве с магнитной памятью (например, дискета или несъемный диск), в оптическом запоминающем устройстве (например, CD-ROM), на PC-карте (например, карте ассоциации PCNCIA), или в другом запоминающем устройстве. Компьютерная программа может быть записана в любой форме в сигнале, который может передаваться к компьютеру с использованием различных способов связи, включая аналоговую связь, цифровую связь, оптическую связь, беспроводную связь, связь в сети и связь между сетями. Компьютерные программы могут распространяться в любой форме с использованием переносимой среды хранения с сопровождающей документацией в печатной или электронной форме (например, программы, упакованные в термоусадочную пленку, или магнитная лента), быть предустановленными в системе компьютера (например, в постоянной памяти системы или несъемном диске) или распространяться с сервера или электронной системы телеконференцсвязи по системе связи (например, Internet или Всемирной Сети).
Логические устройства (включая программируемую логику для использования с программируемыми логическими устройствами), выполняющие все или часть функций, описанных выше, могут быть разработаны с использованием традиционных методов вручную, либо могут быть разработаны, каптированы, смоделированы, либо представлены в виде электронного документа, с использованием различных инструментов, например автоматизированного проектирования (CAD), языка описания аппаратных средств (например, VHDL или AHDL), либо языка программирования программируемых логических устройств (например, PALASM, ABEL или CUPL).
Настоящее изобретение может быть выполнено в иных конкретных формах в пределах области притязаний изобретения. Описанные варианты выполнения не имеют ограничивающего характера и должны рассматриваться во всех отношениях только в качестве примера.
Claims (35)
1. Способ идентификации цифровых видеоданных от нескольких источников, отличающийся тем, что получают первый набор цифровых видеоданных, представляющих первое изображение, сохраняют их в ячейке памяти, ассоциированной с первым источником, являющимся идентифицированным источником, в виде образцовых цифровых видеоданных первого источника, получают текущий набор цифровых видеоданных, представляющих текущее изображение, после чего вычисляют разностное отношение, представляющее различие между образцовыми цифровыми видеоданными и текущим набором цифровых видеоданных, посредством вычисления величины различия между пикселами соответствующих им изображений, и при превышении разностным отношением его заданной пороговой величины формируют на дисплее запрос относительно определения принадлежности текущих цифровых видеоданных к идентифицированному источнику или их исхождения от нового источника, причем указанные источники, ячейка памяти и дисплей связывают посредством процессора.
2. Способ по п.1, отличающийся тем, что запрос направляют на дисплей от процессора и при получении им ответа на запрос, указывающего на связь текущего набора цифровых видеоданных с новым источником, дополнительно сохраняют текущий набор цифровых видеоданных во второй ячейке памяти, ассоциированной со вторым источником, в виде образцовых цифровых видеоданных второго источника.
3. Способ по п.1, отличающийся тем, что при разностном отношении ниже его заданной пороговой величины сохраняют текущие цифровые видеоданные в виде новых образцовых цифровых видеоданных для первого источника в ячейке памяти, ассоциированной с первым источником.
4. Способ по п.1, отличающийся тем, что перед вычислением разностного отношения дополнительно осуществляют нормализацию образцовых и текущих цифровых видеоданных для компенсации разницы в яркости соответствующих пикселов этих видеоданных и исключения ее из указанного вычисления величины различия между пикселами.
5. Способ по п.1, отличающийся тем, что формируют наборы образцовых цифровых видеоданных для разных источников и дополнительно осуществляют вычисление разностного отношения для каждого набора образцовых цифровых видеоданных от источника и текущего набора цифровых видеоданных и сравнивают каждое разностное отношение с его заданной пороговой величиной.
6. Способ по п.5, отличающийся тем, что дополнительно осуществляют идентификацию источника, для которого значение разностного отношения ниже его заданной пороговой величины, и осуществляют идентификацию текущего набора цифровых видеоданных как образцового набора цифровых видеоданных для этого источника.
7. Способ по п.1, отличающийся тем, что наборы видеоданных подвергают сжатию с уменьшением требуемого ими объема памяти, причем первый набор видеоданных - перед сохранением, а текущий набор цифровых видеоданных - перед определением разностного отношения.
8. Способ по п.1, отличающийся тем, что дополнительно выделяют в первом изображении выбранную пользователем часть и принимают сигнал, содержащий информацию о соответствующей части текущего изображения, и используют в вычислении разностного отношения одни и те же части текущего и образцового изображений.
9. Способ по п.1, отличающийся тем, что при разностном отношении ниже его заданной пороговой величины дополнительно осуществляют идентификацию текущего изображения как образцового изображения источника, причем набор данных для образцового изображения используют для выполнения сравнений с набором данных для последующих изображений.
10. Способ по п.1, отличающийся тем, что при идентификации каждого из различных порождающих видеоданные источников, набор данных, представляющих текущее изображение, сохраняют как образцовое изображение для этого источника.
11. Способ по п.1, отличающийся тем, что источниками являются неподвижные камеры наблюдения.
12. Способ по п.1, отличающийся тем, что источниками являются поворачивающиеся камеры наблюдения.
13. Способ по п.1, отличающийся тем, что посредством процессора дополнительно принимают направляемый пользователем сигнал, содержащий информацию, представляющую заданную пороговую величину указанного разностного отношения.
14. Способ идентификации цифровых видеоданных от нескольких источников, отличающийся тем, что получают первый набор цифровых видеоданных, представляющих изображение, сохраняют их в ячейке памяти, ассоциированной с первым источником, в виде образцовых цифровых видеоданных первого источника, получают текущий набор цифровых видеоданных, представляющих текущее изображение, выбирают подгруппу из первого набора цифровых видеоданных и выбирают подгруппу из текущего набора цифровых видеоданных, причем подгруппа из первого набора и подгруппа из текущего набора имеют одинаковые расположения пикселов, затем вычисляют разностное отношение, представляющее различие между подгруппой из первого набора и подгруппой из текущего набора, посредством вычисления величины различия между пикселами соответствующих им изображений, причем при превышении разностного отношения его заданной пороговой величины формируют на дисплее запрос относительно принадлежности текущих цифровых видеоданных к идентифицированному источнику или их исхождения от нового источника, и при этом указанные источники, ячейку памяти и дисплей связывают посредством процессора.
15. Способ по п.14, отличающийся тем, что запрос направляют на дисплей от процессора и при получении им ответа на запрос, указывающий на связь текущего набора цифровых видеоданных с новым источником, дополнительно сохраняют текущий набор цифровых видеоданных во второй ячейке памяти, ассоциированной с новым источником, в виде образцовых цифровых видеоданных нового источника.
16. Способ по п.14, отличающийся тем, что при разностном отношении ниже его заданной пороговой величины сохраняют текущие цифровые видеоданные в виде новых образцовых цифровых видеоданных для первого источника в ячейке памяти, ассоциированной с первым источником.
17. Способ по п.14, отличающийся тем, что перед вычислением разностного отношения дополнительно осуществляют нормализацию образцовых и текущих цифровых видеоданных для компенсации разницы в яркости соответствующих пикселов этих видеоданных, и исключения ее из указанного вычисления величины различия между пикселами.
18. Способ по п.14, отличающийся тем, что формируют наборы образцовых цифровых видеоданных для разных источников и дополнительно осуществляют вычисление разностного отношения для каждого набора образцовых цифровых видеоданных от источника и текущего набора цифровых видеоданных и сравнивают каждое разностное отношение с его заданной пороговой величиной.
19. Способ по п.14, отличающийся тем, что дополнительно осуществляют идентификацию источника, для которого значение разностного отношения ниже его заданной пороговой величины, и осуществляют идентификацию текущего набора цифровых видеоданных как образцового набора цифровых видеоданных для источника.
20. Способ по п.14, отличающийся тем, что наборы видеоданных подвергают сжатию с уменьшением требуемого ими объема памяти, причем первый набор видеоданных - перед сохранением, а текущий набор цифровых видеоданных - перед определением разностного отношения.
21. Способ по п.14, отличающийся тем, что при разностном отношении ниже его заданной пороговой величины дополнительно осуществляют идентификацию текущего изображения как образцового изображения источника, причем набор данных для образцового изображения используют для выполнения сравнений с набором данных для последующих изображений.
22. Способ по п.14, отличающийся тем, что при идентификации каждого из различных порождающих видеоданные источников, набор данных, представляющих текущее изображение, сохраняют как образцовое изображение для этого источника.
23. Способ по п.14, отличающийся тем, что источниками являются неподвижные камеры наблюдения.
24. Способ по п.14, отличающийся тем, что источниками являются поворачивающиеся камеры наблюдения.
25. Способ по п.14, отличающийся тем, что посредством процессора дополнительно принимают направляемый пользователем сигнал, содержащий информацию, представляющую заданную пороговую величину разностного отношения.
26. Способ идентификации цифровых видеоданных от нескольких источников, отличающийся тем, что принимают объединенную цифровую видеосерию, включающую ряд кадров, анализируют и сравнивают цифровые данные пикселов различных кадров объединенной цифровой видеосерии, на основе чего каждый кадр идентифицируют с источником в процессе одного прохода по объединенной цифровой видеосерии.
27. Способ по п.26, отличающийся тем, что при сравнении цифровых видеоданных от проанализированных кадров, пикселы первого проанализированного кадра сравнивают с пикселами второго проанализированного кадра, и если второй проанализированный кадр идентифицируется как исходящий из того же источника, что и первый проанализированный кадр, второй проанализированный кадр идентифицируют как образцовый кадр этого источника.
28. Способ по п.27, отличающийся тем, что образцовый кадр используют для сравнения с третьим проанализированным кадром и на основе сравнения пикселов этих кадров определяют, исходит ли третий проанализированный кадр из этого источника.
29. Система телевизионного наблюдения, отличающаяся тем, что она содержит группу камер для выдачи видеосигнала, процессор для приема каждого видеосигнала и объединения сигнала в объединенный видеосигнал, запоминающее устройство для хранения объединенного видеосигнала, дисплей, связанный с процессором с возможностью вывода на дисплей запроса о принадлежности текущего видеосигнала, средство ввода, связанное с процессором с возможностью направления в процессор запроса от пользователя на разделение и разделения объединенных видеосигналов за один проход по объединенному видеосигналу.
30. Устройство для идентификации цифровых видеоданных от нескольких источников, отличающееся тем, что оно содержит модуль приема, связанный с источниками с возможностью получения первого набора цифровых видеоданных, представляющих первое изображение, и получения текущего набора цифровых видеоданных, представляющих текущее изображение, модуль памяти для хранения первого набора цифровых видеоданных, полученных от модуля приема, в ячейке памяти, ассоциированной с первым источником, являющимся идентифицированным источником, вычислительный модуль для вычисления разностного отношения, представляющего различие между образцовыми цифровыми видеоданными и текущим набором цифровых видеоданных, посредством вычисления величины различия между пикселами соответствующих им изображений, дисплей и модуль запросов, связанный с вычислительным модулем и дисплеем с возможностью формирования запроса на дисплее и получения ответа о принадлежности цифровых видеоданных к идентифицированному источнику или исхождения их от нового источника при превышении разностным отношением его заданной пороговой величины.
31. Устройство по п.30, отличающееся тем, что модуль памяти подключен с возможностью направления текущего набора цифровых видеоданных на хранение во вторую ячейку памяти, ассоциированную со вторым источником, в соответствии с полученным ответом, указывающий, что текущий набор цифровых видеоданных связан с новым источником.
32. Устройство по п.30, отличающееся тем, что модуль памяти подключен с возможностью направления текущих цифровых видеоданных на хранение в ячейку памяти, ассоциированную с первым источником при значении разностного отношения ниже его заданной пороговой величины.
33. Устройство по п.30, отличающееся тем, что оно дополнительно содержит связанный с вычислительным модулем модуль нормализации образцовых и текущих цифровых видеоданных для компенсации различий в яркости соответствующих пикселов этих видеоданных и исключения их из вычисления величины различия между пикселами.
34. Устройство по п.30, отличающийся тем, что вычислительный модуль является средством вычисления разностного отношения для каждого образцового набора цифровых видеоданных, представляющих источник, и текущего набора видеоданных, а модуль запросов также является средством сравнения разностного отношения с заданной пользователем его пороговой величиной.
35. Устройство по п.30, отличающееся тем, что модуль запросов является также средством идентификации источника, для которого величина разностного отношения ниже его заданной пороговой величины, а модуль памяти является средством ассоциирования текущего набора цифровых видеоданных с идентифицированным источником.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US31816401P | 2001-09-07 | 2001-09-07 | |
US60/318164 | 2001-09-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2004110724A RU2004110724A (ru) | 2005-09-27 |
RU2310289C2 true RU2310289C2 (ru) | 2007-11-10 |
Family
ID=23236945
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2004110724/09A RU2310289C2 (ru) | 2001-09-07 | 2002-09-06 | Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения |
RU2004110722/09A RU2308816C2 (ru) | 2001-09-07 | 2002-09-06 | Способ (варианты) и система стабилизации изображения |
RU2004110723/09A RU2308761C2 (ru) | 2001-09-07 | 2002-09-06 | Система для обнаружения первого объекта, скрытого вторым объектом, способ визуального отображения первого объекта и способ представления на экране дисплея данных первого объекта |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2004110722/09A RU2308816C2 (ru) | 2001-09-07 | 2002-09-06 | Способ (варианты) и система стабилизации изображения |
RU2004110723/09A RU2308761C2 (ru) | 2001-09-07 | 2002-09-06 | Система для обнаружения первого объекта, скрытого вторым объектом, способ визуального отображения первого объекта и способ представления на экране дисплея данных первого объекта |
Country Status (15)
Country | Link |
---|---|
US (6) | US6654049B2 (ru) |
EP (3) | EP1430444B1 (ru) |
KR (3) | KR100927918B1 (ru) |
CN (4) | CN1299240C (ru) |
AU (3) | AU2002335713B2 (ru) |
BR (3) | BR0212546A (ru) |
CA (3) | CA2459823C (ru) |
CO (3) | CO5570718A2 (ru) |
HK (3) | HK1069470A1 (ru) |
IL (4) | IL160760A0 (ru) |
MX (3) | MXPA04002209A (ru) |
NZ (3) | NZ531976A (ru) |
RU (3) | RU2310289C2 (ru) |
WO (3) | WO2003024095A1 (ru) |
ZA (2) | ZA200401972B (ru) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2473138C2 (ru) * | 2008-02-13 | 2013-01-20 | Долби Лэборетериз Лайсенсинг Корпорейшн | Временная фильтрация видеосигналов |
RU2575648C2 (ru) * | 2010-04-09 | 2016-02-20 | Хонейвелл Интернэшнл Инк. | Способ и устройство видеоконтроля |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL160760A0 (en) | 2001-09-07 | 2004-08-31 | Intergraph Hardware Tech Co | Image stabilization using color matching |
US7489802B2 (en) * | 2002-09-10 | 2009-02-10 | Zeev Smilansky | Miniature autonomous agents for scene interpretation |
JP4307910B2 (ja) * | 2003-03-07 | 2009-08-05 | 富士フイルム株式会社 | 動画像切り出し装置および方法並びにプログラム |
JP3768968B2 (ja) | 2003-03-28 | 2006-04-19 | 株式会社エヌ・ティ・ティ・ドコモ | 通信端末及びプログラム |
JP4017578B2 (ja) * | 2003-09-19 | 2007-12-05 | 三洋電機株式会社 | 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体 |
US7840067B2 (en) * | 2003-10-24 | 2010-11-23 | Arcsoft, Inc. | Color matching and color correction for images forming a panoramic image |
US7506267B2 (en) * | 2003-12-23 | 2009-03-17 | Intel Corporation | Compose rate reduction for displays |
US7616220B2 (en) * | 2003-12-23 | 2009-11-10 | Intel Corporation | Spatio-temporal generation of motion blur |
KR100562119B1 (ko) * | 2004-04-29 | 2006-03-21 | 삼성탈레스 주식회사 | 동영상의 특성을 이용한 이미지의 정렬 방법 |
US7671916B2 (en) * | 2004-06-04 | 2010-03-02 | Electronic Arts Inc. | Motion sensor using dual camera inputs |
WO2006023863A1 (en) | 2004-08-23 | 2006-03-02 | Intergraph Software Technologies Company | Real-time image stabilization |
US20060120615A1 (en) * | 2004-12-06 | 2006-06-08 | Huiqiong Wang | Frame compensation for moving imaging devices |
CN101228549B (zh) * | 2005-03-31 | 2012-10-17 | 本田技研工业株式会社 | 文件管理系统、文件管理方法 |
US7952612B2 (en) * | 2006-06-22 | 2011-05-31 | Nokia Corporation | Method and system for image construction using multiple exposures |
US20090010617A1 (en) * | 2007-07-05 | 2009-01-08 | International Business Machines Corporation | Method and Apparatus for Optimizing Space Allocations for Digital Video Recordings |
KR101392732B1 (ko) | 2007-08-20 | 2014-05-08 | 삼성전자주식회사 | 손떨림에 의한 움직임 추정 장치 및 방법, 그를 이용한영상 촬상 장치 |
KR101268987B1 (ko) * | 2007-09-11 | 2013-05-29 | 삼성전자주식회사 | 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치 |
US7800652B2 (en) * | 2007-12-12 | 2010-09-21 | Cyberlink Corp. | Reducing video shaking |
WO2009078132A1 (ja) * | 2007-12-18 | 2009-06-25 | Panasonic Corporation | 画像再生装置、画像再生方法及び画像再生プログラム |
US8457371B2 (en) * | 2008-04-18 | 2013-06-04 | Regents Of The University Of Minnesota | Method and apparatus for mapping a structure |
US8164655B2 (en) * | 2008-05-19 | 2012-04-24 | Spatial Cam Llc | Systems and methods for concurrently playing multiple images from a storage medium |
US20100026822A1 (en) * | 2008-07-31 | 2010-02-04 | Itt Manufacturing Enterprises, Inc. | Multiplexing Imaging System for Area Coverage and Point Targets |
JP5233708B2 (ja) * | 2009-02-04 | 2013-07-10 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US8458105B2 (en) * | 2009-02-12 | 2013-06-04 | Decisive Analytics Corporation | Method and apparatus for analyzing and interrelating data |
US20100235314A1 (en) * | 2009-02-12 | 2010-09-16 | Decisive Analytics Corporation | Method and apparatus for analyzing and interrelating video data |
EP2355037A1 (en) * | 2009-12-18 | 2011-08-10 | Nxp B.V. | Method of and system for determining an average colour value for pixels |
WO2011149558A2 (en) | 2010-05-28 | 2011-12-01 | Abelow Daniel H | Reality alternate |
CN102457701B (zh) * | 2010-11-02 | 2014-03-12 | 华为终端有限公司 | 图像显示处理方法及装置 |
JP4932027B1 (ja) * | 2010-11-15 | 2012-05-16 | 株式会社ナナオ | 映像表示方法およびそれを用いた液晶表示装置 |
JP6122269B2 (ja) | 2011-12-16 | 2017-04-26 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10715817B2 (en) | 2012-12-19 | 2020-07-14 | Nvidia Corporation | Apparatus and method for enhancing motion estimation based on user input |
US9530310B2 (en) | 2013-11-01 | 2016-12-27 | Xerox Corporation | Method and system for detecting and tracking a vehicle of interest utilizing a network of traffic image-capturing units |
US10572758B1 (en) | 2014-06-27 | 2020-02-25 | Blinker, Inc. | Method and apparatus for receiving a financing offer from an image |
US10540564B2 (en) | 2014-06-27 | 2020-01-21 | Blinker, Inc. | Method and apparatus for identifying vehicle information from an image |
US9589201B1 (en) | 2014-06-27 | 2017-03-07 | Blinker, Inc. | Method and apparatus for recovering a vehicle value from an image |
US9563814B1 (en) | 2014-06-27 | 2017-02-07 | Blinker, Inc. | Method and apparatus for recovering a vehicle identification number from an image |
US9892337B1 (en) | 2014-06-27 | 2018-02-13 | Blinker, Inc. | Method and apparatus for receiving a refinancing offer from an image |
US9600733B1 (en) | 2014-06-27 | 2017-03-21 | Blinker, Inc. | Method and apparatus for receiving car parts data from an image |
US9760776B1 (en) | 2014-06-27 | 2017-09-12 | Blinker, Inc. | Method and apparatus for obtaining a vehicle history report from an image |
US9594971B1 (en) | 2014-06-27 | 2017-03-14 | Blinker, Inc. | Method and apparatus for receiving listings of similar vehicles from an image |
US10515285B2 (en) | 2014-06-27 | 2019-12-24 | Blinker, Inc. | Method and apparatus for blocking information from an image |
US9779318B1 (en) | 2014-06-27 | 2017-10-03 | Blinker, Inc. | Method and apparatus for verifying vehicle ownership from an image |
US10867327B1 (en) | 2014-06-27 | 2020-12-15 | Blinker, Inc. | System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate |
US9558419B1 (en) | 2014-06-27 | 2017-01-31 | Blinker, Inc. | Method and apparatus for receiving a location of a vehicle service center from an image |
US10733471B1 (en) | 2014-06-27 | 2020-08-04 | Blinker, Inc. | Method and apparatus for receiving recall information from an image |
US9589202B1 (en) | 2014-06-27 | 2017-03-07 | Blinker, Inc. | Method and apparatus for receiving an insurance quote from an image |
US10579892B1 (en) | 2014-06-27 | 2020-03-03 | Blinker, Inc. | Method and apparatus for recovering license plate information from an image |
US9754171B1 (en) | 2014-06-27 | 2017-09-05 | Blinker, Inc. | Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website |
US9607236B1 (en) | 2014-06-27 | 2017-03-28 | Blinker, Inc. | Method and apparatus for providing loan verification from an image |
US9773184B1 (en) | 2014-06-27 | 2017-09-26 | Blinker, Inc. | Method and apparatus for receiving a broadcast radio service offer from an image |
US9818154B1 (en) | 2014-06-27 | 2017-11-14 | Blinker, Inc. | System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate |
CN104599226B (zh) * | 2015-02-14 | 2017-05-10 | 安徽大学 | 一种大容量隐写方法 |
US10019737B2 (en) * | 2015-04-06 | 2018-07-10 | Lewis Beach | Image processing device and method |
US10033926B2 (en) | 2015-11-06 | 2018-07-24 | Google Llc | Depth camera based image stabilization |
CN105282400B (zh) * | 2015-11-20 | 2018-07-13 | 北京理工大学 | 一种基于几何插值的高效视频稳定方法 |
US11386759B2 (en) | 2016-05-09 | 2022-07-12 | Herbert S Kobayashi | Three level detector signal for multicamera video alarm system for remote monitoring and method |
US10679477B2 (en) | 2016-05-09 | 2020-06-09 | Herbert S Kobayashi | Multicamera video alarm system for remote monitoring and method |
KR101818129B1 (ko) * | 2017-04-25 | 2018-01-12 | 동국대학교 산학협력단 | 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법 |
CN110114748A (zh) * | 2017-10-09 | 2019-08-09 | 华为技术有限公司 | 一种显示处理方法及电子设备 |
US11526970B2 (en) * | 2019-09-04 | 2022-12-13 | Samsung Electronics Co., Ltd | System and method for video processing with enhanced temporal consistency |
JP7209653B2 (ja) * | 2020-02-05 | 2023-01-20 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、及びプログラム |
CN111312127B (zh) * | 2020-02-24 | 2023-07-28 | 北京京东方光电科技有限公司 | 旋转显示屏的显示画面调整方法及装置、旋转显示屏 |
US11620967B2 (en) * | 2020-03-16 | 2023-04-04 | Lewis S. Beach | Image processing device and method |
CN113534281A (zh) * | 2020-04-14 | 2021-10-22 | 深圳市博利凌科技有限公司 | 用于感测物体表面之后隐藏物位置的扫描仪及方法 |
Family Cites Families (108)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3652790A (en) | 1970-01-28 | 1972-03-28 | Itt | Search and tracking television system and method |
US3891798A (en) | 1971-03-19 | 1975-06-24 | Rockwell International Corp | Tracker unit |
US3952151A (en) * | 1973-08-13 | 1976-04-20 | Trw Inc. | Method and apparatus for stabilized reproduction of remotely-sensed images |
FR2302004A5 (fr) | 1973-08-31 | 1976-09-17 | Thomson Csf | Systeme de poursuite automatique d'une cible, procedant par analyse de contraste video |
US3988533A (en) | 1974-09-30 | 1976-10-26 | Video Tek, Inc. | Video-type universal motion and intrusion detection system |
US4120004A (en) | 1976-01-26 | 1978-10-10 | Coutta John M | Surveillance system |
US4405940A (en) | 1977-05-31 | 1983-09-20 | Westinghouse Electric Corp. | Apparatus and method for preprocessing video frame signals |
NL7801727A (nl) | 1978-02-16 | 1979-08-20 | Hollandse Signaalapparaten Bv | Drempelspanningsselectieschakeling. |
EP0028933A3 (en) | 1979-11-09 | 1981-06-03 | Ascotts Ltd. | Surveillance system |
US4603430A (en) * | 1984-09-21 | 1986-07-29 | Hughes Aircraft Company | Target discrimination utilizing median filters |
JPS61166289A (ja) * | 1985-01-18 | 1986-07-26 | Hitachi Ltd | 画像伝送システム |
JP2528789B2 (ja) * | 1985-06-26 | 1996-08-28 | 中央電子 株式会社 | 映像情報管理装置 |
DE3750703T2 (de) * | 1986-03-25 | 1995-03-30 | Nippon Oils & Fats Co Ltd | Transparenter optischer Gegenstand und Verfahren zu seiner Herstellung. |
DE3634414C2 (de) * | 1986-10-09 | 1994-12-08 | Thomson Brandt Gmbh | Fernsehkamera mit einem Target |
JPH0695008B2 (ja) | 1987-12-11 | 1994-11-24 | 株式会社東芝 | 監視装置 |
KR920010034B1 (en) | 1988-03-31 | 1992-11-13 | Toshiba Co Ltd | Image track display apparatus |
GB2220319B (en) * | 1988-07-01 | 1992-11-04 | Plessey Co Plc | Improvements in or relating to image stabilisation |
JP2563567B2 (ja) * | 1989-03-20 | 1996-12-11 | 松下電器産業株式会社 | 揺れ補正装置 |
KR910004009A (ko) | 1989-07-27 | 1991-02-28 | 강진구 | 비디오 카메라의 자동촬영장치 |
US5175694A (en) | 1990-02-08 | 1992-12-29 | The United States Of America As Represented By The Secretary Of The Navy | Centroid target tracking system utilizing parallel processing of digital data patterns |
KR100204101B1 (ko) | 1990-03-02 | 1999-06-15 | 가나이 쓰도무 | 화상처리장치 |
US5030984A (en) * | 1990-07-19 | 1991-07-09 | Eastman Kodak Company | Method and associated apparatus for minimizing the effects of motion in the recording of an image |
JP2863818B2 (ja) * | 1990-08-31 | 1999-03-03 | 工業技術院長 | 動画像の変化点検出方法 |
US5243418A (en) | 1990-11-27 | 1993-09-07 | Kabushiki Kaisha Toshiba | Display monitoring system for detecting and tracking an intruder in a monitor area |
EP0508476B1 (en) * | 1991-04-12 | 1996-12-11 | Victor Company Of Japan, Limited | Apparatus for detecting relative motion between contents of successive fields of a video signal |
EP0520765B1 (en) | 1991-06-25 | 1999-05-12 | Canon Kabushiki Kaisha | Movement vector detecting method/apparatus and encoding method/apparatus using such method/apparatus |
US5164827A (en) | 1991-08-22 | 1992-11-17 | Sensormatic Electronics Corporation | Surveillance system with master camera control of slave cameras |
US5657402A (en) * | 1991-11-01 | 1997-08-12 | Massachusetts Institute Of Technology | Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method |
US6469746B1 (en) * | 1992-12-28 | 2002-10-22 | Sanyo Electric Co., Ltd. | Multi-vision screen adapter |
WO1994017636A1 (en) | 1993-01-29 | 1994-08-04 | Bell Communications Research, Inc. | Automatic tracking camera control system |
US5473369A (en) * | 1993-02-25 | 1995-12-05 | Sony Corporation | Object tracking apparatus |
DE69434657T2 (de) * | 1993-06-04 | 2007-02-15 | Sarnoff Corp. | System und Verfahren zur elektronischen Bildstabilisierung |
JPH0773308A (ja) * | 1993-09-03 | 1995-03-17 | Matsushita Electric Ind Co Ltd | デジタル画像処理装置 |
JP3123587B2 (ja) | 1994-03-09 | 2001-01-15 | 日本電信電話株式会社 | 背景差分による動物体領域抽出方法 |
CA2125300C (en) * | 1994-05-11 | 1999-10-12 | Douglas J. Ballantyne | Method and apparatus for the electronic distribution of medical information and patient services |
DE4417128A1 (de) | 1994-05-16 | 1995-12-14 | Elnic Gmbh | Bilderfassungs- und -verarbeitungsverfahren insbesondere zur Steuerung von Vorrichtungen sowie zugehöriges Bilderfassungs- und -verarbeitungssystem |
US5635982A (en) | 1994-06-27 | 1997-06-03 | Zhang; Hong J. | System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions |
US20020186874A1 (en) * | 1994-09-07 | 2002-12-12 | Jeffrey H. Price | Method and means for image segmentation in fluorescence scanning cytometry |
JP2902966B2 (ja) * | 1994-12-16 | 1999-06-07 | 三洋電機株式会社 | 手振れ補正装置およびそれを用いたビデオカメラ |
KR960028217A (ko) | 1994-12-22 | 1996-07-22 | 엘리 웨이스 | 움직임 검출 카메라 시스템 및 방법 |
JPH08186760A (ja) * | 1994-12-28 | 1996-07-16 | Philips Japan Ltd | 画揺れ補正装置 |
JP3268953B2 (ja) | 1995-02-27 | 2002-03-25 | 三洋電機株式会社 | 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置 |
US5821985A (en) * | 1995-02-28 | 1998-10-13 | Nec Corporation | Multi-point videoconference system having a fixed control station for data transfer |
JP3892059B2 (ja) | 1995-03-07 | 2007-03-14 | 松下電器産業株式会社 | 動物体追跡装置 |
US5973733A (en) * | 1995-05-31 | 1999-10-26 | Texas Instruments Incorporated | Video stabilization system and method |
WO1997010564A1 (en) | 1995-09-15 | 1997-03-20 | Interval Research Corporation | A method of compressing a plurality of video images |
US6018562A (en) * | 1995-11-13 | 2000-01-25 | The United States Of America As Represented By The Secretary Of The Army | Apparatus and method for automatic recognition of concealed objects using multiple energy computed tomography |
KR100188116B1 (ko) * | 1995-12-28 | 1999-06-01 | 김광호 | 손떨림 영상 안정화 회로 |
US6108576A (en) * | 1996-03-18 | 2000-08-22 | The Research Foundation Of City College Of New York | Time-resolved diffusion tomographic 2D and 3D imaging in highly scattering turbid media |
CA2173677C (en) * | 1996-04-09 | 2001-02-20 | Benoit Sevigny | Processing image data |
US5940139A (en) * | 1996-08-07 | 1999-08-17 | Bell Communications Research, Inc. | Background extraction in a video picture |
US5953055A (en) | 1996-08-08 | 1999-09-14 | Ncr Corporation | System and method for detecting and analyzing a queue |
US5915038A (en) * | 1996-08-26 | 1999-06-22 | Philips Electronics North America Corporation | Using index keys extracted from JPEG-compressed images for image retrieval |
US5974111A (en) * | 1996-09-24 | 1999-10-26 | Vivid Technologies, Inc. | Identifying explosives or other contraband by employing transmitted or scattered X-rays |
US5751378A (en) | 1996-09-27 | 1998-05-12 | General Instrument Corporation | Scene change detector for digital video |
US5822542A (en) | 1996-10-31 | 1998-10-13 | Sensormatic Electronics Corporation | Electronic and structural components of an intelligent video information management apparatus |
GB2321358A (en) | 1997-01-20 | 1998-07-22 | O E M Project Management Ltd | Video security system coupled to a fax modem |
JP3317176B2 (ja) * | 1997-02-06 | 2002-08-26 | 松下電器産業株式会社 | 映像伝送装置 |
US6360022B1 (en) * | 1997-04-04 | 2002-03-19 | Sarnoff Corporation | Method and apparatus for assessing the visibility of differences between two signal sequences |
KR100554190B1 (ko) * | 1997-06-03 | 2006-02-22 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 텔레비전 프로그램 네비게이팅 |
JP4240554B2 (ja) * | 1997-07-11 | 2009-03-18 | ソニー株式会社 | 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法 |
US6128108A (en) * | 1997-09-03 | 2000-10-03 | Mgi Software Corporation | Method and system for compositing images |
JPH1185654A (ja) * | 1997-09-12 | 1999-03-30 | Matsushita Electric Ind Co Ltd | 仮想wwwサーバ装置およびカメラ制御可能なwwwサーバ装置 |
GB2329541B (en) | 1997-09-17 | 2002-05-29 | Sony Uk Ltd | Security control system |
US5973723A (en) * | 1997-12-12 | 1999-10-26 | Deluca; Michael Joseph | Selective commercial detector and eliminator apparatus and method |
US6363380B1 (en) | 1998-01-13 | 2002-03-26 | U.S. Philips Corporation | Multimedia computer system with story segmentation capability and operating program therefor including finite automation video parser |
US6151336A (en) * | 1998-02-11 | 2000-11-21 | Sorrento Networks, Inc. | Time division multiplexing expansion subsystem |
US6795112B1 (en) * | 1998-03-13 | 2004-09-21 | General Instrument Corp. | Composite video multiplexing scheme |
US6847737B1 (en) * | 1998-03-13 | 2005-01-25 | University Of Houston System | Methods for performing DAF data filtering and padding |
US6211913B1 (en) * | 1998-03-23 | 2001-04-03 | Sarnoff Corporation | Apparatus and method for removing blank areas from real-time stabilized images by inserting background information |
GB9813632D0 (en) | 1998-06-24 | 1998-08-26 | Robinson Alan W | Outside televised broadcast shadow compensator |
US6493041B1 (en) * | 1998-06-30 | 2002-12-10 | Sun Microsystems, Inc. | Method and apparatus for the detection of motion in video |
US6714909B1 (en) * | 1998-08-13 | 2004-03-30 | At&T Corp. | System and method for automated multimedia content indexing and retrieval |
US6459822B1 (en) * | 1998-08-26 | 2002-10-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Video image stabilization and registration |
US6741656B1 (en) * | 1998-12-16 | 2004-05-25 | Matsushita Electric Industrial Co., Ltd. | Image communication apparatus |
CN1116649C (zh) * | 1998-12-23 | 2003-07-30 | 皇家菲利浦电子有限公司 | 个性化视频分类与获取系统 |
EP1081960B1 (en) | 1999-01-29 | 2007-12-19 | Sony Corporation | Signal processing method and video/voice processing device |
KR20010108159A (ko) * | 1999-01-29 | 2001-12-07 | 다니구찌 이찌로오, 기타오카 다카시 | 화상 특징 부호화 방법 및 화상 검색 방법 |
KR100442991B1 (ko) * | 1999-02-01 | 2004-08-04 | 주식회사 팬택앤큐리텔 | 트리구조의 동영상 색인 기술자를 이용한 검색장치 및 그 방법 |
EP1161837A1 (en) * | 1999-03-16 | 2001-12-12 | Central Research Laboratories Limited | Closed circuit television (cctv) camera and system |
FR2794880B1 (fr) * | 1999-06-10 | 2001-12-14 | Philippe Crochat | Procede automatique de suivi d'une cible en mouvement par une camera electronique et dispositif pour sa mise en oeuvre |
US6476858B1 (en) | 1999-08-12 | 2002-11-05 | Innovation Institute | Video monitoring and security system |
US6694064B1 (en) * | 1999-11-19 | 2004-02-17 | Positive Systems, Inc. | Digital aerial image mosaic method and apparatus |
US6683995B2 (en) * | 1999-12-23 | 2004-01-27 | Eastman Kodak Company | Method and apparatus for correcting large defects in digital images |
JP2003519410A (ja) * | 1999-12-30 | 2003-06-17 | アプライド、サイエンス、フィクシャン、インク | 可視光を使用してデジタルフィルムを現像するための改良されたシステムおよび方法 |
JP2004514156A (ja) * | 2000-02-03 | 2004-05-13 | アプライド・サイエンス・フィクション | フィルム処理液カートリッジ、および、フィルムを現像しかつディジタル化するための方法 |
WO2001095028A2 (en) * | 2000-02-03 | 2001-12-13 | Applied Science Fiction | Method and system for self-service film processing |
AU2001239745A1 (en) * | 2000-02-03 | 2001-08-14 | Applied Science Fiction | Method, system, and software for signal processing using pyramidal decomposition |
JP2001243477A (ja) * | 2000-02-29 | 2001-09-07 | Toshiba Corp | 動画像による交通量解析装置 |
AU3948701A (en) * | 2000-03-10 | 2001-09-17 | Infotech Ag | Digital feature separation |
US20040125877A1 (en) | 2000-07-17 | 2004-07-01 | Shin-Fu Chang | Method and system for indexing and content-based adaptive streaming of digital video content |
DE20104329U1 (de) | 2001-03-14 | 2001-05-31 | Vtq Videotronik Gmbh | Überwachungseinrichtung mit Sensoren |
US20020168091A1 (en) * | 2001-05-11 | 2002-11-14 | Miroslav Trajkovic | Motion detection via image alignment |
TWI236294B (en) | 2001-05-11 | 2005-07-11 | Ulead Systems Inc | Method and device for capturing digital video |
US6525658B2 (en) * | 2001-06-11 | 2003-02-25 | Ensco, Inc. | Method and device for event detection utilizing data from a multiplicity of sensor sources |
US6805501B2 (en) * | 2001-07-16 | 2004-10-19 | Eastman Kodak Company | System and method for digital film development using visible light |
US20050007452A1 (en) * | 2001-09-07 | 2005-01-13 | Mckay Therman Ward | Video analyzer |
IL160760A0 (en) * | 2001-09-07 | 2004-08-31 | Intergraph Hardware Tech Co | Image stabilization using color matching |
US6831590B1 (en) * | 2001-09-12 | 2004-12-14 | Cyterra Corporation | Concealed object detection |
US6816622B2 (en) * | 2001-10-18 | 2004-11-09 | Microsoft Corporation | Generating resized images using ripple free image filtering |
US6944331B2 (en) * | 2001-10-26 | 2005-09-13 | National Instruments Corporation | Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching |
EP1316933B1 (en) | 2001-11-28 | 2006-08-09 | Matsushita Electric Industrial Co., Ltd. | Home security system |
US6999613B2 (en) | 2001-12-28 | 2006-02-14 | Koninklijke Philips Electronics N.V. | Video monitoring and surveillance systems capable of handling asynchronously multiplexed video |
RU2005126623A (ru) | 2003-01-23 | 2006-01-27 | Интегрэф Хадвеа Текнолоджис Кампэни (US) | Способ демультиплексирования видеоизображений (варианты) |
US7486318B2 (en) * | 2003-06-23 | 2009-02-03 | Sony Corporation | Method, apparatus, and program for processing an image |
US7840067B2 (en) * | 2003-10-24 | 2010-11-23 | Arcsoft, Inc. | Color matching and color correction for images forming a panoramic image |
US7587086B2 (en) * | 2004-06-04 | 2009-09-08 | Microsoft Corporation | Identifying selected pixels in a digital image |
WO2006023863A1 (en) * | 2004-08-23 | 2006-03-02 | Intergraph Software Technologies Company | Real-time image stabilization |
-
2002
- 2002-09-06 IL IL16076002A patent/IL160760A0/xx unknown
- 2002-09-06 KR KR1020047003443A patent/KR100927918B1/ko not_active IP Right Cessation
- 2002-09-06 US US10/237,167 patent/US6654049B2/en not_active Expired - Lifetime
- 2002-09-06 EP EP02770476.6A patent/EP1430444B1/en not_active Expired - Lifetime
- 2002-09-06 US US10/237,249 patent/US7079701B2/en not_active Expired - Fee Related
- 2002-09-06 WO PCT/US2002/028352 patent/WO2003024095A1/en not_active Application Discontinuation
- 2002-09-06 MX MXPA04002209A patent/MXPA04002209A/es active IP Right Grant
- 2002-09-06 MX MXPA04002210A patent/MXPA04002210A/es active IP Right Grant
- 2002-09-06 NZ NZ531976A patent/NZ531976A/en not_active IP Right Cessation
- 2002-09-06 BR BRPI0212546-3A patent/BR0212546A/pt not_active Application Discontinuation
- 2002-09-06 WO PCT/US2002/028514 patent/WO2003024112A1/en not_active Application Discontinuation
- 2002-09-06 CN CNB028175492A patent/CN1299240C/zh not_active Expired - Fee Related
- 2002-09-06 NZ NZ531974A patent/NZ531974A/en not_active IP Right Cessation
- 2002-09-06 RU RU2004110724/09A patent/RU2310289C2/ru not_active IP Right Cessation
- 2002-09-06 CA CA2459823A patent/CA2459823C/en not_active Expired - Fee Related
- 2002-09-06 CA CA2459732A patent/CA2459732C/en not_active Expired - Fee Related
- 2002-09-06 BR BRPI0212377A patent/BRPI0212377B1/pt not_active IP Right Cessation
- 2002-09-06 EP EP02763611A patent/EP1428389A1/en not_active Withdrawn
- 2002-09-06 KR KR1020047003447A patent/KR100888095B1/ko not_active IP Right Cessation
- 2002-09-06 AU AU2002335713A patent/AU2002335713B2/en not_active Ceased
- 2002-09-06 US US10/237,251 patent/US7310110B2/en not_active Expired - Fee Related
- 2002-09-06 EP EP02773294A patent/EP1428378B1/en not_active Expired - Lifetime
- 2002-09-06 BR BRPI0212375A patent/BRPI0212375B1/pt not_active IP Right Cessation
- 2002-09-06 WO PCT/US2002/028351 patent/WO2003030103A1/en not_active Application Discontinuation
- 2002-09-06 MX MXPA04002211A patent/MXPA04002211A/es active IP Right Grant
- 2002-09-06 CN CNB028175476A patent/CN100559873C/zh not_active Expired - Fee Related
- 2002-09-06 IL IL16075902A patent/IL160759A0/xx unknown
- 2002-09-06 KR KR1020047003425A patent/KR100919340B1/ko not_active IP Right Cessation
- 2002-09-06 CN CNB028175484A patent/CN100359923C/zh not_active Expired - Lifetime
- 2002-09-06 CN CN200710088981XA patent/CN101072364B/zh not_active Expired - Lifetime
- 2002-09-06 CA CA2459821A patent/CA2459821C/en not_active Expired - Lifetime
- 2002-09-06 AU AU2002327612A patent/AU2002327612B2/en not_active Ceased
- 2002-09-06 RU RU2004110722/09A patent/RU2308816C2/ru not_active IP Right Cessation
- 2002-09-06 RU RU2004110723/09A patent/RU2308761C2/ru not_active IP Right Cessation
- 2002-09-06 NZ NZ531975A patent/NZ531975A/en not_active IP Right Cessation
- 2002-09-06 AU AU2002336445A patent/AU2002336445B2/en not_active Expired
- 2002-09-06 IL IL16075802A patent/IL160758A0/xx unknown
-
2003
- 2003-09-24 US US10/669,818 patent/US7436437B2/en active Active
-
2004
- 2004-03-05 IL IL160759A patent/IL160759A/en not_active IP Right Cessation
- 2004-03-11 ZA ZA200401972A patent/ZA200401972B/en unknown
- 2004-03-11 ZA ZA200401970A patent/ZA200401970B/en unknown
- 2004-04-07 CO CO04033091A patent/CO5570718A2/es not_active Application Discontinuation
- 2004-04-07 CO CO04033090A patent/CO5580855A2/es not_active Application Discontinuation
- 2004-04-07 CO CO04033092A patent/CO5650190A2/es not_active Application Discontinuation
-
2005
- 2005-03-07 HK HK05101928A patent/HK1069470A1/xx not_active IP Right Cessation
- 2005-06-08 HK HK05104786A patent/HK1073038A1/xx not_active IP Right Cessation
- 2005-08-08 HK HK05106787.9A patent/HK1074726A1/xx not_active IP Right Cessation
-
2006
- 2006-05-26 US US11/441,488 patent/US7477797B2/en not_active Expired - Fee Related
-
2007
- 2007-12-17 US US11/958,029 patent/US8233044B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2473138C2 (ru) * | 2008-02-13 | 2013-01-20 | Долби Лэборетериз Лайсенсинг Корпорейшн | Временная фильтрация видеосигналов |
US8493313B2 (en) | 2008-02-13 | 2013-07-23 | Dolby Laboratories Licensing Corporation | Temporal filtering of video signals |
RU2575648C2 (ru) * | 2010-04-09 | 2016-02-20 | Хонейвелл Интернэшнл Инк. | Способ и устройство видеоконтроля |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2310289C2 (ru) | Способ (варианты) и устройство для идентификации цифровых видеоданных от нескольких источников, система телевизионного наблюдения | |
AU2002327612A1 (en) | Method, device and computer program product for demultiplexing of video images | |
US8891826B2 (en) | Image processing system, image processing method, and computer program | |
US6297846B1 (en) | Display control system for videoconference terminals | |
US8144207B2 (en) | Computer program product for photographic subject tracking, photographic subject tracking device, and camera | |
CN109299703B (zh) | 对鼠情进行统计的方法、装置以及图像采集设备 | |
US9036977B2 (en) | Automatic detection, removal, replacement and tagging of flash frames in a video | |
US9344640B2 (en) | Imaging device, integrated circuit, and flicker reduction method | |
US11302045B2 (en) | Image processing apparatus, image providing apparatus,control methods thereof, and medium | |
KR20170038144A (ko) | 어텐션 검출 장치 및 어텐션 검출 방법 | |
JP7084795B2 (ja) | 画像処理装置、画像提供装置、それらの制御方法及びプログラム | |
ZA200506054B (en) | Video analyzer | |
JP3227179B2 (ja) | 動物体検出および追跡処理方式 | |
JP2000020722A (ja) | 動画像中の物体抽出装置及び方法 | |
KR100537028B1 (ko) | 실시간 물체추출 시스템 및 방법 | |
KR100225611B1 (ko) | 스포츠 영상 효과장치 | |
Ratnarajah et al. | Forensic Video Analytic Software | |
JP2000348163A (ja) | 物体検出装置および物体検出方法ならびに物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体 | |
JP2012137829A (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
JPH0981714A (ja) | 画像処理装置及びその方法 | |
JPS63187393A (ja) | 画像センサ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20170907 |