RU2797757C1 - Device and method for obtaining image sets - Google Patents

Device and method for obtaining image sets Download PDF

Info

Publication number
RU2797757C1
RU2797757C1 RU2022127272A RU2022127272A RU2797757C1 RU 2797757 C1 RU2797757 C1 RU 2797757C1 RU 2022127272 A RU2022127272 A RU 2022127272A RU 2022127272 A RU2022127272 A RU 2022127272A RU 2797757 C1 RU2797757 C1 RU 2797757C1
Authority
RU
Russia
Prior art keywords
images
cameras
target
alignment
optically coupled
Prior art date
Application number
RU2022127272A
Other languages
Russian (ru)
Inventor
Людмила Игоревна Бурмак
Ксения Юрьевна Петрова
Петр ПОГЛ
Имран Казбекович НАВРУЗБЕКОВ
Алексей Викторович Клюев
Original Assignee
Самсунг Электроникс Ко., Лтд.
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Application granted granted Critical
Publication of RU2797757C1 publication Critical patent/RU2797757C1/en

Links

Images

Abstract

FIELD: devices and methods for obtaining sets of images.
SUBSTANCE: self-aligning device for obtaining sets of images comprises N cameras, where N≥2, optically coupled through N-1 beam splitters, which would allow placing cameras with any mounts on it, namely one or more reference cameras that capture a good quality image, and one or multiple target cameras capturing low quality image. The cameras are mounted on adjustable holders. The alignment module controls the holders by aligning the system using characteristic points/elements captured in the scene being shot, on the alignment target or using the alignment target simulation module, in order to initially match the images as accurately as possible due to shifts, tilts and rotations of the cameras and thereby converge to a minimum of post-processing for the final combination of images. The cameras are controlled by the control module. Image sets collected with different settings are used to train image enhancement models.
EFFECT: preservation of alignment during operation, obtaining sets of images for different scenarios, with applicability to moving scenes and scenarios for removing blur.
26 cl, 6 dwg

Description

Область техникиTechnical field

Настоящее изобретение относится к устройствам и способам получения наборов изображений, состоящих из одного или нескольких изображений низкого качества и соответствующих ему/им одного или нескольких изображений высокого качества, получаемых с двух или более различных цифровых фото- или видеокамер (далее называемых камерами), используемых в задачах повышения качества изображений с помощью нейросетей, которые обучаются "приводить" исходное изображение (низкого качества, "вход") к эталону (изображение высокого качества, англ. - ground-truth, "правильный ответ"). Обученная на таких наборах изображений нейросеть может применяться на выходе устройства захвата изображений для получения изображений высокого качества даже в случае съемки изображений низкого качества.The present invention relates to devices and methods for obtaining image sets consisting of one or more low quality images and its corresponding one or more high quality images obtained from two or more different digital cameras or video cameras (hereinafter referred to as cameras) used in problems of improving image quality using neural networks that are trained to "bring" the original image (low quality, "input") to the standard (high quality image, English - ground-truth, "correct answer"). A neural network trained on such sets of images can be used at the output of an image capture device to obtain high quality images even if low quality images are captured.

Описание предшествующего уровня техникиDescription of the Prior Art

Основное требование к таким устройствам и способам получения наборов изображений состоит в том, что изображения в наборе должны настолько хорошо соответствовать друг другу, т.е. иметь минимальные, либо требуемые геометрические и фотометрические отличия, чтобы их можно было использовать без постобработки, либо с минимальной постобработкой для обучения моделей на основе нейросетей, решающих ряд задач улучшения качества изображений, таких как шумоподавление, повышение разрешения, повышение детализации, устранение размытия, демозаика и создание конвейера операций обработки изображений (ISP).The main requirement for such devices and methods for obtaining sets of images is that the images in the set must match each other so well, i.e. have minimal or required geometric and photometric differences so that they can be used without post-processing, or with minimal post-processing for training neural network models that solve a number of image quality improvement tasks, such as noise reduction, resolution upscaling, detail upscaling, deblurring, demosaicing and creating an image processing operations pipeline (ISP).

Первая проблема в выполнении данных требований обусловлена разницей оптических характеристик камер. Даже при обеспечении оптического сопряжения (совмещения оптических осей в пространстве) камер с использованием светоделителя, разница оптических характеристик приведет к разности глубин резкости изображаемого пространства и оптических аберраций. Поэтому обеспечить выравнивание изображений в наборе без постобработки можно лишь до определенной степени.The first problem in fulfilling these requirements is due to the difference in the optical characteristics of the cameras. Even when providing optical conjugation (combination of optical axes in space) of cameras using a beam splitter, the difference in optical characteristics will lead to a difference in the depth of field of the imaged space and optical aberrations. Therefore, alignment of images in a set without post-processing is possible only to a certain extent.

Вторая проблема состоит во временном согласовании изображений. Для того чтобы взаимные положения объектов на изображениях соответствовали друг другу, требуется обеспечить синхронизированный захват изображений (одновременный или с заданной задержкой между камерами). В противном случае взаимные положения объектов могут отличаться, например, вследствие их перемещения.The second problem is the timing of the images. In order for the mutual positions of objects in the images to correspond to each other, it is necessary to ensure synchronized image capture (simultaneous or with a specified delay between cameras). Otherwise, the mutual positions of the objects may differ, for example, due to their movement.

Еще одна проблема состоит в обеспечении поддержки различных комбинаций камер с различной оптикой и приемниками излучения, таких как промышленные камеры, камеры смартфонов, цифровые зеркальные/беззеркальные фотоаппараты. Another challenge is to support different combinations of cameras with different optics and receivers, such as industrial cameras, smartphone cameras, digital SLR/mirrorless cameras.

Для решения вышеозначенных задач используются следующие подходы.The following approaches are used to solve the above problems.

1. Получение наборов изображений путем искусственного ухудшения качества изображения.1. Obtaining sets of images by artificially degrading the image quality.

Искусственное ухудшение качества (деградация) изображений часто используется для генерации наборов изображений: изображения низкого качества получают из изображений высокого качества путем применения модели деградации. Нейросети, обученные на таких синтетических данных, имеют тенденцию к запоминанию модели деградации, их применимость к реальным данным очень слаба, особенно в задачах, где требуется попиксельное улучшение качества изображения (вплоть до мельчайших деталей с высоким разрешением). Для реализации этого подхода требуется точная и реалистичная модель деградации изображения, тогда как реальные процессы деградации обычно неизвестны. Для создания наборов изображений необходимы исходные изображения высокого качества: они не должны содержать особенностей, обусловленных оптикой, с помощью которой они были сняты. Также изображения высокого качества могут быть получены путем рендеринга, но это достаточно сложная задача.Artificial image quality degradation (degradation) is often used to generate image sets: low quality images are obtained from high quality images by applying a degradation model. Neural networks trained on such synthetic data tend to remember the degradation model, their applicability to real data is very weak, especially in tasks where pixel-by-pixel improvement in image quality is required (down to the smallest details with high resolution). To implement this approach, an accurate and realistic image degradation model is required, while the actual degradation processes are usually unknown. To create image sets, high-quality source images are required: they must not contain features due to the optics with which they were taken. Also, high quality images can be obtained by rendering, but this is quite a difficult task.

2. Получение наборов изображений с помощью одной камеры путем быстрой последовательной съемки с разными настройками качества.2. Acquisition of sets of images using a single camera by shooting in quick succession with different quality settings.

Наборы изображений, полученные с одной камеры путем быстрой последовательной съемки с разными настройками применимы только для ограниченного числа задач, таких как повышение детализации или шумоподавление, и только для практически статичных сцен. Для обучения на таких наборах требуется сложная архитектура нейронной сети, которая бы могла скомпенсировать плохое согласование между изображениями, неизбежно возникающее, если снимаемая сцена меняется во время съемки.Sets of images taken from the same camera by shooting in quick succession with different settings are only applicable for a limited number of tasks, such as detail enhancement or noise reduction, and only for almost static scenes. Training on such sets requires a complex neural network architecture that could compensate for the poor matching between images that inevitably occurs if the scene being filmed changes during shooting.

3. Получение наборов изображений с помощью нескольких камер.3. Obtaining sets of images using multiple cameras.

3.1 Получение наборов изображений с помощью нескольких рядом расположенных камер.3.1 Obtaining sets of images using several adjacent cameras.

Основной недостаток данного подхода состоит в том, что камеры видят одну и ту же сцену под разными углами из разных точек пространства (оптические оси камер в пространстве скрещиваются). Это приводит к несовпадению взаимного положения объектов, находящихся на разном удалении от камер, на изображениях, что особенно критично в случае протяженных по глубине сцен. Поля зрения расположенных рядом камер перекрываются лишь частично. Скомпенсировать разницу между изображениями глобальными преобразованиями в данном случае невозможно, а локальные преобразования могут привести к деградации деталей. Модели, обученные на таких наборах изображений, для которых попиксельное выравнивание невозможно, непригодны для улучшения мелких деталей изображений и применимы для ограниченного количества сценариев.The main disadvantage of this approach is that the cameras see the same scene at different angles from different points in space (the optical axes of the cameras cross in space). This leads to a discrepancy between the mutual positions of objects located at different distances from the cameras in the images, which is especially critical in the case of scenes extended in depth. The fields of view of adjacent cameras overlap only partially. In this case, it is impossible to compensate for the difference between images by global transformations, and local transformations can lead to degradation of details. Models trained on image sets for which pixel-by-pixel alignment is not possible are not suitable for improving fine image details and are applicable to a limited number of scenarios.

3.2 Получение наборов изображений с помощью двух оптически сопряженных камер.3.2 Obtaining sets of images using two optically coupled cameras.

Использование двух камер, оптические оси которых сопряжены в пространстве с помощью светоделителя, потенциально позволяет достичь лучшего совмещения между изображениями, чем варианты 2 и 3.1. В известных работах, использующих данный подход, не уделяется должного внимания хорошему начальному совмещению изображений за счет юстировки положения камер в пространстве и их синхронизации, а для финального совмещения используется сложная постобработка. Однако, как известно, чем меньше постобработки содержат данные, тем лучше они подходят для обучения моделей, поскольку сложная постобработка может вносить геометрические искажения в обрабатываемое изображение и нарушать естественный профиль шума. При плохой синхронизации камер попытка совместить изображения при помощи постобработки приводит к появлению артефактов на движущихся объектах. Из-за невозможности попиксельного выравнивания изображений ввиду плохой начальной юстировки камер, модели, обученные на таких наборах изображений, непригодны для задач улучшения мелких деталей изображений и применимы для ограниченного количества сценариев. Помимо этого, для данного подхода требуются статическая сцена (при отсутствии синхронизации) и сложная архитектура нейронной сети.The use of two cameras, the optical axes of which are coupled in space with the help of a beam splitter, potentially makes it possible to achieve better alignment between images than options 2 and 3.1. In well-known works using this approach, due attention is not paid to a good initial alignment of images by adjusting the position of the cameras in space and their synchronization, and complex post-processing is used for the final alignment. However, as you know, the less post-processing contains data, the better they are for training models, since complex post-processing can introduce geometric distortions into the processed image and disrupt the natural noise profile. If the cameras are poorly synchronized, an attempt to combine images using post-processing leads to the appearance of artifacts on moving objects. Due to the impossibility of pixel-by-pixel image alignment due to poor initial camera alignment, models trained on such image sets are unsuitable for improving fine image details and are applicable to a limited number of scenarios. In addition, this approach requires a static scene (in the absence of synchronization) and a complex neural network architecture.

Таким образом, общей проблемой известных подходов является отсутствие разнообразия собираемых данных. В основном все данные собираются для одной задачи - повышения разрешения изображения. Существующие наборы изображений с хорошо совмещенными изображениями небольшие и получены для квазистатических сцен в лабораторных условиях для какого-то одного набора камер. Получить аналогичные данные вне лабораторных условий и для различных сочетаний камер затруднительно, потому что из-за механических вибраций и перемещения объективов во время перефокусировки может возникать рассогласование оптических осей камер. Особенно подвержены влиянию вибраций обычные камеры (зеркальные фотоаппараты, камеры смартфонов), у которых не предусмотрена возможность надежной фиксации в отличие от промышленных камер, которые имеют по несколько крепежных отверстий. Thus, a common problem of the known approaches is the lack of diversity of the collected data. Basically, all the data is collected for one task - to increase the resolution of the image. The existing sets of images with well-aligned images are small and obtained for quasi-static scenes in laboratory conditions for some one set of cameras. It is difficult to obtain similar data outside the laboratory conditions and for various combinations of cameras, because due to mechanical vibrations and movement of lenses during refocusing, misalignment of the optical axes of the cameras can occur. Ordinary cameras (SLR cameras, smartphone cameras) are especially susceptible to vibrations, which do not have the possibility of reliable fixation, unlike industrial cameras, which have several mounting holes.

Решить эти проблемы могло бы универсальное устройство, обеспечивающее синхронизацию и юстировку камер, а также поддерживающее сохранность юстировки во время эксплуатации. Самоюстирующаяся система значительно бы упростила замену камеры одного типа камерой другого типа, обеспечивала бы переюстировку системы при возникновении рассогласований в ходе эксплуатации и позволила бы собирать разнообразные наборы изображений с различными сценами и в различных условиях.These problems could be solved by a universal device that provides synchronization and alignment of the cameras, as well as maintaining the alignment during operation. A self-aligning system would greatly simplify the replacement of a camera of one type with a camera of another type, would provide realignment of the system in case of mismatches during operation, and would allow collecting a variety of image sets with different scenes and under different conditions.

Уровень техникиState of the art

Из уровня техники известен документ «ImagePairs: Realistic Super Resolution Dataset via Beam Splitter Camera Rig» («Пары изображений: реалистичный набор данных для задачи повышения разрешения изображений, полученный с помощью установки с камерами и светоделителем»), Microsoft/arXiv:2004.08513v1, дата публикации 18.04.2020, в котором предоставляются две камеры с разными приемниками излучения и разной оптикой (камера низкого и высокого разрешения), установленные в юстировочных креплениях с 6-ю степенями свободы, оптические оси которых сопряжены через светоделитель. Совмещение изображений с камер за счет юстировки производится в несколько этапов с использованием ряда юстировочных мишеней. На обоих отснятых изображениях исправляют дисторсию, для более точного совмещения к одному из них применяют преобразование гомографии и дополнительно проводят локальное сопоставление на основе патчей, т.е. частей изображения. Пары изображений используются для обучения моделей для задач повышения разрешения изображений, повышения качества изображения, создания конвейера операций обработки изображений (ISP). Недостатками известного решения являются применение сложной постобработки (проводимой в том числе с разными параметрами обработки для каждой локальной окрестности) для конечного совмещения изображений, а также отсутствие синхронизации между камерами, что приводит к несовпадению положения движущихся объектов между изображениями, что, в свою очередь, приводит к появлению геометрических артефактов, вызванных сложной постобработкой.The prior art document "ImagePairs: Realistic Super Resolution Dataset via Beam Splitter Camera Rig", Microsoft/arXiv:2004.08513v1, publication date 04/18/2020, which provides two cameras with different radiation receivers and different optics (low and high resolution camera), installed in adjustment mounts with 6 degrees of freedom, the optical axes of which are coupled through a beam splitter. The combination of images from cameras due to alignment is performed in several stages using a number of alignment targets. Distortion is corrected in both captured images, for a more accurate alignment, a homography transformation is applied to one of them, and additionally local matching is performed based on patches, i.e. parts of the image. Image pairs are used to train models for image upscaling, image upscaling, image processing pipeline (ISP) operations. The disadvantages of the known solution are the use of complex post-processing (including with different processing parameters for each local neighborhood) for the final alignment of images, as well as the lack of synchronization between cameras, which leads to a mismatch in the position of moving objects between images, which, in turn, leads to to the appearance of geometric artifacts caused by complex post-processing.

Из уровня техники также известен документ «Capturing ground truth super-resolution data» («Получение эталонных изображений для задачи повышения разрешения изображения») от Karlsruhe Institute of Technology/Fraunhofer IOSB/DOI: 10.1109/ICIP.2016.7532872, дата публикации 09.2016, в котором описан лабораторный макет, состоящий из двух камер с одинаковыми приемниками излучения и разной оптикой (широкоугольный объектив и зум-телеобъектив), одна из которых установлена на поворотно-наклонном столике и оптические оси которых сопряжены через светоделитель. Совмещение изображений с камер за счет юстировки производится за счет компенсации поворота в плоскости приемника излучения с помощью наклонно-поворотного столика и выравнивания масштабов с помощью зум-объектива. Остальные сдвиги компенсируются алгоритмом Лукаса-Канаде во время постобработки. Пары изображений, полученных с помощью такой установки, используются для обучения моделей для задач повышения разрешения изображений. Недостатками известного решения является то, что оптические оси камер не совмещены в пространстве, а значит, решение применимо только для квазиплоских сцен, а также грубое начальное совмещение изображений за счет юстировки камер, которое требует применения сложной постобработки на основе оценки светового потока для финального совмещения изображений. Also known from the prior art is the document "Capturing ground truth super-resolution data" from Karlsruhe Institute of Technology/Fraunhofer IOSB/DOI: 10.1109/ICIP.2016.7532872, publication date 09.2016, in which A laboratory model is described, consisting of two cameras with identical radiation receivers and different optics (wide-angle lens and telephoto zoom lens), one of which is mounted on a tilt-and-turn table and whose optical axes are coupled through a beam splitter. Combination of images from cameras due to alignment is performed by compensating for rotation in the plane of the radiation receiver using a tilt-rotary table and aligning the scales with a zoom lens. The remaining shifts are compensated by the Lucas-Kanade algorithm during post-processing. Pairs of images obtained using such a setup are used to train models for image upscaling tasks. The disadvantages of the known solution are that the optical axes of the cameras are not aligned in space, which means that the solution is applicable only for quasi-flat scenes, as well as a rough initial alignment of images due to camera alignment, which requires complex post-processing based on estimating the light flux for the final alignment of images. .

Из уровня техники известен документ «DSLR-Quality Photos on Mobile Devices with Deep Convolutional Networks» («Фотографии DSLR-качества на мобильных устройствах с глубокими сверточными сетями») от ETH Zurich/arXiv:1704.02470v2, дата публикации 05.09.2017, в котором описан метод получения пар изображений с помощью двух камер c разными приемниками излучения и разной оптикой (зеркальные камеры и смартфоны), которые располагаются рядом друг с другом и имеют частично перекрывающиеся поля зрения. Отснятые изображения совмещают с помощью преобразования гомографии, вычисленного на основе сопоставления характерных точек сцены, найденных с помощью алгоритма SIFT (масштабно-инвариантной трансформации признаков). Пары изображений используются для обучения моделей для задач улучшения качества изображения. Недостатками известного решения является то, что изображения не могут быть совмещены по глубине, так как камеры имеют разные углы обзора и пространственные положения. The prior art document "DSLR-Quality Photos on Mobile Devices with Deep Convolutional Networks" ("DSLR-quality photos on mobile devices with deep convolutional networks") from ETH Zurich/arXiv:1704.02470v2, publication date 09/05/2017, which describes a method for obtaining pairs of images using two cameras with different radiation receivers and different optics (SLR cameras and smartphones), which are located next to each other and have partially overlapping fields vision. The captured images are combined using a homography transformation calculated on the basis of matching the characteristic points of the scene found using the SIFT (scale invariant feature transformation) algorithm. Image pairs are used to train models for image enhancement tasks. The disadvantages of the known solution is that the images cannot be combined in depth, since the cameras have different viewing angles and spatial positions.

Из уровня техники известен документ WO 2020/246861 A1, дата публикации 12.10.2020, раскрывающий «Method and apparatus for training neural network model for enhancing image detail» («Способ и устройство для обучения модели на основе нейронных сетей для повышения детализации изображения»), согласно которому пары изображений получают одной камерой путем быстрого последовательного захвата пары изображений с разными настройками качества. Пары изображений используются для обучения моделей для задач повышения детализации изображения и шумоподавления. Недостатком известного решения является то, что оно подходит для почти статичных сцен и умеренной разницы экспозиций снимаемых изображений, а также то, что для обучения на таких парах изображений требуется сложная архитектура нейронной сети, которая бы позволила скомпенсировать плохое совмещение последовательно снятых кадров. Document WO 2020/246861 A1, publication date 10/12/2020, is known from the prior art, disclosing "Method and apparatus for training neural network model for enhancing image detail" ("Method and apparatus for training a model based on neural networks to increase image detail") , according to which pairs of images are obtained by one camera by quickly sequentially capturing a pair of images with different quality settings. Image pairs are used to train models for image detail enhancement and noise reduction tasks. The disadvantage of the known solution is that it is suitable for almost static scenes and a moderate difference in the exposures of the captured images, as well as the fact that training on such pairs of images requires a complex neural network architecture that would allow compensating for poor alignment of sequentially captured frames.

Положительные результаты изобретенияPositive results of the invention

В соответствии с настоящим изобретением обеспечивается поддержка различных типов камер при получении наборов изображений и их юстировка, а также поддержка сохранности юстировки в процессе работы.In accordance with the present invention, support is provided for various types of cameras in obtaining sets of images and their alignment, as well as maintaining the alignment during operation.

В соответствии с настоящим изобретением также обеспечивается получение наборов изображений для разных сценариев, таких как повышение разрешения, повышение детализации, демозаика.In accordance with the present invention, it is also possible to obtain sets of images for different scenarios, such as upscaling, upscaling, demosaicing.

В соответствии с настоящим изобретением также обеспечивается применимость изобретения для движущихся сцен и сценария устранения размытия.In accordance with the present invention, the applicability of the invention to moving scenes and deblur scenarios is also provided.

В соответствии с настоящим изобретением также обеспечивается отсутствие постобработки для финального совмещения изображений, либо применение только глобальных преобразований к эталонным изображениям в наборе (что позволяет избежать возникновения локальных геометрических артефактов), тогда как изображения, подаваемые на вход нейросети, остаются в исходном виде.In accordance with the present invention, there is also no post-processing for the final alignment of images, or the application of only global transformations to the reference images in the set (which avoids the occurrence of local geometric artifacts), while the images fed to the input of the neural network remain in their original form.

Также обеспечивается возможность юстировки системы независимо от сцены, благодаря чему имеется возможность применения изобретения для решения широкого круга задач. It also provides the ability to align the system regardless of the scene, making it possible to apply the invention to a wide range of problems.

Сущность изобретенияThe essence of the invention

Предлагается самоюстирующееся устройство, предназначенное для получения наборов изображений с помощью N цифровых камер, где N≥2, оптически сопряженных через N-1 светоделителей, которое бы позволяло размещать на нем любые N камер с любыми креплениями, а именно - одну или несколько эталонных камер, снимающих изображения хорошего качества, и одну или несколько целевых камер, снимающих изображения низкого качества. Камеры крепятся на регулируемых держателях, обеспечивающих линейные и поворотные перемещения. Юстировочный модуль с высокой точностью управляет держателями, осуществляя юстировку системы с использованием характерных точек, захваченных в снимаемой сцене, на юстировочной мишени или с использованием модуля имитации юстировочной мишени, чтобы изначально как можно точнее совместить изображения средствами устройства за счет сдвигов, наклонов и поворотов камер и тем самым свести к минимуму постобработку для финального совмещения изображений. Управление камерами осуществляет модуль управления. A self-aligning device is proposed for obtaining sets of images using N digital cameras, where N≥2, optically coupled through N-1 beam splitters, which would allow placing on it any N cameras with any mounts, namely, one or more reference cameras, that capture good quality images and one or more target cameras that capture poor quality images. The cameras are mounted on adjustable holders that provide linear and rotary movements. The alignment module controls the holders with high precision, adjusting the system using characteristic points captured in the scene being shot, on the adjustment target or using the adjustment target simulation module, in order to initially match the images as accurately as possible by means of the device due to shifts, tilts and rotations of the cameras and thereby minimizing post-processing for the final alignment of images. The cameras are controlled by the control module.

Также предлагается способ получения наборов изображений с помощью данного устройства, которые могут использоваться для обучения моделей улучшения качества изображений на основе нейросетей. A method is also proposed for obtaining sets of images using this device, which can be used to train image quality enhancement models based on neural networks.

Варианты осуществленияEmbodiments

В одном варианте осуществления изобретения охарактеризовано устройство для получения наборов изображений, содержащее: N цифровых камер, где N≥2, в том числе одну или более эталонных камер, снимающих эталонные изображения хорошего качества, и одну или более целевых камер, снимающих целевые изображения низкого качества, закрепленных на упомянутом устройстве и оптически сопряженных с помощью N-1 светоделителей, причем по меньшей мере N-1 камера установлена на автоматически регулируемых держателях, юстировочный модуль, используемый для юстировки по меньшей мере N-1 камеры из числа N камер на основе N изображений сцены, причем юстировка осуществляется при помощи приведения в действие регулируемых держателей, на которых установлены упомянутые N-1 камеры, систему синхронизации цифровых камер для съемки изображений, модуль управления для управления цифровыми камерами и обеспечения связи между отдельными частями устройства и получения наборов из N изображений, причем модуль управления выдает команду юстировочному модулю произвести юстировку по меньшей мере N-1 камер на основе изображений сцены.In one embodiment of the invention, an image set acquisition device is characterized, comprising: N digital cameras, where N≥2, including one or more reference cameras capturing good quality reference images and one or more target cameras capturing poor quality target images. mounted on said device and optically coupled with N-1 beamsplitters, with at least N-1 cameras mounted on automatically adjustable holders, an alignment module used to align at least N-1 cameras out of N cameras based on N images scenes, wherein the adjustment is carried out by actuating adjustable holders on which the mentioned N-1 cameras are installed, a digital camera synchronization system for taking images, a control module for controlling digital cameras and providing communication between the individual parts of the device and obtaining sets of N images, wherein the control module instructs the alignment module to align at least N-1 cameras based on the scene images.

В дополнительном варианте осуществления изобретения модуль управления дополнительно осуществляет калибровку цветопередачи N-1 камер для приведения цветов эталонных изображений в соответствие цветам целевых изображений.In a further embodiment of the invention, the control module further performs color calibration of the N-1 cameras to match the colors of the reference images to those of the target images.

В дополнительном варианте осуществления изобретения модуль управления дополнительно рассчитывает коэффициенты необходимых полиномиальных преобразований для приведения эталонных изображений в соответствие целевым изображениям по пространственным координатам, и применяет полиномиальные преобразования к упомянутым эталонным изображениям для их более точного пространственного совмещения с целевыми изображениями.In an additional embodiment of the invention, the control module additionally calculates the coefficients of the necessary polynomial transformations to bring the reference images into correspondence with the target images in spatial coordinates, and applies polynomial transformations to the said reference images for their more accurate spatial alignment with the target images.

В дополнительном варианте осуществления изобретения оптически сопряженные камеры с одинаковыми объективами и одинаковыми приемниками излучения формируют идентичные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением в центральной области изображения. In an additional embodiment of the invention, optically coupled cameras with the same lenses and the same radiation receivers form identical optical images of the same scene with good spatial alignment in the central region of the image.

В дополнительном варианте осуществления изобретения оптически сопряженные камеры с одинаковыми объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. In an additional embodiment of the invention, optically conjugated cameras with the same lenses and different radiation receivers form optical images of the same scene with different parameters with good spatial alignment when all images are scaled to one in the central image area.

В дополнительном варианте осуществления изобретения оптически сопряженные камеры с разными объективами и одинаковыми приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения.In an additional embodiment of the invention, optically conjugated cameras with different lenses and the same radiation receivers form optical images of the same scene with different parameters with good spatial alignment when all images are scaled to one in the central image area.

В дополнительном варианте осуществления изобретения оптически сопряженные камеры с разными объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения.In an additional embodiment of the invention, optically coupled cameras with different lenses and different radiation detectors form optical images of the same scene with different parameters with good spatial alignment when all images are scaled to one in the central image area.

В дополнительном варианте осуществления изобретения по меньшей мере один оптический фильтр может быть вставлен перед по меньшей мере одной камерой для независимого изменения светового потока за счет ослабления или спектральной фильтрации или фильтрации по поляризации в по меньшей мере одном оптическом канале устройства.In a further embodiment of the invention, at least one optical filter may be inserted in front of at least one camera to independently change the light output by attenuating either spectral or polarization filtering in at least one optical channel of the device.

В другом варианте осуществления изобретения охарактеризовано устройство для получения наборов изображений, содержащее: N цифровых камер, где N≥2, в том числе одну или более эталонных камер, снимающих эталонные изображения хорошего качества, и одну или более целевых камер, снимающих целевые изображения низкого качества, закрепленных на упомянутом устройстве и оптически сопряженных с помощью N-1 светоделителей, причем по меньшей мере N-1 камера установлена на автоматически регулируемом держателе, модуль имитации мишени, формирующий мнимые изображения юстировочной мишени на двух заданных расстояниях, и содержащий два фокусируемых имитатора юстировочной мишени, которые оптически сопряжены через светоделитель, каждый из которых состоит из источника света, тест-объекта и коллимирующей системы, юстировочный модуль, используемый для юстировки по меньшей мере N-1 камеры из числа N камер на основе N изображений мнимой юстировочной мишени, причем юстировка осуществляется при помощи приведения в действие регулируемых держателей, на которых установлены упомянутые N-1 камеры, систему синхронизации камер для съемки изображений, модуль управления для управления камерами и обеспечения связи между отдельными частями устройства, выполненный с возможностью выдавать системе синхронизации камер команды на синхронизацию при захвате набора изображений, причем модуль управления выполнен с возможностью выдавать команды юстировочному модулю производить юстировку по меньшей мере N-1 камер из числа N камер на основе изображений мнимой юстировочной мишени, задавать параметры съемки для камер.In another embodiment of the invention, an image set acquisition device is characterized, comprising: N digital cameras, where N≥2, including one or more reference cameras capturing good quality reference images and one or more target cameras capturing poor quality target images. mounted on said device and optically coupled by means of N-1 beam splitters, with at least N-1 camera mounted on an automatically adjustable holder, a target simulation module that forms virtual images of the alignment target at two predetermined distances and contains two focusable alignment target simulators , which are optically coupled through a beam splitter, each of which consists of a light source, a test object and a collimating system, an alignment module used to align at least N-1 cameras out of N cameras based on N images of an imaginary alignment target, and the alignment is performed by actuating adjustable holders on which said N-1 cameras are mounted, a camera synchronization system for capturing images, a control module for controlling cameras and providing communication between individual parts of the device, configured to issue synchronization commands to the camera synchronization system when capturing a set images, and the control module is configured to issue commands to the adjustment module to align at least N-1 cameras from among N cameras based on images of the imaginary adjustment target, set shooting parameters for the cameras.

В дополнительном варианте осуществления изобретения модуль управления осуществляет калибровку цветопередачи N-1 камер для приведения цветов эталонных изображений в соответствие цветам целевых изображений. In a further embodiment of the invention, the control module performs color calibration of the N-1 cameras to match the colors of the reference images to the colors of the target images.

В дополнительном варианте осуществления изобретения модуль управления дополнительно рассчитывает коэффициенты необходимых полиномиальных преобразований для приведения эталонных изображений в соответствие целевым изображениям по пространственным координатам, и применяет полиномиальные преобразования к упомянутым эталонным изображениям для их более точного пространственного совмещения с целевыми изображениями.In an additional embodiment of the invention, the control module additionally calculates the coefficients of the necessary polynomial transformations to bring the reference images into correspondence with the target images in spatial coordinates, and applies polynomial transformations to the said reference images for their more accurate spatial alignment with the target images.

В дополнительном варианте осуществления изобретения оптически сопряженные камеры с одинаковыми объективами и одинаковыми приемниками излучения формируют идентичные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением в центральной области изображения. In an additional embodiment of the invention, optically coupled cameras with the same lenses and the same radiation receivers form identical optical images of the same scene with good spatial alignment in the central region of the image.

В дополнительном варианте осуществления изобретения оптически сопряженные камеры с одинаковыми объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с высоким пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. In an additional embodiment of the invention, optically conjugated cameras with the same lenses and different radiation receivers form optical images of the same scene with different parameters with high spatial alignment when all images are scaled to one in the central image area.

В дополнительном варианте осуществления изобретения оптически сопряженные камеры с разными объективами и одинаковыми приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с высоким пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения.In an additional embodiment of the invention, optically coupled cameras with different lenses and the same radiation receivers form optical images of the same scene with different parameters with high spatial alignment when all images are scaled to one in the central image area.

В дополнительном варианте осуществления изобретения оптически сопряженные камеры с разными объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с высоким пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения.In an additional embodiment of the invention, optically coupled cameras with different lenses and different radiation receivers form optical images of the same scene with different parameters with high spatial alignment when all images are scaled to one in the central image area.

В дополнительном варианте осуществления изобретения по меньшей мере один оптический фильтр может быть вставлен перед по меньшей мере одной камерой для независимого изменения светового потока в по меньшей мере одном оптическом канале устройства.In a further embodiment of the invention, at least one optical filter may be inserted in front of at least one camera to independently change the light flux in at least one optical channel of the device.

В другом варианте осуществления изобретения охарактеризован способ получения наборов изображений, содержащий этапы, на которых фокусируют на требуемое расстояние N цифровых камер, где N≥2, образующих систему цифровых камер и требующих фокусировки, оптически сопряженных с помощью светоделителя; производят юстировку системы из N цифровых камер, где N≥2, оптически сопряженных с помощью N-1 светоделителей, причем упомянутая система из N цифровых камер включает в себя одну или более эталонных камер, снимающих эталонные изображения хорошего качества, и одну или более целевых камер, снимающих целевые изображения низкого качества, с использованием выбранного алгоритма для достижения хорошего совмещения изображений в центральной области, где оптические аберрации малы; с помощью оптически сопряженных цифровых камер формируют оптические изображения одной и той же сцены с хорошим пространственным совмещением в центральной области изображения; получают набор из N изображений с системы из N цифровых камер с синхронизацией по времени начала съемки с разными параметрами съемки.In another embodiment of the invention, a method for obtaining sets of images is characterized, comprising the steps of focusing to the required distance N digital cameras, where N≥2, forming a system of digital cameras and requiring focusing, optically coupled using a beam splitter; aligning a system of N digital cameras, where N≥2, optically coupled with N-1 beam splitters, said system of N digital cameras including one or more reference cameras that capture good quality reference images, and one or more target cameras that capture low quality target images using the selected algorithm to achieve good image registration in the central region where optical aberrations are small; using optically coupled digital cameras form optical images of the same scene with good spatial alignment in the central region of the image; receiving a set of N images from a system of N digital cameras synchronized by the start time of shooting with different shooting parameters.

В дополнительном варианте осуществления изобретения параметры синхронизации задаются таким образом, что по меньшей мере одна камера из числа N камер имеет длинную экспозицию, а остальные камеры из числа N камер имеют короткую экспозицию, начало которой смещено относительно начала длинной экспозиции на требуемую величину.In an additional embodiment of the invention, the synchronization parameters are set in such a way that at least one camera out of N cameras has a long exposure, and the remaining cameras out of N cameras have a short exposure, the beginning of which is shifted relative to the start of the long exposure by the required amount.

В дополнительном варианте осуществления изобретения предварительно осуществляют регистрацию набора изображений калибровочной цветовой мишени; на основе этих изображений рассчитывают матрицу цветокоррекции, позволяющую привести цвета всех изображений в наборе к цветам одного изображения в наборе; на основе рассчитанной матрицы цветокоррекции осуществляют цветокоррекцию всех зарегистрированных изображений в наборе кроме одного.In an additional embodiment of the invention, a set of images of a calibration color target is preliminarily registered; on the basis of these images, a color correction matrix is calculated, which makes it possible to bring the colors of all images in the set to the colors of one image in the set; based on the calculated color correction matrix, all registered images in the set are color corrected except for one.

В дополнительном варианте осуществления изобретения рассчитывают коэффициенты необходимых полиномиальных преобразований для приведения эталонных изображений в наборе в соответствие целевым изображениям по пространственным координатам; применяют упомянутые полиномиальные преобразования к эталонным изображениям в наборе для их более точного пространственного совмещения с целевыми изображениями.In a further embodiment of the invention, the coefficients of the necessary polynomial transformations are calculated to bring the reference images in the set to match the target images in spatial coordinates; applying said polynomial transformations to the reference images in the set to more accurately spatially match them to the target images.

В дополнительном варианте осуществления изобретения с помощью оптически сопряженных камер с одинаковыми объективами и одинаковыми приемниками излучения формируют идентичные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением в центральной области изображения. In an additional embodiment of the invention, using optically coupled cameras with the same lenses and the same radiation receivers, optical images of the same scene with identical parameters are formed with good spatial alignment in the central region of the image.

В дополнительном варианте осуществления изобретения с помощью оптически сопряженных камер с одинаковыми объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. In an additional embodiment of the invention, using optically coupled cameras with the same lenses and different radiation receivers, optical images of the same scene with different parameters are formed with good spatial alignment when all images are scaled one by one in the central image area.

В дополнительном варианте осуществления изобретения с помощью оптически сопряженных камер с разными объективами и одинаковыми приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. In an additional embodiment of the invention, using optically coupled cameras with different lenses and the same radiation detectors, optical images of the same scene with different parameters are formed with good spatial alignment when scaling all images one by one in the central image area.

В дополнительном варианте осуществления изобретения с помощью оптически сопряженных камер с разными объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. In an additional embodiment of the invention, using optically coupled cameras with different lenses and different radiation receivers, optical images of the same scene with different parameters are formed with good spatial alignment when scaling all images one by one in the central image area.

В дополнительном варианте осуществления изобретения изменяют световой поток для по меньшей мере одной из цифровых камер с помощью оптического фильтра, устанавливаемого перед по меньшей мере одной из цифровых камер, осуществляя тем самым ослабление или спектральную фильтрацию или фильтрацию по поляризации светового потока.In a further embodiment of the invention, the luminous flux for at least one of the digital cameras is changed by means of an optical filter installed in front of at least one of the digital cameras, thereby attenuating or spectral filtering or filtering by polarization of the light flux.

В еще одном варианте осуществления изобретения охарактеризовано устройство для получения наборов изображений, содержащее:In yet another embodiment of the invention, an image set acquisition device is characterized, comprising:

две цифровые камеры, в том числе одну эталонную камеру, снимающую эталонные изображения хорошего качества, и одну целевую камеру, снимающую целевые изображения низкого качества, закрепленных на упомянутом устройстве и оптически сопряженных с помощью светоделителя, причемtwo digital cameras, including one reference camera capturing good quality reference images and one target camera capturing poor quality target images, fixed on said device and optically coupled with a beam splitter, wherein

по меньшей мере одна камера установлена на автоматически регулируемых держателях, at least one camera is mounted on automatically adjustable holders,

юстировочный модуль, используемый для юстировки по меньшей мере одной камеры на основе двух изображений сцены, причем юстировка осуществляется при помощи приведения в действие регулируемых держателей, на которых установлены упомянутые камеры,an adjustment module used to align at least one camera based on two images of a scene, the adjustment being carried out by actuating adjustable holders on which said cameras are mounted,

систему синхронизации цифровых камер для съемки изображений,digital camera synchronization system for taking pictures,

модуль управления для управления цифровыми камерами и обеспечения связи между отдельными частями устройства и получения наборов изображений, a control module for controlling digital cameras and providing communication between individual parts of the device and obtaining sets of images,

причем модуль управления выдает команду юстировочному модулю произвести юстировку по меньшей мере одной камеры на основе изображений сцены.wherein the control module instructs the alignment module to align at least one camera based on the images of the scene.

Краткое описание чертежейBrief description of the drawings

Вышеописанные и другие признаки и преимущества настоящего изобретения поясняются в последующем описании, иллюстрируемом чертежами, на которых представлено следующее:The above and other features and advantages of the present invention are explained in the following description, illustrated by drawings, in which the following is presented:

Фиг. 1 схематично иллюстрирует предлагаемое устройство для получения наборов изображений в конфигурации с двумя камерами.Fig. 1 schematically illustrates the proposed device for obtaining sets of images in a dual camera configuration.

Фиг. 2 иллюстрирует функциональную схему заявленного устройства в конфигурации с двумя камерами, обеспечивающего автоматическую юстировку по наблюдаемой сцене. Fig. 2 illustrates a functional diagram of the claimed device in a two-camera configuration that provides automatic alignment to the observed scene.

Фиг. 3 иллюстрирует схему работы юстировочного модуля.Fig. 3 illustrates the operation of the adjustment module.

Фиг. 4 иллюстрирует пример юстировочной мишени с двумя плоскостями.Fig. 4 illustrates an example of an alignment target with two planes.

Фиг. 5 иллюстрирует оптическую схему заявленного устройства в конфигурации с двумя камерами, реализующего режим юстировки по мнимой мишени.Fig. 5 illustrates the optical scheme of the claimed device in a configuration with two cameras, realizing the alignment mode on an imaginary target.

Фиг. 6 схематично иллюстрирует предлагаемое устройство в конфигурации с N камерами.Fig. 6 schematically illustrates the proposed device in an N-chamber configuration.

Подробное описание изобретенияDetailed description of the invention

Фиг. 1 схематично иллюстрирует предлагаемое устройство для получения наборов изображений, содержащее две цифровые камеры (2 и 3), оптически сопряженные через светоделитель (1). В зависимости от решаемой задачи возможны различные комбинации камер, а именно: камеры с одинаковыми объективами и одинаковыми матричными приемниками излучения, камеры с одинаковыми объективами и разными приемниками излучения, камеры с разными объективами и одинаковыми приемниками излучения, камеры с разными объективами и разными приемниками излучения. При этом по меньшей мере одна камера крепится на регулируемых держателях (21), управляемых юстировочным модулем (4), и обеспечивающих линейные и поворотные перемещения, приводимых в действие юстировочным модулем (4). Также возможны варианты, когда обе камеры (2 и 3), либо одна камера и светоделитель, либо обе камеры (2 и 3) и светоделитель (1) крепятся на регулируемых держателях (21). Юстировочный модуль (4) выполняет автоматическое совмещение изображений с двух камер за счет юстировки по алгоритму, основанному на сопоставлении положения характерных точек на двух изображениях. Эти точки могут браться из сцены (менее точно), либо с юстировочной мишени с двумя плоскостями (более точно, но нужна физическая мишень), либо с мнимой мишени, сформированной модулем имитации мишени (9). Камеры синхронизируются для съемки при помощи системы синхронизации (6) (например, с использованием электрического и/или оптического триггера, протокола сетевого времени), которая позволяет согласовать моменты начала съемки между камерами для съемки в режиме ведущая камера-ведомая камера в соответствии с настройками, полученными от модуля управления непосредственно, либо через ведущую камеру, в зависимости от реализации системы синхронизации (6). В случае использования системы синхронизации (6), сигнал на съемку от модуля управления (5) подается на одну из камер (так называемая ведущая камера). Это камера выдает команду на съемку второй камере (так называемой ведомой камере, одной или нескольким) либо через триггер, либо по сетевому протоколу. На фиг.1 в качестве ведущей камеры изображена камера 1 (2), которая выдает ведомой камере 2 (3) команду на съемку путем подачи сигнала синхронизации в систему синхронизации (6), которая затем выдает пусковой сигнал камере 2 (3).Fig. 1 schematically illustrates the proposed device for obtaining sets of images, containing two digital cameras (2 and 3) optically coupled through a beam splitter (1). Depending on the problem being solved, various combinations of cameras are possible, namely: cameras with the same lenses and the same matrix radiation detectors, cameras with the same lenses and different radiation detectors, cameras with different lenses and the same radiation detectors, cameras with different lenses and different radiation detectors. In this case, at least one camera is mounted on adjustable holders (21), controlled by the adjustment module (4), and providing linear and rotary movements, driven by the adjustment module (4). Variants are also possible when both chambers (2 and 3), or one chamber and a beam splitter, or both chambers (2 and 3) and a beam splitter (1) are mounted on adjustable holders (21). The adjustment module (4) performs automatic alignment of images from two cameras by adjusting according to an algorithm based on a comparison of the position of characteristic points on two images. These points can be taken from the scene (less accurately), or from a two-plane alignment target (more accurately, but a physical target is needed), or from an imaginary target formed by the target simulation module (9). The cameras are synchronized for shooting using a synchronization system (6) (for example, using an electrical and / or optical trigger, network time protocol), which allows you to coordinate the start of shooting between cameras for shooting in the master camera-slave camera mode in accordance with the settings, received from the control module directly, or through the leading camera, depending on the implementation of the synchronization system (6). In the case of using a synchronization system (6), a signal for shooting from the control module (5) is sent to one of the cameras (the so-called master camera). This camera issues a command to shoot a second camera (the so-called slave camera, one or more) either through a trigger or via a network protocol. Figure 1 shows camera 1 (2) as the master camera, which issues a shooting command to the slave camera 2 (3) by applying a synchronization signal to the synchronization system (6), which then issues a trigger signal to camera 2 (3).

Также возможно снимать и без использования системы синхронизации, тогда обе камеры будут получать команду на съемку непосредственно с модуля управления (5). Но в этом случае изображения не будут согласованы во времени, что особенно хорошо заметно на движущихся объектах. Такой вариант подходит только для статических сцен. Система синхронизации позволяет учесть разницу во времени обработки управляющего сигнала/отработки камер и правильно расставить задержки съемки на каждой камере, чтобы в итоге они снимали в один момент глобального времени или с требуемой задержкой друг относительно друга. It is also possible to shoot without using the synchronization system, in which case both cameras will receive a shooting command directly from the control module (5). But in this case, the images will not be consistent in time, which is especially noticeable on moving objects. This option is only suitable for static scenes. The synchronization system allows you to take into account the difference in the processing time of the control signal / processing of the cameras and correctly place the shooting delays on each camera so that in the end they shoot at the same global time point or with the required delay relative to each other.

В оптические каналы устройства могут быть вставлены оптические фильтры (7 и 8) для независимого изменения светового потока, приходящего на камеры. Модуль управления (5) управляет камерами (2 и 3), управляет системой синхронизации (6), обеспечивает связь между отдельными частями устройства, передает отснятые изображения с обеих камер (2 и 3) в юстировочный модуль (4), который управляет регулируемыми держателями (21) камер.Optical filters (7 and 8) can be inserted into the optical channels of the device to independently change the light flux coming to the cameras. The control module (5) controls the cameras (2 and 3), controls the synchronization system (6), provides communication between the individual parts of the device, transfers the captured images from both cameras (2 and 3) to the adjustment module (4), which controls the adjustable holders ( 21) cameras.

При функционировании данного устройства осуществляется способ получения наборов изображений с различными сочетаниями объективов и/или приемников излучения и/или фильтров с настраиваемой синхронизацией и, при необходимости, очень простой постобработкой только эталонных изображений в наборе изображений, которая может включать в себя применение цветокоррекции и полиномиальных преобразований. Способ получения наборов изображений заключается в том, что:The operation of this device is a method for obtaining image sets with various combinations of lenses and/or radiation receivers and/or filters with adjustable timing and, if necessary, very simple post-processing of only the reference images in the image set, which may include the application of color correction and polynomial transformations . The way to get sets of images is that:

Сперва камеры, которые требуют фокусировки, фокусируют на требуемое расстояние. Производят юстировку устройства с использованием выбранного алгоритма для достижения хорошего совмещения изображений в центральной области, где оптические аберрации малы. Юстировку по мере необходимости повторяют в процессе съемки. First, cameras that require focusing are focused to the required distance. The device is aligned using the selected algorithm to achieve good image alignment in the central region where optical aberrations are small. Adjustment is repeated as necessary during the shooting process.

С помощью одинаковых оптически сопряженных камер (2 и 3) формируют по меньшей мере два идентичных по параметрам оптических изображения (с одинаковым увеличением, разрешением и пр.) одной и той же сцены с хорошим пространственным совмещением.Using the same optically coupled cameras (2 and 3), at least two optical images identical in terms of parameters (with the same magnification, resolution, etc.) of the same scene with good spatial alignment are formed.

Осуществляют регистрацию наборов изображений с синхронизацией по времени начала съемки с разными параметрами съемки (экспозиция, коэффициент усиления аналого-цифрового преобразователя). Параметры синхронизации задаются исходя из задачи: по меньшей мере две камеры (2 и 3) снимают синхронно, либо по меньшей мере одна из камер имеет длинную экспозицию, а остальные короткую, начало которой смещено относительно начала длинной на требуемую величину. Полученные наборы изображений используют для таких задач, как, например, повышение детализации изображений, устранение размытия и шумоподавление.Recording of sets of images is carried out with synchronization in time of the start of shooting with different shooting parameters (exposure, gain of the analog-to-digital converter). Synchronization parameters are set based on the task: at least two cameras (2 and 3) shoot synchronously, or at least one of the cameras has a long exposure, and the rest have a short one, the beginning of which is shifted relative to the beginning of the long exposure by the required amount. The resulting image sets are used for tasks such as image enhancement, deblurring, and noise reduction.

В дополнительном варианте осуществления данного способа производят дополнительную калибровку цветопередачи, при этом регистрируют набор изображений калибровочной цветовой мишени, затем на основе этих изображений рассчитывают матрицу цветокоррекции, позволяющую привести цвета всех изображений в наборах к цветам одного изображения в наборе.In an additional embodiment of this method, an additional color rendering calibration is performed, while a set of images of a calibration color target is recorded, then a color correction matrix is calculated based on these images, which allows to bring the colors of all images in the sets to the colors of one image in the set.

В дополнительном варианте осуществления данного способа для набора изображений рассчитывают коэффициенты необходимых полиномиальных преобразований для приведения изображений эталонных камер в наборе в соответствие изображениям целевых камер в наборе по пространственным координатам, применяют полиномиальные преобразования к изображениям с эталонных камер в наборе для более точного совмещения изображений.In an additional embodiment of this method for a set of images, the coefficients of the necessary polynomial transformations are calculated to bring the images of the reference cameras in the set into correspondence with the images of the target cameras in the set in spatial coordinates, polynomial transformations are applied to the images from the reference cameras in the set for more accurate image alignment.

В дополнительном варианте осуществления данного способа с помощью оптически сопряженных камер (2 и 3) с одинаковыми объективами и разными приемниками излучения формируют различные по параметрам оптические изображения, обладающие разным разрешением, одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. Полученные наборы изображений используют для таких задач, как, например, повышение разрешения изображения. In an additional embodiment of this method, using optically coupled cameras (2 and 3) with the same lenses and different radiation detectors, optical images of the same scene with different parameters are formed with different resolutions, with good spatial alignment when scaling all images under one in center area of the image. The resulting image sets are used for tasks such as image resolution enhancement.

В дополнительном варианте осуществления данного способа с помощью оптически сопряженных камер (2 и 3) с разными объективами и одинаковыми приемниками излучения формируют различные по параметрам оптические изображения, обладающие разным увеличением, одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. Полученные наборы изображений используют для таких задач, как, например, повышение разрешения изображения. In an additional embodiment of this method, using optically coupled cameras (2 and 3) with different lenses and the same radiation detectors, optical images of the same scene with different magnifications are formed, different in parameters, with good spatial alignment when scaling all images under one in center area of the image. The resulting image sets are used for tasks such as image resolution enhancement.

В дополнительном варианте осуществления данного способа с помощью оптически сопряженных камер (2 и 3) с разными объективами и разными приемниками излучения формируют различные по параметрам оптические изображения, обладающие разным увеличением и разным разрешением, одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. Полученные наборы изображений используют для задач, как, например, повышение разрешения изображения. In an additional embodiment of this method, using optically coupled cameras (2 and 3) with different lenses and different radiation detectors, optical images of the same scene with different parameters, having different magnifications and different resolutions, are formed with good spatial alignment when scaling all images under one in the central area of the image. The resulting image sets are used for tasks such as image upscaling.

В дополнительном варианте осуществления данного способа изменяют световой поток для по меньшей мере одной из камер (2 и/или 3) с помощью фильтра/фильтров (7 и/или 8), устанавливаемых в оптических каналах устройства перед камерой/камерами (2 и/или 3), осуществляя тем самым ослабление или спектральную фильтрацию или фильтрацию по поляризации. In an additional embodiment of this method, the light flux for at least one of the cameras (2 and/or 3) is changed using a filter/filters (7 and/or 8) installed in the optical channels of the device in front of the camera/cameras (2 and/or 3), thereby performing attenuation or spectral or polarization filtering.

Таким образом, как представлено на Фиг. 1, первой ключевой особенностью настоящего изобретения является наличие юстировочного модуля, обеспечивающего автоматическую юстировку устройства по наблюдаемой сцене.Thus, as shown in FIG. 1, the first key feature of the present invention is the presence of an alignment module that automatically aligns the device to the observed scene.

На фиг. 2 показана функциональная схема заявленного устройства в конфигурации с двумя камерами (2 и 3), обеспечивающего автоматическую юстировку по наблюдаемой сцене при помощи юстировочного модуля. Схема, представленная на фиг. 2 отличается от схемы, представленной на фиг. 1, отсутствием модуля имитации мишени (9). На фиг. 2 цифрами обозначено следующее:In FIG. 2 shows a functional diagram of the claimed device in a configuration with two cameras (2 and 3), which provides automatic adjustment to the observed scene using an adjustment module. The scheme shown in Fig. 2 is different from the circuit shown in FIG. 1, the absence of a target simulation module (9). In FIG. 2 numbers indicate the following:

2А - Сцена с объектами, либо с юстировочной мишенью, включающей две плоскости.2A - Scene with objects, or with an adjustment target, including two planes.

2Б - Световой пучок, переносящий изображение, поступает на светоделитель (1), который разделяет его на два пучка.2B - The light beam carrying the image enters the beam splitter (1), which divides it into two beams.

2В - Пучки направляются в первую камеру (2) и вторую камеру (3) соответственно, где они формируют изображения сцены на матричных приемниках излучения каждой из камер (2 и 3).2B - The beams are sent to the first chamber (2) and the second chamber (3), respectively, where they form images of the scene on the matrix radiation receivers of each of the chambers (2 and 3).

2Г - По команде с модуля управления (5) происходит регистрация двух изображений и их передача с каждой из камер (2 и 3) в модуль управления (5).2D - On command from the control module (5), two images are registered and transferred from each of the cameras (2 and 3) to the control module (5).

2Д - Модуль управления (5) передает зарегистрированные изображения в юстировочный модуль (4), если пользователь намеревается отъюстировать устройство; юстировочный модуль (4) осуществляет детектирование характерных точек наблюдаемой сцены, присутствующих на обоих зарегистрированных изображениях.2D - The control module (5) transmits the registered images to the alignment module (4) if the user intends to align the device; the adjustment module (4) detects the characteristic points of the observed scene present in both registered images.

При этом модуль управления (5) позволяет пользователю выбрать режим юстировки: In this case, the control module (5) allows the user to select the adjustment mode:

(1) режим юстировки по характерным точкам (элементам), найденным на сцене, использует характерные точки, принадлежащие объектам, расположенным в поле зрения устройства, осуществляя автоматический поиск общих характерных точек, присутствующих на обоих изображениях; достоинством этого режима является то, что для него не требуется помещать перед устройством специальные юстировочные мишени, а характерные точки берутся с объектов из поля зрения камер (2 и 3); однако для некоторых сцен найти хорошо детектируемые характерные точки может быть затруднительно, что сужает область применения данного режима; также возможен случай, когда эти точки будут неравномерно распределены в пространстве сцены, а, значит, точность расчета смещения и поворотов камер (2 и 3) на основе таких разреженных неравномерных точек будет ниже; (1) the mode of adjustment by characteristic points (elements) found on the scene uses the characteristic points belonging to objects located in the field of view of the device, automatically searching for common characteristic points present in both images; the advantage of this mode is that it does not require special adjustment targets to be placed in front of the device, and characteristic points are taken from objects from the field of view of cameras (2 and 3); however, for some scenes it can be difficult to find well-detected characteristic points, which narrows the scope of this mode; it is also possible that these points will be unevenly distributed in the scene space, which means that the accuracy of calculating the displacement and rotation of cameras (2 and 3) based on such sparse uneven points will be lower;

(2) режим юстировки с использованием юстировочной мишени, содержащей заранее известный паттерн, на котором легко определяются характерные элементы, и состоящей из двух плоскостей на разном удалении, размещаемой перед устройством; этот режим требует размещения перед устройством юстировочной мишени с заранее известным паттерном, на котором будет произведен поиск характерных точек/элементов; достоинством этого режима является то, что юстировочная мишень выполняется таким образом, что ее очень легко задетектировать в поле зрения устройства и она обеспечивает равномерное заполнение поля зрения характерными точками, которые можно определить с высокой точностью, так как паттерн (т.е. рисунок на мишени) заранее известен и подбирается специально для этой задачи, а значит точность оценки перемещений с помощью такой мишени будет выше; недостатком данного режима является то, что для него необходимо иметь физическую юстировочную мишень, которую нужно специально размещать в пространстве сцены;(2) adjustment mode using an adjustment target containing a previously known pattern, on which characteristic elements are easily determined, and consisting of two planes at different distances, placed in front of the device; this mode requires placement of an adjustment target with a previously known pattern in front of the device, on which the search for characteristic points/elements will be performed; The advantage of this mode is that the adjustment target is designed in such a way that it is very easy to detect it in the field of view of the device and it provides uniform filling of the field of view with characteristic points that can be determined with high accuracy, since the pattern (i.e., the pattern on the target ) is known in advance and selected specifically for this task, which means that the accuracy of estimating displacements using such a target will be higher; The disadvantage of this mode is that for it it is necessary to have a physical adjustment target, which must be specially placed in the scene space;

(3) режим юстировки по мнимой мишени использует модуль (9) имитации юстировочной мишени (режим доступен только для конфигурации фиг. 1) для построения в произвольном месте сцены мнимого изображения мишени; достоинством этого режима является то, что форма мнимой юстировочной мишени выбирается таким образом, чтобы ее было очень легко задетектировать, и с помощью такого подхода можно отъюстировать систему независимо от наблюдаемой сцены (даже когда в поле зрения вообще нет никаких объектов), что увеличивает надежность функционирования способа.(3) the virtual target adjustment mode uses the adjustment target simulation module (9) (the mode is available only for the configuration of Fig. 1) to build a virtual target image at an arbitrary place in the scene; The advantage of this mode is that the shape of the imaginary adjustment target is chosen in such a way that it is very easy to detect it, and using this approach, it is possible to align the system regardless of the observed scene (even when there are no objects in the field of view at all), which increases the reliability of operation. way.

Юстировочный модуль (4) рассчитывает, согласно выбранному пользователем режиму, разность координат характерных точек между двумя изображениями; в случае, если эта разность превышает заданный порог, юстировочный модуль (4) рассчитывает необходимые смещения и повороты камер для ее минимизации. The adjustment module (4) calculates, according to the mode selected by the user, the difference in the coordinates of the characteristic points between the two images; if this difference exceeds a predetermined threshold, the adjustment module (4) calculates the necessary shifts and rotations of the cameras to minimize it.

Механизм сравнения координат характерных точек подробно описан ниже. В целом сравнение осуществляется путем расчета разностей координат этих точек, а также отношений расстояний между этими точками на двух изображениях. Направление перемещения камер выбирается таким, чтобы минимизировать разницу координат.The feature point coordinate comparison mechanism is described in detail below. In general, the comparison is carried out by calculating the differences in the coordinates of these points, as well as the ratio of the distances between these points in two images. The direction of movement of the cameras is chosen in such a way as to minimize the difference in coordinates.

2Е - Юстировочный модуль (4) передает необходимые команды управления на подвижные держатели (21) камер (или камер (2 и 3) и светоделителя (1)), чтобы выровнять оптические оси, углы поворота приемников излучения и входные зрачки камер (2 и 3).2E - The alignment module (4) transmits the necessary control commands to the movable holders (21) of the cameras (or cameras (2 and 3) and the beam splitter (1)) in order to align the optical axes, the rotation angles of the radiation receivers and the entrance pupils of the cameras (2 and 3 ).

После завершения юстировки пользователь запускает процедуру получения набора изображений с необходимыми для решаемой задачи настройками; в дальнейшем полученный набор изображений используется для обучения моделей на основе нейросетей для улучшения качества изображений.After the alignment is completed, the user starts the procedure for obtaining a set of images with the settings necessary for the problem being solved; further, the resulting set of images is used to train models based on neural networks to improve the quality of images.

Благодаря вышеозначенным действиям достигается возможность автоматической юстировки для различных сочетаний камер (2 и 3) и поддержания сохранности юстировки (т.е. осуществления переюстировки по мере необходимости) во время работы.Thanks to the above actions, it is possible to automatically adjust for various combinations of cameras (2 and 3) and maintain the alignment (ie, realign as necessary) during operation.

Возвращаясь к фиг. 1, отметим, что второй ключевой особенностью настоящего изобретения является наличие модуля (9) имитации юстировочной мишени, обеспечивающего возможность проведения юстировки системы независимо от сцены.Returning to FIG. 1, we note that the second key feature of the present invention is the presence of a module (9) for simulating an adjustment target, which makes it possible to align the system regardless of the scene.

Как указано выше, на фиг. 1 показана функциональная схема заявленного устройства в конфигурации с двумя камерами (2 и 3), с подробно показанным модулем (9) имитации юстировочной мишени, включающим в себя два оптически сопряженных имитатора мишени (11 и 12), строящих два мнимых изображения мишени на разном расстоянии перед устройством, на которой обозначено следующее:As indicated above, in FIG. 1 shows a functional diagram of the claimed device in a configuration with two cameras (2 and 3), with a detailed alignment target simulation module (9) including two optically coupled target simulators (11 and 12) building two virtual images of the target at different distances. in front of the device, which is labeled as follows:

1А - Если пользователем выбран режим юстировки по мнимой мишени, входное окно устройства закрывается первым непрозрачным экраном (13), а путь к модулю (9) имитации мишени открывается путем выведения второго непрозрачного экрана (14) из хода лучей.1A - If the user selects the adjustment mode according to the imaginary target, the input window of the device is closed by the first opaque screen (13), and the path to the target simulation module (9) is opened by removing the second opaque screen (14) from the beam path.

1Б - Юстировочный модуль (4) отправляет модулю (9) имитации мишеней команды на включение источников света имитаторов мишеней (11 и 12) и на фокусировку для создания мнимых мишеней на требуемых расстояниях.1B - The alignment module (4) sends commands to the target simulation module (9) to turn on the light sources of the target simulators (11 and 12) and to focus to create imaginary targets at the required distances.

1В - Световой пучок, переносящий изображения двух мнимых мишеней из модуля (9) имитации мишени, поступает на светоделитель (1), где он делится на два пучка.1B - The light beam that transfers images of two imaginary targets from the target simulation module (9) enters the beam splitter (1), where it is divided into two beams.

1Г - Пучки от светоделителей (1 и 10) поступают на камеру 1 (2) и камеру 2 (3) соответственно.1D - Beams from beam splitters (1 and 10) arrive at chamber 1 (2) and chamber 2 (3), respectively.

1Д - По команде с модуля управления (5) происходит регистрация двух изображений и их передача с каждой из камер (2 и 3) в модуль управления (5).1D - On command from the control module (5), two images are registered and transferred from each of the cameras (2 and 3) to the control module (5).

1Е - Модуль управления (5) передает изображения в юстировочный модуль (4), если пользователь намеревается отъюстировать систему. Юстировочный модуль (4) рассчитывает требуемое направление смещения камер (2 и 3) на основе характерных точек, обнаруженных согласно выбранному пользователем режиму юстировки.1E - The control module (5) sends images to the alignment module (4) if the user intends to align the system. The adjustment module (4) calculates the required direction of movement of the cameras (2 and 3) based on the characteristic points detected according to the adjustment mode selected by the user.

1Ж - Юстировочный модуль (4) передает необходимые команды управления на подвижные регулируемые держатели (21) камер (или камер (2 и 3) и светоделителя (1)), чтобы совместить оптические оси, углы поворота приемников излучения и входные зрачки камер (2 и 3).1G - The adjustment module (4) transmits the necessary control commands to the movable adjustable holders (21) of the cameras (or cameras (2 and 3) and the beam splitter (1)) in order to align the optical axes, the rotation angles of the radiation receivers and the entrance pupils of the cameras (2 and 3).

После завершения юстировки источники света модуля (9) имитации мишени выключаются; экран (14), блокирующий модуль имитации мишени, вводится в ход лучей; экран (13), блокирующий сцену, выводится из хода лучей. Пользователь запускает получение наборов изображений с необходимыми для решаемой задачи настройками; в дальнейшем полученный набор изображений используется для глубокого обучения моделей для улучшения качества изображений.After the alignment is completed, the light sources of the module (9) of the simulated target are turned off; the screen (14), blocking the target simulation module, is introduced into the path of the rays; the screen (13) blocking the scene is removed from the path of the rays. The user starts obtaining sets of images with the settings necessary for the task being solved; further, the resulting set of images is used for deep learning of models to improve the quality of images.

Благодаря вышеозначенным действиям с использованием модуля имитации мишеней достигается возможность юстировки устройства независимо от сцены.Thanks to the above actions using the target simulation module, it is possible to align the device regardless of the scene.

На фиг. 3 показана схема работы юстировочного модуля (3) в конфигурации устройства с двумя камерами (2 и 3).In FIG. 3 shows the operation of the adjustment module (3) in the configuration of the device with two chambers (2 and 3).

Автоматизированные регулируемые держатели должны обеспечивать как минимум 6 степеней свободы для совмещения изображений за счет юстировки камер (2 и 3):Automated adjustable holders must provide at least 6 degrees of freedom for image alignment due to camera alignment (2 and 3):

1) Смещение камеры 1 (2) по оси Y1 или смещение камеры 2 (3) по оси Y2;1) Camera 1 (2) offset along the Y1 axis or camera 2 (3) offset along the Y2 axis;

2) Смещение камеры 1 (2) по оси X1 или смещение камеры 2 (3) по оси X2;2) Camera shift 1 (2) along the X1 axis or camera shift 2 (3) along the X2 axis;

3) Смещение камеры 1 (2) по оси Z1 или смещение камеры 2 (3) по оси Z2;3) Offset camera 1 (2) along the Z1 axis or offset camera 2 (3) along the Z2 axis;

4) Поворот камеры 1 (2) вокруг оси X1 или поворот камеры 2 (3) вокруг оси X2 (или поворот светоделителя (1) вокруг оси Z0);4) Rotation of camera 1 (2) around the X1 axis or rotation of camera 2 (3) around the X2 axis (or rotation of the beam splitter (1) around the Z0 axis);

5) Поворот камеры 1 (2) вокруг оси Y1 или поворот камеры 2 (3) вокруг оси Y2 (или поворот светоделителя (1) вокруг оси Y0)5) Rotate camera 1 (2) around the Y1 axis or rotate camera 2 (3) around the Y2 axis (or rotate the beam splitter (1) around the Y0 axis)

6) Поворот камеры 1 (2) вокруг оси Z1 или поворот камеры 2 (3) вокруг оси Z26) Rotate camera 1 (2) around the Z1 axis or rotate camera 2 (3) around the Z2 axis

Следует отметить, что повороты светоделителя (1) возможны посредством выдачи команд на поворот светоделителя (1), но не желательны, так как предпочтительно иметь общий неподвижный компонент для оптических каналов устройства. It should be noted that rotations of the beam splitter (1) are possible by issuing commands to rotate the beam splitter (1), but are not desirable, since it is preferable to have a common fixed component for the optical channels of the device.

Модуль управления (5) инициирует съемку камерами сцены и отправляет полученные изображения в юстировочный модуль (4). Юстировочный модуль (4) вычисляет несовпадение между системами координат XYZ камер (2 и 3) и управляет регулируемыми держателями для их совмещения посредством выдачи команд на сдвиг/поворот камеры 1 (2) и команд на сдвиг/поворот камеры 2 (3).The control module (5) initiates the shooting of the scene by the cameras and sends the received images to the adjustment module (4). The adjustment module (4) calculates the mismatch between the XYZ coordinate systems of cameras (2 and 3) and controls the adjustable holders to align them by issuing commands to shift/rotate camera 1 (2) and commands to shift/rotate camera 2 (3).

Возвращаясь к упомянутым выше трем режимам юстировки, следует отметить следующее.Returning to the three adjustment modes mentioned above, the following should be noted.

(1) Первый вариант выбора режима юстировки пользователем - режим юстировки по характерным точкам, найденным на сцене.(1) The first option for selecting the adjustment mode by the user is the adjustment mode based on characteristic points found on the scene.

Юстировка на основе сцены, выполняемая юстировочным модулем (4), использует характерные точки, найденные в сцене. Для этого требуется протяженная в глубину сцена с характерными точками, равномерно распределенными в пределах поля зрения устройства. Scene-based alignment performed by the alignment module (4) uses feature points found in the scene. This requires a scene extended in depth with characteristic points evenly distributed within the field of view of the device.

Модуль управления (5) осуществляет фокусировку камер на требуемом расстоянии. При отсутствии у камер (2 и/или 3) функции автофокусировки или электронного управления фокусировкой, фокусировку вручную производит пользователь. The control module (5) focuses the cameras at the required distance. If the cameras (2 and/or 3) do not have autofocus or electronic focus control, manual focusing is done by the user.

Юстировочный модуль (4) обеспечивает следующие этапы юстировки:The adjustment module (4) provides the following adjustment steps:

1) Обнаружение соответствующих друг другу характерных точек, присутствующих на обоих изображениях;1) Detection of characteristic points corresponding to each other present in both images;

2) Вычисление коэффициента масштабирования как отношения расстояний между соответствующими точками на первом и втором изображениях. Этот коэффициент можно учитывать при расчете смещений, либо можно произвести изменение размера одного из изображений для подгонки масштабов.2) Calculation of the scaling factor as the ratio of the distances between the corresponding points on the first and second images. This coefficient can be taken into account when calculating offsets, or one of the images can be resized to adjust the scale.

3) Установку одинаковой разности вертикальных координат y совпадающих характерных точек Δy при помощи вертикального смещения одной из камер (2 или 3), с последующей минимизацией Δy поворотом одной из камер (2 или 3) относительно горизонтальной оси (или аналогичным поворотом светоделителя (1)).3) Setting the same difference in vertical coordinates y of coinciding characteristic points Δy using a vertical shift of one of the cameras (2 or 3), followed by minimization of Δy by rotating one of the cameras (2 or 3) relative to the horizontal axis (or a similar rotation of the beam splitter (1)) .

4) Установку одинаковой разности горизонтальных координат x совпадающих характерных точек Δx при помощи горизонтального смещения одной из камер (2 или 3), с последующей минимизацией Δx поворотом одной из камер (2 или 3) вокруг вертикальной оси (или аналогичным поворотом светоделителя (1)).4) Setting the same difference in the horizontal coordinates x of the coinciding characteristic points Δx using a horizontal displacement of one of the cameras (2 or 3), followed by minimization of Δx by rotating one of the cameras (2 or 3) around the vertical axis (or a similar rotation of the beam splitter (1)) .

5) Поворот одной из камер вокруг оптической оси для согласования углов поворота приемников излучения камер.5) Rotation of one of the cameras around the optical axis to match the angles of rotation of the radiation receivers of the cameras.

6) Установку оптимального осевого положения путем перемещения одной из камер (2 или 3) вдоль ее оптической оси таким образом, чтобы добиться постоянства коэффициента масштабирования в пределах глубины сцены.6) Setting the optimal axial position by moving one of the cameras (2 or 3) along its optical axis in such a way as to achieve a constant zoom factor within the depth of the scene.

При этом этапы 2)-6) не обязательно выполняются в указанном порядке и могут повторяться итерациями.In this case, steps 2)-6) are not necessarily performed in the specified order and can be repeated in iterations.

Благодаря вышеозначенным действиям достигается возможность автоматического выравнивания изображений по сцене без применения мишеней.Thanks to the above actions, it is possible to automatically align images on the scene without using targets.

(2) Второй вариант выбора режима юстировки пользователем - режим юстировки по реальной мишени. Юстировка по реальной мишени обеспечивает более высокую точность, поскольку мишени для юстировки гарантированно равномерно распределяются в пределах поля зрения устройства и известны заранее.(2) The second option for selecting the adjustment mode by the user is the adjustment mode on a real target. Alignment to a real target provides higher accuracy because the alignment targets are guaranteed to be evenly distributed within the field of view of the device and are known in advance.

Для этого требуется составная юстировочная мишень, включающая две мишени, установленные на разных удалениях от устройства, как показано в верхней части Фиг. 4.This requires a composite alignment target, including two targets mounted at different distances from the device, as shown at the top of FIG. 4.

Мишень передней плоскости, расположенная ближе к устройству, содержащая юстировочный паттерн (например, круги), позволяет видеть мишень задней плоскости, расположенную дальше от устройства) с юстировочным паттерном. Юстировочный паттерн выбирается таким образом, чтобы его было легко обнаружить и по нему можно было рассчитать координаты характерных элементов с высокой точностью.An anterior plane target closer to the device containing an alignment pattern (eg circles) allows a rear plane target further away from the device to be seen with an alignment pattern. The adjustment pattern is chosen in such a way that it is easy to detect and it is possible to calculate the coordinates of characteristic elements with high accuracy from it.

Юстировочные мишени устанавливаются таким образом, чтобы плоскость фокусировки камер была между ними, либо на одной из них. Adjustment targets are installed in such a way that the focusing plane of the cameras is between them, or on one of them.

Модуль управления осуществляет фокусировку камер на требуемом расстоянии. При отсутствии у камер (2 и 3) функции автофокусировки или электронного управления фокусировкой, фокусировку вручную производит пользователь. The control module focuses the cameras at the required distance. If the cameras (2 and 3) do not have autofocus or electronic focus control, manual focusing is done by the user.

Юстировочный модуль (4) при этом режиме обеспечивает следующие этапы юстировки:The adjustment module (4) in this mode provides the following adjustment steps:

1) Детектирование характерных элементов юстировочных паттернов на изображениях с обеих камер (2 и 3) с высокой точностью; при этом на каждом изображении присутствуют юстировочные паттерны, принадлежащие юстировочным мишеням передней и задней плоскостей, например мишень передней плоскости занимает II и IV координатные четверти, а мишень задней плоскости - I и III координатные четверти в поле зрения камер, как показано на Фиг. 5; это требуется для совмещения оптических осей камер (2 и 3) в пространстве. 1) Detection of characteristic elements of alignment patterns on images from both cameras (2 and 3) with high accuracy; in this case, each image contains adjustment patterns belonging to the adjustment targets of the front and rear planes, for example, the front plane target occupies II and IV coordinate quarters, and the rear plane target occupies I and III coordinate quarters in the field of view of the cameras, as shown in Fig. 5; this is required to align the optical axes of the cameras (2 and 3) in space.

На Фиг. 4 в нижней части показан возможный вид изображений с неотъюстированных камер, на котором видно, что юстировочные мишени в полях зрения камер (2 и 3) представлены неодинаковым образом - смещены и/или наклонены друг относительно друга. On FIG. 4 in the lower part shows a possible view of images from non-adjusted cameras, which shows that the adjustment targets in the fields of view of the cameras (2 and 3) are presented in an unequal way - they are shifted and / or tilted relative to each other.

2) Вычисление коэффициента масштабирования как отношения расстояний между соответствующими элементами юстировочного паттерна на первом и втором изображениях для одной из мишеней (либо мишени передней плоскости, либо мишени задней плоскости). Этот коэффициент можно учитывать при расчете смещений, либо можно произвести изменение размера одного из изображений для подгонки масштабов изображений.2) Calculation of the scaling factor as the ratio of the distances between the corresponding elements of the adjustment pattern on the first and second images for one of the targets (either the front plane target or the rear plane target). This coefficient can be taken into account when calculating the offsets, or one of the images can be resized to fit the image scales.

3) Установку одинаковой разности вертикальных координат Δy для соответствующих элементов юстировочного паттерна путем вертикального смещения одной из камер (2 или 3), с последующей минимизацией Δy поворотом одной из камер (2 или 3) относительно горизонтальной оси (или поворотом светоделителя (1)).3) Setting the same difference in vertical coordinates Δy for the corresponding elements of the adjustment pattern by vertical displacement of one of the cameras (2 or 3), followed by minimization of Δy by rotating one of the cameras (2 or 3) relative to the horizontal axis (or rotating the beam splitter (1)).

4) Установку одинаковой разности горизонтальных координат Δx для соответствующих элементов юстировочного паттерна путем горизонтального смещения одной из камер (2 или 3), с последующей минимизацией Δx поворотом одной из камер (2 или 3) относительно вертикальной оси (или поворотом светоделителя (1)). 4) Setting the same difference in horizontal coordinates Δx for the corresponding elements of the adjustment pattern by horizontal displacement of one of the cameras (2 or 3), followed by minimization of Δx by rotating one of the cameras (2 or 3) relative to the vertical axis (or rotating the beam splitter (1)).

5) Поворот одной из камер (2 или 3) вокруг оптической оси для согласования углов поворота приемников излучения камер (2 или 3).5) Rotation of one of the cameras (2 or 3) around the optical axis to match the angles of rotation of the radiation receivers of the cameras (2 or 3).

6) Установку оптимального осевого положения путем перемещения одной из камер (2 или 3) вдоль ее оптической оси таким образом, чтобы минимизировать разность коэффициентов масштабирования для мишени передней плоскости и мишени задней плоскости. 6) Setting the optimal axial position by moving one of the cameras (2 or 3) along its optical axis in such a way as to minimize the difference in scaling factors for the front plane target and the rear plane target.

При этом этапы 2)-3) не обязательно выполняются в указанном порядке и могут повторяться итерациями.In this case, steps 2)-3) are not necessarily performed in the specified order and can be repeated in iterations.

Благодаря вышеозначенным действиям достигается большая надежность и точность по сравнению с первым режимом.Thanks to the above actions, greater reliability and accuracy are achieved compared to the first mode.

(3) Третий вариант выбора режима юстировки пользователем - режим юстировки по мнимой мишени.(3) The third option for selecting the adjustment mode by the user is the adjustment mode on an imaginary target.

На Фиг. 5 проиллюстрирована оптическая схема заявленного устройства, реализующая режим юстировки по мнимой мишени. Данное устройство в целом аналогично устройству согласно первому и второму вариантам выбора режима юстировки пользователем, но дополнительно включает в себя модуль (9) имитации юстировочной мишени, который имитирует мишени в поле зрения системы камер заявленного устройства, причем:On FIG. 5 illustrates the optical scheme of the claimed device, which implements the alignment mode on an imaginary target. This device is generally similar to the device according to the first and second options for selecting the adjustment mode by the user, but additionally includes an adjustment target simulation module (9), which simulates targets in the field of view of the camera system of the claimed device, moreover:

Модуль (9) имитации мишени содержит два фокусируемых имитатора юстировочной мишени (2 или 3), оптически сопряженных через светоделители (1 и 10), каждый из которых включает в себя источник света, тест-объект и коллимирующую систему. Имитаторы мишени (11 и 12) строят мнимые изображения своих тест-объектов (мишеней), подсвеченных источниками света, на двух заданных расстояниях перед системой из двух камер (2 и 3), таким образом имитируя мишень из двух плоскостей (мишень передней плоскости и мишень задней плоскости). Расстояния, на которых строятся мнимые изображения мишеней, выбираются аналогично предыдущему случаю - чтобы плоскость фокусировки камер (2 и 3) была между ними, либо на одном из них.The target simulation module (9) contains two focusable alignment target simulators (2 or 3) optically coupled through beam splitters (1 and 10), each of which includes a light source, a test object and a collimating system. Target simulators (11 and 12) build virtual images of their test objects (targets) illuminated by light sources at two specified distances in front of the system of two cameras (2 and 3), thus simulating a target from two planes (front plane target and target rear plane). The distances at which virtual images of targets are built are chosen similarly to the previous case - so that the focusing plane of the cameras (2 and 3) is between them, or on one of them.

Форма мнимых мишеней (тест-объектов) выбирается так, чтобы их было легко детектировать и по ним можно было рассчитывать все необходимые для юстировки камер разности координат/отношения. В частности, на фиг. 5 в ее правой части показано возможное отображение мнимых мишеней, в иллюстративных целях изображенных в виде крестов, когда система не отъюстирована. The shape of imaginary targets (test objects) is chosen so that they are easy to detect and can be used to calculate all the coordinate differences/ratios necessary for camera alignment. In particular, in FIG. 5 on its right side shows a possible display of ghost targets, shown as crosses for illustrative purposes, when the system is not aligned.

Юстировочный модуль (5) управляет регулируемыми держателями (21) камер с помощью алгоритма, минимизирующего разницу положения калибровочных мишеней на изображениях с двух камер (2 и 3). Этапы управления аналогичны тем, которые были описаны выше применительно ко второму варианту выбора режима юстировки пользователем.The adjustment module (5) controls the adjustable camera holders (21) using an algorithm that minimizes the difference in the position of the calibration targets on the images from the two cameras (2 and 3). The control steps are similar to those described above in relation to the second option for selecting the adjustment mode by the user.

На время юстировки непрозрачный экран 2 (14) выводится из хода лучей, источники света имитаторов (11 и 12) включаются. После проведения юстировки источники света имитаторов выключаются, а модуль (9) имитации юстировочной мишени перекрывается подвижным непрозрачным экраном 2 (14).At the time of adjustment, the opaque screen 2 (14) is removed from the path of the rays, the light sources of the simulators (11 and 12) are turned on. After the alignment, the light sources of the simulators are turned off, and the module (9) of the simulation of the adjustment target is covered by a movable opaque screen 2 (14).

При этом имеется дополнительный вариант осуществления третьего варианта выбора режима юстировки пользователем, при котором на время юстировки непрозрачный экран 2 (14) убирается из хода лучей, сцена перекрывается непрозрачным экраном 1 (13), источники света имитаторов (11 и 12) включаются. После проведения юстировки источники света имитаторов (11 и 12) выключаются, модуль (9) имитации юстировочной мишени перекрывается подвижным непрозрачным экраном 2 (14), а непрозрачный экран 1 (13) выводится из хода лучей. Перекрытие сцены на время юстировки с помощью экрана 1 (13) облегчает детектирование мнимых юстировочных мишеней, которые в этом случае будут наблюдаться на темном фоне, а не поверх реальной сцены, как показано в правой части Фиг. 6 справа и слева соответственно. At the same time, there is an additional embodiment of the third option for selecting the adjustment mode by the user, in which, for the period of adjustment, the opaque screen 2 (14) is removed from the path of the rays, the scene is covered with an opaque screen 1 (13), the light sources of the simulators (11 and 12) are turned on. After the alignment, the light sources of the simulators (11 and 12) are turned off, the module (9) of the adjustment target simulation is covered by a movable opaque screen 2 (14), and the opaque screen 1 (13) is removed from the beam path. Covering the scene for the duration of the alignment using screen 1 (13) facilitates the detection of imaginary alignment targets, which in this case will be observed against a dark background, and not on top of the real scene, as shown on the right side of FIG. 6 on the right and left, respectively.

Благодаря вышеозначенным действиям достигается возможность автоматического выравнивания камер, независимая от наличия в сцене характерных точек и не требующая применения физических мишеней.Thanks to the above actions, the possibility of automatic camera alignment is achieved, regardless of the presence of characteristic points in the scene and does not require the use of physical targets.

Фиг. 6 схематично иллюстрирует предлагаемое устройство для получения наборов изображений содержащее N цифровых камер, N>2. Следует отметить, что по принципу действия схема, представленная на Фиг. 6 в целом аналогична схеме, представленной на Фиг. 1, однако представляет собой ее модификацию, в которой задействованы не две цифровые камеры (2 и 3), а N цифровых камер (2, 3, 14, 15), обозначенных на Фиг. 6 цифрами 1, 2, 3, … N, причем N>2, оптически сопряженных через N-1 светоделитель (20). При необходимости для выравнивания длин оптических путей в каналах устройства, т.е. компенсации разницы толщины материала светоделителей (1, 19, 20) на пути от входа в устройство до камеры (2, 3, 14, 15), в каналы устройства могут быть введены компенсаторы разности хода (17 и 18), представляющие собой плоскопараллельные пластины.Fig. 6 schematically illustrates the proposed device for obtaining sets of images containing N digital cameras, N>2. It should be noted that according to the principle of operation, the circuit shown in Fig. 6 is generally similar to the circuit shown in Fig. 1, however, is its modification, in which not two digital cameras (2 and 3) are involved, but N digital cameras (2, 3, 14, 15), indicated in FIG. 6 digits 1, 2, 3, ... N, with N>2, optically coupled through N-1 beam splitter (20). If necessary, to equalize the lengths of optical paths in the channels of the device, i.e. to compensate for the difference in the thickness of the material of the beam splitters (1, 19, 20) on the way from the entrance to the device to the chamber (2, 3, 14, 15), path difference compensators (17 and 18), which are plane-parallel plates, can be introduced into the channels of the device.

Количество камер N, которое может быть установлено в систему, ограничено технологическими соображениями. The number of cameras N that can be installed in the system is limited by technological considerations.

Так, в частности, с увеличением длины оптического пути в материале светоделителей (1, 19, 20) накапливаются аберрации. Для светоделителей в виде плоскопараллельных пластин они невелики и при разумной длине системы будут незаметны. Для компенсации аберраций могут быть использованы компенсаторы аберраций. So, in particular, with an increase in the length of the optical path, aberrations accumulate in the material of beam splitters (1, 19, 20). For beam splitters in the form of plane-parallel plates, they are small and will be invisible for a reasonable length of the system. Aberration compensators can be used to compensate for aberrations.

Еще одним ограничением является падение светопропускания системы с добавлением каждого нового светоделителя для пар камер, стоящих после него. Это обстоятельство может быть использовано для имитации работы камер при плохой освещенности. Однако если это не требуется, светопропускание может быть выровнено для всех камер с использованием ослабляющих светофильтров.Another limitation is the drop in system light transmission with the addition of each new beam splitter for pairs of cameras following it. This circumstance can be used to simulate the operation of cameras in low light conditions. However, if this is not required, the light transmission can be equalized for all cameras using attenuating filters.

Кроме того, для сохранения поля зрения системы камер при добавлении новых камер и светоделителей необходимо, чтобы каждый последующий светоделитель по габаритам был в разы больше, чем предыдущий. На практике это труднодостижимо и светоделители имеют ограниченный размер, поэтому поле зрения системы будет уменьшаться с увеличением ее длины.In addition, to maintain the field of view of the camera system when adding new cameras and beam splitters, it is necessary that each subsequent beam splitter be several times larger in size than the previous one. In practice, this is difficult to achieve and beam splitters have a limited size, so the field of view of the system will decrease with increasing its length.

Возможные дополнительные варианты осуществления изобретенияPossible additional embodiments of the invention

Оптические изображения с одинаковыми или разными параметрами съемки с разным увеличением, разрешением и т.д. формируются в зависимости от конкретной поставленной задачи с различными комбинациями параметров камер в наборе камер, закрепленных на устройстве, а именно: камерами с одинаковыми объективами и одинаковыми матричными приемниками излучения, камерами с одинаковыми объективами и разными приемниками, камерами с разными объективами и одинаковыми приемниками, камерами с разными объективами и разными приемниками.Optical images with the same or different shooting parameters with different magnifications, resolutions, etc. are formed depending on the specific task with different combinations of camera parameters in a set of cameras fixed on the device, namely: cameras with the same lenses and the same matrix radiation receivers, cameras with the same lenses and different receivers, cameras with different lenses and the same receivers, cameras with different lenses and different receivers.

Оптический фильтр или фильтры (нейтральной плотности, спектральные, поляризационные) опционально могут быть вставлены перед по меньшей мере одной камерой для независимого изменения светового потока в оптических каналах заявленного устройства. Это может понадобиться, например, для имитации работы при низкой освещенности одной из камер - в этом случае перед ней ставится ослабляющий светофильтр. An optical filter or filters (neutral density, spectral, polarization) can optionally be inserted in front of at least one camera to independently change the light flux in the optical channels of the claimed device. This may be necessary, for example, to simulate the operation of one of the cameras in low light - in this case, an attenuating light filter is placed in front of it.

Перед регистрацией наборов изображений дополнительно может выполняться регистрация набора изображений калибровочной цветовой мишени, т.е. фотографирование мишени, содержащей образцы различных цветов. На основе этих изображений рассчитывается матрица коррекции цвета и/или яркости, которая позволяет привести цвета и яркость всех изображений в наборе к цветам и яркости одного изображения в наборе, и тем самым скомпенсировать разницу в цветопередаче и яркости различных камер в наборе камер, закрепленных на устройстве.Before registration of image sets, registration of a set of images of a calibration color target can additionally be performed, i.e. photographing a target containing samples of different colors. Based on these images, a color and/or brightness correction matrix is calculated, which allows you to bring the colors and brightness of all images in the set to the colors and brightness of one image in the set, and thereby compensate for the difference in color rendering and brightness of different cameras in the set of cameras attached to the device .

Также дополнительно могут вычисляться коэффициенты необходимых полиномиальных преобразований. Вычисленные коэффициенты преобразований могут применяться к изображениям с эталонных камер в наборе для более точного пространственного совмещения наборов изображений, причем за счет того, что полиномиальные преобразования являются глобальными, а не локальными, они применяются ко всему изображению, а не к отдельным его частям, что предотвращает появление нежелательных артефактов изображений, описанных выше при описании проблем, не решенных в уровне техники.The coefficients of the necessary polynomial transformations can also be additionally calculated. Calculated transformation coefficients can be applied to images from reference cameras in the set for more accurate spatial matching of image sets, and due to the fact that polynomial transformations are global and not local, they are applied to the entire image, and not to its individual parts, which prevents the appearance of unwanted image artifacts, as described above in the description of problems not solved in the prior art.

Благодаря настоящему изобретению становится возможной поддержка различных типов камер и их автоматическая юстировка для получения наборов изображений, причем, что особенно важно, становится возможным поддерживать состояние юстировки во время работы при регистрации набора изображений.Thanks to the present invention, it becomes possible to support various types of cameras and automatically align them to obtain image sets, and, most importantly, it becomes possible to maintain the alignment state during operation when registering an image set.

Постобработка изображений при использовании настоящего изобретения незначительна, причем применяется не ко всем изображениям в наборе, в частности, применяется только к изображениям с эталонных камер, либо не производится вовсе, что зависит от разницы между характеристиками камер.Post-processing of images using the present invention is insignificant, and is not applied to all images in the set, in particular, it is applied only to images from reference cameras, or not at all, depending on the difference between the characteristics of the cameras.

Настоящее изобретение подходит для различных сцен и сценариев глубокого обучения, в частности для движущихся объектов и сценария устранения размытия.The present invention is suitable for various deep learning scenes and scenarios, in particular for moving objects and deblur scenario.

Благодаря настоящему изобретению становится возможным совмещение изображений за счет юстировки камер независимое от сцены. Thanks to the present invention, it becomes possible to combine images by aligning the cameras independently of the scene.

Настоящее изобретение обеспечивает высокую (пиксельную) точность совмещения изображений для отдельных сценариев (в зависимости от степени разницы между камерами).The present invention provides high (pixel) image registration accuracy for certain scenarios (depending on the degree of difference between the cameras).

При этом в отношении наборов изображений, получаемых при осуществлении настоящего изобретения, следует отметить, что они имеют высокую точность совмещения изображений (вплоть до 1 пикселя для отдельных сценариев); позволяют обучать модели с простыми, легко интерпретируемыми функциями потерь благодаря тому, что на вход нейросети подается изображение низкого качества, а функция потерь при обучении сети является некой мерой разницы между изображением на выходе из сети и эталонным изображением более высокого качества, полученного с эталонной камеры; позволяют использовать модели с простой архитектурой, от которых не требуется компенсировать большую разницу между изображениями; могут быть использованы для большого круга задач (повышение разрешения, шумоподавление, устранение размытия изображения и т.д.); несут в себе незначительную постобработку или могут быть использованы без постобработки (в отдельных сценариях).With regard to the sets of images obtained in the implementation of the present invention, it should be noted that they have a high accuracy of image alignment (up to 1 pixel for individual scenarios); allow training models with simple, easily interpretable loss functions due to the fact that a low-quality image is fed to the input of the neural network, and the loss function during network training is a measure of the difference between the image at the output of the network and a higher quality reference image obtained from the reference camera; allow the use of models with a simple architecture, which are not required to compensate for a large difference between images; can be used for a wide range of tasks (resolution enhancement, noise reduction, image blur removal, etc.); carry little post-processing or can be used without post-processing (in some scenarios).

Настоящее изобретение поддерживает различные камеры без специального крепления, так как юстировочный модуль выполняет повторную юстировку во время работы, если это необходимо.The present invention supports various cameras without a special mount, as the alignment module re-aligns during operation if necessary.

Настоящее изобретение подходит для получения наборов изображений для различных задач глубокого обучения, поскольку обеспечивает возможность независимого изменения светового потока в каналах устройства и синхронизацию между камерами.The present invention is suitable for obtaining image sets for various deep learning tasks, since it allows independent change in the light output in the channels of the device and synchronization between cameras.

Хотя изобретение описано в связи с некоторыми иллюстративными вариантами осуществления, следует понимать, что сущность изобретения не ограничивается этими конкретными вариантами осуществления. Напротив, предполагается, что сущность изобретения включает в себя все альтернативы, коррекции и эквиваленты, которые могут быть включены в сущность и объем формулы изобретения.Although the invention has been described in connection with some illustrative embodiments, it should be understood that the invention is not limited to these specific embodiments. On the contrary, the summary is intended to include all alternatives, corrections, and equivalents that may be included within the spirit and scope of the claims.

Кроме того, изобретение сохраняет все эквиваленты заявляемого изобретения, даже если пункты формулы изобретения изменятся в процессе рассмотрения заявки.In addition, the invention retains all equivalents of the claimed invention, even if the claims change during the course of the application.

Claims (71)

1. Устройство для получения наборов изображений, содержащее:1. Device for obtaining sets of images, containing: N цифровых камер, где N≥2, в том числе одну или более эталонных камер, снимающих эталонные изображения хорошего качества, и одну или более целевых камер, снимающих целевые изображения низкого качества, закрепленных на упомянутом устройстве и оптически сопряженных с помощью N-1 светоделителей, причемN digital cameras, where N≥2, including one or more reference cameras capturing good quality reference images and one or more target cameras capturing poor quality target images, fixed on said device and optically coupled with N-1 beam splitters , and по меньшей мере N-1 камера установлена на автоматически регулируемых держателях, at least N-1 camera is mounted on automatically adjustable holders, юстировочный модуль, используемый для юстировки по меньшей мере N-1 камеры из числа N камер на основе N изображений сцены, причем юстировка осуществляется при помощи приведения в действие регулируемых держателей, на которых установлены упомянутые N-1 камеры,an adjustment module used to align at least N-1 cameras out of N cameras based on N scene images, the adjustment being carried out by actuating adjustable holders on which said N-1 cameras are mounted, систему синхронизации цифровых камер для съемки изображений,digital camera synchronization system for taking pictures, модуль управления для управления цифровыми камерами и обеспечения связи между отдельными частями устройства и получения наборов из N изображений, a control module for controlling digital cameras and providing communication between the individual parts of the device and obtaining sets of N images, причем модуль управления выдает команду юстировочному модулю произвести юстировку по меньшей мере N-1 камер на основе изображений сцены.wherein the control module instructs the alignment module to align at least N-1 cameras based on the scene images. 2. Устройство по п. 1, в котором модуль управления дополнительно:2. The device according to claim 1, in which the control module additionally: осуществляет калибровку цветопередачи N-1 камер для приведения цветов эталонных изображений в соответствие цветам целевых изображений.performs color calibration of N-1 cameras to match the colors of the reference images to the colors of the target images. 3. Устройство по любому из пп. 1, 2, в котором модуль управления дополнительно:3. The device according to any one of paragraphs. 1, 2, in which the control module additionally: рассчитывает коэффициенты необходимых полиномиальных преобразований для приведения эталонных изображений в соответствие целевым изображениям по пространственным координатам, и применяет полиномиальные преобразования к упомянутым эталонным изображениям для их более точного пространственного совмещения с целевыми изображениями.calculates the coefficients of the necessary polynomial transformations to bring the reference images into correspondence with the target images in spatial coordinates, and applies the polynomial transformations to the said reference images for their more accurate spatial alignment with the target images. 4. Устройство по любому из пп. 1-3, в котором дополнительно:4. The device according to any one of paragraphs. 1-3, in which additionally: оптически сопряженные камеры с одинаковыми объективами и одинаковыми приемниками излучения формируют идентичные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением в центральной области изображения. Optically coupled cameras with the same lenses and the same radiation detectors form identical optical images of the same scene with good spatial alignment in the central region of the image. 5. Устройство по любому из пп. 1-3, в котором дополнительно:5. The device according to any one of paragraphs. 1-3, in which additionally: оптически сопряженные камеры с одинаковыми объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. Optically coupled cameras with the same lenses and different radiation detectors form optical images of the same scene with different parameters with good spatial alignment when all images are scaled to one in the central image area. 6. Устройство по любому из пп. 1-3, в котором дополнительно:6. The device according to any one of paragraphs. 1-3, in which additionally: оптически сопряженные камеры с разными объективами и одинаковыми приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения.Optically coupled cameras with different lenses and the same radiation receivers form optical images of the same scene with different parameters with good spatial alignment when all images are scaled one by one in the central image area. 7. Устройство по любому из пп. 1-3, в котором дополнительно:7. The device according to any one of paragraphs. 1-3, in which additionally: оптически сопряженные камеры с разными объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения.Optically coupled cameras with different lenses and different radiation detectors form optical images of the same scene with different parameters with good spatial alignment when all images are scaled to one in the central image area. 8. Устройство по любому из пп. 1-7, в котором по меньшей мере один оптический фильтр может быть вставлен перед по меньшей мере одной камерой для независимого изменения светового потока за счет ослабления или спектральной фильтрации или фильтрации по поляризации в по меньшей мере одном оптическом канале устройства.8. The device according to any one of paragraphs. 1-7, in which at least one optical filter can be inserted in front of at least one camera to independently change the light output due to attenuation or spectral filtering or polarization filtering in at least one optical channel of the device. 9. Устройство для получения наборов изображений, содержащее:9. Device for obtaining sets of images, containing: N цифровых камер, где N≥2, в том числе одну или более эталонных камер, снимающих эталонные изображения хорошего качества, и одну или более целевых камер, снимающих целевые изображения низкого качества, закрепленных на упомянутом устройстве и оптически сопряженных с помощью N-1 светоделителей, причемN digital cameras, where N≥2, including one or more reference cameras capturing good quality reference images and one or more target cameras capturing poor quality target images, fixed on said device and optically coupled with N-1 beam splitters , and по меньшей мере N-1 камера установлена на автоматически регулируемом держателе, at least N-1 camera is mounted on an automatically adjustable holder, модуль имитации мишени, формирующий мнимые изображения юстировочной мишени на двух заданных расстояниях, и содержащий два фокусируемых имитатора юстировочной мишени, которые оптически сопряжены через светоделитель, каждый из которых состоит из источника света, тест-объекта и коллимирующей системы, a target simulation module that forms virtual images of an alignment target at two specified distances and contains two focusable alignment target simulators that are optically coupled through a beam splitter, each of which consists of a light source, a test object and a collimating system, юстировочный модуль, используемый для юстировки по меньшей мере N-1 камеры из числа N камер на основе N изображений мнимой юстировочной мишени, причем юстировка осуществляется при помощи приведения в действие регулируемых держателей, на которых установлены упомянутые N-1 камеры,an adjustment module used to align at least N-1 cameras out of N cameras based on N images of a virtual alignment target, the adjustment being carried out by actuating adjustable holders on which said N-1 cameras are mounted, систему синхронизации камер для съемки изображений,camera synchronization system for taking pictures, модуль управления для управления камерами и обеспечения связи между отдельными частями устройства, выполненный с возможностью выдавать системе синхронизации камер команды на синхронизацию при захвате набора изображений,a control module for controlling cameras and providing communication between individual parts of the device, configured to issue synchronization commands to the camera synchronization system when capturing a set of images, причем модуль управления выполнен с возможностью выдавать команды юстировочному модулю производить юстировку по меньшей мере N-1 камер из числа N камер на основе изображений мнимой юстировочной мишени, задавать параметры съемки для камер.moreover, the control module is configured to issue commands to the adjustment module to align at least N-1 cameras from among N cameras based on images of the imaginary adjustment target, set shooting parameters for the cameras. 10. Устройство по п. 9, в котором модуль управления дополнительно осуществляет:10. The device according to claim 9, in which the control module further performs: калибровку цветопередачи N-1 камер для приведения цветов эталонных изображений в соответствие цветам целевых изображений. color calibration of N-1 cameras to match the colors of the reference images to the colors of the target images. 11. Устройство по любому из пп. 9, 10, в котором модуль управления дополнительно:11. The device according to any one of paragraphs. 9, 10, in which the control module additionally: рассчитывает коэффициенты необходимых полиномиальных преобразований для приведения эталонных изображений в соответствие целевым изображениям по пространственным координатам, и применяет полиномиальные преобразования к упомянутым эталонным изображениям для их более точного пространственного совмещения с целевыми изображениями.calculates the coefficients of the necessary polynomial transformations to bring the reference images into correspondence with the target images in spatial coordinates, and applies the polynomial transformations to the said reference images for their more accurate spatial alignment with the target images. 12. Устройство по любому из пп. 9-11, в котором дополнительно:12. The device according to any one of paragraphs. 9-11, in which additionally: оптически сопряженные камеры с одинаковыми объективами и одинаковыми приемниками излучения формируют идентичные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением в центральной области изображения. Optically coupled cameras with the same lenses and the same radiation detectors form identical optical images of the same scene with good spatial alignment in the central region of the image. 13. Устройство по любому из пп. 9-11, в котором дополнительно:13. The device according to any one of paragraphs. 9-11, in which additionally: оптически сопряженные камеры с одинаковыми объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с высоким пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. Optically coupled cameras with the same lenses and different radiation receivers form optical images of the same scene with different parameters with high spatial alignment when all images are scaled one by one in the central image area. 14. Устройство по любому из пп. 9-11, в котором дополнительно:14. The device according to any one of paragraphs. 9-11, in which additionally: оптически сопряженные камеры с разными объективами и одинаковыми приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с высоким пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения.Optically coupled cameras with different lenses and the same radiation receivers form optical images of the same scene with different parameters with high spatial alignment when all images are scaled one by one in the central image area. 15. Устройство по любому из пп. 9-11, в котором дополнительно:15. The device according to any one of paragraphs. 9-11, in which additionally: оптически сопряженные камеры с разными объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с высоким пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения.Optically coupled cameras with different lenses and different radiation receivers form optical images of the same scene with different parameters with high spatial alignment when all images are scaled to one in the central image area. 16. Устройство по любому из пп. 9-15, в котором по меньшей мере один оптический фильтр может быть вставлен перед по меньшей мере одной камерой для независимого изменения светового потока в по меньшей мере одном оптическом канале устройства.16. The device according to any one of paragraphs. 9-15, in which at least one optical filter can be inserted in front of at least one camera to independently change the light flux in at least one optical channel of the device. 17. Способ получения наборов изображений, содержащий этапы, на которых:17. A method for obtaining image sets, comprising the steps of: фокусируют на требуемое расстояние N цифровых камер, где N≥2, образующих систему цифровых камер и требующих фокусировки, оптически сопряженных с помощью светоделителя;focus on the required distance N digital cameras, where N≥2, forming a system of digital cameras and requiring focusing, optically coupled using a beam splitter; производят юстировку системы из N цифровых камер, где N≥2, оптически сопряженных с помощью N-1 светоделителей, причем упомянутая система из N цифровых камер включает в себя одну или более эталонных камер, снимающих эталонные изображения хорошего качества, и одну или более целевых камер, снимающих целевые изображения низкого качества, с использованием выбранного алгоритма для достижения хорошего совмещения изображений в центральной области, где оптические аберрации малы; aligning a system of N digital cameras, where N≥2, optically coupled with N-1 beam splitters, said system of N digital cameras including one or more reference cameras that capture good quality reference images, and one or more target cameras that capture low quality target images using the selected algorithm to achieve good image registration in the central region where optical aberrations are small; с помощью оптически сопряженных цифровых камер формируют оптические изображения одной и той же сцены с хорошим пространственным совмещением в центральной области изображения;using optically coupled digital cameras form optical images of the same scene with good spatial alignment in the central region of the image; получают набор из N изображений с системы из N цифровых камер с синхронизацией по времени начала съемки с разными параметрами съемки.receiving a set of N images from a system of N digital cameras synchronized by the start time of shooting with different shooting parameters. 18. Способ по п. 17, в котором параметры синхронизации задаются таким образом, что по меньшей мере одна камера из числа N камер имеет длинную экспозицию, а остальные камеры из числа N камер имеют короткую экспозицию, начало которой смещено относительно начала длинной экспозиции на требуемую величину.18. The method according to claim 17, in which the synchronization parameters are set in such a way that at least one camera from among the N cameras has a long exposure, and the remaining cameras from among the N cameras have a short exposure, the beginning of which is shifted relative to the start of the long exposure by the required size. 19. Способ по любому из пп. 17, 18, в котором:19. The method according to any one of paragraphs. 17, 18, in which: предварительно осуществляют регистрацию набора изображений калибровочной цветовой мишени;preliminarily registering a set of images of a calibration color target; на основе этих изображений рассчитывают матрицу цветокоррекции, позволяющую привести цвета всех изображений в наборе к цветам одного изображения в наборе;on the basis of these images, a color correction matrix is calculated, which makes it possible to bring the colors of all images in the set to the colors of one image in the set; на основе рассчитанной матрицы цветокоррекции осуществляют цветокоррекцию всех зарегистрированных изображений в наборе кроме одного.based on the calculated color correction matrix, all registered images in the set are color corrected except for one. 20. Способ по любому из пп. 17-19, в котором:20. The method according to any one of paragraphs. 17-19, in which: рассчитывают коэффициенты необходимых полиномиальных преобразований для приведения эталонных изображений в наборе в соответствие целевым изображениям по пространственным координатам; calculate the coefficients of the necessary polynomial transformations to bring the reference images in the set in line with the target images in spatial coordinates; применяют упомянутые полиномиальные преобразования к эталонным изображениям в наборе для их более точного пространственного совмещения с целевыми изображениями.applying said polynomial transformations to the reference images in the set to more accurately spatially match them to the target images. 21. Способ по любому из пп. 17-19, в котором:21. The method according to any one of paragraphs. 17-19, in which: с помощью оптически сопряженных камер с одинаковыми объективами и одинаковыми приемниками излучения формируют идентичные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением в центральной области изображения. using optically coupled cameras with the same lenses and the same radiation receivers, optical images of the same scene with identical parameters are formed with good spatial alignment in the central region of the image. 22. Способ по любому из пп. 17-19, в котором:22. The method according to any one of paragraphs. 17-19, in which: с помощью оптически сопряженных камер с одинаковыми объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. using optically coupled cameras with the same lenses and different radiation detectors, optical images of the same scene with different parameters are formed with good spatial alignment when all images are scaled one by one in the central image area. 23. Способ по любому из пп. 17-19, в котором:23. The method according to any one of paragraphs. 17-19, in which: с помощью оптически сопряженных камер с разными объективами и одинаковыми приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. using optically coupled cameras with different lenses and the same radiation receivers, optical images of the same scene with different parameters are formed with good spatial alignment when all images are scaled one by one in the central image area. 24. Способ по любому из пп. 17-19, в котором:24. The method according to any one of paragraphs. 17-19, in which: с помощью оптически сопряженных камер с разными объективами и разными приемниками излучения формируют различные по параметрам оптические изображения одной и той же сцены с хорошим пространственным совмещением при масштабировании всех изображений под одно в центральной области изображения. using optically coupled cameras with different lenses and different radiation receivers, optical images of the same scene with different parameters are formed with good spatial alignment when all images are scaled one by one in the central image area. 25. Способ по любому из пп. 17-23, в котором:25. The method according to any one of paragraphs. 17-23, in which: изменяют световой поток для по меньшей мере одной из цифровых камер с помощью оптического фильтра, устанавливаемого перед по меньшей мере одной из цифровых камер, осуществляя тем самым ослабление или спектральную фильтрацию или фильтрацию по поляризации светового потока.changing the light flux for at least one of the digital cameras using an optical filter installed in front of at least one of the digital cameras, thereby attenuating or spectral filtering or filtering by polarization of the light flux. 26. Устройство для получения наборов изображений, содержащее:26. Device for obtaining sets of images, containing: две цифровые камеры, в том числе одну эталонную камеру, снимающую эталонные изображения хорошего качества, и одну целевую камеру, снимающую целевые изображения низкого качества, закрепленные на упомянутом устройстве и оптически сопряженные с помощью светоделителя, причемtwo digital cameras, including one reference camera, which captures good quality reference images, and one target camera, which captures poor quality target images, attached to said device and optically coupled with a beam splitter, wherein по меньшей мере одна камера установлена на автоматически регулируемых держателях, at least one camera is mounted on automatically adjustable holders, юстировочный модуль, используемый для юстировки по меньшей мере одной камеры на основе двух изображений сцены, причем юстировка осуществляется при помощи приведения в действие регулируемых держателей, на которых установлены упомянутые камеры,an adjustment module used to align at least one camera based on two images of a scene, the adjustment being carried out by actuating adjustable holders on which said cameras are mounted, систему синхронизации цифровых камер для съемки изображений,digital camera synchronization system for taking pictures, модуль управления для управления цифровыми камерами и обеспечения связи между отдельными частями устройства и получения наборов изображений, a control module for controlling digital cameras and providing communication between individual parts of the device and obtaining sets of images, причем модуль управления выдает команду юстировочному модулю произвести юстировку по меньшей мере одной камеры на основе изображений сцены.wherein the control module instructs the alignment module to align at least one camera based on the images of the scene.
RU2022127272A 2022-10-20 Device and method for obtaining image sets RU2797757C1 (en)

Publications (1)

Publication Number Publication Date
RU2797757C1 true RU2797757C1 (en) 2023-06-08

Family

ID=

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Eastwood, Brian S., and Elisabeth C. Childs. "Image alignment for multiple camera high dynamic range microscopy". 2012 IEEE Workshop on the Applications of Computer Vision (WACV). IEEE, 2012. *

Similar Documents

Publication Publication Date Title
KR102363030B1 (en) Digital correction of optical system aberrations
CN103973989B (en) Obtain the method and system of high-dynamics image
CN107343130A (en) High dynamic imaging module based on DMD dynamic light splitting
US20060221209A1 (en) Apparatus and method for acquiring and combining images of a scene with multiple optical characteristics at multiple resolutions
CN106612390B (en) Camera module with double imaging modules and optical axis parallelism adjusting method thereof
US9807372B2 (en) Focused image generation single depth information from multiple images from multiple sensors
US20180262681A1 (en) Imaging apparatus and imaging method
CN108063932B (en) Luminosity calibration method and device
KR20100093134A (en) Image processing for supporting a stereoscopic presentation
CN103763477A (en) Double-camera after-shooting focusing imaging device and method
MX2007012923A (en) Digital cameras with triangulation autofocus systems and related methods.
US20130113962A1 (en) Image processing method for producing background blurred image and image capturing device thereof
US20170171456A1 (en) Stereo Autofocus
CN111080705B (en) Calibration method and device for automatic focusing binocular camera
CN115150561B (en) High dynamic imaging system and method
CN107302668A (en) High dynamic range imaging module based on runner dynamic light splitting
CN112700502B (en) Binocular camera system and binocular camera space calibration method
CN114339042A (en) Image processing method and device based on multiple cameras and computer readable storage medium
RU2797757C1 (en) Device and method for obtaining image sets
JP6168220B2 (en) Image generation apparatus, image processing apparatus, image generation method, and image processing program
CN111225139B (en) Motion scene shooting device for acquiring complementary sequence image and restoration method
US20240137631A1 (en) Device and method for gathering image sets
JP6330955B2 (en) Imaging apparatus and imaging method
RU2716896C1 (en) Method for automatic adjustment of spaced-apart camera system for forming panoramic image
JP6569769B2 (en) Arbitrary viewpoint image composition method and image processing apparatus