RU2809064C1 - Device and method for automatically switching camera operating modes - Google Patents

Device and method for automatically switching camera operating modes Download PDF

Info

Publication number
RU2809064C1
RU2809064C1 RU2023107262A RU2023107262A RU2809064C1 RU 2809064 C1 RU2809064 C1 RU 2809064C1 RU 2023107262 A RU2023107262 A RU 2023107262A RU 2023107262 A RU2023107262 A RU 2023107262A RU 2809064 C1 RU2809064 C1 RU 2809064C1
Authority
RU
Russia
Prior art keywords
camera
target object
distance
data
current frame
Prior art date
Application number
RU2023107262A
Other languages
Russian (ru)
Inventor
Любовь Владимировна СТЕПАНОВА
Владимир Петрович БОГАЧЁВ
Максим Алексеевич ШИКУНОВ
Александр Александрович ХАХМОВИЧ
Петр ПОГЛ
Кира Сергеевна КИРИЛЛОВА
Original Assignee
Самсунг Электроникс Ко., Лтд.
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Application granted granted Critical
Publication of RU2809064C1 publication Critical patent/RU2809064C1/en

Links

Abstract

FIELD: smartphone camera.
SUBSTANCE: method for automatically switching operating modes of a smartphone camera and other similar devices. The result is achieved by first capturing an image of the scene, including the target object to be tracked, in one of: close-range, long-range shooting modes, optionally, providing data from at least one of: depth sensors, motion sensors, providing at least one of: stereo data, image data in at least two consecutive frames in one of: close shooting mode, long shooting mode, when receiving stereo data: determine the disparity Dk of the scene including the target object captured by the camera based on the received stereo data at a certain moment of time for each current frame, determine the distance d1 from the camera to the target object and the measure of confidence R1 of the resulting disparity Dk based on the obtained stereo data, when receiving image data: calculate the field of motion vectors on the scene including the target object captured by the camera, calculate by at least one of: a shift factor, a rotation factor, a scene zoom factor, based on the calculated field of scene motion vectors, optionally initializing a tracker for the target object for the current frame, determining a distance d2 from the camera to the target object based on the zoom factor, and determine the measure of confidence R2, determine the distance d3 from the camera to the target object based on depth data using depth sensors and determine the measure of confidence R3, determine the distance d4 from the camera to the target object based on data from motion sensors and the measure of confidence R4, when initializing the tracker: determine the distance d5 and the confidence measure R5 and perform a hybrid estimate of the distance from the camera to the target object in the current frame based on the obtained distance values d1, d2, d3, d4, d5 from the camera to the target object and confidence measures R1, R2, R3, R4, R5, and the adjusted distance dh from the camera to the target object in the current frame is determined, then a decision is made to switch the camera to the close shooting mode or to the far shooting mode based on the adjusted distance dh.
EFFECT: reducing the time it takes for the camera to switch between modes, as well as increasing the accuracy of determining the shooting mode.
43 cl, 21 dwg

Description

Область техникиField of technology

Изобретение относится к способам и устройствам автоматического переключения режимов работы камеры (далее, как переключения камеры) при фиксации камеры на объекте в зависимости от расстояния до объекта, и может использоваться, в частности, для фото- и видеосъемки камерами смартфонов, а также в планшетных компьютерах под управлением операционных сиcтем Android, iOS, HarmonyOS и подобных системах, а также в других подобных устройствах, в которых имеется потребность к обеспечению автоматического переключения режимов работы камеры.The invention relates to methods and devices for automatically switching camera operating modes (hereinafter referred to as camera switching) when fixing the camera on an object depending on the distance to the object, and can be used, in particular, for photo and video shooting with smartphone cameras, as well as in tablet computers running operating systems Android, iOS, HarmonyOS and similar systems, as well as other similar devices that require automatic switching of camera operating modes.

Описание предшествующего уровня техникиDescription of the Prior Art

В уровне техники известно множество способов переключения режимов работы камер, используемых в настоящее время известными производителями фото- и видеотехники, в частности переключение, например, режимов работы цифровой камеры может осуществляться вручную самим пользователем камеры. В ряде случае обеспечение автоматического переключения режима камеры требует наличия специализированного оборудования, такого как лазерные/инфракрасные/радио-датчики движения, радары, лидары. При этом необходимо учитывать время, требуемое для переключения режимов работы камеры, и потребляемую мощность.The prior art knows many ways to switch operating modes of cameras currently used by well-known manufacturers of photo and video equipment; in particular, switching, for example, operating modes of a digital camera can be done manually by the camera user. In some cases, ensuring automatic camera mode switching requires specialized equipment, such as laser/infrared/radio motion sensors, radars, lidars. In this case, it is necessary to take into account the time required to switch camera operating modes and power consumption.

При этом следует отметить, что для съемки целевого объекта, находящегося на расстоянии от пользователя камеры, используется мультикамерная система, куда входят несколько камер, которые могут переключаться между собой. Эти камеры могут быть с более близкими расстояниями для фокусировки (макрокамера, ближняя камера), т.е. камеры для работы на небольшом расстоянии от целевого объекта и с более дальними (дальняя камера, теле-фото камера), т.е. камера для работы на большом расстоянии от целевого объекта. Мы будем рассматривать мультикамерную систему с по меньшей мере двумя камерами, которые отличаются между собой расстояниями для фокусировки. Камеру с более близким расстоянием для фокусировки мы назовем ближней камерой. А с более далеким - дальней. Переключение между камерами (ближней и дальней) в мультикамерной системе назовем переключением режимов на режим ближней и дальней съемки, соответственно.It should be noted that to shoot a target object located at a distance from the camera user, a multi-camera system is used, which includes several cameras that can switch between each other. These cameras may have closer focusing distances (macro camera, close camera), i.e. cameras for working at a short distance from the target object and with more distant ones (long-range camera, telephoto camera), i.e. camera for working at a great distance from the target object. We will consider a multi-camera system with at least two cameras that differ in focusing distances. We will call a camera with a closer focusing distance a near camera. And with the more distant - distant. Switching between cameras (near and far) in a multi-camera system will be called switching modes to near and far shooting modes, respectively.

Для понимания проблемы, решаемой настоящим изобретением, рассмотрим типичные случаи переключения режимов работы камеры, таких как режим очень дальней съемки (телефото-камера), режим дальней съемки и режим ближней съемки, проиллюстрированные на фиг.1A, 1B, 2A, 2B и 3A, 3B:To understand the problem solved by the present invention, consider typical cases of switching camera modes such as the very long shooting mode (telephoto camera), the long shooting mode and the close shooting mode, illustrated in Figs. 1A, 1B, 2A, 2B and 3A. 3B:

1) переключение с режима дальней съемки (широкоугольная камера) на режим очень дальней съемки (телефото-камеру) и обратно при съемке объекта, находящегося на значительном расстоянии (см. фиг.1A, 1B),1) switching from long-range shooting mode (wide-angle camera) to very long-range shooting mode (telephoto camera) and back when shooting an object located at a considerable distance (see Fig. 1A, 1B),

2) переключение с режима дальней съемки (широкоугольная камера) на режим ближней съемки (сверхширокоугольная камера) и обратно при съемке объекта, находящегося на близком расстоянии, или при необходимости захвата большей части объекта или сцены целиком (см. фиг.2A, 2B),2) switching from long-range shooting mode (wide-angle camera) to short-range shooting mode (ultra-wide-angle camera) and back when shooting an object at a close distance, or when it is necessary to capture most of the object or the entire scene (see Fig. 2A, 2B),

3) переключение с режима очень дальней съемки (телефото-камеры) на режим дальней съемки (широкоугольная камера) и обратно, и с режима дальней съемки (широкоугольная камера) на режим ближней съемки (сверхширокоугольная камера) и обратно при съемке объекта, находящегося в фокусе или вне фокуса, на близком расстоянии или удаленно от пользователя в зависимости от требований пользователя (см. фиг.3A, 3B).3) switching from very long-range shooting mode (telephoto camera) to long-range shooting mode (wide-angle camera) and vice versa, and from long-range shooting mode (wide-angle camera) to short-range shooting mode (ultra-wide-angle camera) and back when shooting an object in focus or out of focus, close or far away from the user depending on the user's requirements (see FIGS. 3A, 3B).

Следует отметить, что режим переключения с режима дальней съемки на режим ближней съемки и обратно наилучшим образом поддается автоматизации и более востребован у конечного пользователя.It should be noted that the mode of switching from long-range shooting mode to short-range shooting mode and vice versa lends itself best to automation and is more in demand among the end user.

При этом решение об автоматическом переключении камеры в различных методах принимается путем использования дополнительной информации, полученной на основании расчетов и измерений, описанных ниже (1), (2) и (3).In this case, the decision to automatically switch the camera in various methods is made by using additional information obtained based on calculations and measurements described below (1), (2) and (3).

(1) Одним из видов такой информации, на основании которого принимается решение о переключении камеры, является диспарантность (1), используемая для вычисления карты глубины сцены. При этом диспарантность (рассогласование или мера расфокусировки сцены), в общем виде, вычисляется на основании двух совпадающих изображений одной и той же сцены, снятых с двух разных углов, например, с помощью камеры по технологии dual pixel или стереокамеры. На фиг.4A представлена сцена, подлежащая съемке с помощью камеры, а на фиг.4B представлена карта глубины сцены с фиг.4A, на основании которой принимается решение о переключении камеры.(1) One type of such information, based on which the decision to switch the camera is made, is disparity (1), used to calculate the depth map of the scene. In this case, disparity (disparity or a measure of the defocus of a scene), in general, is calculated based on two matching images of the same scene, taken from two different angles, for example, using a dual pixel camera or a stereo camera. FIG. 4A shows the scene to be captured by the camera, and FIG. 4B shows the depth map of the scene from FIG. 4A based on which the camera switching decision is made.

(2) Кроме того, для принятия решения о переключении камеры также используются данные движения (2) на сцене и последовательные изображения (кадры) с камеры, используемые для определения направлений целевого объекта и построения поля векторов, при этом по направлению и скорости объекта можно рассчитать необходимый момент времени для переключения линз камеры для повышения качества фото и/или видеосъемки. Кроме того, для компенсации движения камеры во время съемки на основании начального положения и направления камеры могут быть использованы данные текущего положения и направления камеры, получаемые, например, от акселерометра, гироскопа, магнитометра и других датчиков движения, как правило встроенных в смартфоны. На фиг.5A представлена сцена, подлежащая съемке с помощью камеры, а на фиг.5B представлено поле векторов движения сцены с фиг.5A, на основании которого принимается решение о переключении камеры.(2) In addition, motion data (2) on the scene and sequential images (frames) from the camera are also used to make the decision to switch the camera, used to determine the directions of the target object and construct a vector field, while the direction and speed of the object can be calculated the necessary moment in time to switch camera lenses to improve the quality of photo and/or video shooting. In addition, to compensate for camera movement during shooting based on the initial position and direction of the camera, data from the current position and direction of the camera, obtained, for example, from an accelerometer, gyroscope, magnetometer and other motion sensors, usually built into smartphones, can be used. FIG. 5A shows the scene to be captured by the camera, and FIG. 5B shows the motion vector field of the scene from FIG. 5A based on which the camera switching decision is made.

(3) Для принятия решения о переключении камеры также могут быть использованы данные о глубине сцены (3), получаемые от лазерных, в том числе инфракрасных сенсоров, таких как времяпролетные (Time-of-Flight(ToF)) сенсоры или лидары (LiDAR), основанные на технологии измерения расстояния путем излучения света лазером или светодиодом и замера времени возвращения отраженного света на приемник. На фиг.6A представлена сцена, подлежащая съемке с помощью камеры, а на фиг.6B представлено дальностное изображение сцены, с фиг.6A, на основании которой принимается решение о переключении камеры.(3) To make a decision about camera switching, scene depth data (3) obtained from laser, including infrared sensors, such as Time-of-Flight (ToF) sensors or lidars (LiDAR) can also be used. , based on the technology of measuring distance by emitting light from a laser or LED and measuring the time it takes for the reflected light to return to the receiver. FIG. 6A shows a scene to be captured by the camera, and FIG. 6B shows a range view of the scene from FIG. 6A based on which a camera switching decision is made.

Заявители изучили множество подобных решений на рынке и выявили основные проблемы, которые необходимо решить в новом способе и устройстве автоматического переключения режимов камеры.The applicants have studied many similar solutions on the market and identified the main problems that need to be solved in a new method and device for automatically switching camera modes.

Традиционные решения для автоматического переключения режимов камеры требуют значительное время для обработки и/или вычисления информации, вплоть до секунды, что приводит в свою очередь к задержке процесса инициализации переключения камеры и, соответственно, к снижению качества изображения, получаемого при съемке камерой.Traditional solutions for automatically switching camera modes require significant time to process and/or calculate information, up to a second, which in turn leads to a delay in the process of initializing camera switching and, accordingly, to a decrease in the quality of the image obtained when shooting with the camera.

Одной из задач заявленного изобретения является значительное сокращение времени на переключение камеры, которые должно быть практически мгновенным и занимать несколько миллисекунд, чтобы пользователь не заметил процесс переключения.One of the objectives of the claimed invention is to significantly reduce the time for switching the camera, which should be almost instantaneous and take several milliseconds so that the user does not notice the switching process.

Кроме того, в известных решениях для автоматического переключения режимов камеры часто возникают ошибки переключения режимов при съемке объекта, например, при съемке объекта через оконное стекло или витрину, когда используемые сенсоры ошибочно распознают стекло в качестве объекта, что инициирует некорректное переключение камеры и приводит к снижению качества изображения, получаемого при съемке камерой. Авторы изобретения устраняют этот недостаток известного уровня техники посредством введения дополнительной информации об объекте в качестве входных данных, частности, карты глубины и поля векторов движения сцены, содержащей объект, для принятия решения о переключении режима камеры.In addition, in known solutions for automatically switching camera modes, errors in switching modes often occur when shooting an object, for example, when shooting an object through a window glass or showcase, when the sensors used mistakenly recognize the glass as an object, which initiates incorrect camera switching and leads to a decrease in the quality of the image obtained when shooting with the camera. The inventors overcome this drawback of the prior art by introducing additional information about the object as input, in particular, a depth map and a field of motion vectors of the scene containing the object, to decide whether to switch the camera mode.

Кроме того, известные способы и устройства переключения камеры зачастую включают специальное оборудование, например, различные лазерные сенсоры, включая инфракрасные сенсоры, такие, как времяпролетные (ToF) сенсоры или лидары (LiDAR), которые встраиваются в камеры, что требует значительного расхода энергии и существенно повышает стоимость устройства. Однако такое энергопотребление совершенно неприемлемо для смартфонов. Задачей заявленного способа и устройства является также снижение энергопотребления.In addition, known camera switching methods and devices often include special equipment, for example, various laser sensors, including infrared sensors, such as time-of-flight (ToF) sensors or LiDARs, which are built into the cameras, which requires significant power consumption and significantly increases the cost of the device. However, such power consumption is completely unacceptable for smartphones. The objective of the claimed method and device is also to reduce energy consumption.

Задачей заявленного способа и устройства является создание легкого, компактного, точного устройства, позволяющего автоматически переключать режимы работы камеры, предпочтительно переключать камеру между режимами дальней и ближней съемки, когда расстояние между камерой и целевым объектом превышает предварительно определенное пороговое значение, на основании информации о глубине и положении целевого объекта, полученной посредством определения диспарантности и данных отслеживания целевого объекта на сцене, а также данных, учитывающих движение на интересующей сцене, включающей целевой объект (в частности, поля векторов движения). Кроме того, в заявленном решении могут использоваться дополнительные данные о движении, полученные от акселерометра, гироскопа, датчиков глубины или других сенсоров для получения более точной оценки положения целевого объекта при принятии решения о переключении. В случае необходимости экономии или отсутствия таких сенсоров, или необходимости минимизации энергопотребления подобные сенсоры могут быть не использованы, а качество решения ухудшится незначительно. Таким образом, решение является гибким и устойчивым.The objective of the claimed method and device is to create a lightweight, compact, accurate device that allows you to automatically switch camera operating modes, preferably switching the camera between long- and short-range shooting modes when the distance between the camera and the target object exceeds a predetermined threshold value, based on information about the depth and the position of the target object obtained by determining the disparity and tracking data of the target object in the scene, as well as data taking into account the movement of the scene of interest including the target object (in particular, motion vector fields). In addition, the claimed solution can use additional motion data obtained from an accelerometer, gyroscope, depth sensors or other sensors to obtain a more accurate estimate of the position of the target object when making a switch decision. If there is a need to save money or the absence of such sensors, or the need to minimize energy consumption, such sensors may not be used, and the quality of the solution will deteriorate slightly. Thus, the solution is flexible and sustainable.

Из уровня техники известна система мобильной камеры US20160007008A1(патентообладатель Apple Inc.), IPC: G03B 13/34, H04N 13/02, опубл. 07.01.2016г., в которой раскрыт способ автофокусировки на основе данных о глубине и содержит получение двух изображений одной и той же сцены от двух различных камер с различными диапазонами фокусного расстояния, в частности, дальней камеры и телефото-камеры. После получения от пользователя информации о желаемом фокусе на сцене, например, при касании экрана, выполняется плавный переход путем совмещения кадров, полученных посредством линзы дальней камеры и телефото-линзы.Known from the prior art is the mobile camera system US20160007008A1 (patent holder of Apple Inc.), IPC: G03B 13/34, H04N 13/02, publ. 01/07/2016, which discloses a method for autofocus based on depth data and involves obtaining two images of the same scene from two different cameras with different focal length ranges, in particular, a long-range camera and a telephoto camera. After receiving information from the user about the desired focus on the scene, for example, by touching the screen, a smooth transition is performed by combining frames obtained through the far camera lens and the telephoto lens.

Недостатки указанного решения заключаются в необходимости непосредственного участия пользователя для управления камерой. При этом указанный способ съемки может использоваться только для фото- и видеосъемки в режиме приближения.The disadvantages of this solution are the need for direct user participation to control the camera. However, this shooting method can only be used for photo and video shooting in zoom mode.

В публикации WO2020073959A1(патентообладатель Huawei Technologies Co Ltd.), IPC H04N 5/232, опубл. 16.04.2020 г., раскрыт способ и электронное устройство захвата изображения. Способ основан на получении информации о расстоянии от датчика расстояния (т. е. лазерного и/или инфракрасного датчика). Далее, полученная информация о расстоянии обрабатывается и анализируется для определения подходящего фокусного расстояния и последующего выбора одного из режимов: режим очень дальней съемки (телефото-камеры), режим дальней съемки или ближней съемки.In WO2020073959A1 (patentee Huawei Technologies Co Ltd.), IPC H04N 5/232, publ. 04/16/2020, a method and an electronic image capturing device are disclosed. The method is based on obtaining distance information from a distance sensor (i.e. laser and/or infrared sensor). Next, the obtained distance information is processed and analyzed to determine the appropriate focal length and then select one of the modes: very long shooting mode (telephoto camera), long shooting mode or close shooting mode.

Недостатки данного решения заключаются в следующем: для работы необходим дополнительный датчик расстояния, включение которого в устройство значительно увеличивает стоимость его производства; кроме того, требуется непосредственное участие пользователя для установления фокуса на целевом объекте.The disadvantages of this solution are as follows: operation requires an additional distance sensor, the inclusion of which in the device significantly increases the cost of its production; in addition, direct user interaction is required to establish focus on the target object.

В US11218641B2 (патентообладатель Qualcomm Inc.), опубл.04.01.2022, IPC H04N 5/225, H04N 5/232 раскрыт способ и устройства захвата данных изображения. Способ основан на расчете коэффициента масштабирования и объединении пикселей.US11218641B2 (patent holder Qualcomm Inc.), published 01/04/2022, IPC H04N 5/225, H04N 5/232, discloses a method and apparatus for capturing image data. The method is based on calculating the scaling factor and combining pixels.

Когда запрошенный пользователем коэффициент масштабирования изображения и/или необходимое для этого объединение пикселей превышает пороговое значение для переключения камеры, выполняется переключение между камерами с разными коэффициентами оптического масштабирования и/или разными фокусными расстояниями, т.е. между режимами очень дальней съемки, дальней съемки и ближней съемки. Этот способ выполняется вручную и не обеспечивает автоматическое переключение режима камеры, поскольку установление фокуса на целевом объекте выполняется по требованию пользователя и далее выполняется процесс переключения режима камеры.When the user-requested image zoom factor and/or the required pixel binning exceeds the camera switching threshold, a switch is made between cameras with different optical zoom factors and/or different focal lengths, i.e. between very long range, long range and close range modes. This method is manual and does not automatically switch the camera mode, since focusing on the target object is done at the user's request and then the process of switching the camera mode is carried out.

Наиболее близким техническим решением заявленного изобретения является способ переключения фотокамеры и устройство цифровой фотокамеры, раскрытые в патенте US10,291,842B2 (патентообладатель Samsung Electronic Co Ltd), IPC G06T7/00; H04N 5/225, опубл. 14.05.2014г. Способ основан на получении изображений с помощью дальней камеры и очень дальней камеры (телекамеры), вычислении карты глубины путем сопоставления стереоданных, и использовании карты глубины для получения информации о движении. На основе полученной информации о движении и рассчитанной скорости целевого объекта инициируется переключение между дальней камерой и очень дальней камерой (телекамерой).The closest technical solution of the claimed invention is a method for switching a camera and a device for a digital camera, disclosed in patent US10,291,842B2 (patent holder Samsung Electronic Co Ltd), IPC G06T7/00; H04N 5/225, publ. 05/14/2014 The method is based on obtaining images using a long-range camera and a very long-range camera (TV camera), calculating a depth map by matching stereo data, and using the depth map to obtain motion information. Based on the received motion information and the calculated speed of the target object, switching between the far camera and the very far camera (TV camera) is initiated.

Недостатками данного решения является то, что способ может использоваться исключительно для фото- и видеосъемки в режиме приближения; кроме того, две камеры, работающие одновременно, увеличивают энергопотребление устройства в целом.The disadvantages of this solution are that the method can be used exclusively for photo and video shooting in zoom mode; In addition, two cameras working simultaneously increase the power consumption of the device as a whole.

Все вышеуказанные решения не обеспечивают современные требования, диктуемые электронными портативными устройствами со встроенными камерами для захвата видео/фото. При этом в современных электронных устройствах очень трудно совместить требования к компактности устройства, позволяющие использовать его в мобильных телефонах, с одновременным сохранением качества захватываемого изображения в реальном времени, что обеспечивается автоматическим переключением режимов камеры.All of the above solutions do not meet modern requirements dictated by electronic portable devices with built-in cameras for video/photo capture. At the same time, in modern electronic devices it is very difficult to combine the requirements for compactness of the device, allowing it to be used in mobile phones, while simultaneously maintaining the quality of the captured image in real time, which is ensured by automatic switching of camera modes.

Для наглядности преимуществ заявленного способа и устройства автоматического переключения режимов работы камеры далее приведен сопоставительный анализ функциональностей заявленного технического решения и известных технических решений, описанных выше.To illustrate the advantages of the claimed method and device for automatically switching camera operating modes, below is a comparative analysis of the functionality of the claimed technical solution and the known technical solutions described above.

Заявленное изобретение характеризуется следующим:The claimed invention is characterized by the following:

1) обеспечивает переключение камеры из режима дальней съемки в режим ближней съемки и обратно, также может быть использовано для автоматического переключения с режима теле-фотокамеры в режим дальней съемки при потере целевого объекта. Также изобретение может быть использовано для переключения из режима дальней и/или близкой съемки в режим очень близкой съемки (макросъемки) и обратно1) provides switching of the camera from long-range shooting mode to short-range shooting mode and back, and can also be used to automatically switch from telephoto camera mode to long-range shooting mode when the target object is lost. The invention can also be used to switch from far and/or close shooting mode to very close shooting (macro photography) mode and back

2) требуются стереоданные и данные изображения,2) stereo and image data are required,

3) управление камерой непосредственно пользователем не требуется,3) camera control directly by the user is not required,

4) способ, согласно изобретению, использует данные глубины и информацию поля векторов движения сцены, содержащей целевой объект.4) the method according to the invention uses depth data and motion vector field information of the scene containing the target object.

5) другие данные, например, данные с различных сенсоров (ToF, LiDAR, UWB, акселерометр, гироскоп и другие), могут быть использованы для улучшения точности, но не являются необходимыми.5) other data, for example, data from various sensors (ToF, LiDAR, UWB, accelerometer, gyroscope and others), can be used to improve accuracy, but are not necessary.

US 10,291,842 B2 (патентообладатель Samsung Electronics Co Ltd) (прототип)US 10,291,842 B2 (patented by Samsung Electronics Co Ltd) (prototype)

1) обеспечивает переключение камеры из режима дальней съемки в режим телефото-камеры и обратно,1) provides switching of the camera from long-range shooting mode to telephoto camera mode and back,

2) требуются стереоданные от режима дальней съемки и телефото-камеры,2) stereo data is required from the long-range shooting mode and telephoto camera,

3) управление камерой непосредственно пользователем не требуется,3) camera control directly by the user is not required,

4) в способе используется информация о движении целевого объекта, получаемая на основании данных глубины.4) the method uses information about the movement of the target object, obtained based on depth data.

US20160007008A1(патентообладатель Apple Inc.)US20160007008A1(patented by Apple Inc.)

1) обеспечивает переключения камеры из режима дальней съемки в режим телефото-камеры и обратно,1) provides switching of the camera from long-range shooting mode to telephoto camera mode and back,

2) требуются стереоданные от режима дальней съемки и телефото-камеры,2) stereo data is required from the long-range shooting mode and telephoto camera,

3) управление камерой непосредственно пользователем требуется при инициировании переключения режима камеры,3) camera control directly by the user is required when initiating camera mode switching,

4) в способе используются данные о глубине сцены.4) the method uses data on the depth of the scene.

WO2020073959A1(патентообладатель Huawei Technologies Co Ltd.)WO2020073959A1(patented by Huawei Technologies Co Ltd.)

1) обеспечивает переключения камеры из телефото-камеры в режим дальней съемки и в режим ближней съемки и обратно,1) provides switching of the camera from a telephoto camera to a long-range shooting mode and to a short-range shooting mode and vice versa,

2) требуются данные от датчика расстояния до целевого объекта,2) data from the distance sensor to the target object is required,

3) управление камерой непосредственно пользователем требуется при инициировании переключения режима камеры,3) camera control directly by the user is required when initiating camera mode switching,

4) используются данные сенсоров (лазерные и/или инфракрасные сенсоры).4) sensor data is used (laser and/or infrared sensors).

US11218641B2 (патентообладатель Qualcomm Inc.)US11218641B2 (patented by Qualcomm Inc.)

1) обеспечивает переключения камеры из телефото-камеры в режим дальней съемки (широкоугольная камера)и в режим ближней съемки (сверхширокоугольная камера) и обратно,1) provides switching of the camera from a telephoto camera to a long-range shooting mode (wide-angle camera) and to a short-range shooting mode (ultra-wide-angle camera) and vice versa,

2) требуются стереоданные от широкоугольной камеры, сверхширокоугольной и телефото-камеры,2) stereo data is required from the wide-angle, ultra-wide-angle and telephoto cameras,

3) управление камерой непосредственно пользователем требуется при инициировании переключения режима камеры,3) camera control directly by the user is required when initiating camera mode switching,

4) используются вычисления коэффициента масштабирования.4) scaling factor calculations are used.

Сущность изобретенияThe essence of the invention

Согласно первому аспекту изобретения предлагается способ автоматического переключения режимов работы камеры, содержащий следующие этапы, при которых:According to a first aspect of the invention, there is provided a method for automatically switching camera operating modes, comprising the following steps:

- предварительно захватывают изображение сцены, включающей целевой объект, подлежащий отслеживанию, в одном из: режимов ближней, дальней съемки,- preliminarily capture an image of the scene, including the target object to be tracked, in one of: close-range, long-range shooting modes,

- по выбору, обеспечивают получение данных по меньшей мере одного из: сенсоров глубины, сенсоров движения,- optionally, provide data from at least one of: depth sensors, motion sensors,

- обеспечивают получение по меньшей мере одного из: стереоданных, данных изображения по меньшей мере в двух последовательных кадрах в одном из режима: ближней съемки, режима дальней съемки,- provide at least one of: stereo data, image data in at least two consecutive frames in one of the modes: close shooting mode, long shooting mode,

при получении стереоданных:when receiving stereo data:

- определяют диспарантность Dk сцены, включающей целевой объект, захваченной камерой, на основании полученных стереоданных в определенный момент времени для каждого текущего кадра,- determine the disparity D k of the scene, including the target object, captured by the camera, based on the obtained stereo data at a certain point in time for each current frame,

- определяют меру уверенности R1 полученной диспарантности Dk на основании полученных стерео данных,- determine the measure of confidence R 1 of the obtained disparity D k based on the obtained stereo data,

- определяется расстояние d1 от камеры до целевого объекта на основании определенной диспарантности Dk для текущего кадра- the distance d 1 from the camera to the target object is determined based on a certain disparity D k for the current frame

при получении данных изображения:when receiving image data:

- сравнивают данные изображения по меньшей мере двух последовательных кадров и на основании сравнения указанных данных изображения, вычисляют поле векторов движения на сцене, включающей целевой объект, захваченной камерой,- comparing image data of at least two consecutive frames and, based on the comparison of said image data, calculating a field of motion vectors in the scene including the target object captured by the camera,

- вычисляют по меньшей мере один из: коэффициент сдвига, коэффициент поворота, коэффициент масштабирования сцены, на основании вычисленного поля векторов движения сцены,- calculating at least one of: shift coefficient, rotation coefficient, scene scaling coefficient, based on the calculated field of scene motion vectors,

- по выбору, инициализируют средство отслеживания для целевого объекта для текущего кадра, осуществляют отслеживание целевого объекта на последующих кадрах, и вычисляют коэффициент масштабирования ограничивающего прямоугольника камеры с находящимся в нем целевым объектом в процессе отслеживания для каждого кадра,- optionally, initialize the tracker for the target object for the current frame, carry out tracking of the target object on subsequent frames, and calculate the scaling factor of the bounding rectangle of the camera with the target object located in it in the tracking process for each frame,

- определяют выход целевого объекта из кадра, и в случае если выход целевого объекта из кадра не выявлен:- определяют расстояние d2 от камеры до целевого объекта на основании коэффициента масштабирования, полученного на основании вычисленного поля векторов движения,- determine the exit of the target object from the frame, and if the exit of the target object from the frame is not detected: - determine the distance d 2 from the camera to the target object based on the scaling factor obtained based on the calculated field of motion vectors,

- определяют меру уверенности R2 расстояния d2 от камеры до целевого объекта,- determine the measure of confidence R 2 of the distance d 2 from the camera to the target object,

- при получении данных с сенсоров глубины: определяют расстояние d3 от камеры до целевого объекта на основании данных глубины c помощью сенсоров глубины, и определяют меру уверенности R3 расстояния d3 на основании данных глубины c помощью сенсоров глубины,- when receiving data from depth sensors: determine the distance d 3 from the camera to the target object based on depth data using depth sensors, and determine the degree of confidence R 3 of the distance d 3 based on depth data using depth sensors,

- при получении данных с сенсоров движения: определяют расстояние d4 от камеры до целевого объекта на основании данных сенсоров движения и определяют меру уверенности R4 расстояния d4 на основании данных сенсоров движения,- when receiving data from motion sensors: determine the distance d 4 from the camera to the target object based on the data from the motion sensors and determine the degree of confidence R 4 of the distance d 4 based on the data from the motion sensors,

- при инициализации средства отслеживания: определяют расстояние d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом,- when initializing the tracker: the distance d 5 from the camera to the target object is determined based on the calculated scaling factor of the bounding rectangle with the target object located in it,

- при инициализации средства отслеживания: определяют меру уверенности R5 расстояния d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом, и- when initializing the tracker: determine the confidence measure R 5 of the distance d 5 from the camera to the target object based on the calculated scaling factor of the bounding rectangle with the target object located in it, and

- выполняют гибридную оценку расстояния от камеры до целевого объекта в текущем кадре на основании полученных значений расстояния d1, d2, d3, d4, d5 от камеры до целевого объекта и мер уверенности R1, R2, R3, R4, R5, и определяется скорректированное расстояние dh от камеры до целевого объекта в текущем кадре,- perform a hybrid assessment of the distance from the camera to the target object in the current frame based on the obtained distance values d1, d2,d3,d4,d5 from camera to target and confidence measures R1, R2, R3, R4, R5, and the adjusted distance dhfrom the camera to the target object in the current frame,

- принимают решение о переключении камеры в режим ближней съемки или в режим дальней съемки на основании скорректированного расстояния dh. - decide whether to switch the camera to the close shooting mode or to the long shooting mode based on the adjusted distance d h.

При этом, в заявленном способе, при нахождении камеры в режиме дальней съемки, если полученное скорректированное расстояние dh меньше предварительно определенного порогового значения принимают решение о переключении камеры в режим ближней съемки, аMoreover, in the claimed method, when the camera is in long-range shooting mode, if the resulting adjusted distance d h is less than a predetermined threshold value, a decision is made to switch the camera to short-range shooting mode, and

при нахождении камеры в режиме в ближней съемки, если полученное скорректированное расстояние dh больше предварительно определенного порогового значения принимают решение о переключении камеры в режим дальней съемки.when the camera is in close-range shooting mode, if the resulting adjusted distance d h is greater than a predetermined threshold value, a decision is made to switch the camera to long-range shooting mode.

При этом в способе данные изображения представляют собой одно из: RGB, YUV и CMYK данных, а стереоданные получают посредством PDAF сенсоров матрицы камеры с технологией Dual Pixel, при этомIn this method, the image data represents one of: RGB, YUV and CMYK data, and stereo data is obtained using PDAF sensors of the camera matrix with Dual Pixel technology, while

значение диспарантности Dk для выбранного целевого объекта в текущем кадре определяется посредством PDAF данных, полученных матрицей сенсоров камеры, как локальный минимум SAD кривой, аthe disparity value D k for the selected target object in the current frame is determined by PDAF data obtained by the camera sensor matrix as the local minimum of the SAD curve, and

для определения диспарантности Dk для выбранного целевого объекта в текущем кадре на основе полученных PDAF данных, представляющих собой правое и левое изображение целевого объекта, полученных матрицей сенсоров камеры, рассчитывается сумма абсолютных различий, как абсолютная разность между пикселями левого и правого изображений, на основе которых строятся SAD кривые.to determine the disparity D k for the selected target object in the current frame based on the received PDAF data, which are the right and left images of the target object obtained by the camera sensor matrix, the sum of absolute differences is calculated as the absolute difference between the pixels of the left and right images, on the basis of which SAD curves are constructed.

Согласно заявленному способу, скорректированное расстояние dh определяется на основании полученных значений расстояниЙ d1, d2, d3, d4, d5 от камеры до целевого объекта и мер уверенности R1, R2, R3, R4, R5 для текущего кадра из выражения согласно выражению:According to the claimed method, the corrected distance d h is determined based on the obtained values of the distances d 1 , d 2 , d 3 , d 4 , d 5 from the camera to the target object and confidence measures R 1 , R 2 , R 3 , R 4 , R 5 for the current frame from the expression according to the expression:

dh=d1 * R1 + d2 * R2 + d3 * R3 + d4 * R4 + d5 * R5 d h= d 1 * R 1 + d 2 * R 2 + d 3 * R 3 + d 4 * R 4 + d 5 * R 5

При этом мера уверенности R1 для текущего кадра рассчитывается на основании данных SAD кривых и определяется из выражения:Moreover, the confidence measure R1for the current frame is calculated based on SAD curve data and is determined from the expression:

R1 ,R 1 ,

где - уровень сигнала, - уровень шума, - глобальный минимум и - подминимум SAD кривой.Where - signal level, - noise level, - global minimum and - subminimum of the SAD curve.

Кроме того, мера уверенности R2 для текущего кадра рассчитывается на основе данных поля векторов, и последующего аффинного преобразования поля векторов, а мера уверенности R3 для текущего кадра характеризует аппроксимацию соотношения сигнал/шум, полученного на основании данных сенсора глубины и определяется из выражения:In addition, the confidence measure R2for the current frame is calculated based on the data of the vector field, and the subsequent affine transformation of the vector field, and the confidence measure R3for the current frame characterizes the approximation of the signal-to-noise ratio obtained based on depth sensor data and is determined from the expression:

R3=100x ,R 3 =100x ,

где R3 - мера уверенности, YS - уровень сигнала, YN - уровень шума.where R 3 is a measure of confidence, Y S is the signal level, Y N is the noise level.

Согласно способу, мера уверенности R4 для текущего кадра характеризует аппроксимацию соотношения сигнал/шум, полученного на основании данных по меньшей мере одного сенсора движения иAccording to the method, the confidence measure R4for the current frame characterizes the approximation of the signal-to-noise ratio obtained based on data from at least one motion sensor and

определяется из выражения:determined from the expression:

R4=100x ,R 4 =100x ,

где R4 - мера уверенности, YS - уровень сигнала, YN - уровень шума.where R 4 is a measure of confidence, Y S is the signal level, Y N is the noise level.

При этом, согласно способу, мера уверенности R5 рассчитывается на основе результатов работы средства отслеживания.In this case, according to the method, the confidence measure R 5 is calculated based on the results of the tracker.

Кроме того, в заявленном способе:In addition, in the claimed method:

- расстояние d1 от камеры до целевого объекта определяют на основании определенной диспарантности Dk для текущего кадра,- the distance d 1 from the camera to the target object is determined based on a certain disparity D k for the current frame,

- расстояние d2 от камеры до целевого объекта определяют на основании определенного коэффициента масштабирования для текущего кадра,- the distance d 2 from the camera to the target object is determined based on a certain zoom factor for the current frame,

- расстояние d3 от камеры до целевого объекта определяют на основании данных глубины c помощью сенсоров глубины, и расстояние d4 от камеры до целевого объекта определяют на основании данных движения c помощью сенсоров движения,- the distance d 3 from the camera to the target object is determined based on depth data using depth sensors, and the distance d 4 from the camera to the target object is determined based on motion data using motion sensors,

- расстояние d5 от камеры до целевого объекта определяется на основании коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом.- the distance d 5 from the camera to the target object is determined based on the scaling factor of the bounding rectangle with the target object located in it.

При этом, согласно способу, вычисляют коэффициент масштабирования ограничивающего прямоугольника на экране камеры с находящейся в нем целевым объектом для текущего кадра k, как соотношение размеров ограничивающего прямоугольника текущего кадра и предыдущего кадра.In this case, according to the method, the scaling factor of the bounding rectangle on the camera screen with the target object located in it is calculated for the current frame k, as the ratio of the sizes of the bounding rectangle of the current frame and the previous frame.

В заявленном способе, дополнительно, по выбору, определяют предварительно определенные случаи работы камеры, при захвате целевого объекта в текущем кадре, при этом к указанным случаям относятся по меньшей мере одно из: целевой объект представляет собой прозрачный объект, целевой объект представляет собой отражающий объект, съемка целевого объекта, находящегося за стеклом, низкая освещенность или эффект белой стены, когда камера смотрит на однородный фон, локальные перемещения объекта при неподвижном заднем фоне, поворот или дрожание камеры.In the claimed method, additionally, optionally, predetermined cases of camera operation are determined when capturing a target object in the current frame, and these cases include at least one of: the target object is a transparent object, the target object is a reflective object, shooting a target object behind glass, low light or white wall effect when the camera looks at a uniform background, local movement of the subject with a stationary background, camera rotation or shake.

При работе камеры в режиме дальней съемки или в режиме ближней съемки, вычисление по меньшей мере одного из: коэффициента сдвига, коэффициента поворота, коэффициента масштабирования сцены, выполняется на основе аффинного преобразования вычисленного поля векторов движения сцены, кроме того, при работе камеры в режиме дальней съемки, определяют меру уверенности R2 расстояния d2 от камеры до целевого объекта на основании на основании вычисленного поля векторов движения сцены и аффинного преобразования этого поля векторов.When the camera is operating in long-range shooting mode or in short-range shooting mode, the calculation of at least one of: shift coefficient, rotation coefficient, scene scaling factor is performed based on the affine transformation of the calculated field of scene motion vectors, in addition, when the camera is operating in long-range shooting mode shooting, determine a measure of confidence R 2 of the distance d 2 from the camera to the target object based on the calculated field of scene motion vectors and the affine transformation of this vector field.

Кроме того, при работе камеры в режиме ближней съемки, при инициализации средства отслеживания, если ограничивающий прямоугольник, включающий целевой объект, выходит за границы текущего кадра, устанавливается потеря целевого объекта в текущем кадре, и при установлении потери целевого объекта в текущем кадре, принимается решение о переключении камеры в режим дальней съемки.Additionally, when the camera is in close-up mode, when the tracker is initialized, if the bounding box containing the target object extends beyond the boundaries of the current frame, the loss of the target object in the current frame is determined, and when it is determined that the target object is lost in the current frame, a decision is made about switching the camera to long-range shooting mode.

При этом, после установления потери целевого объекта в текущем кадре: дополнительно определяется расстояние d1 от камеры до целевого объекта на основании определенной диспарантности Dk для текущего кадра, и дополнительно определяют расстояние d3 от камеры до целевого объекта на основании данных глубины c помощью сенсоров глубины для текущего кадра.In this case, after establishing the loss of the target object in the current frame: the distance d 1 from the camera to the target object is additionally determined based on a certain disparity D k for the current frame, and the distance d 3 from the camera to the target object is additionally determined based on depth data using sensors depth for the current frame.

Согласно первому аспекту изобретения в способе, при работе камеры в режиме ближней съемки, дополнительно определяют расстояние dh после установления потери целевого объекта в текущем кадре с учетом дополнительно определенных расстояний d1 и/или d3.According to the first aspect of the invention, the method, when operating the camera in close-up mode, further determines the distance d h after determining the loss of the target object in the current frame, taking into account the additional determined distances d 1 and/or d 3 .

При этом, если полученное расстояние dh после установления потери целевого объекта в кадре меньше предварительно определенного порогового значения, принимается решение о сохранении режима ближней съемки и выполняют переход на следующий кадр, и, если полученное расстояние dh после установления потери целевого объекта в кадре больше или равно предварительно определенного порогового значения, принимается решение о переключении камеры в режим дальней съемки.In this case, if the obtained distance d h after establishing the loss of the target object in the frame is less than a predetermined threshold value, a decision is made to maintain the close shooting mode and move to the next frame, and if the obtained distance d h after establishing the loss of the target object in the frame is greater or equal to a predetermined threshold value, a decision is made to switch the camera to long-range shooting mode.

Кроме того, согласно способу, также вычисляют по меньшей мере один из: коэффициента сдвига, коэффициента поворота, коэффициент масштабирования сцены, посредством применения модели аффинного преобразования к вычисленному полю векторов.In addition, according to the method, at least one of the shift coefficient, the rotation coefficient, and the scene scaling coefficient is also calculated by applying an affine transformation model to the calculated vector field.

Согласно второму аспекту изобретения предлагается устройство автоматического переключения режимов работы камеры, содержащее:According to the second aspect of the invention, a device for automatically switching camera operating modes is provided, comprising:

- блок ввода-вывода, включающий графический процессор, дисплей, камеру, блок интерфейса ввода-вывода,- an input/output unit, including a graphics processor, a display, a camera, an input/output interface unit,

- блок вычислений, содержащий центральный процессор, контроллер памяти, системную память и накопитель,- a computing unit containing a central processor, memory controller, system memory and storage,

при этом камера представляет собой мультикамерную систему, включающую фото и/или видеокамеру, и содержащую блок формирования изображения, содержащий линзу ближней съемки и линзу дальней съемки, и матрицу сенсоров, при этом камера выполнена с возможностью захвата целевого объекта и передачи данных изображения целевого объекта в системную память блока вычислений через блок интерфейса ввода-вывода,wherein the camera is a multi-camera system, including a photo and/or video camera, and containing an image forming unit containing a short-range lens and a long-range lens, and a sensor matrix, wherein the camera is configured to capture a target object and transmit image data of the target object to system memory of the calculation unit through the input-output interface unit,

блок вычислений выполнен с возможностью реализации этапов способа согласно первому аспекту изобретения, и вычисления расстояния до целевого объекта и принятия решения о переключении камеры в режим ближней съемки или в режим дальней съемки, при этом полученное расстояние до целевого объекта и решение о переключения камеры передается в системную память и через блок интерфейс ввода-вывода в камеру для осуществления переключения режима камеры.the calculation unit is configured to implement the steps of the method according to the first aspect of the invention, and calculate the distance to the target object and make a decision on switching the camera to the close shooting mode or to the far shooting mode, while the resulting distance to the target object and the decision to switch the camera is transmitted to the system memory and through the block I/O interface to the camera to switch the camera mode.

камера выполнена с возможностью передачи графической информации через блок интерфейса ввода-вывода и графический процессор на дисплей устройства,the camera is configured to transmit graphic information through the input-output interface unit and the graphics processor to the device display,

дисплей выполнен с возможностью визуализации целевого объекта в режиме реального времени.the display is designed to visualize the target object in real time.

При этом в заявленном устройстве, графический процессор выполнен с возможностью обработки графической информации, полученной с камеры, а котором матрица сенсоров представляет собой матрицу PDAF сенсоров, накопитель выполнен с возможностью хранения фото- и видеоизображений, полученных камерой устройства и представляет собой твердотельный накопитель(SSD).Moreover, in the claimed device, the graphics processor is configured to process graphic information received from the camera, and the sensor matrix is a matrix of PDAF sensors, the drive is configured to store photo and video images received by the device’s camera and is a solid-state drive (SSD) .

При этом в заявленном устройстве блок ввода-вывода дополнительно содержит по меньшей мере один сенсор движения и сенсор глубины, при этом сенсор движения представляет собой по меньшей мере один из: акселерометр, гироскоп, магнитометр, а сенсор глубины представляет собой по меньшей мере один из: RaDAR, LiDAR ToF-сенсор, UWB-сенсор.Moreover, in the claimed device, the input/output block additionally contains at least one motion sensor and a depth sensor, wherein the motion sensor is at least one of: an accelerometer, a gyroscope, a magnetometer, and the depth sensor is at least one of: RaDAR, LiDAR ToF sensor, UWB sensor.

Кроме того, контроллер памяти выполнен с возможностью передачи данных из системной памяти на центральный процессор для вычислений.In addition, the memory controller is configured to transfer data from the system memory to the central processing unit for computation.

Заявленное устройство выполнено с возможностью встраивания в одно из: смартфон, планшетный компьютер, фото- и видеокамера.The claimed device is designed to be built into one of the following: smartphone, tablet computer, photo and video camera.

Краткое описание чертежейBrief description of drawings

Вышеописанные и другие признаки и преимущества настоящего изобретения поясняются в последующем описании, иллюстрируемом чертежами, на которых представлено следующее:The above and other features and advantages of the present invention will become more apparent from the following description, taken in conjunction with the drawings, in which:

Фиг. 1A - представлено изображение сцены при переключении с режима дальней съемки на режим телефотокамеры и обратно при съемке объекта, находящегося на расстоянии, согласно известному уровню техники.Fig. 1A shows an image of a scene when switching from a long-range shooting mode to a telephoto camera mode and back when shooting an object located at a distance, according to the prior art.

Фиг. 1B - схематично представлены углы обзора сцены при переключении с режима дальней съемки на режим телефотокамеры и обратно при съемке объекта, находящегося на расстоянии, согласно известному уровню техники.Fig. 1B is a schematic representation of the viewing angles of a scene when switching from a long-range shooting mode to a telephoto camera mode and back when shooting an object located at a distance, according to the prior art.

Фиг. 2A - представлено изображение сцены при переключении с режима дальней съемки (широкоугольная камера) на режим ближней съемки (сверхширокоугольная камера) и обратно при съемке объекта, находящегося вблизи, или захвате всей сцены, согласно известному уровню техники.Fig. 2A shows an image of a scene when switching from a long-range mode (wide-angle camera) to a close-range mode (ultra-wide-angle camera) and back when shooting a close-up object or capturing an entire scene, according to the prior art.

Фиг. 2B - схематично представлены углы обзора сцены при переключении с режима дальней съемки (широкоугольная камера) на режим ближней съемки (сверхширокоугольная камера) и обратно при съемке объекта, находящегося вблизи, или захвате всей сцены, согласно известному уровню техники.Fig. 2B is a schematic representation of the viewing angles of a scene when switching from a long-range mode (wide-angle camera) to a close-range mode (ultra-wide-angle camera) and back when shooting a close-up object or capturing an entire scene, according to the prior art.

Фиг.3A - представлено изображение сцены при переключении с режима телефото-камеры на режим дальней съемки (широкоугольная камера) и обратно, и переключении камеры с режима дальней съемки на режим ближней съемки (сверхширокоугольная камера) и обратно при съемке сцены с изменением необходимого фокусного расстояния до объекта в зависимости от требований пользователя, согласно известному уровню техники.Fig. 3A shows an image of a scene when switching from a telephoto camera mode to a long-range shooting mode (wide-angle camera) and back, and switching the camera from a long-range shooting mode to a short-range shooting mode (ultra-wide-angle camera) and back when shooting a scene with a change in the required focal length to the object depending on the user's requirements, according to the known level of technology.

Фиг.3B - схематично представлены углы обзора сцены при переключении с режима телефотокамеры на режим дальней съемки(широкоугольная камера) и обратно, и переключении режима дальней съемки в режим ближней съемки (сверхширокоугольная камера) и обратно при съемке сцены, с изменением необходимого фокусного расстояния до объекта в зависимости от требований пользователя, согласно известному уровню техники.Fig. 3B - schematically shows the viewing angles of a scene when switching from a telephoto camera mode to a long-range shooting mode (wide-angle camera) and back, and switching a long-range shooting mode to a short-range shooting mode (ultra-wide-angle camera) and back when shooting a scene, changing the required focal length to object depending on the user's requirements, according to the known level of technology.

Фиг.4A - представлено изображение сцены, на основании которой рассчитывается диспарантность согласно известному уровню техники.FIG. 4A is an image of a scene from which disparity is calculated according to the prior art.

Фиг.4B - представлена карта глубины сцены, на основании полученной диспарантности сцены с фиг.4A согласно известному уровню техники.FIG. 4B shows a scene depth map based on the obtained scene disparity from FIG. 4A according to the prior art.

Фиг.5A - представлено изображение сцены, на основании которой рассчитывается поле векторов движения сцены согласно известному уровню техники.FIG. 5A shows an image of a scene on the basis of which the field of scene motion vectors is calculated according to the prior art.

Фиг.5B - представлено поле векторов движения на основании данных движения на сцене с фиг.5A согласно известному уровню техники.FIG. 5B illustrates a field of motion vectors based on motion data in the scene of FIG. 5A according to the prior art.

Фиг.6A - представлено изображение сцены, на основании которой генерируется карта глубины сцены на основании данных, получаемых от лазерных сенсоров согласно известному уровню техники.6A is an image of a scene from which a scene depth map is generated based on data obtained from laser sensors in accordance with the prior art.

Фиг.6B - представлено дальностное изображение сцены с фиг.6а, полученное на основании данных, получаемых от лазерных сенсоров согласно известному уровню техники.FIG. 6B shows a range image of the scene from FIG. 6a obtained from data obtained from laser sensors according to the prior art.

Фиг.7A - представлена блок-схема этапов способа автоматического переключения режимов работы камеры с режима дальней съемки (широкоугольная камера) на режим ближней съемки (сверхширокоугольная камера) согласно варианту реализации изобретения.FIG. 7A is a flowchart of steps of a method for automatically switching camera operating modes from a long-range shooting mode (wide-angle camera) to a close-range shooting mode (ultra-wide-angle camera) according to an embodiment of the invention.

Фиг.7B - представлена блок-схема этапов способа автоматического переключения режимов работы камеры с режима ближней съемки (сверхширокоугольная камера) на режим дальней съемки(широкоугольная камера) согласно варианту реализации изобретения.FIG. 7B is a flowchart of steps of a method for automatically switching camera operating modes from a close-in shooting mode (ultra-wide-angle camera) to a long-range shooting mode (wide-angle camera) according to an embodiment of the invention.

Фиг.8A - представлено изображение сцены при запуске приложения работы камеры в режиме дальней съемки.Fig. 8A shows an image of the scene when the camera application is launched in the long-range shooting mode.

Фиг.8B - представлена автоматическая оценка движения на сцене, как ее видит пользователь на камере.FIG. 8B shows automatic motion estimation in a scene as seen by the user on the camera.

Фиг.8C - представлена автоматическая оценка расстояния до целевого объекта, как ее видит пользователь на камере.FIG. 8C shows the automatic estimation of the distance to the target object as seen by the user on the camera.

Фиг.8D - представлено изображение целевого объекта на этапе анализа оценки измерений с фиг.8B, 8C, как ее видит пользователь на камере.8D shows an image of the target object during the measurement evaluation analysis phase of FIGS. 8B, 8C as seen by the user on the camera.

Фиг.8E - представлено изображение сцены при переключении камеры, как ее видит пользователь на камере.FIG. 8E is a view of the scene when switching the camera, as seen by the user on the camera.

Фиг.9 - представлен пример ограничивающего прямоугольника в виде узлов 2D сетки.Figure 9 shows an example of a bounding box in the form of 2D grid nodes.

Фиг. 10 - представлена блок-схема устройства автоматического переключения режимов работы камеры.Fig. 10 - shows a block diagram of a device for automatically switching camera operating modes.

Предпочтительные варианты осуществления изобретенияPreferred Embodiments of the Invention

Примеры вариантов осуществления настоящего раскрытия будут подробно описаны ниже. Примеры вариантов осуществления были проиллюстрированы на прилагаемых чертежах, на которых одинаковые или подобные ссылочные позиции относятся к одинаковым или подобным элементам, или элементам, имеющим одинаковые или подобные функции. Примерные варианты осуществления, описанные со ссылкой на прилагаемые чертежи, являются иллюстративными, используются только для объяснения настоящего раскрытия и не должны рассматриваться как какие-либо ограничения к нему.Examples of embodiments of the present disclosure will be described in detail below. Examples of embodiments have been illustrated in the accompanying drawings, in which the same or similar reference numerals refer to the same or similar elements, or elements having the same or similar functions. The exemplary embodiments described with reference to the accompanying drawings are illustrative and are used only to explain the present disclosure and should not be construed as limiting the same in any way.

В рамках настоящего изобретения будут использоваться следующие понятия и термины, толкование которых предоставляется ниже авторами изобретения:Within the framework of the present invention, the following concepts and terms will be used, the interpretation of which is provided below by the authors of the invention:

Целевой объект - объект, выбранный пользователем и подлежащий съемке (захвату). Target object - an object selected by the user and to be photographed (captured).

Сцена - область, выбранная пользователем, в которой находится целевой объект. Scene is an area selected by the user in which the target object is located.

Регион интереса (ROI) - это определенная область (регион) экрана устройства, выбранная с помощью функциональности «сетка» в приложении для фото- и видеосъемки, присущей современным смартфонам под управлением операционных систем Android, iOS и т.д. Например, экран устройства может быть разделен на несколько равных или неравных прямоугольников или других фигур, образующих сетку. Одна ячейка или прямоугольник этой сетки, выбранный пользователем, называется регионом интереса (ROI). В качестве примера авторы изобретения рассматривали экран, разделенный на равные прямоугольники, образующие сетку 9×13, но этот пример не является ограничивающим. В данном случае на экране имеется 9×13 регионов интереса ROI. A region of interest (ROI) is a specific area (region) of the device screen, selected using the “grid” functionality in the photo and video application inherent in modern smartphones running Android, iOS, etc. operating systems. For example, the device screen may be divided into several equal or unequal rectangles or other shapes that form a grid. One cell or rectangle of this grid, selected by the user, is called a region of interest (ROI). As an example, the inventors considered a screen divided into equal rectangles forming a 9x13 grid, but this example is not limiting. In this case, there are 9x13 ROIs on the screen.

Выбранный регион интереса (выбранный ROI) - это регион интереса, определенный на основе области, выбранной пользователем, который может содержать центр области, выбранной пользователем, ее большую часть или всю область, выбранную пользователем, в зависимости от требований пользователя при выполнении процесса автофокусировки на объекте. Если пользователь не выбирает регион сам, ROI может быть выбран автоматически. На фиг.2А показан выбранный ROI. Выбранный ROI, а также его координаты, рассматривается как входные данные для начала процесса отслеживания целевого объекта. Selected region of interest (selected ROI) is a region of interest defined based on the user-selected area, which may contain the center of the user-selected area, most of it, or the entire user-selected area, depending on the user's requirements when performing the autofocus process on the subject . If the user does not select the region himself, the ROI can be selected automatically. Figure 2A shows the selected ROI. The selected ROI, as well as its coordinates, are considered as input to begin the target tracking process.

Текущий регион интереса (текущий ROI) - на первом кадре текущий ROI соответствует выбранному ROI, а на последующих кадрах текущим ROI является регион интереса, который для текущего кадра возвращает средство отслеживания. Пользователь выбирает ROI только в первый раз. Следует отметить, что каждый кадр делится условно на сетку ROI, например 13х9, при первой итерации ROI выбирается на основе пользовательского ввода (условно, пользователь показывает, где находится интересующий его объект), дальше эта информация передается в средство отслеживания (трекер), и для каждого последующего кадра предсказывается, в каком именно ROI из сетки целевой объект будет находиться. Current region of interest (current ROI) - on the first frame, the current ROI corresponds to the selected ROI, and on subsequent frames, the current ROI is the region of interest that the tracker returns for the current frame. The user selects ROI only the first time. It should be noted that each frame is divided conditionally into an ROI grid, for example 13x9, at the first iteration the ROI is selected based on user input (conventionally, the user shows where the object of interest is located), then this information is transferred to the tracking tool (tracker), and for Each subsequent frame is predicted in which ROI from the grid the target object will be located.

Мультикамерная система - система, которая имеет по меньшей мере две камеры, которые могут переключаться между собой. В качестве камер могут использоваться: камера ближнего действия, например сверхширокоугольная камера; камера дальнего действия, например широкоугольная камера; камера очень ближнего действия, например макрокамера и камера очень дальнего действия, например телефотокамера Multi-camera system - a system that has at least two cameras that can switch between each other. The cameras can be: a short-range camera, such as an ultra-wide-angle camera; long-range camera, such as a wide-angle camera; a very short-range camera, such as a macro camera, and a very long-range camera, such as a telephoto camera

Режим ближней съемки - камера ближнего действия в мультикамерной системе. Эта камера не может сфокусироваться на дальнем расстоянии. Например, может фокусироваться на расстоянии менее 30 см, но характеристики могут быть и другие. Close-in mode - short-range camera in a multi-camera system. This camera cannot focus at long distances. For example, it can focus at a distance of less than 30 cm, but the characteristics may be different.

Режим дальней съемки - камера дальнего действия в мультикамерной системе. Эта камера не может сфокусироваться на ближнем расстоянии. Например, может фокусироваться на расстоянии более 30 см, но характеристики могут быть и другие. Long-range shooting mode - long-range camera in a multi-camera system. This camera cannot focus at close range. For example, it can focus at a distance of more than 30 cm, but the characteristics may be different.

Настоящее изобретение может быть использовано для разных камер в мультикамерной системе, но в рамках настоящего раскрытия авторами изобретения рассматривается переключение камеры с режима ближней съемки на режим дальней съемки и обратно.The present invention can be used for different cameras in a multi-camera system, but within the scope of the present disclosure, the inventors consider switching a camera from a close-in mode to a far-shot mode and vice versa.

Средство отслеживания(трекер) - последовательность этапов обработки данных, посредством которых на основании входных данных, в качестве которых задаются данные текущего ROI с объектом, подлежащим захвату, на выходе обеспечиваются данные (координаты) объекта на последующих кадрах. A tracking tool (tracker) is a sequence of data processing stages through which, based on the input data, which is the data of the current ROI with the object to be captured, the output provides data (coordinates) of the object on subsequent frames.

PDAF данные - изображения, полученные путем отражения лучей света от объекта, находящегося в кадре, и попадания их на противоположные (левую и правую) стороны линзы камеры. Объект находится в фокусе, если два полученных изображения совпадают. Изображения, полученные таким образом, также называются левым и правым изображением соответственно. PDAF data are images obtained by reflecting light rays from an object in the frame and striking them on opposite (left and right) sides of the camera lens. The object is in focus if the two resulting images match. Images obtained in this way are also called left and right images, respectively.

Dual Pixel - технология фазовой автофокусировки, при которой каждый пиксель сенсора используется для определения фазы и для получения информации о цвете, что значительно повышает и скорость и точность автофокусировки по сравнению с обычными системами. Dual Pixel is a phase-detection autofocus technology that uses each pixel in the sensor to detect phase and obtain color information, significantly improving both the speed and accuracy of autofocus compared to conventional systems.

SAD кривая - кривая на 2D графике: оси X соответствует смещение в количестве пикселей левого изображения относительно правого, оси Y - соответствующая сумма попиксельных разностей между изображениями для выбранного фрагмента; SAD кривые авторы изобретения получают посредством сенсоров, встроенных в мобильный телефон, которые называются dual pixels и содержат информацию о двух картинках (левое и правое изображение объекта с телефона с небольшим сдвигом). SAD curve - a curve on a 2D graph: the X axis corresponds to the displacement in the number of pixels of the left image relative to the right one, the Y axis corresponds to the corresponding sum of pixel-by-pixel differences between the images for the selected fragment; The inventors obtain SAD curves using sensors built into a mobile phone, which are called dual pixels and contain information about two pictures (the left and right image of an object from the phone with a slight shift).

Диспарантность (рассогласование) - мера расфокусировки сцены, получаемая на основе анализа SAD кривой. Формально, диспарантность является точкой локального минимума SAD кривой, поэтому измеряется в количестве пикселей. Disparity (mismatch) is a measure of scene defocus, obtained based on analysis of the SAD curve. Formally, disparity is the local minimum point of the SAD curve, and is therefore measured in the number of pixels.

Специальный (предварительно определенный) случай использования камеры - это любые случаи использования камеры, которые отличаются от стандартных случаев использования камеры, и в которых переключение камеры может быть выполнено необоснованно, например, если имеет место прозрачный объект, отражающий объект, съемка за стеклом, повороты и движение камеры в режиме ближней съемки, очень маленькие объекты, безтекстурные объекты, безтекстурный фон без объекта (случай с белой стеной), сценарий прохода по комнате, убирание объекта из кадра, убирание камеры от объекта, движение объекта при неподвижной камере. A special (pre-defined) camera use case is any camera use case that differs from standard camera use cases and in which switching the camera may be unreasonable, such as when there is a transparent object, a reflective object, shooting behind glass, turning and camera movement in close-up mode, very small objects, textureless objects, textureless background without an object (the case with a white wall), the scenario of walking through a room, removing an object from the frame, moving the camera away from an object, object movement with a stationary camera.

Стандартный случай использования камеры - в рамках настоящего раскрытия под стандартным случаем понимается сценарий, когда пользователь снимает не прозрачный и не отражающий двумерный или трехмерный целевой объект среднего размера (объект имеет какую-то текстуру), пользователь подходит с включенной камерой в режиме дальней съемки ближе к объекту, движение при этом не слишком быстрое или медленное, равномерное по скорости, может быть поворот камеры, поворота может не быть. При приближении к объекту на определенное расстояние, заданное порогом, происходит переключение в режим ближней съемки. Пользователь производит фото или видео съемку. Потом он отдаляется от целевого объекта, при отдалении на определенное расстояние, заданное порогом, происходит переключение в режим дальней съемки. Typical Camera Use Case - For the purposes of this disclosure, a standard case is understood to be a scenario where the user is shooting a non-transparent and non-reflective medium-sized 2D or 3D target object (the object has some kind of texture), the user approaches with the camera turned on in long-range shooting mode closer to object, the movement is not too fast or slow, uniform in speed, there may be a camera rotation, there may be no rotation. When approaching an object at a certain distance specified by the threshold, it switches to close-range shooting mode. The user takes a photo or video. Then it moves away from the target object; when it moves away a certain distance specified by the threshold, it switches to the long-range shooting mode.

Дальностное изображение (карта глубины) - изображение, сформированное таким образом, что каждый пиксель вместо цвета кодирует информацию о расстоянии между соответствующей точкой на сцене и точкой обзора (камерой). Range image (depth map) - an image formed in such a way that each pixel, instead of color, encodes information about the distance between the corresponding point on the scene and the viewing point (camera).

Мера уверенности - показатель, указывающий, в какой степени полученное измерение или вычисление (например, показатели сенсоров, вычисленные характеристики изображения) зависят от шума, и, следовательно, до какой степени на точность измерения можно положиться. В общем случае уверенность можно оценить, как соотношение сигнал/шум по выражению: A measure of confidence is a measure that indicates the extent to which the resulting measurement or calculation (e.g., sensor performance, computed image features) is affected by noise, and therefore the extent to which the accuracy of the measurement can be relied upon. In general, confidence can be assessed as the signal-to-noise ratio by the expression:

где R - мера уверенности, YS - уровень сигнала, YN - уровень шума.where R is a measure of confidence, Y S is the signal level, Y N is the noise level.

Примеры расчета меры надежности для конкретных измерений или вычислений могут быть найдены в следующих работах, отражающих известный уровень техники:Examples of calculating a measure of reliability for specific measurements or calculations can be found in the following works, reflecting the prior art:

[1]US8068543B2, IPC H04B 1/66, опубл.29.11.2011г.;[1]US8068543B2, IPC H04B 1/66, published November 29, 2011;

[2]Liu, Jun & Ye, Ping & Zhang, Xingchen & Xiao, Gang. (2021). Real-time long-term tracking with reliability assessment and object recovery. IET Image Processing. 10.1049/ipr2.12072.;[2]Liu, Jun & Ye, Ping & Zhang, Xingchen & Xiao, Gang. (2021). Real-time long-term tracking with reliability assessment and object recovery. IET Image Processing. 10.1049/ipr2.12072.;

[3]J. Zhu, L. Wang, R. Yang, J. E. Davis and Z. pan, "Reliability Fusion of Time-of-Flight Depth and Stereo Geometry for High Quality Depth Maps," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 7, pp. 1400-1414, July 2011, doi: 10.1109/TPAMI.2010.172.[3]J. Zhu, L. Wang, R. Yang, J. E. Davis and Z. pan, "Reliability Fusion of Time-of-Flight Depth and Stereo Geometry for High Quality Depth Maps," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 7, pp. 1400-1414, July 2011, doi: 10.1109/TPAMI.2010.172.

Ограничивающий прямоугольник - прямоугольник, ограничивающий форму целевого объекта на плоскости сцены. Bounding rectangle is a rectangle that limits the shape of the target object on the scene plane.

Коэффициент масштабирования - коэффициент, отражающий изменение размера целевого объекта между последовательными кадрами. В качестве примера, но не ограничения, коэффициент масштабирования может быть вычислен через отношение сторон соответствующих ограничивающих рамок целевого объекта; в известном уровне техники также описаны методы вычисления коэффициента масштабирования на основании оценки векторов движения, к ним относятся: Scaling factor is a factor that reflects the change in size of the target object between successive frames. By way of example, and not limitation, the scaling factor can be calculated through the aspect ratio of the corresponding bounding boxes of the target object; The prior art also describes methods for calculating the scaling factor based on the estimation of motion vectors, these include:

[4]WO2013106425A1, IPC H04N 7/26, опубл.18.07.2013г.;[4]WO2013106425A1, IPC H04N 7/26, publ. 07/18/2013;

[5]Wang H, Shen J, Chen Z, Shen J. A Fast Object Tracking Approach Based on the Motion Vector in a Compressed Domain. International Journal of Advanced Robotic Systems. 2013;10(1). doi:10.5772/55210;[5]Wang H, Shen J, Chen Z, Shen J. A Fast Object Tracking Approach Based on the Motion Vector in a Compressed Domain. International Journal of Advanced Robotic Systems. 2013;10(1). doi:10.5772/55210;

[6]Alvar, Saeed & Bajic, Ivan. (2018). MV-YOLO: Motion Vector-Aided Tracking by Semantic Object Detection. 1-5. 10.1109/MMSP.2018.8547125.[6]Alvar, Saeed & Bajic, Ivan. (2018). MV-YOLO: Motion Vector-Aided Tracking by Semantic Object Detection. 1-5. 10.1109/MMSP.2018.8547125.

Гибридная оценка расстояния до объекта - способ оценки расстояния от камеры до целевого объекта, использующий различные источники данных о глубине сцены для финальной оценки расстояния. В качестве примера, но не ограничения, гибридная оценка может использовать взвешенную комбинацию данных о глубине с разных источников (например, PDAF-данных, сенсоров глубины и векторов движения), а также может быть основана на выборе наиболее надежного источника данных о глубине посредством оценки уверенности (надежности). Hybrid object distance estimation is a method for estimating the distance from a camera to a target object, using different sources of scene depth data to produce a final distance estimate. By way of example, and not limitation, a hybrid estimate may use a weighted combination of depth data from different sources (e.g., PDAF data, depth sensors, and motion vectors), and may also be based on selecting the most reliable source of depth data through a confidence assessment (reliability).

Переключение режима съемки с режима дальней съемки на режим ближней съемки - процесс перехода от использования линзы камеры дальнего действия к использованию линзы камеры ближнего действия при захвате изображения, содержащего целевой объект, находящийся в движении, и изменении соответствующего оптимального диапазона фокусных расстояний линзы камеры. Long-range to short-range shooting mode switching is the process of switching from using a long-range camera lens to using a short-range camera lens when capturing an image containing a target object in motion and changing the corresponding optimal focal length range of the camera lens.

Переключение режима съемки с режим ближней съемки на режим дальней съемки - процесс перехода от использования линзы камеры дальнего действия к использованию линзы камеры ближнего действия при захвате изображения, содержащего целевой объект, находящийся в движении, и изменении соответствующего оптимального диапазона фокусных расстояний линзы камеры. Shooting mode switching from short-range to long-range is the process of switching from using a long-range camera lens to using a short-range camera lens when capturing an image containing a target object in motion and changing the corresponding optimal focal length range of the camera lens.

На фиг.7A, фиг.7B представлены блок-схемы этапов автоматического переключения режимов камеры, а на фиг.8A-8E, представлены изображения на камере, которые наблюдает пользователь при съемке cцены и/или целевого объекта соответствующие последовательностям этапов с фиг.7A-7B.Fig. 7A, Fig. 7B present block diagrams of the stages of automatic switching of camera modes, and Fig. 8A-8E show images on the camera that the user observes when shooting a scene and/or target object corresponding to the sequence of stages from Fig. 7A- 7B.

Далее более детально будет раскрыта последовательность этапов автоматического переключения камеры со ссылкой на фиг.7A, фиг.7B, и соответствующие фиг.8A-8E:Next, the sequence of stages of automatic camera switching will be described in more detail with reference to Fig. 7A, Fig. 7B, and the corresponding Figs. 8A-8E:

1) Пользователь смартфона запускает приложение камеры, в котором режим дальней съемки камеры может быть выбран по умолчанию или установлен пользователем. Опционально, пользователь может вручную выбрать целевой объект, касаясь пальцем соответствующей области на экране, например смартфона. На основании данных, полученных с камеры смартфона, формируется само изображение и стереоданные к нему. В качестве примера, но не ограничения, стереоданные могут быть получены посредством PDAF сенсоров на матрице камеры с технологией Dual Pixel.1) The smartphone user launches the camera application, in which the camera's long-range shooting mode can be selected by default or set by the user. Optionally, the user can manually select the target object by touching a corresponding area on the screen with a finger, such as a smartphone. Based on the data received from the smartphone camera, the image itself and stereo data for it are formed. By way of example, and not limitation, stereo data can be obtained via PDAF sensors on a camera sensor with Dual Pixel technology.

Следует отметить, что не обязательно начинать запуск приложения камеры в режиме дальней съемки, пользователь может быть и в режиме ближней съемки, если его настройки сохраняют последний режим съемки и он был ближним.It should be noted that it is not necessary to start launching the camera application in far shooting mode; the user can also be in close shooting mode if his settings save the last shooting mode and it was close.

Этот этап ввода данных представлен на фиг.8A, где пользователь запускает камеру в режиме дальней съемки.This input step is illustrated in FIG. 8A, where the user starts the camera in long range mode.

2) Построение с помощью полученных данных поля векторов движения и выполнение оценки диспарантности и меры уверенности.2) Using the obtained data, constructing a field of motion vectors and performing disparity assessments and confidence measures.

На фиг.8B представлена автоматическая оценка движения на сцене, как ее видит пользователь на камере.FIG. 8B shows automatic motion estimation in the scene as seen by the user on the camera.

3) Выполнение оценки расстояния посредством векторов движения и выполнение оценки расстояния посредством стереоданных, при этом также на основе полученных данных могут быть выявлены специальные или предварительно определенные случаи использования для более стабильной работы и лучшего взаимодействия с пользователем. По выбору пользователя и при наличии соответствующих сенсоров, встроенных в смартфон или подобное устройство, оценка расстояния может быть выполнена на основании дополнительных данных движения на сцене, полученных от гироскопа, акселерометра, магнитометра, или любых других сенсоров (см. фиг.7A, фиг.7B)3) Perform distance estimation through motion vectors and perform distance estimation through stereo data, and also based on the acquired data, special or predefined use cases can be identified for more stable operation and better user experience. At the user's option and with appropriate sensors built into a smartphone or similar device, distance estimation can be performed based on additional scene motion data obtained from a gyroscope, accelerometer, magnetometer, or any other sensors (see FIG. 7A, FIG. 7B)

При этом следует отметить, что оценка расстояния может выполняться разными, известными из уровня техники, методами, например посредством: векторов движения, стереоданных, данных сенсоров движения, данных сенсоров глубины, данных полученных с помощью алгоритма слежения, при этом используются разные типы данных. И все эти оценки расстояния, которые могут быть получены на этом этапе 3) объединяются в одну оценку расстояния на этапе 4 с помощью гибридной оценки расстоянияIt should be noted that distance estimation can be performed by various methods known in the art, for example by means of: motion vectors, stereo data, motion sensor data, depth sensor data, data obtained using a tracking algorithm, and different types of data are used. And all these distance estimates that can be obtained in this step 3) are combined into one distance estimate in step 4 using hybrid distance estimation

Автоматическая оценка расстояния до целевого объекта, которую наблюдает пользователь камеры, представлена на фиг.8C.4) Далее выполняется гибридная оценка расстояния, которая будет более детально описана далее в описании, на которой анализируют оценки и вычисления, полученные на этапах 2 и 3.The automatic estimation of the distance to the target object as observed by the camera user is presented in Fig. 8C. 4) Next, a hybrid distance estimation is performed, which will be described in more detail later in the description, in which the estimates and calculations obtained in steps 2 and 3 are analyzed.

5) На основании данных о расстоянии до объекта, полученных на этапе гибридной оценки расстояния на этапе 4, осуществляют проверку пороговых значений для выбора линзы. На основании этой проверки и анализа пограничных случаев выбирают линзу для режима дальней съемки или режима ближней съемки работы камеры и выполняют автоматическое переключение камеры.5) Based on the object distance data obtained in the hybrid distance estimation step in step 4, threshold values for lens selection are checked. Based on this check and the analysis of edge cases, a lens is selected for the long-range shooting mode or the near-photographing mode of the camera operation and automatically switches the camera.

На фиг.8E представлена картинка, которую наблюдает пользователь при переключении камеры.FIG. 8E shows the picture that the user sees when switching the camera.

Далее остановимся на описании гибридного алгоритма, упомянутого со ссылкой на фиг.8C и фиг.7A, фиг.7B, на основании которого выполняется автоматическая оценка расстояния до целевого объекта, которую наблюдает пользователь камеры.Next, we will dwell on the description of the hybrid algorithm mentioned with reference to Fig. 8C and Fig. 7A, Fig. 7B, on the basis of which an automatic estimate of the distance to the target object observed by the camera user is performed.

Ключевое положение 1: Гибридная оценка расстояния для определения расстояния до объекта(см. фиг.7A, фиг.7B). Key Point 1 : Hybrid distance estimation for determining the distance to an object (see Fig. 7A, Fig. 7B).

1) Если пользователь находится в режиме дальней съемки камеры (широкоугольный режим) пользователь открывает (запускает) приложение камеры, посредством которого получает данные изображения в текущем кадре, при этом изображения могут быть закодированы цветовом пространстве, например, RGB, YUV или CMYK, и стереоданные, например, PDAF данные или согласованные данные изображения от двух камер на основании захвата целевого объекта.1) If the user is in the camera's long-range shooting mode (wide-angle mode), the user opens (launches) the camera application through which it receives the image data in the current frame, and the images can be encoded in a color space, such as RGB, YUV or CMYK, and stereo data , for example, PDAF data or matched image data from two cameras based on the capture of the target object.

2) Расстояние до целевого объекта определяется с помощью стереоданных. Методы и средства получения расстояния с помощью стереоданных раскрыты в следующих источниках информации: [7]RU2778355C2, опубл. 17.08.2022 г., САМСУНГ ЭЛЕКТРОНИКС КО., ЛТД., KR.2) The distance to the target object is determined using stereo data. Methods and means of obtaining distance using stereo data are disclosed in the following sources of information: [7] RU2778355C2, publ. 08/17/2022 SAMSUNG ELECTRONICS CO., LTD., KR.

3) На основании полученных данных изображения целевого объекта инициируется отслеживание целевого объекта посредством средства отслеживания (трекера), и полученные данные отслеживания используются для определения коэффициента масштабирования ограничивающего прямоугольника средства отслеживания между последовательными кадрами захваченного изображения целевого объекта. На основании коэффициента масштабирования вычисляется расстояние до целевого объекта. Полученные данные отслеживания также используются для определения некоторых пограничных случаев, например потери целевого объекта в кадре. Процесс отслеживания целевого объекта детально описан в патенте [7] RU2778355C2, опубл. 17.08.2022 г., того же патентообладателя (САМСУНГ ЭЛЕКТРОНИКС КО., ЛТД., KR), что и патентообладатель заявленного изобретения.3) Based on the acquired target image data, tracking of the target object by the tracker is initiated, and the acquired tracking data is used to determine the scaling factor of the tracker's bounding box between successive frames of the captured target image. Based on the zoom factor, the distance to the target object is calculated. The resulting tracking data is also used to detect some edge cases, such as losing the target object in the frame. The process of tracking a target object is described in detail in patent [7] RU2778355C2, publ. 08/17/2022, the same patent holder (SAMSUNG ELECTRONICS CO., LTD., KR) as the patent holder of the claimed invention.

4) На основании полученных двух последовательных изображений с камеры инициируется процесс оценки движения, который также используется для определения коэффициента масштабирования между последовательными кадрами захваченного изображения целевого объекта. Процесс оценки движения описан в следующих источниках информации:4) Based on the acquired two consecutive camera images, a motion estimation process is initiated, which is also used to determine the zoom factor between successive frames of the captured image of the target object. The motion estimation process is described in the following information sources:

[8] Pesquet-Popescu, B., Cagnazzo, M., & Dufaux, F. (2013). Motion Estimation Techniques;[8] Pesquet-Popescu, B., Cagnazzo, M., & Dufaux, F. (2013). Motion Estimation Techniques;

[9] Qian, Xueming. (2012). Global Motion Estimation and Its Applications. 10.5772/34166.[9] Qian, Xueming. (2012). Global Motion Estimation and Its Applications. 10.5772/34166.

На основании коэффициента масштабирования вычисляется расстояние до целевого объекта.Based on the zoom factor, the distance to the target object is calculated.

Коэффициент масштабирования в данном случае вычисляется через оценку векторов движения, например, как раскрыто в публикации [10]Lai, Lijun & Xu, Zhiyong. (2015). Global Motion Estimation Based on Fourier Mellin and Phase Correlation. 10.2991/cmes-15.2015.173.The scaling factor in this case is calculated through the estimation of motion vectors, for example, as disclosed in [10] Lai, Lijun & Xu, Zhiyong. (2015). Global Motion Estimation Based on Fourier Mellin and Phase Correlation. 10.2991/cmes-15.2015.173.

5) Могут быть использованы другие данные и методы для определения расстояния до целевого объекта.5) Other data and methods may be used to determine the distance to the target object.

В качестве неограничивающего примера могут быть также использованы PDAF-данные, данные с сенсоров движения и глубины.By way of non-limiting example, PDAF, motion and depth sensor data may also be used.

6) Определяются случаи специального использования, которые будут описаны далее.6) Special use cases are identified, which will be described below.

7) Вычисляются меры уверенности R=100x (1),7) Confidence measures R=100x are calculated (1),

где YS-уровень сигнала, YN-уровень шума для каждого используемого метода определения расстояния до целевого объекта.where Y S is the signal level, Y N is the noise level for each method used to determine the distance to the target object.

8) Применение гибридной оценки расстояния при финальной оценке расстояния до целевого объекта характеризуется включением данных, полученных на этапах 2)-7). При этом подобные устройства известного уровня техники используют только один источник, т.е., например, только данные изображения, или только стереоданные для определения расстояния до целевого объекта, что вызывает некоторые ошибки при оценке расстояния до объекта и, соответственно, возникновение ошибок при переключении камеры с одного режима на другой.8) The use of hybrid distance estimation in the final estimation of the distance to the target object is characterized by the inclusion of data obtained in stages 2)-7). Moreover, such devices of the prior art use only one source, i.e., for example, only image data, or only stereo data to determine the distance to the target object, which causes some errors in estimating the distance to the object and, accordingly, errors when switching cameras from one mode to another.

Заявленное изобретение согласно первому варианту реализации использует несколько способов определения расстояния до целевого объекта. Например: с помощью отслеживания целевого объекта, с помощью векторов движения на сцене с целевым объектом, с помощью PDAF данных. Все эти оценки и их меры уверенности аккумулируются в одну единственную, более точную оценку расстояния до целевого объекта, что обеспечивает точное переключение камеры даже в случае отсутствия сенсоров глубины. Сенсоры глубины и другие сенсоры (например, сенсоры данных движения) также могут быть использованы для гибридной оценки для еще большего увеличения точности решения в случае наличия таких сенсоров.The claimed invention according to the first embodiment uses several methods for determining the distance to a target object. For example: using target object tracking, using motion vectors on the scene with the target object, using PDAF data. All these estimates and their confidence measures are accumulated into a single, more accurate estimate of the distance to the target object, allowing accurate camera switching even in the absence of depth sensors. Depth sensors and other sensors (such as motion data sensors) can also be used for hybrid estimation to further increase the accuracy of the solution if such sensors are available.

Согласно первому варианту реализации, гибридный алгоритм оценки расстояния до целевого объекта описанный выше со ссылкой на фиг.7A, фиг.7B также может включать введение данных от сенсоров различных типов, например, акселерометра, гироскопа, магнитометра.According to the first embodiment, the hybrid algorithm for estimating the distance to the target object described above with reference to Fig. 7A, Fig. 7B may also include input of data from various types of sensors, for example, an accelerometer, a gyroscope, a magnetometer.

Данные движения, определяются на основании измерений, полученных от сенсоров различных типов, например акселерометров, гироскопов, магнитометров, а также различных сенсоров глубины, в частности, основанных на использовании радиоволн (RADAR), основанных на технологии измерения расстояний путем излучения света лазера и замера времени возвращения отраженного света на приемник (времяпролетные (ToF) сенсоры или лидары (LiDAR)), или сверхширокополосные (UWB) сенсоры, основанные на использовании сверхширокополосных сигналов в диапазоне от 6-8ГГц.Motion data is determined based on measurements obtained from various types of sensors, such as accelerometers, gyroscopes, magnetometers, as well as various depth sensors, in particular radio wave based (RADAR), based on the technology of measuring distances by emitting laser light and measuring time returning reflected light to the receiver (time-of-flight (ToF) sensors or lidars (LiDAR)), or ultra-wideband (UWB) sensors based on the use of ultra-wideband signals in the range from 6-8 GHz.

На основе полученных данных движений от различных сенсоров, определяется расстояние до целевого объекта, которые вводится в гибридный алгоритм для финальной оценки расстояния до целевого объекта.Based on the received movement data from various sensors, the distance to the target object is determined, which is entered into a hybrid algorithm for the final assessment of the distance to the target object.

Гибкость предлагаемого решения согласно первому варианту реализации позволяет включать различные данные о движении от различных сенсоров (например, акселерометра, гироскопа, ToF, LiDAR или UWB. Следует отметить, что в заявленном способе для каждого источника данных может быть посчитана отдельная оценка расстояния до объекта. Данные из сенсоров движения могут быть использованы все вместе или по отдельности. На основании их может быть сделана оценка расстояния до объекта, которая может быть преобразована вместе с остальными оценками, например, на основании данных глубины от сенсоров глубины, в общую единую оценку посредством гибридной оценки расстояния до объекта. Ключевую роль в проведении гибридной оценки играют определение меры уверенности, которые более детально будут описаны далее в настоящем, что позволяет объединить различные оценки расстояния в одну и тем самым обеспечить более точную оценку движения целевого объекта на сцене, и обеспечить более точное переключение камеры.The flexibility of the proposed solution according to the first embodiment allows the inclusion of various motion data from different sensors (for example, accelerometer, gyroscope, ToF, LiDAR or UWB. It should be noted that in the claimed method, a separate estimate of the distance to the object can be calculated for each data source. Data motion sensors can be used collectively or individually and can be used to produce an estimate of the distance to an object, which can be converted along with other estimates, for example based on depth data from the depth sensors, into a common unified estimate via a hybrid distance estimate to the object. A key role in hybrid estimation is played by the definition of confidence measures, which will be described in more detail later in the present, which allows you to combine different distance estimates into one and thereby provide a more accurate assessment of the movement of the target object in the scene, and provide more accurate camera switching .

Ключевое положение 2: обработка специального( предварительно определенного) случая использования камеры. Key Point 2: Handling a special (predefined) camera use case.

1) Пользователь открывает (запускает) приложение камеры (режим дальней съемки камеры (широкоугольный режим) (см.фиг.7A) или режим ближней съемки камеры (сверхширокоугольный режим) (см. фиг.7B), посредством которого получает данные изображения, например RGB, YUV или CMYK данные, и стерео данные, например PDAF данные или согласованные данные изображения от двух камер на основании захвата целевого объекта.1) The user opens (launches) the camera application (camera far mode (wide angle mode) (see Fig. 7A) or camera close mode (ultra wide angle mode) (see Fig. 7B), through which image data such as RGB is obtained , YUV or CMYK data, and stereo data, such as PDAF data or matched image data from two cameras based on the capture of the target object.

2) Оценивается диспарантность и мера уверенности для кадра выбранных регионов интереса (ROI) посредством стерео данных.2) The disparity and confidence measure for a frame of selected regions of interest (ROI) are estimated using stereo data.

3) Определяется положение линзы камеры на основе полученной диспарантности и меры уверенности выбранных ROI.3) The position of the camera lens is determined based on the obtained disparity and the confidence measure of the selected ROIs.

4) На основании полученных данных изображения целевого объекта инициируется процесс отслеживания целевого объекта посредством средства отслеживания (трекера).4) Based on the received image data of the target object, the process of tracking the target object through a tracking tool (tracker) is initiated.

5) Определяются вектора движения на сцене с целевым объектом на основании полученных данных изображения из последовательных кадров.5) Motion vectors in the scene with the target object are determined based on the obtained image data from successive frames.

6) Определяются случаи специального использования на основании анализа данных, полученных на этапах 2-6 Ключевого положения 2. Например, в случае потери целевого объекта из кадра, которая была определена с помощью средства отслеживания, может быть принято решение о переключении режима съемки с ближнего на дальний режим. Также информация диспарантности и меры уверенности, полученные с стереоданных, а также самого изображения могут использованы для распознавания сцены, определения целевого объекта и фона (не объекта). Например, в случае распознавания отсутствия объекта (случай однородного фона), может быть принято решение о не переключении режима съемки с дальнего на ближний режим.6) Special use cases are identified based on the analysis of data obtained in Steps 2-6 of Key Point 2. For example, if a target object is lost from the frame, which was determined using the tracking tool, a decision may be made to switch the shooting mode from close to long-range mode. Also, disparity information and confidence measures obtained from stereo data as well as the image itself can be used for scene recognition, target object and background (non-object) identification. For example, if the absence of an object is recognized (the case of a homogeneous background), a decision may be made not to switch the shooting mode from far to near.

Следует отметить, что традиционные известные методы обработки данных расстояния целевого объекта не определяют случаев специального использования, например, захвата камерой сцены с целевым объектом через оконное стекло или витрину и т.п., при этом сенсоры ошибочно распознают стекло в качестве объекта, что инициирует некорректное переключение камеры и приводит к снижению качеству изображения, получаемого при съемке камерой.It should be noted that traditional known methods for processing target object distance data do not determine cases of special use, for example, when a camera captures a scene with a target object through a window glass or showcase, etc., while the sensors mistakenly recognize glass as an object, which initiates an incorrect switching the camera leads to a decrease in the quality of the image obtained when shooting with the camera.

Возможность выявления специальных (предварительно определенных) случаев использования для автоматического переключения режимов камеры повышает точность оценки движения целевого объекта на сцене, точность определения расстояния для целевого объекта и обеспечивает лучший пользовательский опыт. Использование только данных изображения для обработки специальных случаев использования делает необязательным использование дорогостоящего оборудования (например, сенсоров движения).The ability to identify special (predefined) use cases to automatically switch camera modes improves the accuracy of motion estimation of a target object in a scene, the accuracy of distance determination for a target object, and provides a better user experience. Using only image data to handle special use cases makes the use of expensive hardware (such as motion sensors) unnecessary.

Эффекты, достигаемые при использовании способа и устройства автоматического переключения режимов работы камеры смартфона.Effects achieved when using a method and device for automatically switching operating modes of a smartphone camera.

Общие эффекты:General effects:

- обеспечивается точное автоматическое переключение между режимами ближней и дальней съемки;- provides precise automatic switching between near and far shooting modes;

- обеспечивается легкое, компактное устройство- provides a lightweight, compact device

подходящее как для устройств премиум класса, так и для устройств массового рынка.suitable for both premium and mass market devices.

Эффекты, обеспечиваемые посредством гибридного процесса обработки данных для оценки расстояния до целевого объекта (Ключевое положение 1)Effects achieved through hybrid processing for estimating distance to a target object (Key Point 1)

- обеспечивается использование различных источников информации о расстоянии для точной оценки расстояния до целевого объекта;- ensures the use of various sources of distance information to accurately estimate the distance to the target object;

- обеспечивается соответствующее переключение камеры;- appropriate camera switching is ensured;

- заявленный способ и устройство могут использоваться для массового рынка.- the claimed method and device can be used for the mass market.

Эффекты, обеспечиваемые включением данных сенсоров в гибридный процесс обработки данных для оценки расстояния до целевого объекта Ключевое положение 1, Вариант 1):Effects achieved by incorporating sensor data into a hybrid data processing process for estimating distance to a target object Key Point 1, Option 1):

- обеспечивается гибкое решение, которое позволяет легко вводить данные глубины от других источников информации;- provides a flexible solution that allows you to easily enter depth data from other information sources;

-обеспечивается возможность лучшего функционирования для устройств премиум класса.-provides the possibility of better functioning for premium devices.

Эффекты, обеспечиваемые от обработки специального случая использования (Ключевой момент 2):Effects provided by handling a special use case (Key Point 2):

- улучшенная точность работы устройства в специальных случаях использования- improved accuracy of the device in special use cases

- более низкое энергопотребление за счет оперативного обнаружения специальных (предварительно определенных) случаев использования и их отдельной обработки.- lower energy consumption due to rapid detection of special (pre-defined) use cases and their separate processing.

Кроме того, авторы изобретения провели исследования конкретных эксплуатационных параметров известных на рынке флагманских решений, а также заявленного решения, которые наглядно демонстрируют преимущество заявленного устройства и способа автоматического переключения режимов работы камеры.In addition, the authors of the invention conducted studies of the specific operational parameters of the flagship solutions known on the market, as well as the claimed solution, which clearly demonstrate the advantage of the claimed device and method for automatically switching camera operating modes.

При этом в качестве основных эксплуатационных параметров выбирались: время работы текущего решения, энергопотребление, успешное переключение камеры в %, нежелательное переключение в %, задержка переключения в % и нестабильное расстояние переключения камеры в %.In this case, the main operational parameters were selected: operating time of the current solution, power consumption, successful camera switching in %, unwanted switching in %, switching delay in % and unstable camera switching distance in %.

Заявленное изобретение характеризуется следующим:The claimed invention is characterized by the following:

1) время работы ~9 мс,1) operating time ~9 ms,

2) энергопотребление 60 мА,2) power consumption 60 mA,

3) успешное переключение камеры ~97%,3) successful camera switching ~97%,

4) нежелательное переключение ~0%,4) unwanted switching ~0%,

5) задержка переключения ~2%,5) switching delay ~2%,

6) нестабильное расстояние переключения камеры ~1%.6) unstable camera switching distance ~1%.

US10,291,842B2 (US20160381289А1)(патентообладатель Samsung Electronics Co Ltd), модель Galaxy S21ULTRA:US10,291,842B2 (US20160381289А1) (patent holder Samsung Electronics Co Ltd), Galaxy S21ULTRA model:

1) время работы ~15 мс,1) operating time ~15 ms,

2) энергопотребление 54 мА,2) power consumption 54 mA,

3) успешное переключение камеры ~60%,3) successful camera switching ~60%,

4) нежелательное переключение 31%,4) unwanted switching 31%,

5) задержка переключения ~8%,5) switching delay ~8%,

6) нестабильное расстояние переключения камеры ~1%.6) unstable camera switching distance ~1%.

US20160007008A1 (патентообладатель Apple Inc.), модель iPhone 13 Pro Max:US20160007008A1 (patented by Apple Inc.), iPhone 13 Pro Max model:

1) данные неизвестны из открытых источников,1) data is unknown from open sources,

2) данные неизвестны из открытых источников,2) data is unknown from open sources,

3) управление камерой непосредственно пользователем требуется при инициировании переключения режима камеры,3) camera control directly by the user is required when initiating camera mode switching,

3) успешное переключение камеры 27%,3) successful camera switching 27%,

4) нежелательное переключение 33%,4) unwanted switching 33%,

5) задержка переключения ~7%,5) switching delay ~7%,

6) нестабильное расстояние переключения камеры ~33%.6) unstable camera switching distance ~33%.

WO2020073959A1(патентообладатель Huawei Technologies Co Ltd.), модель P50Pro:WO2020073959A1 (patented by Huawei Technologies Co Ltd.), model P50Pro:

1) данные неизвестны из открытых источников,1) data is unknown from open sources,

2) данные неизвестны из открытых источников,2) data is unknown from open sources,

3) успешное переключение камеры 97%,3) successful camera switching 97%,

4) нежелательное переключение 15%,4) unwanted switching 15%,

5) задержка переключения ~66%,5) switching delay ~66%,

6) нестабильное расстояние переключения камеры ~66%.6) unstable camera switching distance ~66%.

Представленный анализ эксплуатационных параметров известных смартфонов на рынке наглядно демонстрирует преимущества заявленного способа и устройства автоматического переключения режима работа камеры смартфона.The presented analysis of the operational parameters of well-known smartphones on the market clearly demonstrates the advantages of the claimed method and device for automatically switching the operating mode of the smartphone camera.

Кроме того, авторы изобретения провели исследования конкретных функциональностей известных на рынке флагманских решений, а также заявленного решения, которые наглядно демонстрируют преимущество заявленного устройства и способа автоматического переключения режимов работы камеры.In addition, the authors of the invention conducted research on the specific functionality of flagship solutions known on the market, as well as the claimed solution, which clearly demonstrate the advantage of the claimed device and method for automatically switching camera operating modes.

При этом в качестве основных функциональностей выбирались: наличие сенсора движения, схема переключения, автоматическое переключение, решение проблемы задержки переключения, решение проблемы нежелательного переключения, решение проблемы нестабильного поведения в случаях специального использования.In this case, the main functionalities were chosen: the presence of a motion sensor, a switching circuit, automatic switching, solving the problem of switching delay, solving the problem of unwanted switching, solving the problem of unstable behavior in cases of special use.

Заявленное изобретение характеризуется следующим:The claimed invention is characterized by the following:

1) не обязательно наличие сенсора движения,1) it is not necessary to have a motion sensor,

2) схема переключения заключается в переключении камеры из режима дальней съемки в режим ближней съемки и обратно,2) the switching scheme consists of switching the camera from long-range shooting mode to short-range shooting mode and back,

3) наличие автоматического переключения,3) the presence of automatic switching,

4) проблемы задержки переключения решены,4) switching delay problems are solved,

5) проблемы нежелательного переключения решены,5) unwanted switching problems are solved,

6) проблемы нестабильного поведения в случаях специального использования решены.6) problems of unstable behavior in cases of special use are solved.

US10,291,842B2 (US20160381289А1)(патентообладатель Samsung Electronics Co Ltd), модель Galaxy S21ULTRA:US10,291,842B2 (US20160381289А1) (patent holder Samsung Electronics Co Ltd), Galaxy S21ULTRA model:

1) наличие сенсора движения,1) the presence of a motion sensor,

2) схема переключения заключается в переключении камеры из режима дальней съемки в режим ближней съемки и обратно,2) the switching scheme consists of switching the camera from long-range shooting mode to short-range shooting mode and back,

3) наличие автоматического переключения,3) the presence of automatic switching,

4) проблемы задержки переключения не решаются,4) switching delay problems are not solved,

5) проблемы нежелательного переключения не решаются,5) problems of unwanted switching are not solved,

6) проблемы нестабильного поведения в случаях специального использования не решаются.6) problems of unstable behavior in cases of special use are not solved.

US20160007008A1 (патентообладатель Apple Inc.), модель iPhone 13 Pro Max:US20160007008A1 (patented by Apple Inc.), iPhone 13 Pro Max model:

1) наличие сенсора движения,1) the presence of a motion sensor,

2) схема переключения заключается в переключении камеры из режима дальней съемки в режим ближней съемки и обратно,2) the switching scheme consists of switching the camera from long-range shooting mode to short-range shooting mode and back,

3) наличие автоматического переключения,3) the presence of automatic switching,

4) проблемы задержки переключения не решаются,4) switching delay problems are not solved,

5) проблемы нежелательного переключения не решаются,5) problems of unwanted switching are not solved,

6) проблемы нестабильного поведения в случаях специального использования не решаются.6) problems of unstable behavior in cases of special use are not solved.

WO2020073959A1 (патентообладатель Huawei Technologies Co Ltd.), модель P50Pro:WO2020073959A1 (patented by Huawei Technologies Co Ltd.), model P50Pro:

1) наличие сенсора движения,1) the presence of a motion sensor,

2) схема переключения заключается в переключении камеры из режима дальней съемки в режим ближней съемки и обратно,2) the switching scheme consists of switching the camera from long-range shooting mode to short-range shooting mode and back,

3) наличие автоматического переключения,3) the presence of automatic switching,

4) проблемы задержки переключения не решаются,4) switching delay problems are not solved,

5) проблемы нежелательного переключения не решаются,5) problems of unwanted switching are not solved,

6) проблемы нестабильного поведения в случаях специального использования не решаются.6) problems of unstable behavior in cases of special use are not solved.

Представленный анализ функциональностей известных смартфонов наглядно демонстрирует преимущества заявленного способа и устройства автоматического переключения режимов работы камеры, например смартфона.The presented analysis of the functionality of well-known smartphones clearly demonstrates the advantages of the claimed method and device for automatically switching operating modes of a camera, for example a smartphone.

Далее будут описаны основные ключевые положения способа и устройства автоматического переключения режимов работы камеры. Как уже указывалось ранее, в рамках настоящего изобретения рассматривается возможность автоматического переключения режима камеры из режима дальней съемки в режим ближней съемки и наоборот.Next, the main key provisions of the method and device for automatically switching camera operating modes will be described. As previously stated, it is within the scope of the present invention to automatically switch the camera mode from a far shooting mode to a close shooting mode and vice versa.

При работе камеры в режиме дальней съемки (широкоугольный режим), см.фиг.7А, выполняются следующие этапы:When the camera is operating in long-range shooting mode (wide-angle mode), see Fig. 7A, the following steps are performed:

При захвате изображения сцены с целевым объектом в режиме дальней съемки работы камеры обеспечивается получение данных для текущего кадра, а именно обеспечиваются стереоданные текущего изображения k-ого кадра, включающие, например PDAF данные, полученные с помощью PDAF сенсоров на матрице камеры с технологией Dual Pixel или согласованные данные изображения от двух камер на основании захвата целевого объекта, а также, при необходимости, данные изображения. Каждый кадр полученного изображения рассматривается в виде пикселей или группы пикселей. По выбору: обеспечивают получение данных с сенсоров глубины и/или получение данных с сенсоров движения.When capturing an image of a scene with a target object in the long-range shooting mode of the camera, data is obtained for the current frame, namely, stereo data of the current image of the kth frame is provided, including, for example, PDAF data obtained using PDAF sensors on the camera matrix with Dual Pixel technology or matched image data from the two cameras based on the capture of the target object, as well as image data if necessary. Each frame of the resulting image is considered as pixels or a group of pixels. Optional: provide data acquisition from depth sensors and/or acquisition of data from motion sensors.

На основании полученных стерео данных с помощью левого и правого изображения из камеры по технологии Dual Pixel или другой пары изображений, например, из стереокамеры, вычисляется диспарантность, которая рассчитывается на основе кривых SAD (сумма абсолютных разностей) между левым и правым изображениями для захваченной сцены с целевым объектом, полученными с помощью камеры.Based on the obtained stereo data using the left and right images from a Dual Pixel camera or another pair of images, for example from a stereo camera, disparity is calculated, which is calculated based on the SAD (sum of absolute differences) curves between the left and right images for the captured scene with target object obtained using the camera.

Следует отметить, что для определения диспарантности (Dk) для выбранного целевого объекта для k-ого кадра на основе полученных PDAF данных, представляющих собой правое и левое изображение целевого объекта, полученных матрицей сенсоров камеры, рассчитывается сумма абсолютных различий, как абсолютная разность между пикселями левого и правого изображений, на основе которых строятся SAD кривые. Формально, диспарантность является точкой локального минимума SAD кривой, поэтому измеряется в количестве пикселей. При этом, SAD кривая представляет собой кривую на 2D графике: оси X соответствует смещение в количестве пикселей левого изображения относительно правого, оси Y - соответствующая сумма попиксельных разностей между изображениями для выбранного фрагмента; SAD кривые авторы изобретения получают посредством сенсоров, встроенных в мобильный телефон, которые называются dual pixels и содержат информацию о двух картинках (левое и правое изображение объекта с телефона с небольшим сдвигом).It should be noted that to determine the disparity (D k ) for the selected target object for the k-th frame based on the received PDAF data, which is the right and left images of the target object obtained by the camera sensor matrix, the sum of absolute differences is calculated as the absolute difference between pixels left and right images, on the basis of which SAD curves are constructed. Formally, disparity is the local minimum point of the SAD curve, and is therefore measured in the number of pixels. In this case, the SAD curve is a curve on a 2D graph: the X axis corresponds to the shift in the number of pixels of the left image relative to the right one, the Y axis corresponds to the corresponding sum of pixel-by-pixel differences between the images for the selected fragment; The inventors obtain SAD curves using sensors built into a mobile phone, which are called dual pixels and contain information about two pictures (the left and right image of an object from the phone with a slight shift).

Публикации, в которых описывается оценка диспарантности через стереореконструкцию, представлены ниже:Publications that describe disparity estimation through stereo reconstruction are presented below:

[11] Raajan N, Ramkumar M, Monisha B, Jaiseeli C, venkatesan SP (2012) Disparity estimation from stereo images. In: International conference on modelling optimization and computing, Springer, vol 38, pp 462-472;[11] Raajan N, Ramkumar M, Monisha B, Jaiseeli C, Venkatesan SP (2012) Disparity estimation from stereo images. In: International conference on modeling optimization and computing, Springer, vol 38, pp 462-472;

[12] S. Mukherjee and R. M. R. Guddeti, “A hybrid algorithm for disparity calculation from sparse disparity estimates based on stereo vision,” in Proceedings of IEEE International Conference on Signal Processing and Communications (SPCOM), (IEEE, 2014), pp. 1-6.[12] S. Mukherjee and R. M. R. Guddeti, “A hybrid algorithm for disparity calculation from sparse disparity estimates based on stereo vision,” in Proceedings of IEEE International Conference on Signal Processing and Communications (SPCOM), (IEEE, 2014), pp. 1-6.

На основании полученных SAD кривых оценивают меру уверенности R1, полученной диспарантности Dk для захваченного целевого объекта для k-ого кадра.Based on the obtained SAD curves, the measure of confidence R 1 and the obtained disparity D k for the captured target object for the k-th frame are estimated.

Применительно к заявленному решению соотношение сигнал/шум может быть аппроксимировано с помощью двух минимальных значений SAD кривой - глобального минимума и подминимума, на основании указанного определяем мера уверенности R1:In relation to the claimed solution, the signal-to-noise ratio can be approximated using two minimum values of the SAD curve - the global minimum and the subminimum, based on the specified we determine the confidence measure R 1 :

где - уровень сигнала, - уровень шума, - глобальный минимум и - подминимум. Формула (2) характеризует аппроксимацию соотношения сигнал/шум с помощью глобального минимума и подминимума SAD-кривой.Where - signal level, - noise level, - global minimum and - subminimum. Formula (2) characterizes the approximation of the signal-to-noise ratio using the global minimum and subminimum of the SAD curve.

Процесс обработки данных продолжается и определяется расстояние d1 до целевого объекта, захваченного камерой на основании полученных стерео данных.The data processing process continues and the distance d 1 to the target object captured by the camera is determined based on the obtained stereo data.

По выбору:Optionally:

- Сравниваются данные изображения по меньшей мере двух последовательных кадров изображения и на основании сравнения указанных данных изображения, вычисляют поле векторов движения mvi, j на сцене, включающей целевой объект, захваченной камерой. Выбирается центральная область вычисленного поля векторов mvi, j к которой применяется модель аффинного преобразования и вычисляются коэффициенты сдвига, поворота, масштабирования. Все коэффициенты вычисляются одновременно. Основные принципы аффинного преобразования раскрыты в следующем источнике информации:- Image data of at least two consecutive image frames is compared and based on the comparison of said image data, a field of motion vectors mv i, j in the scene including the target object captured by the camera is calculated. The central region of the calculated field of vectors mv i, j is selected, to which the affine transformation model is applied and the shift, rotation, and scaling coefficients are calculated. All coefficients are calculated simultaneously. The basic principles of affine transformation are disclosed in the following source of information:

[13] И. М. Виноградов. Аффинное преобразование // Математическая энциклопедия. - М.: Советская энциклопедия. - 1977-1985.[13] I.M. Vinogradov. Affine transformation // Mathematical encyclopedia. - M.: Soviet Encyclopedia. - 1977-1985.

Каждый вектор mvij показывает движение одной точки от кадра к кадру, т.е. (,) - координаты начала вектора на рассматриваемом кадре k, а (,) - координаты конца вектора на кадре k+1. При этом (А i, j) - индексы обхода по полю векторов, т.е. векторов из множества точек на одном кадре. Вектор mvij описывает переход из точки начала вектора с координатами (,) в текущем кадре k в точку конца вектора с координатами (,) в следующем кадре k+1 (т.е. самого вектора ). В матричном виде для одной пары координатEach vector mv ij shows the movement of one point from frame to frame, i.e. ( , ) are the coordinates of the beginning of the vector on the frame under consideration k , and ( , ) - coordinates of the end of the vector on frame k+1. In this case (A i, j) are the indices of the traversal over the field of vectors, i.e. vectors from many points on one frame. The vector mv ij describes the transition from the point of origin of the vector with coordinates ( , ) in the current frame k to the end point of the vector with coordinates ( , ) in the next frame k+1 (i.e. the vector itself ). In matrix form for one pair of coordinates

(,)->(,) аффинное преобразование выглядит следующим образом:( , )->( , ) affine transformation looks like this:

Т.е. аффинное преобразование представляет собой уравнение вида (4) для каждого вектора из области, где Qk, Pk и A представляют собой компоненты в матричном виде, характеризующие вектора в текущем и последующих кадрах k и k+1, соответственно. Коэффициенты сдвига, поворота и масштабирования получаются из комбинаций искомых корней уравнения , где -значения матрицы А.Those. an affine transformation is an equation of the form (4) for each vector from the region, where Q k , P k and A are components in matrix form characterizing the vectors in the current and subsequent frames k and k+1, respectively. The shift, rotation and scaling coefficients are obtained from combinations of the desired roots of the equation , Where -values of matrix A.

Они вычисляются по методу наименьших квадратов (МНК)- поиску корней путем минимизации суммы квадратов разностей между левой и правой частью уравнений по каждому вектору, т.е. минимизации функции , в матричном виде, где матрица:They are calculated using the least squares method (LSM) - searching for roots by minimizing the sum of squared differences between the left and right sides of the equations for each vector, i.e. function minimization , in matrix form, where matrix :

Раскрываем Revealing

Для минимизации необходимо приравнять градиент функции к 0.To minimize, it is necessary to equate the gradient of the function to 0.

Получаем новое матричное уравнение: (7). Наконец, корни уравнения (коэффициенты матрицы ) можно найти методом Гаусса. При этом k обозначает текущий кадр, T-транспонированная матрица.We get a new matrix equation: (7). Finally, the roots of the equation (matrix coefficients ) can be found by the Gaussian method. In this case, k denotes the current frame, T-transposed matrix.

Пример для матрицы искомое преобразование координат:Example for a matrix the required coordinate transformation:

Значения - отвечают за сдвиг текущего кадра по осям X и Y, соответственно, относительно предыдущего кадра. Значения отвечают за изменение масштаба, при этом коэффициент изменения масштаба подсчитывается, как:Values - are responsible for shifting the current frame along the X and Y axes, respectively, relative to the previous frame. Values are responsible for changing the scale, and the scaling factor is calculated as:

гдеWhere

ScaleChange k +1 - коэффициент изменения масштаба для кадра k+1, ScaleChange k +1 - scale change factor for frame k+1,

ScaleChange k - коэффициент изменения масштаба для текущего кадра k, ScaleChange k - scale change factor for the current frame k,

max(α15)- максимальное значение из α1 и α5. max(α 15 ) - maximum value from α 1 and α 5.

Значение - отвечает за горизонтальное растяжение целевого объекта на кадре( shear mapping) (пример, преобразование квадрата в параллелограмм), и рассматривается, как заведомо отсутствующий.Meaning - is responsible for the horizontal stretching of the target object on the frame (shear mapping) (for example, transforming a square into a parallelogram), and is considered as obviously absent.

Также с помощью модели аффинного преобразования вычисляется коэффициент поворота. Аффинная модель рассматривает поворот точек на кадре вокруг центра кадра, например поворот точки (x, y) на угол θ поворота в радианах. Таким образом, угол θ поворота из нашего преобразования координат можно вычислить следующим образом: The rotation coefficient is also calculated using the affine transformation model. The affine model considers the rotation of points on the frame around the center of the frame, for example, the rotation of a point (x, y) by the rotation angle θ in radians. So the rotation angle θ from our coordinate transformation can be calculated as follows:

гдеWhere

α1 4 - соответствующие значения матрицы А.α 14 - the corresponding values of matrix A.

- Определяют расстояние d2 от камеры до целевого объекта на основании вычисленного коэффициента изменения масштаба, на текущем кадре k оно вычисляется следующим образом:- Determine the distance d 2 from the camera to the target object based on the calculated zoom factor; on the current frame k it is calculated as follows:

где - начальное расстояние от камеры до целевого объекта при переходе в режим ближней съемкиWhere - initial distance from the camera to the target object when switching to close shooting mode

Следует отметить, что переход из режима дальней съемки в режим ближней съемки осуществляется по достижении определенного порога K, который предварительно определяется в зависимости от типа, используемой камеры, в качестве примера пороговое значение выбрано авторами изобретения равным 30 см, это расстояние и является начальным расстоянием для режима ближней съемки, но указанное значение приведено авторами только в качестве примера, и может варьироваться.It should be noted that the transition from the long-range shooting mode to the short-range shooting mode is carried out upon reaching a certain threshold K, which is pre-determined depending on the type of camera used; as an example, the threshold value was chosen by the authors of the invention to be 30 cm, this distance is the initial distance for close shooting mode, but the indicated value is given by the authors only as an example and may vary.

-Определяют меру уверенности R2 расстояния d2 от камеры до целевого объекта.-Determine the measure of confidence R 2 of the distance d 2 from the camera to the target object.

Например, мера уверенности R2 может быть рассчитана так:For example, the confidence measure R2 can be calculated as follows:

где N - общее число векторов движения (mvi, j), length(mvi, j) - длина вектора mvi, j , avg_magnitude_bound - вручную задается, как параметр для среднего значения длины векторов из поля векторов, R 2 _threshold - вручную задается, как параметр для минимально допустимой меры уверенности. Таким образом, аномально длинные вектора приводят к низкой мере уверенности, что согласовывается с нашей подзадачей покадровой оценки изменения масштаба объекта.where N is the total number of motion vectors (mv i, j ), length(mv i, j ) is the length of the vector mv i, j , avg_magnitude_bound - manually set as a parameter for the average value of the length of vectors from the vector field, R 2 _threshold - manually is specified as a parameter for the minimum acceptable measure of confidence. Thus, abnormally long vectors lead to a low confidence measure, which is consistent with our subtask of frame-by-frame estimation of object scale changes.

- Определяют расстояние d3 от камеры до целевого объекта на основании данных глубины c помощью сенсоров глубины,- Determine the distance d 3 from the camera to the target object based on depth data using depth sensors,

- Определяют меру уверенности R3 расстояния d3 на основании данных глубины c помощью сенсоров глубины,- Determine a measure of confidence R 3 distance d 3 based on depth data using depth sensors,

Поскольку для вычисления мер уверенности R3 и R4 для расстояний d3 и d4, соответственно используются сенсоры глубины и сенсоры движения, то их показания можно оценить напрямую как сигнал/шум по выражению (1), представленному ранее.Since depth sensors and motion sensors are used to calculate the confidence measures R 3 and R 4 for distances d 3 and d 4 , respectively, their readings can be assessed directly as signal/noise using expression (1) presented earlier.

В частности, оценку меры уверенности R3 можно выполнить способом, описанным в следующих источниках:In particular, the assessment of the confidence measure R 3 can be performed in the manner described in the following sources:

[3] J. Zhu, L. Wang, R. Yang, J. E. Davis and Z. pan, "Reliability Fusion of Time-of-Flight Depth and Stereo Geometry for High Quality Depth Maps," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 7, pp. 1400-1414, July 2011, doi: 10.1109/TPAMI.2010.172.[3] J. Zhu, L. Wang, R. Yang, J. E. Davis and Z. pan, "Reliability Fusion of Time-of-Flight Depth and Stereo Geometry for High Quality Depth Maps," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 7, pp. 1400-1414, July 2011, doi: 10.1109/TPAMI.2010.172.

- Определяют расстояние d4 от камеры до целевого объекта на основании данных сенсоров движения, согласно выражению (1). Определяют меру уверенности R4 расстояния d4 на основании данных сенсоров движения, как раскрыто в публикациях:- Determine the distance d 4 from the camera to the target object based on data from motion sensors, according to expression (1). Determine the measure of confidence R 4 of the distance d 4 based on data from motion sensors, as disclosed in the publications:

[14] Terra, R., Figueiredo, L., Barbosa, R.S., & Anacleto, R. (2014). Traveled Distance Estimation Algorithm for Indoor Localization. Procedia Technology, 17, 248-255.[14] Terra, R., Figueiredo, L., Barbosa, R. S., & Anacleto, R. (2014). Traveled Distance Estimation Algorithm for Indoor Localization. Procedia Technology, 17, 248-255.

[15] Shi, Yonglei & Fang, Liqing & Guo, Deqing & Qi, Ziyuan & Wang, Jinye & Che, Jinli. (2021). Research on distance measurement method based on micro-accelerometer. AIP Advances. 11. 055126. 10.1063/5.0054463.[15] Shi, Yonglei & Fang, Liqing & Guo, Deqing & Qi, Ziyuan & Wang, Jinye & Che, Jinli. (2021). Research on distance measurement method based on micro-accelerometer. AIP Advances. 11.055126.10.1063/5.0054463.

Оценку меры уверенности R4 можно выполнить способом, описанным в следующих источниках (сенсоры объединены под названием IMU - Inertial Measurement Unit - можно рассчитать через RMSE), как раскрыто в публикации:The assessment of the confidence measure R4 can be performed in the manner described in the following sources (the sensors are combined under the name IMU - Inertial Measurement Unit - can be calculated through RMSE), as disclosed in the publication:

[16] Cho YS, Jang SH, Cho JS, Kim MJ, Lee HD, Lee SY, Moon SB. Evaluation of Validity and Reliability of Inertial Measurement Unit-Based Gait Analysis Systems. Ann Rehabil Med. 2018 Dec;42(6):872-883. doi: 10.5535/arm.2018.42.6.872. publ. 2018 Dec 28. PMID: 30613081; PMCID: PMC6325313.[16] Cho YS, Jang SH, Cho JS, Kim MJ, Lee HD, Lee SY, Moon SB. Evaluation of Validity and Reliability of Inertial Measurement Unit-Based Gait Analysis Systems. Ann Rehabil Med. 2018 Dec;42(6):872-883. doi: 10.5535/arm.2018.42.6.872. publ. 2018 Dec 28. PMID: 30613081; PMCID: PMC6325313.

- Инициализируют средство отслеживания (трекер) для целевого объекта только на первом кадре(начальном) посредством ограничивающего прямоугольника на экране камеры и осуществляют отслеживание целевого объекта на последующих кадрах, и вычисляют коэффициент масштабирования ограничивающего прямоугольника с находящейся в ней целевым объектом,- Initialize the tracker for the target object only on the first frame (initial) by means of a bounding rectangle on the camera screen and track the target object on subsequent frames, and calculate the scaling factor of the bounding rectangle with the target object located in it,

-Определяют расстояние d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящейся в ней целевым объектом при инициализации средства отслеживания,-The distance d 5 from the camera to the target object is determined based on the calculated scaling factor of the bounding rectangle with the target object located in it when the tracker is initialized,

-Определяют меру уверенности R5 расстояния d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящейся в ней целевым объектом при инициализации средства отслеживания-Determine the measure of confidence R 5 of the distance d 5 from the camera to the target object based on the calculated scaling factor of the bounding rectangle with the target object located in it when initializing the tracker

Например, меру уверенности R5 определяют, как:For example, the confidence measure R 5 is defined as:

На каждом кадре средством отслеживания сначала задается набор ключевых точек для отслеживания, в целях оптимизации - в нашем случае - он равномерно распределяется по ограничивающему прямоугольнику в виде узлов 2D сетки.On each frame, the tracker first defines a set of key points to track, for optimization purposes - in our case - it is evenly distributed across the bounding box in the form of 2D mesh nodes.

Пример ограничивающего прямоугольника в виде узлов 2D сетки представлен на фиг.9.An example of a bounding box in the form of 2D grid nodes is presented in Fig. 9.

Затем средство отслеживания использует оптический поток, который выполняет отслеживание каждой точки. Таким образом, получается набор предсказанных векторов. Окончательный результат (изменение масштаба, смещение) извлекается посредством процедуры «голосования» с учетом каждого вектора.The tracker then uses optical flow to track each point. Thus, a set of predicted vectors is obtained. The final result (scale change, displacement) is obtained through a “voting” procedure taking into account each vector.

Следует отметить, что более детально, методы и приемы получения меры уверенности при инициализации средства отслеживания раскрыты в публикации:It should be noted that in more detail, methods and techniques for obtaining a measure of confidence when initializing a tracker are disclosed in the publication:

[17] Z. Kalal, K. Mikolajczyk and J. Matas, "Forward-Backward Error: Automatic Detection of Tracking Failures," 2010 20th International Conference on Pattern Recognition, Istanbul, Turkey, 2010, pp. 2756-2759, doi: 10.1109/ICPR.2010.675.[17] Z. Kalal, K. Mikolajczyk and J. Matas, “Forward-Backward Error: Automatic Detection of Tracking Failures,” 2010 20th International Conference on Pattern Recognition, Istanbul, Turkey, 2010, pp. 2756-2759, doi: 10.1109/ICPR.2010.675.

Далее, в настоящем описании приводится лишь краткое описание параметров получения выражения(13), которые, как уже указывалось, детально раскрыты в публикации[17]:Further, this description provides only a brief description of the parameters for obtaining expression (13), which, as already indicated, are disclosed in detail in the publication [17]:

где: - нормированные коэффициенты взаимной корреляции. Это мера сходства фрагментов изображения. Для каждого вектора она вычисляется для пары фрагментов (соответствующих ограничивающему прямоугольнику на кадре, см.фиг.9) из изображения i и изображения i+1 со смещенным центром согласно вектору . Значение меры сходства вычисляется для каждой пары фрагментов, полученной от одного из векторов движения. Медиана по всем значениям меры сходства фрагментов изображения берется за финальную оценку.Where: - normalized cross-correlation coefficients. This is a measure of the similarity of image fragments. For each vector, it is calculated for a pair of fragments (corresponding to the bounding box on the frame, see Fig.9) from image i and image i+1 with a shifted center according to the vector . The similarity measure value is calculated for each pair of fragments obtained from one of the motion vectors . The median of all values of the similarity measure of image fragments is taken as the final estimate.

- ошибка прямого-обратного отслеживания: средство отслеживания применяется для каждой ключевой точки при переходе от кадра k к кадру k+1 (прямое отслеживание). Для подсчета ошибки необходимо также применить средство отслеживания для кадров изображений в обратном порядке, используя полученные при прямом отслеживании точки в качестве ключевых начальных точек. В результате расстояние между начальной точкой прямого отслеживания и конечной точкой обратного отслеживания определяет ошибку. Окончательное значение вычисляется на основании медианы по всем значениям ошибки для каждой ключевой точки - forward-backward tracking error: a tracker is applied for each key point when moving from frame k to frame k+1 (forward tracking). To calculate the error, you must also apply the tracker to the image frames in reverse order, using the points obtained from forward tracking as key starting points. As a result, the distance between the forward tracking starting point and the backward tracking ending point determines the error. The final value is calculated based on the median of all error values for each key point

«good_point_fraction» - доля исходных ключевых точек после фильтрации. Фильтрация происходит следующим образом: указанные выше значения и подсчитываются для каждой ключевой точки, фильтруются (не учитываются в доле) те точки, на которых подсчет дал значения ниже пороговых (пороговые известны заранее и задаются вручную в результате предварительных экспериментов). Процесс фильтрации детально раскрыто в публикации[17]).“good_point_fraction” - the fraction of the original key points after filtering. Filtering occurs as follows: the above values And are counted for each key point, those points are filtered (not taken into account in the share) at which the count gave values below the threshold (threshold values are known in advance and are set manually as a result of preliminary experiments). The filtering process is described in detail in the publication [17]).

Символ « ̂ »(hat) над каждым выражением - означает нормализованное значение - в диапазоне [0,1]. Его получают каждый раз путем сравнения с пороговым значением (настроенным вручную). Таким образом, также гарантируется, что R5 находится в диапазоне [0,1]. А если средство отслеживания теряет объект - значение меры уверенности R5 устанавливается в 0 до повторной инициализации средства отслеживания(см. публикацию [17]).The symbol “ ̂ ”(hat) above each expression means a normalized value in the range [0,1]. It is obtained each time by comparison with a threshold value (manually configured). Thus, it is also guaranteed that R 5 is in the range [0,1]. And if the tracker loses the object, the value of the confidence measure R 5 is set to 0 until the tracker is reinitialized (see publication [17]).

Далее выполняется гибридная оценка расстояния от камеры до целевого объекта в текущем кадре k на основании полученных значений расстояния d1, d2, d3, d4, d5 от камеры до целевого объекта и мер уверенности R1, R2, R3, R4, R5, и определяется скорректированное расстояние dh от камеры до целевого объекта в текущем кадр. При этом скорректированное расстояние dh вычисляется из выражения:Next, a hybrid estimation of the distance from the camera to the target object in the current frame is performedk based on the obtained distance values d1, d2,d3,d4,d5 from camera to target and confidence measures R1, R2, R3, R4, R5, and the adjusted distance dhfrom the camera to the target object in the current frame. In this case, the corrected distance dh is calculated from the expression:

dh=d1 * R1+d2 * R2+d3 * R3+d4 * R4+d5 * R5 (14);d h= d 1 * R 1 +d 2 * R 2 +d 3 * R 3 +d 4 * R 4 +d 5 * R 5 (14);

- принимают решение о переключении камеры в режим ближней съемки, если полученное скорректированное расстояние dh меньше предварительно определенного порогового значения K (например, 30 см, но значение может быть и другим). Это пороговое значение зависит от конкретных параметров камеры, используемой при съемке изображения, т.е. на каких расстояниях каждый из режимов (ближней, дальней) может фокусироваться.- decide to switch the camera to close-up mode if the resulting corrected distance d h is less than a predetermined threshold value K (for example, 30 cm, but the value may be different). This threshold value depends on the specific parameters of the camera used when capturing the image, i.e. at what distances each mode (near, far) can focus.

Этапы работы камеры в режиме ближней съемки (сверхширокоугольный режим) будут описаны со ссылкой на фиг.7B.Operating steps of the camera in the close-up mode (ultra-wide-angle mode) will be described with reference to FIG. 7B.

При переключении камеры на режим ближней съемки выполняются следующие этапы.When you switch the camera to close-up mode, the following steps occur.

При захвате изображения сцены с целевым объектом в режиме ближней съемки работы камеры обеспечивается получение данных для текущего кадра, т.е. обеспечиваются данные текущего изображения (картинка) k-ого кадра. По выбору: обеспечивают получение данных с сенсоров глубины и/или получение данных с сенсоров движения, например с акселерометра, гироскопа, магнитометра.When capturing an image of a scene with a target object in the camera's close-in mode, data is obtained for the current frame, i.e. The data of the current image (picture) of the k-th frame is provided. Optional: provide data acquisition from depth sensors and/or acquisition of data from motion sensors, for example, from an accelerometer, gyroscope, magnetometer.

Выполняется инициализация функции отслеживания и выполняется вначале нахождение и затем отслеживание целевого объекта, который при инициализации отслеживания выделяется ограничивающим прямоугольником через трекер автофокуса или через центральный регион изображения, основные принципы работы средства отслеживания детально раскрыты в патенте :[7]RU2778355C2, опубл. 17.08.2022 г., того же патентообладателя (САМСУНГ ЭЛЕКТРОНИКС КО., ЛТД., KR), что и патентообладатель заявленного изобретения.The tracking function is initialized and first finds and then tracks the target object, which, when initializing tracking, is highlighted by a bounding rectangle through the autofocus tracker or through the central region of the image, the basic principles of operation of the tracker are disclosed in detail in the patent: [7] RU2778355C2, publ. 08/17/2022, the same patent holder (SAMSUNG ELECTRONICS CO., LTD., KR) as the patent holder of the claimed invention.

Нахождение целевого объекта может выполняться автоматически или непосредственно пользователем посредством нажатия пальцем на экран в зоне целевого объекта. Методы нахождения и отслеживания объекта при съемке камерой широко известны в уровне техники:Finding the target object can be done automatically or directly by the user by pressing a finger on the screen in the area of the target object. Methods for finding and tracking an object when shooting with a camera are widely known in the art:

[18] Zhang, XQ., Jiang, RH., Fan, CX. et al. Advances in Deep Learning Methods for Visual Tracking: Literature Review and Fundamentals. Int. J. Autom. Comput. 18, 311-333 (2021). https://doi.org/10.1007/s11633-020-1274-8);[18] Zhang, X. Q., Jiang, R. H., Fan, C. X. et al. Advances in Deep Learning Methods for Visual Tracking: Literature Review and Fundamentals. Int. J. Autom. Comput. 18, 311-333 (2021). https://doi.org/10.1007/s11633-020-1274-8);

[19] Soleimanitaleb, Zahra & Keyvanrad, Mohammad. (2022). Single Object Tracking: A Survey of Methods, Datasets, and Evaluation Metrics.;[19] Soleimanitaleb, Zahra & Keyvanrad, Mohammad. (2022). Single Object Tracking: A Survey of Methods, Datasets, and Evaluation Metrics.;

[20] Luo, Wenhan & Xing, Junliang & Milan, Anton & Zhang, Xiaoqing & Liu, Wei & Zhao, Xiaowei & Kim, Tae-Kyun. (2017). Multiple Object Tracking: A Literature Review. Artificial Intelligence. 293. 10.1016/j.artint.2020.103448.[20] Luo, Wenhan & Xing, Junliang & Milan, Anton & Zhang, Xiaoqing & Liu, Wei & Zhao, Xiaowei & Kim, Tae-Kyun. (2017). Multiple Object Tracking: A Literature Review. Artificial Intelligence. 293. 10.1016/j.artint.2020.103448.

В режиме ближней съемки распознается специальный (предварительно определенный) случай использования: при потере целевого объекта на сцене, захваченной камерой, т.е. целевой объект перемещается и выходит из поля зрения камерыClose-in mode recognizes a special (predefined) use case: when the target object is lost in the scene captured by the camera, i.e. the target object moves in and out of the camera's field of view

При этом, в случае потери целевого объекта в кадре, камера из режима ближней съемки переключается в режим дальней съемки.At the same time, if the target object is lost in the frame, the camera switches from close shooting mode to far shooting mode.

Сравниваются данные изображения по меньшей мере двух последовательных кадров и на основании сравнения указанных данных изображения получаем вектора движения mvi, j для каждого пикселя или группы пикселей сцены, включающей целевой объект. Процесс получения векторов движения при съемке камерой детально раскрыт в публикациях:The image data of at least two consecutive frames is compared and based on the comparison of said image data, motion vectors mv i, j are obtained for each pixel or group of pixels of the scene including the target object. The process of obtaining motion vectors when shooting with a camera is described in detail in the publications:

[21] Heuer, . (1999). Global motion estimation in image sequences using robust motion vector field segmentation. 261-264. 10.1145/319463.319620;[21] Heuer, . (1999). Global motion estimation in image sequences using robust motion vector field segmentation. 261-264. 10.1145/319463.319620;

[22] Manikandan, M. & Kumar, Vijay & Narayanadass, Ramadass. (2006). Motion estimation method for video compression - An overview. 5 pp. - 5. 10.1109/WOCN.2006.1666680.[22] Manikandan, M. & Kumar, Vijay & Narayanadass, Ramadass. (2006). Motion estimation method for video compression - An overview. 5 pp. - 5. 10.1109/WOCN.2006.1666680.

Выполняют обновление(каждый k кадр, где k>1, таким образом для каждых последующих кадров получают новые векторы движения.An update is performed (every k frame, where k>1, so for each subsequent frame new motion vectors are obtained.

Выбирается центральная область вычисленного поля векторов mvi, j к которой применяется модель аффинного преобразования и вычисляются коэффициенты сдвига, поворота, масштабирования. Все коэффициенты вычисляются одновременно. Пример (x, y - координаты, k+1 - текущий кадр, k - предыдущий):The central region of the calculated field of vectors mv i, j is selected, to which the affine transformation model is applied and the shift, rotation, and scaling coefficients are calculated. All coefficients are calculated simultaneously. Example (x, y - coordinates, k+1 - current frame, k - previous):

Определяют расстояние d2 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования. Процесс определения расстояния от камеры до целевого объекта на основании векторов движения при съемке камерой детально раскрыт в публикации:The distance d 2 from the camera to the target object is determined based on the calculated zoom factor. The process of determining the distance from the camera to the target object based on motion vectors when shooting with a camera is described in detail in the publication:

[23]Ho, Hann Woei & Croon, Guido & Chu, Q.P. (2017). Distance and velocity estimation using optical flow from a monocular camera. International Journal of Micro Air Vehicles. 9. 198-208. 10.1177/1756829317695566.[23]Ho, Hann Woei & Croon, Guido & Chu, Q.P. (2017). Distance and velocity estimation using optical flow from a monocular camera. International Journal of Micro Air Vehicles. 9. 198-208. 10.1177/1756829317695566.

Определяют меру уверенности R2 расстояния d2 от камеры до целевого объектаDetermine the measure of confidence R 2 of the distance d 2 from the camera to the target object

Например, мера уверенности R2 может быть рассчитана так:For example, the confidence measure R2 can be calculated as follows:

где N - общее число векторов движения mvi, j, length(mvi, j) - длина вектора mvi, j , avg_magnitude_bound - вручную задается, как параметр для среднего значения длины векторов из поля векторов, R2_threshold - вручную задается, как параметр для минимально допустимой меры уверенности.where N is the total number of motion vectors mv i, j, length(mvi, j) is the length of the vector mvi, j, avg_magnitude_bound is manually set as a parameter for the average value of the length of vectors from the vector field, R2_threshold is manually set as a parameter for the minimum acceptable measure of confidence.

Или так:Or like this:

R2 = Error(ROI-of-image-frame i+1, f(ROI-of-Image-frame i )) , R 2 = Error(ROI-of-image-frame i+1 , f (ROI-of-Image-frame i )) ,

где f - функция которая применяет изменение размеров и сдвиг, подсчитанные с помощью аффинной трансформации. g de f is a function that applies resizing and shifting calculated using an affine transformation.

Error - функция подсчета ошибки между измененным функцией f изображением f(Ik-1) на (k-1)том кадре и оригинальным изображением Ii на k-ом кадре. Error is a function for calculating the error between the image f(I k-1 ) modified by the function f on the (k-1) frame and the original image I i on the k-th frame.

По выбору:Optionally:

Происходит оценка расстояния до целевого объекта с помощью средства отслеживания(трекер) посредством измерения изменений размера ограничивающего прямоугольника средства отслеживания на экране камеры. Вычисляют коэффициент масштабирования ограничивающего прямоугольника с находящейся в ней целевым объектом,The distance to the target object is estimated by the tracker by measuring changes in the size of the tracker's bounding box on the camera screen. Calculate the scaling factor of the bounding rectangle containing the target object,

Определяют расстояние d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящейся в ней целевым объектом при инициализации средства отслеживания. Оценка расстояния с помощью средства отслеживания посредством ограничивающего прямоугольника раскрыта в следующих источника информации:The distance d 5 from the camera to the target object is determined based on the calculated scaling factor of the bounding rectangle with the target object located in it when the tracker is initialized. Estimating distance using a bounding box tracker is disclosed in the following references:

[24] Vajgl, M.; Hurtik, P.; Nejezchleba, T. Dist-YOLO: Fast Object Detection with Distance Estimation. Appl. Sci. 2022, 12, 1354. https://doi.org/10.3390/app12031354).[24] Vajgl, M.; Hurtik, P.; Nejezchleba, T. Dist-YOLO: Fast Object Detection with Distance Estimation. Appl. Sci. 2022, 12, 1354. https://doi.org/10.3390/app12031354).

Определяют меру уверенности R5 расстояния d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящейся в ней целевым объектом при инициализации средства отслеживанияA measure of confidence R 5 of the distance d 5 from the camera to the target object is determined based on the calculated scaling factor of the bounding rectangle with the target object located in it when initializing the tracker

Например, меру уверенности R5 определяют, как:For example, the confidence measure R 5 is defined as:

(13) (13)

На каждом кадре средством отслеживания сначала задается набор ключевых точек для отслеживания, в целях оптимизации - в нашем случае - он равномерно распределяется по ограничивающему прямоугольнику в виде узлов 2D сетки.On each frame, the tracker first defines a set of key points to track, for optimization purposes - in our case - it is evenly distributed across the bounding box in the form of 2D mesh nodes.

Пример ограничивающего прямоугольника в виде узлов 2D сетки представлен на фиг.9.An example of a bounding box in the form of 2D grid nodes is presented in Fig. 9.

Затем средство отслеживания использует оптический поток, который выполняет отслеживание каждой точки. Таким образом, получается набор предсказанных векторов. Окончательный результат (изменение масштаба, смещение) извлекается посредством процедуры «голосования» с учетом каждого вектора.The tracker then uses optical flow to track each point. Thus, a set of predicted vectors is obtained. The final result (scale change, displacement) is obtained through a “voting” procedure taking into account each vector.

Следует отметить, что более детально, методы и приемы получения меры уверенности при инициализации средства отслеживания раскрыты в публикации, уже упомянутой выше:It should be noted that in more detail, methods and techniques for obtaining a measure of confidence when initializing a tracker are disclosed in the publication already mentioned above:

[17] Z. Kalal, K. Mikolajczyk and J. Matas, "Forward-Backward Error: Automatic Detection of Tracking Failures," 2010 20th International Conference on Pattern Recognition, Istanbul, Turkey, 2010, pp. 2756-2759, doi: 10.1109/ICPR.2010.675.[17] Z. Kalal, K. Mikolajczyk and J. Matas, “Forward-Backward Error: Automatic Detection of Tracking Failures,” 2010 20th International Conference on Pattern Recognition, Istanbul, Turkey, 2010, pp. 2756-2759, doi: 10.1109/ICPR.2010.675.

Далее, в настоящем описании приводится лишь краткое описание параметров получения выражения(13), которые, как уже указывалось, детально раскрыты в публикации [17]:Further, this description provides only a brief description of the parameters for obtaining expression (13), which, as already indicated, are disclosed in detail in the publication [17]:

где: - нормированные коэффициенты взаимной корреляции. Это мера сходства фрагментов изображения. Для каждого вектора она вычисляется для пары фрагментов (соответствующих ограничивающему прямоугольнику на кадре, см.фиг.9) из изображения i и изображения i+1 со смещенным центром согласно вектору . Значение меры сходства вычисляется для каждой пары фрагментов, полученной от одного из векторов движения. Медиана по всем значениям меры сходства фрагментов изображения берется за финальную оценку.Where: - normalized cross-correlation coefficients. This is a measure of the similarity of image fragments. For each vector, it is calculated for a pair of fragments (corresponding to the bounding box on the frame, see Fig.9) from image i and image i+1 with a shifted center according to the vector . The similarity measure value is calculated for each pair of fragments obtained from one of the motion vectors . The median of all values of the similarity measure of image fragments is taken as the final estimate.

- ошибка прямого-обратного отслеживания: средство отслеживания применяется для каждой ключевой точки при переходе от кадра k к кадру k+1 (прямое отслеживание). Для подсчета ошибки необходимо также применить средство отслеживания для кадров изображений в обратном порядке, используя полученные при прямом отслеживании точки в качестве ключевых начальных точек. В результате расстояние между начальной точкой прямого отслеживания и конечной точкой обратного отслеживания определяет ошибку. Окончательное значение вычисляется на основании медианы по всем значениям ошибки для каждой ключевой точки - forward-backward tracking error: a tracker is applied for each key point when moving from frame k to frame k+1 (forward tracking). To calculate the error, you must also apply the tracker to the image frames in reverse order, using the points obtained from forward tracking as key starting points. As a result, the distance between the forward tracking starting point and the backward tracking ending point determines the error. The final value is calculated based on the median of all error values for each key point

«good_point_fraction» - доля исходных ключевых точек после фильтрации. Фильтрация происходит следующим образом: указанные выше значения и подсчитываются для каждой ключевой точки, фильтруются (не учитываются в доле) те точки, на которых подсчет дал значения ниже пороговых (пороговые известны заранее и задаются вручную в результате предварительных экспериментов). Процесс фильтрации детально раскрыто в публикации[17]).“good_point_fraction” - the fraction of the original key points after filtering. Filtering occurs as follows: the above values And are counted for each key point, those points are filtered (not taken into account in the share) at which the count gave values below the threshold (threshold values are known in advance and are set manually as a result of preliminary experiments). The filtering process is described in detail in the publication [17]).

Символ « ^ »(hat) над каждым выражением - означает нормализованное значение - в диапазоне [0,1]. Его получают каждый раз путем сравнения с пороговым значением (настроенным вручную). Таким образом, также гарантируется, что R5 находится в диапазоне [0,1]. А если средство отслеживания теряет объект - значение меры уверенности R5 устанавливается в 0 до повторной инициализации средства отслеживания(см. публикацию [17]).The symbol “^” (hat) above each expression means a normalized value in the range [0,1]. It is obtained each time by comparison with a threshold value (manually configured). Thus, it is also guaranteed that R 5 is in the range [0,1]. And if the tracker loses the object, the value of the confidence measure R 5 is set to 0 until the tracker is reinitialized (see publication [17]).

По выбору:Optionally:

- обеспечивают получение стереоданных от камеры смартфона- provide stereo data from the smartphone camera

определяют диспарантность Dk сцены, включающей целевой объект, захваченной камерой, на основании полученных стерео данных в определенный момент времени для каждого текущего кадра,determine the disparity D k of the scene, including the target object, captured by the camera, based on the obtained stereo data at a certain point in time for each current frame,

-определяют меру уверенности R1 полученной диспарантности Dk на основании полученных стерео данных,- determine the measure of confidence R 1 of the obtained disparity D k based on the obtained stereo data,

-определяют меру уверенности R3 расстояния d3 на основании данных глубины c помощью сенсоров глубины,- determine the measure of confidence R 3 distance d 3 based on depth data using depth sensors,

-определяют расстояние d4 от камеры до целевого объекта на основании данных сенсоров движения,- determine the distance d 4 from the camera to the target object based on motion sensor data,

-определяют меру уверенности R4 расстояния d4 на основании данных сенсоров движения.- determine the measure of confidence R 4 of the distance d 4 based on data from motion sensors.

Далее выполняется гибридная оценка расстояния от камеры до целевого объекта в текущем кадре k на основании полученных значений расстояния d1,d2,d3,d4,d5 от камеры до целевого объекта и мер уверенности R1,R2,R3,R4,R5, и определяется скорректированное расстояние dh от камеры до целевого объекта в текущем кадр. При этом скорректированное расстояние dh вычисляется из выражения:Next, a hybrid estimation of the distance from the camera to the target object in the current frame is performedk based on the obtained distance values d1,d2,d3,d4,d5 from camera to target and confidence measures R1,R2,R3,R4,R5, and the adjusted distance dhfrom the camera to the target object in the current frame. In this case, the corrected distance dh is calculated from the expression:

dh=d1 * R1+d2 * R2+d3 * R3+d4 * R4+d5 * R5 (14).d h= d 1 * R 1 +d 2 * R 2 +d 3 * R 3 +d 4 * R 4 +d 5 * R 5 (14).

И принимают решение о переключении камеры в режим дальней съемки, если полученное скорректированное расстояние dh больше или равно предварительно определенному пороговому значению K (например, 35 см, но значение может быть и другим). Это пороговое значение зависит от конкретных параметров камеры, используемой при съемке изображения, т.е. на каких расстояниях каждый из режимов (ближней, дальней) может фокусироваться.And they decide to switch the camera to long-range shooting mode if the resulting corrected distance d h is greater than or equal to a predetermined threshold value K (for example, 35 cm, but the value may be different). This threshold value depends on the specific parameters of the camera used when capturing the image, i.e. at what distances each mode (near, far) can focus.

Значение может зависеть от значений расстояния, при котором фокусируется режим дальней съемки. При этом это значение должно отличаться от значения для перехода в режим ближней съемки, поскольку при совпадении этих значений будут постоянные переключения из одного режима в другой.The value may depend on the distance values at which the Long Shot mode focuses. In this case, this value must differ from the value for switching to the close-up shooting mode, since if these values coincide, there will be constant switching from one mode to another.

Далее будет описана полная схема работы способа автоматического переключения режима работы камеры от получения входных данных до вывода результата согласно заявленному изобретению со ссылкой на фиг.7A, фиг.7B, представлена блок-схема последовательности этапов заявленного способа.Next, a complete diagram of the operation of the method for automatically switching the operating mode of the camera from receiving input data to outputting the result will be described according to the claimed invention with reference to Fig. 7A, Fig. 7B, a block diagram of the sequence of stages of the claimed method is presented.

Ключевое положение 1: Гибридная оценка расстояния до целевого объекта (со ссылкой на фиг.7А, фиг.7В). Key Point 1: Hybrid Target Distance Estimation (with reference to Figure 7A, Figure 7B).

Входные данные для инициализации заявленного способа:Input data for initializing the claimed method:

- данные изображения(картинка), например сцены, содержащей целевой объект и полученные с камеры, встроенной в смартфон или подобное устройство, к данным изображения относятся:- image data (picture), for example a scene containing a target object and obtained from a camera built into a smartphone or similar device, image data includes:

- данные изображения на основе YUV или RGB модели и т.п., полученные для текущего k-ого кадра с текущей камеры: режима дальней съемки или режима ближней съемки,- image data based on YUV or RGB model, etc., obtained for the current k-th frame from the current camera: long-range shooting mode or short-range shooting mode,

- данные изображения, полученные с предыдущих кадров в режиме ближней съемки- image data obtained from previous frames in close-up mode

- стерео данные изображения, например, полученные с камеры по технологии dual pixel или PDAF данные изображения, полученные с помощью PDAF сенсоров на матрице камеры устройства, для текущего кадра в режиме дальней съемки,- stereo image data, for example, obtained from a camera using dual pixel technology or PDAF image data obtained using PDAF sensors on the device’s camera matrix, for the current frame in long-range shooting mode,

- по выбору, данные движения, полученные, например, с помощью сенсора движения, акселерометра или гироскопа и данные глубины, полученные, например, с помощью сенсора глубины,- optionally, motion data obtained, for example, using a motion sensor, accelerometer or gyroscope and depth data, obtained, for example, using a depth sensor,

- K, M - пороговые значения для входа и выхода из текущего режима, т.е. в данном случае для переключения камеры в режим ближней съемки и в режим дальней съемки, соответственно. Пороговые значения рассчитываются эмпирическим путем, исходя из диапазона оптимальных фокусных расстояний для линзы дальней камеры и линзы ближней камеры при конкретной реализации технологии в камере. В результате проведения экспериментальных исследований и условий комфортного наблюдения для пользователя и на основе проведения подбора оптимальных значений, получены следующие пороговые значения, например, в качестве неограничивающего примера: K=30см и M=35см или K=29см и M=32см.- K, M - threshold values for entering and exiting the current mode, i.e. in this case, to switch the camera to short-range shooting mode and long-range shooting mode, respectively. Threshold values are calculated empirically based on the range of optimal focal lengths for the far camera lens and the near camera lens for a particular camera technology implementation. As a result of experimental studies and comfortable observation conditions for the user and based on the selection of optimal values, the following threshold values were obtained, for example, as a non-limiting example: K=30cm and M=35cm or K=29cm and M=32cm.

Представленные пороговые значения не ограничиваются представленными значения и приведены в настоящем раскрытии только в качестве иллюстративного примера.The presented threshold values are not limited to the values presented and are given in this disclosure only as an illustrative example.

Выходные данные, получаемые в результате выполнения заявленного способа:Output data obtained as a result of executing the claimed method:

T ∈ { режим дальней съемки, режим ближней съемки }- принятие решения о необходимости инициализации переключения режима камеры.T ∈ { far shooting mode, close shooting mode } - making a decision about the need to initialize switching the camera mode.

Последовательность этапов переключения камеры (гибридный алгоритм, используемый для переключения камеры)Sequence of camera switching steps (hybrid algorithm used for camera switching)

А. Режим дальней съемкиA. Long Range Mode

1. Вычисление SAD (Sum of Absolute Differences, сумма абсолютных различий)кривых для всей сцены, захваченной камерой на основании стерео данных, полученных в режиме дальней съемки(SAD кривая представляет собой кривые на 2D графике: оси X соответствует смещение в количестве пикселей левого изображения относительно правого, оси Y - соответствующая сумма попиксельных разностей между изображениями для выбранного фрагмента; SAD кривые авторы изобретения получают посредством сенсоров, встроенных в мобильный телефон, которые называются dual pixels и содержат информацию о двух картинках (левое и правое изображение объекта с телефона с небольшим сдвигом).1. Calculation of SAD (Sum of Absolute Differences) curves for the entire scene captured by the camera based on stereo data obtained in long-range shooting mode (SAD curve represents curves on a 2D graph: the X axis corresponds to the displacement in the number of pixels of the left image relative to the right, Y axis - the corresponding sum of pixel-by-pixel differences between images for the selected fragment; SAD curves are obtained by the authors using sensors built into a mobile phone, which are called dual pixels and contain information about two pictures (left and right image of an object from the phone with a slight shift ).

2. Вычисление диспарантности Dk на основании построенных SAD кривых (диспарантность является точкой локального минимума SAD кривой).2. Calculation of disparity D k based on the constructed SAD curves (disparity is the point of local minimum of the SAD curve).

3. Из каждой SAD кривой выделяются минимальные значения SAD кривой: глобальный минимум и подминимум, а также другие точки кривой, которые используются для оценки меры уверенности R1 вычисленной диспарантности:3. From each SAD curve, the minimum values of the SAD curve are extracted: the global minimum and subminimum, as well as other points of the curve, which are used to assess the confidence measure R 1 of the calculated disparity:

, (2) , (2)

где -уровень сигнала, -уровень шума, -глобальный минимум и -подминимум. Формула (2) характеризует аппроксимацию соотношения сигнал/шум с помощью глобального минимума и подминимума SAD-кривой.Where - signal level, -noise level, -global minimum and -subminimum Formula (2) characterizes the approximation of the signal-to-noise ratio using the global minimum and subminimum of the SAD curve.

4. Определение специального случая использования, которое детально раскрыто в Ключевом положении 2. Если специальный случай использования не выявлен, выполнение способа продолжается.4. Definition of a special use case, which is covered in detail in Key Statement 2. If no special use case is identified, execution of the method continues.

5. Определяют расстояние(d1) от камеры до целевого объекта на основании вычисленной диспарантности Dk для текущего кадра (вычисление расстояния на основании диспарантности детально описано в [7]патенте RU2778355C2).5. The distance (d 1 ) from the camera to the target object is determined based on the calculated disparity D k for the current frame (calculation of the distance based on disparity is described in detail in [7] patent RU2778355C2).

6. (Вариант 1)6. (Option 1)

Сравниваются данные изображения по меньшей мере двух последовательных кадров и на основании сравнения указанных данных изображения получаем вектора движения mvi, j для каждого пикселя или группы пикселей сцены, включающей целевой объект, захваченной камерой. Процесс получения векторов движения при съемке камерой детально раскрыт в публикациях:The image data of at least two consecutive frames is compared and based on the comparison of said image data, motion vectors mv i, j are obtained for each pixel or group of pixels of the scene including the target object captured by the camera. The process of obtaining motion vectors when shooting with a camera is described in detail in the publications:

[21] Heuer, . (1999). Global motion estimation in image sequences using robust motion vector field segmentation. 261-264. 10.1145/319463.319620;[21] Heuer, . (1999). Global motion estimation in image sequences using robust motion vector field segmentation. 261-264. 10.1145/319463.319620;

[22] Manikandan, M. & Kumar, Vijay & Narayanadass, Ramadass. (2006). Motion estimation method for video compression - An overview. 5 pp. - 5. 10.1109/WOCN.2006.1666680.[22] Manikandan, M. & Kumar, Vijay & Narayanadass, Ramadass. (2006). Motion estimation method for video compression - An overview. 5 pp. - 5. 10.1109/WOCN.2006.1666680.

Выполняют обновление(каждый k кадр, где k>1, таким образом для каждых последующих кадров получают новые векторы движения.An update is performed (every k frame, where k>1, so for each subsequent frame new motion vectors are obtained.

Выбирается центральная область вычисленного поля векторов mvi, j к которой применяется модель аффинного преобразования, которая детально была описана ранее в настоящем описании, и вычисляются коэффициенты сдвига, поворота, масштабирования. Все коэффициенты вычисляются одновременно. Пример (x, y - координаты, k+1 - текущий кадр, k - предыдущий) для матрицы искомое преобразование координат:The central region of the calculated field of vectors mv i, j is selected, to which the affine transformation model, which was described in detail earlier in this description, is applied, and the shift, rotation, and scaling coefficients are calculated. All coefficients are calculated simultaneously. Example (x, y - coordinates, k+1 - current frame, k - previous) for a matrix the required coordinate transformation:

(8) (8)

Определяют расстояние d2 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования. Процесс определения расстояния от камеры до целевого объекта на основании векторов движения при съемке камерой детально раскрыт в публикацииThe distance d 2 from the camera to the target object is determined based on the calculated zoom factor. The process of determining the distance from the camera to the target object based on motion vectors when shooting with the camera is described in detail in the publication

[23] Ho, Hann Woei & Croon, Guido & Chu, Q.P.. (2017). Distance and velocity estimation using optical flow from a monocular camera. International Journal of Micro Air Vehicles. 9. 198-208. 10.1177/1756829317695566.[23] Ho, Hann Woei & Croon, Guido & Chu, Q. P.. (2017). Distance and velocity estimation using optical flow from a monocular camera. International Journal of Micro Air Vehicles. 9. 198-208. 10.1177/1756829317695566.

Определяют расстояние d2 и меру уверенности R2 расстояния d2 от камеры до целевого объекта на основании вычисленного коэффициента изменения масштаба, на текущем кадре k согласно выражению(11), описанному выше.The distance d 2 and the confidence measure R 2 of the distance d 2 from the camera to the target object are determined based on the calculated zoom factor on the current frame k according to expression (11) described above.

7. (Вариант 2) Инициализируют средство отслеживания для целевого объекта посредством ограничивающего прямоугольника на экране камеры и осуществляют отслеживание целевого объекта на последующих кадрах, и вычисляют коэффициент масштабирования ограничивающего прямоугольника с находящейся в ней целевым объектом.7. (Option 2) Initialize the tracker for the target object using the bounding box on the camera screen and track the target object in subsequent frames, and calculate the scaling factor of the bounding box with the target object located in it.

Определяют расстояние d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом при инициализации средства отслеживания.The distance d 5 from the camera to the target object is determined based on the calculated scaling factor of the bounding rectangle with the target object located in it when the tracker is initialized.

Определяют меру уверенности R5 расстояния d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом при инициализации средства отслеживания согласно выражению (13), описанному ранее в настоящем описании.The confidence measure R 5 of the distance d 5 from the camera to the target object is determined based on the calculated scaling factor of the bounding rectangle with the target object located in it when initializing the tracker according to expression (13) described earlier in this description.

8. (Вариант 3) Определяют расстояние d3 от камеры до целевого объекта на основании данных глубины c помощью сенсоров глубины, определяют меру уверенности R3 расстояния d3 на основании данных глубины c помощью сенсоров глубины.8. (Option 3) Determine the distance d 3 from the camera to the target object based on depth data using depth sensors, determine the confidence level R 3 of the distance d 3 based on depth data using depth sensors.

9. (Вариант 4) Определяют расстояние d4 от камеры до целевого объекта на основании данных сенсоров движения, определяют меру уверенности R4 расстояния d4 на основании данных сенсоров движения.9. (Option 4) The distance d 4 from the camera to the target object is determined based on the motion sensor data, and the confidence level R 4 of the distance d 4 is determined based on the motion sensor data.

10. Выполняют гибридную оценку расстояния от камеры до целевого объекта в текущем кадре k на основании полученных значений расстояния d1,d2,d3,d4,d5 от камеры до целевого объекта и мер уверенности R1,R2,R3,R4,R5, и определяется скорректированное расстояние dh от камеры до целевого объекта в текущем кадре. При этом скорректированное расстояние dh вычисляется из выражения:10. Perform a hybrid estimation of the distance from the camera to the target object in the current framek based on the obtained distance values d1,d2,d3,d4,d5 from camera to target and confidence measures R1,R2,R3,R4,R5, and the adjusted distance dhfrom the camera to the target object in the current frame. In this case, the corrected distance dh is calculated from the expression:

dh=d1 * R1+d2 * R2+d3 * R3+d4 * R4+d5 * R5 (14).d h= d 1 * R 1 +d 2 * R 2 +d 3 * R 3 +d 4 * R 4 +d 5 * R 5 (14).

11. Принимают решение о переключении камеры в режим ближней съемки, если полученное скорректированное расстояние dh меньше предварительно определенного порогового значения K (например, 30 см, но значение может быть и другим). Это пороговое значение зависит от конкретных параметров камеры, используемой при съемке изображения, т.е. на каких расстояниях каждый из режимов (ближней, дальней) может фокусироваться.11. A decision is made to switch the camera to close-up mode if the resulting corrected distance d h is less than a predetermined threshold value K (for example, 30 cm, but the value may be different). This threshold value depends on the specific parameters of the camera used when capturing the image, i.e. at what distances each mode (near, far) can focus.

Ключевое положение 1 : Гибридный алгоритм для оценки расстояния до целевого объекта (со ссылкой на фиг.7А, фиг.7Bb). Key Point 1 : Hybrid algorithm for estimating distance to target object (with reference to Fig. 7A, Fig. 7Bb).

Входные данные для инициализации заявленного способа:Input data for initializing the claimed method:

- данные изображения, например сцены, содержащие целевой объект и полученные с камеры, встроенной в смартфон или подобное устройство, к данным изображения относятся:- image data, for example scenes containing a target object and obtained from a camera built into a smartphone or similar device, image data includes:

- данные изображения на основе YUV или RGB модели и т.п., полученные для текущего k-ого кадра с текущей камеры: режима дальней съемки или режима ближней съемки;- image data based on YUV or RGB model, etc., obtained for the current k-th frame from the current camera: long-range shooting mode or short-range shooting mode;

- данные изображения, полученные с предыдущих кадров в режиме ближней съемки;- image data obtained from previous frames in close shooting mode;

- стерео данные изображения, например, полученные из камеры по технологии dual pixel или PDAF данные изображения, полученные с помощью PDAF сенсоров на матрице камеры устройства, для текущего кадра;- stereo image data, for example, obtained from a camera using dual pixel technology or PDAF image data obtained using PDAF sensors on the device’s camera matrix, for the current frame;

- по выбору, данные движения, полученные, например, с помощью сенсора движения, акселерометра или гироскопа и данные глубины, полученные, например, с помощью сенсора глубины,- optionally, motion data obtained, for example, using a motion sensor, accelerometer or gyroscope and depth data, obtained, for example, using a depth sensor,

- K, M - пороговые значения для входа и выхода из текущего режима, т.е. в данном случае для переключения камеры в режим ближней съемки и в режим дальней съемки, соответственно. Пороговые значения рассчитываются эмпирическим путем, исходя из диапазона оптимальных фокусных расстояний для линзы дальней камеры и линзы ближней камеры при конкретной реализации технологии в камере. В результате проведения экспериментальных исследований и условий комфортного наблюдения для пользователя и на основе проведения подбора оптимальных значений, получены следующие пороговые значения, например, в качестве неограничивающего примера: K=30см и M=35см или K=29см и M=32см. Представленные пороговые значения не ограничиваются представленными значениями и приведены в настоящем раскрытии только в качестве иллюстративного примера.- K, M - threshold values for entering and exiting the current mode, i.e. in this case, to switch the camera to short-range shooting mode and long-range shooting mode, respectively. Threshold values are calculated empirically based on the range of optimal focal lengths for the far camera lens and the near camera lens for a particular camera technology implementation. As a result of experimental studies and comfortable observation conditions for the user and based on the selection of optimal values, the following threshold values were obtained, for example, as a non-limiting example: K=30cm and M=35cm or K=29cm and M=32cm. The presented threshold values are not limited to the values presented and are given in this disclosure only as an illustrative example.

Выходные данные, получаемые в результате выполнения заявленного способа:Output data obtained as a result of executing the claimed method:

T ∈ { режим дальней съемки, режим ближней съемки }- принятие решения о необходимости инициализирования переключения камеры.T ∈ { far shooting mode, close shooting mode } - deciding whether to initiate camera switching.

Последовательность этапов переключения камеры (гибридный алгоритм переключения)Sequence of camera switching stages (hybrid switching algorithm)

B. Режим ближней съемкиB. Close-in Mode

1. Выполняется инициализация функции отслеживания и выполняется вначале нахождение и затем отслеживание целевого объекта, который при инициализации отслеживания выделяется ограничивающим прямоугольником.1. The tracking function is initialized and first finds and then tracks the target object, which is highlighted with a bounding box when tracking is initialized.

Нахождение целевого объекта может выполняться автоматически или непосредственно пользователем посредством нажатия пальцем на экран в зоне целевого объекта. Методы нахождения и отслеживания объекта при съемке камерой широко известны в уровне техники:Finding the target object can be done automatically or directly by the user by pressing a finger on the screen in the area of the target object. Methods for finding and tracking an object when shooting with a camera are widely known in the art:

[18] Zhang, XQ., Jiang, RH., Fan, CX. et al. Advances in Deep Learning Methods for Visual Tracking: Literature Review and Fundamentals. Int. J. Autom. Comput. 18, 311-333 (2021). https://doi.org/10.1007/s11633-020-1274-8;[18] Zhang, X. Q., Jiang, R. H., Fan, C. X. et al. Advances in Deep Learning Methods for Visual Tracking: Literature Review and Fundamentals. Int. J. Autom. Comput. 18, 311-333 (2021). https://doi.org/10.1007/s11633-020-1274-8;

[19] Soleimanitaleb, Zahra & Keyvanrad, Mohammad. (2022). Single Object Tracking: A Survey of Methods, Datasets, and Evaluation Metrics;[19] Soleimanitaleb, Zahra & Keyvanrad, Mohammad. (2022). Single Object Tracking: A Survey of Methods, Datasets, and Evaluation Metrics;

[20] Luo, Wenhan & Xing, Junliang & Milan, Anton & Zhang, Xiaoqing & Liu, Wei & Zhao, Xiaowei & Kim, Tae-Kyun. (2017). Multiple Object Tracking: A Literature Review. Artificial Intelligence. 293. 10.1016/j.artint.2020.103448.[20] Luo, Wenhan & Xing, Junliang & Milan, Anton & Zhang, Xiaoqing & Liu, Wei & Zhao, Xiaowei & Kim, Tae-Kyun. (2017). Multiple Object Tracking: A Literature Review. Artificial Intelligence. 293. 10.1016/j.artint.2020.103448.

2. Определение специального случая использования, который детально раскрыт в Ключевом положении 2. Если специальный случай использования, при котором происходит переключение в режим дальней съемки, не выявлен, в данном случае выполнение способа продолжается2. Definition of a special use case, which is discussed in detail in Key Statement 2. If the special use case in which the switch to the long-range shooting mode occurs is not identified, the method continues in this case

3. Сравниваются данные изображения по меньшей мере двух последовательных кадров и на основании сравнения указанных данных изображения получаем вектора движения mvi, j для каждого пикселя или группы пикселей сцены, включающей целевой объект. Процесс получения векторов движения при съемке камерой детально раскрыт в публикациях:3. The image data of at least two consecutive frames is compared and based on the comparison of the specified image data, motion vectors mv i, j are obtained for each pixel or group of pixels of the scene including the target object. The process of obtaining motion vectors when shooting with a camera is described in detail in the publications:

[21] Heuer, (1999). Global motion estimation in image sequences using robust motion vector field segmentation. 261-264. 10.1145/319463.319620;[21] Heuer, (1999). Global motion estimation in image sequences using robust motion vector field segmentation. 261-264. 10.1145/319463.319620;

[22] Manikandan, M. & Kumar, Vijay & Narayanadass, Ramadass. (2006). Motion estimation method for video compression - An overview. 5 pp. - 5. 10.1109/WOCN.2006.1666680.[22] Manikandan, M. & Kumar, Vijay & Narayanadass, Ramadass. (2006). Motion estimation method for video compression - An overview. 5 pp. - 5. 10.1109/WOCN.2006.1666680.

4. Выполняют обновление каждый кадр k, где k>1, таким образом для каждых последующих кадров получают новые векторы движения.4. Perform an update every frame k, where k>1, thus obtaining new motion vectors for each subsequent frame.

5. Выбирается центральная область вычисленного поля векторов mvi, j к которой применяется модель аффинного преобразования, которая детально была описана ранее в настоящем описании, и вычисляются коэффициенты сдвига, поворота, масштабирования. Все коэффициенты вычисляются одновременно. Пример (x, y - координаты, k+1 - текущий кадр, k - предыдущий кадр) для матрицы искомое преобразование координат:5. The central region of the calculated field of vectors mv i, j is selected, to which the affine transformation model, which was described in detail earlier in this description, is applied, and the shift, rotation, and scaling coefficients are calculated. All coefficients are calculated simultaneously. Example (x, y - coordinates, k+1 - current frame, k - previous frame) for a matrix the required coordinate transformation:

(8) (8)

6.Определяют расстояние d2 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования. Процесс определения расстояния от камеры до целевого объекта на основании векторов движения при съемке камерой детально раскрыт в публикации:6. Determine the distance d 2 from the camera to the target object based on the calculated zoom factor. The process of determining the distance from the camera to the target object based on motion vectors when shooting with a camera is described in detail in the publication:

[23] Ho, Hann Woei & Croon, Guido & Chu, Q.P.. (2017). Distance and velocity estimation using optical flow from a monocular camera. International Journal of Micro Air Vehicles. 9. 198-208. 10.1177/1756829317695566.[23] Ho, Hann Woei & Croon, Guido & Chu, Q. P.. (2017). Distance and velocity estimation using optical flow from a monocular camera. International Journal of Micro Air Vehicles. 9. 198-208. 10.1177/1756829317695566.

7. Определяют расстояние d2 и меру уверенности R2 расстояния d2 от камеры до целевого объекта на основании вычисленного коэффициента изменения масштаба, на текущем кадре k согласно выражению(11), описанному выше.7. Determine the distance d 2 and the measure of confidence R 2 of the distance d 2 from the camera to the target object based on the calculated zoom factor on the current frame k according to expression (11) described above.

8. (Вариант 1) Определяют расстояние d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом при инициализации средства отслеживания согласно выражению (13), описанному ранее в настоящем описании.8. (Option 1) The distance d 5 from the camera to the target object is determined based on the calculated scaling factor of the bounding rectangle with the target object located in it when initializing the tracker according to expression (13) described earlier in this description.

9. (Вариант 2) Вычисление SAD (Sum of Absolute Differences, сумма абсолютных различий) кривых для всей сцены, захваченной камерой на основании стерео данных, полученных (SAD кривая представляет собой кривые на 2D графике: оси X соответствует смещение в количестве пикселей левого изображения относительно правого, оси Y - соответствующая сумма попиксельных разностей между изображениями для выбранного фрагмента; SAD кривые авторы изобретения получают посредством сенсоров, встроенных в мобильный телефон, которые называются dual pixels и содержат информацию о двух картинках (левое и правое изображение объекта с телефона, смартфона или подобного устройства с небольшим сдвигом).9. (Option 2) Calculate SAD (Sum of Absolute Differences) curves for the entire scene captured by the camera based on the stereo data obtained (SAD curve represents curves on a 2D graph: the X axis corresponds to the offset in the number of pixels of the left image relative to the right, Y axis - the corresponding sum of pixel-by-pixel differences between images for the selected fragment; SAD curves are obtained by the authors using sensors built into a mobile phone, which are called dual pixels and contain information about two pictures (left and right image of an object from a phone, smartphone or similar device with a slight shift).

Вычисление диспарантности Dk на основании построенных SAD кривых (диспарантность является точкой локального минимума SAD кривой).Calculation of disparity D k based on constructed SAD curves (disparity is the point of local minimum of the SAD curve).

Из каждой SAD кривой выделяются минимальные значения SAD кривой: глобальный минимум и подминимум, а также другие точки кривой, которые используются для оценки меры уверенности R1 вычисленной диспарантности:From each SAD curve, the minimum values of the SAD curve are extracted: the global minimum and subminimum, as well as other points of the curve, which are used to assess the confidence measure R 1 of the calculated disparity:

(2) (2)

где -уровень сигнала, -уровень шума, -глобальный минимум и -подминимум. Формула (1) характеризует аппроксимацию соотношения сигнал/шум с помощью глобального минимума и подминимума SAD-кривойWhere - signal level, -noise level, -global minimum and -subminimum Formula (1) characterizes the approximation of the signal-to-noise ratio using the global minimum and subminimum of the SAD curve

Определяют расстояние(d1) от камеры до целевого объекта на основании вычисленной диспарантности Dk для текущего кадра (вычисление расстояния на основании диспарантности детально описано в патенте [7] RU2778355C2).The distance (d 1 ) from the camera to the target object is determined based on the calculated disparity D k for the current frame (calculation of the distance based on disparity is described in detail in patent [7] RU2778355C2).

10. (Вариант 3) Определяют расстояние d3 от камеры до целевого объекта на основании данных глубины c помощью сенсоров глубины, определяют меру уверенности R3 расстояния d3 на основании данных глубины c помощью сенсоров глубины.10. (Option 3) Determine the distance d 3 from the camera to the target object based on depth data using depth sensors, determine the degree of confidence R 3 of the distance d 3 based on depth data using depth sensors.

11. (Вариант 4) Определяют расстояние d4 от камеры до целевого объекта на основании данных сенсоров движения, определяют меру уверенности R4 расстояния d4 на основании данных сенсоров движения.11. (Option 4) The distance d 4 from the camera to the target object is determined based on the motion sensor data, and the confidence level R 4 of the distance d 4 is determined based on the motion sensor data.

12. Выполняют гибридную оценку расстояния от камеры до целевого объекта в текущем кадре k на основании полученных значений расстояний d1,d2,d3,d4,d5 от камеры до целевого объекта и мер уверенности R1,R2,R3,R4,R5, и определяется скорректированное расстояние dh от камеры до целевого объекта в текущем кадр. При этом скорректированное расстояние dh вычисляется из выражения:12. Perform a hybrid estimation of the distance from the camera to the target object in the current framek based on the obtained values of distances d1,d2,d3,d4,d5 from camera to target and confidence measures R1,R2,R3,R4,R5, and the adjusted distance dhfrom the camera to the target object in the current frame. In this case, the corrected distance dh calculated from the expression:

dh=d1 * R1+d2 * R2+d3 * R3+d4 * R4+d5 * R5 (14).d h= d 1 * R 1 +d 2 * R 2 +d 3 * R 3 +d 4 * R 4 +d 5 * R 5 (14).

13. Принимают решение о переключении камеры из режима ближней съемки в режим дальней съемки, если полученное скорректированное расстояние dh больше предварительно определенного порогового значения M (например, 35 см, но значение может быть и другим). Это пороговое значение зависит от конкретных параметров камеры, используемой при съемке изображения, т.е. на каких расстояниях каждый из режимов (ближней, дальней) может фокусироваться.13. A decision is made to switch the camera from close shooting mode to long shooting mode if the resulting corrected distance d h is greater than a predetermined threshold value M (for example, 35 cm, but the value may be different). This threshold value depends on the specific parameters of the camera used when capturing the image, i.e. at what distances each mode (near, far) can focus.

Ключевое положение 2 (со ссылкой на фиг.7A, фиг.7B)Key position 2 (with reference to Fig. 7A, Fig. 7B)

Обработка специального случая (предварительно определенного случая) использования. На этапе определения специального случая использования Ключевого положения 1 для режима дальней съемки работы камеры выполняется обработка специального случая использования.Handling a special case (predefined case) of use. In the step of determining the special use case of Key Position 1 for the long-range shooting mode of the camera operation, the special use case is processed.

Входные данные:Input data:

Изображение Ik на кадре kImage I k on frame k

Мера уверенности R1 и диспарантность Dk, рассчитанная на этапах Ключевого положения 1.A measure of confidence R 1 and disparity D k calculated at the stages of Key Point 1.

По выбору, результат работы средства отслеживания (ограничивающий прямоугольник и наличие или отсутствие целевого объекта на кадре k).Optionally, the output of the tracker (the bounding box and the presence or absence of the target object at frame k).

По выбору, векторы движения (GMV данные), полученные на этапах Ключевого положения 1.Optionally, motion vectors (GMV data) obtained during Key Point 1 steps.

По выбору, данные движения, полученные, например, с помощью сенсора движения, акселерометра или гироскопа и данные глубины, полученные, например, с помощью сенсора глубины.Optionally, motion data obtained, for example, using a motion sensor, accelerometer or gyroscope, and depth data, obtained, for example, using a depth sensor.

Выходные данные:Output:

Ui-i-случай, определенный из предварительно определенных случаев U использования.Ui-i case defined from predefined U use cases.

Последовательность этапов обработки специального случая использования(алгоритм обработки)Sequence of stages for processing a special use case (processing algorithm)

А. Режим дальней съемки(широкоугольный режим)(см.фиг.7А)A. Long-range shooting mode (wide-angle mode) (see Fig. 7A)

1. Считают функцию fR(R1, Dk, Ik), которая зависит от данных: мера уверенности R1, диспарантность Dk, изображение Ik c k-ого кадра, полученных на этапах Ключевого положения 1. По выбору, она также может зависеть от данных: результат работы средства отслеживания (ограничивающий прямоугольник и наличие или отсутствие целевого объекта на кадре k), векторы движения (GMV данные), полученные на этапах Ключевого положения 1, данные движения, полученные, например, с помощью сенсора движения, акселерометра или гироскопа и данные глубины, полученные, например, с помощью сенсора глубины.1. Calculate the function f R (R 1 , D k , I k ), which depends on the data: confidence measure R 1 , disparity D k , image I k c of the k-th frame obtained at the stages of Key Position 1 . Optionally, it can also depend on data: the output of the tracker (bounding box and the presence or absence of the target object in frame k), motion vectors (GMV data) obtained during the stages of Key Statement 1, motion data obtained from e.g. using a motion sensor, accelerometer or gyroscope and depth data obtained, for example, using a depth sensor.

В простом случае функция fR может быть равна R1.In a simple case, the function f R can be equal to R 1 .

fR(R1, Dk, Ik)=R1 f R (R 1 , D k , I k )=R 1

Результат функции fR(R1, Dk, Ik) сравнивают с порогом Rt.The result of the function f R (R 1 , D k , I k ) is compared with the threshold Rt.

А) если результат функции fR(R1, Dk, Ik) превышает порог, т.е. fR(R1, Dk, Ik)) > Rt, делается вывод о стандартном случае использования,A) if the result of the function f R (R 1 , D k , I k ) exceeds the threshold, i.e. f R (R 1 , D k , I k )) > R t , a standard use case is concluded,

B) если результат функции fR(R1, Dk, Ik) не превышает порог, т.е. fR(R1, Dk, Ik) ≤ Rt, делается вывод об специальном случае использования, а именно случай безтекстурного объекта на однотонном фоне или однотонного фона. Например, съемки однотонной стены без рисунка или стола без предметов. Порог Rt подбирается на основе данных в экспериментах. Например, если результат функции fR(R1, Dk, Ik) измеряется от 0 до 1, значение Rt может быть 0.8.B) if the result of the function f R (R 1 , D k , I k ) does not exceed the threshold, i.e. f R (R 1 , D k , I k ) ≤ R t , a conclusion is made about a special use case, namely the case of a textureless object on a plain background or a plain background. For example, shooting a plain wall without a pattern or a table without objects. The Rt threshold is selected based on experimental data. For example, if the result of the function f R (R 1 , D k , I k ) measures from 0 to 1, the value of Rt could be 0.8.

2. По выбору, кроме случая однотонного фона также распознается случай низкой освещенности посредством другой функции fR1(R1, Dk, Ik) от тех же исходных данных.2. Optionally, in addition to the case of a plain background, the case of low illumination is also recognized by means of another function f R1 (R 1 , D k , I k ) from the same initial data.

Следует отметить, что использование гибридной оценки расстояния решает проблему неточности дистанции в таких случаях как: целевой объект представляет собой прозрачный объект, целевой объект представляет собой отражающий объект, съемка целевого объекта, находящегося за стеклом, низкая освещенность или эффект белой стены, когда камера смотрит на однородный фон, локальные перемещения объекта при неподвижном заднем фоне, поворот или дрожание камеры.It should be noted that using hybrid distance estimation solves the problem of distance inaccuracy in cases such as: the target object is a transparent object, the target object is a reflective object, shooting a target object behind glass, low light conditions or a white wall effect when the camera is looking at homogeneous background, local movement of the object with a stationary background, camera rotation or shake.

3. Продолжается переход на этапы Ключевого положения 1 согласно фиг.7A, 7B.3. The transition continues to the stages of Key Statement 1 according to Figs. 7A, 7B.

Ключевое положение 2 (со ссылкой на фиг.7a, фиг.7b)Key position 2 (with reference to Fig.7a, Fig.7b)

Обработка специального (предварительно определенного) случая использования. На этапе определения специального случая использования Ключевого положения 1(см. фиг.7B) для режима ближней съемки работы камеры выполняется обработка специального случая использования.Handling a special (predefined) use case. In the step of determining the special use case of Key Position 1 (see FIG. 7B) for the close shooting mode of the camera operation, the special use case is processed.

Входные данные:Input data:

Изображение Ik на кадре kImage I k on frame k

Надежность R5, полученная на этапах Ключевого положения 1 Reliability R 5 obtained at the stages of Key Statement 1

Результат работы средства отслеживания (ограничивающий прямоугольник и наличие или отсутствие целевого объекта на кадре N)Tracker output (bounding box and presence or absence of target object at frame N)

По выбору, векторы движения (GMV данные), полученные на этапах Ключевого положения 1.Optionally, motion vectors (GMV data) obtained during Key Point 1 steps.

По выбору, данные движения, полученные, например, с помощью сенсора движения, акселерометра или гироскопа и данные глубины, полученные, например, с помощью сенсора глубины.Optionally, motion data obtained, for example, using a motion sensor, accelerometer or gyroscope, and depth data, obtained, for example, using a depth sensor.

Выходные данные:Output:

Ui-i-случай, определенный из предварительно определенных случаев U использования.Ui-i case defined from predefined U use cases.

Последовательность этапов обработки специального случая использования(алгоритм обработки)Sequence of stages for processing a special use case (processing algorithm)

B. Режим ближней съемки (сверхширокоугольный режим)(см.фиг.7B).B. Close-in mode (Ultra Wide Angle mode) (see Fig. 7B).

1. Инициализация процесса отслеживания целевого объекта с использованием функции ограничивающего прямоугольника для контура целевого объекта.1. Initiate the target object tracking process using the bounding box function for the target object's outline.

Определение ограничивающего прямоугольника при инициализации при процедурах отслеживания объекта широко известно в уровне техники, и может быть выполнено: посредством сегментации изображения, посредством выбора заданного целевого объекта вручную пользователем, инициирования по центру ограничивающего прямоугольника, и раскрыто в следующих источниках информации:Determining the initialization bounding box in object tracking procedures is widely known in the art, and can be accomplished by: image segmentation, manual selection of a given target object by the user, initiation at the center of the bounding box, and is disclosed in the following references:

[25] He, Mengqi & Zhang, Jing & Yu, Wenxin. (2022). Salient Object Detection via Bounding-box Supervision.[25] He, Mengqi & Zhang, Jing & Yu, Wenxin. (2022). Salient Object Detection via Bounding-box Supervision.

2. По выбору, использование функции автоматического отслеживания может быть выполнено после преобразования картинки (изображения объекта): из изображения в режиме дальней съемки в изображение в режиме ближней съемки, а именно ограничивающий прямоугольник в режиме дальней съемки (полученный доступным в режиме дальней съемки трекером), преобразуется в ограничивающий прямоугольник в режиме ближней съемки посредством функции, преобразующей изображение в режиме дальней съемки в изображение в режиме ближней съемки. Пример автоматического отслеживания объекта при съемке изображения детально раскрыт в [7] патенте RU2778355C2, опубл. 17.08.2022 г., того же патентообладателя (САМСУНГ ЭЛЕКТРОНИКС КО., ЛТД., KR), что и патентообладатель заявленного изобретения.2. Optionally, the use of the automatic tracking function can be performed after converting the image (image of the object): from the image in the far shooting mode to the image in the near shooting mode, namely the bounding box in the long shooting mode (obtained by the tracker available in the long shooting mode) , is converted to a bounding box in close mode by a function that converts a far image into a close image. An example of automatic object tracking when taking an image is disclosed in detail in [7] patent RU2778355C2, publ. 08/17/2022, the same patent holder (SAMSUNG ELECTRONICS CO., LTD., KR) as the patent holder of the claimed invention.

3. По выбору, построение поля векторов движения и обновление поля векторов движения (GMV данные) и данных отслеживания каждый кадр k, где k>1, таким образом для каждых последующих кадров получают новые векторы движения.3. Optionally, constructing a field of motion vectors and updating the field of motion vectors (GMV data) and tracking data every frame k, where k>1, thus obtaining new motion vectors for each subsequent frame.

4. Проверка, если при отслеживании потерян целевой объект:4. Check if the target object is lost during tracking:

Средство отслеживания отслеживает объект. Если ограничивающий прямоугольник выходит за границы кадра полностью, устанавливается потеря целевого объекта в текущем кадре. В случае его потери:The tracker tracks the object. If the bounding box extends completely outside the frame, the target object is set to be lost in the current frame. In case of its loss:

По выбору, проверяется изменение сцены с помощью поля векторов движения.Optionally, scene changes are checked using a field of motion vectors.

По выбору, надежность R5, полученная на этапах Ключевого положения 1, может быть использована для подтверждения или опровержения потери объекта.Optionally, the reliability R 5 obtained at the stages of Key Point 1 can be used to confirm or refute the loss of an object.

По выбору, после потери объекта может быть дополнительна проведена проверка гибридной оценки dh, полученной на этапах Ключевого положения 1, если при ее вычислении использовались как минимум одна из оценок d1 и d3. Optionally, after the loss of an object, an additional check of the hybrid estimate d h obtained at the stages of Key Point 1 can be carried out, if at least one of the estimates d 1 and d 3 was used in its calculation.

При подтверждении случая потери объекта, происходит переключение в режим дальней съемки.When the case of loss of an object is confirmed, it switches to the long-range shooting mode.

5. По выбору, данные движения могут использоваться для определения случая поворота камеры относительно объекта.5. Optionally, motion data can be used to determine when the camera is rotated relative to the object.

6. Продолжается переход на этапы Ключевого положения 1 согласно фиг.7A, 7B.6. The transition continues to the stages of Key Statement 1 according to Figs. 7A, 7B.

Заявленное изобретение обеспечивает использование устройства и способа переключения режимов работы камеры с учетом следующих функциональностей:The claimed invention provides the use of a device and method for switching camera operating modes, taking into account the following functionality:

1) Процесс переключения режимов работы камеры выполняется плавно и точно и является последовательным при выполнении переключения, поскольку для принятия решения о переключении используется различная информация, получаемая из множества различных сенсоров.1) The camera's switching process is smooth and precise, and is consistent throughout the switching process because different information from many different sensors is used to make the switching decision.

2) Процесс переключения камеры защищен от нежелательных переключений камеры и дрожания или мельканий изображений, поскольку в изобретении учитываются соответствующие пороговые значения для перевода камеры в режим дальней съемки и в режим ближней съемки.2) The camera switching process is protected from unwanted camera switches and image jitter or flickering because the invention takes into account appropriate thresholds for switching the camera to the far shooting mode and the close shooting mode.

3) Способ и устройство автоматического переключения режимов работы камеры обеспечивают стабильное переключение камеры при предварительно определенных случаях использования, таких как, выход целевого объекта из кадра, низкая освещенность/эффект белой стены, когда камера смотрит на однородный фон, локальные перемещения объекта при неподвижном заднем фоне, поворот или дрожание камеры.3) The method and device for automatically switching camera operating modes ensure stable camera switching in predetermined use cases, such as the target object leaving the frame, low light/white wall effect when the camera looks at a uniform background, local object movements with a stationary background , rotation or camera shake.

4) Принятие решения о переключении режима камеры в заявленном изобретения выполняется в реальном времени благодаря расширенному использованию различных источников информации и высокой оптимизации процессов обработки полученных данных.4) The decision to switch the camera mode in the claimed invention is made in real time thanks to the expanded use of various sources of information and highly optimized processes for processing the received data.

5) Решения, реализуемые в заявленном способе и устройстве переключения режимов работы камеры, не требует больших вычислительных ресурсов для работы на мобильном телефоне.5) The solutions implemented in the claimed method and device for switching camera operating modes do not require large computing resources to operate on a mobile phone.

Далее со ссылкой на фиг.10 будет описано устройство автоматического переключения режима работы камеры, выполненное с возможностью реализации этапов способа, и содержит:Next, with reference to Fig. 10, a device for automatically switching the camera operating mode will be described, configured to implement the steps of the method, and contains:

-блок ввода-вывода 1, включающий: графический процессор 2, дисплей 3, камеру 4, блок 5 интерфейса ввода-вывода, включающий интерфейс ввода и интерфейс вывода(не показаны), и- an input/output unit 1 including: a graphics processor 2, a display 3, a camera 4, an input/output interface unit 5 including an input interface and an output interface (not shown), and

-блок 6 вычислений, содержащий центральный процессор 7, представляет собой части чипсета (системы на кристалле, system on a chip, SoC), например Qualcomm Snapdragon, Nvidia Orin, Intel Quark, Samsung Exynos, Apple Silicon, а также контроллер памяти 8, системную память 9 и накопитель 10.- computing unit 6 containing the central processor 7, which consists of parts of a chipset (system on a chip, SoC), for example Qualcomm Snapdragon, Nvidia Orin, Intel Quark, Samsung Exynos, Apple Silicon, as well as a memory controller 8, system memory 9 and storage 10.

При этом камера 4 представляет мультикамерную систему, включающую фото и/или видеокамеру, содержащую блок формирования изображений, включающий линзы ближней съемки и дальней съемки камеры, матрицу сенсоров, представляющую собой матрицу PDAF сенсоров, обеспечивающую получение стереоданных при работе камеры, при этом камера выполнена с возможностью захвата целевого объекта и/или целевой сцены и передачи данных изображения целевого объекта и/или целевой сцены в системную память блока вычислений через блок 5 интерфейса ввода-вывода. Пример камеры, используемой в настоящем решении, детально раскрыта в публикациях:In this case, camera 4 represents a multi-camera system, including a photo and/or video camera, containing an image forming unit, including lenses for close shooting and long-range shooting of the camera, a sensor matrix, which is a matrix of PDAF sensors, providing stereo data when the camera is operating, while the camera is made with the ability to capture a target object and/or target scene and transfer image data of the target object and/or target scene to the system memory of the computing unit through the input-output interface unit 5. An example of a camera used in this solution is described in detail in the following publications:

[26] A. S. Olagoke, H. Ibrahim and S. S. Teoh, "Literature Survey on Multi-Camera System and Its Application," in IEEE Access, vol. 8, pp. 172892-172922, 2020, doi: 10.1109/ACCESS.2020.3024568.)[26] A. S. Olagoke, H. Ibrahim and S. S. Teoh, “Literature Survey on Multi-Camera System and Its Application,” in IEEE Access, vol. 8, pp. 172892-172922, 2020, doi: 10.1109/ACCESS.2020.3024568.)

[27] -US20170082823A1, IPC G02B27/64, опубл.23.03.2017г.[27] -US20170082823A1, IPC G02B27/64, publ. 03/23/2017.

Блок 6 вычислений выполнен с возможностью вычисления расстояния до целевого объекта и/или целевой сцены и выбора между линзой ближней и дальней съемки камеры 4, при этом полученное расстояние и соответствующий ей тип линзы (широкоугольная или сверхширокоугольная линза) передаются в системную память 9 и через блок 5 интерфейса ввода-вывода в камеру 4 для осуществления автоматического переключения режимов работы камеры 4.The calculation block 6 is configured to calculate the distance to the target object and/or target scene and select between the near and far lens of the camera 4, while the resulting distance and the corresponding lens type (wide-angle or ultra-wide-angle lens) are transferred to the system memory 9 and through the block 5 input/output interface to camera 4 for automatically switching operating modes of camera 4.

Камера 4 выполнена с возможностью передачи графической информации через блок 5 интерфейса ввода-вывода и графический процессор 2 на дисплей 3 устройства.The camera 4 is configured to transmit graphic information through the input-output interface unit 5 and the graphics processor 2 to the display 3 of the device.

Дисплей 3 устройства выполнен с возможностью визуализации целевого объекта и/или целевой сцены в режиме реального времени.The display 3 of the device is configured to visualize the target object and/or target scene in real time.

Блок 1 ввода-вывода дополнительно содержит сенсоры 11 движения (акселерометр и/или гироскоп и/или магнитометр) и сенсоры глубины (RaDAR и/или LiDAR и/или ToF-сенсор и/или UWB-сенсор). The input/output block 1 additionally contains motion sensors 11 (accelerometer and/or gyroscope and/or magnetometer) and depth sensors (RaDAR and/or LiDAR and/or ToF sensor and/or UWB sensor).

Графический процессор 2 выполнен с возможностью обработки графической информации, полученной с камеры 4 устройства.The graphics processor 2 is configured to process graphic information received from the camera 4 of the device.

Накопитель 10 выполнен с возможностью хранения фото- и видеоизображений, полученных камерой 4 устройства и может представлять собой твердотельный накопитель (SSD).The drive 10 is configured to store photo and video images obtained by the camera 4 of the device and may be a solid-state drive (SSD).

Устройство автоматического переключения режимов работы камеры согласно изобретению, выполнено с возможностью встраивания в одно из: смартфон, планшетный компьютер, фото- и видеокамера.The device for automatically switching camera operating modes according to the invention is designed to be built into one of: a smartphone, a tablet computer, a photo and video camera.

Промышленная применимостьIndustrial applicability

Устройство и способ автоматического переключения режимов работы камеры могут использоваться для фото- и видеосъемки камерами смартфонов, а также в планшетных компьютерах под управлением операционных сиcтем Android, iOS, HarmonyOS и подобных системах, а также в других подобных устройствах, в которых имеется потребность к обеспечению автоматического переключения режимов работы камеры.The device and method for automatically switching camera operating modes can be used for photo and video shooting with smartphone cameras, as well as in tablet computers running Android, iOS, HarmonyOS and similar operating systems, as well as in other similar devices that require automatic switching camera operating modes.

Claims (76)

1. Способ автоматического переключения режимов работы камеры, содержащий следующие этапы, при которых:1. A method for automatically switching camera operating modes, containing the following steps: - предварительно захватывают изображение сцены, включающей целевой объект, подлежащий отслеживанию, в одном из режимов: режима ближней, режима дальней съемки, - preliminarily capture an image of the scene, including the target object to be tracked, in one of the modes: near mode, long-range shooting mode, - по выбору, обеспечивают получение данных по меньшей мере одного из: сенсоров глубины, сенсоров движения,- optionally, provide data from at least one of: depth sensors, motion sensors, - обеспечивают получение по меньшей мере одного из: стереоданных, данных изображения по меньшей мере в двух последовательных кадрах в одном из режимов: режима ближней съемки, режима дальней съемки,- provide receipt of at least one of: stereo data, image data in at least two consecutive frames in one of the modes: close shooting mode, long shooting mode, при получении стереоданных: when receiving stereo data: - определяют диспарантность Dk сцены, включающей целевой объект, захваченной камерой, на основании полученных стереоданных в определенный момент времени для каждого текущего кадра,- determine the disparity D k of the scene, including the target object, captured by the camera, based on the obtained stereo data at a certain point in time for each current frame, - определяют меру уверенности R1 полученной диспарантности Dk на основании полученных стереоданных,- determine the measure of confidence R 1 of the obtained disparity D k based on the obtained stereo data, - определяют расстояние d1 от камеры до целевого объекта на основании определенной диспарантности Dk для текущего кадра,- determine the distance d 1 from the camera to the target object based on a certain disparity D k for the current frame, при получении данных изображения: when receiving image data: - сравнивают данные изображения по меньшей мере двух последовательных кадров и на основании сравнения указанных данных изображения, вычисляют поле векторов движения на сцене, включающей целевой объект, захваченной камерой,- comparing image data of at least two consecutive frames and, based on the comparison of said image data, calculating a field of motion vectors in the scene including the target object captured by the camera, - вычисляют по меньшей мере один из: коэффициента сдвига, коэффициента поворота, коэффициента масштабирования сцены на основании вычисленного поля векторов движения сцены,- calculating at least one of: a shift coefficient, a rotation coefficient, a scene scaling factor based on the calculated field of scene motion vectors, - по выбору, инициализируют средство отслеживания для целевого объекта для текущего кадра, осуществляют отслеживание целевого объекта на последующих кадрах и вычисляют коэффициент масштабирования ограничивающего прямоугольника камеры с находящимся в нем целевым объектом в процессе отслеживания для каждого кадра,- optionally, initialize the tracker for the target object for the current frame, track the target object on subsequent frames and calculate the scaling factor of the bounding rectangle of the camera with the target object located in it in the tracking process for each frame, - определяют выход целевого объекта из кадра и в случае, если выход целевого объекта из кадра не выявлен:- determine the exit of the target object from the frame and in the event that the exit of the target object from the frame is not detected: - определяют расстояние d2 от камеры до целевого объекта на основании коэффициента масштабирования, полученного на основании вычисленного поля векторов движения,- determine the distance d 2 from the camera to the target object based on the scaling factor obtained from the calculated field of motion vectors, - определяют меру уверенности R2 расстояния d2 от камеры до целевого объекта,- determine the measure of confidence R 2 of the distance d 2 from the camera to the target object, - при получении данных с сенсоров глубины определяют расстояние d3 от камеры до целевого объекта на основании данных глубины c помощью сенсоров глубины и определяют меру уверенности R3 расстояния d3 на основании данных глубины c помощью сенсоров глубины,- when receiving data from depth sensors, the distance d 3 from the camera to the target object is determined based on the depth data using depth sensors and the confidence level R 3 of the distance d 3 is determined based on the depth data using depth sensors, - при получении данных с сенсоров движения определяют расстояние d4 от камеры до целевого объекта на основании данных сенсоров движения и определяют меру уверенности R4 расстояния d4 на основании данных сенсоров движения,- when receiving data from motion sensors, the distance d 4 from the camera to the target object is determined based on the motion sensor data and the confidence level R 4 of the distance d 4 is determined based on the motion sensor data, - при инициализации средства отслеживания определяют расстояние d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом, - upon initialization, the tracker determines the distance d 5 from the camera to the target object based on the calculated scaling factor of the bounding rectangle with the target object located in it, - при инициализации средства отслеживания определяют меру уверенности R5 расстояния d5 от камеры до целевого объекта на основании вычисленного коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом и- upon initialization, the tracking means determine the confidence measure R 5 of the distance d 5 from the camera to the target object based on the calculated scaling factor of the bounding rectangle with the target object located in it and - выполняют гибридную оценку расстояния от камеры до целевого объекта в текущем кадре на основании полученных значений расстояния d1, d2, d3, d4, d5 от камеры до целевого объекта и мер уверенности R1, R2, R3, R4, R5 и определяется скорректированное расстояние dh от камеры до целевого объекта в текущем кадре,- perform a hybrid assessment of the distance from the camera to the target object in the current frame based on the obtained distance values d1,d2,d3,d4, d5 from camera to target and confidence measures R1, R2, R3, R4, R5 and the adjusted distance dhfrom the camera to the target object in the current frame, - принимают решение о переключении камеры в режим ближней съемки или в режим дальней съемки на основании скорректированного расстояния dh.- decide whether to switch the camera to the close shooting mode or to the long shooting mode based on the adjusted distance d h . 2. Способ по п.1, в котором при нахождении камеры в режиме дальней съемки, если полученное скорректированное расстояние dh меньше предварительно определенного порогового значения, принимают решение о переключении камеры в режим ближней съемки.2. The method according to claim 1, in which when the camera is in the long-range shooting mode, if the resulting adjusted distance d h is less than a predetermined threshold value, a decision is made to switch the camera to the close-range shooting mode. 3. Способ по п.1, в котором при нахождении камеры в режиме в ближней съемки, если полученное скорректированное расстояние dh больше предварительно определенного порогового значения, принимают решение о переключении камеры в режим дальней съемки.3. The method according to claim 1, in which when the camera is in the short-range shooting mode, if the resulting adjusted distance d h is greater than a predetermined threshold value, a decision is made to switch the camera to the long-range shooting mode. 4. Способ по п.1, в котором данные изображения представляют собой одно из RGB, YUV и CMYK данных.4. The method of claim 1, wherein the image data is one of RGB, YUV and CMYK data. 5. Способ по п. 1, в котором стереоданные получают посредством PDAF сенсоров матрицы камеры с технологией Dual Pixel.5. The method according to claim 1, in which stereo data is obtained using PDAF sensors of a camera matrix with Dual Pixel technology. 6. Способ по п.1, в котором значение диспарантности Dk для выбранного целевого объекта в текущем кадре определяется посредством PDAF данных, полученных матрицей сенсоров камеры, как локальный минимум SAD кривой.6. The method according to claim 1, in which the disparity value D k for the selected target object in the current frame is determined by PDAF data obtained by the camera sensor matrix as the local minimum of the SAD curve. 7. Способ по п.6, в котором для определения диспарантности Dk для выбранного целевого объекта в текущем кадре на основе полученных PDAF данных, представляющих собой правое и левое изображение целевого объекта, полученных матрицей сенсоров камеры, рассчитывается сумма абсолютных различий, как абсолютная разность между пикселями левого и правого изображений, на основе которых строятся SAD кривые.7. The method according to claim 6, in which to determine the disparity D k for the selected target object in the current frame based on the received PDAF data, representing the right and left images of the target object obtained by the camera sensor matrix, the sum of absolute differences is calculated as the absolute difference between the pixels of the left and right images, on the basis of which SAD curves are constructed. 8. Способ по п. 1, в котором скорректированное расстояние dh определяется на основании полученных значений расстояний d1, d2, d3, d4, d5 от камеры до целевого объекта и мер уверенности R1, R2, R3, R4, R5 для текущего кадра из выражения согласно выражению8. The method according to claim 1, in which the corrected distance d h is determined based on the obtained values of distances d 1 , d 2 , d 3 , d 4 , d 5 from the camera to the target object and confidence measures R 1 , R 2 , R 3 , R 4 , R 5 for the current frame from the expression according to the expression dh=d1 * R1+d2 * R2+d3 * R3+d4 * R4+d5 * R5.d h= d 1 * R 1 +d 2 * R 2 +d 3 * R 3 +d 4 * R 4 +d 5 * R 5 . 9. Способ по одному из пп. 1, 5-8, в котором мера уверенности R1 для текущего кадра рассчитывается на основании данных SAD кривых.9. Method according to one of paragraphs. 1, 5-8, in which the measure of confidence is R1for the current frame calculated based on SAD curve data. 10. Способ по п.9, в котором мера уверенности R1 для текущего кадра определяется из выражения10. The method according to claim 9, in which the confidence measure R 1 for the current frame is determined from the expression R1 , R 1 , где - уровень сигнала, - уровень шума, - глобальный минимум и - подминимум SAD кривой. Where - signal level, - noise level, - global minimum and - subminimum of the SAD curve. 11. Способ по одному из пп. 1, 5-8, в котором мера уверенности R2 для текущего кадра рассчитывается на основе данных поля векторов и последующего аффинного преобразования поля векторов.11. Method according to one of paragraphs. 1, 5-8, in which the measure of confidence is R2for the current frame is calculated based on the vector field data and the subsequent affine transformation of the vector field. 12. Способ по одному из пп. 1, 5-8, в котором мера уверенности R3 для текущего кадра характеризует аппроксимацию соотношения сигнал/шум, полученного на основании данных сенсора глубины.12. Method according to one of paragraphs. 1, 5-8, in which the measure of confidence is R3for the current frame characterizes the approximation of the signal-to-noise ratio obtained based on depth sensor data. 13. Способ по п.12, в котором мера уверенности R3 для текущего кадра определяется из выражения13. The method according to claim 12, in which the confidence measure R3 for the current frame determined from the expression R3=100x ,R 3 =100x , где R3 - мера уверенности, YS - уровень сигнала, YN - уровень шума. where R 3 is a measure of confidence, Y S is the signal level, Y N is the noise level. 14. Способ по одному из пп. 1, 5-8, в котором мера уверенности R4 для текущего кадра характеризует аппроксимацию соотношения сигнал/шум, полученного на основании данных по меньшей мере одного сенсора движения.14. Method according to one of paragraphs. 1, 5-8, in which the measure of confidence is R4for the current frame characterizes the approximation of the signal-to-noise ratio obtained based on data from at least one motion sensor. 15. Способ по п.14, в котором мера уверенности R4 для текущего кадра определяется из выражения15. The method according to claim 14, in which the confidence measure R4 for the current frame determined from the expression R4=100x ,R 4 =100x , где R - мера уверенности, YS - уровень сигнала, YN - уровень шума. where R is a measure of confidence, Y S is the signal level, Y N is the noise level. 16. Способ по одному из пп. 1, 5-8, в котором мера уверенности R5 рассчитывается на основе результатов работы средства отслеживания.16. Method according to one of paragraphs. 1, 5-8, in which the confidence measure R 5 is calculated based on the results of the tracker. 17. Способ по п.1, в котором расстояние d1 от камеры до целевого объекта определяют на основании определенной диспарантности Dk для текущего кадра. 17. The method according to claim 1, in which the distance d 1 from the camera to the target object is determined based on a certain disparity D k for the current frame. 18. Способ по п.1, в котором расстояние d2 от камеры до целевого объекта определяют на основании определенного коэффициента масштабирования для текущего кадра. 18. The method according to claim 1, in which the distance d 2 from the camera to the target object is determined based on a certain zoom factor for the current frame. 19. Способ по п.1, в котором расстояние d3 от камеры до целевого объекта определяют на основании данных глубины c помощью сенсоров глубины. 19. The method according to claim 1, in which the distance d 3 from the camera to the target object is determined based on depth data using depth sensors. 20. Способ по п.1, в котором расстояние d4 от камеры до целевого объекта определяют на основании данных движения c помощью сенсоров движения.20. The method according to claim 1, in which the distance d 4 from the camera to the target object is determined based on motion data using motion sensors. 21. Способ по п.1, в котором расстояние d5 от камеры до целевого объекта определяется на основании коэффициента масштабирования ограничивающего прямоугольника с находящимся в нем целевым объектом.21. The method according to claim 1, in which the distance d 5 from the camera to the target object is determined based on the scaling factor of the bounding rectangle with the target object located in it. 22. Способ по п.21, в котором вычисляют коэффициент масштабирования ограничивающего прямоугольника на экране камеры с находящейся в нем целевым объектом для текущего кадра k как соотношение размеров ограничивающего прямоугольника текущего кадра и предыдущего кадра.22. The method according to claim 21, in which the scaling factor of the bounding rectangle on the camera screen with the target object located in it is calculated for the current frame k as the ratio of the sizes of the bounding rectangle of the current frame and the previous frame. 23. Способ по п.1, в котором дополнительно, по выбору, определяют предварительно определенные случаи работы камеры при захвате целевого объекта в текущем кадре, при этом к указанным случаям относятся по меньшей мере одно из: целевой объект представляет собой прозрачный объект, целевой объект представляет собой отражающий объект, съемка целевого объекта, находящегося за стеклом, низкая освещенность или эффект белой стены, когда камера смотрит на однородный фон, локальные перемещения объекта при неподвижном заднем фоне, поворот или дрожание камеры.23. The method of claim 1, further optionally defining predetermined cases of camera operation when capturing a target object in the current frame, wherein said cases include at least one of: the target object is a transparent object, the target object represents a reflective object, shooting a target object behind glass, low light or white wall effect when the camera is looking at a uniform background, local subject movement with a stationary background, camera rotation or shake. 24. Способ по одному из пп.1-23, в котором при работе камеры в режиме дальней съемки или в режиме ближней съемки вычисление по меньшей мере одного из: коэффициента сдвига, коэффициента поворота, коэффициента масштабирования сцены выполняется на основе аффинного преобразования вычисленного поля векторов движения сцены.24. The method according to one of claims 1 to 23, in which when the camera is operating in the long-range shooting mode or in the close-range shooting mode, the calculation of at least one of: the shift coefficient, the rotation coefficient, the scene scaling coefficient is performed based on an affine transformation of the calculated field of vectors stage movements. 25. Способ по одному из пп.1-23, в котором при работе камеры в режиме дальней съемки определяют меру уверенности R2 расстояния d2 от камеры до целевого объекта на основании на основании вычисленного поля векторов движения сцены и аффинного преобразования этого поля векторов.25. The method according to one of claims 1 to 23, in which when the camera is operating in long-range shooting mode, the confidence measure R 2 of the distance d 2 from the camera to the target object is determined based on the calculated field of scene motion vectors and the affine transformation of this vector field. 26. Способ по одному из пп.1-25, в котором при работе камеры в режиме ближней съемки, при инициализации средства отслеживания, если ограничивающий прямоугольник, включающий целевой объект, выходит за границы текущего кадра, устанавливается потеря целевого объекта в текущем кадре.26. The method according to one of claims 1 to 25, in which when the camera is operating in close shooting mode, when the tracker is initialized, if the bounding rectangle including the target object extends beyond the boundaries of the current frame, the loss of the target object in the current frame is established. 27. Способ по п.26, в котором при установлении потери целевого объекта в текущем кадре принимается решение о переключении камеры в режим дальней съемки.27. The method according to claim 26, in which when it is determined that the target object is lost in the current frame, a decision is made to switch the camera to the long-range shooting mode. 28. Способ по п.27, в котором дополнительно определяется расстояние d1 от камеры до целевого объекта на основании определенной диспарантности Dk для текущего кадра после установления потери целевого объекта в текущем кадре.28. The method according to claim 27, wherein the distance d 1 from the camera to the target object is further determined based on the determined disparity D k for the current frame after determining the loss of the target object in the current frame. 29. Способ по п.26 или 27, в котором дополнительно определяют расстояние d3 от камеры до целевого объекта на основании данных глубины c помощью сенсоров глубины для текущего кадра после установления потери целевого объекта в текущем кадре.29. The method according to claim 26 or 27, in which the distance d 3 from the camera to the target object is additionally determined based on depth data using depth sensors for the current frame after determining the loss of the target object in the current frame. 30. Способ по одному из пп.1-29, в котором при работе камеры в режиме ближней съемки дополнительно определяют расстояние dh после установления потери целевого объекта в текущем кадре с учетом дополнительно определенных расстояний d1 и/или d3.30. The method according to one of claims 1-29, in which when the camera is operating in close-up mode, the distance d h is additionally determined after determining the loss of the target object in the current frame, taking into account the additionally determined distances d 1 and/or d 3 . 31. Способ по п.30, в котором, если полученное расстояние dh после установления потери целевого объекта в кадре меньше предварительно определенного порогового значения, принимается решение о сохранении режима ближней съемки и выполняют переход на следующий кадр.31. The method according to claim 30, in which, if the obtained distance d h after determining the loss of the target object in the frame is less than a predetermined threshold value, a decision is made to maintain the close shooting mode and the transition to the next frame is performed. 32. Способ по одному из пп.1 и 30, в котором, если полученное расстояние dh после установления потери целевого объекта в кадре больше или равно предварительно определенному пороговому значению, принимается решение о переключении камеры в режим дальней съемки.32. The method according to one of claims 1 and 30, in which, if the obtained distance d h after determining the loss of the target object in the frame is greater than or equal to a predetermined threshold value, a decision is made to switch the camera to the long-range shooting mode. 33. Способ по п.1, в котором вычисляют по меньшей мере один из: коэффициента сдвига, коэффициента поворота, коэффициента масштабирования сцены посредством применения модели аффинного преобразования к вычисленному полю векторов.33. The method of claim 1, wherein at least one of a shift factor, a rotation factor, and a scene scaling factor is calculated by applying an affine transformation model to the calculated field of vectors. 34. Устройство автоматического переключения режимов работы камеры, содержащее:34. A device for automatically switching camera operating modes, containing: - блок ввода-вывода, включающий графический процессор, дисплей, камеру, блок интерфейса ввода-вывода, - an input/output unit, including a graphics processor, a display, a camera, an input/output interface unit, - блок вычислений, содержащий центральный процессор, контроллер памяти, системную память и накопитель, - a computing unit containing a central processor, memory controller, system memory and storage, при этом камера представляет собой мультикамерную систему, включающую фото- и/или видеокамеру и содержащую блок формирования изображения, содержащий линзу ближней съемки и линзу дальней съемки, и матрицу сенсоров, при этом камера выполнена с возможностью захвата целевого объекта и передачи данных изображения целевого объекта в системную память блока вычислений через блок интерфейса ввода-вывода, wherein the camera is a multi-camera system, including a photo and/or video camera and containing an image forming unit containing a short-range lens and a long-range lens, and a sensor matrix, wherein the camera is configured to capture a target object and transmit image data of the target object to system memory of the calculation unit through the input-output interface unit, блок вычислений выполнен с возможностью реализации этапов способа по одному из пп. 1-33, вычисления расстояния до целевого объекта и принятия решения о переключении камеры в режим ближней съемки или в режим дальней съемки, при этом полученное расстояние до целевого объекта и решение о переключения камеры передается в системную память и через блок интерфейс ввода-вывода в камеру для осуществления переключения режима камеры,the calculation block is configured to implement the stages of the method according to one of claims. 1-33, calculating the distance to the target object and making a decision to switch the camera to the close shooting mode or to the far shooting mode, while the resulting distance to the target object and the decision to switch the camera are transmitted to the system memory and through the input-output interface block to the camera to switch camera mode, камера выполнена с возможностью передачи графической информации через блок интерфейса ввода-вывода и графический процессор на дисплей устройства, the camera is configured to transmit graphic information through the input-output interface unit and the graphics processor to the device display, дисплей выполнен с возможностью визуализации целевого объекта в режиме реального времени.the display is designed to visualize the target object in real time. 35. Устройство по п.34, в котором графический процессор выполнен с возможностью обработки графической информации, полученной с камеры устройства.35. The device according to claim 34, wherein the graphics processor is configured to process graphic information received from the camera of the device. 36. Устройство по п.34, в котором матрица сенсоров представляет собой матрицу PDAF сенсоров.36. The device of claim 34, wherein the sensor array is a PDAF sensor array. 37. Устройство по п.34, в котором накопитель выполнен с возможностью хранения фото- и видеоизображений, полученных камерой устройства.37. The device according to claim 34, in which the drive is configured to store photo and video images received by the device’s camera. 38. Устройство по п.37, в котором накопитель представляет собой твердотельный накопитель (SSD).38. The device of claim 37, wherein the storage device is a solid state drive (SSD). 39. Устройство по п.34, в котором блок ввода-вывода дополнительно содержит по меньшей мере один сенсор движения и сенсор глубины.39. The device of claim 34, wherein the input/output unit further comprises at least one motion sensor and a depth sensor. 40. Устройство по п.39, в котором по меньшей мере один сенсор движения представляет собой по меньшей мере один из: акселерометра, гироскопа, магнитометра.40. The device according to claim 39, wherein the at least one motion sensor is at least one of: an accelerometer, a gyroscope, a magnetometer. 41. Устройство по п.34, в котором по меньшей мере один сенсор глубины представляет собой по меньшей мере один из: RaDAR, LiDAR, ToF-сенсора, UWB-сенсора.41. The device according to claim 34, wherein the at least one depth sensor is at least one of: RaDAR, LiDAR, ToF sensor, UWB sensor. 42. Устройство по п.34, в котором контроллер памяти выполнен с возможностью передачи данных из системной памяти на центральный процессор для вычислений.42. The apparatus of claim 34, wherein the memory controller is configured to transfer data from the system memory to the central processing unit for computation. 43. Устройство по одному из пп.34-42, выполненное с возможностью встраивания в одно из: смартфона, планшетного компьютера, фото- и видеокамеры.43. The device according to one of paragraphs 34-42, designed to be built into one of: a smartphone, a tablet computer, a photo and video camera.
RU2023107262A 2023-03-27 Device and method for automatically switching camera operating modes RU2809064C1 (en)

Publications (1)

Publication Number Publication Date
RU2809064C1 true RU2809064C1 (en) 2023-12-06

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2391119A1 (en) * 2010-03-31 2011-11-30 FUJIFILM Corporation 3d-image capturing device
US8654195B2 (en) * 2009-11-13 2014-02-18 Fujifilm Corporation Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
US9288378B2 (en) * 2012-05-21 2016-03-15 Canon Kabushiki Kaisha Autofocus apparatus
US10291842B2 (en) * 2015-06-23 2019-05-14 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of operating the same
US10455141B2 (en) * 2014-09-30 2019-10-22 Huawei Technologies Co., Ltd. Auto-focus method and apparatus and electronic device
US11218641B2 (en) * 2019-09-09 2022-01-04 Qualcomm Incorporated Image capture mode adaptation
RU2778355C1 (en) * 2021-10-12 2022-08-17 Самсунг Электроникс Ко., Лтд. Device and method for prediction autofocus for an object

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8654195B2 (en) * 2009-11-13 2014-02-18 Fujifilm Corporation Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
EP2391119A1 (en) * 2010-03-31 2011-11-30 FUJIFILM Corporation 3d-image capturing device
US9288378B2 (en) * 2012-05-21 2016-03-15 Canon Kabushiki Kaisha Autofocus apparatus
US10455141B2 (en) * 2014-09-30 2019-10-22 Huawei Technologies Co., Ltd. Auto-focus method and apparatus and electronic device
US10291842B2 (en) * 2015-06-23 2019-05-14 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of operating the same
US11218641B2 (en) * 2019-09-09 2022-01-04 Qualcomm Incorporated Image capture mode adaptation
RU2778355C1 (en) * 2021-10-12 2022-08-17 Самсунг Электроникс Ко., Лтд. Device and method for prediction autofocus for an object

Similar Documents

Publication Publication Date Title
CN105659580B (en) A kind of Atomatic focusing method, device and electronic equipment
EP3028252B1 (en) Rolling sequential bundle adjustment
US8089515B2 (en) Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
US20170272651A1 (en) Reducing power consumption for time-of-flight depth imaging
KR100866491B1 (en) Image processing method and apparatus
US10154190B2 (en) Balancing exposure and gain at an electronic device based on device motion and scene distance
US10255504B2 (en) Object position tracking using motion estimation
US20140307054A1 (en) Auto focus method and auto focus apparatus
JP2016081251A (en) Image processor and image processing method
US20220383530A1 (en) Method and system for generating a depth map
CN104683693A (en) Automatic focusing method
Wang et al. Deep learning for camera autofocus
EP3761629B1 (en) Information processing device, autonomous mobile body, information processing method, and program
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
JP2012018014A (en) Ranging device and imaging apparatus
El Bouazzaoui et al. Enhancing rgb-d slam performances considering sensor specifications for indoor localization
CN113378867A (en) Asynchronous data fusion method and device, storage medium and electronic equipment
US10705408B2 (en) Electronic device to autofocus on objects of interest within field-of-view of electronic device
RU2809064C1 (en) Device and method for automatically switching camera operating modes
JP2012018013A (en) Ranging device and imaging apparatus
Jin et al. A dedicated hardware architecture for real-time auto-focusing using an FPGA
US10708501B2 (en) Prominent region detection in scenes from sequence of image frames
Xu et al. Accurate image specular highlight removal based on light field imaging
RU2778355C1 (en) Device and method for prediction autofocus for an object
CN104683694A (en) Terminal