RU2295772C1 - Method for generation of texture in real time scale and device for its realization - Google Patents

Method for generation of texture in real time scale and device for its realization Download PDF

Info

Publication number
RU2295772C1
RU2295772C1 RU2005129968/09A RU2005129968A RU2295772C1 RU 2295772 C1 RU2295772 C1 RU 2295772C1 RU 2005129968/09 A RU2005129968/09 A RU 2005129968/09A RU 2005129968 A RU2005129968 A RU 2005129968A RU 2295772 C1 RU2295772 C1 RU 2295772C1
Authority
RU
Russia
Prior art keywords
image
texture
thematic
generating
objects
Prior art date
Application number
RU2005129968/09A
Other languages
Russian (ru)
Inventor
Олег Николаевич Бодин (RU)
Олег Николаевич Бодин
Сергей Александрович Гайдуков (RU)
Сергей Александрович Гайдуков
Андрей Викторович Кузьмин (RU)
Андрей Викторович Кузьмин
Антон Александрович Малышкин (RU)
Антон Александрович Малышкин
Original Assignee
Пензенский государственный университет (ПГУ)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Пензенский государственный университет (ПГУ) filed Critical Пензенский государственный университет (ПГУ)
Priority to RU2005129968/09A priority Critical patent/RU2295772C1/en
Application granted granted Critical
Publication of RU2295772C1 publication Critical patent/RU2295772C1/en

Links

Images

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

FIELD: engineering of visualization devices.
SUBSTANCE: method includes composing a subject map in advance, producing and storing subject data, depending on position of observer, zone of view is determined, also produced and stored is information about 3D objects (three-dimensional objects), performed further is generation and alteration of parameters of subject objects and composed is texture map of subject objects by means of operation of application with a mask. Technical result is achieved because generation, masking and alteration of image parameters of each 3D object is performed by determining image parameters of 3D object, while image of 3D object may be represented in one of three variants: point, mnemonic and image of model of 3D object, depending on representation of image of 3D object generation of point, or mnemonic, or image of model of 3D object is realized, depending on representation of 3D object realized is generation of mask of point or mnemonic object, or production of model and texture of 3D object, texturing of 3D object, rendering of 3D object, generation of mask of 3D object and application of image of 3D object onto texture map.
EFFECT: simplified generation of boundary during engagement of subject data in real time scale.
2 cl, 16 dwg

Description

Изобретение относится к современным техническим методам и средствам визуализации, которые предоставляют пользователю ограниченные визуальные поверхности для наблюдения за виртуальной визуальной обстановкой, и может быть использовано, например, в системе визуализации полета или в системе синтеза медицинских изображений 3D объектов (трехмерных объектов).The invention relates to modern technical methods and visualization tools that provide the user with limited visual surfaces for observing the virtual visual situation, and can be used, for example, in a flight visualization system or in a synthesis system for medical images of 3D objects (three-dimensional objects).

Генерирование текстуры в реальном масштабе времени относится, наряду со сглаживанием ступенчатости и визуализацией объемов в реальном масштабе времени, к фундаментальным задачам компьютерной графики.The generation of real-time texture refers, along with smoothing stepping and visualization of volumes in real time, to the fundamental tasks of computer graphics.

Исследования показывают, что на современном уровне развития вычислительной техники невозможно полностью удовлетворить требования пользователя к качеству синтезируемого изображения. Потенциально бесконечная сложность изображаемых моделей реального мира требует специализированной аппаратной поддержки. Большая вычислительная стоимость синтеза фотореалистичных изображений проистекает из сложных геометрических преобразований, использования сложных моделей освещения, отображения текстуры и окружающей среды, а также методов устранения искажений, возникающих из-за дискретной природы устройств вывода изображений (устранение лестничного эффекта).Studies show that at the current level of development of computer technology it is impossible to fully satisfy the user's requirements for the quality of the synthesized image. The potentially infinite complexity of the depicted real-world models requires specialized hardware support. The high computational cost of synthesizing photorealistic images stems from complex geometric transformations, the use of complex lighting models, texture and environmental displays, as well as methods for eliminating distortions arising from the discrete nature of image output devices (eliminating the staircase effect).

Проблема генерирования текстуры в реальном масштабе времени и манипулирования большими массивами визуальной информации при наблюдении за изображениями 3D объектов является весьма актуальной при выполнении ряда задач. Например, для визуализации с частотой 10 Гц сцены, содержащей 200 тыс.треугольников по 100 пикселов каждый, с текстурой на каждом объекте потребуется производительность приблизительно от 500 MFLOPS до 1 GFLOPS [1]. При генерировании текстуры большие требования к пропускной способности памяти, которые обусловлены необходимостью отображения текстуры, связаны с желанием получить изображение приемлемого качества. При этом необходимо выполнить операцию фильтрации на множестве текселов, попавших в проекцию пиксела на текстуру. Для уменьшения вычислительных затрат используется ряд методов, наиболее известным из которых является мипмаппинг [2]. Этот метод требует доступа к восьми элементам текстуры на каждый пиксел. В предположении 50-процентного попадания в Z-буфер и использования RGB-текстур, память для хранения текстур должна обеспечить скорость передачи 1.2 Гбайт/с, в случае, если на каждый объект надо наложить текстуру [1]. Очевидно, что формирование и обработка такого количества визуальной информации, причем в реальном масштабе времени, под силу только самому современному компьютеру. Наиболее распространены в настоящее время системы визуализации, основанные на использовании специализированных графических компьютеров для формирования, управления, анализа и переработки визуальной информации и представления ее в наиболее удобном для восприятия виде человеку-оператору.The problem of generating real-time texture and manipulating large amounts of visual information when observing images of 3D objects is very relevant when performing a number of tasks. For example, for visualization with a frequency of 10 Hz of a scene containing 200 thousand triangles of 100 pixels each, with a texture on each object, performance from approximately 500 MFLOPS to 1 GFLOPS will be required [1]. When generating a texture, the large requirements for memory bandwidth, which are caused by the need to display the texture, are associated with the desire to obtain an image of acceptable quality. In this case, it is necessary to perform the filtering operation on a plurality of texels falling into the projection of a pixel on the texture. To reduce computational costs, a number of methods are used, the most famous of which is mipmapping [2]. This method requires access to eight texture elements per pixel. Assuming a 50 percent hit in the Z-buffer and the use of RGB textures, the memory for storing textures should provide a transfer speed of 1.2 GB / s, in case if you need to apply a texture to each object [1]. Obviously, the formation and processing of such a quantity of visual information, and in real time, is only possible for the most modern computer. Currently, the most common visualization systems based on the use of specialized graphic computers for the formation, management, analysis and processing of visual information and presenting it in the most convenient way for the human operator to perceive.

Известен способ и устройство для генерирования текстуры для цифрового генератора изображения в составе симулятора полета самолета [3]. Способ для генерирования текстуры заключается в том, что (выбранные две или три) координаты каждого пикселя изображения обратно преобразуются в земные координаты, из которых вырабатываются адреса для доступа к таблице текстуры, чтобы затем получить элементы, из которых получают яркость, свойственную каждому пикселю. Таблица текстуры хранит ограниченное число типов текстуры, хранит ближнюю и дальнюю текстуру и хранит уровни детализации текстуры. Дальние текстурные элементы интерполируются, чтобы избежать эффекта шахматной доски. Элементы выбранного типа текстуры совмещаются, чтобы получить дополнительные типы текстуры, а смежные уровни детализации текстуры смешиваются, чтобы предоставить сглаженный переход между уровнями детализации.A known method and device for generating texture for a digital image generator as part of an airplane flight simulator [3]. A method for generating a texture is that the (selected two or three) coordinates of each pixel in the image are converted back to earth coordinates, from which addresses are generated to access the texture table, to then obtain the elements from which the brightness inherent in each pixel is obtained. A texture table stores a limited number of texture types, stores the near and far texture, and stores texture detail levels. Distant texture elements are interpolated to avoid the effect of a checkerboard. Elements of the selected texture type are combined to create additional texture types, and adjacent texture levels are mixed to provide a smooth transition between the levels of texture.

К недостаткам известного способа для генерирования текстуры относятся ограниченное число типов текстуры и невозможность генерирования текстуры в реальном масштабе времени.The disadvantages of the known method for generating texture include a limited number of texture types and the inability to generate texture in real time.

Также известен способ и устройство для генерирования текстуры [4]. Способ для генерирования текстуры заключается в том, что статические текстурные данные предварительно шифруются и предоставляются как зашифрованные текстурные данные с программными инструкциями, зашифрованные текстурные данные получают из хранилища, дешифруют в блоке дешифрации, затем дешифрованные текстурные данные генерируют данные текстурированного изображения для буфера кадра, откуда они выводятся на дисплей.Also known is a method and apparatus for generating texture [4]. The method for generating texture is that static texture data is pre-encrypted and provided as encrypted texture data with program instructions, encrypted texture data is received from the store, decrypted in the decryption unit, then decrypted texture data generates textured image data for the frame buffer, where they come from are displayed.

К недостаткам известного способа для генерирования текстуры относятся сложность шифрации и дешифрации текстурных данных, статичность текстурных данных и невозможность генерирования текстуры в реальном масштабе времени.The disadvantages of the known method for generating texture include the complexity of encryption and decryption of texture data, the static texture data and the inability to generate texture in real time.

Наиболее близким (прототипом) к предлагаемому способу генерирования текстуры в реальном масштабе времени является способ генерирования текстуры, заключающийся в том, что предварительно составляют тематическую карту, формируют и хранят тематические данные, в зависимости от положения наблюдателя определяют зону видимости, а также формируют и хранят 3D объекты [5].The closest (prototype) to the proposed real-time texture generation method is the texture generation method, which consists in preliminarily compiling a thematic map, generating and storing thematic data, depending on the position of the observer, determining the visibility zone, and also creating and storing 3D objects [5].

На фиг.1 приведена последовательность операций, реализующая известный способ генерирования текстуры.Figure 1 shows the sequence of operations that implements the known method of generating texture.

На фиг.2 и 3 приведены примеры составления изображения текстурной карты из тематических данных в известном способе генерирования текстуры.Figures 2 and 3 show examples of composing an image of a texture map from thematic data in a known method for generating texture.

На фиг.4 приведена подробная последовательность операций, реализующая известный способ генерирования текстуры.Figure 4 shows a detailed sequence of operations that implements the known method of generating texture.

На фиг.5 приведен пример определения зоны видимости.Figure 5 shows an example of determining the zone of visibility.

Анализ фиг.1-5 показывает, что известный способ генерирования текстуры не позволяет из-за ограниченного количества правил составления текстурной карты из тематических данных формировать произвольные границы тематических данных на текстурной карте. Действительно, в известном способе генерирования текстуры предполагается предварительное формирование тематической карты, которая представляет собой плоскость, разделенную на небольшие квадратные участки одинакового размера наподобие растровой решетки (смотрите фиг.2 и 3). Каждый такой участок является тематическим элементом. Четырем углам тематического элемента, которые обозначены точками на изображении текстурной карты, соответствуют четыре идентификационных кода тематических данных. Под тематическими данными понимают образец текстуры, характерный для данной местности, например лес, океан, жилые строения и т.п. Текстурная карта получается путем объединения всех тематических элементов, каждый из которых может, в свою очередь, состоять из одинаковых образцов текстуры или различных образцов текстуры, состыкованных по определенным правилам, число которых ограничено, что следует из рассмотрения фиг.2 и 3.The analysis of figures 1-5 shows that the known method for generating texture does not allow, due to a limited number of rules for compiling a texture map from thematic data, to form arbitrary borders of thematic data on a texture map. Indeed, in the known method for generating texture, it is assumed that the thematic map is preliminarily formed, which is a plane divided into small square sections of the same size like a raster grid (see FIGS. 2 and 3). Each such site is a thematic element. Four corners of the thematic element, which are indicated by dots on the image of the texture map, correspond to four identification codes of thematic data. Thematic data refers to a texture sample specific to a given area, for example, forest, ocean, residential buildings, etc. A texture map is obtained by combining all the thematic elements, each of which, in turn, can consist of the same texture samples or different texture samples, docked according to certain rules, the number of which is limited, which follows from the consideration of figures 2 and 3.

Недостатком известного способа генерирования текстуры является способ аппроксимации границы пересечения текстур тематических данных при формировании текстурной карты.A disadvantage of the known method for generating texture is the method of approximating the border of the intersection of the texture of the thematic data when forming the texture map.

Также в известном способе генерирования текстуры на предварительном этапе вызывает сложность изменение тематической карты в случае изменения размеров и положения участка тематической карты (например, изменение размеров и положения изображения острова в океане или изменение размеров и положения участка поврежденной поверхности на изображении реалистичной модели сердца пациента). Для того чтобы это сделать в известном способе генерирования текстуры, необходимо для всех тематических элементов изменить четыре идентификационных кода тематических данных и изменить правила «стыковки» тематических данных. Очевидно, что в реальном масштабе времени такие изменения в известном способе генерирования текстуры сделать невозможно.Also, in the known method for generating texture at the preliminary stage, it is difficult to change the thematic map in case of changing the size and position of the section of the thematic map (for example, changing the size and position of the image of the island in the ocean or changing the size and position of the damaged surface in the image of a realistic model of the patient’s heart). In order to do this in the known method of texture generation, it is necessary for all thematic elements to change the four identification codes of thematic data and to change the rules for “joining” thematic data. Obviously, in real time, such changes in the known method for generating texture cannot be made.

Таким образом, в известном способе генерирования текстуры сложность и трудоемкость формирования произвольной границы «стыковки» тематических данных при составлении текстурной карты возрастает при уменьшении размера тематического элемента и увеличении числа правил «стыковки».Thus, in the known method for generating texture, the complexity and the complexity of forming an arbitrary border for “docking” thematic data when compiling a texture map increases with a decrease in the size of the thematic element and an increase in the number of “docking” rules.

Отмеченные недостатки известного способа генерирования текстуры более отчетливо видны на подробной последовательности операций (см. фиг.4), которая включает следующие:The noted disadvantages of the known method for generating texture are more clearly visible in the detailed sequence of operations (see figure 4), which includes the following:

- получение положения наблюдателя;- obtaining the position of the observer;

- обработку фотографических данных;- processing of photographic data;

- получение идентификационных кодов тематических данных;- obtaining identification codes of thematic data;

- получение тематических данных, соответствующих идентификационному коду;- obtaining thematic data corresponding to the identification code;

- получение тематических данных, соответствующих идентификационным кодам;- obtaining thematic data corresponding to identification codes;

- определение типа тематических данных;- determination of the type of thematic data;

- выбор метода стыковки тематических данных естественного типа;- selection of a method for joining thematic data of a natural type;

- выбор метода стыковки тематических данных неестественного типа;- selection of a method for joining thematic data of an unnatural type;

- стыковку тематических данных;- docking of thematic data;

- обработку для отображения;- processing for display;

- получение данных объекта;- receiving object data;

- совмещение объектов с тематическими данными;- combination of objects with thematic data;

- отображение.- mapping.

Получение положения наблюдателя включает ввод в реальном масштабе времени параметров полета таких как, например, высота, направление, действительное место, продольный и поперечный наклон, горизонтальная и вертикальная скорость и другие параметры полета.Obtaining an observer’s position involves entering real-time flight parameters such as, for example, altitude, direction, actual location, longitudinal and transverse inclination, horizontal and vertical speed, and other flight parameters.

Далее следует определение наличия фотографических данных для указанного положения наблюдателя.The following is a determination of the availability of photographic data for the indicated position of the observer.

Если есть указанные фотографические данные, то переходят к этапу обработки фотографических данных. После завершения обработки фотографических данных осуществляется их отображение.If there is specified photographic data, then proceed to the step of processing photographic data. After the processing of photographic data is completed, they are displayed.

Если нет указанных фотографических данных, то переходят к этапу получения идентификационных кодов тематических элементов, из которых составляется текстурная карта. Каждый элемент содержит идентификационный код, показывающий, какой тип тематических данных соответствует указанному тематическому элементу (см. фиг.2).If there is no specified photographic data, then proceed to the stage of obtaining identification codes of thematic elements from which a texture map is made. Each element contains an identification code showing which type of thematic data corresponds to the specified thematic element (see figure 2).

Далее определяют, какие идентификационные коды тематических данных соответствуют тематическим элементам рассматриваемой области, т.е. определяют, включают ли тематические элементы однородные тематические данные (например, только лес) или различные тематические данные (например, часть элемента занята лесом, а часть океаном). Если указанные идентификационные коды одинаковы, то переходят к этапу получения тематических данных, соответствующих указанному идентификационному коду. Если указанные идентификационные коды различны, то переходят к этапу получения идентификационных кодов тематических данных для всех тематических элементов рассматриваемой области.Next, it is determined which thematic data identification codes correspond to the thematic elements of the area under consideration, i.e. determine whether the thematic elements include homogeneous thematic data (for example, only forest) or various thematic data (for example, part of the element is occupied by forest and part by ocean). If the specified identification codes are the same, then proceed to the stage of obtaining thematic data corresponding to the specified identification code. If these identification codes are different, then go to the stage of obtaining identification codes of thematic data for all thematic elements of the considered area.

Затем осуществляется определение типа тематических данных. Все тематические данные разделяются на два типа: естественные (например, лес, океан) и неестественные (например, жилые строения). Если тематические данные относятся к естественному типу, то переходят к этапу выбора метода стыковки тематических данных естественного типа. Для тематических данных естественного типа предусмотрены три правила стыковки различных тематических данных в рамках одного тематического элемента (см. фиг.3). Характерной особенностью границы между тематическими данными естественного типа является ее извилистость, аппроксимация которой осуществляется синусоидальными линиями. Конкретное правило стыковки выбирается автоматически, исходя из анализа идентификационных кодов, соответствующих четырем углам тематического элемента.Then the type of thematic data is determined. All thematic data are divided into two types: natural (for example, forest, ocean) and unnatural (for example, residential buildings). If the thematic data are of the natural type, then they proceed to the stage of choosing the method of joining the thematic data of the natural type. For thematic data of a natural type, there are three rules for joining various thematic data within one thematic element (see Fig. 3). A characteristic feature of the boundary between thematic data of a natural type is its tortuosity, which is approximated by sinusoidal lines. A specific docking rule is automatically selected based on the analysis of identification codes corresponding to the four corners of the thematic element.

Если тематические данные относятся к неестественному типу, то переходят к этапу выбора метода стыковки тематических данных неестественного типа. Для тематических данных неестественного типа предусмотрены три правила стыковки различных тематических данных в рамках одного тематического элемента (см. фиг.3). Для правил стыковки тематических данных неестественного типа характерно, что граница между тематическими данными проходит по прямым линиям. Конкретное правило стыковки выбирается автоматически, исходя из анализа идентификационных кодов, соответствующих четырем углам тематического элемента.If the thematic data are of an unnatural type, then they proceed to the step of choosing the method of joining the thematic data of an unnatural type. For thematic data of an unnatural type, there are three rules for joining various thematic data within one thematic element (see Fig. 3). It is characteristic of the rules for joining thematic data of an unnatural type that the border between thematic data runs along straight lines. A specific docking rule is automatically selected based on the analysis of identification codes corresponding to the four corners of the thematic element.

После выбора метода стыковки тематических данных переходят непосредственно к этапу стыковки тематических данных, который состоит в объединении по одному из вышеуказанных правил различных тематических данных в рамках одного тематического элемента (см. фиг.3).After choosing the method of joining the thematic data, they go directly to the stage of joining the thematic data, which consists in combining, according to one of the above rules, various thematic data within one thematic element (see Fig. 3).

Далее определяют расстояние до рассматриваемого участка местности (так как в известном способе генерирования текстуры рассматривается только полет над землей, то значение имеет высота, на которой совершается полет). Если расстояние не меньше предварительно определенного на начальном этапе значения X (см. фиг.5), то переходят к этапу обработки для отображения, который включает обработку данных тематических элементов и формирование изображения текстуры для последующего отображения. Если расстояние меньше предварительно определенного значения X (см. фиг.5), то переходят к этапу получения данных об изображении 3D объектов. Известный способ генерирования текстуры предусматривает, что дополнительно к сформированной текстуре местности могут вводиться изображения 3D объектов, таких, например, как дом. Однако возможность наложения текстуры на 3D объекты в известном способе генерирования текстуры отсутствует, что, безусловно, снижает реалистичность сгенерированной текстуры.Next, the distance to the considered area of the terrain is determined (since in the known method for generating texture only flight above the ground is considered, the height at which the flight is made is of importance). If the distance is not less than the X value previously determined at the initial stage (see Fig. 5), then proceed to the processing step for display, which includes processing the data of thematic elements and forming an image of the texture for subsequent display. If the distance is less than a predetermined value of X (see figure 5), then proceed to the step of obtaining data about the image of 3D objects. The known method for generating texture provides that in addition to the formed texture of the terrain, images of 3D objects, such as, for example, a house, can be introduced. However, the possibility of applying texture to 3D objects in the known method for generating texture is absent, which, of course, reduces the realism of the generated texture.

После получения данных об изображении 3D объектов переходят к этапу совмещения изображения 3D объектов с тематическими данными. При этом изображения 3D объекта помещаются на текстурную карту, причем по мере приближения наблюдателя могут добавляться новые объекты, которые не были видны ранее.After receiving data about the image of 3D objects, they proceed to the stage of combining the image of 3D objects with thematic data. In this case, 3D object images are placed on the texture map, and as the observer approaches, new objects that were not visible before can be added.

Последним этапом известного способа генерирования текстуры является отображение. Этап отображения заключается в выводе на средства отображения сформированного изображения. Сформированное изображение может включать фотографические данные, текстурные данные и данные дополнительно введенных 3D объектов.The last step of the known texture generation method is mapping. The display step is to output to the display means the generated image. The generated image may include photographic data, texture data and data of additionally entered 3D objects.

Анализ подробного последовательности операций известного способа генерирования текстуры выявил, по мнению авторов предполагаемого изобретения, еще один недостаток: невозможность генерирования реалистичной текстуры местности в реальном масштабе времени в условиях полета.The analysis of the detailed sequence of operations of the known method for generating texture revealed, according to the authors of the alleged invention, another drawback: the inability to generate realistic terrain texture in real time in flight conditions.

Устройство-прототип [5] содержит последовательно соединенные видеоинтерфейс и видеомонитор, а также средства хранения данных, средства обработки тематической карты, средства формирования текстурной карты из тематических элементов, средства генерирования изображений 3D объектов.The prototype device [5] contains a video interface and a video monitor connected in series, as well as data storage facilities, thematic map processing facilities, texture map generation tools from thematic elements, 3D object image generating means.

Таким образом, недостатками известного способа генерирования текстуры и устройства для его реализации являются сложность и трудоемкость формирования произвольной границы «стыковки» тематических данных при составлении текстурной карты и невозможность генерирования реалистичной текстуры местности в реальном масштабе времени.Thus, the disadvantages of the known method of generating textures and devices for its implementation are the complexity and the complexity of forming an arbitrary border of “matching” thematic data when compiling a texture map and the inability to generate realistic terrain texture in real time.

Техническим результатом предлагаемого изобретения является упрощение формирования произвольной границы «стыковки» тематических данных при составлении текстурной карты и генерирование реалистичной текстуры в реальном масштабе времени.The technical result of the invention is to simplify the formation of an arbitrary border “docking” of the thematic data when compiling a texture map and generating a realistic texture in real time.

Сущность предлагаемого способа заключается в том, что в реальном масштабе времени предварительно составляют тематическую карту, формируют и хранят тематические данные, в зависимости от положения наблюдателя определяют зону видимости, формируют и хранят информацию о 3D объектах, а также осуществляют формирование и изменение параметров тематических объектов и составляют текстурную карту из тематических объектов путем операции наложения по маске.The essence of the proposed method lies in the fact that in real time the thematic map is preliminarily compiled, thematic data are generated and stored, depending on the position of the observer, the visibility zone is determined, information about 3D objects is generated and stored, and parameters and thematic parameters are formed and changed. make a texture map of thematic objects by means of masking operations.

При этом тематические объекты состоят из тематических данных, фотоданных и изображений 3D объектов, причем тематические данные могут быть представлены в одном из трех вариантов: высокого, среднего и низкого разрешения, и изображение 3D объекта может быть представлено в одном из трех вариантов: точечном, мнемоническом и изображении модели 3D объекта.In this case, thematic objects consist of thematic data, photo data and images of 3D objects, and thematic data can be presented in one of three options: high, medium and low resolution, and an image of a 3D object can be presented in one of three options: point, mnemonic and the image of the 3D model of the object.

Кроме того, формирование, маскирование и изменение параметров каждого из тематических объектов осуществляется путем формирования маски тематического объекта, подготовки тематических данных или фотоданных тематического объекта, текстурирования тематического объекта по маске и наложения тематического объекта на текстурную карту.In addition, the formation, masking and changing the parameters of each of the thematic objects is carried out by forming a mask of the thematic object, preparing thematic data or photo data of the thematic object, texturing the thematic object by mask and applying the thematic object to the texture map.

К тому же, формирование, маскирование и изменение параметров изображения каждого 3D объекта осуществляется путем определения параметров изображения 3D объекта, в зависимости от представления изображения 3D объекта осуществляется формирование точечного, или мнемонического, или изображения модели 3D объекта, в зависимости от представления изображения 3D объекта осуществляется формирование маски точечного или мнемонического объекта или получение модели и текстуры 3D объекта, текстурирование 3D объекта, рендеринг 3D объекта, формирование маски 3D объекта и наложение изображения 3D объекта на текстурную карту.In addition, the formation, masking and change of the image parameters of each 3D object is carried out by determining the image parameters of the 3D object, depending on the representation of the image of the 3D object, the formation of a point, or mnemonic, or image of the 3D model of the object is carried out, depending on the representation of the image of the 3D object forming a mask of a point or mnemonic object or obtaining a model and texture of a 3D object, texturing a 3D object, rendering a 3D object, creating masks 3D object and the 3D object image overlay on the texture map.

В устройство для реализации известного способа генерирования текстуры, содержащее последовательно соединенные видеоинтерфейс и видеомонитор, а также средства хранения данных и средства генерирования изображений 3D объектов, согласно предлагаемому изобретению дополнительно введены микропроцессор, средства определения зоны видимости, средства обработки тематических объектов и средства временного хранения текстурной карты, при этом выход микропроцессора соединен с входом видеоинтерфейса, а средства хранения данных, средства определения зоны видимости, средства обработки тематических объектов, средства генерирования изображений 3D объектов и средства временного хранения текстурной карты соединены двунаправленными шинами соответственно с первым, вторым, третьим, четвертым и шестым входами микропроцессора, пятый вход которого соединен с входом устройства для реализации способа генерирования текстуры в реальном масштабе времени, при этом средства обработки тематических объектов содержат последовательно соединенные средства определения параметров тематических объектов, средства формирования маски и средства помещения изображения тематического объекта на текстурную карту, а также средства формирования тематической текстуры, при этом второй и третий выходы средств определения параметров тематических объектов соединены соответственно с первым входом средств формирования тематической текстуры и со вторым входом средств помещения изображения тематического объекта на текстурную карту, вход-выход данных средств обработки тематических объектов соединен двунаправленной шиной со средствами определения параметров тематических объектов, вторыми входами средств формирования маски и средств формирования тематической текстуры и третьим входом средств помещения изображения тематического объекта на текстурную карту, четвертый вход которых соединен с выходом средств формирования тематической текстуры, а выход - с выходом средств обработки тематических объектов, при этом средства генерирования изображений 3D объектов содержат последовательно соединенные средства формирования маски изображения 3D объекта и средства помещения изображения 3D объекта на текстурную карту, а также средства коммутации, средства генерирования точечного изображения 3D объекта, средства генерирования мнемонического изображения 3D объекта и средства генерирования трехмерного изображения 3D объекта, при этом вход-выход данных средств генерирования изображений 3D объектов соединен двунаправленной шиной с входом средств коммутации и вторым входом средств помещения изображения 3D объекта на текстурную карту, первый, второй и третий выходы средств коммутации соединены соответственно с входами средств генерирования точечного изображения 3D объекта, средств генерирования мнемонического изображения 3D объекта и средств генерирования трехмерного изображения 3D объекта, выходы средств генерирования точечного изображения 3D объекта, средств генерирования мнемонического изображения 3D объекта и средств генерирования трехмерного изображения 3D объекта соединены с входом средств формирования маски изображения 3D объекта, выход средств помещения изображения 3D объекта на текстурную карту соединен с выходом средств генерирования изображений 3D объектов, при этом средства генерирования трехмерного изображения 3D объекта содержат последовательно соединенные средства формирования модели 3D объекта, средства наложения текстуры на модель 3D объекта и средства рендеринга, при этом вход средств формирования модели 3D объекта и второй вход средств наложения текстуры на модель 3D объекта соединены двунаправленной шиной с входом-выходом данных средств генерирования трехмерного изображения 3D объекта, выход средств рендеринга соединен с выходом средств генерирования трехмерного изображения 3D объекта.According to the invention, a microprocessor, means for determining the visibility zone, means for processing thematic objects and means for temporary storage of a texture map are additionally introduced into the device for implementing the known method for generating texture, containing a video interface and a video monitor connected in series, as well as data storage means and 3D object image generating means. while the microprocessor output is connected to the input of the video interface, and the data storage means, means visibility zones, processing tools for thematic objects, means for generating images of 3D objects and temporary storage of texture maps are connected by bidirectional buses, respectively, with the first, second, third, fourth and sixth inputs of the microprocessor, the fifth input of which is connected to the input of the device for implementing the method of generating texture in real time, while the processing facilities for thematic objects contain sequentially connected means for determining the parameters of thematic objects, means of forming a mask and means of placing an image of a thematic object on a texture map, as well as means of forming a thematic texture, while the second and third outputs of means for determining the parameters of thematic objects are connected respectively to the first input of means of forming a thematic texture and to the second input of means of placing an image of a thematic object on the texture map, input-output data processing tools thematic objects connected bidirectional bus with means opr parameterization of the thematic objects, the second inputs of the mask forming means and the thematic texture generation tools and the third input of the thematic object image placement means on the texture map, the fourth input of which is connected to the output of the thematic texture formation tools, and the output to the output of thematic processing tools, while means for generating images of 3D objects contain series-connected means for forming a mask of the image of a 3D object and means for placing 3D object drag onto a texture map, as well as switching means, 3D object point image generating means, 3D object mnemonic image generating means and 3D object three-dimensional image generating means, while the input-output of these 3D object image generating means is connected by a bi-directional bus to the input of means switching and the second input of the means of placing the image of the 3D object on the texture map, the first, second and third outputs of the switching means are connected respectively to the inputs means for generating a point image of a 3D object, means for generating a mnemonic image of a 3D object and means for generating a three-dimensional image of a 3D object, outputs of means for generating a point image of a 3D object, means for generating a mnemonic image of a 3D object and means for generating a three-dimensional image of a 3D object are connected to the input of means for generating a 3D image mask object, the output of the means of placing the image of the 3D object on the texture map is connected to the output of the means of generating images images of 3D objects, while the means of generating a three-dimensional image of a 3D object contain sequentially connected means of forming a model of a 3D object, means of applying texture to a model of a 3D object and rendering tools, while the input of means of forming a model of a 3D object and the second input of means of applying a texture to a model of 3D object connected by a bi-directional bus with input / output of data of means for generating a three-dimensional image of a 3D object, the output of rendering means is connected to the output of means of generating a three-dimensional About the image of a 3D object.

Такое сочетание новых признаков с известными позволяет добиться технического результата, улучшить способ генерирования текстуры и построить устройство, реализующее предлагаемый способ генерирования текстуры в реальном масштабе времени.This combination of new and well-known features allows to achieve a technical result, improve the texture generation method and build a device that implements the proposed real-time texture generation method.

На фиг.6 приведена последовательность операций предлагаемого способа генерирования текстуры в реальном масштабе времени.Figure 6 shows the sequence of operations of the proposed method for generating texture in real time.

На фиг.7 приведена подробная последовательность операций предлагаемого способа генерирования текстуры в реальном масштабе времени.7 shows a detailed sequence of operations of the proposed method for generating texture in real time.

На фиг.8-10 приведены примеры формирования тематических объектов в предлагаемом способе генерирования текстуры в реальном масштабе времени.On Fig-10 shows examples of the formation of thematic objects in the proposed method for generating texture in real time.

На фиг.11 приведен пример наложения текстуры на 3D объект.Figure 11 shows an example of texture mapping on a 3D object.

На фиг.12-15 приведены структурные схемы устройства для реализации предложенного способа генерирования текстуры в реальном масштабе времени.12-15 are structural diagrams of a device for implementing the proposed method for generating real-time texture.

На фиг.16 приведена схема алгоритма работы устройства для реализации предлагаемого способа генерирования текстуры в реальном масштабе времени.On Fig is a diagram of the algorithm of the device for implementing the proposed method for generating texture in real time.

Анализ фиг.6 показывает, что предлагаемый авторами способ генерирования текстуры в реальном масштабе времени позволяет устранить указанные недостатки известного способа генерирования текстуры и формирует изображение реалистичной текстуры в реальном масштабе времени. Предлагаемый авторами способ генерирования текстуры в реальном масштабе времени основан на совершенно другом принципе аппроксимации границы «стыковки» тематических данных при составлении текстурной карты. Авторы предлагают вместо аппроксимации границы «стыковки» тематических данных формирование тематических объектов из тематических данных и генерирование текстурной карты из тематических объектов путем операции наложения по маске. Другими словами, границы «стыковки» тематических данных при составлении текстурной карты «заложены» в форме тематического объекта. При этом отпадает необходимость в использовании правил «стыковки» для аппроксимации границы «стыковки» тематических данных и изменении параметров всех тематических элементов при изменении размеров или положения участка тематической карты. В предлагаемом авторами способе генерирования текстуры в реальном масштабе времени для этого достаточно изменения размеров или положения тематического объекта на участке тематической карты. Очевидно, что такой подход упрощает генерирование реалистичной текстурной карты и позволяет ее формирование в реальном масштабе времени. Кроме того, предлагаемый авторами способ генерирования текстуры в реальном масштабе времени позволяет наложение друг на друга нескольких тематических объектов, что в принципе невозможно в рамках одного тематического элемента в известном способе генерирования текстуры.The analysis of Fig. 6 shows that the method of real-time texture generation proposed by the authors eliminates these drawbacks of the known texture generation method and forms an image of a realistic texture in real time. The method of real-time texture generation proposed by the authors is based on a completely different principle of approximating the border of “docking” of thematic data when compiling a texture map. The authors propose, instead of approximating the border of “docking” of thematic data, the formation of thematic objects from thematic data and the generation of a texture map from thematic objects by means of masking operations. In other words, the boundaries of the “docking” of the thematic data when compiling the texture map are “laid” in the form of a thematic object. At the same time, there is no need to use the “docking” rules to approximate the border of “docking” of the thematic data and change the parameters of all thematic elements when changing the size or position of the section of the thematic map. In the method of real-time texture generation proposed by the authors, a change in the size or position of the thematic object on the section of the thematic map is sufficient for this. Obviously, this approach simplifies the generation of a realistic texture map and allows its formation in real time. In addition, the authors proposed method for generating real-time texture of textures allows the overlapping of several thematic objects, which is basically impossible within the framework of one thematic element in the known method of texture generation.

Рассмотрим суть предлагаемого способа генерирования текстуры в реальном масштабе времени при подробном описании способа (см. фиг.7), который включает следующие этапы:Consider the essence of the proposed method for generating texture in real time with a detailed description of the method (see Fig.7), which includes the following steps:

- получение положения наблюдателя;- obtaining the position of the observer;

- вычисление области обзора;- calculation of the field of view;

- определение требуемого разрешения для визуализации:- determination of the required resolution for visualization:

- получение карты расположения тематических объектов;- getting a map of the location of thematic objects;

- получение параметров тематического объекта;- obtaining the parameters of the thematic object;

- формирование маски тематического объекта;- formation of a mask of a thematic object;

- получение фотоданных тематического объекта;- receiving photo data of a thematic object;

- подготовку тематической текстуры тематического объекта;- preparation of the thematic texture of the thematic object;

- текстурирование тематического объекта по маске;- texturing a thematic object by mask;

- помещение текстурированного тематического объекта на текстурную карту;- placing a textured thematic object on a texture map;

- получение карты расположения изображений 3D объектов;- Obtaining a map of the location of images of 3D objects;

- получение параметров 3D объекта;- receiving 3D object parameters;

- определение типа объектов;- definition of the type of objects;

- формирование модели 3D объекта;- formation of a 3D object model;

- получение текстуры 3D объекта;- getting the texture of a 3D object;

- текстурирование 3D объекта;- texturing a 3D object;

- рендеринг 3D объекта;- rendering of a 3D object;

- формирование маски изображения 3D объекта;- formation of a mask image of a 3D object;

- формирование точечного или мнемонического изображения 3D объекта;- the formation of a point or mnemonic image of a 3D object;

- формирование маски точечного или мнемонического изображения 3D объекта- formation of a mask of a point or mnemonic image of a 3D object

- помещение изображения 3D объекта на текстурную карту;- placing an image of a 3D object on a texture map;

- визуализацию.- visualization.

Предлагаемый способ генерирования текстуры в реальном масштабе времени предполагает формирование текстурной карты и наложение на нее произвольных тематических объектов в реальном масштабе времени. Текстурная карта в предлагаемом способе генерирования текстуры представляет собой множество тематических объектов, которые можно модифицировать в реальном масштабе времени, например изменять размер, местоположение и маску.The proposed method for generating texture in real time involves the formation of a texture map and the imposition of arbitrary thematic objects on it in real time. The texture map in the proposed method for generating texture is a lot of thematic objects that can be modified in real time, for example, to change the size, location and mask.

Так же как в известном способе генерирования текстуры, в предлагаемом способе генерирования текстуры в реальном масштабе времени под тематическими данными понимают образец текстуры, характерный для данной местности, например лес, океан, жилые строения и т.п. На этом сходство известного и предлагаемого способов генерирования текстуры заканчивается. Для того чтобы убедиться в этом, достаточно сравнить подробные последовательности операций реализации известного и предлагаемого способов генерирования текстуры, представленные соответственно на фиг.4 и 7. В предлагаемом способе генерирования текстуры в реальном масштабе времени сначала формируются тематические объекты из тематических данных, а затем текстурная карта получается путем объединения всех тематических объектов, каждый из которых может, в свою очередь, состоять из одинаковых образцов текстуры или различных образцов текстуры.As in the known texture generation method, in the proposed real-time texture generation method, the thematic data is understood to mean a texture sample specific to a given area, for example, forest, ocean, residential buildings, etc. This is where the similarity between the known and proposed methods for generating texture ends. In order to verify this, it is enough to compare the detailed sequence of operations for implementing the known and proposed methods for generating texture presented in FIGS. 4 and 7, respectively. In the proposed method for generating texture in real time, thematic objects are first formed from thematic data, and then a texture map obtained by combining all thematic objects, each of which can, in turn, consist of the same texture samples or different text samples ry.

Этап подробной последовательности операций (см. фиг.7) предлагаемого способа генерирования текстуры в реальном масштабе времени «Получение положения наблюдателя» включает ввод в реальном масштабе времени параметров полета, таких как, например, высота, направление, действительное место, продольный и поперечный наклон, горизонтальная и вертикальная скорость и другие параметры полета.The step of a detailed sequence of operations (see Fig. 7) of the proposed real-time texture generation method “Obtaining the observer's position” includes inputting real-time flight parameters, such as, for example, altitude, direction, actual location, longitudinal and transverse inclination, horizontal and vertical speed and other flight parameters.

Далее следует этап вычисления зоны видимости на плоскости X, Y (см. фиг.5), необходимый для оптимизации работы: подразумевается генерирование и визуализация только требуемого участка текстурной карты в рамках определенной зоны видимости.The next step is the calculation of the visibility zone on the X, Y plane (see Fig. 5), which is necessary for optimizing the work: it implies the generation and visualization of only the required part of the texture map within a certain visibility zone.

Далее следует этап определения требуемого разрешения для визуализации, на котором происходит вычисление отношения положения наблюдателя к максимальной высоте, и, в зависимости от этого отношения, выбираются текстуры низкого, среднего или высокого разрешения. Для более близкого положения наблюдателя над текстурной картой выбираются тематические данные высокого разрешения, для приближенного к среднему значению положения наблюдателя выбираются тематические данные среднего разрешения, а для максимально высокого положения наблюдателя соответственно выбираются тематические данные низкого разрешения.This is followed by the step of determining the required resolution for visualization, at which the ratio of the observer's position to the maximum height is calculated, and, depending on this ratio, low, medium or high resolution textures are selected. For a closer observer position above the texture map, high-resolution thematic data is selected, for medium-sized observer positions, medium-resolution thematic data is selected, and for the highest observer position, low-resolution thematic data is selected.

Далее следует получение карты расположения тематических объектов - на данном этапе происходит получение из хранилища данных координат расположения тематических объектов.The next step is to obtain a map of the location of thematic objects - at this stage, the location coordinates of thematic objects are obtained from the data warehouse.

Далее следует получение параметров тематического объекта - на данном этапе происходит получение из хранилища данных параметров будущего тематического объекта, таких как размеры, положение объекта, соответствующие тематические данные.The next step is to obtain the parameters of the thematic object - at this stage, the parameters of the future thematic object are obtained from the data store, such as the dimensions, position of the object, and relevant thematic data.

Далее следует формирование маски тематического объекта - на данном этапе происходит получение маски будущего тематического объекта и применение параметров тематических объектов.This is followed by the formation of a mask of a thematic object - at this stage, a mask of a future thematic object is obtained and the parameters of the thematic objects are applied.

Если фотоданные необходимо разместить на текстурной карте, то далее следует получение фотоданных тематического объекта. При этом на данном этапе происходит получение из хранилища данных предопределенных фотоданных, например реальный снимок географической местности, как показано на фиг.8.If the photo data must be placed on a texture map, then the next step is to obtain the photo data of a thematic object. At the same time, at this stage, predefined photo data is obtained from the data warehouse, for example, a real picture of a geographical area, as shown in Fig. 8.

Если фотоданные отсутствуют, то далее следует подготовка тематической текстуры тематического объекта. При этом на данном этапе происходит создание из тематических данных текстуры, по размерам равной размеру маски.If there is no photo data, then the preparation of the thematic texture of the thematic object follows. At the same time, at this stage, a texture is created from the thematic data, equal in size to the size of the mask.

Далее следует текстурирование тематического объекта по маске. При этом на данном этапе происходит маскирование подготовленной текстуры и формируется тематический объект, как показано на фиг.9.The following is the texturing of the theme object by mask. At the same time, at this stage, the prepared texture is masked and a thematic object is formed, as shown in Fig. 9.

Далее следует помещение текстурированного тематического объекта на текстурную карту. На данном этапе происходит наложение изображения тематического объекта на текстурную карту по маске, как показано на фиг.9.This is followed by placing a textured thematic object on a texture map. At this stage, the image of the thematic object is superimposed on the texture map by mask, as shown in Fig. 9.

Далее следует получение карты расположения изображений 3D объектов. При этом на данном этапе происходит получение из хранилища данных координат расположения изображений 3D объектов.The following is a map of the location of images of 3D objects. At the same time, at this stage, the coordinates of the location of images of 3D objects are obtained from the data warehouse.

Далее следует получение параметров 3D объекта - на данном этапе происходит получение параметров будущего изображения 3D объекта, таких как размеры 3D объекта, положение 3D объекта, текстура 3D объекта.This is followed by obtaining the parameters of a 3D object - at this stage, the parameters of the future image of the 3D object are obtained, such as the dimensions of the 3D object, the position of the 3D object, the texture of the 3D object.

Далее следует определение варианта визуализации 3D объекта (точечное, мнемоническое или изображение 3D объекта). Выбор варианта визуализации 3D объекта осуществляется в зависимости от положения наблюдателя. Т.е., если 3D объект находится на расстоянии меньше предопределенного значения X (см. фиг.5), то генерируется изображение его трехмерной модели. Если 3D объект находится на расстоянии большем X, то генерируется его мнемоническое изображение. Если 3D объект находится на расстоянии, большем предопределенного значения X' (см. фиг.5), то генерируется его точечное изображение, как показано на фиг.10.The following is the definition of a 3D object visualization option (point, mnemonic, or 3D object image). The choice of the 3D object visualization option is carried out depending on the position of the observer. That is, if a 3D object is at a distance less than a predetermined value of X (see FIG. 5), an image of its three-dimensional model is generated. If the 3D object is at a distance greater than X, then its mnemonic image is generated. If the 3D object is at a distance greater than the predetermined value X '(see Fig. 5), then its point image is generated, as shown in Fig. 10.

Если определен 3D вариант визуализации 3D объекта, то далее следует формирование модели 3D объекта - на данном этапе происходит загрузка модели 3D объекта из хранилища данных и формирование модели конкретного 3D объекта с использованием таких параметров, как размеры и положение 3D объекта, как показано на фиг.10.If a 3D option for visualizing a 3D object is defined, then the 3D model of the object is formed - at this stage, the 3D model of the object is loaded from the data store and the model of the specific 3D object is formed using parameters such as the dimensions and position of the 3D object, as shown in FIG. 10.

Далее следует получение текстуры 3D объекта - на данном этапе происходит получение из хранилища данных соответствующей данному 3D объекту текстуры.The next step is to obtain the texture of the 3D object - at this stage, the texture is obtained from the data warehouse corresponding to the given 3D object.

Далее следует текстурирование 3D объекта - на данном этапе происходит наложение на 3D объект текстуры.The following is the texturing of the 3D object - at this stage, the texture is superimposed on the 3D object.

Далее следует рендеринг 3D объекта - на данном этапе происходит визуализация трехмерной модели 3D объекта с наложенной на нее текстурой.Next comes the rendering of a 3D object - at this stage, a three-dimensional model of a 3D object is visualized with a texture superimposed on it.

Далее следует формирование маски изображения 3D объекта - на данном этапе происходит формирование маски точечного, мнемонического или изображения модели 3D объекта.This is followed by the formation of a mask for the image of a 3D object - at this stage, the mask is formed of a point, mnemonic, or image of a model of a 3D object.

Далее следует помещение изображения 3D объекта (точечного, мнемонического или изображения 3D объекта) на текстурную карту. На данном этапе происходит наложение изображения 3D объекта на текстурную карту по маске.The following is the placement of the image of a 3D object (point, mnemonic or image of a 3D object) on a texture map. At this stage, the image of the 3D object is superimposed on the texture map using the mask.

Визуализация - на данном этапе происходит передача текстурной карты на устройство вывода.Visualization - at this stage, the texture map is transferred to the output device.

Как видно из представленного описания и фиг.8-11, предложенный способ позволяет генерировать реалистичную текстуру в реальном масштабе времени независимо от ее сложности, количества объектов и возможных изменений параметров объектов (формы, размеров, положения), что способствует улучшению условий последующего наложения сформированной текстуры, например, на 3D объект, как показано на фиг.11.As can be seen from the presented description and Figs. 8-11, the proposed method allows to generate a realistic texture in real time regardless of its complexity, number of objects and possible changes in the parameters of objects (shape, size, position), which helps to improve the conditions for the subsequent overlay of the formed texture , for example, on a 3D object, as shown in FIG. 11.

Устройство для реализации предлагаемого способа генерирования текстуры в реальном масштабе времени (см. фиг.12) содержит средства хранения данных 1, средства определения зоны видимости 2, средства обработки тематических объектов 3, средства генерирования изображений 3D объектов 4, микропроцессор 5, видеоинтерфейс 6, средства временного хранения текстурной карты 7, видеомонитор 8, информационный вход 9.A device for implementing the proposed method for generating real-time texture (see Fig. 12) comprises means for storing data 1, means for determining the visibility zone 2, means for processing thematic objects 3, means for generating images of 3D objects 4, a microprocessor 5, a video interface 6, means temporary storage of texture map 7, video monitor 8, information input 9.

Средства обработки тематических объектов 3 (см. фиг.13) содержат средства определения параметров тематических объектов 10, средства формирования маски 11, средства формирования тематической текстуры 12, средства помещения изображения тематического объекта на текстурную карту 13, вход-выход данных 14, выход средств обработки тематических объектов 15.Means for processing thematic objects 3 (see Fig. 13) contain means for determining the parameters of thematic objects 10, means for forming a mask 11, means for forming a thematic texture 12, means for placing an image of a thematic object on a texture map 13, input-output of data 14, output of processing tools thematic objects 15.

Средства генерирования изображений 3D объектов 4 (см. фиг.14) содержат средства коммутации 16, средства генерирования точечного изображения 3D объекта 17, средства генерирования мнемонического изображения 3D объекта 18, средства генерирования изображения модели 3D объекта 19, средства формирования маски изображения 3D объекта 20, средства помещения изображения 3D объекта на текстурную карту 21, вход-выход данных 22 и выход средств генерирования изображений 3D объектов 23.The means for generating images of 3D objects 4 (see Fig. 14) comprise switching means 16, means for generating a point image of a 3D object 17, means for generating a mnemonic image of a 3D object 18, means for generating an image of a 3D model of an object 19, means for generating a 3D image mask of an object 20, means for placing an image of a 3D object on a texture map 21, input-output of data 22 and output of means for generating images of 3D objects 23.

Средства генерирования изображения модели 3D объекта 19 (см. фиг.15) содержат средства формирования модели 3D объекта 24, средства наложения текстуры на модель 3D объекта 25, средства рендеринга 26, вход-выход данных 27, выход средств генерирования изображения модели 3D объекта 28.The means for generating the image of the 3D model of the object 19 (see Fig. 15) contain means for generating the 3D model of the object 24, means for applying texture to the 3D model of the object 25, rendering tools 26, input-output data 27, and the output of the means for generating the image of the 3D model of the object 28.

В устройстве для реализации способа генерирования текстуры в реальном масштабе времени последовательно соединены микропроцессор 5, видеоинтерфейс 6 и видеомонитор 8. Средства хранения данных 1, средства определения зоны видимости 2, средства обработки тематических объектов 3, средства обработки изображений 3D объектов 4 и средства временного хранения текстурной карты 7 соединены двунаправленной шиной соответственно с первым, вторым, третьим, четвертым и шестым входами микропроцессора 5. Информационный вход 9 соединен с пятым входом микропроцессора 5.In the device for implementing the real-time texture generation method, the microprocessor 5, the video interface 6, and the video monitor 8 are connected in series. The data storage means 1, the visibility zone 2 means, the thematic object processing 3, the 3D image processing means 4 and the temporary texture storage means cards 7 are connected by a bi-directional bus, respectively, with the first, second, third, fourth and sixth inputs of the microprocessor 5. Information input 9 is connected to the fifth input of the microprocessor otsessora 5.

В средстве обработки тематических объектов 3 последовательно соединены средства определения параметров тематических объектов 10, средства формирования маски 11 и средства помещения изображения тематического объекта на текстурную карту 13. Второй и третий выходы средств определения параметров тематических объектов 10 соединены соответственно с первым входом средств формирования тематической текстуры 12 и со вторым входом средств помещения изображения тематического объекта на текстурную карту 13. Вход-выход данных 14 соединен двунаправленной шиной со средствами определения параметров тематических объектов 10, вторыми входами средств формирования маски 11 и средств формирования тематической текстуры 12, третьим входом средств помещения изображения на текстурную карту 13. Выход соединен с четвертым входом средств формирования изображения тематического объекта 13, выход средств помещения изображения тематического объекта на текстурную карту 13 соединен с выходом средств обработки тематических объектов 15.In the means of processing thematic objects 3, the means for determining the parameters of thematic objects 10, the means for forming a mask 11 and the means for placing the image of the thematic object on the texture map 13 are connected in series. The second and third outputs of the means for determining the parameters of thematic objects 10 are connected respectively to the first input of the means for forming the thematic texture 12 and with the second input of the means of placing the image of the thematic object on the texture map 13. Data input-output 14 is connected bidirectionally bus with means for determining the parameters of the thematic objects 10, the second inputs of the means for forming the mask 11 and the means for forming the thematic texture 12, the third input of the means for placing the image on the texture map 13. The output is connected to the fourth input of the means for forming the image of the thematic object 13, the output for the means for placing the thematic image object on the texture map 13 is connected to the output of processing facilities for thematic objects 15.

В средстве генерирования изображений 3D объектов 4 последовательно соединены средства формирования маски изображения 3D объекта 20 и средства помещения изображения 3D объекта на текстурную карту 21. Вход-выход данных 22 средств генерирования изображений 3D объектов 4 соединен двунаправленной шиной с входом средств коммутации 16 и вторым входом средств помещения изображения 3D объекта на текстурную карту 21. Первый, второй и третий выходы средств коммутации 16 соединены соответственно с входами средств генерирования точечного изображения 3D объекта 17, средств генерирования мнемонического изображения 3D объекта 18 и средств генерирования изображения модели 3D объекта 19. Выходы средств генерирования точечного изображения 3D объекта 17, средств генерирования мнемонического изображения 3D объекта 18 и средств генерирования изображения модели 3D объекта 19 соединены с входом средств формирования маски изображения 3D объекта 20. Выход средств помещения изображения 3D объекта на текстурную карту 21 соединен с выходом 24 средств генерирования изображений 3D объектов 4.In the means of generating images of 3D objects 4, the means for generating the image mask of the 3D object 20 and the means for placing the image of the 3D object on the texture map 21 are connected in series. The input / output of the data 22 of the means for generating the images of 3D objects 4 is connected by a bi-directional bus to the input of the switching means 16 and the second input of placing the image of the 3D object on the texture map 21. The first, second and third outputs of the switching means 16 are connected respectively to the inputs of the means for generating a point image of a 3D object that 17, means for generating a mnemonic image of a 3D object 18 and means for generating an image of a 3D model of an object 19. The outputs of means for generating a point image of a 3D object 17, means for generating a mnemonic image of a 3D object 18 and means for generating an image of a model of 3D object 19 are connected to the input of means for generating an image mask 3D object 20. The output of the means of placing the image of the 3D object on the texture map 21 is connected to the output 24 of the means of generating images of 3D objects 4.

В средстве генерирования изображения модели 3D объекта 19 последовательно соединены средства формирования модели 3D объекта 24, средства наложения текстуры на модель 3D объекта 25 и средства рендеринга 26. Вход средств формирования модели 3D объекта 24 и второй вход средств наложения текстуры на модель 3D объекта 25 соединены двунаправленной шиной с входом-выходом данных 27 средств генерирования изображения модели 3D объекта 19. Выход средств рендеринга 26 соединен с выходом 28 средств генерирования изображения модели 3D объекта 19.In the means for generating the image of the 3D model of the object 19, the means for generating the 3D model of the object 24, the means for applying texture to the 3D model of the object 25, and the rendering means 26 are connected in series. The input of means for generating the 3D model of object 24 and the second input of the tools for applying texture to the 3D model of object 25 are connected a bus with input / output data 27 of the means of generating the image of the 3D model of the object 19. The output of the means of rendering 26 is connected to the output 28 of the means of generating the image of the 3D model of the object 19.

Устройство для реализации способа генерирования текстуры в реальном масштабе времени работает следующим образом (см. фиг.12-16). На информационный вход 9 поступают следующие данные: тематические карты, карты расположения изображений 3D объектов, фотоданные, тематические данные высокого, среднего и низкого разрешения, маски тематических объектов, модели 3D объектов, мнемонические изображения 3D объектов, точечные изображения 3D объектов, текстуры 3D объектов. Кроме того, на информационный вход 9 поступает в реальном времени информация о положении наблюдателя, например высота и действительное место в случае использования устройства для реализации способа генерирования текстуры в реальном масштабе времени в полетном тренажере.A device for implementing the real-time texture generation method works as follows (see FIGS. 12-16). Information input 9 receives the following data: thematic maps, maps of the location of images of 3D objects, photo data, thematic data of high, medium and low resolution, masks of thematic objects, models of 3D objects, mnemonic images of 3D objects, point images of 3D objects, textures of 3D objects. In addition, information on the observer’s position, for example, height and actual position, in the case of using the device to implement a method for generating real-time texture in a flight simulator, is received in real time information 9.

Средства хранения данных 1 обеспечивают хранение указанных выше данных, поступающих через информационный вход 9, и их предоставление на первый вход микропроцессора 5 для дальнейшей обработки. Средства хранения данных 1 могут включать, например, жесткий диск или другие устройства, позволяющие выполнять указанную функцию.Means of data storage 1 provide storage of the above data coming through information input 9, and their provision to the first input of microprocessor 5 for further processing. Storage media 1 may include, for example, a hard disk or other devices capable of performing this function.

В процессе работы системы на информационный вход 9 поступает информация о положении наблюдателя, микропроцессор 5 обрабатывает ее и передает на вход средств определения зоны видимости 2, где в зависимости от текущего положения наблюдателя осуществляется расчет области, видимой наблюдателю. В простейшем случае (см. фиг.3) в зависимости от предварительно заданного значения угла обзора α осуществляется расчет границ квадрата видимости на плоскости XY, причем координата Z наблюдателя является высотой наблюдателя над плоскостью. Таким образом необходимо рассчитать четыре значения X1, Х2, Y1, Y2, ограничивающие квадрат зоны видимости на плоскости XY. Данное устройство может быть реализовано в виде комбинационной логической схемы, реализующей указанную функцию. Результаты расчета передаются на второй вход микропроцессора 5.During the operation of the system, information about the position of the observer is received at the information input 9, the microprocessor 5 processes it and transfers to the input of the means for determining the visibility zone 2, where, depending on the current position of the observer, the area visible to the observer is calculated. In the simplest case (see Fig. 3), depending on the predefined value of the viewing angle α, the boundaries of the square of visibility on the XY plane are calculated, and the observer's Z coordinate is the height of the observer above the plane. Thus, it is necessary to calculate the four values of X1, X2, Y1, Y2, limiting the square of the visibility zone on the XY plane. This device can be implemented in the form of a combinational logic circuit that implements the specified function. The calculation results are transmitted to the second input of the microprocessor 5.

В зависимости от зоны видимости микропроцессор 5 запрашивает из средств хранения данных 1 нужную часть тематической карты. Тематическая карта поступает на первый вход микропроцессора 5.Depending on the visibility range, the microprocessor 5 requests from the data storage means 1 the necessary part of the thematic map. The thematic card is fed to the first input of microprocessor 5.

После поступления тематической карты микропроцессор 5 формирует исходную текстурную карту и передает ее на вход средств временного хранения текстурной карты 7, которые осуществляют хранение текстурной карты и ее предоставление на шестой вход микропроцессора 5 для дальнейшей обработки. Средства временного хранения текстурной карты 7 исполняют роль буфера и могут включать, например, высокоскоростное ОЗУ или другие устройства, позволяющие выполнять указанную функцию.After the arrival of the thematic card, the microprocessor 5 forms the initial texture map and transfers it to the input of temporary storage of the texture map 7, which store the texture map and provide it to the sixth input of the microprocessor 5 for further processing. Means of temporary storage of texture map 7 act as a buffer and may include, for example, high-speed RAM or other devices that allow performing the specified function.

После формирования исходной текстурной карты микропроцессор 5 начинает последовательную обработку тематической карты, т.е. производит обход всех имеющихся тематических объектов.After the formation of the original texture map, the microprocessor 5 begins sequential processing of the thematic map, i.e. bypasses all available thematic objects.

После обнаружения тематического объекта микропроцессор 5 передает информацию о нем на вход средств обработки тематических объектов 3, которые обеспечиваю помещение изображения тематического объекта на текстурную карту. В процессе работы средства обработки тематических объектов 3 запрашивают маску тематического объекта, соответствующие текстурные данные и фотоданные из средств хранения данных 1 через микропроцессор 5, а также текстурную карту из средств временного хранения текстурной карты 7.After the discovery of a thematic object, the microprocessor 5 transmits information about it to the input of the processing facilities for thematic objects 3, which ensure that the image of the thematic object is placed on a texture map. In the process, the processing facilities for thematic objects 3 request a mask for a thematic object, corresponding texture data and photo data from data storage means 1 through microprocessor 5, as well as a texture map from temporary storage means of texture map 7.

После помещения изображения тематического объекта на текстурную карту текстурная карта передается на третий вход микропроцессора 5, который передает ее на вход средств временного хранения тематической карты 7.After placing the image of the thematic object on the texture map, the texture map is transferred to the third input of the microprocessor 5, which transfers it to the input of temporary storage means of the theme map 7.

После помещения изображений всех тематических объектов на текстурную карту микропроцессор 5 запрашивает из средств хранения данных 1 нужную часть карты расположения изображений 3D объектов. Карта расположения изображений 3D объектов поступает на первый вход микропроцессора 5, после чего микропроцессор 5 начинает последовательную обработку карты расположения изображений 3D объектов, т.е. производит обход всех имеющихся 3D объектов.After placing the images of all thematic objects on the texture map, the microprocessor 5 requests from the data storage means 1 the necessary part of the map of the location of the images of 3D objects. The map of the location of images of 3D objects is fed to the first input of the microprocessor 5, after which the microprocessor 5 begins sequential processing of the map of the location of images of 3D objects bypasses all available 3D objects.

После обнаружения 3D объекта микропроцессор 5 передает информацию о нем на вход средств генерирования изображений 3D объектов 4, которые обеспечивают помещение соответствующего изображения 3D объекта (точечного, мнемонического или трехмерного) на текстурную карту. Выбор соответствующего изображения 3D объекта осуществляется в зависимости от положения наблюдателя. Другими словами, если 3D объект находится на расстоянии, меньшем предопределенного значения X, то генерируется его трехмерное изображение, если он находится на расстоянии, большем X, то генерируется его мнемоническое изображение, и, наконец, если 3D объект находится на расстоянии, большем предопределенного значения X, то генерируется его точечное изображение. Таким образом, микропроцессор 5 рассчитывает это расстояние и передает соответствующий управляющий сигнал переключения режима визуализации 3D объектов на вход средств генерирования изображений 3D объектов 4. В процессе работы средства генерирования изображений 3D объектов 4 запрашивают точечное, мнемоническое изображения 3D объекта, модель и текстуру 3D объекта, в зависимости от варианта визуализации, из средств хранения данных 1 через микропроцессор 5, а также текстурную карту из средств временного хранения текстурной карты 7.After the 3D object is detected, the microprocessor 5 transmits information about it to the input of 3D image generating means 4, which ensure that the corresponding 3D image of the object (point, mnemonic or three-dimensional) is placed on the texture map. The selection of the corresponding image of a 3D object is carried out depending on the position of the observer. In other words, if the 3D object is at a distance less than a predetermined value of X, then its three-dimensional image is generated, if it is at a distance greater than X, then its mnemonic image is generated, and finally, if the 3D object is at a distance greater than the predetermined value X, then its point image is generated. Thus, the microprocessor 5 calculates this distance and transmits the corresponding control signal for switching the 3D visualization mode to the input of 3D image generation tools 4. In the process, 3D image generation tools 4 request a point, mnemonic image of a 3D object, model and texture of a 3D object, depending on the visualization option, from the data storage means 1 through the microprocessor 5, as well as the texture map from the temporary storage means of the texture map 7.

После помещения изображения 3D объекта на текстурную карту текстурная карта передается на четвертый вход микропроцессора 5, который передает ее на вход средств временного хранения тематической карты 7.After placing the image of the 3D object on the texture map, the texture map is transferred to the fourth input of the microprocessor 5, which transfers it to the input of temporary storage of the thematic map 7.

После помещения всех изображений 3D объектов на текстурную карту микропроцессор 5 запрашивает полностью сформированную текстурную карту из средств временного хранения текстурной карты 7 и передает ее на вход видеоинтерфейса 6 для визуализации.After placing all the images of 3D objects on the texture map, the microprocessor 5 requests a fully formed texture map from the temporary storage means of the texture map 7 and transfers it to the input of the video interface 6 for visualization.

Видеоинтерфейс 6 осуществляет формирование изображения для вывода на экран видеомонитора 8. В качестве видеоинтерфейса можно использовать стандартный видеоадаптер ПК, например, NVIDIA 6600 GT или другой тип устройства, позволяющий выполнять указанные функции.Video interface 6 implements the image for display on the video monitor 8. As a video interface, you can use a standard PC video adapter, for example, NVIDIA 6600 GT or another type of device that allows you to perform these functions.

Видеомонитор 8 обеспечивает визуальное представление пользователю сформированного изображения текстурной карты, поступающего от видеоинтерфейса. В качестве видеомонитора можно использовать стандартный видеомонитор ПК, поддерживающий разрешение 1152×864 и 32 битную глубину цвета.The video monitor 8 provides a visual representation to the user of the generated image of the texture map from the video interface. As a video monitor, you can use a standard PC video monitor that supports a resolution of 1152 × 864 and 32 bit color depth.

Как следует из анализа фиг.12-15, микропроцессор 5 обеспечивает централизованный обмен информацией между блоками устройства для реализации способа генерирования текстуры в реальном масштабе времени. Также микропроцессор 5 обеспечивает выполнение следующих функций: обработку тематической карты, обработку карты расположения изображений 3D объектов, определение варианта визуализации 3D объекта в зависимости от расстояния до него и обработку в реальном масштабе времени поступающих на информационный вход 9 данных о положении наблюдателя. В качестве микропроцессора можно использовать стандартный микропроцессор ПК, например, Intel® Pentium 4 3.8 GHz Extreme Edition или другой тип устройства, позволяющий выполнять указанные функции.As follows from the analysis of FIGS. 12-15, the microprocessor 5 provides a centralized exchange of information between the units of the device to implement a real-time texture generation method. Microprocessor 5 also provides the following functions: processing a thematic map, processing a map of the location of images of 3D objects, determining a variant of visualization of a 3D object depending on the distance to it, and processing in real time the data on the observer's position received at information input 9. As a microprocessor, you can use a standard PC microprocessor, for example, Intel® Pentium 4 3.8 GHz Extreme Edition or another type of device that allows you to perform these functions.

Средства обработки тематических объектов 3 работают следующим образом (см. фиг.13). Информация о параметрах тематических объектов, о параметрах маски тематического объекта, о текстуре и фотоданных поступает от микропроцессора 5 через вход-выход данных 14 на средства определения параметров тематических объектов 10, средства формирования маски 11, средства формирования тематической текстуры 12 и средства помещения изображения тематического объекта на текстурную карту 13. Средства определения параметров тематических объектов 10 по полученной информации определяют размеры, форму и положение тематических объектов на текстурной карте и затем осуществляют управление загрузкой и работой средства формирования маски 11, средства формирования тематической текстуры 12 и средства помещения изображения тематического объекта на текстурную карту 13.Means of processing thematic objects 3 work as follows (see Fig.13). Information about the parameters of the thematic objects, about the parameters of the mask of the thematic object, about the texture and photo data comes from the microprocessor 5 through the input-output of data 14 to the means for determining the parameters of the thematic objects 10, means for forming the mask 11, means for forming the thematic texture 12 and means for placing the image of the thematic object to texture map 13. Means for determining the parameters of thematic objects 10 from the received information determine the size, shape and position of thematic objects on the texture th map and then loading and administers operation of the mask generating means 11, generating means 12 and focal texture image space theme object means on a texture map 13.

Средства формирования маски 11 предназначены для формирования маски изображения тематического объекта по загруженным параметрам.Means of forming a mask 11 are intended for forming a mask of the image of a thematic object according to the loaded parameters.

Средства формирования тематической текстуры 12 предназначены для формирования текстуры тематического объекта.Means of forming a thematic texture 12 are intended for forming a texture of a thematic object.

Средства помещения изображения тематического объекта на текстурную карту 13 служат для помещения изображения тематического объекта на текстурную карту по сформированной маске.Means for placing the image of the thematic object on the texture map 13 are used to place the image of the thematic object on the texture map according to the generated mask.

Средства формирования маски 11 запрашивают через вход-выход данных 14 из средства хранения данных 1 маску, по определенным параметрам тематического объекта формируют ее и передают средствам помещения изображения тематического объекта на текстурную карту 13.The means of forming the mask 11 request through the input-output of data 14 from the data storage means 1 a mask, according to certain parameters of the thematic object they form it and transmit to the means of placing images of the thematic object on the texture map 13.

Средства формирования тематической текстуры 12 формируют текстуру для помещения ее на текстурную карту путем формирования изображения тематического объекта по размерам сформированной маски. Если размер тематических данных меньше требуемого размера конечной текстуры, то тематическими данными заполняется вся требуемая текстура. Далее сформированная текстура тематического объекта передается средствам помещения изображения тематического объекта на текстурную карту 13.Means of forming a thematic texture 12 form a texture for placing it on a texture map by forming an image of a thematic object according to the size of the formed mask. If the size of the thematic data is less than the required size of the final texture, then the entire required texture is filled with thematic data. Next, the formed texture of the thematic object is transmitted to the means of placing the image of the thematic object on the texture map 13.

Получив все необходимые данные, средства помещения изображения тематического объекта на текстурную карту 13 запрашивают через выход-вход данных 14 текстурную карту и по маске накладывают на нее сформированную текстуру. Текстурную карту с наложенным тематическим объектом передают на выход средств обработки тематических объектов 15.Having received all the necessary data, the means of placing the image of the thematic object on the texture map 13 are requested through the output-input of data 14 texture map and the mask is applied to the formed texture on it. A texture map with a thematic object superimposed is passed to the output of the processing facilities for thematic objects 15.

Средства генерирования изображений 3D объектов 4 работают следующим образом (см. фиг.14). Средства генерирования изображения 3D объектов 4 обеспечивают формирование и наложение на текстурную карту изображений 3D объекта. Объекты могут быть представлены в виде точек при максимально высоком положении наблюдателя, в виде мнемонических изображений 3D объекта при среднем между максимально высоким положением и максимально приближенным значением положения наблюдателя и в виде 3D объектов при максимально приближенном положении наблюдателя. Информация о параметрах 3D объектов поступает от микропроцессора 5 через вход-выход данных 22 на средства коммутации 16 и средства помещения изображения 3D объекта на текстурную карту 21. Средства коммутации 16 по полученной информации осуществляют загрузку средства генерирования точечного изображения 3D объекта 17, средства генерирования мнемонического изображения 3D объекта 18 и средства генерирования изображения модели 3D объекта 19.Means of generating images of 3D objects 4 work as follows (see Fig.14). Means of generating images of 3D objects 4 provide the formation and overlay on a texture map of images of a 3D object. Objects can be represented as points at the highest position of the observer, in the form of mnemonic images of a 3D object with an average between the highest position and the maximum approximate value of the position of the observer, and in the form of 3D objects at the maximum approximate position of the observer. Information about the parameters of 3D objects comes from the microprocessor 5 through the input / output of data 22 to the switching means 16 and the means of placing the 3D image of the object on the texture map 21. The switching means 16, according to the received information, load the means for generating a point image of a 3D object 17, means for generating a mnemonic image 3D of an object 18 and means for generating an image of a 3D model of an object 19.

Для формирования точечного изображения 3D объекта в блок средства генерирования точечного изображения 3D объекта 17 через микропроцессор 5 поступают следующие данные из средств хранения данных 1: точечное изображение 3D объекта, положение изображения 3D объекта.To form a point image of a 3D object, the following data from the data storage means 1 is received in the block of the means for generating a point image of a 3D object 17 through a microprocessor 5: a point image of a 3D object, the position of the image of a 3D object.

Для формирования мнемонического изображения 3D объекта в средства генерирования мнемонического изображения 3D объекта 18 через микропроцессор 5 поступают следующие данные из средств хранения данных 1: мнемоническое изображение 3D объекта, положение изображения 3D объекта.To form a mnemonic image of a 3D object, means for generating a mnemonic image of a 3D object 18 via microprocessor 5 receive the following data from data storage means 1: a mnemonic image of a 3D object, the position of the image of a 3D object.

Для формирования изображения модели 3D объекта в средства генерирования изображения модели 3D объекта 19 через микропроцессор 5 поступают следующие данные из средств хранения данных 1: модель 3D объекта, текстура 3D объекта, положение 3D объекта и его размеры.To form an image of a 3D object model, means for generating an image of a 3D object model 19 via microprocessor 5 receive the following data from data storage means 1: 3D object model, 3D object texture, 3D object position and its dimensions.

Средства формирования маски изображения 3D объекта 20 по определенным параметрам 3D объекта формируют маску изображения 3D объекта и передают средствам помещения изображения 3D объекта на текстурную карту 21.The means of forming the image mask of the 3D object 20 according to certain parameters of the 3D object form the image mask of the 3D object and transmit to the means of placing the image of the 3D object on the texture map 21.

Получив все необходимые данные, средства помещения изображения 3D объекта на текстурную карту 21 по маске накладывают на текстурную карту изображение 3D объекта и передают его на выход 23 средств генерирования изображений 3D объектов 4.Having received all the necessary data, the means of placing the image of the 3D object on the texture map 21 in a mask superimpose the image of the 3D object on the texture map and transmit it to the output 23 of the means for generating images of 3D objects 4.

Средства генерирования изображения модели 3D объекта 19 работают следующим образом (см. фиг.15). Информация о параметрах модели 3D объекта поступает от микропроцессора 5 через вход-выход данных 27 на средства формирования модели 3D объекта 24 и средства наложения текстуры на модель 3D объекта 25. Средства формирования модели 3D объекта 24 по полученной информации осуществляют загрузку модели 3D объекта из хранилища данных 1 и формирование модели конкретного 3D объекта с использованием таких параметров, как размеры, положение 3D объекта. Сформированная модель 3D объекта передается средствам наложения текстуры на модель 3D объекта 25. Средства наложения текстуры на модель 3D объекта 25 по полученной информации осуществляют загрузку текстуры модели 3D объекта из хранилища данных 1 и текстурирование модели конкретного 3D объекта. После наложения текстуры текстурированная модель 3D объекта передается средствам рендеринга 26. Средства рендеринга 26 осуществляют визуализацию текстурированной модели 3D объекта и передают визуализированное изображение на выход 28 средств генерирования изображения модели 3D объекта 19.The means for generating an image of a 3D model of an object 19 operate as follows (see FIG. 15). Information about the parameters of the 3D model of the object comes from the microprocessor 5 through the input-output data 27 to the means of forming the 3D model of the object 24 and the means of applying texture to the model of the 3D object 25. The means of forming the 3D model of the object 24 from the received information load the 3D model of the object from the data store 1 and the formation of a model of a specific 3D object using parameters such as dimensions, position of the 3D object. The generated model of the 3D object is transferred to the texture mapping means on the 3D model of the object 25. The texture mapping means on the 3D model of the object 25, according to the received information, download the texture of the 3D model of the object from data storage 1 and texturing the model of the specific 3D object. After applying the texture, the textured model of the 3D object is transferred to the rendering means 26. The rendering means 26 render the textured model of the 3D object and transmit the rendered image to the output 28 of the means for generating the image of the 3D model of the object 19.

Приведенные описания способа генерирования текстуры в реальном масштабе времени и устройства для его реализации, по мнению авторов предполагаемого изобретения, показывают, что предлагаемый способ генерирования текстуры в реальном масштабе времени позволяет устранить недостатки известного способа генерирования текстуры и формирует изображение реалистичной текстуры в реальном масштабе времени. Фиг.8-11 наглядно демонстрируют это.The above descriptions of the real-time texture generation method and device for its implementation, according to the authors of the alleged invention, show that the proposed real-time texture generation method eliminates the disadvantages of the known texture generation method and forms a realistic texture image in real time. Figs. 8-11 illustrate this clearly.

Технико-экономический эффект предложенного способа и устройства для его реализации заключается в генерировании более реалистичной текстуры в реальном масштабе времени, что способствует улучшению условий последующей обработки визуализируемой информации.The technical and economic effect of the proposed method and device for its implementation consists in generating a more realistic texture in real time, which helps to improve the conditions for subsequent processing of the visualized information.

Источники информацииInformation sources

1. В.Штрассер, А.Шиллинг, Г.Книттель. Архитектуры высокопроизводительных графических систем // Открытые системы, №5, 1995.1. V. Strasser, A. Schilling, G. Knittel. The architecture of high-performance graphics systems // Open Systems, No. 5, 1995.

2. A.Flavell. MIP-MAP Filtering в процессе выполнения приложения // www.ixbt.com., 02.11.1999.2. A.Flavell. MIP-MAP Filtering during application execution // www.ixbt.com., 02/02/1999.

3. Method and apparatus for texture generation // Patent CA 1217861 from 1987-02-07.3. Method and apparatus for texture generation // Patent CA 1217861 from 1987-02-07.

4. Texturing system // Patent US 2005055550 from 2005-03-10.4. Texturing system // Patent US 2005055550 from 2005-03-10.

5. Image texturing system having theme cells // Patent US 5748867 from 1998-05-05.5. Image texturing system having theme cells // Patent US 5748867 from 1998-05-05.

Claims (2)

1. Способ генерирования текстуры в реальном масштабе времени, заключающийся в том, что предварительно составляют тематическую карту, формируют и хранят тематические данные, в зависимости от положения наблюдателя определяют зону видимости, а также формируют и хранят информацию о 3D объектах (трехмерных объектах), осуществляют формирование и изменение параметров тематических объектов и составляют текстурную карту из тематических объектов путем операции наложения по маске, отличающийся тем, что формирование, маскирование и изменение параметров изображения каждого 3D объекта осуществляется путем определения параметров изображения 3D объекта, при этом изображение 3D объекта может быть представлено в одном из трех вариантов: точечном, мнемоническом и изображении модели 3D объекта, в зависимости от представления изображения 3D объекта осуществляется формирование точечного, или мнемонического, или изображения модели 3D объекта, в зависимости от представления изображения 3D объекта осуществляется формирование маски точечного или мнемонического объекта, или получение модели и текстуры 3D объекта, текстурирование 3D объекта, рендеринг 3D объекта, формирование маски 3D объекта и наложение изображения 3D объекта на текстурную карту.1. A method of generating texture in real time, which consists in preliminarily compiling a thematic map, forming and storing thematic data, depending on the position of the observer, determining the visibility zone, and also generating and storing information about 3D objects (three-dimensional objects), the formation and change of parameters of thematic objects and make up a texture map of thematic objects by means of masking operations, characterized in that the formation, masking and change of steam The image of each 3D object is carried out by determining the parameters of the image of the 3D object, while the image of the 3D object can be represented in one of three options: point, mnemonic and image of the 3D model of the object, depending on the representation of the image of the 3D object, the formation of a point, or mnemonic, or images of a 3D object model, depending on the representation of the 3D object image, a mask of a point or mnemonic object is formed, or the model is received and those 3D object texture, 3D object texturing, 3D object rendering, 3D object mask formation and 3D object image overlay on the texture map. 2. Устройство для реализации способа генерирования текстуры в реальном масштабе времени, содержащее последовательно соединенные видеоинтерфейс и видеомонитор, а также средства хранения данных и средства генерирования изображений 3D объектов, микропроцессор, средства определения зоны видимости, средства обработки тематических объектов и средства временного хранения текстурной карты, при этом выход микропроцессора соединен с входом видеоинтерфейса, а средства хранения данных, средства определения зоны видимости, средства обработки тематических объектов, средства генерирования изображений 3D объектов и средства временного хранения текстурной карты соединены двунаправленными шинами соответственно с первым, вторым, третьим, четвертым, и шестым входами микропроцессора, пятый вход которого соединен с входом устройства для реализации способа генерирования текстуры в реальном масштабе времени, отличающееся тем, что средства обработки тематических объектов содержат последовательно соединенные средства определения параметров тематических объектов, средства формирования маски и средства помещения изображения тематического объекта на текстурную карту, а также средства формирования тематической текстуры, при этом второй и третий выходы средств определения параметров тематических объектов соединены соответственно с первым входом средств формирования тематической текстуры и со вторым входом средств помещения изображения тематического объекта на текстурную карту, вход-выход данных средств обработки тематических объектов соединен двунаправленной шиной со средствами определения параметров тематических объектов, вторыми входами средств формирования маски и средств формирования тематической текстуры и третьим входом средств помещения изображения тематического объекта на текстурную карту, четвертый вход которых соединен с выходом средств формирования тематической текстуры, а выход - с выходом средств обработки тематических объектов, средства генерирования изображений 3D объектов содержат последовательно соединенные средства формирования маски изображения 3D объекта и средства помещения изображения 3D объекта на текстурную карту, а также средства коммутации, средства генерирования точечного изображения 3D объекта, средства генерирования мнемонического изображения 3D объекта и средства генерирования изображения модели 3D объекта, при этом вход-выход данных средств генерирования изображений 3D объектов соединены двунаправленной шиной с входом средств коммутации и вторым входом средств помещения изображения 3D объекта на текстурную карту, первый, второй и третий выходы средств коммутации соединены соответственно с входами средств генерирования точечного изображения 3D объекта, средств генерирования мнемонического изображения 3D объекта и средств генерирования изображения модели 3D объекта, выходы средств генерирования точечного изображения 3D объекта, средств генерирования мнемонического изображения 3D объекта и средств генерирования изображения модели 3D объекта соединены с входом средств формирования маски изображения 3D объекта, выход средств помещения изображения 3D объекта на текстурную карту соединен с выходом средств генерирования изображений 3D объектов, средства генерирования изображения модели 3D объекта содержат последовательно соединенные средства формирования модели 3D объекта, средства наложения текстуры на модель 3D объекта и средства рендеринга, при этом вход средств формирования модели 3D объекта и второй вход средств наложения текстуры на модель 3D объекта соединены двунаправленной шиной с входом-выходом данных средств генерирования изображения модели 3D объекта, выход средств рендеринга соединен с выходом средств генерирования изображения модели 3D объекта.2. A device for implementing a real-time texture generation method, comprising a video interface and a video monitor connected in series, as well as data storage means and 3D object image generation means, a microprocessor, visibility zone determination means, thematic objects processing means and texture map temporary storage means, the output of the microprocessor is connected to the input of the video interface, and the data storage means, means for determining the visibility range, processing means math objects, means of generating images of 3D objects and means of temporary storage of texture maps are connected by bidirectional buses, respectively, with the first, second, third, fourth, and sixth inputs of the microprocessor, the fifth input of which is connected to the input of the device for implementing the method of generating texture in real time, different the fact that the processing facilities for thematic objects contain sequentially connected means for determining the parameters of thematic objects, the means of forming masks and means for placing the image of the thematic object on the texture map, as well as means for forming the thematic texture, while the second and third outputs of the means for determining the parameters of the thematic objects are connected respectively to the first input of the means for forming the thematic texture and to the second input of the means for placing the image of the thematic object on the texture a card, input-output of data for processing tools for thematic objects is connected by a bi-directional bus with means for determining the parameters of thematic objects, the second inputs of the means of forming a mask and means of forming a thematic texture and the third input of means of placing the image of a thematic object on a texture map, the fourth input of which is connected to the output of means of forming a thematic texture, and the output to the output of means of processing thematic objects, 3D image generating means objects contain series-connected means of forming a mask image of a 3D object and means of placing the image of a 3D object on a texture map y, as well as means of switching, means for generating a point image of a 3D object, means for generating a mnemonic image of a 3D object, and means for generating an image of a model of 3D objects, while the input-output of these means for generating images of 3D objects is connected by a bi-directional bus to the input of means of switching and the second input of means placing the 3D image of the object on the texture map, the first, second and third outputs of the switching means are connected respectively to the inputs of the point image generating means 3D object, means for generating a mnemonic image of a 3D object and means for generating an image of a model of a 3D object, outputs of means for generating a point image of a 3D object, means for generating a mnemonic image of a 3D object, and means for generating an image of a model of a 3D object are connected to the input of means for generating a mask for a 3D image of an object means for placing an image of a 3D object on a texture map is connected to the output of means for generating images of 3D objects, means for generating an image 3D model objects contain series-connected 3D object model generation tools, texture mapping tools on a 3D object model and rendering tools, while the input of 3D model building tools and the second input of texture mapping tools on a 3D object model are connected by a bi-directional bus with data input / output means for generating an image of a model of a 3D object, the output of rendering means is connected to the output of means for generating an image of a model of a 3D object.
RU2005129968/09A 2005-09-26 2005-09-26 Method for generation of texture in real time scale and device for its realization RU2295772C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2005129968/09A RU2295772C1 (en) 2005-09-26 2005-09-26 Method for generation of texture in real time scale and device for its realization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2005129968/09A RU2295772C1 (en) 2005-09-26 2005-09-26 Method for generation of texture in real time scale and device for its realization

Publications (1)

Publication Number Publication Date
RU2295772C1 true RU2295772C1 (en) 2007-03-20

Family

ID=37994156

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2005129968/09A RU2295772C1 (en) 2005-09-26 2005-09-26 Method for generation of texture in real time scale and device for its realization

Country Status (1)

Country Link
RU (1) RU2295772C1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2540849C2 (en) * 2010-08-19 2015-02-10 Ниссан Мотор Ко., Лтд. Device for detecting three-dimensional object and method of detecting three-dimensional object
RU2586566C1 (en) * 2015-03-25 2016-06-10 Общество с ограниченной ответственностью "Лаборатория 24" Method of displaying object
RU2606874C1 (en) * 2015-12-02 2017-01-10 Виталий Витальевич Аверьянов Method of augmented reality environment generating device controlling
RU2642167C2 (en) * 2015-08-14 2018-01-24 Самсунг Электроникс Ко., Лтд. Device, method and system for reconstructing 3d-model of object
RU2653634C2 (en) * 2010-12-22 2018-05-11 Конинклейке Филипс Электроникс Н.В. Visualisation of flow patterns
US10360718B2 (en) 2015-08-14 2019-07-23 Samsung Electronics Co., Ltd. Method and apparatus for constructing three dimensional model of object
RU2713611C2 (en) * 2015-05-27 2020-02-05 Империал Колледж Оф Сайенс, Текнолоджи Энд Медсин Three-dimensional space simulation method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2540849C2 (en) * 2010-08-19 2015-02-10 Ниссан Мотор Ко., Лтд. Device for detecting three-dimensional object and method of detecting three-dimensional object
RU2653634C2 (en) * 2010-12-22 2018-05-11 Конинклейке Филипс Электроникс Н.В. Visualisation of flow patterns
RU2586566C1 (en) * 2015-03-25 2016-06-10 Общество с ограниченной ответственностью "Лаборатория 24" Method of displaying object
WO2016153388A1 (en) * 2015-03-25 2016-09-29 Общество с ограниченной ответственностью "Лаборатория 24" Method for depicting an object
RU2713611C2 (en) * 2015-05-27 2020-02-05 Империал Колледж Оф Сайенс, Текнолоджи Энд Медсин Three-dimensional space simulation method
RU2642167C2 (en) * 2015-08-14 2018-01-24 Самсунг Электроникс Ко., Лтд. Device, method and system for reconstructing 3d-model of object
US10360718B2 (en) 2015-08-14 2019-07-23 Samsung Electronics Co., Ltd. Method and apparatus for constructing three dimensional model of object
RU2606874C1 (en) * 2015-12-02 2017-01-10 Виталий Витальевич Аверьянов Method of augmented reality environment generating device controlling
WO2017095273A1 (en) * 2015-12-02 2017-06-08 Виталий Витальевич АВЕРЬЯНОВ Method of controlling a device for generating an augmented reality environment
US10706627B2 (en) 2015-12-02 2020-07-07 Devar Entertainment Limited Method of controlling a device for generating an augmented reality environment

Similar Documents

Publication Publication Date Title
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
US6229549B1 (en) High-speed three-dimensional texture mapping systems and methods
RU2295772C1 (en) Method for generation of texture in real time scale and device for its realization
CN102289845B (en) Three-dimensional model drawing method and device
JPH0757117A (en) Forming method of index to texture map and computer control display system
CA2214433A1 (en) Computer graphics system for creating and enhancing texture maps
JP2017505471A (en) Image rendering of laser scan data
KR20090114860A (en) Image presenting method and apparatus for 3D navigation, and mobile apparatus comprising the same apparatus
CN101477700B (en) Real tri-dimension display method oriented to Google Earth and Sketch Up
JP2002507799A (en) Probabilistic level of computer animation
JP3514947B2 (en) Three-dimensional image processing apparatus and three-dimensional image processing method
JP5873672B2 (en) Method for estimating the amount of light received at a point in a virtual environment
US20060066608A1 (en) System and method for determining line-of-sight volume for a specified point
CN112530005B (en) Three-dimensional model linear structure recognition and automatic restoration method
GB2406252A (en) Generation of texture maps for use in 3D computer graphics
CN101477701A (en) Built-in real tri-dimension rendering process oriented to AutoCAD and 3DS MAX
CN101477702B (en) Built-in real tri-dimension driving method for computer display card
Yang et al. Nonlinear perspective projections and magic lenses: 3D view deformation
US9401044B1 (en) Method for conformal visualization
Vyatkin et al. Voxel Volumes volume-oriented visualization system
CN101521828B (en) Implanted type true three-dimensional rendering method oriented to ESRI three-dimensional GIS module
CN101540056B (en) Implanted true-three-dimensional stereo rendering method facing to ERDAS Virtual GIS
Dorffner et al. Generation and visualization of 3D photo-models using hybrid block adjustment with assumptions on the object shape
RU2467395C1 (en) Method of forming images of three-dimensional objects for real-time systems
CN101488229A (en) PCI three-dimensional analysis module oriented implantation type ture three-dimensional stereo rendering method

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20070927