RU2802853C1 - Spatial sound system for navigation of visually impaired people - Google Patents

Spatial sound system for navigation of visually impaired people Download PDF

Info

Publication number
RU2802853C1
RU2802853C1 RU2022129973A RU2022129973A RU2802853C1 RU 2802853 C1 RU2802853 C1 RU 2802853C1 RU 2022129973 A RU2022129973 A RU 2022129973A RU 2022129973 A RU2022129973 A RU 2022129973A RU 2802853 C1 RU2802853 C1 RU 2802853C1
Authority
RU
Russia
Prior art keywords
sensor
unit
processing unit
user
digital
Prior art date
Application number
RU2022129973A
Other languages
Russian (ru)
Inventor
Димитриос Палогианнидис
Ханади Солиман
Original Assignee
Федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский государственный электротехнический университет "ЛЭТИ" им. В.И. Ульянова (Ленина)" (СПбТЭТУ "ЛЭТИ")
Filing date
Publication date
Application filed by Федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский государственный электротехнический университет "ЛЭТИ" им. В.И. Ульянова (Ленина)" (СПбТЭТУ "ЛЭТИ") filed Critical Федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский государственный электротехнический университет "ЛЭТИ" им. В.И. Ульянова (Ленина)" (СПбТЭТУ "ЛЭТИ")
Application granted granted Critical
Publication of RU2802853C1 publication Critical patent/RU2802853C1/en

Links

Abstract

FIELD: medicine.
SUBSTANCE: invention relates to devices that enable visually impaired patients to replace direct visual perception with another kind of perception. A spatial sound system for navigation of people with visual impairments comprises an ultrasonic distance sensor (5), a lidar sensor (7), an infrared proximity sensor (6), a processing unit (2), a memory unit (10) and a power source (4) placed on the frame, as well as a sound reproduction module (3). The three-axis gyroscope-accelerometer (8) of the system is combined with an ultrasonic sensor (5), a lidar sensor (7) and an infrared sensor (6) into a sensor unit (1). The processing unit (2) includes an analogue-to-digital converter (11), a computing device (9), a digital-to-analogue converter (12) and a memory unit (10). The power supply (4) feeds the sensor unit through the processing unit (2). The system is configured to transmit data from the sensor unit (1) to the processing unit (2) through an analogue-to-digital converter (11), which generates spatial sounds after combining the data from the sensor unit (1) with the data of the gyroscope-accelerometer (8). The memory unit (10) stores and uses the readings of the sensors to generate the amplitude and frequency of the spatial sound.
EFFECT: accurate determination of the position of obstacles in space by the user is provided using an autonomous device for navigating in space for people with visual impairments.
1 cl, 9 dwg

Description

Изобретение относится к области устройств, дающих пациентам с дефектами зрения возможность замены прямого зрительного восприятия другим видом восприятия.The invention relates to the field of devices that give patients with visual impairments the opportunity to replace direct visual perception with another type of perception.

Нарушение зрения, также известное как ухудшение зрения или потеря зрения, - это снижение способности видеть до такой степени, что возникают проблемы, не устранимые обычными средствами, такими как очки. Нарушение зрения встречается чаще, чем кажется. Вот краткие данные, приведенные WHO:Visual impairment, also known as vision impairment or vision loss, is a decrease in the ability to see to such an extent that problems occur that cannot be corrected by conventional means such as glasses. Visual impairment is more common than it seems. Here's a summary from WHO:

• Во всем мире число людей с нарушениями зрения оценивается в 2,2 миллиарда, из них 39 миллионов - слепые.• Worldwide, the number of people with visual impairment is estimated at 2.2 billion, of whom 39 million are blind.

• Люди в возрасте 50 лет и старше составляют 82% всех слепых. • People aged 50 years and older account for 82% of all blind people.

• Значительными причинами нарушения зрения являются:• Significant causes of visual impairment are:

неисправленные аномалии рефракции (43%) и катаракта (33%); первой причиной слепоты является катаракта (51%).uncorrected refractive errors (43%) and cataracts (33%); The first cause of blindness is cataracts (51%).

• Нарушение зрения в 2010 году является одной из основных глобальных проблем здравоохранения: предотвратимые причины составляют до 80% от общего глобального бремени.• Visual impairment is a major global health problem in 2010, with preventable causes accounting for up to 80% of the total global burden.

Количество людей с нарушениями зрения (НЗ) достаточно велико, чтобы заинтересовать ученых в области медицины и биомедицины в поиске новых способов улучшения качества жизни людей с НЗ.The number of people with visual impairments (VIs) is large enough to interest medical and biomedical scientists in finding new ways to improve the quality of life of people with visual impairments.

В целом, все концепции имеют один и тот же принцип. Некий датчик размещается на части тела, которая постоянно свободна от помех. Он получает сигнал из окружающей среды, который анализируется процессором. Этот блок будет выдавать выходной сигнал, который зритель будет воспринимать с помощью других органов чувств. Как и трость или собака-поводырь, традиционные методы устарели, сопряжены с риском и неэффективны.In general, all concepts have the same principle. A sensor is placed on a part of the body that is constantly free from interference. It receives a signal from the environment, which is analyzed by the processor. This block will produce an output signal that the viewer will perceive using other senses. Like the cane or guide dog, traditional methods are outdated, risky, and ineffective.

В частности, в документе US 20200228914 А1 описано мобильное устройство, используемое для помощи слепым, людям с деменцией и лицам, которые в целом не знают (или забыли), как ориентироваться в определенном месте. Устройство подключается к внешним наушникам, используемым для воспроизведения направленных звуковых волн непрерывного тона, звукового сигнала или голосовой фразы. Звуки имеют переменную частоту и интенсивность. Устройство должно иметь заранее определенное (выбранное) целевое назначение для оказания помощи этим людям. Устройство также используется в качестве приемника данных о местоположении. Оно использует данные GPS для определения направления движения пользователя по нелинейной траектории.In particular, US 20200228914 A1 describes a mobile device used to assist blind people, people with dementia and people in general who do not know (or have forgotten) how to navigate a particular place. The device connects to external headphones used to produce directional sound waves of a continuous tone, beep, or voice phrase. Sounds have variable frequency and intensity. The device must have a predetermined (selected) purpose to assist these people. The device is also used as a location data receiver. It uses GPS data to determine the user's direction of movement along a non-linear trajectory.

В этом устройстве было обнаружено несколько недостатков. А именно, устройство может давать указания только относительно заданного целевого местоположения, не предоставляя пользователю никакой информации о повторяющихся препятствиях, которые он может встретить, таких как другие люди, киоски, автобусные остановки и другие. Более того, использование GPS может быть ограничено, поскольку на прием GPS влияют внешние факторы, такие как лесистая местность, вода и искусственные сооружения. Кроме того, GPS-приемник потребляет много энергии, что требует большего количества циклов зарядки, которые быстрее истощают аккумулятор.Several flaws were found with this device. Namely, the device can only provide guidance regarding a given target location, without providing the user with any information about recurring obstacles that he may encounter, such as other people, kiosks, bus stops, and others. Moreover, the use of GPS may be limited because GPS reception is affected by external factors such as wooded areas, water, and man-made structures. Additionally, the GPS receiver consumes a lot of power, requiring more charging cycles, which drains the battery faster.

В документе WO 2015112651 А1 описано оптическое устройство для людей с ослабленным зрением и способ эксплуатации такого устройства людьми, сохранившими хотя бы остаточную способность различать свет и цвета. Это само по себе ограничивает целевую группу потенциальных пользователей. Конструкция описывается как устройство для крепления на голове в виде оправы для очков, состоящее из оптических и акустических датчиков, помогающих людям ориентироваться в окружающей обстановке и перемещаться по ней. Стеклянные линзы оснащены светодиодными матрицами, которые загораются при обнаружении препятствия. Две широкоугольные видеокамеры идентифицируют препятствия. Помимо оптической обратной связи, пользователю также предоставляется дополнительная акустическая обратная связь. Устройство использует преимущества остаточной зрительной функции человека в качестве основного канала передачи информации. Компоненты установлены на оправе и подключены к портативному вычислительному устройству. Вычислительное устройство питается от внутренней батареи, которая может быть перезаряжаемой. Батарея также питает компоненты на оправе. Устройство способно распознавать объекты, текст и лица. Устройство оснащено голосовым управлением.WO 2015112651 A1 describes an optical device for people with low vision and a method for operating such a device by people who retain at least a residual ability to distinguish between light and colors. This in itself limits the target group of potential users. The design is described as a head-mounted device in the style of a glasses frame, consisting of optical and acoustic sensors to help people navigate and navigate their surroundings. The glass lenses are equipped with LED matrices that light up when an obstacle is detected. Two wide-angle video cameras identify obstacles. In addition to optical feedback, the user is also provided with additional acoustic feedback. The device takes advantage of the person's residual visual function as the main channel for transmitting information. The components are mounted on a frame and connected to a portable computing device. The computing device is powered by an internal battery, which may be rechargeable. The battery also powers the components on the frame. The device is capable of recognizing objects, text and faces. The device is equipped with voice control.

Несмотря на то, что это устройство является многофункциональным, оно обладает недостатком. Прежде всего, функциональность устройства основана на остаточном зрении пользователя. Это является ограничением, но также вызывает сомнения, поскольку нет возможности убедиться, что пользователь сможет правильно идентифицировать обратную связь, предоставляемую светодиодами. Более того, если объект не идентифицирован, пользователю будет дана инструкция повторно представить его под другим углом (например, изменив свое относительное положение). Это может быть потенциально опасно в незнакомом пространстве. Также неизвестно, как устройство будет правильно распознавать множество объектов, текст и людей, поскольку нет данных о точности и времени обработки алгоритма, так как распознавание изображений основано на сравнении очертаний и оттенков обнаруженных объектов с теми, что хранятся в созданных библиотеках. Кроме того, внутренний аккумулятор заявлен как возможно перезаряжаемый и недостаточный, что означает, что устройство может быть нефункциональным для использования в течение всего дня.Although this device is multifunctional, it does have a drawback. First of all, the functionality of the device is based on the user's residual vision. This is a limitation, but it is also questionable since there is no way to ensure that the user will be able to correctly identify the feedback provided by the LEDs. Moreover, if an object is not identified, the user will be instructed to re-present it from a different angle (e.g., by changing its relative position). This can be potentially dangerous in an unfamiliar space. It is also unknown how the device will correctly recognize many objects, text and people, since there is no data on the accuracy and processing time of the algorithm, since image recognition is based on comparing the outlines and shades of detected objects with those stored in created libraries. Additionally, the internal battery is stated to be possibly rechargeable and underpowered, meaning the device may not be functional for all-day use.

Ближайшим аналогом является эхолокационное устройство (US 2014269189), которое может использовать человек без зрения, и метод генерирования звуков, которые могут облегчить навигацию человека без зрения в окружающей среде. Это портативное устройство было создано для того, чтобы помочь слабовидящим людям усовершенствовать навыки эхолокации и научить их определять свое окружение (расположение и размер объектов). Устройство содержит оправу очков для крепления на голове, ультразвуковой датчик, представляющий собой источник акустического сигнала и преобразователь эхосигнала, лидар датчик, инфракрасный (ИК) датчик, с обеспечением обратной связи с защитой (пьезоэлектрический динамик) и блоком обработки (процессор), а также источником питания, интерфейсом для ввода данных пользователем, усилителем мощность, регулятор напряжения, блок памяти.The closest analogue is an echolocation device (US 2014269189), which can be used by a person without vision, and a method for generating sounds that can facilitate navigation of a person without vision in the environment. This portable device was created to help visually impaired people improve their echolocation skills and teach them to identify their surroundings (the location and size of objects). The device contains a frame of glasses for mounting on the head, an ultrasonic sensor, which is an acoustic signal source and an echo signal converter, a lidar sensor, an infrared (IR) sensor, providing feedback to the protection (piezoelectric speaker) and a processing unit (processor), as well as the source power supply, user input interface, power amplifier, voltage regulator, memory unit.

Функциональность устройства основана на двух блоках памяти. Каждый из них генерирует звуки (которые уже занесены в блок памяти) в соответствии с размерами помещения. Устройство издает звуки, а пользователь должен определить, из чего состоит окружающая среда, по эху. Интерфейс с ячейками Брайля обеспечивает работу устройства через пользовательский интерфейс.The functionality of the device is based on two memory blocks. Each of them generates sounds (which are already stored in the memory block) in accordance with the size of the room. The device makes sounds, and the user must determine what the environment is made of by the echo. The Braille cell interface allows the device to operate through a user interface.

Несмотря на то, что данное устройство имеет иной подход, чем те, которые обсуждались ранее, в том смысле, что оно используется для обучения пользователей самостоятельному использованию эхолокации, необходимо подчеркнуть некоторые моменты, касающиеся его использования. Наиболее важным является то, что точность устройства слишком сильно зависит от способности пользователя определять объекты по их эхолокации. Это означает, что человеческая ошибка, которая может быть ограничивающей и потенциально опасной, не говоря уже о летальном исходе, является неизбежным параметром использования устройства. Более того, точность устройства слишком сильно зависит от способности пользователя определять объекты по их эхосигналу. Наконец, не гарантируется эффективность аккумулятора, так как отмечается, что он может функционировать не менее 7 часов без указания максимального времени. Этого может быть достаточно для некоторых людей, но может не соответствовать требованиям других.Although this device has a different approach than those previously discussed in the sense that it is used to train users to use echolocation on their own, there are some points that need to be emphasized regarding its use. Most importantly, the device's accuracy relies too heavily on the user's ability to identify objects by their echolocation. This means that human error, which can be limiting and potentially dangerous, not to mention fatal, is an inevitable parameter in the use of the device. Moreover, the accuracy of the device depends too much on the user's ability to identify objects by their echo signal. Finally, the battery's performance is not guaranteed, as it is noted that it can last at least 7 hours with no maximum time specified. This may be sufficient for some people, but may not meet the requirements of others.

Анализ существующих патентов и оценка их сильных и слабых сторон показали, что ни одно из них не было полностью независимым от внешних источников информации, таких как технологии GPS. Большинство существующих патентов описывают устройства, для которых необходимо заранее задать определенный маршрут.An analysis of existing patents and an assessment of their strengths and weaknesses showed that none of them were completely independent of external sources of information, such as GPS technologies. Most existing patents describe devices that require a specific route to be pre-defined.

Задачей изобретения является создание надежного автономного устройства для навигации в пространстве людей с нарушением зрения.The objective of the invention is to create a reliable autonomous device for navigation in space for people with visual impairments.

Техническим результатом является обеспечение точности определения пользователем положения препятствий в пространстве.The technical result is to ensure the accuracy of the user's determination of the position of obstacles in space.

Задача решается за счет того, что пространственная звуковая система для навигации людей с нарушениями зрения содержит ультразвуковой датчик расстояния, лидар датчик, инфракрасный датчик приближения, блок обработки, блок памяти и источник питания, размещенные на оправе. Устройство дополнительно содержит три-осевой гироскоп-акселерометр, объединенный с ультразвуковым датчиком, лидар датчиком и инфракрасным датчиком в блок датчиков, размещенный на оправе, а также модуль воспроизведения звука. Блок обработки включает в себя аналого-цифровой преобразователь, вычислительное устройство, цифроаналоговый преобразователь и блок памяти. Причем выход блока датчиков соединен со входом блока обработки, являющимся входом аналого-цифрового преобразователя, при этом выход аналого-цифрового преобразователя соединен с первым входом вычислительного устройства, первый выход которого соединен с цифроаналоговым преобразователем, а второй - с блоком памяти, выход которой соединен с вторым входом вычислительного устройства. Выход цифроаналогового преобразователя соединен со входом модуля воспроизведения звука. Источник питания питает блок датчиков через блок обработки. Система выполнена с возможностью передачи данных, полученных от блока датчиков, в блок обработки через аналого-цифровой преобразователь, который генерирует пространственные звуки после объединения данных от блока датчиков с данными, полученными гироскопом-акселерометром. Блок памяти выполнен с возможностью сохранения и использования показаний датчиков для генерации амплитуды и частоты пространственного звука.The problem is solved due to the fact that the spatial sound system for navigation of people with visual impairments contains an ultrasonic distance sensor, a lidar sensor, an infrared proximity sensor, a processing unit, a memory unit and a power source located on the frame. The device additionally contains a three-axis gyroscope-accelerometer combined with an ultrasonic sensor, a lidar sensor and an infrared sensor in a sensor unit located on the frame, as well as a sound reproduction module. The processing unit includes an analog-to-digital converter, a computing device, a digital-to-analog converter and a memory unit. Moreover, the output of the sensor unit is connected to the input of the processing unit, which is the input of the analog-to-digital converter, while the output of the analog-to-digital converter is connected to the first input of the computing device, the first output of which is connected to the digital-to-analog converter, and the second to the memory block, the output of which is connected to the second input of the computing device. The output of the digital-to-analog converter is connected to the input of the audio reproduction module. The power supply powers the sensor unit through the processing unit. The system is configured to transmit data received from the sensor unit to the processing unit through an analog-to-digital converter, which generates spatial sounds after combining data from the sensor unit with data received by the gyroscope-accelerometer. The memory unit is configured to store and use sensor readings to generate the amplitude and frequency of spatial sound.

Технический результат достигается за счет того, что устройство содержит набор датчиков, позволяющих объективно определить положение препятствий относительно пользователя, и формирует информационный звуковой сигнал для пользователя, сформированный на основании измерения этих датчиков, частота и амплитуда которого будут различны для различных положений препятствия.The technical result is achieved due to the fact that the device contains a set of sensors that make it possible to objectively determine the position of obstacles relative to the user, and generates an information sound signal for the user, generated based on the measurements of these sensors, the frequency and amplitude of which will be different for different positions of the obstacle.

Изобретение поясняется фигурами, где:The invention is illustrated by figures, where:

Фиг. 1 - Систематическая схема блоков системы пространственной звуковой навигации,Fig. 1 - Systematic diagram of the blocks of the spatial sound navigation system,

Фиг. 2 - Схематическое изображение основных компонентов и процессов устройства,Fig. 2 - Schematic representation of the main components and processes of the device,

Фиг. 3 - Структура шага восприятия расстояния, показывающая обмен данными между средой и устройством, и также между устройством и пользователями,Fig. 3 - Distance perception step structure showing the communication between the environment and the device, and also between the device and users,

Фиг. 4 - Схематическое объяснение восприятия препятствий при перемещении в пространстве. По мере продвижения пользователя (круг) смежная вертикаль остается неизменной, а противоположная вертикаль и гипотенуза изменяются. Гипотенуза (расстояние до объекта) рассчитывается на основе теоремы Пифагорейского тригонометрического тождества,Fig. 4 - Schematic explanation of the perception of obstacles when moving in space. As the user moves (circle), the adjacent vertical remains the same, while the opposite vertical and hypotenuse change. The hypotenuse (distance to the object) is calculated based on the Pythagorean trigonometric identity theorem,

Фиг. 5 - Иллюстрация изменения горизонтального разрешения, рассчитанного с помощью азимутального разрешения , возникающего при вычитании максимального и минимального азимутальных углов и , образованных краями препятствия,Fig. 5 - Illustration of the change in horizontal resolution calculated using azimuthal resolution , which arises when subtracting the maximum and minimum azimuthal angles And , formed by the edges of the obstacle,

Фиг. 6 - Расширение поля зрения (ПЗ) человека с помощью пространственного аудио,Fig. 6 - Expanding the human field of view (FOV) using spatial audio,

Фиг. 7 - Схематическое изображение поворота пользователя под углом при одновременном функционировании всех датчиков,Fig. 7 - Schematic representation of the user turning at an angle with simultaneous operation of all sensors,

Фиг. 8 - Схематическая иллюстрация определения местоположения препятствия в 2D,Fig. 8 - Schematic illustration of determining the location of an obstacle in 2D,

Фиг. 9 - Демонстрация пространственной генерации звука с использованием HRTF для 8 препятствий в среде пользователя. HRTF - Функция передачи звука относительно головы - это математическое выражение способности человека определять положение источника звука путем фильтрации звуковых волн при их прохождении от источника через воздух до достижения ушей слушателя.Fig. 9 - Demonstration of spatial sound generation using HRTF for 8 obstacles in the user's environment. HRTF - Head Relatively Transmitted Function is a mathematical expression of a person's ability to determine the position of a sound source by filtering sound waves as they travel from the source through the air to reach the listener's ears.

Схема устройства представлена на фиг. 1, где показаны все секции и компоненты. В устройстве имеется четыре основных блока, обозначенные пунктирной линией. А именно: блок датчиков (БД) 1, блок обработки (БО) 2, модуль воспроизведения звука (МВЗ) 3 и источник питания (ИП) 4. Блок датчиков 1 включает в себя четыре типа датчиков: ультразвуковой (УЗД) 5, инфракрасный (ИКД) 6, лидар датчик (ЛД) 7 и три-осевой гироскоп (Г) 8. Блок обработки 2 представляет собой плату разработки "все в одном" (AIO). Он включает в себя вычислительное устройство 9, блок памяти (БП) 10, аналого-цифровой (АЦП) 11 и цифроаналоговый (ЦАП) 12 преобразователи. Выход блока датчиков 1 соединен со входом АЦП 11, являющимся входом блока обработки 2. Выход АПЦ 11 соединен с первым входом вычислительного устройства 9. Первый выход вычислительного устройства 9 соединен со входом ПАП 12. Второй вход и второй выход вычислительного устройства 9 подключены к выходу и входу блока памяти 10 соответственно. Выход ПАП 12 подключен ко входу модуля воспроизведения звука 3. Модуль воспроизведения звука 3 включает в себя основные компоненты для генерации пространственных звуков и обеспечения пользователей аудиосигналом. Источник питания 4 подает питание блок обработки 2, который в свою очередь питает блок датчиков 1 (подача питания показана на фиг. 1 пунктирной линий). Компоненты всех секций обозначены сплошной линией, а каналы передачи данных и питания имеют свои сплошные и пунктирные стрелки, соответственно.The device diagram is shown in Fig. 1 showing all sections and components. The device has four main blocks, indicated by a dotted line. Namely: sensor unit (BD) 1, processing unit (PU) 2, sound reproduction module (SPM) 3 and power supply (PS) 4. Sensor unit 1 includes four types of sensors: ultrasonic (USD) 5, infrared ( ICD) 6, lidar sensor (LD) 7 and three-axis gyroscope (G) 8. Processing unit 2 is an all-in-one (AIO) development board. It includes a computing device 9, a memory unit (MU) 10, an analog-to-digital (ADC) 11 and a digital-to-analog (DAC) 12 converters. The output of the sensor unit 1 is connected to the input of the ADC 11, which is the input of the processing unit 2. The output of the ADC 11 is connected to the first input of the computing device 9. The first output of the computing device 9 is connected to the input of the PDA 12. The second input and the second output of the computing device 9 are connected to the output and the input of the memory block 10, respectively. The output of PAP 12 is connected to the input of the audio reproduction module 3. The audio reproduction module 3 includes the main components for generating spatial sounds and providing users with an audio signal. The power supply 4 supplies power to the processing unit 2, which in turn powers the sensor unit 1 (the power supply is shown in Fig. 1 with dotted lines). The components of all sections are indicated by a solid line, and the data and power channels have their own solid and dotted arrows, respectively.

Источник питания 4 обеспечивает блок обработки 2 постоянным напряжением 5 В постоянного тока. Блок обработки 2, в свою очередь, питает датчики 5, 6, 7 и 8, через параллельное соединение. Датчики используют последовательный протокол для связи с блоком обработки.The power supply 4 supplies the processing unit 2 with a constant voltage of 5 V DC. Processing unit 2, in turn, powers sensors 5, 6, 7 and 8 via a parallel connection. The sensors use a serial protocol to communicate with the processing unit.

Сигналы с блока датчиков 1 передаются в АЦП 11, где они оцифровываются, а затем передаются на вычислительное устройство 9, где обрабатываются показания датчиков, которое передает их в блок памяти 10 для сохранения и использования в генерации амплитуды и частоты пространственного звука. Они сортируются, отбираются и повторно передаются вычислительному сбору 9, который отправляет их на ЦАП 12. Для генерации пространственных звуков эти показания преобразуются обратно в аналоговые в ЦАП 12. На основании вычислений вычислительного устройства 9 ЦАП 12 формирует сигналы, которые передает на модуль воспроизведения звука 3.Signals from sensor unit 1 are transmitted to ADC 11, where they are digitized and then transmitted to computing device 9, where sensor readings are processed, which transmits them to memory unit 10 for storage and use in generating the amplitude and frequency of spatial sound. They are sorted, selected and re-transmitted to the computing device 9, which sends them to the DAC 12. To generate spatial sounds, these readings are converted back to analog in the DAC 12. Based on the calculations of the computing device 9, the DAC 12 generates signals that are transmitted to the audio reproduction module 3 .

На фиг. 2 показано схематическое изображение основных компонентов и процессов устройства. Датчики 5, 6 и 7 взаимодействуют с окружающей средой 13 и оценивают расстояния до объектов. Данные поступают в блок обработки 2 и с помощью данных гироскопа 8 преобразуются в пространственный звук. Показаны четыре датчика (5, 6, 7 и 8), сканирующие и измеряющие расстояние до обнаруженных объектов в окружении пользователя 14. Полученные данные отправляются и временно хранятся в блоке обработки 2. Гироскоп 8 отслеживает ориентацию пользователя по отношению к точке отсчета. Эти данные объединяются с данными, полученными датчиками. Модуль воспроизведения звука 3 генерирует пространственные звуки, воспринимаемые пользователями 14, уведомляя их о точном расположении препятствий в пространстве.In fig. Figure 2 shows a schematic representation of the main components and processes of the device. Sensors 5, 6 and 7 interact with the environment 13 and estimate the distance to objects. The data enters processing unit 2 and, using gyroscope data 8, is converted into spatial sound. Four sensors (5, 6, 7 and 8) are shown scanning and measuring the distance to detected objects in the user's environment 14. The received data is sent and temporarily stored in the processing unit 2. The gyroscope 8 tracks the user's orientation with respect to a reference point. This data is combined with data obtained by sensors. The sound reproduction module 3 generates spatial sounds perceptible to users 14, notifying them of the exact location of obstacles in space.

Время пролета (ВП) - это измерение времени, затрачиваемого объектом, частицей или волной (акустической, электромагнитной или другой природы) на прохождение расстояния через среду. Эта информация может быть использована для измерения скорости или длины пути.Time of flight (TOF) is a measurement of the time it takes an object, particle, or wave (acoustic, electromagnetic, or other nature) to travel a distance through a medium. This information can be used to measure speed or path length.

Поскольку сигналы, передаваемые датчиками, квантованы, плата легко вычисляет расстояние между датчиком и объектом. Расчет основан на принципе времени полета. Для каждого квантованного сигнала, передаваемого датчиком, существует определенное время, необходимое для того, чтобы он столкнулся с препятствием на заданном расстоянии и вернулся к датчику.Since the signals transmitted by the sensors are quantized, the board easily calculates the distance between the sensor and the object. The calculation is based on the time of flight principle. For each quantized signal transmitted by a sensor, there is a specific time required for it to collide with an obstacle at a given distance and return to the sensor.

На основе простого уравненияBased on a simple equation

илиor

где v - скорость хода сигнала, Δх - расстояние, пройденное сигналом, Δt - время, за которое сигнал прошел это расстояние.where v is the speed of the signal, Δx is the distance traveled by the signal, Δt is the time it took the signal to travel this distance.

Расстояние до каждого объекта рассчитывается мгновенно.The distance to each object is calculated instantly.

Представленная схема на фиг. 3 представляет собой более компактную, но в то же время поясняющую версию работы устройства. Эта схема показывает процессы хода сигнала датчиков блока 1 от препятствия 15 окружающей среды. Полученные данные передаются в блок обработки сигнала 2 через АЦП 11, который генерирует пространственные звуки после объединения этих данных с данными, полученными гироскопом 8. Затем, через ЦАП 12, модуль воспроизведения звука 3 обеспечивает пользователя 14 пространственным звуком, который помогает ему в навигации, помогая выбрать четкий путь.The presented diagram in Fig. 3 is a more compact, but at the same time explanatory version of the operation of the device. This diagram shows the processes of the signal from the sensors of block 1 from environmental obstacles 15. The received data is transmitted to the signal processing unit 2 through the ADC 11, which generates spatial sounds after combining this data with the data received by the gyroscope 8. Then, through the DAC 12, the audio reproduction module 3 provides the user 14 with spatial audio that helps him in navigation, helping choose a clear path.

Обеспечение навигации устройства при обнаружении препятствия 15 лучше всего видно на фиг. 4, иллюстрирующий восприятия препятствий при перемещении в пространстве. По мере продвижения пользователя 14 смежная вертикаль А остается неизменной, а противоположная вертикаль В и гипотенуза С изменяются. Гипотенуза С (расстояние до объекта) рассчитывается на основе Пифагорейского тригонометрического тождества. На этой схеме изображены три прямоугольных треугольника. По мере продвижения пользователя по оси X, всегда держа обнаруженное препятствие по диагонали справа от себя, смежная вертикаль А остается неизменной, а противоположная вертикаль В и гипотенуза С изменяются. Пространственный звук, воспринимаемый пользователем, повторяет след гипотенузы в каждом треугольнике, постоянно предупреждая пользователя о местонахождении объекта.Providing navigation of the device when an obstacle 15 is detected is best seen in FIG. 4, illustrating the perception of obstacles when moving in space. As the user 14 moves, the adjacent vertical A remains unchanged, while the opposite vertical B and hypotenuse C change. The hypotenuse C (distance to the object) is calculated based on the Pythagorean trigonometric identity. This diagram shows three right triangles. As the user moves along the X-axis, always keeping the detected obstacle diagonally to their right, the adjacent vertical A remains unchanged, while the opposite vertical B and hypotenuse C change. The spatial sound perceived by the user follows the trace of the hypotenuse in each triangle, constantly alerting the user to the location of the object.

Поле зрения (ПЗ) пользователя делится на две категории: горизонтальную и вертикальную (с учетом движения шеи).The user's field of view (FOV) is divided into two categories: horizontal and vertical (taking into account neck movement).

Горизонтальное ПЗ представлено следующим уравнением:The horizontal PV is represented by the following equation:

где FOVH - горизонтальный ПЗ, - максимальный азимутальный угол, а - минимальный азимутальный угол. Минимальный азимутальный угол соответствует началу поворота головы пользователя, а максимальный азимутальный угол - окончанию.where FOV H is the horizontal FOV, - maximum azimuthal angle, and - minimum azimuthal angle. The minimum azimuth angle corresponds to the beginning of the user's head rotation, and the maximum azimuth angle corresponds to the end.

Полное сканирование области возможно лучше понять, рассмотрев следующие уравнения:A full area scan can be better understood by considering the following equations:

где HRES - разрешение по горизонтали, а разрешение по азимутальному углу в градусах, достигаемое горизонтальным движением шеи человека, и:where H RES is the horizontal resolution, and azimuthal resolution in degrees achieved by horizontal movement of the human neck, and:

где VRES - вертикальное разрешение, a dϕ - разрешение угла возвышения в градусах, достигаемое вертикальным движением шеи человека, и:where V RES is the vertical resolution, ad ϕ is the elevation angle resolution in degrees achieved by the vertical movement of the human neck, and:

где N - общее количество точек сканирования в ПЗ пользователя.where N is the total number of scanning points in the user's PP.

Фиг. 5 иллюстрирует концепцию разрешения, описанную в уравнениях (1)-(4). Иллюстрация изменения горизонтального разрешения, рассчитанного с помощью азимутального разрешения возникающего при вычитании максимального и минимального азимутальных углов образованных краями препятствия, показано разрешение на горизонтальной плоскости, но те же принципы применимы и к вертикальной.Fig. 5 illustrates the concept of resolution described in equations (1)-(4). Illustration of the change in horizontal resolution calculated using azimuthal resolution arising when subtracting the maximum and minimum azimuthal angles formed by the edges of an obstacle, resolution is shown on the horizontal plane, but the same principles apply to the vertical plane.

Важным аспектом генерации пространственного звука является время. Пространственный звук будет сопровождать пользователя на каждом шагу во время навигации; следовательно, необходимо рассчитать время, необходимое для полного сканирования кадра, равного 360° как:An important aspect of spatial sound generation is timing. Spatial audio will accompany the user every step during navigation; Therefore, it is necessary to calculate the time required to completely scan a frame equal to 360° as:

где TLINE - время, необходимое для одного полного сканирования в ПЗ и:where T LINE is the time required for one full scan in the PP and:

где TRES - необходимое время для сбора данных с одной точки. Переменная TFRAME - это время, необходимое для сбора данных на одном полном кадре, рассчитанное в соответствии с уравнением:where T RES is the required time to collect data from one point. The T FRAME variable is the time required to collect data on one full frame, calculated according to the equation:

где Av - угловая вертикальная скорость каждого датчика, установленная производителем.where A v is the angular vertical velocity of each sensor, set by the manufacturer.

На основе вышеприведенных уравнений можно рассчитать угловую скорость в ПЗ пользователя как:Based on the above equations, the angular velocity in the user's FZ can be calculated as:

где AHR - угловая скорость на горизонтальной плоскости. Эти уравнения применимы к датчикам лидар, ИК и ультразвуковым датчикам.where A HR is the angular velocity on the horizontal plane. These equations apply to LIDAR, IR, and ultrasonic sensors.

Отсканированные точки сохраняются в блоке памяти устройства, генерируются пространственные звуки и передаются в модуль воспроизведения для пользователя. Благодаря такому хранению точек сканирования, звуковое представление препятствий и источника звука будет меняться по мере того, как пользователи будут перемещаться по среде, создавая тем самым пространственный аудиоэффект. Эти звуковые точки сканирования будут сопровождать пользователя во время навигации на ограниченном безопасном расстоянии.Scanned points are stored in the device's memory block, spatial sounds are generated and transmitted to the playback module for the user. By storing scan points in this way, the audio representation of obstacles and sound source will change as users move through the environment, thereby creating a spatial audio effect. These audio scanning points will accompany the user while navigating within a limited safe distance.

Такое звуковое представление объектов имеет ряд преимуществ, наиболее значимым из которых является восприятие объектов, которые обычно не воспринимаются. ПЗ человека по оси X, включая периферийное зрение, составляет 170 градусов. Однако, несмотря на то, что периферийное зрение жизненно важно для бдительности человека, полезное ПЗ составляет примерно 135 градусов (угол β). После полного сканирования помещения ПЗ человека может быть искусственно расширен до 180 градусов (угол γ). Поскольку уши человека расположены антидиаметрично, ключевым фактором для этого является панорамирование звука. Эта концепция лучше проиллюстрирована на фиг. 6. Пользователь 14 изображен в виде круга, а поле зрения по оси X показано красным цветом и обозначен как 135 градусов (угол β), в то время как расширенное поле зрения составляет 180 градусов (угол γ). Когда пользователь 14 поворачивается под углом в правую сторону, обнаруженное препятствие, находящееся в центре поля зрения, слышно левым ухом больше, чем правым. Когда равна 90 градусам, звук достигает только левого уха пользователя 14, и наоборот.This auditory representation of objects has a number of advantages, the most significant of which is the perception of objects that are not usually perceived. A person's visual field of vision along the X axis, including peripheral vision, is 170 degrees. However, although peripheral vision is vital to human vigilance, the useful PV is approximately 135 degrees (angle β). After a complete scan of the room, a person’s PV can be artificially expanded to 180 degrees (angle γ). Since human ears are positioned anti-diametrically, panning the sound is key to this. This concept is better illustrated in FIG. 6. User 14 is depicted as a circle and the X-axis field of view is shown in red and is indicated as 135 degrees (angle β), while the extended field of view is 180 degrees (angle γ). When user 14 turns at an angle to the right, the detected obstacle located in the center of the field of view is heard by the left ear more than by the right. When equal to 90 degrees, the sound reaches only the left ear of the user 14, and vice versa.

Общее представление о повороте пользователя под углом вправо по оси X показано на фиг. 7. Пользователь изменяет свой ПЗ под углом В конце поворота пользователь способен воспринимать препятствия с обоих шагов 16 и 17. Препятствия, обнаруженные на промежуточных этапах, игнорируются. Шаг 16 показывает пользователя 14, изображенного кружком, стоящего прямо по оси X; шаг 18 показывает переход, который пользователь собирается совершить относительно своей ориентации; шаг 19 показывает сам переход, а шаг 17 показывает конец перехода. Сплошная линия иллюстрирует начальную и конечную точки перехода, переходный шаг иллюстрируется темной пунктирной линией, а начальная и конечная точки во время перехода - бледной пунктирной линией.Understanding the user's rotation at an angle to the right along the X axis is shown in Fig. 7. The user changes his PZ at an angle At the end of the turn, the user is able to perceive obstacles from both steps 16 and 17. Obstacles detected in intermediate steps are ignored. Step 16 shows user 14, depicted as a circle, standing straight on the X-axis; step 18 shows the transition the user is about to make relative to his orientation; step 19 shows the transition itself, and step 17 shows the end of the transition. The solid line illustrates the start and end points of the transition, the transition step is illustrated by the dark dotted line, and the start and end points during the transition are illustrated by the pale dotted line.

Определение амплитуды акустического сигнала, воспроизводимого блоком воспроизведения звука от системы аналогично расчетному расстоянию.Determining the amplitude of the acoustic signal reproduced by the sound reproduction unit from the system is similar to the calculated distance.

Для расстояния D между глазами пользователя и препятствием справедливоFor the distance D between the user's eyes and the obstacle,

где fIR, fLiDAR и fUS - весовые коэффициенты, регулирующие выход сигнала каждого датчика в соответствии с его важностью, представленной с точки зрения точности, указанной производителем (рассчитывается с использованием точности каждого датчика, как указано производителем (см. после уравнения 16)), a OIR, OLiDAR и OUS -цифровые амплитуды выходного сигнала датчика. Индексы IR, LiDAR и US соответствуют инфракрасным, лидар и ультразвуковым датчикам, соответственно.where f IR , f LiDAR and f US are weighting factors that adjust the signal output of each sensor according to its importance, represented in terms of the accuracy specified by the manufacturer (calculated using the accuracy of each sensor as specified by the manufacturer (see after Equation 16) ), and O IR , O LiDAR and O US are the digital amplitudes of the sensor output signal. The IR, LiDAR and US indices correspond to infrared, lidar and ultrasonic sensors, respectively.

Весовые коэффициенты рассчитываются на основе характеристик каждого из трех датчиков. Характеристики, определяющие формирование коэффициентов, - это ПЗ датчиков и максимальная дальность действия каждого из них. ПЗ датчиков обратно пропорциональна диапазонам. Человек в целом более чувствителен к звуковым частотам в диапазоне от 2000 до 5000 Гц. Частотный диапазон обратной связи от лидар и ультразвукового датчиков установлен между 300 и 500 Гц. Частоты этого диапазона все еще воспринимаются пользователями и не мешают другим звуковым сигналам, таким как сигналы светофора. Постоянная 1000 (Гц) - это наш выбор частоты оповещения для ПК-датчика, учитывая его бинарное использование.The weighting coefficients are calculated based on the characteristics of each of the three sensors. The characteristics that determine the formation of the coefficients are the PV of the sensors and the maximum range of each of them. The PV of sensors is inversely proportional to the ranges. Humans in general are more sensitive to sound frequencies in the range of 2000 to 5000 Hz. The frequency range of feedback from lidar and ultrasonic sensors is set between 300 and 500 Hz. Frequencies in this range are still perceptible to users and do not interfere with other audio signals, such as traffic signals. Constant 1000 (Hz) is our choice of alert frequency for the PC sensor, given its binary use.

Следовательно, определение частоты системы может быть выражено следующим уравнением:Therefore, the determination of system frequency can be expressed by the following equation:

где F - линейно генерируемая частота в зависимости от расстояния до сканируемого объекта, a CfD - наклон. CfD рассчитывается как доля разницы между максимальным и минимальным расстоянием, которое датчики могут определить в диапазоне частот, воспринимаемых пользователями как обратная связь, и она равна where F is the linearly generated frequency depending on the distance to the scanned object, and C fD is the slope. C fD is calculated as the fraction of the difference between the maximum and minimum distance that the sensors can detect in the range of frequencies perceived by users as feedback, and is equal to

Функция передачи звука относительно головы (HRTF) - это математическое выражение способности человека определять положение источника звука путем фильтрации звуковых волн при их прохождении от источника через воздух до достижения ушей слушателя. HRTF - это частотная характеристика человеческого уха. Эта частотная характеристика описывает, как акустический сигнал фильтруется через всю верхнюю часть туловища человека, а именно голову, плечи и особенно пинну наружного слухового прохода, и является основополагающей для генерации пространственных звуков в бинауральных моделях.Head-relative transmission function (HRTF) is a mathematical expression of a person's ability to determine the position of a sound source by filtering sound waves as they travel from the source through the air to reach the listener's ears. HRTF is the frequency response of the human ear. This frequency response describes how the acoustic signal is filtered through the entire upper torso of a person, namely the head, shoulders and especially the pinna of the external auditory canal, and is fundamental to the generation of spatial sounds in binaural models.

HRTF способен генерировать звук для каждого уха отдельно в соответствии с расположением препятствия. Местоположение определяется в двух измерениях, определяемых горизонтальной и вертикальной плоскостью объекта.The HRTF is capable of generating sound for each ear separately according to the location of the obstacle. Location is defined in two dimensions, defined by the horizontal and vertical plane of the object.

Эта концепция лучше проиллюстрирована на фиг. 8, где пользователь 14, изображенный кружком, стоит перед препятствием 15, которое находится под углом ϕ от его уровня глаз, так как его высота h меньше уровня глаз пользователя Н. Две плоскости препятствия образованы вертикальной и горизонтальной линиями, проходящими через его центр. При расширении вертикальной линии вверх она пересекается с линией, проходящей через уровень глаз пользователя Н. Уровень глаз у каждого пользователя разный, и он должен быть предопределен в алгоритме. Красная точка, образованная двумя расширенными линиями, называется точкой пересечения, и она необходима для оценки координат препятствия в 2D, которые выражаются уравнениями:This concept is better illustrated in FIG. 8, where the user 14, depicted as a circle, stands in front of an obstacle 15, which is at an angle ϕ from his eye level, since its height h is less than the eye level of the user H. The two planes of the obstacle are formed by vertical and horizontal lines passing through its center. As the vertical line extends upward, it intersects with the line passing through the eye level of user H. The eye level of each user is different, and it must be predetermined in the algorithm. The red dot formed by the two extended lines is called the intersection point, and it is necessary to estimate the 2D coordinates of the obstacle, which are expressed by the equations:

иAnd

где Х - расстояние между вертикальными плоскостями 20 глаз пользователя 14 и препятствия 15, Y - расстояние между горизонтальными плоскостями глаз пользователя 14 и препятствия 15, а ϕ - угол, образованный горизонтальной плоскостью 21 пользователя и его расстоянием D от препятствия.where X is the distance between the vertical planes 20 of the user's eyes 14 and the obstacle 15, Y is the distance between the horizontal planes of the user's eyes 14 and the obstacle 15, and ϕ is the angle formed by the horizontal plane 21 of the user and his distance D from the obstacle.

Расстояние D варьируется в зависимости от диапазонов датчиков и суммируется как:The distance D varies depending on the sensor ranges and is summarized as:

Из уравнений (11) и (15) следует, что:From equations (11) and (15) it follows that:

где и - весовые коэффициенты, accUS - точность ультразвукового датчика, и accLiDAR - точность лидарного датчика, предоставляются производителем.Where And - weighting coefficients, acc US - ultrasonic sensor accuracy, and acc LiDAR - lidar sensor accuracy, are provided by the manufacturer.

В заключение, звуки для левого и правого уха, генерируемые HTRF, выражается уравнением:In conclusion, the left and right ear sounds generated by HTRF are expressed by the equation:

где AR - амплитуда для правого уха, AL - выходной сигнал для левого уха, а X и Y - расчетные расстояния по уравнениям (13) и (14).where A R is the amplitude for the right ear, A L is the output signal for the left ear, and X and Y are the calculated distances according to equations (13) and (14).

Устройство может быть реализовано на основе следующих компонент.The device can be implemented based on the following components.

Основным датчиком является датчик LiDAR TFmini Plus. Это самый мощный датчик, обеспечивающий максимальную дальность действия от 12 метров до 0,1 метра с точностью 0,1 м~12 м при 90% отражательной способности и точностью ±5 см при 0,1-6 м и ±1% при 6 м - 12 м. Принцип метода, который он использовал, заключается в - ВП, которое требуется лазерному лучу, чтобы отразиться от поверхности и вернуться к датчику. Не случайно он выбран множеством наземных транспортных средств и самолетов для оценки местоположения по окружающей обстановке.The main sensor is the LiDAR TFmini Plus sensor. It is the most powerful sensor, providing a maximum range of 12 meters to 0.1 meters with an accuracy of 0.1m~12m at 90% reflectivity and an accuracy of ±5cm at 0.1-6m and ±1% at 6m - 12 m. The principle of the method he used is - the IP that is required for the laser beam to reflect off the surface and return to the sensor. It is no coincidence that it is chosen by many ground vehicles and aircraft to estimate location from the surrounding environment.

Датчик, используемый для сопровождения, и дополнения датчика лидар, - это ультразвуковой датчик расстояния - в качестве него может быть использован HC-SR04. Он служит той же цели, что и датчик лидар, и выполняет функцию измерения ВП, хотя вместо лазерного луча он излучает ультразвуковую волну. Недостатком этого датчика является то, что на него влияют внешние звуковые помехи; поэтому он не является основным датчиком и используется в основном во внутренних, тихих условиях. Кроме того, он имеет меньший радиус действия, чем лидар; однако, ПЗ шире. Это предпочтительный выбор в качестве вторичного датчика, вместо использования другого лидар, из-за меньшего энергопотребления, более низкой стоимости и возможности сравнения и проверки перекрестных сигналов.The sensor used to accompany and complement the lidar sensor is an ultrasonic distance sensor - the HC-SR04 can be used as it. It serves the same purpose as the lidar sensor and performs the function of measuring IP, although instead of a laser beam it emits an ultrasonic wave. The disadvantage of this sensor is that it is affected by external sound interference; therefore, it is not a primary sensor and is used primarily in indoor, quiet environments. It also has a shorter range than lidar; however, the PP is broader. It is the preferred choice as a secondary sensor, rather than using another lidar, due to lower power consumption, lower cost, and the ability to compare and verify cross-signals.

В качестве Третьего используемого датчика может быть использован - инфракрасный датчик приближения, обхода препятствий Waveshare IR, расчетное расстояние - 2 ~ 30 см. ВП - это, опять же, принцип используемого метода. Он имеет самый короткий диапазон из трех и самый широкий угол обзора. Однако необходимо было иметь датчик, который бы действовал как выключатель и предупреждал пользователя о близких препятствиях на более широком ПЗ, что потенциально может стать проблемой для людей с ослабленным зрением.The third sensor used can be an infrared proximity sensor, Waveshare IR obstacle avoidance sensor, estimated distance - 2 ~ 30 cm. VP is, again, the principle of the method used. It has the shortest range of the three and the widest viewing angle. However, it was necessary to have a sensor that would act as a switch and alert the user to nearby obstacles in a wider FOV, which could potentially be a problem for people with low vision.

В качестве гироскопа может быть использован три-осевой гироскоп-акселерометр, а именно MPU-6050 GY-521 3-Axis Accelerometer & Gyroscope Sensor Module. Это недорогой, но мощный компонент, сочетающий в себе 3-осевой гироскоп и акселерометр в небольшом форм-факторе. Гироскоп оснащен цифровым процессором движения (DMP). Пространственная амплитуда звука для левого Ал и правого Ап уха генерируется с использованием функции передачи звука относительно головы (HRTF) после определения азимута X и высоты препятствий Y по данным, полученным от датчиков 5-7 и гироскопа 8, показано на фиг. 9.A three-axis gyroscope-accelerometer, namely MPU-6050 GY-521 3-Axis Accelerometer & Gyroscope Sensor Module, can be used as a gyroscope. It's an inexpensive yet powerful component that combines a 3-axis gyroscope and accelerometer in a small form factor. The gyroscope is equipped with a digital motion processor (DMP). The spatial amplitude of the sound for the left A l and right A p ear is generated using the head-relative transfer function (HRTF) after determining the azimuth X and height of obstacles Y from the data obtained from the sensors 5-7 and the gyroscope 8, shown in FIG. 9.

Компоненты, указанные выше, могут быть подключены к плате разработчика Arduino, а воспроизведение звука может быть реализовано с любой парой проводных стереонаушников.The components above can be connected to the Arduino development board, and audio playback can be realized with any pair of wired stereo headphones.

Claims (1)

Пространственная звуковая система для навигации людей с нарушениями зрения, содержащая ультразвуковой датчик расстояния, лидар датчик, инфракрасный датчик приближения, блок обработки, блок памяти и источник питания, размещенные на оправе, отличающаяся тем, что устройство дополнительно содержит три-осевой гироскоп-акселерометр, объединенный с ультразвуковым датчиком, лидар датчиком и инфракрасным датчиком в блок датчиков, размещенный на оправе, а также модуль воспроизведения звука, причем блок обработки включает в себя аналого-цифровой преобразователь, вычислительное устройство, цифро-аналоговый преобразователь и блок памяти, причем выход блока датчиков соединен со входом блока обработки, являющимся входом аналого-цифрового преобразователя, при этом выход аналого-цифрового преобразователя соединен с первым входом вычислительного устройства, первый выход которого соединен с цифро-аналоговым преобразователем, а второй – с блоком памяти, выход которой соединен с вторым входом вычислительного устройства, а выход цифро-аналогового преобразователя соединен со входом модуля воспроизведения звука, при этом источник питания питает блок датчиков через блок обработки, причем система выполнена с возможностью передачи данных, полученных от блока датчиков, в блок обработки через аналого-цифровой преобразователь, который генерирует пространственные звуки после объединения данных от блока датчиков с данными, полученными гироскопом-акселерометром, а блок памяти выполнен с возможностью сохранения и использования показаний датчиков для генерации амплитуды и частоты пространственного звука.Spatial sound system for navigation of people with visual impairments, containing an ultrasonic distance sensor, a lidar sensor, an infrared proximity sensor, a processing unit, a memory unit and a power source located on the frame, characterized in that the device additionally contains a three-axis gyroscope-accelerometer, combined with an ultrasonic sensor, a lidar sensor and an infrared sensor into a sensor unit located on the frame, as well as a sound reproduction module, wherein the processing unit includes an analog-to-digital converter, a computing device, a digital-to-analog converter and a memory unit, wherein the output of the sensor unit is connected with the input of the processing unit, which is the input of the analog-to-digital converter, and the output of the analog-to-digital converter is connected to the first input of the computing device, the first output of which is connected to the digital-to-analog converter, and the second to the memory block, the output of which is connected to the second input of the computing device. device, and the output of the digital-to-analog converter is connected to the input of the audio reproduction module, wherein the power source powers the sensor unit through the processing unit, and the system is configured to transmit data received from the sensor unit to the processing unit through the analog-to-digital converter, which generates spatial sounds after combining data from the sensor unit with data received by the gyroscope-accelerometer, and the memory unit is configured to store and use sensor readings to generate the amplitude and frequency of spatial sound.
RU2022129973A 2022-11-18 Spatial sound system for navigation of visually impaired people RU2802853C1 (en)

Publications (1)

Publication Number Publication Date
RU2802853C1 true RU2802853C1 (en) 2023-09-05

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2674977A1 (en) * 1991-04-02 1992-10-09 Desclos Laurent Infrared transmitter receiver device for signalling and guidance systems
JPH10302184A (en) * 1997-04-28 1998-11-13 Mitsubishi Precision Co Ltd Information guide system
KR20130020361A (en) * 2011-08-19 2013-02-27 한양대학교 에리카산학협력단 Device of walking guidance for a blind person
TW201316980A (en) * 2011-10-26 2013-05-01 Cheng-Liang Huang A guiding system for the visually impaired
KR101825889B1 (en) * 2017-09-22 2018-02-05 김창환 Smart belt for the blind and Guide device comprising the same
CN113143587A (en) * 2021-05-25 2021-07-23 深圳明智超精密科技有限公司 Intelligent guiding glasses for blind people
RU2768454C1 (en) * 2021-01-25 2022-03-24 Федеральное государственное бюджетное образовательное учреждение высшего образования Балтийский государственный технический университет "ВОЕНМЕХ" им. Д.Ф. Устинова (БГТУ "ВОЕНМЕХ") Visually impaired walking stick

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2674977A1 (en) * 1991-04-02 1992-10-09 Desclos Laurent Infrared transmitter receiver device for signalling and guidance systems
JPH10302184A (en) * 1997-04-28 1998-11-13 Mitsubishi Precision Co Ltd Information guide system
KR20130020361A (en) * 2011-08-19 2013-02-27 한양대학교 에리카산학협력단 Device of walking guidance for a blind person
TW201316980A (en) * 2011-10-26 2013-05-01 Cheng-Liang Huang A guiding system for the visually impaired
KR101825889B1 (en) * 2017-09-22 2018-02-05 김창환 Smart belt for the blind and Guide device comprising the same
RU2768454C1 (en) * 2021-01-25 2022-03-24 Федеральное государственное бюджетное образовательное учреждение высшего образования Балтийский государственный технический университет "ВОЕНМЕХ" им. Д.Ф. Устинова (БГТУ "ВОЕНМЕХ") Visually impaired walking stick
CN113143587A (en) * 2021-05-25 2021-07-23 深圳明智超精密科技有限公司 Intelligent guiding glasses for blind people

Similar Documents

Publication Publication Date Title
US11852493B1 (en) System and method for sensing walked position
US7855657B2 (en) Device for communicating environmental information to a visually impaired person
Shoval et al. Mobile robot obstacle avoidance in a computerized travel aid for the blind
Bousbia-Salah et al. A navigation aid for blind people
US9370459B2 (en) System and method for alerting visually impaired users of nearby objects
Shoval et al. The Navbelt-A computerized travel aid for the blind based on mobile robotics technology
Lakde et al. Navigation system for visually impaired people
Shoval et al. Computerized obstacle avoidance systems for the blind and visually impaired
US9801778B2 (en) System and method for alerting visually impaired users of nearby objects
Ton et al. LIDAR assist spatial sensing for the visually impaired and performance analysis
US10062302B2 (en) Vision-assist systems for orientation and mobility training
Dunai et al. Sensory navigation device for blind people
Bharathi et al. Effective navigation for visually impaired by wearable obstacle avoidance system
CN2843397Y (en) Electronic device for helping blind walking and discriminating obstacle
Ali et al. Blind navigation system for visually impaired using windowing-based mean on Microsoft Kinect camera
Sadi et al. Automated walk-in assistant for the blinds
KR102267840B1 (en) Drone Monitoring System
RU2802853C1 (en) Spatial sound system for navigation of visually impaired people
CN117323185A (en) Blind person indoor navigation system and method based on computer vision and training method
Singh et al. A survey of current aids for visually impaired persons
KR102081193B1 (en) Walking assistance device for the blind and walking system having it
KR100563193B1 (en) Signal transformation method and guidance system providing auditory and tactile indoor/outdoor traveling information for the blind
Lesecq et al. INSPEX: Design and integration of a portable/wearable smart spatial exploration system
KR20210022394A (en) A moving robot for the blind and control method thereof
Shanthalakshmi et al. A Smart Guidance System for the Visually Challenged using IOT