KR20220165034A - Pedestrian walking safety device and method using sound-based mobile app - Google Patents
Pedestrian walking safety device and method using sound-based mobile app Download PDFInfo
- Publication number
- KR20220165034A KR20220165034A KR1020210073485A KR20210073485A KR20220165034A KR 20220165034 A KR20220165034 A KR 20220165034A KR 1020210073485 A KR1020210073485 A KR 1020210073485A KR 20210073485 A KR20210073485 A KR 20210073485A KR 20220165034 A KR20220165034 A KR 20220165034A
- Authority
- KR
- South Korea
- Prior art keywords
- pedestrian
- sound
- learning
- safety device
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013480 data collection Methods 0.000 claims abstract description 9
- 230000007613 environmental effect Effects 0.000 claims description 19
- 238000013459 approach Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000013434 data augmentation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000034994 death Effects 0.000 description 2
- 231100000517 death Toxicity 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B3/00—Audible signalling systems; Audible personal calling systems
- G08B3/10—Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Tourism & Hospitality (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Economics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Educational Administration (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Electromagnetism (AREA)
- Emergency Alarm Devices (AREA)
Abstract
Description
본 발명은 보행자 보행안전 기술에 관한 것으로, 보다 상세하게는 전용 앱을 통해 보행자 주변 사운드로 상황인식 및 이동체 접근을 감지하고 위험 상황을 보행자에게 미리 알려줄 수 있는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법에 관한 것이다.The present invention relates to a pedestrian safety technology, and more particularly, to pedestrian safety using a sound-based mobile app capable of detecting situational awareness and approaching a moving object through a pedestrian ambient sound through a dedicated app and notifying the pedestrian of a dangerous situation in advance. It relates to an apparatus and method.
다양한 이동수단의 등장으로 인해 도로환경이 더욱 복잡하고 위험해지고 있다. 특히, 자율 주행차, 전동 킥보드, 전동 휠체어, 배달 차량/로봇 등 기존 도로 위를 달리는 차량 이외에도 보행로 상에서도 접근이 가능한 퍼스널 모빌리티(Personal Mobility, PM)의 증가로 인해 보행로 상의 안전 사고위험도가 급증하고 있는 실정이다.Due to the emergence of various means of transportation, the road environment is becoming more complex and dangerous. In particular, the risk of safety accidents on pedestrian roads is rapidly increasing due to the increase in Personal Mobility (PM), which can be accessed on pedestrian roads, in addition to vehicles running on existing roads such as self-driving cars, electric kickboards, electric wheelchairs, and delivery vehicles/robots. The situation is.
교통사망자 중 보행사망 비중이 39.9%로 OECD 국가 평균 18.6% 대비 2배이상 수준으로 높고 특히, 어린이, 노인 등 교통약자의 피해가 심각한 상황이다. Among traffic deaths, the proportion of pedestrian deaths is 39.9%, which is more than twice as high as the OECD average of 18.6%.
퍼스널 모빌리티 이용자 수가 늘어나면서 교통사고도 급격히 증가하고 있다. 상당수 이용자는 자전거 도로나 인도를 주로 이용하고 있어 이용자는 물론 주변의 자전거 탑승자 또는 보행자에게 치명적인 피해를 줄 수 있는 점에서 사고 예방이 중요하다.As the number of personal mobility users increases, traffic accidents are also rapidly increasing. A significant number of users mainly use bicycle roads or sidewalks, and it is important to prevent accidents in that they can cause fatal damage to not only users but also cyclists or pedestrians around them.
본 발명의 일 실시예는 전용 앱을 통해 보행자 주변 사운드로 상황인식 및 이동체 접근을 감지하고 위험 상황을 보행자에게 미리 알려줄 수 있는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법을 제공하고자 한다.One embodiment of the present invention is to provide a pedestrian safety device and method using a sound-based mobile app capable of detecting situational awareness and approaching a moving object through a pedestrian ambient sound through a dedicated app and notifying the pedestrian of a dangerous situation in advance.
본 발명의 일 실시예는 사용자 단말 상에서 실행되는 앱과 연동하여 동작하고 보행자 보행안전을 위한 사운드 수집과 상황인지를 효과적으로 수행할 수 있는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to provide a pedestrian safety device and method using a sound-based mobile app that operates in conjunction with an app running on a user terminal and can effectively perform sound collection and situational awareness for pedestrian safety. do.
본 발명의 일 실시예는 퍼스널 모빌리티에 적용되어 보행로 상에 접근 가능한 퍼스널 모빌리티의 안전 사고위험을 예방하는데 기여할 수 있는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is applied to personal mobility to provide a pedestrian safety device and method using a sound-based mobile app that can contribute to preventing safety accident risks of personal mobility accessible on a walking path.
실시예들 중에서, 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치는 사운드 데이터를 기반으로 상황인지를 하기 위한 학습 알고리즘을 탑재하는 학습 알고리즘 탑재부, 보행자를 기준으로 주변의 환경 사운드를 실시간으로 수집하는 데이터 수집부, 상기 수집된 사운드 데이터를 상기 탑재된 학습 알고리즘을 통해 학습을 수행하여 상기 보행자의 안전한 보행을 위해 필요한 환경을 인식하는 상황 인식부, 및 상기 상황 인식 결과에 기초하여 상기 보행자에게 위험 상황을 알림 제공하는 알림 제공부를 포함한다.Among embodiments, a pedestrian safety device using a sound-based mobile app includes a learning algorithm mounting unit equipped with a learning algorithm for situational awareness based on sound data, and data collecting ambient sound in real time based on a pedestrian. A collection unit, a situation recognition unit that recognizes an environment necessary for safe walking of the pedestrian by learning the collected sound data through the built-in learning algorithm, and a dangerous situation for the pedestrian based on the result of the situation recognition. A notification providing unit for providing a notification is included.
상기 학습 알고리즘 탑재부는 서버를 통해 사전 사운드 데이터 학습으로 최적화된 lite 알고리즘만 포함할 수 있다. The learning algorithm loading unit may include only lite algorithms optimized for prior sound data learning through a server.
상기 데이터 수집부는 마이크 센서를 통해 보행 중인 상기 보행자의 주변 사운드를 감지하고 감지된 1차원 신호를 2차원의 데이터로 변환하여 수집할 수 있다.The data collection unit may sense ambient sound of the walking pedestrian through a microphone sensor, convert the sensed one-dimensional signal into two-dimensional data, and collect the same.
상기 마이크 센서는 보행자 단말에 포함되거나 웨어러블 디바이스 형태로 구현될 수 있다.The microphone sensor may be included in a pedestrian terminal or implemented in the form of a wearable device.
상기 상황 인지부는 상기 학습 알고리즘을 기초로 상기 수집된 사운드 데이터에 대해 상황 분류 동작을 수행하여 주변 환경을 인식하고 보행자에 대해 위험 요소가 되는 이동체의 접근 상황을 인지할 수 있다.The context recognition unit may perform a context classification operation on the collected sound data based on the learning algorithm to recognize a surrounding environment and an approaching state of a moving object that is a risk factor to pedestrians.
상기 상황 인지부는 상기 수집된 사운드 데이터를 상기 학습 알고리즘의 모델 입력으로 하여 이동체, 신호음, 환경 및 특성을 포함하는 상황별 분류를 수행하고 상기 보행자의 주변환경을 판단하여 보행중인 상기 보행자에게 상기 이동체가 접근하는 상황을 결정할 수 있다.The context-aware unit uses the collected sound data as a model input of the learning algorithm to perform situational classification including a moving object, a signal sound, environment, and characteristics, and determines the surrounding environment of the pedestrian to determine whether the moving object is detected by the walking pedestrian. You can decide which situation to approach.
상기 알림 제공부는 상기 보행자에 의해 설정된 스피커를 통한 음성 출력, 진동이나 문자 알림 중 적어도 하나의 방식으로 상기 보행자에게 위험 상황을 알릴 수 있다.The notification providing unit may notify the pedestrian of a dangerous situation through at least one of voice output, vibration, and text notification through a speaker set by the pedestrian.
실시예들 중에서, 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 방법은 보행자의 단말에 사전 사운드 데이터 학습으로 최적화된 lite 알고리즘을 탑재하는 단계, 상기 보행자의 주변 환경 사운드 데이터를 실시간으로 수집하는 단계, 상기 탑재된 사운드 데이터 학습 알고리즘을 동작시켜 실시간 수집되는 상기 사운드 데이터를 입력으로 하는 학습을 수행하여 환경 사운드 분류하고 분류 결과를 토대로 보행자에 대해 이동체 접근 상황 및 주변 환경 정보를 인식하여 위험 상황을 판단하는 단계, 및 보행자의 위험 상황을 설정된 방식에 따라 보행자에게 알리는 단계를 포함한다.Among the embodiments, a pedestrian safety method using a sound-based mobile app includes the steps of installing a lite algorithm optimized for prior sound data learning in a pedestrian terminal, collecting the pedestrian's surrounding environment sound data in real time, the Classifying environmental sounds by operating a built-in sound data learning algorithm to perform learning using the sound data collected in real time as an input, and recognizing a dangerous situation by recognizing a moving object approach situation and surrounding environment information for a pedestrian based on the classification result , and notifying the pedestrian of the dangerous situation of the pedestrian according to a set method.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology may have the following effects. However, it does not mean that a specific embodiment must include all of the following effects or only the following effects, so it should not be understood that the scope of rights of the disclosed technology is limited thereby.
본 발명에 따른 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법은 전용 앱을 통해 보행자 주변 사운드로 상황인식 및 이동체 접근을 감지하고 위험 상황을 보행자에게 미리 알려줄 수 있도록 함으로써, 어린이 및 노인 등 교통 약자들의 사고를 예방하고 안전한 보행을 할 수 있다.Pedestrian safety device and method using a sound-based mobile app according to the present invention detects situational awareness and approach of a moving object through a dedicated app with sounds around the pedestrian and informs the pedestrian of a dangerous situation in advance, thereby reducing traffic such as children and the elderly. Accidents of the weak can be prevented and safe walking can be done.
본 발명에 따른 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법은 사용자 단말 상에서 실행되는 앱과 연동하여 동작하고 보행자 보행안전을 위한 사운드 수집과 상황인지를 효과적으로 수행할 수 있다.Pedestrian walking safety device and method using a sound-based mobile app according to the present invention operates in conjunction with an app running on a user terminal and can effectively perform sound collection and context awareness for pedestrian walking safety.
본 발명에 따른 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법은 퍼스널 모빌리티에 적용되어 보행로 상에 접근 가능한 퍼스널 모빌리티의 안전 사고위험을 예방하는데 기여할 수 있다.Pedestrian walking safety device and method using a sound-based mobile app according to the present invention can be applied to personal mobility and contribute to preventing the risk of safety accidents of personal mobility accessible on a walking road.
도 1은 본 발명에 따른 보행자 보행안전 시스템을 설명하는 도면이다.
도 2는 본 발명에 따른 보행자 보행안전 장치의 물리적 구성을 설명하는 도면이다.
도 3은 도 2의 보행자 보행안전 장치에 있는 프로세스의 기능적 구성을 설명하는 도면이다.
도 4는 본 발명에 따른 보행자 보행안전 방법을 설명하는 순서도이다.
도 5는 본 발명에 따른 학습용 CNN 모델을 설명하는 도면이다.1 is a view illustrating a pedestrian walking safety system according to the present invention.
2 is a diagram explaining the physical configuration of the pedestrian walking safety device according to the present invention.
FIG. 3 is a diagram illustrating a functional configuration of a process in the pedestrian walking safety device of FIG. 2 .
4 is a flowchart illustrating a pedestrian walking safety method according to the present invention.
5 is a diagram illustrating a CNN model for learning according to the present invention.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of terms described in this application should be understood as follows.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that no intervening elements exist. Meanwhile, other expressions describing the relationship between components, such as “between” and “immediately between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Expressions in the singular number should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “having” refer to an embodied feature, number, step, operation, component, part, or these. It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (eg, a, b, c, etc.) is used for convenience of explanation, and the identification code does not describe the order of each step, and each step clearly follows a specific order in context. Unless otherwise specified, it may occur in a different order than specified. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be implemented as computer readable code on a computer readable recording medium, and the computer readable recording medium includes all types of recording devices storing data that can be read by a computer system. . Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium may be distributed to computer systems connected through a network, so that computer-readable codes may be stored and executed in a distributed manner.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as consistent with meanings in the context of the related art, and cannot be interpreted as having ideal or excessively formal meanings unless explicitly defined in the present application.
도 1은 본 발명에 따른 보행자 보행안전 시스템을 설명하는 도면이다.1 is a view illustrating a pedestrian walking safety system according to the present invention.
도 1을 참조하면, 보행자 보행안전 시스템(100)은 보행자 단말(110), 마이크 센서(130), 사운드 데이터 학습 서버(150) 및 데이터베이스(170)를 포함할 수 있다.Referring to FIG. 1 , the
보행자 단말(110)은 본 발명에 따른 보행자 보행안전 서비스를 이용할 수 있는 컴퓨팅 장치에 해당할 수 있다. 보행자 단말(110)은 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다. 보행자 단말(110)은 사운드 데이터 학습 서버(150)와 네트워크를 통해 연결되어 데이터를 주고 받을 수 있다. 보행자는 보행자 단말(110)을 통해 주변 환경의 상황 인식을 위한 학습 모델의 입력 데이터로서 사운드 신호를 입력할 수 있고, 학습 모델에 의해 출력된 환경 사운드에 관한 주변 상황을 인식할 수 있다. 일 실시예에서, 보행자 단말(110)은 주변의 사운드 신호를 직접 생성할 수 있다. 예를 들어, 보행자 단말(110)은 주변의 사운드를 녹음하는 마이크 모듈을 포함할 수 있고, 이를 통해 주변 사운드를 환경 사운드로서 수집할 수 있다. 다른 일 실시예에서, 보행자 단말(110)은 주변의 사운드 신호를 수신할 수 있다. 예를 들어, 보행자 단말(110)은 주변의 사운드를 감지하는 마이크 센서(130)와 연결될 수 있고, 이를 통해 주변 사운드를 환경 사운드로서 수집할 수 있다. The
또한, 보행자 단말(110)은 본 발명에 따른 보행자 보행안전 장치를 포함하여 구현될 수 있다. 이 경우, 본 발명에 따른 보행자 보행안전 장치는 보행자 단말(110) 상에서 실행되는 전용 어플리케이션에 해당할 수 있다. 즉, 본 발명에 따른 보행자 보행안전 장치는 소정의 기능을 수행하는 독립된 모듈로서 보행자 단말(110)에 포함되어 구현될 수 있으며, 사운드 데이터 학습 서버(150)와 상호 연동하여 본 발명에 따른 사운드 기반의 모바일 앱을 이용하는 보행자 보행안전을 위한 구체적 동작을 수행할 수 있다.In addition, the
마이크 센서(130)는 보행자의 주변에 존재하는 소리를 감지할 수 있는 소리감지센서에 해당할 수 있다. 즉, 마이크 센서(130)는 해당 보행자에게 접근하는 이동체 소리를 감지하는 동작을 수행할 수 있다. 마이크 센서(130)는 보행자 단말(110)과 별개로 독립된 형태로 구현되어 보행로를 보행하거나 이동체를 이용하여 이동하는 사용자가 착용할 수 있다. 예컨대, 마이크 센서(130)는 넥밴드형, 손목시계형 등 웨어러블 디바이스로 구현될 수 있고, 이에 한정되지 않고 헬멧 등 이동체 탑승 보호장비에 장착되는 형태로 구현될 수도 있다. 마이크 센서(130)는 사운드 센서 또는 소리감지 센서 라고도 불리며, 이는 마이크를 통해 주변의 소리를 모으고 소리의 높낮이(주파수)와는 상관없이 크기(데시벨)를 측정하는 센서이다. 마이크 센서(130)를 통해 수집되는 소리 데이터로부터 보행로상 이동체 접근상황을 인식할 수 있으며, 주변 환경정보를 인식할 수 있다.The
사운드 데이터 학습 서버(150)는 사운드 데이터를 학습하여 환경 사운드 분류를 위한 학습 모델을 구축하고 이를 기반으로 환경 사운드를 분류하여 주변 환경의 상황 인식을 수행할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 사운드 데이터 학습 서버(150)는 보행자 단말(110)과 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 네트워크를 통해 보행자 단말(110)과 데이터를 송·수신할 수 있다. 또한, 사운드 데이터 학습 서버(150)는 데이터의 수집 또는 추가 기능의 제공을 위하여 별도의 외부 시스템(도 1에 미도시함)과 연동하여 동작하도록 구현될 수도 있다. 예를 들어, 외부 시스템은 다양한 환경에서 수집된 정보를 통합하여 빅데이터를 구축할 수 있는 빅데이터 서버 및 보행자 단말(110)과 연결되어 다양한 클라우드 서비스를 제공할 수 있는 클라우드 서버 등을 포함할 수 있다.The sound
도 2는 본 발명에 따른 보행자 보행안전 장치의 물리적 구성을 설명하는 도면이다.2 is a diagram explaining the physical configuration of the pedestrian walking safety device according to the present invention.
도 2를 참조하면, 보행자 보행안전 장치(200)는 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함하여 구현될 수 있다.Referring to FIG. 2 , the
프로세서(210)는 보행자 보행안전 장치(200)가 동작하는 과정에서의 각 단계들을 처리하는 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄링 할 수 있다. 프로세서(210)는 보행자 보행안전 장치(200)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 보행자 보행안전 장치(200)의 CPU(Central Processing Unit)로 구현될 수 있다.The
메모리(230)는 SSD(Solid State Drive) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 보행자 보행안전 장치(200)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다.The
사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함할 수 있다. 예를 들어, 사용자 입출력부(250)는 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 보행자 보행안전 장치(200)는 독립적인 서버로서 수행될 수 있다.The user input/
네트워크 입출력부(270)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다.The network input/
도 3은 도 2의 보행자 보행안전 장치에서 있는 프로세스의 기능적 구성을 설명하는 도면이다.FIG. 3 is a diagram illustrating a functional configuration of a process in the pedestrian walking safety device of FIG. 2 .
도 3을 참조하면, 보행자 보행안전 장치(200)는 학습 알고리즘 탑재부(310), 데이터 수집부(330), 상황 인지부(350), 알림 제공부(370) 및 제어부(390)를 포함할 수 있다. 일 실시예에서, 보행자 보행안전 장치(200)를 구성하는 각 기능적 구성들은 보행자 단말(110)에 포함되어 구현될 수 있으며, 보행자 단말(110)과 사운드 데이터 학습 서버(150) 간의 연동에 의해 유기적으로 결합될 수도 있다. Referring to FIG. 3 , the
학습 알고리즘 탑재부(310)는 사운드 데이터를 기반으로 상황인지를 하기 위한 학습 알고리즘을 탑재할 수 있다. 여기에서, 학습 알고리즘은 사운드 데이터 학습 서버(150)를 통해 이미 사운드 데이터 학습으로 최적화된 lite 알고리즘만 포함할 수 있다.The
사운드 데이터 학습 서버(150)는 환경 사운드에 관한 원시 신호(raw signal)를 수집하여 데이터 집합을 생성할 수 있다. 여기에서, 사운드 데이터 학습 서버(150)는 별도의 사운드 수집 장치를 통해 차량이 다니는 도로가 아닌 보행자 중심의 주변 환경의 다양한 사운드를 직접 수집할 수도 있으며, 필요에 따라 기 구축된 데이터 집합을 이용할 수도 있다. 데이터 집합은 이동체(버스, 덤프트럭, 컨테이너, 레미콘, 오토바이, 스포츠카, 스쿠터, 승용/승합, 청소차, 손수레 등) 자체에서 발생되는 사운드, 신호음(앰블란스, 경찰차, 구급차, 소방차, 견인차, 클락션, 호루라기 등)뿐 아니라, 환경 컨텍스트(위치, 시간, 날씨 등)에 따른 사운드(자전거, 퀵보드, 보행자, 음악/음향, 개 짖는 소리, 캐리어, 거리공연, 공사, 실외 도로변/공원, 실내 사무실/카페 등)를 관한 원시 신호들의 집합에 해당할 수 있고, 이는 주변 환경 별 또는 상황별로 분류될 수 있다.The sound
사운드 데이터 학습 서버(150)는 주변 환경별 또는 상황별로 분류된 원시 신호로부터 샘플링(sampling) 되어 소정의 시간 길이를 갖는 복수의 사운드 프레임(frame)들을 생성할 수 있다. 사운드 데이터 학습 서버(150)는 복수의 사운드 프레임들에 대해 해당 신호를 위상(phase)과 크기(magnitude) 성분으로 분리하여 데이터를 증강(augmentation)시킬 수 있다. 데이터 증강은 딥러닝 기반 이미지 처리에서 매우 일반적인 기법에 해당할 수 있다. 이미지 처리에서 데이터 증강의 주요 이점은 사람의 눈이 다양한 유형의 이미지 패턴을 쉽게 감지할 수 있다는 것이다. 그러나, 사람의 귀에서 주파수 추정, SNR 계산 등과 같은 사운드 신호 패턴을 정확하게 측정하는 것은 어려울 수 있다.The sound
또한, 데이터 증강은 실제와 유사한 사례들을 생성하는 것 외에도 클래스 당 학습 데이터의 개수를 늘리는 목적으로도 사용될 수 있으며, 이를 통해 더 나은 정확성을 제공하는 머신러닝 모델을 구축할 수 있다.In addition, data augmentation can be used for the purpose of increasing the number of training data per class in addition to generating realistic examples, and through this, a machine learning model that provides better accuracy can be built.
일 실시예에서, 사운드 데이터 학습 서버(150)는 단시간 푸리에 변환(STFT, Short Time Fourier Transform)을 수행하여 위상과 크기 성분으로 분리할 수 있다. 사운드 데이터 학습 서버(150)는 증강된 데이터들을 학습하여 환경 사운드 분류를 위한 학습 모델을 구축할 수 있다. 여기에서, 사운드 데이터 학습 서버(150)는 STFT 스펙트로그램을 입력으로 수신하는 2D CNN 모델을 구축할 수 있다. 사운드 데이터 학습 서버(150)는 STFT 스펙트로그램으로 변환된 이미지 데이터를 활용하여 1차 학습 후 앰비언트 사운드(Ambient sound) 또는 스팟 사운드(Spot sound)를 구분하여 주변 환경에 대한 CNN 학습 또는 이동체 접근 유무에 따른 상황별 CNN 학습을 수행하여 각각의 학습 모델을 구축할 수 있다. 사운드 데이터 학습 서버(150)는 VGG(Visual Geometry Group) 모델을 사용하여 학습을 수행할 수 있다. 이에 대해서는 도 5에서 보다 자세히 설명한다.In one embodiment, the sound
데이터 수집부(330)는 보행자 단말(110)에 포함된 마이크 모듈 또는 마이크 센서(130)를 통해 보행자 주변의 환경 사운드를 실시간으로 수집할 수 있다. 여기에서, 마이크 센서(130)는 보행자 소지의 스마트폰이나 사람의 목에 거는 넥밴드형, 손목시계형, 노인이나 장애인용 전동보장구, 오토바이, 스쿠터, 퀵보드, 승합차, 버스, 덤프트럭, 컨테이너, 레미콘, 스포츠카, 승용/승합차, 청소차, 손수레 등에 포함될 수 있다. 일 실시예에서, 데이터 수집부(330)는 마이크 센서(130)를 통해 보행 중인 보행자의 주변 환경 사운드를 감지하고 감지된 1차원 신호를 2차원의 데이터로 변환할 수 있다. 여기에서, 데이터 수집부(330)는 수집한 사운드 데이터를 주파수와 시간 2개의 축을 가진 이미지 형태인 STFT(Short-Time Fourier Transform) 스펙트로그램으로 변환할 수 있다.The
스펙트로그램은 x축은 시간 축(단위:프레임), y축은 주파수로 각 시간당 주파수가 가지는 값을 값의 크기에 따라 색으로 표현하여 3차원을 2차원으로 표현하게 된다. 즉, 각각의 프레임(짧은 시간으로 자른 신호)이 각 주파수성분을 얼마만큼 가지고 있는지 표현하게 되며 STFT의 크기(magnitude) 부분을 db 스케일로 변환해주면 스펙트로그램이 된다. In the spectrogram, the x-axis is the time axis (unit: frame), the y-axis is the frequency, and the value of each time frequency is expressed in color according to the size of the value, so that 3D is expressed in 2D. That is, each frame (signal cut in a short time) expresses how much each frequency component has, and converting the magnitude part of the STFT into a db scale becomes a spectrogram.
상황 인지부(350)는 보행자를 기준으로 안전한 보행을 위해 필요한 환경을 인식할 수 있다. 여기에서, 안전한 보행을 위해 필요한 환경 인지는 보행자 자신의 위치를 파악하는 것과 위험물을 포함한 주변 환경을 인식하는 것으로 구성될 수 있다. 이러한 환경 인지를 위해, 본 발명은 사운드 데이터를 이용한다.The
상황 인지부(350)는 데이터 수집부(330)를 통해 실시간으로 수집되는 사운드 데이터를 학습 알고리즘을 통해 학습을 수행하여 주변 환경을 인식하고 보행자에 대해 이동체의 접근 상황을 인지할 수 있다. 일 실시예에서, 상황 인지부(350)는 STFT 스펙트로그램을 학습 알고리즘 탑재부(310)에 탑재된 학습 알고리즘에 따라 학습을 수행하여 주변 환경을 인식하고 보행자에 대해 이동체의 접근 상황을 판단할 수 있다. 일 실시예에서, 상황 인지부(350)는 학습 알고리즘의 학습 모델을 기초로 주어진 환경 사운드에 대한 분류 동작을 수행할 수 있다. 여기에서, 상황 인지부(350)는 학습 모델로서 주변 환경에 대한 CNN 모델 및 이동체 접근 유무에 따른 상황별 CNN 모델이 구축된 경우 분류 동작의 수행 환경에 따라 해당 모델 중 하나를 선택적으로 적용할 수 있다. 상황 인지부(350)는 학습 모델을 통해 이미지로 변환된 사운드 데이터의 학습을 수행하여 빠르게 분류 연산을 처리할 수 있으며 보다 높은 정확도의 분류 결과를 생성할 수 있다. 상황 인지부(350)는 환경 사운드 분류 결과를 토대로 보행자의 주변 환경 정보를 인식할 수 있고 보행자에 대해 이동체의 접근을 판단할 수 있다. 여기에서, 주변 환경 정보는 정숙한 사무실, 소음이 있는 카페 등 실내 환경 및 정숙한 공원, 소음이 있는 도시 등 실외 환경의 상황을 포함할 수 있다.The
일 실시예에서, 상황 인지부(350)는 환경 사운드 결과로서 주변 환경 및 이동체 접근 유무에 따른 상황을 종합하여 보행자의 위험 상황을 판단할 수 있다. 예컨대, 상황 인지부(350)는 이동체 접근 상황에 따른 사운드로 분류되더라도 주변 환경이 실내에 따른 사운드로 분류되는 경우 보행자가 이동체와의 충돌 위험이 낮은 안전한 실내 환경에 위치하는 상황으로 판단할 수 있다. 일 실시예에서, 상황 인지부(350)는 보행로를 주행 중인 퍼스널 모빌리티의 이용자를 기준으로 주변의 환경 사운드가 수집되어 학습을 통해 환경 사운드 분류를 수행할 경우에 퍼스널 모빌리티 이용자와 이동체간 또는 해당 이용자와 보행자 간의 충돌 위험 상황을 판단할 수 있다.In an embodiment, the
알림 제공부(370)는 상황 인지부(350)의 상황인지 결과에 따라 보행자에게 이동체의 접근에 따른 위험 상황을 알림 제공할 수 있다. 즉, 알림 제공부(370)는 보행자 단말(110)에 설정된 방식으로 이동체의 접근에 따른 사고 위험을 시각적 또는 청각적으로 제공할 수 있다. 예컨대, 알림 제공부(370)는 보행자 단말(110)의 스피커 모듈을 통해 음성출력하거나 또는 진동이나 문자 알림을 통해 위험 상황을 보행자에게 알려 사고를 예방할 수 있도록 한다.The
일 실시예에서, 알림 제공부(370)는 보행로를 주행 중인 퍼스널 모빌리티 이용자에게 이동체 또는 보행자와의 충돌 위험 상황을 알림 제공할 수도 있다. 즉, 알림 제공부(370)는 퍼스널 모빌리티 이용자의 단말이나 또는 퍼스널 모빌리티에 경고 알람이나 문자 알림을 전송할 수 있다. In one embodiment, the
제어부(390)은 보행자 보행안전 장치(150)의 전체적인 동작을 제어하고, 학습 알고리즘 탑재부(310), 데이터 수집부(330), 상황 인지부(350) 및 알림 제공부(370) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.The
도 4는 본 발명에 따른 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 방법을 설명하는 순서도이다.4 is a flowchart illustrating a pedestrian walking safety method using a sound-based mobile app according to the present invention.
도 4를 참조하면, 보행자 보행안전 장치(200)는 사운드 데이터 학습 서버(150)에서 사운드 데이터 학습으로 최적화된 lite 알고리즘을 보행자 단말(110)에 탑재할 수 있다(단계 S410). 보행자 보행안전 장치(200)는 보행자 단말(110)의 주변 사운드를 녹음하는 마이크 모듈을 보행자 주변의 환경 사운드 데이터를 실시간으로 수집할 수 있다(단계 S430). Referring to FIG. 4 , the
또한, 보행자 보행안전 장치(200)는 보행자 단말(110)에 탑재된 사운드 데이터 학습 알고리즘을 동작시켜 실시간 수집되는 사운드 데이터를 입력으로 하는 학습을 수행하여 환경 사운드 분류를 적응적으로 처리하여 주변 환경을 인식할 수 있으며 보행자에 대해 이동체의 접근 상황을 판단할 수 있다(단계 S450). 보행자 보행안전 장치(200)는 보행자의 위험 상황을 보행자 단말(110)의 스피커 모듈을 통해 음성출력 또는 경고알람을 발생하거나 알림톡 등 다양한 방법으로 보행자에게 알릴 수 있다(단계 S470).In addition, the
도 5는 일 실시예에 따른 사운드 데이터 학습용 CNN 모델을 설명하는 도면이다.5 is a diagram illustrating a CNN model for learning sound data according to an exemplary embodiment.
도 5를 참조하면, 보행자 보행안전 장치(200)는 사운드 데이터를 학습하여 상황별 환경 사운드 분류를 위한 학습 모델로 VGG(Visual Geometry Group) 모델을 사용할 수 있다. CNN 아킥텍쳐는 AlexNet, VGG, GoogLeNet, ResNet로 총 4가지이다. Referring to FIG. 5 , the
VGG 모델은 입력 이미지 크기를 224×224로 고정하고, 컨볼루션은 모두 3,3 스트라이드(stride)는 1을 사용한다. 즉, STFT 스펙트로그램을 입력으로 하여 시간 및 주파수 축에 따라 컨볼루션이 수행될 수 있다. 각 컨볼루션 블록은 컨볼루션(convolution), 활성화(activation) 및 배치 정규화(batch normalization) 레이어들을 포함할 수 있다. 각 컨볼루션 블록 내의 다음 레이어에서, 'ReLu' 활성화 함수를 사용하여 비선형성(non-linearity)을 제공할 수 있다. 마지막 레이어의 경우 출력 클래스들의 개수에 따라 예측 확률을 제공하기 위해 소프트맥스(softmax) 활성화 함수가 사용될 수 있다. The VGG model fixes the input image size to 224×224, and uses 3,3 and 1 for all convolutions and a stride of 1. That is, convolution may be performed along the time and frequency axes with the STFT spectrogram as an input. Each convolution block may include convolution, activation, and batch normalization layers. In the next layer within each convolution block, the 'ReLu' activation function can be used to provide non-linearity. In the case of the last layer, a softmax activation function may be used to provide prediction probabilities according to the number of output classes.
보행자 보행안전 장치(200)는 VGG 모델을 사용하여 사운드의 특징을 학습하여 사운드를 주변 환경정보 및 이동체 접근 유무에 따른 상황별 범주로 분류할 수 있는 학습 모델을 구축할 수 있다.The
따라서, 본 발명은 사전 학습된 모델을 통해 실시간 수집되는 환경 사운드 데이터의 적은 학습으로 빠르고 정확하게 상황 인식을 할 수 있고 위험 상황에 대해 경고 알람을 통해 보행자가 안전한 보행을 할 수 있도록 함으로써 보행로에서 보행 중 일어날 수 있는 사고를 예방할 수 있다.Therefore, the present invention enables quick and accurate situation recognition with little learning of environmental sound data collected in real time through a pre-learned model, and enables pedestrians to walk safely through warning alarms for dangerous situations, thereby enabling pedestrians to walk while walking on a walking path. possible accidents can be prevented.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.
100: 보행자 보행안전 시스템
110: 보행자 단말 130: 마이크 센서
150: 사운드 데이터 학습 서버
200: 보행자 보행안전 장치
210: 프로세서 230: 메모리
250: 사용자 입출력부 270: 네트워크 입출력부
310: 학습 알고리즘 탑재부 330: 데이터 수집부
350: 상황 인지부 370: 알림 제공부
390: 제어부100: Pedestrian Pedestrian Safety System
110: pedestrian terminal 130: microphone sensor
150: sound data learning server
200: pedestrian safety device
210: processor 230: memory
250: user input/output unit 270: network input/output unit
310: learning algorithm loading unit 330: data collection unit
350: situation awareness unit 370: notification providing unit
390: control unit
Claims (8)
보행자를 기준으로 주변의 환경 사운드를 실시간으로 수집하는 데이터 수집부;
상기 수집된 사운드 데이터를 상기 탑재된 학습 알고리즘을 통해 학습을 수행하여 상기 보행자의 안전한 보행을 위해 필요한 환경을 인식하는 상황 인식부; 및
상기 상황 인식 결과에 기초하여 상기 보행자에게 위험 상황을 알림 제공하는 알림 제공부를 포함하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
a learning algorithm loading unit for loading a learning algorithm for situational awareness based on sound data;
a data collection unit that collects ambient sound around the pedestrian in real time;
a context recognition unit that recognizes an environment necessary for safe walking of the pedestrian by performing learning on the collected sound data through the built-in learning algorithm; and
Pedestrian safety device using a sound-based mobile app including a notification providing unit for providing notification of a dangerous situation to the pedestrian based on the situation recognition result.
서버를 통해 사전 사운드 데이터 학습으로 최적화된 lite 알고리즘만 포함하는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 1, wherein the learning algorithm loading unit
Pedestrian safety device using a sound-based mobile app, characterized in that it includes only lite algorithms optimized for pre-sound data learning through a server.
마이크 센서를 통해 보행 중인 상기 보행자의 주변 사운드를 감지하고 감지된 1차원 신호를 2차원의 데이터로 변환하여 수집하는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 1, wherein the data collection unit
A pedestrian safety device using a sound-based mobile app, characterized in that for detecting ambient sound of the walking pedestrian through a microphone sensor and converting the detected one-dimensional signal into two-dimensional data for collection.
보행자 단말에 포함되거나 웨어러블 디바이스 형태로 구현되는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 3, wherein the microphone sensor
A pedestrian safety device using a sound-based mobile app, characterized in that it is included in a pedestrian terminal or implemented in the form of a wearable device.
상기 학습 알고리즘을 기초로 상기 수집된 사운드 데이터에 대해 상황 분류 동작을 수행하여 주변 환경을 인식하고 보행자에 대해 위험 요소가 되는 이동체의 접근 상황을 인지하는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 1, wherein the context awareness unit
Based on the learning algorithm, a situation classification operation is performed on the collected sound data to recognize the surrounding environment and to recognize the approaching situation of a moving object that is a risk factor to the pedestrian. Pedestrian Safety Device.
상기 수집된 사운드 데이터를 상기 학습 알고리즘의 모델 입력으로 하여 이동체, 신호음, 환경 및 특성을 포함하는 상황별 분류를 수행하고 상기 보행자의 주변환경을 판단하여 보행중인 상기 보행자에게 상기 이동체가 접근하는 상황을 결정하는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 5, wherein the context awareness unit
The collected sound data is used as a model input of the learning algorithm to perform situational classification including moving objects, signal sounds, environments, and characteristics, and to determine a situation in which the moving object approaches the walking pedestrian by determining the surrounding environment of the pedestrian. Pedestrian safety device using a sound-based mobile app, characterized in that for determining.
상기 보행자에 의해 설정된 스피커를 통한 음성 출력, 진동이나 문자 알림 중 적어도 하나의 방식으로 상기 보행자에게 위험 상황을 알리는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 1, wherein the notification providing unit
A pedestrian safety device using a sound-based mobile app, characterized in that for notifying the pedestrian of a dangerous situation in at least one of voice output, vibration or text notification through a speaker set by the pedestrian.
상기 보행자의 주변 환경 사운드 데이터를 실시간으로 수집하는 단계;
상기 탑재된 사운드 데이터 학습 알고리즘을 동작시켜 실시간 수집되는 상기 사운드 데이터를 입력으로 하는 학습을 수행하여 환경 사운드 분류하고 분류 결과를 토대로 보행자에 대해 이동체 접근 상황 및 주변 환경 정보를 인식하여 위험 상황을 판단하는 단계; 및
보행자의 위험 상황을 설정된 방식에 따라 보행자에게 알리는 단계를 포함하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 방법.Loading the lite algorithm optimized by prior sound data learning into the pedestrian's terminal;
collecting ambient environment sound data of the pedestrian in real time;
By operating the built-in sound data learning algorithm, learning is performed using the sound data collected in real time as an input to classify environmental sounds, and recognizing the approaching situation of a pedestrian and surrounding environment information for a pedestrian based on the classification result to determine a dangerous situation step; and
Pedestrian safety method using a sound-based mobile app, including the step of notifying the pedestrian of a pedestrian's dangerous situation according to a set method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210073485A KR20220165034A (en) | 2021-06-07 | 2021-06-07 | Pedestrian walking safety device and method using sound-based mobile app |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210073485A KR20220165034A (en) | 2021-06-07 | 2021-06-07 | Pedestrian walking safety device and method using sound-based mobile app |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220165034A true KR20220165034A (en) | 2022-12-14 |
Family
ID=84438580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210073485A KR20220165034A (en) | 2021-06-07 | 2021-06-07 | Pedestrian walking safety device and method using sound-based mobile app |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220165034A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101683012B1 (en) | 2016-06-15 | 2016-12-08 | (주)세이프업 | Crosswalk pedestrian safety system using voice guidance and Method thereof |
-
2021
- 2021-06-07 KR KR1020210073485A patent/KR20220165034A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101683012B1 (en) | 2016-06-15 | 2016-12-08 | (주)세이프업 | Crosswalk pedestrian safety system using voice guidance and Method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Aloul et al. | iBump: Smartphone application to detect car accidents | |
Chang et al. | DeepCrash: A deep learning-based internet of vehicles system for head-on and single-vehicle accident detection with emergency notification | |
KR102205240B1 (en) | Unexpected Impulse Change Collision Detector | |
US10417486B2 (en) | Driver behavior monitoring systems and methods for driver behavior monitoring | |
Park et al. | In‐vehicle AR‐HUD system to provide driving‐safety information | |
US9761118B2 (en) | Detecting apparatus and method, and mobile terminal apparatus having detecting apparatus | |
KR20190011582A (en) | Electronic device for identifying external vehicle changing identification based on data associated with movement of external vehicle | |
CN110795523B (en) | Vehicle positioning method and device and intelligent vehicle | |
KR20190017171A (en) | Electronic device for transmitting communication signal associated with pedestrian safety and method for operating thereof | |
US10699546B2 (en) | Headphone and headphone safety device for alerting user from impending hazard, and method thereof | |
CN108859938A (en) | The method and system that automotive vehicle emergency light for automatic driving vehicle controls | |
US9571057B2 (en) | Altering audio signals | |
KR102203810B1 (en) | User interfacing apparatus and method using an event corresponding a user input | |
US11958410B2 (en) | Artificially intelligent mobility safety system | |
US10609510B2 (en) | Mobile electronic apparatus, mobile electronic apparatus control method, a non-transitory computer readable recording medium, for providing warnings to a user of the apparatus based on the location of the electronic apparatus | |
CN111052193B (en) | Anti-theft technique for autonomous vehicles for transporting goods | |
CN112258837A (en) | Vehicle early warning method, related device, equipment and storage medium | |
CN111540191B (en) | Driving warning method, system, equipment and storage medium based on Internet of vehicles | |
CN111488792A (en) | System and method for predicting pedestrian behavior | |
CN110164181A (en) | A kind of car accident detection, method for early warning, equipment and system | |
KR20220165034A (en) | Pedestrian walking safety device and method using sound-based mobile app | |
Sontakke et al. | Crash notification system for portable devices | |
CN111147738A (en) | Police vehicle-mounted panoramic and coma system, device, electronic equipment and medium | |
JP7426471B2 (en) | Self-driving car interaction system | |
JP7301715B2 (en) | State Prediction Server and Alert Device Applied to Vehicle System Using Surveillance Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |