KR20220165034A - Pedestrian walking safety device and method using sound-based mobile app - Google Patents

Pedestrian walking safety device and method using sound-based mobile app Download PDF

Info

Publication number
KR20220165034A
KR20220165034A KR1020210073485A KR20210073485A KR20220165034A KR 20220165034 A KR20220165034 A KR 20220165034A KR 1020210073485 A KR1020210073485 A KR 1020210073485A KR 20210073485 A KR20210073485 A KR 20210073485A KR 20220165034 A KR20220165034 A KR 20220165034A
Authority
KR
South Korea
Prior art keywords
pedestrian
sound
learning
safety device
unit
Prior art date
Application number
KR1020210073485A
Other languages
Korean (ko)
Inventor
최기영
Original Assignee
주식회사 피알랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피알랩 filed Critical 주식회사 피알랩
Priority to KR1020210073485A priority Critical patent/KR20220165034A/en
Publication of KR20220165034A publication Critical patent/KR20220165034A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Educational Administration (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

The present invention relates to a pedestrian safety device and method using a sound-based mobile app. The device includes: a learning algorithm loading unit for loading a learning algorithm for situational awareness based on sound data; a data collection unit for collecting ambient sound in real time based on pedestrians; a situation recognition unit for recognizing an environment necessary for safe walking of the pedestrian by learning the collected sound data through the loaded learning algorithm; and a notification providing unit for providing notification of a dangerous situation to the pedestrian based on the situation recognition result.

Description

사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법{PEDESTRIAN WALKING SAFETY DEVICE AND METHOD USING SOUND-BASED MOBILE APP}Pedestrian walking safety device and method using sound-based mobile app {PEDESTRIAN WALKING SAFETY DEVICE AND METHOD USING SOUND-BASED MOBILE APP}

본 발명은 보행자 보행안전 기술에 관한 것으로, 보다 상세하게는 전용 앱을 통해 보행자 주변 사운드로 상황인식 및 이동체 접근을 감지하고 위험 상황을 보행자에게 미리 알려줄 수 있는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법에 관한 것이다.The present invention relates to a pedestrian safety technology, and more particularly, to pedestrian safety using a sound-based mobile app capable of detecting situational awareness and approaching a moving object through a pedestrian ambient sound through a dedicated app and notifying the pedestrian of a dangerous situation in advance. It relates to an apparatus and method.

다양한 이동수단의 등장으로 인해 도로환경이 더욱 복잡하고 위험해지고 있다. 특히, 자율 주행차, 전동 킥보드, 전동 휠체어, 배달 차량/로봇 등 기존 도로 위를 달리는 차량 이외에도 보행로 상에서도 접근이 가능한 퍼스널 모빌리티(Personal Mobility, PM)의 증가로 인해 보행로 상의 안전 사고위험도가 급증하고 있는 실정이다.Due to the emergence of various means of transportation, the road environment is becoming more complex and dangerous. In particular, the risk of safety accidents on pedestrian roads is rapidly increasing due to the increase in Personal Mobility (PM), which can be accessed on pedestrian roads, in addition to vehicles running on existing roads such as self-driving cars, electric kickboards, electric wheelchairs, and delivery vehicles/robots. The situation is.

교통사망자 중 보행사망 비중이 39.9%로 OECD 국가 평균 18.6% 대비 2배이상 수준으로 높고 특히, 어린이, 노인 등 교통약자의 피해가 심각한 상황이다. Among traffic deaths, the proportion of pedestrian deaths is 39.9%, which is more than twice as high as the OECD average of 18.6%.

퍼스널 모빌리티 이용자 수가 늘어나면서 교통사고도 급격히 증가하고 있다. 상당수 이용자는 자전거 도로나 인도를 주로 이용하고 있어 이용자는 물론 주변의 자전거 탑승자 또는 보행자에게 치명적인 피해를 줄 수 있는 점에서 사고 예방이 중요하다.As the number of personal mobility users increases, traffic accidents are also rapidly increasing. A significant number of users mainly use bicycle roads or sidewalks, and it is important to prevent accidents in that they can cause fatal damage to not only users but also cyclists or pedestrians around them.

한국등록특허 제10-1683012호 (2016.11.30)Korean Patent Registration No. 10-1683012 (2016.11.30)

본 발명의 일 실시예는 전용 앱을 통해 보행자 주변 사운드로 상황인식 및 이동체 접근을 감지하고 위험 상황을 보행자에게 미리 알려줄 수 있는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법을 제공하고자 한다.One embodiment of the present invention is to provide a pedestrian safety device and method using a sound-based mobile app capable of detecting situational awareness and approaching a moving object through a pedestrian ambient sound through a dedicated app and notifying the pedestrian of a dangerous situation in advance.

본 발명의 일 실시예는 사용자 단말 상에서 실행되는 앱과 연동하여 동작하고 보행자 보행안전을 위한 사운드 수집과 상황인지를 효과적으로 수행할 수 있는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to provide a pedestrian safety device and method using a sound-based mobile app that operates in conjunction with an app running on a user terminal and can effectively perform sound collection and situational awareness for pedestrian safety. do.

본 발명의 일 실시예는 퍼스널 모빌리티에 적용되어 보행로 상에 접근 가능한 퍼스널 모빌리티의 안전 사고위험을 예방하는데 기여할 수 있는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is applied to personal mobility to provide a pedestrian safety device and method using a sound-based mobile app that can contribute to preventing safety accident risks of personal mobility accessible on a walking path.

실시예들 중에서, 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치는 사운드 데이터를 기반으로 상황인지를 하기 위한 학습 알고리즘을 탑재하는 학습 알고리즘 탑재부, 보행자를 기준으로 주변의 환경 사운드를 실시간으로 수집하는 데이터 수집부, 상기 수집된 사운드 데이터를 상기 탑재된 학습 알고리즘을 통해 학습을 수행하여 상기 보행자의 안전한 보행을 위해 필요한 환경을 인식하는 상황 인식부, 및 상기 상황 인식 결과에 기초하여 상기 보행자에게 위험 상황을 알림 제공하는 알림 제공부를 포함한다.Among embodiments, a pedestrian safety device using a sound-based mobile app includes a learning algorithm mounting unit equipped with a learning algorithm for situational awareness based on sound data, and data collecting ambient sound in real time based on a pedestrian. A collection unit, a situation recognition unit that recognizes an environment necessary for safe walking of the pedestrian by learning the collected sound data through the built-in learning algorithm, and a dangerous situation for the pedestrian based on the result of the situation recognition. A notification providing unit for providing a notification is included.

상기 학습 알고리즘 탑재부는 서버를 통해 사전 사운드 데이터 학습으로 최적화된 lite 알고리즘만 포함할 수 있다. The learning algorithm loading unit may include only lite algorithms optimized for prior sound data learning through a server.

상기 데이터 수집부는 마이크 센서를 통해 보행 중인 상기 보행자의 주변 사운드를 감지하고 감지된 1차원 신호를 2차원의 데이터로 변환하여 수집할 수 있다.The data collection unit may sense ambient sound of the walking pedestrian through a microphone sensor, convert the sensed one-dimensional signal into two-dimensional data, and collect the same.

상기 마이크 센서는 보행자 단말에 포함되거나 웨어러블 디바이스 형태로 구현될 수 있다.The microphone sensor may be included in a pedestrian terminal or implemented in the form of a wearable device.

상기 상황 인지부는 상기 학습 알고리즘을 기초로 상기 수집된 사운드 데이터에 대해 상황 분류 동작을 수행하여 주변 환경을 인식하고 보행자에 대해 위험 요소가 되는 이동체의 접근 상황을 인지할 수 있다.The context recognition unit may perform a context classification operation on the collected sound data based on the learning algorithm to recognize a surrounding environment and an approaching state of a moving object that is a risk factor to pedestrians.

상기 상황 인지부는 상기 수집된 사운드 데이터를 상기 학습 알고리즘의 모델 입력으로 하여 이동체, 신호음, 환경 및 특성을 포함하는 상황별 분류를 수행하고 상기 보행자의 주변환경을 판단하여 보행중인 상기 보행자에게 상기 이동체가 접근하는 상황을 결정할 수 있다.The context-aware unit uses the collected sound data as a model input of the learning algorithm to perform situational classification including a moving object, a signal sound, environment, and characteristics, and determines the surrounding environment of the pedestrian to determine whether the moving object is detected by the walking pedestrian. You can decide which situation to approach.

상기 알림 제공부는 상기 보행자에 의해 설정된 스피커를 통한 음성 출력, 진동이나 문자 알림 중 적어도 하나의 방식으로 상기 보행자에게 위험 상황을 알릴 수 있다.The notification providing unit may notify the pedestrian of a dangerous situation through at least one of voice output, vibration, and text notification through a speaker set by the pedestrian.

실시예들 중에서, 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 방법은 보행자의 단말에 사전 사운드 데이터 학습으로 최적화된 lite 알고리즘을 탑재하는 단계, 상기 보행자의 주변 환경 사운드 데이터를 실시간으로 수집하는 단계, 상기 탑재된 사운드 데이터 학습 알고리즘을 동작시켜 실시간 수집되는 상기 사운드 데이터를 입력으로 하는 학습을 수행하여 환경 사운드 분류하고 분류 결과를 토대로 보행자에 대해 이동체 접근 상황 및 주변 환경 정보를 인식하여 위험 상황을 판단하는 단계, 및 보행자의 위험 상황을 설정된 방식에 따라 보행자에게 알리는 단계를 포함한다.Among the embodiments, a pedestrian safety method using a sound-based mobile app includes the steps of installing a lite algorithm optimized for prior sound data learning in a pedestrian terminal, collecting the pedestrian's surrounding environment sound data in real time, the Classifying environmental sounds by operating a built-in sound data learning algorithm to perform learning using the sound data collected in real time as an input, and recognizing a dangerous situation by recognizing a moving object approach situation and surrounding environment information for a pedestrian based on the classification result , and notifying the pedestrian of the dangerous situation of the pedestrian according to a set method.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology may have the following effects. However, it does not mean that a specific embodiment must include all of the following effects or only the following effects, so it should not be understood that the scope of rights of the disclosed technology is limited thereby.

본 발명에 따른 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법은 전용 앱을 통해 보행자 주변 사운드로 상황인식 및 이동체 접근을 감지하고 위험 상황을 보행자에게 미리 알려줄 수 있도록 함으로써, 어린이 및 노인 등 교통 약자들의 사고를 예방하고 안전한 보행을 할 수 있다.Pedestrian safety device and method using a sound-based mobile app according to the present invention detects situational awareness and approach of a moving object through a dedicated app with sounds around the pedestrian and informs the pedestrian of a dangerous situation in advance, thereby reducing traffic such as children and the elderly. Accidents of the weak can be prevented and safe walking can be done.

본 발명에 따른 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법은 사용자 단말 상에서 실행되는 앱과 연동하여 동작하고 보행자 보행안전을 위한 사운드 수집과 상황인지를 효과적으로 수행할 수 있다.Pedestrian walking safety device and method using a sound-based mobile app according to the present invention operates in conjunction with an app running on a user terminal and can effectively perform sound collection and context awareness for pedestrian walking safety.

본 발명에 따른 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치 및 방법은 퍼스널 모빌리티에 적용되어 보행로 상에 접근 가능한 퍼스널 모빌리티의 안전 사고위험을 예방하는데 기여할 수 있다.Pedestrian walking safety device and method using a sound-based mobile app according to the present invention can be applied to personal mobility and contribute to preventing the risk of safety accidents of personal mobility accessible on a walking road.

도 1은 본 발명에 따른 보행자 보행안전 시스템을 설명하는 도면이다.
도 2는 본 발명에 따른 보행자 보행안전 장치의 물리적 구성을 설명하는 도면이다.
도 3은 도 2의 보행자 보행안전 장치에 있는 프로세스의 기능적 구성을 설명하는 도면이다.
도 4는 본 발명에 따른 보행자 보행안전 방법을 설명하는 순서도이다.
도 5는 본 발명에 따른 학습용 CNN 모델을 설명하는 도면이다.
1 is a view illustrating a pedestrian walking safety system according to the present invention.
2 is a diagram explaining the physical configuration of the pedestrian walking safety device according to the present invention.
FIG. 3 is a diagram illustrating a functional configuration of a process in the pedestrian walking safety device of FIG. 2 .
4 is a flowchart illustrating a pedestrian walking safety method according to the present invention.
5 is a diagram illustrating a CNN model for learning according to the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of terms described in this application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that no intervening elements exist. Meanwhile, other expressions describing the relationship between components, such as “between” and “immediately between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Expressions in the singular number should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “having” refer to an embodied feature, number, step, operation, component, part, or these. It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (eg, a, b, c, etc.) is used for convenience of explanation, and the identification code does not describe the order of each step, and each step clearly follows a specific order in context. Unless otherwise specified, it may occur in a different order than specified. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be implemented as computer readable code on a computer readable recording medium, and the computer readable recording medium includes all types of recording devices storing data that can be read by a computer system. . Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium may be distributed to computer systems connected through a network, so that computer-readable codes may be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as consistent with meanings in the context of the related art, and cannot be interpreted as having ideal or excessively formal meanings unless explicitly defined in the present application.

도 1은 본 발명에 따른 보행자 보행안전 시스템을 설명하는 도면이다.1 is a view illustrating a pedestrian walking safety system according to the present invention.

도 1을 참조하면, 보행자 보행안전 시스템(100)은 보행자 단말(110), 마이크 센서(130), 사운드 데이터 학습 서버(150) 및 데이터베이스(170)를 포함할 수 있다.Referring to FIG. 1 , the pedestrian safety system 100 may include a pedestrian terminal 110 , a microphone sensor 130 , a sound data learning server 150 and a database 170 .

보행자 단말(110)은 본 발명에 따른 보행자 보행안전 서비스를 이용할 수 있는 컴퓨팅 장치에 해당할 수 있다. 보행자 단말(110)은 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다. 보행자 단말(110)은 사운드 데이터 학습 서버(150)와 네트워크를 통해 연결되어 데이터를 주고 받을 수 있다. 보행자는 보행자 단말(110)을 통해 주변 환경의 상황 인식을 위한 학습 모델의 입력 데이터로서 사운드 신호를 입력할 수 있고, 학습 모델에 의해 출력된 환경 사운드에 관한 주변 상황을 인식할 수 있다. 일 실시예에서, 보행자 단말(110)은 주변의 사운드 신호를 직접 생성할 수 있다. 예를 들어, 보행자 단말(110)은 주변의 사운드를 녹음하는 마이크 모듈을 포함할 수 있고, 이를 통해 주변 사운드를 환경 사운드로서 수집할 수 있다. 다른 일 실시예에서, 보행자 단말(110)은 주변의 사운드 신호를 수신할 수 있다. 예를 들어, 보행자 단말(110)은 주변의 사운드를 감지하는 마이크 센서(130)와 연결될 수 있고, 이를 통해 주변 사운드를 환경 사운드로서 수집할 수 있다. The pedestrian terminal 110 may correspond to a computing device capable of using the pedestrian walking safety service according to the present invention. The pedestrian terminal 110 may be implemented as a smart phone, a laptop computer, or a computer, but is not necessarily limited thereto, and may also be implemented as various devices such as a tablet PC. The pedestrian terminal 110 may be connected to the sound data learning server 150 through a network to exchange data. A pedestrian may input a sound signal as input data of a learning model for recognizing a surrounding environment through the pedestrian terminal 110 and recognize a surrounding situation related to an environmental sound output by the learning model. In one embodiment, the pedestrian terminal 110 may directly generate an ambient sound signal. For example, the pedestrian terminal 110 may include a microphone module that records ambient sounds, and through this, ambient sounds may be collected as environmental sounds. In another embodiment, the pedestrian terminal 110 may receive surrounding sound signals. For example, the pedestrian terminal 110 may be connected to the microphone sensor 130 that detects ambient sound, and through this, the ambient sound may be collected as environmental sound.

또한, 보행자 단말(110)은 본 발명에 따른 보행자 보행안전 장치를 포함하여 구현될 수 있다. 이 경우, 본 발명에 따른 보행자 보행안전 장치는 보행자 단말(110) 상에서 실행되는 전용 어플리케이션에 해당할 수 있다. 즉, 본 발명에 따른 보행자 보행안전 장치는 소정의 기능을 수행하는 독립된 모듈로서 보행자 단말(110)에 포함되어 구현될 수 있으며, 사운드 데이터 학습 서버(150)와 상호 연동하여 본 발명에 따른 사운드 기반의 모바일 앱을 이용하는 보행자 보행안전을 위한 구체적 동작을 수행할 수 있다.In addition, the pedestrian terminal 110 may be implemented by including the pedestrian walking safety device according to the present invention. In this case, the pedestrian safety device according to the present invention may correspond to a dedicated application executed on the pedestrian terminal 110 . That is, the pedestrian safety device according to the present invention can be implemented by being included in the pedestrian terminal 110 as an independent module that performs a predetermined function, and can be implemented by interworking with the sound data learning server 150 according to the present invention. It is possible to perform specific operations for pedestrian safety using the mobile app of .

마이크 센서(130)는 보행자의 주변에 존재하는 소리를 감지할 수 있는 소리감지센서에 해당할 수 있다. 즉, 마이크 센서(130)는 해당 보행자에게 접근하는 이동체 소리를 감지하는 동작을 수행할 수 있다. 마이크 센서(130)는 보행자 단말(110)과 별개로 독립된 형태로 구현되어 보행로를 보행하거나 이동체를 이용하여 이동하는 사용자가 착용할 수 있다. 예컨대, 마이크 센서(130)는 넥밴드형, 손목시계형 등 웨어러블 디바이스로 구현될 수 있고, 이에 한정되지 않고 헬멧 등 이동체 탑승 보호장비에 장착되는 형태로 구현될 수도 있다. 마이크 센서(130)는 사운드 센서 또는 소리감지 센서 라고도 불리며, 이는 마이크를 통해 주변의 소리를 모으고 소리의 높낮이(주파수)와는 상관없이 크기(데시벨)를 측정하는 센서이다. 마이크 센서(130)를 통해 수집되는 소리 데이터로부터 보행로상 이동체 접근상황을 인식할 수 있으며, 주변 환경정보를 인식할 수 있다.The microphone sensor 130 may correspond to a sound sensor capable of detecting sounds existing around the pedestrian. That is, the microphone sensor 130 may perform an operation of detecting the sound of a moving object approaching the pedestrian. The microphone sensor 130 is implemented in an independent form separate from the pedestrian terminal 110 and can be worn by a user walking on a walking path or moving using a moving object. For example, the microphone sensor 130 may be implemented as a wearable device such as a neckband type or a wrist watch type, but is not limited thereto and may be implemented in a form mounted on a protective equipment for riding a moving object such as a helmet. The microphone sensor 130 is also called a sound sensor or a sound sensor, and is a sensor that collects ambient sound through a microphone and measures the volume (decibels) regardless of the height (frequency) of the sound. From the sound data collected through the microphone sensor 130, it is possible to recognize an approaching situation of a moving object on a walking path and to recognize surrounding environment information.

사운드 데이터 학습 서버(150)는 사운드 데이터를 학습하여 환경 사운드 분류를 위한 학습 모델을 구축하고 이를 기반으로 환경 사운드를 분류하여 주변 환경의 상황 인식을 수행할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 사운드 데이터 학습 서버(150)는 보행자 단말(110)과 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 네트워크를 통해 보행자 단말(110)과 데이터를 송·수신할 수 있다. 또한, 사운드 데이터 학습 서버(150)는 데이터의 수집 또는 추가 기능의 제공을 위하여 별도의 외부 시스템(도 1에 미도시함)과 연동하여 동작하도록 구현될 수도 있다. 예를 들어, 외부 시스템은 다양한 환경에서 수집된 정보를 통합하여 빅데이터를 구축할 수 있는 빅데이터 서버 및 보행자 단말(110)과 연결되어 다양한 클라우드 서비스를 제공할 수 있는 클라우드 서버 등을 포함할 수 있다.The sound data learning server 150 is implemented as a server corresponding to a computer or program capable of learning sound data to build a learning model for classifying environmental sounds and classifying environmental sounds based thereon to perform situational awareness of the surrounding environment. It can be. The sound data learning server 150 may be connected to the pedestrian terminal 110 through a wireless network such as Bluetooth or WiFi, and may transmit/receive data with the pedestrian terminal 110 through the network. In addition, the sound data learning server 150 may be implemented to operate in conjunction with a separate external system (not shown in FIG. 1) to collect data or provide additional functions. For example, the external system may include a big data server capable of building big data by integrating information collected from various environments, and a cloud server capable of providing various cloud services by being connected to the pedestrian terminal 110. have.

도 2는 본 발명에 따른 보행자 보행안전 장치의 물리적 구성을 설명하는 도면이다.2 is a diagram explaining the physical configuration of the pedestrian walking safety device according to the present invention.

도 2를 참조하면, 보행자 보행안전 장치(200)는 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함하여 구현될 수 있다.Referring to FIG. 2 , the pedestrian safety device 200 may be implemented by including a processor 210, a memory 230, a user input/output unit 250, and a network input/output unit 270.

프로세서(210)는 보행자 보행안전 장치(200)가 동작하는 과정에서의 각 단계들을 처리하는 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄링 할 수 있다. 프로세서(210)는 보행자 보행안전 장치(200)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 보행자 보행안전 장치(200)의 CPU(Central Processing Unit)로 구현될 수 있다.The processor 210 may execute a procedure for processing each step in the operation of the pedestrian safety device 200, manage the memory 230 read or written throughout the process, and memory ( Synchronization time between the volatile memory and the non-volatile memory in 230) can be scheduled. The processor 210 can control the overall operation of the pedestrian safety device 200, and is electrically connected to the memory 230, the user input/output unit 250, and the network input/output unit 270 to control data flow between them. can do. The processor 210 may be implemented as a central processing unit (CPU) of the pedestrian safety device 200 .

메모리(230)는 SSD(Solid State Drive) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 보행자 보행안전 장치(200)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다.The memory 230 is implemented as a non-volatile memory such as a solid state drive (SSD) or a hard disk drive (HDD) and may include an auxiliary memory device used to store all data necessary for the pedestrian safety device 200, , may include a main memory implemented as a volatile memory such as RAM (Random Access Memory).

사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함할 수 있다. 예를 들어, 사용자 입출력부(250)는 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 보행자 보행안전 장치(200)는 독립적인 서버로서 수행될 수 있다.The user input/output unit 250 may include an environment for receiving user input and an environment for outputting specific information to the user. For example, the user input/output unit 250 may include an input device including an adapter such as a touch pad, a touch screen, an on-screen keyboard, or a pointing device, and an output device including an adapter such as a monitor or touch screen. In one embodiment, the user input/output unit 250 may correspond to a computing device connected through a remote connection, and in such a case, the pedestrian safety device 200 may be implemented as an independent server.

네트워크 입출력부(270)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다.The network input/output unit 270 includes an environment for connecting to an external device or system through a network, and includes, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), and a VAN ( An adapter for communication such as Value Added Network) may be included.

도 3은 도 2의 보행자 보행안전 장치에서 있는 프로세스의 기능적 구성을 설명하는 도면이다.FIG. 3 is a diagram illustrating a functional configuration of a process in the pedestrian walking safety device of FIG. 2 .

도 3을 참조하면, 보행자 보행안전 장치(200)는 학습 알고리즘 탑재부(310), 데이터 수집부(330), 상황 인지부(350), 알림 제공부(370) 및 제어부(390)를 포함할 수 있다. 일 실시예에서, 보행자 보행안전 장치(200)를 구성하는 각 기능적 구성들은 보행자 단말(110)에 포함되어 구현될 수 있으며, 보행자 단말(110)과 사운드 데이터 학습 서버(150) 간의 연동에 의해 유기적으로 결합될 수도 있다. Referring to FIG. 3 , the pedestrian safety device 200 may include a learning algorithm loading unit 310, a data collection unit 330, a situation awareness unit 350, a notification providing unit 370, and a control unit 390. have. In one embodiment, each functional component constituting the pedestrian safety device 200 may be implemented by being included in the pedestrian terminal 110, and the pedestrian terminal 110 and the sound data learning server 150 may be interlocked organically. may be combined with

학습 알고리즘 탑재부(310)는 사운드 데이터를 기반으로 상황인지를 하기 위한 학습 알고리즘을 탑재할 수 있다. 여기에서, 학습 알고리즘은 사운드 데이터 학습 서버(150)를 통해 이미 사운드 데이터 학습으로 최적화된 lite 알고리즘만 포함할 수 있다.The learning algorithm loader 310 may load a learning algorithm for context awareness based on sound data. Here, the learning algorithm may include only the lite algorithm already optimized for sound data learning through the sound data learning server 150.

사운드 데이터 학습 서버(150)는 환경 사운드에 관한 원시 신호(raw signal)를 수집하여 데이터 집합을 생성할 수 있다. 여기에서, 사운드 데이터 학습 서버(150)는 별도의 사운드 수집 장치를 통해 차량이 다니는 도로가 아닌 보행자 중심의 주변 환경의 다양한 사운드를 직접 수집할 수도 있으며, 필요에 따라 기 구축된 데이터 집합을 이용할 수도 있다. 데이터 집합은 이동체(버스, 덤프트럭, 컨테이너, 레미콘, 오토바이, 스포츠카, 스쿠터, 승용/승합, 청소차, 손수레 등) 자체에서 발생되는 사운드, 신호음(앰블란스, 경찰차, 구급차, 소방차, 견인차, 클락션, 호루라기 등)뿐 아니라, 환경 컨텍스트(위치, 시간, 날씨 등)에 따른 사운드(자전거, 퀵보드, 보행자, 음악/음향, 개 짖는 소리, 캐리어, 거리공연, 공사, 실외 도로변/공원, 실내 사무실/카페 등)를 관한 원시 신호들의 집합에 해당할 수 있고, 이는 주변 환경 별 또는 상황별로 분류될 수 있다.The sound data learning server 150 may generate a data set by collecting raw signals related to environmental sounds. Here, the sound data learning server 150 may directly collect various sounds of a pedestrian-oriented surrounding environment rather than a road where vehicles travel through a separate sound collection device, or may use a pre-built data set as needed. have. The data set consists of sounds generated by moving objects (buses, dump trucks, containers, ready-mixed concrete, motorcycles, sports cars, scooters, cars, garbage trucks, carts, etc.) etc.), as well as sounds (bicycle, quickboard, pedestrian, music/sound, dog barking, carrier, street performance, construction, outdoor roadside/park, indoor office/café, etc.) ), which may correspond to a set of raw signals for each surrounding environment or situation.

사운드 데이터 학습 서버(150)는 주변 환경별 또는 상황별로 분류된 원시 신호로부터 샘플링(sampling) 되어 소정의 시간 길이를 갖는 복수의 사운드 프레임(frame)들을 생성할 수 있다. 사운드 데이터 학습 서버(150)는 복수의 사운드 프레임들에 대해 해당 신호를 위상(phase)과 크기(magnitude) 성분으로 분리하여 데이터를 증강(augmentation)시킬 수 있다. 데이터 증강은 딥러닝 기반 이미지 처리에서 매우 일반적인 기법에 해당할 수 있다. 이미지 처리에서 데이터 증강의 주요 이점은 사람의 눈이 다양한 유형의 이미지 패턴을 쉽게 감지할 수 있다는 것이다. 그러나, 사람의 귀에서 주파수 추정, SNR 계산 등과 같은 사운드 신호 패턴을 정확하게 측정하는 것은 어려울 수 있다.The sound data learning server 150 may generate a plurality of sound frames having a predetermined time length by sampling from raw signals classified according to surrounding environments or situations. The sound data learning server 150 may augment data by separating a corresponding signal into phase and magnitude components for a plurality of sound frames. Data augmentation may correspond to a very common technique in deep learning-based image processing. A major benefit of data augmentation in image processing is that the human eye can easily detect many types of image patterns. However, it can be difficult to accurately measure sound signal patterns such as frequency estimation, SNR calculation, etc. in the human ear.

또한, 데이터 증강은 실제와 유사한 사례들을 생성하는 것 외에도 클래스 당 학습 데이터의 개수를 늘리는 목적으로도 사용될 수 있으며, 이를 통해 더 나은 정확성을 제공하는 머신러닝 모델을 구축할 수 있다.In addition, data augmentation can be used for the purpose of increasing the number of training data per class in addition to generating realistic examples, and through this, a machine learning model that provides better accuracy can be built.

일 실시예에서, 사운드 데이터 학습 서버(150)는 단시간 푸리에 변환(STFT, Short Time Fourier Transform)을 수행하여 위상과 크기 성분으로 분리할 수 있다. 사운드 데이터 학습 서버(150)는 증강된 데이터들을 학습하여 환경 사운드 분류를 위한 학습 모델을 구축할 수 있다. 여기에서, 사운드 데이터 학습 서버(150)는 STFT 스펙트로그램을 입력으로 수신하는 2D CNN 모델을 구축할 수 있다. 사운드 데이터 학습 서버(150)는 STFT 스펙트로그램으로 변환된 이미지 데이터를 활용하여 1차 학습 후 앰비언트 사운드(Ambient sound) 또는 스팟 사운드(Spot sound)를 구분하여 주변 환경에 대한 CNN 학습 또는 이동체 접근 유무에 따른 상황별 CNN 학습을 수행하여 각각의 학습 모델을 구축할 수 있다. 사운드 데이터 학습 서버(150)는 VGG(Visual Geometry Group) 모델을 사용하여 학습을 수행할 수 있다. 이에 대해서는 도 5에서 보다 자세히 설명한다.In one embodiment, the sound data learning server 150 may perform a Short Time Fourier Transform (STFT) to separate phase and magnitude components. The sound data learning server 150 may build a learning model for environmental sound classification by learning the augmented data. Here, the sound data learning server 150 may build a 2D CNN model receiving the STFT spectrogram as an input. The sound data learning server 150 uses the image data converted to the STFT spectrogram to classify ambient sound or spot sound after primary learning to determine CNN learning for the surrounding environment or presence or absence of moving object access. Each learning model can be built by performing CNN learning for each situation. The sound data learning server 150 may perform learning using a Visual Geometry Group (VGG) model. This will be described in more detail in FIG. 5 .

데이터 수집부(330)는 보행자 단말(110)에 포함된 마이크 모듈 또는 마이크 센서(130)를 통해 보행자 주변의 환경 사운드를 실시간으로 수집할 수 있다. 여기에서, 마이크 센서(130)는 보행자 소지의 스마트폰이나 사람의 목에 거는 넥밴드형, 손목시계형, 노인이나 장애인용 전동보장구, 오토바이, 스쿠터, 퀵보드, 승합차, 버스, 덤프트럭, 컨테이너, 레미콘, 스포츠카, 승용/승합차, 청소차, 손수레 등에 포함될 수 있다. 일 실시예에서, 데이터 수집부(330)는 마이크 센서(130)를 통해 보행 중인 보행자의 주변 환경 사운드를 감지하고 감지된 1차원 신호를 2차원의 데이터로 변환할 수 있다. 여기에서, 데이터 수집부(330)는 수집한 사운드 데이터를 주파수와 시간 2개의 축을 가진 이미지 형태인 STFT(Short-Time Fourier Transform) 스펙트로그램으로 변환할 수 있다.The data collection unit 330 may collect environmental sounds around the pedestrian in real time through the microphone module or the microphone sensor 130 included in the pedestrian terminal 110 . Here, the microphone sensor 130 is a smartphone carried by a pedestrian, a neckband type worn around a person's neck, a wrist watch type, an electric assistive device for the elderly or disabled, a motorcycle, a scooter, a quick board, a van, a bus, a dump truck, a container, It can be included in ready-mixed concrete, sports cars, cars/vans, garbage trucks, handcarts, etc. In one embodiment, the data collection unit 330 may sense ambient sound of a walking pedestrian through the microphone sensor 130 and convert the sensed one-dimensional signal into two-dimensional data. Here, the data collector 330 may convert the collected sound data into a Short-Time Fourier Transform (STFT) spectrogram, which is an image form having two axes of frequency and time.

스펙트로그램은 x축은 시간 축(단위:프레임), y축은 주파수로 각 시간당 주파수가 가지는 값을 값의 크기에 따라 색으로 표현하여 3차원을 2차원으로 표현하게 된다. 즉, 각각의 프레임(짧은 시간으로 자른 신호)이 각 주파수성분을 얼마만큼 가지고 있는지 표현하게 되며 STFT의 크기(magnitude) 부분을 db 스케일로 변환해주면 스펙트로그램이 된다. In the spectrogram, the x-axis is the time axis (unit: frame), the y-axis is the frequency, and the value of each time frequency is expressed in color according to the size of the value, so that 3D is expressed in 2D. That is, each frame (signal cut in a short time) expresses how much each frequency component has, and converting the magnitude part of the STFT into a db scale becomes a spectrogram.

상황 인지부(350)는 보행자를 기준으로 안전한 보행을 위해 필요한 환경을 인식할 수 있다. 여기에서, 안전한 보행을 위해 필요한 환경 인지는 보행자 자신의 위치를 파악하는 것과 위험물을 포함한 주변 환경을 인식하는 것으로 구성될 수 있다. 이러한 환경 인지를 위해, 본 발명은 사운드 데이터를 이용한다.The situation recognition unit 350 may recognize an environment required for safe walking based on pedestrians. Here, environmental awareness required for safe walking may consist of recognizing the pedestrian's own location and recognizing the surrounding environment including dangerous objects. For this environment perception, the present invention uses sound data.

상황 인지부(350)는 데이터 수집부(330)를 통해 실시간으로 수집되는 사운드 데이터를 학습 알고리즘을 통해 학습을 수행하여 주변 환경을 인식하고 보행자에 대해 이동체의 접근 상황을 인지할 수 있다. 일 실시예에서, 상황 인지부(350)는 STFT 스펙트로그램을 학습 알고리즘 탑재부(310)에 탑재된 학습 알고리즘에 따라 학습을 수행하여 주변 환경을 인식하고 보행자에 대해 이동체의 접근 상황을 판단할 수 있다. 일 실시예에서, 상황 인지부(350)는 학습 알고리즘의 학습 모델을 기초로 주어진 환경 사운드에 대한 분류 동작을 수행할 수 있다. 여기에서, 상황 인지부(350)는 학습 모델로서 주변 환경에 대한 CNN 모델 및 이동체 접근 유무에 따른 상황별 CNN 모델이 구축된 경우 분류 동작의 수행 환경에 따라 해당 모델 중 하나를 선택적으로 적용할 수 있다. 상황 인지부(350)는 학습 모델을 통해 이미지로 변환된 사운드 데이터의 학습을 수행하여 빠르게 분류 연산을 처리할 수 있으며 보다 높은 정확도의 분류 결과를 생성할 수 있다. 상황 인지부(350)는 환경 사운드 분류 결과를 토대로 보행자의 주변 환경 정보를 인식할 수 있고 보행자에 대해 이동체의 접근을 판단할 수 있다. 여기에서, 주변 환경 정보는 정숙한 사무실, 소음이 있는 카페 등 실내 환경 및 정숙한 공원, 소음이 있는 도시 등 실외 환경의 상황을 포함할 수 있다.The situation recognition unit 350 may perform learning through a learning algorithm on the sound data collected in real time through the data collection unit 330 to recognize the surrounding environment and recognize the approaching situation of a moving object to a pedestrian. In one embodiment, the situation recognition unit 350 may perform learning of the STFT spectrogram according to a learning algorithm loaded in the learning algorithm loading unit 310 to recognize the surrounding environment and determine the proximity of a moving object to a pedestrian. . In an embodiment, the context awareness unit 350 may perform a classification operation on a given environmental sound based on a learning model of a learning algorithm. Here, the context-aware unit 350 may selectively apply one of the relevant models according to the environment in which the classification operation is performed when a CNN model for the surrounding environment and a CNN model for each context according to the presence or absence of moving objects are built as a learning model. have. The context-aware unit 350 can quickly process classification calculations by learning sound data converted into images through a learning model, and can generate classification results with higher accuracy. The situation recognition unit 350 may recognize surrounding environment information of the pedestrian based on the environmental sound classification result, and may determine the proximity of the moving object to the pedestrian. Here, the surrounding environment information may include conditions of an indoor environment, such as a quiet office or a noisy cafe, and an outdoor environment, such as a quiet park or a noisy city.

일 실시예에서, 상황 인지부(350)는 환경 사운드 결과로서 주변 환경 및 이동체 접근 유무에 따른 상황을 종합하여 보행자의 위험 상황을 판단할 수 있다. 예컨대, 상황 인지부(350)는 이동체 접근 상황에 따른 사운드로 분류되더라도 주변 환경이 실내에 따른 사운드로 분류되는 경우 보행자가 이동체와의 충돌 위험이 낮은 안전한 실내 환경에 위치하는 상황으로 판단할 수 있다. 일 실시예에서, 상황 인지부(350)는 보행로를 주행 중인 퍼스널 모빌리티의 이용자를 기준으로 주변의 환경 사운드가 수집되어 학습을 통해 환경 사운드 분류를 수행할 경우에 퍼스널 모빌리티 이용자와 이동체간 또는 해당 이용자와 보행자 간의 충돌 위험 상황을 판단할 수 있다.In an embodiment, the situation recognition unit 350 may determine a dangerous situation for the pedestrian by integrating the surrounding environment and the situation according to whether or not the moving object is approaching as a result of the environmental sound. For example, the situation recognition unit 350 may determine that a situation in which a pedestrian is located in a safe indoor environment with a low risk of collision with a moving object when the ambient environment is classified as a sound according to an indoor environment even if the sound is classified according to a moving object approaching situation. . In one embodiment, the situation recognition unit 350 collects ambient sound based on the user of the personal mobility driving on the walking path and classifies the environmental sound through learning. It is possible to determine the risk of collision between the vehicle and the pedestrian.

알림 제공부(370)는 상황 인지부(350)의 상황인지 결과에 따라 보행자에게 이동체의 접근에 따른 위험 상황을 알림 제공할 수 있다. 즉, 알림 제공부(370)는 보행자 단말(110)에 설정된 방식으로 이동체의 접근에 따른 사고 위험을 시각적 또는 청각적으로 제공할 수 있다. 예컨대, 알림 제공부(370)는 보행자 단말(110)의 스피커 모듈을 통해 음성출력하거나 또는 진동이나 문자 알림을 통해 위험 상황을 보행자에게 알려 사고를 예방할 수 있도록 한다.The notification provision unit 370 may provide notification of a dangerous situation according to the approach of the moving object to the pedestrian according to the situation awareness result of the situation recognition unit 350 . That is, the notification providing unit 370 may visually or audibly provide an accident risk according to the approach of a moving object in a manner set in the pedestrian terminal 110 . For example, the notification providing unit 370 may output a voice through a speaker module of the pedestrian terminal 110 or notify the pedestrian of a dangerous situation through vibration or text notification so that an accident can be prevented.

일 실시예에서, 알림 제공부(370)는 보행로를 주행 중인 퍼스널 모빌리티 이용자에게 이동체 또는 보행자와의 충돌 위험 상황을 알림 제공할 수도 있다. 즉, 알림 제공부(370)는 퍼스널 모빌리티 이용자의 단말이나 또는 퍼스널 모빌리티에 경고 알람이나 문자 알림을 전송할 수 있다. In one embodiment, the notification providing unit 370 may provide a notification of a collision risk situation with a moving object or a pedestrian to a personal mobility user driving on a walking path. That is, the notification providing unit 370 may transmit a warning alarm or text notification to the personal mobility user's terminal or personal mobility.

제어부(390)은 보행자 보행안전 장치(150)의 전체적인 동작을 제어하고, 학습 알고리즘 탑재부(310), 데이터 수집부(330), 상황 인지부(350) 및 알림 제공부(370) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.The control unit 390 controls the overall operation of the pedestrian safety device 150, and controls flow or You can manage data flow.

도 4는 본 발명에 따른 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 방법을 설명하는 순서도이다.4 is a flowchart illustrating a pedestrian walking safety method using a sound-based mobile app according to the present invention.

도 4를 참조하면, 보행자 보행안전 장치(200)는 사운드 데이터 학습 서버(150)에서 사운드 데이터 학습으로 최적화된 lite 알고리즘을 보행자 단말(110)에 탑재할 수 있다(단계 S410). 보행자 보행안전 장치(200)는 보행자 단말(110)의 주변 사운드를 녹음하는 마이크 모듈을 보행자 주변의 환경 사운드 데이터를 실시간으로 수집할 수 있다(단계 S430). Referring to FIG. 4 , the pedestrian safety device 200 may load the lite algorithm optimized for sound data learning in the sound data learning server 150 into the pedestrian terminal 110 (step S410). The pedestrian safety device 200 may collect environmental sound data around the pedestrian in real time through a microphone module that records ambient sound of the pedestrian terminal 110 (step S430).

또한, 보행자 보행안전 장치(200)는 보행자 단말(110)에 탑재된 사운드 데이터 학습 알고리즘을 동작시켜 실시간 수집되는 사운드 데이터를 입력으로 하는 학습을 수행하여 환경 사운드 분류를 적응적으로 처리하여 주변 환경을 인식할 수 있으며 보행자에 대해 이동체의 접근 상황을 판단할 수 있다(단계 S450). 보행자 보행안전 장치(200)는 보행자의 위험 상황을 보행자 단말(110)의 스피커 모듈을 통해 음성출력 또는 경고알람을 발생하거나 알림톡 등 다양한 방법으로 보행자에게 알릴 수 있다(단계 S470).In addition, the pedestrian safety device 200 operates a sound data learning algorithm mounted in the pedestrian terminal 110 to perform learning using sound data collected in real time as an input, and adaptively processes environmental sound classification to improve the surrounding environment. It can be recognized and the approaching situation of the moving object to the pedestrian can be determined (step S450). The pedestrian safety device 200 may notify the pedestrian of a pedestrian's dangerous situation through a speaker module of the pedestrian terminal 110 through a voice output or a warning alarm, or by various methods such as notification talk (step S470).

도 5는 일 실시예에 따른 사운드 데이터 학습용 CNN 모델을 설명하는 도면이다.5 is a diagram illustrating a CNN model for learning sound data according to an exemplary embodiment.

도 5를 참조하면, 보행자 보행안전 장치(200)는 사운드 데이터를 학습하여 상황별 환경 사운드 분류를 위한 학습 모델로 VGG(Visual Geometry Group) 모델을 사용할 수 있다. CNN 아킥텍쳐는 AlexNet, VGG, GoogLeNet, ResNet로 총 4가지이다. Referring to FIG. 5 , the pedestrian safety device 200 may learn sound data and use a Visual Geometry Group (VGG) model as a learning model for classifying environmental sounds for each situation. There are four CNN architectures: AlexNet, VGG, GoogLeNet, and ResNet.

VGG 모델은 입력 이미지 크기를 224×224로 고정하고, 컨볼루션은 모두 3,3 스트라이드(stride)는 1을 사용한다. 즉, STFT 스펙트로그램을 입력으로 하여 시간 및 주파수 축에 따라 컨볼루션이 수행될 수 있다. 각 컨볼루션 블록은 컨볼루션(convolution), 활성화(activation) 및 배치 정규화(batch normalization) 레이어들을 포함할 수 있다. 각 컨볼루션 블록 내의 다음 레이어에서, 'ReLu' 활성화 함수를 사용하여 비선형성(non-linearity)을 제공할 수 있다. 마지막 레이어의 경우 출력 클래스들의 개수에 따라 예측 확률을 제공하기 위해 소프트맥스(softmax) 활성화 함수가 사용될 수 있다. The VGG model fixes the input image size to 224×224, and uses 3,3 and 1 for all convolutions and a stride of 1. That is, convolution may be performed along the time and frequency axes with the STFT spectrogram as an input. Each convolution block may include convolution, activation, and batch normalization layers. In the next layer within each convolution block, the 'ReLu' activation function can be used to provide non-linearity. In the case of the last layer, a softmax activation function may be used to provide prediction probabilities according to the number of output classes.

보행자 보행안전 장치(200)는 VGG 모델을 사용하여 사운드의 특징을 학습하여 사운드를 주변 환경정보 및 이동체 접근 유무에 따른 상황별 범주로 분류할 수 있는 학습 모델을 구축할 수 있다.The pedestrian safety device 200 may learn the characteristics of sound using the VGG model and build a learning model capable of classifying sounds into categories for each situation according to surrounding environment information and whether or not a moving object is approaching.

따라서, 본 발명은 사전 학습된 모델을 통해 실시간 수집되는 환경 사운드 데이터의 적은 학습으로 빠르고 정확하게 상황 인식을 할 수 있고 위험 상황에 대해 경고 알람을 통해 보행자가 안전한 보행을 할 수 있도록 함으로써 보행로에서 보행 중 일어날 수 있는 사고를 예방할 수 있다.Therefore, the present invention enables quick and accurate situation recognition with little learning of environmental sound data collected in real time through a pre-learned model, and enables pedestrians to walk safely through warning alarms for dangerous situations, thereby enabling pedestrians to walk while walking on a walking path. possible accidents can be prevented.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

100: 보행자 보행안전 시스템
110: 보행자 단말 130: 마이크 센서
150: 사운드 데이터 학습 서버
200: 보행자 보행안전 장치
210: 프로세서 230: 메모리
250: 사용자 입출력부 270: 네트워크 입출력부
310: 학습 알고리즘 탑재부 330: 데이터 수집부
350: 상황 인지부 370: 알림 제공부
390: 제어부
100: Pedestrian Pedestrian Safety System
110: pedestrian terminal 130: microphone sensor
150: sound data learning server
200: pedestrian safety device
210: processor 230: memory
250: user input/output unit 270: network input/output unit
310: learning algorithm loading unit 330: data collection unit
350: situation awareness unit 370: notification providing unit
390: control unit

Claims (8)

사운드 데이터를 기반으로 상황인지를 하기 위한 학습 알고리즘을 탑재하는 학습 알고리즘 탑재부;
보행자를 기준으로 주변의 환경 사운드를 실시간으로 수집하는 데이터 수집부;
상기 수집된 사운드 데이터를 상기 탑재된 학습 알고리즘을 통해 학습을 수행하여 상기 보행자의 안전한 보행을 위해 필요한 환경을 인식하는 상황 인식부; 및
상기 상황 인식 결과에 기초하여 상기 보행자에게 위험 상황을 알림 제공하는 알림 제공부를 포함하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
a learning algorithm loading unit for loading a learning algorithm for situational awareness based on sound data;
a data collection unit that collects ambient sound around the pedestrian in real time;
a context recognition unit that recognizes an environment necessary for safe walking of the pedestrian by performing learning on the collected sound data through the built-in learning algorithm; and
Pedestrian safety device using a sound-based mobile app including a notification providing unit for providing notification of a dangerous situation to the pedestrian based on the situation recognition result.
제1항에 있어서, 상기 학습 알고리즘 탑재부는
서버를 통해 사전 사운드 데이터 학습으로 최적화된 lite 알고리즘만 포함하는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 1, wherein the learning algorithm loading unit
Pedestrian safety device using a sound-based mobile app, characterized in that it includes only lite algorithms optimized for pre-sound data learning through a server.
제1항에 있어서, 상기 데이터 수집부는
마이크 센서를 통해 보행 중인 상기 보행자의 주변 사운드를 감지하고 감지된 1차원 신호를 2차원의 데이터로 변환하여 수집하는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 1, wherein the data collection unit
A pedestrian safety device using a sound-based mobile app, characterized in that for detecting ambient sound of the walking pedestrian through a microphone sensor and converting the detected one-dimensional signal into two-dimensional data for collection.
제3항에 있어서, 상기 마이크 센서는
보행자 단말에 포함되거나 웨어러블 디바이스 형태로 구현되는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 3, wherein the microphone sensor
A pedestrian safety device using a sound-based mobile app, characterized in that it is included in a pedestrian terminal or implemented in the form of a wearable device.
제1항에 있어서, 상기 상황 인지부는
상기 학습 알고리즘을 기초로 상기 수집된 사운드 데이터에 대해 상황 분류 동작을 수행하여 주변 환경을 인식하고 보행자에 대해 위험 요소가 되는 이동체의 접근 상황을 인지하는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 1, wherein the context awareness unit
Based on the learning algorithm, a situation classification operation is performed on the collected sound data to recognize the surrounding environment and to recognize the approaching situation of a moving object that is a risk factor to the pedestrian. Pedestrian Safety Device.
제5항에 있어서, 상기 상황 인지부는
상기 수집된 사운드 데이터를 상기 학습 알고리즘의 모델 입력으로 하여 이동체, 신호음, 환경 및 특성을 포함하는 상황별 분류를 수행하고 상기 보행자의 주변환경을 판단하여 보행중인 상기 보행자에게 상기 이동체가 접근하는 상황을 결정하는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 5, wherein the context awareness unit
The collected sound data is used as a model input of the learning algorithm to perform situational classification including moving objects, signal sounds, environments, and characteristics, and to determine a situation in which the moving object approaches the walking pedestrian by determining the surrounding environment of the pedestrian. Pedestrian safety device using a sound-based mobile app, characterized in that for determining.
제1항에 있어서, 상기 알림 제공부는
상기 보행자에 의해 설정된 스피커를 통한 음성 출력, 진동이나 문자 알림 중 적어도 하나의 방식으로 상기 보행자에게 위험 상황을 알리는 것을 특징으로 하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 장치.
The method of claim 1, wherein the notification providing unit
A pedestrian safety device using a sound-based mobile app, characterized in that for notifying the pedestrian of a dangerous situation in at least one of voice output, vibration or text notification through a speaker set by the pedestrian.
보행자의 단말에 사전 사운드 데이터 학습으로 최적화된 lite 알고리즘을 탑재하는 단계;
상기 보행자의 주변 환경 사운드 데이터를 실시간으로 수집하는 단계;
상기 탑재된 사운드 데이터 학습 알고리즘을 동작시켜 실시간 수집되는 상기 사운드 데이터를 입력으로 하는 학습을 수행하여 환경 사운드 분류하고 분류 결과를 토대로 보행자에 대해 이동체 접근 상황 및 주변 환경 정보를 인식하여 위험 상황을 판단하는 단계; 및
보행자의 위험 상황을 설정된 방식에 따라 보행자에게 알리는 단계를 포함하는 사운드 기반의 모바일 앱을 이용한 보행자 보행안전 방법.
Loading the lite algorithm optimized by prior sound data learning into the pedestrian's terminal;
collecting ambient environment sound data of the pedestrian in real time;
By operating the built-in sound data learning algorithm, learning is performed using the sound data collected in real time as an input to classify environmental sounds, and recognizing the approaching situation of a pedestrian and surrounding environment information for a pedestrian based on the classification result to determine a dangerous situation step; and
Pedestrian safety method using a sound-based mobile app, including the step of notifying the pedestrian of a pedestrian's dangerous situation according to a set method.
KR1020210073485A 2021-06-07 2021-06-07 Pedestrian walking safety device and method using sound-based mobile app KR20220165034A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210073485A KR20220165034A (en) 2021-06-07 2021-06-07 Pedestrian walking safety device and method using sound-based mobile app

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210073485A KR20220165034A (en) 2021-06-07 2021-06-07 Pedestrian walking safety device and method using sound-based mobile app

Publications (1)

Publication Number Publication Date
KR20220165034A true KR20220165034A (en) 2022-12-14

Family

ID=84438580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210073485A KR20220165034A (en) 2021-06-07 2021-06-07 Pedestrian walking safety device and method using sound-based mobile app

Country Status (1)

Country Link
KR (1) KR20220165034A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101683012B1 (en) 2016-06-15 2016-12-08 (주)세이프업 Crosswalk pedestrian safety system using voice guidance and Method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101683012B1 (en) 2016-06-15 2016-12-08 (주)세이프업 Crosswalk pedestrian safety system using voice guidance and Method thereof

Similar Documents

Publication Publication Date Title
Aloul et al. iBump: Smartphone application to detect car accidents
Chang et al. DeepCrash: A deep learning-based internet of vehicles system for head-on and single-vehicle accident detection with emergency notification
KR102205240B1 (en) Unexpected Impulse Change Collision Detector
US10417486B2 (en) Driver behavior monitoring systems and methods for driver behavior monitoring
Park et al. In‐vehicle AR‐HUD system to provide driving‐safety information
US9761118B2 (en) Detecting apparatus and method, and mobile terminal apparatus having detecting apparatus
KR20190011582A (en) Electronic device for identifying external vehicle changing identification based on data associated with movement of external vehicle
CN110795523B (en) Vehicle positioning method and device and intelligent vehicle
KR20190017171A (en) Electronic device for transmitting communication signal associated with pedestrian safety and method for operating thereof
US10699546B2 (en) Headphone and headphone safety device for alerting user from impending hazard, and method thereof
CN108859938A (en) The method and system that automotive vehicle emergency light for automatic driving vehicle controls
US9571057B2 (en) Altering audio signals
KR102203810B1 (en) User interfacing apparatus and method using an event corresponding a user input
US11958410B2 (en) Artificially intelligent mobility safety system
US10609510B2 (en) Mobile electronic apparatus, mobile electronic apparatus control method, a non-transitory computer readable recording medium, for providing warnings to a user of the apparatus based on the location of the electronic apparatus
CN111052193B (en) Anti-theft technique for autonomous vehicles for transporting goods
CN112258837A (en) Vehicle early warning method, related device, equipment and storage medium
CN111540191B (en) Driving warning method, system, equipment and storage medium based on Internet of vehicles
CN111488792A (en) System and method for predicting pedestrian behavior
CN110164181A (en) A kind of car accident detection, method for early warning, equipment and system
KR20220165034A (en) Pedestrian walking safety device and method using sound-based mobile app
Sontakke et al. Crash notification system for portable devices
CN111147738A (en) Police vehicle-mounted panoramic and coma system, device, electronic equipment and medium
JP7426471B2 (en) Self-driving car interaction system
JP7301715B2 (en) State Prediction Server and Alert Device Applied to Vehicle System Using Surveillance Camera

Legal Events

Date Code Title Description
E902 Notification of reason for refusal