KR20230169645A - Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same - Google Patents

Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same Download PDF

Info

Publication number
KR20230169645A
KR20230169645A KR1020220070044A KR20220070044A KR20230169645A KR 20230169645 A KR20230169645 A KR 20230169645A KR 1020220070044 A KR1020220070044 A KR 1020220070044A KR 20220070044 A KR20220070044 A KR 20220070044A KR 20230169645 A KR20230169645 A KR 20230169645A
Authority
KR
South Korea
Prior art keywords
driving behavior
intelligent glasses
object recognition
vehicle driver
voice
Prior art date
Application number
KR1020220070044A
Other languages
Korean (ko)
Inventor
장진환
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020220070044A priority Critical patent/KR20230169645A/en
Publication of KR20230169645A publication Critical patent/KR20230169645A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Emergency Management (AREA)
  • Environmental Sciences (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)

Abstract

차량 운전자의 사각지대에 있는 위험상황이나 졸음운전 등으로 인한 위험운전행동을 주의해야 할 경우, 객체인식-기반 지능형 안경을 통해 차량 운전자의 위험운전행동을 판정하여 운전자에게 음성으로 경고할 수 있으며, 또한, 차량 운전자가 착용할 수 있는 안경에 탑재된 주간영상 또는 야간영상 객체인식을 이용하여 전방의 위험상황을 탐지하고, 이를 차량 운전자에게 음성으로 경고함으로써 운전자 부주의 또는 야간 시인성 부족으로 인해 발생하는 교통사고를 예방할 수 있으며, 또한, 화물차, 버스, 승용차, 승합차 등의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전 등의 차량 운전자 위험운전행동 패턴을 검색하여 위험운전행동을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 즉각적으로 전달할 수 있는, 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템 및 그 작동 방법이 제공된다.When it is necessary to be aware of dangerous situations in the vehicle driver's blind spot or dangerous driving behavior due to drowsy driving, the object recognition-based intelligent glasses can determine the dangerous driving behavior of the vehicle driver and issue a voice warning to the driver. In addition, it detects dangerous situations ahead using daytime image or nighttime image object recognition mounted on glasses that the vehicle driver can wear, and warns the vehicle driver of this with a voice to prevent traffic that occurs due to driver inattention or lack of visibility at night. Accidents can be prevented, and dangerous driving behavior can be determined by searching for vehicle driver risky driving behavior patterns such as speeding, rapid acceleration, rapid deceleration, sudden lane changes, or sharp turns for each vehicle type such as trucks, buses, passenger cars, and vans. An object recognition-based intelligent glasses system and its operating method for preventing traffic accidents that can immediately deliver warning messages to drivers by voice are provided.

Description

교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템 및 그 작동 방법 {OBJECT RECOGNITION-BASED INTELLIGENCE GLASSES SYSTEM FOR PREVENTING TRAFFIC ACCIDENTS, AND OPERATION METHOD FOR THE SAME}OBJECT RECOGNITION-BASED INTELLIGENCE GLASSES SYSTEM FOR PREVENTING TRAFFIC ACCIDENTS, AND OPERATION METHOD FOR THE SAME}

본 발명은 객체인식-기반 지능형 안경 시스템에 관한 것으로, 보다 구체적으로, 객체인식-기반 지능형 안경을 통해서 차량 운전자의 운전행동을 검지하여 위험운전행동을 판정하고, 교통사고 예방을 위해 차량 운전자에게 경고하는, 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템 및 그 작동 방법에 관한 것이다.The present invention relates to an object recognition-based intelligent glasses system. More specifically, the object recognition-based intelligent glasses detect the driving behavior of the vehicle driver, determines dangerous driving behavior, and warns the vehicle driver to prevent traffic accidents. It relates to an object recognition-based intelligent glasses system for traffic accident prevention and its operating method.

국내 경찰청 교통사고 통계에 따르면, 교통사고의 원인 중에서 운전자 부주의에 의한 사고가 약 52%로 가장 높은 것으로 보고되었다. 특히, 졸음운전, 야간 시인성 부족 등으로 발생하는 교통사고는 인명피해를 동반하는 대형사고로 이어질 가능성이 높기 때문에 이에 대한 해결책 마련이 시급한 실정이다.According to traffic accident statistics from the National Police Agency, among the causes of traffic accidents, accidents caused by driver inattention were reported to be the highest at approximately 52%. In particular, traffic accidents caused by drowsy driving and lack of visibility at night are highly likely to lead to major accidents with casualties, so there is an urgent need to come up with solutions.

교통사고 예방을 위한 종래기술로서, 예를 들면, 도로상에 돌발상황 검지기를 설치하여 낙하물 등 전방의 위험상황을 운전자에게 알려주거나, 또는 차량에 부착된 레이더 센서를 이용하여 충돌 위험성을 차량 운전자에게 알려주는 기술이 적용되고 있다.As a conventional technology for preventing traffic accidents, for example, an unexpected situation detector is installed on the road to inform the driver of dangerous situations ahead, such as falling objects, or a radar sensor attached to the vehicle is used to alert the driver of the risk of collision. Information technology is being applied.

하지만, 종래의 기술에 따른 도로상에 설치하는 돌발상황 검지기의 경우, 단지 도로의 일부 구간에만 설치 및 운영되고 있고, 전체 구간에 대한 정보 수집이 불가능하다는 한계가 있다. However, in the case of emergency detectors installed on roads according to conventional technology, they are installed and operated only in certain sections of the road, and there is a limitation in that it is impossible to collect information on the entire section.

또한, 차량에 부착된 센서-기반 충돌위험 서비스는 일부 고가의 차량에만 적용되어 있기 때문에, 일반차량의 경우 여전히 교통사고의 위험성이 존재한다는 한계가 있다.In addition, since the sensor-based collision risk service attached to the vehicle is applied only to some expensive vehicles, there is a limitation that the risk of traffic accidents still exists in the case of general vehicles.

한편, 졸음운전을 방지하기 위한 선행기술로서, 대한민국 공개특허번호 제2011-5380호에는 "졸음 경고 시스템 및 졸음 경고 시스템이 설치되는 안경"이라는 명칭의 발명이 개시되어 있는데, Meanwhile, as a prior art for preventing drowsy driving, Republic of Korea Patent Publication No. 2011-5380 discloses an invention titled “Drowsiness warning system and glasses equipped with a drowsiness warning system.”

사용자가 졸면 고개를 숙이게 됨에 따라 이를 감지하여 진동 또는 음성 경고를 발생하여 졸음운전 등을 경고하는 안경에 관한 것으로, 도 1을 참조하여 구체적으로 설명한다.This relates to glasses that detect when a user lowers his or her head when drowsy and generate a vibration or voice warning to warn of drowsy driving, etc. This will be described in detail with reference to FIG. 1 .

도 1은 종래의 기술에 따른 졸음 경고 시스템을 나타낸 구성도이다.1 is a configuration diagram showing a drowsiness warning system according to the prior art.

도 1을 참조하면, 종래의 기술에 따른 졸음 경고 시스템은, 제어부(11), 각도 센서부(12) 및 경고부(13)를 포함하며, 또한, 입력부(14), 모드 전환부(15) 및 타이머(16)를 추가로 포함할 수 있다.Referring to FIG. 1, the drowsiness warning system according to the prior art includes a control unit 11, an angle sensor unit 12, and a warning unit 13, and also includes an input unit 14 and a mode switching unit 15. and a timer 16.

각도 센서부(12)는 사용자의 머리가 기울어지는 각도를 검지하는 것으로, 사용자 머리 부근에 위치되어 사용자가 졸때 머리가 전후로 기울어지는 각도를 검지한다. The angle sensor unit 12 detects the angle at which the user's head is tilted. It is located near the user's head and detects the angle at which the user's head is tilted forward and backward when the user is dozing off.

이러한 각도 센서부(12)는 헤어 밴드, 헤어 핀 또는 안경에 부착되어 별도의 기구나 단말기 없이 졸음 경고 시스템을 적용할 수 있다. This angle sensor unit 12 can be attached to a hair band, hair pin, or glasses to apply a drowsiness warning system without a separate device or terminal.

이때, 각도 센서부(12)는 기준면, 즉, 수평상태에서 기울어지는 각도를 측정하는 것으로, 일반적으로 인코더(Encoder)를 이용한 각도 측정, 가속도 센서를 이용한 각도 측정, 자이로 센서를 이용한 각도 측정 등을 이용하여 각도를 측정할 수 있다.At this time, the angle sensor unit 12 measures the tilt angle from the reference plane, that is, the horizontal state, and generally uses angle measurement using an encoder, angle measurement using an acceleration sensor, and angle measurement using a gyro sensor. You can use it to measure the angle.

제어부(11)는 각도 센서부(12)에서 감지된 기울기 각도에 대한 신호를 수신하여 경고부(13)를 제어하며, The control unit 11 controls the warning unit 13 by receiving a signal about the tilt angle detected by the angle sensor unit 12,

예를 들면, 일반적인 머리의 기울어짐에 대하여 노이즈 처리하기 위하여 소정 각도 이상이 되는 경우에만 경고부(13)에서 경고신호가 출력되도록 제어한다. 따라서, 제어부(11)는 수신된 기울기 각도가 기설정된 기준 각도를 초과하는지 판단하여 기준 각도를 초과하는 경우에만 경고부(13)를 구동시켜 기준치를 초과하지 않는 경우에는 경고신호가 출력되지 않는다.For example, in order to process noise for general head tilt, the warning unit 13 is controlled to output a warning signal only when the angle exceeds a predetermined angle. Therefore, the control unit 11 determines whether the received tilt angle exceeds a preset reference angle and operates the warning unit 13 only when it exceeds the reference angle. If it does not exceed the reference value, the warning signal is not output.

다시 말하면, 종래의 기술에 따른 졸음 경고 시스템의 경우, 각도센서부, 제어부 및 경고부를 포함하되, 각도센서부는 사용자의 머리가 기울어지는 각도를 검지하고, 제어부는 각도 센서부에서 감지된 기울기 각도에 대한 신호를 수신하여 경고부에 제어하며, 소정 각도 이상이 되는 경우에만 경고부에서 경고신호를 출력함으로써 사용자의 졸음 운전을 방지할 수 있다.In other words, the drowsiness warning system according to the prior art includes an angle sensor unit, a control unit, and a warning unit. The angle sensor unit detects the tilt angle of the user's head, and the control unit detects the tilt angle detected by the angle sensor unit. It receives a signal and controls the warning unit, and outputs a warning signal from the warning unit only when the angle exceeds a predetermined angle, thereby preventing the user from drowsy driving.

종래의 기술에 따른 졸음 경고 시스템에 따르면, 운전중이거나 공부 또는 업무를 볼 때 꾸벅꾸벅 조는 경우, 이를 감지하여 사용자에게 경고를 발생하여 경각심을 일깨워 줘서 교통사고의 발생 위험을 방지할 수 있다. According to the drowsiness warning system according to the prior art, if the user dozes off while driving, studying or working, this can be detected and a warning is issued to alert the user, thereby preventing the risk of traffic accidents.

또한, 머리가 기울어지는 각도에 따라 단계별로 이를 감지하고 그에 대응하여 출력신호를 증폭시켜 졸음 경고를 효율적으로 발생할 수 있다.In addition, it is possible to efficiently generate a drowsiness warning by detecting the head tilt angle step by step and amplifying the output signal in response.

하지만, 종래의 기술에 따른 졸음 경고 시스템의 경우, 단지 사용자의 머리가 기울어지는 각도에 대응하여 졸음 경고를 발생하기 때문에, 실제 사용자가 졸지 않고 있는 경우에도 졸음 경고를 발생할 수 있다는 한계가 있다.However, in the case of the drowsiness warning system according to the prior art, because the drowsiness warning is generated only in response to the angle at which the user's head is tilted, there is a limitation in that the drowsiness warning can be generated even when the user is not actually dozing off.

한편, 스마트 안경(Smart Glasses)은 투시 기능과 컴퓨터를 탑재한 안경 형태의 디바이스로서 사용자가 착용 가능한 컴퓨터의 일종이다. Meanwhile, Smart Glasses are glasses-shaped devices equipped with a see-through function and a computer, and are a type of computer that the user can wear.

이러한 스마트 안경은 카메라, 명령어 입력이 가능한 인터페이스 장치, 사람의 눈으로 투시한 이미지를 전달하는 장치 등의 하드웨어로 구성된다. These smart glasses are composed of hardware such as a camera, an interface device capable of inputting commands, and a device that transmits images viewed through the human eye.

또한, 스마트 안경은 별도의 컨트롤러를 사용해 디스플레이에 증강현실 정보를 보여주거나, 스마트폰과 연동하여 전화, 문자, 알람 등의 기능을 이용할 수 있다.In addition, smart glasses can display augmented reality information on the display using a separate controller, or can use functions such as calls, texts, and alarms by linking with a smartphone.

이러한 스마트 안경과 관련된 선행기술로서, 대한민국 공개특허번호 제2020-68277호에는 "교통정보 제공을 위한 시각장애인용 스마트 안경 시스템"이라는 명칭의 발명이 개시되어 있는데, 교통정보 제공을 위한 시각장애인용 스마트 안경 시스템에 관한 것으로, 도 2a 내지 도 2c를 참조하여 설명한다.As prior art related to such smart glasses, Republic of Korea Patent Publication No. 2020-68277 discloses an invention titled “Smart Glasses System for the Visually Impaired for Providing Traffic Information,” which discloses a smart glasses system for the visually impaired for providing traffic information. Regarding the glasses system, it will be described with reference to FIGS. 2A to 2C.

도 2a는 종래의 기술에 따른 교통정보 제공을 위한 시각장애인용 스마트 안경 시스템의 구성도이고, 도 2b는 도 2a에 도시된 시각장애인용 스마트 안경 시스템에서 카메라와 초음파 센서를 동작시켜 객체를 검출하기 위한 입력신호를 발생하는 과정을 설명하기 위한 도면이며, 도 2c는 도 2a에 도시된 시각장애인용 스마트 안경 시스템에서 신호등 관련 정보를 음성신호로 변환하여 출력하는 과정을 설명하기 위한 도면이다.Figure 2a is a configuration diagram of a smart glasses system for the visually impaired for providing traffic information according to conventional technology, and Figure 2b is a diagram showing the configuration of a smart glasses system for the visually impaired shown in Figure 2a to detect objects by operating a camera and an ultrasonic sensor. This is a diagram to explain the process of generating an input signal, and FIG. 2C is a diagram to explain the process of converting traffic light-related information into a voice signal and outputting it in the smart glasses system for the visually impaired shown in FIG. 2A.

도 2a를 참조하면, 종래의 기술에 따른 교통정보 제공을 위한 시각장애인용 스마트 안경 시스템은 스마트 안경(20) 및 서버(30)를 포함할 수 있다.Referring to FIG. 2A, a smart glasses system for the visually impaired for providing traffic information according to the prior art may include smart glasses 20 and a server 30.

스마트 안경(20)은 입력 인터페이스(21), 카메라(22), 초음파 센서(23), 통신 인터페이스(24), 출력 인터페이스(25) 및 제어부(26)를 포함할 수 있다.Smart glasses 20 may include an input interface 21, a camera 22, an ultrasonic sensor 23, a communication interface 24, an output interface 25, and a control unit 26.

입력 인터페이스(21)는 사용자인 시각장애인의 입력 조작에 따라 입력신호를 발생시킬 수 있다. The input interface 21 can generate an input signal according to the input operation of the visually impaired user.

예를 들면, 시각장애인용 스마트 안경(20)의 손잡이 부분에 구비된 입력 버튼을 사용자가 누르거나 시각장애인용 스마트 안경(20)의 손잡이 부분에 구비된 마이크를 통해 사용자의 음성명령이 입력되면, 입력 인터페이스(21)는 입력버튼의 조작이나 음성명령에 따라 입력신호를 발생시킬 수 있다.For example, when the user presses the input button provided on the handle of the smart glasses 20 for the visually impaired or the user's voice command is input through the microphone provided on the handle of the smart glasses 20 for the visually impaired, The input interface 21 can generate an input signal according to the operation of an input button or a voice command.

또한, 입력 인터페이스(21)는, 도 2b에 도시된 바와 같이, 교통정보 제공 시스템(41)에 의해 교통정보를 제공받는 디스플레이 장치(42)에 스마트 안경(20)이 일정 거리 이내로 인접하는 경우, 이를 인지하여 입력신호를 발생시킬 수도 있다. 이를 위해서, 디스플레이 장치(42)는 비콘(beacon) 신호를 발생시킬 수 있으며, 스마트 안경(20)이 디스플레이 장치(42)로부터 일정 거리 이내로 인접하는 경우, 입력 인터페이스(21)는 비콘신호를 감지하고 입력신호를 발생시킬 수 있다.In addition, the input interface 21, as shown in FIG. 2B, when the smart glasses 20 are adjacent to the display device 42 that receives traffic information by the traffic information provision system 41 within a certain distance, By recognizing this, an input signal can be generated. To this end, the display device 42 can generate a beacon signal, and when the smart glasses 20 are adjacent to each other within a certain distance from the display device 42, the input interface 21 detects the beacon signal and An input signal can be generated.

카메라(22)는 전방에 위치하는 객체의 영상을 촬영할 수 있고, 초음파 센서(23)는 객체의 거리를 측정할 수 있다.The camera 22 can capture an image of an object located in front, and the ultrasonic sensor 23 can measure the distance to the object.

통신 인터페이스(24)는 카메라(22) 및 초음파 센서(23) 각각의 출력신호를 서버(30)에 전송할 수 있다. The communication interface 24 can transmit output signals from each of the camera 22 and the ultrasonic sensor 23 to the server 30.

이러한 통신 인터페이스(24)는 네트워크를 통해서 외부 디바이스나 서버(30)와 데이터를 주고받을 수 있다. This communication interface 24 can exchange data with an external device or server 30 through a network.

즉, 통신 인터페이스(24)는 스마트 안경(20) 내부에서 처리된 데이터를 외부로 전송할 수 있으며, 반대로 외부의 서버나 외부 디바이스로부터 데이터나 정보 등을 수신할 수도 있다. That is, the communication interface 24 can transmit data processed inside the smart glasses 20 to the outside, and conversely, it can also receive data or information from an external server or external device.

여기서, 서버(30)는 객체 검출부(31), 메모리(32), 영상 처리부(33), 텍스트-음성 변환부(34) 및 제어부(35)를 포함할 수 있다.Here, the server 30 may include an object detection unit 31, a memory 32, an image processing unit 33, a text-to-voice conversion unit 34, and a control unit 35.

또한, 도 2c에 도시된 바와 같이, 통신 인터페이스(24)는 사용자를 기준으로 가장 근접한 위치, 달리 말하면 스마트 안경(20)을 기준으로 가장 근접한 위치에 존재하는 신호등의 위치와 신호 상태를 포함하는 신호등 관련 정보를 교통정보 제공 시스템(41)으로부터 제공받을 수 있다. In addition, as shown in FIG. 2C, the communication interface 24 is a traffic light that includes the location and signal status of a traffic light present at the closest location relative to the user, in other words, the closest location relative to the smart glasses 20. Related information can be provided from the traffic information provision system 41.

이에 따라, 출력 인터페이스(24)는 사용자가 음성으로 인식할 수 있도록 TTS(Text-to-Speech) 기술을 제공하는 TTS 시스템(43)을 통해 음성신호로 변환된 신호등 관련 정보를 출력할 수 있다.Accordingly, the output interface 24 can output information related to traffic lights converted into voice signals through the TTS system 43, which provides text-to-speech (TTS) technology so that users can recognize their voices.

출력 인터페이스(25)는 추출된 텍스트에 대응하는 음성신호를 서버(30)로부터 수신하여 출력할 수 있다. 이때, 출력 인터페이스(25)는 추출된 텍스트에 포함된 교통수단의 도착시간이 짧아질수록 음성신호 또는 진동신호를 포함하는 경고 신호의 발생주기를 점차적으로 빠르게 할 수 있다.The output interface 25 may receive a voice signal corresponding to the extracted text from the server 30 and output it. At this time, the output interface 25 can gradually speed up the generation cycle of the warning signal including a voice signal or a vibration signal as the arrival time of the means of transportation included in the extracted text becomes shorter.

제어부(26)는 스마트 안경(20)의 입력 인터페이스(21), 카메라(22), 초음파 센서(23), 통신 인터페이스부(24), 출력 인터페이스(25) 등의 동작을 전반적으로 제어한다.The control unit 26 generally controls the operations of the input interface 21, camera 22, ultrasonic sensor 23, communication interface unit 24, and output interface 25 of the smart glasses 20.

다시 말하면, 종래의 기술에 따른 교통정보 제공을 위한 시각장애인용 스마트 안경 시스템의 경우, 교통정보제공 시스템에 의해 교통정보를 제공받는 디스플레이 장치에 일정거리 내로 인접시 입력 신호를 발생시키거나, 사용자의 입력조작에 의해 입력신호를 발생시키는 입력 인터페이스와 객체의 영상을 촬영하는 카메라와 초음파 센서를 포함함으로써, In other words, in the case of a smart glasses system for the visually impaired for providing traffic information according to the conventional technology, an input signal is generated when adjacent to a display device that receives traffic information by a traffic information providing system within a certain distance, or the user's By including an input interface that generates an input signal by input manipulation, a camera and an ultrasonic sensor that captures an image of an object,

카메라의 출력신호에 기초해 촬영된 영상으로부터 객체를 검출하고, 객체인식 알고리즘을 구동시켜 객체를 검출하되, 교통정보와 관련된 객체를 판별하여 객체로부터 텍스트를 인지하여 음성신호로 변환하여 교통정보를 제공할 수 있다.Detect objects from images captured based on the camera's output signal, run an object recognition algorithm to detect objects, identify objects related to traffic information, recognize text from the object, and convert it into a voice signal to provide traffic information. can do.

종래의 기술에 따른 교통정보 제공을 위한 시각장애인용 스마트 안경 시스템에 따르면, 교통정보와 관련된 주요 객체로부터 텍스트를 인지하여 음성신호로 변환하여 출력함으로써 시각장애인에게 교통 이용의 편의를 제공할 뿐만 아니라 안전사고를 예방할 수 있다.According to the smart glasses system for the visually impaired for providing traffic information according to conventional technology, it not only provides convenience of transportation use to the visually impaired but also provides safety by recognizing text from major objects related to traffic information, converting it into a voice signal and outputting it. Accidents can be prevented.

하지만, 종래의 기술에 따른 교통정보 제공을 위한 시각장애인용 스마트 안경 시스템은, 단지 시각장애인에게 교통정보를 제공하기 것이고, 차량 운전자에게 적용하는데 한계가 있다.However, the smart glasses system for the visually impaired for providing traffic information according to conventional technology only provides traffic information to the visually impaired, and has limitations in application to vehicle drivers.

한편, 또 따른 선행기술로서, 대한민국 공개특허번호 제2020-134401호에는 "모바일 디바이스와 연동하는 스마트 안경 작동 방법"이라는 명칭의 발명이 개시되어 있는데, 모바일 디바이스와 연동하면서 작동 모드에 따른 이미지를 실시간으로 생성하여 보여주는 스마트 안경 작동방법에 관한 것으로, 도 3a 및 도 3b를 참조하여 설명한다.Meanwhile, as another prior art, Republic of Korea Patent Publication No. 2020-134401 discloses an invention titled "Method of operating smart glasses in conjunction with a mobile device," which provides real-time image processing according to the operation mode while linking with a mobile device. This relates to a method of operating smart glasses created and shown, and is explained with reference to FIGS. 3A and 3B.

도 3a는 종래의 기술에 따른 모바일 디바이스와 연동하는 스마트 안경의 구성도이고, 도 3b는 종래의 기술에 따른 모바일 디바이스와 연동하는 스마트 안경 작동 방법의 동작흐름도이다.FIG. 3A is a configuration diagram of smart glasses interoperating with a mobile device according to the prior art, and FIG. 3B is an operation flowchart of a method of operating smart glasses interoperating with a mobile device according to the prior art.

도 3a를 참조하면, 종래의 기술에 따른 모바일 디바이스와 연동하는 스마트 안경은, 스마트 안경(50)과 연동하기 위한 특정 애플리케이션이 작동하는 모바일 디바이스(60)와 연동하는 스마트 안경에 관한 것이다.Referring to FIG. 3A, smart glasses that work with a mobile device according to the prior art relate to smart glasses that work with a mobile device 60 that runs a specific application for linking with the smart glasses 50.

모바일 디바이스(60)는 인터넷을 비롯한 다양한 네트워크망 연동 기능이 가능하고 GPS 센서, 가속 센서, 자이로센서, 중력 센서, 온도/습도 센서, 고도센서, 기압 센서, 심장박동 센서, 지자기 센서, 이미지 센서 중에서 어느 하나 이상을 탑재하고 있으며, 스마트 안경과 연동하여 센서들의 센싱 데이터를 취합하고 가공할 수 있는 특정 애플리케이션이 설치된 모바일 장치를 의미한다.The mobile device 60 is capable of interconnecting with various networks, including the Internet, and includes a GPS sensor, acceleration sensor, gyro sensor, gravity sensor, temperature/humidity sensor, altitude sensor, barometric pressure sensor, heart rate sensor, geomagnetic sensor, and image sensor. It refers to a mobile device that is equipped with one or more of the following and has a specific application installed that can collect and process sensing data from sensors in conjunction with smart glasses.

또한, 스마트 안경(50)은 멀티미디어 콘텐츠를 안구에 근접한 형태로 모바일 디바이스(60)에서 생성된 이미지 데이터를 디스플레이할 수 있는 안경형 투사 HMD를 의미한다.In addition, smart glasses 50 refer to a glasses-type projection HMD that can display image data generated by the mobile device 60 in a form close to the eyeball with multimedia content.

스마트 안경(50)은 디스플레이 인터페이스, 디스플레이 인터페이스에 연결되어 통신부, 프로세서부 및 메모리를 포함하는 제어장치, 제어장치에 연결되는 관성 측정 장치(Inertial Measurement Unit: IMU)가 내장되어 구비될 수 있다. The smart glasses 50 may be equipped with a display interface, a control device connected to the display interface and including a communication unit, a processor unit, and memory, and an inertial measurement unit (IMU) connected to the control device.

여기서, 통신부는 스마트 안경(50)이 모바일 디바이스(60)와 연동하기 위한 무선 방식 또는 유선 방식을 제공한다.Here, the communication unit provides a wireless or wired method for the smart glasses 50 to interact with the mobile device 60.

또한, 도 3b를 참조하면, 종래의 기술에 따른 스마트 안경 작동 방법은, 스마트 안경과 연동하기 위한 특정 애플리케이션이 작동하는 모바일 디바이스와 연동하는 스마트 안경의 작동 방법으로서, In addition, referring to FIG. 3B, a method of operating smart glasses according to the prior art is a method of operating smart glasses that links with a mobile device running a specific application for linking with smart glasses,

a) 모드 설정 단계(S11), b) IMU 데이터 획득 단계(S12), c) IMU 데이터 무선 전송 단계(S13), d) 모드이미지 생성 단계(S14), e) 모드이미지 전송 단계(S15), f) 모드이미지 수신 단계(S16) 및 g) 모드이미지 투사 단계(S17)를 포함하여 이루어진다.a) mode setting step (S11), b) IMU data acquisition step (S12), c) IMU data wireless transmission step (S13), d) mode image generation step (S14), e) mode image transmission step (S15), It includes f) a mode image reception step (S16) and g) a mode image projection step (S17).

먼저, 모바일 디바이스(60)의 모드 설정 단계(S11)는 스마트 안경을 착용한 사용자가 하고자 하는 상황에 적합한 어느 하나의 상황을 모바일 디바이스의 애플리케이션에 설정한다. First, in the mode setting step (S11) of the mobile device 60, a situation suitable for the situation desired by the user wearing smart glasses is set in the application of the mobile device.

이때, 모드 설정은 모바일 디바이스의 애플리케이션에서 스마트 안경의 동작 상황에 따라 추가로 설정될 수 있다. 즉, 사용자가 하고자 하는 상황을 추가적으로 설정함으로써 애플리케이션에서 생성되는 모드이미지의 디스플레이 유형을 변경시킬 수 있다.At this time, the mode setting may be additionally set according to the operation situation of the smart glasses in the application of the mobile device. In other words, the display type of the mode image generated in the application can be changed by additionally setting the desired situation.

구체적으로, 이러한 모드 설정 단계(S11)는 모바일 디바이스의 애플리케이션의 사용자 인터페이스(UI)에 의하여 직접 설정되거나, 스마트 안경에서 제공되는 음성인식 수단 또는 제스쳐인식 수단을 사용하여 스마트 안경에서 모드설정신호를 모바일 디바이스에 전송하여 애플리케이션에 설정할 수 있다. Specifically, this mode setting step (S11) is set directly by the user interface (UI) of the application of the mobile device, or the mode setting signal is transmitted from the smart glasses to the mobile device using voice recognition means or gesture recognition means provided by the smart glasses. It can be sent to the device and set in the application.

이를 위하여 스마트 안경의 제어장치는 손 동작을 영상 처리를 통해 감지하고, 이를 토대로 스마트 안경에서 보이는 영상을 제어할 수 있는 수단을 구비할 수 있다.To this end, the control device of smart glasses may be equipped with a means to detect hand movements through image processing and control the images shown in the smart glasses based on this.

또한, 스마트 안경의 제어장치는 사용자의 음성을 식별하고 이를 토대로 스마트 안경에서 보이는 영상을 제어할 수 있는 수단을 구비할 수 있다. Additionally, the control device for smart glasses may be provided with a means to identify the user's voice and control the image displayed in the smart glasses based on this.

예를 들면, 제어장치는 손 동작 인식을 위해 입력되는 영상 프레임에서 손을 인식하고 손이 위치한 영상을 감지하거나 손의 움직임 방향을 인식 또는 예측하고, 그에 따라 화면 상에 콘텐츠를 올려놓거나 현재 영상을 이동시키거나, 현재 영상을 다른 영상과 중첩하여 배치할 수 있다. For example, the control device recognizes the hand in the image frame input for hand motion recognition, detects the image where the hand is located, or recognizes or predicts the direction of hand movement, and places content on the screen or displays the current image accordingly. You can move it, or place the current image overlapping with another image.

이러한 손의 움직임 예측은 손, 손가락, 또는 이들의 조합을 인식하는 것을 포함하며, 제스처 인식은 영상처리와 미리 설정된 제스처 정보에 기초하여 수행될 수 있다.Such hand movement prediction includes recognizing hands, fingers, or a combination thereof, and gesture recognition can be performed based on image processing and preset gesture information.

그리고 제어장치는 입력되는 사용자의 음성을 인식하고 음성이 지시하는 명령에 의하여 화면상에 콘텐츠를 올려놓거나 현재 영상을 이동시키거나, 현재 영상을 다른 영상과 중첩하여 배치할 수 있다. In addition, the control device recognizes the user's input voice and can place content on the screen, move the current image, or arrange the current image to overlap with other images by commands given by the voice.

음성인식은 음성처리와 미리 설정된 음성 정보에 기초하여 수행될 수 있다.Voice recognition can be performed based on voice processing and preset voice information.

다음으로, IMU 데이터 획득 단계(S12)는 스마트 안경의 내부에서 작동하는 IMU를 통해 센싱데이터를 실시간으로 획득한다. Next, the IMU data acquisition step (S12) acquires sensing data in real time through the IMU operating inside the smart glasses.

여기서, IMU는 스마트 안경에 내장되는 가속도 센서, 자이로 센서, 회전 속도센서, 지자기 센서, 고도센서, 기압 센서 중의 어느 하나 이상을 포함할 수 있다.Here, the IMU may include one or more of an acceleration sensor, a gyro sensor, a rotational speed sensor, a geomagnetic sensor, an altitude sensor, and an atmospheric pressure sensor built into the smart glasses.

다음으로, IMU 데이터 무선 전송 단계(S13)는 센싱데이터를 모바일 디바이스로 전송하는 IMU 데이터 무선 전송한다.Next, in the IMU data wireless transmission step (S13), IMU data wirelessly transmits sensing data to a mobile device.

다음으로, 모드이미지 생성 단계(S14)는 모바일 디바이스에서 IMU 데이터를 수신하고 모드 설정 단계(S11)에서 미리 설정된 모드에 따라 가공하여 이미지 데이터를 생성한다. Next, the mode image generation step (S14) receives IMU data from the mobile device and processes it according to the mode preset in the mode setting step (S11) to generate image data.

이러한 모드이미지 생성 단계(S14)는 애플리케이션에서 스마트 안경에 장착된 IMU 센서들로부터 얻은 센싱 정보들과 모바일 디바이스에 장착된 어느 하나 이상의 센서들의 정보들과 네트워크 서비스 상의 정보를 수집하고 가공하여 모드 설정 단계(S11)에서 미리 설정된 모드에 기반하는 실시간 데이터를 이미지화하여 생성하는 것을 의미한다.This mode image creation step (S14) is a mode setting step by collecting and processing sensing information obtained from IMU sensors mounted on smart glasses in the application, information from one or more sensors mounted on the mobile device, and information on network services. This means generating an image of real-time data based on a preset mode in (S11).

다음으로, 모드이미지 전송 단계(S15)는 모바일 디바이스에서 모드이미지를 압축하고 암호화하여 스마트 안경으로 스트리밍(Streaming) 방식으로 전송한다. 이에, 스트리밍(Streaming) 방식에 따라 모드이미지에 대한 인코딩 암호화, 전송 제어 및 QoS(Quality of Service)를 수행하여 데이터 전송에 특정 수준의 성능을 보장할 수 있다.Next, in the mode image transmission step (S15), the mode image is compressed and encrypted on the mobile device and transmitted to smart glasses in a streaming manner. Accordingly, it is possible to guarantee a certain level of performance in data transmission by performing encoding encryption, transmission control, and QoS (Quality of Service) on the mode image according to the streaming method.

다음으로, 모드이미지 수신 단계(S16)는 모바일 디바이스에서 전송되는 모드이미지를 스마트 안경에서 수신하고, 이를 복호화하고 압축해제한다.Next, in the mode image reception step (S16), the smart glasses receive the mode image transmitted from the mobile device, and decrypt and decompress it.

다음으로, 모드이미지 투사 단계(S17)는 스마트 안경에서 압축해제된 모드이미지를 HMD 투사 방식으로 디스플레이한다.Next, the mode image projection step (S17) displays the decompressed mode image in the smart glasses by HMD projection.

종래의 기술에 따른 모바일 디바이스와 연동하는 스마트 안경의 경우, 모바일 디바이스에 설치되는 애플리케이션에서 스마트 안경에 장착된 IMU 센서로부터 얻은 센싱 정보와 모바일 디바이스에 장착된 센서들과의 정보뿐만 아니라 네트워크 서비스 정보를 수집하고, 모드 설정 단계에서 설정된 모드에 기반하는 실시간 데이터를 이미지화하여 상황에 적합한 모드이미지를 생성하여 스마트 안경에 투사하여 디스플레이할 수 있다.In the case of smart glasses that link with mobile devices according to conventional technology, the application installed on the mobile device uses sensing information obtained from the IMU sensor mounted on the smart glasses and information with sensors mounted on the mobile device as well as network service information. By collecting and imaging real-time data based on the mode set in the mode setting step, a mode image suitable for the situation can be created and displayed by projecting it onto smart glasses.

종래의 기술에 따른 모바일 디바이스와 연동하는 스마트 안경에 따르면, 스마트 안경과 연동하기 위한 특정 애플리케이션이 작동하는 모바일 장치와 연동하는 스마트 안경의 작동 방법에 따라 각각의 설정된 모드에 따른 모드이미지가 스마트 안경에 투영됨으로써, 스마트 안경의 사용자가 각각의 상황에 따른 정보를 효율적으로 시각화할 수 있다.According to smart glasses that interoperate with mobile devices according to the conventional technology, a mode image according to each set mode is displayed on the smart glasses according to the operation method of the smart glasses that interoperate with a mobile device running a specific application for interoperating with smart glasses. By being projected, users of smart glasses can efficiently visualize information according to each situation.

하지만, 종래의 기술에 따른 모바일 디바이스와 연동하는 스마트 안경은 스마트 안경의 사용자가 각각의 상황에 따른 정보를 시각화하기 위한 것으로, 멀티미디어 콘텐츠를 안구에 근접한 형태로 모바일 디바이스(60)에서 생성된 이미지 데이터를 디스플레이할 수 있는 안경형 투사 HMD이다.However, smart glasses that link with mobile devices according to the prior art are intended for users of the smart glasses to visualize information according to each situation, and image data generated by the mobile device 60 provides multimedia content close to the eye. It is a glasses-type projection HMD that can display.

한편, 또 다른 선행기술로서, 대한민국 등록특허번호 제10-2287855호에는 "시각장애인을 위한 장애물 감지 안경"이라는 명칭의 발명이 개시되어 있는데, 보행중인 시각장애인이 장애물 유무를 통해 용이하게 인식하여 보행 중 시각장애인이 장애물이 의해 넘어져 다치는 등 안전사고 발생을 미연에 방지할 수 있는 안경에 관한 것으로, 도 4a 및 도 4b를 참조하여 설명한다.Meanwhile, as another prior art, Republic of Korea Patent No. 10-2287855 discloses an invention titled "Obstacle Detection Glasses for the Visually Impaired", which allows visually impaired people walking to easily recognize the presence or absence of obstacles while walking. Glasses that can prevent safety accidents, such as a visually impaired person falling over an obstacle and getting injured, will be described with reference to FIGS. 4A and 4B.

도 4a는 종래의 기술에 따른 시각장애인을 위한 장애물 감지 안경을 개략적으로 나타내는 사시도이고, 도 4b는 도 4a에 도시된 제어부의 제어 상태를 개략적으로 나타내는 구성도이다.FIG. 4A is a perspective view schematically showing obstacle detection glasses for the visually impaired according to the prior art, and FIG. 4B is a configuration diagram schematically showing the control state of the control unit shown in FIG. 4A.

도 4a를 참조하면, 종래의 기술에 따른 시각장애인을 위한 장애물 감지 안경(70)은 장애물 감지부(71)와 알림부(72)가 구비된다.Referring to FIG. 4A, obstacle detection glasses 70 for the visually impaired according to the prior art are provided with an obstacle detection unit 71 and a notification unit 72.

먼저, 장애물 감지부(71)는 안경의 2개의 렌즈 고정부(71a) 사이에 구비되어 2개의 렌즈고정부(71a)를 연결하는 연결프레임(71b)의 내측에 형성된 수용홈(72a)에 안정적으로 수용 고정될 수 있고, 이때, 수용홈(72a)의 전측은 개방될 수 있다.First, the obstacle detection unit 71 is provided between the two lens fixing parts 71a of the glasses and is stably positioned in the receiving groove 72a formed on the inside of the connection frame 71b connecting the two lens fixing parts 71a. It can be accommodated and fixed, and at this time, the front side of the receiving groove (72a) can be open.

장애물 감지부(71)는 초음파를 출력하여 장애물을 감지하는 초음파 센서 등 다양한 종류로 이루어질 수 있으며, The obstacle detection unit 71 may be made of various types, such as an ultrasonic sensor that detects an obstacle by outputting ultrasonic waves.

특히, 사람 혹은 동물 등의 움직임을 관찰해 방향을 예측할 수 있으면서 정적 장애물, 동적 장애물의 위치 등을 각 지점에서 계산 및 예측할 수 있는 라이다센서로 이루어질 수 있다.In particular, it can be done with a lidar sensor that can predict the direction by observing the movement of people or animals, and can calculate and predict the location of static and dynamic obstacles at each point.

알림부(72)는 안경의 안경다리(71c)에 구비되어 장애물 감지부(71)의 감지신호에 따라 시각장애인에게 장애물 유무를 알릴 수 있다. The notification unit 72 is provided on the temple 71c of the glasses and can inform the visually impaired of the presence of an obstacle according to the detection signal of the obstacle detection unit 71.

이러한 알림부(72)는 다양한 종류로 이루어질 수 있으며, 특히, 시각장애인의 두개골에 음성신호와 맞대응되는 진동을 전달하여 사용자가 소리를 인식할 수 있도록 하는 골전도 블루투스 이어폰 등의 골전도 이어폰으로 이루어질 수 있다.This notification unit 72 can be made of various types, and in particular, it can be made of bone conduction earphones such as bone conduction Bluetooth earphones that transmit vibration corresponding to the voice signal to the skull of a visually impaired person to enable the user to recognize the sound. You can.

종래의 기술에 따른 시각장애인을 위한 장애물 감지 안경의 경우, 장애물 감지부(71) 및 알림부(72)를 통해 보행 중인 시각장애인이 장애물 유무를 용이하게 인식할 수 있어 보행 중 시각장애인이 장애물에 의해 넘어져 다치는 등의 안전사고가 발생될 우려를 미연에 방지할 수 있고, In the case of obstacle detection glasses for the visually impaired according to the conventional technology, the visually impaired person walking can easily recognize the presence of an obstacle through the obstacle detection unit 71 and the notification unit 72, so that the visually impaired person can easily recognize the presence of an obstacle while walking. It is possible to prevent safety accidents such as falls and injuries due to

나아가, 시각장애인이 타인의 시선에도 티가 나지 않으면서 불편하지 않고 안전하게 보행할 수 있게 한다.Furthermore, it allows visually impaired people to walk safely without discomfort and without being noticeable to others.

또한, 도 4b를 참조하면, 장애물 감지부(71)와 알림부(72)가 구비되는 안경에는 시각장애인의 보행에 따른 안경의 움직임을 감지하는 움직임 감지부(73)가 구비될 수 있다.Additionally, referring to FIG. 4B, glasses equipped with an obstacle detection unit 71 and a notification unit 72 may be equipped with a motion detection unit 73 that detects movement of the glasses as a visually impaired person walks.

움직임 감지부(73)는 안경의 렌즈 고정부(71a) 또는 안경다리(71c)에 구비될 수 있다. 이러한 움직임 감지부(73)는, The motion detection unit 73 may be provided on the lens fixing part 71a or the temple 71c of the glasses. This motion detection unit 73,

예를 들면, 안경을 착용한 시각장애인의 보행 시 안경의 움직임을 감지하는 자이로센서, 3축가속센서로 이루어지거나, 렌즈 고정부(71a) 또는 안경다리(71c)에 내장된 구슬의 요동시 발생되는 진동을 감지하는 진동감지센서 등 다양한 종류로 이루어질 수 있다.For example, it consists of a gyro sensor and a 3-axis acceleration sensor that detects the movement of the glasses when a visually impaired person wearing glasses walks, or occurs when the beads built into the lens fixing part 71a or the temple 71c shake. It can be made up of various types, such as a vibration detection sensor that detects vibration.

또한, 알림부(72)의 작동시간을 설정하는 타이머(74) 및 움직임 감지부(73)의 감지신호에 따라 타이머(74)에 설정된 작동시간동안 알림부(72)를 작동시키는 제어부(75)가 구비될 수 있다. 또한, 제어부(75) 등에 전원을 공급하기 위한 전원공급부(76)가 구비될 수 있다.In addition, a timer 74 that sets the operation time of the notification unit 72 and a control unit 75 that operates the notification unit 72 for the operating time set by the timer 74 according to the detection signal from the motion detection unit 73. may be provided. Additionally, a power supply unit 76 may be provided to supply power to the control unit 75, etc.

타이머(74)는 제어부(75)에 누름식 버튼 또는 다이얼버튼 등 다양한 방식으로 구비될 수 있으며, 제어부(75)는 안경의 안경다리(71c)에 구비될 수 있다.The timer 74 may be provided in various ways, such as a push button or dial button, on the control unit 75, and the control unit 75 may be provided on the temple 71c of the glasses.

종래의 기술에 따른 시각장애인을 위한 장애물 감지 안경의 경우, 초음파센서 및 라이다 센서로 구성된 장애물 감지부가 구비되고, 이러한 장애물 감지부의 감지신호에 따라 장애물 유무를 알리는 알림부가 구비되어, 장애물 유무를 시각장애인에게 안내하여 안전한 보행이 가능하도록 구성된다.In the case of obstacle detection glasses for the visually impaired according to the conventional technology, an obstacle detection unit consisting of an ultrasonic sensor and a lidar sensor is provided, and a notification unit is provided to indicate the presence or absence of an obstacle according to the detection signal of the obstacle detection unit, thereby visually indicating the presence or absence of an obstacle. It is designed to provide guidance to people with disabilities so that they can walk safely.

종래의 기술에 따른 시각장애인을 위한 장애물 감지 안경에 따르면, 시각장애인이 착용하는 안경에 구비되어 장애물을 감지하는 장애물 감지부의 감지신호에 따라 장애물 유무를 시각장애인에게 안내하는 알림부를 통해 보행중인 시각장애인이 장애물 유무를 용이하게 인식할 수 있고. 이에 따라, 보행 중 시각장애인이 장애물에 의해 넘어져 다치는 등의 안전사고가 발생될 우려를 미연에 방지할 수 있다.According to the obstacle detection glasses for the visually impaired according to the conventional technology, a notification unit that informs the visually impaired of the presence of an obstacle according to the detection signal of the obstacle detection unit provided in the glasses worn by the visually impaired and detects the obstacle is used to detect the presence of an obstacle while the visually impaired are walking. The presence or absence of this obstacle can be easily recognized. Accordingly, it is possible to prevent the possibility of safety accidents such as a visually impaired person falling over an obstacle and getting injured while walking.

전술한 바와 같이 시각장애인을 위해 여러 형태의 스마트 안경이 개시되어 있지만, 일반적인 차량 운전자를 위해 교통정보를 제공하는 스마트 안경은 개시되어 있지 않다.As described above, various types of smart glasses have been disclosed for the visually impaired, but smart glasses that provide traffic information for general vehicle drivers have not been disclosed.

대한민국 공개특허번호 제2020-68277호(공개일: 2020년 6월 15일), 발명의 명칭: "교통정보 제공을 위한 시각장애인용 스마트 안경 시스템"Republic of Korea Patent Publication No. 2020-68277 (publication date: June 15, 2020), title of invention: “Smart glasses system for the visually impaired for providing traffic information” 대한민국 공개특허번호 제2011-5380호(공개일: 2011년 1월 18일), 발명의 명칭: "졸음 경고 시스템 및 졸음 경고 시스템이 설치되는 안경"Republic of Korea Patent Publication No. 2011-5380 (publication date: January 18, 2011), title of invention: “Drowsiness warning system and glasses with drowsiness warning system installed” 대한민국 공개특허번호 제2020-134401호(공개일: 2020년 12월 2일), 발명의 명칭: "모바일 디바이스와 연동하는 스마트 안경 작동 방법"Republic of Korea Patent Publication No. 2020-134401 (publication date: December 2, 2020), title of invention: “Method of operating smart glasses that interoperate with mobile devices” 대한민국 등록특허번호 제10-2287855호(등록일: 2021년 8월 3일), 발명의 명칭: "시각장애인을 위한 장애물 감지 안경"Republic of Korea Patent No. 10-2287855 (registration date: August 3, 2021), title of invention: “Obstacle detection glasses for the visually impaired” 대한민국 공개특허번호 제2015-144510호(공개일: 2015년 12월 28일), 발명의 명칭: "시각장애인용 안경 시스템"Republic of Korea Patent Publication No. 2015-144510 (publication date: December 28, 2015), title of invention: “Glasses system for the visually impaired”

전술한 문제점을 해결하기 위한 본 발명이 이루고자 하는 기술적 과제는, 차량 운전자의 사각지대에 있는 위험상황이나 졸음운전 등으로 인한 위험운전행동을 주의해야 할 경우, 객체인식-기반 지능형 안경을 통해서 차량 운전자의 위험운전행동을 판정하여 운전자에게 음성으로 경고할 수 있는, 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템 및 그 작동 방법을 제공하기 위한 것이다.The technical problem that the present invention aims to achieve in order to solve the above-mentioned problems is that when it is necessary to be careful of dangerous driving behavior due to dangerous situations in the vehicle driver's blind spot or drowsy driving, the vehicle driver can use object recognition-based intelligent glasses. The purpose is to provide an object recognition-based intelligent glasses system and its operating method for preventing traffic accidents that can determine dangerous driving behavior and warn the driver by voice.

본 발명이 이루고자 하는 다른 기술적 과제는, 차량 운전자가 착용할 수 있는 안경에 탑재된 주간영상 또는 야간영상 객체인식을 이용하여 전방의 위험상황을 탐지하고, 이를 차량 운전자에게 음성으로 경고함으로써 운전자 부주의 또는 야간 시인성 부족으로 인해 발생하는 교통사고를 예방할 수 있는, 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템 및 그 작동 방법을 제공하기 위한 것이다.Another technical problem to be achieved by the present invention is to detect a dangerous situation ahead using daytime or nighttime image object recognition mounted on glasses that can be worn by the vehicle driver, and to warn the vehicle driver of this with a voice, thereby preventing driver inattention or The purpose is to provide an object recognition-based intelligent glasses system and operating method for preventing traffic accidents that occur due to lack of visibility at night.

본 발명이 이루고자 하는 또 다른 기술적 과제는, 화물차, 버스, 승용차, 승합차 등의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전 등의 차량 운전자 위험운전행동 패턴을 검색하여 위험운전행동을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 전달할 수 있는, 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템 및 그 작동 방법을 제공하기 위한 것이다.Another technical task to be achieved by the present invention is to detect dangerous driving behavior patterns of vehicle drivers such as speeding, rapid acceleration, rapid deceleration, sudden lane changes, or sharp turns for each vehicle type such as trucks, buses, passenger cars, and vans. The purpose is to provide an object recognition-based intelligent glasses system and its operating method for preventing traffic accidents that can deliver a warning message to the vehicle driver by voice by making a decision.

전술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템은, 차량 운전자가 착용하는 지능형 안경에 탑재되고, 차량 운전자의 음성명령에 의해 작동되어 음성명령을 텍스트로 변환하는 음성인식 유닛; 지능형 안경에 탑재되어 휴대폰과 연동하도록 연결되고, 주간영상 또는 야간영상을 획득하여 객체인식을 수행하고, 운전행동 검지센서의 데이터를 분석하여 졸음이나 주의산만으로 인해 차량 운전자가 위험하게 운전하는 위험운전행동 패턴을 검색하며, 위험운전행동을 판정하여 경고메시지를 생성하는 지능형 안경 제어 유닛; 및 상기 지능형 안경 제어 유닛에서 생성된 경고메시지를 음성으로 변환한 음성 경고음을 발생하여 차량 운전자로 하여금 안전운전을 할 수 있도록 유도하는 음성변환 유닛을 포함하여 구성된다.As a means of achieving the above-described technical problem, the object recognition-based intelligent glasses system for traffic accident prevention according to the present invention is mounted on intelligent glasses worn by a vehicle driver and is operated by a voice command from the vehicle driver A voice recognition unit that converts commands into text; It is mounted on intelligent glasses and connected to a mobile phone, acquires daytime or nighttime images, performs object recognition, and analyzes data from the driving behavior detection sensor to drive dangerous driving where the vehicle driver is driving dangerously due to drowsiness or distraction. An intelligent glasses control unit that searches for behavior patterns, determines risky driving behavior, and generates a warning message; and a voice conversion unit that converts the warning message generated by the intelligent glasses control unit into voice and generates a voice warning sound to guide the vehicle driver to drive safely.

여기서, 상기 지능형 안경 제어 유닛은 화물차, 버스, 승용차 또는 승합차의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전의 차량 운전자 위험운전행동 패턴을 검색하고 위험운전행동 기준을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 전달하는 것을 특징으로 한다.Here, the intelligent glasses control unit searches for the vehicle driver's risky driving behavior pattern of speeding, rapid acceleration, rapid deceleration, sudden lane change, or sharp turn for each vehicle type such as a truck, bus, passenger car, or van, and determines the risky driving behavior criteria to determine the criteria for the vehicle driver. It is characterized by delivering a warning message by voice.

여기서, 상기 휴대폰은 기상정보 제공자로부터 제공되는 기상정보 및 교통정보 제공자로부터 제공되는 교통정보와 연계하는 것을 특징으로 한다.Here, the mobile phone is characterized by linking weather information provided by a weather information provider and traffic information provided by a traffic information provider.

여기서, 상기 지능형 안경 제어 유닛은, 주간영상을 획득하여 객체를 인식하는 주간영상 객체인식 모듈; 야간영상을 획득하여 객체를 인식하는 야간영상 객체인식 모듈; 상기 휴대폰이 수신하는 주변 도로의 기상정보 및 교통정보를 지능형 안경을 착용한 차량 운전자에게 제공하는 휴대폰 연동 모듈; 운전행동 검지센서로부터 검지된 검지신호에 따라 차량 운전자의 위험운전행동 패턴을 검색하여 위험운전행동 여부를 판정하는 위험운전행동 판정 모듈; 및 상기 위험운전행동 판정 모듈의 판정 결과에 따라 경고메시지를 생성하고, 상기 경고메시지를 차량 운전자에게 음성으로 경고하도록 상기 음성변환 유닛에게 전달하는 경고메시지 발생 모듈을 포함할 수 있다.Here, the intelligent glasses control unit includes a daytime image object recognition module that acquires a daytime image and recognizes an object; A night image object recognition module that acquires night images and recognizes objects; A mobile phone linkage module that provides weather information and traffic information on surrounding roads received by the mobile phone to a vehicle driver wearing intelligent glasses; A dangerous driving behavior determination module that searches for the vehicle driver's risky driving behavior pattern according to the detection signal detected from the driving behavior detection sensor and determines whether the driver is engaging in dangerous driving behavior; And it may include a warning message generation module that generates a warning message according to the determination result of the dangerous driving behavior determination module and transmits the warning message to the voice conversion unit to warn the vehicle driver by voice.

여기서, 상기 주간영상 객체인식 모듈은 비전 센서 기반으로 주간영상을 획득하여 객체를 인식하고, 상기 야간영상 객체인식 모듈은 적외선 카메라 기반으로 야간영상을 획득하여 객체를 인식할 수 있다.Here, the daytime image object recognition module can recognize an object by acquiring a daytime image based on a vision sensor, and the nighttime image object recognition module can recognize an object by acquiring a nighttime image based on an infrared camera.

여기서, 상기 객체는 차량 운전자의 주의가 필요한 객체로서 도로의 낙하물, 포트홀, 보행자, 급정거 선행차량 또는 자전거일 수 있다.Here, the object is an object that requires the attention of the vehicle driver and may be a falling object on the road, a pothole, a pedestrian, a preceding vehicle that suddenly stops, or a bicycle.

본 발명에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템은, 상기 주간영상과 야간영상을 출력하여 상기 휴대폰에 저장하는 영상 출력 유닛을 추가로 포함할 수 있다.The object recognition-based intelligent glasses system for traffic accident prevention according to the present invention may further include an image output unit that outputs the daytime image and the nighttime image and stores them in the mobile phone.

여기서, 상기 주간영상 객체인식 모듈 및 야간영상 객체인식 모듈 각각은 주변환경을 인식하는 알고리즘인 RetinaNet 모델을 사용하여 데이터 셋의 불균형을 해결하며, 상기 RetinaNet 모델은 알고리즘을 통한 학습시 객체인식 알고리즘의 성능 향상을 위해 Focal Loss(FL) 함수를 사용하는 것을 특징으로 한다.Here, each of the daytime image object recognition module and the nighttime image object recognition module uses the RetinaNet model, an algorithm that recognizes the surrounding environment, to resolve imbalance in the data set, and the RetinaNet model measures the performance of the object recognition algorithm when learning through the algorithm. It is characterized by using the Focal Loss (FL) function for improvement.

여기서, 상기 위험운전행동 판정 모듈은, 상기 지능형 안경에 부착되어 상기 차량 운전자의 운전행동을 검지하는 운전행동 검지센서; 상기 운전행동 검지센서에서 검지된 센서 데이터에 대응하는 운전행동 패턴을 검색하여 비교 분석하는 데이터 분석부; 차량 운전자의 위험운전행동 패턴을 저장하는 위험운전행동 패턴 DB; 및 상기 데이터 분석부에서 비교 분석된 운전행동 패턴이 위험운전행동인지 판정하는 위험운전행동 판정부를 포함할 수 있다.Here, the dangerous driving behavior determination module includes: a driving behavior detection sensor attached to the intelligent glasses to detect the driving behavior of the vehicle driver; a data analysis unit that searches for and compares and analyzes driving behavior patterns corresponding to sensor data detected by the driving behavior detection sensor; Dangerous driving behavior pattern DB, which stores the dangerous driving behavior patterns of vehicle drivers; and a dangerous driving behavior determination unit that determines whether the driving behavior pattern compared and analyzed by the data analysis unit is dangerous driving behavior.

여기서, 상기 운전행동 검지센서는 G(중력) 센서이거나 자이로 센서로서 상기 지능형 안경에 부착되어 상기 차량 운전자의 운전행동을 검지할 수 있다.Here, the driving behavior detection sensor is a G (gravity) sensor or a gyro sensor that is attached to the intelligent glasses and can detect the driving behavior of the vehicle driver.

여기서, 상기 음성인식 유닛은 장단기 모델(LSTM) 구조 신경망을 은닉 마르코프 모델(HMM)과 결합한 LSTM-HMM 하이브리드 구조 기반으로 음성을 인식할 수 있다.Here, the speech recognition unit can recognize speech based on an LSTM-HMM hybrid structure that combines a long short term model (LSTM) structural neural network with a hidden Markov model (HMM).

한편, 전술한 기술적 과제를 달성하기 위한 다른 수단으로서, 본 발명에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법은, a) 지능형 안경에 탑재된 음성인식 유닛을 통해 음성 명령으로 지능형 안경 시스템을 구동하는 단계; b) 지능형 안경에 탑재된 주간영상 또는 야간영상 객체인식 모듈을 통해 주간영상 또는 야간영상 데이터를 획득하고, 객체인식 알고리즘을 통해 상기 주간영상 또는 야간영상 데이터로부터 객체를 인식하는 단계; c) 지능형 안경에 탑재된 운전행동 검지센서를 통해 차량 운전자의 운전행동을 검지하는 단계; d) 위험운전행동 판정 모듈을 통해 차량 운전자의 운전행동 패턴을 검색하여 상기 차량 운전자의 운전행동이 위험운전행동인지 여부를 판정하는 단계; e) 상기 위험운전행동 판정 결과에 따라 위험운전행동으로 판정된 경우 경고메시지를 생성하는 단계; 및 f) 차량 운전자의 안전운전을 위해서 음성변환 유닛을 통해 경고메시지를 음성으로 변환한 음성경고음을 발생시키는 단계를 포함하여 이루어진다.Meanwhile, as another means of achieving the above-described technical problem, the method of operating the object recognition-based intelligent glasses system for traffic accident prevention according to the present invention includes: a) a voice command through a voice recognition unit mounted on the intelligent glasses; Driving an intelligent glasses system; b) acquiring daytime image or nighttime image data through a daytime image or nighttime image object recognition module mounted on intelligent glasses, and recognizing an object from the daytime image or nighttime image data through an object recognition algorithm; c) detecting the driving behavior of the vehicle driver through a driving behavior detection sensor mounted on the intelligent glasses; d) searching the driving behavior pattern of the vehicle driver through a dangerous driving behavior determination module to determine whether the driving behavior of the vehicle driver is dangerous driving behavior; e) generating a warning message when the driving behavior is determined to be dangerous according to the risky driving behavior determination result; and f) generating a voice warning sound by converting the warning message into voice through a voice conversion unit for safe driving of the vehicle driver.

본 발명에 따르면, 차량 운전자의 사각지대에 있는 위험상황이나 졸음운전 등으로 인한 위험운전행동을 주의해야 할 경우, 객체인식-기반 지능형 안경을 통해 차량 운전자의 위험운전행동을 판정하여 운전자에게 음성으로 경고할 수 있다.According to the present invention, when it is necessary to pay attention to dangerous situations in the vehicle driver's blind spot or dangerous driving behavior due to drowsy driving, etc., the dangerous driving behavior of the vehicle driver is determined through object recognition-based intelligent glasses and a voice message is sent to the driver. You can warn.

본 발명에 따르면, 차량 운전자가 착용할 수 있는 안경에 탑재된 주간영상 또는 야간영상 객체인식을 이용하여 전방의 위험상황을 탐지하고, 이를 차량 운전자에게 음성으로 경고함으로써 운전자 부주의 또는 야간 시인성 부족으로 인해 발생하는 교통사고를 예방할 수 있다.According to the present invention, a dangerous situation ahead is detected using daytime image or nighttime image object recognition mounted on glasses that can be worn by the vehicle driver, and a warning is given to the vehicle driver by voice to prevent driver inattention or lack of visibility at night. Traffic accidents can be prevented.

본 발명에 따르면, 화물차, 버스, 승용차, 승합차 등의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전 등의 차량 운전자 위험운전행동 패턴을 검색하여 위험운전행동을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 즉각적으로 전달할 수 있다.According to the present invention, the dangerous driving behavior patterns of vehicle drivers such as speeding, rapid acceleration, rapid deceleration, rapid lane change, or sharp turns are searched for each vehicle type such as trucks, buses, passenger cars, and vans, and warnings are issued to vehicle drivers by determining dangerous driving behavior. Messages can be delivered immediately by voice.

도 1은 종래의 기술에 따른 졸음 경고 시스템을 나타낸 구성도이다.
도 2a는 종래의 기술에 따른 교통정보 제공을 위한 시각장애인용 스마트 안경 시스템의 구성도이고, 도 2b는 도 2a에 도시된 시각장애인용 스마트 안경 시스템에서 카메라와 초음파 센서를 동작시켜 객체를 검출하기 위한 입력신호를 발생하는 과정을 설명하기 위한 도면이며, 도 2c는 도 2a에 도시된 시각장애인용 스마트 안경 시스템에서 신호등 관련 정보를 음성신호로 변환하여 출력하는 과정을 설명하기 위한 도면이다.
도 3a는 종래의 기술에 따른 모바일 디바이스와 연동하는 스마트 안경의 구성도이고, 도 3b는 종래의 기술에 따른 모바일 디바이스와 연동하는 스마트 안경 작동 방법의 동작흐름도이다.
도 4a는 종래의 기술에 따른 시각장애인을 위한 장애물 감지 안경을 개략적으로 나타내는 사시도이고, 도 4b는 도 4a에 도시된 제어부의 제어 상태를 개략적으로 나타내는 구성도이다.
도 5는 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 개념을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 개략적인 구성도이다.
도 7은 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 구체적인 구성도이다.
도 8은 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템에서 객체 인식을 구체적으로 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템에서 위험운전행동 판정 모듈을 구체적으로 설명하기 위한 도면이다.
도 10a 내지 도 10c는 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템에서 차량별 위험운전행동을 구체적으로 설명하기 위한 도면이다.
도 11은 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법을 나타내는 동작흐름도이다.
1 is a configuration diagram showing a drowsiness warning system according to the prior art.
Figure 2a is a configuration diagram of a smart glasses system for the visually impaired for providing traffic information according to conventional technology, and Figure 2b is a diagram showing the configuration of a smart glasses system for the visually impaired shown in Figure 2a to detect objects by operating a camera and an ultrasonic sensor. This is a diagram to explain the process of generating an input signal, and FIG. 2C is a diagram to explain the process of converting traffic light-related information into a voice signal and outputting it in the smart glasses system for the visually impaired shown in FIG. 2A.
FIG. 3A is a configuration diagram of smart glasses interoperating with a mobile device according to the prior art, and FIG. 3B is an operation flowchart of a method of operating smart glasses interoperating with a mobile device according to the prior art.
FIG. 4A is a perspective view schematically showing obstacle detection glasses for the visually impaired according to the prior art, and FIG. 4B is a configuration diagram schematically showing the control state of the control unit shown in FIG. 4A.
Figure 5 is a diagram for explaining the concept of an object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.
Figure 6 is a schematic configuration diagram of an object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.
Figure 7 is a detailed configuration diagram of an object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.
Figure 8 is a diagram for specifically explaining object recognition in the object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.
Figure 9 is a diagram specifically explaining the dangerous driving behavior determination module in the object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.
Figures 10A to 10C are diagrams for specifically explaining dangerous driving behavior for each vehicle in the object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.
Figure 11 is an operation flowchart showing a method of operating an object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part is said to “include” a certain element, this means that it may further include other elements rather than excluding other elements, unless specifically stated to the contrary. Additionally, terms such as “…unit” used in the specification refer to a unit that processes at least one function or operation, and may be implemented as hardware, software, or a combination of hardware and software.

[교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)][Object recognition-based intelligent glasses system for traffic accident prevention (100)]

도 5는 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 개념을 설명하기 위한 도면이고, 도 6은 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 개략적인 구성도이다.FIG. 5 is a diagram illustrating the concept of an object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention, and FIG. 6 is an object recognition-based view for traffic accident prevention according to an embodiment of the present invention. This is a schematic diagram of the intelligent glasses system.

본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)은, The object recognition-based intelligent glasses system 100 for traffic accident prevention according to an embodiment of the present invention,

도 5에 도시된 바와 같이, As shown in Figure 5,

차량 운전자의 휴대폰(또는 스마트폰)(200)과 블루투스 또는 와이파이를 통해 연결되어, 이때, 휴대폰(200)이 수신하는 기상정보 및 교통정보를 운전자에게 제공해준다. It is connected to the vehicle driver's mobile phone (or smartphone) 200 via Bluetooth or Wi-Fi, and provides weather information and traffic information received by the mobile phone 200 to the driver.

이때, 기상정보 제공자(300), 예를 들면, 기상청으로부터 주변도로의 기상정보를 수신하며, 교통정보 제공자(400), 예를 들면, 교통관제센터로부터 주변도로의 교통정보를 수신할 수 있지만, 이에 국한되는 것은 아니다.At this time, weather information on surrounding roads may be received from a weather information provider 300, for example, the Korea Meteorological Administration, and traffic information on surrounding roads may be received from a traffic information provider 400, for example, a traffic control center. It is not limited to this.

또한, 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)에서, 지능형 안경이 인식한 객체에 대한 영상(still cut)을 휴대폰(200)으로 전송하여 저장하는 기능도 수행한다.In addition, in the object recognition-based intelligent glasses system 100 for traffic accident prevention according to an embodiment of the present invention, a function of transmitting and storing an image (still cut) of an object recognized by the intelligent glasses to the mobile phone 200 Also performs

구체적으로, 도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)은, Specifically, as shown in FIG. 6, the object recognition-based intelligent glasses system 100 for traffic accident prevention according to an embodiment of the present invention,

지능형 안경(110), 음성인식 유닛(120), 지능형 안경 제어 유닛(130), 영상 출력 유닛(140) 및 음성변환 유닛(150)을 포함하며, 이때, 차량 운저자가 착용하는 상기 지능형 안경(110)에 상기 음성인식 유닛(120), 지능형 안경 제어 유닛(130), 영상 출력 유닛(140) 및 음성변환 유닛(150)이 탑재된다.It includes intelligent glasses 110, a voice recognition unit 120, an intelligent glasses control unit 130, an image output unit 140, and a voice conversion unit 150, and at this time, the intelligent glasses worn by the vehicle operator ( 110), the voice recognition unit 120, the intelligent glasses control unit 130, the image output unit 140, and the voice conversion unit 150 are mounted.

본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)의 경우, In the case of the object recognition-based intelligent glasses system 100 for traffic accident prevention according to an embodiment of the present invention,

차량 운전자의 사각지대에 있는 위험상황이나 졸음운전 등으로 인한 위험운전행동을 주의해야 할 경우, 객체인식-기반 지능형 안경을 통해 차량 운전자의 위험운전행동을 판정하여 운전자에게 음성으로 경고할 수 있다. When it is necessary to pay attention to dangerous situations in the vehicle driver's blind spot or dangerous driving behavior due to drowsy driving, etc., object recognition-based intelligent glasses can determine the dangerous driving behavior of the vehicle driver and warn the driver with a voice.

또한, 차량 운전자가 착용할 수 있는 안경에 탑재된 주간영상 또는 야간영상 객체인식을 이용하여 전방의 위험상황을 탐지하고, 이를 차량 운전자에게 음성으로 경고함으로써 운전자 부주의 또는 야간 시인성 부족으로 인해 발생하는 교통사고를 예방할 수 있다.In addition, it detects dangerous situations ahead using daytime image or nighttime image object recognition mounted on glasses that the vehicle driver can wear, and warns the vehicle driver of this with a voice to prevent traffic that occurs due to driver inattention or lack of visibility at night. Accidents can be prevented.

한편, 도 7은 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 구체적인 구성도이다.Meanwhile, Figure 7 is a detailed configuration diagram of an object recognition-based intelligent glasses system for preventing traffic accidents according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)은, Referring to FIG. 7, the object recognition-based intelligent glasses system 100 for traffic accident prevention according to an embodiment of the present invention is,

지능형 안경(110), 음성인식 유닛(120), 지능형 안경 제어 유닛(130), 영상 출력 유닛(140) 및 음성변환 유닛(150)을 포함하며, It includes intelligent glasses 110, voice recognition unit 120, intelligent glasses control unit 130, video output unit 140, and voice conversion unit 150,

상기 지능형 안경 제어 유닛(130)은 주간영상 객체인식 모듈(131), 야간영상 객체인식 모듈(132), 휴대폰 연동 모듈(133), 위험운전행동 판정 모듈(134) 및 경고메시지 발생 모듈(135)를 포함할 수 있다.The intelligent glasses control unit 130 includes a daytime image object recognition module 131, a nighttime image object recognition module 132, a mobile phone linkage module 133, a dangerous driving behavior determination module 134, and a warning message generation module 135. may include.

음성인식 유닛(120)은 차량 운전자가 착용하는 지능형 안경(110)에 탑재되고, 차량 운전자의 음성명령에 의해 작동되어 음성명령을 텍스트로 변환한다. The voice recognition unit 120 is mounted on the intelligent glasses 110 worn by the vehicle driver, and is operated by the vehicle driver's voice command to convert the voice command into text.

예를 들면, 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)은 차량 운전자의 음성명령에 의해 작동되며, 음성인식 유닛(120)은 LSTM(Long Short-Term Memory)-HMM(Hidden Markov Model) 알고리즘 기반의 음성인식모델을 이용하여 음성명령을 텍스트로 변환한다.For example, the object recognition-based intelligent glasses system 100 for traffic accident prevention according to an embodiment of the present invention is operated by the vehicle driver's voice command, and the voice recognition unit 120 is LSTM (Long Short-Term Memory)-HMM (Hidden Markov Model) converts voice commands into text using a voice recognition model based on the algorithm.

구체적으로, 상기 음성인식 유닛(120)은 장단기 모델(Long Short Term Memory: LSTM) 구조 신경망을 은닉 마르코프 모델(Hidden Markov Model: HMM)과 결합한 LSTM-HMM 하이브리드 구조 기반으로 음성을 인식한다. Specifically, the speech recognition unit 120 recognizes speech based on an LSTM-HMM hybrid structure that combines a Long Short Term Memory (LSTM) structured neural network with a Hidden Markov Model (HMM).

여기서, LSTM은 시계열 자료 예측 등에 특화된 딥러닝 기법 중 하나인 RNN(Recurrent Neural Networks)의 변화된 형태의 모델로서, Here, LSTM is a modified form of RNN (Recurrent Neural Networks), one of the deep learning techniques specialized for time series data prediction, etc.

기존 RNN(Recurrent Neural Network)이 정보 사이의 거리가 먼 장기간 데이터에 대한 학습능력 저하(Vanishing gradient problem)를 보인다는 한계점을 보완한 모델이다. It is a model that complements the limitation of the existing RNN (Recurrent Neural Network), which shows a decrease in learning ability (vanishing gradient problem) on long-term data with long distances between information.

또한, HMM(Hidden Markov Model)은 순차 데이터나 문맥 의존 데이터를 인식하는 가장 대표적인 모델로서 확률을 이용한 모델을 말한다.In addition, HMM (Hidden Markov Model) is the most representative model that recognizes sequential data or context-dependent data and refers to a model that uses probability.

지능형 안경 제어 유닛(130)은 상기 지능형 안경(110)에 탑재되어 휴대폰(200)과 연동하도록 연결되고, 주간영상 또는 야간영상을 획득하여 객체인식을 수행하고, 운전행동 검지센서의 데이터를 분석하여 졸음이나 주의산만으로 인해 차량 운전자가 위험하게 운전하는 위험운전행동 패턴을 검색하며, 위험운전행동을 판정하여 경고메시지를 생성한다.The intelligent glasses control unit 130 is mounted on the intelligent glasses 110 and connected to the mobile phone 200, acquires daytime images or night images, performs object recognition, and analyzes data from the driving behavior detection sensor. It searches for patterns of dangerous driving behavior in which vehicle drivers drive dangerously due to drowsiness or distraction, determines dangerous driving behavior, and generates a warning message.

구체적으로, 여기서, 상기 지능형 안경 제어 유닛(130)은, Specifically, here, the intelligent glasses control unit 130,

주간영상을 획득하여 객체를 인식하는 주간영상 객체인식 모듈(131); A daytime image object recognition module 131 that acquires daytime images and recognizes objects;

야간영상을 획득하여 객체를 인식하는 야간영상 객체인식 모듈(132); A night image object recognition module 132 that acquires night images and recognizes objects;

상기 휴대폰(200)이 수신하는 주변 도로의 기상정보 및 교통정보를 지능형 안경(110)을 착용한 차량 운전자에게 제공하는 휴대폰 연동 모듈(133); A mobile phone linking module 133 that provides weather information and traffic information on surrounding roads received by the mobile phone 200 to a vehicle driver wearing intelligent glasses 110;

운전행동 검지센서(134a)로부터 검지된 검지신호에 따라 차량 운전자의 위험운전행동 패턴을 검색하여 위험운전행동 여부를 판정하는 위험운전행동 판정 모듈(134); 및 A dangerous driving behavior determination module 134 that searches for the vehicle driver's risky driving behavior pattern according to the detection signal detected from the driving behavior detection sensor 134a and determines whether the driver is engaging in dangerous driving behavior. and

상기 위험운전행동 판정 모듈(134)의 판정 결과에 따라 경고메시지를 생성하고, 상기 경고메시지를 차량 운전자에게 음성으로 경고하도록 상기 음성변환 유닛(150)에게 전달하는 경고메시지 발생 모듈(135)을 포함할 수 있다.It includes a warning message generation module 135 that generates a warning message according to the determination result of the dangerous driving behavior determination module 134 and transmits the warning message to the voice conversion unit 150 to warn the vehicle driver by voice. can do.

예를 들면, 주간일 경우 비전 센서(EO 카메라) 기반의 주간영상 객체인식 모듈(131)이 작동하고, 야간일 경우 적외선(IR) 카메라 기반의 야간영상 객체인식 모듈(132)이 작동한다. For example, in the daytime, the daytime image object recognition module 131 based on a vision sensor (EO camera) operates, and in the case at night, the nighttime image object recognition module 132 based on an infrared (IR) camera operates.

이때, 인식하는 객체 유형은 도로의 낙하물, 포트홀, 보행자, 급정거 차량, 자전거 등 운전자에게 주의정보가 필요한 객체들로 구성될 수 있지만, 이에 국한되는 것은 아니다. At this time, the recognized object types may include objects that require attention information from the driver, such as falling objects on the road, potholes, pedestrians, vehicles that suddenly stop, and bicycles, but are not limited to these.

이에 따라, 차량 운전자가 착용할 수 있는 안경에 탑재된 주간영상 또는 야간영상 객체인식을 이용하여 전방의 위험상황을 탐지하고, 이를 차량 운전자에게 음성으로 경고함으로써 운전자 부주의 또는 야간 시인성 부족으로 인해 발생하는 교통사고를 예방할 수 있다.Accordingly, by using daytime or nighttime image object recognition mounted on glasses that the vehicle driver can wear, dangerous situations ahead are detected and a voice warning is issued to the vehicle driver to prevent damage caused by driver inattention or lack of visibility at night. Traffic accidents can be prevented.

휴대폰 연동 모듈(133)을 통해 상기 휴대폰(200)이 수신하는 주변 도로의 기상정보 및 교통정보를 지능형 안경(110)을 착용한 차량 운전자에게 제공한다.Weather information and traffic information on surrounding roads received by the mobile phone 200 are provided to the vehicle driver wearing the intelligent glasses 110 through the mobile phone linking module 133.

위험운전행동 판정 모듈(134)은 지능형 안경(110)에 탑재된 G 및 Gyro 센서 데이터를 분석하여 졸음이나 주의산만 등으로 차량 운전자가 위험하게 운전하는 위험운전행동 패턴을 찾아낸다. The dangerous driving behavior determination module 134 analyzes G and Gyro sensor data mounted on the intelligent glasses 110 to find patterns of dangerous driving behavior in which the vehicle driver drives dangerously due to drowsiness or distraction.

이러한 위험운전행동 패턴의 판정 기준은 후술하는 도 10a 내지 도 10c에 도시된 바와 같다.The criteria for determining this risky driving behavior pattern are as shown in FIGS. 10A to 10C, which will be described later.

영상 출력 유닛(140)은 상기 주간영상과 야간영상을 출력하여 상기 휴대폰(200)에 저장한다. The video output unit 140 outputs the daytime video and the nighttime video and stores them in the mobile phone 200.

또한, 상기 휴대폰(200)은 기상정보 제공자(300)로부터 제공되는 기상정보 및 교통정보 제공자(400)로부터 제공되는 교통정보와 연계할 수 있다.Additionally, the mobile phone 200 can link with weather information provided by the weather information provider 300 and traffic information provided by the traffic information provider 400.

상기 위험운전행동 판정 모듈(134)에서 탐지된 정보는 경고메시지 발생 모듈(135)에 의해 경고메시지가 생성되고, 이러한 경고메시지는 차량 운전자에게 음성으로 즉각적으로 경고하기 위해 음성변환 유닛(150)에게 전달된다.The information detected in the dangerous driving behavior determination module 134 generates a warning message by the warning message generation module 135, and this warning message is sent to the voice conversion unit 150 to immediately warn the vehicle driver by voice. It is delivered.

음성변환 유닛(150)은 상기 지능형 안경 제어 유닛(130)에서 생성된 경고메시지를 음성으로 변환한 음성 경고음을 발생하여 차량 운전자로 하여금 안전운전을 할 수 있도록 유도한다.The voice conversion unit 150 converts the warning message generated by the intelligent glasses control unit 130 into a voice and generates a voice warning sound to guide the vehicle driver to drive safely.

따라서 상기 지능형 안경 제어 유닛(130)은 화물차, 버스, 승용차 또는 승합차의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전의 차량 운전자 위험운전행동 패턴을 검색하고 위험운전행동 기준을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 전달할 수 있다.Therefore, the intelligent glasses control unit 130 searches for the vehicle driver's risky driving behavior pattern of speeding, rapid acceleration, rapid deceleration, sudden lane change, or sharp turn for each vehicle type such as a truck, bus, passenger car, or van, and determines the risky driving behavior standard. Warning messages can be delivered by voice to vehicle drivers.

한편, 도 8은 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템에서 객체인식을 구체적으로 설명하기 위한 도면이다.Meanwhile, Figure 8 is a diagram for specifically explaining object recognition in the object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)의 경우, Referring to FIG. 8, in the case of the object recognition-based intelligent glasses system 100 for traffic accident prevention according to an embodiment of the present invention,

주간영상 객체인식 모듈(131)은 비전 센서(Vision Sensor) 기반으로 주간영상을 획득하여 객체를 인식하고, 또한, 상기 야간영상 객체인식 모듈(132)은 적외선 카메라 기반으로 야간영상을 획득하여 객체를 인식할 수 있고, The daytime image object recognition module 131 acquires daytime images based on a vision sensor and recognizes objects, and the night image object recognition module 132 acquires nighttime images based on an infrared camera to recognize objects. can be recognized,

상기 객체는 차량 운전자의 주의가 필요한 객체로서 도로의 낙하물, 포트홀, 보행자, 급정거 선행차량 또는 자전거일 수 있지만, 이에 국한되는 것은 아니다.The object requires the driver's attention and may be a falling object on the road, a pothole, a pedestrian, a suddenly stopping preceding vehicle, or a bicycle, but is not limited thereto.

본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템(100)에서 사용하는 객체인식 모듈(131, 132)은 각각 데이터 수집부, 모델링부, 학습부, 객체인식 DB 및 객체 인식부로 구현될 수 있으며, The object recognition modules 131 and 132 used in the object recognition-based intelligent glasses system 100 for traffic accident prevention according to an embodiment of the present invention include a data collection unit, a modeling unit, a learning unit, an object recognition DB, and an object, respectively. It can be implemented as a recognition unit,

예를 들면, RetinaNet 모델을 사용하여 객체를 인식한다. For example, recognize objects using the RetinaNet model.

즉, 상기 주간영상 객체인식 모듈(131) 및 야간영상 객체인식 모듈(132) 각각은 주변환경을 인식하는 알고리즘인 RetinaNet 모델을 사용하여 데이터 셋의 불균형을 해결하며, 상기 RetinaNet 모델은 알고리즘을 통한 학습시 객체인식 알고리즘의 성능 향상을 위해 Focal Loss(FL) 함수를 사용할 수 있지만, 이에 국한되는 것은 아니다.That is, each of the daytime image object recognition module 131 and the nighttime image object recognition module 132 resolves imbalance in the data set using the RetinaNet model, an algorithm that recognizes the surrounding environment, and the RetinaNet model learns through an algorithm. The Focal Loss (FL) function can be used to improve the performance of the object recognition algorithm, but is not limited to this.

구체적으로, 이러한 RetinaNet 모델은 주변환경을 인식하는 알고리즘인 RetinaNet 모델은 알고리즘을 통한 학습 시 객체인식 알고리즘의 성능 향상을 위해 Focal Loss(FL) 함수를 사용한다. 이러한 FL 함수는 수학식 1 및 수학식 2와 같이 크로스 엔트로피(Cross Entropy: CE) 함수를 기반으로 하며, 수학식 1을 간단히 표현하면, 다음의 수학식 2와 같다.Specifically, the RetinaNet model, which is an algorithm that recognizes the surrounding environment, uses the Focal Loss (FL) function to improve the performance of the object recognition algorithm when learning through the algorithm. This FL function is based on the Cross Entropy (CE) function as shown in Equation 1 and Equation 2. Equation 1 can be simply expressed as Equation 2 below.

[수학식 1][Equation 1]

[수학식 2][Equation 2]

여기서, (p,y)는 y 객체로 인식될 확률이 p임을 의미한다. 대부분의 머신러닝 알고리즘에서 학습 데이터의 불균형(예를 들면, 포트홀을 인식하는 알고리즘을 학습시키는데, 포트홀이 없는 영상이 10,000장인데 반해, 포트홀이 있는 영상은 100장밖에 안 됨)은 알고리즘의 성능을 저하시키는 원인으로 작용한다. Here, (p,y) means that the probability of being recognized as a y object is p. In most machine learning algorithms, the imbalance of learning data (for example, when training an algorithm to recognize potholes, there are 10,000 images without potholes, but only 100 images with potholes) reduces the performance of the algorithm. It acts as a cause of deterioration.

이러한 데이터 셋의 불균형을 해결하기 위해 RetinaNet 모델에서는 수학식 3과 같이 샘플 수가 많은 영상(예를 들면, 포트홀이 없는 영상)에는 낮은 가중치를 부여하고, 샘플 수가 적은 영상(예를 들면, 포트홀이 있는 영상)은 높은 가중치를 부여하는 방식을 사용한다. 수학식 3에서 는 데이터 셋 불균형 해결을 위한 가중치 파라미터이다.To resolve this imbalance in the data set, the RetinaNet model assigns a low weight to images with a large number of samples (e.g., images without potholes) as shown in Equation 3, and to images with a small number of samples (e.g., images with potholes). video) uses a method that assigns high weight. In equation 3: is a weight parameter for resolving data set imbalance.

[수학식 3][Equation 3]

이에 따라, 차량 운전자가 착용할 수 있는 안경에 탑재된 주간영상 또는 야간영상 객체인식을 이용하여 전방의 위험상황을 탐지하고, 이를 차량 운전자에게 음성으로 경고함으로써 운전자 부주의 또는 야간 시인성 부족으로 인해 발생하는 교통사고를 예방할 수 있다. Accordingly, by using daytime or nighttime image object recognition mounted on glasses that the vehicle driver can wear, dangerous situations ahead are detected and a voice warning is issued to the vehicle driver to prevent damage caused by driver inattention or lack of visibility at night. Traffic accidents can be prevented.

또한, 휴대폰과 연동하여 도로기상/교통정보를 제공해주며, 운전시 주의해야할 객체를 인식하도록 알고리즘을 구성시키되, 객체인식 알고리즘의 성능을 높이도록 알고리즘을 학습시킨다.In addition, it provides road weather/traffic information in conjunction with a mobile phone, configures an algorithm to recognize objects to be careful of when driving, and trains the algorithm to improve the performance of the object recognition algorithm.

한편, 도 9는 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템에서 위험운전행동 판정 모듈을 구체적으로 설명하기 위한 도면이고, 도 10a 내지 도 10c는 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템에서 차량별 위험운전행동을 구체적으로 설명하기 위한 도면이다.Meanwhile, Figure 9 is a diagram for specifically explaining the dangerous driving behavior determination module in the object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention, and Figures 10a to 10c are embodiments of the present invention. This is a drawing to specifically explain the risky driving behavior of each vehicle in the object recognition-based intelligent glasses system for traffic accident prevention.

도 9를 참조하면, 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템에서 위험운전행동 판정 모듈(134)은, Referring to FIG. 9, the dangerous driving behavior determination module 134 in the object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention is,

상기 지능형 안경(110)에 부착되어 상기 차량 운전자의 운전행동을 검지하는 운전행동 검지센서(134a); 상기 운전행동 검지센서(134a)에서 검지된 센서 데이터에 대응하는 운전행동 패턴을 검색하여 비교 분석하는 데이터 분석부(134b); 차량 운전자의 위험운전행동 패턴을 저장하는 위험운전행동 패턴 DB(134c); 및 상기 데이터 분석부(134b)에서 비교 분석된 운전행동 패턴이 위험운전행동인지 판정하는 위험운전행동 판정부(134d)를 포함할 수 있다.A driving behavior detection sensor 134a attached to the intelligent glasses 110 and detecting the driving behavior of the vehicle driver; a data analysis unit (134b) that searches for and compares and analyzes driving behavior patterns corresponding to sensor data detected by the driving behavior detection sensor (134a); Dangerous driving behavior pattern DB (134c), which stores the dangerous driving behavior pattern of the vehicle driver; And it may include a dangerous driving behavior determination unit 134d that determines whether the driving behavior pattern compared and analyzed by the data analysis unit 134b is dangerous driving behavior.

여기서, 상기 운전행동 검지센서(134a)는 G(중력) 센서이거나 자이로 센서로서 상기 지능형 안경(110)에 부착되어 상기 차량 운전자의 운전행동을 검지할 수 있다.Here, the driving behavior detection sensor 134a is a G (gravity) sensor or a gyro sensor that is attached to the intelligent glasses 110 and can detect the driving behavior of the vehicle driver.

도 10a에 도시된 화물차, 도 10b에 도시된 버스, 도 10c에 도시된 승용차 또는 승합차 등의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전 등의 차량 운전자 위험운전행동 패턴을 검색하고 위험운전행동 기준을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 즉각적으로 전달할 수 있다.Search for vehicle driver risky driving behavior patterns such as speeding, rapid acceleration, rapid deceleration, rapid lane change, or sharp turns by vehicle type, such as the truck shown in Figure 10a, the bus shown in Figure 10b, and the passenger car or van shown in Figure 10c. By determining the standards for dangerous driving behavior, a warning message can be immediately delivered by voice to the vehicle driver.

다시 말하면, 본 발명의 실시예에 따르면, 화물차, 버스, 승용차, 승합차 등의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전 등의 차량 운전자 위험운전행동 패턴을 검색하고 위험운전행동 기준을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 전달할 수 있다.In other words, according to an embodiment of the present invention, vehicle driver risky driving behavior patterns such as speeding, rapid acceleration, rapid deceleration, sudden lane change, or sharp turns are searched for each vehicle type such as trucks, buses, passenger cars, and vans, and risky driving behavior criteria are determined. By determining, a warning message can be delivered by voice to the vehicle driver.

본 발명의 실시예에 따르면, 운전자의 음성명령을 텍스트로 변환하며, 비전센서와 적외선 카메라를 통해 도로 낙하물, 포트홀 등 운전자 주의정보가 필요한 객체를 인식해 이미지 출력해주고, 휴대폰과 연동하여 휴대폰이 수신하는 기상 및 도로교통정보를 제공해주고, 중력(G) 및 자이로(Gyro) 센서를 통해 운전자의 졸음, 주의산만 등의 판단을 제공해줌으로써, 제공되는 정보를 통해 운전자에게 음성 경고메세지를 발생시켜주되, 객체인식 알고리즘 성능을 높이도록 알고리즘을 학습시켜 학습데이터 셋 불균형을 해소함으로써 전방 위험상황 정보를 정밀하게 받을 수 있다.According to an embodiment of the present invention, the driver's voice command is converted into text, and objects requiring driver attention information, such as falling objects on the road and potholes, are recognized and images are output through a vision sensor and an infrared camera, and the mobile phone receives the information in conjunction with the mobile phone. It provides weather and road traffic information and determines whether the driver is drowsy or distracted through gravity (G) and gyro sensors, and generates a voice warning message to the driver through the provided information. By training the algorithm to improve the performance of the object recognition algorithm and resolving the learning data set imbalance, information on forward danger situations can be received precisely.

[교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법][How an object recognition-based intelligent glasses system works to prevent traffic accidents]

도 11은 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법을 나타내는 동작흐름도이다.Figure 11 is an operation flowchart showing a method of operating an object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention.

도 11을 참조하면, 본 발명의 실시예에 따른 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법은, Referring to Figure 11, the method of operating the object recognition-based intelligent glasses system for traffic accident prevention according to an embodiment of the present invention is:

먼저, 차량 운전자가 지능형 안경(110)을 휴대폰(200)과 연동시키고, 상기 휴대폰(200)과 연계된 주변도로의 기상정보 및 교통정보를 수신하면서 차량을 운전한다(S110).First, the vehicle driver links the intelligent glasses 110 with the mobile phone 200 and drives the vehicle while receiving weather information and traffic information on surrounding roads linked to the mobile phone 200 (S110).

다음으로, 지능형 안경(110)에 탑재된 음성인식 유닛(120)을 통해 음성 명령으로 지능형 안경 시스템(100)을 구동한다(S120). Next, the intelligent glasses system 100 is driven by a voice command through the voice recognition unit 120 mounted on the intelligent glasses 110 (S120).

예를 들면, 장단기 모델(Long Short Term Memory: LSTM) 구조 신경망을 은닉 마르코프 모델(Hidden Markov Model: HMM)과 결합한 LSTM-HMM 하이브리드 구조 기반으로 음성을 인식할 수 있다.For example, speech can be recognized based on an LSTM-HMM hybrid structure that combines a Long Short Term Memory (LSTM) structured neural network with a Hidden Markov Model (HMM).

다음으로, 지능형 안경(110)에 탑재된 주간영상 또는 야간영상 객체인식 모듈(131, 132)을 통해 주간영상 또는 야간영상 데이터를 획득한다(S130). Next, daytime image or nighttime image data is acquired through the daytime image or nighttime image object recognition modules 131 and 132 mounted on the intelligent glasses 110 (S130).

여기서, 상기 주간영상은 비전 센서 기반으로 획득하고, 상기 야간영상은 적외선 카메라 기반으로 획득할 수 있고, 상기 객체는 차량 운전자의 주의가 필요한 객체로서 도로의 낙하물, 포트홀, 보행자, 급정거 선행차량 또는 자전거일 수 있지만, 이에 국한되는 것은 아니다. Here, the daytime image can be acquired based on a vision sensor, and the nighttime image can be acquired based on an infrared camera, and the object requires the attention of the vehicle driver, such as a falling object on the road, a pothole, a pedestrian, a vehicle ahead of a sudden stop, or a bicycle. It may be, but it is not limited to this.

다음으로, 객체인식 알고리즘을 통해 상기 주간영상 또는 야간영상 데이터로부터 객체를 인식하고 영상 출력 유닛(140)을 통해 영상을 휴대폰(200)으로 출력한다(S140). Next, an object is recognized from the daytime image or nighttime image data through an object recognition algorithm, and the image is output to the mobile phone 200 through the image output unit 140 (S140).

이때, 주변환경을 인식하는 알고리즘인 RetinaNet 모델을 사용하여 데이터 셋의 불균형을 해결하며, 상기 RetinaNet 모델은 알고리즘을 통한 학습시 객체인식 알고리즘의 성능 향상을 위해 Focal Loss(FL) 함수를 사용할 수 있다. At this time, the imbalance of the data set is resolved using the RetinaNet model, an algorithm that recognizes the surrounding environment, and the RetinaNet model can use the Focal Loss (FL) function to improve the performance of the object recognition algorithm when learning through the algorithm.

또한, 상기 주간영상 또는 야간영상 데이터는 영상 출력 유닛(140)을 통해 휴대폰(200)으로 출력하여 저장할 수 있다. 따라서 차량 운전자가 착용할 수 있는 안경에 탑재된 주간영상 또는 야간영상 객체인식을 이용하여 전방의 위험상황을 탐지하고, 이를 차량 운전자에게 음성으로 경고함으로써 운전자 부주의 또는 야간 시인성 부족으로 인해 발생하는 교통사고를 예방할 수 있다.Additionally, the daytime video or nighttime video data can be output to the mobile phone 200 through the video output unit 140 and stored. Therefore, by using daytime or nighttime image object recognition mounted on glasses that can be worn by the vehicle driver, dangerous situations ahead are detected and a voice warning is issued to the vehicle driver to prevent traffic accidents caused by driver inattention or lack of visibility at night. can be prevented.

다음으로, 지능형 안경(110)에 탑재된 운전행동 검지센서(141)를 통해 차량 운전자의 운전행동을 검지한다(S150). Next, the driving behavior of the vehicle driver is detected through the driving behavior detection sensor 141 mounted on the intelligent glasses 110 (S150).

예를 들면, 상기 운전행동 검지센서(134a)는 G(중력) 센서이거나 자이로 센서로서 상기 지능형 안경(110)에 부착되어 상기 차량 운전자의 운전행동을 검지할 수 있다.For example, the driving behavior detection sensor 134a is a G (gravity) sensor or a gyro sensor and can be attached to the intelligent glasses 110 to detect the driving behavior of the vehicle driver.

다음으로, 위험운전행동 판정 모듈(134)을 통해 차량 운전자의 운전행동 패턴을 검색하여 상기 차량 운전자의 운전행동이 위험운전행동인지 여부를 판정한다(S160).Next, the driving behavior pattern of the vehicle driver is searched through the dangerous driving behavior determination module 134 to determine whether the driving behavior of the vehicle driver is dangerous driving behavior (S160).

다음으로, 상기 위험운전행동 판정 결과에 따라 위험운전행동으로 판정된 경우 경고메시지를 생성한다(S170). Next, if the driving behavior is determined to be dangerous according to the results of the determination of the dangerous driving behavior, a warning message is generated (S170).

따라서 차량 운전자의 사각지대에 있는 위험상황이나 졸음운전 등으로 인한 위험운전행동을 주의해야 할 경우, 객체인식-기반 지능형 안경을 통해 차량 운전자의 위험운전행동을 판정하여 운전자에게 음성으로 경고할 수 있다. Therefore, when it is necessary to pay attention to dangerous situations in the vehicle driver's blind spot or dangerous driving behavior due to drowsy driving, etc., the vehicle driver's dangerous driving behavior can be determined through object recognition-based intelligent glasses and a voice warning to the driver can be issued. .

예를 들면, 화물차, 버스, 승용차, 승합차 등의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전 등의 차량 운전자 위험운전행동 패턴을 검색하여 위험운전행동을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 즉각적으로 전달할 수 있다.For example, by searching for patterns of dangerous driving behavior of vehicle drivers such as speeding, rapid acceleration, rapid deceleration, sudden lane changes, or sharp turns for each vehicle type such as trucks, buses, passenger cars, and vans, it determines dangerous driving behavior and sends a warning message to the vehicle driver. can be conveyed immediately by voice.

다음으로, 차량 운전자의 안전운전을 위해서 음성변환 유닛(150)을 통해 경고메시지를 음성으로 변환한 음성경고음을 발생시킨다(S180).Next, for safe driving of the vehicle driver, a voice warning sound is generated by converting the warning message into voice through the voice conversion unit 150 (S180).

결국, 본 발명의 실시예에 따르면, 운전자의 음성명령을 텍스트로 변환하며, 비전센서와 적외선 카메라를 통해 도로 낙하물, 포트홀 등 운전자 주의정보가 필요한 객체를 인식해 이미지 출력해주고, 휴대폰과 연동하여 휴대폰이 수신하는 기상 및 도로교통정보를 제공해주고, G 및 Gyro 센서를 통해 운전자의 졸음, 주의산만 등의 판단을 제공해줌으로써, 제공되는 정보를 통해 운전자에게 음성 경고메세지를 발생시켜주되, 객체인식 알고리즘 성능을 높이도록 알고리즘을 학습시켜 학습데이터 셋 불균형을 해소함으로써 전방 위험상황 정보를 정밀하게 받을 수 있다.Ultimately, according to an embodiment of the present invention, the driver's voice command is converted into text, and objects that require driver attention information, such as falling objects on the road and potholes, are recognized and images are output through a vision sensor and an infrared camera, and linked with a mobile phone. It provides weather and road traffic information received, and determines whether the driver is drowsy or distracted through G and Gyro sensors, generates a voice warning message to the driver through the provided information, and provides object recognition algorithm performance. By learning the algorithm to increase the learning data set imbalance, it is possible to receive information on forward danger situations precisely.

특히, 기존의 기술은 일부 구간 또는 일부 차량에서만 전방의 위험상황 정보를 받을 수 있어 교통사고 예방에 한계가 있었지만, 본 발명의 실시예에 따르면, 안경을 착용한 운전자라면 누구나 어디에서나 전방의 위험상황 정보를 받을 수 있도록 하여 도로교통 위험성을 현저히 저하시킬 수 있다.In particular, the existing technology had limitations in preventing traffic accidents because it could only receive information on dangerous situations ahead in some sections or some vehicles. However, according to an embodiment of the present invention, any driver wearing glasses can receive information on dangerous situations ahead from anywhere. By providing information, road traffic risks can be significantly reduced.

또한, 미국 교통부 보고서에 따르면 운전자가 전방의 위험상황 정보를 사전에 인지할 경우, 교통사고를 약 80%까지 줄일 수 있다고 하였다. Additionally, according to a report from the U.S. Department of Transportation, traffic accidents can be reduced by about 80% if drivers are aware of information about dangerous situations ahead in advance.

본 발명의 실시예에 따르면, 운전 시 안경을 착용할 수 있는 차량 운전자라면 누구에게나 적용할 수 있다.According to an embodiment of the present invention, it can be applied to any vehicle driver who can wear glasses while driving.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 지능형 안경 시스템 200: 휴대폰(스마트폰)
300: 기상정보 제공자 400: 교통정보 제공자
110: 지능형 안경 120: 음성인식 유닛
130: 지능형 안경 제어 유닛 140: 영상 출력 유닛
150: 음성변환 유닛 131: 주간영상 객체인식 모듈
132: 야간영상 객체인식 모듈 133: 휴대폰 연동 모듈
134: 위험운전행동 판정 모듈 135: 경고메시지 발생 모듈
134a: 운전행동 검지센서 134b: 데이터 분석부
134c: 위험운전행동 패턴 DB 134d: 위험운전행동 판정부
100: Intelligent glasses system 200: Mobile phone (smart phone)
300: Weather information provider 400: Traffic information provider
110: Intelligent glasses 120: Voice recognition unit
130: Intelligent glasses control unit 140: Image output unit
150: Voice conversion unit 131: Weekly video object recognition module
132: Night image object recognition module 133: Mobile phone linkage module
134: Dangerous driving behavior determination module 135: Warning message generation module
134a: Driving behavior detection sensor 134b: Data analysis unit
134c: Dangerous driving behavior pattern DB 134d: Dangerous driving behavior determination unit

Claims (20)

교통사고 예방을 위한 지능형 안경 시스템에 있어서,
차량 운전자가 착용하는 지능형 안경(110)에 탑재되고, 차량 운전자의 음성명령에 의해 작동되어 음성명령을 텍스트로 변환하는 음성인식 유닛(120);
지능형 안경(110)에 탑재되어 휴대폰(200)과 연동하도록 연결되고, 주간영상 또는 야간영상을 획득하여 객체인식을 수행하고, 운전행동 검지센서의 데이터를 분석하여 졸음이나 주의산만으로 인해 차량 운전자가 위험하게 운전하는 위험운전행동 패턴을 검색하며, 위험운전행동을 판정하여 경고메시지를 생성하는 지능형 안경 제어 유닛(130); 및
상기 지능형 안경 제어 유닛(130)에서 생성된 경고메시지를 음성으로 변환한 음성 경고음을 발생하여 차량 운전자로 하여금 안전운전을 할 수 있도록 유도하는 음성변환 유닛(150)을 포함하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
In the intelligent glasses system for traffic accident prevention,
A voice recognition unit 120 mounted on the intelligent glasses 110 worn by the vehicle driver and operated by the vehicle driver's voice command to convert the voice command into text;
It is mounted on the intelligent glasses 110 and connected to the mobile phone 200, acquires daytime or nighttime images, performs object recognition, and analyzes data from the driving behavior detection sensor to prevent the vehicle driver from being drowsy or distracted. An intelligent glasses control unit 130 that searches for dangerous driving behavior patterns, determines dangerous driving behavior, and generates a warning message; and
An object for preventing traffic accidents, including a voice conversion unit 150 that converts the warning message generated by the intelligent glasses control unit 130 into a voice and generates a voice warning sound to encourage the vehicle driver to drive safely. Perception-based intelligent glasses system.
제1항에 있어서,
상기 지능형 안경 제어 유닛(130)은 화물차, 버스, 승용차 또는 승합차의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전의 차량 운전자 위험운전행동 패턴을 검색하고 위험운전행동 기준을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 전달하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
According to paragraph 1,
The intelligent glasses control unit 130 searches for vehicle driver risky driving behavior patterns such as speeding, rapid acceleration, rapid deceleration, sudden lane change, or sharp turns for each vehicle type such as a truck, bus, passenger car, or van, and determines the risky driving behavior standards to determine the vehicle's risky driving behavior standards. An object recognition-based intelligent glasses system for traffic accident prevention that delivers a warning message to the driver by voice.
제1항에 있어서,
상기 휴대폰(200)은 기상정보 제공자(300)로부터 제공되는 기상정보 및 교통정보 제공자(400)로부터 제공되는 교통정보와 연계하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
According to paragraph 1,
The mobile phone 200 is an object recognition-based intelligent glasses system for traffic accident prevention, characterized in that it is linked to weather information provided by the weather information provider 300 and traffic information provided by the traffic information provider 400.
제1항에 있어서, 상기 지능형 안경 제어 유닛(130)은,
주간영상을 획득하여 객체를 인식하는 주간영상 객체인식 모듈(131);
야간영상을 획득하여 객체를 인식하는 야간영상 객체인식 모듈(132);
상기 휴대폰(200)이 수신하는 주변 도로의 기상정보 및 교통정보를 지능형 안경(110)을 착용한 차량 운전자에게 제공하는 휴대폰 연동 모듈(133);
운전행동 검지센서(134a)로부터 검지된 검지신호에 따라 차량 운전자의 위험운전행동 패턴을 검색하여 위험운전행동 여부를 판정하는 위험운전행동 판정 모듈(134); 및
상기 위험운전행동 판정 모듈(134)의 판정 결과에 따라 경고메시지를 생성하고, 상기 경고메시지를 차량 운전자에게 음성으로 경고하도록 상기 음성변환 유닛(150)에게 전달하는 경고메시지 발생 모듈(135)을 포함하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
The method of claim 1, wherein the intelligent glasses control unit 130,
A daytime image object recognition module 131 that acquires daytime images and recognizes objects;
A night image object recognition module 132 that acquires night images and recognizes objects;
A mobile phone linking module 133 that provides weather information and traffic information on surrounding roads received by the mobile phone 200 to a vehicle driver wearing intelligent glasses 110;
A dangerous driving behavior determination module 134 that searches for the vehicle driver's risky driving behavior pattern according to the detection signal detected from the driving behavior detection sensor 134a and determines whether the driver is engaging in dangerous driving behavior. and
It includes a warning message generation module 135 that generates a warning message according to the determination result of the dangerous driving behavior determination module 134 and transmits the warning message to the voice conversion unit 150 to warn the vehicle driver by voice. Object recognition-based intelligent glasses system for traffic accident prevention.
제4항에 있어서,
상기 주간영상 객체인식 모듈(131)은 비전 센서(Vision Sensor) 기반으로 주간영상을 획득하여 객체를 인식하고, 상기 야간영상 객체인식 모듈(132)은 적외선 카메라 기반으로 야간영상을 획득하여 객체를 인식하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
According to paragraph 4,
The daytime image object recognition module 131 recognizes objects by acquiring daytime images based on a vision sensor, and the night image object recognition module 132 recognizes objects by acquiring nighttime images based on an infrared camera. An object recognition-based intelligent glasses system for preventing traffic accidents.
제5항에 있어서,
상기 객체는 차량 운전자의 주의가 필요한 객체로서 도로의 낙하물, 포트홀, 보행자, 급정거 선행차량 또는 자전거인 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
According to clause 5,
The object is an object that requires the attention of the vehicle driver and is an object recognition-based intelligent glasses system for preventing traffic accidents, characterized in that it is a falling object on the road, a pothole, a pedestrian, a vehicle ahead of a sudden stop, or a bicycle.
제4항에 있어서,
상기 주간영상 객체인식 모듈(131) 및 야간영상 객체인식 모듈(132) 각각은 주변환경을 인식하는 알고리즘인 RetinaNet 모델을 사용하여 데이터 셋의 불균형을 해결하며, 상기 RetinaNet 모델은 알고리즘을 통한 학습시 객체인식 알고리즘의 성능 향상을 위해 Focal Loss(FL) 함수를 사용하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
According to paragraph 4,
The daytime image object recognition module 131 and the nighttime image object recognition module 132 each resolve imbalance in the data set using the RetinaNet model, an algorithm that recognizes the surrounding environment, and the RetinaNet model recognizes objects when learning through the algorithm. An object recognition-based intelligent glasses system for traffic accident prevention, characterized by using the Focal Loss (FL) function to improve the performance of the recognition algorithm.
제4항에 있어서, 상기 위험운전행동 판정 모듈(134)은,
상기 지능형 안경(110)에 부착되어 상기 차량 운전자의 운전행동을 검지하는 운전행동 검지센서(134a);
상기 운전행동 검지센서(134a)에서 검지된 센서 데이터에 대응하는 운전행동 패턴을 검색하여 비교 분석하는 데이터 분석부(134b);
차량 운전자의 위험운전행동 패턴을 저장하는 위험운전행동 패턴 DB(134c); 및
상기 데이터 분석부(134b)에서 비교 분석된 운전행동 패턴이 위험운전행동인지 판정하는 위험운전행동 판정부(134d)를 포함하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
The method of claim 4, wherein the dangerous driving behavior determination module 134,
A driving behavior detection sensor 134a attached to the intelligent glasses 110 and detecting the driving behavior of the vehicle driver;
a data analysis unit (134b) that searches for and compares and analyzes driving behavior patterns corresponding to sensor data detected by the driving behavior detection sensor (134a);
Dangerous driving behavior pattern DB (134c), which stores the dangerous driving behavior pattern of the vehicle driver; and
An object recognition-based intelligent glasses system for traffic accident prevention, including a dangerous driving behavior determination unit (134d) that determines whether the driving behavior pattern compared and analyzed by the data analysis unit (134b) is dangerous driving behavior.
제8항에 있어서,
상기 운전행동 검지센서(134a)는 G(중력) 센서이거나 자이로 센서로서 상기 지능형 안경(110)에 부착되어 상기 차량 운전자의 운전행동을 검지하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
According to clause 8,
The driving behavior detection sensor 134a is a G (gravity) sensor or a gyro sensor attached to the intelligent glasses 110 and detects the driving behavior of the vehicle driver. Glasses system.
제1항에 있어서,
상기 음성인식 유닛(120)은 장단기 모델(Long Short Term Memory: LSTM) 구조 신경망을 은닉 마르코프 모델(Hidden Markov Model: HMM)과 결합한 LSTM-HMM 하이브리드 구조 기반으로 음성을 인식하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
According to paragraph 1,
The voice recognition unit 120 is a traffic accident characterized in that it recognizes voices based on an LSTM-HMM hybrid structure that combines a Long Short Term Memory (LSTM) structured neural network with a Hidden Markov Model (HMM). Object recognition-based intelligent glasses system for prevention.
제1항에 있어서,
상기 주간영상과 야간영상을 출력하여 휴대폰(200)에 저장하는 영상 출력 유닛(140)을 추가로 포함하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템.
According to paragraph 1,
An object recognition-based intelligent glasses system for traffic accident prevention, further comprising an image output unit (140) that outputs the daytime image and the nighttime image and stores them in the mobile phone (200).
교통사고 예방을 위한 지능형 안경 시스템의 작동 방법에 있어서,
a) 지능형 안경(110)에 탑재된 음성인식 유닛(120)을 통해 음성 명령으로 지능형 안경 시스템(100)을 구동하는 단계;
b) 지능형 안경(110)에 탑재된 주간영상 또는 야간영상 객체인식 모듈(131, 132)을 통해 주간영상 또는 야간영상 데이터를 획득하고, 객체인식 알고리즘을 통해 상기 주간영상 또는 야간영상 데이터로부터 객체를 인식하는 단계;
c) 지능형 안경(110)에 탑재된 운전행동 검지센서(134a)를 통해 차량 운전자의 운전행동을 검지하는 단계;
d) 위험운전행동 판정 모듈(134)을 통해 차량 운전자의 운전행동 패턴을 검색하여 상기 차량 운전자의 운전행동이 위험운전행동인지 여부를 판정하는 단계;
e) 상기 위험운전행동 판정 결과에 따라 위험운전행동으로 판정된 경우 경고메시지를 생성하는 단계; 및
f) 차량 운전자의 안전운전을 위해서 음성변환 유닛(150)을 통해 경고메시지를 음성으로 변환한 음성경고음을 발생시키는 단계를 포함하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
In the method of operating an intelligent glasses system for traffic accident prevention,
a) operating the intelligent glasses system 100 with a voice command through the voice recognition unit 120 mounted on the intelligent glasses 110;
b) Obtain daytime or nighttime image data through the daytime or nighttime image object recognition modules 131 and 132 mounted on the intelligent glasses 110, and identify objects from the daytime or nighttime image data through an object recognition algorithm. Recognizing step;
c) detecting the driving behavior of the vehicle driver through the driving behavior detection sensor 134a mounted on the intelligent glasses 110;
d) searching the driving behavior pattern of the vehicle driver through the dangerous driving behavior determination module 134 to determine whether the driving behavior of the vehicle driver is dangerous driving behavior;
e) generating a warning message when the driving behavior is determined to be dangerous according to the risky driving behavior determination result; and
f) A method of operating an object recognition-based intelligent glasses system for traffic accident prevention, including the step of generating a voice warning sound by converting a warning message into voice through the voice conversion unit 150 for safe driving of the vehicle driver.
제12항에 있어서,
상기 d) 단계의 위험운전행동 판정 모듈(134)은 화물차, 버스, 승용차 또는 승합차의 차종별로 과속, 급가속, 급감속, 급차로변경 또는 급회전의 차량 운전자 위험운전행동 패턴을 검색하고 위험운전행동 기준을 판정함으로써 차량 운전자에게 경고메시지를 음성으로 전달하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
According to clause 12,
The dangerous driving behavior determination module 134 in step d) searches for the dangerous driving behavior patterns of vehicle drivers such as speeding, rapid acceleration, rapid deceleration, sudden lane changes, or sharp turns for each vehicle type such as a truck, bus, passenger car, or van, and determines the dangerous driving behavior. A method of operating an object recognition-based intelligent glasses system for traffic accident prevention, characterized in that a warning message is delivered by voice to the vehicle driver by determining a standard.
제12항에 있어서,
상기 a) 단계를 수행하기 전에 차량 운전자가 지능형 안경(110)을 휴대폰(200)과 연동시키고, 상기 휴대폰(200)과 연계된 주변도로의 기상정보 및 교통정보를 수신하면서 차량을 운전하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
According to clause 12,
Before performing step a), the vehicle driver links the intelligent glasses 110 with the mobile phone 200 and drives the vehicle while receiving weather information and traffic information on surrounding roads linked to the mobile phone 200. How an object recognition-based intelligent glasses system works to prevent traffic accidents.
제12항에 있어서,
상기 b) 단계의 주간영상 또는 야간영상 데이터는 영상 출력 유닛(140)을 통해 휴대폰(200)으로 출력하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
According to clause 12,
A method of operating an object recognition-based intelligent glasses system for traffic accident prevention, characterized in that the daytime image or nighttime image data in step b) is output to the mobile phone 200 through the image output unit 140.
제12항에 있어서,
상기 주간영상은 비전 센서 기반으로 획득하고, 상기 야간영상은 적외선 카메라 기반으로 획득하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
According to clause 12,
A method of operating an object recognition-based intelligent glasses system for traffic accident prevention, characterized in that the daytime image is acquired based on a vision sensor, and the nighttime image is acquired based on an infrared camera.
제12항에 있어서,
상기 객체는 차량 운전자의 주의가 필요한 객체로서 도로의 낙하물, 포트홀, 보행자, 급정거 선행차량 또는 자전거인 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
According to clause 12,
The object is an object that requires the attention of the vehicle driver and is a falling object on the road, a pothole, a pedestrian, a suddenly stopping preceding vehicle, or a bicycle. A method of operating an object recognition-based intelligent glasses system for traffic accident prevention.
제12항에 있어서,
상기 b) 단계에서 주변환경을 인식하는 알고리즘인 RetinaNet 모델을 사용하여 데이터 셋의 불균형을 해결하며, 상기 RetinaNet 모델은 알고리즘을 통한 학습시 객체인식 알고리즘의 성능 향상을 위해 Focal Loss(FL) 함수를 사용하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
According to clause 12,
In step b), the imbalance of the data set is resolved using the RetinaNet model, an algorithm that recognizes the surrounding environment, and the RetinaNet model uses the Focal Loss (FL) function to improve the performance of the object recognition algorithm when learning through the algorithm. A method of operating an object recognition-based intelligent glasses system for preventing traffic accidents.
제12항에 있어서,
상기 c) 단계의 운전행동 검지센서(134a)는 G(중력) 센서이거나 자이로 센서로서 상기 지능형 안경(110)에 부착되어 상기 차량 운전자의 운전행동을 검지하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
According to clause 12,
The driving behavior detection sensor 134a in step c) is a G (gravity) sensor or a gyro sensor and is attached to the intelligent glasses 110 to detect the driving behavior of the vehicle driver. How a perception-based intelligent glasses system works.
제12항에 있어서,
상기 a) 단계에서 장단기 모델(Long Short Term Memory: LSTM) 구조 신경망을 은닉 마르코프 모델(Hidden Markov Model: HMM)과 결합한 LSTM-HMM 하이브리드 구조 기반으로 음성을 인식하는 것을 특징으로 하는 교통사고 예방을 위한 객체인식-기반 지능형 안경 시스템의 작동 방법.
According to clause 12,
In step a), voice recognition is performed based on a LSTM-HMM hybrid structure that combines a Long Short Term Memory (LSTM) neural network with a Hidden Markov Model (HMM) to prevent traffic accidents. How an object recognition-based intelligent glasses system works.
KR1020220070044A 2022-06-09 2022-06-09 Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same KR20230169645A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220070044A KR20230169645A (en) 2022-06-09 2022-06-09 Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220070044A KR20230169645A (en) 2022-06-09 2022-06-09 Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same

Publications (1)

Publication Number Publication Date
KR20230169645A true KR20230169645A (en) 2023-12-18

Family

ID=89309334

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220070044A KR20230169645A (en) 2022-06-09 2022-06-09 Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same

Country Status (1)

Country Link
KR (1) KR20230169645A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110005380A (en) 2009-07-10 2011-01-18 김용언 System for warning sleepiness and eye-glasses installed the same
KR20150144510A (en) 2014-06-17 2015-12-28 김태형 Glasses system for visually handicapped person
KR20200068277A (en) 2018-12-05 2020-06-15 이영조 Smart glasses system for the visually impaired to provice traffic information
KR20200134401A (en) 2019-05-22 2020-12-02 문명일 Smart glasses operation method interworking to mobile device
KR102287855B1 (en) 2020-01-17 2021-08-06 우석대학교산학협력단 Obstacle detection glasses for the blind

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110005380A (en) 2009-07-10 2011-01-18 김용언 System for warning sleepiness and eye-glasses installed the same
KR20150144510A (en) 2014-06-17 2015-12-28 김태형 Glasses system for visually handicapped person
KR20200068277A (en) 2018-12-05 2020-06-15 이영조 Smart glasses system for the visually impaired to provice traffic information
KR20200134401A (en) 2019-05-22 2020-12-02 문명일 Smart glasses operation method interworking to mobile device
KR102287855B1 (en) 2020-01-17 2021-08-06 우석대학교산학협력단 Obstacle detection glasses for the blind

Similar Documents

Publication Publication Date Title
JP7080598B2 (en) Vehicle control device and vehicle control method
KR101730321B1 (en) Driver assistance apparatus and control method for the same
EP3006297B1 (en) Driving characteristics diagnosis device, driving characteristics diagnosis system, driving characteristics diagnosis method, information output device, and information output method
US20200207358A1 (en) Contextual driver monitoring system
EP3882884A1 (en) Information processing device, information processing method, and program
JP6935800B2 (en) Vehicle control devices, vehicle control methods, and moving objects
JPWO2019111464A1 (en) Image processing device and image processing method
US10666901B1 (en) System for soothing an occupant in a vehicle
WO2020100585A1 (en) Information processing device, information processing method, and program
WO2018150676A1 (en) Driving switching assist device, and driving switching assist method
KR102452636B1 (en) Apparatus and method for assisting driving of a vehicle
CN115720555A (en) Method and system for improving user alertness in an autonomous vehicle
CN112534487A (en) Information processing apparatus, moving object, information processing method, and program
US20240059323A1 (en) Dynamic emergency detection and automated responses
JP2020035437A (en) Vehicle system, method to be implemented in vehicle system, and driver assistance system
KR20230169645A (en) Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same
CN110853389B (en) Drive test monitoring system suitable for unmanned commodity circulation car
KR101653339B1 (en) System and method for recognizing signal switch by wearable glass device
KR20240066649A (en) A Display for displaying contents of call or message, a vehicle including them, and a method therefore
JP7469359B2 (en) Traffic Safety Support System
WO2020241292A1 (en) Signal processing device, signal processing method, program, and imaging device
JP7372382B2 (en) Traffic safety support system
US20240112581A1 (en) Traffic safety support system and storage medium
US20240112582A1 (en) Moving body prediction device, traffic safety support system, and storage medium
KR20240111434A (en) Smart Vibration Navigation Band System