KR102607080B1 - 지능형 헬멧 장치 및 이의 동작 방법 - Google Patents

지능형 헬멧 장치 및 이의 동작 방법 Download PDF

Info

Publication number
KR102607080B1
KR102607080B1 KR1020220050920A KR20220050920A KR102607080B1 KR 102607080 B1 KR102607080 B1 KR 102607080B1 KR 1020220050920 A KR1020220050920 A KR 1020220050920A KR 20220050920 A KR20220050920 A KR 20220050920A KR 102607080 B1 KR102607080 B1 KR 102607080B1
Authority
KR
South Korea
Prior art keywords
module
area
helmet
helmet device
vibration
Prior art date
Application number
KR1020220050920A
Other languages
English (en)
Other versions
KR20230151342A (ko
Inventor
장경선
김가연
김유겸
정재헌
문상준
문채운
최다솜
이광희
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR1020220050920A priority Critical patent/KR102607080B1/ko
Priority to US18/159,704 priority patent/US20230337776A1/en
Publication of KR20230151342A publication Critical patent/KR20230151342A/ko
Application granted granted Critical
Publication of KR102607080B1 publication Critical patent/KR102607080B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/042Optical devices
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • A42B3/0466Means for detecting that the user is wearing a helmet
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J27/00Safety equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62KCYCLES; CYCLE FRAMES; CYCLE STEERING DEVICES; RIDER-OPERATED TERMINAL CONTROLS SPECIALLY ADAPTED FOR CYCLES; CYCLE AXLE SUSPENSIONS; CYCLE SIDE-CARS, FORECARS, OR THE LIKE
    • B62K3/00Bicycles
    • B62K3/002Bicycles without a seat, i.e. the rider operating the vehicle in a standing position, e.g. non-motorized scooters; non-motorized scooters with skis or runners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • G08B5/36Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission using visible light sources
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/20Cycle computers as cycle accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • B62J45/415Inclination sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J50/00Arrangements specially adapted for use on cycles not provided for in main groups B62J1/00 - B62J45/00
    • B62J50/20Information-providing devices
    • B62J50/21Information-providing devices intended to provide information to rider or passenger
    • B62J50/22Information-providing devices intended to provide information to rider or passenger electronic, e.g. displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62KCYCLES; CYCLE FRAMES; CYCLE STEERING DEVICES; RIDER-OPERATED TERMINAL CONTROLS SPECIALLY ADAPTED FOR CYCLES; CYCLE AXLE SUSPENSIONS; CYCLE SIDE-CARS, FORECARS, OR THE LIKE
    • B62K2204/00Adaptations for driving cycles by electric motor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Emergency Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Helmets And Other Head Coverings (AREA)

Abstract

다양한 실시예들에 따르면, 헬멧 장치는 통신 모듈, 센서 모듈, 카메라 모듈, 및 프로세서를 포함하고, 상기 프로세서는, 상기 센서 모듈을 이용하여 사용자가 상기 헬멧 장치를 착용하였는지를 판단하고, 상기 사용자가 상기 헬멧 장치를 착용한 것에 응답하여, 상기 통신 모듈을 통하여 상기 헬멧 장치와 연동된 사용자 장치로 상기 헬멧 장치의 착용을 나타내는 제1 송신 신호를 송신하고, 상기 통신 모듈을 통하여 상기 사용자 장치로부터 상기 제1 송신 신호에 대한 제1 응답 신호를 수신하는 것에 응답하여, 상기 카메라 모듈을 활성화한 후 상기 카메라 모듈을 통하여 획득한 이미지에 기반하여 외부로부터의 물체의 접근 여부를 판단하고, 및 상기 물체가 접근하는 것에 응답하여, 상기 사용자에게 알림을 제공하도록 설정될 수 있다. 그 밖의 다양한 실시예들도 가능하다.

Description

지능형 헬멧 장치 및 이의 동작 방법{INTELLIGENT HELMET APPRATUS AND METHOD FOR OPERATION THEREOF}
본 발명은 지능형 헬멧 장치 및 이에 대한 방법에 관한 것으로서, 더욱 상세하게는, 지능형 헬멧 장치를 착용한 사용자가 개인형 이동장치를 운행 시 사용자 보호를 위한 지능형 헬멧 장치 및 이에 대한 방법에 관한 것이다.
최근 근거리 이동 수단으로서, 화석 연료를 사용하지 않고, 충전식 배터리를 이용하여 전력을 공급받아 상기 전력을 동력으로 사용하는 이동수단인 개인형 이동장치(ex. 전동 킥보드)에 대한 관심이 증가하고 있다. 또한, 개인형 이동장치는 작동이 쉽고, 별도의 자격증을 요구하지 않아 많은 사람들이 편리하게 사용할 수 있는 이점을 갖는다.
이러한 편리성으로 취미 생활을 위해 개인이 구매하고 소장하는 경우 뿐만 아니라, 출퇴근용 수단으로 많이 사용하도록 개인형 이동장치의 대여 비즈니스가 최근 급성장하고 있어, 개인형 이동장치에 관련 시장이 크게 성장하고 있다.
그러나, 편리성을 갖춘 개인형 이동장치의 사용이 증가함에 따라, 안전상의 문제도 발생하고 있다. 개인형 이동장치는 인도에서 탑승이 금지되어, 자동차와 함께 도로에서만 탑승이 가능하고, 평균 25 km/h 내외의 속도로 주행할 수 있으며 일부 개인형 이동장치는 65 km/h까지도 속도를 낼 수 있어, 자동차 또는 오토바이와 같은 다양한 이동 수단과 충돌 위험에 놓여있는 실정이다.
또한, 상기의 문제를 사전에 극복하도록 운전자의 안전을 위해 전동 킥보드 탑승 시 보호 장비, 특히 헬멧의 착용은 필수적이다. 그러나 대부분의 운전자들은 헬멧을 착용하지 않고 전동 킥보드를 탑승하여 사고 시 큰 피해가 발생하고 있다. 
또한, 상기의 문제에서 자동차 및 오토바이와 같은 이동 수단만이 아니라 주행에 방해되는 물체가 접근하거나, 주행에 방해되는 물체를 사용자가 인지하지 못하면, 상기의 물체와 충돌 위험에 놓여있는 실정이다.
본 발명은 상기의 문제를 이루고자 하는 기술적 과제는, 헬멧 장치를 착용한 개인형 이동장치의 사용자의 사고를 방지하기 위한 지능형 헬멧 장치 및 이에 대한 방법에 관한 것이다.
다양한 실시예들에 따르면, 헬멧 장치는 통신 모듈, 센서 모듈, 카메라 모듈, 및 프로세서를 포함하고, 상기 프로세서는, 상기 센서 모듈을 이용하여 사용자가 상기 헬멧 장치를 착용하였는지를 판단하고, 상기 사용자가 상기 헬멧 장치를 착용한 것에 응답하여, 상기 통신 모듈을 통하여 상기 헬멧 장치와 연동된 사용자 장치로 상기 헬멧 장치의 착용을 나타내는 제1 송신 신호를 송신하고, 상기 통신 모듈을 통하여 상기 사용자 장치로부터 상기 제1 송신 신호에 대한 제1 응답 신호를 수신하는 것에 응답하여, 상기 카메라 모듈을 활성화한 후 상기 카메라 모듈을 통하여 획득한 이미지에 기반하여 외부로부터의 물체의 접근 여부를 판단하고, 및 상기 물체가 접근하는 것에 응답하여, 상기 사용자에게 알림을 제공하도록 설정될 수 있다.
다양한 실시예들에 따르면, 헬멧 장치의 동작 방법은, 상기 헬멧 장치의 센서 모듈을 이용하여 사용자가 상기 헬멧 장치를 착용하였는지를 판단하는 동작, 상기 사용자가 상기 헬멧 장치를 착용한 것에 응답하여, 상기 헬멧 장치의 통신 모듈을 통하여 상기 헬멧 장치와 연동된 사용자 장치로 상기 헬멧 장치의 착용을 나타내는 제1 송신 신호를 송신하는 동작, 상기 통신 모듈을 통하여 상기 사용자 장치로부터 상기 제1 송신 신호에 대한 제1 응답 신호를 수신하는 것에 응답하여, 상기 헬멧 장치의 카메라 모듈을 활성화한 후 상기 카메라 모듈을 통하여 획득한 이미지에 기반하여 외부로부터의 물체의 접근 여부를 판단하는 동작, 및 상기 물체가 접근하는 것에 응답하여, 상기 사용자에게 알림을 제공하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따라, 프로세서는 카메라 모듈에서 촬영된 이미지를 프로세서를 이용하여 헬멧에 접근하는 물체를 확인할 수 있고, 프로세서가 이미지를 매개로 물체의 접근을 했다고 판단한 경우, 사용자가 인식하기 쉽게 알람을 표시함으로써, 헬멧에 접근하는 물체로부터 사용자를 보호할 수 있는 솔루션을 제공할 수 있다.
또한, 본 발명의 다양한 실시예에 따라, 헬멧의 프로세서는 카메라 모듈에 서 촬영된 이미지를 시멘틱 세그멘테이션 모델을 이용하여 주행 중인 도로의 종류, 상태를 확인하고, 프로세서가 변동된 내용을 확인한 결과 도로의 상태가 비정상으로 판단한 경우, 사용자가 인식하기 쉽게 물체의 알람과 다른 알람 방식으로 제공함으로써, 사용자가 도로의 상태를 인지하여 개인형 이동장치를 제어할 수 있는 솔루션을 제공할 수 있다.
또한, 본 발명의 다양한 실시예에 따라, 헬멧의 프로세서는 통신 장치로 연동되는 개인형 이동장치의 센서 모듈의 정보를 이용하여 개인형 이동장치에 탑승한 무게, 개인형 이동장치의 기울기, 개인형 이동장치의 진동 여부를 확인하고, 프로세서가 상기 정보를 매개로 개인형 이동장치가 정상 상태가 아니라고 판단한 경우, 사용자가 인식하기 쉽게 알람을 표시함으로써, 개인형 이동장치의 고장 방지를 위한 솔루션을 제공할 수 있다.
도 1은 다양한 실시예들에 따른, 운행 모드를 설명한 도면이다.
도 2는 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다. 도 3은 다양한 실시예들에 따른, 헬멧장치의 구성도이다.
도 4는 다양한 실시예들에 따른, 헬멧 장치가 외부로부터의 물체의 접근 여부에 기반하여 사용자에게 알림을 제공하는 동작을 설명하기 위한 흐름도이다.
도 5a는 다양한 실시예들에 따른, 헬멧 장치가 사용자에게 알림을 제공하는 동작을 설명하기 위한 시퀀스 다이어그램이다.
도 5b는 다양한 실시예들에 따른, 헬멧 장치가 이미지 내에서 물체를 인식하기 위한 영역을 설명하기 위한 도면이다.
도 5c는 다양한 실시예들에 따른, 헬멧 장치가 획득한 이미지의 구조 및 헬멧 장치에 장착된 거울들의 구조를 나타내는 도면이다.
도 6은 다양한 실시예들에 따른, 헬멧 장치가 발광 모듈을 통하여 알림을 제공하는 실시예를 나타내는 도면이다.
도 7은 다양한 실시예들에 따른, 헬멧 장치가 개인형 이동장치를 제어하는 동작을 설명하기 위한 흐름도이다.
도 8은 다양한 실시예들에 따른, 헬멧 장치가 도로의 종류 또는 도로의 상태에 기반하여 개인형 이동장치를 제어하는 실시예를 설명하기 위한 도면이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
도 1은 다양한 실시예들에 따른, 운행 모드를 설명한 도면이다.
도 1을 참조하면, 본 발명의 헬멧 장치(100)는 통신 장치를 매개로 개인형 이동장치(200)를 제어하면서 사용자 장치(300)에 통신을 송수신 할 수 있도록 한다.
본 문서의 다양한 실시예가 따른 헬멧 장치(100)는 일반적으로 사용되는 헬멧으로써, 개인형 이동장치(200)를 타고 이동 시 사고 발생을 미연에 방지하도록 한다. 이를 위해 헬멧 장치(100)는 일반적으로 플라스틱으로 구성되어 사용자의 착용을 편안하게 하면서도, 사용자에게 무게의 부담을 줄일 수 있는 구조로 형성됨이 바람직하다. 또한, 헬멧 장치(100)는 내부에 다수의 전자장치가 구비되도록 내부에 공간이 형성됨이 바람직하다. 또한, 헬멧 장치(100)는 좌우 측 하방에 각각 끈(미인출)이 연결되어 사용자의 얼굴 하방으로 착용되도록 하여 사용자가 착용 시 외부로 탈착되지 않도록 한다.
본 문서의 다양한 실시예가 따른 개인형 이동장치(200)는 일반적으로 사용되는 전동 킥보드(Electric Scooters), 세그웨이(Segway), 전기자전거(Electric Bicycle)과 같이 전기를 매개로 이동하되 한사람만 타고 이동할 수 있도록 하는 이동장치이다. 예시로써, 본 발명의 개인형 이동장치(300)는 전기 모터를 매개로 이동하므로 작으면서 속력이 높으므로 한국 현행법상 반드시 헬멧 장치(100)를 착용해야만 구동하도록 한다. 이에 대한 방법은 자세하게 후술하도록 한다.
본 문서의 다양한 실시예에 따른 사용자 장치(300)는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 사용자 장치(300)는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 사용자 장치(300)는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 사용자 장치(300)를 사용하는 사람 또는 사용자 장치(300)를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. 또한, 사용자 장치(300)는 통신을 전달 받받는다. 무선 통신 또는 유선 통신을 통해서 네트워크(미도시)에 연결되어 사용자 장치(300)와 통신할 수 있다. 무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 이는, 사용자 장치(300)는 통신 모듈(110) 및 제2 통신 모듈(210)의 기능과 달리 외부와도 통신이 가능하도록 구비되어 원거리의 통신이 가능하도록 하기 위함이다.
도 2는 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다. 또한, 도 3은 다양한 실시예들에 따른, 헬멧장치의 구성도이다.
본 문서의 예시에 따르면, 헬멧 장치(100)는 통신 모듈(110), 발광 모듈(120), 센서 모듈(130), 카메라 모듈(140), 스피커 모듈(150), 진동 모듈(160), 프로세서(170) 및 메모리(180)를 구비한다.
또한, 개인형 이동장치(200)는 통신 모듈(210), 모터(220) 센서 모듈 (230), 카메라 모듈(240) 및 스피커 모듈(250)을 구비한다.
통신 모듈(110)은 헬멧 장치(100)에 대한 전기 신호 또는 데이터 값을 신호(예시로써, RF(Radio Frequency)) 신호를 생성하여 사용자 장치 통신 모듈(310)로 보낼 수 있다. 일 실시예에 따르면, 통신 모듈(110) 및 사용자 장치 통신 모듈(310)은 근거리 통신을 기반으로 한다. 또한, 상기 근거리 통신은 블루투스 관련 규격을 기반으로 수행될 수 있다. 또한, 근거리 통신은 블루투스 규격에 따라 10 m 내외(최대 100 m)의 근거리에서 2.45 GHz의 무선 주파수 신호를 송수신할 수 있다. 본 발명의 실시예는 블루투스를 기반으로 한 근거리 통신 기술을 활용하고 있다. 다만, 이는 비제한적으로, RFID(radio frequency identification), 적외선 통신(IrDA, infrared data association), UWB(ultra-wideband), 지그비(ZigBee), Wi-fi(wireless fidelity), 또는 NFC(Near field communication) 중 어느 하나의 기술을 포함할 수 있다. 또한, 통신 모듈(110)은 헬멧 장치(100)의 내측에 설치되는 것이 바람직하며, 후방 내측에 설치되는 것을 예시(도 3 참조)로 들었으나, 설치 위치는 한정되지 않는다.
발광 모듈(120)은 LED 모듈, 소형 전구와 같은 일반적으로 사용되는 발광 장치이고, 소형으로 설치되면서 헬멧 장치(100)의 전방에 설치됨이 바람직하다.(도 3 참조) 또한, 발광 모듈(120)은 개인형 이동장치(200)가 구동되어 전방으로 이동할 때의 빛과 물체가 접근하여 경고하는 빛이 발광 되는 색깔, 세기를 차별화하여 사용자가 손쉽게 경고를 확인할 수 있도록 한다.
센서 모듈(130)은 사용자가 헬멧 장치(100)를 착용하였는지 여부를 감지하고, 감지된 상태에서 대응하는 전기 신호 및 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(130)은 감광 센서, 압력센서, 제스처 센서, 마그네틱 센서, 또는 온도 센서와 같은 사용자의 헬멧 장치(100)의 착용을 감지할 수 있는 다양한 센서를 포함할 수 있다. 예시로써, 센서 모듈(130)은 사용자가 헬멧 장치(100)를 착용할 경우, 사용자가 헬멧 장치(100)을 착용한 상태에서의 빛의 세기, 제스처, 마그네틱, 또는 온도 변화를 감지하고, 이의 정보를 프로세서(170)에 제공한다. 또한, 센서 모듈(130)은 헬멧 장치(100)의 내측에 설치되는 것이 바람직하며, 전방 내측에 설치되는 것을 예시(도 3 참조)로 들었으나, 설치 위치는 한정되지 않는다.
카메라 모듈(140)은 헬멧 장치(100)의 상단에 설치될 수 있고, 측면 또는 정면에 설치될 수 있으며, 설치 위치는 한정되지 않는다. 일 실시예에 따르면, 카메라 모듈(140)은 가시광선, 적외선과 같은 헬멧 장치(100)의 전방에 촬영될 수 있는 다양한 시각적 센서를 포함할 수 있다. 예시로써, 카메라 모듈(140)은 사용자가 개인형 이동장치(200)를 타고 이동할 경우, 헬멧 장치(100) 전방을 촬영하고, 이의 이미지를 프로세서(170)에 제공한다. 또한, 카메라 모듈(140)의 지지대(미인출)의 전방에는 한 쌍의 거울(141,142)이 설치되어 좌방 및 측방을 촬영할 수 있도록 설치된다. 이는 후술하겠지만, 전방의 물체 및 좌우방에서 접근하는 물체를 확인하고 이를 대비할 수 있도록 한다.
스피커 모듈(150)은 일반적으로 사용되는 스피커이고, 소형으로 설치됨이 바람직하며, 사용자의 귀를 자극하되 귀에 손상이 가지 않을 정도의 음파를 발산한다. 또한, 스피커 모듈(150)은 헬멧 장치(100)의 내부에 사용자의 귀에 근접한 부분으로 각각 설치되어(도 3 참조) 사용자가 용이하게 경고음을 인지할 수 있도록 한다.
진동 모듈(160)은 일반적으로 사용되는 진동기이고, 소형으로 설치됨이 바람직하며, 헬멧 장치(100)를 진동시키되 사용자를 불편하지 않도록 한다. 또한, 진동 모듈(160)은 사용자의 헬멧 장치(100)에서 스위치(미도시)를 매개로 진동의 세기를 조절할 수 있도록 구비됨이 바람직하다. 또한, 진동 모듈(160)은 사용자 장치(300)를 매개로 진동의 세기를 조절할 수 있다. 또한, 진동모듈(160)은 헬멧 장치(100)의 내측에 설치되는 것이 바람직하며, 상방 내측에 설치되는 것을 예시(도 3 참조)로 들었으나, 설치 위치는 한정되지 않는다.
프로세서(170)는 헬멧(100)에 설치된 통신 모듈(110), 발광 모듈(120), 센서 모듈(130), 카메라 모듈(140), 스피커 모듈(150), 진동 모듈(160)의 작동을 제어하고, 개인형 이동장치(200)에 설치된 통신 모듈(210)을 통하여 열감지센서(230), 제2카메라 모듈(240), 자이로 센서(250), 로드셀(260), 중력 감지 모듈(270)을 제어한다. 예시로써, 프로세서(170)는 통신 모듈(110)의 작도에 전반적으로 관여하며, 통신 모듈(110)을 매개로 개인형 이동장치(200)의 전자 장치를 구동시키면서, 사용자 장치(300)에 설치된 다수의 전자장치에 신호를 보낼 수 있다. 또 다른 예시로써, 프로세서(170)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 또한, 프로세서(170)는 헬멧 장치(100)의 내측에 설치되는 것이 바람직하며, 후방 내측에 설치되는 것을 예시(도 3 참조)로 들었으나, 설치 위치는 한정되지 않는다.
메모리(180)는 헬멧(100)에 설치된 프로세서(170)의 정보를 저장하는 장치이다. 예시로써, 메모리(180)는 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(180)는, 예를 들면, 관리 서버(400)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(180)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API), 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다. 커널, 미들웨어, 또는 API의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널은, 예를 들면, 다른 프로그램들(예: 미들웨어, API, 또는 어플리케이션 프로그램)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 제1 프로세서(170) 또는 메모리(180) 등)을 제어 또는 관리할 수 있다. 또한, 커널은 미들웨어, API, 또는 어플리케이션 프로그램에서 관리 서버(400)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다. 헬멧 장치(100)의 내측에 설치되는 것이 바람직하며, 상방 내측에 설치되는 것을 예시(도 3 참조)로 들었으나, 설치 위치는 한정되지 않는다.
통신 모듈(210)은 개인형 이동장치(200)에 설치되고, 기능은 통신 모듈(110)과 동일하므로 이에 대한 자세한 내용은 생략한다.
모터(220)는 개인형 이동장치(200)의 바퀴를 회전시켜 개인형 이동장치(200)가 이동하도록 설치된다. 모터(220)는 프로세서(170)의 제어를 받을 수 있고, 사용자가 운전대에 설치된 이동 기능을 매개로 구동될 수 있다.
센서 모듈(230)는 개인형 이동장치(200)에 설치된다. 센서 모듈(230)은 열 감지 센서, 자이로 센서, 로드셀, 진동 감지 모듈로 구비될 수 있으며, 이에 따른 구조 및 사용 방법은 한정되지 않는다. 또한, 센서 모듈(230)는 각각의 감지 데이터를 통신 모듈을 통하여 프로세서(170)에 전달한다.
제2 카메라 모듈(240)은 개인형 이동장치(200)에 사용자가 탑승하는 방향으로 설치됨이 바람직하고, 기능은 카메라 모듈(140)과 동일하므로 이에 대한 자세한 내용은 생략한다. 또한, 제2 카메라 모듈(240)은 상기 감지된 이미지 정보를 통신 모듈(210)을 매개로 프로세서(170)에 전달한다.
관리 서버(400)는 통신 모듈(110) 또는 사용자 장치 통신 모듈(310)과 통신을 송수신 하도록 하는 중앙 시스템이다. 어떤 실시예에서는, 관리 서버(400)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. 일 실시예에 따르면, 관리 서버(400)는 본 개시에 따라 동작하는 어플리케이션을 구동하기 위한 서버일 수 있다. 다른 실시예에 따르면, 관리 서버(400)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(170)는, 예를 들면, 관리 서버(400)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
도 4는 다양한 실시예들에 따른, 헬멧 장치(예: 도 2의 헬멧 장치(100))가 외부로부터의 물체의 접근 여부에 기반하여 사용자에게 알림을 제공하는 동작을 설명하기 위한 흐름도이다.
도 5a는 다양한 실시예들에 따른, 헬멧 장치(100)가 사용자에게 알림을 제공하는 동작을 설명하기 위한 시퀀스 다이어그램이다.
도 5b는 다양한 실시예들에 따른, 헬멧 장치(100)가 이미지 내에서 물체를 인식하기 위한 영역을 설명하기 위한 도면이다.
도 5c는 다양한 실시예들에 따른, 헬멧 장치(100)가 획득한 이미지의 구조 및 헬멧 장치(100)에 장착된 거울들의 구조를 나타내는 도면이다.
도 6은 다양한 실시예들에 따른, 헬멧 장치(100)가 발광 모듈(예: 도 2의 발광 모듈(120))을 통하여 알림을 제공하는 실시예를 나타내는 도면이다.
401 동작에서, 다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 센서 모듈(예: 도 2의 센서 모듈(130))을 이용하여 사용자가 헬멧 장치(100)를 착용하였는지를 판단할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 센서 모듈(130)로부터 측정된 센서 값이 미리 정해진 시간 동안 미리 정해진 값을 초과하는 것에 기반하여, 사용자가 헬멧 장치(100)를 착용한 것으로 결정할 수 있다. 일 실시예에 따르면, 센서 모듈(130)은 도 3의 착용 여부 판단 센서(131)로서, 열 감지 센서, 압력 센서, 또는 근접 센서를 포함할 수 있다. 예를 들어, 헬멧 장치(100)는 사용자의 이마가 접촉하는 지점에 위치하는 열 감지 센서, 압력 센서, 또는 근접 센서에서 측정된 센서 값이 미리 정해진 시간(예: 10초) 동안 미리 정해진 값을 초과하는 경우, 사용자가 헬멧 장치(100)를 착용한 것으로 결정할 수 있다. 구체적으로, 사용자의 체온으로 인하여 열 감지 센서의 센서 값이 정해진 값을 초과하거나, 사용자의 머리와 헬멧 장치의 밀착으로 인하여 압력 센서 또는 근접 센서의 센서 값이 정해진 값을 초과하는 경우, 헬멧 장치(100)는 사용자가 헬멧 장치(100)를 착용한 것으로 결정할 수 있다. 예를 들어, 도 5a를 참조하면, 헬멧 장치(100)는 사용자가 헬멧 장치(100)를 착용하였음을 감지(511)할 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 센서 모듈(130)로부터 측정된 센서 값이 미리 정해진 값 이하인 것에 기반하여, 사용자가 헬멧 장치(100)를 미착용한 것으로 결정할 수 있다.
403 동작에서, 다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 사용자가 헬멧 장치(100)를 착용한 것에 응답하여, 통신 모듈(예: 도 2의 통신 모듈(110))을 통하여 헬멧 장치(100)와 연동된 사용자 장치(예: 도 2의 사용자 장치(300))로 헬멧 장치(100)의 착용을 나타내는 제1 송신 신호를 송신할 수 있다. 예를 들어, 도 5a를 참조하면, 헬멧 장치(100)는 통신 모듈(110)을 통하여 사용자 장치(300)로 헬멧 장치(100)의 착용을 나타내는 제1 송신 신호를 송신(513)할 수 있다.
일 실시예에 따르면, 사용자 장치(300)는 헬멧 장치(100)로부터 제1 송신 신호를 수신하는 것에 응답하여, 헬멧 장치(100)와 연동된 개인형 이동 장치(예: 도 2의 개인형 이동장치(200))로 개인형 이동장치(200)의 운행을 허용하는 운행 허가 신호를 송신할 수 있다. 예를 들어, 도 5a를 참조하면, 사용자 장치(300)는 제1 송신 신호를 수신하는 것에 응답하여, 개인형 이동장치(200)로 운행 허가 신호를 송신(515)할 수 있다. 일 실시예에 따르면, 개인형 이동장치(200)는 개인형 이동 장치(200)의 상태를 나타내는 상태 정보를 사용자 장치(300)로 송신할 수 있다. 예를 들어, 도 5a를 참조하면, 개인형 이동장치(200)는 운행 허가 신호의 수신에 응답하여, 운행 불가 상태로부터 운행 허가 상태로 동작 상태를 변경한 후에 사용자 장치(300)로 개인형 이동장치(200)의 상태 정보(예: 운행 허가 상태)를 송신(517)할 수 있다. 운행 허가 상태는 개인형 이동장치(200)의 모터(예: 도 2의 모터(220))가 활성화되어 개인형 이동장치(200)가 모터(220)의 구동에 의하여 이동 가능한 상태를 의미할 수 있고, 운행 불가 상태는 개인형 이동장치(200)의 모터(220)가 비활성화되어 개인형 이동장치(200)의 이동이 불가능한 상태를 의미할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 사용자가 헬멧 장치(100)를 착용하는 도중 상기 헬멧 장치(100)를 미착용(또는 탈모)하는 경우, 통신 모듈(110)을 통하여 헬멧 장치(100)의 미착용을 나타내는 제2 송신 신호를 사용자 장치(300)로 송신할 수 있다. 이 경우, 사용자 장치(300)는 상기 제2 송신 신호의 수신에 응답하여, 개인형 이동장치(200)의 운행을 허용하지 않는 운행 불가 신호를 개인형 이동장치(200)로 송신하여 개인형 이동장치(200)의 동작 상태를 운행 허가 상태로부터 운행 불가 상태로 변경하도록 할 수 있다.
405 동작에서, 다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 통신 모듈(110)을 통하여 사용자 장치(300)로부터 제1 송신 신호에 대한 제1 응답 신호를 수신하는 것에 응답하여, 카메라 모듈(예: 도 2의 카메라 모듈(140))을 활성화한 후, 카메라 모듈(140)을 통하여 이미지를 획득한다.
다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 사용자 장치(300)로부터 개인형 이동장치(200)의 상태에 대응하는 응답 신호를 수신할 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 사용자 장치(300)로부터 제1 송신 신호에 대한 응답(ack)으로서, 개인형 이동장치(200)의 운행 허가 상태에 대응하는 제1 응답 신호를 수신할 수 있다. 예를 들어, 도 5a를 참조하면, 사용자 장치(300)는 개인형 이동장치(200)의 상태 정보(예: 운행 허가 상태)를 수신하는 것에 응답하여, 헬멧 장치(100)로 상기 운행 허가 상태를 나타내는 제1 응답 신호를 송신(519)할 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 사용자 장치(300)로부터 제2 송신 신호에 대한 응답으로서, 개인형 이동장치(200)의 운행 불가 상태에 대응하는 제2 응답 신호를 수신할 수 있다.
다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 제1 응답 신호를 수신하는 것에 응답하여, 카메라 모듈(140)을 활성화한 후, 활성화된 카메라 모듈(140)을 통하여 이미지를 획득할 수 있다. 예를 들어, 도 5a를 참조하면, 헬멧 장치(100)는 제1 응답 신호를 수신(519)하는 것에 응답하여, 카메라 모듈(140)을 활성화(521)하고, 카메라 모듈(140)을 통하여 이미지를 획득할 수 있다.
407 동작에서, 다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 카메라 모듈(140)을 통하여 획득한 이미지에 기반하여 외부로부터의 물체의 접근 여부를 판단할 수 있다. 예를 들어, 도 5a를 참조하면, 헬멧 장치(100)는 활성화된 카메라 모듈(140)을 통하여 획득한 이미지를 이용하여 물체의 접근을 감지(523)할 수 있다.
다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 딥러닝 기반의 객체 인식 알고리즘을 이용하여, 카메라 모듈(140)을 통하여 획득한 이미지로부터 물체를 인식할 수 있다. 예를 들어, 헬멧 장치(100)는 획득한 이미지를 딥러닝 기반의 객체 인식 알고리즘에 입력함으로써, 해당 이미지 내에서의 특정 물체들(예: 사람, 가로등, 자동차 등)을 인식할 수 있다. 일 실시예에 따르면, 객체 인식 알고리즘은, YOLO(You Only Look Once) 모델, DETR(DEtection TRansformer) 모델, SSD(Single Shot Detector) 모델, Faster R-CNN 모델, CornerNet 모델, 또는 CenterNet 모델 중 하나를 포함할 수 있고, 상기 예는 하나의 예시일 뿐 이에 한정되지 않고, 당업자에 의하여 실시 가능한 다양한 알고리즘들을 포함할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 획득한 이미지의 전체 영역 중에서 이미지의 중앙 지점으로부터 미리 정해진 범위에 해당하는 중앙 영역을 제외하고 나머지 영역 내에서 물체를 인식할 수 있다. 예를 들어, 도 5b를 참조하면, 헬멧 장치(100)는 카메라 모듈(140)을 통하여 획득한 이미지(500)의 전체 영역 중에서 이미지(500)의 중앙 지점으로부터 미리 정해진 범위에 해당하는 중앙 영역(510)을 제외하고 나머지 영역(520) 내에서 물체를 인식할 수 있다.
일 실시예에 따르면, 카메라 모듈(140)을 통하여 획득한 이미지는, 카메라 모듈(140)의 촬영 방향에서의 제1 물체의 접근을 검출하기 위한 제1 영역, 상기 촬영 방향의 좌측 후방에서의 제2 물체의 접근을 검출하기 위한 제2 영역, 및 상기 촬영 방향의 우측 후방에서의 제3 물체의 접근을 검출하기 위한 제3 영역으로 구분될 수 있다. 예를 들어, 도 5c의 (a)를 참조하면, 카메라 모듈(140)을 통하여 획득한 이미지(500)는, 카메라 모듈(140)의 촬영 방향에서의 제1 물체의 접근을 검출하기 위한 제1 영역(501), 상기 촬영 방향의 좌측 후방에서의 제2 물체의 접근을 검출하기 위한 제2 영역(502), 및 상기 촬영 방향의 우측 후방에서의 제3 물체의 접근을 검출하기 위한 제3 영역(503)으로 구분될 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 제2 영역(502)을 나타내기 위하여 카메라 모듈(140)에 대하여 제1 거리만큼 이격되고 제1 각도만큼 기울어진 제1 거울 및 제3 영역(503)을 나타내기 위하여 카메라 모듈(140)에 대하여 제2 거리만큼 이격되고 제2 각도만큼 기울어진 제2 거울을 포함할 수 있다. 예를 들어, 도 5c의 (b)를 참조하면, 헬멧 장치(100)는 제2 영역(502)을 나타내기 위하여 카메라 모듈(140)에 대하여 제1 거리(d1)만큼 이격되고 제1 각도(r1)만큼 기울어진 제1 거울(141) 및 제3 영역(503)을 나타내기 위하여 카메라 모듈(140)에 대하여 제2 거리(d2)만큼 이격되고 제2 각도(r2)만큼 기울어진 제2 거울(142)을 포함할 수 있다.
다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 딥러닝 기반의 깊이 추정(depth estimation) 알고리즘을 이용하여, 헬멧 장치(100)와 물체 사이의 거리를 추정할 수 있다. 예를 들어, 헬멧 장치(100)는 이미지 내에서 물체가 차지하는 영역(예: 경계 상자(bounding box))에 대응하는 이미지를 딥러닝 기반의 깊이 추정 알고리즘에 입력함으로써, 해당 물체까지의 거리를 추정할 수 있다. 일 실시예에 따르면, 깊이 추정 알고리즘은, DPSNet(Deep Plane Sweep Network) 모델 또는 DenseDepth 모델 중 하나를 포함할 수 있고, 상기 예는 하나의 예시일 뿐 이에 한정되지 않고, 당업자에 의하여 실시 가능한 다양한 알고리즘들을 포함할 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 물체까지의 거리를 추정함으로써, 헬멧 장치(100)에 대한 물체의 시간 변화량에 따른 거리 변화량(예: 속력)을 산출할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 물체까지의 추정된 거리가 미리 정해진 거리 이내인 경우, 물체가 접근한 것으로 결정할 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 물체까지의 추정된 거리가 미리 정해진 거리 이내이고, 헬멧 장치(100)에 대한 물체의 속력이 미리 정해진 값을 초과하는 경우, 물체가 접근한 것으로 결정할 수 있다.
409 동작에서, 다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 외부로부터 물체가 접근하는 것에 응답하여, 사용자에게 알림을 제공할 수 있다. 예를 들어, 도 5a를 참조하면, 헬멧 장치(100)는 물체의 접근을 감지하는 경우, 사용자에게 알림을 제공(525)할 수 있다.
다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 물체가 접근하는 것에 응답하여, (1)빛을 발산하도록 발광 모듈(예: 도 2의 발광 모듈(120))을 제어하는 동작, (2)사운드를 출력하도록 스피커 모듈(예: 도 2의 스피커 모듈(150))을 제어하는 동작, 또는 (3)진동을 발생시키도록 진동 모듈(예: 도 2의 진동 모듈(160))을 제어하는 동작 중 적어도 하나를 수행할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 이미지(500)의 제1 영역(501), 제2 영역(502), 및 제3 영역(503) 중에서 제1 영역(501)에서만 물체의 접근을 검출하는 경우, 전방에서 물체가 접근함을 사용자가 인식할 수 있도록 발광 모듈(120)의 미리 정해진 중앙 영역을 통하여 빛을 발산할 수 있다. 예를 들어, 도 5c 및 도 6의 (a)를 참조하면, 헬멧 장치(100)는 제1 영역(501)에서만 물체의 접근을 검출하는 경우, 발광 모듈(120)의 미리 정해진 중앙 영역(601)을 통하여 빛을 발산하도록 발광 모듈(120)을 제어할 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 이미지(500)의 제1 영역(501), 제2 영역(502), 및 제3 영역(503) 중에서 제2 영역(502)에서만 물체의 접근을 검출하는 경우, 좌측 후방에서 물체가 접근함을 사용자가 인식할 수 있도록 발광 모듈(120)의 미리 정해진 좌측 영역을 통하여 빛을 발산할 수 있다. 예를 들어, 도 5c 및 도 6의 (a)를 참조하면, 헬멧 장치(100)는 제2 영역(502)에서만 물체의 접근을 검출하는 경우, 발광 모듈(120)의 미리 정해진 좌측 영역(602)을 통하여 빛을 발산하도록 발광 모듈(120)을 제어할 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 이미지(500)의 제1 영역(501), 제2 영역(502), 및 제3 영역(503) 중에서 제3 영역(503)에서만 물체의 접근을 검출하는 경우, 좌측 후방에서 물체가 접근함을 사용자가 인식할 수 있도록 발광 모듈(120)의 미리 정해진 좌측 영역을 통하여 빛을 발산할 수 있다. 예를 들어, 도 5c 및 도 6의 (a)를 참조하면, 헬멧 장치(100)는 제3 영역(503)에서만 물체의 접근을 검출하는 경우, 발광 모듈(120)의 미리 정해진 우측 영역(603)을 통하여 빛을 발산하도록 발광 모듈(120)을 제어할 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 이미지(500)의 제1 영역(501), 제2 영역(502), 또는 제3 영역(503) 중에서 적어도 두 개의 영역 각각에서 물체들의 접근을 검출하는 경우, 여러 방향에서의 물체의 접근을 사용자에게 더욱 명확히 경고하기 위하여 발광 모듈(120)의 전체 영역을 통하여 빛을 발산할 수 있다. 예를 들어, 도 5c 및 도 6의 (b)를 참조하면, 헬멧 장치(100)는 제1 영역(501)에서 제1 물체의 접근을 검출하고 제2 영역(502)에서 제2 물체의 접근을 검출하는 경우, 발광 모듈(120)의 전체 영역(604)을 통하여 빛을 발산하도록 발광 모듈(120)을 제어할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 통신 모듈(110)을 통하여 개인형 이동장치(200)로부터 개인형 이동장치(200)에서 측정된 진동 데이터를 수신하고, 상기 진동 데이터가 제1 미리 정해진 값 이하인 상태에서 외부로부터 물체가 접근하는 것에 응답하여, 진동 모듈(160)을 통하여 제1 진동 세기를 갖는 제1 진동 패턴을 발생시킬 수 있다. 또한, 헬멧 장치(100)는 상기 진동 데이터가 제1 미리 정해진 값을 초과하는 상태에서 외부로부터 물체가 접근하는 것에 응답하여, 진동 모듈(160)을 통하여 제1 진동 세기 보다 큰 제2 진동 세기를 갖는 제1 진동 패턴을 발생시킬 수 있다. 일 실시예에 따르면, 헬멧 장치(100)는 알림의 제공 방식이 진동 모듈(160)을 통하여 알림을 제공하는 제1 방식으로 설정된 상태에서, 개인형 이동장치(200)에서 측정된 진동 데이터가 제1 미리 정해진 값 보다 큰 제2 미리 정해진 값을 초과하는 경우, 알림의 제공 방식을 제1 방식으로부터 스피커 모듈(150) 및 발광 모듈(120)을 통하여 알림을 제공하는 제2 방식으로 변경할 수 있다. 이 때 헬멧 장치(100)가 제2 방식으로 알림을 제공하도록 설정된 상태에서는 진동 모듈(160)은 비활성화될 수 있다.
도 7은 다양한 실시예들에 따른, 헬멧 장치(예: 도 2의 헬멧 장치(100))가 개인형 이동장치(예: 도 2의 개인형 이동장치(200))를 제어하는 동작을 설명하기 위한 흐름도이다.
701 동작에서, 다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 통신 모듈(예: 도 2의 통신 모듈(110))을 통하여 개인형 이동장치(200)로부터 개인형 이동장치(200)의 상태를 나타내는 상태 정보를 수신할 수 있다. 일 실시예에 따르면, 개인형 이동장치(200)의 상태 정보는 도 5a의 상태 정보(517)인, 운행 허가 상태 또는 운행 불가 상태에 관한 정보 이외에 개인형 이동장치(200)에 포함된 센서 모듈(예: 도 2의 센서 모듈(230))을 통하여 획득한 상태 정보를 포함할 수 있다. 예를 들어, 헬멧 장치(100)는 개인형 이동장치(200)에 탑승한 사용자의 무게를 식별할 수 있도록, 개인형 이동장치(200)의 압력 센서를 통하여 측정된 사용자의 무게 데이터를 상기 상태 정보로서 수신할 수 있다. 또 다른 예를 들어, 헬멧 장치(100)는 개인형 이동장치(200)의 현재 기울기 상태를 식별할 수 있도록, 개인형 이동장치(200)의 가속도 센서, 자이로 센서, 지자기 센서 중 적어도 하나를 통하여 측정된 개인형 이동장치(200)의 기울기 정보를 상기 상태 정보로서 수신할 수 있다.
703 동작에서, 다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 상기 상태 정보에 기반하여 개인형 이동장치(200)의 상태가 특정 상태에 대응하는지를 판단할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 개인형 이동장치(200)로부터 수신된 사용자의 무게 데이터가 미리 정해진 값을 초과하는지를 판단할 수 있고, 상기 무게 데이터가 상기 미리 정해진 값을 초과하는 경우, 개인형 이동장치(200)의 상태가 특정 상태에 대응하는 것으로 결정할 수 있다. 예를 들어, 헬멧 장치(100)는 개인형 이동장치(200)로부터 수신된 사용자의 무게 데이터가 두 명의 무게에 해당하는 미리 정해진 값(예: 110kg)을 초과하는 경우, 개인형 이동장치(200)의 상태가 정원 초과 상태인 것으로 결정할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 개인형 이동장치(200)가 운행 중인 상태에서 개인형 이동장치(200)로부터 수신된 개인형 이동장치(200)의 기울기 정보가 미리 정해진 기울기 상태에 대응하는지를 판단할 수 있고, 상기 기울기 정보가 미리 정해진 기울기 상태에 대응하는 경우, 개인형 이동장치(200)의 상태가 특정 상태에 대응하는 것으로 결정할 수 있다. 예를 들어, 헬멧 장치(100)는 개인형 이동장치(200)로부터 수신된 개인형 이동장치(200)의 기울기 상태(또는, 자세 상태)가 일정 각도 이상 기울어진 자세에 해당하는 미리 정해진 기울기 상태에 대응하는 경우, 개인형 이동장치(200)의 상태가 비정상 운행 상태인 것으로 결정할 수 있다.
705 동작에서, 다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 개인형 이동장치(200)의 상태가 특정 상태에 대응하는 경우, 특정 상태에 대하여 미리 지정된 특정 명령을 개인형 이동장치(200)로 통신 모듈(110)을 통하여 송신할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 개인형 이동장치(200)로부터 수신된 사용자의 무게 데이터가 미리 정해진 값을 초과하는 경우, 개인형 이동장치(200)의 스피커 모듈(예: 도 2의 스피커 모듈(250))을 이용하여 알림을 출력하도록 하는 특정 명령을 통신 모듈(110)을 통하여 개인형 이동장치(200)로 송신할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 개인형 이동장치(200)가 운행 중인 상태에서 개인형 이동장치(200)로부터 수신된 개인형 이동장치(200)의 기울기 상태가 미리 정해진 기울기 상태에 대응하는 경우, 개인형 이동장치(200)의 속력을 점진적으로 감소시키도록 하는 특정 명령을 통신 모듈(110)을 통하여 개인형 이동장치(200)로 송신할 수 있다.
도 8은 다양한 실시예들에 따른, 헬멧 장치(예: 도 2의 헬멧 장치(100))가 도로의 종류 또는 도로의 상태에 기반하여 개인형 이동장치(예: 도 2의 개인형 이동장치(200))를 제어하는 실시예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 딥러닝 기반의 시멘틱 세그멘테이션(semantic segmentation) 모델을 이용하여, 카메라 모듈(예: 도 2의 카메라 모듈(140))을 통하여 획득한 이미지로부터 헬멧 장치(100)와 연동된 개인형 이동장치(200)가 주행 중인 도로의 종류 또는 도로의 상태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 딥러닝 기반의 시멘틱 세그멘테이션 모델을 이용하여, 획득한 이미지에 기반하여 개인형 이동장치(200)가 주행 중인 도로의 종류를 결정할 수 있다. 예를 들어, 도 8의 <801>을 참조하면, 헬멧 장치(100)는 획득한 이미지를 시멘틱 세그멘테이션 모델에 적용함으로써, 개인형 이동장치(200)가 주행 중인 도로의 종류가 차도인 것으로 결정할 수 있다. 또 다른 예를 들어, 도 8의 <802>를 참조하면, 헬멧 장치(100)는 획득한 이미지를 시멘틱 세그멘테이션 모델에 적용함으로써, 개인형 이동장치(200)가 주행 중인 도로의 종류가 인도인 것으로 결정할 수 있다. 상술한 도로의 종류는 하나의 실시예일 뿐, 시멘틱 세그멘테이션 모델을 통하여 판단 가능한 도로의 종류는 이에 한정되지 않고, 시멘틱 세그멘테이션 모델은 다양한 도로의 종류(예: 차도, 인도, 자전거 도로, 횡단 보도 등)를 구분할 수 있도록 학습될 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 딥러닝 기반의 시멘틱 세그멘테이션 모델을 이용하여, 획득한 이미지에 기반하여 개인형 이동장치(200)가 주행 중인 도로의 상태를 결정할 수 있다. 예를 들어, 도 8의 <803>을 참조하면, 헬멧 장치(100)는 획득한 이미지를 시멘틱 세그멘테이션 모델에 적용함으로써, 개인형 이동장치(200)가 주행 중인 도로의 상태가 특정 상태(예: 빙판길, 빗길 등)인 것으로 결정할 수 있다. 상술한 도로의 상태는 하나의 실시예일 뿐, 시멘틱 세그멘테이션 모델을 통하여 판단 가능한 도로의 상태는 이에 한정되지 않고, 시멘틱 세그멘테이션 모델은 다양한 도로의 상태(예: 빙판길, 빗길, 눈길, 포장길, 비포장길 등)를 구분할 수 있도록 학습될 수 있다.
다양한 실시예들에 따르면, 헬멧 장치(100)(예: 도 2의 프로세서(170))는 개인형 이동장치(200)가 주행 중인 도로의 종류 또는 도로의 상태 중 적어도 하나에 기반하여, 개인형 이동장치(200)에서 출력 가능한 최대 속력을 제어하거나 헬멧 장치(100)를 통하여 알림을 제공할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 결정된 도로의 종류가 제1 종류(예: 횡단 보도)이거나 결정된 도로의 상태가 제1 상태(예: 빗길)인 경우, 개인형 이동장치(200)에서 출력 가능한 최대 속력을 미리 설정된 제1 속력으로부터 제2 속력으로 감소시키도록 하는 명령을 통신 모듈(110)을 통하여 개인형 이동장치(200)로 송신할 수 있다.
일 실시예에 따르면, 헬멧 장치(100)는 결정된 도로의 종류가 제2 종류(예: 차도)이거나 결정된 도로의 상태가 제2 상태(예: 눈길)인 경우, 사용자에게 경고하기 위한 알림으로서, 스피커 모듈(예: 도 2의 스피커 모듈(150))을 통하여 경고음을 출력하거나 발광 모듈(예: 도 2의 발광 모듈(120))을 통하여 빛을 발산시킬 수 있다.
[청구항 패러프레이징]
다양한 실시예들에 따르면, 헬멧 장치는, 통신 모듈, 센서 모듈, 카메라 모듈, 및 프로세서를 포함하고, 상기 프로세서는, 상기 센서 모듈을 이용하여 사용자가 상기 헬멧 장치를 착용하였는지를 판단하고, 상기 사용자가 상기 헬멧 장치를 착용한 것에 응답하여, 상기 통신 모듈을 통하여 상기 헬멧 장치와 연동된 사용자 장치로 상기 헬멧 장치의 착용을 나타내는 제1 송신 신호를 송신하고, 상기 통신 모듈을 통하여 상기 사용자 장치로부터 상기 제1 송신 신호에 대한 제1 응답 신호를 수신하는 것에 응답하여, 상기 카메라 모듈을 활성화한 후 상기 카메라 모듈을 통하여 획득한 이미지에 기반하여 외부로부터의 물체의 접근 여부를 판단하고, 및 상기 물체가 접근하는 것에 응답하여, 상기 사용자에게 알림을 제공하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 센서 모듈은, 열 감지 센서, 압력 센서, 또는 근접 센서를 포함하고, 상기 프로세서는, 상기 센서 모듈로부터 측정된 센서 값이 미리 정해진 시간 동안 미리 정해진 값을 초과하는 것에 기반하여, 상기 사용자가 상기 헬멧 장치를 착용한 것으로 결정하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서는, 딥러닝 기반의 객체 인식 알고리즘을 이용하여, 상기 카메라 모듈을 통하여 획득한 상기 이미지로부터 상기 물체를 인식하고, 딥러닝 기반의 깊이 추정(depth estimation) 알고리즘을 이용하여, 상기 헬멧 장치와 상기 물체 사이의 거리를 추정하고, 및 상기 물체까지의 상기 추정된 거리가 미리 정해진 거리 이내인 경우, 상기 물체가 접근한 것으로 결정하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서는, 상기 이미지의 전체 영역 중에서 상기 이미지의 중앙 지점으로부터 미리 정해진 범위에 해당하는 중앙 영역을 제외하고 나머지 영역 내에서 상기 물체를 인식하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 헬멧 장치는 스피커 모듈, 진동 모듈, 및 발광 모듈을 더 포함하고, 상기 프로세서는, 상기 물체가 접근하는 것에 응답하여, (1)빛을 발산하도록 상기 발광 모듈을 제어하는 동작, (2)사운드를 출력하도록 상기 스피커 모듈을 제어하는 동작, 또는 (3)진동을 발생시키도록 상기 진동 모듈을 제어하는 동작 중 적어도 하나를 수행하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 이미지는 상기 카메라 모듈의 촬영 방향에서의 제1 물체의 접근을 검출하기 위한 제1 영역, 상기 촬영 방향의 좌측 후방에서의 제2 물체의 접근을 검출하기 위한 제2 영역, 및 상기 촬영 방향의 우측 후방에서의 제3 물체의 접근을 검출하기 위한 제3 영역으로 구분되고, 상기 제2 영역을 나타내기 위하여 상기 카메라 모듈에 대하여 제1 거리만큼 이격되고 제1 각도만큼 기울어진 제1 거울 및 상기 제3 영역을 나타내기 위하여 상기 카메라 모듈에 대하여 제2 거리만큼 이격되고 제2 각도만큼 기울어진 제2 거울을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 프로세서는, 상기 이미지의 상기 제1 영역, 상기 제2 영역, 및 상기 제3 영역 중에서 상기 제1 영역에서만 상기 제1 물체의 접근을 검출하는 경우, 상기 발광 모듈의 중앙 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하고, 상기 제2 영역에서만 상기 제2 물체의 접근을 검출하는 경우, 상기 발광 모듈의 좌측 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하고, 상기 제3 영역에서만 상기 제3 물체의 접근을 검출하는 경우, 상기 발광 모듈의 우측 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하고, 및 상기 이미지의 적어도 두 개의 영역 각각에서 물체들의 접근을 검출하는 경우, 상기 발광 모듈의 전체 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서는, 상기 통신 모듈을 통하여 상기 헬멧 장치와 연동된 개인형 이동장치로부터 상기 개인형 이동장치에서 측정된 진동 데이터를 수신하고, 상기 진동 데이터가 제1 미리 정해진 값 이하인 상태에서 상기 물체가 접근하는 것에 응답하여, 제1 진동 세기를 갖는 제1 진동 패턴을 발생시키도록 상기 진동 모듈을 제어하고, 및 상기 진동 데이터가 상기 제1 미리 정해진 값을 초과하는 상태에서 상기 물체가 접근하는 것에 응답하여, 상기 제1 진동 세기 보다 큰 제2 진동 세기를 갖는 상기 제1 진동 패턴을 발생시키도록 상기 진동 모듈을 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서는, 상기 알림의 제공 방식이 상기 진동 모듈을 통하여 상기 알림을 제공하는 제1 방식으로 설정된 상태에서, 상기 진동 데이터가 상기 제1 미리 정해진 값 보다 큰 제2 미리 정해진 값을 초과하는 경우, 상기 알림의 제공 방식을 상기 제1 방식으로부터 상기 스피커 모듈 및 상기 발광 모듈을 통하여 상기 알림을 제공하는 제2 방식으로 변경하도록 설정될 수 있고, 상기 제2 방식에서 상기 진동 모듈은 비활성화될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서는, 상기 통신 모듈을 통하여 상기 개인형 이동장치로부터 상기 개인형 이동장치에서 측정된 무게 데이터를 수신하고, 상기 무게 데이터가 미리 정해진 값을 초과하는 경우, 상기 개인형 이동장치의 스피커 모듈을 이용하여 알림을 출력하도록 하는 명령을 상기 통신 모듈을 통하여 상기 개인형 이동장치로 송신하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서는, 상기 통신 모듈을 통하여 상기 개인형 이동장치로부터 상기 개인형 이동장치의 기울기 정보를 수신하고, 상기 개인형 이동장치가 운행 중인 상태에서 상기 기울기 정보에 기초하여 상기 개인형 이동장치의 기울기 상태가 미리 정해진 기울기 상태에 대응하는 것으로 결정되면, 상기 개인형 이동장치의 속력을 점진적으로 감소시키도록 하는 명령을 상기 통신 모듈을 통하여 상기 개인형 이동장치로 송신하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서는, 딥러닝 기반의 시멘틱 세그멘테이션(semantic segmentation) 모델을 이용하여 상기 이미지로부터 상기 헬멧 장치와 연동된 개인형 이동장치가 주행 중인 도로의 종류 또는 상기 도로의 상태 중 적어도 하나를 결정하고, 상기 결정된 도로의 종류가 제1 종류(횡단 보도)이거나 상기 결정된 도로의 상태가 제1 상태인 경우, 상기 개인형 이동장치에서 출력 가능한 최대 속력을 미리 설정된 제1 속력으로부터 제2 속력으로 감소시키도록 하는 명령을 상기 통신 모듈을 통하여 상기 개인형 이동장치로 송신하고, 및 상기 결정된 도로의 종류가 제2 종류(차도)이거나 상기 결정된 도로의 상태가 제2 상태인 경우, 제1 알림을 제공하도록 설정될 수 있다.
다양한 실시예들에 따르면, 헬멧 장치의 동작 방법은, 상기 헬멧 장치의 센서 모듈을 이용하여 사용자가 상기 헬멧 장치를 착용하였는지를 판단하는 동작, 상기 사용자가 상기 헬멧 장치를 착용한 것에 응답하여, 상기 헬멧 장치의 통신 모듈을 통하여 상기 헬멧 장치와 연동된 사용자 장치로 상기 헬멧 장치의 착용을 나타내는 제1 송신 신호를 송신하는 동작, 상기 통신 모듈을 통하여 상기 사용자 장치로부터 상기 제1 송신 신호에 대한 제1 응답 신호를 수신하는 것에 응답하여, 상기 헬멧 장치의 카메라 모듈을 활성화한 후 상기 카메라 모듈을 통하여 획득한 이미지에 기반하여 외부로부터의 물체의 접근 여부를 판단하는 동작, 및 상기 물체가 접근하는 것에 응답하여, 상기 사용자에게 알림을 제공하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 센서 모듈은, 열 감지 센서, 압력 센서, 또는 근접 센서를 포함하고, 상기 헬멧 장치를 착용하였는지를 판단하는 동작은, 상기 센서 모듈로부터 측정된 센서 값이 미리 정해진 시간 동안 미리 정해진 값을 초과하는 것에 기반하여, 상기 사용자가 상기 헬멧 장치를 착용한 것으로 결정하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 물체의 접근 여부를 판단하는 동작은, 딥러닝 기반의 객체 인식 알고리즘을 이용하여, 상기 카메라 모듈을 통하여 획득한 상기 이미지로부터 상기 물체를 인식하는 동작, 딥러닝 기반의 깊이 추정(depth estimation) 알고리즘을 이용하여, 상기 헬멧 장치와 상기 물체 사이의 거리를 추정하는 동작, 및 상기 물체까지의 상기 추정된 거리가 미리 정해진 거리 이내인 경우, 상기 물체가 접근한 것으로 결정하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 물체를 인식하는 동작은, 상기 이미지의 전체 영역 중에서 상기 이미지의 중앙 지점으로부터 미리 정해진 범위에 해당하는 중앙 영역을 제외하고 나머지 영역 내에서 상기 물체를 인식하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 알림을 제공하는 동작은, 상기 물체가 접근하는 것에 응답하여, (1)빛을 발산하도록 상기 발광 모듈을 제어하는 동작, (2)사운드를 출력하도록 상기 스피커 모듈을 제어하는 동작, 또는 (3)진동을 발생시키도록 상기 진동 모듈을 제어하는 동작 중 적어도 하나를 수행하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 알림을 제공하는 동작은, 상기 이미지의 상기 제1 영역, 상기 제2 영역, 및 상기 제3 영역 중에서 상기 제1 영역에서만 상기 제1 물체의 접근을 검출하는 경우, 상기 발광 모듈의 중앙 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하는 동작, 상기 제2 영역에서만 상기 제2 물체의 접근을 검출하는 경우, 상기 발광 모듈의 좌측 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하는 동작, 상기 제3 영역에서만 상기 제3 물체의 접근을 검출하는 경우, 상기 발광 모듈의 우측 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하는 동작, 및 상기 이미지의 적어도 두 개의 영역 각각에서 물체들의 접근을 검출하는 경우, 상기 발광 모듈의 전체 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 알림을 제공하는 동작은, 상기 통신 모듈을 통하여 상기 헬멧 장치와 연동된 개인형 이동장치로부터 상기 개인형 이동장치에서 측정된 진동 데이터를 수신하는 동작, 상기 진동 데이터가 제1 미리 정해진 값 이하인 상태에서 상기 물체가 접근하는 것에 응답하여, 제1 진동 세기를 갖는 제1 진동 패턴을 발생시키도록 상기 진동 모듈을 제어하는 동작, 및 상기 진동 데이터가 상기 제1 미리 정해진 값을 초과하는 상태에서 상기 물체가 접근하는 것에 응답하여, 상기 제1 진동 세기 보다 큰 제2 진동 세기를 갖는 상기 제1 진동 패턴을 발생시키도록 상기 진동 모듈을 제어하는 동작을 포함할 수 있다.
사사문구
[사사문구]
(국문) 본 과제(결과물)는 2021년도 교육부의 재원으로 한국연구재단의 지원을 받아 수행된 지자체-대학 협력기반 지역혁신 사업의 결과입니다. (2021RIS-004)
(영문) This results was supported by "Regional Innovation Strategy (RIS)" 
through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(MOE)(2021RIS-004)

Claims (20)

  1. 헬멧 장치에 있어서,
    통신 모듈,
    센서 모듈,
    카메라 모듈, 및
    프로세서를 포함하고,
    상기 프로세서는,
    상기 센서 모듈을 이용하여 사용자가 상기 헬멧 장치를 착용하였는지를 판단하고,
    상기 사용자가 상기 헬멧 장치를 착용한 것에 응답하여, 상기 통신 모듈을 통하여 상기 헬멧 장치와 연동된 사용자 장치로 상기 헬멧 장치의 착용을 나타내는 제1 송신 신호를 송신하고,
    상기 통신 모듈을 통하여 상기 사용자 장치로부터 상기 제1 송신 신호에 대한 제1 응답 신호를 수신하는 것에 응답하여, 상기 카메라 모듈을 활성화한 후 상기 카메라 모듈을 통하여 획득한 이미지에 기반하여 외부로부터의 물체의 접근 여부를 판단하고, 및
    상기 물체가 접근하는 것에 응답하여, 상기 사용자에게 알림을 제공하도록 설정되고,
    상기 이미지는 상기 카메라 모듈의 촬영 방향에서의 제1 물체의 접근을 검출하기 위한 제1 영역, 상기 촬영 방향의 좌측 후방에서의 제2 물체의 접근을 검출하기 위한 제2 영역, 및 상기 촬영 방향의 우측 후방에서의 제3 물체의 접근을 검출하기 위한 제3 영역으로 구분되고,
    상기 제2 영역을 나타내기 위하여 상기 카메라 모듈에 대하여 제1 거리만큼 이격되고 제1 각도만큼 기울어진 제1 거울 및 상기 제3 영역을 나타내기 위하여 상기 카메라 모듈에 대하여 제2 거리만큼 이격되고 제2 각도만큼 기울어진 제2 거울을 더 포함하는,
    헬멧 장치.
  2. 제1 항에 있어서,
    상기 센서 모듈은, 열 감지 센서, 압력 센서, 또는 근접 센서를 포함하고,
    상기 프로세서는,
    상기 센서 모듈로부터 측정된 센서 값이 미리 정해진 시간 동안 미리 정해진 값을 초과하는 것에 기반하여, 상기 사용자가 상기 헬멧 장치를 착용한 것으로 결정하도록 설정된,
    헬멧 장치.
  3. 제1 항에 있어서,
    상기 프로세서는,
    딥러닝 기반의 객체 인식 알고리즘을 이용하여, 상기 카메라 모듈을 통하여 획득한 상기 이미지로부터 상기 물체를 인식하고,
    딥러닝 기반의 깊이 추정(depth estimation) 알고리즘을 이용하여, 상기 헬멧 장치와 상기 물체 사이의 거리를 추정하고, 및
    상기 물체까지의 상기 추정된 거리가 미리 정해진 거리 이내인 경우, 상기 물체가 접근한 것으로 결정하도록 설정된,
    헬멧 장치.
  4. 제3 항에 있어서,
    상기 프로세서는,
    상기 이미지의 전체 영역 중에서 상기 이미지의 중앙 지점으로부터 미리 정해진 범위에 해당하는 중앙 영역을 제외하고 나머지 영역 내에서 상기 물체를 인식하도록 설정된,
    헬멧 장치.
  5. 제1 항에 있어서,
    상기 헬멧 장치는 스피커 모듈, 진동 모듈, 및 발광 모듈을 더 포함하고,
    상기 프로세서는,
    상기 물체가 접근하는 것에 응답하여, (1)빛을 발산하도록 상기 발광 모듈을 제어하는 동작, (2)사운드를 출력하도록 상기 스피커 모듈을 제어하는 동작, 또는 (3)진동을 발생시키도록 상기 진동 모듈을 제어하는 동작 중 적어도 하나를 수행하도록 설정된,
    헬멧 장치.
  6. 삭제
  7. 제5 항에 있어서,
    상기 프로세서는,
    상기 이미지의 상기 제1 영역, 상기 제2 영역, 및 상기 제3 영역 중에서 상기 제1 영역에서만 상기 제1 물체의 접근을 검출하는 경우, 상기 발광 모듈의 중앙 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하고,
    상기 제2 영역에서만 상기 제2 물체의 접근을 검출하는 경우, 상기 발광 모듈의 좌측 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하고,
    상기 제3 영역에서만 상기 제3 물체의 접근을 검출하는 경우, 상기 발광 모듈의 우측 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하고, 및
    상기 이미지의 적어도 두 개의 영역 각각에서 물체들의 접근을 검출하는 경우, 상기 발광 모듈의 전체 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하도록 설정된,
    헬멧 장치.
  8. 제5 항에 있어서,
    상기 프로세서는,
    상기 통신 모듈을 통하여 상기 헬멧 장치와 연동된 개인형 이동장치로부터 상기 개인형 이동장치에서 측정된 진동 데이터를 수신하고,
    상기 진동 데이터가 제1 미리 정해진 값 이하인 상태에서 상기 물체가 접근하는 것에 응답하여, 제1 진동 세기를 갖는 제1 진동 패턴을 발생시키도록 상기 진동 모듈을 제어하고, 및
    상기 진동 데이터가 상기 제1 미리 정해진 값을 초과하는 상태에서 상기 물체가 접근하는 것에 응답하여, 상기 제1 진동 세기 보다 큰 제2 진동 세기를 갖는 상기 제1 진동 패턴을 발생시키도록 상기 진동 모듈을 제어하도록 설정된,
    헬멧 장치.
  9. 제8 항에 있어서,
    상기 프로세서는,
    상기 알림의 제공 방식이 상기 진동 모듈을 통하여 상기 알림을 제공하는 제1 방식으로 설정된 상태에서, 상기 진동 데이터가 상기 제1 미리 정해진 값 보다 큰 제2 미리 정해진 값을 초과하는 경우, 상기 알림의 제공 방식을 상기 제1 방식으로부터 상기 스피커 모듈 및 상기 발광 모듈을 통하여 상기 알림을 제공하는 제2 방식으로 변경하도록 설정된 -상기 제2 방식에서 상기 진동 모듈은 비활성화됨-,
    헬멧 장치.
  10. 제1 항에 있어서,
    상기 프로세서는,
    상기 통신 모듈을 통하여 개인형 이동장치로부터 상기 개인형 이동장치에서 측정된 무게 데이터를 수신하고,
    상기 무게 데이터가 미리 정해진 값을 초과하는 경우, 상기 개인형 이동장치의 스피커 모듈을 이용하여 알림을 출력하도록 하는 명령을 상기 통신 모듈을 통하여 상기 개인형 이동장치로 송신하도록 설정된,
    헬멧 장치.
  11. 제1 항에 있어서,
    상기 프로세서는,
    상기 통신 모듈을 통하여 개인형 이동장치로부터 상기 개인형 이동장치의 기울기 정보를 수신하고,
    상기 개인형 이동장치가 운행 중인 상태에서 상기 기울기 정보에 기초하여 상기 개인형 이동장치의 기울기 상태가 미리 정해진 기울기 상태에 대응하는 것으로 결정되면, 상기 개인형 이동장치의 속력을 점진적으로 감소시키도록 하는 명령을 상기 통신 모듈을 통하여 상기 개인형 이동장치로 송신하도록 설정된,
    헬멧 장치.
  12. 제1 항에 있어서,
    상기 프로세서는,
    딥러닝 기반의 시멘틱 세그멘테이션(semantic segmentation) 모델을 이용하여 상기 이미지로부터 상기 헬멧 장치와 연동된 개인형 이동장치가 주행 중인 도로의 종류 또는 상기 도로의 상태 중 적어도 하나를 결정하고,
    상기 결정된 도로의 종류가 제1 종류(횡단 보도)이거나 상기 결정된 도로의 상태가 제1 상태인 경우, 상기 개인형 이동장치에서 출력 가능한 최대 속력을 미리 설정된 제1 속력으로부터 제2 속력으로 감소시키도록 하는 명령을 상기 통신 모듈을 통하여 상기 개인형 이동장치로 송신하고, 및
    상기 결정된 도로의 종류가 제2 종류(차도)이거나 상기 결정된 도로의 상태가 제2 상태인 경우, 제1 알림을 제공하도록 설정된,
    헬멧 장치.
  13. 헬멧 장치의 동작 방법에 있어서,
    상기 헬멧 장치의 센서 모듈을 이용하여 사용자가 상기 헬멧 장치를 착용하였는지를 판단하는 동작,
    상기 사용자가 상기 헬멧 장치를 착용한 것에 응답하여, 상기 헬멧 장치의 통신 모듈을 통하여 상기 헬멧 장치와 연동된 사용자 장치로 상기 헬멧 장치의 착용을 나타내는 제1 송신 신호를 송신하는 동작,
    상기 통신 모듈을 통하여 상기 사용자 장치로부터 상기 제1 송신 신호에 대한 제1 응답 신호를 수신하는 것에 응답하여, 상기 헬멧 장치의 카메라 모듈을 활성화한 후 상기 카메라 모듈을 통하여 획득한 이미지에 기반하여 외부로부터의 물체의 접근 여부를 판단하는 동작, 및
    상기 물체가 접근하는 것에 응답하여, 상기 사용자에게 알림을 제공하는 동작을 포함하고,
    상기 이미지는 상기 카메라 모듈의 촬영 방향에서의 제1 물체의 접근을 검출하기 위한 제1 영역, 상기 촬영 방향의 좌측 후방에서의 제2 물체의 접근을 검출하기 위한 제2 영역, 및 상기 촬영 방향의 우측 후방에서의 제3 물체의 접근을 검출하기 위한 제3 영역으로 구분되고,
    상기 제2 영역을 나타내기 위하여 상기 카메라 모듈에 대하여 제1 거리만큼 이격되고 제1 각도만큼 기울어진 제1 거울 및 상기 제3 영역을 나타내기 위하여 상기 카메라 모듈에 대하여 제2 거리만큼 이격되고 제2 각도만큼 기울어진 제2 거울을 더 포함하는,
    헬멧 장치의 동작 방법.
  14. 제13 항에 있어서,
    상기 센서 모듈은, 열 감지 센서, 압력 센서, 또는 근접 센서를 포함하고,
    상기 헬멧 장치를 착용하였는지를 판단하는 동작은,
    상기 센서 모듈로부터 측정된 센서 값이 미리 정해진 시간 동안 미리 정해진 값을 초과하는 것에 기반하여, 상기 사용자가 상기 헬멧 장치를 착용한 것으로 결정하는 동작을 포함하는,
    헬멧 장치의 동작 방법.
  15. 제13 항에 있어서,
    상기 물체의 접근 여부를 판단하는 동작은,
    딥러닝 기반의 객체 인식 알고리즘을 이용하여, 상기 카메라 모듈을 통하여 획득한 상기 이미지로부터 상기 물체를 인식하는 동작,
    딥러닝 기반의 깊이 추정(depth estimation) 알고리즘을 이용하여, 상기 헬멧 장치와 상기 물체 사이의 거리를 추정하는 동작, 및
    상기 물체까지의 상기 추정된 거리가 미리 정해진 거리 이내인 경우, 상기 물체가 접근한 것으로 결정하는 동작을 포함하는,
    헬멧 장치의 동작 방법.
  16. 제15 항에 있어서,
    상기 물체를 인식하는 동작은,
    상기 이미지의 전체 영역 중에서 상기 이미지의 중앙 지점으로부터 미리 정해진 범위에 해당하는 중앙 영역을 제외하고 나머지 영역 내에서 상기 물체를 인식하는 동작을 포함하는,
    헬멧 장치의 동작 방법.
  17. 제13 항에 있어서,
    상기 헬멧 장치는 스피커 모듈, 진동 모듈, 및 발광 모듈을 더 포함하고,
    상기 알림을 제공하는 동작은,
    상기 물체가 접근하는 것에 응답하여, (1)빛을 발산하도록 상기 발광 모듈을 제어하는 동작, (2)사운드를 출력하도록 상기 스피커 모듈을 제어하는 동작, 또는 (3)진동을 발생시키도록 상기 진동 모듈을 제어하는 동작 중 적어도 하나를 수행하는 동작을 포함하는,
    헬멧 장치의 동작 방법.
  18. 삭제
  19. 제17 항에 있어서,
    상기 알림을 제공하는 동작은,
    상기 이미지의 상기 제1 영역, 상기 제2 영역, 및 상기 제3 영역 중에서 상기 제1 영역에서만 상기 제1 물체의 접근을 검출하는 경우, 상기 발광 모듈의 중앙 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하는 동작,
    상기 제2 영역에서만 상기 제2 물체의 접근을 검출하는 경우, 상기 발광 모듈의 좌측 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하는 동작,
    상기 제3 영역에서만 상기 제3 물체의 접근을 검출하는 경우, 상기 발광 모듈의 우측 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하는 동작, 및
    상기 이미지의 적어도 두 개의 영역 각각에서 물체들의 접근을 검출하는 경우, 상기 발광 모듈의 전체 영역 상으로 빛을 발산하도록 상기 발광 모듈을 제어하는 동작을 포함하는,
    헬멧 장치의 동작 방법.
  20. 제17 항에 있어서,
    상기 알림을 제공하는 동작은,
    상기 통신 모듈을 통하여 상기 헬멧 장치와 연동된 개인형 이동장치로부터 상기 개인형 이동장치에서 측정된 진동 데이터를 수신하는 동작,
    상기 진동 데이터가 제1 미리 정해진 값 이하인 상태에서 상기 물체가 접근하는 것에 응답하여, 제1 진동 세기를 갖는 제1 진동 패턴을 발생시키도록 상기 진동 모듈을 제어하는 동작, 및
    상기 진동 데이터가 상기 제1 미리 정해진 값을 초과하는 상태에서 상기 물체가 접근하는 것에 응답하여, 상기 제1 진동 세기 보다 큰 제2 진동 세기를 갖는 상기 제1 진동 패턴을 발생시키도록 상기 진동 모듈을 제어하는 동작을 포함하는,
    헬멧 장치의 동작 방법.
KR1020220050920A 2022-04-25 2022-04-25 지능형 헬멧 장치 및 이의 동작 방법 KR102607080B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220050920A KR102607080B1 (ko) 2022-04-25 2022-04-25 지능형 헬멧 장치 및 이의 동작 방법
US18/159,704 US20230337776A1 (en) 2022-04-25 2023-01-26 Intelligent helmet device and method of operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220050920A KR102607080B1 (ko) 2022-04-25 2022-04-25 지능형 헬멧 장치 및 이의 동작 방법

Publications (2)

Publication Number Publication Date
KR20230151342A KR20230151342A (ko) 2023-11-01
KR102607080B1 true KR102607080B1 (ko) 2023-11-29

Family

ID=88416363

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220050920A KR102607080B1 (ko) 2022-04-25 2022-04-25 지능형 헬멧 장치 및 이의 동작 방법

Country Status (2)

Country Link
US (1) US20230337776A1 (ko)
KR (1) KR102607080B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102253543B1 (ko) * 2020-08-14 2021-06-09 주식회사 케이에스티인텔리전스 지능형 전동 킥보드 안전 장치
KR102271321B1 (ko) * 2020-12-14 2021-07-01 주식회사 모빌린트 인공지능 기반의 사고 방지용 전동 킥보드 및 그의 사고 방지 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10698222B1 (en) * 2019-01-31 2020-06-30 StradVision, Inc. Method for monitoring blind spot of cycle using smart helmet for cycle rider and blind spot monitoring device using them
KR20200101544A (ko) * 2019-02-19 2020-08-28 이원석 퍼스널 모빌리티 속도 제어 시스템
KR102336275B1 (ko) * 2019-12-20 2021-12-08 주식회사 인켈 근거리 후방 감지 헬멧 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102253543B1 (ko) * 2020-08-14 2021-06-09 주식회사 케이에스티인텔리전스 지능형 전동 킥보드 안전 장치
KR102271321B1 (ko) * 2020-12-14 2021-07-01 주식회사 모빌린트 인공지능 기반의 사고 방지용 전동 킥보드 및 그의 사고 방지 방법

Also Published As

Publication number Publication date
KR20230151342A (ko) 2023-11-01
US20230337776A1 (en) 2023-10-26

Similar Documents

Publication Publication Date Title
US11049380B2 (en) Personal safety device, method and article
US9975483B1 (en) Driver assist using smart mobile devices
US11291255B2 (en) Personal protective equipment system using optical articles for integrated monitoring, alerting, and predictive safety event avoidance
US10611422B2 (en) Systems, methods and techniques for intelligent accessories
CN104771132A (zh) 基于眼睛会聚检测视觉疏忽
US9307071B2 (en) Mobile wireless device incorporating self-detection of operational environment and selective device functionality
US20180137749A1 (en) Personal Traffic Hazard Warning System
US20190315270A1 (en) Systems, Methods and Apparatuses for Enhanced Warning Using Laser Diodes for Commercial Vehicle Applications
US20160070101A1 (en) Head mounted display device, control method for head mounted display device, information system, and computer program
US11614621B2 (en) User-wearable systems and methods to collect data and provide information
WO2019021811A1 (ja) 飛行体、通信端末、通信システム、及びプログラム
US20170249789A1 (en) Vehicle, image display device, vehicle control method, and image display method
US20200215968A1 (en) Messaging display apparatus
KR20240065182A (ko) 개인 이동성 시스템의 ar 기반 성능 변조
KR101911632B1 (ko) 스마트 바이크 시스템 및 이의 동작 방법
KR102607080B1 (ko) 지능형 헬멧 장치 및 이의 동작 방법
KR20160011342A (ko) 이륜차의 후방 또는 측방 감시시스템, 및 글라스형 웨어러블 디바이스를 이용한 이륜차의 후방 또는 측방 감시방법
US10621858B1 (en) Systems and methods for improving situational awareness of a user
US20230192220A1 (en) Two-wheeled vehicle accident occurrence report device having retroreflection cover, deep learning recognition-based two-wheeled vehicle accident severity prediction server, and two-wheeled vehicle accident severity prediction system comprising same
KR20220048959A (ko) 이동체 추돌 방지 장치, 추돌 방지 방법 및 전자 장치
KR102281246B1 (ko) 인공지능에 기반한 시니어 케어를 위한 길안내 및 사물식별 시스템 및 방법
KR102666997B1 (ko) 스마트 헬멧 장치를 이용한 안전운행 제어 시스템
US10276028B2 (en) Eyeglass tracking system and method
US20180144597A1 (en) Smart sensor and method using the same
US20240185717A1 (en) Data-driven autonomous communication optimization safety systems, devices, and methods

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant