KR102351584B1 - System for providing navigation service for visually impaired person - Google Patents

System for providing navigation service for visually impaired person Download PDF

Info

Publication number
KR102351584B1
KR102351584B1 KR1020200031925A KR20200031925A KR102351584B1 KR 102351584 B1 KR102351584 B1 KR 102351584B1 KR 1020200031925 A KR1020200031925 A KR 1020200031925A KR 20200031925 A KR20200031925 A KR 20200031925A KR 102351584 B1 KR102351584 B1 KR 102351584B1
Authority
KR
South Korea
Prior art keywords
information
unit
wearable device
device unit
current location
Prior art date
Application number
KR1020200031925A
Other languages
Korean (ko)
Other versions
KR20210068970A (en
Inventor
이우준
안세원
이강일
Original Assignee
이우준
안세원
이강일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이우준, 안세원, 이강일 filed Critical 이우준
Publication of KR20210068970A publication Critical patent/KR20210068970A/en
Application granted granted Critical
Publication of KR102351584B1 publication Critical patent/KR102351584B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Abstract

본 발명은 시각장애인을 위한 길안내 서비스 시스템에 관한 것이다.
일례로, GPS 위성으로부터 RTK-GPS 기반의 현재위치정보를 수신하고, 보행 간에 주변 영상 촬영 및 장애물 감지를 통해 실시간 영상정보를 생성하고, 상기 현재위치정보와 상기 실시간 영상정보를 실시간 송출하는 제1 착용형 장치부; 상기 제1 착용형 장치부와 연결되고, 사용자로부터 목적지 정보를 음성으로 입력 받아 상기 제1 착용형 장치부로 전송하고, 적어도 하나의 센서를 이용해 사용자의 시선 방향과 진행 방향을 감지하고, 상기 제1 착용형 장치부로부터 수신되는 경로 정보와 장애물 정보를 청각적 방식과 촉각적 방식을 통한 길안내 정보로 제공하는 제2 착용형 장치부; 및 상기 제1 착용형 장치부와 접속되어 상기 현재위치정보, 상기 실시간 영상정보 및 상기 목적지 정보를 각각 수신하고, 상기 현재위치정보와 상기 목적지 정보에 기초하여 상기 경로 정보를 생성하고, 상기 실시간 영상정보에 기초하여 상기 장애물 정보를 생성하고, 상기 경로 정보와 상기 장애물 정보를 상기 제2 착용형 장치부로 전송하는 클라우드 서버부를 포함하고, 상기 제1 착용형 장치부는, 상기 클라우드 서버부로부터 상기 목적지 정보에 대한 응답으로 상기 경로 정보와 상기 장애물 정보를 수신하는 시각장애인을 위한 길안내 서비스 시스템을 개시한다.
The present invention relates to a navigation service system for the visually impaired.
As an example, a first method for receiving RTK-GPS-based current location information from a GPS satellite, generating real-time image information by capturing surrounding images and detecting obstacles while walking, and transmitting the current location information and the real-time image information in real time wearable device; It is connected to the first wearable device unit, receives destination information from the user by voice, transmits it to the first wearable device unit, detects the user's gaze direction and travel direction using at least one sensor, and the first a second wearable device unit that provides route information and obstacle information received from the wearable device unit as navigation information through an auditory method and a tactile method; and the first wearable device unit to receive the current location information, the real-time image information, and the destination information, respectively, and generate the route information based on the current location information and the destination information, and the real-time image and a cloud server unit for generating the obstacle information based on the information, and transmitting the path information and the obstacle information to the second wearable device unit, wherein the first wearable device unit includes the destination information from the cloud server unit Disclosed is a navigation service system for the visually impaired that receives the route information and the obstacle information in response to .

Description

시각장애인을 위한 길안내 서비스 시스템{SYSTEM FOR PROVIDING NAVIGATION SERVICE FOR VISUALLY IMPAIRED PERSON} Navigation service system for the visually impaired

본 발명의 실시예는 시각장애인을 위한 길안내 서비스 시스템에 관한 것이다.An embodiment of the present invention relates to a navigation service system for the visually impaired.

최근 들어 점자가 내장된 스마트 시계 등 시각장애인을 위한 보조장비가 지속적으로 개발되고 있으나, 시각장애인의 보행을 돕는 수단은 여전히 지팡이와 같은 과거의 수단에 머물고 있는 것이 현실이다.In recent years, assistive equipment for the visually impaired, such as a smart watch with built-in Braille, has been continuously developed, but the reality is that the means to assist the visually impaired in walking remains in the past, such as a walking stick.

최근 개발된 시각장애인을 위한 보행정보 안내시스템은 통상적으로 보행방향만을 음성으로 제공하거나, 경로 주변에 고정된 사물에 대한 정보를 제공 하지만, 이동하는 장애물에는 대응하지 못하는 등 안전한 보행에 필요한 정보를 통합적으로 제공하지 못하고 있다. The recently developed gait information guidance system for the visually impaired generally provides only the walking direction with voice or provides information on fixed objects around the path, but cannot respond to moving obstacles in an integrated way. is not provided as

또한, 일반 GPS를 통한 사용자 위치정보는 오차가 1 내지 2미터를 상회하여 그 정확도가 매우 떨어지기 때문에, 보행사고의 위험이 높을 수 밖에 없다. 그리고, 이를 위용한 시각장애인 보조장비의 사용성에 있어서도, 대개의 경우 몸에 직접 착용하는 방식이 아닌 손에 들고 사용하는 방식이기 때문에 휴대가 다소 번거로운 단점이 있다.In addition, since the user location information through the general GPS has an error of more than 1 to 2 meters, and its accuracy is very low, the risk of a pedestrian accident is inevitably high. Also, in terms of usability of assistive devices for the visually impaired for this purpose, in most cases, they are not worn directly on the body, but are held in the hand, so portability is somewhat cumbersome.

또한 종래의 시각장애인을 위한 보행정보 안내 장치와 시스템은 보행에 필요한 정보를 음성을 통해 제공하는데, 음성에 의한 언어적 지시의 방식은 다양한 정보가 동시에 음성으로 표현될 경우 그 내용을 파악하지 못하는 경우가 발생하기 때문에, 보행에 필요한 시각정보를 효과적으로 청각화하여 전달하지 못하는 문제가 있다. In addition, the conventional gait information guide device and system for the visually impaired provide information necessary for walking through voice. , there is a problem in that visual information necessary for walking cannot be effectively audible and transmitted.

등록특허공보 제10-1988037호(등록일자: 2019년06월04일)Registered Patent Publication No. 10-1988037 (Registration Date: June 04, 2019)

본 발명의 실시예는, RTK-GPS의 위치정보, 3차원 깊이 카메라의 영상정보, 보행자의 진행방향과 시선방향을 감지하기 위한 센서, 이들로부터 얻은 각종 정보를 바탕으로 길안내 서비스 정보를 제공하는 클라우드 서버를 이용하여 주변환경에 대한 정보를 포함하는 길안내 정보를 보다 정확하고, 직관적인 방식으로 제공할 수 있는 시각장애인을 위한 웨어러블 방식의 길안내 서비스 시스템을 제공한다.An embodiment of the present invention provides route guidance service information based on location information of RTK-GPS, image information of a three-dimensional depth camera, a sensor for detecting the moving direction and gaze direction of pedestrians, and various information obtained from them. It provides a wearable route guidance service system for the visually impaired that can provide route guidance information including information about the surrounding environment in a more accurate and intuitive way using a cloud server.

본 발명의 실시예에 따른 시각장애인을 위한 길안내 서비스 시스템은, GPS 위성으로부터 RTK-GPS 기반의 현재위치정보를 수신하고, 보행 간에 주변 영상 촬영 및 장애물 감지를 통해 실시간 영상정보를 생성하고, 상기 현재위치정보와 상기 실시간 영상정보를 실시간 송출하는 제1 착용형 장치부; 상기 제1 착용형 장치부와 연결되고, 사용자로부터 목적지 정보를 음성으로 입력 받아 상기 제1 착용형 장치부로 전송하고, 적어도 하나의 센서를 이용해 사용자의 시선 방향과 진행 방향을 감지하고, 상기 제1 착용형 장치부로부터 수신되는 경로 정보와 장애물 정보를 청각적 방식과 촉각적 방식을 통한 길안내 정보로 제공하는 제2 착용형 장치부; 및 상기 제1 착용형 장치부와 접속되어 상기 현재위치정보, 상기 실시간 영상정보 및 상기 목적지 정보를 각각 수신하고, 상기 현재위치정보와 상기 목적지 정보에 기초하여 상기 경로 정보를 생성하고, 상기 실시간 영상정보에 기초하여 상기 장애물 정보를 생성하고, 상기 경로 정보와 상기 장애물 정보를 상기 제2 착용형 장치부로 전송하는 클라우드 서버부를 포함하고, 상기 제1 착용형 장치부는, 상기 클라우드 서버부로부터 상기 목적지 정보에 대한 응답으로 상기 경로 정보와 상기 장애물 정보를 수신한다.The navigation service system for the visually impaired according to an embodiment of the present invention receives RTK-GPS-based current location information from a GPS satellite, and generates real-time image information by capturing images of surrounding areas and detecting obstacles while walking, and A first wearable device unit for transmitting the current location information and the real-time image information in real time; It is connected to the first wearable device unit, receives destination information from the user by voice, transmits it to the first wearable device unit, detects the user's gaze direction and travel direction using at least one sensor, and the first a second wearable device unit that provides route information and obstacle information received from the wearable device unit as navigation information through an auditory method and a tactile method; and the first wearable device unit to receive the current location information, the real-time image information, and the destination information, respectively, and generate the route information based on the current location information and the destination information, and the real-time image and a cloud server unit for generating the obstacle information based on the information, and transmitting the path information and the obstacle information to the second wearable device unit, wherein the first wearable device unit includes the destination information from the cloud server unit In response to , the path information and the obstacle information are received.

또한, 상기 제1 착용형 장치부는, GPS 위성으로부터 RTK-GPS 기반의 상기 현재위치정보를 수신하는 위치정보 수신부; 보행 간에 주변 영상을 촬영하는 3차원 깊이 카메라를 포함하고, 상기 3차원 깊이 카메라의 영상 데이터를 상기 실시간 영상 정보로 생성하는 영상 정보 생성부; 상기 경로 정보와 상기 장애물 정보에 기초하여 상기 제2 착용형 장치부의 길안내 동작을 위한 제어신호를 생성하는 제어부; 및 상기 제2 착용형 장치부 및 상기 클라우드 서버부와 각각 무선 통신하기 위한 제1 무선 통신부를 포함할 수 있다.In addition, the first wearable device unit, a location information receiver for receiving the current location information based on RTK-GPS from a GPS satellite; an image information generator including a three-dimensional depth camera for capturing images of surrounding areas while walking, and generating image data of the three-dimensional depth camera as the real-time image information; a control unit generating a control signal for a navigation operation of the second wearable device unit based on the path information and the obstacle information; and a first wireless communication unit for wirelessly communicating with the second wearable device unit and the cloud server unit, respectively.

또한, 상기 제1 착용형 장치부는, 상기 영상 정보 생성부가 설치되며 사용자의 상체에 착용할 수 있는 밴드 형태로 이루어진 제1 착용부; 및 상기 위치정보 수신부, 상기 제어부 및 상기 제1 무선 통신부가 설치되며 사용자의 어깨에 멜 수 있는 배낭 형태로 이루어진 제2 착용부를 더 포함할 수 있다.In addition, the first wearable device unit may include: a first wearing unit in which the image information generating unit is installed and formed in the form of a band that can be worn on the user's upper body; And the location information receiving unit, the control unit, and the first wireless communication unit is installed may further include a second wearable in the form of a backpack that can be worn on the user's shoulder.

또한, 상기 제어부는, 가상 공간 내에서 상기 경로 정보와, 상기 진행 방향 및 상기 시선 방향을 비교하여 상기 진행 방향이 상기 경로 정보와 미리 설정된 범위 내에서 일치하는 상태로 사용자가 이동하는 경우 미리 설정된 순서에 따른 음계를 갖는 음향 데이터를 생성하여 상기 제어신호에 포함시키되, 상기 진행 방향이 상기 경로 정보에서 이탈하는 경우 경고음 데이터를 생성하여 상기 제어신호에 포함시키고, 상기 진행 방향이 상기 경로 정보에서 이탈되는 정도에 따라 상기 경고음 데이터의 음량이 단계적으로 증가되거나 빨라지도록 조정할 수 있다.In addition, the control unit compares the path information with the traveling direction and the gaze direction in the virtual space, and when the user moves in a state in which the traveling direction matches the path information within a preset range, a preset order A sound data having a scale according to Depending on the degree, the volume of the warning sound data may be adjusted to be increased or increased in stages.

또한, 상기 제어부는, 가상 공간 내에서 상기 경로 정보와, 상기 진행 방향 및 상기 시선 방향을 비교하여 상기 진행 방향이 상기 경로 정보와 미리 설정된 범위 내에서 일치하는 상태로 사용자가 이동하는 경우 미리 설정된 진동 데이터를 생성하여 상기 제어신호에 포함시키되, 상기 진행 방향이 상기 경로 정보에서 이탈하는 경우 상기 진동 데이터의 진동 패턴과 크기를 조정하되, 상기 진행 방향이 상기 경로 정보에서 이탈되는 정도에 따라 상기 진동 데이터의 진동 패턴이 단계적으로 빠르게 증가하거나 진동 크기가 단계적으로 커지도록 조정할 수 있다.In addition, the control unit compares the path information with the traveling direction and the gaze direction in a virtual space, and when the user moves in a state in which the traveling direction matches the path information within a preset range, a preset vibration Data is generated and included in the control signal, and when the traveling direction deviates from the path information, the vibration pattern and size of the vibration data are adjusted, and the vibration data according to the degree to which the traveling direction deviates from the path information It can be adjusted to increase the vibration pattern in steps rapidly or to increase the vibration amplitude step by step.

또한, 상기 제2 착용형 장치부는, 안경 및 헤드셋 중 적어도 하나의 형태를 이루는 두부 착용 구조물; 상기 두부 착용 구조물 내에 설치되어 사용자의 시선 방향과 진행 방향을 감지하기 위한 자이로센서 및 지자기센서를 포함하는 센서부; 사용자의 음성을 입력 받기 위한 마이크를 포함하는 음성 입력부; 상기 제1 착용형 장치부로부터 수신되는 상기 제어신호를 청각적 방식을 통해 길안내 정보로 제공하기 위한 스피커를 포함하는 음향 출력부; 상기 제1 착용형 장치부로부터 수신되는 상기 제어신호를 촉각적 방식을 통해 길안내 정보로 제공하기 위한 진동소자를 포함하는 진동 발생부; 및 상기 제1 착용형 장치부와 무선 통신하기 위한 제2 무선 통신부를 포함할 수 있다.In addition, the second wearable device unit, the head wearing structure forming at least one of the glasses and the headset; a sensor unit installed in the head wearing structure and including a gyro sensor and a geomagnetic sensor for detecting a user's gaze direction and a moving direction; a voice input unit including a microphone for receiving a user's voice; a sound output unit including a speaker for providing the control signal received from the first wearable device unit as route guidance information through an auditory method; a vibration generating unit including a vibrating element for providing the control signal received from the first wearable device unit as navigation information through a tactile method; and a second wireless communication unit for wireless communication with the first wearable device unit.

또한, 상기 클라우드 서버부는, 상기 제1 착용형 장치부와 접속되어 상기 현재위치정보, 상기 실시간 영상정보 및 상기 목적지 정보를 각각 수신하고, 상기 경로 정보와 상기 장애물 정보를 상기 제2 착용형 장치부로 전송하는 데이터 송수신부; 및 네비게이션 서비스를 이용하여 상기 현재위치정보와 상기 목적지 정보에 따른 상기 경로 정보를 생성하고, 머신러닝 알고리즘에 기초하여 상기 실시간 영상정보로부터 사물을 인식하여 상기 장애물 정보를 생성하는 머신러닝 알고리즘 실행부를 포함할 수 있다.In addition, the cloud server unit is connected to the first wearable device unit to receive the current location information, the real-time image information, and the destination information, respectively, and transmit the route information and the obstacle information to the second wearable device unit. a data transceiver for transmitting; and a machine learning algorithm execution unit for generating the route information according to the current location information and the destination information using a navigation service, and recognizing an object from the real-time image information based on a machine learning algorithm to generate the obstacle information can do.

또한, 상기 길안내 서비스 시스템은, 상기 제1 착용형 장치부 및 상기 제2 착용형 장치부 중 적어도 어느 하나는, 푸시 시간 및 푸시 횟수에 따라 길안내 재 요청 신호 및 길안내 긴급 호출 신호 중 하나를 발생시켜 상기 제1 무선 통신부를 통해 상기 클라우드 서버부로 전송하는 호출 스위치부를 더 포함하고, 상기 클라우드 서버부는, 상기 길안내 재 요청 신호의 수신 시 경로 변경 정보를 상기 제1 착용형 장치부로 전송하거나, 상기 길안내 긴급 호출 신호의 수신 시 긴급 호출 지점에 차량이 이동하도록 호출할 수 있다.In addition, in the navigation service system, at least one of the first wearable device unit and the second wearable device unit is one of a route guidance re-request signal and a route guidance emergency call signal according to a push time and a number of pushes and a call switch unit for generating and transmitting to the cloud server unit through the first wireless communication unit, wherein the cloud server unit transmits route change information to the first wearable device unit upon reception of the route guidance re-request signal or , when the route guidance emergency call signal is received, the vehicle may be called to move to the emergency call point.

또한, 상기 클라우드 서버부는, 상기 제1 착용형 장치부로부터 상기 길안내 재 요청 신호를 수신하는 경우 상기 현재위치정보에 기초하여 상기 목적지 정보까지의 경로 정보를 변경하고, 상기 경로 변경 정보를 상기 제1 착용형 장치부로 전송하는 길안내 긴급요청 처리부; 및 상기 제1 착용형 장치부로부터 상기 길안내 긴급 호출 신호를 수신하는 경우 콜택시 시스템 또는 차량 콜 서비스 시스템과 연동하여 상기 현재위치정보에 기초하여 사용자의 현재위치로 이동할 수 있는 차량을 검색 및 호출하고, 해당 차량이 사용자의 현재위치로부터 미리 설정된 거리 내에 진입하는 경우, 접근 거리에 따라 미리 설정된 순서에 따른 음계를 갖는 음향 인식 정보와 미리 설정된 진동 패턴과 크기에 따라 조정되는 진동 인식 정보 중 적어도 하나를 상기 제1 착용형 장치부로 전송하여 해당 차량의 접근 정보를 제공하는 차량 호출 서비스부를 더 포함할 수 있다.In addition, the cloud server unit, when receiving the route guidance re-request signal from the first wearable device unit, changes the route information to the destination information based on the current location information, and sets the route change information to the first 1 emergency request processing unit for route guidance to be transmitted to the wearable device; and when receiving the road guidance emergency call signal from the first wearable device unit, search and call a vehicle that can move to the user's current location based on the current location information in conjunction with a call taxi system or a vehicle call service system, , when the corresponding vehicle enters within a preset distance from the user's current location, at least one of acoustic recognition information having a scale according to a preset order according to the approach distance and vibration recognition information adjusted according to a preset vibration pattern and size The first wearable device unit may further include a vehicle call service unit for providing access information of the corresponding vehicle.

본 발명에 따르면, RTK-GPS의 위치정보, 3차원 깊이 카메라의 영상정보, 보행자의 진행방향과 시선방향을 감지하기 위한 센서, 이들로부터 얻은 각종 정보를 바탕으로 길안내 서비스 정보를 제공하는 클라우드 서버를 이용하여 주변환경에 대한 정보를 포함하는 길안내 정보를 보다 정확하고, 직관적인 방식으로 제공할 수 있는 시각장애인을 위한 웨어러블 방식의 길안내 서비스 시스템을 제공할 수 있다.According to the present invention, a cloud server that provides route guidance service information based on location information of RTK-GPS, image information of a three-dimensional depth camera, a sensor for detecting a pedestrian's moving direction and gaze direction, and various information obtained therefrom It is possible to provide a wearable way guide service system for the visually impaired that can provide way guide information including information about the surrounding environment in a more accurate and intuitive way by using

도 1은 본 발명의 실시예에 따른 시각장애인을 위한 길안내 서비스 시스템의 전체 구성과 이들의 관계를 나타낸 개요도이다.
도 2는 본 발명의 실시예에 따른 제1 착용형 장치부의 상세 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 영상 정보 생성부와 제1 착용부의 외형에 대한 일례를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 영상 정보 생성부와 위치정보 수신부의 외형에 대한 일례를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 음향 데이터를 포함하는 제어신호의 구성을 설명하기 위해 나타낸 도면이다.
도 6은 본 발명의 실시예에 따라 시각장애인의 진행 방향과 클라우드 서버부에서 제공되는 경로 정보 간의 오차에 따른 제어신호의 구성을 설명하기 위해 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 제2 착용형 장치부의 상세 구성을 나타낸 블록도이다.
도 8은 본 발명의 실시예에 따른 제2 착용형 장치부의 외형에 대한 일례를 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 클라우드 서버부의 상세 구성을 나타낸 블록도이다.
1 is a schematic diagram showing the overall configuration of a navigation service system for the visually impaired and their relationship according to an embodiment of the present invention.
2 is a block diagram showing a detailed configuration of the first wearable device unit according to an embodiment of the present invention.
3 is a view showing an example of the appearance of the image information generating unit and the first wearing unit according to an embodiment of the present invention.
4 is a diagram illustrating an example of the appearance of an image information generating unit and a location information receiving unit according to an embodiment of the present invention.
5 is a diagram illustrating a configuration of a control signal including sound data according to an embodiment of the present invention.
6 is a diagram illustrating a configuration of a control signal according to an error between a moving direction of a visually impaired person and path information provided by a cloud server unit according to an embodiment of the present invention.
7 is a block diagram illustrating a detailed configuration of a second wearable device unit according to an embodiment of the present invention.
8 is a view showing an example of the external appearance of the second wearable device according to an embodiment of the present invention.
9 is a block diagram illustrating a detailed configuration of a cloud server unit according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 본 발명의 실시예에 따른 시각장애인을 위한 길안내 서비스 시스템의 전체 구성과 이들의 관계를 나타낸 개요도이고, 도 2는 본 발명의 실시예에 따른 제1 착용형 장치부의 상세 구성을 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 영상 정보 생성부와 제1 착용부의 외형에 대한 일례를 나타낸 도면이고, 도 4는 본 발명의 실시예에 따른 영상 정보 생성부와 위치정보 수신부의 외형에 대한 일례를 나타낸 도면이고, 도 5는 본 발명의 실시예에 따른 음향 데이터를 포함하는 제어신호의 구성을 설명하기 위해 나타낸 도면이고, 도 6은 본 발명의 실시예에 따라 시각장애인의 진행 방향과 클라우드 서버부에서 제공되는 경로 정보 간의 오차에 따른 제어신호의 구성을 설명하기 위해 나타낸 도면이고, 도 7은 본 발명의 실시예에 따른 제2 착용형 장치부의 상세 구성을 나타낸 블록도이고, 도 8은 본 발명의 실시예에 따른 제2 착용형 장치부의 외형에 대한 일례를 나타낸 도면이며, 도 9는 본 발명의 실시예에 따른 클라우드 서버부의 상세 구성을 나타낸 블록도이다.1 is a schematic diagram showing the overall configuration of a navigation service system for the visually impaired according to an embodiment of the present invention and their relationship, and FIG. 2 is a detailed configuration of a first wearable device according to an embodiment of the present invention 3 is a diagram showing an example of the appearance of the image information generating unit and the first wearing unit according to the embodiment of the present invention, and FIG. 4 is the image information generating unit and the location information receiving unit according to the embodiment of the present invention. It is a view showing an example of the external appearance of, Figure 5 is a view to explain the configuration of a control signal including sound data according to an embodiment of the present invention, Figure 6 is a view showing the visually impaired according to an embodiment of the present invention It is a diagram illustrating the configuration of a control signal according to an error between the progress direction and the path information provided by the cloud server unit, and FIG. 7 is a block diagram showing the detailed configuration of the second wearable device unit according to an embodiment of the present invention , FIG. 8 is a view showing an example of an external appearance of a second wearable device unit according to an embodiment of the present invention, and FIG. 9 is a block diagram showing a detailed configuration of a cloud server unit according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 시각장애인을 위한 길안내 서비스 시스템(1000)은 제1 착용형 장치부(100), 제2 착용형 장치부(200) 및 클라우드 서버부(300)를 포함한다.Referring to FIG. 1 , a navigation service system 1000 for the visually impaired according to an embodiment of the present invention includes a first wearable device unit 100 , a second wearable device unit 200 , and a cloud server unit 300 . ) is included.

상기 제1 착용형 장치부(100)는, 도 1에 도시된 바와 같이 GPS 위성(10)으로부터 RTK-GPS(Real-Time Kinematic GPS) 기반의 현재위치정보를 수신하고, 시각장애인의 보행 간에 주변 영상 촬영 및 장애물 감지를 통해 실시간 영상정보를 생성하고, 생성된 현재위치정보와 실시간 영상정보를 클라우드 서버부(300)로 실시간 송출할 수 있다. 또한, 제1 착용형 장치부(100)는, 클라우드 서버부(300)로부터 시각장애인이 요청한 목적지 정보에 대한 응답으로 최적 경로 정보와 현재 위치 주변에 대한 장애물 정보를 수신하여 제2 착용형 장치부(200)로 경로 안내 및 장애물 안내를 위한 제어신호를 생성하여 전송할 수 있다.The first wearable device unit 100 receives the current location information based on RTK-GPS (Real-Time   Kinematic GPS) from the GPS satellite 10 as shown in FIG. Real-time image information may be generated through image capturing and obstacle detection, and the generated current location information and real-time image information may be transmitted to the cloud server unit 300 in real time. In addition, the first wearable device unit 100 receives the optimal path information and obstacle information about the current location in response to the destination information requested by the visually impaired from the cloud server unit 300 to receive the second wearable device unit In 200, a control signal for path guidance and obstacle guidance may be generated and transmitted.

이를 위해 제1 착용형 장치부(100)는 도 2에 도시된 바와 같이 위치정보 수신부(110), 영상 정보 생성부(120), 제어부(130), 제1 무선 통신부(140), 제1 착용부(150), 제2 착용부(160) 및 호출 스위치부(170) 중 적어도 하나를 포함할 수 있다.To this end, the first wearable device unit 100 includes a location information receiving unit 110 , an image information generating unit 120 , a control unit 130 , a first wireless communication unit 140 , and a first wearing unit as shown in FIG. 2 . It may include at least one of the unit 150 , the second wearing unit 160 , and the call switch unit 170 .

상기 위치정보 수신부(110)는, GPS 위성(10)으로부터 RTK-GPS(Real-Time Kinematic GPS) 기반의 시각장애인의 현재위치정보를 수신할 수 있다. 이러한 위치정보 수신부(110)는 RTK GPS를 통해 고정된 장소에 설치된 베이스 스테이션으로부터 RTCM(Real-Time Differential Correction Maritime) 형식의 보정 메시지를 수신하여 센티미터 단위의 정확도로 시각장애인의 현재위치를 파악하고 파악된 위치정보를 시리얼 포트를 통해 제어부(130)로 전달할 수 있다. 이를 위해 위치정보 수신부(110)는 위성신호의 수신을 위한 안테나를 포함하여 구성될 수 있다. 여기서, 안테나는 제1 착용형 장치부(100)의 경량화를 위해 필름 형태로 구성될 수도 있다. 한편, 고정된 장소에 설치된 베이스 스테이션은 자체적으로 구성되거나, 현재 전국적으로 설치된 DMB 안테나, 혹은 GNSS(Global Navigation Satellite System) 데이터 통합센터에 연결된 다수의 GNSS 상시 관측소를 NTRIP(Network Transport of RTCM via Internet Protocol) 서버로 활용하여 구성될 수 있다. The location information receiver 110 may receive the current location information of the visually impaired based on Real-Time Kinematic GPS (RTK-GPS) from the GPS satellite 10 . The location information receiver 110 receives a correction message in the RTCM (Real-Time   Differential   Correction   Maritime) format from the base station installed in a fixed place through the RTK GPS, and grasps and grasps the current location of the visually impaired with an accuracy of centimeters. The location information may be transmitted to the controller 130 through the serial port. To this end, the location information receiver 110 may be configured to include an antenna for receiving satellite signals. Here, the antenna may be configured in the form of a film in order to reduce the weight of the first wearable device unit 100 . On the other hand, the base station installed in a fixed place is self-configured, or a number of GNSS constant observation stations connected to the DMB antenna currently installed nationwide or the GNSS (Global Navigation Satellite System) data integration center can be connected to the NTRIP (Network Transport Feature of RTCM via Internet Protocol). ) can be configured as a server.

이러한 위치정보 수신부(110)의 RTK-GPS 안테나는 위성신호 수신율을 높이기 위하여 안테나가 지면과 수평을 이루고 후술하는 제2 착용부(160)(배낭 또는 가방 형태)에서 돌출되어 머리나 다른 신체의 간섭이 최소화되는 위치에 설치되는 것이 바람직하다.The RTK-GPS antenna of the location information receiving unit 110 protrudes from the second wearing unit 160 (in the form of a backpack or bag) to be described later and the antenna is level with the ground in order to increase the satellite signal reception rate, so that the interference of the head or other body It is preferable to be installed in a position where this is minimized.

상기 영상 정보 생성부(120)는, 시각장애인의 보행 간에 주변 영상을 촬영하는 3차원 깊이 카메라와 3차원 깊이 카메라의 촬영 범위 내의 물체(장애물)와의 거리를 감지하는 거리감지센서(적외선센서, 초음파센서 등)를 포함하고, 3차원 깊이 카메라의 영상 데이터와 거리감지센서의 거리감지 데이터를 실시간 영상 정보로 생성할 수 있다.The image information generating unit 120 includes a distance detection sensor (infrared sensor, ultrasonic wave sensor) that detects a distance between a three-dimensional depth camera for capturing images of the surrounding area while walking by the visually impaired and an object (obstacle) within a shooting range of the three-dimensional depth camera. sensor, etc.), and may generate image data of a three-dimensional depth camera and distance sensing data of a distance sensor as real-time image information.

아울러, 영상 정보 생성부(120)는 3차원 깊이 카메라를 통해 보행 시 주위 환경에 대한 영상정보를 획득하는 동시에 내부에 포함된 적외선센서 및/또는 초음파센서를 포함하는 거리감지센서를 이용하여 보행 시 시야 범위 내의 물체와의 거리정보도 획득하여, 획득된 각 정보들(보행 간 주변환경에 대한 영상정보, 물체와 시각장애인 간의 거리정보)을 제어부(130)의 데이터 프로세싱을 거쳐 제1 무선 통신부(140)를 통해 클라우드 서버부(300)로 전달함으로써, 실시간 영상정보 내에 포함된 사물 또는 물체가 어떤 것인지 딥러닝 기반의 사물인식 알고리즘을 통해 파악하고, 파악된 각각의 물체 또는 사물이 시각장애인으로부터 얼마만큼의 거리에 놓여 있는지 또는 그 거리가 얼마나 빨리 가까워지는지를 검출하도록 구성될 수 있다. 이러한 클라우드 서버부(300)에 대한 보다 상세한 설명은 후술한다.In addition, the image information generating unit 120 acquires image information about the surrounding environment when walking through a three-dimensional depth camera and at the same time when walking using a distance sensor including an infrared sensor and/or an ultrasonic sensor included therein. The first wireless communication unit ( 140) through the cloud server unit 300 to determine what kind of object or object included in the real-time image information is through a deep learning-based object recognition algorithm, and how much each identified object or object is from the visually impaired. It can be configured to detect how far the distance is, or how quickly the distance is approaching. A more detailed description of the cloud server unit 300 will be described later.

한편, 영상 정보 생성부(120)는 시각장애인의 전후 좌우의 모든 방향을 커버하기 위해 복수 개의 3차원 깊이 카메라가 적용될 수 있으며, 이러한 3차원 깊이 카메라는 시각장애인의 걷거나 뛰는 움직임으로부터 발생할 수 있는 상하좌우의 흔들림이 영상처리에 주는 악영향을 최소화하도록 후술하는 제1 착용부(150)에 적용되는 고무줄이나 밴드 등의 탄성체가 구성되며, 이에 더하여 자이로 센서, 가속도 센서와 모터가 조합되어 작동하는 방식의 떨림 방지 장치가 추가 구성될 수도 있다. On the other hand, the image information generating unit 120 may apply a plurality of three-dimensional depth cameras to cover all directions of the front, back, left, and right of the visually impaired, and such a three-dimensional depth camera can be generated from the walking or running movement of the visually impaired. An elastic body such as a rubber band or a band applied to the first wearing part 150, which will be described later, is configured to minimize the adverse effects of left and right shaking on image processing. In addition, a gyro sensor, an acceleration sensor and a motor are combined to operate. An anti-shake device may be additionally configured.

이러한 영상 정보 생성부(120)는 도 3에 도시된 바와 같이 제1 착용부(150)의 전면에 배치되고, 제1 착용부(150)로부터 탈착 가능하게 설치될 수 있다. 상기 제어부(130)는, 클라우드 서버부(300)에서 수신된 경로 정보와 장애물 정보에 기초하여 제2 착용형 장치부(200)의 길안내 동작을 위한 제어신호를 생성할 수 있다.As shown in FIG. 3 , the image information generating unit 120 may be disposed on the front of the first wearing unit 150 , and may be detachably installed from the first wearing unit 150 . The control unit 130 may generate a control signal for a navigation operation of the second wearable device unit 200 based on the path information and the obstacle information received from the cloud server unit 300 .

좀 더 구체적으로, 제어부(130)는, 클라우드 서버부(300)에서 수신된 경로 정보와 제2 착용형 장치부(200)에서 감지된 진행 방향 및 시선 방향을 가상 공간 내에서 비교하여 진행 방향이 경로 정보와 미리 설정된 범위 내에서 일치하는 상태로 시각장애인이 이동하는 경우 미리 설정된 순서에 따른 음계를 갖는 음향 데이터를 생성하여 제어신호에 포함시킬 수 있다. 예를 들어 도 5에 도시된 바와 같이 '도-미-솔-도'를 한 조의 음계(C 스케일)로 구성함으로써, 앞과 뒤의 음에 대한 상호 구별이 용이하도록 할 수 있으며, 이에 시각장애인이 음계의 순서를 따라 경로를 정확히 쫓아가 최종적으로 목적지에 도착할 수 있도록 한다. More specifically, the control unit 130 compares the path information received from the cloud server unit 300 with the moving direction and the gaze direction sensed by the second wearable device unit 200 in the virtual space to determine the moving direction. When a visually impaired person moves in a state consistent with route information within a preset range, sound data having a scale according to a preset order may be generated and included in the control signal. For example, as shown in FIG. 5 , by composing 'do-mi-sol-do' as a single scale (C scale), it is possible to easily distinguish between the front and rear notes, and thus the visually impaired Follow the order of this scale to accurately follow the path and finally arrive at the destination.

이러한 제어부(130)는 현실세계의 지리적 공간을 반영하는 소프트웨어를 통해 최적 경로를 따라 대략 5m 간격으로 가상공간 내에서 가상의 소리발생장치를 설정할 수 있다. 이러한 가상의 소리발생장치는 시각장애인이 경로를 이동함에 따라 가상의 소리발생장치에 가까워지거나 멀어지게 되면 이를 제어신호에 반영하여 제2 착용형 장치부(200)이 전달할 수 있다. 이때, 제2 착용형 장치부(120)를 통해 측정된 시선 방향에 따라 머리전달함수(HRTF)를 사용한 3차원 음향 기술을 통해 가상의 소리가 실제 경로 상에 존재하는 것과 같은 효과를 전달하여 경로를 직관적으로 인지할 수 있도록 한다. 또한, 시각장애인이 가상의 소리발생장치를 근접해서 지날 때 마다 경로를 맞게 따라 가고 있다는 피드백을 제공함으로써 근접한 정도에 따라 소리1, 소리2, 소리3 등으로 세분해서 출력하도록 함으로써, 이를 통해 시각장애인은 해당 경로를 얼마나 잘 따라가고 있는지를 쉽게 파악할 수 있다. The controller 130 may set the virtual sound generating device in the virtual space at intervals of approximately 5 m along the optimal path through software that reflects the geographic space of the real world. When the virtual sound generating device approaches or moves away from the virtual sound generating device as the blind person moves on a path, the second wearable device unit 200 may transmit it by reflecting it in the control signal. At this time, according to the gaze direction measured through the second wearable device unit 120, a virtual sound effect is transmitted through a three-dimensional sound technology using a head transfer function (HRTF), as if it exists on the real path. to be intuitively recognizable. In addition, whenever a visually impaired person passes the virtual sound generating device in close proximity, it provides feedback that he is following the path, so that the output is subdivided into sound 1, sound 2, and sound 3 according to the degree of proximity. You can easily see how well you are following that path.

다만, 시각장애인의 진행 방향이 경로 정보에서 이탈하는 경우, 제어부(300)는 도 6에 도시된 바와 같이 경고음 데이터를 생성하여 제어신호에 포함시키고, 해당 진행 방향이 경로 정보에서 이탈되는 정도에 따라 경고음 데이터의 음량이 단계적으로 증가되거나 빨라지도록 조정할 수 있다.However, when the moving direction of the visually impaired deviates from the path information, the control unit 300 generates warning sound data as shown in FIG. 6 and includes it in the control signal, and according to the degree to which the moving direction deviates from the path information You can adjust the volume of the beep data to increase in steps or to speed up.

한편, 보행 중에 마주치는 각종 장애물도 역시 가상의 소리발생장치로 표현될 수 있는데, 이때 장애물은 그 종류에 따라 각기 다른 질감을 가진 소리들로서, 실제 공간에 사물이 위치하는 장소에서 그 소리가 발생하는 것 같이 표현이 된다. 이에 따라 시각장애인은 소리가 발생하는 위치와 그 질감을 통해 장애물의 종류와 위치를 파악하고 피해갈 수 있다. On the other hand, various obstacles encountered while walking can also be expressed as virtual sound generators. In this case, the obstacles are sounds with different textures depending on the type, and the obstacles are sounds that are generated at the place where the object is located in the real space. is expressed as Accordingly, the visually impaired can identify and avoid the type and location of obstacles through the location of the sound and its texture.

상기 제어부(300)는, 가상 공간 내에서 해당 경로 정보와 시각장애인의 진행 방향 및 시선 방향을 비교하여 해당 진행 방향이 경로 정보와 미리 설정된 범위 내에서 일치하는 상태로 사용자가 이동하는 경우 미리 설정된 진동 데이터를 생성하여 제어신호에 포함시킬 수 있다. 즉, 상술한 바와 유사하게, 가상 공간 상에서 가상의 진동발생장치를 일정 간격마다 설정하고, 시각장애인의 진행 방향이 설정된 경로 정보와 일치하여 시각장애인의 위치와 매칭되는 아바타가 가상의 진동발생장치에 가까워지면 그에 따른 특정한 패턴의 진동을 제공함으로써 시각장애인이 정확한 경로로 이동하고 있음을 인지할 수 있도록 한다.The controller 300 compares the corresponding path information with the moving direction and the gaze direction of the visually impaired in the virtual space, and when the user moves in a state that the corresponding moving direction matches the path information within a preset range, preset vibration Data can be generated and included in the control signal. That is, similar to the above, the virtual vibration generating device is set at regular intervals in the virtual space, and the avatar matching the location of the visually impaired by setting the path information in which the moving direction of the visually impaired is set is applied to the virtual vibration generating device. When approaching, a specific pattern of vibration is provided so that the visually impaired can recognize that they are moving in the correct path.

다만, 시각장애인의 진행 방향이 경로 정보에서 이탈하는 경우, 제어부(300)는 도 6에 도시된 바와 같이 진동 데이터의 진동 패턴과 크기를 조정하되, 진행 방향이 경로 정보에서 이탈되는 정도에 따라 진동 데이터의 진동 패턴이 단계적으로 빠르게 증가하거나 진동 크기가 단계적으로 커지도록 조정할 수 있다.However, when the moving direction of the visually impaired deviates from the path information, the control unit 300 adjusts the vibration pattern and size of the vibration data as shown in FIG. It can be adjusted so that the vibration pattern of the data increases rapidly in steps or the magnitude of the vibration increases in steps.

한편, 보행 중에 마주치는 각종 장애물도 역시 가상의 진동발생장치로 표현될 수 있는데, 이때 장애물은 그 종류에 따라 각기 다른 질감을 가진 진동들로서, 실제 공간에 사물이 위치하는 장소에서 그 진동이 발생하는 것 같이 표현이 된다. 이에 따라 시각장애인은 진동이 발생하는 위치와 그 질감을 통해 장애물의 종류와 위치를 파악하고 피해갈 수 있다. On the other hand, various obstacles encountered while walking can also be expressed as virtual vibration generating devices. At this time, the obstacles are vibrations with different textures depending on the type, and the obstacles are vibrations that occur at the place where the object is located in the real space. is expressed as Accordingly, the visually impaired can identify and avoid the type and location of obstacles through the location and texture of the vibration.

또한, 제어부(300)가 진동 데이터를 생성하여 제어신호에 포함시켜 제2 착용형 장치부(200)에 제공함에 있어서, 상술한 음향 데이터에서와 유사하게 가상의 진동발생장치를 실제 경로 정보와 매칭되는 가상 공간에 일정 간격마다 설정하고, 가상의 진동발생장치를 시각장애인이 현재위치정보에 기반하여 근접함에 따라 특정한 크기 또는 패턴 진동 데이터나 진동 크기의 증감 등을 조절하여 진동 정보를 통해 시각장애인이 정확한 경로로 이동하고 있음을 인지할 수 있도록 한다.In addition, when the control unit 300 generates the vibration data and includes it in the control signal to provide it to the second wearable device unit 200, similarly to the above-described sound data, the virtual vibration generating device matches the actual path information. By setting a virtual vibration generating device at regular intervals in the virtual space where the visually impaired approaches, based on the current location information, a specific size or pattern vibration data or increase/decrease in vibration size is adjusted to help the visually impaired through vibration information. Make sure you know that you are moving on the correct path.

이러한 제어부(130)는 제1 및 제2 착용형 장치부(100, 200)의 전체적인 동작을 제어하기 위한 소프트웨어와 더불어, 현실 세계의 지리적 공간 및 사용자를 반영한 가상의 3차원 공간과 아바타를 생성하고 모니터링 할 수 있으며, 수집된 모든 정보를 해당 가상공간에 반영하는 방식으로 실제 사용자에게 필요한 청각적 정보를 만들어내는 소프트웨어를 포함할 수 있으며, 임베디드 PC 등을 통해 구현될 수 있다. The controller 130 generates a virtual 3D space and avatar reflecting the geographic space and user of the real world, together with software for controlling the overall operation of the first and second wearable device units 100 and 200, and It can monitor, and it can include software that creates the auditory information needed by real users in a way that reflects all the collected information in the virtual space, and can be implemented through an embedded PC, etc.

상기 제1 무선 통신부(140)는, 제2 착용형 장치부(200) 및 클라우드 서버부(300)와 각각 무선 통신을 수행할 있다. 이때, 제1 무선 통신부(140)는 2 착용형 장치부(200)의 음향 출력부(240) 및 진동 발생부(250)에 청각 및 진동 신호(또는 진동 데이터)를 전달하기 위해 블루투스 등의 근거리무선통신 기술이 적용될 수 있으며, 클라우드 서버부(300)와의 안정적이고 빠른 통신을 위해 5G 기술이 사용된 무선인터넷 통신 기술이 적용될 수 있다. The first wireless communication unit 140 may perform wireless communication with the second wearable device unit 200 and the cloud server unit 300 , respectively. At this time, the first wireless communication unit 140 transmits the auditory and vibration signals (or vibration data) to the sound output unit 240 and the vibration generating unit 250 of the second wearable device unit 200 in a short distance such as Bluetooth. A wireless communication technology may be applied, and a wireless Internet communication technology using 5G technology for stable and fast communication with the cloud server unit 300 may be applied.

한편, 제1 무선 통신부(140)는 제어부(130) 자체의 상태를 모니터링 하기 위한 디스플레이 기능을 포함할 수 있으며, 위치정보 수신부(110) 음향 출력부(240) 및 진동 발생부(250)로부터 정보를 전달받기 위한 시리얼 포트 기능을 포함하여 구성될 수 있다. 제1 무선 통신부(140)는 소형화 및 경량화를 위해 회로단계부터 최적화된 PCB 보드 형태로 제작 구성될 수 있다. 상기 제1 착용부(150)는, 영상 정보 생성부(120)가 설치되며 시각장애인의 상체에 착용할 수 있는 밴드 형태로 이루어질 수 있다. 예를 들어 제1 착용부(150)는 도 3에 도시된 바와 같이 X자 형태의 조끼 또는 상의와 같은 형상으로 이루어지되, 상체에 보다 잘 고정시키기 위하여 벨트가 추가될 수 있으며, 해당 벨트는 탄성력을 갖는 밴드 형태로 이루어지는 것이 바람직하다. 또한, 조끼 또는 상의의 허리 하단에 지지 쿠션을 배치하여 몸과 밀착되도록 하여 불편함을 최소화시키는 것이 바람직하다. 또한, 전체 표면에 방수코팅을 실시하여 오염 시 클리너 등을 이용한 세척이 용이하도록 한다.Meanwhile, the first wireless communication unit 140 may include a display function for monitoring the state of the control unit 130 itself, and information from the location information receiving unit 110 , the sound output unit 240 and the vibration generating unit 250 . It can be configured to include a serial port function to receive The first wireless communication unit 140 may be manufactured in the form of a PCB board optimized from the circuit stage for miniaturization and weight reduction. The first wearing unit 150, the image information generating unit 120 is installed, may be formed in the form of a band that can be worn on the upper body of the visually impaired. For example, as shown in FIG. 3 , the first wearing part 150 has the same shape as an X-shaped vest or top, and a belt may be added to better fix it to the upper body, and the belt has elastic force. It is preferable that it is made in the form of a band having In addition, it is desirable to minimize discomfort by disposing a support cushion on the lower part of the waist of the vest or top so that it is in close contact with the body. In addition, a waterproof coating is applied to the entire surface to facilitate cleaning with a cleaner or the like in case of contamination.

상기 제2 착용부(160)는, 위치정보 수신부(110), 제어부(130) 및 제1 무선 통신부(140)가 설치되며 사용자의 어깨에 멜 수 있는 배낭 형태로 이루어질 수 있다. 예를 들어, 제2 착용부(160)는 가방 구조물 형태로도 이루어질 수 있지만, 도 6에 도시된 바와 같이 가방 구조물에 수납하여 가방을 통해 메고 다닐 수 있는 형태로 구현될 수 있다. 이러한 제2 착용형 장치부(160)에는 탈착식 배터리가 장착되어 전원부로 전력을 공급할 수 있다.The second wearing unit 160, the location information receiving unit 110, the control unit 130, and the first wireless communication unit 140 are installed, may be made in the form of a backpack that can be worn on the user's shoulder. For example, the second wearing unit 160 may be formed in the form of a bag structure, but may be implemented in a form that can be stored in the bag structure and carried through the bag as shown in FIG. 6 . The second wearable device unit 160 may be equipped with a removable battery to supply power to the power supply unit.

상기 전원부는 실외에서도 일정 시간 자유롭게 활동이 가능하도록 재충전 가능한 배터리를 구비하여 구성될 수 있고, 충전 후 하루 이상 사용이 가능한 정도의 용량을 구비하는 것이 바람직하다. 다만, 반드시 이러한 구성으로 한정되는 것은 아니며, 배터리의 용량, 무게, 가격 등을 고려하여 필요에 따라 적절하게 구성될 수 있다.The power supply unit may be configured with a rechargeable battery so that the user can freely work outdoors for a certain time, and preferably has a capacity that can be used for more than a day after being charged. However, it is not necessarily limited to this configuration, and may be appropriately configured as needed in consideration of the capacity, weight, price, and the like of the battery.

상기 호출 스위치부(170)는, 제1 착용형 장치부(100) 및 제2 착용형 장치부(200) 중 적어도 어느 하나에 설치되며, 푸시 시간 및 푸시 횟수에 따라 길안내 재 요청 신호 및 길안내 긴급 호출 신호 중 하나를 발생시켜 제1 무선 통신부(140)를 통해 클라우드 서버부(300)로 전송할 수 있다.The call switch unit 170 is installed in at least one of the first wearable device unit 100 and the second wearable device unit 200, and according to the push time and the number of pushes, a route guidance re-request signal and directions One of the guidance emergency call signals may be generated and transmitted to the cloud server unit 300 through the first wireless communication unit 140 .

예를 들어, 호출 스위치(170)는 버튼 형태로 이루어질 수 있으며, 대략 3초 이상 누르고 있으면 길안내 재 요청 신호를 발생시켜 제1 무선 통신부(140)를 통해 클라우드 서버부(300)로 전달되도록 하고, 3회를 연속해서 누르면 길안내 긴급 호출 신호를 발생시켜 제1 무선 통신부(140)를 통해 클라우드 서버부(300)로 전달되도록 할 수 있다. 이러한 신호 발생에 의한 클라우드 서버부(300)에서 제공하는 서비스 구성에 대해서는 후술한다. For example, the call switch 170 may be formed in the form of a button, and when pressed for about 3 seconds or more, a route guidance re-request signal is generated to be transmitted to the cloud server unit 300 through the first wireless communication unit 140 and , can be continuously pressed three times to generate a route guidance emergency call signal to be transmitted to the cloud server unit 300 through the first wireless communication unit 140 . The configuration of the service provided by the cloud server unit 300 by generating such a signal will be described later.

상기 제2 착용형 장치부(200)는, 제1 착용형 장치부(100)와 연결되고, 시각장애인으로부터 목적지 정보를 음성으로 입력 받아 제1 착용형 장치부(100)로 전송하고, 적어도 하나의 센서를 이용해 시각장애인의 시선 방향과 진행 방향을 감지하고, 제1 착용형 장치부(100)로부터 수신되는 경로 정보와 장애물 정보를 청각적 방식과 촉각적 방식을 통한 길안내 정보로 제공할 수 있다.The second wearable device unit 200 is connected to the first wearable device unit 100, receives destination information from the visually impaired by voice and transmits it to the first wearable device unit 100, at least one It is possible to detect the gaze direction and the moving direction of the visually impaired by using the sensor of have.

이를 위해 제2 착용형 장치부(200)는 두부 착용 구조물(210), 센서부(220), 음성 입력부(230), 음향 출력부(240), 진동 발생부(250) 및 제2 무선 통신부(260) 중 적어도 하나를 포함할 수 있다.To this end, the second wearable device unit 200 includes a head wearing structure 210 , a sensor unit 220 , a voice input unit 230 , a sound output unit 240 , a vibration generating unit 250 , and a second wireless communication unit ( 260) may include at least one of.

상기 두부 착용 구조물(210)은, 도 8에 도시된 바와 같이 안경 및 헤드셋 중 적어도 하나의 형태를 이루어질 수 있다.As shown in FIG. 8 , the head wearing structure 210 may take the form of at least one of glasses and a headset.

상기 센서부(220)는, 두부 착용 구조물(210) 중 전방에 설치되어 시각장애인의 시선 방향과 진행 방향을 감지하기 위한 자이로센서 및 지자기센서를 포함할 수 있다. 이에 따라, 자이로센서와 지자기 센서는 두부 착용 구조물(210)에서 최대한 목의 회전축 상에 일치하는 위치에 설치되어 시각장애인의 시선방향을 최대한 정밀하게 파악할 수 있다.The sensor unit 220 may include a gyro sensor and a geomagnetic sensor installed in the front of the head wearing structure 210 to detect a gaze direction and a moving direction of the visually impaired. Accordingly, the gyro sensor and the geomagnetic sensor are installed in a position that matches the rotation axis of the neck as much as possible in the head wearing structure 210 , so that the gaze direction of the visually impaired can be grasped as precisely as possible.

아울러, 제2 착용형 장치부(200)는 후술하는 음향 출력부(240)와 진동 발생부(250)로 이루어지는 진행방향 정보 제공 부분은 센서부(220)의 자이로 센서와 지자기센서(magnetometer)와 함께 마이크로 보드 형태의 IMU 센서로 구성되어 마치 나침반처럼 센서가 지구의 자북(Magnetic North)과 이루는 각도를 측정하는 방식을 통해 실시간으로 사용자의 시선이 향하고 있는 방향을 측정하여 시리얼 포트를 통해 제어부(130)로 전달하도록 구성될 수 있다. 아울러 시간이 지남에 따라 발생할 수 있는 지자기 센서의 오차를 수정하기 위해 IMU 센서의 보정(Calibration) 상태 역시 시리얼 포트를 통해 제어부(130)로 항시 전달하도록 구성될 수 있다. 각 센서의 보정상태에 문제가 생겼을 경우 제어부(130)에서 감지하여 일련의 보정 행위를 수행하도록 안내하는 기능이 포함될 수 있다.In addition, the second wearable device unit 200 includes a gyro sensor and a magnetometer of the sensor unit 220 and a moving direction information providing part comprising a sound output unit 240 and a vibration generating unit 250 to be described later. It is composed of IMU sensors in the form of microboards together, and like a compass, the sensor measures the direction the user's gaze is facing in real time through the method of measuring the angle with the Earth's Magnetic North, and the control unit 130 through the serial port. It can be configured to pass to In addition, in order to correct an error of the geomagnetic sensor that may occur over time, the calibration state of the IMU sensor may also be transmitted to the controller 130 through the serial port at all times. When there is a problem in the correction state of each sensor, the control unit 130 may include a function to detect and guide to perform a series of correction actions.

상기 음성 입력부(230)는, 사용자의 음성을 입력 받기 위한 마이크를 포함할 수 있다. 음성 입력부(230)는 마이크를 통해 입력되는 음성을 일종의 사용자를 구분하는 지문과 같이 처리하여 클라우드 서버부(300)에서 해당 장치의 사용자가 특정될 수 있도록 구성될 수 있다. 이에 따라, 클라우드 서버부(300)는 특정 사용자의 이동 경로, 목적지, 현재 위치 등의 현 상황 정보와 이력 정보를 확인하여 필요 시 열람 및 모니터링이 가능하다. The voice input unit 230 may include a microphone for receiving a user's voice. The voice input unit 230 may be configured such that the cloud server unit 300 may specify a user of the device by processing the voice input through the microphone like a kind of fingerprint that identifies a user. Accordingly, the cloud server unit 300 checks the current situation information and history information such as the moving route, destination, and current location of a specific user, so that viewing and monitoring are possible if necessary.

상기 음향 출력부(240)는, 제1 착용형 장치부(100)로부터 수신되는 제어신호를 청각적 방식을 통해 길안내 정보로 제공하기 위한 스피커를 포함할 수 있다. 이러한 음향 출력부(240)는 두부 착용 구조물(210) 중 귀와 가까운 위치에 설치되며, 블루투스 등과 같은 근거리무선통신을 통해 목적지까지의 경로와 주위의 장애물 등에 대한 정보를 청각적 방식으로 전달할 수 있다.The sound output unit 240 may include a speaker for providing a control signal received from the first wearable device unit 100 as navigation information through an auditory method. The sound output unit 240 is installed at a position close to the ear among the head wearing structures 210, and may transmit information about the route to the destination and surrounding obstacles through short-range wireless communication such as Bluetooth in an auditory manner.

상기 진동 발생부(250)는, 제1 착용형 장치부(100)로부터 수신되는 제어신호를 촉각적 방식을 통해 길안내 정보로 제공하기 위한 적어도 하나의 진동소자 또는 진동모터를 포함할 수 있다. 이러한 진동 발생부(250)의 진동소자는 프레임 구조물 내 설치되어 블루투스 등과 같은 근거리무선통신을 통해 목적지까지의 경로와 주위의 장애물 등에 대한 정보를 촉각적 방식으로 전달할 수 있다.The vibration generating unit 250 may include at least one vibration element or a vibration motor for providing a control signal received from the first wearable device unit 100 as navigation information through a tactile method. The vibration element of the vibration generating unit 250 may be installed in the frame structure to transmit information on a route to a destination and surrounding obstacles through short-range wireless communication such as Bluetooth in a tactile manner.

상기 제2 무선 통신부(260)는, 제1 착용형 장치부(100)와 근거리무선통신하기 위한 장치들로 구성될 수 있다.The second wireless communication unit 260 may be configured with devices for short-range wireless communication with the first wearable device unit 100 .

상기 클라우드 서버부(300)는, 제1 착용형 장치부와 접속되어 상기 현재위치정보, 상기 실시간 영상정보 및 상기 목적지 정보를 각각 수신하고, 상기 현재위치정보와 상기 목적지 정보에 기초하여 상기 경로 정보를 생성하고, 상기 실시간 영상정보에 기초하여 상기 장애물 정보를 생성하고, 상기 경로 정보와 상기 장애물 정보를 상기 제2 착용형 장치부로 전송The cloud server unit 300 is connected to the first wearable device unit to receive the current location information, the real-time image information, and the destination information, respectively, and the route information based on the current location information and the destination information to generate, generate the obstacle information based on the real-time image information, and transmit the path information and the obstacle information to the second wearable device unit

이를 위해 클라우드 서버부(300)는 데이터 송수신부(310) 및 머신러닝 알고리즘 실행부(320) 중 적어도 하나를 포함할 수 있다.To this end, the cloud server unit 300 may include at least one of a data transmission/reception unit 310 and a machine learning algorithm execution unit 320 .

상기 데이터 송수신부(310)는, 제1 착용형 장치부(100)와 접속되어 제1 착용형 장치부(100)로부터 현재위치정보, 실시간 영상정보(영상+거리 데이터 포함) 및 목적지 정보를 각각 수신하고, 경로 정보와 장애물 정보를 제2 착용형 장치부(200)로 전송할 수 있다. 여기서, 데이터 송수신부(310)는, 제1 착용형 장치부(100)로부터 스트리밍 방식으로 영상을 수신할 수 있다.The data transceiver unit 310 is connected to the first wearable device unit 100 and receives current location information, real-time image information (including image + distance data) and destination information from the first wearable device unit 100, respectively. , and may transmit path information and obstacle information to the second wearable device unit 200 . Here, the data transceiver 310 may receive an image from the first wearable device unit 100 in a streaming manner.

상기 머신러닝 알고리즘 실행부(320)는, 네비게이션 서비스를 이용하여 현재위치정보와 목적지 정보에 따른 경로 정보를 생성하고, 머신러닝 알고리즘에 기초하여 실시간 영상정보로부터 사물을 인식하여 장애물 정보를 생성할 수 있다. 특히, 머신러닝 알고리즘 중 사물인식 알고리즘을 이용하여 영상 속 장애물의 종류와 위치를 판별하여 제어부(130)로 전달할 수 있으며, 영상정보 속의 시각장애인 유도 블록을 차선인식 알고리즘을 통해 분석하여 GPS 정보 보정 및 경로이탈 경보에 활용할 수 있다.The machine learning algorithm execution unit 320 may use a navigation service to generate route information according to the current location information and destination information, and based on the machine learning algorithm, recognize objects from real-time image information to generate obstacle information. have. In particular, by using an object recognition algorithm among machine learning algorithms, the type and location of obstacles in the image can be determined and transmitted to the control unit 130, and the guide block for the blind in the image information is analyzed through a lane recognition algorithm to correct GPS information and It can be used for route departure warning.

한편, 클라우드 서버부(300)는, 길안내 재 요청 신호의 수신 시 경로 변경 정보를 제1 착용형 장치부(100)로 전송하거나, 길안내 긴급 호출 신호의 수신 시 긴급 호출 지점에 차량이 이동하도록 호출할 수 있다.On the other hand, the cloud server unit 300 transmits the route change information to the first wearable device unit 100 when receiving the route guidance re-request signal, or when receiving the route guidance emergency call signal, the vehicle moves to the emergency call point can be called to

이를 위해 클라우드 서버부(300)는 길안내 긴급요청 처리부(330) 및 차량 호출 서비스부(340) 중 적어도 하나를 더 포함할 수 있다.To this end, the cloud server unit 300 may further include at least one of a route guidance emergency request processing unit 330 and a vehicle call service unit 340 .

상기 길안내 긴급요청 처리부(330)는, 제1 착용형 장치부(100)로부터 길안내 재 요청 신호를 수신하는 경우 시각장애인의 현재위치정보에 기초하여 목적지 정보까지의 경로 정보를 변경하고, 경로 변경 정보를 제1 착용형 장치부(100)로 전송할 수 있다. The route guidance emergency request processing unit 330, when receiving a route guidance re-request signal from the first wearable device unit 100, changes the route information to the destination information based on the current location information of the visually impaired, and the route The change information may be transmitted to the first wearable device unit 100 .

예를 들어, 시각장애인이 본 시스템(1000)이 제공하는 길안내 서비스에 익숙하지 않거나, 길안내를 위한 청각적 및/또는 촉각적 정보를 잘못 판단하여 경로를 벗어난 지점에 위치하게 되어 현재 안내되는 정보를 이해하기가 혼란스러운 경우, 새로운 경로를 추천 받고자 하는 경우나 새로운 목적지로 변경해야 하는 경우 호출 스위치부(170)를 일정 시간 동안 눌러 발생되는 길안내 재 요청 신호를 수신하며, 이때, 현재위치정보를 함께 수신하여 새로운 경로 안내 서비스를 위한 정보를 생성하여 제공할 수 있다. For example, the visually impaired person is not familiar with the navigation service provided by the system 1000, or the auditory and/or tactile information for navigation is wrongly judged and is located at a point out of the route. When it is confusing to understand the information, when a new route is recommended or when a new destination needs to be changed, the call switch unit 170 is pressed for a certain period of time to receive a route guidance re-request signal, at this time, the current location By receiving the information together, it is possible to generate and provide information for a new route guidance service.

상기 차량 호출 서비스부(340)는, 제1 착용형 장치부(100)로부터 길안내 긴급 호출 신호를 수신하는 경우 콜택시 시스템 또는 차량 콜 서비스 시스템과 연동하여 시각장애인의 현재위치정보에 기초하여 해당 현재위치로 이동 가능한 차량을 검색 및 호출하고, 호출된 해당 차량이 시각장애인의 현재위치로부터 미리 설정된 거리 내에 진입하는 경우, 그 접근 거리에 따라 미리 설정된 순서에 따른 음계를 갖는 음향 인식 정보와 미리 설정된 진동 패턴과 크기에 따라 조정되는 진동 인식 정보 중 적어도 하나를 제1 착용형 장치부(100)로 전송하여 해당 차량의 접근 정보를 제공할 수 있다.The vehicle call service unit 340, when receiving a road guidance emergency call signal from the first wearable device unit 100, works in conjunction with a call taxi system or a vehicle call service system based on the current location information of the visually impaired. When a vehicle that can move to a location is searched for and called, and the called vehicle enters within a preset distance from the current location of the visually impaired, acoustic recognition information and preset vibration having a scale according to a preset sequence according to the approach distance At least one of the vibration recognition information adjusted according to the pattern and size may be transmitted to the first wearable device unit 100 to provide access information of the corresponding vehicle.

예를 들어, 시각장애인이 경로를 따라 이동하다가 해당 목적지까지 빠르게 이동해야 하는 상황이 생기거나, 현 위치에서 급하게 다른 목적지가 생긴 경우 호출 스위치부(170)를 미리 정해진 횟수대로 눌러 클라우드 서버부(300)에 길안내 긴급 호출 신호를 전송하고, 이에 클라우드 서버부(300)는 시각장애인이 호출한 현 위치에서 이동이 가능한 택시 등을 자동으로 호출하여 해당 택시가 시각장애인이 위치한 곳으로 이동하기 위한 정보를 전달하고, 해당 택시의 GPS 정보를 이용하여 시각장애인이 긴급 서비스를 요청한 위치와 택시의 GPS 정보를 비교해 두 대상 간의 거리가 미리 설정된 거리 내로 좁혀지게 되면, 접근 거리에 따른 음향 신호와 진동 신호의 변화를 주어 보이지 않더라도 호출한 택시의 접근 정도를 인지할 수 있도록 한다.For example, when a visually impaired person moves along a route and has to move quickly to a corresponding destination, or when another destination occurs in a hurry from the current location, the cloud server unit 300 ), the cloud server unit 300 automatically calls a taxi that can move from the current location called by the visually impaired, and the taxi moves to the place where the visually impaired is located. When the distance between the two objects is reduced to within a preset distance by comparing the GPS information of the taxi with the location where the visually impaired requested emergency service using the GPS information of the taxi, the acoustic signal and vibration signal according to the approach distance Changes are made so that the approaching level of the called taxi can be recognized even if it is invisible.

본 발명에 따르면, 종래의 미터 단위 정확도의 GPS를 대체하는 센티미터 단위 정확도의 RTK-GPS를 사용하여 거시적인 범위에서 더 정확하고 구체적인 길안내가 가능해진다.According to the present invention, more accurate and specific navigation in a macroscopic range is made possible by using the centimeter-accuracy RTK-GPS, which replaces the conventional metric-unit-accuracy GPS.

또한, 종래의 시각장애인 유도 블록 등의 인프라를 영상정보 분석을 통한 차선인식 알고리즘의 대상으로 사용하여 추가적인 인프라에 대한 투자 없이도 미시적인 범위에서 시각장애인의 진행 경로에 대한 좀 더 구체적인 안내가 가능해진다.In addition, by using the conventional infrastructure such as the blind guide block as a target for the lane recognition algorithm through image information analysis, it is possible to provide more specific guidance on the path of the visually impaired in a microscopic range without investment in additional infrastructure.

또한, RTK-GPS를 활용한 사용자 위치 정보를 보정하는 역할을 하여 GPS가 잘 작동하지 않는 실내에서도 길안내가 가능하다.In addition, it serves to correct user location information using RTK-GPS, enabling navigation even indoors where GPS does not work well.

또한, 컴퓨팅 파워가 많이 필요한 사물인식 알고리즘을 서버를 경유하는 방법으로 해결함으로써 장애물의 종류나 속성에 대한 더 구체적인 실시간 정보를 길안내에 활용할 수 있다. 또한, 머리전달함수를 활용한 3차원 입체음향신호 및 진동 신호를 시각장애인에게 전달, 직관적이고 정확하며 좀 더 안전한 길안내를 제공할 수 있다. In addition, by solving the object recognition algorithm that requires a lot of computing power by way of a server, more specific real-time information about the type or property of an obstacle can be used for road guidance. In addition, it is possible to provide intuitive, accurate, and safer route guidance by delivering 3D stereophonic sound signals and vibration signals using the head transfer function to the visually impaired.

이상에서 설명한 것은 본 발명에 의한 시각장애인을 위한 길안내 서비스 시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing the route guidance service system for the visually impaired according to the present invention, and the present invention is not limited to the above embodiment, but as claimed in the claims below Without departing from the gist of the invention, it will be said that the technical spirit of the present invention exists to the extent that various modifications can be made by anyone with ordinary knowledge in the field to which the invention pertains.

1000: 시각장애인을 위한 길안내 서비스 시스템
100: 제1 착용형 장치부
110: 위치정보 수신부
120: 영상 정보 생성부
130: 제어부
140: 제1 무선 통신부
150: 제1 착용부
160: 제2 착용부
170: 호출 스위치부
200: 제2 착용형 장치부
210: 두부 착용 구조물
220: 센서부
230: 음성 입력부
240: 음향 출력부
250: 진동 발생부
260: 제2 무선 통신부
300: 클라우드 서버부
310: 데이터 송수신부
320: 머신러닝 알고리즘 실행부
330: 길안내 긴급요청 처리부
340: 차량 호출 서비스부
10: GPS 위성
1000: navigation service system for the visually impaired
100: first wearable device unit
110: location information receiving unit
120: image information generating unit
130: control unit
140: first wireless communication unit
150: first wearing part
160: second wearing part
170: call switch unit
200: second wearable device unit
210: head wearing structure
220: sensor unit
230: voice input unit
240: sound output unit
250: vibration generating unit
260: second wireless communication unit
300: cloud server unit
310: data transceiver
320: machine learning algorithm execution unit
330: road guidance emergency request processing unit
340: ride-hailing service department
10: GPS satellite

Claims (8)

GPS 위성으로부터 RTK-GPS 기반의 현재위치정보를 수신하고, 보행 간에 주변 영상 촬영 및 장애물 감지를 통해 실시간 영상정보를 생성하고, 상기 현재위치정보와 상기 실시간 영상정보를 실시간 송출하는 제1 착용형 장치부;
상기 제1 착용형 장치부와 연결되고, 사용자로부터 목적지 정보를 음성으로 입력 받아 상기 제1 착용형 장치부로 전송하고, 적어도 하나의 센서를 이용해 사용자의 시선 방향과 진행 방향을 감지하고, 상기 제1 착용형 장치부로부터 수신되는 경로 정보와 장애물 정보를 청각적 방식과 촉각적 방식을 통한 길안내 정보로 제공하는 제2 착용형 장치부;
상기 제1 착용형 장치부와 접속되어 상기 현재위치정보, 상기 실시간 영상정보 및 상기 목적지 정보를 각각 수신하고, 상기 현재위치정보와 상기 목적지 정보에 기초하여 상기 경로 정보를 생성하고, 상기 실시간 영상정보에 기초하여 상기 장애물 정보를 생성하고, 상기 경로 정보와 상기 장애물 정보를 상기 제2 착용형 장치부로 전송하는 클라우드 서버부; 및
상기 제1 착용형 장치부 및 상기 제2 착용형 장치부 중 적어도 어느 하나에 설치되고, 푸시 시간 및 푸시 횟수에 따라 길안내 재 요청 신호 및 길안내 긴급 호출 신호 중 하나를 발생시켜 상기 제1 착용형 장치부를 통해 상기 클라우드 서버부로 전송하는 호출 스위치부를 포함하고,
상기 제1 착용형 장치부는, 상기 클라우드 서버부로부터 상기 목적지 정보에 대한 응답으로 상기 경로 정보와 상기 장애물 정보를 수신하고,
상기 클라우드 서버부는,
상기 제1 착용형 장치부와 접속되어 상기 현재위치정보, 상기 실시간 영상정보 및 상기 목적지 정보를 각각 수신하고, 상기 경로 정보와 상기 장애물 정보를 상기 제2 착용형 장치부로 전송하는 데이터 송수신부; 및
네비게이션 서비스를 이용하여 상기 현재위치정보와 상기 목적지 정보에 따른 상기 경로 정보를 생성하고, 머신러닝 알고리즘에 기초하여 상기 실시간 영상정보로부터 사물을 인식하여 상기 장애물 정보를 생성하는 머신러닝 알고리즘 실행부를 포함하고,
상기 클라우드 서버부는,
상기 길안내 재 요청 신호의 수신 시 경로 변경 정보를 상기 제1 착용형 장치부로 전송하거나, 상기 길안내 긴급 호출 신호의 수신 시 긴급 호출 지점에 차량이 이동하도록 호출하고,
상기 클라우드 서버부는,
상기 제1 착용형 장치부로부터 상기 길안내 재 요청 신호를 수신하는 경우 상기 현재위치정보에 기초하여 상기 목적지 정보까지의 경로 정보를 변경하고, 상기 경로 변경 정보를 상기 제1 착용형 장치부로 전송하는 길안내 긴급요청 처리부; 및
상기 제1 착용형 장치부로부터 상기 길안내 긴급 호출 신호를 수신하는 경우 콜택시 시스템 또는 차량 콜 서비스 시스템과 연동하여 상기 현재위치정보에 기초하여 사용자의 현재위치로 이동할 수 있는 차량을 검색 및 호출하고, 해당 차량이 사용자의 현재위치로부터 미리 설정된 거리 내에 진입하는 경우, 접근 거리에 따라 미리 설정된 순서에 따른 음계를 갖는 음향 인식 정보와 미리 설정된 진동 패턴과 크기에 따라 조정되는 진동 인식 정보 중 적어도 하나를 상기 제1 착용형 장치부로 전송하여 해당 차량의 접근 정보를 제공하는 차량 호출 서비스부를 더 포함하는 것을 특징으로 하는 시각장애인을 위한 길안내 서비스 시스템.
A first wearable device that receives RTK-GPS-based current location information from a GPS satellite, generates real-time image information through image capture and obstacle detection while walking, and transmits the current location information and the real-time image information in real time wealth;
It is connected to the first wearable device unit, receives destination information from the user by voice, transmits it to the first wearable device unit, detects the user's gaze direction and travel direction using at least one sensor, and the first a second wearable device unit that provides route information and obstacle information received from the wearable device unit as navigation information through an auditory method and a tactile method;
It is connected to the first wearable device unit to receive the current location information, the real-time image information and the destination information, respectively, generate the route information based on the current location information and the destination information, and the real-time image information a cloud server unit for generating the obstacle information based on , and transmitting the path information and the obstacle information to the second wearable device unit; and
It is installed in at least one of the first wearable device unit and the second wearable device unit, and generates one of a route guidance re-request signal and a route guidance emergency call signal according to the push time and the number of pushes to generate the first wearable device. and a call switch unit for transmitting to the cloud server unit through the type device unit,
The first wearable device unit receives the route information and the obstacle information in response to the destination information from the cloud server unit,
The cloud server unit,
a data transceiver connected to the first wearable device unit to receive the current location information, the real-time image information, and the destination information, respectively, and transmit the route information and the obstacle information to the second wearable device unit; and
A machine learning algorithm execution unit for generating the route information according to the current location information and the destination information using a navigation service, and recognizing an object from the real-time image information based on a machine learning algorithm to generate the obstacle information, ,
The cloud server unit,
When the route guidance re-request signal is received, route change information is transmitted to the first wearable device unit, or when the route guidance emergency call signal is received, the vehicle is called to move to an emergency call point,
The cloud server unit,
When receiving the route guidance re-request signal from the first wearable device unit, changing the route information to the destination information based on the current location information, and transmitting the route change information to the first wearable device unit Route guidance emergency request processing unit; and
When receiving the route guidance emergency call signal from the first wearable device unit, search and call a vehicle that can move to the user's current location based on the current location information in conjunction with a call taxi system or a vehicle call service system, When the corresponding vehicle enters within a preset distance from the user's current location, at least one of sound recognition information having a scale according to a preset order according to the approach distance and vibration recognition information adjusted according to a preset vibration pattern and size is said Direction guidance service system for the visually impaired, characterized in that it further comprises a vehicle call service unit that transmits to the first wearable device unit and provides access information of the corresponding vehicle.
제1 항에 있어서,
상기 제1 착용형 장치부는,
GPS 위성으로부터 RTK-GPS 기반의 상기 현재위치정보를 수신하는 위치정보 수신부;
보행 간에 주변 영상을 촬영하는 3차원 깊이 카메라를 포함하고, 상기 3차원 깊이 카메라의 영상 데이터를 상기 실시간 영상 정보로 생성하는 영상 정보 생성부;
상기 경로 정보와 상기 장애물 정보에 기초하여 상기 제2 착용형 장치부의 길안내 동작을 위한 제어신호를 생성하는 제어부; 및
상기 제2 착용형 장치부 및 상기 클라우드 서버부와 각각 무선 통신하기 위한 제1 무선 통신부를 포함하는 것을 특징으로 하는 시각장애인을 위한 길안내 서비스 시스템.
According to claim 1,
The first wearable device unit,
a location information receiver for receiving the current location information based on RTK-GPS from a GPS satellite;
an image information generator including a three-dimensional depth camera for capturing images of surrounding areas while walking, and generating image data of the three-dimensional depth camera as the real-time image information;
a control unit generating a control signal for a navigation operation of the second wearable device unit based on the path information and the obstacle information; and
A navigation service system for the visually impaired, characterized in that it comprises a first wireless communication unit for wireless communication with the second wearable device unit and the cloud server unit, respectively.
제2 항에 있어서,
상기 제1 착용형 장치부는,
상기 영상 정보 생성부가 설치되며 사용자의 상체에 착용할 수 있는 밴드 형태로 이루어진 제1 착용부; 및
상기 위치정보 수신부, 상기 제어부 및 상기 제1 무선 통신부가 설치되며 사용자의 어깨에 멜 수 있는 배낭 형태로 이루어진 제2 착용부를 더 포함하는 것을 특징으로 하는 시각장애인을 위한 길안내 서비스 시스템.
3. The method of claim 2,
The first wearable device unit,
a first wearing part in which the image information generating part is installed and in the form of a band that can be worn on the user's upper body; and
The navigation service system for the visually impaired, characterized in that it further comprises a second wearable part in the form of a backpack on which the location information receiving unit, the control unit, and the first wireless communication unit are installed.
제2 항에 있어서,
상기 제어부는,
가상 공간 내에서 상기 경로 정보와, 상기 진행 방향 및 상기 시선 방향을 비교하여 상기 진행 방향이 상기 경로 정보와 미리 설정된 범위 내에서 일치하는 상태로 사용자가 이동하는 경우 미리 설정된 순서에 따른 음계를 갖는 음향 데이터를 생성하여 상기 제어신호에 포함시키되, 상기 진행 방향이 상기 경로 정보에서 이탈하는 경우 경고음 데이터를 생성하여 상기 제어신호에 포함시키고, 상기 진행 방향이 상기 경로 정보에서 이탈되는 정도에 따라 상기 경고음 데이터의 음량이 단계적으로 증가되거나 빨라지도록 조정하는 것을 특징으로 하는 시각장애인을 위한 길안내 서비스 시스템.
3. The method of claim 2,
The control unit is
Sound having a scale according to a preset order when the user moves in a state in which the route information, the travel direction, and the gaze direction are compared with the route information in the virtual space and the travel direction matches the route information within a preset range Data is generated and included in the control signal, and when the traveling direction deviates from the path information, alarm sound data is generated and included in the control signal, and the warning sound data according to the degree to which the traveling direction deviates from the path information A navigation service system for the visually impaired, characterized in that the volume is adjusted to be increased or increased in stages.
제2 항에 있어서,
상기 제어부는,
가상 공간 내에서 상기 경로 정보와, 상기 진행 방향 및 상기 시선 방향을 비교하여 상기 진행 방향이 상기 경로 정보와 미리 설정된 범위 내에서 일치하는 상태로 사용자가 이동하는 경우 미리 설정된 진동 데이터를 생성하여 상기 제어신호에 포함시키되, 상기 진행 방향이 상기 경로 정보에서 이탈하는 경우 상기 진동 데이터의 진동 패턴과 크기를 조정하되, 상기 진행 방향이 상기 경로 정보에서 이탈되는 정도에 따라 상기 진동 데이터의 진동 패턴이 단계적으로 빠르게 증가하거나 진동 크기가 단계적으로 커지도록 조정하는 것을 특징으로 하는 시각장애인을 위한 길안내 서비스 시스템.
3. The method of claim 2,
The control unit is
By comparing the path information, the traveling direction, and the gaze direction in the virtual space, when the user moves in a state in which the traveling direction matches the path information within a preset range, preset vibration data is generated and the control is performed. Including in the signal, if the traveling direction deviates from the path information, adjust the vibration pattern and size of the vibration data, but the vibration pattern of the vibration data is gradually changed according to the degree to which the traveling direction deviates from the path information A navigation service system for the visually impaired, characterized in that it increases rapidly or adjusts the vibration amplitude step by step.
제2 항에 있어서,
상기 제2 착용형 장치부는,
안경 및 헤드셋 중 적어도 하나의 형태를 이루는 두부 착용 구조물;
상기 두부 착용 구조물 내에 설치되어 사용자의 시선 방향과 진행 방향을 감지하기 위한 자이로센서 및 지자기센서를 포함하는 센서부;
사용자의 음성을 입력 받기 위한 마이크를 포함하는 음성 입력부;
상기 제1 착용형 장치부로부터 수신되는 상기 제어신호를 청각적 방식을 통해 길안내 정보로 제공하기 위한 스피커를 포함하는 음향 출력부;
상기 제1 착용형 장치부로부터 수신되는 상기 제어신호를 촉각적 방식을 통해 길안내 정보로 제공하기 위한 진동소자를 포함하는 진동 발생부; 및
상기 제1 착용형 장치부와 무선 통신하기 위한 제2 무선 통신부를 포함하는 것을 특징으로 하는 시각장애인을 위한 길안내 서비스 시스템.
3. The method of claim 2,
The second wearable device unit,
a head wearing structure forming at least one of glasses and a headset;
a sensor unit installed in the head wearing structure and including a gyro sensor and a geomagnetic sensor for detecting a user's gaze direction and a moving direction;
a voice input unit including a microphone for receiving a user's voice;
a sound output unit including a speaker for providing the control signal received from the first wearable device unit as route guidance information through an auditory method;
a vibration generating unit including a vibrating element for providing the control signal received from the first wearable device unit as navigation information through a tactile method; and
Navigation service system for the visually impaired, characterized in that it comprises a second wireless communication unit for wireless communication with the first wearable device unit.
삭제delete 삭제delete
KR1020200031925A 2019-12-02 2020-03-16 System for providing navigation service for visually impaired person KR102351584B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190158170 2019-12-02
KR20190158170 2019-12-02

Publications (2)

Publication Number Publication Date
KR20210068970A KR20210068970A (en) 2021-06-10
KR102351584B1 true KR102351584B1 (en) 2022-01-17

Family

ID=76378295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200031925A KR102351584B1 (en) 2019-12-02 2020-03-16 System for providing navigation service for visually impaired person

Country Status (1)

Country Link
KR (1) KR102351584B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102482797B1 (en) 2022-08-23 2022-12-29 제주특별자치도 Navigation service system for wheel chair users and method thereof
KR20230161107A (en) 2022-05-18 2023-11-27 윤원호 Voice road guide device for a person who is visually handicapped

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202100021605A1 (en) * 2021-08-09 2023-02-09 Andrea Masi PRESENCE SIGNALER FOR PEOPLE WITH VISUAL IMPAIRMENT

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101796276B1 (en) * 2016-11-11 2017-11-10 주식회사 이누코리아 Pedestrian navigation device and system for the blind

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100807180B1 (en) * 2006-05-23 2008-02-27 한국과학기술원 Navigation service system and method for blind individuals
KR20150097043A (en) * 2014-02-17 2015-08-26 경북대학교 산학협력단 Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module
KR101765838B1 (en) * 2015-01-29 2017-08-10 유퍼스트(주) Wearable device for visual handicap person
KR20190004490A (en) * 2017-07-04 2019-01-14 이영륜 Walking guide system
KR101988037B1 (en) 2018-05-24 2019-06-11 변재형 Method for providing sign language regognition service for communication between disability and ability

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101796276B1 (en) * 2016-11-11 2017-11-10 주식회사 이누코리아 Pedestrian navigation device and system for the blind

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230161107A (en) 2022-05-18 2023-11-27 윤원호 Voice road guide device for a person who is visually handicapped
KR102482797B1 (en) 2022-08-23 2022-12-29 제주특별자치도 Navigation service system for wheel chair users and method thereof

Also Published As

Publication number Publication date
KR20210068970A (en) 2021-06-10

Similar Documents

Publication Publication Date Title
KR102351584B1 (en) System for providing navigation service for visually impaired person
JP6522527B2 (en) Wearable smart device for hazard detection and warning based on image and audio data
US9915545B2 (en) Smart necklace with stereo vision and onboard processing
US9629774B2 (en) Smart necklace with stereo vision and onboard processing
KR101091437B1 (en) Crosswalk guiding system for a blindperson
US10188580B2 (en) Systems and methods for providing environment information using an unmanned vehicle
KR101762494B1 (en) The drone, the route guidance drone set and the method of route guidance using them
US20130002452A1 (en) Light-weight, portable, and wireless navigator for determining when a user who is visually-impaired and/or poorly-oriented can safely cross a street, with or without a traffic light, and know his/her exact location at any given time, and given correct and detailed guidance for translocation
JPWO2005108926A1 (en) Information processing device, mobile device, and information processing method
WO2018156549A1 (en) Personal navigation system
JP2019536002A (en) Method, system and software for navigation in a global positioning system (GPS) rejection environment
WO2015083183A1 (en) Hand wearable haptic feedback based navigation device
KR101796276B1 (en) Pedestrian navigation device and system for the blind
Dunai et al. Obstacle detectors for visually impaired people
KR101715472B1 (en) Smart walking assistance device for the blind and Smart walking assistance system using the same
CN109106563A (en) A kind of automation blind-guide device based on deep learning algorithm
TW201900134A (en) Obstacle avoidance device
KR20220046504A (en) Hands-free pedestrian navigation system and method
Ilag et al. Design review of Smart Stick for the Blind Equipped with Obstacle Detection and Identification using Artificial Intelligence
KR102267840B1 (en) Drone Monitoring System
US10900788B2 (en) Wearable navigation system for the visually impaired
KR102081193B1 (en) Walking assistance device for the blind and walking system having it
US20230266140A1 (en) Mobility assistance device and method of providing mobility assistance
CA2898387A1 (en) Hand-held portable navigation system for visually impaired persons
KR20170004142A (en) GPS pedestrian navigation and location-based awareness Alarms sound for the visually impaired

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant