KR20210106210A - Visually Impaired Gait Assistance Based on AI Learning System and Method - Google Patents
Visually Impaired Gait Assistance Based on AI Learning System and Method Download PDFInfo
- Publication number
- KR20210106210A KR20210106210A KR1020200021102A KR20200021102A KR20210106210A KR 20210106210 A KR20210106210 A KR 20210106210A KR 1020200021102 A KR1020200021102 A KR 1020200021102A KR 20200021102 A KR20200021102 A KR 20200021102A KR 20210106210 A KR20210106210 A KR 20210106210A
- Authority
- KR
- South Korea
- Prior art keywords
- walking
- neckband
- visually impaired
- distance
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 33
- 230000005022 impaired gait Effects 0.000 title 1
- 230000001771 impaired effect Effects 0.000 claims abstract description 73
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 22
- 238000005259 measurement Methods 0.000 claims abstract description 19
- 230000006870 function Effects 0.000 claims abstract description 15
- 230000010354 integration Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 22
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 12
- 238000013459 approach Methods 0.000 claims description 10
- 230000005021 gait Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/006—Teaching or communicating with blind persons using audible presentation of the information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72475—User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
- H04M1/72481—User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for visually impaired users
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
- A61H2201/501—Control means thereof computer controlled connected to external computer devices or networks
- A61H2201/5012—Control means thereof computer controlled connected to external computer devices or networks using the internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5048—Audio interfaces, e.g. voice or music controlled
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Animal Behavior & Ethology (AREA)
- Economics (AREA)
- Educational Technology (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Pain & Pain Management (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Epidemiology (AREA)
- Physical Education & Sports Medicine (AREA)
- Child & Adolescent Psychology (AREA)
- Educational Administration (AREA)
- Marketing (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- Computational Linguistics (AREA)
- Rehabilitation Therapy (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 넥밴드, 스마트폰 앱 및 원격지원 센터로 구성되는 시각장애인 보행 보조 시스템 및 상기 시스템에서 카메라로 촬영된 영상을 활용하여 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 시각 장애인의 보행에 필요한 사물, 신호, 문자 및 거리측정 정보를 산출하고, 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 보행간 사용자 경고 음성안내의 우선순위 선정기준으로 활용하는 시각 장애인 보행 보조 방법에 관한 것이다.The present invention provides a walking assistance system for the visually impaired consisting of a neckband, a smartphone app, and a remote support center, and an image captured by a camera in the system for the walking of the visually impaired based on model data learned through artificial intelligence learning. Blind person who calculates necessary object, signal, text and distance measurement information, calculates risk object weight by combining the frequency of occurrence and risk of each event, and uses the weight information as a priority selection criterion for user warning voice guidance between walking It relates to a method of walking assistance.
시기능에 제한이 있는 시각 장애인은 일상 생활이나 보행시에 정상적인 활동을 자유롭게 하기 어렵다. 또한, 우리 사회에는 이러한 시각장애인과 관련된 복지제도의 열악 및 사회적 편견과 함께 보조 장비의 개발 미흡으로 인하여 시각 장애인들의 활동에 큰 제약이 있다.It is difficult for blind people with limited visual function to freely engage in normal activities in daily life or walking. In addition, in our society, there are great restrictions on the activities of the visually impaired due to the poor development of assistive devices along with poor social prejudice and poor welfare system related to the visually impaired.
이에, 시각 장애인이 정상적인 활동을 할 수 있는 장소 및 시설에 불편없이 안전하게 보행할 수 있도록 하는 시각 장애인 보호 장치로는 점자블록, 음성안내 장치 및 지팡이(stick)등이 있다.Accordingly, there are Braille blocks, voice guidance devices, and sticks as protection devices for the visually impaired that allow the visually impaired to safely walk without inconvenience in places and facilities where they can perform normal activities.
또한, 종래 지팡이는 시각장애인들이 보행중 주로 사용하고 있는 시각장애인 보호 장치로서, 지상의 부유 장애물에 대한 감지가 어려울 뿐만 아니라 보행중인 시각장애인에게 현재 위치 정보와 위급 또는 긴급 상황 발생시 효율적인 보호 조치를 제공할 수 없다는 문제점이 있다.In addition, the conventional cane is a protection device for the visually impaired that is mainly used by the visually impaired while walking, and it is difficult to detect floating obstacles on the ground as well as providing current location information and effective protection measures in case of an emergency or emergency to the visually impaired walking. The problem is that it cannot be done.
최근에는 맹도견을 훈련시켜 시각장애인과 함께 안전하게 보행할 수 있도록 하고 있으나, 이러한 조치 또한 맹도견을 훈련시키기 위한 비용 투자 및 맹도견을 유지 보호하기 위한 부대시설 등을 감안하면 시각장애인이 용이하게 사용하기에는 현실성이 없는 문제가 발생하였다.Recently, guide dogs have been trained so that they can walk safely with the visually impaired, but these measures are too realistic for the visually impaired to use easily, given the cost investment for training guide dogs and additional facilities to maintain and protect guide dogs. No problem occurred.
따라서, 시각 장애인을 보호할 수 있을 뿐만 아니라 위급 또는 긴급 상황 발생시 시각 장애인을 효율적으로 보호할 수 있는 시각 장애인 보호 방법이 필요한 실정이다.Accordingly, there is a need for a method for protecting the visually impaired that can protect the visually impaired as well as efficiently protect the visually impaired in case of an emergency or emergency.
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 본 발명은 시각 장애인이 보행시 주변상황을 촬영하기 위한 카메라, 안내정보를 제공하기 위한 스피커 및 경고 또는 안내등 역할을 하는 LED 등을 포함하는 넥밴드; 상기 넥밴드의 카메라로 촬영된 영상을 활용하여 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 시각 장애인의 보행에 필요한 사물, 신호, 문자 및 거리측정 정보를 산출하고 상기 인식된 사물, 신호, 문자, 거리측정을 기반으로 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 보행간 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여 보행을 안내하는 시각 장애인 보행지원 앱을 포함하는 스마트폰; 및 사용자의 요청에 의해 보행 관련 실시간 원격지원 기능을 포함하는 원격 지원 센터를 포함하는 시각 장애인 보행 보조 시스템에 관한 것이다. Accordingly, the technical problem of the present invention was conceived in this regard, and an object of the present invention is to provide a camera for photographing the surrounding situation when a visually impaired person walks, a speaker for providing guidance information, and a warning or guidance light. a neckband comprising an LED light; Using the image captured by the camera of the neckband, based on the model data learned through artificial intelligence learning, objects, signals, characters, and distance measurement information necessary for walking of the visually impaired are calculated, and the recognized objects, signals, characters , a walking support app for the visually impaired that guides walking by combining the frequency of occurrence and risk of each event based on distance measurement to calculate the risk object weight and using the weight information as a priority selection criterion for user warning voice guidance between walking including a smartphone; and a remote assistance center including a walking-related real-time remote assistance function at the user's request.
본 발명은 시각 장애인 보행 보조 시스템에서 촬영된 영상을 활용하여 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 시각 장애인의 보행에 필요한 사물, 신호, 문자 및 거리측정 정보를 산출하여 이를 안내하는 방법 및 상기 인식된 사물, 신호, 문자, 거리측정을 기반으로 각 건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 보행 간 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여 보행을 안내하는 방법에 관한 것이다.The present invention provides a method of calculating objects, signals, texts and distance measurement information necessary for walking of the visually impaired based on model data learned through artificial intelligence learning using images captured in a walking assistance system for the visually impaired and guiding them; Based on the recognized object, signal, text, and distance measurement, the risk object weight is calculated by combining the occurrence frequency and risk level of each case, and the weight information is used as a priority selection criterion for user warning voice guidance between walking to guide walking. it's about how to
본 발명에 따른 시각 장애인 보행 보조 시스템은 시각 장애인이 보행시 주변상황을 촬영하기 위한 원거리/근거리용 전방 카메라, 좌측/우측 카메라, 안내정보를 제공하기 위한 스피커 및 경고 또는 안내등 역할을 하는 LED 등을 포함하는 넥밴드 ;상기 넥밴드의 카메라로 촬영된 영상을 활용하여 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 시각 장애인의 보행에 필요한 사물, 신호, 문자 및 거리측정 정보를 산출하고, 상기 인식된 사물, 신호, 문자, 거리측정을 기반으로 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 보행간 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여 보행을 안내하는 시각 장애인 보행지원 앱을 포함하는 스마트폰; 및 사용자의 요청에 의해 보행 관련 실시간 원격지원 기능을 포함하는 원격 지원 센터를 포함할 수 있다. The blind walking assistance system according to the present invention provides a far/near front camera, a left/right camera, a speaker for providing guidance information, and an LED that serves as a warning or guide light for photographing surrounding situations when a visually impaired person walks. A neckband comprising: Calculating objects, signals, texts, and distance measurement information necessary for walking of the visually impaired based on model data learned through artificial intelligence learning using the image captured by the camera of the neckband, and Based on the recognized object, signal, text, and distance measurement, the frequency of occurrence of each event and the degree of risk are combined to calculate the risk object weight, and the weight information is used as a priority selection criterion for user warning voice guidance between walks to guide walking A smart phone including a walking assistance app for the visually impaired; and a remote support center including a walking-related real-time remote support function at the user's request.
일 실시예에 있어서, 상기 스마트폰의 보행지원 앱은, 보행자의 요청으로 인식된 텍스트를 음성 변환하는 텍스트 음성변화 앱과 원격지원 인력이 보행자의 요청에 응대하여 보행관련 실시간 지원을 가능하게 하는 SOS 원격지원 앱을 포함할 수 있다. In one embodiment, the walking support app of the smartphone is a text-to-speech app that converts text recognized as a request of a pedestrian into voice and a remote support worker responds to the request of a pedestrian and enables real-time walking-related support. It may include a remote support app.
일 실시예에 있어서, 상기 원격 지원센터에는 원격지원 프로그램을 포함하여, 사용자의 요청에 의해 원격 지원 인력에게 사용자의 위치 및 영상을 공유하고 원격지원 인력이 보행자의 요청에 응대하여 보행 관련 실시간 지원이 가능할 수 있다. In one embodiment, the remote support center includes a remote support program, the user's location and image are shared with the remote support personnel at the user's request, and the remote support personnel responds to the pedestrian's request to provide real-time assistance for walking. It may be possible.
일 실시예에 있어서, 상기 스마트폰의 보행지원 앱은 넥밴드의 전방 근거리용 카메라에서 촬영된 영상으로 픽셀 위치에 따른 거리 계산 알고리즘을 수행할 수 있다.In one embodiment, the walking support app of the smartphone may perform a distance calculation algorithm according to the pixel position with the image captured by the front short-distance camera of the neckband.
일 실시예에 있어서, 상기 스마트폰의 보행지원 앱은 넥밴드의 원거리/근거리용 전방 카메라, 좌측/우측 카메라에서 촬영된 영상으로 픽셀 위치에 따른 방향 계산 알고리즘을 수행할 수 있다.In one embodiment, the walking support app of the smartphone may perform a direction calculation algorithm according to pixel positions with images captured by the front camera for far/near distance and the left/right camera of the neckband.
일 실시예에 있어서, 상기 스마트폰의 보행지원 앱은 객제 식별 후 객체까지의 거리 계산 알고리즘에 의한 거리 산출 방법은 “객체까지의 거리=이미지상의 거리-처리 지연*이동속도”가 될 수 있다. In one embodiment, In the walking support app of the smartphone, the distance calculation method by the distance calculation algorithm to the object after object identification may be “distance to object = distance on image-processing delay * movement speed”.
일 실시예에 있어서, 상기 넥밴드의 원거리/근거리용 전방 카메라, 좌측/우측 카메라에서 촬영된 영상을 병합하는 영상통합 처리를 수행할 수 있다. In an embodiment, an image integration process for merging images captured by the front camera and the left/right camera for the far/near distance of the neckband may be performed.
일 실시예에 있어서, 상기 스마트폰의 보행 지원 앱에서는 넥밴드의 원거리용, 근거리용 전방 카메라, 좌측 카메라 및 우측 카메라에서 촬영된 영상을 병합하는 영상통합 비율을 조정하여 스마트폰의 영상 수신부로 전송하고 이 조정된 영상통합 비율을 넥밴드의 상기 영상통합처리 과정에 적용할 수 있다.In one embodiment, in the walking support app of the smartphone, the image integration ratio for merging images taken from the front camera, the left camera and the right camera of the neckband is adjusted and transmitted to the image receiver of the smartphone. and the adjusted image integration ratio can be applied to the image integration processing process of the neckband.
일 실시예에 있어서, 상기 위험 객체 인식에 따른 영상 통합 비율은 전방(근거리), 전방(원거리), 좌측, 우측 카메라에 대해 일반적인 상황일 경우는 1:1:1:1, 전방 근거리 위험 객체 접근 상황일 경우는 3:1:1:1, 후방/측방 위험객체 접근 상황일 경우는 1:1:2:2, 전방 원거리 위험객체 접근 상황일 경우는 1:3:1:1로 조정될 수 있다. In one embodiment, the image integration ratio according to the dangerous object recognition is 1:1:1:1 in a general situation for the front (near), front (far), left, and right cameras, the front near-danger object approach It can be adjusted to 3:1:1:1 in case of situation, 1:1:2:2 in case of approaching rear/side dangerous object, and 1:3:1:1 in case of approaching remote dangerous object in front. .
본 발명에 따른 시각 장애인 보행 보조 방법은 시각 장애인이 보행을 시작하면 시각장애인의 목에 착용된 넥밴드의 원거리/근거리용 전방 카메라, 좌측/우측 카메라에서 영상을 촬영하는 단계; 상기 촬영된 4개의 영상을 프레임 형태로 통합하는 단계; 상기 통합된 프레임 형태의 영상은 무선 통신으로 스마트폰의 보행지원 앱으로 수신되는 단계; 상기 수신된 영상을 활용하여 스마트폰의 보행 지원 앱에서 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 시각 장애인의 보행에 필요한 사물, 신호, 문자 및 거리측정 정보를 산출하고, 상기 인식된 사물, 신호, 문자, 거리측정을 기반으로 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여 보행자에게 제공할 음성 안내 정보를 생성하는 단계; 상기 생성된 음성 안내정보를 넥밴드의 제어부로 전송하는 단계; 및 상기 수신된 음성안내 정보를 넥밴드의 제어부에서 넥밴드의 스피커를 동작시켜 상기 음성 안내 정보가 음성으로 보행자에게 전달되는 단계를 포함할 수 있다. The blind walking assistance method according to the present invention comprises the steps of: when the blind person starts walking, taking an image from a front camera for far/near and a left/right camera of a neckband worn on the neck of the visually impaired; integrating the four captured images into a frame form; Receiving the image in the form of an integrated frame through wireless communication to a walking support app of a smart phone; Using the received image, the object, signal, text and distance measurement information necessary for walking of the visually impaired is calculated based on the model data learned through artificial intelligence learning in the walking support app of the smartphone, and the recognized object; Based on the signal, text, and distance measurement, the frequency of occurrence of each event and the degree of risk are combined to calculate the risk object weight, and the weight information is used as a priority selection criterion for user warning voice guidance to generate voice guidance information to be provided to pedestrians. to do; transmitting the generated voice guide information to a controller of a neckband; and operating a speaker of the neckband by a controller of the neckband based on the received voice guidance information to transmit the voice guidance information to the pedestrian by voice.
일 실시예에 있어서, 상기 스마트폰의 보행지원 앱은 넥밴드의 전방 근거리용 카메라에서 촬영된 영상으로 픽셀 위치에 따른 거리 계산 알고리즘을 수행할 수 있다.In one embodiment, the walking support app of the smartphone may perform a distance calculation algorithm according to the pixel position with the image captured by the front short-distance camera of the neckband.
일 실시예에 있어서, 상기 스마트폰의 보행지원 앱은 넥밴드의 원거리/근거리용 전방 카메라, 좌측/우측 카메라에서 촬영된 영상으로 픽셀 위치에 따른 방향 계산 알고리즘을 수행할 수 있다. In one embodiment, the walking support app of the smartphone may perform a direction calculation algorithm according to pixel positions with images captured by the front camera for far/near distance and the left/right camera of the neckband.
일 실시예에 있어서, 상기 스마트폰의 보행지원 앱은 객제 식별 후 객체까지의 거리 계산 알고리즘에 의한 거리 산출 방법은 “객체까지의 거리=이미지상의 거리-처리 지연*이동속도”가 될 수 있다. In an embodiment, in the walking support app of the smartphone, the distance calculation method by the distance calculation algorithm to the object after identifying the object may be “distance to object = distance on image-processing delay * movement speed”.
일 실시예에 있어서, 상기 넥밴드의 원거리/근거리용 전방 카메라, 좌측/우측 카메라에서 촬영된 영상을 병합하는 영상통합 처리를 수행할 수 있다. In an embodiment, an image integration process for merging images captured by the front camera and the left/right camera for the far/near distance of the neckband may be performed.
일 실시예에 있어서, 상기 스마트폰의 보행 지원 앱에서는 넥밴드의 원거리/근거리용 전방 카메라, 좌측/우측 카메라에서 촬영된 영상을 병합하는 영상통합 비율을 조정하여 스마트폰의 영상 수신부로 전송하고 이 조정된 영상통합 비율을 넥밴드의 상기 영상통합처리 과정에 적용할 수 있다. In one embodiment, the walking support app of the smartphone adjusts the image integration ratio for merging images captured by the front camera for far/near distance and the left/right camera of the neckband, and transmits it to the image receiver of the smartphone. The adjusted image integration ratio may be applied to the image integration processing process of the neckband.
일 실시예에 있어서, 상기 위험 객체 인식에 따른 영상 통합 비율은 원거리/근거리용 전방 카메라, 좌측/우측 카메라에 대해 일반적인 상황일 경우는 1:1:1:1, 전방 근거리 위험 객체 접근 상황일 경우는 3:1:1:1, 후방/측방 위험객체 접근 상황일 경우는 1:1:2:2, 전방 원거리 위험객체 접근 상황일 경우는 1:3:1:1로 조정될 수 있다. In one embodiment, the image integration ratio according to the dangerous object recognition is 1:1:1:1 in the case of a general situation for the far/near front camera and the left/right camera, in the case of a front near-danger object approach situation can be adjusted to 3:1:1:1, 1:1:2:2 in case of rear/side dangerous object approach situation, and 1:3:1:1 in front remote dangerous object approach situation.
본 발명의 실시예들에 의하면, 시각 장애인 보행 보조 시스템은 시각 장애인의 보행에 필요한 사물, 신호, 문자 및 거리측정 정보를 산출하여 이를 시각 장애인의 보행을 위해 효과적으로 안내할 수 있다.According to embodiments of the present invention, the blind walking assistance system can calculate objects, signals, texts, and distance measurement information necessary for walking of the visually impaired and effectively guide them for walking of the visually impaired.
또한, 상기 인식된 사물, 신호, 문자, 거리측정을 기반으로 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 보행간 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여 위험순위가 높은 정보를 우선적으로 시각장애인에게 안내할 수 있어 위험 대처 능력이 훨씬 향상될 수 있다.In addition, the risk object weight is calculated by combining the occurrence frequency and risk level of each event based on the recognized object, signal, text, and distance measurement, and the weight information is used as a priority selection criterion for user warning voice guidance between walking. Information with high risk priority can be given priority to the visually impaired, so the ability to cope with risks can be greatly improved.
또한, 보행약자의 위치 및 주변 영상 정보를 기반으로 원격 지원 센터와 연계된 실시간 지원이 가능하여 시각 장애인에게 위험 보다 안전성이 향상된 보행약자 안내 시스템을 제공할 수 있다.In addition, it is possible to provide real-time support linked to a remote support center based on the location and surrounding image information of the weak walking person, thereby providing a guide system for the visually impaired with improved safety than the risk.
도 1은 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템 및 그의 주요 기능을 설명하기 위한 개략 설명도이다.
도 2는 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템 중 넥밴드 장치에 개략 설계도이다.
도 3은 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템의 주요 장비 구성도이다.
도 4은 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템에서 인공지능 학습 모델에 의한 사용자의 보행 정보를 기반으로 발생빈도와 위험도를 결합하여 위험 객체 가중치 정보를 선정하는 기준을 나타낸 것이다.
도 5는 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템에서의 보행 지원 기능 처리 흐름도이다.
도 6는 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템에서 인공 지능 학습 모델에 의한 객체 인식 방법에 대한 일련의 과정을 도시한 것이다.
도 7는 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템에서 인공 지능 학습 모델에 의한 객체 인식 결과의 예시를 도시한 것이다.1 is a schematic explanatory diagram for explaining a system for assisting the visually impaired and its main functions according to an embodiment of the present invention.
2 is a schematic design diagram of a neckband device among the walking assistance system for the visually impaired according to an embodiment of the present invention.
3 is a block diagram of main equipment of a system for assisting the visually impaired according to an embodiment of the present invention.
4 shows a criterion for selecting risk object weight information by combining the occurrence frequency and risk level based on the user's gait information by the artificial intelligence learning model in the walking assistance system for the visually impaired according to an embodiment of the present invention.
5 is a flowchart of a gait support function processing in a system for assisting the visually impaired according to an embodiment of the present invention.
6 illustrates a series of processes for an object recognition method using an artificial intelligence learning model in a walking assistance system for the visually impaired according to an embodiment of the present invention.
7 illustrates an example of object recognition results by an artificial intelligence learning model in the walking assistance system for the visually impaired according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. Since the present invention may have various changes and may have various forms, embodiments will be described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms.
본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as "comprises" or "consisting of" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, but one or more other features It is to be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템(1) 및 그의 주요 기능을 설명하기 위한 개략 설명도이다.1 is a schematic explanatory diagram for explaining a
도 1은 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템(1)은 카메라 및 스피커를 포함하는 넥밴드(100), 인공지능 학습을 통해 넥밴드(100)에서 전달받은 영상을 분석하여 보행에 필요한 정보를 제공하는 스마트폰(200) 및 사용자의 요청에 의해 보행 관련 실시간 원격지원 기능을 포함하는 원격 지원센터(300)를 포함할 수 있다. 1 is a
상기 시각 장애인 보행 보조 시스템(1)의 주요기능은 시각장애인의 보행시 안내할 사물 인식, 각종 교통신호 인식, 각 사물과의 거리 인식/측정, 및 주변 사물에 기재된 문자 인식 등의 기능이다.The main functions of the blind
상기 기능 등이 얼마나 정확히 구현되고 시각장애인에게 도움이 되는지에 따라서 시스템의 성능이 결정될 수 있다.The performance of the system may be determined depending on how accurately the functions and the like are implemented and helpful for the visually impaired.
본 발명의 상기 시각 장애인 보행 보조 시스템은 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 넥밴드의 카메라에서 촬영된 영상들을 분석하여 이러한 기능들의 성능을 향상시키고 정확도를 높이고자 한다.The blind walking assistance system of the present invention analyzes images captured by a neckband camera based on model data learned through artificial intelligence learning to improve the performance of these functions and increase accuracy.
도 2는 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템(1) 중 넥밴드(100) 장치에 개략 설계도이다. 2 is a schematic design diagram of the
도 2를 참조하면, 본 실시예에 의한 시각 장애인 보행 보조 시스템(1)중 넥밴드 장치(100)는 2개의 전방카메라(101, 102), 2개의 측면카메라(103, 104), 4개의 적외선 LED(105, 106, 107, 108), 2개의 스피커(109, 110), 2개의 LED 표시등(111, 112), 2개의 LED 모듈(113, 114), 영상처리 보드(115), 제어 보드(116), 전원보드(117) 및 배터리(118)를 포함할 수 있다. Referring to FIG. 2 , the
이 경우, 상기 카메라, 적외선 LED, LED 표시등, LED 모듈 및 스피커는 그 종류나 형상, 구조 및 개수 등은 제한되지 않는다. In this case, the type, shape, structure and number of the camera, infrared LED, LED indicator, LED module, and speaker are not limited.
한편, 시각 장애인 보행 보조 장치로서 넥밴드형의 구조를 가지는 장치를 선택함으로써, 시각 장애인이 목주변에 상기 넥밴드형 장치를 착용하고 보행시 넥밴드에 설치된 4개의 카메라로 시각 장애인의 신체에 의한 가림 및 방해 없이 자유롭게 촬영이 가능할 수 있다.On the other hand, by selecting a device having a neckband-type structure as a walking assistance device for the visually impaired, the visually impaired person wears the neckband-type device around the neck and uses the four cameras installed on the neckband when walking. It is possible to take pictures freely without blocking or interference.
또한, 이를 착용하는 시각 장애인 역시 항상 손을 자유롭게 사용할 수 있어 보행시 더욱 편리함을 추구할 수 있다.In addition, the visually impaired who wear it can always use their hands freely, so that more convenience can be pursued while walking.
상기 넥밴드의 전방카메라(101,102)는 원거리용 및 근거리용이 하나씩 넥밴드의 한쪽 끝부분에 설치될 수 있다. The
상기 4개의 카메라에서 촬영된 영상들은 영상처리보드(115)에서 처리과정이 진행될 수 있다. The images captured by the four cameras may be processed by the image processing board 115 .
이에 원거리용 및 근거리용 카메라 각각에 맞추어 적외선 LED(105, 106)이 설치되어 빛이 없는 야간에도 카메라 촬영이 가능하게 할 수 있다.Accordingly, infrared LEDs 105 and 106 are installed in accordance with each of the distant and short-distance cameras, so that the camera can be photographed even at night when there is no light.
또한, 넥밴드(100)의 양쪽 측면에 측면카메라(103, 104)가 하나씩 설치되어 시각 장애인의 좌측 및 우측부를 촬영하는 용도로 사용될 수 있다.In addition, the side cameras (103, 104) are installed one by one on both sides of the
이에 좌측 및 우측 카메라에 맞추어 적외선 LED(107, 108)가 설치될 수 있다.Accordingly, infrared LEDs 107 and 108 may be installed to match the left and right cameras.
상기 2개의 스피커(109,110)는 넥밴드(100)의 양쪽에 하나씩 위치하되 사람의 귀에 가까운 거리에 위치하도록 하면 소리를 전달하는 면에서 효과적일 수 있다. The two speakers 109 and 110 are located one on each side of the
상기 2개의 LED 표시등(111, 112)은 넥밴드(100)의 양쪽에 하나씩 위치하되 사람의 눈에 가까운 거리에 위치하도록 하면 시각 장애인이라 하더라도 LED 불빛을 인식하기에 효과적이다.The two LED indicators 111 and 112 are located one on each side of the
상기 2개의 LED 표시등은 넥밴드(100)에 존재하는 LED 모듈(113, 114)에서 컨트롤 할 수 있다. The two LED indicators can be controlled by the LED modules 113 and 114 present in the
상기 2개의 LED 표시등(111, 112)은 시각장애인에게 경고용 또는 알림용으로 활용될 수 있다.The two LED indicators 111 and 112 may be used for warning or notification to the visually impaired.
상기 배터리(118)는 전원 보드(117)의 제어를 받으며 넥밴드(100)에 필요한 전원을 제공할 수 있다.The battery 118 may be controlled by the power board 117 and may provide power required for the
상기 제어보드(113)에는 상기 영상처리보드(115), LED 모듈(113, 114), 스피커(109,110) 및 전원보드(117)를 제어하기 위한 제어부(120)가 위치한다. A control unit 120 for controlling the image processing board 115 , the LED modules 113 and 114 , the speakers 109 and 110 , and the power board 117 is located on the control board 113 .
도 3은 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템(1)의 주요 장비 구성도이다.3 is a block diagram of the main equipment of the
도 3을 참조하면, 상기 넥밴드(100)의 2개의 전방 카메라(101,102) 및 좌측/우측 카메라(103, 104)로 구성되는 4개의 카메라가 영상처리 보드(115)에 연결되어 영상처리보드(115)의 제어를 받을 수 있다. Referring to FIG. 3 , four cameras including two
상기 4개의 카메라(101,102,103,104)에서 촬영된 영상들은 영상처리보드(115)에서 영상통합 Frame으로 병합 및 영상통합비율 조정 등의 처리 과정이 진행될 수 있다. The images captured by the four
이에 4개의 카메라(101,102,103,104) 각각에 맞추어 적외선 LED(105, 106,107,108))이 설치될 수 있고, 이는 영상처리 보드(115) 내에 존재하는 조도 센서(119)의 컨트롤을 받아 동작될 수 있다.Accordingly, infrared LEDs 105, 106, 107, 108) may be installed to fit each of the four
상기 적외선 LED는 빛이 없는 야간에도 카메라 촬영이 가능하게 할 수 있는 장점이 있다.The infrared LED has the advantage of enabling the camera to take pictures even at night when there is no light.
즉, 적외선 LED를 이용하여 사람의 눈에 보이지 않는 적외선을 조명으로 이용할 수 있다. 촬영된 이미지는 흑백으로만 나타나는 단점이 있지만, 일반 조명이 달린 카메라에 비해 야간 촬영 능력이 뛰어나서 시각 장애인들이 야간에 이동하거나 어두운 장소를 이용할 때 효과적일 수 있다.That is, infrared LEDs invisible to the human eye can be used as lighting by using infrared LEDs. Although the photographed image only appears in black and white, it has superior nighttime shooting ability compared to a camera with general lighting, so it can be effective when the visually impaired move at night or use a dark place.
도 2에서 상술한 바와 같이, 넥밴드(100)에는 2개의 스피커(109,110), 2개의 LED표시등(111,112)이 넥밴드(100)의 정해진 위치에 구비되어 있다.As described above in FIG. 2 , in the
상기 2개의 LED표시등(111, 112)은 넥밴드에 존재하는 LED 모듈(113, 114)에서 컨트롤될 수 있다. The two LED indicators 111 and 112 can be controlled by the LED modules 113 and 114 present in the neckband.
또한, 배터리(118)는 전원보드(117)의 제어를 받으며 넥밴드(100)에 필요한 전원을 제공할 수 있다.In addition, the battery 118 may be controlled by the power board 117 to provide power required for the
상기 제어보드(113)에는 상기 영상 처리 보드, LED 모듈(113,114), 스피커(109,110) 및 전원보드(117)를 제어하기 위한 제어부(120)가 위치한다. 또한, 상기 제어 보드(116)에는 넥밴드 외부로의 통신을 위한 통신부(121) 및 사용자의 음성을 취득할 수 있는 마이크(122)를 포함할 수 있다.A control unit 120 for controlling the image processing board, the LED modules 113 and 114 , the speakers 109 and 110 , and the power board 117 is located on the control board 113 . In addition, the control board 116 may include a communication unit 121 for communicating with the outside of the neckband and a microphone 122 for acquiring a user's voice.
상기 넥밴드(100)의 통신부(121)를 구동하여 넥밴드(100)의 카메라에서 촬영된 영상정보들이 스마트폰(200)으로 전송될 수 있다.By driving the communication unit 121 of the
상기 스마트폰(200)은 보행 지원 앱(210)을 포함하고 있어, 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 상기 넥밴드(100)에서 전달받은 영상을 분석하여 시각 장애인의 보행에 필요한 사물/장애물 인식, 신호인식, 문자인식 기능을 수행할 수 있다. The
이때, 영상 픽셀위치에 따른 거리계산 알고리즘과 픽셀 위치에 따른 방향 계산 알고리즘이 사용될 수 있다. In this case, a distance calculation algorithm according to an image pixel position and a direction calculation algorithm according to a pixel position may be used.
상기 스마트폰(200) 보행지원 앱(210)은 상기 인식된 텍스트를 음성 변환하는 텍스트 음성변화 앱(220)을 포함할 수 있다.The
상기 스마트폰(200) 보행지원 앱(210)은 원격지원 인력이 보행자의 요청에 응대하여 보행 관련 실시간 지원을 가능하게 하는 SOS 원격지원 앱(230)을 포함할 수 있다.The
상기 스마트폰 보행지원 앱(210)에서 생성된 제어정보들은 스마트폰(200)의 통신부(여기에 기재되지 않음)를 통하여 넥밴드(100)의 통신부(121)로 전송되고, 이를 수신한 넥밴드(100)의 제어부(120)에서 각 연관된 장치들을 제어하기 위해 사용될 수 있다.The control information generated by the smartphone walking support app 210 is transmitted to the communication unit 121 of the
즉, 예를 들면, 스마트폰(200)의 텍스트 음성변화 앱(220)에서 지하철역 출입구에 대한 텍스트가 인식되어 사용자에게 음성안내 정보가 준비되었다면, 이 정보는 넥밴드(100)의 제어부(120)로 전송되고 상기 제어부(120)에서는 상기 정보가 넥밴드(100)의 스피커(109, 110)를 통하여 안내되도록 제어되어질 수 있다. That is, for example, if the text for the subway station entrance is recognized by the text-to-speech app 220 of the
상기 원격 지원 센터(300)에는 원격지원 프로그램(310)을 포함하여, 사용자의 요청에 의해 원격 지원 인력에게 사용자의 위치 및 영상을 공유하고 원격지원 인력이 보행자의 요청에 응대하여 보행 관련 실시간 지원이 가능하다.The
도 4은 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템(1)에서 인공지능 학습 모델에 의한 사용자의 보행 정보를 기반으로 발생빈도와 위험도를 결합하여 위험 객체 가중치 정보를 선정하는 기준을 나타낸 것이다. 4 shows a criterion for selecting risk object weight information by combining the occurrence frequency and risk level based on the user's gait information by the artificial intelligence learning model in the
이는 인공지능을 활용한 사용자의 보행 정보를 기반으로 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하며, 상기 위험 객체 가중치 정보는 보행간 사용자 정보의 우선순위 선정 기준으로 활용하기 위한 것이다.This is to calculate the risk object weight by combining the occurrence frequency and risk level based on the user's walking information using artificial intelligence, and the risk object weight information is used as a priority selection criterion for user information between walking.
도 4(1)을 참조하면, 일실시예로 발생빈도에 대한 기준에 대해서는, 사용자 보행정보를 분석하여 사건발생이 월 1회 이상 발생된다면 발생 빈도가 낮음으로 기준되고, 주 1회 이상이면 발생 빈도가 보통으로 기준되고, 일주일에 1회 이상 발생한다면 발생 빈도가 높음으로 기준될 수 있다. Referring to FIG. 4 ( 1 ), in one embodiment, with respect to the criterion for the frequency of occurrence, if the occurrence of an event occurs more than once a month by analyzing user gait information, the occurrence frequency is set as low, and if it occurs more than once a week The frequency is set as moderate, and if it occurs more than once a week, it can be set as a high frequency of occurrence.
또한, 도 5(2)를 참조하면, 일 실시예로 위험수준의 기준에 대해서는, 차도위 주차되어 있는 차량정도의 신체 위험외 위험이라면 위험 수준을 낮음으로 기준하고, 다가오는 자전거, 보행간 움푹 페인 장소와 같은 경미한 신체 위험을 초래할 수 있는 위험이라면 위험수준을 보통으로 기준하고, 공사장, 인도위 다가오는 차량와 같이 심각한 신체 위험을 초래할 수 있는 위험이라면 위험수준을 높음으로 기준할 수 있다.In addition, referring to FIG. 5 ( 2 ), in one embodiment, with respect to the standard of the level of risk, if it is a risk other than a physical risk of a vehicle parked on the roadway, the risk level is set as low, and oncoming bicycles and walking dents If it is a risk that can cause a minor bodily hazard, such as a location, the risk level is considered as moderate, and if it is a risk that can cause serious bodily harm, such as a construction site or oncoming vehicle on a sidewalk, the risk level may be set as high.
상기 발생빈도와 위험도에 대한 기준을 기반으로 도 5(3)에서와 같이, 보행 위험 객체 가중치를 산출할 수 있다.Based on the criteria for the occurrence frequency and risk, as shown in FIG. 5(3), the weight of the walking risk object may be calculated.
즉 발생빈도의 기준을 낮음, 보통, 높음으로 하고 위험도의 기준을 낮음, 보통, 높음으로 하여 각각의 보행 위험 객체 가중치를 산출할 수 있다. 이 설정된 보행 위험 객체 가중치를 활용하여 시각 장애인이 보행할 때 경보 즉 음성 안내의 우선순위를 결정할 수 있다.That is, the weight of each walking risk object can be calculated by setting the frequency of occurrence as low, normal, and high and the risk as low, normal, and high. By using the set weight of the gait risk object, it is possible to determine the priority of the alarm, that is, the voice guidance when the visually impaired walk.
즉, 상기 보행 위험 객체 가중치가 높을수록 음성 안내의 우선순위를 높게 하고 그에 맞게 음성 안내를 다른 음성 안내보다 먼저 진행할 수 있다.That is, the higher the weight of the walking risk object, the higher the priority of the voice guidance, and accordingly, the voice guidance can be performed before other voice guidance.
만약 보행 위험 객체 가중치가 낮다면 음성 안내의 우선순위에서 후순위로 결정되어 그게 맞게 음성 안내를 다른 음성 안내보다 후순위로 진행할 수 있다. If the weight of the walking risk object is low, the voice guidance is determined as a lower priority in priority, and accordingly, the voice guidance can be performed with a lower priority than other voice guidance.
도 5는 도 4의 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 사용자 경고 음성안내의 우선순위 선정기준으로 활용하면서 상기 시각 장애인 보행 보조 시스템(1)에서 보행지원 기능 처리 흐름도를 나타낸 것이다.5 is a view showing a walking support in the
시각 장애인이 보행을 시작하면 시각장애인의 목에 착용된 넥밴드의 상기 4개의 카메라(101, 102, 103, 104)에서 근거리, 원거리 전방, 좌측 및 우측 방향의 영상을 촬영하게 된다(S1).When the blind person starts walking, the four
상기 촬영된 4개의 영상은 프레임 형태로 통합된다(S2).The four captured images are integrated in the form of a frame (S2).
상기 통합된 프레임 형태의 영상은 무선 통신으로 스마트폰(200)의 영상수신부로 수신된다(S3).The image in the form of the integrated frame is received by the image receiving unit of the
상기 스마트폰(200)의 보행 지원 앱에 존재하는 영상 분석부에서는 넥밴드(100)로부터 수신된 영상을 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 분석한다(S5).The image analysis unit existing in the walking support app of the
여기서, 근거리용 전방카메라(101)로 촬영된 영상으로 위험 객체 식별 및 픽셀 위치에 따른 거리 계산 알고리즘을 수행할 수 있다. Here, it is possible to perform a distance calculation algorithm according to the identification of the dangerous object and the pixel position with the image taken by the front camera 101 for a short distance.
객체에 대한 거리 계산 알고리즘으로 객체까지의 거리 산출 방법은 “객체까지의 거리=이미지상의 거리-처리 지연*이동속도”가 될 수 있다(S5-1).As the distance calculation algorithm for the object, the method of calculating the distance to the object may be “distance to object = distance on image-processing delay * movement speed” (S5-1).
일예로서, 위험 객체 식별 및 거리 계산하고 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여, 1차 음성 안내 대상을 선별하였다면 이에 대해 1 차 음성 안내를 진행할 수 있다. 예를 들면, "3 m 앞에 계단이 있습니다.”는 식의 음성 안내를 진행할 수 있다. As an example, by calculating the risk object identification and distance, calculating the risk object weight by combining the occurrence frequency and risk of each event, and using the weight information as a priority selection criterion for user warning voice guidance, the primary voice guidance target is selected If so, you can proceed with the first voice guidance. For example, a voice guidance such as "There are stairs 3 m ahead" can be performed.
그 후, 전방 원거리용 카메라 및 좌측/우측 카메라에서 촬영된 영상으로 객체별 방향 계산을 진행하여 list up하고 이에 대해 위험 객체 식별 및 거리 계산하고 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여, 2차 음성 안내 대상을 선별하여 2차 안내를 진행할 수 있다. 예를 들면,“전방 2시 방향에 횡단 보도가 있습니다.”라고 방향 정보가 포함된 음성 안내를 진행할 수 있다.After that, the direction calculation is carried out for each object with the images taken from the front remote camera and the left/right camera, and the list up is performed, and the risk object is identified and distance calculated. By calculating and using the weight information as a priority selection criterion for user warning voice guidance, a secondary voice guidance target may be selected and the secondary guidance may be performed. For example, a voice guidance with direction information may be provided saying, “There is a crosswalk at 2 o'clock ahead.”
또한, 상기 전방 원거리용 카메라 및 좌측/우측 카메라에서 촬영된 영상의 이전 프레임과 비교하여 위험 객체별 크기 및 위치 변화를 계산하여 위험 객체가가 근접해 오는 상황을 파악할 수 있다.In addition, it is possible to determine the situation in which the dangerous object price approaches by calculating the size and position change for each dangerous object by comparing with the previous frames of the images captured by the front remote camera and the left/right camera.
이로 인하여 위험 객체 식별 및 거리 계산하고 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여, 3차 음성 안내를 “전방 1시 방향으로 자전거가 다가오고 있습니다.”와 같이 진행할 수 있다. For this reason, the dangerous object identification and distance are calculated, and the risk object weight is calculated by combining the occurrence frequency and risk of each event. A bicycle is approaching in the o’clock direction.”
또한, 상기 스마트폰의 보행지원 앱은 넥밴드의 전방 원거리용 카메라 및 좌측/우측 카메라에서 촬영된 영상으로 픽셀 위치에 따른 방향 계산 알고리즘을 수행할 수 있다(S5-2).In addition, the walking support app of the smartphone may perform a direction calculation algorithm according to the pixel position with the images captured by the front and left cameras of the neckband and the left/right cameras (S5-2).
상기 음성 안내 정보는 스마트폰에서 넥밴드의 제어부로 전송되어 이에 따라 넥밴드에서 음성 안내 정보가 수신될 수 있다(S6-S7). The voice guidance information is transmitted from the smart phone to the controller of the neckband, so that the voice guidance information can be received from the neckband (S6-S7).
상기 넥밴드의 스피커(109,110)에서는 스마트폰(200)으로부터 상기 음성안내 정보를 전송받고 주변소음측정을 기반으로 볼륨을 자동 조절하여 음성안내를 할 수 있다(S8). The speakers 109 and 110 of the neckband may receive the voice guidance information from the
상기 수신된 음성안내 정보를 넥밴드의 제어부에서 스피커 1과 스피커 2를 동작시켜 상기 안내 멘트가 음성으로 사용자에게 전달될 수 있다(S9). Using the received voice guidance information, the control unit of the neckband operates the
예시된 바와 같이 상기 스마트폰(200)의 보행 지원 앱에 존재하는 영상 분석부에서는 넥밴드(100)로부터 수신된 영상을 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 위험객체에 대한 거리, 방향, 위치 변화들을 파악할 수 있어 시각장애인의 보행을 보다 정확하고 안전하게 도울 수 있다. As illustrated, in the image analysis unit present in the walking support app of the
또한, 상기 영상분석(S5)후에 상기 넥밴드의 원거리용, 근거리용 전방 카메라, 좌측 카메라, 및 우측 카메라에서 촬영된 영상을 병합한 영상통합 비율을 인공지능 학습을 통한 모델을 사용하여 조정할 수 있다(S10).In addition, after the image analysis (S5), the image integration ratio of merging images captured by the front camera, the left camera, and the right camera of the neckband for far and near can be adjusted using a model through artificial intelligence learning. (S10).
상기 영상 통합 비율은 전방(근거리), 전방(원거리), 좌측, 우측 카메라에 대해 일반적인 상황일 경우는 1:1:1:1, 전방 근거리 위험 객체 접근 상황일 경우는 3:1:1:1, 후방/측방 위험객체 접근 상황일 경우는 1:1:2:2, 전방 원거리 위험객체 접근 상황일 경우는 1:3:1:1로 조정될 수 있다. The video integration ratio is 1:1:1:1 for the front (near), front (far), left, and right cameras in general situations, and 3:1:1:1 in the case of front near-danger object approach situations. , it can be adjusted to 1:1:2:2 in case of approaching rear/side dangerous object, and 1:3:1:1 in case of approaching remote dangerous object in front.
상기 조정된 영상 통합 비율은 스마트폰에서 넥밴드의 영상 처리부로 전송되어 영상 통합 처리 과정에 반영될 수 있다(S11-S12).The adjusted image integration ratio may be transmitted from the smartphone to the image processing unit of the neckband and reflected in the image integration process (S11-S12).
도 6는 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템에서 인공 지능 학습 모델에 의한 객체 인식 방법에 대한 일련의 과정을 도시한 것이다.6 illustrates a series of processes for an object recognition method using an artificial intelligence learning model in the walking assistance system for the visually impaired according to an embodiment of the present invention.
도 6는 도 4의 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 사용자 경고 음성안내의 우선순위 선정기준으로 활용하고, 도 5 와 같이 시각 장애인 보행 보조 시스템(1)에서 일련의 보행지원을 위한 보행지원 기능 처리 흐름도를 거쳐 인식 및 음성 안내되는 결과에 대한 일련의 예에 해당할 수 있다.FIG. 6 is a method for calculating a risk object weight by combining the frequency of occurrence and risk of each event of FIG. 4, and using the weight information as a priority selection criterion for user warning voice guidance, as shown in FIG. 5, the blind walking assistance system (1) ) may correspond to a series of examples of the result of recognition and voice guidance through a flow of gait support function processing for a series of gait support.
먼저, 도 6(1)을 참조하면, 넥밴드(100)에서 촬영된 영상을 통해 인공 지능 학습 모델에 의한 스마트폰의 보행지원 앱(210)에서는 차선과 전방의 자동차를 인식할 수 있다. 이때 자동차는 시각 장애인의 전방 진행 방향에 장애물로 인식될 수 있어 이에 대한 음성 안내를 진행할 수 있다. First, referring to FIG. 6 ( 1 ), a lane and a vehicle in front can be recognized in the walking support app 210 of the smartphone using an artificial intelligence learning model through an image captured by the
도 6(2)을 참조하면, 사용자가 움직임이 없는 차선내에 주차되어 있는 자동차를 지나고 나면 차선밖 원거리의 신규 장애물을 식별할 수 있다. Referring to FIG. 6(2) , after a user passes a vehicle parked in a non-moving lane, a new obstacle in the distance outside the lane may be identified.
또한, 도 6(3)과 같이, 신규 장애물에서 위치 변화 즉 움직임이 있고 시각 장애인의 보행 방향에서 멀어진다면 음성 안내를 진행하지 않을 수 있다. In addition, as shown in FIG. 6( 3 ), if there is a change in position, that is, a movement in the new obstacle, and it moves away from the walking direction of the visually impaired, the voice guidance may not proceed.
또한, 도 6(4)와 같이, 이에 대해 신규 장애물에서 위치 변화 즉 움직임이 있고 시각 장애인의 보행 방향으로 다가오는 것이 인식된다면 이에 대한 음성 안내를 진행할 수 있다. In addition, as shown in FIG. 6( 4 ), if there is a change in position, that is, a movement in the new obstacle, and it is recognized that approaching in the walking direction of the blind person is recognized, voice guidance for this may be performed.
도 7는 본 발명의 일 실시예에 의한 시각 장애인 보행 보조 시스템에서 인공 지능 학습 모델에 의한 객체 인식 결과의 예시를 도시한 것이다.7 illustrates an example of object recognition results by an artificial intelligence learning model in the walking assistance system for the visually impaired according to an embodiment of the present invention.
도 7(1)과 같이, 원거리 및 근거리의 객체들이 인식될 수 있다. 즉 원거리에 있는 승용차들, 트럭, 사람, 자전거들이 인식될 수 있고, 근거리에 있는 사람 및 사람이 들고 있는 핸드백등이 인식될 수 있다.As illustrated in FIG. 7( 1 ) , distant and near objects may be recognized. That is, cars, trucks, people, and bicycles at a distance may be recognized, and a person and a handbag held by a person at a short distance may be recognized.
또한, 도 7(2)와 같이, 원거리에 있는 승용차들, 트럭들, 교통신호들이 이인식될 수 있고, 근거리에 있는 자동차들, 교통신호 및 횡단보도가 인식될 수 있다.In addition, as shown in FIG. 7(2), distant cars, trucks, and traffic signals may be recognized, and vehicles, traffic signals and crosswalks in the near distance may be recognized.
한편, 원격 지원 센터의 원격 지원 프로그램을 통해 사용자의 요청에 의해 원격지원 인력에게 사용자의 위치 및 영상을 공유할 수 있다.Meanwhile, the user's location and image may be shared with remote support personnel at the request of the user through the remote support program of the remote support center.
이 때, 상기 스마트폰의 SOS 원격지원 앱은 사용자의 위치 & 주변 영상정보를 기반으로 원격 지원 센터와 연계된 실시간 지원 기능을 수행할 수 있다. In this case, the SOS remote support app of the smartphone may perform a real-time support function linked to the remote support center based on the user's location & surrounding image information.
즉, 원격지원 인력이 사용자의 위치 & 주변 영상정보를 기반으로 사용자의 요청에 응대하여 스마트폰의 SOS 원격지원 앱을 통해 보행관련 실시간 지원을 제공할 수 있다.That is, the remote support personnel can provide real-time assistance related to walking through the SOS remote support app of the smartphone by responding to the user's request based on the user's location & surrounding image information.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can.
넥밴드 : 100, 스마트폰 : 200,
원격지원센터: 300,
보행지원 앱: 210, 텍스트 음성변환 앱: 220
SOS 원격지원 앱: 230 Neckband: 100, Smartphone: 200,
Remote Support Center: 300,
Walking assistance app: 210, Text-to-speech app: 220
SOS Remote Assistance App: 230
Claims (16)
상기 넥밴드의 카메라로 촬영된 영상을 활용하여 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 시각 장애인의 보행에 필요한 사물, 신호, 문자 및 거리측정 정보를 산출하고, 상기 인식된 사물, 신호, 문자, 거리측정을 기반으로 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 보행간 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여 보행을 안내하는 시각 장애인 보행지원 앱을 포함하는 스마트폰; 및
사용자의 요청에 의해 보행 관련 실시간 원격지원 기능을 포함하는 원격 지원 센터를 포함하는 시각 장애인 보행 보조 시스템. A neckband including a front camera for far/near and a left/right camera, a speaker for providing guidance information, and an LED that serves as a warning or guide light for photographing surrounding situations when the visually impaired walk;
Using the image taken with the camera of the neckband, based on the model data learned through artificial intelligence learning, objects, signals, characters, and distance measurement information necessary for walking of the visually impaired are calculated, and the recognized objects, signals, A walking support app for the visually impaired that guides walking by combining the frequency of occurrence and risk of each event based on text and distance measurement to calculate the weight of the risk object and using the weight information as a priority selection criterion for user warning voice guidance between walking A smartphone comprising; and
A walking assistance system for the visually impaired including a remote support center including a real-time remote support function related to walking at the user's request.
상기 촬영된 4개의 영상을 프레임 형태로 통합하는 단계;
상기 통합된 프레임 형태의 영상은 무선 통신으로 스마트폰의 보행지원 앱으로 수신되는 단계;
상기 수신된 영상을 활용하여 스마트폰의 보행 지원 앱에서 인공지능 학습을 통해 학습된 모델 데이터를 기반으로 시각 장애인의 보행에 필요한 사물, 신호, 문자 및 거리측정 정보를 산출하고, 상기 인식된 사물, 신호, 문자, 거리측정을 기반으로 각 사건의 발생빈도와 위험도를 결합하여 위험 객체 가중치를 산출하여 상기 가중치 정보를 사용자 경고 음성안내의 우선순위 선정기준으로 활용하여 보행자에게 제공할 음성 안내 정보를 생성하는 단계;
상기 생성된 음성 안내정보를 넥밴드의 제어부로 전송하는 단계; 및
상기 수신된 음성안내 정보를 넥밴드의 제어부에서 넥밴드의 스피커를 동작시켜 상기 음성 안내 정보가 음성으로 보행자에게 전달되는 단계를 포함하는 것을 특징으로 하는 시각 장애인 보행 보조 방법. When the blind person starts walking, taking an image from a front camera for far/near and a left/right camera of a neckband worn on the neck of the visually impaired;
integrating the four captured images into a frame form;
Receiving the image in the form of an integrated frame through wireless communication to a walking support app of a smart phone;
Using the received image, the object, signal, text and distance measurement information necessary for walking of the visually impaired is calculated based on the model data learned through artificial intelligence learning in the walking support app of the smartphone, and the recognized object; Based on the signal, text, and distance measurement, the frequency of occurrence of each event and the degree of risk are combined to calculate the risk object weight, and the weight information is used as a priority selection criterion for user warning voice guidance to generate voice guidance information to be provided to pedestrians. to do;
transmitting the generated voice guide information to a controller of a neckband; and
and transmitting the received voice guidance information to a pedestrian by operating a speaker of the neckband by a controller of the neckband to transmit the voice guidance information to the pedestrian.
The method according to claim 10, wherein the image integration ratio according to the dangerous object recognition is 1:1:1:1 in a general situation for the far/near front camera and the left/right camera, and in the case of a front near-danger object approach situation. is 3:1:1:1, 1:1:2:2 in case of rear/side dangerous object approach situation, 1:3:1:1 in case of front remote dangerous object approach situation, characterized in that Blind walking assistance method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200021102A KR20210106210A (en) | 2020-02-20 | 2020-02-20 | Visually Impaired Gait Assistance Based on AI Learning System and Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200021102A KR20210106210A (en) | 2020-02-20 | 2020-02-20 | Visually Impaired Gait Assistance Based on AI Learning System and Method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210106210A true KR20210106210A (en) | 2021-08-30 |
Family
ID=77502148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200021102A KR20210106210A (en) | 2020-02-20 | 2020-02-20 | Visually Impaired Gait Assistance Based on AI Learning System and Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210106210A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240020282A (en) * | 2022-08-02 | 2024-02-15 | 가천대학교 산학협력단 | Obstacle detecting assist system for blind people |
-
2020
- 2020-02-20 KR KR1020200021102A patent/KR20210106210A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240020282A (en) * | 2022-08-02 | 2024-02-15 | 가천대학교 산학협력단 | Obstacle detecting assist system for blind people |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101708832B1 (en) | Vision aiding method and apparatus integrated with a camera module and a light sensor | |
KR101778624B1 (en) | Surround camera system for autonomous driving | |
US10431076B2 (en) | Smart crosswalk safety system for pedestrian | |
CN103236156B (en) | Blind guide system based on traffic signal indicating lamp | |
KR20190046317A (en) | Walking safety system | |
KR101941904B1 (en) | Multi function Smart Helmet | |
KR101744282B1 (en) | Blind zone projection guide system for walking safety | |
CN112870033A (en) | Intelligent blind guiding helmet system for unstructured road and navigation method | |
WO2018018768A1 (en) | Walker for blind people | |
CN109998873A (en) | A kind of wearable blindmen intelligent positioning and blind guiding system | |
KR20170101662A (en) | Drone Apparatus for Assisting a Visually Handicapped Person and Method for Controlling the Same | |
KR102314482B1 (en) | Smart stick for blind | |
KR20210106210A (en) | Visually Impaired Gait Assistance Based on AI Learning System and Method | |
WO2020083318A1 (en) | Head-up display system and display method, and automobile | |
KR102426517B1 (en) | Walking signal control device through image-based object recognition and surrounding environment detection | |
CN113256998A (en) | Special vehicle and working state identification method and equipment thereof | |
KR101849594B1 (en) | Wireless headset, walking assistant apparatus and method for controlling walking assistant with lidar | |
JP2005143892A (en) | Walking support apparatus | |
CN109602585B (en) | Blind guiding glasses and anti-collision early warning method thereof | |
WO2023121393A1 (en) | System and method for guiding visually impaired person for walking using 3d sound point | |
KR102430569B1 (en) | Crosswalk Control System for Traffic Pattern of the Crosswalked | |
KR101230341B1 (en) | Vision Assistant System And Method thereof | |
KR20210106189A (en) | Visually Impaired Gait Assistance Device and System | |
Karungaru et al. | Improving mobility for blind persons using video sunglasses | |
KR20210017564A (en) | Walking Safety Helper |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |