KR20150097043A - Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module - Google Patents
Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module Download PDFInfo
- Publication number
- KR20150097043A KR20150097043A KR1020140018113A KR20140018113A KR20150097043A KR 20150097043 A KR20150097043 A KR 20150097043A KR 1020140018113 A KR1020140018113 A KR 1020140018113A KR 20140018113 A KR20140018113 A KR 20140018113A KR 20150097043 A KR20150097043 A KR 20150097043A
- Authority
- KR
- South Korea
- Prior art keywords
- module
- signal
- image
- cane
- visually impaired
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/068—Sticks for blind persons
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
- A61H2003/063—Walking aids for blind persons with electronic detecting or guiding means with tactile perception
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Rehabilitation Therapy (AREA)
- Physical Education & Sports Medicine (AREA)
- Physics & Mathematics (AREA)
- Pain & Pain Management (AREA)
- Epidemiology (AREA)
- Biomedical Technology (AREA)
- Vascular Medicine (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Rehabilitation Tools (AREA)
Abstract
Description
본 발명은 시각 장애인을 보조하는 스마트 시스템에 관한 것으로, 보다 상세하게는 카메라가 부착된 안경과 스마트 제어장치가 구비된 지팡이를 무선 통신으로 연결하여 시각 장애인을 보조하는 시스템에 관한 것이다.The present invention relates to a smart system for assisting a visually impaired person, and more particularly, to a system for assisting a visually impaired person by connecting a wand equipped with a camera and a smart control device by wireless communication.
시각 장애인들의 이동시 자신이 가고자 하는 곳의 지형 지물을 시각 장애인 전용 지팡이를 사용하여 짚어보고 두드려 봄으로써, 소리를 듣고 감촉을 느껴서, 주변 장애물을 인식하는 경우가 대부분이다. 그 외에는 시각 안내견을 통해 도움을 받는 경우도 있다. 이처럼, 시각 장애인들의 이동시 시각 안내견이나 지팡이는 필수품 중의 하나이다.Most of the people who visually impaired are aware of the surrounding obstacles by listening to the sound and feeling the touch by tapping and tackling the topographical object of the place where the visually impaired person wants to go using the stick for blind people. Others may be assisted by a guide dog. As such, visual guide dogs and walking sticks are one of the necessities when moving visually impaired.
그러나, 지팡이를 이용할 경우에는 직접 두들겨 봄으로써 느껴지는 소리와 감촉으로 판단하는 것은 시각 장애인이 되고 나서 다른 감각들을 어느 정도 훈련하고 난 후에야 효과적으로 사용될 수 있을 뿐만 아니라 감지의 속도가 느리고 불편하며, 시각 안내견을 활용하더라도 공공장소에서 같이 행동하는데 어려움이 있고 도로에서의 복잡한 신호 체계를 이해하거나 방향성을 감지하는 데 제약이 있다.However, when using a cane, judging by the sound and feeling felt by directly beating is not only effective after being trained to a certain extent by other senses after being blind, but also slow and inconvenient to detect, Even if it is utilized, there are difficulties in acting together in public places, and there are restrictions on understanding the complex signaling system on the road or detecting the directionality.
2012년 ETRI에서 전망한 "미래 10대 테크놀러지"에서는 인지과학 분야의 주요기술로서 '주변상황 인지 기술'을 제시하였다. 이는 사용자의 주변 상황을 시스템이 스스로 파악할 수 있는 인지 기술이 높은 경제/기술적 가치를 가지고 있음을 나타내고 있다.ETRI's 2012 "Future Top Ten Technologies" presented the 'circumstance recognition technology' as a key technology in the cognitive science field. This indicates that the cognitive technology that enables the system to grasp the user's surroundings has high economic / technological value.
최근에는 이를 이용하여 의료 보조 시스템을 제작하는 분야가 주목을 받고 있는데, 특히, 사용자의 주변상황을 인지하는 기술을 시각 장애인을 보조하는 시스템에 적용하고자 하는 니즈(needs)가 커지고 있다.In recent years, the field of manufacturing a medical assistance system has been attracting attention. In particular, there is a growing need to apply a technique of recognizing the user's surroundings to a system for assisting the visually impaired.
본 발명은 전술한 바와 같은 요구를 반영한 것으로, 카메라가 부착된 안경과 스마트 제어장치가 구비된 지팡이를 무선 통신으로 연결하여 시각 장애인의 이동시에 장애물에 구애받음 없이 안전한 보행이 가능하게 할 뿐 만아니라 점자 신호로 변환된 정보를 통해 사용자의 주변상황인지 기능을 향상시킬 수 있는 시각 장애인 ㅂ보조 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention reflects the above-mentioned demand, and it is possible to connect a walking stick equipped with a camera and a stick equipped with a smart control device by wireless communication, thereby enabling a safe walking without being disturbed by an obstacle when a visually impaired person moves The present invention also provides a visual assistance system and method capable of improving the user's perception of the surrounding situation through information converted into a braille signal.
이를 위해 본 발명의 일 실시에에 따르면, 안경 모듈 및 지팡이 모듈이 무선 네트워크로 연결된 시각 장애인 보조 시스템에 있어서, 상기 안경 모듈은, 상기 시각 장애인이 이동하면서 안경의 주시 방향에 따른 전방 장애물의 이미지를 획득하는 이미지 센서와, 상기 이미지 센서로부터 획득된 이미지를 입력받아 상기 이미지를 분석하여 상기 전방 장애물의 유무를 판단하는 영상신호 분석부와, 상기 영상신호 분석부에서 분석된 영상분석신호를 상기 지팡이 모듈로 전송하는 제1 무선통신부를 포함하고; 상기 지팡이 모듈은, 상기 제1 무선통신부로부터 송신된 영상분석신호를 수신하는 제2 무선통신부와, 상기 제2 무선통신부로부터 수신된 영상분석신호에 따라 시각 장애인이 인식할 수 있는 촉각 신호로 변환하는 지팡이 제어부와, 상기 지팡이 제어부로부터 제어신호에 따라 촉각 신호로 정보를 출력하는 점자 진동부를 포함하는 것을 특징으로 한다.To this end, according to one embodiment of the present invention, there is provided an auxiliary system for a visually impaired person, in which an eyeglass module and a wand module are connected via a wireless network, wherein the eyeglass module includes an image of a front obstacle An image signal analyzer for receiving the image obtained from the image sensor and analyzing the image to determine the presence of the front obstacle; and an image analyzing unit for analyzing the image analysis signal analyzed by the image signal analyzing unit, To the first wireless communication unit; The cane module includes a second wireless communication unit that receives the image analysis signal transmitted from the first wireless communication unit and a tactile signal that can be recognized by the blind person according to the image analysis signal received from the second wireless communication unit And a braille vibration unit for outputting information as a tactile signal according to a control signal from the cane control unit.
또한, 상기 점자 진동부는 상기 촉각 신호를 구현하는 진동모터와 상기 진동모터를 구동하는 모터 드라이버를 포함하며, 상기 촉각 신호는 점자 신호 또는 진동 신호인 것을 특징으로 한다.The braille vibration unit may include a vibration motor for implementing the tactile sense signal and a motor driver for driving the vibration motor, and the tactile sense signal may be a braille signal or a vibration signal.
또한, 상기 지팡이 모듈은 그 하부에 상기 시각 장애인의 이동 방향에서 구멍을 감지하는 적외선 센서를 구비하고, 상기 구멍이 있는 경우 바텀 진동모터를 구동시키는 것을 특징으로 한다.In addition, the cane module includes an infrared sensor for detecting a hole in the moving direction of the visually impaired person at a lower portion thereof, and drives the bottom vibration motor when the hole exists.
또한, 상기 안경 모듈 및 지팡이 모듈과 상기 무선 네트워크로 연결된 스마트 디바이스를 더 구비하고, 상기 지팡이 모듈에 스피커를 더 구비하며, 상기 스마트 디바이스의 길안내 앱에 따라 상기 시각 장애인의 이동시에 상기 스피커를 통한 안내 음성을 출력하고, 상기 안경 모듈 및 지팡이 모듈을 통해 상기 전방 장애물을 감지하거나 상기 시각 장애인에게 이동방향에 대해 상기 촉각신호를 출력하는 것을 특징으로 한다.The mobile terminal further comprises a smart device connected to the eyeglass module and the cane module via the wireless network. The mobile terminal further includes a speaker on the cane module. And outputs a guidance voice to detect the front obstacle through the eyeglass module and the wand module or to output the tactile sense signal to the visually impaired person in the moving direction.
또한, 상기 영상신호 분석부는, 상기 전방 장애물이 보행자인 경우에는 얼굴 인식 알고리즘을 적용하는 것을 특징으로 한다.In addition, the image signal analyzing unit applies a face recognition algorithm when the front obstacle is a pedestrian.
본 발명의 다른 실시예에 따르면, 안경 모듈 및 지팡이 모듈이 무선 네트워크로 연결된 시스템에서 시각 장애인의 길안내를 보조하는 방법에 있어서, (a) 상기 안경 모듈에 장착된 이미지 센서를 통해 상기 시각 장애인이 이동하는 도로상의 전방 장애물에 대한 영상 정보를 획득하는 단계; (b) 상기 안경모듈이 상기 (a)단계에서 획득된 영상 정보에 대해 패턴 인식 및 기계학습 알고리즘을 적용하여 전방 장애물 유무를 판단하는 단계; (c) 상기 (b)단계에서 판단된 영상분석신호를 상기 무선 네트워크를 통해 상기 지팡이 모듈에 전송하는 단계; (d) 상기 (c)단계에서 전송된 영상분석신호를 바탕으로 상기 지팡이 모듈은 제어신호를 생성하고, 상기 제어신호에 따라 상기 지팡이 모듈에 진동신호를 구현하거나 상기 영상분석신호에 대응되게 미리 저장되어 있는 점자의 진동패턴에 따라 진동신호를 구현하여 시각 장애인에 촉각 정보를 제공하는 단계; 를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, there is provided a method of assisting a visually impaired person in guiding a vision system in a system in which a spectacle module and a cane module are connected via a wireless network, the method comprising the steps of: (a) Obtaining image information on a front obstacle on a moving road; (b) determining whether a front obstacle is present by applying pattern recognition and a machine learning algorithm to the image information obtained in the step (a); (c) transmitting the image analysis signal determined in step (b) to the wand module through the wireless network; (d) the cane module generates a control signal based on the image analysis signal transmitted in the step (c), and implements a vibration signal in the cane module according to the control signal or stores it in advance in correspondence with the image analysis signal Providing tactile information to a visually impaired person by implementing a vibration signal according to a vibration pattern of the braille; And a control unit.
또한, 상기 시스템은 상기 안경 모듈 및 지팡이 모듈과 상기 무선 네트워크로 연결된 스마트 디바이스와 상기 지팡이 모듈에 스피커를 더 구비하고, (e) 상기 스마트 디바이스의 길안내 앱을 음성으로 생성하여 상기 스피커를 통해 방향 지시 등의 길안내를 상기 음성으로 제공하는 단계; (f) 상기 안경 모듈 및 지팡이 모듈을 통해 상기 전방 장애물을 감지하거나 상기 시각 장애인에게 이동방향에 대해 상기 촉각신호를 출력하는 단계; 를 더 포함하는 것을 특징으로 한다.The system further comprises a speaker in the wand module and the smart device connected to the eyeglass module and the wand module via the wireless network, and (e) Providing a route guidance such as an instruction through the voice; (f) sensing the front obstacle through the spectacle module and the wand module or outputting the tactile signal to the visually impaired person in the moving direction; And further comprising:
본 발명에 따른 시각 장애인 보조 시스템은, 카메라가 부착된 안경과 스마트 제어장치가 구비된 지팡이를 무선 통신으로 연결하여 시각 장애인의 이동시에 장애물에 구애받음 없이 안전한 보행이 가능하도록 보조할 수 있다.The assistant system for the visually impaired according to the present invention can assist the user to walk safely without obstructing the obstacle when the visually impaired person moves by connecting the camera equipped glasses and the staff equipped with the smart control device by wireless communication.
또한, 지팡이를 통한 단순 인식에서 벗어나 카메라를 통한 인식된 정보를 점자 정보로 시각 장애인이 인지할 수 있어 사용자의 주변상황인지 기능을 향상시킬 수 있다.In addition, since the visually impaired person recognizes the recognized information through the camera as the braille information, it is possible to improve the user's perception of the surrounding situation.
특히, 보행자의 경우 얼굴 인식 알고리즘을 통해 아는 사람인지 여부를 판단할 수 있게 하여, 시각 장애인의 인지 능력을 배가시킬 수 있다.Particularly, it is possible to determine whether a pedestrian is a person through the face recognition algorithm, thereby doubling the cognitive ability of a visually impaired person.
도 1은 본 발명의 바람직한 실시 예에 따른 시각 장애인 보조 시스템의 구성을 나타낸 블럭도,
도 2는 도 1의 시스템에서 지팡이 모듈을 나타낸 도면,
도 3은 본 발명의 바람직한 실시 예에 따른 안경 모듈, 지팡이 모듈 및 스마트 디바이스가 무선 네트워크로 연결된 시스템에서 길안내 과정을 나타낸 플로우차트이다.1 is a block diagram illustrating a configuration of a blind auxiliary system according to a preferred embodiment of the present invention;
Figure 2 shows the wand module in the system of Figure 1,
FIG. 3 is a flowchart illustrating a route guidance process in a system in which a spectacle module, a cane module, and a smart device according to a preferred embodiment of the present invention are connected to a wireless network.
본 발명의 이점 및 특징, 그리고 그것을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 통해 설명될 것이다. 그러나, 본 발명은 여기에서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 단지, 본 실시 예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to accomplish it, will be described with reference to the embodiments described in detail below with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. The embodiments are provided so that those skilled in the art can easily carry out the technical idea of the present invention to those skilled in the art.
도면들에 있어서, 본 발명의 실시 예들은 도시된 특정 형태로 제한되는 것이 아니며 명확성을 기하기 위하여 과장된 것이다. 또한 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소를 나타낸다.In the drawings, embodiments of the present invention are not limited to the specific forms shown and are exaggerated for clarity. Also, the same reference numerals denote the same components throughout the specification.
본 명세서에서 "및/또는"이란 표현은 전후에 나열된 구성요소들 중 적어도 하나를 포함하는 의미로 사용된다. 또한, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 명세서에서 사용되는 "포함한다" 또는 "포함하는"으로 언급된 구성요소, 단계, 동작 및 소자는 하나 이상의 다른 구성요소, 단계, 동작, 소자 및 장치의 존재 또는 추가를 의미한다.The expression "and / or" is used herein to mean including at least one of the elements listed before and after. Also, singular forms include plural forms unless the context clearly dictates otherwise. Also, components, steps, operations and elements referred to in the specification as " comprises "or" comprising " refer to the presence or addition of one or more other components, steps, operations, elements, and / or devices.
이하에서 본 발명에 따른 바람직한 실시 예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 바람직한 실시 예에 따른 시각 장애인 보조 시스템(300)의 구성을 나타낸 블럭도이다. FIG. 1 is a block diagram showing the configuration of a visually
도 1을 참조하면, 본 발명에 따른 시각 장애인 보조 시스템(100)은, 카메라가 부착된 안경 모듈(100)과 스마트 제어 장치가 부착된 지팡이 모듈(200)이 무선 통신을 통해 시각 장애인을 보조하는 시스템이다. 이때, 상기 안경과 지팡이는 시각 장애인에 대한 국제 규격을 반영하여 제작하는 것이 바람직하다.1, an
상기 안경 모듈(100)은, 시각 장애인이 이동하면서 안경의 주시 방향에 따른 전방 물체 또는 보행자(이하, 전방 장애물)의 이미지를 획득하는 이미지 센서(110)와, 상기 이미지 센서로부터 획득된 이미지를 입력받아 상기 이미지를 분석하여 전방 장애물이 있는지 여부를 판단하는 영상신호 분석부(120)와, 상기 영상신호 분석부(120)에서 분석된 영상분석신호를 지팡이 모듈로 전송하는 제1 무선통신부(130)를 구비한다. 이때, 이미지 센서(110)는 CCD(Charge Coupled Device) 센서나 CMOS(상보성 금속산화막 반도체) 센서가 해당될 수 있다. 또한, 영상신호 분석부(120)는 상기 이미지 센서(110)로부터 획득된 이미지를 분석하여 시각 장애인의 전방에 물체 또는 보행자가 있는지 여부를 판단하는데, 영상을 분석하기 기계 학습(machine learning) 알고리즘을 이용하여 보행자 또는 물체를 검출할 수 있게 학습시킨다. 특히, 전방 장애물이 보행자인 경우에는 얼굴 인식 알고리즘(Adaboost)를 수행한다. 즉, 상기 얼굴 인식 알고리즘은, 얼굴을 검출하기 위해 얼굴의 특징이 잘 나타나도록 각 부분별로 특징부(feature)를 추출한다. 이후, 추출된 특징부를 가지고 각각의 약분류기를 만들고, 이때, 각각의 약분류기 중 얼굴과 얼굴이 아닌 이미지를 잘 분류할 수 있는 약분류기를 선택한다. 이러한 약분류기에 해당하는 가중치를 이용하여 강 분류기를 만들고 만들어진 강분류기로 얼굴인지 아닌지를 구분한다. The
한편, 시각 장애인의 지팡이 모듈(200)은, 상기 제1 무선통신부(130)로부터 송신된 영상분석신호를 수신하는 제2 무선통신부(230)와, 상기 제2 무선통신부(230)로부터 수신된 영상분석신호에 따라 시각 장애인이 인식할 수 있는 점자(또는 촉각)신호로 변환하는 지팡이 제어부(220)와, 상기 지팡이 제어부(220)로부터 제어신호에 따라 점자(또는 촉각) 신호로 정보를 출력하는 점자 진동부(210)을 구비한다. 이때, 점자 진동부(210)는 점자 신호를 구현하는 진동모터(212)와 상기 진동모터를 구동하는 모터 드라이버(211)로 구성되는데, PWM 모터 제어 방식과 타임 인터럽트(Timer Interrupt) 기능을 이용하여 제어주기 및 모터를 컨트롤한다. 이처럼, 점자 진동부(210)는 지팡이에 부착되어 진동모터(구동모터)를 통해 진동신호를 구현하거나 상기 영상분석신호에 대응되게 미리 저장되어 있는 점자의 진동패턴에 따라 진동신호를 구현하여 시각 장애인이 지팡이에서의 촉각으로 감지할 수 있다.The
도 2에 도시된 바와 같이, 상하좌우의 4개 방향을 지시하는 4개의 진동모터(241, 242, 243, 244)를 구비할 수 있으며, 시각 장애인에게 장애물의 존재 및 이동방향을 알려주기 위해 진동에 의한 촉감을 전달한다. 이에 따라, 상측 진동모터(244), 좌측 진동모터(243), 우측 진동모터(242), 하측 진동 모터(241)가 일렬 배치된 구성을 보여준다. 즉, 좌우측의 장애물에 대해서는 각 좌측 또는 우측 방향의 해당방향의 진동모터를 구동시키는 방식으로 감지하게 하거나 진동에 의한 촉감으로 이동방향을 알려 줄 수 있는데, 같은 방식으로 상하 2개의 진동모터를 상측과 하측 방향의 장애물을 감지할 수 있다. 또한, 미도시 부호 260 및 250은 각각 손잡이부와 지팡이를 설명한다.2, four
또한, 6개의 원형으로 진동모터를 구성하여 상하좌우의 4개 방향 이외에 세부적인 방향 감지나 부가적인 기능을 구현하여, 상기 6개의 모터를 이용하여 시각장애인이 카메라를 통한 시각적 정보에서 촉각 정보로 변환된 정보를 손바닥의 촉감으로 느낄 수 있게 한다. 즉, 도 2에 도시된 바와 같이 추가적으로 지팡이의 하부에 구멍을 감지하는 적외선 센서(251)를 구비하고, 구멍이 있는 경우 바텀 진동모터(미도시)를 구동시킬 수 있다. 이때, 적외선 센서(251)의 경우에는 마이크로 프로세서를 이용한 신호 처리를 행하지 않고 진동모터로 연결되게 하여 신호처리에 소요되는 시간 및 전력을 절감할 수 있으며, 상기 적외선 센서에서의 미약 신호를 증폭하는 증폭기(미도시)가 더 구비될 수 있다. In addition, six circular motors constitute the vibration motor to implement detailed direction sensing and additional functions in addition to the four directions of the top, bottom, left and right, and to convert the visual information from the camera to tactile information To feel the touch of the palm of the hand. In other words, as shown in FIG. 2, an
이어, 시각 장애인은 안경 모듈(100), 지팡이 모듈(200) 및 자신의 스마트 디바이스(400)를 휴대하면서, 상기 안경 모듈과 지팡이 모듈간의 무선 통신을 구현하거나 상기 안경 모듈, 지팡이 모듈 및 스마트 디바이스 간에 무선 통신을 구현할 수 있다. 여기서, 스마트 디바이스(400)는 스마트 폰, PDA 및 태블릿 PC 중 어느 하나인 것이 바람직하고, 개인화 학습방법 및 시스템을 제공하기 위해 휴대하기 간편하고, 인터넷 통신이 가능한 모바일 시스템이면 모두 가능함은 물론이다. 또한, 무선 통신 방식은 Wi-Fi 통신을 기반으로 하고, 블루투스 통신, 무선랜, 지그비 등의 근거리 무선통신을 통해 데이터를 전송할 수 있다.The blind person then carries the
스마트 디바이스(400)에는 시각 장애인 전용 길안내 모바일 어플리케이션(이하, 앱)이 설치되어 있어, 길안내 앱은 Wi-Fi 통신을 통해 데이터를 수신받고, 이를 표시하며, 음성 합성을 통해 결과를 지팡이에 설치된 스피커(미도시)로 출력해 준다. 이에 따라, 길안내 앱에 따라 이동시에 스피커를 통한 음성 안내 뿐만아니라 안경 모듈 및 지팡이 모듈을 통해 전방 장애물을 감지하거나 시각 장애인에게 이동방향을 진동에 의한 촉감으로도 알려 줄 수 있다. 가령, 일렬로 배열된 진동 모터에 대해 좌측 방향인 경우에는 상부에서 하부(Top down 방식으로) 진동 세기 또는 진동회수를 증가시켜 이동 방향임을 알 수 있게 하고, 우측 방향인 경우에는 그 반대임(bottom up 방식)을 알 수 있다.In the
이처럼, 스마트 지팡이가 최근 보편화되고 있는 스마트폰, 스마트 테블릿과 연동되게 구성하여 시각 및 청각 장애인들에게 유용하게 이용가능하게 한다.
As such, smart sticks can be configured to work in conjunction with smartphones and smart tablets, which are becoming popular nowadays, making them useful for the visually and hearing-impaired.
도 3은 본 발명의 바람직한 실시 예에 따른 안경 모듈, 지팡이 모듈 및 스마트 디바이스(400)를 연동하여 시각 장애인 보조 시스템(300)을 구현하는 과정을 나타낸 플로우차트이다. FIG. 3 is a flowchart illustrating a process of implementing a visually
도 3을 참조하면, 먼저, 안경 모듈(100)에 장착된 이미지 센서를 통해, 시각 장애인이 이동하는 도로상의 전방 장애물에 대한 영상 정보를 읽어 들인다(S210).Referring to FIG. 3, first, image information on a front obstacle on a road on which a visually impaired person moves is read through an image sensor mounted on the spectacle module 100 (S210).
이후, 영상신호 분석부는 상기 이미지 센서를 통해 획득된 이미지에서 패턴 인식 및 기계학습 알고리즘을 통한 관심 객체를 인식하는 알고리즘을 구현하고 이를 적용하여 시각 장애인 전방에서의 장애물(물체 또는 보행자) 여부를 판단한다(S220). Then, the image signal analyzing unit implements an algorithm for recognizing an object of interest through pattern recognition and a machine learning algorithm in the image acquired through the image sensor, and determines whether the obstacle is an obstacle (an object or a pedestrian) in front of the visually impaired (S220).
여기서, 관심 객체로는 차선 및 외부차량, 신호등, 보행자 등이 해당될 수 있는데, 장애물이 보행자인 경우 얼굴인식 알고리즘이 수행된다. 즉, 상기 영상신호 분석부는 포지티브 데이터(Positive data), 네거티브 데이터(Negative data) 및 뉴트럴(Natural Data)로 구성되는 트레인 데이터(Train Data)로부터 HOG feature와 MCT feature를 이용하여 보행자의 공통적인 특성을 이미지로부터 추출한다. 이를 기계 학습 알고리즘을 이용하여 이미지로부터 보행자를 검출할 수 있도록 학습시킨다. 이 때, 사용되는 머신 러닝 알고리즘은 여러 개의 약 분류기와 각 약 분류기에 해당하는 가중치를 이용하여 강한 분류기를 구성하는 Adaboost 알고리즘을 이용한다. In this case, a lane and an external vehicle, a traffic light, a pedestrian, and the like may be considered as objects of interest. In the case where the obstacle is a pedestrian, a face recognition algorithm is performed. That is, the image signal analyzer uses the HOG feature and the MCT feature from the train data composed of positive data, negative data, and neutral data to determine common characteristics of the pedestrian Extract from the image. This is learned by using a machine learning algorithm so that a pedestrian can be detected from an image. At this time, the machine learning algorithm used is the Adaboost algorithm which constructs strong classifiers by using the weights corresponding to several weak classifiers and weak classifiers.
게다가, 검출된 보행자로부터 눈동자 검출의 얼굴인식을 수행하여 인식된 보행자가 아는 사람인지 여부를 판단할 수 있다.In addition, it is possible to determine whether or not the recognized pedestrian is a person by carrying out face recognition of pupil detection from the detected pedestrian.
이후, 상기 영상 분석부(220)를 통한 패턴 인식 및 기계학습 알고리즘에 따라 장애물 여부를 판단하고 판단된 영상분석신호를 제1 무선통신부를 통해 지팡이 제어부에 전송한다(S230).Thereafter, it is determined whether an obstacle is present according to the pattern recognition and the machine learning algorithm through the
이후, 지팡이 제어부는 전달된 영상분석신호를 바탕으로 제어신호를 생성하고, 상기 제어신호에 따라 지팡이 모듈에 진동신호를 구현하거나 상기 영상분석신호에 대응되게 미리 저장되어 있는 점자의 진동패턴에 따라 진동신호를 구현하여 시각 장애인에 촉각 정보를 제공하여 감지할 수 있게 한다(S240).Thereafter, the cane control unit generates a control signal based on the transmitted image analysis signal, implements a vibration signal in the cane module according to the control signal, or generates a vibration signal corresponding to the vibration pattern of braille stored in advance in correspondence with the image analysis signal. Signal so that the tactile information can be provided to the visually impaired to be sensed (S240).
또한, 스마트 디바이스의 길안내 앱을 음성으로 생성하여 지팡이에 설치된 스피커를 통해 방향 지시 등의 길안내가 이루어질 수 있다(S250). 가령, 시각 장애인을 위한 길안내 앱은, 사용자가 스마트 디바이스에서 음성으로 출발지와 목적지를 입력하면, 상기 길안내 앱에 따라 음성 합성을 통해 결과를 스피커로 출력해 준다. 이때, 스마트 디바이스는 안경모듈 및 지팡이 모듈과 근거리 무선통신으로 연결되어, 보조적으로 장애물의 감지 이동 방향에 대해 진동에 의한 촉감으로도 알려 줄 수 있다. In addition, a route guidance application of the smart device may be generated as a voice and a route guidance such as a direction indication may be made through a speaker installed in the staff (S250). For example, when a user inputs a start point and a destination from a smart device by voice, the navigation application for the visually impaired outputs the result to the speaker through voice synthesis according to the navigation application. At this time, the smart device is connected with the eyeglass module and the wand module through short-range wireless communication, and can also inform the direction of movement of the obstacle by vibration due to vibration.
이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능 하다는 것을 당 업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.While the invention has been shown and described with respect to the specific embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined by the appended claims. Anyone with it will know easily.
100: 안경 모듈
110: 이미지 센서
120: 영상신호 분석부
130, 230: 무선 통신부
200: 지팡이 모듈
210: 점자 진동부
220: 제어부
300: 시각장애인 보조 시스템
400: 스마트 디바이스100: Glasses module
110: Image sensor
120: a video signal analyzing unit
130, and 230:
200: cane module
210:
220:
300: Visually impaired assistant system
400: Smart Device
Claims (7)
상기 안경 모듈은, 상기 시각 장애인이 이동하면서 안경의 주시 방향에 따른 전방 장애물의 이미지를 획득하는 이미지 센서와, 상기 이미지 센서로부터 획득된 이미지를 입력받아 상기 이미지를 분석하여 상기 전방 장애물의 유무를 판단하는 영상신호 분석부와, 상기 영상신호 분석부에서 분석된 영상분석신호를 상기 지팡이 모듈로 전송하는 제1 무선통신부를 포함하고,
상기 지팡이 모듈은, 상기 제1 무선통신부로부터 송신된 영상분석신호를 수신하는 제2 무선통신부와, 상기 제2 무선통신부로부터 수신된 영상분석신호에 따라 시각 장애인이 인식할 수 있는 촉각 신호로 변환하는 지팡이 제어부와, 상기 지팡이 제어부로부터 제어신호에 따라 촉각 신호로 정보를 출력하는 점자 진동부를 포함하는 것을 특징으로 하는 시각 장애인 보조 시스템.A blindfold auxiliary system in which an eyeglass module and a wand module are connected via a wireless network,
The eyeglass module may further include an image sensor that acquires an image of a front obstacle along the direction of sight of the eyeglasses while the visually impaired person moves and analyzes the image by receiving the image acquired from the image sensor to determine whether or not the front obstacle is present And a first wireless communication unit for transmitting the image analysis signal analyzed by the image signal analysis unit to the wand module,
The cane module includes a second wireless communication unit that receives the image analysis signal transmitted from the first wireless communication unit and a tactile signal that can be recognized by the blind person according to the image analysis signal received from the second wireless communication unit And a braille vibration unit for outputting information as a tactile signal according to a control signal from the cane control unit.
상기 점자 진동부는 상기 촉각 신호를 구현하는 진동모터와 상기 진동모터를 구동하는 모터 드라이버를 포함하며,
상기 촉각 신호는 점자 신호 또는 진동 신호인 것을 특징으로 하는 시각 장애인 보조 시스템. The method according to claim 1,
Wherein the braille vibration unit includes a vibration motor for implementing the haptic signal and a motor driver for driving the vibration motor,
Wherein the tactile signal is a braille signal or a vibration signal.
상기 지팡이 모듈은 그 하부에 상기 시각 장애인의 이동 방향에서 구멍을 감지하는 적외선 센서를 구비하고, 상기 구멍이 있는 경우 바텀 진동모터를 구동시키는 것을 특징으로 하는 시각 장애인 보조 시스템. The method according to claim 1,
Wherein the cane module includes an infrared sensor for detecting a hole in the moving direction of the visually impaired person at a lower portion thereof, and drives the bottom vibration motor in the presence of the hole.
상기 안경 모듈 및 지팡이 모듈과 상기 무선 네트워크로 연결된 스마트 디바이스를 더 구비하고,
상기 지팡이 모듈에 스피커를 더 구비하며,
상기 스마트 디바이스의 길안내 앱에 따라 상기 시각 장애인의 이동시에 상기 스피커를 통한 안내 음성을 출력하고, 상기 안경 모듈 및 지팡이 모듈을 통해 상기 전방 장애물을 감지하거나 상기 시각 장애인에게 이동방향에 대해 상기 촉각신호를 출력하는 것을 특징으로 하는 시각 장애인 보조 시스템.The method according to claim 1,
And a smart device connected to the eyeglass module and the cane module via the wireless network,
The cane module further comprises a speaker,
And a guidance module for outputting a guidance voice through the speaker at the time of movement of the visually impaired according to the guidance application of the smart device and detecting the front obstacle through the spectacle module and the wand module, And outputs the output signal.
상기 영상신호 분석부는, 상기 전방 장애물이 보행자인 경우에는 얼굴 인식 알고리즘을 적용하는 것을 특징으로 하는 시각 장애인 보조 시스템. The method according to claim 1,
Wherein the image signal analyzing unit applies a face recognition algorithm when the front obstacle is a pedestrian.
(a) 상기 안경 모듈에 장착된 이미지 센서를 통해 상기 시각 장애인이 이동하는 도로상의 전방 장애물에 대한 영상 정보를 획득하는 단계;
(b) 상기 안경모듈이 상기 (a)단계에서 획득된 영상 정보에 대해 패턴 인식 및 기계학습 알고리즘을 적용하여 전방 장애물 유무를 판단하는 단계;
(c) 상기 (b)단계에서 판단된 영상분석신호를 상기 무선 네트워크를 통해 상기 지팡이 모듈에 전송하는 단계;
(d) 상기 (c)단계에서 전송된 영상분석신호를 바탕으로 상기 지팡이 모듈은 제어신호를 생성하고, 상기 제어신호에 따라 상기 지팡이 모듈에 진동신호를 구현하거나 상기 영상분석신호에 대응되게 미리 저장되어 있는 점자의 진동패턴에 따라 진동신호를 구현하여 시각 장애인에 촉각 정보를 제공하는 단계;
를 포함하는 것을 특징으로 하는 시각 장애인 보조 방법.CLAIMS 1. A method of assisting a visually impaired person in guiding a system in which a spectacle module and a cane module are connected via a wireless network,
(a) acquiring image information about a front obstacle on a road on which the visually impaired person moves through an image sensor mounted on the spectacle module;
(b) determining whether a front obstacle is present by applying pattern recognition and a machine learning algorithm to the image information obtained in the step (a);
(c) transmitting the image analysis signal determined in step (b) to the wand module through the wireless network;
(d) the cane module generates a control signal based on the image analysis signal transmitted in the step (c), and implements a vibration signal in the cane module according to the control signal or stores it in advance in correspondence with the image analysis signal Providing tactile information to a visually impaired person by implementing a vibration signal according to a vibration pattern of the braille;
The method comprising the steps < RTI ID = 0.0 > of: < / RTI >
상기 시스템은 상기 안경 모듈 및 지팡이 모듈과 상기 무선 네트워크로 연결된 스마트 디바이스와 상기 지팡이 모듈에 스피커를 더 구비하고,
(e) 상기 스마트 디바이스의 길안내 앱을 음성으로 생성하여 상기 스피커를 통해 방향 지시 등의 길안내를 상기 음성으로 제공하는 단계;
(f) 상기 안경 모듈 및 지팡이 모듈을 통해 상기 전방 장애물을 감지하거나 상기 시각 장애인에게 이동방향에 대해 상기 촉각신호를 출력하는 단계;
를 더 포함하는 것을 특징으로 하는 시각 장애인 보조 방법.The method according to claim 6,
Wherein the system further comprises a speaker in the smart module connected to the eyeglass module and the cane module via the wireless network and the cane module,
(e) generating a voice guidance application of the smart device by voice and providing a voice guidance of a direction indication or the like through the speaker;
(f) sensing the front obstacle through the spectacle module and the wand module or outputting the tactile signal to the visually impaired person in the moving direction;
≪ / RTI >
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140018113A KR20150097043A (en) | 2014-02-17 | 2014-02-17 | Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140018113A KR20150097043A (en) | 2014-02-17 | 2014-02-17 | Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150097043A true KR20150097043A (en) | 2015-08-26 |
Family
ID=54059105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140018113A KR20150097043A (en) | 2014-02-17 | 2014-02-17 | Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20150097043A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180045873A (en) * | 2016-10-25 | 2018-05-04 | 주식회사 닷 | Method, system and apparatus for space guide |
KR20190077639A (en) * | 2017-12-14 | 2019-07-04 | 주식회사 코이노 | Vision aids apparatus for the vulnerable group of sight, remote managing apparatus and method for vision aids |
KR101965875B1 (en) * | 2017-10-11 | 2019-08-13 | 주식회사 핀텔 | Method and apparatus for road guidance based in image processing |
CN110833498A (en) * | 2019-11-27 | 2020-02-25 | 广东工业大学 | Blind guiding stick and blind guiding method thereof |
KR20210068970A (en) * | 2019-12-02 | 2021-06-10 | 이우준 | System for providing navigation service for visually impaired person |
KR20210076235A (en) * | 2019-12-13 | 2021-06-24 | 동국대학교 산학협력단 | Smart stick provides voice information about obstacles detected by ultrasonic sensors and operating method thereof |
KR20210125748A (en) * | 2020-04-09 | 2021-10-19 | 전재훈 | Visually impaired assistive device |
KR102460866B1 (en) * | 2022-04-19 | 2022-11-01 | 한국보훈복지의료공단 | Gait guidance device and method |
WO2023089327A1 (en) * | 2021-11-19 | 2023-05-25 | Sensivision Limited | Handheld guidance device for the visually-impaired |
CN116358591A (en) * | 2023-04-07 | 2023-06-30 | 广州爱浦路网络技术有限公司 | Travel navigation assistance method for visually impaired people, electronic device and storage medium |
WO2024005243A1 (en) * | 2022-07-01 | 2024-01-04 | 엘지전자 주식회사 | Walking assistance system for visually impaired person and method thereof |
-
2014
- 2014-02-17 KR KR1020140018113A patent/KR20150097043A/en not_active Application Discontinuation
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180045873A (en) * | 2016-10-25 | 2018-05-04 | 주식회사 닷 | Method, system and apparatus for space guide |
KR101965875B1 (en) * | 2017-10-11 | 2019-08-13 | 주식회사 핀텔 | Method and apparatus for road guidance based in image processing |
KR20190077639A (en) * | 2017-12-14 | 2019-07-04 | 주식회사 코이노 | Vision aids apparatus for the vulnerable group of sight, remote managing apparatus and method for vision aids |
CN110833498A (en) * | 2019-11-27 | 2020-02-25 | 广东工业大学 | Blind guiding stick and blind guiding method thereof |
KR20210068970A (en) * | 2019-12-02 | 2021-06-10 | 이우준 | System for providing navigation service for visually impaired person |
KR20210076235A (en) * | 2019-12-13 | 2021-06-24 | 동국대학교 산학협력단 | Smart stick provides voice information about obstacles detected by ultrasonic sensors and operating method thereof |
KR20210125748A (en) * | 2020-04-09 | 2021-10-19 | 전재훈 | Visually impaired assistive device |
WO2023089327A1 (en) * | 2021-11-19 | 2023-05-25 | Sensivision Limited | Handheld guidance device for the visually-impaired |
KR102460866B1 (en) * | 2022-04-19 | 2022-11-01 | 한국보훈복지의료공단 | Gait guidance device and method |
WO2023204374A1 (en) * | 2022-04-19 | 2023-10-26 | 한국보훈복지의료공단 | Gait guidance device and method |
WO2024005243A1 (en) * | 2022-07-01 | 2024-01-04 | 엘지전자 주식회사 | Walking assistance system for visually impaired person and method thereof |
CN116358591A (en) * | 2023-04-07 | 2023-06-30 | 广州爱浦路网络技术有限公司 | Travel navigation assistance method for visually impaired people, electronic device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20150097043A (en) | Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module | |
US11705018B2 (en) | Personal navigation system | |
Lin et al. | Deep learning based wearable assistive system for visually impaired people | |
JPWO2005108926A1 (en) | Information processing device, mobile device, and information processing method | |
KR20120020212A (en) | Stick for disabled person having navigation | |
WO2015169072A1 (en) | Spectacles for blind person | |
KR101054025B1 (en) | Visually impaired walking guidance method and system | |
Patel et al. | Multisensor-based object detection in indoor environment for visually impaired people | |
US10062302B2 (en) | Vision-assist systems for orientation and mobility training | |
KR101847764B1 (en) | Information gathering system for the visually impaired | |
Bharathi et al. | Effective navigation for visually impaired by wearable obstacle avoidance system | |
Rajendran et al. | Design and implementation of voice assisted smart glasses for visually impaired people using google vision api | |
Bhowmick et al. | IntelliNavi: Navigation for blind based on Kinect and machine learning | |
Ilag et al. | Design review of smart stick for the blind equipped with obstacle detection and identification using artificial intelligence | |
Hakim et al. | Navigation system for visually impaired people based on RGB-D camera and ultrasonic sensor | |
KR102291296B1 (en) | Walking assistance system for the visually-impaired person | |
KR20180097962A (en) | Situation determining guide apparatus and method based image analysis | |
US11908316B2 (en) | Walking information provision system | |
KR101159437B1 (en) | Apparatus and method for walking assistance of the visually impaired person | |
KR20070008772A (en) | A stick with vision recognition for the blind | |
Merugu et al. | A review of some assistive tools and their limitations for visually impaired | |
AU2020101563A4 (en) | An artificial intelligence based system to assist blind person | |
Kalaivani et al. | An Artificial Eye for Blind People | |
Kunapareddy et al. | Smart Vision based Assistant for Visually Impaired | |
KR20170079703A (en) | A navigation system for a blind capable of directing scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |