KR20150097043A - Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module - Google Patents

Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module Download PDF

Info

Publication number
KR20150097043A
KR20150097043A KR1020140018113A KR20140018113A KR20150097043A KR 20150097043 A KR20150097043 A KR 20150097043A KR 1020140018113 A KR1020140018113 A KR 1020140018113A KR 20140018113 A KR20140018113 A KR 20140018113A KR 20150097043 A KR20150097043 A KR 20150097043A
Authority
KR
South Korea
Prior art keywords
module
signal
image
cane
visually impaired
Prior art date
Application number
KR1020140018113A
Other languages
Korean (ko)
Inventor
이민호
강준수
김지훈
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020140018113A priority Critical patent/KR20150097043A/en
Publication of KR20150097043A publication Critical patent/KR20150097043A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/068Sticks for blind persons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • A61H2003/063Walking aids for blind persons with electronic detecting or guiding means with tactile perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Vascular Medicine (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Rehabilitation Tools (AREA)

Abstract

The present invention relates to a smart system for assisting a visually impaired person. For the same, a system for assisting a visually impaired person is connected to a glasses module and a cane module with a wireless network. The glasses module comprises: an image sensor which enables the visually impaired person to obtain an image of an obstruction in front of the person according to a gaze direction of glasses while moving; an image signal analysis unit which receives the image obtained from the image sensor and analyzes the image so as to determine the presence of the front obstruction; and a first wireless communication unit which transmits an image analysis signal, analyzed by the image signal analysis unit, to the cane module. The cane module comprises: a second wireless communication unit which receives the image analysis signal transmitted from the first wireless communication unit; a cane control unit which converts the image analysis signal received from the second wireless communication unit into a touch signal which can be recognized by the visually impaired person according to the image analysis signal; and a braille vibration unit which outputs information using the touch signal according to a control signal from the cane control unit.

Description

스마트 안경 및 지팡이를 이용한 시각 장애인 보조 시스템 및 방법{Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module}Technical Field [0001] The present invention relates to a system and a method for a visually impaired person using smart glasses and a cane,

본 발명은 시각 장애인을 보조하는 스마트 시스템에 관한 것으로, 보다 상세하게는 카메라가 부착된 안경과 스마트 제어장치가 구비된 지팡이를 무선 통신으로 연결하여 시각 장애인을 보조하는 시스템에 관한 것이다.The present invention relates to a smart system for assisting a visually impaired person, and more particularly, to a system for assisting a visually impaired person by connecting a wand equipped with a camera and a smart control device by wireless communication.

시각 장애인들의 이동시 자신이 가고자 하는 곳의 지형 지물을 시각 장애인 전용 지팡이를 사용하여 짚어보고 두드려 봄으로써, 소리를 듣고 감촉을 느껴서, 주변 장애물을 인식하는 경우가 대부분이다. 그 외에는 시각 안내견을 통해 도움을 받는 경우도 있다. 이처럼, 시각 장애인들의 이동시 시각 안내견이나 지팡이는 필수품 중의 하나이다.Most of the people who visually impaired are aware of the surrounding obstacles by listening to the sound and feeling the touch by tapping and tackling the topographical object of the place where the visually impaired person wants to go using the stick for blind people. Others may be assisted by a guide dog. As such, visual guide dogs and walking sticks are one of the necessities when moving visually impaired.

그러나, 지팡이를 이용할 경우에는 직접 두들겨 봄으로써 느껴지는 소리와 감촉으로 판단하는 것은 시각 장애인이 되고 나서 다른 감각들을 어느 정도 훈련하고 난 후에야 효과적으로 사용될 수 있을 뿐만 아니라 감지의 속도가 느리고 불편하며, 시각 안내견을 활용하더라도 공공장소에서 같이 행동하는데 어려움이 있고 도로에서의 복잡한 신호 체계를 이해하거나 방향성을 감지하는 데 제약이 있다.However, when using a cane, judging by the sound and feeling felt by directly beating is not only effective after being trained to a certain extent by other senses after being blind, but also slow and inconvenient to detect, Even if it is utilized, there are difficulties in acting together in public places, and there are restrictions on understanding the complex signaling system on the road or detecting the directionality.

2012년 ETRI에서 전망한 "미래 10대 테크놀러지"에서는 인지과학 분야의 주요기술로서 '주변상황 인지 기술'을 제시하였다. 이는 사용자의 주변 상황을 시스템이 스스로 파악할 수 있는 인지 기술이 높은 경제/기술적 가치를 가지고 있음을 나타내고 있다.ETRI's 2012 "Future Top Ten Technologies" presented the 'circumstance recognition technology' as a key technology in the cognitive science field. This indicates that the cognitive technology that enables the system to grasp the user's surroundings has high economic / technological value.

최근에는 이를 이용하여 의료 보조 시스템을 제작하는 분야가 주목을 받고 있는데, 특히, 사용자의 주변상황을 인지하는 기술을 시각 장애인을 보조하는 시스템에 적용하고자 하는 니즈(needs)가 커지고 있다.In recent years, the field of manufacturing a medical assistance system has been attracting attention. In particular, there is a growing need to apply a technique of recognizing the user's surroundings to a system for assisting the visually impaired.

본 발명은 전술한 바와 같은 요구를 반영한 것으로, 카메라가 부착된 안경과 스마트 제어장치가 구비된 지팡이를 무선 통신으로 연결하여 시각 장애인의 이동시에 장애물에 구애받음 없이 안전한 보행이 가능하게 할 뿐 만아니라 점자 신호로 변환된 정보를 통해 사용자의 주변상황인지 기능을 향상시킬 수 있는 시각 장애인 ㅂ보조 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention reflects the above-mentioned demand, and it is possible to connect a walking stick equipped with a camera and a stick equipped with a smart control device by wireless communication, thereby enabling a safe walking without being disturbed by an obstacle when a visually impaired person moves The present invention also provides a visual assistance system and method capable of improving the user's perception of the surrounding situation through information converted into a braille signal.

이를 위해 본 발명의 일 실시에에 따르면, 안경 모듈 및 지팡이 모듈이 무선 네트워크로 연결된 시각 장애인 보조 시스템에 있어서, 상기 안경 모듈은, 상기 시각 장애인이 이동하면서 안경의 주시 방향에 따른 전방 장애물의 이미지를 획득하는 이미지 센서와, 상기 이미지 센서로부터 획득된 이미지를 입력받아 상기 이미지를 분석하여 상기 전방 장애물의 유무를 판단하는 영상신호 분석부와, 상기 영상신호 분석부에서 분석된 영상분석신호를 상기 지팡이 모듈로 전송하는 제1 무선통신부를 포함하고; 상기 지팡이 모듈은, 상기 제1 무선통신부로부터 송신된 영상분석신호를 수신하는 제2 무선통신부와, 상기 제2 무선통신부로부터 수신된 영상분석신호에 따라 시각 장애인이 인식할 수 있는 촉각 신호로 변환하는 지팡이 제어부와, 상기 지팡이 제어부로부터 제어신호에 따라 촉각 신호로 정보를 출력하는 점자 진동부를 포함하는 것을 특징으로 한다.To this end, according to one embodiment of the present invention, there is provided an auxiliary system for a visually impaired person, in which an eyeglass module and a wand module are connected via a wireless network, wherein the eyeglass module includes an image of a front obstacle An image signal analyzer for receiving the image obtained from the image sensor and analyzing the image to determine the presence of the front obstacle; and an image analyzing unit for analyzing the image analysis signal analyzed by the image signal analyzing unit, To the first wireless communication unit; The cane module includes a second wireless communication unit that receives the image analysis signal transmitted from the first wireless communication unit and a tactile signal that can be recognized by the blind person according to the image analysis signal received from the second wireless communication unit And a braille vibration unit for outputting information as a tactile signal according to a control signal from the cane control unit.

또한, 상기 점자 진동부는 상기 촉각 신호를 구현하는 진동모터와 상기 진동모터를 구동하는 모터 드라이버를 포함하며, 상기 촉각 신호는 점자 신호 또는 진동 신호인 것을 특징으로 한다.The braille vibration unit may include a vibration motor for implementing the tactile sense signal and a motor driver for driving the vibration motor, and the tactile sense signal may be a braille signal or a vibration signal.

또한, 상기 지팡이 모듈은 그 하부에 상기 시각 장애인의 이동 방향에서 구멍을 감지하는 적외선 센서를 구비하고, 상기 구멍이 있는 경우 바텀 진동모터를 구동시키는 것을 특징으로 한다.In addition, the cane module includes an infrared sensor for detecting a hole in the moving direction of the visually impaired person at a lower portion thereof, and drives the bottom vibration motor when the hole exists.

또한, 상기 안경 모듈 및 지팡이 모듈과 상기 무선 네트워크로 연결된 스마트 디바이스를 더 구비하고, 상기 지팡이 모듈에 스피커를 더 구비하며, 상기 스마트 디바이스의 길안내 앱에 따라 상기 시각 장애인의 이동시에 상기 스피커를 통한 안내 음성을 출력하고, 상기 안경 모듈 및 지팡이 모듈을 통해 상기 전방 장애물을 감지하거나 상기 시각 장애인에게 이동방향에 대해 상기 촉각신호를 출력하는 것을 특징으로 한다.The mobile terminal further comprises a smart device connected to the eyeglass module and the cane module via the wireless network. The mobile terminal further includes a speaker on the cane module. And outputs a guidance voice to detect the front obstacle through the eyeglass module and the wand module or to output the tactile sense signal to the visually impaired person in the moving direction.

또한, 상기 영상신호 분석부는, 상기 전방 장애물이 보행자인 경우에는 얼굴 인식 알고리즘을 적용하는 것을 특징으로 한다.In addition, the image signal analyzing unit applies a face recognition algorithm when the front obstacle is a pedestrian.

본 발명의 다른 실시예에 따르면, 안경 모듈 및 지팡이 모듈이 무선 네트워크로 연결된 시스템에서 시각 장애인의 길안내를 보조하는 방법에 있어서, (a) 상기 안경 모듈에 장착된 이미지 센서를 통해 상기 시각 장애인이 이동하는 도로상의 전방 장애물에 대한 영상 정보를 획득하는 단계; (b) 상기 안경모듈이 상기 (a)단계에서 획득된 영상 정보에 대해 패턴 인식 및 기계학습 알고리즘을 적용하여 전방 장애물 유무를 판단하는 단계; (c) 상기 (b)단계에서 판단된 영상분석신호를 상기 무선 네트워크를 통해 상기 지팡이 모듈에 전송하는 단계; (d) 상기 (c)단계에서 전송된 영상분석신호를 바탕으로 상기 지팡이 모듈은 제어신호를 생성하고, 상기 제어신호에 따라 상기 지팡이 모듈에 진동신호를 구현하거나 상기 영상분석신호에 대응되게 미리 저장되어 있는 점자의 진동패턴에 따라 진동신호를 구현하여 시각 장애인에 촉각 정보를 제공하는 단계; 를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, there is provided a method of assisting a visually impaired person in guiding a vision system in a system in which a spectacle module and a cane module are connected via a wireless network, the method comprising the steps of: (a) Obtaining image information on a front obstacle on a moving road; (b) determining whether a front obstacle is present by applying pattern recognition and a machine learning algorithm to the image information obtained in the step (a); (c) transmitting the image analysis signal determined in step (b) to the wand module through the wireless network; (d) the cane module generates a control signal based on the image analysis signal transmitted in the step (c), and implements a vibration signal in the cane module according to the control signal or stores it in advance in correspondence with the image analysis signal Providing tactile information to a visually impaired person by implementing a vibration signal according to a vibration pattern of the braille; And a control unit.

또한, 상기 시스템은 상기 안경 모듈 및 지팡이 모듈과 상기 무선 네트워크로 연결된 스마트 디바이스와 상기 지팡이 모듈에 스피커를 더 구비하고, (e) 상기 스마트 디바이스의 길안내 앱을 음성으로 생성하여 상기 스피커를 통해 방향 지시 등의 길안내를 상기 음성으로 제공하는 단계; (f) 상기 안경 모듈 및 지팡이 모듈을 통해 상기 전방 장애물을 감지하거나 상기 시각 장애인에게 이동방향에 대해 상기 촉각신호를 출력하는 단계; 를 더 포함하는 것을 특징으로 한다.The system further comprises a speaker in the wand module and the smart device connected to the eyeglass module and the wand module via the wireless network, and (e) Providing a route guidance such as an instruction through the voice; (f) sensing the front obstacle through the spectacle module and the wand module or outputting the tactile signal to the visually impaired person in the moving direction; And further comprising:

본 발명에 따른 시각 장애인 보조 시스템은, 카메라가 부착된 안경과 스마트 제어장치가 구비된 지팡이를 무선 통신으로 연결하여 시각 장애인의 이동시에 장애물에 구애받음 없이 안전한 보행이 가능하도록 보조할 수 있다.The assistant system for the visually impaired according to the present invention can assist the user to walk safely without obstructing the obstacle when the visually impaired person moves by connecting the camera equipped glasses and the staff equipped with the smart control device by wireless communication.

또한, 지팡이를 통한 단순 인식에서 벗어나 카메라를 통한 인식된 정보를 점자 정보로 시각 장애인이 인지할 수 있어 사용자의 주변상황인지 기능을 향상시킬 수 있다.In addition, since the visually impaired person recognizes the recognized information through the camera as the braille information, it is possible to improve the user's perception of the surrounding situation.

특히, 보행자의 경우 얼굴 인식 알고리즘을 통해 아는 사람인지 여부를 판단할 수 있게 하여, 시각 장애인의 인지 능력을 배가시킬 수 있다.Particularly, it is possible to determine whether a pedestrian is a person through the face recognition algorithm, thereby doubling the cognitive ability of a visually impaired person.

도 1은 본 발명의 바람직한 실시 예에 따른 시각 장애인 보조 시스템의 구성을 나타낸 블럭도,
도 2는 도 1의 시스템에서 지팡이 모듈을 나타낸 도면,
도 3은 본 발명의 바람직한 실시 예에 따른 안경 모듈, 지팡이 모듈 및 스마트 디바이스가 무선 네트워크로 연결된 시스템에서 길안내 과정을 나타낸 플로우차트이다.
1 is a block diagram illustrating a configuration of a blind auxiliary system according to a preferred embodiment of the present invention;
Figure 2 shows the wand module in the system of Figure 1,
FIG. 3 is a flowchart illustrating a route guidance process in a system in which a spectacle module, a cane module, and a smart device according to a preferred embodiment of the present invention are connected to a wireless network.

본 발명의 이점 및 특징, 그리고 그것을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 통해 설명될 것이다. 그러나, 본 발명은 여기에서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 단지, 본 실시 예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to accomplish it, will be described with reference to the embodiments described in detail below with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. The embodiments are provided so that those skilled in the art can easily carry out the technical idea of the present invention to those skilled in the art.

도면들에 있어서, 본 발명의 실시 예들은 도시된 특정 형태로 제한되는 것이 아니며 명확성을 기하기 위하여 과장된 것이다. 또한 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소를 나타낸다.In the drawings, embodiments of the present invention are not limited to the specific forms shown and are exaggerated for clarity. Also, the same reference numerals denote the same components throughout the specification.

본 명세서에서 "및/또는"이란 표현은 전후에 나열된 구성요소들 중 적어도 하나를 포함하는 의미로 사용된다. 또한, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 명세서에서 사용되는 "포함한다" 또는 "포함하는"으로 언급된 구성요소, 단계, 동작 및 소자는 하나 이상의 다른 구성요소, 단계, 동작, 소자 및 장치의 존재 또는 추가를 의미한다.The expression "and / or" is used herein to mean including at least one of the elements listed before and after. Also, singular forms include plural forms unless the context clearly dictates otherwise. Also, components, steps, operations and elements referred to in the specification as " comprises "or" comprising " refer to the presence or addition of one or more other components, steps, operations, elements, and / or devices.

이하에서 본 발명에 따른 바람직한 실시 예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 바람직한 실시 예에 따른 시각 장애인 보조 시스템(300)의 구성을 나타낸 블럭도이다. FIG. 1 is a block diagram showing the configuration of a visually impaired assistant system 300 according to a preferred embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 시각 장애인 보조 시스템(100)은, 카메라가 부착된 안경 모듈(100)과 스마트 제어 장치가 부착된 지팡이 모듈(200)이 무선 통신을 통해 시각 장애인을 보조하는 시스템이다. 이때, 상기 안경과 지팡이는 시각 장애인에 대한 국제 규격을 반영하여 제작하는 것이 바람직하다.1, an assistant system 100 for a visually impaired person according to the present invention includes an eyeglass module 100 with a camera and a cane module 200 with a smart control device, System. At this time, it is preferable that the glasses and the cane are manufactured in accordance with the international standard for the visually impaired.

상기 안경 모듈(100)은, 시각 장애인이 이동하면서 안경의 주시 방향에 따른 전방 물체 또는 보행자(이하, 전방 장애물)의 이미지를 획득하는 이미지 센서(110)와, 상기 이미지 센서로부터 획득된 이미지를 입력받아 상기 이미지를 분석하여 전방 장애물이 있는지 여부를 판단하는 영상신호 분석부(120)와, 상기 영상신호 분석부(120)에서 분석된 영상분석신호를 지팡이 모듈로 전송하는 제1 무선통신부(130)를 구비한다. 이때, 이미지 센서(110)는 CCD(Charge Coupled Device) 센서나 CMOS(상보성 금속산화막 반도체) 센서가 해당될 수 있다. 또한, 영상신호 분석부(120)는 상기 이미지 센서(110)로부터 획득된 이미지를 분석하여 시각 장애인의 전방에 물체 또는 보행자가 있는지 여부를 판단하는데, 영상을 분석하기 기계 학습(machine learning) 알고리즘을 이용하여 보행자 또는 물체를 검출할 수 있게 학습시킨다. 특히, 전방 장애물이 보행자인 경우에는 얼굴 인식 알고리즘(Adaboost)를 수행한다. 즉, 상기 얼굴 인식 알고리즘은, 얼굴을 검출하기 위해 얼굴의 특징이 잘 나타나도록 각 부분별로 특징부(feature)를 추출한다. 이후, 추출된 특징부를 가지고 각각의 약분류기를 만들고, 이때, 각각의 약분류기 중 얼굴과 얼굴이 아닌 이미지를 잘 분류할 수 있는 약분류기를 선택한다. 이러한 약분류기에 해당하는 가중치를 이용하여 강 분류기를 만들고 만들어진 강분류기로 얼굴인지 아닌지를 구분한다. The eyeglass module 100 includes an image sensor 110 for acquiring an image of a forward object or a pedestrian (hereinafter referred to as a front obstacle) along the direction of sight of the eyeglasses while the visually impaired person moves, A first wireless communication unit 130 for transmitting the image analysis signal analyzed by the image signal analysis unit 120 to the wand module, and a second wireless communication unit 130 for transmitting the image analysis signal analyzed by the image signal analysis unit 120 to the wand module, Respectively. At this time, the image sensor 110 may be a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The image signal analyzing unit 120 analyzes the image obtained from the image sensor 110 to determine whether there is an object or a pedestrian in front of the visually impaired person. In order to analyze the image, a machine learning algorithm So that pedestrians or objects can be detected. In particular, if the obstacle is a pedestrian, the face recognition algorithm (Adaboost) is performed. That is, the face recognition algorithm extracts features for each part so that the facial features can be clearly displayed to detect the face. Thereafter, each weak classifier is created with the extracted features, and at this time, a weak classifier capable of classifying the non-face and non-face images among the weak classifiers is selected. We use a weight classifier to classify a strong classifier and classify it as a strong classifier.

한편, 시각 장애인의 지팡이 모듈(200)은, 상기 제1 무선통신부(130)로부터 송신된 영상분석신호를 수신하는 제2 무선통신부(230)와, 상기 제2 무선통신부(230)로부터 수신된 영상분석신호에 따라 시각 장애인이 인식할 수 있는 점자(또는 촉각)신호로 변환하는 지팡이 제어부(220)와, 상기 지팡이 제어부(220)로부터 제어신호에 따라 점자(또는 촉각) 신호로 정보를 출력하는 점자 진동부(210)을 구비한다. 이때, 점자 진동부(210)는 점자 신호를 구현하는 진동모터(212)와 상기 진동모터를 구동하는 모터 드라이버(211)로 구성되는데, PWM 모터 제어 방식과 타임 인터럽트(Timer Interrupt) 기능을 이용하여 제어주기 및 모터를 컨트롤한다. 이처럼, 점자 진동부(210)는 지팡이에 부착되어 진동모터(구동모터)를 통해 진동신호를 구현하거나 상기 영상분석신호에 대응되게 미리 저장되어 있는 점자의 진동패턴에 따라 진동신호를 구현하여 시각 장애인이 지팡이에서의 촉각으로 감지할 수 있다.The cane module 200 of the blind person includes a second wireless communication unit 230 for receiving the image analysis signal transmitted from the first wireless communication unit 130 and a second wireless communication unit 230 for receiving the image (Or tactile sense) signal that can be recognized by the blind person according to the analysis signal, and a braille (or tactile) signal for outputting braille (or tactile) signals according to a control signal from the stick control unit 220. [ And a vibrating part 210. At this time, the braille vibration unit 210 includes a vibration motor 212 for implementing a braille signal and a motor driver 211 for driving the vibration motor. The vibration motor 210 uses a PWM motor control method and a time interruption function Control cycle and motor. As described above, the braille vibration unit 210 is attached to the wand and implements the vibration signal through the vibration motor (driving motor) or implements the vibration signal according to the vibration pattern of braille stored in advance in correspondence with the image analysis signal, This can be detected by the sense of touch on the staff.

도 2에 도시된 바와 같이, 상하좌우의 4개 방향을 지시하는 4개의 진동모터(241, 242, 243, 244)를 구비할 수 있으며, 시각 장애인에게 장애물의 존재 및 이동방향을 알려주기 위해 진동에 의한 촉감을 전달한다. 이에 따라, 상측 진동모터(244), 좌측 진동모터(243), 우측 진동모터(242), 하측 진동 모터(241)가 일렬 배치된 구성을 보여준다. 즉, 좌우측의 장애물에 대해서는 각 좌측 또는 우측 방향의 해당방향의 진동모터를 구동시키는 방식으로 감지하게 하거나 진동에 의한 촉감으로 이동방향을 알려 줄 수 있는데, 같은 방식으로 상하 2개의 진동모터를 상측과 하측 방향의 장애물을 감지할 수 있다. 또한, 미도시 부호 260 및 250은 각각 손잡이부와 지팡이를 설명한다.2, four vibration motors 241, 242, 243, and 244 may be provided to indicate four directions of up, down, left, and right. In order to inform the blind person of the existence of an obstacle and the direction of movement, To transmit the touch. Thus, the upper vibration motor 244, the left vibration motor 243, the right vibration motor 242, and the lower vibration motor 241 are arranged in a line. That is, with respect to the obstacles on the left and right sides, it is possible to sense the direction of movement of the vibration motor in the corresponding direction in the left or right direction or to tell the moving direction by the touch by the vibration. An obstacle in the lower direction can be detected. In addition, reference numerals 260 and 250 denote the handle and the cane, respectively.

또한, 6개의 원형으로 진동모터를 구성하여 상하좌우의 4개 방향 이외에 세부적인 방향 감지나 부가적인 기능을 구현하여, 상기 6개의 모터를 이용하여 시각장애인이 카메라를 통한 시각적 정보에서 촉각 정보로 변환된 정보를 손바닥의 촉감으로 느낄 수 있게 한다. 즉, 도 2에 도시된 바와 같이 추가적으로 지팡이의 하부에 구멍을 감지하는 적외선 센서(251)를 구비하고, 구멍이 있는 경우 바텀 진동모터(미도시)를 구동시킬 수 있다. 이때, 적외선 센서(251)의 경우에는 마이크로 프로세서를 이용한 신호 처리를 행하지 않고 진동모터로 연결되게 하여 신호처리에 소요되는 시간 및 전력을 절감할 수 있으며, 상기 적외선 센서에서의 미약 신호를 증폭하는 증폭기(미도시)가 더 구비될 수 있다. In addition, six circular motors constitute the vibration motor to implement detailed direction sensing and additional functions in addition to the four directions of the top, bottom, left and right, and to convert the visual information from the camera to tactile information To feel the touch of the palm of the hand. In other words, as shown in FIG. 2, an infrared sensor 251 for detecting a hole in the lower part of the wand may be provided, and the bottom vibration motor (not shown) may be driven if there is a hole. In this case, in the case of the infrared sensor 251, the time and power required for the signal processing can be reduced by connecting the infrared sensor 251 with the vibration motor without performing the signal processing using the microprocessor, and an amplifier (Not shown) may be further provided.

이어, 시각 장애인은 안경 모듈(100), 지팡이 모듈(200) 및 자신의 스마트 디바이스(400)를 휴대하면서, 상기 안경 모듈과 지팡이 모듈간의 무선 통신을 구현하거나 상기 안경 모듈, 지팡이 모듈 및 스마트 디바이스 간에 무선 통신을 구현할 수 있다. 여기서, 스마트 디바이스(400)는 스마트 폰, PDA 및 태블릿 PC 중 어느 하나인 것이 바람직하고, 개인화 학습방법 및 시스템을 제공하기 위해 휴대하기 간편하고, 인터넷 통신이 가능한 모바일 시스템이면 모두 가능함은 물론이다. 또한, 무선 통신 방식은 Wi-Fi 통신을 기반으로 하고, 블루투스 통신, 무선랜, 지그비 등의 근거리 무선통신을 통해 데이터를 전송할 수 있다.The blind person then carries the eyeglass module 100, the cane module 200 and the own smart device 400 to implement a wireless communication between the eyeglass module and the wand module or to perform wireless communication between the eyeglass module, Wireless communication can be implemented. Here, the smart device 400 may be any one of a smart phone, a PDA, and a tablet PC, and may be a mobile system that is portable and easy to communicate with the Internet to provide a personalized learning method and system. In addition, the wireless communication method is based on Wi-Fi communication, and data can be transmitted through short-range wireless communication such as Bluetooth communication, wireless LAN, and ZigBee.

스마트 디바이스(400)에는 시각 장애인 전용 길안내 모바일 어플리케이션(이하, 앱)이 설치되어 있어, 길안내 앱은 Wi-Fi 통신을 통해 데이터를 수신받고, 이를 표시하며, 음성 합성을 통해 결과를 지팡이에 설치된 스피커(미도시)로 출력해 준다. 이에 따라, 길안내 앱에 따라 이동시에 스피커를 통한 음성 안내 뿐만아니라 안경 모듈 및 지팡이 모듈을 통해 전방 장애물을 감지하거나 시각 장애인에게 이동방향을 진동에 의한 촉감으로도 알려 줄 수 있다. 가령, 일렬로 배열된 진동 모터에 대해 좌측 방향인 경우에는 상부에서 하부(Top down 방식으로) 진동 세기 또는 진동회수를 증가시켜 이동 방향임을 알 수 있게 하고, 우측 방향인 경우에는 그 반대임(bottom up 방식)을 알 수 있다.In the smart device 400, a navigation application for a visually impaired person (hereinafter referred to as an app) is installed. The navigation application receives data through Wi-Fi communication, displays the data, And outputs it to the installed speaker (not shown). Accordingly, not only the voice guidance through the speaker but also the glasses module and the cane module can detect a front obstacle when moving according to the navigation application, and can inform the visually impaired person of the moving direction by the touch by the vibration. For example, when the vibration motor is arranged in a line, the vibrating motor is moved in a direction from the upper side to the lower side (top down method) to increase the vibration intensity or the vibration frequency, up method) can be known.

이처럼, 스마트 지팡이가 최근 보편화되고 있는 스마트폰, 스마트 테블릿과 연동되게 구성하여 시각 및 청각 장애인들에게 유용하게 이용가능하게 한다.
As such, smart sticks can be configured to work in conjunction with smartphones and smart tablets, which are becoming popular nowadays, making them useful for the visually and hearing-impaired.

도 3은 본 발명의 바람직한 실시 예에 따른 안경 모듈, 지팡이 모듈 및 스마트 디바이스(400)를 연동하여 시각 장애인 보조 시스템(300)을 구현하는 과정을 나타낸 플로우차트이다. FIG. 3 is a flowchart illustrating a process of implementing a visually impaired assistant system 300 in conjunction with an eyeglass module, a cane module, and a smart device 400 according to a preferred embodiment of the present invention.

도 3을 참조하면, 먼저, 안경 모듈(100)에 장착된 이미지 센서를 통해, 시각 장애인이 이동하는 도로상의 전방 장애물에 대한 영상 정보를 읽어 들인다(S210).Referring to FIG. 3, first, image information on a front obstacle on a road on which a visually impaired person moves is read through an image sensor mounted on the spectacle module 100 (S210).

이후, 영상신호 분석부는 상기 이미지 센서를 통해 획득된 이미지에서 패턴 인식 및 기계학습 알고리즘을 통한 관심 객체를 인식하는 알고리즘을 구현하고 이를 적용하여 시각 장애인 전방에서의 장애물(물체 또는 보행자) 여부를 판단한다(S220). Then, the image signal analyzing unit implements an algorithm for recognizing an object of interest through pattern recognition and a machine learning algorithm in the image acquired through the image sensor, and determines whether the obstacle is an obstacle (an object or a pedestrian) in front of the visually impaired (S220).

여기서, 관심 객체로는 차선 및 외부차량, 신호등, 보행자 등이 해당될 수 있는데, 장애물이 보행자인 경우 얼굴인식 알고리즘이 수행된다. 즉, 상기 영상신호 분석부는 포지티브 데이터(Positive data), 네거티브 데이터(Negative data) 및 뉴트럴(Natural Data)로 구성되는 트레인 데이터(Train Data)로부터 HOG feature와 MCT feature를 이용하여 보행자의 공통적인 특성을 이미지로부터 추출한다. 이를 기계 학습 알고리즘을 이용하여 이미지로부터 보행자를 검출할 수 있도록 학습시킨다. 이 때, 사용되는 머신 러닝 알고리즘은 여러 개의 약 분류기와 각 약 분류기에 해당하는 가중치를 이용하여 강한 분류기를 구성하는 Adaboost 알고리즘을 이용한다. In this case, a lane and an external vehicle, a traffic light, a pedestrian, and the like may be considered as objects of interest. In the case where the obstacle is a pedestrian, a face recognition algorithm is performed. That is, the image signal analyzer uses the HOG feature and the MCT feature from the train data composed of positive data, negative data, and neutral data to determine common characteristics of the pedestrian Extract from the image. This is learned by using a machine learning algorithm so that a pedestrian can be detected from an image. At this time, the machine learning algorithm used is the Adaboost algorithm which constructs strong classifiers by using the weights corresponding to several weak classifiers and weak classifiers.

게다가, 검출된 보행자로부터 눈동자 검출의 얼굴인식을 수행하여 인식된 보행자가 아는 사람인지 여부를 판단할 수 있다.In addition, it is possible to determine whether or not the recognized pedestrian is a person by carrying out face recognition of pupil detection from the detected pedestrian.

이후, 상기 영상 분석부(220)를 통한 패턴 인식 및 기계학습 알고리즘에 따라 장애물 여부를 판단하고 판단된 영상분석신호를 제1 무선통신부를 통해 지팡이 제어부에 전송한다(S230).Thereafter, it is determined whether an obstacle is present according to the pattern recognition and the machine learning algorithm through the image analysis unit 220, and the determined image analysis signal is transmitted to the stick control unit through the first wireless communication unit at step S230.

이후, 지팡이 제어부는 전달된 영상분석신호를 바탕으로 제어신호를 생성하고, 상기 제어신호에 따라 지팡이 모듈에 진동신호를 구현하거나 상기 영상분석신호에 대응되게 미리 저장되어 있는 점자의 진동패턴에 따라 진동신호를 구현하여 시각 장애인에 촉각 정보를 제공하여 감지할 수 있게 한다(S240).Thereafter, the cane control unit generates a control signal based on the transmitted image analysis signal, implements a vibration signal in the cane module according to the control signal, or generates a vibration signal corresponding to the vibration pattern of braille stored in advance in correspondence with the image analysis signal. Signal so that the tactile information can be provided to the visually impaired to be sensed (S240).

또한, 스마트 디바이스의 길안내 앱을 음성으로 생성하여 지팡이에 설치된 스피커를 통해 방향 지시 등의 길안내가 이루어질 수 있다(S250). 가령, 시각 장애인을 위한 길안내 앱은, 사용자가 스마트 디바이스에서 음성으로 출발지와 목적지를 입력하면, 상기 길안내 앱에 따라 음성 합성을 통해 결과를 스피커로 출력해 준다. 이때, 스마트 디바이스는 안경모듈 및 지팡이 모듈과 근거리 무선통신으로 연결되어, 보조적으로 장애물의 감지 이동 방향에 대해 진동에 의한 촉감으로도 알려 줄 수 있다. In addition, a route guidance application of the smart device may be generated as a voice and a route guidance such as a direction indication may be made through a speaker installed in the staff (S250). For example, when a user inputs a start point and a destination from a smart device by voice, the navigation application for the visually impaired outputs the result to the speaker through voice synthesis according to the navigation application. At this time, the smart device is connected with the eyeglass module and the wand module through short-range wireless communication, and can also inform the direction of movement of the obstacle by vibration due to vibration.

이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능 하다는 것을 당 업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.While the invention has been shown and described with respect to the specific embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined by the appended claims. Anyone with it will know easily.

100: 안경 모듈
110: 이미지 센서
120: 영상신호 분석부
130, 230: 무선 통신부
200: 지팡이 모듈
210: 점자 진동부
220: 제어부
300: 시각장애인 보조 시스템
400: 스마트 디바이스
100: Glasses module
110: Image sensor
120: a video signal analyzing unit
130, and 230:
200: cane module
210:
220:
300: Visually impaired assistant system
400: Smart Device

Claims (7)

안경 모듈 및 지팡이 모듈이 무선 네트워크로 연결된 시각 장애인 보조 시스템에 있어서,
상기 안경 모듈은, 상기 시각 장애인이 이동하면서 안경의 주시 방향에 따른 전방 장애물의 이미지를 획득하는 이미지 센서와, 상기 이미지 센서로부터 획득된 이미지를 입력받아 상기 이미지를 분석하여 상기 전방 장애물의 유무를 판단하는 영상신호 분석부와, 상기 영상신호 분석부에서 분석된 영상분석신호를 상기 지팡이 모듈로 전송하는 제1 무선통신부를 포함하고,
상기 지팡이 모듈은, 상기 제1 무선통신부로부터 송신된 영상분석신호를 수신하는 제2 무선통신부와, 상기 제2 무선통신부로부터 수신된 영상분석신호에 따라 시각 장애인이 인식할 수 있는 촉각 신호로 변환하는 지팡이 제어부와, 상기 지팡이 제어부로부터 제어신호에 따라 촉각 신호로 정보를 출력하는 점자 진동부를 포함하는 것을 특징으로 하는 시각 장애인 보조 시스템.
A blindfold auxiliary system in which an eyeglass module and a wand module are connected via a wireless network,
The eyeglass module may further include an image sensor that acquires an image of a front obstacle along the direction of sight of the eyeglasses while the visually impaired person moves and analyzes the image by receiving the image acquired from the image sensor to determine whether or not the front obstacle is present And a first wireless communication unit for transmitting the image analysis signal analyzed by the image signal analysis unit to the wand module,
The cane module includes a second wireless communication unit that receives the image analysis signal transmitted from the first wireless communication unit and a tactile signal that can be recognized by the blind person according to the image analysis signal received from the second wireless communication unit And a braille vibration unit for outputting information as a tactile signal according to a control signal from the cane control unit.
제1항에 있어서,
상기 점자 진동부는 상기 촉각 신호를 구현하는 진동모터와 상기 진동모터를 구동하는 모터 드라이버를 포함하며,
상기 촉각 신호는 점자 신호 또는 진동 신호인 것을 특징으로 하는 시각 장애인 보조 시스템.
The method according to claim 1,
Wherein the braille vibration unit includes a vibration motor for implementing the haptic signal and a motor driver for driving the vibration motor,
Wherein the tactile signal is a braille signal or a vibration signal.
제1항에 있어서,
상기 지팡이 모듈은 그 하부에 상기 시각 장애인의 이동 방향에서 구멍을 감지하는 적외선 센서를 구비하고, 상기 구멍이 있는 경우 바텀 진동모터를 구동시키는 것을 특징으로 하는 시각 장애인 보조 시스템.
The method according to claim 1,
Wherein the cane module includes an infrared sensor for detecting a hole in the moving direction of the visually impaired person at a lower portion thereof, and drives the bottom vibration motor in the presence of the hole.
제1항에 있어서,
상기 안경 모듈 및 지팡이 모듈과 상기 무선 네트워크로 연결된 스마트 디바이스를 더 구비하고,
상기 지팡이 모듈에 스피커를 더 구비하며,
상기 스마트 디바이스의 길안내 앱에 따라 상기 시각 장애인의 이동시에 상기 스피커를 통한 안내 음성을 출력하고, 상기 안경 모듈 및 지팡이 모듈을 통해 상기 전방 장애물을 감지하거나 상기 시각 장애인에게 이동방향에 대해 상기 촉각신호를 출력하는 것을 특징으로 하는 시각 장애인 보조 시스템.
The method according to claim 1,
And a smart device connected to the eyeglass module and the cane module via the wireless network,
The cane module further comprises a speaker,
And a guidance module for outputting a guidance voice through the speaker at the time of movement of the visually impaired according to the guidance application of the smart device and detecting the front obstacle through the spectacle module and the wand module, And outputs the output signal.
제1항에 있어서,
상기 영상신호 분석부는, 상기 전방 장애물이 보행자인 경우에는 얼굴 인식 알고리즘을 적용하는 것을 특징으로 하는 시각 장애인 보조 시스템.
The method according to claim 1,
Wherein the image signal analyzing unit applies a face recognition algorithm when the front obstacle is a pedestrian.
안경 모듈 및 지팡이 모듈이 무선 네트워크로 연결된 시스템에서 시각 장애인의 길안내를 보조하는 방법에 있어서,
(a) 상기 안경 모듈에 장착된 이미지 센서를 통해 상기 시각 장애인이 이동하는 도로상의 전방 장애물에 대한 영상 정보를 획득하는 단계;
(b) 상기 안경모듈이 상기 (a)단계에서 획득된 영상 정보에 대해 패턴 인식 및 기계학습 알고리즘을 적용하여 전방 장애물 유무를 판단하는 단계;
(c) 상기 (b)단계에서 판단된 영상분석신호를 상기 무선 네트워크를 통해 상기 지팡이 모듈에 전송하는 단계;
(d) 상기 (c)단계에서 전송된 영상분석신호를 바탕으로 상기 지팡이 모듈은 제어신호를 생성하고, 상기 제어신호에 따라 상기 지팡이 모듈에 진동신호를 구현하거나 상기 영상분석신호에 대응되게 미리 저장되어 있는 점자의 진동패턴에 따라 진동신호를 구현하여 시각 장애인에 촉각 정보를 제공하는 단계;
를 포함하는 것을 특징으로 하는 시각 장애인 보조 방법.
CLAIMS 1. A method of assisting a visually impaired person in guiding a system in which a spectacle module and a cane module are connected via a wireless network,
(a) acquiring image information about a front obstacle on a road on which the visually impaired person moves through an image sensor mounted on the spectacle module;
(b) determining whether a front obstacle is present by applying pattern recognition and a machine learning algorithm to the image information obtained in the step (a);
(c) transmitting the image analysis signal determined in step (b) to the wand module through the wireless network;
(d) the cane module generates a control signal based on the image analysis signal transmitted in the step (c), and implements a vibration signal in the cane module according to the control signal or stores it in advance in correspondence with the image analysis signal Providing tactile information to a visually impaired person by implementing a vibration signal according to a vibration pattern of the braille;
The method comprising the steps < RTI ID = 0.0 > of: < / RTI >
제6항에 있어서,
상기 시스템은 상기 안경 모듈 및 지팡이 모듈과 상기 무선 네트워크로 연결된 스마트 디바이스와 상기 지팡이 모듈에 스피커를 더 구비하고,
(e) 상기 스마트 디바이스의 길안내 앱을 음성으로 생성하여 상기 스피커를 통해 방향 지시 등의 길안내를 상기 음성으로 제공하는 단계;
(f) 상기 안경 모듈 및 지팡이 모듈을 통해 상기 전방 장애물을 감지하거나 상기 시각 장애인에게 이동방향에 대해 상기 촉각신호를 출력하는 단계;
를 더 포함하는 것을 특징으로 하는 시각 장애인 보조 방법.
The method according to claim 6,
Wherein the system further comprises a speaker in the smart module connected to the eyeglass module and the cane module via the wireless network and the cane module,
(e) generating a voice guidance application of the smart device by voice and providing a voice guidance of a direction indication or the like through the speaker;
(f) sensing the front obstacle through the spectacle module and the wand module or outputting the tactile signal to the visually impaired person in the moving direction;
≪ / RTI >
KR1020140018113A 2014-02-17 2014-02-17 Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module KR20150097043A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140018113A KR20150097043A (en) 2014-02-17 2014-02-17 Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140018113A KR20150097043A (en) 2014-02-17 2014-02-17 Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module

Publications (1)

Publication Number Publication Date
KR20150097043A true KR20150097043A (en) 2015-08-26

Family

ID=54059105

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140018113A KR20150097043A (en) 2014-02-17 2014-02-17 Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module

Country Status (1)

Country Link
KR (1) KR20150097043A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180045873A (en) * 2016-10-25 2018-05-04 주식회사 닷 Method, system and apparatus for space guide
KR20190077639A (en) * 2017-12-14 2019-07-04 주식회사 코이노 Vision aids apparatus for the vulnerable group of sight, remote managing apparatus and method for vision aids
KR101965875B1 (en) * 2017-10-11 2019-08-13 주식회사 핀텔 Method and apparatus for road guidance based in image processing
CN110833498A (en) * 2019-11-27 2020-02-25 广东工业大学 Blind guiding stick and blind guiding method thereof
KR20210068970A (en) * 2019-12-02 2021-06-10 이우준 System for providing navigation service for visually impaired person
KR20210076235A (en) * 2019-12-13 2021-06-24 동국대학교 산학협력단 Smart stick provides voice information about obstacles detected by ultrasonic sensors and operating method thereof
KR20210125748A (en) * 2020-04-09 2021-10-19 전재훈 Visually impaired assistive device
KR102460866B1 (en) * 2022-04-19 2022-11-01 한국보훈복지의료공단 Gait guidance device and method
WO2023089327A1 (en) * 2021-11-19 2023-05-25 Sensivision Limited Handheld guidance device for the visually-impaired
CN116358591A (en) * 2023-04-07 2023-06-30 广州爱浦路网络技术有限公司 Travel navigation assistance method for visually impaired people, electronic device and storage medium
WO2024005243A1 (en) * 2022-07-01 2024-01-04 엘지전자 주식회사 Walking assistance system for visually impaired person and method thereof

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180045873A (en) * 2016-10-25 2018-05-04 주식회사 닷 Method, system and apparatus for space guide
KR101965875B1 (en) * 2017-10-11 2019-08-13 주식회사 핀텔 Method and apparatus for road guidance based in image processing
KR20190077639A (en) * 2017-12-14 2019-07-04 주식회사 코이노 Vision aids apparatus for the vulnerable group of sight, remote managing apparatus and method for vision aids
CN110833498A (en) * 2019-11-27 2020-02-25 广东工业大学 Blind guiding stick and blind guiding method thereof
KR20210068970A (en) * 2019-12-02 2021-06-10 이우준 System for providing navigation service for visually impaired person
KR20210076235A (en) * 2019-12-13 2021-06-24 동국대학교 산학협력단 Smart stick provides voice information about obstacles detected by ultrasonic sensors and operating method thereof
KR20210125748A (en) * 2020-04-09 2021-10-19 전재훈 Visually impaired assistive device
WO2023089327A1 (en) * 2021-11-19 2023-05-25 Sensivision Limited Handheld guidance device for the visually-impaired
KR102460866B1 (en) * 2022-04-19 2022-11-01 한국보훈복지의료공단 Gait guidance device and method
WO2023204374A1 (en) * 2022-04-19 2023-10-26 한국보훈복지의료공단 Gait guidance device and method
WO2024005243A1 (en) * 2022-07-01 2024-01-04 엘지전자 주식회사 Walking assistance system for visually impaired person and method thereof
CN116358591A (en) * 2023-04-07 2023-06-30 广州爱浦路网络技术有限公司 Travel navigation assistance method for visually impaired people, electronic device and storage medium

Similar Documents

Publication Publication Date Title
KR20150097043A (en) Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module
US11705018B2 (en) Personal navigation system
Lin et al. Deep learning based wearable assistive system for visually impaired people
JPWO2005108926A1 (en) Information processing device, mobile device, and information processing method
KR20120020212A (en) Stick for disabled person having navigation
WO2015169072A1 (en) Spectacles for blind person
KR101054025B1 (en) Visually impaired walking guidance method and system
Patel et al. Multisensor-based object detection in indoor environment for visually impaired people
US10062302B2 (en) Vision-assist systems for orientation and mobility training
KR101847764B1 (en) Information gathering system for the visually impaired
Bharathi et al. Effective navigation for visually impaired by wearable obstacle avoidance system
Rajendran et al. Design and implementation of voice assisted smart glasses for visually impaired people using google vision api
Bhowmick et al. IntelliNavi: Navigation for blind based on Kinect and machine learning
Ilag et al. Design review of smart stick for the blind equipped with obstacle detection and identification using artificial intelligence
Hakim et al. Navigation system for visually impaired people based on RGB-D camera and ultrasonic sensor
KR102291296B1 (en) Walking assistance system for the visually-impaired person
KR20180097962A (en) Situation determining guide apparatus and method based image analysis
US11908316B2 (en) Walking information provision system
KR101159437B1 (en) Apparatus and method for walking assistance of the visually impaired person
KR20070008772A (en) A stick with vision recognition for the blind
Merugu et al. A review of some assistive tools and their limitations for visually impaired
AU2020101563A4 (en) An artificial intelligence based system to assist blind person
Kalaivani et al. An Artificial Eye for Blind People
Kunapareddy et al. Smart Vision based Assistant for Visually Impaired
KR20170079703A (en) A navigation system for a blind capable of directing scenes

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid