KR20150144510A - Glasses system for visually handicapped person - Google Patents

Glasses system for visually handicapped person Download PDF

Info

Publication number
KR20150144510A
KR20150144510A KR1020140073308A KR20140073308A KR20150144510A KR 20150144510 A KR20150144510 A KR 20150144510A KR 1020140073308 A KR1020140073308 A KR 1020140073308A KR 20140073308 A KR20140073308 A KR 20140073308A KR 20150144510 A KR20150144510 A KR 20150144510A
Authority
KR
South Korea
Prior art keywords
unit
image
signal
matching
communication unit
Prior art date
Application number
KR1020140073308A
Other languages
Korean (ko)
Inventor
김태형
김형수
김도형
Original Assignee
김태형
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김태형 filed Critical 김태형
Priority to KR1020140073308A priority Critical patent/KR20150144510A/en
Publication of KR20150144510A publication Critical patent/KR20150144510A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/008Teaching or communicating with blind persons using visual presentation of the information for the partially sighted

Abstract

The present invention relates to a glasses system for visually impaired persons. The glasses system comprises: glasses which include a plurality of image detecting sensor installed at different positions of a glasses frame and detect an object, a first communications unit which transmits an image of the object recognized by the image detecting sensor or receives a provided audio signal, and an audio outputting unit outputting the audio signal; and a processing terminal which includes a matching unit which matches single object data by reflecting the disparity of the image of the object recognized by the image detecting sensor, a converting unit converting either the audio signal or a direction signal to at least one of an output signal by detecting the information of the object based on the object data matched by the matching unit, and a second communications unit transmitting the output signal converted by the converting unit. Accordingly, since system of the present invention detects the information of the object by matching the image in the different position to a single image, thereby effectively detecting the location information and types of the object.

Description

시각 장애인용 안경 시스템 {GLASSES SYSTEM FOR VISUALLY HANDICAPPED PERSON}{GLASSES SYSTEM FOR VISUALLY HANDICAPPED PERSON}

본 발명은 시각 장애인용 안경 시스템에 관한 것으로, 보다 자세하게는 검출한 객체에 대한 정보를 청각과 촉각을 통해 제공하여 시각 장애인의 정보 획득 능력을 개선한 시각 장애인용 안경 시스템에 관한 것이다.
The present invention relates to an eyeglass system for a visually impaired person, and more particularly, to an eyeglass system for a visually impaired person who improves information acquisition capability of a visually impaired person by providing information on the detected object through auditory and tactile sense.

현재 정보 통신 기술의 발달로 인하여 개인과 사회, 국가 전체가 수많은 정보의 홍수 속에 살고 있으나, 전 세계적으로 보면 시각 장애인, 문맹자, 노인 등은 현재의 정보 통신 기술에서 제공하는 정보의 접근과 활용이 어려워 일반인에 비해 정보를 얻기 위한 수단이 충분히 제공되지 못하는 실정이다.The development of information and communication technologies has led to a flood of information, individuals, society and the entire nation. However, it is difficult for the visually impaired, illiterate, and elderly people to access and utilize the information provided by current ICT There is not enough means to obtain information compared to the general public.

예로, 시각 장애인이 정보를 얻기 위해서는 점자나 책을 음성으로 읽어주는 서비스에 의존하는 것처럼 매우 한정적이다. 인쇄 매체를 점자로 변경하기 위해서는 입력과 교정 등에 많은 시간과 비용이 발생하게 되고, 점자로 만든 책들은 부피도 크고 보관하기도 힘든 단점이 있었고, 음성으로 대신 문자를 읽어주는 방식에서는 낭독자의 부재시 정보 획득은 실질적으로 불가능 하였다.For example, it is very limited as the visually impaired depends on the service to read the book or the book by voice to obtain the information. In order to change the printing medium into braille, much time and expense are required for input and correction, and the books made of Braille have a disadvantage that they are bulky and hard to store, and in the method of reading characters instead of voice, Was practically impossible.

이와 같은 문제점을 해결하기 위하여 문서나 정보 등을 압축한 디지털 코드 형태로 정보를 제공하는 형태로 실시되었다.In order to solve such a problem, information was provided in the form of a digital code in which documents and information were compressed.

그러나 이러한 디지털 코드를 카메라로 인식하는데 있어 일반인이더라도 정확한 초점을 한번에 잡기는 쉽지 않고, 시각 장애인의 경우 그 문제는 훨씬 가중되어 디지털 코드를 이용한 정보 획득도 쉽지 않은 실정이었다. However, it is not easy for the general person to recognize the digital code as a camera, and it is not easy to catch the accurate focus at once. In the case of the visually impaired, the problem becomes much more serious and it is not easy to obtain information using the digital code.

또한, 시력 장애가 있는 사람은 일반인에 비해 이동능력이 제한된다. 지팡이를 전방으로 더듬으며 방해물 여부를 파악하고 보행하거나 안내견의 도움을 받는 방식으로 이동하였다. Also, people with visual impairments have limited mobility compared to the general population. They walked the cane forward, grasped the obstacles and walked or walked in the way of helping guide dogs.

이동에 도움을 주기 위한 보조 수단으로 대한민국공개특허 2001-0050296호(공개일 2001년 06월 15일, 시각장애인 안내용 전자감지 지팡이)에는 지팡이의 일측에 장애물까지의 거리를 산출하는 초음파 송수신부를 구성하여 인식된 감지 상황에 따른 안내 정보를 제공하는 방식이 개시되어 있다. Korean Patent Publication No. 2001-0050296 (published on June 15, 2001), as an auxiliary means for assisting the movement, constitutes an ultrasonic transmission / reception unit for calculating the distance to an obstacle at one side of a staff member And provides guidance information according to the recognized sensing situation.

그러나 이러한 방식에서는 안내방송으로 정보를 제공받고 있어, 외부의 소음에서 정확한 방송의 인지가 어렵고 장애물에 대한 정보를 얻기 어렵다는 문제가 제기되었다.
However, in this method, information is provided through announcement broadcasting, so that it is difficult to recognize accurate broadcasts from external noises and it is difficult to obtain information about obstacles.

이에, 본 발명은 상기와 같은 문제점을 해소하기 위해 안출된 것으로서, 시각 장애인이 이용하는 시각 보조 수단에 객체의 검출 성능이 개선되고, 객체에 대한 정보를 효과적으로 전달할 수 있는 시각 장애인용 안경 시스템을 제공하는데 목적이 있다. Accordingly, the present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide an eyeglass system for a visually impaired person, in which the detection performance of an object is improved in visual aids used by a visually impaired person, There is a purpose.

또한, 시각 장애인의 이동에 있어서 주변 소음에도 효과적으로 안내 정보 제공이 가능한 시각 장애인용 안경 시스템을 제공하는데 또다른 목적이 있다.
Another object of the present invention is to provide an eyeglass system for the visually impaired, which can effectively provide guidance information to the background noise in the movement of the visually impaired person.

상기와 같은 목적을 달성하기 위하여 본 발명은, 안경테의 서로다른 위치에 각각 설치되어 객체를 검출하는 복수의 영상검출센서와, 상기 복수의 영상검출센서로부터 인식된 상기 객체의 영상들을 전송하거나 또는 제공되는 음성신호를 수신하는 제1 통신부와, 상기 음성신호를 출력하는 음성출력부를 갖는 안경과; 상기 복수의 영상검출센서로부터 인식된 상기 객체의 영상들의 시차를 반영하여 단일의 객체 데이터로 정합하는 정합부와, 상기 정합부를 통해 정합된 상기 객체 데이터를 기초로 객체의 정보를 추출하여 음성신호와 방향신호 중, 적어도 어느 하나 이상의 출력신호로 변환하는 변환부와, 상기 변환부에서 변환된 상기 출력신호를 전송하는 제2 통신부를 갖는 처리단말을 포함하는 시각 장애인용 안경 시스템에 의해 달성된다. According to an aspect of the present invention, there is provided an eyeglass frame comprising: a plurality of image detecting sensors provided at different positions of an eyeglass frame for detecting an object; A first communication section for receiving a voice signal to be output from the first communication section; and a voice output section for outputting the voice signal; A matching unit for matching the parallaxes of the images of the object recognized by the plurality of image detecting sensors to a single object data; and a controller for extracting information of the object based on the object data matched through the matching unit, And a processing unit having a second communication unit for transmitting the output signal converted by the conversion unit. The present invention is also directed to a vision system for a visually impaired person.

그리고, 상기 제2 통신부로부터 전송된 상기 방향신호를 수신하는 제3 통신부와, 손잡이 영역에 설치되고, 상기 방향신호가 갖는 각각의 방향에 매칭되게 설치된 복수의 진동부와, 상기 제3 통신부를 통해 수신된 상기 방향신호를 분석하고, 상기 방향신호가 갖는 방향에 매칭되는 상기 복수의 진동부 중 적어도 어느 하나에 작동신호를 제공하는 제어부를 갖는 지팡이를 더 포함할 수 있다.A third communication unit for receiving the direction signal transmitted from the second communication unit; a plurality of vibration units provided in the handle region and provided to match the directions of the direction signals; And a control unit for analyzing the received direction signal and for providing an operation signal to at least one of the plurality of vibration units matching the direction of the direction signal.

여기서, 상기 복수의 진동부에는 손가락과 접촉되는 각각의 표면에, 매칭된 방향에 대한 시각장애인용 점자를 형성할 수 있다. Here, braille braille for the blind can be formed on the respective surfaces contacting the fingers in the plurality of vibrating portions with respect to the matched direction.

그리고, 상기 영상검출센서는 상기 객체의 영상을 촬영하는 카메라와 객체 객체의 거리를 검출하는 초음파 센서를 포함하는 것도 가능하다. The image detecting sensor may include an ultrasonic sensor for detecting a distance between a camera for capturing an image of the object and an object object.

또한, 상기 안경은 상기 영상검출센서의 틸트(Tilt)를 조절하는 틸트 조절부를 더 포함하며;In addition, the spectacles may further include a tilt adjusting unit for adjusting a tilt of the image detecting sensor;

상기 틸트 조절부는 상기 영상검출센서로부터 인식된 영상에 안경의 기울기에 따른 기울기값을 반영하여 상기 기울기값에 대한 영상으로 보정하는 것이 가능하다. The tilt adjusting unit may correct the tilt value of the eyeglasses by reflecting the tilt value of the glasses on the image recognized by the image detecting sensor.

또한, 상기 변환부는 텍스트 기반의 객체를 음성 형태의 신호로 변환하는 TTS(Text-to-SPeech)변환부와, 정합된 영상에서 기준점을 기준으로 객체의 상하좌우 위치에 대한 신호로 변환하는 위치 변환부를 포함하는 것이 가능하다.
Also, the converting unit may include a text-to-speaker (TTS) converting unit for converting a text-based object into a voice-like signal, a position-transforming unit for transforming the matched image into a signal for an upper- It is possible to include a part.

상기와 같은 구성에 따라 본 발명에 따르면, 복수의 영상검출센서를 이용하여 객체에 대한 상이한 위치에서 영상을 획득하고, 상이한 위치의 영상을 단일 영상으로 정합하여 객체의 정보를 검출하므로, 객체의 위치정보와 형태의 검출에 보다 효과적이다.According to the present invention, since an image is acquired at different positions with respect to an object using a plurality of image detecting sensors and an image of an object is detected by matching images at different positions with a single image, It is more effective in detecting information and form.

또한, 정합된 객체에 대한 데이터를 음성신호 또는 방향신호로 변환하여 사용자에게 시각 및 촉각의 형태로 제공하므로 정보 획득에 보다 용이하다.In addition, the data for the matched object is converted into a voice signal or a direction signal and is provided to the user in the form of a visual and tactile sense, so that it is easier to acquire information.

또한, 영상검출센서의 틸트를 조절할 수 있도록 마련됨에 따라 개인적 신체조건에 적절한 상태로 영상검출이 가능하다.
In addition, since the tilt of the image detecting sensor can be adjusted, it is possible to detect an image in a state suitable for personal body conditions.

도 1은 본 발명의 실시예에 따른 시각 장애인용 안경 시스템을 나타낸 도면이고,
도 2는 도 1의 안경의 사시도이고,
도 3은 본 발명의 실시예에 따른 처리단말과 안경의 구성을 나타낸 도면이고,
도 4는 본 발명의 실시예에 따른 지팡이의 구성을 나타낸 도면이고,
도 5는 본 발명의 실시예에 따른 지팡이의 손잡이부를 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a view showing a vision system for a visually impaired person according to an embodiment of the present invention,
Fig. 2 is a perspective view of the spectacle of Fig. 1,
3 is a view showing the configuration of a processing terminal and glasses according to an embodiment of the present invention,
4 is a view showing a configuration of a walking stick according to an embodiment of the present invention,
5 is a view illustrating a handle of a walking stick according to an embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세히 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 시각 장애인용 안경 시스템을 나타낸 도면이고, 도 2는 도 1의 안경의 사시도이다. 도 1 및 도 2를 참조하여 설명하면, 본 발명에 따른 시각 장애인용 안경 시스템(10)은 영상검출센서(101)와 제1 통신부(140)와 음성출력부(130)가 구비된 안경(100)과, 제2 통신부(220)와, 정합부(223)와, 변환부(221)를 갖는 처리단말(200)을 포함한다.Fig. 1 is a view showing a spectacle system for the visually impaired according to an embodiment of the present invention, and Fig. 2 is a perspective view of the spectacle of Fig. 1. Fig. 1 and 2, the eyeglass system 10 for a visually impaired person according to the present invention includes an image detection sensor 101, glasses 100 provided with a first communication unit 140 and a sound output unit 130 A second communication unit 220, a matching unit 223, and a processing unit 200 having a conversion unit 221.

영상검출센서(101)는 안경테의 서로다른 위치에 각각 설치되어 객체를 검출한다. 보다 자세하게 설명하면, 영상검출센서(101)는 사용자 주변에 위치한 객체의 위치 파악과 식별이 이루어지도록 복수의 소형 광학 카메라(120)와 초음파 센서(110)로 이루어진다. 본 발명의 실시예에서는 2개의 소형 광학 카메라(120)를 이용하는 것을 예로하며, 각각의 소형 광학 카메라(120)는 통상의 안경 렌즈가 설치되는 테두리의 측면부에 설치된다. 서로 이격된 위치에 설치되는 소형 광학 카메라(120)가 이용되면 사용자가 특정 방향을 향할 때, 동일한 객체에 대해서 서로 다른 각도와 거리정보를 갖는 객체 데이터를 획득하게 된다.The image detecting sensors 101 are installed at different positions of the spectacle frames to detect objects. More specifically, the image detecting sensor 101 includes a plurality of small optical cameras 120 and an ultrasonic sensor 110 so as to locate and identify an object located near the user. In the embodiment of the present invention, two miniature optical cameras 120 are exemplified, and each of the miniature optical cameras 120 is installed on the side of the rim on which the ordinary spectacle lens is installed. When a small optical camera 120 installed at a position spaced apart from each other is used, object data having different angles and distance information with respect to the same object are obtained when the user is directed in a specific direction.

그리고 초음파 센서(110)는 2개의 소형 광학 카메라(120)의 중간 측에 배치된다. And the ultrasonic sensor 110 is disposed on the middle side of the two miniature optical cameras 120.

소형 광학 카메라(120)로부터의 획득된 각각의 영상은 서로 다른 각도와 거리정보를 갖게 되므로 즉 시차가 발생하게 되는데, 시차를 반영하고, 초음파 센서(110)를 통해 얻어진 거리정보를 이용하여 객체의 거리와 형태를 보다 정확하게 파악할 수 있다.Since each image obtained from the small optical camera 120 has different angle and distance information, parallax is generated. The parallax is reflected, and the distance information obtained through the ultrasonic sensor 110 is used to calculate the distance The distance and shape can be grasped more accurately.

그리고, 안경(100)에는 틸트(Tilt)조절부(150)가 더 형성된다. 틸트 조절부(150)는 영상검출센서(101)가 바라보는 방향에 대한 각도 조절이 가능하게 마련된다. The glasses 100 further include a tilt adjusting unit 150. The tilt adjusting unit 150 is provided to adjust the angle with respect to the direction in which the image detecting sensor 101 is viewed.

여기에서의 각도 조절을 설명하면 각각의 영상검출센서(101)는 기울기 센서(미도시)에 의해 감지된 기울기 정도를 영상 검출센서로부터 검출되는 영상에 반영한다. 즉, 안경의 기울기에 따른 보정값을 영상검출센서(101)로부터 획득한 영상에 반영하여 보정함으로써 영상검출센서(101)가 바라보는 방향에 대한 틸트가 조절되는 것을 예로한다. In the description of the angle adjustment here, each image detection sensor 101 reflects the degree of tilt detected by the tilt sensor (not shown) on the image detected from the image detection sensor. That is, it is assumed that the tilt of the image sensing sensor 101 is adjusted by reflecting the correction value according to the inclination of the glasses to the image obtained from the image detection sensor 101 and correcting it.

틸트 조절부(150)는 상이한 신체조건의 사용자에 대한 제약을 줄여 적절한 영상 획득 환경을 조성한다.The tilt adjuster 150 reduces the constraint on the user of different physical conditions to create an appropriate image acquisition environment.

음성출력부(130)는 처리단말(200)에서 제공된 음성신호를 출력한다. 여기서 음성신호는 텍스트 또는 QR코드와 같은 데이터 코드를 갖는 대상을 이용하여 TTS와 같은 변환부(221)를 통해 얻어진다. 또한, 음성신호는 데이터 코드가 갖는 정보뿐만 아니라, 데이터 코드의 인식을 위해 사용자에 안내되는 위치정보를 갖는 음성신호도 포함한다. The voice output unit 130 outputs the voice signal provided from the processing terminal 200. Here, the voice signal is obtained through a conversion unit 221 such as a TTS using an object having a data code such as text or QR code. Further, the voice signal includes not only the information of the data code but also the voice signal having the position information guided to the user for the recognition of the data code.

그리고 음성출력부(130)는 도 1에 도시된 바와 같이 착용자의 귀에 삽입될 수 있는 이어폰 형태로 마련되어 착용자에게 시각을 보조하는 음성정보를 제공한다. The voice output unit 130 is provided in the form of an earphone that can be inserted into the wearer's ear as shown in FIG. 1, and provides voice information to assist the wearer.

제1 통신부(140)는 안경(100)에 설치된 영상검출센서(101)로부터 획득한 영상을 정합할 수 있도록 처리단말(200)의 제2 통신부(220)에 전송한다. 여기서, 영상은 전술한 바와 같이 서로 다른 시차를 갖는 상태의 영상이다. The first communication unit 140 transmits the images acquired from the image detection sensor 101 installed in the glasses 100 to the second communication unit 220 of the processing terminal 200 so as to be able to match them. Here, the image is an image having different parallaxes as described above.

그리고 제1 통신부(140)는 처리단말(200)의 제2 통신부(220)를 통해 전송된 음성신호를 수신하는 기능도 갖는다. 수신된 음성신호는 음성출력부(130)를 통해 착용자에게 음성의 정보로 출력된다.The first communication unit 140 also has a function of receiving a voice signal transmitted through the second communication unit 220 of the processing terminal 200. The received voice signal is output as voice information to the wearer through the voice output unit 130.

여기서, 제1 통신부(140)와 제2 통신부(220) 간의 통신과, 제2 통신부(220)와 그리고 후술할 지팡이(300)의 제3 통신부(320)는 블루투스를 통한 통신연결을 예로 하지만, 공지된 유무선 방식의 통신연결로도 가능하다.Although the communication between the first communication unit 140 and the second communication unit 220 and the second communication unit 220 and the third communication unit 320 of the wand 300 to be described later are exemplified as a communication connection through Bluetooth, It is also possible to use a known wire / wireless communication connection.

한편, 본 발명의 실시예에 따르면 소형 광학 카메라(120)는 동작전원을 제공하는 충전배터리가 함께 형성된 모듈의 형태를 갖는다. 그리고, 음성출력부(130)는 도 2에 도시된 바와 같이, 광학 카메라(120) 와 연결된 충전배터리를 통해 동작전원을 공급받을 수 있도록 모듈에 USB 단자(131)타입으로 연결되어 동작전원을 공급받는 것을 예로한다. Meanwhile, according to the embodiment of the present invention, the miniature optical camera 120 is in the form of a module formed with a rechargeable battery that provides operating power. 2, the audio output unit 130 is connected to the module through a USB terminal 131 so as to receive operation power through a rechargeable battery connected to the optical camera 120, Take, for example.

도 3은 본 발명의 실시예에 따른 처리단말과 안경의 구성을 나타낸 도면이고, 도 3을 참조하여 설명하면, 처리단말(200)은 취합부와, 변환부(221)와, 제2 통신부(220)를 포함한다.3, the processing terminal 200 includes a collecting unit, a converting unit 221, a second communicating unit (not shown) 220).

본 발명의 실시예에서 처리단말(200)은 스마트폰을 예시로 하며, 취합부와 변환부(221)는 스마트폰에 설치된 어플리케이션(220)의 형태로 마련될 수 있다. 스마트폰에 설치된 OS(210)와 프로세서에 의해 어플리케이션(220)이 실행되며, 어플리케이션(220)은 영상의 취합과 출력가능한 형태로의 신호변환, 통신부 간의 데이터통신이 이루어지게 제어한다. In an embodiment of the present invention, the processing terminal 200 exemplifies a smartphone, and the collecting unit and the converting unit 221 may be provided in the form of an application 220 installed in a smartphone. The application 220 is executed by the OS 210 and the processor installed in the smart phone, and the application 220 controls the collection of images, signal conversion into a form that can be output, and data communication between the communication units.

정합부(223)는 제2 통신부(220)를 통해 전송받은 시차를 갖는 영상을 기초로 단일의 객체 데이터로 정합한다. 자세하게는 어플리케이션(220)에 정합부(223)는 설치된 영상검출센서(101)의 설치된 각도와 이격된 거리를 적용하여 객체의 위치를 결정하는데, 영상검출센서(101)의 각도와 이격 거리에 따른 정합방식은 어플리케이션(220)에 참조 가능하도록 미리 데이터로 마련된다. The matching unit 223 matches the single object data on the basis of the image having the time difference transmitted through the second communication unit 220. In more detail, the matching unit 223 of the application 220 determines the position of the object by applying the installed angle of the installed image detecting sensor 101 and the spaced distance. The angle of the object is determined according to the angle and the separation distance of the image detecting sensor 101 The matching method is prepared in advance so as to be referable to the application (220).

그리고, 어플리케이션(220)은 영상검출센서(101)의 설치된 각도와 동작형태를 세팅하는 설정부(222)가 포함된다. 설정부(222)에서는 영상검출센서(101)의 조절된 틸트를 반영하여 객체의 위치 및 형태를 결정하도록 영상검출센서(101)의 틸트값을 입력하는 방식으로 설정할 수 있다. The application 220 includes a setting unit 222 for setting an installed angle and an operation mode of the image detecting sensor 101. [ The setting unit 222 can set the tilt value of the image detection sensor 101 to determine the position and the shape of the object by reflecting the adjusted tilt of the image detection sensor 101. [

이때, 틸트값의 정확도를 위해, 틸트의 조절은 소정의 단계로 각도가 조절되는 조절 가이드(미도시)를 구성하여 정해진 각도로 틸트를 조절하도록 할 수 있다. 예로, 정면을 기준으로 아래방향으로의 30°를 1단계, 40°를 2단계, 50°를 3단계로 설정하는 방식으로 약 80°각도까지의 단계를 설정할 수 있다. At this time, for the accuracy of the tilt value, the adjustment of the tilt may be performed by adjusting the angle of the adjustment guide (not shown) by a predetermined step to adjust the tilt by a predetermined angle. For example, steps up to about 80 degrees can be set in such a manner that 30 degrees in the downward direction on the front face is set to 1 step, 40 degrees to 2 steps, and 50 degrees to 3 steps.

본 발명의 실시예에서는 30°에서 80°까지 10°간격으로 틸트 단계를 갖는 것을 예시하고 있으나, 단계별 각도의 차이에 따른 단계의 수는 적절하게 조절되어 마련될 수 있다. 그리고 단계별 각도는 어플리케이션(220)의 설정부(222)에 틸트 조절된 단계로 입력함으로써, 정합부(223)의 정합을 최적화할 수 있다.In the embodiment of the present invention, it is illustrated that the tilting step is performed at intervals of 10 ° from 30 ° to 80 °. However, the number of steps according to the difference in angles may be properly adjusted. The stepwise angle is input to the setting unit 222 of the application 220 in a tilted step, so that the matching of the matching unit 223 can be optimized.

변환부(221)는 TTS(Text-to-SPeech)변환부와 위치 변환부를 포함한다.The conversion unit 221 includes a text-to-Speech (TTS) conversion unit and a position conversion unit.

TTS(Text-to-SPeech)변환부는 텍스트 기반의 객체를 음성 형태의 신호로 변환하고, 위치 변환부는 검출된 객체의 상하 좌우 방향에 대한 위치정보로 변환한다. 즉, 변환부(221)는 정합부(223)를 통해 정합된 객체 데이터를 기초로 객체의 정보를 추출하여 음성신호와 방향신호 중, 적어도 어느 하나 이상의 출력신호로 변환한다. The TTS (Text-to-Speech) conversion unit converts a text-based object into a voice-like signal, and the position conversion unit converts the detected object into position information of the detected object. That is, the converting unit 221 extracts object information based on the matched object data through the matching unit 223, and converts the extracted information into at least one of a voice signal and a direction signal.

예로, TTS 변환부에서는 문서나 정보를 소정의 압축 코드 형태로 코드화한 바코드, QR코드와 같은 디지털 코드를 인식하여 디지털 코드가 갖는 정보를 음성 형태의 신호로 변환하거나, 위치 변환부에서 변환된 방향신호에 대응하는 음성신호를 생성한다. For example, the TTS conversion unit recognizes a digital code such as a bar code or a QR code in which a document or information is coded in a predetermined compression code form, converts information of the digital code into a voice type signal, And generates a voice signal corresponding to the signal.

이에 따라, 안경(100)의 음성출력부(130)에서는 디지털 코드가 갖는 정보에 대한 음성을 출력하고, 디지털 코드를 최적의 위치에서 검출하여 인식하도록 안경(100)의 방향을 안내하는 음성이 출력된다. 이때, 안경(100)의 방향을 안내하는 음성은 최초로 디지털 코드를 검출하거나, 디지털 코드에 대한 음성신호의 출력이 마무리되어 또다른 디지털 코드를 검출하는 시점에 출력되어 디지털 코드가 갖는 정보 대한 음성신호와 중복되어 출력되지 않음은 당연하다. Accordingly, the sound output unit 130 of the eyeglasses 100 outputs a sound for the information of the digital code, and a sound for guiding the direction of the eyeglasses 100 so as to detect and recognize the digital code at the optimum position is output do. At this time, the voice guiding the direction of the eyeglasses 100 is detected at the time of detecting the digital code for the first time or outputting the voice signal for the digital code and detecting another digital code, It is obvious that it is not outputted.

여기서 음성신호와 방향신호는 처리단말(200)의 제2 통신부(220)를 통해 전송되는데, 음성신호는 안경(100)의 제1 통신부(140)로 전송하고, 방향신호는 후술할 지팡이(300)의 제3 통신부(320)로 전송한다. The voice signal and the direction signal are transmitted through the second communication unit 220 of the processing terminal 200. The voice signal is transmitted to the first communication unit 140 of the eyeglasses 100 and the direction signal is transmitted to the wand 300 To the third communication unit 320 of FIG.

본 발명에 따른 시각 장애인용 안경 시스템(10)은 지팡이(300)를 더 포함한다. 도 4는 본 발명의 실시예에 따른 지팡이의 구성을 나타낸 도면으로, 도 1과 도 4를 참조하여 설명하면, 지팡이(300)는 일단이 손잡이부가 형성되고, 손잡이부 하단으로 전방을 감지하기 위한 연장부가 형성된다. The eyeglass system 10 for the visually impaired according to the present invention further includes a wand 300. 1 and 4, the wand 300 has one end formed with a handle, and the other end of the wand 300 is configured to detect the front of the wand. An extension portion is formed.

본 발명의 실시예에서는 손잡이부 측에 제3 통신부(320)와, 진동부(330)와, 제어부(310)가 마련된 것을 예로 한다. In the embodiment of the present invention, the third communication unit 320, the vibration unit 330, and the control unit 310 are provided on the handle side.

제3 통신부(320)는 처리단말(200)의 제2 통신부(220)로부터 전송된 방향신호를 수신한다. The third communication unit 320 receives the direction signal transmitted from the second communication unit 220 of the processing terminal 200.

그리고, 진동부(330)는 위치 변환부를 통해 생성된 객체의 방향신호 즉, 상하좌우 위치에 각각에 매칭되어 손잡이 영역에 설치된다. The vibration unit 330 is installed in the handle region by matching the direction signals of the object generated through the position conversion unit, that is, the upper, lower, right, and left positions, respectively.

제어부(310)는 손잡이부 내측으로 제3 통신부(320), 진동부(330)와 연결된 인쇄회로기판의 형태로 마련되어 정합된 영상에서 얻은 객체 데이터를 이용하여 객체의 상하좌우 위치에 대한 정보를 매칭된 진동부(330)가 동작하도록 작동신호를 제공한다.The control unit 310 is provided in the form of a printed circuit board connected to the third communication unit 320 and the vibration unit 330 inside the handle unit and uses the object data obtained from the registered image to match the information on the upper, And provides an actuation signal to cause the oscillating portion 330 to operate.

이와 같은 구성에 따라, 객체의 방향신호를 진동의 감지를 통해 인지할 수 있다.According to this configuration, the direction signal of the object can be recognized through the detection of the vibration.

도 5는 본 발명의 실시예에 따른 지팡이의 손잡이부를 나타낸 도면이다. 도 5를 참조하여 설명하면, 본 발명의 실시에에 따른 진동부(330)는 지팡이(300)를 움켜쥔 손의 검지부터 소지와 접촉되는 각각의 표면에, 매칭된 방향에 대한 시각장애인용 점자가 형성된다. 5 is a view illustrating a handle of a walking stick according to an embodiment of the present invention. Referring to FIG. 5, the vibration unit 330 according to the embodiment of the present invention includes a braille embroidery braille for the blind with respect to a matched direction, .

그리고 도시된 바와 같이, 검지부터 소지 각각에 대응하는 4개의 진동부(330a, 330b, 330c, 330d)가 손잡이부에 형성된 것을 예시로 한다. 그리고 각각의 진동부(330) 표면에는 상하좌우에 대응하는 점자(331)가 형성되어 있어, 지팡이(300)의 손잡이부를 움켜쥔 상태에서 진동부(330)의 진동에 따라 객체의 위치를 점자를 통해 안내받을 수 있다. As shown in the figure, four vibrating portions 330a, 330b, 330c, and 330d corresponding to the respective detectors are formed on the handle. Braille points 331 corresponding to the upper, lower, right, and left sides are formed on the surface of each vibration unit 330, so that the position of the object is braille in accordance with the vibration of the vibration unit 330 while grasping the handle of the wand 300 .

이하에서는 본 발명에 따른 시각 장애인용 안경 시스템(10)의 사용예에 따른 구성의 동작을 설명하기로 한다. Hereinafter, the operation of the configuration according to the use example of the eyeglass system 10 for a visually impaired person according to the present invention will be described.

일례로, 본 발명의 실시예에 따른 안경(100)과 처리단말(200)을 이용하는 형태로는 디지털 코드가 인쇄된 서적을 음성으로 출력하는 형태를 들 수 있다. 광학 카메라(120)와 초음파 센서(110)로 구성된 영상검출센서(101)는 객체의 데이터를 검출하면, 객체의 데이터를 제1 통신부(140)를 통해 처리단말(200)의 제2 통신부(220)로 전송한다.  For example, in the form of using the glasses 100 and the processing terminal 200 according to the embodiment of the present invention, a book on which a digital code is printed may be output as a voice. The image sensing sensor 101 including the optical camera 120 and the ultrasonic sensor 110 detects the object data and transmits the object data to the second communication unit 220 of the processing terminal 200 through the first communication unit 140 ).

그리고, 정합부(223)에서는 객체의 데이터를 정합하여 디지털 코드의 위치를 음성신호로 변환하고 제2 통신부(220)를 통해 다시 제1 통신부(140)에 전송하면, 출력되는 음성신호에 따라 사용자는 안경(100)의 방향을 조절하는 방식으로 디지털 코드를 인식한다. When the position of the digital code is matched with the data of the object in the matching unit 223 and converted into a voice signal and transmitted again to the first communication unit 140 through the second communication unit 220, Recognizes the digital code in such a manner that the direction of the glasses 100 is adjusted.

최종적으로 정합부(223)에서 정합된 객체 데이터에서 디지털 코드가 인식되면, 변환부(221)는 디지털 코드가 갖는 정보를 음성신호로 변환하고, 안경(100)의 음성 출력부는 변환된 음성신호를 제공받아 서적을 내용을 음성으로 출력함으로써 시각장애인은 청각을 통해 정보 획득이 가능해진다. When the digital code is finally recognized in the object data matched by the matching unit 223, the conversion unit 221 converts the information of the digital code into a voice signal, and the voice output unit of the glasses 100 transmits the converted voice signal And the contents of the book are outputted by voice, so that the visually impaired can acquire information through the hearing.

그리고, 지팡이(300)를 포함한 시각 장애인용 안경 시스템(10)의 사용예를 설명하면, 시각 장애인은 안경(100)을 착용하고 휴대폰과 지팡이(300)를 휴대한 채로 이동하는 경우를 들 수 있다. 영상검출센서(101)로 구성된 광학 카메라(120)와 초음파 센서(110)는 객체의 거리와 형태를 획득하여 제1 통신부(140)를 통해 처리단말(200) 측으로 제공한다. 처리단말(200)에서 영상의 정합이 실시되면 위치 변환부는 정합된 객체 데이터를 이용하여 객체의 위치를 방향신호로 나타낸다. An example of using the eyeglass system 10 including the wand 300 is as follows. A blind person wears the glasses 100 and moves while carrying the mobile phone and the wand 300 . The optical camera 120 and the ultrasonic sensor 110 constituted by the image detection sensor 101 acquire the distance and shape of the object and provide the distance and shape of the object to the processing terminal 200 through the first communication unit 140. When the matching of the image is performed in the processing terminal 200, the position conversion unit uses the matched object data to represent the position of the object as a direction signal.

여기서, 객체의 위치는 지팡이(300)의 연장된 끝단보다 소정 거리의 전방부에 있는 객체에 대한 위치를 나타냄이 바람직하다. 이로써, 사용자의 전방부에 위치한 객체에 대한 정보를 미리 제공받아 대처할 수 있다. Here, it is preferable that the position of the object indicates a position with respect to an object located at a predetermined distance from the extended end of the wand 300. [ Thus, information on the object located in the front part of the user can be provided in advance and can be handled.

위치 변환부를 통해 방향신호가 생성되면, 제2 통신부(220)를 통해 지팡이(300)의 제3 통신부(320)에 제공한다. 지팡이(300)의 제어부(310)는 수신한 방향신호에 매칭된 진동센서를 수초간 진동시키도록 동작신호를 발생시킨다. When the direction signal is generated through the position conversion unit, the direction signal is provided to the third communication unit 320 of the wand 300 through the second communication unit 220. The control unit 310 of the wand 300 generates an operation signal to vibrate the vibration sensor matched with the received direction signal for several seconds.

이와 같이 지팡이(300)를 포함한 시각 장애인용 안경 시스템(10)에서는 외부의 소음에 따른 음성정보의 인식을 보완함으로써 사용자는 이동중 전방의 객체에 대해 효과적으로 대비할 수 있다.
In this way, in the eyeglass system 10 including the staff 300, the user can effectively prepare for the object in front of the user by compensating the recognition of the voice information according to the external noises.

비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
Although several embodiments of the present invention have been shown and described, those skilled in the art will appreciate that various modifications may be made without departing from the principles and spirit of the invention . The scope of the invention will be determined by the appended claims and their equivalents.

10 : 시각 장애인용 안경 시스템 100 : 안경
101 : 영상검출센서 110 : 초음파 센서
120 : 광학 카메라 130 : 음성 출력부
131 : USB 단자 140 : 제1 통신부
150 : 틸트 조절부 200 : 처리단말
210 : OS 220 : 어플리케이션
221 : 변환부 221a : TTS 변환부
221b : 위치 변환부 222 : 설정부
223 : 정합부 230 : 제2 통신부
300 : 지팡이 310 : 제어부
320 : 제3 통신부 330 : 진동부
10: Glasses for the visually impaired system 100: Glasses
101: image detecting sensor 110: ultrasonic sensor
120: optical camera 130: audio output unit
131: USB terminal 140: first communication unit
150: tilt adjusting unit 200: processing terminal
210: OS 220: Application
221: conversion unit 221a: TTS conversion unit
221b: position conversion section 222: setting section
223: matching section 230: second communication section
300: cane 310:
320: third communication unit 330:

Claims (6)

안경테의 서로다른 위치에 각각 설치되어 객체를 검출하는 복수의 영상검출센서와, 상기 복수의 영상검출센서로부터 인식된 상기 객체의 영상들을 전송하거나 또는 제공되는 음성신호를 수신하는 제1 통신부와, 상기 음성신호를 출력하는 음성출력부를 갖는 안경과;
상기 복수의 영상검출센서로부터 인식된 상기 객체의 영상들의 시차를 반영하여 단일의 객체 데이터로 정합하는 정합부와, 상기 정합부를 통해 정합된 상기 객체 데이터를 기초로 객체의 정보를 추출하여 음성신호와 방향신호 중, 적어도 어느 하나 이상의 출력신호로 변환하는 변환부와, 상기 변환부에서 변환된 상기 출력신호를 전송하는 제2 통신부를 갖는 처리단말을 포함하는 시각 장애인용 안경 시스템.
A first communication unit for transmitting images of the object recognized by the plurality of image detection sensors or receiving a voice signal provided; A spectacle having an audio output section for outputting a voice signal;
A matching unit for matching the parallaxes of the images of the object recognized by the plurality of image detecting sensors to a single object data; and a controller for extracting information of the object based on the object data matched through the matching unit, And a processing unit having a second communication unit for transmitting the output signal converted by the conversion unit.
제1항에 있어서
상기 제2 통신부로부터 전송된 상기 방향신호를 수신하는 제3 통신부와,
손잡이 영역에 설치되고, 상기 방향신호가 갖는 각각의 방향에 매칭되게 설치된 복수의 진동부와,
상기 제3 통신부를 통해 수신된 상기 방향신호를 분석하고, 상기 방향신호가 갖는 방향에 매칭되는 상기 복수의 진동부 중 적어도 어느 하나에 작동신호를 제공하는 제어부를 갖는 지팡이를 더 포함하는 것을 특징으로 하는 시각 장애인용 안경 시스템.
The method of claim 1, wherein
A third communication unit for receiving the direction signal transmitted from the second communication unit,
A plurality of vibrating portions provided in the handle region and provided so as to match the respective directions of the direction signals,
And a control unit for analyzing the direction signal received through the third communication unit and for providing an operation signal to at least one of the plurality of vibration units matching the direction of the direction signal. For the visually impaired.
제2항에 있어서
상기 복수의 진동부에는
손가락과 접촉되는 각각의 표면에, 매칭된 방향에 대한 시각장애인용 점자가형성된 것을 특징으로 하는 시각 장애인용 안경 시스템.
The method according to claim 2, wherein
The plurality of vibrating portions
And a braille braille for the visually impaired is formed on each of the surfaces contacting with the finger.
제1항에 있어서
상기 영상검출센서는
상기 객체의 영상을 촬영하는 소형 광학 카메라와
객체 객체의 거리를 검출하는 초음파 센서를 포함하는 것을 특징으로 하는 시각 장애인용 안경 시스템.
The method of claim 1, wherein
The image detection sensor
A compact optical camera for capturing an image of the object,
And an ultrasonic sensor for detecting a distance of the object object.
제1항에 있어서
상기 안경은 상기 영상검출센서의 틸트(Tilt)를 조절하는 틸트 조절부를 더 포함하며;
상기 틸트 조절부는 상기 영상검출센서로부터 인식된 영상에 안경의 기울기에 따른 기울기값을 반영하여 상기 기울기값에 대한 영상으로 보정하는 것을 특징으로 하는 시각 장애인용 안경 시스템.
The method of claim 1, wherein
Wherein the spectacle further comprises a tilt adjusting unit for adjusting a tilt of the image detecting sensor;
Wherein the tilt adjusting unit reflects the tilt value of the glasses with respect to the image recognized by the image detecting sensor, and corrects the tilt of the image to the image of the tilt value.
제1항에 있어서
상기 변환부는
텍스트 기반의 객체를 음성 형태의 신호로 변환하는 TTS(Text-to-SPeech)변환부와,
정합된 영상에서 기준점을 기준으로 객체의 상하 및 좌우 위치에 대한 신호로 변환하는 위치 변환부를 포함하는 것을 특징으로 하는 시각 장애인용 안경 시스템.
The method of claim 1, wherein
The conversion unit
A TTS (Text-to-Speech) converter for converting a text-based object into a voice-like signal,
And a position conversion unit for converting the matched image into signals for upper and lower and left and right positions of the object with reference to the reference point.
KR1020140073308A 2014-06-17 2014-06-17 Glasses system for visually handicapped person KR20150144510A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140073308A KR20150144510A (en) 2014-06-17 2014-06-17 Glasses system for visually handicapped person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140073308A KR20150144510A (en) 2014-06-17 2014-06-17 Glasses system for visually handicapped person

Publications (1)

Publication Number Publication Date
KR20150144510A true KR20150144510A (en) 2015-12-28

Family

ID=55084815

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140073308A KR20150144510A (en) 2014-06-17 2014-06-17 Glasses system for visually handicapped person

Country Status (1)

Country Link
KR (1) KR20150144510A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106214436A (en) * 2016-07-22 2016-12-14 上海师范大学 A kind of intelligent blind guiding system based on mobile phone terminal and blind-guiding method thereof
CN106377401A (en) * 2016-09-14 2017-02-08 上海高智科技发展有限公司 Blind guiding front-end equipment, blind guiding rear-end equipment and blind guiding system
CN106389077A (en) * 2016-09-14 2017-02-15 上海高智科技发展有限公司 Mobile terminal, blind guiding front-end equipment and blind guiding system
CN106389078A (en) * 2016-11-24 2017-02-15 贵州大学 Intelligent blind guiding glass system and blind guiding method thereof
KR20180079116A (en) * 2016-12-30 2018-07-10 김영록 System and method for providing information service for people with visually impairment
KR20190023737A (en) * 2017-08-30 2019-03-08 이창희 Wearable Smart Device for Visually Impaired People
CN109730910A (en) * 2018-11-30 2019-05-10 深圳市智瞻科技有限公司 Vision-aided system and its ancillary equipment, method, the readable storage medium storing program for executing of trip
KR20190088729A (en) * 2018-01-19 2019-07-29 (주)인프라칩 The smart braille cane for blind person
KR20190101652A (en) * 2018-02-23 2019-09-02 주식회사 아이트릭스테크놀로지 Independence walking guidance device for visually handicapped person using lightless camera
WO2019240357A1 (en) * 2018-06-15 2019-12-19 김희성 Voice-assisted running sunglasses for visually handicapped
KR20210076235A (en) * 2019-12-13 2021-06-24 동국대학교 산학협력단 Smart stick provides voice information about obstacles detected by ultrasonic sensors and operating method thereof
KR102401233B1 (en) 2021-11-22 2022-05-24 이동민 An offline shopping guidance system using smart glasses for the visually impaired
KR20220120262A (en) * 2021-02-23 2022-08-30 청주대학교 산학협력단 Smart glasses system for visually impaired people
KR20230169645A (en) 2022-06-09 2023-12-18 한국건설기술연구원 Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106214436A (en) * 2016-07-22 2016-12-14 上海师范大学 A kind of intelligent blind guiding system based on mobile phone terminal and blind-guiding method thereof
CN106377401A (en) * 2016-09-14 2017-02-08 上海高智科技发展有限公司 Blind guiding front-end equipment, blind guiding rear-end equipment and blind guiding system
CN106389077A (en) * 2016-09-14 2017-02-15 上海高智科技发展有限公司 Mobile terminal, blind guiding front-end equipment and blind guiding system
CN106389078A (en) * 2016-11-24 2017-02-15 贵州大学 Intelligent blind guiding glass system and blind guiding method thereof
KR20180079116A (en) * 2016-12-30 2018-07-10 김영록 System and method for providing information service for people with visually impairment
KR20190023737A (en) * 2017-08-30 2019-03-08 이창희 Wearable Smart Device for Visually Impaired People
KR20190088729A (en) * 2018-01-19 2019-07-29 (주)인프라칩 The smart braille cane for blind person
KR20190101652A (en) * 2018-02-23 2019-09-02 주식회사 아이트릭스테크놀로지 Independence walking guidance device for visually handicapped person using lightless camera
WO2019240357A1 (en) * 2018-06-15 2019-12-19 김희성 Voice-assisted running sunglasses for visually handicapped
CN109730910A (en) * 2018-11-30 2019-05-10 深圳市智瞻科技有限公司 Vision-aided system and its ancillary equipment, method, the readable storage medium storing program for executing of trip
KR20210076235A (en) * 2019-12-13 2021-06-24 동국대학교 산학협력단 Smart stick provides voice information about obstacles detected by ultrasonic sensors and operating method thereof
KR20220120262A (en) * 2021-02-23 2022-08-30 청주대학교 산학협력단 Smart glasses system for visually impaired people
KR102401233B1 (en) 2021-11-22 2022-05-24 이동민 An offline shopping guidance system using smart glasses for the visually impaired
KR20230169645A (en) 2022-06-09 2023-12-18 한국건설기술연구원 Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same

Similar Documents

Publication Publication Date Title
KR20150144510A (en) Glasses system for visually handicapped person
EP2887697B1 (en) Method of audio signal processing and hearing aid system for implementing the same
WO2015081694A1 (en) Smart glasses and method of controlling same
KR100405636B1 (en) Wearable walking guidance device and method for the blind
KR102242681B1 (en) Smart wearable device, method and system for recognizing 3 dimensional face and space information using this
CN104473717A (en) Wearable guide apparatus for totally blind people
CN105721983A (en) Hearing device with image capture capabilities
US20130321625A1 (en) Electronic device and information transmission system
US10867527B2 (en) Process and wearable device equipped with stereoscopic vision for helping the user
US10062302B2 (en) Vision-assist systems for orientation and mobility training
KR20160093530A (en) Wearable device for visual handicap person
US8766765B2 (en) Device, method and computer program product to assist visually impaired people in sensing voice direction
TWI652656B (en) Visual assistant system and wearable device having the same
JP2019159193A (en) Behavior support device for visually impaired person
JP6290827B2 (en) Method for processing an audio signal and a hearing aid system
CN111329736B (en) System for sensing environmental image by means of vibration feedback
JP2019054385A (en) Sound collecting device, hearing aid, and sound collecting device set
KR20070008772A (en) A stick with vision recognition for the blind
Flores et al. Smart Electronic Assistive Device for Visually Impaired Individual through Image Processing
KR20120059281A (en) Vision Assistant System And Method thereof
KR101906549B1 (en) A wearable device for hearing impairment person
KR20170057711A (en) Apparatus for guiding blind person and method thereof
KR20160016216A (en) System and method for real-time forward-looking by wearable glass device
KR20180000527U (en) Artificial Vision portable device
WO2021101460A1 (en) Navigational assistance system with auditory augmented reality for visually impaired persons

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application