KR101982848B1 - Vision aids apparatus for the vulnerable group of sight comprising a removable wearable device and a control device - Google Patents

Vision aids apparatus for the vulnerable group of sight comprising a removable wearable device and a control device Download PDF

Info

Publication number
KR101982848B1
KR101982848B1 KR1020170172625A KR20170172625A KR101982848B1 KR 101982848 B1 KR101982848 B1 KR 101982848B1 KR 1020170172625 A KR1020170172625 A KR 1020170172625A KR 20170172625 A KR20170172625 A KR 20170172625A KR 101982848 B1 KR101982848 B1 KR 101982848B1
Authority
KR
South Korea
Prior art keywords
user
information
vision
wearable device
sight
Prior art date
Application number
KR1020170172625A
Other languages
Korean (ko)
Inventor
민 장
오주병
김효철
Original Assignee
주식회사 코이노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코이노 filed Critical 주식회사 코이노
Priority to KR1020170172625A priority Critical patent/KR101982848B1/en
Application granted granted Critical
Publication of KR101982848B1 publication Critical patent/KR101982848B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • A61H2003/063Walking aids for blind persons with electronic detecting or guiding means with tactile perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks

Abstract

Disclosed is a sight assisting apparatus for a vulnerable social group of sight including a removable wearable device and a control device. According to an embodiment, the sight assisting apparatus includes: a wearable device which is formed in such a form that can be worn on the body of a user who belongs to the vulnerable social group of sight, photographs images from the front surface of the user, and outputs auditory information generated through the control device; the control device which recognizes visual information including at least one of an object, a character and a depth through an artificial intelligence-based mechanical learning from photographed image data, and converts the recognized visual information into the auditory information; and a connection part which connects the wearable device and the control device. The sight assisting apparatus according to an embodiment removes inconvenience felt by the vulnerable social group of sight in daily lives and enables the vulnerable social group of sight to be well adopted to the environment.

Description

분리형 웨어러블 디바이스 및 제어장치로 구성된 시력 취약계층용 시력 보조장치 {Vision aids apparatus for the vulnerable group of sight comprising a removable wearable device and a control device}[0001] The present invention relates to a vision assist apparatus for a vision-impaired layer comprising a removable wearable device and a control apparatus,

본 발명은 시력 취약계층을 위한 시력 보조기술에 관한 것이다.The present invention relates to vision aiding technology for vulnerable groups.

최근 시각 장애인이 아니더라도 스마트폰 사용 등으로 인해 노안, 원시, 근시, 난시 등이 빨리 온 30-40대가 늘어나고 있다. 거기에, 원시, 근시, 난시군, 고령층 및 시각 장애인을 포함하여 시력 취약계층이라 한다. 이러한 시력 취약계층은 일상생활에서 불편함을 많이 느낀다. 예를 들어, 보행 중에 장애물이나 다른 보행자와 부딪힐 위험들 때문에 외출을 꺼린다. 버스를 타고 싶어도 버스 번호를 읽기 어려워 버스 타기를 망설인다. 또는 책의 글씨를 읽기 어려워 책을 보지 못하는 경우가 있다. 따라서, 이러한 시각적인 불편함을 해결할 수 있는 기술이 요구된다.In recent years, 30-40 units have been on the rise, including presbyopia, prime, nearsightedness, and astigmatism due to the use of smartphones, even if they are not visually impaired. In addition, it is said to be a vulnerable group, including primitive, nearsighted, municipal, aged and visually impaired. These vulnerable groups have a lot of discomfort in everyday life. For example, they are reluctant to go out because of the dangers of striking obstacles or other pedestrians while walking. Even if you want to take a bus, it is difficult to read the bus number, so I hesitate to take a bus. Sometimes you can not read a book because it is hard to read the text of the book. Therefore, a technique capable of solving such a visual inconvenience is required.

한국 등록특허 제10-0405636 (2003.11.03.)Korean Patent No. 10-0405636 (Nov. 2003) 한국 등록특허 제10-1715472 (2017.03.06.)Korean Registered Patent No. 10-1715472 (Mar.

일 실시 예에 따라, 분리형 웨어러블 디바이스 및 제어장치로 구성된 시력 취약계층용 시력 보조장치를 제안한다.According to one embodiment, a vision aiding device for a visually impaired layer comprising a detachable wearable device and a control device is proposed.

일 실시 예에 따른 시력 보조장치는, 시력 취약계층인 사용자의 신체에 착용 가능한 형태를 가지며, 사용자 전면에서 영상을 촬영하고 제어장치를 통해 생성된 청각정보를 출력하는 웨어러블 디바이스와, 촬영 영상 데이터로부터 인공지능 기반 기계학습을 통해 객체, 문자 및 깊이 중 적어도 하나를 포함하는 시각정보를 인식하고 인식한 시각정보를 청각정보로 변환하는 제어장치와, 웨어러블 디바이스와 제어장치를 연결하는 연결부를 포함한다.The wearable device has a wearable device that is wearable on the wearer's body, which is a vulnerable layer of sight, and that captures an image on the front of the user and outputs auditory information generated through the control device. A controller for recognizing the visual information including at least one of the object, the character and the depth through artificial intelligence-based machine learning and converting the recognized visual information into auditory information, and a connection unit for connecting the wearable device and the controller.

웨어러블 디바이스는, 바디와, 사용자의 시점을 따라 실제영상을 촬영하도록 바디에 설치되는 촬영부와, 사용자에 청각정보를 전달하도록 바디에 설치되는 출력부와, 바디를 사용자의 신체에 착용하기 위한 결합부를 포함할 수 있다.A wearable device includes a body, a photographing unit mounted on the body for photographing an actual image along a viewpoint of the user, an output unit installed on the body for transmitting auditory information to the user, Section.

출력부는, 고막이 아닌 뼈를 통해 청각정보를 전달하는 골전도 스피커를 포함할 수 있다. 골전도 스피커는 다수 개이며, 이 중 적어도 하나는 지지대로 사용될 수 있다. 출력부는, 적어도 일부가 바디에 삽입되고 나머지는 외부로 돌출된 다리 구조의 몸체와, 몸체의 일단에 진동판 형태로 형성된 골전도 스피커를 포함하며, 골전도 스피커는 소정의 텐션을 가질 수 있다.The output may include a bone conduction speaker that transmits auditory information through the bone, not the eardrum. There are a number of bone conduction speakers, at least one of which can be used as a support. The output unit includes a body having a leg structure at least partially inserted into the body and the other body protruding to the outside, and a bone conduction speaker formed in the shape of a diaphragm at one end of the body, and the bone conduction speaker may have a predetermined tension.

결합부는, 사용자의 안경의 안경테 또는 안경 다리를 수용하기 위한 수용 홀을 구비한 튜브 형태일 수 있다. 결합부는 신축성을 가진 소재로 구성될 수 있다. 결합부는 안경에 탈착되기 위한 자석을 포함할 수 있다.The coupling portion may be in the form of a tube having an eyeglass frame of the user's glasses or a receiving hole for receiving the eyeglass legs. The coupling portion may be made of a material having elasticity. The coupling portion may include a magnet for being detached from the spectacles.

웨어러블 디바이스는, 전원을 온오프하기 위한 전원 버튼과, 볼륨 크기를 조절하기 위한 볼륨 조절 버튼을 더 포함하며, 전원 버튼 및 볼륨 조절 버튼은 양각 구조 또는 진동을 주는 방식을 포함하여 사용자에 손 감각을 제공할 수 있다.The wearable device further includes a power button for turning on and off the power, and a volume control button for adjusting the volume size. The power button and the volume control button include a boss structure or a vibration imparting method, .

제어장치는, 촬영 영상으로부터 인공지능 기반 기계학습을 통해 시각정보를 인식하고 인식한 시각정보를 청각정보로 변환하는 프로세서와, 웨어러블 디바이스에 전원을 제공하는 배터리를 포함할 수 있다. 제어장치는 사용자 단말에 포함될 수 있다. 연결부는 유선일 수 있다.The control device may include a processor for recognizing the visual information through artificial intelligence-based machine learning from the photographed image and converting the recognized visual information into auditory information, and a battery for supplying power to the wearable device. The control device may be included in the user terminal. The connection may be wired.

일 실시 예에 따르면, 시력 취약계층이 일상생활에서 느끼는 불편함을 없애고 환경에 잘 적응할 수 있도록 한다. 예를 들어, 시력 취약계층이 주변의 사물 인지, 깊이 인지, 문자 인지를 쉽게 하도록 한다. 이러한 인지는 시력에 기반한 것으로, 시력이 취약한 계층을 대신하여 사물, 깊이 및 문자 등을 인지하여 이를 음성으로 알려줌에 따라 시력 취약계층을 돕는다.According to one embodiment, it is possible to eliminate the inconvenience experienced by the sight-impaired people in daily life and adapt to the environment. For example, it makes it easier for people with low vision to know things around, things in depth, and text. This cognition is based on vision, recognizing objects, depths, and texts in place of those with weak vision, and voicing them, thus helping vulnerable groups.

나아가, 웨어러블 형태의 시력 보조장치를 제공함에 따라 시력 취약계층을 위해 착용, 소지 및 사용이 쉽도록 한다. 복잡한 조작 방법으로 동작하는 장치가 아닌 간단한 제스처로 동작할 수 있도록 하여 사용의 편리성을 높인다. 가격은 중저가로 맞춤에 따라 시력 취약계층의 경제적 부담을 덜어준다. 기계학습 기반 시각정보 인식을 통해 객체 인식률을 높이고 증강현실 기반 제스처 포인팅을 통해 사용자가 편리하게 사용할 수 있도록 한다.Further, by providing a wearable type vision assist device, it is easy to wear, hold, and use it for a vision-impaired layer. It is possible to operate with a simple gesture rather than a device that operates with a complicated operation method, thereby improving convenience of use. The price is low to moderate, and it reduces the economic burden of the sight-poor. It enhances object recognition rate through machine learning based visual information recognition and enables users to use it easily through augmented reality based gesture pointing.

증강현실 기반 제스처 인지, 기계학습 기반 사물 인지, 영상처리 기반 깊이 인지, 기계학습 기반 문자 인식 등의 기술을 이용하여 시력 보조장치를 다양한 시나리오에 사용할 수 있다. 예를 들어, 식당/레스토랑에서 음식 주문 시에 메뉴판의 메뉴를 인식하여 알려주는 시나리오, 거실/서재에서 책이나 잡지를 읽어주는 시나리오, 주변 사물과의 거리 고지를 통해 위험을 방지하는 시나리오, 교차로에서 신호등 상태를 알려주는 시나리오, 버스 정류장에서 버스번호를 안내하는 시나리오, 지하철 출입구를 알려주는 시나리오 등에 다양하게 응용될 수 있다.Visual aids can be used in various scenarios using techniques such as augmented reality based gesture recognition, machine learning based object recognition, image processing based depth recognition, and machine learning based character recognition. For example, there are scenarios in which menus are recognized in menus when ordering food at a restaurant / restaurant, scenarios in which books or magazines are read in a living room / library, scenarios in which danger is avoided through distance notice to surrounding objects, Scenarios for informing the traffic light status, scenarios for guiding bus numbers at bus stops, scenarios for informing the subway entrance, and the like.

웨어러블 디바이스와 제어장치를 분리하고, 웨어러블 디바이스에 촬영부를 두고 제어장치에는 배터리를 둠에 따라, 웨어러블 디바이스의 무게를 가볍게 하여 착용감을 높일 수 있다. 웨어러블 디바이스를 안경의 안경테나 안경 다리에 착용함에 따라 사용자의 거부감을 최소화할 수 있다. 이 경우, 웨어러블 디바이스의 착탈이 쉽다. 나아가, 청각정보를 출력하기 위한 출력부를 골전도 스피커로 구현함에 따라 사용자의 피로도를 줄일 수 이때 골전도 스피커가 적절한 텐션이 유지되도록 한다. 제어장치를 사용자가 소지한 스마트폰과 같은 사용자 단말로 구현하여 웨어러블 디바이스와 연동하는 경우 사용자가 편리하게 사용할 수 있다.By disassembling the wearable device and the control device, placing the camera in the wearable device and placing the battery in the control device, the weight of the wearable device can be lightened to enhance the fit. Wearable devices are worn on the spectacles or spectacles of the spectacles, so that the user's sense of rejection can be minimized. In this case, detachment of the wearable device is easy. Furthermore, since the output unit for outputting the auditory information is implemented by the bone conduction speaker, the user's fatigue can be reduced. At this time, the bone conduction speaker maintains proper tension. The control device can be implemented as a user terminal such as a smart phone possessed by a user and can be conveniently used by the user when interfacing with the wearable device.

도 1은 본 발명의 일 실시 예에 따른 시력 취약계층을 위한 지능형 시력 보조 시스템의 구성도,
도 2는 본 발명의 일 실시 예에 따른 시력 보조장치의 기능 구성도,
도 3은 본 발명의 일 실시 예에 따른 도 2의 프로세서의 구성도,
도 4는 본 발명의 일 실시 예에 따른 원격관리장치의 구성도,
도 5는 본 발명의 일 실시 예에 따른 시력 보조장치의 하드웨어 구성도,
도 6은 본 발명의 다른 실시 예에 따른 시력 보조장치의 하드웨어 구성도,
도 7 내지 도 9는 본 발명의 일 실시 예에 따른 시력 보조장치의 웨어러블 디바이스의 외관도,
도 10 및 도 11은 사용자가 시력 보조장치의 웨어러블 디바이스를 착용한 모습을 도시한 참조도,
도 12는 본 발명의 일 실시 예에 따른 시력 취약계층을 위한 지능형 서비스 시스템의 개념도,
도 13은 본 발명의 일 실시 예에 따른 시력 취약계층을 위한 지능형 서비스 시스템의 적용 시나리오 조합 예를 도시한 참조도,
도 14는 본 발명의 일 실시 예에 따른 시력 보조장치의 기능 개념을 도시한 개념도,
도 15는 본 발명의 시력 보조장치를 이용하여 식당/레스토랑에서 음식을 주문하는 시나리오,
도 16은 본 발명의 시력 보조장치를 이용하여 거실/서재에서 책이나 잡지를 읽기 위한 시나리오,
도 17은 본 발명의 시력 보조장치를 이용하여 주변 사물과의 거리 고지를 통해 위험을 방지하는 시나리오,
도 18은 본 발명의 시력 보조장치를 이용하여 교차로에서 신호등 상태 파악 시나리오,
도 19는 본 발명의 시력 보조장치를 이용하여 버스 정류장에서 버스번호를 안내하는 시나리오,
도 20은 본 발명의 시력 보조장치를 이용하여 지하철 출입구를 확인하는 시나리오이다.
FIG. 1 is a block diagram of an intelligent vision assistant system for a vision-impaired layer according to an exemplary embodiment of the present invention.
2 is a functional block diagram of a vision assist device according to an embodiment of the present invention.
FIG. 3 is a block diagram of the processor of FIG. 2 according to an embodiment of the present invention;
4 is a configuration diagram of a remote management apparatus according to an embodiment of the present invention;
FIG. 5 is a hardware block diagram of a vision assist device according to an embodiment of the present invention,
6 is a hardware configuration diagram of a vision assist device according to another embodiment of the present invention,
7 to 9 are external views of a wearable device of a vision assist device according to an embodiment of the present invention,
10 and 11 are reference views showing a state in which a user wears the wearable device of the vision assist device,
12 is a conceptual diagram of an intelligent service system for a vulnerable group of eyes according to an embodiment of the present invention;
FIG. 13 is a reference diagram illustrating a scenario combination example of application of an intelligent service system for a vulnerable layer of sight according to an exemplary embodiment of the present invention;
FIG. 14 is a conceptual diagram illustrating a functional concept of the vision assist device according to an embodiment of the present invention;
FIG. 15 is a diagram illustrating scenarios for ordering food at a restaurant / restaurant using the vision assist device of the present invention,
16 illustrates scenarios for reading a book or a magazine in a living room / study room using the vision assist device of the present invention,
FIG. 17 is a view illustrating a scenario in which the risk is prevented through the use of the sight assist device of the present invention,
FIG. 18 is a diagram illustrating a scenario of a traffic light state recognition at an intersection using the vision assist device of the present invention,
FIG. 19 is a view illustrating a scenario in which a bus number is guided at a bus stop using the vision assist device of the present invention,
20 is a scenario for confirming a subway entrance using the vision assist device of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. , Which may vary depending on the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Each block of the accompanying block diagrams and combinations of steps of the flowcharts may be performed by computer program instructions (execution engines), which may be stored in a general-purpose computer, special purpose computer, or other processor of a programmable data processing apparatus The instructions that are executed through the processor of the computer or other programmable data processing equipment will generate means for performing the functions described in each block or flowchart of the block diagram.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And computer program instructions may be loaded onto a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the data processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.Also, each block or step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical functions, and in some alternative embodiments, It should be noted that functions may occur out of order. For example, two successive blocks or steps may actually be performed substantially concurrently, and it is also possible that the blocks or steps are performed in the reverse order of the function as needed.

이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the following embodiments of the present invention may be modified into various other forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to enable those skilled in the art to more fully understand the present invention.

도 1은 본 발명의 일 실시 예에 따른 시력 취약계층을 위한 지능형 시력 보조 시스템의 구성도이다.FIG. 1 is a block diagram of an intelligent vision assist system for a vision-impaired layer according to an exemplary embodiment of the present invention.

도 1을 참조하면, 지능형 시력 보조 시스템은 시력 보조장치(2)를 포함하며, 원격관리장치(1) 및 네트워크(3)를 더 포함할 수 있다.Referring to FIG. 1, the intelligent vision assist system includes a vision assistant 2, and may further include a remote management device 1 and a network 3.

지능형 시력 보조 시스템은 인공지능(artificial intelligence: AI)을 활용하여 시력 취약계층을 지원한다. 시력 취약계층이란 시력이 정상인과는 다른 계층으로, 스마트폰 사용 등으로 인해 노안, 원시, 근시, 난시 등이 빨리 온 계층과, 기존 원시, 근시, 난시군, 고령층, 시각 장애인층을 모두 포함하는 개념이다. 지능형 시력 보조 시스템은 시력 취약계층의 불편함을 극복하고 독립적으로 생활할 수 있도록 시력 보조장치(2)를 부담없는 가격에 제공하는 것을 목적으로 한다.Intelligent vision assistance systems utilize artificial intelligence (AI) to support vulnerable groups of vision. Vision is a layer that is different from normal people with eyesight. It is a group of people who have early vision, primordial vision, myopia, astigmatism due to the use of smartphone, and the existing primitive, near vision, municipal, Concept. The purpose of the intelligent vision assist system is to provide vision aids (2) at an affordable price to overcome the inconvenience of the visually impaired and to live independently.

시력 보조장치(2)는 사용자인 시력 취약계층이 소지하고 휴대할 수 있는 장치이다. 이하, 상세한 설명에는 '사용자'와 '시력 취약계층'이 혼용되어 사용될 수 있다. 시력 보조장치(2)는 시력 취약계층이 착용 가능한 웨어러블 디바이스이거나 이를 포함하는 형태일 수 있다. 웨어러블 디바이스는 착용 및 소지가 용이한 액세서리이다. 웨어러블 디바이스의 예로는 사용자가 착용한 안경의 안경 테 또는 안경 다리 등에 탈착하는 형태가 있다. 전면에 촬영부가 장착되어, 촬영부를 통해 영상을 촬영할 수 있다. 이러한 웨어러블 디바이스는 기존 안경에도 탈착할 수 있으며, 무게를 최소화하여 착용하기 편리하도록 한다. 시력 보조장치(2)는 분리된 웨어러블 디바이스 및 제어장치가 결합한 단독형(도 5 참조)일 수 있으며, 웨어러블 디바이스와 스마트폰이 연동한 연동형(도 6 참조)일 수 있다.The vision assistant 2 is a device that can be carried and carried by a user with a sight weakness. Hereinafter, the 'user' and the 'vulnerable layer' may be used in combination for the detailed description. The vision aids device 2 may be in the form of a wearable device that is wearable to the vulnerable layer of sight or that includes it. A wearable device is an accessory that is easy to wear and carry. Examples of the wearable device include a shape which is detached from the eyeglass frame or the eyeglass frame of the glasses worn by the user. A photographing unit is mounted on the front side, and an image can be photographed through the photographing unit. Such a wearable device can be detached also to existing glasses, and it is made to be easy to wear by minimizing the weight. The vision assistant device 2 may be a stand-alone type (see FIG. 5) in which the detachable wearable device and the control device are combined, and may be an interlocking type in which the wearable device and the smartphone are interlocked (see FIG. 6).

시력 보조장치(2)는 인공지능(AI) 기반 기계학습(Machine Learning)을 통해 카메라로 들어오는 영상으로부터 시각정보를 인식하며 인식한 시각정보를 시력 취약계층이 들을 수 있도록 청각정보로 가공하여 출력한다. 시각정보는 객체, 문자, 깊이 등이다. 청각정보는 음성신호, 경고음 등이다. 이에 따라, 시력 취약계층이 사물에 대한 인지를 쉽게 하고 환경에 잘 적응할 수 있도록 한다.The vision assistant 2 recognizes the visual information from the image input to the camera through the AI based machine learning and processes the recognized visual information into auditory information so that the visually impaired layer can hear the visual information . The visual information is an object, a character, and a depth. The auditory information is a voice signal, a warning sound, and the like. This makes it easier for people with visual impairments to recognize things and adapt them to the environment.

일 실시 예에 따른 지능형 시력 보조 시스템은 시력이 나쁘지 않다 하더라도 눈의 피로를 덜고 싶거나, 노안 등으로 인해 초점이 흐리거나 안 근육 초점을 맞추는 시간이 더딘 경우에도 사용할 수 있다. 예를 들어, 책 자동읽기 모드 등을 제공하여, 사용의 편리성과 고객 확장성을 가진다. 시력 보조장치(2)의 사용 예를 들면, 시각 장애인 A씨는 안경에 착용 가능한 시력 보조장치(2)가 앞에 있는 버스 번호를 인식해 알려줌에 따라 버스를 이용할 수 있다. 여러 대 버스가 정차한 정류장에서 타야 할 버스를 찾기 쉬워졌다. 다른 사용 예로, 저시력층인 B씨는 출퇴근길에 책 보는 재미에 빠졌다. 안경에 착용한 시력 보조장치(2)가 책 내용을 자동으로 인식해 읽어주기 때문이다. 최근 시력이 급격히 나빠져 확대경 없이는 책을 읽지 못했다. 점자도 익숙하지 않았다.The intelligent vision assist system according to one embodiment can be used even when the eyesight is not bad, the eyes are less fatigued, the focus is blurred due to presbyopia, or the time for focusing the eye muscles is slow. For example, it provides an automatic book reading mode and the like, thereby providing ease of use and customer scalability. For example, the visually impaired person A can use the bus as the sight assistant device 2, which can be worn on the glasses, recognizes and informs the bus number in front. It became easy to find a bus to take at a bus stop that several buses stopped. As another example, Mr. B, a low-vision class, fell in the fun of reading books on his commute. This is because the vision assistant (2) worn on the glasses automatically recognizes and reads the contents of the book. Recently, my eyesight suddenly deteriorated and I could not read the book without a magnifying glass. Braille was also unfamiliar.

시력 보조장치(2)의 핵심은 앞에 있는 객체 인식이다. 인공지능 기반 기계학습을 통해 사람과 동물, 사물을 구분해 이를 음성으로 알려준다. 기계학습의 특성 상 사용자가 많을수록 정확도는 더 높아진다. 시력 보조장치(2)는 전면 객체와의 거리도 계산해 알려준다. 나아가, 부딪히지 않도록 경고한다. 카메라 촬영 영상에서 문자 이미지를 추출해 이를 읽어주기도 한다. 지금까지는 영상을 지인이나 상담원에게 전송해 구두로 설명을 듣는 방식이었다.The core of the vision aid (2) is the object recognition in front. Through artificial intelligence-based machine learning, people are distinguished from animals and objects, and they are notified by voice. Due to the nature of machine learning, the more users there are, the higher the accuracy. The vision assistant 2 also calculates and reports the distance to the front object. Furthermore, warn against bumping. It also extracts character images from camera images and reads them out. Until now, it was a way of transferring images to an acquaintance or an agent and then oral explanation.

사용자가 원하는 객체를 지목하면, 시력 보조장치(2)는 지목한 객체를 대상으로 시력 보조 서비스를 제공할 수 있다. 원하는 객체를 지목할 때 사용하는 기기 입력방식으로는 증강현실(augmented reality: AR) 기반 포인터를 이용하여 손가락이 지목하는 객체에 대해 바로 인지할 수 있도록 할 수 있다. 예를 들어, 시력 취약계층이 검지만 세우면 증강현실 속 포인터가 된다. 음식점에서 메뉴판을 손가락으로 가리키면 카메라가 인지해 해당 글자를 읽어준다. 책이나 잡지도 혼자서 읽을 수 있다. 손가락으로 'V' 자를 표현하면 책과 잡지로 인지해 자동으로 계속 읽어준다. 손바닥을 펴면 주변 사물과 부딪히지 않도록 깊이 추정 모드로 전환된다. 영상왜곡 처리 이미지 프로세싱으로 정확한 깊이를 계산해낼 수 있다.When the user specifies an object desired by the user, the vision assistant device 2 can provide the vision assistant service to the object of interest. As a device input method used to specify a desired object, an augmented reality (AR) -based pointer can be used so that the user can immediately recognize the object pointed by the finger. For example, if only the weakest layer of sight is detected, it becomes a pointer in augmented reality. When you point your finger at the menu plate at a restaurant, the camera recognizes and reads the letter. Books and magazines can also be read on their own. If you express your letter 'V' with your finger, you will recognize it automatically with books and magazines. When the palm is extended, it switches to the depth estimation mode so as not to hit the surrounding objects. Image Distortion Processing You can calculate the exact depth with image processing.

시력 보조장치(2)에는 인공지능(AI) 기술, 증강현실(AR), 음성변환(text to speech: TTS) 기술 등의 다양한 기술이 적용된다. 원격제어(remote control)도 가능하다. 인공지능 기술은 기계학습을 통해 영상으로부터 자동으로 객체, 문자, 거리 등의 시각정보를 인식하는 기술을 포함한다. 증강현실 기술은 사용자와 떨어진 객체를 지목하더라도 사용자가 지목한 객체의 이미지를 인식하여 음성으로 알려주는 것과 같이 가상의 세계와 현실의 세계가 결합한 기술이다. 여기서, 사용자의 제스처를 증강현실 포인터로 인식하고 인식된 증강현실 포인터가 지시하는 위치를 인식하는 기술이 포함된다. 음성변환 기술은 인식된 시각정보, 예를 들어 문자 이미지를 문자(text) 정보로 변환하고 이를 사용자가 들을 수 있는 청각정보로 변환하여 음성 출력하는 기술을 포함한다. 원격제어는 시력 보조장치(2)가 네트워크(3)를 통해 연결된 원격관리장치(1)로부터 원격제어를 지원받고 원격관리장치(1)가 시력 보조장치(2)를 모니터링하는 기술을 포함한다.Various technologies such as artificial intelligence (AI) technology, augmented reality (AR), and text to speech (TTS) technology are applied to the vision assistant 2. Remote control is also possible. Artificial intelligence technology includes techniques for automatically recognizing visual information such as objects, characters, and distances from images through machine learning. Augmented reality technology is a technology that combines a virtual world with a real world, such as recognizing an object image of a user and notifying the user of the object even if the object is located away from the user. Here, a technique of recognizing a user's gesture as an augmented reality pointer and recognizing a position pointed by the recognized augmented reality pointer is included. The voice conversion technology includes a technique of converting recognized time information, for example, a character image into text information, converting it into audible information that the user can hear, and outputting voice. The remote control includes a technique in which the vision assist device 2 is supported by a remote control device 1 connected via the network 3 and the remote management device 1 monitors the vision assist device 2. [

원격관리장치(1)는 시력 보조장치(2)를 관리한다. 또한, 사용자가 시력 보조장치(2)를 실제 사용할 때 정상상태를 유지할 수 있도록 실시간 사전 서비스(Before Service: B/S) 및 사후 서비스(After Service: A/S)를 제공한다. 현장에서 시력 보조장치(2)가 고장이 나거나 이상동작을 할 경우 시력 취약계층인 사용자의 위험도가 증가하므로 시력 보조장치(2)의 상태를 미리 빅 데이터 기반으로 분석하여 이상징후를 미리 파악한다. 그리고 이상이 발생한 경우, 사용자에게 통보하거나 유지보수인원을 파견하여 사전처리하도록 함에 따라 위험을 미리 제거할 수 있다. 현장에서 문제가 발생했을 경우 네트워크(3)를 통해 시력 보조장치(2)에 대한 기기유지보수도 가능하다. 나아가, 사용자가 동의할 경우 현장의 화면캡처 및 동영상을 저장하는 서비스도 제공할 수 있다. 이때 서비스를 제공하기 위하여 모니터링이 가능하며 이를 지원한다.The remote management apparatus (1) manages the vision assistant (2). In addition, a real-time pre-service (B / S) and a post-service (A / S) are provided so that the user can maintain a normal state when using the sight assistant device 2. If the vision assist device 2 fails or malfunctions in the field, the risk of the user who is a weak vision layer increases. Therefore, the state of the vision assist device 2 is analyzed in advance based on a big data, and an abnormal symptom is grasped in advance. In the event of an anomaly, the risk can be eliminated in advance by notifying the user or dispatching the maintenance personnel to pre-process them. In the event of a problem in the field, maintenance of the device for the vision assist device (2) is also possible via the network (3). Furthermore, the user can also provide a service for storing screen captures and moving pictures on the spot when the user agrees. At this time, monitoring can be provided to support the service.

네트워크(3)는 원격관리장치(1)와 시력 보조장치(2) 간에 데이터의 송수신이 가능한 유무선 네트워크이다. 네트워크(3)는 다양한 형태의 통신망이 이용될 수 있는데, 예를 들어, Wi-Fi, WLAN(Wireless LAN), Wibro, Wimax, HSDPA(High Speed Downlink Packet Access), 블루투스, DSL, LTE, PCS, 2G, 3G, 4G, 5G, LAN, CDMA, TDMA, GSM, WDM 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신방식이 이용될 수 있다. 네트워크는 전술한 통신방식에 한정되는 것은 아니며, 전술한 통신 방식 이외에도 기타 널리 공지되었거나 향후 개발될 모든 형태의 통신 방식을 포함할 수 있다.The network 3 is a wired / wireless network capable of transmitting and receiving data between the remote management apparatus 1 and the vision assistant apparatus 2. The network 3 may use various types of communication networks such as Wi-Fi, WLAN (Wireless LAN), Wibro, Wimax, HSDPA (High Speed Downlink Packet Access), Bluetooth, DSL, LTE, PCS, (Ethernet), xDSL (ADSL, VDSL), Hybrid Fiber Coax (HFC), Fiber to the Curb (FTTC), and the like. And a wired communication method such as FTTH (Fiber To The Home) may be used. The network is not limited to the communication method described above, and may include any other known or later-developed communication methods in addition to the communication methods described above.

도 2는 본 발명의 일 실시 예에 따른 시력 보조장치의 기능 구성도이다.2 is a functional block diagram of a vision assist device according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 시력 보조장치(2)는 촬영부(20), 입력부(21), 출력부(22), 프로세서(23), 배터리(24), 클라이언트 에이전트(client agent)(25), 통신부(26) 및 메모리(27)를 포함한다.1 and 2, the vision assist apparatus 2 includes a photographing unit 20, an input unit 21, an output unit 22, a processor 23, a battery 24, a client agent 25, a communication unit 26, and a memory 27. [

촬영부(20)는 시력 취약계층인 사용자의 전면에서 촬영한다. 촬영부(20)는 예를 들어 카메라일 수 있다. 객체의 깊이를 인식하기 위해 카메라는 ToF 카메라일 수 있다. 촬영부(20)는 시력 보조장치(2)의 내부 또는 외부에 정면을 바라보도록 배치되어 사용자의 정면을 촬영할 수 있다. 예를 들어, 촬영부(20)는 사용자가 안경의 안경 테나 안경 다리에 착용 가능한 웨어러블 디바이스에 장착되어, 사용자의 시점에 따른 실제 영상을 촬영할수 있다.The photographing section 20 photographs from the front face of the user, which is a layer with weak eyesight. The photographing unit 20 may be, for example, a camera. To recognize the depth of an object, the camera may be a ToF camera. The photographing unit 20 may be disposed so as to face the inside or the outside of the vision assist device 2 to photograph the front of the user. For example, the photographing unit 20 can be mounted on a wearable device that can be worn by a user on the glasses or glasses legs of the glasses, and can take an actual image according to the user's viewpoint.

입력부(21)는 사용자 명령을 입력받아 이를 프로세서(23)에 제공한다. 입력부(21)는 입력을 위한 사용자 인터페이스를 포함할 수 있다. 예를 들어, 전원 버튼, 볼륨 조절 버튼 등을 포함할 수 있다. 시력 취약계층을 고려하여 버튼을 양각 처리하거나, 진동을 주는 것과 같이 손의 감각으로 버튼 기능을 구현하는 방법 등 시력 취약계층 위주의 입력 인터페이스가 제공된다. 입력부(21)는 에러 예측에 따른 사전 서비스 정보 수신을 위해 에러 기준이 되는 임계값 및 에러 예측 시의 알림 형태를 사용자로부터 미리 설정 입력받을 수 있다.The input unit 21 receives a user command and provides it to the processor 23. The input unit 21 may include a user interface for inputting. For example, a power button, a volume control button, and the like. The input interface is focused on vulnerable layers, such as embossing the buttons in consideration of the vulnerable layer of sight, or implementing button functions in the sense of the hand, such as giving vibration. The input unit 21 can receive a threshold value as an error criterion and a notification type at the time of error prediction in order to receive the advance service information according to the error prediction.

출력부(22)는 프로세서(23)에 의해 처리된 정보, 통신부(26)를 통해 수신된 정보를 외부로 출력한다. 출력부(22)는 프로세서(23)에서 변환된 청각정보를 음성으로 출력한다. 출력 형태는 음성신호일 수 있으며, 음성신호는 경고 메시지, 경고 음을 포함할 수 있으며, 스피커를 통해 출력된다. 스피커는 골전도 스피커일 수 있다. 이 스피커는 진동을 통해 두개골에 음파를 전달한다. 골전도 스피커의 가장 큰 장점은 바로 귀를 자유롭게 해준다는 점이다. 즉, 고막의 손상이나 피로를 줄여주고 다른 외부의 소리까지 추가로 들을 수 있도록 해준다. 골전도 스피커는 도서관, 지하철과 같은 대중교통수단, 공공장소 등에서 사용이 가능하다. 필요에 따라 출력부(22)는 디스플레이를 포함할 수 있다. 이 경우, 디스플레이를 통해 촬영 영상이 표시될 수 있다. 또한, 촬영 영상에 사용자의 제스처 포인터가 합성되어 표시될 수 있다. 디스플레이를 위해, 시력 보조장치(2)는 스마트 글라스(smart glass)와 같은 안경 형태로 구현될 수 있다.The output unit 22 outputs information processed by the processor 23 and information received through the communication unit 26 to the outside. The output unit 22 outputs the audible information converted by the processor 23 by voice. The output format may be a voice signal, and the voice signal may include a warning message, a warning sound, and output through a speaker. The speaker may be a bone conduction speaker. This speaker transmits sound waves to the skull through vibration. The main advantage of the bone conduction speaker is that it frees the ear. It reduces damage and fatigue of the eardrum and allows you to hear additional external sounds. Bone conduction speakers can be used in public transport such as libraries, subways, and public places. Optionally, output 22 may include a display. In this case, the photographed image can be displayed through the display. Further, the gesture pointer of the user can be combined and displayed on the photographed image. For display purposes, the vision aids 2 may be implemented in the form of glasses, such as smart glass.

출력부(22)를 통해 음성신호로 사용자가 지정한 음식 메뉴를 읽어줄 수 있고, 책이나 잡지 등의 글을 자동으로 읽어줄 수 있다. 전방에 위험요소가 있는 경우 이를 음성 또는 경고음으로 알려줄 수 있다. 예를 들어, "전방 3m 이내에 위험요소가 있으니 조심하세요", "돌발상황입니다. 멈추세요." 등을 음성으로 전달하거나, "삐-" 등의 경고음을 전달할 수 있다. 위험 상황이 발생하면, 위험 경보신호를 즉각적으로 전달하여 위험한 상황에 사전 대응하도록 한다.The user can read the food menu designated by the user as the voice signal through the output unit 22 and automatically read the article such as a book or a magazine. If there is a danger in the front, it can be notified by voice or warning sound. For example, "Be careful because there is a risk within 3m ahead", "It is an unexpected situation, please stop." , Or to transmit a warning sound such as " beep ". In the event of a hazard, the danger alert signal is immediately transmitted to proactively respond to the hazardous situation.

프로세서(23)는 촬영 영상으로부터 인공지능(AI) 기반 기계학습을 통해 객체, 문자, 깊이 등의 시각정보를 인식하고 인식한 시각정보를 청각정보로 변환한다. 인식된 시각정보가 위험상황이면 위험 경보신호를 생성한다. 기계학습은 촬영 영상 데이터로부터 특징을 추출하고 추출된 특징들을 이용하여 영상 데이터에서 객체를 구분하는 방법이다. 객체의 종류는 사람, 사물일 수 있다. 사람의 경우, 지인 여부를 인식할 수 있다. 사물이면 신호등인지 책인지 문인지 지하철 출입구인지 버스인지 등을 분류한다. 이때, 객체의 윤곽을 인식할 수 있다. 프로세서(23)는 문자를 인식할 수 있는데, 문자는 단어, 문장, 기호, 숫자 등을 포함한다. 기계학습은 시력 보조장치(2)에서 이루어지는데, 필요에 따라 시력 보조장치(2)의 처리능력이 떨어지는 경우, 원격관리장치(1)와의 협업을 통해 이루어질 수도 있다.The processor 23 recognizes visual information such as an object, a character, and a depth through an artificial intelligence (AI) -based machine learning from the photographed image and converts the recognized visual information into auditory information. If the recognized time information is in a dangerous situation, a danger warning signal is generated. Machine learning is a method of extracting features from photographed image data and distinguishing objects from image data using extracted features. The object type can be a person or an object. In the case of a person, it is possible to recognize whether or not the person is an acquaintance. If the object is a traffic light, whether it is a book or a door, whether it is a subway entrance or a bus. At this time, the outline of the object can be recognized. The processor 23 can recognize characters, which include words, sentences, symbols, numbers, and the like. Machine learning is performed in the vision assistant device 2, and may be performed through collaboration with the remote management device 1 when the processing capability of the vision assistant device 2 is low as necessary.

프로세서(23)는 입력받은 영상 데이터를 대상으로 기계학습 데이터를 이용해 객체를 인식한다. 신호등을 예로 들면, 프로세서(23)는 영상 데이터와 미리 저장된 형상 패턴을 비교하여 전방에 존재하는 신호등을 검출하고, 검출된 색 패턴과 메모리(27)에 저장된 객체의 색 패턴을 비교하여 신호등 색을 인지하고, 객체 패턴과 색에 의해 신호를 판단한다. 또한, 신호등에 있는 숫자 이미지를 인식한다. 이때, 판단된 신호등이 초록 불이고 숫자 이미지가 20이면, "초록 불이 20초 남았습니다."라는 안내정보를 생성하여 출력부(22)를 통해 출력한다. 프로세서(23)의 세부 구성은 도 3을 참조로 하여 후술한다.The processor 23 recognizes the object using the machine learning data on the input image data. For example, the processor 23 compares the image data with a previously stored shape pattern to detect a signal lamp present in the front, compares the detected color pattern with the color pattern of the object stored in the memory 27, And judges the signal by object pattern and color. It also recognizes numeric images in traffic lights. At this time, if the determined traffic light is green light and the numerical image is 20, guidance information such as " green light is 20 seconds remaining " is generated and output through the output unit 22. The detailed configuration of the processor 23 will be described later with reference to Fig.

배터리(24)는 시력 보조장치(2)의 구동을 위한 전원을 공급한다. 시력 보조장치(2)가 웨어러블 디바이스와 제어장치로 분리된 경우, 배터리(24)는 제어장치에 위치할 수 있다. 제어장치에 위치하는 경우 사용자가 착용하는 웨어러블 디바이스의 무게를 가볍게 할 수 있다. 웨어러블 디바이스를 스마트폰과 같은 사용자 단말과 연동하는 경우, 배터리(24)는 사용자 단말의 배터리를 이용할 수도 있다. 배터리(24)는 교체식, 충전식 또는 이 두 방식 모두를 사용할 수 있다. 예를 들어, 1차적으로 교체식 배터리를 통해 전원공급이 이루어지도록 한 상태에서, 교체식 배터리를 모두 사용할 경우 충전식 배터리는 예비 전원으로서 사용할 수 있다.The battery 24 supplies power for driving the vision assist device 2. When the vision assist device 2 is separated into a wearable device and a control device, the battery 24 may be located in the control device. The weight of the wearable device to be worn by the user can be lightened. When the wearable device is interlocked with a user terminal such as a smart phone, the battery 24 may use the battery of the user terminal. The battery 24 may be replaceable, rechargeable, or both. For example, a rechargeable battery can be used as a standby power source if all of the replaceable batteries are used, with the power being supplied primarily through the replaceable battery.

클라이언트 에이전트(25)는 시력 보조장치(2)의 기기 상태정보를 획득하고 원격관리장치(1)로부터 수신된 사전 서비스 정보를 처리한다. 기기 상태정보는 장치 별 기기 정보와 기기를 통해 측정되는 센싱 정보를 포함할 수 있다. 기기 정보는 시력 보조장치(2) 자체에서 획득 가능한 장치 정보로서, 예를 들어 배터리 잔량, CPU, 메모리, 발열량, 장치 온도, 촬영 영상 등이다. 촬영 영상은 시력 보조장치(2)의 촬영부(20)를 이용하여 촬영된 것이다. 센싱 정보는 센서를 통해 획득되는 정보로서, GPS 센서, 가속도 센서, 기압 센서, 지자기 센서 등의 각종 센서를 통해 측정된 정보이다. 센서는 시력 보조장치(2)에 장착될 수 있고 그러지 않을 수도 있다. 전술한 기기 상태 정보는 이에 한정되는 것은 아니고, 시력 보조장치(2)의 동작 상태를 나타낼 수 있는 정보라면 제한 없이 사용될 수 있다. 상태 정보 분석은 대량의 데이터를 신속하게 처리하기 위해 빅 데이터 분석(Big Data Analysis)을 이용할 수 있다. 사전 서비스 정보는 기기 상태에 따라 발생 가능한 에러를 사전에 차단하기 위한 정보로서, 에러 예측 내역, 에러 발생 차단을 위한 경고 메시지 및 에러 이전 조치 정보 중 적어도 하나를 포함한다.The client agent 25 acquires the device state information of the vision assistant device 2 and processes the pre-service information received from the remote management device 1. [ The device state information may include device-specific device information and sensing information measured through the device. The device information is device information that can be obtained from the vision assist device 2 itself, for example, a battery remaining amount, a CPU, a memory, a heating value, a device temperature, and a shot image. The photographed image is photographed using the photographing section 20 of the visual aid device 2. [ The sensing information is information obtained through a sensor, and is information obtained through various sensors such as a GPS sensor, an acceleration sensor, an air pressure sensor, and a geomagnetic sensor. The sensor may or may not be mounted to the vision aids 2. The above-described device state information is not limited to this, and can be used without limitation as long as it is information that can indicate the operation state of the vision assist device 2. [ State information analysis can use Big Data Analysis to quickly process large amounts of data. The dictionary service information is information for preventing an error that may occur according to the state of the device in advance and includes at least one of an error prediction history, a warning message for blocking an error occurrence, and error transferring action information.

통신부(26)는 외부로부터 정보를 수신하거나 외부로 정보를 전송한다. 통신부(26)는 네트워크(3)를 이용할 수 있다. 외부는 원격관리장치(1)일 수 있다. 일 실시 예에 따른 통신부(26)는 원격관리장치(1)와 네트워크(3) 연결되어 통신하며, 시력 보조장치(2)의 기기 상태정보를 원격관리장치(1)에 전송하고 원격관리장치(1)로부터 기기 상태에 따른 사전 서비스 정보를 수신한다.The communication unit 26 receives information from outside or transmits information to the outside. The communication unit 26 can use the network 3. [ And the outside may be the remote management apparatus 1. [ The communication unit 26 according to one embodiment is connected to the network 3 and communicates with the remote management device 1 and transmits the device status information of the vision assist device 2 to the remote management device 1, 1 according to the state of the apparatus.

메모리(27)는 시력 보조장치(2)에서 동작 수행을 위해 필요한 정보와 동작 수행에 따라 생성되는 정보가 저장된다. 예를 들어, 메모리(27)에는 촬영 영상에서 객체를 인식하기 위해, 기계학습을 수행하기 위한 명령어와, 객체의 형상 패턴, 색 패턴, 신호 패턴 등의 패턴에 대해 기계학습된 데이터가 미리 저장될 수 있다.The memory 27 stores information necessary for performing operations in the vision assist device 2 and information generated according to the performance of the operation. For example, in the memory 27, a machine-learned data for a pattern such as a shape pattern, a color pattern, and a signal pattern of an object are stored in advance in order to recognize the object in the photographed image .

도 3은 본 발명의 일 실시 예에 따른 도 2의 프로세서의 구성도이다.3 is a block diagram of the processor of FIG. 2 according to an embodiment of the present invention.

도 1 내지 도 3을 참조하면, 시력 보조장치(2)의 프로세서(23)는 제1 영상 처리부(231), 제2 영상 처리부(232), 신호 처리부(233), 제스처 감지부(234), 기기 제어부(235) 및 원격제어 처리부(236)를 포함한다.1 to 3, the processor 23 of the visual aid apparatus 2 includes a first image processing unit 231, a second image processing unit 232, a signal processing unit 233, a gesture sensing unit 234, A device control unit 235 and a remote control processing unit 236. [

제1 영상 처리부(231)는 촬영 영상 데이터로부터 기계학습을 통해 객체 이미지 또는 문자 이미지를 인식한다. 이때, 광학적 문자 인식 방법과 같은 일반적으로 사용되는 문자 인식 알고리즘을 추가로 사용할 수 있다. 제2 영상 처리부(232)는 촬영 영상 데이터의 영상 분석을 통해 깊이를 인식한다. 예를 들어, 영상 데이터의 왜곡(distortion)에 기초하여 깊이를 인식한다. 카메라로 촬영된 영상은 가장자리로 갈수록 왜곡이 생기므로 이 왜곡을 펴주고, 펴주는 정도에 따라 객체와 사용자 간의 거리를 계산한다. ToF 카메라는 교란이 일어나는 단점이 있어, ToF 카메라와 왜곡 기반 영상 처리 기술을 병행하여 사용할 수도 있다.The first image processing unit 231 recognizes an object image or character image through machine learning from photographed image data. At this time, a commonly used character recognition algorithm such as an optical character recognition method can be additionally used. The second image processor 232 recognizes the depth through image analysis of the photographed image data. For example, depth is recognized based on distortion of image data. Since the image taken by the camera is distorted as it goes to the edge, the distance between the object and the user is calculated according to the extent of the distortion. The ToF camera has a disadvantage that the disturbance occurs, and the ToF camera and the distortion-based image processing technique can be used in parallel.

제1 영상 처리부(231)와 제2 영상 처리부(232)가 입력받는 영상 데이터는 전 처리를 거쳐 노이즈가 제거된 영상일 수 있다. 예를 들어, 영상 데이터에서 불필요한 상하, 좌우, 마진(margin) 측 영역을 제거하여 관심영역(Region Of Interest: ROI)에 해당하는 영상 데이터를 입력받아 처리할 수 있다.The image data received by the first image processing unit 231 and the second image processing unit 232 may be a noise-eliminated image. For example, it is possible to remove unnecessary top, bottom, right and left marginal regions from the image data and to process and receive image data corresponding to a region of interest (ROI).

신호 처리부(233)는 각 영상 처리부(231,232)를 통해 인식된 객체 이미지, 문자 이미지 또는 깊이정보를 문자 정보로 변환하고 변환된 문자 정보를 청각정보로 변환하여 출력부(22)에 제공한다. 예를 들어, 인식된 객체가 "신호등의 초록 불"과 "30"이라면, 이를 문자 정보인 "초록 불이 30초 남았습니다."로 변환하고, 변환된 문자 정보를 청각정보인 음성으로 변환한다.The signal processing unit 233 converts the recognized object image, character image or depth information into character information through the respective image processing units 231 and 232, converts the converted character information into auditory information, and provides the converted information to the output unit 22. For example, if the recognized object is " green light of traffic light " and " 30 ", it converts it into character information " green light is 30 seconds remaining ", and converts the converted character information into auditory information.

제스처 감지부(234)는 촬영 영상으로부터 사용자 제스처를 감지한다. 제스처 감지부(234)는 영상 데이터로부터 인공지능(AI) 기반 기계학습을 통해 사용자의 손 모양과 동작을 포함한 객체 이미지를 인식할 수 있다. 기기 제어부(235)는 제스처 감지부(234)를 통해 감지된 사용자 제스처를 증강현실 기반 제스처로 인식하고 증강현실 기반 제스처에 대응되는 동작 모드를 결정하며 결정된 동작 모드 별로 증강현실 기반 제스처와 매칭되는 동작을 수행한다. 원격제어 처리부(236)는 원격관리장치(1)에 원격제어를 요청하고 원격관리장치(1)의 원격제어에 따라 원격으로 시력 보조장치의 캡처 화면을 공유하며 원격관리장치(1)의 제어요청을 처리한다.The gesture sensing unit 234 senses the user gesture from the photographed image. The gesture sensing unit 234 can recognize an object image including a user's hand shape and an operation through artificial intelligence (AI) based machine learning from the image data. The device control unit 235 recognizes the user gesture sensed through the gesture sensing unit 234 as an augmented reality-based gesture, determines an operation mode corresponding to the augmented reality-based gesture, matches the augmented reality- . The remote control processing unit 236 requests the remote management apparatus 1 to perform remote control and remotely shares the capture screen of the sight assist system in accordance with the remote control of the remote management apparatus 1, Lt; / RTI >

도 4는 본 발명의 일 실시 예에 따른 원격관리장치의 구성도이다.4 is a configuration diagram of a remote management apparatus according to an embodiment of the present invention.

도 1 및 도 4를 참조하면, 원격관리장치(1)는 인증 관리부(10), 모니터링부(11), 네트워크 연결부(12), 원격 제어부(13), 데이터 처리부(14), 클라이언트 관리부(15), 프로토콜 처리부(16) 및 데이터 분석부(17)를 포함한다.1 and 4, the remote management apparatus 1 includes an authentication management unit 10, a monitoring unit 11, a network connection unit 12, a remote control unit 13, a data processing unit 14, a client management unit 15 ), A protocol processing unit 16, and a data analysis unit 17.

인증 관리부(10)는 요청받은 시력 보조장치(2)의 사용자 정보의 유효성을 검증한다. 필요에 따라 원격관리장치(2)로 수신되는 요구사항의 주체가 누구인지를 인증한다. 모니터링부(11)는 시력 보조장치(2)를 통한 캡처 화면을 모니터링한다. 이때, 관리자 단말에 모니터링 결과를 제공하거나, 관리자 조작을 돕는 기능을 제공한다. 원격 제어부(13)는 시력 보조장치(2)로부터 원격제어 요청을 수신하고 원격 제어명령을 시력 보조장치(2)에 전송하여 원격 엔지니어링을 수행한다.The authentication management unit 10 verifies the validity of the user information of the requested vision assist device 2. [ And authenticates who is the subject of the request received by the remote management apparatus 2 as needed. The monitoring unit 11 monitors the capture screen through the vision assistant 2. At this time, a monitoring result is provided to an administrator terminal or a function for assisting an administrator operation is provided. The remote control unit 13 receives the remote control request from the vision assist apparatus 2 and transmits a remote control command to the sight assistant apparatus 2 to perform remote engineering.

데이터 처리부(14)는 네트워크 연결부(12)를 통해 시력 보조장치(2)로부터 수신된 실제영상을 대상으로 기계학습을 시력 보조장치(2)에 이어서 수행하고 수행에 따른 최종 결과를 생성하여 네트워크 연결부(12)에 제공한다. 이때, 네트워크 연결부(12)는 최종 결과를 시력 보조장치(2)에 제공한다. 원격관리장치(1)의 기계학습 기반 시각정보 인식은 시력 보조장치(2)의 장치 처리능력에 따라 선택적으로 이루어질 수 있다. 예를 들어, 시력 보조장치(2)의 장치 처리능력이 떨어지는 경우에, 원격관리장치(1)에 요청하면 원격관리장치(1)에서 기계학습을 이어서 수행할 수 있다.The data processing unit 14 carries out a machine learning on the actual image received from the vision assist device 2 through the network connection unit 12 and then generates the final result according to the performance of the vision assistant 2, (12). At this time, the network connection unit 12 provides the final result to the vision assist apparatus 2. [ The machine learning-based visual information recognition of the remote management apparatus 1 can be selectively performed according to the apparatus processing capability of the vision assist apparatus 2. [ For example, when the device processing capability of the vision assist device 2 is low, a request to the remote management device 1 can be followed by machine learning in the remote management device 1. [

클라이언트 관리부(15)는 시력 보조장치(2)의 기기 상태 정보를 모니터링하여 에러를 사전에 예측하고, 에러가 발생하기 이전에 에러를 처리하기 위한 사전 서비스 정보를 생성한다. 에러 예측은 수신된 기기 상태 정보를 미리 설정된 임계값과 비교하는 방식을 이용할 수 있다. 예를 들어, 배터리 상태를 정상상태 및 위험상태로 구분하고 이를 배터리 잔량 임계값으로 구분한다. 수신된 기기 상태 정보인 배터리 잔량이, 정상상태 임계값과 위험상태 임계값 중 어디에 포함되는지를 판단하여 에러를 예측한다. 위험상태 임계값에 해당하는 경우 에러 예측으로 판단할 수 있다.The client management unit 15 monitors the device state information of the vision assist device 2 to predict an error in advance and generates advance service information for processing an error before an error occurs. The error prediction may use a method of comparing the received device state information with a preset threshold value. For example, a battery state is classified into a normal state and a dangerous state, and the battery state is classified into a battery residual value threshold. It is determined whether the remaining battery level, which is the received device status information, is included in the steady state threshold value and the critical state threshold value, thereby predicting an error. If it corresponds to the critical state threshold value, it can be judged as error prediction.

사전 서비스 정보는 에러 예측 내역, 에러 발생 차단을 위한 경고 메시지 및 에러 이전 조치 정보 중 적어도 하나를 포함한다. 에러 예측 내역은 에러 예측 상태를 나타내는 것으로, 에러가 예측되는 시력 보조장치(2)의 식별을 위한 기기 명칭 또는 식별자, 기기 기본 정보, 기기 위치 정보, 에러 예측에 관한 시간 정보, 에러 원인 정보를 포함할 수 있다. 경고 메시지는 에러 발생을 경고하는 신호이다. 음성, 텍스트, 알람 음 등을 통해 경고 메시지를 출력할 수 있다. 에러 조치 정보에는 에러 사전 해결을 위한 방법, 컨택 포인트, 링크 정보 등이 포함한다. 에러 사전 해결을 위한 방법의 예로는 문제가 발생한 부품의 교체, 충전 등이 있을 수 있다.The advance service information includes at least one of error prediction history, warning message for blocking an error occurrence, and error transferring action information. The error prediction details indicate the error prediction state, and include the device name or identifier for identifying the vision assist device 2 in which the error is predicted, the device basic information, the device position information, the time information about the error prediction, can do. A warning message is a signal to warn of an error. A warning message can be output through voice, text, and alarm sound. Error handling information includes methods for troubleshooting errors, contact points, link information, and so on. Examples of methods for troubleshooting errors include replacing a problematic part, charging, and the like.

네트워크 연결부(12)는 시력 보조장치(2) 및 관리자 단말 등과 정보를 송수신한다. 일 실시 예에 따른 네트워크 연결부(12)는 클라이언트 관리부(15)를 통해 에러가 예측되면, 에러가 발생하기 이전에 관리자 단말을 통해 관리자에 경고 메시지를 통보한다. 예를 들어, 관리자에게 그 결과를 송부하여 상황에 즉각 대처할 수 있도록 한다. 알림 방식은 E-mail, SMS, ARS 등의 방식 등 기존의 통신수단을 모두 활용할 수 있다. 다른 예로, 네트워크 연결부(12)는 시력 보조장치(2)와 통신하면서 시력 보조장치(2)의 기기 상태정보를 수신하고 시력 보조장치(2)의 기기상태에 따라 클라이언트 관리부(15)에서 생성된 사전 서비스 정보를 시력 보조장치(2)에 전송한다. 사전 서비스 정보는 에러 예측 내역, 에러 발생 차단을 위한 경고 메시지 및 에러 이전 조치 정보 중 적어도 하나를 포함한다.The network connection unit 12 transmits and receives information to and from the vision assist device 2 and an administrator terminal. When an error is predicted through the client management unit 15, the network connection unit 12 according to the embodiment notifies the manager of the warning message through the administrator terminal before an error occurs. For example, the result can be sent to the administrator so that the situation can be responded to immediately. The notification method can utilize all existing communication means such as E-mail, SMS, and ARS. The network connection unit 12 may be configured to receive the device status information of the vision assist device 2 while communicating with the vision assist device 2 and to receive the device status information generated by the client management unit 15 in accordance with the device status of the vision assist device 2. [ And transmits the dictionary service information to the sight assistant device 2. [ The advance service information includes at least one of error prediction history, warning message for blocking an error occurrence, and error transferring action information.

프로토콜 처리부(16)는 시력 보조장치(2)의 정상신호를 수신하여 파싱하고 이를 처리하기 위한 통신규약을 구현해주는 소프트웨어 모듈이다.The protocol processor 16 is a software module that receives and parses the normal signal of the vision assist device 2 and implements a communication protocol for processing the signal.

데이터 분석부(17)는 빅 데이터를 획득하여 분석하고 분석정보를 사전 서비스를 위해 클라이언트 관리부(15)에 제공한다. 일 실시 예에 따른 데이터 분석부(17)는 데이터 분석부(17)의 분석 결과 또는 클라이언트 관리부(15)의 예측 결과로부터 통계정보를 생성하여 관리한다. 관리자는 통계정보를 통해 에러 예측 결과를 쉽게 파악할 수 있다.The data analysis unit 17 acquires and analyzes the big data and provides the analysis information to the client management unit 15 for the advance service. The data analysis unit 17 according to an embodiment generates and manages statistical information from the analysis result of the data analysis unit 17 or the prediction result of the client management unit 15. The administrator can easily grasp the error prediction result through statistical information.

데이터 분석부(17)는 미리 설정된 기간동안 기기 상태 정보를 수집하고 수집된 기기 상태 정보로부터 유효한 표준 데이터를 추출함에 따라 시력 보조장치(2)의 환경에 기반하여 유연하게 표준 데이터를 설정할 수 있다. 미리 설정된 기간동안 수집되는 상태 정보는 그 양이 방대하므로 대량의 수집 데이터를 신속하게 처리할 수 있도록 빅 데이터 분석을 수행할 수 있다. 예를 들어, 날씨정보와 날씨에 따른 상태정보를 수집하여 수집된 상태 정보로부터 유효한 표준 데이터를 추출한다.The data analyzer 17 can flexibly set standard data based on the environment of the vision assistant 2 by collecting the device status information for a predetermined period and extracting valid standard data from the collected device status information. Since the amount of state information collected during a predetermined period is large, a large data analysis can be performed so that a large amount of collected data can be processed quickly. For example, it collects state information according to weather information and weather, and extracts valid standard data from the collected state information.

원격관리장치(1)의 에러 예측 및 이에 따른 사전 서비스의 예를 들면, 시력 보조장치(2)의 상태 정보 중 배터리 잔량을 보고 배터리 잔량이 미리 설정된 임계값 범위에 든 경우, 예를 들어 10% 이하인 경우 교체 단계로 예측하여, 배터리 소모에 의해 시력 보조장치(2)가 꺼지기 전에 이를 알리는 경고 메시지를 생성하여 시력 보조장치(2)에 전송한다.For example, if the battery remaining amount among the status information of the vision assist device 2 is in the range of the preset threshold value, for example, 10% It is predicted to be a replacement step and a warning message is generated and notified to the sight assistant device 2 before the sight assistant device 2 is turned off due to battery consumption.

도 5는 본 발명의 일 실시 예에 따른 시력 보조장치의 하드웨어 구성도이다.5 is a hardware block diagram of a vision assist device according to an embodiment of the present invention.

도 2, 도 3 및 도 5를 참조하면, 시력 보조장치(2)는 분리된 웨어러블 디바이스(6)와 제어장치(7-1)를 포함한다. 웨어러블 디바이스(6)는 도 2의 촬영부(20), 입력부(21) 및 출력부(22)를 포함할 수 있다. 제어장치(7-1)는 도 2의 프로세서(23), 배터리(24), 클라이언트 에이전트(25), 통신부(26) 및 메모리(27)를 포함할 수 있다. 제어장치(7-1)는 웨어러블 디바이스(6)와 연결부(8)를 통해 결합된다.Referring to Figs. 2, 3 and 5, the vision assist device 2 includes a detachable wearable device 6 and a control device 7-1. The wearable device 6 may include the photographing unit 20, the input unit 21, and the output unit 22 shown in Fig. The control device 7-1 may include the processor 23, the battery 24, the client agent 25, the communication unit 26 and the memory 27 in Fig. The control device 7-1 is coupled to the wearable device 6 via the connection part 8. [

웨어러블 디바이스(6)와 제어장치(7-1)가 분리되는 이유는 제어장치(7-1)에 배터리(24) 등이 들어가기 때문이다. 웨어러블 디바이스(6)와 제어장치(7-1)가 통합되었을 때는 배터리(24)의 무게 때문에 착용감이 떨어져 장시간 사용이 어렵다. 이때, 연결부(8)는 유선일 수 있다. 물론 블루투스나 Wi-Fi와 같은 무선통신방식도 가능하다. 다만, 웨어러블 디바이스(6)에 무선통신방식으로 연동이 되었을 때에도 배터리(24)가 장착되어야 하기 때문에, 배터리(24)를 제어장치(7-1)에 장착하고 웨어러블 디바이스(6)를 유선으로 연동하는 것이 바람직하다. 꼭 필요한 경우 옵션으로 블루투스 등의 무선통신방식을 적용할 수 있다.The reason why the wearable device 6 and the control device 7-1 are separated is that the battery 24 enters the control device 7-1. When the wearable device 6 and the control device 7-1 are integrated, the feeling of fit is reduced due to the weight of the battery 24, which makes it difficult to use the wearable device 6 for a long time. At this time, the connection portion 8 may be wired. Of course, wireless communication methods such as Bluetooth and Wi-Fi are also possible. The battery 24 is mounted on the control device 7-1 and the wearable device 6 is connected to the wearable device 6 by wire, since the battery 24 must be mounted even when the wearable device 6 is linked to the wearable device 6 by the wireless communication method. . If necessary, wireless communication such as Bluetooth can be applied as an option.

제어장치(7-1)는 기계학습 라이브러리가 작동할 수 있는 충분한 성능이 나올 수 있도록 리눅스, 윈도우즈, 안드로이드, iOS 등 기존의 OS를 기반으로 동작한다. 제어장치(7-1)는 긴급한 경우 Wi-Fi/LTE 등의 통신기능을 통해 기기상태를 파악할 수 있어야 하며, 이를 위해 제어장치(7-1)에는 클라이언트 에이전트(25)가 설치된다. 제어장치(7-1)는 범용적인 사용자 단말, 예를 들어 스마트폰으로 대체 운영이 가능하도록 리눅스, 윈도우즈, 안드로이드, iOS와 같은 OS를 우선 고려한다.The control device 7-1 operates based on the existing OS such as Linux, Windows, Android, and iOS so that the machine learning library has sufficient performance to operate. The control device 7-1 must be able to grasp the state of the device through a communication function such as Wi-Fi / LTE in case of emergency, and the client device 25 is installed in the control device 7-1. The control device 7-1 first considers operating systems such as Linux, Windows, Android, and iOS so that the general-purpose user terminal, for example, a smart phone can be substituted.

웨어러블 디바이스(6)는 사용자의 신체에 별도로 장착을 할 수 있어야 하므로 머리에 고정할 수 있는 틀이 필요한데, 이때 일반적인 안경의 안경 다리를 사용할 수 있도록 하여 사용자 거부감을 최소화한다. 웨어러블 디바이스(6)는 일반 안경 다리에 착탈이 쉬운 형태로 구성되어야 하며, 그러면서도 골전도 스피커의 기능을 활용할 수 있도록 적절한 텐션이 유지되어야 한다. 안경 다리에 웨어러블 디바이스(6)를 장착하고 웨어러블 디바이스(6)의 측면 앞쪽에 부착된 촬영부를 통해 실제 영상을 촬영함에 따라 사용자가 바라보는 시점에서 실제 영상을 획득할 수 있으며, 촬영 시 사용자의 불편을 없앨 수 있다.Since the wearable device 6 needs to be mounted separately on the user's body, a frame that can be fixed to the head is required. The wearable device 6 should be configured to be easy to attach and detach to a general eyeglass leg, and at the same time an appropriate tension must be maintained to utilize the function of the bone conduction speaker. The wearable device 6 is attached to the wearer's feet and the actual image is photographed through the photographing unit attached to the front side of the wearable device 6 so that the user can obtain the actual image at a point of view of the user, Can be eliminated.

도 6은 본 발명의 다른 실시 예에 따른 시력 보조장치의 하드웨어 구성도이다.6 is a hardware block diagram of a visual acuity assisting apparatus according to another embodiment of the present invention.

도 6을 참조하면, 시력 보조장치(2)는 도 5의 제어장치(7-1)를 사용자 단말(7-2)로 대체 가능하다. 사용자 단말(7-2)의 기능은 제어장치(7-1)의 그것과 유사하므로 상세한 설명은 생략한다.Referring to Fig. 6, the vision assistant 2 can replace the control device 7-1 of Fig. 5 with a user terminal 7-2. The function of the user terminal 7-2 is similar to that of the control device 7-1, and a detailed description thereof will be omitted.

도 7 내지 도 9는 본 발명의 일 실시 예에 따른 시력 보조장치의 웨어러블 디바이스의 외관도이다.7 to 9 are external views of a wearable device of a vision assist device according to an embodiment of the present invention.

도 7 내지 도 9를 참조하면, 웨어러블 디바이스(6)는 바디(60), 카메라(62), 골전도 스피커(64), 결합부(66), 전원 버튼(68) 및 볼륨 조절 버튼(69)를 포함한다. 카메라(62)는 도 2의 촬영부(20)에 해당하고, 골전도 스피커(64)는 도 2의 출력부(22)에 해당하며, 전원 버튼(68) 및 볼륨 조절 버튼(69)은 도 2의 입력부(21)에 해당한다.7 to 9, the wearable device 6 includes a body 60, a camera 62, a bone conduction speaker 64, a coupling portion 66, a power button 68, and a volume control button 69, . The camera 62 corresponds to the photographing unit 20 in Fig. 2, the bone conduction speaker 64 corresponds to the output unit 22 in Fig. 2, the power button 68 and the volume control button 69 correspond to the 2 < / RTI >

카메라(62)는 사용자의 시점을 따라 실제영상을 촬영하도록 바디(60)에 설치된다. 촬영 영상은 촬영 영상 내에서 기계학습 기반 시력정보를 인식하고 나아가 사용자 제스처를 인식하기 위해 사용된다. 카메라(62)는 도 7 내지 도 9에 도시된 바와 같이, 바디(60)의 측면 앞쪽에 부착될 수 있다. 이 경우, 사용자가 바라보는 시점에서 실제 영상을 촬영할 수 있다.The camera 62 is installed in the body 60 to photograph an actual image along a user's viewpoint. The photographed image is used to recognize the machine learning based vision information in the photographed image and further to recognize the user gesture. The camera 62 may be attached to the front side of the body 60, as shown in Figs. In this case, an actual image can be photographed at a point of view of the user.

골전도 스피커(64)는 청각정보를 출력하도록 바디(60)에 설치된다. 골전도 스피커(64)는 고막이 아닌 뼈를 통해 청각정보를 전달하는 방식이다. 골전도 스피커(64)는 사용자의 얼굴이나 귀 주변에 밀착하면서 사용자에게 청각정보를 전달한다. 골전도 스피커(64)는 도 7 내지 도 9에 도시된 바와 같이, 다리 구조의 몸체 일단에 진동판 형태로 이루어질 수 있다. 몸체는 적어도 일부가 바디(60)에 삽입되고 나머지는 외부로 돌출된 다리 구조이다. 도 7 내지 도 9에서는 다리 구조가 두 개로 나누어져 있다. 진동판은 동그란 형태일 수 있다. 진동판에 소정의 텐션(tension)을 가지도록 한다. 소정의 텐션은 인체 착용 시 무리가 없을 정도의 텐션이다. 골전도 스피커(64)는 다수 개일 수 있다. 도 7 내지 도 9에서는 2개를 도시하고 있다. 다수인 경우, 적어도 하나는 지지대로 사용될 수 있다.The bone conduction speaker 64 is installed in the body 60 to output auditory information. The bone conduction speaker 64 is a method for transmitting auditory information through the bone, not the eardrum. The bone conduction speaker 64 transmits auditory information to the user in close contact with the user's face or around the ear. As shown in FIGS. 7 to 9, the bone conduction speaker 64 may be formed in the shape of a diaphragm at one end of the body of the leg structure. The body is a leg structure in which at least a part is inserted into the body (60) and the rest is projected to the outside. In Figs. 7 to 9, the leg structure is divided into two. The diaphragm may be of a round shape. So that the diaphragm has a predetermined tension. The predetermined tension is such a tension that it is not unreasonable when the human body is worn. The number of bone conduction speakers 64 may be plural. In Figs. 7 to 9, two are shown. In the case of a plurality, at least one can be used as a support.

결합부(66)는 바디(60)를 사용자의 신체에 착용하기 위한 구조를 가진다. 결합부(66)는 바디(60)의 측면에 설치될 수 있는데, 카메라(62)와는 다른 측면에 설치될 수 있다. 결합부(66)는 사용자가 착용한 안경의 안경테 또는 안경 다리를 수용하기 위한 수용 홀을 구비한 튜브 형태일 수 있다. 결합부(66)는 신축성을 가진 소재로 구성될 수 있다. 예를 들어, 합성수지, 고무소재일 수 있다. 다른 예로, 결합부(66)는 안경에 탈착을 위해 자석을 포함할 수 있다.The engaging portion 66 has a structure for wearing the body 60 on the user's body. The engaging portion 66 may be provided on a side surface of the body 60, and may be provided on a side surface different from the camera 62. The engaging portion 66 may be in the form of a tube having an eyeglass frame of a spectacle worn by a user or a receiving hole for accommodating the legs of a spectacle. The engaging portion 66 may be made of a material having elasticity. For example, it may be a synthetic resin or a rubber material. As another example, the engaging portion 66 may include a magnet for desorption to the spectacles.

전원 버튼(68) 및 볼륨 조절 버튼(69)은 사용자가 시력 취약계층임을 배려한 구조일 수 있다. 예를 들어, 전원 버튼(68) 및 볼륨 조절 버튼(69)은 양각 구조, 진동을 주는 구조와 같이 사용자에 손 감각을 제공한다.The power button 68 and the volume control button 69 may be structured considering that the user is a vulnerable layer of sight. For example, the power button 68 and the volume control button 69 provide a sense of hand to the user, such as a bracing structure, a vibrating structure.

도 10 및 도 11은 사용자가 시력 보조장치의 웨어러블 디바이스를 착용한 모습을 도시한 참조도이다.10 and 11 are reference views showing a state in which a user wears the wearable device of the vision assist device.

도 10 및 도 11을 참조하면, 튜브 형태의 결합부(66)의 수용 홀에 사용자의 안경 다리가 끼워지며, 전면의 카메라(62)를 통해 영상을 촬영한다. 그리고 골전도 스피커(64)가 귀 주변에 위치하여 사용자가 골전도 스피커(64)를 통해 출력되는 소리를 들을 수 있다.Referring to FIGS. 10 and 11, a user's eye leg is fitted into a receiving hole of a tube-shaped coupling portion 66, and a camera 62 of the front side captures an image. And the bone conduction speaker 64 is positioned around the ear so that the user can hear the sound output through the bone conduction speaker 64.

도 12는 본 발명의 일 실시 예에 따른 시력 취약계층을 위한 지능형 서비스 시스템의 개념도이다.12 is a conceptual diagram of an intelligent service system for a visually impaired layer according to an embodiment of the present invention.

도 12를 참조하면, 시력 보조장치(2)는 사용자(4)의 전면에 보이는 시각정보를 청각정보로 변환하여 이를 출력함에 따라 사용자(4)의 시력을 보조한다. 사용자(4)는 시력 취약계층으로서, 개인, 기업, 공공기관으로 확장될 수 있다.Referring to FIG. 12, the vision assist device 2 converts the visual information displayed on the front face of the user 4 into auditory information, and assists the visual acuity of the user 4 by outputting the visual information. The user 4 can be extended to individuals, corporations, and public institutions as a vulnerable layer of sight.

시력 보조장치(2)는 웨어러블 디바이스(6)와 제어장치(7-1)로 분리된 형태일 수 있다. 웨어러블 디바이스(6)는 도 12에 도시된 바와 같이 사용자(4) 안경의 안경 다리에 탈착하는 형태일 수 있다. 연결부(8)는 웨어러블 디바이스(6)와 제어장치(7-1)를 연결한다. 연결부(8)는 도 12에 도시된 바와 같이 유선으로 웨어러블 디바이스(6)와 제어장치(7-1)를 연결할 수 있다. 무선방식을 이용하여 연결하거나 무선방식을 병행하여 사용할 수도 있다. 웨어러블 디바이스(6)에 촬영부가 장착되고 제어장치(7-1)에 배터리가 장착될 수 있다.The vision assistant device 2 may be separated into a wearable device 6 and a control device 7-1. The wearable device 6 may be in the form of being detached from the glasses leg of the user's glasses as shown in Fig. The connection unit 8 connects the wearable device 6 and the control device 7-1. The connection unit 8 can connect the wearable device 6 and the control device 7-1 by wire as shown in FIG. It is also possible to use a wireless connection or a wireless connection in parallel. The photographing unit may be mounted on the wearable device 6 and the battery may be mounted on the control device 7-1.

다른 예로, 웨어러블 디바이스(6)가 사용자 단말(예를 들어, 스마트폰)(7-2)과 연동된 형태일 수 있다. 연결부(8)는 웨어러블 디바이스(6)와 사용자 단말(7-2)을 연결한다. 연결부(8)는 도 12에 도시된 바와 같이 유선으로 웨어러블 디바이스(6)와 사용자 단말(7-2)을 연결할 수 있다. 무선방식을 이용하여 연결하거나 무선방식을 병행하여 사용할 수도 있다. 웨어러블 디바이스(6)에 촬영부가 장착되고 사용자 단말(7-2)의 배터리를 이용할 수 있다.As another example, the wearable device 6 may be in a form associated with a user terminal (e.g., smartphone) 7-2. The connection unit 8 connects the wearable device 6 and the user terminal 7-2. The connection unit 8 can connect the wearable device 6 and the user terminal 7-2 by wire as shown in FIG. It is also possible to use a wireless connection or a wireless connection in parallel. The photographing unit may be mounted on the wearable device 6 and the battery of the user terminal 7-2 may be used.

시력 보조장치(2)는 사용자 제스처, 예를 들어, 손바닥을 보인다든지 주먹을 쥐는 동작을 통해 사용자가 하고자 하는 의도를 파악하여 파악된 의도에 맞는 시력 보조 서비스를 제공한다. 예를 들어, 사용자(4)가 손바닥을 보이는 제스처를 보이면, 주변의 위험요소와 사용자(4) 간의 거리를 추정하고 이를 안내하는 서비스를 제공한다. 사용자(4)가 멀리 떨어진 대상을 지시하더라도 이를 제스처를 통해 인지한다는 점에서 증강현실 기술이 적용된다.The vision assistant device 2 grasps a user's intention through a user gesture, for example, a palm or fist clenching operation, and provides a vision assistant service according to the intent that is grasped. For example, if the user 4 shows a gesture showing the palm of his hand, he or she estimates the distance between the user and the surrounding risk factors and provides a service to guide the user. The augmented reality technique is applied in that the user 4 recognizes a distant object through a gesture.

시력 보조장치(2)는 촬영 영상으로부터 인공지능(AI) 기반 기계학습을 통해 객체를 구분해 음성으로 알려준다. 시력 보조장치(2)는 전면 객체와의 거리도 계산하여 알려준다. 객체를 인식하면 이를 문자 정보로 변환하고 다시 음성신호로 변환하는 음성변환 기술이 적용된다. 음성신호는 골전도 스피커를 통해 사용자(4)에 전달될 수 있다.The vision assistant 2 distinguishes objects from the photographed images through artificial intelligence (AI) -based machine learning and informs them by voice. The vision assistant 2 also calculates and communicates the distance to the front object. When the object is recognized, a voice conversion technique for converting it into character information and converting it back to a voice signal is applied. The voice signal can be transmitted to the user 4 via the bone conduction speaker.

원격관리장치(1)는 시력 보조장치(2)로부터 로그 데이터를 수집하고, 기기 상태를 파악하는 모니터링을 수행한다. 이때, 모니터링 결과에 따라 조치가 필요한 경우 이를 조치하며, 시력 보조장치(2)에 대한 원격제어도 가능하다. 모니터링 및 원격제어는 실시간으로 이루어질 수 있다. 원격관리장치(1)는 사용자 이미지, 동영상 등을 수집하여 이를 데이터베이스에 저장해 둘 수 있다.The remote management apparatus 1 collects log data from the vision assist apparatus 2 and performs monitoring to grasp the state of the apparatus. At this time, when the action is required according to the monitoring result, the action is taken, and the vision assist device 2 can be remotely controlled. Monitoring and remote control can be done in real time. The remote management apparatus 1 can collect user images, moving images, and the like, and store them in a database.

원격관리장치(1)는 에러 예측에 따라 에러 발생 이전에 조치하는 사전 서비스를 제공한다. 이때, 관리자(5)에게 에러 상태를 모니터링하여 경고함에 따라 관리자(5)가 이를 제거하도록 지시할 수 있다. 관리자(5)는 센터 담당자 또는 로컬 엔지니어일 수 있다. 센터 담당자는 총괄 권한이 있는 담당자이다. 로컬 담당자는 고장 원인에 따라 현장에서 직접 조치할 수 있는 로컬 엔지니어이다. 원격관리장치(1)는 시력 보조장치(2)의 부품 불량, 장치 불량, 배터리 소진, 긴급상황 발생 등을 모니터링하여 관리자(5)가 조치하도록 지시한다. 시력 보조장치(2)에 긴급상황이 발생하면 이를 관리자(5)에 경고한다. 시력 보조장치(2)의 기기 자체나 부품에 문제가 발생하면, 문제가 발생한 기기 또는 부품을 사전 교체하도록 관리자(5)에 지시한다.The remote management apparatus 1 provides an advance service to take action before an error occurs according to an error prediction. At this time, the manager 5 can be instructed to remove the error state by monitoring and warning the error state. The manager (5) may be a center person or a local engineer. The person in charge of the center is the person who has the authority for general affairs. The local engineer is a local engineer who can take action on site in case of failure. The remote management apparatus 1 monitors the defective parts of the vision assist device 2, the defective unit, the exhaustion of the battery, the occurrence of an emergency, and instructs the manager 5 to take measures. And warns the manager (5) when an emergency occurs in the vision assistant (2). If a trouble occurs in the device itself or the parts of the vision assist device 2, the administrator 5 is instructed to replace the problematic device or parts in advance.

조치의 다른 예로, 시력 보조장치(2)에 직접 기기 제어 명령을 전송하여 시력 보조장치(2)를 제어한다. 예를 들어, 시력 보조장치(2)의 배터리 잔량이 미리 설정된 값 이하인 경우, 배터리를 교체하라는 제어 명령을 전송하여 시력 보조장치(2) 사용자가 이를 교체하도록 한다.As another example of the measure, the device 2 is directly controlled by transmitting a device control command to the vision assist device 2. For example, if the battery remaining amount of the vision assistant device 2 is less than a predetermined value, a control command to replace the battery is sent so that the user of the vision assistant device 2 can replace the battery.

관리자(5)는 원격관리장치(1)를 사용하는 사람으로서, 원격관리장치(1)를 통해 제공되는 정보를 확인한다. 이때, 관리자(5)는 에러 예측 결과를 다양한 관리자 단말, 예를 들어 컴퓨터, 데스크 탑, 테블릿 PC, 스마트폰 등을 통해 모니터링하면서 시력 보조장치(2)의 에러를 사전에 인식한다. 관리자(5)가 에러를 사전에 인식하면 해당 시력 보조장치(2)를 대상으로 원격진단(remote diagnosis) 및 복구(repair) 할 수 있다.The manager 5 confirms the information provided through the remote management apparatus 1 as a person who uses the remote management apparatus 1. At this time, the manager 5 recognizes the error of the vision assist device 2 in advance while monitoring the error prediction result through various manager terminals, for example, a computer, a desk top, a tablet PC, a smart phone or the like. When the administrator 5 recognizes an error in advance, the remote assistant can perform remote diagnosis and repair on the vision assist device 2.

관리자(5)는 원격관리장치(1)로부터 시력 보조장치(2)에 대한 에러 예측에 따른 경고 메시지를 소정의 방식으로 통보받을 수 있다. 소정의 방식이라 함은, 전화(call), 문자 메시지(MMS), 이메일(E-mail) 등일 수 있다. 관리자(5)는 경고 메시지를 통보받으면, 즉시 에러가 예측되는 시력 보조장치(2)에 대한 조치를 취하거나, 소정의 시점, 예를 들어 정기점검 때에 해당 시력 보조장치(2)를 점검할 수 있다.The manager 5 can receive a warning message according to the error prediction for the vision assist device 2 from the remote management apparatus 1 in a predetermined manner. The predetermined method may be a call, a text message (MMS), an email (E-mail), or the like. When the manager 5 is notified of the warning message, the manager 5 can immediately take an action on the vision assist device 2 in which an error is predicted, or can check the vision assist device 2 at a predetermined time, for example, have.

사전 서비스의 실시 예를 들면, 시력 보조장치(2)의 사용자가 집을 나가기 전에, 집에서 시력 보조장치(2)를 가지고 Wi-Fi 연결을 통해 원격관리장치(1)에 접속하고, 시력 보조장치(2)의 기기 상태 정보를 원격관리장치(1)에 전송한다. 배터리 잔량을 예로 들면, 원격관리장치(1)는 수신된 기기 상태 정보 내 배터리 잔량이 미리 설정된 임계값, 예를 들어 60% 이상이면 정상인 것으로 판단하여 사용자에게 정상임을 알린다. 사용자가 활동을 하다 카페에 들어가 Wi-Fi 연결을 통해 원격관리장치(1)에 접속하고, 원격관리장치(1)는 수신된 기기 상태 정보 내 배터리 잔량이 미리 설정된 임계값, 예를 들어 30% 이하이면, 사용자에게 "배터리를 갈아 주세요." 또는 "배터리를 충전해주세요." 등의 경고신호를 생성한다. 경고신호에 따라 사용자는 배터리를 갈거나 충전함에 따라 배터리 문제를 해결한다.As an example of the dictionary service, a user of the vision assistant device 2 may connect with the remote management device 1 via a Wi-Fi connection with the sight assistant device 2 at home, (2) to the remote management apparatus (1). Taking the remaining battery level as an example, the remote management apparatus 1 determines that the remaining battery level in the received device status information is normal if it is a predetermined threshold value, for example, 60% or more, and informs the user that the remaining battery level is normal. When the user enters the cafe and connects to the remote management apparatus 1 via the Wi-Fi connection, the remote management apparatus 1 determines that the remaining battery level in the received device status information is a predetermined threshold value, for example, 30% If it is below, please tell the user "Please change the battery." Or "Please charge the battery." And the like. In response to the warning signal, the user solves the battery problem by charging or charging the battery.

에러 예측에 따른 사전 서비스를 위해 임계값을 미리 설정할 수 있다. 그리고 미리 설정된 임계값과 시력 보조장치(2)로부터 수신된 기기 상태 정보 값을 비교하여 에러를 예측할 수 있다. 임계값은 시력 보조장치(2)의 사용자가 설정할 수 있고, 원격관리장치(1)가 빅 데이터 기반 분석을 통해 미리 설정해 놓을 수 있다. 사용자 설정의 예로서, 사용자가 배터리 잔량이 30% 이하가 되면 원격관리장치(1)가 이를 자동으로 알림 하도록 설정할 수 있다.A threshold value can be set in advance for the advance service according to the error prediction. Then, the error can be predicted by comparing the preset threshold value with the device state information value received from the visual aid auxiliary device 2. The threshold value can be set by the user of the sight assistant device 2, and the remote management device 1 can preset it through the big data base analysis. As an example of the user setting, the user can set the remote management apparatus 1 to automatically notify the user when the remaining battery power reaches 30% or less.

원격관리장치(1)의 사전 서비스는 미리 설정된 주기, 예를 들어 3분마다 한 번씩 이루어질 수 있다. 또는 모니터링을 하다가 이벤트, 예를 들어 배터리를 교체해야 하는 상황이 발생할 때 사전 서비스가 이루어질 수 있다.The advance service of the remote management apparatus 1 can be performed at a predetermined cycle, for example, once every three minutes. Or when an event, for example, a battery needs to be replaced, occurs during monitoring, advance service can be performed.

도 13은 본 발명의 일 실시 예에 따른 시력 취약계층을 위한 지능형 서비스 시스템의 적용 시나리오 조합 예를 도시한 참조도이다.FIG. 13 is a reference diagram showing an example of a combination of application scenarios of an intelligent service system for a vulnerable group of eyesight according to an embodiment of the present invention.

도 12 및 도 13을 참조하면, 시력 보조장치(2)는 사용자의 제스처를 인식한다(610). 제스처의 형태는 동작형태, 정지형태, 또는 동작과 정지가 혼합된 형태일 수 있다. 동작형태의 예로는 손을 좌우로 흔드는 제스처가 있고, 정지형태의 예로는 손을 편 채 있는 그대로 있는 제스처가 있다.12 and 13, the vision assistant 2 recognizes the gesture of the user (610). The shape of the gesture can be an action shape, a stop shape, or a mixture of motion and stop. An example of an action type is a gesture that shakes the hand side to side, and an example of the stop type is a gesture with the hand held.

시력 보조장치(2)는 인공지능(AI) 기반 기계학습을 통해 촬영 영상에서 객체를 인식한다(620). 객체인식은 객체의 종류 인식, 윤곽 인식을 포함한다. 종류 인식은 사람(person)인지 사물인지, 사물이면 개(dog)인지 의자(chair)인지를 구분하는 것이다. 윤곽 인식을 통해서 사람을 구별할 수 있다. 나아가 지문인식도 구현할 수 있다.The vision assistant 2 recognizes the object in the photographed image through artificial intelligence (AI) based machine learning 620. Object recognition includes object recognition and contour recognition. Classification recognizes whether a person is a person or an object, or whether a person is a dog or a chair. People can be distinguished through outline recognition. Furthermore, fingerprint recognition can be implemented.

시력 보조장치(2)는 인식된 객체와 사용자 간의 깊이를 인지한다(630). 깊이 인지는 ToF 카메라를 통해 이루어질 수 있다. 또는 촬영 영상에 대한 영상 처리를 통해 이루어질 수도 있다. 예를 들어, 영상 데이터의 왜곡(distortion)에 기초하여 깊이를 인식한다. 카메라로 촬영된 영상은 가장자리로 갈수록 왜곡이 생기므로 이 왜곡을 펴주고 펴주는 정도에 따라 객체와 사용자 간의 거리를 계산한다. ToF 카메라는 교란이 일어나는 단점이 있어, ToF 카메라와 왜곡 기반 영상 처리 기술을 병행하여 사용할 수도 있다. 시력 보조장치(2)는 인공지능(AI) 기반 기계학습을 통해 촬영 영상에서 문자를 인식한다(640). 문자는 단어, 문장, 숫자, 기호 등을 포함한다.The vision assistant 2 recognizes the depth between the recognized object and the user (630). Depth perception can be achieved through a ToF camera. Or image processing of the photographed image. For example, depth is recognized based on distortion of image data. Since the image taken by the camera is distorted as it goes to the edge, the distance between the object and the user is calculated according to the extent of the distortion. The ToF camera has a disadvantage that the disturbance occurs, and the ToF camera and the distortion-based image processing technique can be used in parallel. The vision assistant 2 recognizes characters in the shot image through artificial intelligence (AI) based machine learning 640. Characters include words, sentences, numbers, symbols, and so on.

전술한 바와 같이, 증강현실 기반 제스처 인지(610), 기계학습 기반 사물 인지(620), 영상처리 기반 깊이 인지(630), 기계학습 기반 문자 인식(640) 등의 기술을 이용하여 시력 보조장치(2)를 다양한 시나리오에 사용할 수 있다. 예를 들어, 식당/레스토랑에서 음식 주문 시에 메뉴판의 메뉴를 인식하여 알려주는 시나리오(도 15 참조), 거실/서재에서 책이나 잡지를 읽어주는 시나리오(도 16 참조), 주변 사물과의 거리 고지를 통해 위험을 방지하는 시나리오(도 17 참조), 교차로에서 신호등 상태를 알려주는 시나리오(도 18 참조), 버스 정류장에서 버스번호를 안내하는 시나리오(도 19 참조), 지하철 출입구를 알려주는 시나리오(도 20 참조) 등에 다양하게 응용될 수 있다.As described above, by using techniques such as augmented reality-based gesture recognition 610, machine learning based object recognition 620, image processing based depth recognition 630, and machine learning based character recognition 640, 2) can be used for various scenarios. For example, there are scenarios (see FIG. 15) for recognizing menus on menu plates when ordering food at restaurants / restaurants (see FIG. 15), scenarios for reading books or magazines (See FIG. 18), a scenario (see FIG. 19) for guiding the bus number at the bus stop (see FIG. 19), and a scenario for notifying the subway entrance See Fig. 20).

도 14는 본 발명의 일 실시 예에 따른 시력 보조장치의 기능 개념을 도시한 개념도이다.FIG. 14 is a conceptual diagram illustrating the functional concept of the vision assist device according to an embodiment of the present invention.

도 14을 참조하면, 사용자가 시력 보조장치(2)의 웨어러블 디바이스(6)를 착용, 예를 들어 안경의 안경 다리에 장착하고 손바닥을 펴는 제스처(1400)를 취한다. 그러면 손바닥을 펴는 제스처(1400)를 증강현실 기반 개체 포인터로 인식하고 그에 맞는 동작 모드로 전환하여 시각정보 인식을 시작한다. 시각정보 인식의 예로는 기계학습 기반 사물 인지(1410), 거리 인지(1420), 문자 인지(1430) 등이 있다. 시각정보 인식이 이루어지면 인식된 시각정보를 문자 정보로 변환하고 변환된 문자 정보를 음성으로 변환하여 출력한다. 예를 들어, 도 14에 도시된 바와 같이, 촬영 영상에서 기계학습을 통해 사물(의자, 책상 등)을 인지하고 이를 사용자가 즉시 인지할 수 있는 수준으로 소리로 전환하여 “의자입니다.”, “책상입니다.”와 같은 형태로 고지한다.14, a user wears the wearable device 6 of the vision assistant device 2, for example, and takes a gesture 1400 for mounting the palm of the eyeglass on the eyeglass leg of the eyeglasses. Then, the palm-opening gesture 1400 is recognized as an augmented reality-based object pointer, and the operation mode corresponding thereto is started to recognize the visual information. Examples of visual information recognition include machine learning based object recognition (1410), distance recognition (1420), and character recognition (1430). When the visual information is recognized, the recognized visual information is converted into character information, and the converted character information is converted into voice and output. For example, as shown in Fig. 14, when a user recognizes objects (chairs, desks, etc.) through machine learning in a photographed image and converts them into sounds at a level that the user can immediately recognize, It is a desk. "

도 15 내지 도 20은 본 발명의 일 실시 예에 따른 시력 보조장치를 이용하여 구현 가능한 다양한 시나리오들을 도시한 예시도이다. 세부적으로, 도 15는 식당/레스토랑에서 음식주문 시나리오를, 도 16은 거실/서재에서 글 읽기 시나리오를, 도 17은 주변 사물과의 거리 고지를 통한 위험 방지 시나리오를, 도 18은 교차로에서 신호등 상태 파악 시나리오를, 도 19는 버스 정류장에서 버스번호 안내 시나리오를, 도 20은 지하철 출입구 확인 시나리오를 각각 보여준다.15 to 20 are views illustrating various scenarios that can be implemented using the vision assist device according to an embodiment of the present invention. 16 is a scenario for reading a text in a living room / study area, FIG. 17 is a risk prevention scenario for noticing a distance to nearby objects, FIG. 18 is a scenario for preventing a traffic light at an intersection FIG. 19 shows a bus number guidance scenario at a bus stop, and FIG. 20 shows a scenario for confirming a subway entrance.

도 15를 참조하면, 식당/레스토랑에서 음식주문을 위해 사용자는 메뉴판을 보고, 손가락 하나로 "야채김밥"이라는 메뉴를 가리킨다. 시력 보조장치는 손가락 지시를 증강현실을 기반으로 인지하고 촬영 영상 내 지시 위치를 인식한다. 그리고 인식된 위치의 '야채김밥 2000'이라는 문자 이미지를 기계학습을 이용하여 인식하며 인식된 문자 이미지를 음성으로 변환하여 출력한다. 사용자는 이를 청취 후 음식을 주문한다. 나아가, 증강현실 포인팅이 대기하고 있다가 사용자가 손가락으로 다른 위치를 지시하면 지시 위치 인식, 인식된 위치의 문자 이미지 인식, 인식된 문자 이미지에 대한 음성으로의 변환 및 출력 프로세스를 반복 수행한다.Referring to Fig. 15, in order to order food at a restaurant / restaurant, a user looks at a menu plate and points to a menu called " vegetable gibbet " with one finger. The visual aids recognize the finger point based on the augmented reality and recognize the pointing position in the shot image. Then, a character image called 'vegetable kimbap 2000' at the recognized position is recognized by using machine learning, and the recognized character image is converted into speech and outputted. The user orders food after listening to it. Furthermore, if the user indicates another position with the finger after waiting for the augmented reality pointing, recognition of the directing position, recognition of the character image at the recognized position, conversion of the recognized character image into voice, and output process are repeated.

이와 같은 방법은, 증강현실 기술이 적용된 포인터 인지 기술, 인공지능(AI) 기반 기계학습을 적용하여 메뉴판의 문자를 인식하는 기술, 메뉴판의 문자 인지 후 음성으로의 변환 및 출력 기술이 사용된다.In such a method, a pointer recognition technique using an augmented reality technique, a technique of recognizing a character of a menu plate by applying artificial intelligence (AI) based machine learning, .

도 16을 참조하면, 거실/서재에서 글 읽기를 위해 사용자는 책을 향해 V 제스처를 취한다. 글은 책, 신문, 잡지 등일 수 있다. 시력 보조장치는 V 제스처를 인지하고, 인지된 V 제스처를, 글 읽기를 위한 동작으로 인식하고 글 읽기 모드로 진입한다. 이때, 촬영 영상 내 책/잡지의 문자 이미지를 차례대로 기계학습을 이용하여 인식하며 인식된 문자 이미지를 음성으로 변환하여 출력한다.Referring to Figure 16, the user takes a V gesture toward the book for reading in the living room / study. Articles can be books, newspapers, magazines, and so on. The sight assistant recognizes the V gesture and recognizes the recognized V gesture as an action for reading the text and enters the text reading mode. At this time, the character image of book / magazine in the photographed image is sequentially recognized by using machine learning, and the recognized character image is converted into voice and outputted.

사용자는 계속 포인팅을 하지 않아도 청취하면서 책/잡지를 읽을 수 있다. 즉, 신문, 잡지 등 문자나 숫자의 사용이 빈번한 경우 연속 모드를 사용할 수 있고 연속 모드 지시를 인지하여 읽어주고 처리한다. 쇼핑, 약국을 갔을 때 제품에 기재된 읽기 어려운 아주 작은 글자들도 처리할 수 있도록 한다.The user can read books / magazines while listening without having to continue pointing. In other words, if letters or numbers are frequently used in newspapers, magazines, etc., the continuous mode can be used and the continuous mode instructions can be read and processed. Shopping, and pharmacies to handle very small letters that are difficult to read on the product.

이와 같은 방법은, 증강현실 기술이 적용된 포인터 인지 기술, 인공지능(AI) 기반 기계학습을 적용하여 책/잡지의 문자를 인식하는 기술, 책/잡지의 문자 인식 후 음성으로의 변환 및 출력 기술, 지속적으로 문자를 인식하고 이를 음성으로 출력하는 기술이 사용된다.Such methods include a technique of recognizing characters of a book / magazine by applying a pointer recognition technique using an augmented reality technique, an AI based machine learning, a technique of converting a book / A technique of continuously recognizing a character and outputting it as a voice is used.

도 17을 참조하면, 주변 사물로부터의 위험을 고지받기 위하여, 사용자가 문에 근접하면, 손바닥 제스처를 취한다. 시력 보조장치는 손바닥 제스처를 인지하고, 인지된 손바닥 제스처를 주변 사물과 부딪히지 않도록 깊이를 추정하고 이를 경고하기 위한 동작으로 인식하여 깊이 추정 모드로 진입한다. 이때, 촬영 영상에서 위험요소, 예를 들어 '문' 객체를 인식하고, 영상 처리를 통해 위험요소와 사용자 간 거리를 계산한다. 예를 들어, 촬영 영상의 왜곡 정도에 따라 위험요소와 사용자 간 거리를 계산할 수 있다. 이어서, 시력 보조장치는 계산된 거리를 포함한 경고신호를 음성으로 출력한다. 예를 들어, "3m 앞에 장애물이 있으니 조심하세요."라는 경고 메시지를 출력한다.Referring to FIG. 17, in order to be aware of the danger from nearby objects, the user takes a palm gesture when approaching the door. The sight assistant recognizes the palm gesture, recognizes the depth of the recognized palm gesture so that it does not hit the surrounding objects, and recognizes it as an operation to warn it, and enters the depth estimation mode. At this time, a risk element, for example, a 'door' object is recognized in the photographed image, and the distance between the risk element and the user is calculated through image processing. For example, the distance between the risk factor and the user can be calculated according to the distortion degree of the photographed image. Subsequently, the vision assistant outputs a warning signal including the calculated distance by voice. For example, a warning message "Be careful because there is an obstacle ahead of you" is displayed.

이와 같은 방법은, 증강현실 기술이 적용된 포인터 인지 기술, 인공지능(AI) 기반 기계학습을 적용하여 객체를 인식하는 기술, 영상왜곡 처리 이미지 프로세싱을 통해 깊이를 추정하는 기술, 객체 인식 후 음성으로의 변환 및 출력 기술이 사용된다.Such a method can be classified into a pointer recognition technique using augmented reality technology, a technique of recognizing an object by applying an AI-based machine learning, a technique of estimating a depth through image distortion processing image processing, Transformation and output techniques are used.

도 18을 참조하면, 교차로에서 신호등 상태를 파악하기 위해, 사용자는 교차로에서 건너편 신호등을 지시한다. 시력 보조장치는 손가락 지시를 증강현실을 기반으로 인지하고 촬영 영상 내 지시 위치를 인식한다. 그리고 인식된 위치의 신호등, 녹색, 60이라는 객체 이미지를 기계학습을 이용하여 인식하며 인식된 객체 이미지를 음성으로 변환하여 출력한다. 예를 들어, "녹색 불이고 60초 남았습니다."라는 음성을 출력한다. 사용자는 이를 청취 후 이동한다.Referring to Fig. 18, in order to grasp the traffic light condition at an intersection, the user indicates a traffic light across from the intersection. The visual aids recognize the finger point based on the augmented reality and recognize the pointing position in the shot image. Then, it recognizes the object image of the signal light, green, and 60 at the recognized position using machine learning, and converts the recognized object image into speech and outputs it. For example, a sound of "green light and 60 seconds remaining" is output. The user moves after listening.

이와 같은 방법은, 증강현실 기술이 적용된 포인터 인지 기술, 인공지능(AI) 기반 기계학습을 적용하여 신호등의 객체를 인식하는 기술, 신호등의 개체 인식 후 음성으로의 변환 및 출력 기술이 사용된다.In this method, a pointer recognition technique using augmented reality technology, a technique of recognizing an object of a traffic light by applying an AI-based machine learning, and a conversion and output technology of a signal after recognizing an object are used.

도 19를 참조하면, 버스 정류장에서 버스번호 안내를 받기 위해, 사용자는 4개의 손가락으로 버스를 지시한다. 시력 보조장치는 네 손가락의 지시를 버스번호 안내로 인식하고, 버스 및 해당 버스의 숫자 이미지를 기계학습을 이용하여 인식하며, 인식된 숫자 이미지를 음성으로 변환하여 출력한다. 예를 들어, "지금 버스는 5619번 입니다."라는 음성을 출력한다. 사용자는 이를 청취 후 버스에 탑승한다.Referring to Fig. 19, in order to receive the bus number guidance at the bus stop, the user instructs the bus with four fingers. The vision assistant recognizes the instructions of the four fingers as a bus number guide, recognizes the numerical image of the bus and the bus using machine learning, and converts the recognized numerical image into speech and outputs it. For example, the voice output is "The bus is now number 5619". The user then listens to it and board the bus.

도 20을 참조하면, 지하철 출입구를 확인받기 위해, 사용자는 4개의 손가락으로 지시 후 주먹을 쥐는 더블 액션(double action)을 수행한다. 시력 보조장치는 4개의 손가락으로 지시 후 주먹을 쥐는 동작을 지하철 출입구 정보 알림을 위한 제스처로 인식하고 해당 지하철 출입구의 문자/ 색상을 기계학습을 이용하여 인식하며 인식된 이미지를 음성으로 변환하여 출력한다. 예를 들어, “청색 1호선 종각역 2번 출입구입니다.”라는 음성을 출력한다.Referring to FIG. 20, in order to confirm the subway entrance, the user performs a double action of grasping the fist after instructing with four fingers. The sight assistant recognizes the action of gripping the punch after four fingers as a gesture for informing the subway entrance information, recognizes the character / color of the subway entrance using machine learning, and converts the recognized image into voice and outputs it . For example, "Blue line 1 is Jonggak station 2 exit."

이와 같은 방법은, 증강현실 기술이 적용된 포인터 인지 기술, 인공지능(AI) 기반 기계학습을 적용하여 지하철 출입구의 객체를 인식하는 기술, 지하철 출입구의 개체 인식 후 음성으로의 변환 및 출력 기술이 사용된다.In this method, a pointer recognition technique using an augmented reality technology, a technique of recognizing an object at a subway entrance by applying an AI-based machine learning, and a technique of converting and outputting a voice after recognizing an object at a subway entrance are used .

이하, 전술한 도 15 내지 도 20의 다양한 시나리오를 수행하기 위한 시력 보조장치의 프로세스를 상세히 후술한다.Hereinafter, the process of the vision assistant for performing the various scenarios of FIGS. 15 to 20 described above will be described in detail below.

도 15 내지 도 20을 참조하면, 시력 보조방법은 시력 취약계층 사용자의 전면에서 영상을 촬영하는 단계, 촬영 영상에서 소정의 사용자 제스처를 감지하는 단계, 감지된 소정의 사용자 제스처를 소정의 동작 수행을 위한 증강현실 기반 제스처 포인터로 인식하고 인식된 사용자 제스처와 대응되는 소정의 동작 모드를 결정하는 단계, 결정된 동작 모드 별로 촬영 영상으로부터 인공지능 기반 기계학습을 통해 시각정보를 인식하는 단계, 인식된 시각정보를 청각정보로 변환하여 출력하는 단계를 포함한다.15 to 20, the vision assisting method includes the steps of photographing an image on the front face of a user with a weak vision layer, detecting a predetermined user gesture on the photographed image, performing a predetermined operation on the detected predetermined user gesture Determining a predetermined operation mode corresponding to the recognized user gesture for the augmented reality based gesture pointer for the determined operation mode, recognizing the visual information through artificial intelligence based machine learning from the photographed image for each determined operation mode, Into audible information and outputting the audible information.

도 15의 식당/레스토랑에서 음식주문 시나리오의 경우, 시력 보조장치는 소정의 동작 모드를 결정하는 단계에서, 감지된 사용자 제스처를 정보 안내를 위한 제스처 포인터로 인식하여 정보 안내 모드로 진입하고, 시각정보를 인식하는 단계에서, 감지된 사용자 제스처 중 손가락을 촬영 영상 내 증강현실 포인터로 인식하고 촬영 영상 내에서 증강현실 포인터가 지시하는 위치의 문자 이미지를 인식하며, 청각정보로 변환하여 출력하는 단계에서, 증강현실 포인터가 지시하는 위치의 문자 이미지를 문자정보로 변환하고 변환된 문자정보를 청각정보로 변환하여 출력할 수 있다.In the case of the food ordering scenario in the restaurant / restaurant of FIG. 15, in the step of determining the predetermined operation mode, the sight assistant device recognizes the sensed user gesture as a gesture pointer for information guidance and enters the information guidance mode, Recognizing a finger of the sensed user gesture as an augmented reality pointer in the photographed image, recognizing a character image at a position pointed by the augmented reality pointer in the photographed image, converting the sensed user gesture into auditory information, The character image at the position indicated by the augmented reality pointer can be converted into character information, and the converted character information can be converted into auditory information and output.

도 16의 거실/서재에서 글 읽기 시나리오의 경우, 시력 보조장치는 소정의 동작 모드를 결정하는 단계에서, 감지된 사용자 제스처를 책 읽기 동작 수행을 위한 제스처 포인터로 인식하여 글 읽기 모드로 진입하고, 시각정보를 인식하는 단계에서, 글 내에서 문자 이미지를 인식하며, 청각정보로 변환하여 출력하는 단계는, 글 내에서 인식된 문자 이미지를 문자정보로 변환하고 변환된 문자정보를 청각정보로 변환하여 출력할 수 있다. 여기서, 글 읽기 모드는 연속 모드로서, 시력 보조장치는 사용자가 계속 포인팅을 하지 않아도 글 내 문자 이미지를 차례대로 기계학습을 이용하여 인식하며 인식된 문자 이미지를 차례대로 음성으로 변환하여 출력할 수 있다.16, in the step of determining a predetermined operation mode, the vision assist device recognizes the sensed user gesture as a gesture pointer for performing a book reading operation, enters a writing reading mode, In the step of recognizing the visual information, the step of recognizing the character image in the text, converting the text image into auditory information and outputting the converted image, converts the character image recognized in the text into character information, converts the converted character information into auditory information Can be output. Here, the text reading mode is a continuous mode, and the vision assistant recognizes the character image in the text sequentially by machine learning without continuously pointing the user, and converts the recognized character image to speech in turn and outputs it .

도 17의 주변 사물과의 거리 고지를 통한 위험 방지 시나리오의 경우, 시력 보조장치는 소정의 동작 모드를 결정하는 단계에서, 감지된 사용자 제스처를 깊이 추정을 위한 제스처 포인터로 인식하여 깊이 추정 모드로 진입하고, 시각정보를 인식하는 단계에서, 촬영 영상에서 전면의 객체 이미지를 인식하고 영상 분석을 통해 객체와 사용자 간의 거리를 인식하며, 청각정보로 변환하여 출력하는 단계에서, 인식된 객체 이미지와 사용자 간의 거리 정보를 문자정보로 변환하고 변환된 문자정보를 청각정보로 변환하여 출력할 수 있다.In the case of the risk avoidance scenario through the distance notice to the surrounding object in FIG. 17, in the step of determining the predetermined operation mode, the vision assist device recognizes the detected user gesture as a gesture pointer for depth estimation, In the step of recognizing the visual information, the object image on the front face is recognized on the photographed image, the distance between the object and the user is recognized through image analysis, and the converted image is converted into auditory information, The distance information may be converted into character information, and the converted character information may be converted into auditory information and output.

도 18의 교차로에서 신호등 상태 파악 시나리오의 경우, 시력 보조장치는 소정의 동작 모드를 결정하는 단계에서, 감지된 사용자 제스처를 신호등 안내를 위한 제스처 포인터로 인식하여 신호등 안내 모드로 진입하고, 시각정보를 인식하는 단계에서, 감지된 사용자 제스처 중 손가락을 촬영 영상 내 증강현실 포인터로 인식하고 증강현실 포인터가 지시하는 위치의 신호등 색상정보 및 남은 시간정보를 포함하는 신호등 상태를 인식하며, 청각정보로 변환하여 출력하는 단계에서, 인식된 신호등 상태를 문자정보로 변환하고 변환된 문자정보를 청각정보로 변환하여 출력할 수 있다.18, in the step of determining a predetermined operation mode, the vision assist device recognizes the detected user gesture as a gesture pointer for guiding the traffic light, enters the traffic light guiding mode, Recognizes a finger of the detected user gesture as augmented reality pointer in the photographed image, recognizes the signal light state including the signal color color information and the remaining time information of the position pointed by the augmented reality pointer, converts it into auditory information In the outputting step, the recognized state of the traffic lights can be converted into character information, and the converted character information can be converted into auditory information and output.

도 19의 버스 정류장에서 버스번호 안내 시나리오의 경우, 시력 보조장치는 소정의 동작 모드를 결정하는 단계에서, 감지된 사용자 제스처를 버스 번호 안내를 위한 제스처 포인터로 인식하여 버스 번호 안내 모드로 진입하고, 시각정보를 인식하는 단계에서, 촬영 영상 내에서 제스처 포인터가 지시하는 위치를 인식하고 인식된 위치의 숫자 이미지를 인식하며, 청각정보로 변환하여 출력하는 단계에서, 인식된 숫자 이미지를 문자정보로 변환하고 변환된 문자정보를 청각정보로 변환하여 출력할 수 있다.In the case of the bus number guidance scenario in Fig. 19, in the step of determining the predetermined operation mode, the vision assist device recognizes the detected user gesture as a gesture pointer for bus number guidance, enters the bus number guidance mode, Recognizing the position indicated by the gesture pointer in the photographed image and recognizing the numerical image of the recognized position in the step of recognizing the visual information, converting the recognized numeric image into character information And convert the converted character information into auditory information and output it.

도 20의 지하철 출입구 확인 시나리오의 경우, 시력 보조장치는 소정의 동작 모드를 결정하는 단계에서, 감지된 사용자 제스처를 지하철 안내를 위한 제스처 포인터로 인식하여 지하철 안내 모드로 진입하고, 시각정보를 인식하는 단계에서, 촬영 영상 내에서 제스처 포인터가 지시하는 위치를 인식하고 인식된 위치의 색상 이미지 및 문자 이미지를 인식하며, 청각정보로 변환하여 출력하는 단계에서, 인식된 색상 이미지 및 문자 이미지를 문자정보로 변환하고 변환된 문자정보를 청각정보로 변환하여 출력할 수 있다.20, in the step of determining a predetermined operation mode, the vision assist device recognizes the detected user gesture as a gesture pointer for guiding the subway, enters the subway guide mode, and recognizes the time information Recognizes the position indicated by the gesture pointer in the photographed image, recognizes the color image and the character image at the recognized position, converts the recognized color image and the character image into the character information Converts the converted character information into auditory information, and outputs the converted information.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

1: 원격관리장치 2: 시력 보조장치
3: 네트워크 4: 사용자
5: 관리자 6: 웨어러블 디바이스
7-1: 제어장치 7-2: 사용자 단말
10: 인증 관리부 11: 모니터링부
12: 네트워크 연결부 13: 원격 제어부
14: 데이터 처리부 15: 클라이언트 관리부
16: 프로토콜 처리부 17: 데이터 분석부
20: 촬영부 21: 입력부
22: 출력부 23: 프로세서
24: 배터리 25: 클라이언트 에이전트
26: 통신부 26: 메모리
60: 바디 62: 카메라
64: 골전도 스피커 66: 결합부
68: 전원 버튼 69: 볼륨 조절 버튼
231: 제1 영상 처리부 232: 제2 영상 처리부
233: 신호 처리부 234: 제스처 감지부
235: 기기 제어부 236: 원격제어 처리부
1: remote management device 2: vision assist device
3: Network 4: User
5: Manager 6: Wearable device
7-1: Control device 7-2: User terminal
10: authentication management unit 11: monitoring unit
12: network connection unit 13: remote control unit
14: data processor 15: client manager
16: protocol processing unit 17: data analysis unit
20: photographing section 21: input section
22: output unit 23: processor
24: Battery 25: Client Agent
26: communication unit 26: memory
60: Body 62: Camera
64: bone conduction speaker 66:
68: Power button 69: Volume control button
231: first image processing unit 232: second image processing unit
233: Signal processing unit 234: Gesture detection unit
235: Device control section 236: Remote control processing section

Claims (12)

시력 취약계층인 사용자의 일반 안경에 착용 가능한 시력 취약계층인 사용자의 일반 안경에 착용 가능한 형태를 가지며, 사용자 전면에서 영상을 촬영하고 제어장치를 통해 생성된 청각정보를 출력하는 웨어러블 디바이스;
촬영 영상 데이터로부터 인공지능 기반 기계학습을 통해 객체, 문자 및 깊이 중 적어도 하나를 포함하는 시각정보를 인식하고 인식한 시각정보를 청각정보로 변환하는 제어장치; 및
상기 웨어러블 디바이스와 상기 제어장치를 연결하는 연결부; 를 포함하며,
상기 웨어러블 디바이스는
영상을 촬영하는 카메라, 청각정보를 전달하는 출력부 및 사용자의 일반 안경의 안경테 또는 안경 다리에 착탈하기 위한 결합부가 바디에 일체형으로 구비되는 것을 특징으로 하는 시력 보조장치.
A wearable device having a form that can be worn on a general eyeglass of a user, which is a vulnerable layer of sight which can be worn in a general eyeglass of a user who is a vulnerable layer of sight, and outputs auditory information generated by a control device;
A controller for recognizing visual information including at least one of an object, a character and a depth from artificial intelligence based machine learning from photographed image data and converting the recognized visual information into auditory information; And
A connection unit connecting the wearable device and the control device; / RTI >
The wearable device
A camera for capturing an image, an output unit for transmitting auditory information, and a coupling unit for attaching and detaching the eyeglass frame or the eyepiece of the user's general eyeglass to the body.
삭제delete 제 1 항에 있어서, 상기 출력부는
고막이 아닌 뼈를 통해 청각정보를 전달하는 골전도 스피커를 포함하는 것을 특징으로 하는 시력 보조장치.
The apparatus of claim 1, wherein the output section
And a bone conduction speaker for transmitting auditory information through the bone, not the eardrum.
제 3 항에 있어서,
상기 골전도 스피커는 다수 개이며, 이 중 적어도 하나는 지지대로 사용되는 것을 특징으로 하는 시력 보조장치.
The method of claim 3,
Wherein the plurality of bone conduction speakers are used, and at least one of them is used as a support.
제 1 항에 있어서, 상기 출력부는
적어도 일부가 바디에 삽입되고 나머지는 외부로 돌출된 다리 구조의 몸체; 및
몸체의 일단에 진동판 형태로 형성된 골전도 스피커; 를 포함하며,
골전도 스피커는 소정의 텐션을 가지는 것을 특징으로 하는 시력 보조장치.
The apparatus of claim 1, wherein the output section
At least a part of which is inserted into the body and the remainder is projected to the outside; And
A bone conduction speaker formed in the form of a diaphragm at one end of the body; / RTI >
Wherein the bone conduction speaker has a predetermined tension.
제 1 항에 있어서, 상기 결합부는
사용자의 안경의 안경테 또는 안경 다리를 수용하기 위한 수용 홀을 구비한 튜브 형태인 것을 특징으로 하는 시력 보조장치.
The apparatus of claim 1,
Wherein the eyepiece is in the form of a tube having a spectacle frame for the user's glasses or a receiving hole for receiving the spectacle legs.
제 1 항에 있어서, 상기 결합부는
신축성을 가진 소재로 구성되는 것을 특징으로 하는 시력 보조장치.
The apparatus of claim 1,
Wherein the visual acuity assisting device is made of a material having elasticity.
제 1 항에 있어서, 상기 결합부는
안경에 탈착되기 위한 자석을 포함하는 것을 특징으로 하는 시력 보조장치.
The apparatus of claim 1,
And a magnet for being detached from the spectacles.
제 1 항에 있어서, 상기 웨어러블 디바이스는
전원을 온오프하기 위한 전원 버튼; 및
볼륨 크기를 조절하기 위한 볼륨 조절 버튼; 를 더 포함하며,
전원 버튼 및 볼륨 조절 버튼은 양각 구조 또는 진동을 주는 방식을 포함하여 사용자에 손 감각을 제공하는 것을 특징으로 하는 시력 보조장치.
The wearable device of claim 1, wherein the wearable device
A power button for turning the power on and off; And
Volume control buttons to adjust volume; Further comprising:
Wherein the power button and the volume control button provide a sense of hand to the user, including a bracing or vibrating manner.
제 1 항에 있어서, 상기 제어장치는
촬영 영상으로부터 인공지능 기반 기계학습을 통해 시각정보를 인식하고 인식한 시각정보를 청각정보로 변환하는 프로세서; 및
상기 웨어러블 디바이스에 전원을 제공하는 배터리;
를 포함하는 것을 특징으로 하는 시력 보조장치.
The control device according to claim 1, wherein the control device
A processor for recognizing the visual information through artificial intelligence based machine learning from the photographed image and converting the recognized visual information into auditory information; And
A battery for supplying power to the wearable device;
Wherein the visual acuity assisting device comprises:
제 1 항에 있어서, 상기 제어장치는
사용자 단말에 포함되는 것을 특징으로 하는 시력 보조장치.
The control device according to claim 1, wherein the control device
And is included in the user terminal.
제 1 항에 있어서, 상기 연결부는
유선인 것을 특징으로 하는 시력 보조장치.
The connector according to claim 1,
Wherein the visual acuity assisting device is wired.
KR1020170172625A 2017-12-14 2017-12-14 Vision aids apparatus for the vulnerable group of sight comprising a removable wearable device and a control device KR101982848B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170172625A KR101982848B1 (en) 2017-12-14 2017-12-14 Vision aids apparatus for the vulnerable group of sight comprising a removable wearable device and a control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170172625A KR101982848B1 (en) 2017-12-14 2017-12-14 Vision aids apparatus for the vulnerable group of sight comprising a removable wearable device and a control device

Publications (1)

Publication Number Publication Date
KR101982848B1 true KR101982848B1 (en) 2019-05-28

Family

ID=66656795

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170172625A KR101982848B1 (en) 2017-12-14 2017-12-14 Vision aids apparatus for the vulnerable group of sight comprising a removable wearable device and a control device

Country Status (1)

Country Link
KR (1) KR101982848B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210080143A (en) * 2019-12-20 2021-06-30 주식회사 코이노 System for recognizing object through cooperation with user terminals and a server and method thereof
KR102382978B1 (en) * 2020-11-27 2022-04-05 주식회사 피씨티 Method to Assist Low Vision Person
US11789928B2 (en) 2020-11-12 2023-10-17 International Business Machines Corporation Dynamic namespace modification for virtual agents

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100405636B1 (en) 2000-05-23 2003-11-15 이성환 Wearable walking guidance device and method for the blind
KR20140033009A (en) * 2011-02-24 2014-03-17 아이시스 이노베이션 리미티드 An optical device for the visually impaired
CN104983511A (en) * 2015-05-18 2015-10-21 上海交通大学 Voice-helping intelligent glasses system aiming at totally-blind visual handicapped
KR20160063456A (en) * 2014-11-26 2016-06-07 아바드(주) A Service system and service method for guide blind person
KR101715472B1 (en) 2015-05-12 2017-03-14 금오공과대학교 산학협력단 Smart walking assistance device for the blind and Smart walking assistance system using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100405636B1 (en) 2000-05-23 2003-11-15 이성환 Wearable walking guidance device and method for the blind
KR20140033009A (en) * 2011-02-24 2014-03-17 아이시스 이노베이션 리미티드 An optical device for the visually impaired
KR20160063456A (en) * 2014-11-26 2016-06-07 아바드(주) A Service system and service method for guide blind person
KR101715472B1 (en) 2015-05-12 2017-03-14 금오공과대학교 산학협력단 Smart walking assistance device for the blind and Smart walking assistance system using the same
CN104983511A (en) * 2015-05-18 2015-10-21 上海交通大学 Voice-helping intelligent glasses system aiming at totally-blind visual handicapped

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210080143A (en) * 2019-12-20 2021-06-30 주식회사 코이노 System for recognizing object through cooperation with user terminals and a server and method thereof
KR102365087B1 (en) 2019-12-20 2022-02-21 주식회사 코이노 System for recognizing object through cooperation with user terminals and a server and method thereof
US11789928B2 (en) 2020-11-12 2023-10-17 International Business Machines Corporation Dynamic namespace modification for virtual agents
KR102382978B1 (en) * 2020-11-27 2022-04-05 주식회사 피씨티 Method to Assist Low Vision Person

Similar Documents

Publication Publication Date Title
KR102047988B1 (en) Vision aids apparatus for the vulnerable group of sight, remote managing apparatus and method for vision aids
US9095423B2 (en) Apparatus and method for providing failed-attempt feedback using a camera on glasses
CN106471419B (en) Management information is shown
KR101982848B1 (en) Vision aids apparatus for the vulnerable group of sight comprising a removable wearable device and a control device
WO2014140800A1 (en) Apparatus and method for executing system commands based oh captured image data
KR20160015142A (en) Method and program for emergency reporting by wearable glass device
KR102236358B1 (en) Systems and methods for protecting social vulnerable groups
KR102210340B1 (en) Shopping aids method and apparatus for the vulnerable group of sight
KR20210080140A (en) Indoor navigation method and system thereof
KR20160015704A (en) System and method for recognition acquaintance by wearable glass device
KR101653339B1 (en) System and method for recognizing signal switch by wearable glass device
KR102294978B1 (en) Systems and methods for protecting against danger and monitoring groups
US20140272815A1 (en) Apparatus and method for performing actions based on captured image data
KR101592398B1 (en) System and method for recognizing signal switch by wearable glass device
KR20160016196A (en) System and method for measuring advertising effect using wearable glass device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant