KR20210096945A - Cognitive Assistance System and Method for Visually Impaired - Google Patents

Cognitive Assistance System and Method for Visually Impaired Download PDF

Info

Publication number
KR20210096945A
KR20210096945A KR1020200010642A KR20200010642A KR20210096945A KR 20210096945 A KR20210096945 A KR 20210096945A KR 1020200010642 A KR1020200010642 A KR 1020200010642A KR 20200010642 A KR20200010642 A KR 20200010642A KR 20210096945 A KR20210096945 A KR 20210096945A
Authority
KR
South Korea
Prior art keywords
image
information
book
braille
text
Prior art date
Application number
KR1020200010642A
Other languages
Korean (ko)
Other versions
KR102325061B1 (en
Inventor
조진수
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020200010642A priority Critical patent/KR102325061B1/en
Publication of KR20210096945A publication Critical patent/KR20210096945A/en
Application granted granted Critical
Publication of KR102325061B1 publication Critical patent/KR102325061B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/004Details of particular tactile cells, e.g. electro-mechanical or mechanical layout
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/005Details of specially-adapted software to access information, e.g. to browse through hyperlinked information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72475User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
    • H04M1/72481User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for visually impaired users

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Vascular Medicine (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Child & Adolescent Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a cognitive assistance system and a method for the visually impaired, more specifically, to the cognitive assistance system and the method for the visually impaired that photograph an information target that a visually impaired person wants to perceive through a smart glass, recognize and analyze the photographed image based on an artificial intelligence technology to provide the analyzed information through a braille pad that can be tactilely recognized by the visually impaired and in case that a photographed image is book information comprising a book text, the contents of the book can be provided in Braille.

Description

시각장애인 인지보조 시스템 및 방법{Cognitive Assistance System and Method for Visually Impaired}Cognitive Assistance System and Method for Visually Impaired

본 발명은 시각장애인 인지보조 시스템 및 방법에 관한 것으로서, 보다 상세하게는 스마트 글래스를 통해 시각장애인이 인지하고자 정보 대상을 촬영하여 촬영한 이미지를 인공지능 기술에 기반하여 인식하고 분석하여, 분석한 정보를 시각장애인이 촉각적으로 인식할 수 있는 점자패드를 통해 제공할 수 있고, 촬영된 이미지가 도서 텍스트가 포함된 도서정보인 경우에는, 해당 도서 내용을 점자로 점역하여 제공할 수 있는 시각장애인 인지보조 시스템 및 방법에 관한 것이다.The present invention relates to a cognitive assistance system and method for the visually impaired, and more particularly, information obtained by photographing an information object to be recognized by the visually impaired through smart glasses and recognizing and analyzing an image captured based on artificial intelligence technology. can be provided through a braille pad that the visually impaired can tactilely recognize, and if the photographed image is book information containing book text, Auxiliary systems and methods.

최근 시각장애인 및 교통약자의 자유로운 보행을 보장하기 위한 많은 기술들의 연구로 인해 웨어러블 시장의 확대 사물인터넷 및 네트워크 자원의 풍부화로 가속화되고 있다. 자유로운 보행을 위한 장치로는 영상카메라, 초음파센서 및 가속도센서 등을 이용하는 스마트 지팡이와 스마트 안경 관련 기술이 있고, 대표적인 기술로는 물체를 식별하여 장애물을 검출하고 보행 가능 영역을 추출하는 기술, 랜드마크 심볼 정보를 인식하여 주위 환경 정보를 제공하는 기술, 시각장애인들이 보다 안전하고 편리한 보행이 가능하도록 사물지능통신(M2M: Machine-to-Machine) 기반의 지능형 보행보조 시스템 등의 기술이 연구 및 개발되고 있는 추세이다. 다만, 이러한 기술들은 대부분 시각장애인이 활용하기 어려운 스마트 기기를 필요로 하고, 제공되는 정보들은 대부분 음성을 출력하는 방법을 통해 사용자에게 제공되는 실정이다. 교통약자의 보행에 필요한 상세정보를 보다 시각장애인의 입장에서 직관적으로 제공하는 안내보행에 대한 요구가 증가되고 있다. 이러한 기술이 발달하고 있지만 시각장애인은 여전히 시각장애인에게 불친절한 환경에서 혼자 나가는 것을 꺼려하고 있고, 누군가의 도움 없이는 기본적인 생활이 쉽지 않은 것이 현 실정이다.Recently, the wearable market is accelerating due to the expansion of the wearable market due to the abundance of Internet of Things and network resources due to the research of many technologies to ensure the free walking of the visually impaired and the transportation weak. Devices for free walking include smart wands and smart glasses-related technologies using video cameras, ultrasonic sensors, and acceleration sensors. Technology that recognizes symbol information and provides information about the surrounding environment, and technologies such as machine-to-machine (M2M)-based intelligent walking assistance systems are being researched and developed to enable the visually impaired to walk more safely and conveniently. there is a trend However, most of these technologies require smart devices that are difficult for visually impaired people to use, and most of the information provided is provided to the user through a method of outputting a voice. There is an increasing demand for guided walking, which intuitively provides detailed information necessary for walking for the visually impaired. Although these technologies are being developed, blind people are still reluctant to go out alone in an environment unfriendly to the visually impaired, and the current situation is that basic life is not easy without someone's help.

또한, 시각장애인들은 도서관 등에 방문하여 서적이나 페이퍼를 열람하고자 하는 경우가 있고, 시각장애인 전용 도서관과 같은 곳에서는 점자책을 비치하여 편의를 증대시키고자 한다. 그러나, 이러한 점자책은 한정된 도서에 한하여 일부만 점자책으로 제작하여 배포하는 경우가 많고, 개인적으로 특정 서적에 대하여 점자책을 주문 제작하는 방법도 있지만 많은 비용이 드는 문제로 인해 시각장애인이 다양한 도서를 접하기에는 어려움이 있다.In addition, there are cases where the visually impaired want to visit a library or the like to read books or papers, and in places such as a library for the visually impaired, Braille books are provided to increase convenience. However, there are many cases of producing and distributing these Braille books only for a limited number of books. It is difficult to access.

이러한 문제점을 해결하기 위하여, 시각장애인들의 주변환경에 대한 정보를 촬영하여 전송할 수 있고, 이를 분석한 정보를 제공하고, 일반적인 스마트기기(스마트폰, 스마트 패드)등을 시각장애인이 이해하기 쉬운 점자로 이해하고, 점자책 뿐만 아니라 일반도서들도 점자패드를 통해 시각장애인들이 이해하기 쉬운 점자로 점역하여 제공함으로써, 시각장애인이 다양한 영상정보를 습득, 인지, 및 활용할 수 있게 하여 그들의 일상생활, 교육환경, 안전, 및 삶의 질을 차별화된 응용 기술로써 시각장애인들의 일상생활을 개선시킬 수 있는 서비스를 제공하는 것이 필요하나 이러한 종래의 기술은 전무하다.In order to solve this problem, information about the surrounding environment of the visually impaired can be filmed and transmitted, and the analyzed information is provided, and general smart devices (smartphones, smart pads), etc., can be easily understood by the visually impaired in Braille. By translating not only Braille books but also general books into easy-to-understand Braille through the Braille pad, the visually impaired can acquire, recognize, and utilize various image information, their daily life and educational environment. It is necessary to provide services that can improve the daily life of the visually impaired as differentiated application technologies for , safety, and quality of life, but there is no such conventional technology.

본 발명은 스마트 글래스를 통해 시각장애인이 인지하고자 정보 대상을 촬영하여 촬영한 이미지를 인공지능 기술에 기반하여 인식하고 분석하여, 분석한 정보를 시각장애인이 촉각적으로 인식할 수 있는 점자패드를 통해 제공할 수 있고, 촬영된 이미지가 도서 텍스트가 포함된 도서정보인 경우에는, 해당 도서 내용을 점자로 점역하여 제공할 수 있는 시각장애인 인지보조 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention recognizes and analyzes an image captured by photographing an information object to be recognized by the visually impaired through smart glasses based on artificial intelligence technology, and through a braille pad that enables the visually impaired to tactilely recognize the analyzed information. The purpose of the present invention is to provide a cognitive assistance system and method for the visually impaired that can be provided, and if the photographed image is book information including book text, the book content can be translated into Braille and provided.

상기와 같은 과제를 해결하기 위하여, 본 발명에서는, 시각장애인 인지보조 시스템으로서, 촬영모듈 및 통신모듈을 포함하고, 상기 촬영모듈에 의하여 촬영된 이미지를 사용자단말기에 송신하는 스마트글래스; 사용자단말기로부터 수신한 데이터에 기초하여 점자 출력을 수행하여 사용자에게 촉각 정보를 제공할 수 있는 점자패드; 및 사용자단말기와 데이터 송수신을 수행하는 서버;를 포함하고, 상기 서버는, 상기 이미지에서 객체를 검출하고, 이에 따라 상기 점자패드에서 출력이 될 점자출력정보 혹은 상기 사용자단말기, 점자패드, 혹은 스마트글래스 중 어느 하나에서 출력이 될 음성출력정보를 생성하는 사물검출부; 및 상기 사물검출부에서 상기 이미지에서 도서이미지를 검출하는 경우에, 상기 점자패드에서 점자출력될 해당 도서의 도서텍스트정보 및 도서이미지정보를 추출하는 북리더부;를 포함하는, 시각장애인 인지보조 시스템을 제공한다.In order to solve the above problems, in the present invention, there is provided a cognitive assistance system for the visually impaired, comprising: a smart glass including a photographing module and a communication module, and transmitting an image photographed by the photographing module to a user terminal; a braille pad capable of providing tactile information to a user by performing braille output based on data received from the user terminal; and a server that transmits and receives data to and from the user terminal, wherein the server detects an object in the image, and accordingly, braille output information to be output from the braille pad or the user terminal, braille pad, or smart glass an object detection unit generating audio output information to be output from any one of the following; And when the object detection unit detects a book image from the image, a book reader unit for extracting the book text information and the book image information of the book to be output in Braille from the braille pad; Containing, a cognitive assistance system for the visually impaired to provide.

본 발명의 일 실시예에서는, 상기 사물검출부는, 상기 이미지에서 검출한 객체의 수를 판별하는 단계; 및 검출한 상기 객체의 수가 2 이상인 경우에, 학습된 인공신경망을 통해 검출한 상기 객체를 인식하고, 인식한 상기 객체에 대한 상기 음성출력정보를 생성하는 단계;를 수행할 수 있다.In one embodiment of the present invention, the object detection unit, determining the number of objects detected in the image; and when the number of detected objects is two or more, recognizing the detected object through a learned artificial neural network, and generating the voice output information for the recognized object.

본 발명의 일 실시예에서는, 상기 사물검출부는, 상기 이미지에서 검출한 객체의 수를 판별하는 단계; 및 검출한 상기 객체의 수가 2 이상인 경우에, 학습된 인공신경망을 통해 검출한 상기 객체를 인식하고, 인식한 2 이상의 객체에 대한 좌표정보 및 인식한 2 이상의 객체에 대해 기설정된 기준에 따라 매핑된 아이콘정보를 포함하는 점자출력정보를 생성하는 단계;를 수행할 수 있다.In one embodiment of the present invention, the object detection unit, determining the number of objects detected in the image; and when the number of the detected objects is two or more, the detected object is recognized through a learned artificial neural network, and coordinate information for the two or more recognized objects and the mapped based on a preset criterion for the two or more recognized objects are mapped. generating braille output information including icon information; may be performed.

본 발명의 일 실시예에서는, 상기 사물검출부는, 상기 이미지에서 검출한 객체의 수를 판별하는 단계; 검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계; 인식한 객체에 대한 객체정보 및 인식한 객체로부터 추출한 특징점에 기초하여 객체의 형태가 표시되는 점자출력정보를 생성하는 딘계;를 수행할 수 있다.In one embodiment of the present invention, the object detection unit, determining the number of objects detected in the image; recognizing the object through a learned artificial neural network when the detected object is one; It is possible to perform a step of generating braille output information in which the shape of an object is displayed based on the object information on the recognized object and the feature points extracted from the recognized object.

본 발명의 일 실시예에서는, 상기 사물검출부는, 상기 이미지에서 검출한 객체의 수를 판별하는 단계; 검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계; 상기 이미지에 인식한 객체의 형태가 모두 포함되지 않은 경우, 인식한 객체에 대한 음성출력정보 및 상기 스마트글래스의 위치조절에 대한 가이드음성출력정보를 생성하는 단계;를 수행할 수 있다.In one embodiment of the present invention, the object detection unit, determining the number of objects detected in the image; recognizing the object through a learned artificial neural network when the detected object is one; When the shape of the recognized object is not all included in the image, generating audio output information for the recognized object and guide audio output information for adjusting the position of the smart glass; may be performed.

본 발명의 일 실시예에서는, 상기 사물검출부는, 상기 이미지에서 검출한 객체의 수를 판별하는 단계; 검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계; 및 상기 인공신경망을 통해 해당 객체가 인식되지 않는 경우, 상기 스마트글래스의 위치조절에 대한 가이드음성출력정보를 생성하는 단계;를 수행할 수 있다.In one embodiment of the present invention, the object detection unit, determining the number of objects detected in the image; recognizing the object through a learned artificial neural network when the detected object is one; and when the corresponding object is not recognized through the artificial neural network, generating guide voice output information for position adjustment of the smart glass.

본 발명의 일 실시예에서는, 상기 북리더부는, 상기 이미지에서 검출된 상기 도서이미지의 기울기 및 색상 중 1 이상을 기설정된 기준에 따라 변경하여 전처리하는 이미지전처리단계; 상기 이미지전처리단계에서 전처리된 이미지에 기초하여 1 이상의 텍스트영역 및 1 이상의 이미지영역을 도출하는 텍스트이미지영역도출단계; 도출된 상기 1 이상의 텍스트영역의 출력순서를 결정하고, 상기 출력순서에 따라 상기 1 이상의 텍스트영역에 포함된 텍스트를 인식하여 상기 점자패드에서 점자출력될 상기 도서텍스트정보를 도출하는 텍스트인식단계;를 수행할 수 있다.In an embodiment of the present invention, the book reader unit, an image pre-processing step of pre-processing by changing one or more of the gradient and color of the book image detected in the image according to a preset standard; a text image area deriving step of deriving at least one text area and at least one image area based on the image pre-processed in the image pre-processing step; A text recognition step of determining an output order of the derived one or more text areas, recognizing texts included in the one or more text areas according to the output order, and deriving the book text information to be output in Braille from the Braille pad; can be done

본 발명의 일 실시예에서는, 상기 북리더부에 의하여 제공되는 상기 점자패드에서의 화면은, 상기 이미지에서 검출된 도서이미지로부터 1 이상의 텍스트영역 및 1 이상의 이미지영역이 추출되어, 추출된 1 이상의 텍스트영역에 포함된 텍스트가 순차적으로 정렬되어 디스플레이되고, 사용자의 입력에 따라 상기 북리더부에 의하여 검출된 1 이상의 도서 이미지정보에 대한 리스트를 제공할 수 있다.In an embodiment of the present invention, one or more text areas and one or more image areas are extracted from the book image detected in the image, and the one or more texts are extracted from the screen on the braille pad provided by the book reader. Text included in the region may be sequentially arranged and displayed, and a list of one or more book image information detected by the book reader may be provided according to a user input.

본 발명의 일 실시예에서는, 상기 북리더부는, 도출된 상기 1 이상의 이미지영역에서 추출한 도서이미지정보를 인식하는 이미지인식단계;를 더 수행하고, 상기 북리더부에 의하여 제공되는 상기 점자패드에서의 화면은, 사용자의 입력에 따라 상기 1 이상의 도서이미지정보에 대한 리스트를 상기 이미지인식단계에서 인식한 이미지정보를 포함하여 제공할 수 있다.In an embodiment of the present invention, the book reader unit further performs an image recognition step of recognizing the book image information extracted from the derived one or more image areas, and in the braille pad provided by the book reader unit. The screen may provide a list of the one or more book image information according to a user's input, including image information recognized in the image recognition step.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 시각장애인 인지보조 시스템에서 구현되는 시각장애인 인지보조 서비스 제공방법으로서, 상기 시각장애인 인지보조 시스템은, 촬영모듈 및 통신모듈을 포함하고, 상기 촬영모듈에 의하여 촬영된 이미지를 사용자단말기에 송신하는 스마트글래스; 사용자단말기로부터 수신한 데이터에 기초하여 점자 출력을 수행하여 사용자에게 촉각 정보를 제공할 수 있는 점자패드; 및 사용자단말기와 데이터 송수신을 수행하는 서버;를 포함하고, 상기 서버는, 상기 이미지에서 객체를 검출하고, 이에 따라 상기 점자패드에서 출력이 될 점자출력정보 혹은 상기 사용자단말기, 점자패드, 혹은 스마트글래스 중 어느 하나에서 출력이 될 음성출력정보를 생성하는 사물검출단계; 및 상기 사물검출단계에서 상기 이미지에서 도서이미지를 검출하는 경우에, 상기 점자패드에서 점자출력될 해당 도서의 도서텍스트정보 및 도서이미지정보를 추출하는 북리더단계;를 포함하는, 시각장애인 인지보조 서비스 제공방법을 제공한다.In order to solve the above problems, in one embodiment of the present invention, as a method of providing a cognitive assistance service for the visually impaired implemented in a cognitive assistance system for the visually impaired, the cognitive assistance system for the visually impaired includes a photographing module and a communication module, , smart glasses for transmitting the image photographed by the photographing module to the user terminal; a braille pad capable of providing tactile information to a user by performing braille output based on data received from the user terminal; and a server that transmits and receives data to and from the user terminal, wherein the server detects an object in the image, and accordingly, braille output information to be output from the braille pad or the user terminal, braille pad, or smart glass an object detection step of generating audio output information to be output in any one; and a book reader step of extracting book text information and book image information of the book to be output in braille from the braille pad when the object detection step detects a book image from the image; provide a method for providing

본 발명의 일 실시예에 따르면, 스마트글래스를 통해 획득한 이미지를 분석하여 주변환경에 대한 정보를 시각장애인이 보다 정확하게 이해할 수 있는 점자정보로 제공함으로써, 직접 주변을 볼 수 없는 시각장애인들의 일상생활에서의 불편함을 개선할 수 있는 효과를 발휘할 수 있다. According to an embodiment of the present invention, by analyzing images acquired through smart glasses and providing information about the surrounding environment as braille information that the visually impaired can understand more accurately, the daily life of the visually impaired who cannot see the surroundings directly It can exert the effect of improving the discomfort in

본 발명의 일 실시예에 따르면, 스마트글래스를 통해 획득한 이미지를 분석하여 주변환경에 대한 정보를 시각장애인이 보다 직관적으로 이해할 수 있는 매핑된 아이콘을 포함하는 점자출력정보로 제공함으로써, 직접 주변을 볼 수 없는 시각장애인들이 해당 점자정보를 통해 주변환경을 보다 수월하게 인식할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by analyzing the image acquired through smart glass and providing information about the surrounding environment as braille output information including a mapped icon that the visually impaired can more intuitively understand, The blind people who cannot see can more easily recognize the surrounding environment through the Braille information.

본 발명의 일 실시예에 따르면, 스마트글래스를 통해 획득한 이미지를 분석하여 주변환경에 대한 정보 혹은 사물에 대한 정보를 음성정보로 제공함으로써, 직접 주변을 볼 수 없는 시각장애인들의 일생생활에서의 불편함을 개선할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by analyzing an image acquired through smart glasses and providing information about the surrounding environment or information about objects as voice information, inconvenience in the life of the visually impaired who cannot see the surroundings directly It can have the effect of improving the performance.

본 발명의 일 실시예에 따르면, 스마트글래스를 통해 획득한 도서이미지정보에서 해당 도서의 텍스트정보 및 그래픽정보를 추출하여 텍스트정보는 점역된 점자로 제공하고, 해당 그래픽정보는 리스트를 제공하여 사용자가 직접 모양을 점자정보로 만져볼 수 있도록 제공함으로써, 시각장애인의 인지보조를 효율적으로 할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the text information and graphic information of the corresponding book are extracted from the book image information obtained through the smart glass, the text information is provided in transliterated Braille, and the corresponding graphic information is provided in a list so that the user can By providing a way to directly touch the shape with Braille information, it is possible to effectively provide cognitive assistance for the visually impaired.

본 발명의 일 실시예에 따르면, 해당 도서이미지정보를 별다르게 설정하지 않더라도 텍스트의 순서에 따라 순차적으로 정렬하여 점역하여 제공함으로써, 사용자는 일반도서 혹은 페이터 등의 정보를 점역된 점자를 통해 직관적으로 내용을 이해할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, even if the corresponding book image information is not set differently, by sequentially arranging and translating the text according to the order of the text, the user intuitively provides information such as general books or pages through transliterated Braille. It can have the effect of understanding the content.

본 발명의 일 실시예에 따르면, 주변 환경에 있는 사물에 대한 정보를 언어적인 의미의 점자로 점역하여 제공할 뿐만 아니라 사물의 형태에 따른 점자정보를 디스플레이 함으로써, 사용자는 자신이 인지하지 못하는 사물의 형태에 대해서 보다 직관적으로 확인할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by not only translating and providing information on objects in the surrounding environment in braille with a linguistic meaning, but also displaying Braille information according to the shape of the object, the user can use the An effect that can be confirmed more intuitively with respect to the form can be exhibited.

도 1은 본 발명의 일 실시예에 따른 시각장애인 인지보조 시스템의 전체적인 형태를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 사물검출부의 동작을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 사물검출부가 점자출력정보를 생성하는 과정에서의 매핑된 아이콘정보를 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 사물검출부에 의하여 매핑된 아이콘정보에 따라 생성된 점자출력정보를 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 사물검출부에 의하여 매핑된 아이콘정보에 따라 생성된 점자출력정보를 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 사물검출부에 의하여 제공되는 사용자단말기 및 점자패드에서의 화면을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 스마트글래스를 통해 사용자가 촬영한 이미지를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 북리더부의 수행 단계를 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 북리더부에 의하여 제공되는 사용자단말기 및 점자패드에서의 화면을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 북리더부의 동작에 따른 도서이미지정보의 형태를 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 북리더부에 의하여 제공되는 사용자단말기 및 점자패드에서의 화면을 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 북리더부에 의하여 제공되는 사용자단말기 및 점자패드에서의 화면을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 컴퓨팅장치를 예시적으로 도시한다.
1 schematically shows the overall form of a cognitive assistance system for the visually impaired according to an embodiment of the present invention.
2 schematically illustrates an operation of an object detection unit according to an embodiment of the present invention.
3 schematically illustrates mapped icon information in a process of the object detection unit generating braille output information according to an embodiment of the present invention.
4 schematically illustrates braille output information generated according to icon information mapped by an object detection unit according to an embodiment of the present invention.
5 schematically illustrates braille output information generated according to icon information mapped by an object detection unit according to an embodiment of the present invention.
6 schematically shows a screen in a user terminal and a braille pad provided by an object detecting unit according to an embodiment of the present invention.
7 schematically illustrates an image captured by a user through smart glasses according to an embodiment of the present invention.
8 schematically illustrates the execution steps of a book reader according to an embodiment of the present invention.
9 schematically shows a screen in a user terminal and a braille pad provided by a book reader according to an embodiment of the present invention.
10 schematically shows the form of book image information according to the operation of the book reader according to an embodiment of the present invention.
11 schematically shows a screen in a user terminal and a braille pad provided by a book reader according to an embodiment of the present invention.
12 schematically shows a screen in a user terminal and a braille pad provided by a book reader according to an embodiment of the present invention.
13 exemplarily shows a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that other components may be further included rather than excluding other components unless otherwise stated.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드 (Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network;LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The "user terminal" referred to below may be implemented as a computer or portable terminal that can access a server or other terminal through a network. Here, the computer includes, for example, a laptop, a desktop, and a laptop equipped with a web browser (WEB Browser), and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code) Division Multiple Access)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro) terminals, and the like may include all types of handheld-based wireless communication devices. In addition, "network" refers to a wired network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN), or a mobile radio communication network or satellite. It may be implemented as any kind of wireless network, such as a communication network.

도 1은 본 발명의 일 실시예에 따른 시각장애인 인지보조 시스템의 전체적인 형태를 개략적으로 도시한다.1 schematically shows the overall form of a cognitive assistance system for the visually impaired according to an embodiment of the present invention.

본 발명의 시각장애인 인지보조 시스템은, 스마트글래스(2000), 사용자단말기(3000), 서버(1000) 및 점자패드(4000)를 포함한다. 도 1의 사용자단말기(3000) 혹은 스마트글래스(2000)는 전술한 사용자 단말에 해당할 수 있고, 서버(1000)는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치에 해당한다.The cognitive assistance system for the visually impaired of the present invention includes a smart glass 2000 , a user terminal 3000 , a server 1000 , and a braille pad 4000 . The user terminal 3000 or the smart glass 2000 of FIG. 1 may correspond to the aforementioned user terminal, and the server 1000 corresponds to a computing device including one or more processors and one or more memories.

상기 사용자단말기(3000)는, 스마트글래스(2000), 서버(1000) 및 점자패드(4000)와 통신하여, 스마트글래스(2000)에서 촬영된 이미지를 서버(1000)로 송신하고, 이미지를 수신한 서버(1000)에서 인공지능 기술에 기반하여 분석된 이미지에 대한 정보를 수신하여, 스마트글래스(2000) 혹은 점자패드(4000)로 송신하여 음성출력정보 및 점자출력정보가 출력될 수 있도록 한다.The user terminal 3000 communicates with the smart glass 2000, the server 1000 and the braille pad 4000, transmits the image photographed by the smart glass 2000 to the server 1000, and receives the image. The server 1000 receives the information on the image analyzed based on the artificial intelligence technology, and transmits it to the smart glass 2000 or the braille pad 4000 so that the voice output information and the braille output information can be output.

상기 스마트글래스(2000)는, 촬영모듈, 스피커(2200)(2200), 통신모듈(2300) 및 버튼부(2400)를 포함한다. 상기 스마트글래스(2000)는 사용자가 안경을 착용하는 것과 같은 형태로 착용하여 구비된 버튼부(2400)를 통한 사용자의 입력에 따라 내장된 촬영모듈(2100)에 의하여 사용자의 시점에 따라 외부환경, 사물, 인물 등을 촬영할 수 있다. 또한 이와 같이 촬영된 이미지는 통신모듈(2300)에 의하여 사용자단말기(3000)에 송신된다. 스마트글래스(2000)는 통신모듈(2300)을 포함하여 사용자단말기(3000)와 통신할 수 있다. 상기 스피커(2200)는 사용자단말기(3000)로부터 수신한 음성출력정보를 출력할 수 있다. 또한, 버튼부(2400)는, 사용자의 입력에 따라 촬영모듈을 통해 촬영을 실행하여 외부환경을 촬영할 수 있도록 한다.The smart glass 2000 includes a photographing module, speakers 2200 and 2200 , a communication module 2300 , and a button unit 2400 . The smart glass 2000 is the external environment according to the user's point of view by the built-in photographing module 2100 according to the user's input through the button unit 2400 provided by the user wearing the glasses in the same form as wearing glasses; You can take pictures of objects, people, etc. Also, the photographed image is transmitted to the user terminal 3000 by the communication module 2300 . The smart glass 2000 may communicate with the user terminal 3000 including the communication module 2300 . The speaker 2200 may output audio output information received from the user terminal 3000 . In addition, the button unit 2400, according to the user's input, executes the photographing through the photographing module so that the external environment can be photographed.

한편, 상기 서버(1000)는, 상기 스마트글래스(2000)로부터 수신한 이미지에서 객체를 검출하는 사물검출부(1100) 및 사물검출부(1100)에서 도서이미지를 검출하는 경우에 해당 도서의 도서텍스트정보 및 도서이미지정보를 추출하는 북리더부(1200)를 포함한다.On the other hand, the server 1000, the object detection unit 1100 for detecting an object in the image received from the smart glass 2000, and when the object detection unit 1100 detects a book image, the book text information and and a book reader unit 1200 for extracting book image information.

상기 사물검출부(1100)는, 상기 스마트글래스(2000)로부터 수신한 이미지에서 객체를 검출하는 객체검출부(1110); 및 이미지로부터 추출한 객체에 따라 점자패드(4000)에서 출력이 될 점자출력정보 혹은 상기 사용자단말기(3000), 점자패드(4000), 혹은 스마트글래스(2000) 중 어느 하나에서 출력이 될 음성출력정보를 생성하는 객체정보생성부(1120)를 포함한다. 바람직하게는, 상기 점자출력정보는, 검출된 객체에 대한 정보가 점역된 점자출력정보일 수도 있고, 검출된 객체의 형태가 표현된 점자출력정보일 수도 있다.The object detection unit 1100 includes: an object detection unit 1110 for detecting an object in the image received from the smart glass 2000; And according to the object extracted from the image, the braille output information to be output from the braille pad 4000 or the voice output information to be output from any one of the user terminal 3000, the braille pad 4000, or the smart glass 2000 and an object information generating unit 1120 to generate it. Preferably, the braille output information may be braille output information in which information on the detected object is transliterated, or braille output information in which the shape of the detected object is expressed.

상기 북리더부(1200)는, 도서이미지를 전처리하는 이미지전처리부(1210), 전처리된 이미지로부터 텍스트영역 및 이미지영역을 도출하는 텍스트이미지영역도출부(1220), 도출된 텍스트영역에 포함된 텍스트를 인식하여 점자패드(4000)에서 출력된 도서텍스트정보를 도출하는 텍스트인식부(1230) 및 도서이미지정보를 인식하는 이미지인식부(1240);를 포함한다.The book reader unit 1200 includes an image pre-processing unit 1210 for pre-processing a book image, a text image area deriving unit 1220 for deriving a text area and an image area from the pre-processed image, and text included in the derived text area. and a text recognition unit 1230 for deriving book text information output from the braille pad 4000 and an image recognition unit 1240 for recognizing book image information;

상기 이미지전처리부(1210)는, 상기 이미지에서 검출한 객체에서 추출된 도서이미지의 기울기 및 색상 중 1 이상을 기설정된 기준에 따라 변경하여 전처리 한다. 본 발명의 주된 사용자는 시각 장애를 가지고 있거나, 원시, 근시, 난시, 고령층의 노안 등과 같은 이유로 시력이 현저하게 떨어지는 사람들이 될 수 있고, 이와 같은 사용자들의 입력에 따라 촬영된 이미지는 파악하고자 하는 객체의 모습이 이미지에 모두 담겨있지 않거나 혹은 기울어진 형태로 촬영될 수 있다. 따라서, 사용자의 입력에 따라 촬영된 도서이미지에서 정확한 도서텍스트정보를 추출하기 위해서, 이미지전처리부(1210)는, 촬영된 이미지가 기울어져 있는 경우, 도서이미지의 기울기를 기설정된 기준에 따라 변경할 수 있다. 또한, 본 발명에서는 인공지능 기술에 기반하여 이미지를 분석하고, 이미지영역 및 텍스트영역을 보다 확실하게 구분하기 위해 이미지를 흑백으로 이진화함으로써, 이미지영역 및 텍스트영역을 구분할 수 있다.The image pre-processing unit 1210 pre-processes by changing one or more of the gradient and color of the book image extracted from the object detected in the image according to a preset criterion. The main users of the present invention may be those who have a visual impairment or have significantly reduced visual acuity due to reasons such as farsightedness, myopia, astigmatism, presbyopia of the elderly, etc. may not be included in the image or may be photographed in an inclined form. Therefore, in order to extract accurate book text information from the book image captured according to the user's input, the image pre-processing unit 1210 may change the inclination of the book image according to a preset standard when the photographed image is tilted. there is. In addition, in the present invention, the image area and the text area can be distinguished by analyzing the image based on the artificial intelligence technology and binarizing the image into black and white in order to more reliably distinguish the image area and the text area.

상기 텍스트이미지영역도출부(1220)는, 상기 이미지전처리부(1210)에서 전처리된 이미지에 기초하여 해당 도서이미지에서 1 이상의 텍스트영역 및 1 이상의 이미지영역을 도출한다. 상기 텍스트이미지영역도출부(1220)는, 전처리된 이미지로부터 텍스트영역과 이미지영역을 도출하고, 도출된 텍스트영역 및 이미지영역은 점자패드(4000)에서 출력 가능한 신호로 변환되어 출력될 수 있다.The text image area deriving unit 1220 derives one or more text areas and one or more image areas from the book image based on the image pre-processed by the image pre-processing unit 1210 . The text image area deriving unit 1220 may derive a text area and an image area from the pre-processed image, and the derived text area and image area may be converted into signals outputable by the braille pad 4000 and output.

상기 텍스트인식부(1230)는, 텍스트이미지영역도출부(1220)로부터 도출된 1 이상의 텍스트영역의 출력순서를 결정하고, 상기 출력순서에 따라 상기 1 이상의 텍스트영역에 포함된 텍스트를 인식하여 상기 점자패드(4000)에서 점자출력될 상기 도서텍스트정보를 도출한다.The text recognition unit 1230 determines an output order of one or more text areas derived from the text image area extractor 1220, recognizes texts included in the one or more text areas according to the output order, and recognizes the Braille The pad 4000 derives the book text information to be output in Braille.

상기 이미지인식부(1240)는, 텍스트이미지영역도출부(1220)로부터 도출된 1 이상의 이미지영역을 학습된 인공신경망을 통해 인식하여 상기 점자패드(4000)에서 점자출력될 상기 도서이미지정보를 도출한다.The image recognition unit 1240 recognizes one or more image areas derived from the text image area deriving unit 1220 through the learned artificial neural network, and derives the book image information to be output in Braille from the braille pad 4000. .

한편, 점자패드(4000)는, 사용자단말기(3000)로부터 수신한 데이터에 기초하여 점자 출력을 수행하고 사용자에게 촉각 정보를 제공할 수 있다. 촉각그래픽을 제공할 수 있는 임의의 인터페이스장치, 사용자와 상호작용을 할 수 잇는 촉각인터페이스 장치 및 촉각 그래픽을 출력할 수 있는 컴퓨팅 장치를 모두 포함할 수 있다.Meanwhile, the braille pad 4000 may perform braille output based on data received from the user terminal 3000 and provide tactile information to the user. It may include any interface device capable of providing tactile graphics, a tactile interface device capable of interacting with a user, and a computing device capable of outputting tactile graphics.

이하에서는, 상기 서버(1000)에 구체적인 동작에 대해서 보다 자세하게 설명하도록 한다.Hereinafter, a detailed operation of the server 1000 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른, 사물검출부(1100)의 동작을 개략적으로 도시한다.2 schematically illustrates the operation of the object detection unit 1100 according to an embodiment of the present invention.

본 발명의 사물검출부(1100)는 전술한 바와 같이, 객체검출부(1110) 및 객체정보생성부(1120)를 포함한다. 객체검출부(1110)는, 스마트글래스(2000)로부터 수신한 이미지로부터 객체를 검출한다. 도 2의 (a)는 스마트글래스(2000)로부터 수신한 이미지의 일 예를 도시한다. 사용자는 외부 환경에서 스마트글래스(2000)를 착용한 상태로 보행 중에 자신의 주변 환경에 대한 정보를 얻기 위해 스마트글래스(2000)를 버튼부(2400)를 통해 촬영에 대한 입력을 할 수 있고, 이와 같이 촬영된 이미지는 통신모듈(2300)에 의하여 사용자단말기(3000)로 송신되어 상기 서버(1000)로 송신될 수 있다. 상기 서버(1000)의 사물검출부(1100)의 객체검출부(1110)는, 이와 같이 스마트글래스(2000)로부터 송신된 이미지를 수신하여 학습된 인공신경망을 통해 이미지에서 객체를 검출하고, 검출한 객체를 인식할 수 있다. 객체검출부(1110)의 동작으로 도 2의 (b)에 도시된 바와 같이 수신한 이미지에서 사용자가 보행하던 거리의 상점, 화장실, 차도의 자동차, 길가의 나무, 길을 걷는 여러명의 사람 등을 포함하는 이미지 상의 객체가 검출될 수 있다. 이와 같은 방식으로, 사물검출부(1100)의 객체검출부(1110)는 이미지로부터 객체를 검출한다. 이후, 사물검출부(1100)의 객체정보생성부(1120)는, 점자패드(4000)에서 출력이 될 점자출력정보 혹은 사용자단말기(3000), 점자패드(4000) 혹은 스마트글래스(2000) 중 어느 하나에서 출력이 될 음성출력정보를 생성한다. 본 발명의 사물검출부(1100) 및 북리더부(1200)는 학습된 인공신경망 모델을 포함하여 각각의 동작에 따라 객체를 검출하고, 해당 객체의 수에 따라 해당 객체에 대한 정보를 분석하여 사용자에게 제공할 수 있다.As described above, the object detecting unit 1100 of the present invention includes an object detecting unit 1110 and an object information generating unit 1120 . The object detection unit 1110 detects an object from the image received from the smart glass 2000 . FIG. 2A shows an example of an image received from the smart glass 2000. As shown in FIG. The user can input the smart glasses 2000 through the button unit 2400 to take pictures while walking while wearing the smart glasses 2000 in an external environment to obtain information about their surroundings. The photographed image may be transmitted to the user terminal 3000 by the communication module 2300 and transmitted to the server 1000 . The object detection unit 1110 of the object detection unit 1100 of the server 1000 receives the image transmitted from the smart glass 2000 in this way and detects an object in the image through the learned artificial neural network, and detects the detected object. can recognize In the image received as shown in (b) of FIG. 2 by the operation of the object detection unit 1110, a store on the street where the user walked, a toilet, a car on the road, a tree on the roadside, several people walking on the road, etc. An object on the image may be detected. In this way, the object detection unit 1110 of the object detection unit 1100 detects an object from the image. Thereafter, the object information generating unit 1120 of the object detecting unit 1100 may output braille output information to be output from the braille pad 4000 or any one of the user terminal 3000 , the braille pad 4000 , or the smart glass 2000 . Generates audio output information to be output in The object detection unit 1100 and the book reader unit 1200 of the present invention detect an object according to each operation including the learned artificial neural network model, and analyze information on the object according to the number of the object to provide the user with can provide

구체적으로, 본 발명의 사물검출부(1100)는, 객체정보생성부(1120)를 포함하고, 상기 사물검출부(1100)의 상기 객체정보생성부(1120)는, 객체검출부(1110)가 상기 이미지에서 검출한 객체의 수를 판별하는 단계(S110); 및 검출한 상기 객체의 수가 2 이상인 경우에, 학습된 인공신경망을 통해 검출한 상기 객체를 인식하고, 인식한 상기 객체에 대한 상기 음성출력정보를 생성하는 단계(S120);를 수행하고, 또한, 검출한 상기 객체의 수가 2 이상인 경우에 학습된 인공신경망을 통해 검출한 상기 객체를 인식하고, 인식한 2 이상의 객체에 대한 좌표정보 및 2 이상의 객체에 대해 기설정된 기준에 따라 매핑된 아이콘 정보를 포함하는 점자출력정보를 생성하는 단계(S130);를 수행한다.Specifically, the object detection unit 1100 of the present invention includes an object information generation unit 1120, and the object information generation unit 1120 of the object detection unit 1100 includes the object detection unit 1110 in the image. determining the number of detected objects (S110); and when the number of the detected objects is two or more, recognizing the detected object through a learned artificial neural network and generating the voice output information for the recognized object (S120); and, When the number of the detected objects is two or more, the detected object is recognized through a learned artificial neural network, and coordinate information for the two or more recognized objects and icon information mapped according to a preset criterion for the two or more objects are included. A step of generating the braille output information (S130); is performed.

구체적으로 S110단계에서는, 상기 사물검출부(1100)의 객체검출부(1110)가 상기 이미지에서 검출한 객체의 수를 판별한다.Specifically, in step S110, the object detection unit 1110 of the object detection unit 1100 determines the number of objects detected in the image.

S120단계에서는, 이미지에서 다수개의 객체가 검출된 경우에는 사물검출부(1100)는, 해당 객체에 대한 음성출력정보를 생성하여 사용자단말기(3000), 점자패드(4000) 혹은 스마트글래스(2000) 중 어느 하나에서 출력한다. 예를 들어, 도 2에 도시된 바와 같은 이미지를 수신한 사물검출부(1100)는, “도로에는 버스가 주행하고 있고, 도로의 건너편의 거리에는 3명의 사람과 2그루의 나무가 있으며 상점과 화장실이 세워져 있습니다.”와 같이 이미지에서 검출한 객체에 대한 음성출력정보가 생성되어 상기 스마트단말기, 점자패드(4000) 혹은 스마트글래스(2000) 중 어느 하나에 송신되어 출력될 수 있다.In step S120, when a plurality of objects are detected in the image, the object detection unit 1100 generates audio output information for the object, and any one of the user terminal 3000, the braille pad 4000, or the smart glass 2000 output from one For example, the object detection unit 1100 that has received the image as shown in FIG. 2 may say, “A bus is running on the road, there are three people and two trees on the street across the road, and there are shops and toilets. The voice output information for the object detected in the image is generated as shown in the figure, "This may be transmitted and outputted to any one of the smart terminal, the braille pad 4000, or the smart glass 2000.

S130단계에서는, 상기 사물검출부(1100)가 생성하는 상기 2 이상의 객체에 대한 좌표정보 및 2 이상의 객체에 대해 기설정된 기준에 따라 매핑된 아이콘 정보를 포함하는 점자출력정보를 생성한다. 이에 대해서는 후술하는 도 3 내지 도 5의 설명에서 더욱 자세하게 설명하도록 한다.In step S130, braille output information including coordinate information of the two or more objects generated by the object detection unit 1100 and icon information mapped according to a preset criterion for the two or more objects is generated. This will be described in more detail in the description of FIGS. 3 to 5 which will be described later.

도 3은 본 발명의 일 실시예에 따른 사물검출부(1100)가 점자출력정보를 생성하는 과정에서의 매핑된 아이콘정보를 개략적으로 도시하고, 도 4 및 도 5는 본 발명의 일 실시예에 따른 사물검출부(1100)에 의하여 매핑된 아이콘정보에 따라 생성된 점자출력정보를 개략적으로 도시한다.3 schematically shows mapped icon information in a process in which the object detection unit 1100 generates braille output information according to an embodiment of the present invention, and FIGS. 4 and 5 are diagrams according to an embodiment of the present invention. The braille output information generated according to the icon information mapped by the object detection unit 1100 is schematically illustrated.

상기 사물검출부(1100)는, 전술한 설명에서와 같이 이미지로부터 2 이상의 객체가 검출되는 경우에, 학습된 인공신경망을 통해 검출한 객체를 인식하고, 인식한 2 이상의 객체에 대한 좌표정보 및 인식한 2 이상의 객체에 대해 기설정된 기준에 따라 매핑된 아이콘정보를 포함하는 점자출력정보를 생성하는 단계(S130)를 수행한다. 도 3은 이와 같은 매핑된 아이콘정보를 개략적으로 도시한다. 도 3에 도시된 바와 같이 사물검출부(1100)의 객체정보생성부(1120)는, 기설정된 기준에 따라 매핑된 아이콘정보를 통해 이미지에서 검출된 객체를 매핑된 아이콘형태로 점자출력정보에 나타낼 수 있다. 도 3에는 일부의 매핑된 아이콘이 도시되고 있지만, 본 발명의 사물검출부(1100)가 출력하는 점자출력정보에 포함된 매핑된 아이콘정보는 도 3에 도시된 수보다 많고 다양한 형태의 아이콘이 매핑되어 저장되어 있을 수 있다. 이와 같이 사물검출부(1100)는, 기설정된 기준에 따라 매핑된 아이콘 및 객체에 대한 좌표정보에 기초하여 점자출력정보를 생성한다. 도 4 및 도 5는 이러한 상기 좌표정보 및 매핑된 아이콘 정보에 따라 생성된 점자출력정보를 도시한다. 도 4의 (a)는 스마트글래스(2000)로부터 수신한 이미지를 도 4의 (b)는 도 4의 (a)의 이미지에 따라 2 이상의 객체의 좌표정보 및 매핑된 아이콘정보를 포함하는 점자출력정보가 출력된 점자패드(4000)에서의 화면을 도시한다. 도 4의 (b)에 도시된 바와 같이, 도 4의 (a)의 이미지에서 도시되는 상점, 화장실, 차도의 버스, 길가의 나무, 길을 걷는 다수의 사람 등은 도 3의 객체와 매핑된 아이콘을 나타내는 테이블에서 각각의 객체에 매핑된 아이콘에 따라 각각의 객체의 좌표정보에 기초하여 점자패드(4000)에서의 좌표정보로 변환되고, 점자패드(4000)에서의 좌표에 상기 객체의 매핑된 아이콘이 점자로 출력된다. 또한, 상기 사물검출부(1100)는, 상기 2 이상의 객체에 대한 좌표정보에 기초하여 사용자와 상기 2 이상의 객체와의 예상거리를 도출하고, 도출된 상기 객체와의 예상거리에 기초하여 상기 매핑된 아이콘의 크기를 기설정된 기준에 따라 변경하여 상기 점자출력정보를 생성한다. 도 4의 (a)에 도시된 바에 따르면 사용자의 시점에서 나무의 앞에 있는 사람이 사용자의 시점에서 다른 사람들보다 가까이 있는 것이 도시된다. 이에 따라, 도 4의 (b)에 도시된 바와 같이 사물검출부(1100)에 의하여 제공된 점자패드(4000)에서 화면은, 뒤에 도시된 2명의 사람을 나타내는 아이콘과 비교할 때 앞에 도시된 사람을 나타내는 아이콘의 크기가 더 크게 디스플레이 된다.The object detection unit 1100, when two or more objects are detected from the image as in the above description, recognizes the objects detected through the learned artificial neural network, and coordinates information and the recognized two or more objects. A step (S130) of generating braille output information including icon information mapped according to a preset criterion for two or more objects is performed. 3 schematically shows such mapped icon information. As shown in FIG. 3, the object information generating unit 1120 of the object detecting unit 1100 may display an object detected in an image through mapped icon information according to a preset criterion in the form of a mapped icon in the braille output information. there is. Although some mapped icons are shown in FIG. 3, the mapped icon information included in the braille output information output by the object detection unit 1100 of the present invention is larger than the number shown in FIG. may be stored. As described above, the object detecting unit 1100 generates braille output information based on coordinate information of an icon and an object mapped according to a preset criterion. 4 and 5 show braille output information generated according to the coordinate information and the mapped icon information. Figure 4 (a) is an image received from the smart glass 2000, Figure 4 (b) is a braille output including coordinate information and mapped icon information of two or more objects according to the image of Figure 4 (a) A screen on the braille pad 4000 on which information is output is shown. As shown in (b) of Figure 4, shops, toilets, buses on the driveway, trees on the roadside, a number of people walking on the road, etc. shown in the image of Figure 4 (a) are mapped to the object of Figure 3 According to the icon mapped to each object in the table representing the icon, it is converted into coordinate information in the braille pad 4000 based on the coordinate information of each object, and the coordinates of the object are mapped to the coordinates in the braille pad 4000 Icons are displayed in Braille. In addition, the object detection unit 1100 derives an expected distance between the user and the two or more objects based on the coordinate information of the two or more objects, and the mapped icon based on the derived expected distance between the two or more objects. The braille output information is generated by changing the size of ? according to a preset standard. As shown in (a) of FIG. 4 , it is shown that the person in front of the tree from the user's point of view is closer than other people from the user's point of view. Accordingly, as shown in (b) of FIG. 4 , the screen of the braille pad 4000 provided by the object detecting unit 1100 is an icon representing the person shown in front when compared with the icon representing the two people shown in the back. is displayed in a larger size.

바람직하게는, 상기 사물검출부(1100)는, 상기 이미지에서의 객체의 좌표정보에 기초하여 기설정된 기준에 따라 매핑된 아이콘이 디스플레이될 점자패드(4000)에서의 아이콘좌표정보를 도출하고, 도출된 상기 아이콘좌표정보에 매핑된 아이콘정보가 디스플레이되는 점자출력정보를 생성한다.Preferably, the object detection unit 1100 derives icon coordinate information in the braille pad 4000 on which the mapped icon is to be displayed according to a preset criterion based on the coordinate information of the object in the image, It generates braille output information in which icon information mapped to the icon coordinate information is displayed.

바람직하게는, 상기 사물검출부(1100)는, 상기 2 이상의 객체에 대한 좌표정보에 기초하여 사용자의 예상좌표를 도출하고, 사용자의 예상좌표에 따라 사용자와 상기 2 이상의 객체와의 예상거리를 도출하고, 도출된 상기 객체와의 예상거리에 기초하여 상기 매핑된 아이콘의 크기를 기설정된 기준에 따라 변경하여 상기 점자출력정보를 생성한다.Preferably, the object detection unit 1100 derives the predicted coordinates of the user based on the coordinate information on the two or more objects, and derives the predicted distances between the user and the two or more objects according to the predicted coordinates of the user, , to generate the braille output information by changing the size of the mapped icon according to a preset standard based on the derived expected distance to the object.

또한 도 5도 마찬가지로 매핑된 아이콘정보가 포함된 점자출력정보가 출력된 점자패드(4000)에서의 화면을 도시한다. 도 5의 (a)는 공원의 한 풍경을 담은 이미지를 도시하고 있고, 이러한 이미지를 수신한 사물검출부(1100)는 이미지에서 나무, 동물, 사람, 및 벤치와 같은 객체를 검출하여 해당 객체에 매핑된 아이콘을 포함하는 점자출력정보를 생성하여 도 5의 (b)와 같이 점자패드(4000)의 화면에 생성한 점자출력정보가 출력될 수 있다.5 also shows a screen on the braille pad 4000 on which braille output information including mapped icon information is similarly output. FIG. 5A shows an image containing a landscape of a park, and the object detection unit 1100 receiving the image detects objects such as trees, animals, people, and benches from the image and maps them to the corresponding objects. By generating the braille output information including the selected icon, the generated braille output information may be output on the screen of the braille pad 4000 as shown in FIG. 5( b ).

이와 같은 방식으로, 사물검출부(1100)는, 매핑된 아이콘을 포함하는 점자출력정보를 생성하여 제공함으로써, 직접 주변을 볼 수 없는 시각장애인들이 해당 점자정보를 통해 주변환경을 보다 수월하게 인식할 수 있는 효과를 발휘할 수 있다.In this way, the object detection unit 1100 generates and provides braille output information including the mapped icon, so that visually impaired people who cannot directly see the surroundings can more easily recognize the surrounding environment through the braille information. can have an effect.

도 6은 본 발명의 일 실시예에 따른 사물검출부(1100)에 의하여 제공되는 사용자단말기(3000) 및 점자패드(4000)에서의 화면을 개략적으로 도시한다.6 schematically shows screens of the user terminal 3000 and the braille pad 4000 provided by the object detection unit 1100 according to an embodiment of the present invention.

본 발명의 사물검출부(1100)는, 상기 이미지에서 검출한 객체의 수를 판별하는 단계(S110); 검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계(S140); 및 인식한 객체에 대한 객체정보 및 인식한 객체로부터 추출한 특징점에 기초하여 객체의 형태가 표시되는 점자출력정보를 생성하는 단계;를 수행한다.The object detection unit 1100 of the present invention includes the steps of determining the number of objects detected in the image (S110); When the detected object is one, recognizing the object through the learned artificial neural network (S140); and generating braille output information indicating the shape of the object based on the object information on the recognized object and the feature points extracted from the recognized object.

구체적으로, 상기 S110단계에서는, 상기 사물검출부(1100)의 객체정보생성부(1120)는, 상기 이미지에서 검출한 객체의 수를 판별한다.Specifically, in step S110, the object information generating unit 1120 of the object detecting unit 1100 determines the number of objects detected in the image.

S140단계에서는, 검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식한다. 상기 사물검출부(1100) 혹은 사물검출부(1100)의 객체정보생성부(1120)는, 학습된 인공신경망 모델을 포함할 수 있고, 인공신경망을 통해 검출한 하나의 객체에 대한 식별정보 및 식별정보에 따른 음성출력정보를 포함하는 객체정보를 도출할 수 있다.In step S140, when the detected object is one, the object is recognized through the learned artificial neural network. The object detection unit 1100 or the object information generation unit 1120 of the object detection unit 1100 may include a learned artificial neural network model, and provide identification information and identification information for one object detected through the artificial neural network. It is possible to derive object information including voice output information according to the

S150단계에서는, 인식한 객체에 대한 객체정보 및 인식한 객체로부터 추출한 특징점에 기초하여 객체의 형태가 표시되는 점자출력정보를 생성한다.In step S150, braille output information indicating the shape of the object is generated based on the object information on the recognized object and the feature points extracted from the recognized object.

도 6의 (a)는 사용자단말기(3000)에서 표시되는 상기 사물검출부(1100)에 의하여 제공되는 사물검출부(1100)에 의하여 이미지에서 검출한 객체를 나타내는 화면을 도시하고 도 6의 (b)는 사물검출부(1100)에 의하여 제공되는 점자패드(4000)에서의 화면을 도시한다. 도 6의 (a)와 같이 검출된 객체가 하나인 경우, 사물검출부(1100)는 도 6의 (b)에 도시된 바와 같은 인식한 객체에 대한 객체정보 및 인식한 객체로부터 추출한 특징점에 기초하여 객체의 형태가 표시되는 점자출력정보를 생성한다. 이와 같이, 인식한 객체의 특징점에 기초하여 객체의 형태를 점자출력정보로 생성함으로써, 사용자는 해당 사물에 대한 형태를 보다 직관적으로 점자를 통해 형태를 확인하고, 학습할 수 있는 효과를 발휘할 수 있다.Fig. 6 (a) shows a screen showing an object detected from an image by the object detection unit 1100 provided by the object detection unit 1100 displayed on the user terminal 3000, and Fig. 6 (b) is The screen on the braille pad 4000 provided by the object detection unit 1100 is shown. When there is one detected object as shown in (a) of FIG. 6 , the object detection unit 1100 performs object information on the recognized object as shown in (b) of FIG. 6 and a feature point extracted from the recognized object. It creates braille output information that displays the shape of an object. In this way, by generating the shape of the object as Braille output information based on the characteristic points of the recognized object, the user can more intuitively check the shape of the object through Braille, and it is possible to learn the shape. .

도 7은 본 발명의 일 실시예에 따른, 스마트글래스(2000)를 통해 사용자가 촬영한 이미지를 개략적으로 도시한다.7 schematically illustrates an image captured by a user through the smart glasses 2000 according to an embodiment of the present invention.

전술한 바와 같이 본 발명의 시각장애인 인지보조 시스템은, 주로 점자나 음성 위주의 제한된 정보만을 인지 및 활용하고 있는 시각장애인들에게 교육 및 일상생활 전반에 걸쳐 필수적인 정보인 영상정보를 효율적으로 전달하여 쉽게 인지 및 활용할 수 있도록 하는 목적을 가진다. 이와 같이 본 발명의 시각장애인 인지보조 시스템은 주된 사용자가 시각장애인이기 때문에 시각장애인들이 어떠한 주변환경 혹은 사물을 인지하기 위하여 이미지를 촬영하는 경우에, 촬영된 이미지의 일 예를 도 7의 (a) 및 (b)에 도시된다. 예를 들어, 컵의 형태를 인지하지 못한 사용자는 해당 컵에 대한 정보를 얻기 위해 스마트글래스(2000)를 이용하여 컵을 촬영할 수 있다. 이 때, 도 7의 (a)와 같은 이미지가 촬영된 경우, 본 발명의 사물검출부(1100)는, 상기 이미지에서 검출한 객체의 수를 판별하는 단계(S110); 검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계(S160); 상기 이미지에 인식한 객체의 형태가 모두 포함되지 않은 경우, 인식한 객체에 대한 음성출력정보 및 상기 스마트글래스(2000)의 위치조절에 대한 가이드음성출력정보를 생성하는 단계(S170);를 수행한다.As described above, the cognitive assistance system for the visually impaired of the present invention efficiently delivers image information, which is essential information throughout education and daily life, to the visually impaired, who are mainly recognizing and utilizing only limited information centered on Braille or voice. It has a purpose to be recognized and used. As such, the cognitive assistance system for the visually impaired of the present invention shows an example of a photographed image when the visually impaired take an image to recognize a certain surrounding environment or object because the main user is a visually impaired person in Fig. 7 (a) and (b). For example, a user who does not recognize the shape of the cup may photograph the cup using the smart glasses 2000 to obtain information about the cup. At this time, when an image as shown in (a) of FIG. 7 is taken, the object detection unit 1100 of the present invention may include: determining the number of objects detected in the image (S110); When the detected object is one, recognizing the object through the learned artificial neural network (S160); If the image does not include all the shapes of the recognized object, generating audio output information for the recognized object and guide audio output information for position adjustment of the smart glass 2000 (S170); is performed. .

S110단계에서는, 상기 이미지에서 검출한 객체의 수를 판별한다.In step S110, the number of objects detected in the image is determined.

S160단계에서는, 검출한 상기 객체가 하나인 경우에, 학습된 인공신경망을 통해 해당 객체를 인식한다. 학습된 인공신경망은 제공되는 이미지가 완전하지 않더라도 해당 객체를 인식할 수 있다. 도 7의 (a)에 도시된 바와 같이 검출된 객체의 형태가 반만 촬영된 이미지이더라도 해당 객체가 컵인 것을 인식할 수 있다.In step S160, when the detected object is one, the object is recognized through the learned artificial neural network. The trained artificial neural network can recognize the object even if the provided image is not complete. As shown in (a) of FIG. 7 , even if the shape of the detected object is a half-photographed image, it can be recognized that the object is a cup.

S170단계에서는, S160단계의 수행을 통해 해당 객체를 인식한 사물검출부(1100)는, 도 7의 (a)에 도시된 바와 같이 상기 이미지에 인식한 객체의 형태가 모두 포함되지 않은 경우, 인식한 객체에 대한 음성출력정보 및 상기 스마트글래스(2000)의 위치조절에 대한 가이드음성출력정보를 생성한다. 사물검출부(1100)의 객체정보생성부(1120)는, 상기 도 6의 설명에서 전술한 바와 같이 인식한 객체에 대한 객체정보 및 인식한 객체로부터 추출한 특징점에 기초하여 객체의 형태가 표시되는 점자출력정보를 생성하여 사용자에게 제공할 수 있고, 이를 위해서는 검출된 객체의 완전한 이미지를 필요로 할 수 있다. 이에 따라 사물검출부(1100)는, 수신한 이미지에 기초하여 완전한 이미지가 촬영될 수 있는 스마트글래스(2000)의 위치를 판별하여 스마트글래스(2000)의 위치조절에 대한 가이드음성출력정보를 생성할 수 있다. 도 7의 (a)와 같은 이미지의 경우에는, 예를 들어,"아래쪽으로 이동하여 다시 한번 촬영해주세요"와 같이 해당 객체에 대한 음성출력정보 및 가이드음성출력정보를 생성하여 사용자단말기(3000)로 송신하고, 사용자단말기(3000), 점자패드(4000) 혹은 스마트글래스(2000)에서 출력될 수 있도록 한다.In step S170, the object detection unit 1100, which has recognized the object through the execution of step S160, as shown in FIG. Voice output information for an object and guide voice output information for position adjustment of the smart glass 2000 are generated. The object information generation unit 1120 of the object detection unit 1100, as described above in the description of FIG. 6, displays the shape of the object based on the object information on the recognized object and the feature points extracted from the recognized object. Information may be generated and provided to the user, which may require a complete image of the detected object. Accordingly, the object detection unit 1100 determines the position of the smart glass 2000 in which a complete image can be taken based on the received image and generates guide voice output information for the position adjustment of the smart glass 2000. there is. In the case of an image as shown in (a) of FIG. 7 , for example, voice output information and guide voice output information for the corresponding object are generated, such as “Move down and shoot again”, and send to the user terminal 3000 . and to be output from the user terminal 3000 , the braille pad 4000 , or the smart glass 2000 .

한편, 도 7의 (b)와 같은 이미지가 촬영되어 이미지로부터 검출한 객체에 대한 인식을 하지 못한 경우, 사물검출부(1100)는, 상기 사물검출부(1100)는, 상기 이미지에서 검출한 객체의 수를 판별하는 단계(S110); 검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계(S180); 및 상기 인공신경망을 통해 해당 객체가 인식되지 않는 경우, 상기 스마트글래스(2000)의 위치조절에 대한 가이드음성출력정보를 생성하는 단계(S190);를 수행할 수 있다.On the other hand, when an image as shown in (b) of FIG. 7 is taken and the object detected from the image is not recognized, the object detection unit 1100 and the object detection unit 1100 detect the number of objects detected in the image. determining (S110); When the detected object is one, recognizing the object through the learned artificial neural network (S180); and when the corresponding object is not recognized through the artificial neural network, generating guide voice output information for the position adjustment of the smart glass 2000 (S190).

S110단계에서는, 상기 이미지에서 검출한 객체의 수를 판별한다.In step S110, the number of objects detected in the image is determined.

S180단계에서는, 검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식한다. 도 7의 (b)의 경우에는, 이미지에서 객체가 검출은 되었으나 학습된 인공신경망에 따라 해당 객체를 인식하기에는 부적절할 수 있다. 이와 같이, 해당 객체가 인식되지 않는 경우에는 사물검출부(1100)는 S190단계를 수행할 수 있다.In step S180, if there is one detected object, the object is recognized through the learned artificial neural network. In the case of (b) of FIG. 7 , although an object is detected in the image, it may be inappropriate to recognize the object according to the learned artificial neural network. As such, when the corresponding object is not recognized, the object detecting unit 1100 may perform step S190.

S190단계에서는, 상기 인공신경망을 통해 해당 객체가 인식되지 않는 경우, 상기 스마트글래스(2000)의 위치조절에 대한 가이드음성출력정보를 생성한다. 도 7의 (b)와 같이 이미지로부터 추출한 객체가 불분명하여 해당 객체가 인식되지 않는 경우에는, 해당 객체를 인식하고, 인식한 객체의 형태가 표시되는 점자출력정보를 생성하여 사용자에게 제공하기 위해서 사물검출부(1100)는, 수신한 이미지에 기초하여 완전한 이미지가 촬영될 수 있는 스마트글래스(2000)의 위치를 판별하여 스마트글래스(2000)의 위치조절에 대한 가이드음성출력정보를 생성할 수 있다. 도 7의 (b)와 같은 이미지의 경우에는, 예를 들어, “오른쪽 및 아래쪽으로 이동하여 다시 한번 촬영해주세요” 와 같이 해당 객체의 완전한 이미지를 촬영하기 위해 해당 객체에 대한 가이드음성출력정보를 생성하여 사용자단말기(3000)로 송신하고, 사용자단말기(3000), 점자패드(4000) 혹은 스마트글래스(2000)에서 출력될 수 있도록 한다.In step S190, when the object is not recognized through the artificial neural network, guide voice output information for the position adjustment of the smart glass 2000 is generated. When the object extracted from the image is unclear as shown in FIG. 7B and the object is not recognized, the object is recognized, and braille output information indicating the shape of the recognized object is generated and provided to the user. The detection unit 1100 may determine the position of the smart glass 2000 at which a complete image can be captured based on the received image and generate guide voice output information for adjusting the position of the smart glass 2000 . In the case of an image as shown in (b) of FIG. 7, for example, guide audio output information for the object is generated in order to take a complete image of the object, for example, “Please move to the right and down and shoot again”. to be transmitted to the user terminal 3000 , and output from the user terminal 3000 , the braille pad 4000 , or the smart glass 2000 .

이와 같은 방식으로, 사물검출부(1100)는, 이미지로부터 검출한 객체를 인식하고, 인식한 객체에 대한 음성출력정보 및 객체의 형태가 표시되는 점자출력정보를 생성하여 사용자에게 제공하고, 수신한 이미지로부터 검출한 객체자체를 인식하기 어렵거나 객체의 형태를 표시하기 어려운 경우에는, 사용자에게 가이드음성출력정보를 제공하여 학습된 인공신경망을 통해 인식할 수 있는 이미지를 다시 수신하여 보다 정확한 객체의 정보를 사용자에게 제공할 수 있는 효과를 발휘할 수 있다.In this way, the object detection unit 1100 recognizes the object detected from the image, generates audio output information for the recognized object and braille output information indicating the shape of the object, and provides the received image to the user. When it is difficult to recognize the detected object itself or to display the shape of the object, it provides guide voice output information to the user and receives an image that can be recognized through the learned artificial neural network again to provide more accurate object information. It can exert an effect that can be provided to users.

도 8은 본 발명의 일 실시예에 따른, 북리더부(1200)의 수행 단계를 개략적으로 도시한다.FIG. 8 schematically illustrates the execution steps of the book reader unit 1200 according to an embodiment of the present invention.

본 발명의 시각장애인 인지보조 시스템은, 사용자가 스마트글래스(2000)를 통해 촬영한 이미지로부터 객체를 검출하여 사용자의 시점에 따라 사용자 주변의 외부환경, 사물, 인물에 대한 정보를 제공할 뿐 아니라, 사용자가 읽고자 하는 책의 내용을 촬영한 도서이미지를 검출하는 경우에는 해당 도서이미지에서 해당 도서의 도서텍스트정보 및 도서이미지정보를 추출하여 제공할 수 있다. 이때, 이미지로부터 검출된 객체가 예를 들어, 펼쳐져 있지 않은 책과 같은 경우에는, 해당 도서내용에 해당하는 텍스트정보를 인식할 수 없기 때문에 책 자체가 하나의 객체로서 검출되어 해당 객체가 책이라는 정보를 포함하는 객체정보를 사용자에게 제공할 수도 있다. 후술할 북리더부(1200)에 의하여 분석되는 도서이미지는, 해당 도서의 내용을 파악할 수 있는 텍스트 내용을 포함하여 촬영된 도서의 이미지를 의미함이 바람직하다.The cognitive assistance system for the blind of the present invention detects an object from an image captured by the user through the smart glasses 2000 and provides information on the external environment, objects, and people around the user according to the user's point of view, When a book image obtained by photographing the contents of a book that the user wants to read is detected, book text information and book image information of the corresponding book may be extracted and provided from the corresponding book image. At this time, when the object detected from the image is, for example, an unopened book, the text information corresponding to the content of the book cannot be recognized, so the book itself is detected as an object and information that the object is a book Object information including the may be provided to the user. The book image analyzed by the book reader unit 1200, which will be described later, preferably means an image of a photographed book including text content that can identify the content of the book.

도 8에 도시된 바와 같이, 상기 북리더부(1200)는, 상기 이미지에서 검출된 상기 도서이미지의 기울기 및 색상 중 1 이상을 기설정된 기준에 따라 변경하여 전처리하는 이미지전처리단계(S210); 상기 이미지전처리단계(S210)에서 전처리된 이미지에 기초하여 1 이상의 텍스트영역 및 1 이상의 이미지영역을 도출하는 텍스트이미지영역도출단계(S220); 및 도출된 상기 1 이상의 텍스트영역의 출력순서를 결정하고, 상기 출력순서에 따라 상기 1 이상의 텍스트영역에 포함된 텍스트를 인식하여 상기 점자패드(4000)에서 점자출력될 상기 도서텍스트정보를 도출하는 텍스트인식단계(S230);를 수행한다.As shown in Figure 8, the book reader unit 1200, the image pre-processing step (S210) of pre-processing by changing one or more of the inclination and color of the book image detected in the image according to a preset standard; a text image area deriving step (S220) of deriving one or more text areas and one or more image areas based on the image pre-processed in the image pre-processing step (S210); and determining an output order of the derived one or more text areas, recognizing texts included in the one or more text areas according to the output order, and deriving the book text information to be output in braille on the braille pad 4000 A recognition step (S230); is performed.

구체적으로 S210단계에서는, 상기 북리더부(1200)의 이미지전처리부(1210)는, 이미지에서 검출된 도서이미지의 기울기 및 색상 중 1 이상을 기설정된 기준에 따라 변경하여 전처리한다. 주 사용자인 시각장애인의 입력에 따라 촬영된 도서이미지는 기울어진 형태로 촬영될 수 있다. 따라서, 사용자의 입력에 따라 촬영된 도서이미지에서 정확한 도서텍스트정보를 추출하기 위해서, 상기 이미지전처리부(1210)는, 촬영된 이미지가 기울어져 있는 경우 도서이미지의 기울기를 기설정된 기준에 따라 변경할 수 있다. 또한 해당 도서텍스트정보를 추출하기 위해 이미지를 흑백으로 이진화함으로써, 해당 도서의 도서텍스트 정보를 추출할 수 있도록 이미지전처리를 수행할 수 있다.Specifically, in step S210, the image pre-processing unit 1210 of the book reader unit 1200 pre-processes by changing one or more of the inclination and color of the book image detected in the image according to a preset criterion. The book image photographed according to the input of the blind user, who is the main user, may be photographed in an inclined form. Therefore, in order to extract accurate book text information from the book image captured according to the user's input, the image pre-processing unit 1210 may change the inclination of the book image according to a preset standard when the photographed image is inclined. there is. In addition, by binarizing the image to black and white in order to extract the corresponding book text information, image preprocessing can be performed to extract the book text information of the corresponding book.

S220단계에서는, 상기 북리더부(1200)의 텍스트이미지영역도출부(1220)는, 상기 이미지전처리단계(S210)에서 전처리된 이미지에 기초하여 1 이상의 텍스트영역 및 1 이상의 이미지영역을 도출한다. 전처리된 이미지로부터 텍스트영역 및 이미지영역을 도출하고, 도출된 텍스트영역 및 이미지영역은 점자패드(4000)에서 출력 가능한 신호로 변환되어 사용자가 인식하기 용이한 점자로써 출력된다.In step S220, the text image area deriving unit 1220 of the book reader 1200 derives one or more text areas and one or more image areas based on the image pre-processed in the image pre-processing step S210. A text area and an image area are derived from the pre-processed image, and the derived text area and image area are converted into signals that can be output by the braille pad 4000 and are output as braille, which is easy for the user to recognize.

S230단계에서는, 상기 북리더부(1200)의 텍스트인식부(1230)는, 상기 텍스트이미지영역도출부(1220)로부터 도출된 1 이상의 텍스트영역의 출력순서를 결정하고, 상기 출력순서에 따라 상기 1 이상의 텍스트영역에 포함된 텍스트를 인식하여 상기 점자패드(4000)에서 점자출력될 상기 도서텍스트정보를 도출한다. 상기 텍스트인식부(1230)는, 해당 도서이미지로부터 하나의 텍스트영역이 도출되는 경우에는, 해당 텍스트영역에 포함된 텍스트를 인식하여 도서텍스트정보를 도출하지만, 도출된 텍스트영역이 1 이상인 경우에는, 기설정된 기준에 따라 해당 도서내용에 따른 출력순서를 결정하여 출력순서에 따라 1 이상의 텍스트영역에 포함된 텍스트를 인식하여 해당 도서의 내용이 순차적으로 점역되어 제공될 수 있도록 한다.In step S230, the text recognition unit 1230 of the book reader unit 1200 determines an output order of one or more text areas derived from the text image area extracting unit 1220, and according to the output order, the 1 By recognizing the text included in the above text area, the book text information to be output in braille is derived from the braille pad 4000 . The text recognition unit 1230 derives book text information by recognizing the text included in the text area when one text area is derived from the corresponding book image, but when the derived text area is 1 or more, According to a preset standard, the output order according to the contents of the book is determined, and texts included in one or more text areas are recognized according to the output order, so that the contents of the book can be sequentially translated and provided.

이와 같은 방식으로 북리더부(1200)는, 사물검출부(1100)에서 도서이미지를 검출하는 경우에 점자패드(4000)에서 점자출력될 해당 도서의 도서텍스트정보 및 도서이미지정보를 추출하여 제공함으로써, 사용자는 한정적인 점자도서뿐만 아니라 일반도서를 이해하기 쉬운 점자로 읽을 수 있는 효과를 발휘할 수 있다.In this way, the book reader unit 1200 extracts and provides the book text information and the book image information of the book to be output in braille from the braille pad 4000 when the object detection unit 1100 detects a book image, The user can exert the effect of reading not only limited Braille books but also general books in Braille that is easy to understand.

도 9는 본 발명의 일 실시예에 다른, 북리더부(1200)에 의하여 제공되는 사용자단말기(3000) 및 점자패드(4000)에서의 화면을 개략적으로 도시한다.9 schematically shows screens of the user terminal 3000 and the braille pad 4000 provided by the book reader unit 1200 according to an embodiment of the present invention.

구체적으로 도 9의 (a)는 스마트글래스(2000)로부터 수신된 도서이미지의 일 예를 도시한다. 도 9의 (a)에 도시된 바와 같이 도서이미지는 해당 도서의 이미지영역(L1) 및 텍스트영역(L2)으로 구분될 수 있다. 북리더부(1200)의 텍스트이미지영역도출부(1220)는, 도 9의 (a)와 같은 도서이미지에서 모자의 모습처럼 표현된 보아구렁이의 그림이 담긴 부분을 이미지영역(L1)으로 이를 설명하는 텍스트가 포함된 문단을 텍스트영역(L2)로 도출한다. 이렇게 도출된 텍스트영역(L2)은 도 9의 (b)에 도시된 바와 같이, 사용자단말기(3000)의 화면에서 해당 텍스트영역(L2)에 포함된 텍스트가 디스플레이 된다. 도 9의 (c)는 텍스트인식부(1230)에 의하여 상기 텍스트영역(L2)으로부터 도출된 도서텍스트정보가 디스플레이된 점자패드(4000)의 화면을 도시한다. 도 9의 (c)에 도시된 바와 같이 텍스트인식부(1230)에 의하여 도출된 도서텍스트정보는 점자패드(4000)에서 점자출력되어 디스플레이 된다.Specifically, FIG. 9( a ) shows an example of a book image received from the smart glass 2000 . As shown in (a) of FIG. 9 , the book image may be divided into an image area L1 and a text area L2 of the corresponding book. The text image area deriving unit 1220 of the book reader unit 1200 explains the part containing the picture of a boa constrictor expressed like a hat in the book image as shown in FIG. 9(a) as the image area L1. A paragraph containing the text to be read is drawn into the text area (L2). In the thus derived text area L2, as shown in FIG. 9(b) , the text included in the corresponding text area L2 is displayed on the screen of the user terminal 3000 . FIG. 9C shows a screen of the braille pad 4000 on which book text information derived from the text area L2 by the text recognition unit 1230 is displayed. As shown in (c) of FIG. 9 , the book text information derived by the text recognition unit 1230 is outputted in braille on the braille pad 4000 and displayed.

이와 같이, 도서이미지에 포함된 해당 도서의 텍스트를 시각장애인이 이해하기 쉬운 점자로 점역하여 제공함으로써, 사용자는 점자도서에 국한되지 않고, 다양한 종류의 책을 읽을 수 있는 효과를 발휘할 수 있다.As described above, by translating and providing the text of the corresponding book included in the book image in Braille, which is easy for the visually impaired to understand, the user is not limited to the Braille book, and it is possible to exert the effect of reading various types of books.

도 10은 본 발명의 일 실시예에 따른 북리더부(1200)의 동작에 따른 도서이미지정보의 형태를 개략적으로 도시한다.10 schematically shows the form of book image information according to the operation of the book reader unit 1200 according to an embodiment of the present invention.

구체적으로, 도 10의 (a) 및 (b)는 스마트글래스(2000)로부터 수신된 도서이미지의 일 예를 도시한다. 도 9의 (a)는 텍스트영역(L2)이 하나였지만 도 10의 (a) 및 (b)에 도시된 도서이미지는 복수개의 문단을 포함하여 복수의 텍스트영역(L2)이 구분될 수 있다. 도 10의 (a)와 같은 도서이미지는 경우에 따라, 이미지전처리부(1210)에 의하여 전처리될 수도 있고, 이후, 텍스트이미지영역도출부(1220)에 의하여 도 10의 (b)에 도시된 바와 같이 1 이상의 텍스트영역(L2) 및 1 이상의 이미지영역(L1)이 도출된다. 이와 같이 1 이상의 텍스트영역(L2)이 도출되는 경우에는, 텍스트인식부(1230)는, 1 이상의 텍스트영역의 출력순서를 결정한다. 도 10의 (b)에는 바람직하게는, 상기 출력순서는 예를 들어, 왼쪽부터 오른쪽의 순서로, 같은 세로의 라인에 1 이상의 텍스트영역이 존재하는 경우, 위에서 아래의 순서로 등과 같은 기설정된 기준에 따라 텍스트영역의 출력순서가 결정될 수 있다.Specifically, (a) and (b) of Figure 10 shows an example of the book image received from the smart glass (2000). Although the text area L2 of FIG. 9(a) is one, the book image shown in FIGS. 10(a) and (b) may include a plurality of paragraphs and may be divided into a plurality of text areas L2. In some cases, the book image as shown in (a) of FIG. 10 may be pre-processed by the image pre-processing unit 1210, and then, as shown in FIG. 10 (b) by the text image area deriving unit 1220. Similarly, one or more text areas L2 and one or more image areas L1 are derived. When one or more text areas L2 are derived as described above, the text recognition unit 1230 determines an output order of one or more text areas. In (b) of FIG. 10, preferably, the output order is, for example, from left to right, and when one or more text areas exist on the same vertical line, in the order from top to bottom, etc. According to this, the output order of the text area may be determined.

도 10의 (c)는 상기 텍스트인식부(1230)에 의하여 결정된 출력순서에 따라 1 이상의 텍스트영역(L1)에 포함된 텍스트를 인식하여 인식한 텍스트정보가 사용자단말기(3000)에 디스플레이된 화면을 도시하고, 도 10의 (d)는 텍스트인식부(1230)가 생성한 도서텍스트정보가 점자패드(4000)에 디스플레이된 화면을 도시한다. 텍스트인식부(1230)는 도 10의 (b)에 도시된 바와 같이 각각의 텍스트영역(L2)의 출력순서를 결정하고 결정된 출력순서에 따라 도서텍스트정보를 생성하여 사용자단말기(3000)로 송신할 수 있고, 사용자단말기(3000)에는 도 10의 (c)에 도시된 바와 같이 송신된 도서텍스트정보가 출력순서에 따라 디스플레이된다. 사용자단말기(3000)는 수신한 도서텍스트정보를 점자패드(4000)로 송신하고, 도 10의 (d)에 도시된 바와 같이 점자패드(4000)에 도서텍스트정보가 출력순서에 따라 디스플레이 될 수 있다. 바람직하게는, 상기 북리더부(1200)에 의하여 제공되는 상기 점자패드(4000)에서의 화면은 상기 이미지에서 검출된 도서이미지로부터 1 이상의 텍스트 영역 및 1 이상의 이미지영역이 추출되어, 추출된 1 이상의 텍스트영역에 포함된 텍스트는 순차적으로 정렬되어 디스플레이된다.10( c ) shows a screen on which text information included in one or more text areas L1 is recognized and recognized text information is displayed on the user terminal 3000 according to the output order determined by the text recognition unit 1230 . and FIG. 10( d ) shows a screen on which book text information generated by the text recognition unit 1230 is displayed on the braille pad 4000 . The text recognition unit 1230 determines the output order of each text area L2 as shown in FIG. In the user terminal 3000, the transmitted book text information is displayed according to the output order as shown in FIG. 10(c). The user terminal 3000 may transmit the received book text information to the braille pad 4000, and the book text information may be displayed on the braille pad 4000 according to the output order as shown in FIG. . Preferably, the screen of the braille pad 4000 provided by the book reader unit 1200 is obtained by extracting one or more text areas and one or more image areas from the book image detected in the image, Texts included in the text area are sequentially arranged and displayed.

이와 같은 방식으로, 북리더부(1200)는, 수신한 도서이미지의 텍스트영역을 도출하여 출력순서에 따라 점자출력될 도서텍스트정보를 도출하여 제공함으로써, 사용자는 점자도서가 아닌 보다 많은 종류의 도서를 직접 읽고 접하여 다양한 정보를 얻을 수 있는 효과를 발휘할 수 있다.In this way, the book reader unit 1200 derives the text area of the received book image and derives and provides the book text information to be output in Braille according to the output order, thereby allowing the user to select more types of books than Braille books. You can directly read and interact with it, and you can have the effect of getting a variety of information.

도 11은 본 발명의 일 실시예에 따른, 북리더부(1200)에 의하여 제공되는 사용자단말기(3000) 및 점자패드(4000)에서의 화면을 개략적으로 도시한다.11 schematically shows screens of the user terminal 3000 and the braille pad 4000 provided by the book reader 1200 according to an embodiment of the present invention.

구체적으로, 도 11의 (a) 및 (c)는 상기 북리더부(1200)에 의하여 제공되는 사용자단말기(3000)에서의 화면을 도시하고, 도 11의 (b) 및 (d)는 상기 북리더부(1200)에 의하여 제공되는 점자패드(4000)에서의 화면을 개략적으로 도시한다. 상기 북리더부(1200)에 의하여 제공되는 상기 점자패드(4000)에서의 화면은 사용자의 입력에 따라 상기 북리더부(1200)에 의하여 검출된 1 이상의 도서이미지정보에 대한 리스트를 제공한다. 북리더부(1200)의 텍스트이미지영역도출부(1220)에 의하여 텍스트영역(L2) 및 이미지영역(L1)이 검출되고, 상기 이미지영역은, 사용자의 입력(예를 들어, 점자패드(4000)의 단축키를 통해)에 따라 상기 북리더부(1200)에 의하여 검출된 1 이상의 도서이미지정보에 대한 리스트를 제공할 수 있다. 상기 도 10의 (a)에 도시된 바 따르면 도서이미지에서 검출된 이미지영역(L1)에서 검출된 도서이미지정보는 하나이고, 도 11은 이와 같은 도서이미지정보에 대한 리스트가 제공된 화면을 도시한다. 도 11의 (a)는 북리더부(1200)에 의하여 제공된 사용자단말기(3000)에서의 화면으로 “이미지01”로 정의된 도서이미지정보에 대한 리스트가 제공되었고, 도 11의 (b)는 북리더부(1200)에 의하여 제공된 점자패드(4000)에서의 화면으로 이미지01의 리스트가 점자로 점역되어 디스플레이 되었음이 도시된다.Specifically, FIGS. 11 (a) and (c) show a screen of the user terminal 3000 provided by the book reader unit 1200, and FIGS. 11 (b) and (d) show the book. A screen of the braille pad 4000 provided by the reader unit 1200 is schematically shown. The screen on the braille pad 4000 provided by the book reader 1200 provides a list of one or more book image information detected by the book reader 1200 according to a user input. The text area L2 and the image area L1 are detected by the text image area extracting unit 1220 of the book reader unit 1200, and the image area is input by the user (eg, a braille pad 4000). A list of one or more book image information detected by the book reader unit 1200 may be provided according to a shortcut key of . As shown in (a) of FIG. 10, there is one book image information detected in the image area L1 detected in the book image, and FIG. 11 shows a screen provided with a list of such book image information. 11 (a) is a screen on the user terminal 3000 provided by the book reader unit 1200, and a list of book image information defined as “image 01” is provided, and FIG. 11 (b) is a picture of a book As a screen on the braille pad 4000 provided by the reader unit 1200, it is shown that the list of image 01 is transliterated and displayed in braille.

한편, 본 발명의 상기 북리더부(1200)는, 도출된 상기 1 이상의 이미지영역에서 추출한 도서이미지정보를 인식하는 이미지인식단계;를 더 수행하고, 상기 북리더부(1200)에 의하여 제공되는 상기 점자패드(4000)에서의 화면은, 사용자의 입력에 따라 상기 1 이상의 도서이미지정보에 대한 리스트를 상기 이미지인식단계에서 인식한 이미지정보를 포함하여 제공한다. 상기 북리더부(1200)는, 이미지인식부(1240)를 더 포함하고, 상기 이미지인식부(1240)는, 도출된 상기 1 이상의 이미지영역에서 추출한 도서이미지정보를 학습된 인공신경망을 통해 인식하는 이미지인식단계를 수행한다. 이에 따라, 상기 북리더부(1200)에 의하여 제공되는 점자패드(4000)에서의 화면은 도 11의 (c)에 도시된 바와 같이 “이미지01”이 아닌 해당 도서이미지정보가 인식된 “소화기”로 도서이미지정보에 대한 리스트가 제공되었음이 도시된다. 도 11의 (d) 또한 소화기에 해당하는 점자가 점역되어 디스플레이 되었음이 도시된다. 이와 같이, 북리더부(1200)는, 도서이미지의 텍스트영역 및 이미지영역을 구분하여 도서텍스트내용 및 도서이미지정보를 점자를 통해 제공할 수 있고, 도서이미지정보는 사용자의 입력에 따라 리스트를 통해 제공하여 해당 이미지의 인식정보를 포함하여 제공함으로써, 사용자는 도서의 내용을 보다 정확하게 습득할 수 있는 효과를 발휘할 수 있다.Meanwhile, the book reader unit 1200 of the present invention further performs an image recognition step of recognizing the book image information extracted from the derived one or more image areas, and the book reader unit 1200 provides the The screen of the braille pad 4000 provides a list of the one or more book image information according to a user's input, including the image information recognized in the image recognition step. The book reader unit 1200 further includes an image recognition unit 1240, and the image recognition unit 1240 recognizes the book image information extracted from the derived one or more image areas through a learned artificial neural network. Perform the image recognition step. Accordingly, the screen of the braille pad 4000 provided by the book reader unit 1200 is not “image 01” as shown in FIG. It is shown that a list of book image information is provided. 11 (d) also shows that the Braille corresponding to the fire extinguisher is displayed in a dotted pattern. As such, the book reader unit 1200 may provide the book text content and book image information through Braille by dividing the text area and the image area of the book image, and the book image information may be provided through a list according to the user's input. By providing and providing the recognition information of the corresponding image, the user can exert the effect of more accurately acquiring the contents of the book.

도 12는 본 발명의 일 실시예에 따른, 북리더부(1200)에 의하여 제공되는 사용자단말기(3000) 및 점자패드(4000)에서의 화면을 개략적으로 도시한다.12 schematically shows screens of the user terminal 3000 and the braille pad 4000 provided by the book reader 1200 according to an embodiment of the present invention.

도 12의 (a)는 북리더부(1200)에 의하여 제공되는 사용자단말기(3000)에서의 화면을 도시하고, 도 12의 (b)는 북리더부(1200)에 의하여 제공되는 점자패드(4000)에서의 화면을 개략적으로 도시한다. 도 11에 도시된 바와 같은 화면을 제공받은 사용자가 도서이미지정보를 확인하고자 하는 사용자 입력(예를 들어, 점자패드(4000) 버튼 누름)을 하는 경우, 상기 북리더부(1200)는, 입력 수신한 도서이미지에 대한 정보를 사용자단말기(3000)에 송신하여 도 12의 (a)에 도시된 바와 같이 사용자단말기(3000)에서의 화면에서 제공될 수 있다. 또한, 상기 북리더부(1200)는, 도 12의 (b)에 도시된 바와 같이 선택 입력된 도서이미지에 대한 형태가 표시되는 점자출력정보를 생성하여 사용자단말기(3000)에 송신할 수 있다. 송신된 점자출력정보는 도 12의 (b)에 도시된 바와 같이 해당 도서이미지정보에 대한 형태가 표시된 점자가 점자패드(4000)의 화면에 디스플레이 된다. 바람직하게는, 상기 북리더부(1200)는, 사용자의 입력에 따라 검출한 상기 도서이미지정보로부터 추출한 특징점에 기초하여 상기 도서이미지정보의 형태가 표시되는 점자출력정보를 생성한다. 이와 같은 방식으로 상기 북리더부(1200)는, 이미지영역(L1)에서 도출한 도서이미지정보의 형태가 표시된 점자출력정보를 생성하여 제공함으로써, 사용자는 도서이미지정보의 형태가 표시된 점자를 통해 이미지의 구체적인 형태를 직관적으로 이해할 수 있는 효과를 발휘할 수 있다.Fig. 12 (a) shows a screen of the user terminal 3000 provided by the book reader unit 1200, and Fig. 12 (b) is a braille pad 4000 provided by the book reader unit 1200. ) schematically shows the screen. When a user provided with a screen as shown in FIG. 11 makes a user input (eg, pressing a button on the braille pad 4000) to check the book image information, the book reader unit 1200 receives the input Information on one book image may be transmitted to the user terminal 3000 and provided on the screen of the user terminal 3000 as shown in FIG. 12( a ). Also, the book reader unit 1200 may generate braille output information in which the form of the selected and input book image is displayed, as shown in FIG. 12( b ), and transmit it to the user terminal 3000 . The transmitted braille output information is displayed on the screen of the braille pad 4000 in which the form of the corresponding book image information is displayed as shown in FIG. 12(b). Preferably, the book reader unit 1200 generates braille output information in which the form of the book image information is displayed based on the feature points extracted from the book image information detected according to a user's input. In this way, the book reader unit 1200 generates and provides Braille output information in which the form of the book image information derived from the image area L1 is displayed, and thus the user can obtain an image through the Braille in which the form of the book image information is displayed. It is possible to exert the effect of intuitively understanding the specific form of

도 13는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.13 exemplarily shows an internal configuration of a computing device according to an embodiment of the present invention.

도 13에 도시한 바와 같이, 컴퓨팅 장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/Osubsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)는 스마트글래스(2000), 사용자단말기(3000), 서버(1000) 및 점자패드(4000)에 해당될 수 있다.13, the computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, an input/output subsystem ( I/O subsystem) 11400 , a power circuit 11500 , and a communication circuit 11600 may be included at least. In this case, the computing device 11000 may correspond to the smart glass 2000 , the user terminal 3000 , the server 1000 , and the braille pad 4000 .

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 학습된 임베딩모델에 포함하는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, a high-speed random access memory, a magnetic disk, an SRAM, a DRAM, a ROM, a flash memory, or a non-volatile memory. there is. The memory 11200 may include a software module required for the operation of the computing device 11000 , an instruction set, or other various data included in the learned embedding model.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the memory 11200 from other components such as the processor 11100 or the peripheral interface 11300 may be controlled by the processor 11100 .

주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 11300 may couple input and/or output peripherals of computing device 11000 to processor 11100 and memory 11200 . The processor 11100 may execute a software module or an instruction set stored in the memory 11200 to perform various functions for the computing device 11000 and process data.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 may couple various input/output peripherals to the peripheral interface 11300 . For example, the input/output subsystem 11400 may include a controller for coupling a peripheral device such as a monitor, keyboard, mouse, printer, or a touch screen or sensor as required to the peripheral interface 11300 . According to another aspect, input/output peripherals may be coupled to peripheral interface 11300 without going through input/output subsystem 11400 .

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or some of the components of the terminal. For example, the power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or a power source. It may include any other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the communication circuit 11600 may include an RF circuit to transmit and receive an RF signal, also known as an electromagnetic signal, to enable communication with other computing devices.

이러한 도 13의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 13에 도시된 일부 컴포넌트가 생략되거나, 도 13에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 13에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 13 is only an example of the computing device 11000 , and the computing device 11000 may omit some components shown in FIG. 13 , or further include additional components not shown in FIG. 13 , or 2 It may have a configuration or arrangement that combines two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. 13 , and various communication methods (WiFi, 3G, LTE) are provided in the communication circuit 1160 . , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 11000 may be implemented in hardware, software, or a combination of both hardware and software including an integrated circuit specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in a computer-readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed in the user terminal through a file provided by the file distribution system. As an example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computing devices, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (10)

시각장애인 인지보조 시스템으로서,
촬영모듈 및 통신모듈을 포함하고, 상기 촬영모듈에 의하여 촬영된 이미지를 사용자단말기에 송신하는 스마트글래스;
사용자단말기로부터 수신한 데이터에 기초하여 점자 출력을 수행하여 사용자에게 촉각 정보를 제공할 수 있는 점자패드; 및
사용자단말기와 데이터 송수신을 수행하는 서버;를 포함하고,
상기 서버는,
상기 이미지에서 객체를 검출하고, 이에 따라 상기 점자패드에서 출력이 될 점자출력정보 혹은 상기 사용자단말기, 점자패드, 혹은 스마트글래스 중 어느 하나에서 출력이 될 음성출력정보를 생성하는 사물검출부; 및
상기 사물검출부에서 상기 이미지에서 도서이미지를 검출하는 경우에, 상기 점자패드에서 점자출력될 해당 도서의 도서텍스트정보 및 도서이미지정보를 추출하는 북리더부;를 포함하는, 시각장애인 인지보조 시스템.
As a cognitive assistance system for the visually impaired,
a smart glass including a photographing module and a communication module, and transmitting an image photographed by the photographing module to a user terminal;
a braille pad capable of providing tactile information to a user by performing braille output based on data received from the user terminal; and
A server that transmits and receives data with a user terminal; includes;
The server is
an object detection unit that detects an object in the image, and accordingly generates braille output information to be output from the braille pad or audio output information to be output from any one of the user terminal, braille pad, or smart glass; and
When the object detection unit detects a book image from the image, a book reader unit for extracting book text information and book image information of the book to be output in Braille from the braille pad; Containing, a cognitive assistance system for the visually impaired.
청구항 1에 있어서,
상기 사물검출부는,
상기 이미지에서 검출한 객체의 수를 판별하는 단계; 및
검출한 상기 객체의 수가 2 이상인 경우에, 학습된 인공신경망을 통해 검출한 상기 객체를 인식하고, 인식한 상기 객체에 대한 상기 음성출력정보를 생성하는 단계;를 수행하는, 시각장애인 인지보조 시스템.
The method according to claim 1,
The object detection unit,
determining the number of objects detected in the image; and
When the number of the detected objects is two or more, recognizing the detected object through a learned artificial neural network, and generating the voice output information for the recognized object; Cognitive assistance system for the visually impaired to perform.
청구항 1에 있어서,
상기 사물검출부는,
상기 이미지에서 검출한 객체의 수를 판별하는 단계; 및
검출한 상기 객체의 수가 2 이상인 경우에, 학습된 인공신경망을 통해 검출한 상기 객체를 인식하고, 인식한 2 이상의 객체에 대한 좌표정보 및 인식한 2 이상의 객체에 대해 기설정된 기준에 따라 매핑된 아이콘정보를 포함하는 점자출력정보를 생성하는 단계;를 수행하는, 시각장애인 인지보조 시스템.
The method according to claim 1,
The object detection unit,
determining the number of objects detected in the image; and
When the number of the detected objects is two or more, the detected object is recognized through the learned artificial neural network, and coordinate information for the two or more recognized objects and an icon mapped according to a preset criterion for the two or more recognized objects A cognitive assistance system for the visually impaired to perform; generating braille output information including the information.
청구항 1에 있어서,
상기 사물검출부는,
상기 이미지에서 검출한 객체의 수를 판별하는 단계;
검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계;
인식한 객체에 대한 객체정보 및 인식한 객체로부터 추출한 특징점에 기초하여 객체의 형태가 표시되는 점자출력정보를 생성하는 딘계;를 수행하는, 시각장애인 인지보조 시스템.
The method according to claim 1,
The object detection unit,
determining the number of objects detected in the image;
recognizing the object through a learned artificial neural network when the detected object is one;
A cognitive assistance system for the visually impaired that performs a step of generating braille output information in which the shape of an object is displayed based on object information on the recognized object and feature points extracted from the recognized object.
청구항 1에 있어서,
상기 사물검출부는,
상기 이미지에서 검출한 객체의 수를 판별하는 단계;
검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계;
상기 이미지에 인식한 객체의 형태가 모두 포함되지 않은 경우, 인식한 객체에 대한 음성출력정보 및 상기 스마트글래스의 위치조절에 대한 가이드음성출력정보를 생성하는 단계;를 수행하는, 시각장애인 인지보조 시스템.
The method according to claim 1,
The object detection unit,
determining the number of objects detected in the image;
recognizing the object through a learned artificial neural network when the detected object is one;
When the shape of the recognized object is not all included in the image, generating audio output information for the recognized object and guide audio output information for adjusting the position of the smart glass; performing a cognitive assistance system for the visually impaired .
청구항 1에 있어서,
상기 사물검출부는,
상기 이미지에서 검출한 객체의 수를 판별하는 단계;
검출한 상기 객체가 하나인 경우, 학습된 인공신경망을 통해 해당 객체를 인식하는 단계; 및
상기 인공신경망을 통해 해당 객체가 인식되지 않는 경우, 상기 스마트글래스의 위치조절에 대한 가이드음성출력정보를 생성하는 단계;를 수행하는, 시각장애인 인지보조 시스템.

The method according to claim 1,
The object detection unit,
determining the number of objects detected in the image;
recognizing the object through a learned artificial neural network when the detected object is one; and
When the object is not recognized through the artificial neural network, generating guide voice output information for the position adjustment of the smart glass; performing a cognitive assistance system for the visually impaired.

청구항 1에 있어서,
상기 북리더부는,
상기 이미지에서 검출된 상기 도서이미지의 기울기 및 색상 중 1 이상을 기설정된 기준에 따라 변경하여 전처리하는 이미지전처리단계;
상기 이미지전처리단계에서 전처리된 이미지에 기초하여 1 이상의 텍스트영역 및 1 이상의 이미지영역을 도출하는 텍스트이미지영역도출단계;
도출된 상기 1 이상의 텍스트영역의 출력순서를 결정하고, 상기 출력순서에 따라 상기 1 이상의 텍스트영역에 포함된 텍스트를 인식하여 상기 점자패드에서 점자출력될 상기 도서텍스트정보를 도출하는 텍스트인식단계;를 수행하는, 시각장애인 인지보조 시스템.
The method according to claim 1,
The book reader unit,
an image pre-processing step of pre-processing by changing one or more of the gradient and color of the book image detected in the image according to a preset standard;
a text image area deriving step of deriving at least one text area and at least one image area based on the image pre-processed in the image pre-processing step;
A text recognition step of determining the output order of the derived one or more text areas, recognizing the text included in the one or more text areas according to the output order, and deriving the book text information to be output in Braille from the Braille pad; A cognitive assistance system for the visually impaired.
청구항 1에 있어서,
상기 북리더부에 의하여 제공되는 점자패드에서의 화면은,
상기 이미지에서 검출된 도서이미지로부터 1 이상의 텍스트영역 및 1 이상의 이미지영역이 추출되어, 추출된 1 이상의 텍스트영역에 포함된 텍스트가 순차적으로 정렬되어 디스플레이되고,
사용자의 입력에 따라 상기 북리더부에 의하여 검출된 1 이상의 도서 이미지정보에 대한 리스트를 제공하는, 시각장애인 인지보조 시스템.
The method according to claim 1,
The screen on the braille pad provided by the book reader is,
One or more text areas and one or more image areas are extracted from the book image detected in the image, and the texts included in the extracted one or more text areas are sequentially arranged and displayed,
A cognitive assistance system for the visually impaired that provides a list of one or more book image information detected by the book reader according to a user's input.
청구항 7에 있어서,
상기 북리더부는,
도출된 상기 1 이상의 이미지영역에서 추출한 도서이미지정보를 인식하는 이미지인식단계;를 더 수행하고,
상기 북리더부에 의하여 제공되는 점자패드에서의 화면은,
사용자의 입력에 따라 상기 1 이상의 도서이미지정보에 대한 리스트를 상기 이미지인식단계에서 인식한 이미지정보를 포함하여 제공하는, 시각장애인 인지보조 시스템.
8. The method of claim 7,
The book reader unit,
performing an image recognition step of recognizing the book image information extracted from the derived one or more image areas;
The screen on the braille pad provided by the book reader is,
A cognitive assistance system for the visually impaired that provides a list of the one or more book image information according to a user's input, including image information recognized in the image recognition step.
시각장애인 인지보조 시스템에서 구현되는 시각장애인 인지보조 서비스 제공방법으로서,
상기 시각장애인 인지보조 시스템은,
촬영모듈 및 통신모듈을 포함하고, 상기 촬영모듈에 의하여 촬영된 이미지를 사용자단말기에 송신하는 스마트글래스;
사용자단말기로부터 수신한 데이터에 기초하여 점자 출력을 수행하여 사용자에게 촉각 정보를 제공할 수 있는 점자패드; 및
사용자단말기와 데이터 송수신을 수행하는 서버;를 포함하고,
상기 서버는,
상기 이미지에서 객체를 검출하고, 이에 따라 상기 점자패드에서 출력이 될 점자출력정보 혹은 상기 사용자단말기, 점자패드, 혹은 스마트글래스 중 어느 하나에서 출력이 될 음성출력정보를 생성하는 사물검출단계; 및
상기 사물검출단계에서 상기 이미지에서 도서이미지를 검출하는 경우에, 상기 점자패드에서 점자출력될 해당 도서의 도서텍스트정보 및 도서이미지정보를 추출하는 북리더단계;를 포함하는, 시각장애인 인지보조 서비스 제공방법.
As a method of providing a cognitive assistance service for the visually impaired implemented in the cognitive assistance system for the visually impaired,
The cognitive assistance system for the visually impaired,
a smart glass including a photographing module and a communication module, and transmitting an image photographed by the photographing module to a user terminal;
a braille pad capable of providing tactile information to a user by performing braille output based on data received from the user terminal; and
A server that transmits and receives data with a user terminal; includes;
The server is
an object detection step of detecting an object in the image, and generating braille output information to be output from the braille pad or audio output information to be outputted from any one of the user terminal, braille pad, or smart glass according to the object detection step; and
In the case of detecting a book image from the image in the object detection step, a book reader step of extracting the book text information and the book image information of the book to be output in Braille from the braille pad; Containing, providing a cognitive assistance service for the visually impaired method.
KR1020200010642A 2020-01-29 2020-01-29 Cognitive Assistance System and Method for Visually Impaired KR102325061B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200010642A KR102325061B1 (en) 2020-01-29 2020-01-29 Cognitive Assistance System and Method for Visually Impaired

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200010642A KR102325061B1 (en) 2020-01-29 2020-01-29 Cognitive Assistance System and Method for Visually Impaired

Publications (2)

Publication Number Publication Date
KR20210096945A true KR20210096945A (en) 2021-08-06
KR102325061B1 KR102325061B1 (en) 2021-11-11

Family

ID=77315239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200010642A KR102325061B1 (en) 2020-01-29 2020-01-29 Cognitive Assistance System and Method for Visually Impaired

Country Status (1)

Country Link
KR (1) KR102325061B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230108150A (en) * 2022-01-10 2023-07-18 울산과학기술원 Computer device for visual-based tactile output using machine learning model, and method of the same
KR102653698B1 (en) 2023-10-25 2024-04-02 스마일샤크 주식회사 A system to secure the versatility of interworking between Braille pads and applications

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240026057A (en) 2022-08-19 2024-02-27 광운대학교 산학협력단 Target object reaching system feedbacking the user to make the user body touch an target object and operation method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090036183A (en) * 2007-10-09 2009-04-14 슬림디스크 주식회사 The method and divice which tell the recognized document image by camera sensor
US20140023999A1 (en) * 2010-11-24 2014-01-23 New Productivity Group. LLC Detection and feedback of information associated with executive function
KR20170116775A (en) * 2016-04-12 2017-10-20 울산과학기술원 Character recognition devices for visually impaired
KR20190023737A (en) * 2017-08-30 2019-03-08 이창희 Wearable Smart Device for Visually Impaired People
KR20190077639A (en) * 2017-12-14 2019-07-04 주식회사 코이노 Vision aids apparatus for the vulnerable group of sight, remote managing apparatus and method for vision aids

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090036183A (en) * 2007-10-09 2009-04-14 슬림디스크 주식회사 The method and divice which tell the recognized document image by camera sensor
US20140023999A1 (en) * 2010-11-24 2014-01-23 New Productivity Group. LLC Detection and feedback of information associated with executive function
KR20170116775A (en) * 2016-04-12 2017-10-20 울산과학기술원 Character recognition devices for visually impaired
KR20190023737A (en) * 2017-08-30 2019-03-08 이창희 Wearable Smart Device for Visually Impaired People
KR20190077639A (en) * 2017-12-14 2019-07-04 주식회사 코이노 Vision aids apparatus for the vulnerable group of sight, remote managing apparatus and method for vision aids

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230108150A (en) * 2022-01-10 2023-07-18 울산과학기술원 Computer device for visual-based tactile output using machine learning model, and method of the same
KR102653698B1 (en) 2023-10-25 2024-04-02 스마일샤크 주식회사 A system to secure the versatility of interworking between Braille pads and applications

Also Published As

Publication number Publication date
KR102325061B1 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
US20190318545A1 (en) Command displaying method and command displaying device
KR102325061B1 (en) Cognitive Assistance System and Method for Visually Impaired
KR102173123B1 (en) Method and apparatus for recognizing object of image in electronic device
US20160170710A1 (en) Method and apparatus for processing voice input
EP2879095B1 (en) Method, apparatus and terminal device for image processing
KR102309175B1 (en) Scrapped Information Providing Method and Apparatus
KR102240279B1 (en) Content processing method and electronic device thereof
EP3411780B1 (en) Intelligent electronic device and method of operating the same
KR102330829B1 (en) Method and apparatus for providing augmented reality function in electornic device
CN110544272B (en) Face tracking method, device, computer equipment and storage medium
KR20180096183A (en) Method for controlling an intelligent system that performs multilingual processing
KR20150098158A (en) Apparatus and method for recognizing a fingerprint
KR20160143312A (en) Operating method for communication and Electronic device supporting the same
CN111311554A (en) Method, device and equipment for determining content quality of image-text content and storage medium
KR20150118813A (en) Providing Method for Haptic Information and Electronic Device supporting the same
US20180341400A1 (en) Electronic device for selecting external device and controlling the same and operating method thereof
US20180151176A1 (en) Systems and methods for natural language understanding using sensor input
CN112749613B (en) Video data processing method, device, computer equipment and storage medium
KR20170097884A (en) Method for processing image and electronic device thereof
CN112749728A (en) Student model training method and device, computer equipment and storage medium
KR20190135189A (en) Method, Device, and Computer-Readable Medium for Providing Internet Browsing Service by Tactile Interface Device
CN111598896B (en) Image detection method, device, equipment and storage medium
EP3009974A1 (en) Method and apparatus for providing content service
EP3327551A1 (en) Electronic device for displaying image and method for controlling the same
KR20200127928A (en) Method and apparatus for recognizing object of image in electronic device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right