KR102483860B1 - Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent - Google Patents

Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent Download PDF

Info

Publication number
KR102483860B1
KR102483860B1 KR1020210026767A KR20210026767A KR102483860B1 KR 102483860 B1 KR102483860 B1 KR 102483860B1 KR 1020210026767 A KR1020210026767 A KR 1020210026767A KR 20210026767 A KR20210026767 A KR 20210026767A KR 102483860 B1 KR102483860 B1 KR 102483860B1
Authority
KR
South Korea
Prior art keywords
outline
image
information
visually impaired
tactile
Prior art date
Application number
KR1020210026767A
Other languages
Korean (ko)
Other versions
KR20220122303A (en
Inventor
조진수
김갑열
정인철
이종원
이다연
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020210026767A priority Critical patent/KR102483860B1/en
Publication of KR20220122303A publication Critical patent/KR20220122303A/en
Application granted granted Critical
Publication of KR102483860B1 publication Critical patent/KR102483860B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/004Details of particular tactile cells, e.g. electro-mechanical or mechanical layout
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/005Details of specially-adapted software to access information, e.g. to browse through hyperlinked information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72475User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
    • H04M1/72481User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for visually impaired users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • A61H2003/063Walking aids for blind persons with electronic detecting or guiding means with tactile perception
    • A61H2003/065Walking aids for blind persons with electronic detecting or guiding means with tactile perception in the form of braille
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Veterinary Medicine (AREA)
  • Tourism & Hospitality (AREA)
  • Public Health (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • Vascular Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Epidemiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템 및 방법에 관한 것으로서 보다 상세하게는, 시각장애인이 인지하고자 하는 대상을 스마트글래스를 통해 촬영하여, 촬영한 이미지에 나타나는 객체를 이미지의 객체를 인식하여, 인식한 객체의 형태를 시각장애인이 촉각적으로 인식할 수 있는 점자출력정보로 제공할 수 있는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템 및 방법에 관한 것이다.The present invention relates to a cognitive assistance system and method for the visually impaired using a tactile tablet based on artificial intelligence. It relates to a cognitive assistance system and method for the visually impaired using an artificial intelligence-based tactile tablet capable of recognizing an object and providing the shape of the recognized object as braille output information that the blind can tactually recognize. .

Description

인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템 및 방법{Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent}Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent}

본 발명은 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템 및 방법에 관한 것으로서 보다 상세하게는, 시각장애인이 인지하고자 하는 대상을 스마트글래스를 통해 촬영하여, 촬영한 이미지에 나타나는 객체를 이미지의 객체를 인식하여, 인식한 객체의 형태를 시각장애인이 촉각적으로 인식할 수 있는 점자출력정보로 제공할 수 있는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템 및 방법에 관한 것이다.The present invention relates to a cognitive assistance system and method for the visually impaired using a tactile tablet based on artificial intelligence. It relates to a cognitive assistance system and method for the visually impaired using an artificial intelligence-based tactile tablet capable of recognizing an object and providing the shape of the recognized object as braille output information that the blind can tactually recognize. .

시각장애인들이 보다 쉽게 사물을 인식할 수 있도록 하기 위한 많은 기술들의 연구로 인해 관련된 웨어러블 시장이 확대되고 있으며, 시각장애인들에게 제공되는 정보들 또한 다양해지고 있다. 다만, 이러한 기술 혹은 정보들은 대부분 시각장애인이 활용하기 어려운 스마트 기기를 필요로 하기 때문에, 현재 스마트기기를 통해 시각장애인에게 제공되는 정보들은 대부분 음성으로 제공되는 실정이다.
선행발명인 대한민국 공개특허 제10-2012-0063982호는 시각장애 사용자를 위한 인터페이스 장치 및 방법치에 관한 것으로서, 사용자의 터치를 인식하는 터치 인식부 및 상기 터치의 위치에 대응하는 메뉴 또는 응용서비스의 이름을 음성으로 상기 사용자에게 알리는 음성 알림부를 포함하여 시각장애 사용자가 스마트폰과 같은 터치스크린 형태의 휴대단말을 사용하고자 할 때, 터치와 음성 안내 또는 문자입력과 음성 안내를 연계 음성정보를 안내하는 것을 개시하고 있다.
이와 같은 환경은, 눈이 보이지 않는 시각장애인들에게 특정 물체에 대한 형태 등을 음성정보로만 전달하는 것은 시각장애인의 직관적인 이해가 어려운 문제점이 있으며, 시각장애인인 사용자가 모든 물체를 직접 만져보고 인지하는 것은 현실적인 한계가 따른다. 또한, 점자를 통해 특정 개념만을 학습하는 것도 시각장애인이 직관적인 이해를 돕기에는 어려운 실정이다.
이러한 문제점을 해결하기 위하여, 시각장애인들의 주변환경에 대한 정보를 촬영하여 전송할 수 있고, 이를 분석하여 특정 객체에 대한 형태를 직접적으로 표시한 점자출력정보를 제공하여 시각장애인이 다양한 영상정보를 습득, 인지, 및 활용할 수 있게 하여 그들의 일상생활, 교육환경, 안전, 및 삶의 질을 차별화된 응용 기술로써 시각장애인들의 일상생활을 개선시킬 수 있는 서비스를 제공하는 것이 필요하나 이러한 종래의 기술은 전무하다.
Due to the research of many technologies to enable the visually impaired to recognize objects more easily, the related wearable market is expanding, and the information provided to the visually impaired is also diversifying. However, since most of these technologies or information require smart devices that are difficult for visually impaired people to use, most of the information provided to visually impaired people through smart devices is currently provided through voice.
Korean Patent Publication No. 10-2012-0063982, a prior invention, relates to an interface device and method for visually impaired users, and relates to a touch recognition unit that recognizes a user's touch and the name of a menu or application service corresponding to the location of the touch. Including a voice notification unit that notifies the user by voice, when a visually impaired user wants to use a portable terminal in the form of a touch screen such as a smartphone, guides voice information by linking touch and voice guidance or text input and voice guidance. are starting
In such an environment, there is a problem in that it is difficult for the visually impaired to intuitively understand that the form of a specific object is conveyed only as voice information to the blind, and the visually impaired user directly touches and recognizes all objects. Doing so has practical limits. In addition, it is difficult to help the visually impaired to intuitively understand only specific concepts through Braille.
In order to solve this problem, it is possible to photograph and transmit information about the surrounding environment of the visually impaired, and analyze it to provide braille output information that directly displays the shape of a specific object so that the visually impaired can acquire various image information, It is necessary to provide a service that can improve the daily life of the visually impaired as a differentiated application technology for their daily life, educational environment, safety, and quality of life by enabling them to recognize and utilize it, but there is no such conventional technology. .

대한민국 공개특허 제10-2012-0063982호(2012.06.18.)Republic of Korea Patent Publication No. 10-2012-0063982 (2012.06.18.)

본 발명은 시각장애인이 인지하고자 하는 대상을 스마트글래스를 통해 촬영하여, 촬영한 이미지에 나타나는 객체를 이미지의 객체를 인식하여, 인식한 객체의 형태를 시각장애인이 촉각적으로 인식할 수 있는 점자출력정보로 제공할 수 있는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention is to photograph an object that the visually impaired person wants to recognize through smart glasses, recognize the object appearing in the photographed image as an object in the image, and output braille that allows the visually impaired person to tactilely recognize the shape of the recognized object. Its purpose is to provide a cognitive assistance system and method for the visually impaired using a tactile tablet based on artificial intelligence that can be provided as information.

상기와 같은 과제를 해결하기 위하여, 본 발명에서는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템으로서, 촬영모듈 및 통신모듈을 포함하고, 사용자의 입력에 따라 기설정된 1 이상의 촬영모드로 동작될 수 있고, 상기 촬영모듈에 의하여 촬영된 이미지 및 동작된 촬영모드에 대한 정보를 사용자단말기에 송신하는 스마트글래스; 사용자단말기로부터 수신한 데이터에 기초하여 점자 출력을 수행하여 사용자에게 촉각 정보를 제공할 수 있는 촉각태블릿; 및 사용자단말기와 데이터 송수신을 수행하는 서비스서버;를 포함하고, 상기 서비스서버는, 상기 스마트글래스로부터 수신된 이미지에 기초하여 해당 이미지에서의 객체를 검출하는 객체검출부; 검출된 객체의 이미지에 전처리를 수행하고, 전처리가 수행된 객체의 이미지에 기초하여 해당 객체의 형태외곽선을 추출하는 외곽선추출부; 및 상기 촉각태블릿에서 출력될 상기 객체의 형태외곽선의 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 도출하는 단계별점자출력부;를 포함하고, 상기 촉각태블릿에서는, 상기 1 이상의 외곽선점자출력정보가 순차적으로 디스플레이되는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템을 제공한다.In order to solve the above problems, in the present invention, as a cognitive assistance system for the blind using a tactile tablet based on artificial intelligence, including a shooting module and a communication module, in one or more preset shooting modes according to a user's input a smart glass that can be operated and transmits information about an image captured by the photographing module and an operated photographing mode to a user terminal; a tactile tablet capable of providing tactile information to a user by outputting braille based on data received from a user terminal; and a service server that transmits/receives data with the user terminal, wherein the service server includes: an object detection unit that detects an object in a corresponding image based on an image received from the smart glasses; an outline extraction unit which performs pre-processing on the image of the detected object and extracts a shape outline of the object based on the image of the object on which the pre-processing has been performed; and a step-by-step braille output unit for deriving one or more pieces of outline braille output information having different exposure degrees of shape outlines of the object to be output from the tactile tablet, wherein the one or more outline braille output information is sequentially outputted by the tactile tablet. It provides a cognitive assistance system for the visually impaired using a tactile tablet based on artificial intelligence.

본 발명의 일 실시예에서는, 상기 스마트글래스에서 동작되는 상기 촬영모드는, 사용자의 선택 입력에 따라 제1모드, 제2모드, 및 제3모드로 동작될 수 있다.In one embodiment of the present invention, the photographing mode operated by the smart glasses may be operated as a first mode, a second mode, and a third mode according to a user's selection input.

본 발명의 일 실시예에서는, 상기 객체검출부는, 상기 제1모드로 촬영된 이미지에 대한 객체를 검출하는 제1인공신경망모듈; 상기 제2모드로 촬영된 이미지에 대한 객체를 검출하는 제2인공신경망모듈; 및 상기 제3모드로 촬영된 이미지에 대한 객체를 검출하는 제3인공신경망모듈;을 포함할 수 있다.In one embodiment of the present invention, the object detection unit may include a first artificial neural network module for detecting an object in the image captured in the first mode; a second artificial neural network module for detecting an object in the image captured in the second mode; and a third artificial neural network module for detecting an object of an image captured in the third mode.

본 발명의 일 실시예에서는, 상기 외곽선추출부는, 상기 객체검출부에 의하여 검출된 객체의 이미지의 대비처리를 수행하는 단계; 대비처리된 객체의 이미지의 노이즈를 제거하는 노이즈제거단계; 및 노이즈가 제거된 객체의 이미지로부터 객체의 형태외곽선을 추출하는 외곽선추출단계;를 수행할 수 있다.In one embodiment of the present invention, the outline extraction unit, performing contrast processing of the image of the object detected by the object detection unit; A noise removal step of removing noise from the contrast-processed image of the object; and an outline extraction step of extracting a shape outline of the object from the image of the object from which noise has been removed.

본 발명의 일 실시예에서는, 상기 외곽선추출단계에서는, 노이즈가 제거된 객체의 이미지로부터 기설정된 임계값 기준에 따라 객체의 형태외곽선의 노출정도가 결정된 제1외곽선정보, 제2외곽선정보 및 제3외곽선정보를 포함하는 객체의 형태외곽선을 추출할 수 있다.In one embodiment of the present invention, in the step of extracting the outlines, first outline information, second outline information, and third outline information for which the degree of exposure of the shape outline of the object is determined according to a predetermined threshold criterion from the image of the object from which noise has been removed. A shape outline of an object including outline information may be extracted.

본 발명의 일 실시예에서는, 상기 단계별점자출력부는, 상기 외곽선추출부에 의하여 기설정된 임계값 기준에 따라 추출된 객체의 제1외곽선정보, 제2외곽선정보 및 제3외곽선정보를 포함하는 객체의 형태외곽선을 상기 촉각태블릿에서 출력될 제1외곽선점자출력정보, 제2외곽선점자출력정보, 및 제3외곽선점자출력정보를 포함하는 상기 외곽선점자출력정보로 변환하는 단계; 및 변환된 제1외곽선점자출력정보, 제2외곽선점자출력정보, 및 제3외곽선점자출력정보가 순차적으로 상기 촉각태블릿에 출력되도록 제어하는 단계;를 수행할 수 있다.In one embodiment of the present invention, the step-by-step braille output unit is configured to generate information of an object including first outline information, second outline information, and third outline information of an object extracted according to a predetermined threshold criterion by the outline extraction unit. converting a shape outline into the outline braille output information including first outline braille output information, second outline braille output information, and third outline braille output information to be output from the tactile tablet; and controlling the converted first outline braille output information, the second outline braille output information, and the third outline braille output information to be sequentially output to the tactile tablet.

본 발명의 일 실시예에서는, 상기 단계별점자출력부에 의하여 제공되는 촉각태블릿에서의 화면은, 기설정된 기준에 따라 객체의 형태외곽선의 노출정도가 결정된 제1외곽선점자출력정보, 제2외곽선점자출력정보, 및 제3외곽선점자출력정보를 포함하는 외곽선점자출력정보가 순차적으로 디스플레이되고, 사용자의 촉각태블릿에서의 입력에 따라 촉각태블릿에서의 상기 외곽선점자출력정보의 출력영역이 조절되고, 상기 외곽선점자출력정보의 해상도가 결정되어 디스플레이될 수 있다.In one embodiment of the present invention, the screen of the tactile tablet provided by the step-by-step braille output unit includes first outline braille output information and second outline braille output information in which the degree of exposure of the shape outline of the object is determined according to a preset standard. outline braille output information including information and third outline braille output information is sequentially displayed, the output area of the outline braille output information in the tactile tablet is adjusted according to the user's input on the tactile tablet, and the outline braille output information The resolution of the output information may be determined and displayed.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템에서 구현되는 시각장애인 인지보조 서비스를 제공하는 방법으로서,상기 시각장애인 인지보조 시스템은, 촬영모듈 및 통신모듈을 포함하고, 사용자의 입력에 따라 기설정된 1 이상의 촬영모드로 동작될 수 있고, 상기 촬영모듈에 의하여 촬영된 이미지 및 동작된 촬영모드에 대한 정보를 사용자단말기에 송신하는 스마트글래스;사용자단말기로부터 수신한 데이터에 기초하여 점자 출력을 수행하여 사용자에게 촉각 정보를 제공할 수 있는 촉각태블릿; 및 사용자단말기와 데이터 송수신을 수행하는 서비스서버;를 포함하고, 상기 서비스서버는, 상기 스마트글래스로부터 수신된 이미지에 기초하여 해당 이미지에서의 객체를 검출하는 객체검출단계; 검출된 객체의 이미지에 전처리를 수행하고, 전처리가 수행된 객체의 이미지에 기초하여 해당 객체의 형태외곽선을 추출하는 외곽선추출단계; 및 상기 촉각태블릿에서 출력될 상기 객체의 형태외곽선의 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 도출하는 단계별점자출력단계;를 수행하고, 상기 촉각태블릿에서는, 상기 1 이상의 외곽선점자출력정보가 순차적으로 디스플레이되는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 서비스를 제공하는 방법을 제공한다.In order to solve the above problems, in one embodiment of the present invention, as a method of providing a cognitive assistance service for the visually impaired implemented in a cognitive assistance system for the visually impaired using an artificial intelligence-based tactile tablet, the cognitive assistance for the visually impaired The system includes a photographing module and a communication module, can be operated in one or more predetermined photographing modes according to a user's input, and transmits information about an image captured by the photographing module and the operated photographing mode to a user terminal. a smart glass; a tactile tablet capable of providing tactile information to a user by performing braille output based on data received from a user terminal; and a service server that transmits and receives data with the user terminal, wherein the service server includes: an object detection step of detecting an object in a corresponding image based on an image received from the smart glasses; An outline extraction step of performing pre-processing on the image of the detected object and extracting a shape outline of the object based on the image of the object on which the pre-processing has been performed; and a step-by-step braille output step of deriving one or more outline braille output information having different exposure degrees of the shape outline of the object to be output from the tactile tablet, wherein the one or more outline braille output information is sequentially output in the tactile tablet. Provides a method for providing a cognitive assistance service for the visually impaired using a tactile tablet based on artificial intelligence, which is displayed as

본 발명의 일 실시예에 따르면, 스마트글래스를 통해 사용자가 촬영한 객체의 형태를 시각장애인이 촉각적으로 인식할 수 있는 점자출력정보로 제공함으로써, 시각장애를 가진 사용자가 특정 사물의 형태를 보다 직관적으로 인지할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the shape of an object photographed by a user through smart glasses is provided as braille output information that a visually impaired person can tactilely recognize, so that a user with a visual impairment can see the shape of a specific object. It can exert an effect that can be perceived intuitively.

본 발명의 일 실시예에 따르면, 스마트글래스를 통해 획득한 이미지를 분석하여 주변환경에 대한 정보를 시각장애인이 보다 정확하게 이해할 수 있는 점자정보로 제공함으로써, 직접 주변을 볼 수 없는 시각장애인들의 일상생활에서의 불편함을 개선할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by analyzing images acquired through smart glasses and providing information on the surrounding environment as braille information that the blind can more accurately understand, the daily life of the visually impaired who cannot see the surroundings directly It can exert an effect that can improve the discomfort in

본 발명의 일 실시예에 따르면, 스마트글래스에서의 촬영모드에 따라 촬영된 이미지를 분류하여 각각의 학습된 인공신경망에 의하여 객체에 대한 검출 및 인식을 수행함으로써, 학습모델의 갱신시간을 단축할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the update time of the learning model can be reduced by classifying the captured images according to the shooting mode in the smart glasses and detecting and recognizing objects by each learned artificial neural network. effect can be exerted.

본 발명의 일 실시예에 따르면, 검출한 객체의 이미지의 전처리를 수행하여 노이즈를 제거하고, 보다 정확한 객체의 형태를 추출하고, 객체의 형태에 대한 외곽선을 도출할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by performing pre-processing of the image of the detected object, noise can be removed, a more accurate shape of the object can be extracted, and an outline of the shape of the object can be derived.

본 발명의 일 실시예에 따르면, 촉각태블릿을 통해 단계적으로 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 제공하고, 사용자의 확대 혹은 축소를 포함하는 촉각태블릿에서의 입력에 따라 출력영역 및 해상도가 조절된 외곽선점자정보를 제공함으로써, 사용자는 보다 직관적으로 자신이 촬영한 객체의 형태를 파악할 수 있다.According to an embodiment of the present invention, one or more outline embossed output information having different degrees of exposure are provided through the tactile tablet, and the output area and resolution are changed according to input from the tactile tablet including user's enlargement or reduction. By providing the adjusted outline braille information, the user can more intuitively grasp the shape of the object captured by the user.

도 1은 본 발명의 일 실시예에 따른 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템의 전체적인 형태를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 스마트글래스의 형태를 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 스마트글래스의 동작모드를 설명하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 객체검출부의 내부 구성을 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 외곽선추출부의 수행 단계를 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 외곽선추출부의 동작에 따라 추출된 객체의 형태를 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 객체의 형태외곽선 및 형태외곽선에 대한 외곽선점자출력정보를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 단계별외곽선추출부에 의하여 제공되는 촉각태블릿에서의 화면을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 컴퓨팅장치를 예시적으로 도시한다.
1 schematically illustrates the overall form of a cognitive assistance system for the visually impaired using a tactile tablet based on artificial intelligence according to an embodiment of the present invention.
2 schematically illustrates the shape of a smart glass according to an embodiment of the present invention.
3 is a diagram illustrating an operation mode of a smart glass according to an embodiment of the present invention.
4 schematically illustrates the internal configuration of an object detection unit according to an embodiment of the present invention.
5 schematically illustrates the execution step of the outline extraction unit according to an embodiment of the present invention.
6 schematically illustrates the shape of an object extracted according to the operation of the outline extractor according to an embodiment of the present invention.
FIG. 7 schematically illustrates the shape outline of an object and the output information of braille outlines for the shape outline according to an embodiment of the present invention.
8 schematically shows a screen of a tactile tablet provided by a step-by-step outline extraction unit according to an embodiment of the present invention.
9 illustratively illustrates a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a certain component is said to "include", this means that it may further include other components without excluding other components unless otherwise stated.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Therefore, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드 (Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network;LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.A “user terminal” referred to below may be implemented as a computer or portable terminal capable of accessing a server or other terminals through a network. Here, the computer includes, for example, a laptop, desktop, laptop, etc. equipped with a web browser, and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminals, and the like. In addition, a "network" is a wired network such as a local area network (LAN), a wide area network (WAN) or a value added network (VAN), a mobile radio communication network, or a satellite It can be implemented in all kinds of wireless networks such as communication networks.

도 1은 본 발명의 일 실시예에 따른 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템의 전체적인 형태를 개략적으로 도시한다.1 schematically illustrates the overall form of a cognitive assistance system for the visually impaired using a tactile tablet based on artificial intelligence according to an embodiment of the present invention.

본 발명의 인공지능에 기반한 촉각태블릿(3000)을 활용한 시각장애인 인지보조 시스템은, 스마트글래스(2000), 서비스서버(1000), 및 촉각태블릿(3000)을 포함한다. 스마트글래스(2000)는 사용자단말기를 통해 데이터를 송수신할 수 있고, 사용자단말기에서는 스마트글래스(2000)로부터 수신된 데이터를 서비스서버(1000)에 송신할 수 있다. 상기 사용자단말기는 전술한 사용자 단말에 해당할 수 있고, 상기 서비스서버(1000)는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치에 해당한다.The cognitive assistance system for the visually impaired using the artificial intelligence-based tactile tablet 3000 of the present invention includes smart glasses 2000, a service server 1000, and a tactile tablet 3000. The smart glasses 2000 may transmit and receive data through a user terminal, and the user terminal may transmit data received from the smart glasses 2000 to the service server 1000. The user terminal may correspond to the aforementioned user terminal, and the service server 1000 corresponds to a computing device including one or more processors and one or more memories.

상기 사용자단말기는 스마트글래스(2000), 서비스서버(1000), 및 촉각태블릿(3000)과 통신하여 스마트글래스(2000)에서 촬영된 영상정보 혹은 이미지정보를 서버로 송신하고 이미지를 수신한 서비스서버(1000)에서 인공지능 기술에 기반하여 분석된 이미지에 대한 정보를 수신하여 인식된 객체의 형태를 나타내는 객체의 외곽선점자출력 정보를 도출하고, 이를 촉각태블릿(3000)에 송신하여 출력될 수 있도록 한다.The user terminal communicates with the smart glasses 2000, the service server 1000, and the tactile tablet 3000, transmits image information or image information captured by the smart glasses 2000 to the server, and receives the image service server ( In step 1000, information on an image analyzed based on artificial intelligence technology is received, and outline dotted line output information of an object representing the shape of a recognized object is derived, and transmitted to the tactile tablet 3000 so that it can be output.

상기 스마트글래스(2000)는 촬영모듈(2100), 스피커, 통신모듈(2300), 및 버튼부(2400) 중 1 이상을 포함할 수 있다. 사용자는 안경을 착용하는 것과 같은 형태로 스마트글래스(2000)를 착용하여 구비된 버튼부(2400)에 대한 입력을 통해 스마트글래스(2000)에 내장된 촬영모듈(2100)에 의하여 사용자의 시점에 따라 외부환경, 사물, 및 인물 등을 촬영할 수 있다. 또한, 이와 같이 촬영된 이미지는 통신모듈(2300)에 의하여 사용자단말기에 송신된다. 상기 스피커부(2200)는 사용자단말기로부터 수신한 음성출력정보 혹은 스마트글래스(2000)의 동작에 따라 제공되도록 설정된 기설정된 음성출력정보를 출력할 수 있다. 상기 버튼부(2400)는 1 이상의 버튼을 포함하여 각각의 버튼에 기설정된 기능이 설정되어 사용자의 입력에 따라 해당 기능이 동작될 수 있다.The smart glasses 2000 may include at least one of a photographing module 2100, a speaker, a communication module 2300, and a button unit 2400. The user wears the smart glasses 2000 in the same way as wearing glasses, and inputs to the provided button unit 2400 through the photographing module 2100 built in the smart glasses 2000 according to the user's point of view. External environments, objects, and people can be photographed. In addition, the captured image is transmitted to the user terminal through the communication module 2300. The speaker unit 2200 may output audio output information received from the user terminal or preset audio output information set to be provided according to the operation of the smart glasses 2000 . The button unit 2400 includes one or more buttons, and a preset function is set to each button so that the corresponding function can be operated according to a user's input.

한편, 상기 서비스서버(1000)는, 상기 스마트글래스(2000)로부터 수신된 이미지에 기초하여 해당 이미지의 객체를 검출하는 객체검출부(1100); 검출된 객체의 이미지에 전처리를 수행하고, 전처리가 수행된 객체의 이미지에 기초하여 해당 객체의 형태외곽선을 추출하는 외곽선추출부(1100); 및 상기 촉각태블릿(3000)에서 출력될 상기 객체의 형태외곽선의 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 도출하는 단계별점자출력부(1300);를 포함한다.Meanwhile, the service server 1000 includes an object detection unit 1100 that detects an object of a corresponding image based on an image received from the smart glasses 2000; an outline extraction unit 1100 which performs pre-processing on the image of the detected object and extracts a shape outline of the object based on the pre-processed image of the object; and a step-by-step braille output unit 1300 for deriving at least one outline braille output information having different exposure degrees of the shape outline of the object to be output from the tactile tablet 3000.

상기 객체검출부(1100)는, 스마트글래스(2000)로부터 수신한 이미지로부터 객체를 검출한다. 바람직하게는, 상기 객체검출부(1100)는, 스마트글래스(2000)의 제1모드, 제2모드, 및 제3모드에서 촬영된 각각의 이미지에 대한 객체를 검출하는 제1인공신경망모듈, 제2인공신경망모듈, 및 제3인공신경망모듈을 포함한다. 상기 객체검출부(1100)는, 상기 스마트글래스(2000)에서 동작된 촬영모드에 따라 촬영된 이미지가 분류되어 복수의 학습된 인공신경망모듈 각각에 입력되고, 각각의 학습된 인공신경망모듈에 의하여 수신한 이미지에 포함된 객체를 인식할 수 있다.The object detection unit 1100 detects an object from an image received from the smart glasses 2000. Preferably, the object detection unit 1100 includes a first artificial neural network module for detecting an object for each image captured in the first mode, the second mode, and the third mode of the smart glasses 2000; An artificial neural network module, and a third artificial neural network module. The object detection unit 1100 classifies the photographed image according to the photographing mode operated by the smart glasses 2000, inputs it to each of a plurality of learned artificial neural network modules, and receives the received images by each learned artificial neural network module. Objects included in images can be recognized.

상기 외곽선추출부(1100)는, 검출된 객체의 이미지의 전처리를 수행하고, 전처리가 수행된 객체의 이미지에 기초하여 해당 객체의 형태외곽선을 추출한다. 상기 외곽선추출부(1100)는, 상기 객체검출부(1100)에 의하여 검출된 객체의 이미지의 대비처리를 수행하고, 대비처리된 객체의 이미지의 노이즈를 제거하여 보다 뚜렷한 객체의 형태외곽선을 추출할 수 있다. 바람직하게는, 상기 객체의 형태외곽선은, 기설정된 임계값 기준에 따라 객체의 형태외곽선의 노출정도가 결정된 제1외곽선정보, 제2외곽선정보, 및 제3외곽선정보를 포함한다. 제1외곽선정보, 제2외곽선정보, 및 제3외곽선정보를 포함하는 객체의 형태외곽선은 이후 단계별점자출력부(1300)가 생성하는 외곽선점자출력정보를 도출하는데 기초가 된다.The outline extraction unit 1100 performs pre-processing of the image of the detected object, and extracts a shape outline of the object based on the pre-processed image of the object. The outline extraction unit 1100 performs contrast processing on the image of the object detected by the object detection unit 1100 and removes noise from the image of the contrast processed object to extract a more distinct shape outline of the object. there is. Preferably, the shape outline of the object includes first outline information, second outline information, and third outline information for which the degree of exposure of the shape outline of the object is determined according to a preset threshold criterion. The shape outline of the object including the first outline information, the second outline information, and the third outline information becomes a basis for deriving the outline braille output information generated by the step-by-step braille output unit 1300 thereafter.

상기 단계별점자출력부(1300)는, 촉각태블릿(3000)에서 출력될 객체의 형태외곽선의 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 도출한다. 본 발명의 사용자인 시각장애인이 객체의 형태를 보다 정확하게 파악할 수 있도록 객체의 형태에 대한 외곽선이 노출되는 정도가 각각 다른 외곽선점자출력정보를 도출하여, 도출한 1 이상의 외곽선점자출력정보를 순차적으로 촉각태블릿(3000)을 통해 사용자에게 제공할 수 있다. 예를 들어, 촉각태블릿(3000)에는 먼저, 개략적인 사물의 일부 형태만을 나타내는 외곽선을 나타내는 제1외곽선점자출력정보가 디스플레이되고, 이후 제1외곽선점자출력정보 보다는 세부적이고 구체적인 객체의 형태의 외곽선을 나타내는 제2외곽선점자출력정보가 디스플레이되고, 이후, 객체의 모든 형태의 외곽선을 나타내는 제3외곽선점자출력정보가 디스플레이된다. 이와 같이 촉각태블릿(3000)을 통해 단계적으로 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 제공함으로써, 사용자는 보다 직관적으로 자신이 촬영한 객체의 형태를 파악할 수 있다.The step-by-step braille output unit 1300 derives one or more pieces of outline braille output information, each of which has a different degree of exposure of the shape outline of an object to be output from the tactile tablet 3000. In order for the visually impaired user of the present invention to more accurately grasp the shape of the object, outline dotted output information with different exposure levels of the shape of the object is derived, and one or more derived dotted outline dotted line output information is sequentially tactile It can be provided to the user through the tablet 3000. For example, first, on the tactile tablet 3000, first outline braille output information indicating outlines representing only some shapes of objects is displayed, and then outlines of detailed and specific object shapes rather than first outline braille output information are displayed. The second outline braille output information indicating the outline is displayed, and then the third outline braille output information indicating the outline of all shapes of the object is displayed. In this way, by providing one or more pieces of outline braille output information having different degrees of exposure step by step through the tactile tablet 3000, the user can more intuitively grasp the shape of the object he or she has photographed.

한편, 상기 촉각태블릿(3000)은, 사용자단말기를 통해 서비스서버(1000)로부터 수신한 데이터에 기초하여 점자 출력을 수행하고, 사용자에게 촉각 정보를 제공할 수 있다. 촉각그래픽을 제공할 수 있는 임의의 인터페이스장치, 사용자와 상호작용을 할 수 있는 촉각인터페이스 장치 및 촉각 그래픽을 출력할 수 있는 컴퓨팅 장치를 모두 포함할 수 있다.Meanwhile, the tactile tablet 3000 may output braille based on data received from the service server 1000 through the user terminal and provide tactile information to the user. Any interface device capable of providing tactile graphics, a tactile interface device capable of interacting with a user, and a computing device capable of outputting tactile graphics may all be included.

도 1에 도시된 인공지능에 기반한 촉각태블릿(3000)을 활용한 시각장애인 인지보조 시스템은 도시된 구성요소 외의 다른 요소들을 더 포함할 수 있으나, 편의상 본 발명의 일 실시예들에 따른 인지보조 시스템을 설명하기 위한 최소한의 구성요소만을 표시하였다.The cognitive assistance system for the visually impaired using the tactile tablet 3000 based on artificial intelligence shown in FIG. Only the minimum components to explain are shown.

이하에서는, 본 발명의 스마트글래스(2000) 및 서비스서버(1000)의 구체적인 동작에 대해서 보다 자세하게 설명하도록 한다.Hereinafter, specific operations of the smart glasses 2000 and the service server 1000 according to the present invention will be described in more detail.

도 2는 본 발명의 일 실시예에 따른 스마트글래스(2000)의 형태를 개략적으로 도시하고, 도 3은 본 발명의 일 실시예에 따른 스마트글래스(2000)의 동작모드를 설명하는 도면이다.FIG. 2 schematically illustrates a shape of a smart glass 2000 according to an embodiment of the present invention, and FIG. 3 is a diagram explaining an operation mode of the smart glass 2000 according to an embodiment of the present invention.

상기 스마트글래스(2000)는 도 2에 도시된 바와 같이 안경과 유사한 형태로 구성되어 사용자가 스마트글래스(2000)를 눈 앞에 착용하고 구비된 버튼부(2400)를 통한 사용자의 입력에 따라 내장된 촬영모듈(2100)에 의하여 외부환경, 사물, 및 인물 등을 촬영할 수 있다. 상기 스마트글래스(2000)는, 사용자의 입력에 따라 기설정된 1 이상의 촬영모드로 동작될 수 있고, 상기 촬영모듈(2100)에 의하여 촬영된 이미지 및 동작된 촬영모드에 대한 정보를 사용자단말기에 송신한다.As shown in FIG. 2, the smart glasses 2000 are configured in a similar shape to glasses, so that the user wears the smart glasses 2000 in front of the eyes and receives a built-in shooting according to the user's input through the provided button unit 2400. External environments, objects, and people may be photographed by the module 2100 . The smart glasses 2000 can be operated in one or more preset shooting modes according to a user's input, and transmits an image captured by the shooting module 2100 and information on the operated shooting mode to the user terminal. .

상기 버튼부(2400)는 사용자의 입력에 따라 스마트글래스(2000)의 동작을 제어할 수 있다. 버튼부(2400)는 도 2에 도시된 바와 같이 1 이상의 버튼을 포함할 수 있고, 각각의 버튼은 해당 버튼의 기설정된 기능에 따라 스마트글래스(2000)의 동작을 제어할 수 있다. 본 발명의 일 실시예에 따르면 상기 버튼부(2400)는 사용자의 입력에 따라 촬영모듈(2100)을 통해 촬영을 실행하는 촬영버튼, 스마트글래스(2000)의 촬영모드를 설정하는 모드설정버튼 중 1 이상을 포함하고, 이에 한정하지 않고 상황에 따라 사용자가 동작하고자 하는 버튼의 기능을 기설정할 수 있도록 한다.The button unit 2400 may control the operation of the smart glasses 2000 according to a user's input. As shown in FIG. 2 , the button unit 2400 may include one or more buttons, and each button may control the operation of the smart glasses 2000 according to a preset function of the corresponding button. According to an embodiment of the present invention, the button unit 2400 is one of a shooting button for executing shooting through the shooting module 2100 according to a user's input and a mode setting button for setting the shooting mode of the smart glasses 2000. Including the above, but not limited thereto, the function of the button to be operated by the user can be set in advance according to the situation.

도 2에서는 상기 스마트글래스(2000)의 형태 및 구성요소들이 도시되었으나 형태 혹은 구성요소들이 배치된 위치들은 도 2에 도시된 형태 및 위치에 한정하지 않고, 다양한 형태를 가질 수 있으며, 구성요소들이 상기 스마트글래스(2000)의 어느 곳에든 배치될 수 있다.In FIG. 2, the shape and components of the smart glass 2000 are shown, but the shapes or locations where components are arranged are not limited to the shapes and locations shown in FIG. It can be placed anywhere on the smart glass (2000).

바람직하게는, 상기 스마트글래스(2000)에서 동작되는 상기 촬영모드는, 사용자의 선택 입력에 따라 제1모드, 제2모드, 및 제3모드로 동작될 수 있다. 본 발명의 일 실시예에서는, 상기 제1모드, 제2모드 및 제3모드는 본 발명의 사용자인 시각장애인이 촬영하는 사물의 크기에 따라 분류될 수 있다. 도 3에 도시된 바와 같이 제1모드는 승용차, 버스, 및 침대 등과 같은 대형 객체를 촬영하고자 하는 경우에 설정될 수 있고, 제2모드는 라디오, 의자, 및 노트북 등과 같은 중형 객체를 촬영하고자 하는 경우에 설정될 수 있고, 제3모드는 샴푸, 비누, 및 안경 등과 같은 소형 객체를 촬영하고자 하는 경우에 설정될 수 있다. 스마트글래스(2000)의 사용자는 버튼부(2400)를 통한 입력 등을 통해 특정 모드를 선택하고, 스마트글래스(2000)를 통해 해당 객체의 촬영을 수행할 수 있다. 이후, 스마트글래스(2000)는 촬영한 이미지 및 해당 이미지를 촬영할 때 동작된 스마트글래스(2000)의 촬영모드에 대한 정보를 함께 사용자단말기로 송신할 수 있다.Preferably, the photographing mode operated in the smart glasses 2000 may be operated as a first mode, a second mode, and a third mode according to a user's selection input. In one embodiment of the present invention, the first mode, the second mode, and the third mode may be classified according to the size of an object photographed by a visually impaired user of the present invention. As shown in FIG. 3, the first mode can be set when shooting large objects such as cars, buses, and beds, and the second mode is for shooting medium-sized objects such as radios, chairs, and laptops. case, and the third mode can be set when shooting small objects such as shampoo, soap, and glasses. A user of the smart glasses 2000 may select a specific mode through an input through the button unit 2400 and take a photograph of a corresponding object through the smart glasses 2000 . After that, the smart glasses 2000 may transmit the captured image and information about the photographing mode of the smart glasses 2000 operated when the image is photographed to the user terminal.

이와 같은 방식으로, 시각장애인인 사용자가 스마트글래스(2000)를 통해 촬영한 이미지를 기반으로, 해당 이미지로부터 객체를 검출하고, 검출된 객체를 촬영한 이미지에 나타나는 객체를 이미지의 객체를 인식하여, 인식한 객체의 형태를 시각장애인이 촉각적으로 인식할 수 있는 점자출력정보로 제공함으로써, 시각장애를 가진 사용자가 특정 사물의 형태를 보다 직관적으로 인지할 수 있도록 하는 효과를 발휘할 수 있다.In this way, based on the image taken by the visually impaired user through the smart glasses 2000, an object is detected from the image, and an object appearing in the image in which the detected object is taken is recognized as an object in the image, By providing the shape of the recognized object as braille output information that the visually impaired can tactilely recognize, it is possible to exert an effect of allowing the visually impaired user to recognize the shape of a specific object more intuitively.

도 4는 본 발명의 일 실시예에 따른 객체검출부(1100)의 내부 구성을 개략적으로 도시한다.4 schematically illustrates the internal configuration of the object detection unit 1100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 객체검출부(1100)는, 상기 제1모드로 촬영된 이미지에 대한 객체를 검출하는 제1인공신경망모듈; 상기 제2모드로 촬영된 이미지에 대한 객체를 검출하는 제2인공신경망모듈; 및 상기 제3모드로 촬영된 이미지에 대한 객체를 검출하는 제3인공신경망모듈;을 포함한다.The object detection unit 1100 according to an embodiment of the present invention includes a first artificial neural network module for detecting an object in an image captured in the first mode; a second artificial neural network module for detecting an object in the image captured in the second mode; and a third artificial neural network module for detecting an object in the image captured in the third mode.

전술한 바와 같이, 스마트글래스(2000)에 의하여 촬영된 이미지는 사용자단말기를 통해 서비스서버(1000)로 송신된다. 스마트글래스(2000)는 사용자의 선택 입력에 따라 제1모드, 제2모드, 및 제3모드를 포함하는 촬영모드로 동작될 수 있다. 본 발명의 일 실시예에서는, 상기 제1모드는 대형객체에 대한 촬영모드, 상기 제2모드는 중형객체에 대한 촬영모드, 상기 제3모드는 소형객체에 대한 촬영모드로 동작될 수 있다. 상기 객체검출부(1100)는, 제1모드로 촬영된 이미지에 대한 객체를 검출하는 제1인공신경망모듈, 제2모드로 촬영된 이미지에 대한 객체를 검출하는 제2인공신경망모듈, 및 제3모드로 촬영된 이미지에 대한 객체를 검출하는 제3인공신경망모듈을 포함하여, 스마트글래스(2000)로부터 촬영된 이미지와 동작된 촬영모드에 대한 정보를 수신하여, 각각의 이미지를 분류하여 각각의 적절한 학습된 인공신경망모듈에 입력하고, 이에 대한 인식을 수행할 수 있다. 도 4에는 3개의 학습된 인공신경망모듈이 도시되었지만, 이에 한정되지 않고, 스마트글래스(2000)에서 동작되는 촬영모드, 혹은 스마트글래스(2000)로부터 수신한 이미지의 기설정된 기준에 따라 이미지의 분류를 수행하고, 분류된 이미지를 각각의 적합한 인공신경망모듈에 입력할 수 있다.As described above, the image captured by the smart glasses 2000 is transmitted to the service server 1000 through the user terminal. The smart glasses 2000 may be operated in a shooting mode including a first mode, a second mode, and a third mode according to a user's selection input. In one embodiment of the present invention, the first mode is a shooting mode for a large object, the second mode is a shooting mode for a medium-sized object, and the third mode is a shooting mode for a small object. The object detection unit 1100 includes a first artificial neural network module for detecting an object in an image captured in a first mode, a second artificial neural network module for detecting an object in an image captured in a second mode, and a third mode. Including the third artificial neural network module for detecting objects in the captured image, information on the captured image and the operated shooting mode is received from the smart glasses 2000, and each image is classified to perform appropriate learning input to the artificial neural network module and perform recognition on it. Although three learned artificial neural network modules are shown in FIG. 4, it is not limited thereto, and classification of images is performed according to a shooting mode operated in the smart glasses 2000 or a predetermined criterion of images received from the smart glasses 2000. and input the classified image to each suitable artificial neural network module.

이와 같이, 본 발명의 일 실시예에서는, 객체검출부(1100)는 스마트글래스(2000)에서의 촬영모드에 따라 촬영된 이미지를 분류하여 각각의 학습된 인공신경망에 의하여 객체에 대한 검출 및 인식을 수행함으로써, 학습모델의 갱신시간을 단축할 수 있는 효과를 발휘할 수 있다.As such, in one embodiment of the present invention, the object detection unit 1100 classifies the captured image according to the shooting mode in the smart glasses 2000, and detects and recognizes the object by each learned artificial neural network. By doing so, it is possible to exhibit an effect of shortening the update time of the learning model.

도 5는 본 발명의 일 실시예에 따른 외곽선추출부(1100)의 수행 단계를 개략적으로 도시하고, 도 6은 본 발명의 일 실시예에 따른 외곽선추출부(1100)의 동작에 따라 추출된 객체의 형태를 개략적으로 도시한다.Figure 5 schematically shows the steps performed by the outline extractor 1100 according to an embodiment of the present invention, and Figure 6 shows an object extracted according to the operation of the outline extractor 1100 according to an embodiment of the present invention. The shape of is shown schematically.

본 발명의 일 실시예에 따른 외곽선추출부(1100)는, 도 5에 도시된 바와 같이 상기 객체검출부(1100)에 의하여 검출된 객체의 이미지의 대비처리를 수행하는 단계(S100); 대비처리된 객체의 이미지의 노이즈를 제거하는 노이즈제거단계(S110); 및 노이즈가 제거된 객체의 이미지로부터 객체의 형태외곽선을 추출하는 외곽선추출단계(S120);를 수행한다.The outline extraction unit 1100 according to an embodiment of the present invention, as shown in FIG. 5 , performs contrast processing on the image of the object detected by the object detection unit 1100 (S100); A noise removal step (S110) of removing noise from the contrast-processed image of the object; and an outline extraction step (S120) of extracting a shape outline of the object from the image of the object from which noise has been removed.

구체적으로, S100단계에서는 외곽선추출부(1100)는, 객체검출부(1100)에 의하여 검출된 객체의 이미지의 대비처리를 수행한다. 본 발명의 일 실시예에서는, 상기 외곽선추출부(1100)는, GrabCut알고리즘을 사용하여 이미지로부터 객체와 배경을 구분할 수 있다. GrabCut알고리즘을 사용하면 도 6에 도시된 바와 같이, 이미지로부터 배경을 제거하고 추출하고자 하는 객체의 형태부분만을 도출할 수 있고, 배경과 객체를 구분하는 마킹을 수행하여 배경에 대한 마스크를 생성하고 생성한 마스크와 객체의 이미지를 알고리즘에 적용시켜 보다 정교한 객체의 형태부분을 도출할 수도 있다. 또한, S100단계에서는, 도 6에 도시된 바와 같이 추출한 객체의 형태부분의 크기를 조정할 수 있다.Specifically, in step S100, the outline extraction unit 1100 performs contrast processing on the image of the object detected by the object detection unit 1100. In an embodiment of the present invention, the outline extraction unit 1100 may distinguish an object and a background from an image using a GrabCut algorithm. As shown in FIG. 6, if the GrabCut algorithm is used, the background can be removed from the image and only the shape part of the object to be extracted can be derived, and a mask for the background can be created and created by performing marking to distinguish the object from the background. By applying a mask and an image of an object to an algorithm, a more elaborate shape part of an object can be derived. Also, in step S100, as shown in FIG. 6, the size of the shape part of the extracted object may be adjusted.

S110단계에서는, 대비처리되어 추출된 객체의 이미지의 노이즈를 제거한다. 본 발명의 일 실시예에서는, 정확한 형태의 외곽선을 추출하기 위해 가오시안 필터를 이용한 블러링(GaussianBlur)을 수행하여 이미지의 노이즈를 제거할 수 있다. 이미지의 노이즈를 제거하지 않는 경우, 정확한 객체의 외곽선을 검출하기 어려울 수 있기 때문에, 본 발명에서는, S110단계를 수행하여 이미지의 노이즈를 제거할 수 있다. 본 발명의 일 실시예에서는, 가오시안 필터를 이용한 블러링에 한정되지 않고, 이미지의 노이즈를 제거하는 다른 방식이 사용될 수도 있다.In step S110, the noise of the image of the object extracted through contrast processing is removed. In an embodiment of the present invention, noise of an image may be removed by performing GaussianBlur using a Gaosian filter in order to extract an outline of an accurate shape. If the noise of the image is not removed, since it may be difficult to accurately detect the outline of the object, in the present invention, the noise of the image may be removed by performing step S110. In one embodiment of the present invention, it is not limited to blurring using a Gaosian filter, and other methods of removing noise from an image may be used.

S120단계에서는, 노이즈가 제거된 객체의 이미지로부터 객체의 형태외곽선을 추출한다. 본 발명의 일 실시예에서는, Canny알고리즘을 기반으로 객체의 형태외곽선을 추출할 수 있다. Canny알고리즘은 영상정보 혹은 이미지정보에서 엣지(Edge)정보를 검출하는 다단계 알고리즘으로서, 노이즈가 제거된 이미지에 기초하여 그래디언트(gradient)의 벡터를 도출하고, 그래디언트의 벡터를 기설정된 기준에 따라 조절하여 객체의 형태외곽선을 추출할 수 있다. 상기 Canny알고리즘에는 상기 노이즈를 제거하는 단계(S110)가 포함될 수도 있다. 바람직하게는, 상기 외곽선추출부(1100)는, 노이즈가 제거된 객체의 이미지로부터 기설정된 임계값 기준에 따라 객체의 형태외곽선의 노출정도가 결정된 제1외곽선정보, 제2외곽선정보 및 제3외곽선정보를 포함하는 객체의 형태외곽선을 추출한다. 도 6에 도시된 바와 같이 노출정도가 상이한 제1외곽선정보, 제2외곽선정보 및 제3외곽선정보가 도출되고, 이후, 단계별점자출력부(1300)에 의하여 각각의 외곽선정보가 외곽선점자출력정보로 변환될 수 있다.In step S120, the shape outline of the object is extracted from the image of the object from which noise has been removed. In one embodiment of the present invention, the shape outline of an object may be extracted based on the Canny algorithm. The Canny algorithm is a multi-step algorithm that detects image information or edge information from image information. It derives a gradient vector based on an image from which noise has been removed and adjusts the gradient vector according to a preset standard. The shape outline of an object can be extracted. The Canny algorithm may also include removing the noise (S110). Preferably, the outline extraction unit 1100 includes first outline information, second outline information, and third outline information for which the degree of exposure of the shape outline of the object is determined according to a preset threshold criterion from the image of the object from which noise has been removed. Extracts the shape outline of an object that includes information. As shown in FIG. 6, first outline information, second outline information, and third outline information having different degrees of exposure are derived, and thereafter, each outline information is converted to outline braille output information by the step-by-step braille output unit 1300. can be converted

이와 같은 방식으로, 본 발명의 일 실시예에서는, 검출한 객체의 이미지의 전처리를 수행하여 노이즈를 제거하고, 보다 정확한 객체의 형태를 추출하고, 객체의 형태에 대한 외곽선을 도출할 수 있는 효과를 발휘할 수 있다.In this way, in one embodiment of the present invention, the effect of removing noise by performing pre-processing of the image of the detected object, extracting a more accurate shape of the object, and deriving the outline for the shape of the object can exert

도 7은 본 발명의 일 실시예에 따른 객체의 형태외곽선 및 형태외곽선에 대한 외곽선점자출력정보를 개략적으로 도시한다.FIG. 7 schematically illustrates the shape outline of an object and the output information of braille outlines for the shape outline according to an embodiment of the present invention.

전술한 바와 같이 외곽선추출부(1100)는, 노이즈가 제거된 객체의 이미지로부터 기설정된 임계값 기준에 따라 객체의 형태외곽선의 노출정도가 결정된 제1외곽선정보, 제2외곽선정보 및 제3외곽선정보를 포함하는 객체의 형태외곽선을 추출하고, 본 발명의 일 실시예에 따른 단계별점자출력부(1300)는, 상기 외곽선추출부(1100)에 의하여 기설정된 임계값 기준에 따라 추출된 객체의 제1외곽선정보, 제2외곽선정보 및 제3외곽선정보를 포함하는 객체의 형태외곽선을 상기 촉각태블릿(3000)에서 출력될 제1외곽선점자출력정보, 제2외곽선점자출력정보, 및 제3외곽선점자출력정보를 포함하는 상기 외곽선점자출력정보로 변환하는 단계를 수행한다. 이후, 변환된 제1외곽선점자출력정보, 제2외곽선점자출력정보, 및 제3외곽선점자출력정보가 순차적으로 상기 촉각태블릿(3000)에 출력되도록 제어할 수 있다. 도 7의 (a), (b), 및 (c)의 각각의 좌측화면은 외곽선추출부(1100)가 도출한 외곽선정보를, 각각의 우측화면은, 외곽선정보를 변환한 외곽선점자출력정보를 도시한다. 본 발명의 일 실시예에서는, 촉각태블릿(3000)을 통해 개략적인 사물의 일부 형태만을 나타내는 외곽선을 나타내는 제1외곽선점자출력정보를 제공하고, 이후 제1외곽선점자출력정보 보다는 세부적이고 구체적인 객체의 형태의 외곽선을 나타내는 제2외곽선점자출력정보를 제공하고, 이후, 객체의 모든 형태의 외곽선을 나타내는 제3외곽선점자출력정보를 제공할 수 있다. 이와 같이 촉각태블릿(3000)을 통해 단계적으로 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 제공함으로써, 사용자는 보다 직관적으로 자신이 촬영한 객체의 형태를 파악할 수 있다. 바람직하게는, 상기 단계별점자출력부(1300)에 의하여 제공되는 촉각태블릿(3000)에서의 화면은, 기설정된 제1임계값기준에 따라 도출된 제1외곽선점자출력정보, 기설정된 제2임계값기준에 따라 도출된 제2외곽선점자출력정보, 및 기설정된 제3임계값기준에 따라 도출된 제3외곽선점자출력정보가 순차적으로 디스플레이된다.As described above, the outline extraction unit 1100 determines the degree of exposure of the shape outline of the object according to a preset threshold criterion from the image of the object from which noise has been removed, the first outline information, the second outline information, and the third outline information. extracts a shape outline of an object including, and the step-by-step braille output unit 1300 according to an embodiment of the present invention has a first step of the object extracted by the outline extractor 1100 according to a preset threshold criterion. First outline braille output information, second outline braille output information, and third outline braille output information to output the shape outline of the object including outline information, second outline information, and third outline information in the tactile tablet 3000 The step of converting to the outline braille output information including is performed. Thereafter, the converted first outline braille output information, the second outline braille output information, and the third outline braille output information can be controlled to be sequentially output to the tactile tablet 3000 . Each of the left screens in (a), (b), and (c) of FIG. 7 shows the outline information derived by the outline extraction unit 1100, and each right screen shows the outline braille output information converted from the outline information. show In one embodiment of the present invention, the first outline braille output information indicating the outline representing only some shapes of a rough object is provided through the tactile tablet 3000, and then the shape of the object in detail and specific rather than the first outline braille output information Second outline braille output information indicating the outline of the object may be provided, and then third outline braille output information indicating outlines of all shapes of the object may be provided. In this way, by providing one or more pieces of outline braille output information having different degrees of exposure step by step through the tactile tablet 3000, the user can more intuitively grasp the shape of the object he or she has photographed. Preferably, the screen of the tactile tablet 3000 provided by the step-by-step braille output unit 1300 includes first outline braille output information derived according to a preset first threshold value standard and a preset second threshold value. The second outline braille output information derived according to the criterion and the third outline dotted line output information derived according to the predetermined third threshold criterion are sequentially displayed.

도 8은 본 발명의 일 실시예에 따른 단계별외곽선추출부(1100)에 의하여 제공되는 촉각태블릿(3000)에서의 화면을 개략적으로 도시한다.8 schematically shows a screen of the tactile tablet 3000 provided by the step-by-step outline extraction unit 1100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른, 상기 단계별점자출력부(1300)에 의하여 제공되는 촉각태블릿(3000)에서의 화면은, 기설정된 기준에 따라 객체의 형태외곽선의 노출정도가 결정된 제1외곽선점자출력정보, 제2외곽선점자출력정보, 및 제3외곽선점자출력정보를 포함하는 외곽선점자출력정보가 순차적으로 디스플레이되고, 사용자의 촉각태블릿(3000)에서의 입력에 따라 촉각태블릿(3000)에서의 상기 외곽선점자출력정보의 출력영역이 조절되고, 상기 외곽선점자출력정보의 해상도가 결정되어 디스플레이된다. 도 8의 (a) 및 (b)에 도시된 외곽선점자출력정보는 순차적으로 촉각태블릿(3000)을 통해 사용자에게 제공될 수 있고, 도 8과 같은 화면을 제공받은 사용자는 보다 구체적으로 객체의 형태를 확인하기 위해 확대 혹은 축소와 같은 입력을 수행하여 외곽선점자출력정보의 출력영역을 조절할 수 있다. 도 8에 도시된 바와 같이 사용자의 입력에 따라 특정 영역이 확대되거나 혹은 축소될 수 있고, 외곽선점자출력정보가 확대되면 보다 높은 해상도의 외곽선점자출력정보가 제공되어 사용자는 세부적인 객체의 형태를 인지할 수 있다. 이와 같은 방식으로, 촉각태블릿(3000)을 통해 단계적으로 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 제공하고, 사용자의 확대 혹은 축소를 포함하는 촉각태블릿(3000)에서의 입력에 따라 출력영역 및 해상도가 조절된 외곽선점자정보를 제공함으로써, 사용자는 보다 직관적으로 자신이 촬영한 객체의 형태를 파악할 수 있다.According to an embodiment of the present invention, the screen of the tactile tablet 3000 provided by the step-by-step braille output unit 1300 has a first outline braille output in which the degree of exposure of the shape outline of an object is determined according to a preset standard. Outline braille output information including information, second outline braille output information, and third outline braille output information is sequentially displayed, and the outline in the tactile tablet 3000 according to the user's input in the tactile tablet 3000 The output area of the braille output information is adjusted, and the resolution of the outline braille output information is determined and displayed. The outline dotted character output information shown in (a) and (b) of FIG. 8 can be sequentially provided to the user through the tactile tablet 3000, and the user who is provided with the screen shown in FIG. 8 can more specifically determine the shape of the object. In order to confirm, the output area of the outline braille output information can be adjusted by performing an input such as enlargement or reduction. As shown in FIG. 8, a specific area can be enlarged or reduced according to a user's input, and when the outline dot output information is enlarged, higher resolution outline dot output information is provided so that the user can recognize the shape of a detailed object. can do. In this way, one or more outline dotted line output information having different degrees of exposure are provided through the tactile tablet 3000 step by step, and the output area and By providing the resolution-adjusted outline braille information, the user can more intuitively grasp the shape of the object captured by the user.

도 9는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.9 illustratively illustrates the internal configuration of a computing device according to an embodiment of the present invention.

도 9에 도시한 바와 같이, 컴퓨팅 장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/Osubsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)는 스마트글래스(2000), 사용자단말기, 서비스서버(1000) 및 촉각태블릿(3000)에 해당될 수 있다.As shown in FIG. 9, a computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, an input/output subsystem ( I/O subsystem 11400, a power circuit 11500, and a communication circuit 11600 may be included at least. At this time, the computing device 11000 may correspond to the smart glasses 2000, the user terminal, the service server 1000, and the tactile tablet 3000.

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 학습된 임베딩모델에 포함하는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. there is. The memory 11200 may include various other data included in a software module, a command set, or a learned embedding model necessary for the operation of the computing device 11000 .

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the memory 11200 from other components, such as the processor 11100 or the peripheral device interface 11300, may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 11300 may couple input and/or output peripherals of computing device 11000 to processor 11100 and memory 11200 . The processor 11100 may execute various functions for the computing device 11000 and process data by executing software modules or command sets stored in the memory 11200 .

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.Input/output subsystem 11400 can couple various input/output peripherals to peripheral interface 11300. For example, the input/output subsystem 11400 may include a controller for coupling a peripheral device such as a monitor, keyboard, mouse, printer, or touch screen or sensor to the peripheral interface 11300 as needed. According to another aspect, input/output peripherals may be coupled to the peripheral interface 11300 without going through the input/output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or some of the terminal's components. For example, power circuit 11500 may include a power management system, one or more power sources such as a battery or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator or power It may contain any other components for creation, management and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the communication circuit 11600 may include an RF circuit and transmit/receive an RF signal, also known as an electromagnetic signal, to enable communication with another computing device.

이러한 도 9의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 9에 도시된 일부 컴포넌트가 생략되거나, 도 9에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 9에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 9 is only an example of the computing device 11000, and the computing device 11000 may omit some of the components shown in FIG. 9, further include additional components not shown in FIG. It may have a configuration or arrangement combining two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 11000 may be implemented as hardware including one or more signal processing or application-specific integrated circuits, software, or a combination of both hardware and software.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in computer readable media. In particular, the program according to the present embodiment may be composed of a PC-based program or a mobile terminal-specific application. An application to which the present invention is applied may be installed in a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of a user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (8)

인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템으로서,
촬영모듈 및 통신모듈을 포함하고, 사용자의 입력에 따라 기설정된 1 이상의 촬영모드로 동작될 수 있고, 상기 촬영모듈에 의하여 촬영된 이미지 및 동작된 촬영모드에 대한 정보를 사용자단말기에 송신하는 스마트글래스;
사용자단말기로부터 수신한 데이터에 기초하여 점자 출력을 수행하여 사용자에게 촉각 정보를 제공할 수 있는 촉각태블릿; 및
사용자단말기와 데이터 송수신을 수행하는 서비스서버;를 포함하고,
상기 서비스서버는,
상기 스마트글래스로부터 수신된 이미지에 기초하여 해당 이미지에서의 객체를 검출하는 객체검출부;
검출된 객체의 이미지에 전처리를 수행하고, 전처리가 수행된 객체의 이미지에 기초하여 해당 객체의 형태외곽선을 추출하는 외곽선추출부; 및
상기 촉각태블릿에서 출력될 상기 객체의 형태외곽선의 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 도출하는 단계별점자출력부;를 포함하고,
상기 촉각태블릿에서는, 상기 1 이상의 외곽선점자출력정보가 순차적으로 디스플레이되는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템.
As a cognitive assistance system for the visually impaired using a tactile tablet based on artificial intelligence,
A smart glass that includes a photographing module and a communication module, can be operated in one or more predetermined photographing modes according to a user's input, and transmits information about an image captured by the photographing module and the operated photographing mode to a user terminal. ;
a tactile tablet capable of providing tactile information to a user by outputting braille based on data received from a user terminal; and
Including; service server for transmitting and receiving data with the user terminal;
The service server,
an object detection unit for detecting an object in a corresponding image based on the image received from the smart glasses;
an outline extraction unit which performs pre-processing on the image of the detected object and extracts a shape outline of the object based on the image of the object on which the pre-processing has been performed; and
A step-by-step braille output unit for deriving at least one outline braille output information having different exposure degrees of the shape outline of the object to be output from the tactile tablet;
In the tactile tablet, the one or more outline braille output information is sequentially displayed, a cognitive assistance system for the visually impaired using a tactile tablet based on artificial intelligence.
삭제delete 삭제delete 청구항 1에 있어서,
상기 외곽선추출부는,
상기 객체검출부에 의하여 검출된 객체의 이미지의 대비처리를 수행하는 단계;
대비처리된 객체의 이미지의 노이즈를 제거하는 노이즈제거단계; 및
노이즈가 제거된 객체의 이미지로부터 객체의 형태외곽선을 추출하는 외곽선추출단계;를 수행하는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템.
The method of claim 1,
The outline extraction unit,
performing contrast processing on the image of the object detected by the object detection unit;
A noise removal step of removing noise from the contrast-processed image of the object; and
A cognitive assistance system for the visually impaired using a tactile tablet based on artificial intelligence, performing the outline extraction step of extracting the shape outline of the object from the image of the object from which noise has been removed.
삭제delete 삭제delete 삭제delete 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 시스템에서 구현되는 시각장애인 인지보조 서비스를 제공하는 방법으로서,
상기 시각장애인 인지보조 시스템은,
촬영모듈 및 통신모듈을 포함하고, 사용자의 입력에 따라 기설정된 1 이상의 촬영모드로 동작될 수 있고, 상기 촬영모듈에 의하여 촬영된 이미지 및 동작된 촬영모드에 대한 정보를 사용자단말기에 송신하는 스마트글래스;
사용자단말기로부터 수신한 데이터에 기초하여 점자 출력을 수행하여 사용자에게 촉각 정보를 제공할 수 있는 촉각태블릿; 및
사용자단말기와 데이터 송수신을 수행하는 서비스서버;를 포함하고,
상기 서비스서버는,
상기 스마트글래스로부터 수신된 이미지에 기초하여 해당 이미지에서의 객체를 검출하는 객체검출단계;
검출된 객체의 이미지에 전처리를 수행하고, 전처리가 수행된 객체의 이미지에 기초하여 해당 객체의 형태외곽선을 추출하는 외곽선추출단계; 및
상기 촉각태블릿에서 출력될 상기 객체의 형태외곽선의 노출정도가 각각 상이한 1 이상의 외곽선점자출력정보를 도출하는 단계별점자출력단계;를 수행하고,
상기 촉각태블릿에서는, 상기 1 이상의 외곽선점자출력정보가 순차적으로 디스플레이되는, 인공지능에 기반한 촉각태블릿을 활용한 시각장애인 인지보조 서비스를 제공하는 방법.
As a method of providing a cognitive assistance service for the visually impaired implemented in a cognitive assistance system for the visually impaired using an artificial intelligence-based tactile tablet,
The cognitive assistance system for the visually impaired,
A smart glass that includes a photographing module and a communication module, can be operated in one or more predetermined photographing modes according to a user's input, and transmits information about an image captured by the photographing module and the operated photographing mode to a user terminal. ;
a tactile tablet capable of providing tactile information to a user by outputting braille based on data received from a user terminal; and
Including; service server for transmitting and receiving data with the user terminal;
The service server,
an object detection step of detecting an object in a corresponding image based on the image received from the smart glasses;
An outline extraction step of performing pre-processing on the image of the detected object and extracting a shape outline of the object based on the image of the object on which the pre-processing has been performed; and
Performing a step-by-step braille output step of deriving at least one outline braille output information having different exposure degrees of the shape outline of the object to be output from the tactile tablet;
A method for providing a cognitive assistance service for the visually impaired using a tactile tablet based on artificial intelligence, wherein the one or more outline braille output information is sequentially displayed in the tactile tablet.
KR1020210026767A 2021-02-26 2021-02-26 Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent KR102483860B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210026767A KR102483860B1 (en) 2021-02-26 2021-02-26 Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210026767A KR102483860B1 (en) 2021-02-26 2021-02-26 Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent

Publications (2)

Publication Number Publication Date
KR20220122303A KR20220122303A (en) 2022-09-02
KR102483860B1 true KR102483860B1 (en) 2022-12-30

Family

ID=83281006

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210026767A KR102483860B1 (en) 2021-02-26 2021-02-26 Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent

Country Status (1)

Country Link
KR (1) KR102483860B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117576984B (en) * 2023-11-09 2024-06-18 深圳市昱显科技有限公司 Multifunctional teaching terminal mainboard for intelligent education

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396678B1 (en) 2014-01-22 2014-05-30 가천대학교 산학협력단 System and method for displaying visual information based on haptic display for blind person
KR101913623B1 (en) 2018-03-14 2018-10-31 주식회사 아이디어캐슬 A Method of Generating 3-Dimensional Advertisement Using Photographed Images
KR101963390B1 (en) 2017-08-30 2019-03-28 이창희 Wearable Smart Device for Visually Impaired People
KR102034599B1 (en) 2017-10-16 2019-10-21 동아대학교 산학협력단 Smart Band System Linked with Mobile Device for Reading a Braille by Wrists

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120063982A (en) 2010-12-08 2012-06-18 한국전자통신연구원 Apparatus and method of man-machine interface for invisible user
KR20200006384A (en) * 2018-07-10 2020-01-20 주식회사 터치스톤 Method for Printing Braille of Image for Visually Handicapped Person

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396678B1 (en) 2014-01-22 2014-05-30 가천대학교 산학협력단 System and method for displaying visual information based on haptic display for blind person
KR101963390B1 (en) 2017-08-30 2019-03-28 이창희 Wearable Smart Device for Visually Impaired People
KR102034599B1 (en) 2017-10-16 2019-10-21 동아대학교 산학협력단 Smart Band System Linked with Mobile Device for Reading a Braille by Wrists
KR101913623B1 (en) 2018-03-14 2018-10-31 주식회사 아이디어캐슬 A Method of Generating 3-Dimensional Advertisement Using Photographed Images

Also Published As

Publication number Publication date
KR20220122303A (en) 2022-09-02

Similar Documents

Publication Publication Date Title
US10628670B2 (en) User terminal apparatus and iris recognition method thereof
CN110210571B (en) Image recognition method and device, computer equipment and computer readable storage medium
US11455830B2 (en) Face recognition method and apparatus, electronic device, and storage medium
US11455788B2 (en) Method and apparatus for positioning description statement in image, electronic device, and storage medium
US9652661B2 (en) Method and terminal device for image processing
US10970523B2 (en) Terminal and server for providing video call service
US20180007259A1 (en) Photo-taking prompting method and apparatus, an apparatus and non-volatile computer storage medium
Porzi et al. A smart watch-based gesture recognition system for assisting people with visual impairments
CN106709404B (en) Image processing apparatus and image processing method
US11195261B2 (en) Image processing apparatus and image processing method
KR102325061B1 (en) Cognitive Assistance System and Method for Visually Impaired
JP6450709B2 (en) Iris authentication device, iris authentication method, and program
KR20150128377A (en) Method for processing fingerprint and electronic device thereof
US20200026952A1 (en) Electronic apparatus, method for processing image and computer-readable recording medium
EP3320417A1 (en) Using capacitance to detect touch pressure
EP3382596A1 (en) Human face model matrix training method and apparatus, and storage medium
KR20170137491A (en) Electronic apparatus and operating method thereof
US20210279589A1 (en) Electronic device and control method thereof
EP3627383A1 (en) Anti-counterfeiting processing method, anti-counterfeiting processing apparatus and electronic device
CN110765924A (en) Living body detection method and device and computer-readable storage medium
KR102483860B1 (en) Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent
KR20200050696A (en) Electronic device and method for displaying screen via display in low power state
CN110163862B (en) Image semantic segmentation method and device and computer equipment
CN110796673A (en) Image segmentation method and related product
US11257186B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant