KR20190135233A - 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법 - Google Patents

시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법 Download PDF

Info

Publication number
KR20190135233A
KR20190135233A KR1020180060436A KR20180060436A KR20190135233A KR 20190135233 A KR20190135233 A KR 20190135233A KR 1020180060436 A KR1020180060436 A KR 1020180060436A KR 20180060436 A KR20180060436 A KR 20180060436A KR 20190135233 A KR20190135233 A KR 20190135233A
Authority
KR
South Korea
Prior art keywords
image
user
visual
mode
acquired
Prior art date
Application number
KR1020180060436A
Other languages
English (en)
Other versions
KR102291179B1 (ko
Inventor
임동희
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Priority to KR1020180060436A priority Critical patent/KR102291179B1/ko
Priority to PCT/KR2019/006393 priority patent/WO2019231216A1/ko
Priority to US17/059,368 priority patent/US11475663B2/en
Publication of KR20190135233A publication Critical patent/KR20190135233A/ko
Application granted granted Critical
Publication of KR102291179B1 publication Critical patent/KR102291179B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/008Teaching or communicating with blind persons using visual presentation of the information for the partially sighted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/00718
    • G06K9/00744
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B1/00Systems for signalling characterised solely by the form of transmission of the signal
    • G08B1/08Systems for signalling characterised solely by the form of transmission of the signal using electric transmission ; transformation of alarm signals to electrical signals from a different medium, e.g. transmission of an electric alarm signal upon detection of an audible alarm signal
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Emergency Management (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Vascular Medicine (AREA)
  • Optics & Photonics (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Educational Administration (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시 예에 따른 시각 보조 장치는 사용자가 주시하는 전방 상황을 촬영한 영상이 취득되는 영상취득부, 사용자의 전방에 위치하는 객체들에 대한 센싱정보가 취득되는 센서부, 영상취득부에서 취득된 영상이 분석되고, 영상에 대한 분석 결과 및 센서부에서 취득된 센싱정보를 통해 전방 상황에 대한 알림 신호가 생성되는 제어부 및 제어부에서 생성된 알림 신호가 사용자에게 사운드 형태로 제공되는 출력부가 포함될 수 있다.

Description

시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법{THE APPARATUS FOR ASSISTING VISION AND METHOD FOR ASSISTING VISION BY THE APPARATUS}
본 발명은 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법에 관한 것으로, 더욱 상세하게는 사용자의 전방 상황을 촬영한 영상이 영상 내 특징 추출을 위한 학습모델의 실행을 통해서 분석되고, 사용자 전방의 객체들로부터 측정된 센싱정보를 토대로 사용자에게 알림 신호가 제공되어 사용자의 시각 보조가 이루어지도록 하는 시각 보조 장치 및 시각 보조 장치를 이용한 시각 보조 방법에 관한 것이다.
시각 장애인은 맹인과 저시력자를 모두 포함하는 것으로 저시력자도 개인별로 다양한 양상이 나타난다. 또한, 시각장애를 초래하는 원인 질환에는 여러 가지가 있으며, 그 사회의 생활 수준, 처해있는 환경, 시대 변천에 따른 변화 등에 따라 나타나는 양상은 조금씩 다를 수 있다. 특히, 시각 장애의 유형 중 실명과 관계되는 대표적인 몇 가지 중요한 질환의 원인은 다양하며, 그러한 질환들이 확실히 구별될 수 없는 불분명한 경우도 있어 그 원인이 어디에 있는지 알 수 없는 경우도 있다.
기존에는 맹인과 저시력자를 위한 시각 보조 도구에 관한 기술만이 제안되고 있다. 이러한 기술의 경우에도 시각 장애인의 전방 상황에 대하여 각종 센서를 통해서만 시각 장애인의 전방에 대한 정보가 추출되도록 하고 있다. 또한, 시각 장애인의 전방을 촬영하더라도 촬영된 영상의 분석을 통해 시각 장애인을 위해 정확한 정보가 제공되기는 어려운 문제가 있었다.
더불어, 시각 장애인뿐만 아니라 시각 장애를 유발하는 녹내장 등 각종 질환의 경우에도 환자들의 시각 보조를 위한 보조 장치의 개발이 절실한 상황이다.
1. 대한민국 공개특허공보 제10-2003-0015936호 (공개일자 : 2003.02.26)
본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 시각 장애뿐만 아니라 시각 장애와 관련된 다양한 질환들을 가진 사용자들을 위한 시각 보조 장치를 제안함으로써, 각 사용자 별 보조 유형에 맞게 최적의 시각 보조가 이루어지도록 하는 것이다.
본 발명에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 발명의 실시 예들로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
본 발명의 일 실시 예로써, 시각 보조 장치가 제공될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치는 사용자가 주시하는 전방 상황을 촬영한 영상이 취득되는 영상취득부, 사용자의 전방에 위치하는 객체들에 대한 센싱정보가 취득되는 센서부, 영상취득부에서 취득된 영상이 분석되고, 영상에 대한 분석 결과 및 센서부에서 취득된 센싱정보를 통해 전방 상황에 대한 알림 신호가 생성되는 제어부 및 제어부에서 생성된 알림 신호가 사용자에게 사운드 형태로 제공되는 출력부가 포함될 수 있고, 제어부에서는 취득된 영상에서 특징들을 추출하기 위한 소정의 학습모델이 실행되고, 학습모델을 이용하여 추출된 특징들에 기초하여 전방 상황의 객체들을 분류함으로써 영상이 분석될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치는 영상취득부에서 취득된 영상에 대한 보정을 통해 생성된 사용자의 시각 보조를 위한 보조영상을 출력하는 디스플레이부가 더 포함될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치는 사용자에 따른 동작 모드가 선택되도록 하기 위한 모드선택부가 더 포함될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치의 동작 모드에는 전맹 모드가 포함될 수 있고, 동작 모드로써 전맹 모드가 선택된 경우에는, 센서부에서는 객체로부터 사용자까지의 거리 값이 측정될 수 있고, 측정된 거리 값이 소정의 기준 값 이내인 것으로 제어부에 의하여 판단된 경우에는, 출력부를 통하여 알림 신호가 출력될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치의 동작 모드에는 저시력 모드가 포함될 수 있고, 동작 모드로써 저시력 모드가 선택된 경우에는, 디스플레이부에서는 취득된 영상에서 대비(contrast) 데이터, 색상 데이터, 초점 데이터, 밝기 데이터 및 크기 데이터 중 적어도 하나가 조절됨으로써 생성된 보조영상이 출력될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치의 동작 모드에는 녹내장 모드가 포함될 수 있고, 동작 모드로써 녹내장 모드가 선택된 경우에는, 영상취득부에서는 어안 렌즈(fish-eye lens)로 촬영된 어안 영상이 취득될 수 있고, 디스플레이부에서는 사용자의 터널시야(tunnel vision) 내에 어안 영상이 리맵핑(remapping)되도록 하여 형성된 보조영상이 출력될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치의 동작 모드에는 황반원공 모드가 포함될 수 있고, 동작 모드로써 황반원공 모드가 선택된 경우에는, 디스플레이부에서는 사용자의 시야 중심에 생긴 암점으로 인해 결손된 부분이 사용자의 시야 중심에 인접한 주변부에 별도로 표시되도록 하여 형성된 보조영상이 출력될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치의 동작 모드에는 사시 모드가 포함될 수 있고, 동작 모드로써 사시 모드가 선택된 경우에는, 보조영상에는 사용자의 좌안을 위한 제1보조영상 및 사용자의 우안을 위한 제2보조영상이 포함될 수 있고, 디스플레이부에서는 사용자의 좌안의 시야각과 사용자의 우안의 시야각에 기초하여 영상취득부에서 취득된 영상이 시프팅(shifting) 되도록 하여 형성된 제1보조영상 및 제2보조영상이 출력될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치의 동작 모드에는 청각 보조 모드가 포함될 수 있고, 동작 모드로써 청각 보조 모드가 선택된 경우에는, 제어부에서는 센서부에서 취득된 객체로부터의 소리 정보를 분석하여 객체에 관한 이미지 신호가 생성될 수 있고, 제어부에서 생성된 이미지 신호가 영상취득부에서 취득된 영상에 표시되도록 하여 형성된 보조영상이 디스플레이부를 통하여 출력될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치를 이용한 사용자의 시각 보조 방법이 제공될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치를 이용한 사용자의 시각 보조 방법은 사용자가 주시하는 전방 상황에 대한 영상이 취득되는 단계, 사용자의 전방에 위치하는 객체들에 대한 센싱정보가 취득되는 단계, 취득된 영상이 분석되는 단계, 취득된 영상에 대한 분석 결과 및 취득된 센싱정보를 통해 전방상황에 대한 알림 신호가 생성되는 단계 및 생성된 알림 신호가 사용자에게 사운드 형태로 제공되는 단계가 포함될수 있고, 취득된 영상이 분석되는 단계는, 소정의 학습모델이 실행되어 취득된 영상에 대한 특징들이 추출되는 단계 및 추출된 특징들에 기초하여 전방 상황의 객체들이 분류되는 단계가 포함될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치를 이용한 사용자의 시각 보조 방법은 취득된 영상에 대한 분석 결과 및 취득된 센싱정보를 통해 전방상황에 대한 알림 신호가 생성되는 단계의 수행 이전에, 사용자에 따른 동작 모드가 선택되는 단계가 수행되고, 생성된 알림 신호가 사용자에게 사운드 형태로 제공되는 단계와 함께, 취득된 영상의 보정을 통해 생성된 사용자의 시각 보조를 위한 보조영상이 디스플레이되는 단계가 수행될 수 있다.
한편, 본 발명의 일 실시 예로써, 전술한 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 제공될 수 있다.
이와 같은 본 발명에 의해서, 시각 장애 및 시각 장애를 일으키는 관련 질환을 가진 사용자들에게 각 유형에 맞는 최적의 시각 보조 장치가 제공되도록 할 수 있다.
또한, 머신러닝 알고리즘 기반의 학습모델을 통해 촬영된 영상이 분석되도록 함으로써 사용자 전방 상황에 대한 정보가 정확하게 판단되어 시각 보조를 위한 알림 신호가 제공될 수 있다.
더불어, 고글 및 안경 형태의 시각 보조 장치뿐만 아니라 헤드셋 형태나 다른 장치에 부착될 수 있는 시각 보조 모듈 형태로 제작될 수 있어 사용자에게 알맞은 시각 보조 장치의 형태가 제공될 수 있다.
본 발명의 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 발명의 실시 예들에 대한 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 발명을 실시함에 따른 의도하지 않은 효과들 역시 본 발명의 실시 예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 시각 보조 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 고글(goggle) 형태의 시각 보조 장치를 나타내는 예시도이다.
도 3은 본 발명의 일 실시 예에 따른 팩(pack) 형태의 시각 보조 장치가 안경에 결합된 상태를 나타내는 예시도이다.
도 4a는 본 발명의 일 실시 예에 따른 헤드셋(headset) 형태의 시각 보조 장치를 나타낸 정면도이고, 도 4b는 본 발명의 일 실시 예에 따른 헤드셋 형태의 시각 보조 장치를 나타낸 사시도이다.
도 5a는 본 발명의 일 실시 예에 따른 시각 보조 장치의 영상취득부에 의해 촬영된 영상을 나타낸 도면이고, 도 5b는 본 발명의 일 실시 예에 따른 시각 보조 장치의 영상취득부에 의해 촬영된 영상이 제어부에 의해 분석되는 것을 나타낸 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 시각 보조 장치가 사용자 디바이스와 연동되는 것을 나타낸 예시도이다.
도 7은 디스플레이부가 포함된 본 발명의 일 실시 예에 따른 시각 보조 장치의 후방을 나타낸 예시도이다.
도 8은 본 발명의 일 실시 예에 따른 시각 보조 장치의 동작 모드가 사용자 디바이스를 통해 선택되는 것을 나타낸 예시도이다.
도 9는 사용자의 녹내장 진행 정도에 따른 시야를 나타낸 예시도이다.
도 10은 본 발명의 일 실시 예에 따른 시각 보조 장치의 어안 영상이 사용자의 터널시야 내로 리맵핑(remapping)되는 모습을 나타낸 예시도이다.
도 11은 본 발명의 일 실시 예에 따른 시각 보조 장치가 황반원공 모드로 동작되는 경우 사용자의 결손된 시야가 별도로 표시되도록 하는 것을 나타낸 예시도이다.
도 12는 본 발명의 일 실시 예에 따른 시각 보조 장치가 청각 보조 모드로 동작되는 경우 디스플레이부에 이미지 신호가 생성된 것을 나타낸 예시도이다.
도 13은 본 발명의 일 실시 예에 따른 시각 보조 장치를 이용한 사용자의 시각 보조 방법을 나타낸 순서도이다.
도 14는 본 발명의 일 실시 예에 따른 시각 보조 장치가 영상을 분석하는 예시적인 과정을 나타낸 순서도이다.
도 15는 본 발명의 일 실시 예에 따른 시각 보조 장치가 보조 영상을 디스플레이하는 예시적인 과정을 나타낸 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고" 연결되어 있는 경우도 포함한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시 예에 따른 시각 보조 장치(10)를 나타낸 블록도이다. 도 1을 참조하면, 본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 사용자가 주시하는 전방 상황을 촬영한 영상이 취득되는 영상취득부(100), 사용자의 전방에 위치하는 객체들에 대한 센싱정보가 취득되는 센서부(200), 영상취득부(100)에서 취득된 영상이 분석되고, 영상에 대한 분석 결과 및 센서부(200)에서 취득된 센싱정보를 통해 전방 상황에 대한 알림 신호가 생성되는 제어부(300) 및 제어부(300)에서 생성된 알림 신호가 사용자에게 사운드 형태로 제공되는 출력부(400)가 포함될 수 있다. 또한, 시각 보조 장치(10)는 실시 예에 따라서는 시각 보조 장치(10)에 전원을 공급하기 위한 전원부가 더 포함될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 영상취득부(100)에는 사용자가 주시하는 전방 상황이 촬영되도록 하기 위한 적어도 하나의 촬영 모듈 및 촬영 모듈에 의해서 촬영된 영상이 저장되는 저장 모듈이 포함될 수 있다. 영상취득부(100)의 촬영 모듈은 사용자의 좌안 및 우안이 주시하는 상황이 촬영될 수 있도록 사용자의 좌안 부근 및 사용자의 우안 부근에 위치할 수 있다. 촬영 모듈은 CCD(Charge-Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등의 센서를 통해 사용자의 전방 상황이 촬영될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 센서부(200)에는 사용자의 주위에 위치하는 객체가 감지될 수 있는 객체 감지 모듈(210), 사용자의 전방에 위치하는 장애물과의 거리가 측정될 수 있는 거리 측정 모듈(230), 현재 사용자의 위치가 측정될 수 있는 위치 측정 모듈(220), 사용자의 이동 속도가 측정될 수 있는 속도 측정 모듈 중 적어도 어느 하나가 포함될 수 있다. 즉, 사용자의 주위에 위치하는 객체 혹은 장애물에 대한 정보를 취득할 수 있는 센서 모듈은 어느 것이든 포함될 수 있다. 객체 감지 모듈(210)에는 적외선 센서(infrared sensor), 근접 센서(proximity sensor), 초음파 센서(ultrasonic sensor), 모션 센서(motion sensor) 중 적어도 하나가 포함될 수 있다. 거리 측정 모듈(230)에는 적외선 센서, 초음파 센서, 라이다 센서(Light Detection And Ranging, LIDAR), 레이더 센서(Radio Detection And Ranging, RADAR) 중 적어도 하나가 포함될 수 있다. 위치 측정 모듈(220)에는 GPS(Global Positioning System) 모듈, WiFi(Wireless Fidelity) 모듈 및 관성측정모듈(Inertial Measurement Unit) 중 적어도 하나가 포함될 수 있다. 속도 측정 모듈에는 가속도 센서, 자이로 센서 및 관성측정모듈 중 적어도 하나가 포함될 수 있다. 각 센서 모듈에는 센서 모듈에 포함된 적어도 하나의 센서의 제어를 위한 제어회로가 더 포함될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 제어부(300)에서는 영상취득부에서 취득된 영상이 분석되고, 영상에 대한 분석 결과 및 센서부(200)에서 취득된 센싱정보를 통해 전방 상황에 대한 알림 신호가 생성될 수 있다. 제어부(300)에서는 취득된 영상에서 특징들을 추출하기 위한 소정의 학습모델이 실행되고, 학습모델을 이용하여 추출된 특징들에 기초하여 전방 상황의 객체들을 분류함으로써 영상이 분석될 수 있다.
제어부(300)에서는 상기와 같이 알림 신호가 생성되는 동작 외에도, 시각 보조 장치(10)의 전반적인 동작을 제어한다. 즉, 제어부(300)에서는 도 1과 같이 영상취득부(100), 센서부(200), 출력부(400), 모드선택부(500), 전원부(700) 및 통신부(600)가 제어부(300)를 통해 연결되어 각 구성요소들 중 적어도 일부가 제어될 수 있다. 이에 더하여, 제어부(300)에서는 시각 보조 장치(10)의 동작을 위하여 시각 보조 장치(10)에 포함된 구성요소들 중 적어도 둘 이상이 서로 조합하여 동작될 수 있다.
본 발명의 일 실시 예에 따른 출력부(400)에서는 제어부(300)에서 생성된 사용자의 시각 보조를 위한 알림 신호를 사운드(sound) 형태로 제공될 수 있다. 출력부(400)는 사용자의 왼쪽 귀 및 오른쪽 귀 중 적어도 하나의 부근에 위치되도록 하여 사용자가 시각 보조 정보를 용이하게 인식할 수 있도록 할 수 있다.
출력부(400)에서 제공되는 알림 신호의 사운드는 사용자에 의해서 미리 설정될 수 있고, 사용자 디바이스(30)와 연동을 통해 사운드 설정이 변경될 수 있다. 사용자에 의해 미리 설정될 수 있는 사운드에는 아무런 제한이 없으나, 사용자는 사용자 본인에게 알림 신호로 적합한 사운드를 선택할 수 있다. 예를 들면, 사용자 자신과 친숙한 사람이나 사용자 자신이 좋아하는 연예인의 음성 등을 통해 알림 신호가 제공될 수 있다. 또한, 사용자의 전방 상황에 따라 사운드 제공 주기가 달리 설정되어 알림 신호가 제공될 수 있는 등 다양한 패턴의 경보음으로 제공될 수 있다. 더불어, 사운드가 음성 형태로 제공되는 경우 음성은 한국어뿐만 아니라 영어, 일본어, 중국어 등 다양한 언어로 제공될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 전원부(700)에서는 시각 보조 장치(10)의 동작을 위해 전원이 공급될 수 있다. 즉, 전원부(700)의 전원 공급을 통해 시각 보조 장치(10)의 여러 구성요소들이 동작될 수 있다.
전원부(700)는 전원 공급 장치가 포함된 다양한 형태로 형성될 수 있다. 도 2에서와 같이 전원스위치(710)가 부착되어 사용자의 시각 보조 장치(10)의 탈착에 따라 전원 공급 여부가 조절될 수 있다. 예를 들어, 전원스위치(710)는 전원스위치(710)에 정전식 터치 센서 또는 감압식 터치 센서 등이 사용된 접촉감지 센서 모듈이 포함되어 사용자의 시각 보조 장치(10) 착용 시 전원이 공급되도록 하고 사용자가 시각 보조 장치(10)의 장착을 해제하는 경우에는 전원의 공급이 중단될 수 있다.
또한, 전원스위치(710)의 동작에 따라 제어부(300)를 통해서 영상취득부(100)에서의 영상 촬영이 조절될 수 있다. 구체적으로, 사용자가 시각 보조 장치(10)를 착용하는 경우 사용자의 두부(頭部)에 전원스위치(710)가 접촉됨으로써 영상취득부(100)의 촬영 모듈에 의해서 영상이 촬영될 수 있고, 사용자가 시각 보조 장치(10)의 장착을 해제하는 경우 사용자의 두부로부터 전원스위치(710)가 떨어짐으로써 전원부(700)의 전원 공급이 중단되어 영상취득부(100)에 의한 영상 촬영이 중단되도록 할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 고글(goggle) 형태의 시각 보조 장치(10)를 나타내는 예시도이고, 도 3은 본 발명의 일 실시 예에 따른 팩(pack) 형태의 시각 보조 장치(10)가 안경에 결합된 상태를 나타내는 예시도이며, 도 4a는 본 발명의 일 실시 예에 따른 헤드셋(headset) 형태의 시각 보조 장치(10)를 나타낸 정면도 및 도 4b는 본 발명의 일 실시 예에 따른 헤드셋 형태의 시각 보조 장치(10)를 나타낸 사시도이다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 도 2 내지 도 4b와 같이 다양한 형태로 제공될 수 있다. 즉, 도 2에서와 같이 통상의 안경 또는 고글 형태로 제공되거나, 도 3처럼 모듈화하여 통상의 안경 또는 고글에 탈부착될 수 있는 형태로 제공될 수 있으며, 도 4a 및 도 4b에서와 같이 헤드셋 형태로 제공될 수 있다. 이외에도, 귀걸이, 머리띠 또는 목걸이 등과 같이 사용자에게 부착되는 형태로 제공될 수 있고, 사용자의 물품에 부착될 수도 있으며, 사용자가 파지(grab)할 수 있는 형태 등 사용자의 시각을 보조할 수 있는 형태면 어떠한 형태로도 제공될 수 있다.
먼저, 도 2의 본 발명의 일 실시 예에 따른 고글 형태의 시각 보조 장치(10)를 살펴보면, 사용자의 좌안이 주시하는 방향의 전방 영상이 취득되는 제 1 촬영 모듈(110), 사용자 전방의 객체를 감지하는 객체 감지 모듈(210) 및 사용자의 위치가 측정되는 위치 측정 모듈(220)이 시각 보조 장치(10)의 보호경 좌측 상단에, 사용자의 우안이 주시하는 방향의 전방 영상이 취득되는 제 2 촬영 모듈(120) 및 사용자의 전방에 위치한 객체로부터의 거리가 측정되는 거리 측정 모듈(230)이 시각 보조 장치(10)의 보호경 우측 상단에 위치할 수 있다. 또한, 사용자가 도 2의 고글 형태의 시각 보조 장치(10)를 착용한 경우 사용자에게 사운드 형태로 알림 신호가 제공되는 출력부(400)는 사용자의 귀 부근에 위치할 수 있다. 사용자의 고글 형태의 시각 보조 장치(10) 착용 시 출력부(400)는 사용자의 좌측 귀 및 우측 귀 중 어느 한 부분에만 위치할 수 있지만, 사용자의 양쪽 귀 부분 모두에도 위치할 수 있다. 다만, 도 2의 안경 또는 고글 형태의 시각 보조 장치(10)는 예시적인 형태일 뿐이고, 촬영 모듈의 배치, 객체 감지 모듈(210), 위치 측정 모듈(220), 거리 측정 모듈(230) 등 센서 모듈의 배치는 사용자의 시각 보조를 위해 다양하게 배치될 수 있다. 또한, 고글 자체의 형태도 도 2의 시각 보조 장치(10)와는 달리 다양한 형태로 형성될 수 있다.
또한, 도 3의 본 발명의 일 실시 예에 따른 팩 형태의 시각 보조 장치(10)를 살펴보면, 직사각형의 모듈에 제 1 촬영 모듈(110), 객체 감지 모듈(210), 위치 측정 모듈(220), 출력부(400) 등 사용자의 시각 보조를 위한 시각 보조 장치(10)의 구성 요소들이 모듈화되어 형성되어 있다. 다만, 도 3의 팩 형태의 시각 보조 장치(10)는 예시적인 형태일 뿐이고, 촬영 모듈과 센서 모듈 등 시각 보조 장치(10)의 구성 요소들의 배치는 달라질 수 있다. 또한, 도 3에서는 팩 형태의 시각 보조 장치(10)가 체결부재(800)을 통해서 안경의 한쪽 프레임(20)에만 장착되어 있지만, 이와는 달리 양쪽 프레임(20) 모두에 장착될 수 있다. 더불어, 팩 형태의 시각 보조 장치는 안경에 장착되는 것뿐만 아니라, 모듈 형태로써 사용자의 신체 또는 사용자의 물품에 부착되어 사용자의 시각을 보조할 수 있는 형태이면 어떠한 형태로도 제공될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 도 4에서와 같이 헤드셋 형태로 제공될 수도 있다. 이러한 헤드셋 형태의 시각 보조 장치(10)는 제 1 촬영 모듈(110), 제 2 촬영 모듈(120), 객체 감지 모듈(210) 및 출력부(400)가 모듈화되어, 사용자의 헤드셋 형태의 시각 보조 장치(10) 착용시 귀 부분에 위치되도록 형성될 수 있다. 즉, 도 4a와 같이 사용자의 헤드셋 형태의 시각 보조 장치(10) 착용 시 제 1 촬영 모듈(110) 및 제 2 촬영 모듈(120)이 사용자의 전방 상황을 촬영할 수 있도록 헤드셋의 전방을 향하여 형성되어 있지만, 이는 예시적인 형태일 뿐이므로 사용자 전방 상황의 촬영이 가능한 형태이면 어떠한 형태로도 헤드셋에 부착되어 형성될 수 있다. 마찬가지로, 객체 감지 모듈(210)도 사용자 전방의 객체를 탐지할 수 있도록 헤드셋의 전방을 향하여 형성되어 있지만, 이외에도 사용자 전방의 객체를 탐지할 수 있는 형태이면 어떠한 형태로도 헤드셋에 위치하여 형성될 수 있다. 도 4b는 헤드셋 형태의 시각 보조 장치(10)의 사시도를 나타낸 것으로, 사용자의 헤드셋 형태의 시각 보조 장치(10) 착용 시 출력부(400)가 사용자의 귀에 직접적으로 접촉될 수 있도록 하기 위한 구조로 형성될 수 있다. 다만, 이는 예시적인 형태일 뿐이므로, 헤드셋 형태는 도 4a 및 도 4b와는 달리 다양한 형태로 형성될 수 있다.
도 5a는 본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 영상취득부(100)에 의해 촬영된 영상을 나타낸 도면이고, 도 5b는 본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 영상취득부(100)에 의해 촬영된 영상이 제어부(300)에 의해 분석되는 것을 나타낸 예시도이다.
이하에서는, 도 5a 및 도 5b를 참조하여, 본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 제어부(300)에서 학습모델이 실행되어 취득된 영상의 분석을 통해 사용자 전방의 객체들이 분류됨으로써 사용자의 시각 보조가 이루어지는 것에 대해 살펴본다.
제어부(300)에서의 영상 분석은 영상 학습모델을 통해서 이루어질 수 있고, 이러한 학습모델은 기계학습(machine learning) 또는 딥러닝(deep learning) 알고리즘 기반의 모델일 수 있다. 이러한 기계학습 또는 딥러닝 알고리즘 기반의 학습 모델은 기존에 확보된 학습 데이터(training set)를 사용하여 학습 또는 훈련된 모델일 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 제어부(300)에서는 취득된 영상 내에 객체들의 위치 및 종류가 구분될 수 있다. 이를 위해서 제어부(300)에서 실행되는 학습모델에는 영상 내의 객체를 분류하기 위한 딥러닝 모델 중 R-CNN(Regions with Convolution Neural Network), Fast R-CNN, Faster R-CNN, Mask R-CNN이 포함될 수 있다.
도 5a와 같은 영상취득부(100)에 의해 취득된 영상에는 공원에 한 여자가 강아지 한마리를 목줄에 매달아 산책하고 있는 모습이 확인될 수 있다. 이하에서는 도 5b를 참조하여 도 5a의 영상이 R-CNN 기반의 학습모델을 통해 분석되어 영상 내에 객체가 여자, 강아지, 목줄로 분류되는 것을 살펴본다.
먼저, 도 5b의 영역박스설정이미지(130)와 같이 영상취득부(100)에서 취득된 영상 내의 객체들에 영역박스(bounding box)가 설정될 수 있다. 이러한 영역박스를 설정하기 위해 셀렉티브 서치(selective search) 알고리즘이 사용될 수 있다. 이러한 셀렉티브 서치 알고리즘에서는 영상 내에서 색상이나 강도 패턴(image intensity pattern) 등이 비슷한 인접한 픽셀(pixel)이 합쳐지는 방식으로 영역박스가 설정될 수 있다. 상기 영상에서는 도 5b의 영역박스설정이미지(130)에서처럼 여자에 대한 여자영역박스(111), 목줄에 대한 목줄영역박스(112) 및 강아지에 대한 강아지영역박스(113)가 설정될 수 있다.
영역박스가 설정된 이후에는 콘볼루션 신경망(Convolutional Neural Network)의 입력으로 영역박스가 주입될 수 있도록 하기 위해서 설정된 영역박스의 사이즈가 일원화(unification)될 수 있다. 도 5b에서는 설정된 강아지영역박스(113)가 소정의 사이즈로 변경된 일원화이미지(311)를 확인할 수 있다. 소정의 사이즈는 설정된 영역박스의 개수, 콘볼루션 신경망 모델 등을 고려하여 설정될 수 있다.
설정된 영역박스의 사이즈가 일원화된 이후에는, 일원화이미지(311)가 콘볼루션 신경망(310)으로 입력되어 콘볼루션 신경망(310) 내의 컨볼루션 레이어(Convolution Layer), 맥스풀링 레이어(Max-Pooling Layer) 및 풀리 커넥티드 레이어(Fully Connected Layer)를 거쳐 일원화이미지(311) 내 공간적 특징(feature)이 추출될 수 있다.
마지막으로, 추출된 특징을 통해 서포트 벡터 머신(Support Vector Machine)이 사용되어 일원화이미지(311)가 분류됨으로써 영상 내의 객체들이 분류될 수 있다. 도 5b에서는 콘볼루션 신경망(310)에 입력된 일원화이미지(311)가 강아지로 분류된 것이 확인될 수 있다.
이외에도, 영상 내 객체를 검출하기 위해 전처리(pre-processing) 기법이 사전에 수행될 수 있다. 전처리 기법에는 촬영된 영상을 회색조(gray scale) 이미지 및 흑백(binary) 이미지로 변환되도록 하는 기법 등 영상 내 객체 검출이 더 용이하게 수행될 수 있는 기법은 어느 것이나 포함될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 도 6에서와 같이 사용자 디바이스(30)와 연동될 수 있다. 사용자 디바이스(30)는 스마트폰, 핸드폰, PDA, 태블릿 PC 등 사용자가 사용자 디바이스(30)를 사용하여 시각 보조 장치(10)와 연동하여 사용자의 시각을 보조할 수 있는 것이면 어느 것이든 제한이 없다.
또한, 본 발명의 일 실시 예에 따른 시각 보조 장치(10)가 사용자 디바이스(30)와 연동되기 위해서 시각 보조 장치(10)에 통신부(600)가 구비될 수 있다. 통신부(600)에서는 사용자 디바이스(30)와 다양한 데이터들을 송신 또는 수신하기 위한 구성요소이다. 구체적으로, 사용자 디바이스(30)를 통해서 시각 보조 장치(10)의 전원 공급이 조절될 수 있다. 또한, 사용자 디바이스(30)를 통해서 시각 보조 장치(10)의 영상취득부(100)의 동작이 제어될 수 있다. 이외에도, 시각 보조 장치(10)의 여러 구성요소들의 동작을 위한 신호를 사용자 디바이스(30)로부터 수신하거나, 시각 보조 장치(10)의 여러 구성요소들의 동작 상태에 관한 신호를 사용자 디바이스(30)로 송신할 수 있다.
한편, 통신부(600)에는 사용자 디바이스(30)와 무선으로 데이터를 주고받을 수 있는 다양한 무선 통신 모듈이 포함될 수 있다. 예를 들어, 통신부(600)에는 블루투스(Bluetooth), 와이파이(Wifi; Wireless Fidelity), 근거리통신기술(NFC; Near Field Communication), 롱 텀 에볼루션(LTE; Long Term Evolution) 등 다양한 통신방식에 의한 무선 통신 모듈이 포함될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 도 7에서와 같이 디스플레이부가 포함될 수 있다. 도 7에서와 같이 디스플레이부는 좌안을 위한 제 1 디스플레이부(411) 및 우안을 위한 제 2 디스플레이부(412)로 형성될 수 있다. 또한, 이와 달리 디스플레이부는 하나의 디스플레이 패널(panel)로 형성될 수도 있다. 디스플레이부는 액정표시장치(LCD; Liquid Crystal Display), 발광다이오드(LED; Light Emitting Diode), 유기발광다이오드(OLED; Organic Light Emitting Diode) 등의 다양한 디스플레이 장치로 구현될 수 있다. 바람직하게는 투명 유기발광다이오드 소자로 구현될 수 있다.
한편, 디스플레이부에서는 영상취득부(100)에 의해서 취득된 영상이 보정되어 사용자의 시각 보조를 위한 보조영상이 출력될 수 있다. 디스플레이부에는 영상취득부(100)에 의해 취득된 영상의 보정을 위한 영상 처리 모듈이 포함될 수 있다. 영상 처리 모듈에 의한 영상 보정에는 영상 데이터의 색상이 변환되거나, 영상 데이터의 확대 및 축소 등 사용자의 시각 보조를 위한 보조영상을 생성하기 위한 영상 보정의 방법은 어느 것이든 적용될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 사용자에 따른 동작 모드가 선택되도록 하기 위한 모드선택부(500)가 더 포함될 수 있다. 모드선택부(500)는 시각 보조 장치(10)에 버튼 형태 또는 스위치 형태로 부착되어 사용자에 의해 모드가 선택될 수 있다. 또한, 모드선택부(500)에는 정전식 터치 센서 또는 감압식 터치 센서 등이 사용된 접촉감지 센서 모듈이 구비되어 사용자의 접촉을 통해 동작 모드가 선택될 수 있다.
시각 보조 장치(10)의 형태에 따른 모드선택부(500)를 살펴보면, 고글 형태의 본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 경우에는 도 2에서와 같이 왼쪽 프레임(20) 상에 모드선택부(500)가 구비될 수 있다. 또한, 팩 형태의 본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 경우에는 도 3에서와 같이 팩의 측면에 모드선택부(500)가 구비될 수 있다. 더불어, 헤드셋 형태의 본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 경우에는 도 4a 및 도 4b에서와 같이 모드선택부(500)는 헤드셋의 측면에 위치할 수 있다. 다만, 이러한 시각 보조 장치(10)에 구비된 모드선택부(500)는 다양한 형태로 형성될 수 있고, 도 2 내지 도 4b에 모드선택부(500)가 표현된 형태에 제한되지 않는다.
시각 보조 장치(10)에서 도 2 내지 도 4b에서처럼 버튼 및 센서가 구비된 모드선택부와는 달리 본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 도 8에서처럼 사용자 디바이스(30)를 통해 시각 보조 장치(10)의 동작 모드가 선택될 수 있다. 즉, 사용자는 사용자 디바이스(30)의 화면을 터치하거나, 사용자 디바이스(30) 내에 구비된 버튼을 누르는 등 사용자 디바이스(30)의 조작을 통해 시각 보조 장치(10)의 동작 모드를 선택할 수 있다.
시각 보조 장치(10)의 동작 모드에는 전맹 모드, 저시력 모드, 녹내장 모드, 황반원공 모드, 사시 모드, 청각 보조 모드가 포함될 수 있다. 이외에도 시각 장애의 종류 또는 안과 질환의 종류에 따라 사용자의 시각 보조를 위하여 다양한 동작 모드가 포함될 수 있다.
먼저, 사용자가 전맹인 경우에 적용될 수 있는 동작 모드인 전맹 모드를 살펴본다.
전맹이란 눈의 이상이나 신경학적 원인으로 시각 능력을 상실한 상태를 말하는 것으로, 눈을 통해 사물의 판별이 불가능한 상태를 말한다. 사용자가 전맹인 경우에는 시각 보조 장치(10)의 디스플레이부에 의한 보조영상을 출력하더라도 사용자를 위한 시각 보조가 어려울 수 있다.
따라서, 본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 사용자가 전맹인 경우에 동작 모드로써 전맹 모드가 선택된 경우에는 사용자에게 사운드 형태의 알림 신호가 제공되는 방식을 조절하여 시각 보조가 이루어질 수 있다.
도 2와 같은 고글 형태의 시각 보조 장치(10)가 전맹 모드로 동작되는 경우를 살펴보면, 시각 보조 장치(10)에 부착된 객체 감지 모듈(210), 위치 측정 모듈(220), 거리 측정 모듈(230)이 사용되어 알림 신호가 제공되는 방식이 조절될 수 있다.
구체적으로, 객체 감지 모듈(210)에 의해서 사용자 전방의 객체가 감지되고, 거리 측정 모듈(230)을 통해 사용자로부터 전방의 객체까지의 거리가 측정될 수 있는데, 이 경우 제어부(300)에서는 측정된 거리가 소정의 기준 값 이내인 것으로 판단된 경우에만 알림 신호가 제공되도록 할 수 있다. 또한, 상기 측정된 사용자로부터 전방의 객체까지의 거리가 소정의 기준 값 이내인 것으로 판단된 경우에만 영상취득부(100)의 촬영 모듈이 동작되도록 할 수 있다. 더불어, 사용자로부터 객체까지의 거리가 소정의 기준 값보다 큰 경우에는 위치 측정 모듈(220)을 통해 측정된 사용자의 현재 위치만을 토대로 알림 신호가 제공될 수 있다.
예를 들어, 사용자의 보행 중 전방에 사용자 방향으로 보행자가 보행하고 있는 경우를 살펴본다. 시각 보조 장치(10)의 객체 감지 모듈(210)은 사용자 전방의 보행자를 객체로 감지하고, 거리 측정 모듈(230)에 의해서 사용자로부터 보행자까지의 거리가 2 미터(m) 이내인 것으로 판단될 수 있다. 이 때, 영상취득부(100)에서는 사용자 전방의 상황이 촬영된 영상이 취득될 수 있고, 촬영된 영상이 제어부(300)에 의해서 분석되어 객체로써 보행자가 분류될 수 있다. 이를 통해, 보행자가 사용자 방향으로 걸어오고 있다는 내용의 알림신호가 사운드 형태로 사용자에게 제공됨으로써 사용자를 위한 시각 보조가 이루어질 수 있다.
즉, 사용자 전방의 객체에 대한 센싱 신호가 센서부(200)에의해 감지되어 영상취득부(100)에서 취득된 영상의 분석이 필요한 것으로 판단될 수 있다. 이에 따라 제어부(300)에서 영상이 분석되어 사용자의 시각 보조를 위한 알림 신호가 사운드 형태로 제공될 수 있다.
이외에도, 도 2에서의 제 1 조절부(521) 및 제 2 조절부(522)를 통해 사운드 형태로 제공되는 알림 신호의 음량, 언어 등이 조절될 수 있다. 이를 통해, 사용자로 하여금 시각 보조 장치(10)의 알림신호가 조절될 수 있도록 하여 사용자의 시각 보조가 이루어질 수 있다.
사용자가 전맹이 아닌 저시력자인 경우에는 시각 보조 장치(10)는 저시력 모드로 동작될 수 있다. 이하에서는 시각 보조 장치(10)의 동작모드로써 저시력 모드가 선택된 경우를 살펴본다.
저시력자는 완전 실명은 아니지만 사물을 어렴풋이 인식할 수 있는 상태일 수 있다. 저시력자에게도 전맹의 경우처럼 사운드 형태로 제공되는 알림 신호를 통해서 시각 보조가 이루어질 수 있지만 저시력자는 저시력자 자신의 눈으로 사물을 직접 인식할 수 있도록 보조가 이루어지는 것이 더 효과적일 수 있다.
이에 따라, 저시력자의 시각 보조를 위해서 보조영상은 사용자의 시력 정도 또는 시각장애의 정도에 따라 달리 생성되어 출력될 수 있다. 이를 위해 시각 보조 장치(10)가 저시력 모드로 동작되는 경우에는 사용자의 시각장애의 정도 및 종류가 사용자 디바이스(30)를 통해 입력될 수 있다. 시각 보조 장치(10)의 디스플레이부에서는 사용자 디바이스(30)에 의해 입력된 사용자의 시각장애의 정도 및 종류에 따라 취득된 영상이 대비 데이터, 색상 데이터, 초점 데이터, 밝기 데이터 및 크기 데이터 중 적어도 하나가 조절됨으로써 보조영상이 생성되어 출력될 수 있다.
또한, 도 2의 고글 형태의 본 발명의 일 실시 예에 따른 시각 보조 장치(10)에는 제 1 조절부(521) 및 제 2 조절부(522)가 프레임(20)의 일 측면에 구비될 수 있다. 제 1 조절부(521) 및 제 2 조절부(522)는 사용자로 하여금 보조영상이 영상의 확대 및 축소, 색상조절, 초점조절, 밝기조절 중 적어도 어느 하나가 실행될 수 있다. 즉, 이를 통해 생성된 보조영상에서도 사용자의 현재 상황에 맞게 영상이 조절될 수 있도록 하여 사용자의 시각 보조가 이루어질 수 있다.
사용자가 녹내장 질환을 앓고 있는 경우에는 시각 보조 장치(10)는 녹내장 모드로 동작될 수 있다. 이하에서는 시각 보조 장치(10)의 동작모드로써 녹내장 모드가 선택된 경우를 살펴본다.
녹내장은 안압 상승 등의 원인으로 시신경이 손상되어 시야가 좁아진 상태를 말한다. 녹내장 환자의 경우 시야 결손이 진행하여, 말기 녹내장 환자의 경우에는 터널시야(tunnel vision)가 생길 수 있는데, 터널시야는 시야의 중심으로부터 멀어질수록 시야가 어두워지는 터널과 같은 형태로 형성될 수 있다.
녹내장의 진행 정도에 따른 사용자의 시야는, 도 9에서와 같이 정상, 초기 녹내장, 중기 녹내장 및 말기 녹내장 중 적어도 어느 하나로 분류될 수 있다. 즉, 초기 녹내장 환자의 경우에는 암점이 생겨 시야결손을 일으키게 되고, 중기 녹내장 환자는 암점이 더 진해지거나 확대되며, 말기 녹내장의 경우에는 확대된 암점들로 인하여 터널시야가 생길 수 있다. 다만, 도 9의 녹내장으로 인한 시야에 대한 그림은 설명을 위한 예시적인 것일 뿐, 녹내장 환자의 암점 및 터널 시야의 위치가 달라지는 경우 또는 암점이 진해진 정도나 터널시야의 어두운 정도가 달라지는 경우에도 본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 녹내장 모드에 의해 사용자의 시각 보조가 이루어질 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)가 녹내장 모드로 동작되는 경우에는 영상취득부(100)의 촬영 모듈에는 어안 렌즈(fish-eye) 카메라가 포함될 수 있다. 즉, 영상취득부(100)에서는 어안 렌즈로 촬영된 어안 영상(534)이 획득될 수 있다. 디스플레이부에서는 사용자의 터널시야 내에 획득된 어안 영상(534)이 리맵핑(remapping)되도록 하여 형성된 보조영상이 출력될 수 있다.
구체적으로, 도 9의 녹내장 환자와 같이 터널시야가 생긴 경우에는 사용자 전방의 시야에 대한 상황을 제대로 파악하기 어려울 수 있다. 즉, 여자의 상체 부분만 확인될 수 있고, 나머지 시야는 좁혀진 상태로 주변의 객체를 확인하기 조차도 어려울 수 있다. 도 10을 참조하면, 본 발명의 일 실시 예에 따른 시각 보조 장치(10)의 영상취득부(100)에서 촬영된 어안 영상(534)를 통해 넓은 시야를 확보하고, 이러한 어안 영상(534)이 사용자의 터널시야로 리맵핑된 리맵핑영상(535)이 형성될 수 있다. 즉, 도 10의 리맵핑영상(535)과 같이 여자와 강아지가 함께 공원에 있는 어안 영상(534)이 터널시야 내로 리맵핑됨으로써 사용자는 공원에 여자와 강아지가 있는 모습을 확인할 수 있다.
사용자가 황반원공 질환을 갖는 경우에는 시각 보조 장치(10)는 황반원공 모드로 동작될 수 있다. 이하에서는 시각 보조 장치(10)의 동작 모드로써 황반원공 모드가 선택된 경우를 살펴본다.
황반원공은 황반부 망막의 전체 층 또는 일부가 소실된 상태를 말한다. 황반원공 환자의 경우에는 시야의 중심 부분의 시력이 소실되어 시야 중심에 암점이 생성될 수 있다. 도 11을 참조하면, 황반원공시야(541)에는 중심부에 시야가 결손되어 정상시야(531)와는 달리 여자의 상체부분에 대한 시야가 손실된 것이 확인될 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)가 황반원공 모드로 동작되는 경우에는 디스플레이부에서는 사용자의 시야 중심에 생긴 암점으로 인해 결손된 부분이 사용자의 시야 중심에 인접한 주변부에 별도로 표시되도록 하여 형성된 보조영상이 출력될 수 있다. 즉, 도 11에서와 같이 정상시야(531)에서 손실된 여자의 상체부분에 대한 이미지가 황반원공보정영상(542)의 우측 상단에 별도로 표시되도록 하여 사용자를 위한 시각 보조가 이루어질 수 있다. 이에 따라, 사용자는 결손된 시야를 보정영상의 주변부에서 확인할 수 있어 사용자 전방 상황에 대한 정보를 정확히 획득할 수 있다.
사용자가 사시(strabismus) 환자인 경우에는 시각 보조 장치(10)는 사시 모드로 동작될 수 있다. 이하에서는 시각 보조 장치(10)의 동작모드로써 사시 모드가 선택된 경우를 살펴본다.
사시는 두 눈이 정렬되지 않고 서로 다른 지점을 바라보는 시력 장애를 말한다. 사시의 경우에는 좌안 및 우안이 정렬되지 않아 생기는 시야각의 차이를 조정함으로써 시각 보조가 이루어질 수 있다. 따라서, 시야각의 차이가 조절되도록 영상취득부(100)에서 취득된 영상의 시프팅(shifting)을 통해 좌안 및 우안 각각을 위한 보조영상을 달리 형성함으로써 시각 보조가 이루어질 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)는 좌안의 시야각 및 우안의 시야각에 기초하여 영상취득부(100)에서 취득된 영상이 시프팅되도록 하여 제 1 보조영상 및 제 2 보조영상이 생성되도록 할 수 있다. 즉, 영상 시프팅으로 생성된 제 1 보조영상은 좌안을 위한 제 1 디스플레이부(411)로, 제 2 보조영상은 우안을 위한 제 2 디스플레이부(412)로 출력되도록 함으로써 사시를 가진 사용자를 위한 시각 보조가 이루어질 수 있다.
사용자가 청각장애를 가지고 있는 경우에는 시각 보조 장치(10)는 청각 보조 모드로 동작될 수 있다. 다만, 사용자가 시력을 완전히 잃은 전맹의 경우는 제외한 나머지 시각 장애의 경우에만 시각 보조 장치(10)가 청각 보조 모드로 동작될 수 있다. 즉, 저시력자, 녹내장 환자, 황반원공 환자 및 사시 환자가 청각 장애를 가지고 있는 경우에 보조영상의 출력을 통해 시각 보조와 함께 청각 보조가 이루어질 수 있다.
본 발명의 일 실시 예에 따른 시각 보조 장치(10)가 청각 보조 모드로 동작되는 경우에는 제어부(300)에서는 센서부(200)에서 취득된 객체로부터의 소리 정보를 분석하여 객체에 관한 이미지 신호가 생성될 수 있다. 이렇게 제어부(300)에서 생성된 이미지 신호가 영상취득부(100)에서 취득된 영상에 표시되도록 하여 형성된 보조영상이 디스플레이부를 통해 출력됨으로써 청각 보조가 이루어질 수 있다. 이 경우 센서부(200)에는 객체의 소리가 입력될 수 있도록 하기 위한 사운드입력부가 포함될 수 있다.
구체적으로, 도 12를 참조하여 사용자의 청각 보조에 관하여 살펴보면, 센서부(200)의 사운드입력부에서 강아지 짖는 소리가 입력되면 제어부(300)에서 입력된 소리를 분석하여 객체에 대한 이미지 신호가 생성될 수 있다. 즉, 강아지가 짖는 소리를 분석하여 도 12의 “강아지 짖는 소리”와 같은 이미지 신호가 생성될 수 있다. 이러한 이미지 신호는 디스플레이부에서 취득된 영상에 표시되도록 한 도 12의 제 1 청각보조영상(561)과 같은 보조영상이 생성되어 출력되도록 할 수 있다.
또한, 도 12를 참조하면 센서부(200)의 사운드입력부에서 자동차의 경적 소리가 입력된 경우와 같이 제어부(300)에서는 입력된 소리가 전달되는 방향까지 고려될 수 있다. 따라서, 제어부(300)에서는 입력된 소리를 분석하여 후방의 자동차에서 울리는 경적소리라는 이미지 신호가 생성될 수 있다. 결국, 사용자는 영상취득부(100)에서 취득된 영상에서 “후방 자동차 경적 울림”이라는 이미지 신호가 표시된 제 2 청각보조영상(562)과 같이 생성된 보조영상을 확인할 수 있다.
더불어, 사용자가 시력을 완전히 잃은 전맹의 경우는 제외한 나머지 시각 장애의 경우에는 시각 보조 장치(10)가 청각 보조 모드와 함께 다른 동작 모드가 함께 동작될 수 있다. 구체적으로 사용자가 저시력자인 경우에는, 먼저 영상취득부(100)에서 취득된 영상에 대하여 보정이 이루어진 보조영상이 생성될 수 있다. 이후에는 센서부(200)의 사운드입력부에서 취득된 소리 정보가 분석됨으로써 이미지신호가 생성될 수 있다. 결국, 상기 보조영상에 상기 이미지신호가 결합된 영상이 사용자를 위한 디스플레이부에 출력되도록 함으로써 사용자의 시각 보조와 함께 청각보조가 이루어질 수 있다.
도 13은 본 발명의 일 실시 예에 따른 시각 보조 장치(10)를 이용한 사용자의 시각 보조 방법을 나타낸 순서도이다.
도 13을 참조하면, 본 발명의 일 실시 예에 따른 시각 보조 장치(10)를 이용한 사용자의 시각 보조 방법은 사용자가 주시하는 전방 상황에 대한 영상이 취득되는 단계(S100), 사용자의 전방에 위치하는 객체들에 대한 센싱정보가 취득되는 단계(S200), 취득된 영상이 분석되는 단계(S300), 취득된 영상에 대한 분석 결과 및 취득된 센싱정보를 통해 전방상황에 대한 알림 신호가 생성되는 단계(S400) 및 생성된 알림 신호가 사용자에게 사운드 형태로 제공되는 단계(S500)가 포함될 수 있다.
도 14는 본 발명의 일 실시 예에 따른 시각 보조 장치(10)가 영상을 분석하는 예시적인 과정을 나타낸 순서도이다.
도 14를 참조하면, 본 발명의 일 실시 예에 따른 시각 보조 장치(10)에서 영상을 분석하는 단계(S300)는 학습모델이 실행되어 취득된 영상에 대한 특징들이 추출되는 단계(S310) 및 추출된 특징들에 기초하여 전방 상황의 객체들이 분류되는 단계(S320)가 포함될 수 있다.
도 15는 본 발명의 일 실시 예에 따른 시각 보조 장치(10)가 보조 영상을 디스플레이하는 예시적인 과정을 나타낸 순서도이다.
도 15를 참조하면, 본 발명의 일 실시 예에 따른 시각 보조 장치(10)를 이용한 사용자의 시각 보조 방법은 사용자가 주시하는 전방 상황에 대한 영상이 취득되는 단계(S100), 사용자의 전방에 위치하는 객체들에 대한 센싱정보가 취득되는 단계(S200), 취득된 영상이 분석되는 단계(S300), 사용자에 따른 동작 모드가 선택되는 단계(S350), 취득된 영상에 대한 분석 결과 및 취득된 센싱정보를 통해 전방상황에 대한 알림 신호가 생성되는 단계(S400) 및 생성된 알림 신호가 사용자에게 사운드 형태로 제공되는 단계(S500)가 포함될 수 있다.
한편, 전술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록 매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10 : 시각 보조 장치 20 : 프레임
30 : 사용자 디바이스 100 : 영상취득부
110 : 제 1 촬영 모듈 111 : 여자영역박스
112 : 목줄영역박스 113 : 강아지영역박스
120 : 제 2 촬영 모듈 130 : 영역박스설정이미지
200 : 센서부 210 : 객체 감지 모듈
220 : 위치 측정 모듈 230 : 거리 측정 모듈
300 : 제어부 310 : 콘볼루션 신경망
311 : 일원화이미지 400 : 출력부
411 : 제 1 디스플레이부 412 : 제 2 디스플레이부
500 : 모드선택부 521 : 제 1 조절부
522 : 제 2 조절부 531 : 정상시야
534 : 어안 영상 535 : 리맵핑영상
541 : 황반원공시야 542 : 황반원공보정영상
561 : 제 1 청각보조영상 562 : 제 2 청각보조영상
600 : 통신부 700 : 전원부
710 : 전원스위치

Claims (12)

  1. 시각 보조 장치에 있어서,
    사용자가 주시하는 전방 상황을 촬영한 영상이 취득되는 영상취득부;
    상기 사용자의 전방에 위치하는 객체들에 대한 센싱정보가 취득되는 센서부;
    상기 영상취득부에서 취득된 영상이 분석되고, 상기 영상에 대한 분석 결과 및 상기 센서부에서 취득된 센싱정보를 통해 상기 전방 상황에 대한 알림 신호가 생성되는 제어부; 및
    상기 제어부에서 생성된 알림 신호가 상기 사용자에게 사운드 형태로 제공되는 출력부;가 포함되고,
    상기 제어부에서는 상기 취득된 영상에서 특징들을 추출하기 위한 소정의 학습모델이 실행되고, 상기 학습모델을 이용하여 추출된 특징들에 기초하여 상기 전방 상황의 객체들을 분류함으로써 상기 영상이 분석되는 것을 특징으로 하는 시각 보조 장치.
  2. 제 1 항에 있어서,
    상기 영상취득부에서 취득된 영상에 대한 보정을 통해 생성된 상기 사용자의 시각 보조를 위한 보조영상을 출력하는 디스플레이부가 더 포함되는 것을 특징으로 하는 시각 보조 장치.
  3. 제 2 항에 있어서,
    상기 사용자에 따른 동작 모드가 선택되도록 하기 위한 모드선택부가 더 포함되는 것을 특징으로 하는 시각 보조 장치.
  4. 제 3 항에 있어서,
    상기 동작 모드에는 전맹 모드가 포함될 수 있고,
    상기 동작 모드로써 상기 전맹 모드가 선택된 경우에는,
    상기 센서부에서는 상기 객체로부터 상기 사용자까지의 거리 값이 측정될 수 있고, 상기 측정된 거리 값이 소정의 기준 값 이내인 것으로 상기 제어부에 의하여 판단된 경우에는, 상기 출력부를 통하여 상기 알림 신호가 출력되는 것을 특징으로 하는 시각 보조 장치.
  5. 제 3 항에 있어서,
    상기 동작 모드에는 저시력 모드가 포함될 수 있고,
    상기 동작 모드로써 상기 저시력 모드가 선택된 경우에는,
    상기 디스플레이부에서는 상기 취득된 영상에서 대비(contrast) 데이터, 색상 데이터, 초점 데이터, 밝기 데이터 및 크기 데이터 중 적어도 하나가 조절됨으로써 생성된 상기 보조영상이 출력되는 것을 특징으로 하는 시각 보조 장치.
  6. 제 3 항에 있어서,
    상기 동작 모드에는 녹내장 모드가 포함될 수 있고,
    상기 동작 모드로써 상기 녹내장 모드가 선택된 경우에는,
    상기 영상취득부에서는 어안 렌즈(fish-eye lens)로 촬영된 어안 영상이 취득될 수 있고,
    상기 디스플레이부에서는 상기 사용자의 터널시야(tunnel vision) 내에 상기 어안 영상이 리맵핑(remapping)되도록 하여 형성된 상기 보조영상이 출력되는 것을 특징으로 하는 시각 보조 장치.
  7. 제 3 항에 있어서,
    상기 동작 모드에는 황반원공 모드가 포함될 수 있고,
    상기 동작 모드로써 상기 황반원공 모드가 선택된 경우에는,
    상기 디스플레이부에서는 상기 사용자의 시야 중심에 생긴 암점으로 인해 결손된 부분이 상기 사용자의 시야 중심에 인접한 주변부에 별도로 표시되도록 하여 형성된 상기 보조영상이 출력되는 것을 특징으로 하는 시각 보조 장치.
  8. 제 3 항에 있어서,
    상기 동작 모드에는 사시 모드가 포함될 수 있고,
    상기 동작 모드로써 상기 사시 모드가 선택된 경우에는,
    상기 보조영상에는 상기 사용자의 좌안을 위한 제1보조영상 및 상기 사용자의 우안을 위한 제2보조영상이 포함될 수 있고,
    상기 디스플레이부에서는 상기 사용자의 좌안의 시야각과 상기 사용자의 우안의 시야각에 기초하여 상기 영상취득부에서 취득된 영상이 시프팅(shifting) 되도록 하여 형성된 상기 제1보조영상 및 상기 제2보조영상이 출력되는 것을 특징으로 하는 시각 보조 장치.
  9. 제 3 항에 있어서,
    상기 동작 모드에는 청각 보조 모드가 포함될 수 있고,
    상기 동작 모드로써 상기 청각 보조 모드가 선택된 경우에는,
    상기 제어부에서는 상기 센서부에서 취득된 객체로부터의 소리 정보를 분석하여 상기 객체에 관한 이미지 신호가 생성될 수 있고,
    상기 제어부에서 생성된 이미지 신호가 상기 영상취득부에서 취득된 영상에 표시되도록 하여 형성된 상기 보조영상이 상기 디스플레이부를 통하여 출력되는 것을 특징으로 하는 시각 보조 장치.
  10. 시각 보조 장치를 이용한 사용자의 시각 보조 방법에 있어서,
    상기 사용자가 주시하는 전방 상황에 대한 영상이 취득되는 단계;
    상기 사용자의 전방에 위치하는 객체들에 대한 센싱정보가 취득되는 단계;
    상기 취득된 영상이 분석되는 단계;
    상기 취득된 영상에 대한 분석 결과 및 상기 취득된 센싱정보를 통해 상기 전방상황에 대한 알림 신호가 생성되는 단계; 및
    상기 생성된 알림 신호가 상기 사용자에게 사운드 형태로 제공되는 단계;가 포함되고,
    상기 취득된 영상이 분석되는 단계는,
    소정의 학습모델이 실행되어 상기 취득된 영상에 대한 특징들이 추출되는 단계; 및
    상기 추출된 특징들에 기초하여 상기 전방 상황의 객체들이 분류되는 단계가 포함되는 것을 특징으로 하는 시각 보조 방법.
  11. 제 10 항에 있어서,
    상기 취득된 영상에 대한 분석 결과 및 상기 취득된 센싱정보를 통해 상기 전방상황에 대한 알림 신호가 생성되는 단계의 수행 이전에, 상기 사용자에 따른 동작 모드가 선택되는 단계가 수행되고,
    상기 생성된 알림 신호가 상기 사용자에게 사운드 형태로 제공되는 단계와 함께, 상기 취득된 영상의 보정을 통해 생성된 상기 사용자의 시각 보조를 위한 보조영상이 디스플레이되는 단계가 수행되는 것을 특징으로 하는 시각 보조 방법.
  12. 제 10 항 및 제 11 항 중 어느 한 항에 대한 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.
KR1020180060436A 2018-05-28 2018-05-28 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법 KR102291179B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180060436A KR102291179B1 (ko) 2018-05-28 2018-05-28 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법
PCT/KR2019/006393 WO2019231216A1 (ko) 2018-05-28 2019-05-28 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법
US17/059,368 US11475663B2 (en) 2018-05-28 2019-05-28 Visual aid device and visual aid method by which user uses visual aid device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180060436A KR102291179B1 (ko) 2018-05-28 2018-05-28 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법

Publications (2)

Publication Number Publication Date
KR20190135233A true KR20190135233A (ko) 2019-12-06
KR102291179B1 KR102291179B1 (ko) 2021-08-19

Family

ID=68698275

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180060436A KR102291179B1 (ko) 2018-05-28 2018-05-28 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법

Country Status (3)

Country Link
US (1) US11475663B2 (ko)
KR (1) KR102291179B1 (ko)
WO (1) WO2019231216A1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102234079B1 (ko) * 2020-11-26 2021-03-31 (주)에스알포스트 시각 보조 장치 및 방법
KR20210080143A (ko) * 2019-12-20 2021-06-30 주식회사 코이노 다자 간 협업 기반 객체 인식 시스템 및 그 방법
JP2021124520A (ja) * 2020-01-31 2021-08-30 株式会社ジョリーグッド 画像表示装置、画像表示用プログラム及び画像表示方法
KR20220074503A (ko) * 2020-11-27 2022-06-03 주식회사 피씨티 저시력자의 주변환경에서의 단차를 감지하는 시각보조장치
KR20220075128A (ko) * 2020-11-27 2022-06-07 가천대학교 산학협력단 시각 기능 훈련 컨텐츠를 제공하는 방법 및 시스템
KR20230021490A (ko) * 2021-08-05 2023-02-14 경북대학교 산학협력단 시각을 이용한 청각 보조 시스템 및 청각 보조 방법
KR20230079924A (ko) * 2021-11-29 2023-06-07 주식회사 피씨티 시각장애인 및 저시력자를 위한 보행보조정보를 제공하는 보행보조장치
KR102706148B1 (ko) * 2023-12-29 2024-09-12 주식회사 피씨티 저시력자 시각 보조 기능을 수행하는 xr글래스시스템 및 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908340B2 (en) * 2019-07-24 2024-02-20 Arris Enterprises Llc Magnification enhancement of video for visually impaired viewers
JP2022160820A (ja) * 2021-04-07 2022-10-20 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
CN113238700B (zh) 2021-06-03 2024-04-05 艾视雅健康科技(苏州)有限公司 一种头戴式电子辅助视觉设备及其图像自动放大方法
CN113709440A (zh) * 2021-08-24 2021-11-26 杭州瑞杰珑科技有限公司 一种视力障碍辅助装置及其图像处理方法
DE102022203030B3 (de) 2022-03-28 2023-09-14 Continental Automotive Technologies GmbH Objektsignalisierungsvorrichtung, Objektsignalisierungssystem und Objektsignalisierungsverfahren zum Signalisieren von erfassten Objekten in einer Umgebung einer laufenden Person

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000325389A (ja) * 1999-05-24 2000-11-28 Matsushita Electric Ind Co Ltd 視覚補助装置
JP2001318347A (ja) * 2000-05-09 2001-11-16 Nitto Kogaku Kk 眼鏡および眼鏡フレーム
JP2002065721A (ja) * 2000-08-29 2002-03-05 Komatsu Ltd 視覚障害者用環境認識支援装置及びその方法
KR20030015936A (ko) 2001-08-18 2003-02-26 양철호 시각 장애인용 시각 보조장치
KR20120059281A (ko) * 2010-11-30 2012-06-08 전자부품연구원 시각 지원 보조 시스템 및 방법
KR20120059753A (ko) * 2010-12-01 2012-06-11 한국표준과학연구원 시각장애인용 전방위 방향제시 장치, 시스템, 그를 이용한 안내방법, 및 그 기록매체

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060071507A (ko) 2004-12-22 2006-06-27 주식회사 팬택앤큐리텔 보행 보조 장치 및 방법
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
WO2012040386A1 (en) * 2010-09-21 2012-03-29 4Iiii Innovations Inc. Head-mounted peripheral vision display systems and methods
KR101716422B1 (ko) 2013-06-12 2017-03-14 삼성전자주식회사 의료 정보 제공 방법 및 장치
EP3189370A1 (en) * 2014-09-01 2017-07-12 Eyra Ltd Process and wearable device equipped with stereoscopic vision for helping the user
KR20160028305A (ko) 2014-09-03 2016-03-11 삼성전자주식회사 시각장애인용 보조 장치 및 그 제어 방법
KR102333479B1 (ko) 2015-03-31 2021-12-03 한국전자통신연구원 유방 병변 진단을 위한 영상 판독 보조 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000325389A (ja) * 1999-05-24 2000-11-28 Matsushita Electric Ind Co Ltd 視覚補助装置
JP2001318347A (ja) * 2000-05-09 2001-11-16 Nitto Kogaku Kk 眼鏡および眼鏡フレーム
JP2002065721A (ja) * 2000-08-29 2002-03-05 Komatsu Ltd 視覚障害者用環境認識支援装置及びその方法
KR20030015936A (ko) 2001-08-18 2003-02-26 양철호 시각 장애인용 시각 보조장치
KR20120059281A (ko) * 2010-11-30 2012-06-08 전자부품연구원 시각 지원 보조 시스템 및 방법
KR20120059753A (ko) * 2010-12-01 2012-06-11 한국표준과학연구원 시각장애인용 전방위 방향제시 장치, 시스템, 그를 이용한 안내방법, 및 그 기록매체

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210080143A (ko) * 2019-12-20 2021-06-30 주식회사 코이노 다자 간 협업 기반 객체 인식 시스템 및 그 방법
JP2021124520A (ja) * 2020-01-31 2021-08-30 株式会社ジョリーグッド 画像表示装置、画像表示用プログラム及び画像表示方法
KR102234079B1 (ko) * 2020-11-26 2021-03-31 (주)에스알포스트 시각 보조 장치 및 방법
KR20220073606A (ko) * 2020-11-26 2022-06-03 (주) 에스알포스트 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치 및 방법
KR20220073607A (ko) * 2020-11-26 2022-06-03 (주) 에스알포스트 계단에 대한 객체인식이 가능한 시각 보조 장치 및 방법
KR20220074503A (ko) * 2020-11-27 2022-06-03 주식회사 피씨티 저시력자의 주변환경에서의 단차를 감지하는 시각보조장치
KR20220075128A (ko) * 2020-11-27 2022-06-07 가천대학교 산학협력단 시각 기능 훈련 컨텐츠를 제공하는 방법 및 시스템
KR20230021490A (ko) * 2021-08-05 2023-02-14 경북대학교 산학협력단 시각을 이용한 청각 보조 시스템 및 청각 보조 방법
KR20230079924A (ko) * 2021-11-29 2023-06-07 주식회사 피씨티 시각장애인 및 저시력자를 위한 보행보조정보를 제공하는 보행보조장치
KR102706148B1 (ko) * 2023-12-29 2024-09-12 주식회사 피씨티 저시력자 시각 보조 기능을 수행하는 xr글래스시스템 및 방법

Also Published As

Publication number Publication date
KR102291179B1 (ko) 2021-08-19
US20210240988A1 (en) 2021-08-05
US11475663B2 (en) 2022-10-18
WO2019231216A1 (ko) 2019-12-05

Similar Documents

Publication Publication Date Title
KR102291179B1 (ko) 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법
US11281288B2 (en) Eye and head tracking
CA3030314C (en) A system and method for preventing sight deterioration caused by near work with devices with electronic screens
JP6617662B2 (ja) 視線検出装置、視線検出方法、及びコンピュータプログラム
US10962808B2 (en) Contact lens with image pickup control
KR101885473B1 (ko) 시각 장애인 보조용 스마트 글래스
US11487354B2 (en) Information processing apparatus, information processing method, and program
EP3011894B1 (en) Eye gaze detection apparatus and eye gaze detection method
US20200202161A1 (en) Information processing apparatus, information processing method, and program
KR20150057048A (ko) 시력 기반의 가상화면을 이용한 안경 장치
CN111213375B (zh) 信息处理装置、信息处理方法以及程序
CN112543283B (zh) 存储有用于辅助听力设备佩戴者的应用程序的非暂时性处理器可读介质
JP2016028669A (ja) 瞳孔検出装置、および瞳孔検出方法
CN115715177A (zh) 具有几何危险物检测的盲人辅助眼镜
JP6856017B2 (ja) 角膜反射位置検出装置、視線検出装置及び角膜反射位置検出方法
KR20200031098A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2020077271A (ja) 表示装置、学習装置、及び、表示装置の制御方法
US11231591B2 (en) Information processing apparatus, information processing method, and program
JP6885444B2 (ja) 視線検出装置、視線検出方法、及びコンピュータプログラム
KR102072910B1 (ko) 졸음 인식 장치를 이용한 졸음 인식 방법
US10775643B2 (en) Dynamic presbyopia correction in electronic contact lenses
KR20200006145A (ko) 졸음 인식 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant