KR20220073606A - The vision assistance device and method capable of escalator object recognition - Google Patents

The vision assistance device and method capable of escalator object recognition Download PDF

Info

Publication number
KR20220073606A
KR20220073606A KR1020210036377A KR20210036377A KR20220073606A KR 20220073606 A KR20220073606 A KR 20220073606A KR 1020210036377 A KR1020210036377 A KR 1020210036377A KR 20210036377 A KR20210036377 A KR 20210036377A KR 20220073606 A KR20220073606 A KR 20220073606A
Authority
KR
South Korea
Prior art keywords
information
escalator
pedestrian
path
measurement information
Prior art date
Application number
KR1020210036377A
Other languages
Korean (ko)
Other versions
KR102443925B1 (en
Inventor
오창용
Original Assignee
(주) 에스알포스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 에스알포스트 filed Critical (주) 에스알포스트
Priority to KR1020210036377A priority Critical patent/KR102443925B1/en
Publication of KR20220073606A publication Critical patent/KR20220073606A/en
Application granted granted Critical
Publication of KR102443925B1 publication Critical patent/KR102443925B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/165Wearable interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5048Audio interfaces, e.g. voice or music controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2205/00Devices for specific parts of the body
    • A61H2205/02Head
    • A61H2205/022Face
    • A61H2205/024Eyes

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Pain & Pain Management (AREA)
  • Physics & Mathematics (AREA)
  • Rehabilitation Therapy (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Escalators And Moving Walkways (AREA)

Abstract

보행자가 진행하는 방향의 측정 정보를 생성하고, 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체를 판단하고, 객체의 위험 수준을 판단하며, 객체의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하고, 음성 정보를 출력하는, 시각 보조 장치를 제공한다.Matching to generate measurement information of the direction in which the pedestrian proceeds, determine the object appearing from the measurement information based on the object determination model, determine the risk level of the object, and inform the pedestrian's path according to the location and risk level of the object Provided is a visual assistance device that extracts audio information to be used and outputs the audio information.

Figure P1020210036377
Figure P1020210036377

Description

에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치 및 방법{THE VISION ASSISTANCE DEVICE AND METHOD CAPABLE OF ESCALATOR OBJECT RECOGNITION}A visual aid device and method capable of object recognition for an escalator

본 발명은 시각 보조 장치 및 방법에 관한 것으로, 보다 상세하게는, 보행자의 보행을 시각적으로 보조하도록 마련되는 시각 보조 장치 및 방법에 관한 것이다.The present invention relates to a visual assistance apparatus and method, and more particularly, to a visual assistance apparatus and method provided to visually assist a pedestrian in walking.

일반적으로, 시각 장애인은 보행하는 방향에 존재하는 장애물 등의 객체를 인식하기에 어려움을 느끼므로, 보행 도우미 또는 보행 안내견 등의 도움으로 보행을 진행하게 된다.In general, the visually impaired feel difficulty in recognizing objects, such as obstacles, that exist in a walking direction, and thus, walks with the help of a walking helper or a walking guide dog.

이에 따라, 종래에는 객체에 설치된 비콘을 이용하여 객체의 위치를 판단하는 기법이 공지되었으나, 비콘을 이용하여 객체의 위치를 판단하는 것은 비콘이 설치된 객체의 위치만을 판단할 수 있으며, 비콘이 설치되지 않은 객체의 위치는 판단하지 못하는 한계점이 존재한다.Accordingly, conventionally, a technique for determining the location of an object using a beacon installed on an object has been known, but determining the location of an object using a beacon can only determine the location of an object on which a beacon is installed, and a beacon is not installed. There is a limitation in not being able to determine the location of an object that is not there.

또한, 종래에는 보행자의 전방을 촬영하여 영상으로부터 객체의 존재유무를 판단하는 기법이 공지되었으나, 이는, 보행자의 전방에 객체가 존재하는지 만을 알 수 있는 한계점이 존재하며, 객체의 정확한 위치를 판단하여 보행자에게 대응 방안을 알리기에는 어려움이 있다.In addition, conventionally, a technique for determining the presence or absence of an object from an image by photographing the front of the pedestrian is known, but this has a limitation in knowing only whether an object exists in front of the pedestrian, and by determining the exact location of the object It is difficult to inform pedestrians of countermeasures.

이에 따라, 보행자의 진행 방향에 존재하는 객체의 정확한 위치를 판단하고, 이에 따라, 보행자에게 적합한 대응 방안을 알리기 위한 방안이 요구되는 실정이다.Accordingly, there is a need for a method for determining the exact location of an object existing in the moving direction of the pedestrian and, accordingly, notifying the pedestrian of a suitable response method.

국내등록특허 제10-0734624호(2007.06.26.)Domestic Registered Patent No. 10-0734624 (2007.06.26.)

본 발명이 해결하고자 하는 기술적 과제는 보행자의 진행 방향에 존재하는 객체를 인식하여 보행자에게 객체의 존재를 알리는 시각 보조 장치 및 방법을 제공하는 것이다.SUMMARY The technical problem to be solved by the present invention is to provide a visual assistance apparatus and method for recognizing an object existing in a moving direction of a pedestrian and notifying a pedestrian of the existence of the object.

본 발명의 일측면은, 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 센서부; 상기 측정 정보로부터 임의의 객체가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되는 저장부; 상기 객체 판단 모델에 기초하여 상기 측정 정보로부터 나타나는 객체를 판단하고, 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 상기 객체의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 상기 객체의 위험 수준을 판단하며, 상기 객체의 위치와 상기 위험 수준에 따라 상기 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 제어부; 및 상기 음성 정보를 출력하는 출력부;를 포함할 수 있다.In one aspect of the present invention, a sensor unit for generating measurement information by measuring a situation in a direction in which a pedestrian is traveling; a storage unit for storing an object determination model generated by learning to determine an arbitrary object from the measurement information; Determine the object appearing from the measurement information based on the object determination model, and determine the risk level of the object based on a risk criterion set differently according to the type of the object classified into a walking aid object, a fixed object, and a moving object a controller for determining and extracting matching voice information to inform the pedestrian's path according to the location of the object and the level of risk; and an output unit for outputting the voice information.

또한, 상기 제어부는, 상기 객체가 보행 보조 객체인 계단으로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 상기 내측 경계선의 개수에 따라 상기 계단의 단수를 판단하며, 인접한 두 내측 경계선의 거리 간격을 산출하여, 상기 계단의 한 단의 높이를 판단하고, 상기 계단의 한 단의 높이와 상기 계단의 단수에 따라 위험 수준을 판단할 수 있다.In addition, when it is determined that the object is a step that is a walking assistance object, the control unit extracts an outer boundary line of the object from the measurement information, sets an outer boundary indicating the appearance of the object, and is located inside the outer boundary. Existing inner boundary lines are extracted, the number of steps of the stairs is determined according to the number of the inner boundary lines, the distance between two adjacent inner boundary lines is calculated, the height of one step of the stairs is determined, and one step of the stairs is determined. The level of risk can be determined according to the height of the stairs and the number of steps.

또한, 상기 제어부는, 상기 객체가 보행 보조 객체인 무빙 워크로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하며, 상기 시간 간격과 상기 위치 변화량에 따라 상기 무빙 워크의 이동 속도를 판단하고, 상기 무빙 워크의 이동 속도에 따라 위험 수준을 판단할 수 있다.In addition, when it is determined that the object is a moving walk that is a walking aid object, the control unit extracts an outer boundary line of the object from the measurement information, sets an outer boundary indicating the appearance of the object, and the inner side of the outer boundary By extracting the inner boundary line present in the, the amount of position change of any one inner boundary line is calculated from a plurality of measurement information measured according to a preset time interval, and the movement of the moving walk according to the time interval and the position change amount The speed may be determined, and the risk level may be determined according to the moving speed of the moving walk.

또한, 상기 제어부는, 상기 객체가 보행 보조 객체인 에스컬레이터로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 양측 거리 간격의 산출하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 상기 시간 간격과 상기 위치 변화량에 따라 상기 에스컬레이터의 이동 속도를 판단하고, 상기 에스컬레이터의 상기 양측 거리 간격과 상기 이동 속도에 따라 위험 수준을 판단할 수 있다.In addition, when it is determined that the object is an escalator that is a walking assistance object, the control unit extracts an outer boundary line of the object from the measurement information, sets an outer boundary indicating the appearance of the object, and the distance between both sides of the outer boundary The interval is calculated, the inner boundary line existing inside the outer boundary is extracted, and the amount of position change of any one inner boundary line is calculated from a plurality of measurement information measured according to a preset time interval, and the time interval and It is possible to determine the moving speed of the escalator according to the amount of change in the position, and determine the risk level according to the distance between the both sides of the escalator and the moving speed.

또한, 보행자로부터 음성 명령 정보를 입력 받는 입력부; 및 상기 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 위치 측정부;를 더 포함할 수 있다.In addition, the input unit for receiving voice command information from the pedestrian; and a location measurement unit configured to measure current location information of a space in which the pedestrian is currently located.

또한, 상기 제어부는, 상기 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하며, 상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출할 수 있다.In addition, the control unit extracts address information and a walking path selection command by analyzing the voice command information, and based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path, the current location A walking path from the information to the address information may be generated, and voice information matching the walking path and the current location information may be extracted.

또한, 상기 제어부는, 상기 측정 정보 중 상기 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우, 상기 측정 정보를 임의의 회전 각도로 회전시켜 상기 문자의 형상을 정방향으로 조정하고, 정방향으로 조정된 문자로부터 주소 정보를 추출하며, 상기 음성 명령 정보를 분석하여 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하며, 상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출할 수 있다.In addition, the control unit, when the image in which the shape of the character appears from the measurement information generated by photographing the situation in the direction in which the pedestrian travels among the measurement information is recognized, the control unit rotates the measurement information to an arbitrary rotation angle to the character Adjusts the shape of the forward direction, extracts address information from the adjusted characters in the forward direction, analyzes the voice command information to extract a walking path selection command, and is classified into a shortest distance path, a safe path, and a minimum moving object path. Based on the walking path selection command, a walking path from the current location information to the address information may be generated, and voice information matching the walking path and the current location information may be extracted.

본 발명의 다른 일측면은, 센서부가 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 단계; 저장부에 상기 측정 정보로부터 임의의 객체가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되어, 제어부가 상기 객체 판단 모델에 기초하여 상기 측정 정보로부터 나타나는 객체를 판단하는 단계; 제어부가 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 상기 객체의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 상기 객체의 위험 수준을 판단하는 단계; 제어부가 상기 객체의 위치와 상기 위험 수준에 따라 상기 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 단계; 및 출력부가 상기 음성 정보를 출력하는 단계;를 포함할 수 있다.Another aspect of the present invention includes the steps of: generating, by a sensor unit, measurement information by measuring a situation in a direction in which a pedestrian is traveling; storing an object determination model generated by learning to determine an arbitrary object from the measurement information in a storage unit, and determining, by a controller, an object appearing from the measurement information based on the object determination model; determining, by the controller, a risk level of the object based on a risk criterion set differently according to the type of the object classified into a walking aid object, a fixed object, and a moving object; extracting, by the controller, matching voice information to inform the pedestrian's path according to the location of the object and the risk level; and outputting the voice information by an output unit.

또한, 상기 객체의 위험 수준을 판단하는 단계는, 상기 객체가 보행 보조 객체인 계단으로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 상기 내측 경계선의 개수에 따라 상기 계단의 단수를 판단하며, 인접한 두 내측 경계선의 거리 간격을 산출하여, 상기 계단의 한 단의 높이를 판단하고, 상기 계단의 한 단의 높이와 상기 계단의 단수에 따라 위험 수준을 판단할 수 있다.In addition, the step of determining the risk level of the object, when the object is determined to be a stairway that is a walking aid object, extracting the outer boundary line of the object from the measurement information, setting the outer boundary indicating the appearance of the object, , by extracting the inner boundary line existing inside the outer boundary, determining the number of steps according to the number of the inner boundary lines, calculating the distance between two adjacent inner boundary lines, and determining the height of one step of the stairs And, it is possible to determine the level of risk according to the height of one stage of the stairs and the number of stages of the stairs.

또한, 상기 객체의 위험 수준을 판단하는 단계는, 상기 객체가 보행 보조 객체인 무빙 워크로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하며, 상기 시간 간격과 상기 위치 변화량에 따라 상기 무빙 워크의 이동 속도를 판단하고, 상기 무빙 워크의 이동 속도에 따라 위험 수준을 판단할 수 있다.In addition, the step of determining the risk level of the object, when the object is determined to be a moving walk that is a walking assistance object, by extracting the outer boundary of the object from the measurement information, setting the outer boundary indicating the appearance of the object and extracting the inner boundary line existing inside the outer boundary, calculating the position change amount of any one inner boundary line from a plurality of measurement information measured according to a preset time interval, the time interval and the position change amount It is possible to determine the moving speed of the moving walk in accordance with, and determine the risk level according to the moving speed of the moving walk.

또한, 상기 객체의 위험 수준을 판단하는 단계는, 상기 객체가 보행 보조 객체인 에스컬레이터로 판단되는 경우, 상기 측정 정보로부터 상기 에스컬레이터의 외측 경계선을 추출하여, 상기 에스컬레이터의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 양측 거리 간격의 산출하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 상기 시간 간격과 상기 위치 변화량에 따라 상기 에스컬레이터의 이동 속도를 판단하고, 상기 에스컬레이터의 상기 양측 거리 간격과 상기 이동 속도에 따라 위험 수준을 판단할 수 있다.In addition, the step of determining the risk level of the object, when the object is determined to be an escalator that is a walking assistance object, extracting the outer boundary line of the escalator from the measurement information, setting the outer boundary indicating the appearance of the escalator, , Calculate the distance interval on both sides of the outer boundary, extract the inner boundary line existing inside the outer boundary, and determine the amount of position change of any one inner boundary line from a plurality of measurement information measured according to a preset time interval By calculating, it is possible to determine the moving speed of the escalator according to the time interval and the amount of change in the position, and determine the risk level according to the distance between the both sides of the escalator and the moving speed.

또한, 입력부가 보행자로부터 음성 명령 정보를 입력 받는 단계; 및 위치 측정부가 상기 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 단계;를 더 포함할 수 있다.In addition, the step of receiving the input unit voice command information from the pedestrian; and measuring, by a location measuring unit, current location information of a space in which the pedestrian is currently located.

상술한 본 발명의 일측면에 따르면, 시각 보조 장치 및 방법을 제공함으로써, 보행자의 진행 방향에 존재하는 객체를 인식하여 보행자에게 객체의 존재를 알릴 수 있다.According to one aspect of the present invention described above, by providing a visual assistance apparatus and method, it is possible to recognize an object existing in a moving direction of a pedestrian and notify the pedestrian of the existence of the object.

도1은 본 발명의 일 실시예에 따른 시각 보조 장치의 실시예를 나타낸 개략도이다.
도2는 본 발명의 일 실시예에 따른 시각 보조 장치의 제어블록도이다.
도3은 도2의 제어부에서 객체의 위험 수준을 판단하는 과정을 나타낸 블록도이다.
도4는 도2의 제어부에서 보행 경로를 생성하는 과정을 나타낸 블록도이다.
도5는 도2의 제어부에서 보행 보조 객체인 계단의 위험 수준을 판단하는 일 실시예를 나타낸 개략도이다.
도6는 도2의 제어부에서 보행 보조 객체인 무빙 워크의 위험 수준을 판단하는 일 실시예를 나타낸 개략도이다.
도7 및 도8은 본 발명의 일 실시예에 따른 시각 보조 방법의 순서도이다.
1 is a schematic diagram illustrating an embodiment of a visual aid apparatus according to an embodiment of the present invention.
2 is a control block diagram of a visual aid apparatus according to an embodiment of the present invention.
3 is a block diagram illustrating a process of determining the risk level of an object in the control unit of FIG. 2 .
4 is a block diagram illustrating a process of generating a walking path in the controller of FIG. 2 .
5 is a schematic diagram illustrating an embodiment in which the control unit of FIG. 2 determines the risk level of the stairs, which is a walking assistance object.
6 is a schematic diagram illustrating an embodiment in which the controller of FIG. 2 determines a risk level of a moving walk, which is a walking assistance object.
7 and 8 are flowcharts of a visual assistance method according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0012] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scope equivalents as those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도1은 본 발명의 일 실시예에 따른 시각 보조 장치의 실시예를 나타낸 개략도이다.1 is a schematic diagram illustrating an embodiment of a visual aid apparatus according to an embodiment of the present invention.

시각 보조 장치(100)는 보행자가 착용 가능하도록 마련될 수 있다. 예를 들어, 시각 보조 장치(100)는 안경, 목걸이, 벨트, 초커 등으로 마련될 수 있으며, 또한, 시각 보조 장치(100)는 보행자가 소지하도록 마련되는 지팡이 등으로 마련될 수도 있다.The visual assistance apparatus 100 may be provided to be worn by a pedestrian. For example, the visual assistance apparatus 100 may be provided as glasses, a necklace, a belt, a choker, or the like, and the visual assistance apparatus 100 may be provided as a walking stick, etc., which is provided to be carried by a pedestrian.

이에 따라, 시각 보조 장치(100)는 시각 보조 장치(100)를 착용한 보행자가 진행하는 방향의 상황을 측정할 수 있으며, 시각 보조 장치(100)는 보행자의 진행 방향의 상황에 기초하여 위험 수준을 보행자에게 알리도록 마련될 수 있다.Accordingly, the visual assistance apparatus 100 may measure the situation in the direction in which the pedestrian wearing the visual assistance apparatus 100 is traveling, and the visual assistance apparatus 100 may determine the level of risk based on the situation in the traveling direction of the pedestrian. may be arranged to notify pedestrians.

이때, 시각 보조 장치(100)는 카메라, 라이다 센서, 레이더 센서, 초음파 센서 및 ToF(Time of Flight) 카메라 등이 마련될 수 있으며, 여기에서, ToF 카메라는 목표 객체에 의한 적외선 빔의 역방향 산란(Back Scattering)을 이용하여 객체의 3차원 영상 정보를 생성하는 카메라인 것으로 이해할 수 있다.In this case, the visual assistance apparatus 100 may include a camera, a lidar sensor, a radar sensor, an ultrasonic sensor, a Time of Flight (ToF) camera, and the like, wherein the ToF camera is reverse scattering of an infrared beam by a target object. It can be understood as a camera that generates 3D image information of an object using (Back Scattering).

이를 통해, 시각 보조 장치(100)는 보행자가 진행하는 방향의 상황을 측정할 수 있으며, 이를 위해, 시각 보조 장치(100)는 임의의 정보가 저장되도록 저장부가 마련될 수 있으며, 시각 보조 장치(100)는 보행자가 진행하는 방향의 상황에 기초하여 위험 수준을 판단할 수 있도록 마련되는 정보가 저장부에 저장될 수 있다.Through this, the visual assistance apparatus 100 can measure the situation in the direction in which the pedestrian proceeds. To this end, the visual assistance apparatus 100 may be provided with a storage unit to store arbitrary information, and 100) may be stored in the storage unit information provided to determine the level of risk based on the situation in the direction in which the pedestrian proceeds.

이와 관련하여, 시각 보조 장치(100)는 임의의 정보가 저장되는 외부 서버(200)와 무선 네트워크를 통해 정보를 전달하거나, 또는 전달받도록 마련될 수도 있으며, 이러한 경우에, 외부 서버(200)는 보행자가 진행하는 방향의 상황에 기초하여 위험 수준을 판단할 수 있도록 마련되는 정보가 저장될 수 있다.In this regard, the visual assistance apparatus 100 may be provided to transmit or receive information through a wireless network and an external server 200 in which arbitrary information is stored. In this case, the external server 200 is Information provided to determine the level of risk based on the situation in the direction in which the pedestrian proceeds may be stored.

시각 보조 장치(100)는 보행자가 진행하는 방향의 상황을 외부 서버(200)에 전달할 수 있고, 이에 따라, 시각 보조 장치(100)는 보행자가 진행하는 방향의 상황에 기초하여 위험 수준을 판단할 수 있도록 마련되는 정보에 따라 외부 서버(200)에서 판단된 위험 수준을 전달받을 수 있다.The visual assistance apparatus 100 may transmit the situation in the direction in which the pedestrian proceeds to the external server 200, and accordingly, the visual assistance apparatus 100 determines the risk level based on the situation in the direction in which the pedestrian proceeds. The risk level determined by the external server 200 may be transmitted according to the information provided so as to be able to do so.

한편, 시각 보조 장치(100)는 보행자의 음성 명령을 인식하도록 마련될 수 있으며, 이에 따라, 시각 보조 장치(100)는 인식된 음성 명령을 분석하여 보행자가 가고자 하는 위치를 판단할 수 있다.Meanwhile, the visual assistance apparatus 100 may be provided to recognize the pedestrian's voice command, and accordingly, the visual assistance device 100 may analyze the recognized voice command to determine a location to which the pedestrian intends to go.

이를 위해, 시각 보조 장치(100)는 GPS(Global Position System), GLONASS(GLObal NAvigation Satellite System), Galileo, GNSS(Global Navigation Satellite System) 등의 위치 측량 기법이 이용되는 위치 측정부가 마련될 수 있다. 이와 같은, GNSS 기법은 하나 이상의 위성을 이용하며, 각각의 위성과 수신기 간의 거리에 따라 수신기의 위치를 산출하는 기법일 수 있다.To this end, the visual assistance apparatus 100 may be provided with a location measuring unit using a location surveying technique such as a Global Position System (GPS), a Global Navigation Satellite System (GLONASS), Galileo, or a Global Navigation Satellite System (GNSS). Such a GNSS technique uses one or more satellites, and may be a technique for calculating a position of a receiver according to a distance between each satellite and a receiver.

이에 따라, 시각 보조 장치(100)는 보행자의 현재 위치로부터 보행자가 가고자 하는 위치까지의 보행 경로를 생성하도록 마련될 수 있다.Accordingly, the visual assistance apparatus 100 may be provided to generate a walking path from the pedestrian's current location to the pedestrian's desired location.

이하에서, 시각 보조 장치(100)에 대해 자세히 설명하도록 한다.Hereinafter, the visual assistance apparatus 100 will be described in detail.

도2는 본 발명의 일 실시예에 따른 시각 보조 장치의 제어블록도이다.2 is a control block diagram of a visual aid apparatus according to an embodiment of the present invention.

시각 보조 장치(100)는 센서부(110), 입력부(120), 위치 측정부(130), 저장부(140), 제어부(150) 및 출력부(160)를 포함할 수 있다.The visual assistance apparatus 100 may include a sensor unit 110 , an input unit 120 , a position measurement unit 130 , a storage unit 140 , a control unit 150 , and an output unit 160 .

또한, 시각 보조 장치(100)는 도 2에 도시된 구성요소보다 많은 구성요소에 의해 구현될 수 있고, 그보다 적은 구성요소에 의해 구현될 수 있다. 또는, 시각 보조 장치(100)는 시각 보조 장치(100)에 마련되는 적어도 두 개의 구성요소가 하나의 구성요소로 통합되어 하나의 구성요소가 복합적인 기능을 수행할 수도 있다. 이하, 상술한 구성요소들에 대해 구체적으로 설명하기로 한다.In addition, the visual assistance apparatus 100 may be implemented by more components than the components shown in FIG. 2 , and may be implemented by fewer components than the components shown in FIG. 2 . Alternatively, in the vision assistance apparatus 100 , at least two components provided in the vision assistance apparatus 100 may be integrated into one component, and one component may perform a complex function. Hereinafter, the above-described components will be described in detail.

센서부(110)는 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성할 수 있다. 이를 위해, 센서부(110)는 카메라, 라이다 센서, 레이더 센서, 초음파 센서 및 ToF(Time of Flight) 카메라 등을 포함할 수 있다.The sensor unit 110 may generate measurement information by measuring a situation in a direction in which the pedestrian proceeds. To this end, the sensor unit 110 may include a camera, a lidar sensor, a radar sensor, an ultrasonic sensor, a Time of Flight (ToF) camera, and the like.

이에 따라, 센서부(110)는 카메라 등을 이용하여 보행자의 진행 방향의 상황이 촬영된 영상을 생성할 수 있으며, 센서부(110)는 라이다 센서, 레이더 센서 및 초음파 센서 등을 이용하여 보행자의 진행 방향에 존재하는 객체(300)와의 거리 간격을 측정할 수 있다.Accordingly, the sensor unit 110 may generate an image in which the situation of the pedestrian's traveling direction is captured using a camera, etc., and the sensor unit 110 uses a lidar sensor, a radar sensor, an ultrasonic sensor, and the like for pedestrians. It is possible to measure the distance between the object 300 and the moving direction of the.

저장부(140)는 측정 정보로부터 임의의 객체(300)가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장될 수 있다.The storage unit 140 may store an object determination model generated by learning to determine an arbitrary object 300 from the measurement information.

이때, 객체 판단 모델은 기계 학습(Machine Learning) 등의 기법을 이용하여, 영상에 나타나는 객체(300)의 유형 또는 종류를 판단하도록 생성될 수 있으며, 객체 판단 모델은 사전에 마련되는 복수개의 영상에 나타나는 객체(300)의 유형 또는 종류를 학습자로부터 입력 받아 생성될 수 있다.At this time, the object determination model may be generated to determine the type or type of the object 300 appearing in the image by using a technique such as machine learning, and the object determination model is based on a plurality of images prepared in advance. The type or type of the appearing object 300 may be input from a learner and generated.

여기에서, 기계 학습은 복수개의 정보에 기초하여, 복수개의 정보를 하나 이상의 그룹으로 분류 가능하도록 학습 모델을 생성하고, 생성된 학습 모델에 기초하여 임의의 정보를 분류하는 기법으로 이해할 수 있으며, 이와 같은, 기계 학습은 관리자에 의해 분류된 복수개의 정보에 따라 임의의 정보를 분류 가능 하도록 학습 모델을 생성하는 지도 학습(Supervised Learning), 복수개의 정보 자체를 분석하거나, 또는 군집화 과정을 수행하며 학습 모델을 생성하는 비지도 학습(Unsupervised Learning), 지도 학습과 비지도 학습을 혼합하여 학습 모델을 생성하는 준지도 학습(Semi-Supervised Learning) 및 복수개의 정보에 대해 임의의 동작을 수행하는 과정에서 발생한 보상에 따라 학습 모델을 생성하는 강화 학습(Reinforcement Learning) 등을 포함할 수 있다.Here, machine learning can be understood as a technique of generating a learning model to classify a plurality of information into one or more groups based on a plurality of information, and classifying arbitrary information based on the generated learning model, and In the same way, machine learning is supervised learning that creates a learning model to classify arbitrary information according to a plurality of information classified by an administrator, analyzes a plurality of information itself, or performs a clustering process and performs a learning model Unsupervised learning to create a , semi-supervised learning to create a learning model by mixing supervised learning and unsupervised learning, and rewards generated in the process of performing arbitrary actions on multiple pieces of information It may include reinforcement learning (Reinforcement Learning) that generates a learning model according to the

예를 들어, 객체 판단 모델은 음료 캔, 스티로폼 박스, 포트홀, 계단, 경계석, 턱, 차량 등의 서로 다른 객체(300)의 영상을 학습하여 생성될 수 있다.For example, the object determination model may be generated by learning images of different objects 300 such as beverage cans, Styrofoam boxes, potholes, stairs, boundary stones, jaws, and vehicles.

제어부(150)는 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체(300)를 판단할 수 있고, 제어부(150)는 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 객체(300)의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 객체(300)의 위험 수준을 판단할 수 있으며, 제어부(150)는 객체(300)의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출할 수 있다.The control unit 150 may determine the object 300 appearing from the measurement information based on the object determination model, and the control unit 150 according to the type of the object 300 classified into a walking aid object, a fixed object, and a moving object. Based on the risk criteria set differently, the risk level of the object 300 may be determined, and the controller 150 extracts matching voice information to inform the pedestrian's path according to the location and risk level of the object 300 . can do.

여기에서, 보행 보조 객체는 측정 정보로부터 나타나는 계단, 에스컬레이터, 엘리베이터, 무빙 워크 등의 보행자가 보행 중에 이용하도록 마련되는 객체(300)를 나타내도록 마련될 수 있고, 고정 객체는 측정 정보로부터 나타나는 차단 봉, 전봇대, 가로수, 울타리 등의 임의의 위치에 고정된 객체(300)를 나타내도록 마련될 수 있으며, 이동 객체는 측정 정보로부터 나타나는 사람, 차량, 동물 등의 이동이 가능한 객체(300)를 나타내도록 마련될 수 있다.Here, the walking assistance object may be provided to represent the object 300 provided for pedestrians to use while walking, such as stairs, escalators, elevators, moving walks, etc. appearing from the measurement information, and the fixed object is a blocking rod appearing from the measurement information. , a power pole, a street tree, a fence, etc. may be provided to represent a fixed object 300 at an arbitrary location, and the moving object may represent a movable object 300 such as a person, vehicle, animal, etc., which appears from measurement information. can be provided.

이를 위해, 저장부(140)는 객체(300), 객체(300)의 위치 및 위험 수준에 매칭되는 음성 정보가 저장될 수 있으며, 출력부(160)는 제어부(150)에서 추출된 음성 정보를 출력할 수 있다.To this end, the storage unit 140 may store the object 300 , voice information matching the location and risk level of the object 300 , and the output unit 160 outputs the voice information extracted from the control unit 150 . can be printed

이때, 출력부(160)는 스피커 등을 마련하여 음성 정보를 추출할 수 있으며, 또한, 출력부(160)는 유선 또는 무선으로 시각 보조 장치(100)에 연결되는 이어폰 등의 스피커 장치에 음성 정보가 출력되도록 전달할 수도 있다.In this case, the output unit 160 may extract voice information by providing a speaker, and the output unit 160 may provide voice information to a speaker device such as an earphone connected to the visual assistance device 100 by wire or wirelessly. It can also be passed to be output.

또한, 출력부(160)는 진동 소자가 마련되어, 제어부(150)에서 판단되는 위험 수준에 따라 진동이 출력되도록 마련될 수 있다. 이러한 경우에, 제어부(150)는 위험 수준이 일정 수준 이상으로 높은 경우에만 출력부(160)에서 진동이 출력되도록 제어할 수 있다.In addition, the output unit 160 may be provided with a vibration element to output vibration according to the level of danger determined by the control unit 150 . In this case, the control unit 150 may control the vibration to be output from the output unit 160 only when the risk level is higher than a predetermined level.

한편, 저장부(140)는 객체 판단 모델이 저장되어, 시각 보조 장치(100)와 무선 네트워크를 통해 측정 정보가 전달되거나, 또는 객체 판단 모델에 의해 판단되는 위험 수준이 전달되도록 마련되는 외부 서버(200)로 대체될 수도 있다.On the other hand, the storage unit 140 stores the object determination model and transmits measurement information through the visual assistance device 100 and the wireless network, or an external server ( 200) may be substituted.

이러한 경우에, 시각 보조 장치(100)는 통신부를 더 포함할 수 있으며, 통신부는 센서부(110)에서 생성되는 측정 정보를 외부 서버(200)에 전달할 수 있다.In this case, the visual assistance apparatus 100 may further include a communication unit, and the communication unit may transmit measurement information generated by the sensor unit 110 to the external server 200 .

이에 따라, 외부 서버(200)는 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체(300)를 판단할 수 있고, 외부 서버(200)는 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 객체(300)의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 객체(300)의 위험 수준을 판단할 수 있다.Accordingly, the external server 200 may determine the object 300 appearing from the measurement information based on the object determination model, and the external server 200 is an object 300 classified into a walking aid object, a fixed object, and a moving object. ), the risk level of the object 300 may be determined based on a risk criterion set differently according to the type.

이러한 경우에, 통신부는 외부 서버(200)로부터 위험 수준을 전달받을 수 있으며, 제어부(150)는 객체(300)의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출할 수 있다.In this case, the communication unit may receive the risk level from the external server 200, and the control unit 150 may extract matching voice information to inform the pedestrian's path according to the location and risk level of the object 300. have.

일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되는 경우에, 측정 정보로부터 계단의 외측 경계선을 추출하여, 객체(300) 계단의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 내측 경계선의 개수에 따라 계단의 단수를 판단할 수 있으며, 제어부(150)는 인접한 두 내측 경계선의 거리 간격을 산출하여, 계단의 한 단의 높이를 판단할 수 있고, 제어부(150)는 계단의 한 단의 높이와 계단의 단수에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the object 300 is a staircase that is a walking aid object, the controller 150 extracts the outer boundary line of the stairs from the measurement information to set the outer boundary indicating the appearance of the object 300 stairs. The control unit 150 may extract the inner boundary line existing inside the outer boundary line, determine the number of steps according to the number of the inner boundary line, and the control unit 150 calculates the distance between the two adjacent inner boundary lines Thus, it is possible to determine the height of one step of the stairs, and the controller 150 may determine the level of risk according to the height of one step of the stairs and the number of steps.

여기에서, 임의의 객체(300)의 외측 경계선은 측정 정보로부터 객체(300)로 인식된 영역과 배경 영역을 구분하는 경계선을 의미할 수 있다. 이를 위해, 제어부(150)는 영상으로 나타나는 측정 정보에 그레이 스케일(Gray Scale)을 수행하여 임의의 객체(300)의 외측 경계선을 추출할 수 있으며, 또는, 제어부(150)는 영상으로 나타나는 측정 정보에서 일정한 색조를 나타내는 영역을 추출하여 임의의 객체(300)의 외측 경계선을 추출할 수도 있다.Here, the outer boundary line of the arbitrary object 300 may mean a boundary line that separates the area recognized as the object 300 from the measurement information and the background area. To this end, the control unit 150 may extract the outer boundary line of the arbitrary object 300 by performing gray scale on the measurement information displayed as an image, or the control unit 150 may perform the measurement information displayed as an image. The outer boundary of the arbitrary object 300 may be extracted by extracting a region showing a certain color tone from .

또한, 임의의 객체(300)의 내측 경계선은 측정 정보에서 추출된 객체(300)의 외측 경계선 내측에서 추출되는 경계선을 의미할 수 있다. 이를 위해, 제어부(150)는 영상으로 나타나는 측정 정보에 그레이 스케일(Gray Scale)을 수행하여 외측 경계선 내측에서 내측 경계선을 추출할 수 있으며, 또는, 제어부(150)는 영상으로 나타나는 측정 정보에서 일정한 색조를 나타내는 영역을 추출하여 외측 경계선 내측에서 내측 경계선을 추출할 수도 있다.Also, the inner boundary line of the arbitrary object 300 may mean a boundary line extracted from the inside of the outer boundary line of the object 300 extracted from the measurement information. To this end, the controller 150 may extract the inner boundary line from the inside of the outer boundary line by performing gray scale on the measurement information displayed as an image, or the controller 150 may control a certain color tone from the measurement information displayed as an image. It is also possible to extract a region representing

이러한 경우에, 제어부(150)는 계단의 한 단의 높이가 높아질수록 위험 수준을 높게 판단할 수 있고, 제어부(150)는 계단의 단수가 많아질수록 위험 수준을 높게 판단할 수 있다.In this case, the controller 150 may determine the risk level to be higher as the height of one step of the stairs increases, and the controller 150 may determine the risk level to be higher as the number of steps increases.

이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 계단이 존재하는 것을 알리는 음성 정보를 추출할 수 있다.In this regard, when it is determined that the object 300 is a staircase that is a walking aid object, and the risk level classified as high, medium, or low is determined to be low, the controller 150 determines that there are stairs in the direction in which the pedestrian proceeds. It is possible to extract voice information for notification.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 계단이 위험한 것을 알리는 음성 정보를 추출할 수 있다.In addition, when it is determined that the object 300 is a staircase that is a walking aid object, and the risk level classified into upper, middle, and lower is determined to be medium, the controller 150 notifies that the stairs existing in the direction in which the pedestrian proceeds are dangerous. Voice information can be extracted.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 계단이 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when the object 300 is determined to be a stairway that is a walking aid object, and the risk level classified as upper, middle, or lower is determined to be higher, the stairs existing in the direction in which the pedestrian is traveling are dangerous. It is possible to extract voice information that recommends using a different route.

이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 계단의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the controller 150 may further extract voice information indicating a direction in which the outer boundary line of the stairs appearing from the measurement information is closer to the center point of the measurement information.

한편, 제어부(150)는 측정 정보로부터 나타나는 계단과의 거리 간격이 임계 거리 간격 미만인 경우에, 계단의 단수를 알리는 음성 정보를 추출할 수 있다.Meanwhile, when the distance interval from the stairs indicated from the measurement information is less than the threshold distance interval, the controller 150 may extract voice information indicating the number of steps.

여기에서, 계단과의 거리 간격에 대해 설정되는 임계 거리 간격은 보행자가 계단을 이용하는 것으로 판단될 수 있는 거리 간격으로 설정될 수 있다.Here, the threshold distance interval set for the distance interval with the stairs may be set as a distance interval at which it can be determined that the pedestrian uses the stairs.

일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되는 경우에, 측정 정보로부터 무빙 워크의 외측 경계선을 추출하여, 무빙 워크의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출할 수 있으며, 제어부(150)는 시간 간격과 위치 변화량에 따라 무빙 워크의 이동 속도를 판단할 수 있고, 제어부(150)는 무빙 워크의 이동 속도에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the object 300 is a moving walk that is a walking assistance object, the controller 150 extracts the outer boundary of the moving walk from the measurement information to set the outer boundary indicating the appearance of the moving walk. In addition, the control unit 150 may extract the inner boundary line existing inside the outer boundary, and calculate the amount of change in the position of any one inner boundary line from a plurality of measurement information measured according to a preset time interval, the control unit 150 150 may determine the moving speed of the moving walk according to the time interval and the amount of position change, the control unit 150 may determine the risk level according to the moving speed of the moving walk.

이러한 경우에, 제어부(150)는 무빙 워크의 이동 속도가 빨라질수록 위험 수준을 높게 판단할 수 있다.In this case, the controller 150 may determine the higher the risk level as the moving speed of the moving walk increases.

이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크가 위험한 것을 알리는 음성 정보를 추출할 수 있다.In this regard, the controller 150 determines that the object 300 is a moving walk that is a walking assistance object, and when it is determined that the risk level classified as upper, middle, or lower is lower, the moving walk existing in the direction in which the pedestrian proceeds. It is possible to extract voice information to inform that the is dangerous.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크가 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the object 300 is a moving walk that is a walking aid object, and the risk level classified into upper, middle, and lower is determined to be medium, the moving walk existing in the direction in which the pedestrian proceeds is dangerous. Thus, it is possible to extract voice information that recommends using a different route.

이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 무빙 워크의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the control unit 150 may further extract voice information indicating a direction in which the outer boundary line of the moving walk shown from the measurement information is closer to the center point of the measurement information.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크의 이용을 금지하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the object 300 is a moving walk that is a walking aid object, and the risk level classified as upper, middle, or lower is determined to be upper, the moving walk existing in the direction in which the pedestrian proceeds is It is possible to extract voice information that is prohibited from being used.

이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 무빙 워크의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the control unit 150 may further extract voice information indicating a direction in which the outer boundary line of the moving walk shown from the measurement information is closer to the center point of the measurement information.

일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 에스컬레이터로 판단되는 경우에, 측정 정보로부터 에스컬레이터의 외측 경계선을 추출하여, 에스컬레이터의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 양측 거리 간격의 산출할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 시간 간격과 위치 변화량에 따라 에스컬레이터의 이동 속도를 판단할 수 있고, 제어부(150)는 에스컬레이터의 양측 거리 간격과 이동 속도에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the object 300 is an escalator that is a walking aid object, the controller 150 may extract an outer boundary line of the escalator from the measurement information to set an outer boundary indicating the appearance of the escalator, and the control unit 150 can calculate the distance interval on both sides of the outer boundary, and the control unit 150 extracts the inner boundary line existing inside the outer boundary, By calculating the amount of change in the position of one inner boundary line, the moving speed of the escalator can be determined according to the time interval and the amount of change in position, and the control unit 150 can determine the risk level according to the distance between both sides of the escalator and the moving speed .

이러한 경우에, 제어부(150)는 에스컬레이터의 이동 속도가 빨라질수록 위험 수준을 높게 판단할 수 있고, 제어부(150)는 에스컬레이터의 양측 거리 간격이 임계 수준 미만으로 판단되는 경우에, 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In this case, the controller 150 may determine the risk level higher as the moving speed of the escalator increases, and the controller 150 determines that the distance between both sides of the escalator is less than the threshold level, so as to use a different route. Recommended voice information can be extracted.

여기에서, 에스컬레이터의 양측 거리 간격에 대해 설정되는 임계 수준은 에스컬레이터에 두 명 이상의 사람이 측 방향으로 나란히 설 수 있도록 설정되는 거리 간격을 의미할 수 있다.Here, the threshold level set for the distance interval on both sides of the escalator may mean a distance interval set so that two or more people can stand side by side on the escalator side by side.

이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 에스컬레이터로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 에스컬레이터가 위험한 것을 알리는 음성 정보를 추출할 수 있다.In this regard, when it is determined that the object 300 is an escalator that is a walking aid object, and the risk level classified into upper, middle, and lower is determined to be lower, the escalator present in the direction in which the pedestrian proceeds is dangerous. It is possible to extract voice information notifying that

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 에스컬레이터로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 에스컬레이터가 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the object 300 is an escalator that is a walking assistance object, and the risk level classified as high, medium, or low is determined to be medium, the escalator existing in the direction in which the pedestrian proceeds is dangerous and other It is possible to extract voice information that recommends using the route.

이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 에스컬레이터의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the control unit 150 may further extract voice information informing the direction of the side near the outer boundary of the escalator appearing from the measurement information from the center point of the measurement information.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 에스컬레이터로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 에스컬레이터의 이용을 금지하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the object 300 is an escalator that is a walking aid object, and the risk level classified as high, medium, or low is determined to be high, the control unit 150 controls the use of the escalator in the direction in which the pedestrian proceeds. It is possible to extract prohibited voice information.

이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 에스컬레이터의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the control unit 150 may further extract voice information informing the direction of the side near the outer boundary of the escalator appearing from the measurement information from the center point of the measurement information.

일 실시예에서, 제어부(150)는 객체(300)가 고정 객체로 판단되는 경우에, 측정 정보에서 객체(300)가 차지하는 가로 방향의 화소 수, 세로 방향의 화소 수 및 객체(300)와의 거리 간격에 따라 객체(300)의 크기와 높이를 산출할 수 있고, 이에 따라, 제어부(150)는 객체(300)의 크기와 높이에 따라 위험 수준을 판단할 수 있다.In an embodiment, when it is determined that the object 300 is a fixed object, the controller 150 controls the number of pixels in the horizontal direction, the number of pixels in the vertical direction, and the distance from the object 300 occupied by the object 300 in the measurement information. The size and height of the object 300 may be calculated according to the interval, and accordingly, the controller 150 may determine the risk level according to the size and height of the object 300 .

이러한 경우에, 제어부(150)는 객체(300)의 크기가 커질수록 위험 수준을 높게 판단할 수 있고, 제어부(150)는 객체(300)의 높이가 높아질수록 위험 수준을 높게 판단할 수 있다.In this case, the controller 150 may determine the risk level to be higher as the size of the object 300 increases, and the controller 150 may determine the risk level to be higher as the height of the object 300 increases.

입력부(120)는 보행자로부터 음성 명령 정보를 입력 받을 수 있으며, 이를 위해, 입력부(120)는 마이크 등을 포함할 수 있다.The input unit 120 may receive voice command information from a pedestrian, and for this purpose, the input unit 120 may include a microphone or the like.

이에 따라, 제어부(150)는 음성 인식(Speech Recognition) 등의 기법을 이용하여 음성 명령 정보를 분석할 수 있다. 여기에서, 음성 인식 기법은 음성 신호를 수십 밀리 초로 분리하여 10여 차원으로 나타나는 특징 벡터를 추출하고, 추출된 특징 벡터를 통해 음성 신호를 모음 또는 자음 단위로 분할하며, 분할된 모음 또는 자음을 연결하여 임의의 단어를 생성하고, 생성된 단어를 분석하여 음성 신호의 의미를 판단하는 기법으로 이해할 수 있다.Accordingly, the controller 150 may analyze the voice command information using a technique such as speech recognition. Here, the speech recognition technique divides the speech signal into tens of milliseconds, extracts feature vectors appearing in about ten dimensions, divides the speech signal into vowels or consonant units through the extracted feature vectors, and connects the divided vowels or consonants. Thus, it can be understood as a technique for generating a random word and analyzing the generated word to determine the meaning of a voice signal.

위치 측정부(130)는 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정할 수 있다. 이를 위해, 위치 측정부(130)는 GPS(Global Position System), GLONASS(GLObal NAvigation Satellite System), Galileo, GNSS(Global Navigation Satellite System) 등의 위치 측량 기법이 이용되는 위치 센서가 마련될 수 있다.The location measurement unit 130 may measure current location information of a space in which the pedestrian is currently located. To this end, the position measuring unit 130 may be provided with a position sensor using a position surveying technique such as a Global Position System (GPS), a Global Navigation Satellite System (GLONASS), Galileo, or a Global Navigation Satellite System (GNSS).

제어부(150)는 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출할 수 있고, 제어부(150)는 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 보행 경로 선택 명령에 기초하여, 현재 위치 정보로부터 주소 정보까지의 보행 경로를 생성할 수 있으며, 제어부(150)는 보행 경로와 현재 위치 정보에 매칭되는 음성 정보를 추출할 수 있다.The control unit 150 may extract address information and a walking path selection command by analyzing the voice command information, and the control unit 150 based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path. , a walking route from the current location information to the address information may be generated, and the controller 150 may extract voice information matching the walking route and the current location information.

여기에서, 최단 거리 경로는 현재 위치 정보로부터 주소 정보까지의 거리 간격이 가장 짧은 보행 경로를 나타내도록 마련될 수 있고, 안전 경로는 현재 위치 정보로부터 주소 정보까지의 경로에 존재하는 하나 이상의 보행 보조 객체의 위험 수준의 총합이 가장 작은 보행 경로를 나타내도록 마련될 수 있으며, 최소 이동 객체 경로는 현재 위치 정보로부터 주소 정보까지의 경로에서 나타나는 이동 객체가 가장 적은 보행 경로를 나타내도록 마련될 수 있다.Here, the shortest distance path may be provided to indicate a walking path having the shortest distance interval from the current location information to the address information, and the safe path may include one or more walking assistance objects existing in the path from the current location information to the address information. The sum of the risk levels of may be provided to represent the smallest walking path, and the minimum moving object path may be provided to represent the walking path with the fewest moving objects appearing in the path from the current location information to the address information.

이를 위해, 저장부(140)는 임의의 경로에 존재하는 보행 보조 객체에 대해 판단된 위험 수준이 저장될 수 있다. 또한, 저장부(140)는 임의의 시점에 임의의 경로에 존재하는 이동 객체의 개수가 저장될 수 있다.To this end, the storage unit 140 may store the risk level determined for the walking assistance object existing on an arbitrary path. Also, the storage unit 140 may store the number of moving objects existing in an arbitrary path at an arbitrary time point.

한편, 저장부(140)는 임의의 경로에 존재하는 보행 보조 객체에 대해 판단된 위험 수준 또는, 임의의 시점에 임의의 경로에 존재하는 이동 객체의 개수가 저장되어, 시각 보조 장치(100)와 무선 네트워크를 통해 현재 위치 정보와 주소 정보가 전달되거나, 또는, 임의의 경로에 존재하는 보행 보조 객체에 대해 판단된 위험 수준 또는, 임의의 시점에 임의의 경로에 존재하는 이동 객체의 개수에 따라 생성되는 보행 경로가 전달되도록 마련되는 외부 서버(200)로 대체될 수도 있다.On the other hand, the storage unit 140 stores the risk level determined for the walking assistance object existing in the arbitrary path or the number of moving objects present in the arbitrary path at any time, and stores the Current location information and address information are transmitted through a wireless network, or generated according to a risk level determined for a walking aid object existing on a random path or the number of moving objects present on a random path at any time. It may be replaced with an external server 200 that is provided to transmit a walking path.

일 실시예에서, 제어부(150)는 임의의 현재 위치 정보로부터 임의의 주소 정보까지의 보행 경로를 생성하는 시점이 사전에 설정되는 출퇴근 시간대인 것으로 판단되는 경우에, 지하철 역 입구를 우회하는 보행 경로를 생성할 수 있다.In one embodiment, when it is determined that the time point of generating a walking path from any current location information to any address information is a preset commuting time, the controller 150 is a walking path that bypasses the subway station entrance. can create

한편, 제어부(150)는 측정 정보 중 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우에, 제어부(150)는 측정 정보를 임의의 회전 각도로 회전시켜 문자의 형상을 정방향으로 조정할 수 있고, 제어부(150)는 정방향으로 조정된 문자로부터 주소 정보를 추출할 수 있다.On the other hand, when an image in which the shape of a character appears is recognized from the measurement information generated by photographing a situation in the direction in which the pedestrian is traveling among the measurement information, the control unit 150 controls the measurement information to an arbitrary rotation angle. By rotating it, the shape of the character may be adjusted in a forward direction, and the controller 150 may extract address information from the adjusted character in the forward direction.

도3은 도2의 제어부에서 객체의 위험 수준을 판단하는 과정을 나타낸 블록도이다.3 is a block diagram illustrating a process of determining the risk level of an object in the control unit of FIG. 2 .

도3을 참조하면, 센서부(110)는 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성할 수 있다. 이때, 센서부(110)는 카메라 등을 이용하여 보행자의 진행 방향의 상황이 촬영된 영상을 생성할 수 있으며, 센서부(110)는 라이다 센서, 레이더 센서 및 초음파 센서 등을 이용하여 보행자의 진행 방향에 존재하는 객체(300)와의 거리 간격을 측정할 수 있다.Referring to FIG. 3 , the sensor unit 110 may generate measurement information by measuring a situation in a direction in which a pedestrian travels. In this case, the sensor unit 110 may generate an image in which the situation in the direction of the pedestrian is photographed using a camera, etc., and the sensor unit 110 uses a lidar sensor, a radar sensor, an ultrasonic sensor, etc. A distance interval with the object 300 existing in the moving direction may be measured.

이에 따라, 제어부(150)는 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체(300)를 판단할 수 있고, 제어부(150)는 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 객체(300)의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 객체(300)의 위험 수준을 판단할 수 있으며, 제어부(150)는 객체(300)의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출할 수 있다.Accordingly, the controller 150 may determine the object 300 appearing from the measurement information based on the object determination model, and the controller 150 controls the object 300 classified into a walking aid object, a fixed object, and a moving object. Based on the risk criteria set differently depending on the type, it is possible to determine the risk level of the object 300 , and the controller 150 is a voice matched to inform the pedestrian's path according to the location and risk level of the object 300 . information can be extracted.

이를 위해, 저장부(140)는 측정 정보로부터 임의의 객체(300)가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장될 수 있다. 또한, 저장부(140)는 객체(300), 객체(300)의 위치 및 위험 수준에 매칭되는 음성 정보가 저장될 수 있다.To this end, the storage unit 140 may store an object determination model generated by learning to determine an arbitrary object 300 from the measurement information. Also, the storage unit 140 may store the object 300 , and voice information matching the location and risk level of the object 300 .

출력부(160)는 제어부(150)에서 추출된 음성 정보를 출력할 수 있으며, 또한, 출력부(160)는 진동 소자가 마련되어, 제어부(150)에서 판단되는 위험 수준에 따라 진동이 출력되도록 마련될 수 있다.The output unit 160 may output the voice information extracted from the control unit 150 , and the output unit 160 is provided with a vibration element so that vibration is output according to the risk level determined by the control unit 150 . can be

도4는 도2의 제어부에서 보행 경로를 생성하는 과정을 나타낸 블록도이다.4 is a block diagram illustrating a process of generating a walking path in the controller of FIG. 2 .

도4를 참조하면, 입력부(120)는 보행자로부터 음성 명령 정보를 입력 받을 수 있으며, 위치 측정부(130)는 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정할 수 있다.Referring to FIG. 4 , the input unit 120 may receive voice command information from a pedestrian, and the location measurement unit 130 may measure current location information of a space in which the pedestrian is currently located.

이에 따라, 제어부(150)는 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출할 수 있고, 제어부(150)는 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 보행 경로 선택 명령에 기초하여, 현재 위치 정보로부터 주소 정보까지의 보행 경로를 생성할 수 있으며, 제어부(150)는 보행 경로와 현재 위치 정보에 매칭되는 음성 정보를 추출할 수 있다.Accordingly, the control unit 150 may extract the address information and the walking path selection command by analyzing the voice command information, and the control unit 150 is a walking path selection command classified into the shortest distance path, the safe path, and the minimum moving object path. Based on the , a walking route from the current location information to the address information may be generated, and the controller 150 may extract voice information matching the walking route and the current location information.

이를 위해, 저장부(140)는 임의의 경로에 존재하는 보행 보조 객체에 대해 판단된 위험 수준이 저장될 수 있다. 또한, 저장부(140)는 임의의 시점에 임의의 경로에 존재하는 이동 객체의 개수가 저장될 수 있다.To this end, the storage unit 140 may store the risk level determined for the walking assistance object existing on an arbitrary path. Also, the storage unit 140 may store the number of moving objects existing in an arbitrary path at an arbitrary time point.

출력부(160)는 제어부(150)에서 추출된 음성 정보를 출력할 수 있다.The output unit 160 may output the voice information extracted from the control unit 150 .

한편, 제어부(150)는 측정 정보 중 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우에, 제어부(150)는 측정 정보를 임의의 회전 각도로 회전시켜 문자의 형상을 정방향으로 조정할 수 있고, 제어부(150)는 정방향으로 조정된 문자로부터 주소 정보를 추출할 수 있다.On the other hand, when an image in which the shape of a character appears is recognized from the measurement information generated by photographing a situation in the direction in which the pedestrian is traveling among the measurement information, the control unit 150 controls the measurement information to an arbitrary rotation angle. By rotating it, the shape of the character may be adjusted in a forward direction, and the controller 150 may extract address information from the adjusted character in the forward direction.

도5는 도2의 제어부에서 보행 보조 객체인 계단의 위험 수준을 판단하는 일 실시예를 나타낸 개략도이다.5 is a schematic diagram illustrating an embodiment in which the control unit of FIG. 2 determines the risk level of the stairs, which is a walking assistance object.

일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되는 경우에, 측정 정보로부터 객체(300)의 외측 경계선을 추출하여, 객체(300)의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 내측 경계선의 개수에 따라 계단의 단수를 판단할 수 있으며, 제어부(150)는 인접한 두 내측 경계선의 거리 간격을 산출하여, 계단의 한 단의 높이를 판단할 수 있고, 제어부(150)는 계단의 한 단의 높이와 계단의 단수에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the object 300 is a stairway that is a walking aid object, the controller 150 extracts the outer boundary line of the object 300 from the measurement information, and the outer boundary indicating the appearance of the object 300 . can be set, and the control unit 150 extracts the inner boundary line existing inside the outer boundary, and determines the number of steps according to the number of the inner boundary line, and the control unit 150 determines the distance between the two adjacent inner boundary lines. By calculating , the height of one step of the staircase may be determined, and the controller 150 may determine the risk level according to the height of one step of the staircase and the number of steps.

도5를 참조하면, 제어부(150)에서 계단의 내측 경계선으로 인식하도록 설정되는 계단 모서리 영역을 확인할 수 있다.Referring to FIG. 5 , the control unit 150 may check the stair corner area set to be recognized as the inner boundary line of the stair.

이러한 경우에, 제어부(150)는 계단의 한 단의 높이가 높아질수록 위험 수준을 높게 판단할 수 있고, 제어부(150)는 계단의 단수가 많아질수록 위험 수준을 높게 판단할 수 있다.In this case, the controller 150 may determine the risk level to be higher as the height of one step of the stairs increases, and the controller 150 may determine the risk level to be higher as the number of steps increases.

이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 계단이 존재하는 것을 알리는 음성 정보를 추출할 수 있다.In this regard, when it is determined that the object 300 is a staircase that is a walking aid object, and the risk level classified as high, medium, or low is determined to be low, the controller 150 determines that there are stairs in the direction in which the pedestrian proceeds. It is possible to extract voice information for notification.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 계단이 위험한 것을 알리는 음성 정보를 추출할 수 있다.In addition, when it is determined that the object 300 is a staircase that is a walking aid object, and the risk level classified into upper, middle, and lower is determined to be medium, the controller 150 notifies that the stairs existing in the direction in which the pedestrian proceeds are dangerous. Voice information can be extracted.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 계단이 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when the object 300 is determined to be a stairway that is a walking aid object, and the risk level classified as upper, middle, or lower is determined to be higher, the stairs existing in the direction in which the pedestrian is traveling are dangerous. It is possible to extract voice information that recommends using a different route.

이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 계단의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the controller 150 may further extract voice information indicating a direction in which the outer boundary line of the stairs appearing from the measurement information is closer to the center point of the measurement information.

한편, 제어부(150)는 측정 정보로부터 나타나는 계단과의 거리 간격이 임계 거리 간격 미만인 경우에, 계단의 단수를 알리는 음성 정보를 추출할 수 있다.Meanwhile, when the distance interval from the stairs indicated from the measurement information is less than the threshold distance interval, the controller 150 may extract voice information indicating the number of steps.

여기에서, 계단과의 거리 간격에 대해 설정되는 임계 거리 간격은 보행자가 계단을 이용하는 것으로 판단될 수 있는 거리 간격으로 설정될 수 있다.Here, the threshold distance interval set for the distance interval with the stairs may be set as a distance interval at which it can be determined that the pedestrian uses the stairs.

도6는 도2의 제어부에서 보행 보조 객체인 무빙 워크의 위험 수준을 판단하는 일 실시예를 나타낸 개략도이다.6 is a schematic diagram illustrating an embodiment in which the controller of FIG. 2 determines a risk level of a moving walk, which is a walking assistance object.

일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되는 경우에, 측정 정보로부터 객체(300)의 외측 경계선을 추출하여, 객체(300)의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출할 수 있으며, 제어부(150)는 시간 간격과 위치 변화량에 따라 무빙 워크의 이동 속도를 판단할 수 있고, 제어부(150)는 무빙 워크의 이동 속도에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the object 300 is a moving walk that is a walking assistance object, the controller 150 extracts an outer boundary line of the object 300 from the measurement information, thereby indicating the external appearance of the object 300 . The boundary can be set, and the control unit 150 extracts the inner boundary line existing inside the outer boundary, and calculates the amount of position change of any one inner boundary line from a plurality of measurement information measured according to a preset time interval. In addition, the controller 150 may determine the moving speed of the moving walk according to the time interval and the amount of position change, and the controller 150 may determine the risk level according to the moving speed of the moving walk.

도6을 참조하면, 제어부(150)에서 무빙 워크의 내측 경계선으로 인식하도록 설정되는 인접한 두 발판이 분리된 영역을 확인할 수 있다.Referring to FIG. 6 , an area in which two adjacent footrests set to be recognized as an inner boundary line of the moving walk by the controller 150 is separated can be identified.

이러한 경우에, 제어부(150)는 무빙 워크의 이동 속도가 빨라질수록 위험 수준을 높게 판단할 수 있다.In this case, the controller 150 may determine the higher the risk level as the moving speed of the moving walk increases.

이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크가 위험한 것을 알리는 음성 정보를 추출할 수 있다.In this regard, the controller 150 determines that the object 300 is a moving walk that is a walking assistance object, and when it is determined that the risk level classified as upper, middle, or lower is lower, the moving walk existing in the direction in which the pedestrian proceeds. It is possible to extract voice information to inform that the is dangerous.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크가 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the object 300 is a moving walk that is a walking aid object, and the risk level classified into upper, middle, and lower is determined to be medium, the moving walk existing in the direction in which the pedestrian proceeds is dangerous. Thus, it is possible to extract voice information that recommends using a different route.

이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 무빙 워크의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the control unit 150 may further extract voice information indicating a direction in which the outer boundary line of the moving walk shown from the measurement information is closer to the center point of the measurement information.

또한, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크의 이용을 금지하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the object 300 is a moving walk that is a walking aid object, and the risk level classified as upper, middle, or lower is determined to be upper, the moving walk existing in the direction in which the pedestrian proceeds is It is possible to extract voice information that is prohibited from being used.

이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 무빙 워크의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the control unit 150 may further extract voice information indicating a direction in which the outer boundary line of the moving walk shown from the measurement information is closer to the center point of the measurement information.

도7 및 도8은 본 발명의 일 실시예에 따른 시각 보조 방법의 순서도이다.7 and 8 are flowcharts of a visual assistance method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 시각 보조 방법은 도 2에 도시된 시각 보조 장치(100)와 실질적으로 동일한 구성 상에서 진행되므로, 도 2의 시각 보조 장치(100)와 동일한 구성요소에 대해 동일한 도면 부호를 부여하고, 반복되는 설명은 생략하기로 한다.Since the visual assistance method according to an embodiment of the present invention proceeds in substantially the same configuration as that of the visual assistance apparatus 100 shown in FIG. , and repeated descriptions will be omitted.

시각 보조 방법은 측정 정보를 생성하는 단계(700), 객체를 판단하는 단계(710), 객체의 위험 수준을 판단하는 단계(720), 음성 정보를 추출하는 단계(730) 및 음성 정보를 출력하는 단계(740)를 포함할 수 있다.The visual assistance method includes generating measurement information (700), determining an object (710), determining a risk level of an object (720), extracting voice information (730), and outputting voice information step 740 .

측정 정보를 생성하는 단계(700)는 센서부(110)가 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 단계일 수 있다.The step 700 of generating the measurement information may be a step in which the sensor unit 110 measures the situation in the direction in which the pedestrian proceeds to generate the measurement information.

객체를 판단하는 단계(710)는 저장부(140)에 측정 정보로부터 임의의 객체(300)가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되어, 제어부(150)가 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체(300)를 판단하는 단계일 수 있다.In step 710 of determining the object, an object determination model generated by learning to determine an arbitrary object 300 from measurement information is stored in the storage unit 140 , and the controller 150 measures it based on the object determination model It may be a step of determining the object 300 appearing from the information.

객체의 위험 수준을 판단하는 단계(720)는 제어부(150)가 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 객체(300)의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 객체(300)의 위험 수준을 판단하는 단계일 수 있다.In step 720 of determining the risk level of the object, the control unit 150 based on the risk criterion set differently according to the type of the object 300 classified into a walking aid object, a fixed object, and a moving object, the object 300 It may be a step to determine the risk level of

음성 정보를 추출하는 단계(730)는 제어부(150)가 객체(300)의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 단계일 수 있다.The step 730 of extracting the voice information may be a step of extracting, by the controller 150 , matching voice information to inform the pedestrian's path according to the location and risk level of the object 300 .

음성 정보를 출력하는 단계(740)는 출력부(160)가 음성 정보를 출력하는 단계일 수 있다.The step 740 of outputting the voice information may be a step in which the output unit 160 outputs the voice information.

한편, 시각 보조 방법은 음성 명령 정보를 입력 받는 단계(800), 현재 위치 정보를 측정하는 단계(810), 주소 정보를 추출하는 단계(820), 보행 경로를 생성하는 단계(830) 및 음성 정보를 추출하여 출력하는 단계(840)를 더 포함할 수 있다.Meanwhile, the visual assistance method includes receiving voice command information (800), measuring current location information (810), extracting address information (820), generating a walking path (830), and voice information The step of extracting and outputting 840 may be further included.

음성 명령 정보를 입력 받는 단계(800)는 입력부(120)가 보행자로부터 음성 명령 정보를 입력 받는 단계일 수 있다.The step 800 of receiving voice command information may be a step in which the input unit 120 receives voice command information from a pedestrian.

현재 위치 정보를 측정하는 단계(810)는 위치 측정부(130)가 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 단계일 수 있다.The step 810 of measuring the current location information may be a step in which the location measuring unit 130 measures the current location information of the space in which the pedestrian is currently located.

주소 정보를 추출하는 단계(820)는 제어부(150)가 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출하는 단계일 수 있다.The step of extracting the address information 820 may be a step in which the controller 150 analyzes the voice command information to extract the address information and the walking path selection command.

보행 경로를 생성하는 단계(830)는 제어부(150)가 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 보행 경로 선택 명령에 기초하여, 현재 위치 정보로부터 주소 정보까지의 보행 경로를 생성하는 단계일 수 있다.In the step 830 of generating a walking path, the controller 150 generates a walking path from the current location information to the address information based on the walking path selection command classified into the shortest distance path, the safe path, and the minimum moving object path. can be a step.

음성 정보를 추출하여 출력하는 단계(840)는 제어부(150)가 보행 경로와 현재 위치 정보에 매칭되는 음성 정보를 추출하여, 출력부(160)가 음성 정보를 출력하는 단계일 수 있다.The step 840 of extracting and outputting the voice information may be a step in which the controller 150 extracts voice information matching the walking path and current location information, and the output unit 160 outputs the voice information.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the following claims. will be able

100: 시각 보조 장치
200: 외부 서버
300: 객체
100: visual aid
200: external server
300: object

Claims (11)

보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 센서부;
상기 측정 정보로부터 임의의 객체가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되는 저장부;
상기 객체 판단 모델에 기초하여 상기 측정 정보로부터 나타나는 객체를 판단하고, 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 상기 객체의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 상기 객체의 위험 수준을 판단하며, 상기 객체의 위치와 상기 위험 수준에 따라 상기 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 제어부; 및
상기 음성 정보를 출력하는 출력부;를 포함하고,
상기 제어부는,
상기 객체가 보행 보조 객체인 에스컬레이터로 판단되는 경우, 상기 측정 정보로부터 상기 에스컬레이터의 외측 경계선을 추출하여, 상기 에스컬레이터의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 양측 거리 간격의 산출하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 상기 시간 간격과 상기 위치 변화량에 따라 상기 에스컬레이터의 이동 속도를 판단하고, 상기 에스컬레이터의 상기 양측 거리 간격과 상기 이동 속도에 따라 위험 수준을 판단하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
a sensor unit for generating measurement information by measuring a situation in a direction in which a pedestrian is traveling;
a storage unit for storing an object determination model generated by learning to determine an arbitrary object from the measurement information;
Determine the object appearing from the measurement information based on the object determination model, and determine the risk level of the object based on a risk criterion set differently according to the type of the object classified into a walking aid object, a fixed object, and a moving object a controller for determining and extracting matching voice information to inform the pedestrian's path according to the location of the object and the level of risk; and
Including; an output unit for outputting the voice information;
The control unit is
When it is determined that the object is an escalator that is a walking assistance object, the outer boundary line of the escalator is extracted from the measurement information, an outer boundary indicating the appearance of the escalator is set, and the distance between both sides of the outer boundary is calculated, and the Extracting the inner boundary line existing inside the outer boundary, calculating the position change amount of any one inner boundary line from a plurality of measurement information measured according to a preset time interval, according to the time interval and the position change amount Determining the moving speed of the escalator, and determining the level of danger according to the distance between the both sides of the escalator and the moving speed, a visual assistance device capable of object recognition for the escalator.
제1항에 있어서,
보행자로부터 음성 명령 정보를 입력 받는 입력부; 및
상기 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 위치 측정부;를 더 포함하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 1,
an input unit for receiving voice command information from a pedestrian; and
A visual assistance device capable of object recognition for an escalator, further comprising a; a position measuring unit for measuring current position information of a space in which the pedestrian is currently located.
제2항에 있어서, 상기 제어부는,
상기 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하며, 상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 2, wherein the control unit,
Address information and walking path selection command are extracted by analyzing the voice command information, and based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path, from the current location information to the address information A visual assistance device capable of object recognition for an escalator, which generates a walking path of the escalator and extracts voice information matching the walking path and the current location information.
제2항에 있어서, 상기 제어부는,
상기 측정 정보 중 상기 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우, 상기 측정 정보를 임의의 회전 각도로 회전시켜 상기 문자의 형상을 정방향으로 조정하고, 정방향으로 조정된 문자로부터 주소 정보를 추출하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 2, wherein the control unit,
When an image in which the shape of a character appears is recognized from the measurement information generated by photographing the situation in the direction in which the pedestrian is traveling among the measurement information, the measurement information is rotated at an arbitrary rotation angle to adjust the shape of the character in the forward direction And, a visual assistance device capable of object recognition for the escalator, extracting address information from the characters adjusted in the forward direction.
제4항에 있어서, 상기 제어부는,
상기 음성 명령 정보를 분석하여 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 4, wherein the control unit,
A walking path selection command is extracted by analyzing the voice command information, and based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path, a walking path from the current location information to the address information A visual aid device capable of object recognition for escalators that creates
제5항에 있어서, 상기 제어부는,
상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 5, wherein the control unit,
A visual assistance device capable of object recognition for an escalator that extracts voice information matching the walking path and the current location information.
에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치를 이용하는 시각 보조 방법에 있어서,
센서부가 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 단계;
저장부에 상기 측정 정보로부터 임의의 객체가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되어, 제어부가 상기 객체 판단 모델에 기초하여 상기 측정 정보로부터 나타나는 객체를 판단하는 단계;
제어부가 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 상기 객체의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 상기 객체의 위험 수준을 판단하는 단계;
제어부가 상기 객체의 위치와 상기 위험 수준에 따라 상기 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 단계; 및
출력부가 상기 음성 정보를 출력하는 단계;를 포함하고,
상기 객체의 위험 수준을 판단하는 단계는,
상기 객체가 보행 보조 객체인 에스컬레이터로 판단되는 경우, 상기 측정 정보로부터 상기 에스컬레이터의 외측 경계선을 추출하여, 상기 에스컬레이터의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 양측 거리 간격의 산출하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 상기 시간 간격과 상기 위치 변화량에 따라 상기 에스컬레이터의 이동 속도를 판단하고, 상기 에스컬레이터의 상기 양측 거리 간격과 상기 이동 속도에 따라 위험 수준을 판단하는, 시각 보조 방법.
In the visual assistance method using a visual assistance device capable of object recognition for the escalator,
generating, by a sensor unit, measurement information by measuring a situation in a direction in which a pedestrian is traveling;
storing an object determination model generated by learning to determine an arbitrary object from the measurement information in a storage unit, and determining, by a controller, an object appearing from the measurement information based on the object determination model;
determining, by the controller, a risk level of the object based on a risk criterion set differently according to the type of the object classified into a walking aid object, a fixed object, and a moving object;
extracting, by the controller, matching voice information to inform the pedestrian's path according to the location of the object and the risk level; and
Including; outputting the voice information by an output unit;
The step of determining the risk level of the object,
When it is determined that the object is an escalator that is a walking assistance object, the outer boundary line of the escalator is extracted from the measurement information, an outer boundary indicating the appearance of the escalator is set, and the distance between both sides of the outer boundary is calculated, and the Extracting the inner boundary line existing inside the outer boundary, calculating the position change amount of any one inner boundary line from a plurality of measurement information measured according to a preset time interval, according to the time interval and the position change amount Determining the moving speed of the escalator, and determining the level of danger according to the distance between the both sides of the escalator and the moving speed, a visual assistance method.
제7항에 있어서,
입력부가 보행자로부터 음성 명령 정보를 입력 받는 단계; 및
위치 측정부가 상기 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 단계;를 더 포함하는, 시각 보조 방법.
8. The method of claim 7,
receiving, by an input unit, voice command information from a pedestrian; and
The method further comprising: a position measuring unit measuring current position information of a space in which the pedestrian is currently located; further comprising, a visual assistance method.
제8항에 있어서,
상기 제어부가 상기 측정 정보 중 상기 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우, 상기 측정 정보를 임의의 회전 각도로 회전시켜 상기 문자의 형상을 정방향으로 조정하고, 정방향으로 조정된 문자로부터 주소 정보를 추출하는 단계;를 더 포함하는, 시각 보조 방법.
9. The method of claim 8,
When an image in which a shape of a character appears is recognized from measurement information generated by photographing a situation in a direction in which the pedestrian is traveling among the measurement information, the control unit rotates the measurement information at an arbitrary rotation angle to change the shape of the character Adjusting in the forward direction, and extracting address information from the character adjusted in the forward direction; further comprising, a visual assistance method.
제9항에 있어서,
상기 제어부가 상기 음성 명령 정보를 분석하여 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하는 단계;를 더 포함하는, 시각 보조 방법.
10. The method of claim 9,
The control unit extracts a walking path selection command by analyzing the voice command information, and based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path, from the current location information to the address information Creating a walking path of the; further comprising, a visual assistance method.
제10항에 있어서,
상기 제어부가 상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출하는 단계;를 더 포함하는, 시각 보조 방법.

11. The method of claim 10,
The method further comprising; extracting, by the controller, voice information matching the walking path and the current location information.

KR1020210036377A 2020-11-26 2021-03-22 The vision assistance device and method capable of escalator object recognition KR102443925B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210036377A KR102443925B1 (en) 2020-11-26 2021-03-22 The vision assistance device and method capable of escalator object recognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200160691A KR102234079B1 (en) 2020-11-26 2020-11-26 The vision assistance device and method
KR1020210036377A KR102443925B1 (en) 2020-11-26 2021-03-22 The vision assistance device and method capable of escalator object recognition

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200160691A Division KR102234079B1 (en) 2020-11-26 2020-11-26 The vision assistance device and method

Publications (2)

Publication Number Publication Date
KR20220073606A true KR20220073606A (en) 2022-06-03
KR102443925B1 KR102443925B1 (en) 2022-09-16

Family

ID=75238108

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200160691A KR102234079B1 (en) 2020-11-26 2020-11-26 The vision assistance device and method
KR1020210036381A KR102496113B1 (en) 2020-11-26 2021-03-22 The vision assistance device and method capable of stair object recognition
KR1020210036377A KR102443925B1 (en) 2020-11-26 2021-03-22 The vision assistance device and method capable of escalator object recognition

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020200160691A KR102234079B1 (en) 2020-11-26 2020-11-26 The vision assistance device and method
KR1020210036381A KR102496113B1 (en) 2020-11-26 2021-03-22 The vision assistance device and method capable of stair object recognition

Country Status (1)

Country Link
KR (3) KR102234079B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102683215B1 (en) * 2021-07-07 2024-07-09 서울시립대학교 산학협력단 Apparatus and method for evaluating the management status of pedestrian paths according to obstacles using image deep learning algorithm

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100734624B1 (en) 2005-09-28 2007-07-03 한국전자통신연구원 Apparatus and method for helping safe walking using bio signal
KR20090105531A (en) * 2008-04-03 2009-10-07 슬림디스크 주식회사 The method and divice which tell the recognized document image by camera sensor
KR101542132B1 (en) * 2014-01-29 2015-08-06 박삼기 Navigation system for visually handicapped person
JP2016171972A (en) * 2015-03-18 2016-09-29 隆治 安永 Visually impaired person support system and white stick for visually impaired person used for the same
KR101759146B1 (en) * 2016-12-12 2017-07-18 대구대학교 산학협력단 Blind walking aid system
KR20180097962A (en) * 2017-02-24 2018-09-03 전자부품연구원 Situation determining guide apparatus and method based image analysis
KR20190078712A (en) * 2017-12-15 2019-07-05 노진송 Deep learning technology base blind man Walking danger information guidance system and the method thereof
KR20190135233A (en) * 2018-05-28 2019-12-06 사회복지법인 삼성생명공익재단 The apparatus for assisting vision and method for assisting vision by the apparatus
KR102067350B1 (en) * 2018-12-28 2020-01-16 주식회사 라온즈 Walk assistance support method and walk assistance support system based on remote control service for assisting walking of smart glasses
KR20200076170A (en) * 2018-12-19 2020-06-29 유병준 Assistance system and method for a person who is visually impaired using smart glasses

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100734624B1 (en) 2005-09-28 2007-07-03 한국전자통신연구원 Apparatus and method for helping safe walking using bio signal
KR20090105531A (en) * 2008-04-03 2009-10-07 슬림디스크 주식회사 The method and divice which tell the recognized document image by camera sensor
KR101542132B1 (en) * 2014-01-29 2015-08-06 박삼기 Navigation system for visually handicapped person
JP2016171972A (en) * 2015-03-18 2016-09-29 隆治 安永 Visually impaired person support system and white stick for visually impaired person used for the same
KR101759146B1 (en) * 2016-12-12 2017-07-18 대구대학교 산학협력단 Blind walking aid system
KR20180097962A (en) * 2017-02-24 2018-09-03 전자부품연구원 Situation determining guide apparatus and method based image analysis
KR20190078712A (en) * 2017-12-15 2019-07-05 노진송 Deep learning technology base blind man Walking danger information guidance system and the method thereof
KR20190135233A (en) * 2018-05-28 2019-12-06 사회복지법인 삼성생명공익재단 The apparatus for assisting vision and method for assisting vision by the apparatus
KR20200076170A (en) * 2018-12-19 2020-06-29 유병준 Assistance system and method for a person who is visually impaired using smart glasses
KR102067350B1 (en) * 2018-12-28 2020-01-16 주식회사 라온즈 Walk assistance support method and walk assistance support system based on remote control service for assisting walking of smart glasses

Also Published As

Publication number Publication date
KR102443925B1 (en) 2022-09-16
KR102234079B1 (en) 2021-03-31
KR102496113B1 (en) 2023-02-06
KR20220073607A (en) 2022-06-03

Similar Documents

Publication Publication Date Title
US20230394683A1 (en) Information processing apparatus, control method, and program
AU2015262344B2 (en) Processing apparatus, processing system, processing program, and processing method
CN109730910B (en) Visual auxiliary system for trip, auxiliary equipment, method and readable storage medium thereof
US10387733B2 (en) Processing apparatus, processing system, and processing method
JP7029170B2 (en) Sidewalk progress support system and sidewalk progress support software
KR101708144B1 (en) Braille Block Pattern Recognition System Equipped Stick for The Visually Handicappde Person
KR20160125215A (en) The drone, the route guidance drone set and the method of route guidance using them
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
KR101979324B1 (en) Safety assistant system and method for pedestrian
KR20140006462A (en) Apparatus and method for assisting safe driving
KR102443925B1 (en) The vision assistance device and method capable of escalator object recognition
KR102067350B1 (en) Walk assistance support method and walk assistance support system based on remote control service for assisting walking of smart glasses
KR20130003521A (en) Driving guidance system using sensors
JP2005143892A (en) Walking support apparatus
KR101159437B1 (en) Apparatus and method for walking assistance of the visually impaired person
US20220291684A1 (en) Control system, mobile object, control method, and storage medium
KR102407126B1 (en) Smart glasses system for the visually and hearing impaired with shape and color recognition cameras
KR20200130794A (en) Smart block guide system
KR102673374B1 (en) Obstacle detecting assist system for blind people
CN106176157A (en) A kind of blind person's blind-guide device and control method thereof
Chai Frontal Ground Plane Checking with Single LiDAR Range Finder-based Wearable Model
JP2024002403A (en) Traffic facility control system, traffic facility control method, and program
JP2022098316A (en) Guidance device
CN112949429A (en) Visual auxiliary method, system and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant