KR20220073606A - The vision assistance device and method capable of escalator object recognition - Google Patents
The vision assistance device and method capable of escalator object recognition Download PDFInfo
- Publication number
- KR20220073606A KR20220073606A KR1020210036377A KR20210036377A KR20220073606A KR 20220073606 A KR20220073606 A KR 20220073606A KR 1020210036377 A KR1020210036377 A KR 1020210036377A KR 20210036377 A KR20210036377 A KR 20210036377A KR 20220073606 A KR20220073606 A KR 20220073606A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- escalator
- pedestrian
- path
- measurement information
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/165—Wearable interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5048—Audio interfaces, e.g. voice or music controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2205/00—Devices for specific parts of the body
- A61H2205/02—Head
- A61H2205/022—Face
- A61H2205/024—Eyes
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- Physical Education & Sports Medicine (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Pain & Pain Management (AREA)
- Physics & Mathematics (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Escalators And Moving Walkways (AREA)
Abstract
보행자가 진행하는 방향의 측정 정보를 생성하고, 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체를 판단하고, 객체의 위험 수준을 판단하며, 객체의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하고, 음성 정보를 출력하는, 시각 보조 장치를 제공한다.Matching to generate measurement information of the direction in which the pedestrian proceeds, determine the object appearing from the measurement information based on the object determination model, determine the risk level of the object, and inform the pedestrian's path according to the location and risk level of the object Provided is a visual assistance device that extracts audio information to be used and outputs the audio information.
Description
본 발명은 시각 보조 장치 및 방법에 관한 것으로, 보다 상세하게는, 보행자의 보행을 시각적으로 보조하도록 마련되는 시각 보조 장치 및 방법에 관한 것이다.The present invention relates to a visual assistance apparatus and method, and more particularly, to a visual assistance apparatus and method provided to visually assist a pedestrian in walking.
일반적으로, 시각 장애인은 보행하는 방향에 존재하는 장애물 등의 객체를 인식하기에 어려움을 느끼므로, 보행 도우미 또는 보행 안내견 등의 도움으로 보행을 진행하게 된다.In general, the visually impaired feel difficulty in recognizing objects, such as obstacles, that exist in a walking direction, and thus, walks with the help of a walking helper or a walking guide dog.
이에 따라, 종래에는 객체에 설치된 비콘을 이용하여 객체의 위치를 판단하는 기법이 공지되었으나, 비콘을 이용하여 객체의 위치를 판단하는 것은 비콘이 설치된 객체의 위치만을 판단할 수 있으며, 비콘이 설치되지 않은 객체의 위치는 판단하지 못하는 한계점이 존재한다.Accordingly, conventionally, a technique for determining the location of an object using a beacon installed on an object has been known, but determining the location of an object using a beacon can only determine the location of an object on which a beacon is installed, and a beacon is not installed. There is a limitation in not being able to determine the location of an object that is not there.
또한, 종래에는 보행자의 전방을 촬영하여 영상으로부터 객체의 존재유무를 판단하는 기법이 공지되었으나, 이는, 보행자의 전방에 객체가 존재하는지 만을 알 수 있는 한계점이 존재하며, 객체의 정확한 위치를 판단하여 보행자에게 대응 방안을 알리기에는 어려움이 있다.In addition, conventionally, a technique for determining the presence or absence of an object from an image by photographing the front of the pedestrian is known, but this has a limitation in knowing only whether an object exists in front of the pedestrian, and by determining the exact location of the object It is difficult to inform pedestrians of countermeasures.
이에 따라, 보행자의 진행 방향에 존재하는 객체의 정확한 위치를 판단하고, 이에 따라, 보행자에게 적합한 대응 방안을 알리기 위한 방안이 요구되는 실정이다.Accordingly, there is a need for a method for determining the exact location of an object existing in the moving direction of the pedestrian and, accordingly, notifying the pedestrian of a suitable response method.
본 발명이 해결하고자 하는 기술적 과제는 보행자의 진행 방향에 존재하는 객체를 인식하여 보행자에게 객체의 존재를 알리는 시각 보조 장치 및 방법을 제공하는 것이다.SUMMARY The technical problem to be solved by the present invention is to provide a visual assistance apparatus and method for recognizing an object existing in a moving direction of a pedestrian and notifying a pedestrian of the existence of the object.
본 발명의 일측면은, 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 센서부; 상기 측정 정보로부터 임의의 객체가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되는 저장부; 상기 객체 판단 모델에 기초하여 상기 측정 정보로부터 나타나는 객체를 판단하고, 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 상기 객체의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 상기 객체의 위험 수준을 판단하며, 상기 객체의 위치와 상기 위험 수준에 따라 상기 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 제어부; 및 상기 음성 정보를 출력하는 출력부;를 포함할 수 있다.In one aspect of the present invention, a sensor unit for generating measurement information by measuring a situation in a direction in which a pedestrian is traveling; a storage unit for storing an object determination model generated by learning to determine an arbitrary object from the measurement information; Determine the object appearing from the measurement information based on the object determination model, and determine the risk level of the object based on a risk criterion set differently according to the type of the object classified into a walking aid object, a fixed object, and a moving object a controller for determining and extracting matching voice information to inform the pedestrian's path according to the location of the object and the level of risk; and an output unit for outputting the voice information.
또한, 상기 제어부는, 상기 객체가 보행 보조 객체인 계단으로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 상기 내측 경계선의 개수에 따라 상기 계단의 단수를 판단하며, 인접한 두 내측 경계선의 거리 간격을 산출하여, 상기 계단의 한 단의 높이를 판단하고, 상기 계단의 한 단의 높이와 상기 계단의 단수에 따라 위험 수준을 판단할 수 있다.In addition, when it is determined that the object is a step that is a walking assistance object, the control unit extracts an outer boundary line of the object from the measurement information, sets an outer boundary indicating the appearance of the object, and is located inside the outer boundary. Existing inner boundary lines are extracted, the number of steps of the stairs is determined according to the number of the inner boundary lines, the distance between two adjacent inner boundary lines is calculated, the height of one step of the stairs is determined, and one step of the stairs is determined. The level of risk can be determined according to the height of the stairs and the number of steps.
또한, 상기 제어부는, 상기 객체가 보행 보조 객체인 무빙 워크로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하며, 상기 시간 간격과 상기 위치 변화량에 따라 상기 무빙 워크의 이동 속도를 판단하고, 상기 무빙 워크의 이동 속도에 따라 위험 수준을 판단할 수 있다.In addition, when it is determined that the object is a moving walk that is a walking aid object, the control unit extracts an outer boundary line of the object from the measurement information, sets an outer boundary indicating the appearance of the object, and the inner side of the outer boundary By extracting the inner boundary line present in the, the amount of position change of any one inner boundary line is calculated from a plurality of measurement information measured according to a preset time interval, and the movement of the moving walk according to the time interval and the position change amount The speed may be determined, and the risk level may be determined according to the moving speed of the moving walk.
또한, 상기 제어부는, 상기 객체가 보행 보조 객체인 에스컬레이터로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 양측 거리 간격의 산출하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 상기 시간 간격과 상기 위치 변화량에 따라 상기 에스컬레이터의 이동 속도를 판단하고, 상기 에스컬레이터의 상기 양측 거리 간격과 상기 이동 속도에 따라 위험 수준을 판단할 수 있다.In addition, when it is determined that the object is an escalator that is a walking assistance object, the control unit extracts an outer boundary line of the object from the measurement information, sets an outer boundary indicating the appearance of the object, and the distance between both sides of the outer boundary The interval is calculated, the inner boundary line existing inside the outer boundary is extracted, and the amount of position change of any one inner boundary line is calculated from a plurality of measurement information measured according to a preset time interval, and the time interval and It is possible to determine the moving speed of the escalator according to the amount of change in the position, and determine the risk level according to the distance between the both sides of the escalator and the moving speed.
또한, 보행자로부터 음성 명령 정보를 입력 받는 입력부; 및 상기 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 위치 측정부;를 더 포함할 수 있다.In addition, the input unit for receiving voice command information from the pedestrian; and a location measurement unit configured to measure current location information of a space in which the pedestrian is currently located.
또한, 상기 제어부는, 상기 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하며, 상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출할 수 있다.In addition, the control unit extracts address information and a walking path selection command by analyzing the voice command information, and based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path, the current location A walking path from the information to the address information may be generated, and voice information matching the walking path and the current location information may be extracted.
또한, 상기 제어부는, 상기 측정 정보 중 상기 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우, 상기 측정 정보를 임의의 회전 각도로 회전시켜 상기 문자의 형상을 정방향으로 조정하고, 정방향으로 조정된 문자로부터 주소 정보를 추출하며, 상기 음성 명령 정보를 분석하여 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하며, 상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출할 수 있다.In addition, the control unit, when the image in which the shape of the character appears from the measurement information generated by photographing the situation in the direction in which the pedestrian travels among the measurement information is recognized, the control unit rotates the measurement information to an arbitrary rotation angle to the character Adjusts the shape of the forward direction, extracts address information from the adjusted characters in the forward direction, analyzes the voice command information to extract a walking path selection command, and is classified into a shortest distance path, a safe path, and a minimum moving object path. Based on the walking path selection command, a walking path from the current location information to the address information may be generated, and voice information matching the walking path and the current location information may be extracted.
본 발명의 다른 일측면은, 센서부가 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 단계; 저장부에 상기 측정 정보로부터 임의의 객체가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되어, 제어부가 상기 객체 판단 모델에 기초하여 상기 측정 정보로부터 나타나는 객체를 판단하는 단계; 제어부가 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 상기 객체의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 상기 객체의 위험 수준을 판단하는 단계; 제어부가 상기 객체의 위치와 상기 위험 수준에 따라 상기 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 단계; 및 출력부가 상기 음성 정보를 출력하는 단계;를 포함할 수 있다.Another aspect of the present invention includes the steps of: generating, by a sensor unit, measurement information by measuring a situation in a direction in which a pedestrian is traveling; storing an object determination model generated by learning to determine an arbitrary object from the measurement information in a storage unit, and determining, by a controller, an object appearing from the measurement information based on the object determination model; determining, by the controller, a risk level of the object based on a risk criterion set differently according to the type of the object classified into a walking aid object, a fixed object, and a moving object; extracting, by the controller, matching voice information to inform the pedestrian's path according to the location of the object and the risk level; and outputting the voice information by an output unit.
또한, 상기 객체의 위험 수준을 판단하는 단계는, 상기 객체가 보행 보조 객체인 계단으로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 상기 내측 경계선의 개수에 따라 상기 계단의 단수를 판단하며, 인접한 두 내측 경계선의 거리 간격을 산출하여, 상기 계단의 한 단의 높이를 판단하고, 상기 계단의 한 단의 높이와 상기 계단의 단수에 따라 위험 수준을 판단할 수 있다.In addition, the step of determining the risk level of the object, when the object is determined to be a stairway that is a walking aid object, extracting the outer boundary line of the object from the measurement information, setting the outer boundary indicating the appearance of the object, , by extracting the inner boundary line existing inside the outer boundary, determining the number of steps according to the number of the inner boundary lines, calculating the distance between two adjacent inner boundary lines, and determining the height of one step of the stairs And, it is possible to determine the level of risk according to the height of one stage of the stairs and the number of stages of the stairs.
또한, 상기 객체의 위험 수준을 판단하는 단계는, 상기 객체가 보행 보조 객체인 무빙 워크로 판단되는 경우, 상기 측정 정보로부터 상기 객체의 외측 경계선을 추출하여, 상기 객체의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하며, 상기 시간 간격과 상기 위치 변화량에 따라 상기 무빙 워크의 이동 속도를 판단하고, 상기 무빙 워크의 이동 속도에 따라 위험 수준을 판단할 수 있다.In addition, the step of determining the risk level of the object, when the object is determined to be a moving walk that is a walking assistance object, by extracting the outer boundary of the object from the measurement information, setting the outer boundary indicating the appearance of the object and extracting the inner boundary line existing inside the outer boundary, calculating the position change amount of any one inner boundary line from a plurality of measurement information measured according to a preset time interval, the time interval and the position change amount It is possible to determine the moving speed of the moving walk in accordance with, and determine the risk level according to the moving speed of the moving walk.
또한, 상기 객체의 위험 수준을 판단하는 단계는, 상기 객체가 보행 보조 객체인 에스컬레이터로 판단되는 경우, 상기 측정 정보로부터 상기 에스컬레이터의 외측 경계선을 추출하여, 상기 에스컬레이터의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 양측 거리 간격의 산출하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 상기 시간 간격과 상기 위치 변화량에 따라 상기 에스컬레이터의 이동 속도를 판단하고, 상기 에스컬레이터의 상기 양측 거리 간격과 상기 이동 속도에 따라 위험 수준을 판단할 수 있다.In addition, the step of determining the risk level of the object, when the object is determined to be an escalator that is a walking assistance object, extracting the outer boundary line of the escalator from the measurement information, setting the outer boundary indicating the appearance of the escalator, , Calculate the distance interval on both sides of the outer boundary, extract the inner boundary line existing inside the outer boundary, and determine the amount of position change of any one inner boundary line from a plurality of measurement information measured according to a preset time interval By calculating, it is possible to determine the moving speed of the escalator according to the time interval and the amount of change in the position, and determine the risk level according to the distance between the both sides of the escalator and the moving speed.
또한, 입력부가 보행자로부터 음성 명령 정보를 입력 받는 단계; 및 위치 측정부가 상기 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 단계;를 더 포함할 수 있다.In addition, the step of receiving the input unit voice command information from the pedestrian; and measuring, by a location measuring unit, current location information of a space in which the pedestrian is currently located.
상술한 본 발명의 일측면에 따르면, 시각 보조 장치 및 방법을 제공함으로써, 보행자의 진행 방향에 존재하는 객체를 인식하여 보행자에게 객체의 존재를 알릴 수 있다.According to one aspect of the present invention described above, by providing a visual assistance apparatus and method, it is possible to recognize an object existing in a moving direction of a pedestrian and notify the pedestrian of the existence of the object.
도1은 본 발명의 일 실시예에 따른 시각 보조 장치의 실시예를 나타낸 개략도이다.
도2는 본 발명의 일 실시예에 따른 시각 보조 장치의 제어블록도이다.
도3은 도2의 제어부에서 객체의 위험 수준을 판단하는 과정을 나타낸 블록도이다.
도4는 도2의 제어부에서 보행 경로를 생성하는 과정을 나타낸 블록도이다.
도5는 도2의 제어부에서 보행 보조 객체인 계단의 위험 수준을 판단하는 일 실시예를 나타낸 개략도이다.
도6는 도2의 제어부에서 보행 보조 객체인 무빙 워크의 위험 수준을 판단하는 일 실시예를 나타낸 개략도이다.
도7 및 도8은 본 발명의 일 실시예에 따른 시각 보조 방법의 순서도이다.1 is a schematic diagram illustrating an embodiment of a visual aid apparatus according to an embodiment of the present invention.
2 is a control block diagram of a visual aid apparatus according to an embodiment of the present invention.
3 is a block diagram illustrating a process of determining the risk level of an object in the control unit of FIG. 2 .
4 is a block diagram illustrating a process of generating a walking path in the controller of FIG. 2 .
5 is a schematic diagram illustrating an embodiment in which the control unit of FIG. 2 determines the risk level of the stairs, which is a walking assistance object.
6 is a schematic diagram illustrating an embodiment in which the controller of FIG. 2 determines a risk level of a moving walk, which is a walking assistance object.
7 and 8 are flowcharts of a visual assistance method according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0012] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scope equivalents as those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
도1은 본 발명의 일 실시예에 따른 시각 보조 장치의 실시예를 나타낸 개략도이다.1 is a schematic diagram illustrating an embodiment of a visual aid apparatus according to an embodiment of the present invention.
시각 보조 장치(100)는 보행자가 착용 가능하도록 마련될 수 있다. 예를 들어, 시각 보조 장치(100)는 안경, 목걸이, 벨트, 초커 등으로 마련될 수 있으며, 또한, 시각 보조 장치(100)는 보행자가 소지하도록 마련되는 지팡이 등으로 마련될 수도 있다.The
이에 따라, 시각 보조 장치(100)는 시각 보조 장치(100)를 착용한 보행자가 진행하는 방향의 상황을 측정할 수 있으며, 시각 보조 장치(100)는 보행자의 진행 방향의 상황에 기초하여 위험 수준을 보행자에게 알리도록 마련될 수 있다.Accordingly, the
이때, 시각 보조 장치(100)는 카메라, 라이다 센서, 레이더 센서, 초음파 센서 및 ToF(Time of Flight) 카메라 등이 마련될 수 있으며, 여기에서, ToF 카메라는 목표 객체에 의한 적외선 빔의 역방향 산란(Back Scattering)을 이용하여 객체의 3차원 영상 정보를 생성하는 카메라인 것으로 이해할 수 있다.In this case, the
이를 통해, 시각 보조 장치(100)는 보행자가 진행하는 방향의 상황을 측정할 수 있으며, 이를 위해, 시각 보조 장치(100)는 임의의 정보가 저장되도록 저장부가 마련될 수 있으며, 시각 보조 장치(100)는 보행자가 진행하는 방향의 상황에 기초하여 위험 수준을 판단할 수 있도록 마련되는 정보가 저장부에 저장될 수 있다.Through this, the
이와 관련하여, 시각 보조 장치(100)는 임의의 정보가 저장되는 외부 서버(200)와 무선 네트워크를 통해 정보를 전달하거나, 또는 전달받도록 마련될 수도 있으며, 이러한 경우에, 외부 서버(200)는 보행자가 진행하는 방향의 상황에 기초하여 위험 수준을 판단할 수 있도록 마련되는 정보가 저장될 수 있다.In this regard, the
시각 보조 장치(100)는 보행자가 진행하는 방향의 상황을 외부 서버(200)에 전달할 수 있고, 이에 따라, 시각 보조 장치(100)는 보행자가 진행하는 방향의 상황에 기초하여 위험 수준을 판단할 수 있도록 마련되는 정보에 따라 외부 서버(200)에서 판단된 위험 수준을 전달받을 수 있다.The
한편, 시각 보조 장치(100)는 보행자의 음성 명령을 인식하도록 마련될 수 있으며, 이에 따라, 시각 보조 장치(100)는 인식된 음성 명령을 분석하여 보행자가 가고자 하는 위치를 판단할 수 있다.Meanwhile, the
이를 위해, 시각 보조 장치(100)는 GPS(Global Position System), GLONASS(GLObal NAvigation Satellite System), Galileo, GNSS(Global Navigation Satellite System) 등의 위치 측량 기법이 이용되는 위치 측정부가 마련될 수 있다. 이와 같은, GNSS 기법은 하나 이상의 위성을 이용하며, 각각의 위성과 수신기 간의 거리에 따라 수신기의 위치를 산출하는 기법일 수 있다.To this end, the
이에 따라, 시각 보조 장치(100)는 보행자의 현재 위치로부터 보행자가 가고자 하는 위치까지의 보행 경로를 생성하도록 마련될 수 있다.Accordingly, the
이하에서, 시각 보조 장치(100)에 대해 자세히 설명하도록 한다.Hereinafter, the
도2는 본 발명의 일 실시예에 따른 시각 보조 장치의 제어블록도이다.2 is a control block diagram of a visual aid apparatus according to an embodiment of the present invention.
시각 보조 장치(100)는 센서부(110), 입력부(120), 위치 측정부(130), 저장부(140), 제어부(150) 및 출력부(160)를 포함할 수 있다.The
또한, 시각 보조 장치(100)는 도 2에 도시된 구성요소보다 많은 구성요소에 의해 구현될 수 있고, 그보다 적은 구성요소에 의해 구현될 수 있다. 또는, 시각 보조 장치(100)는 시각 보조 장치(100)에 마련되는 적어도 두 개의 구성요소가 하나의 구성요소로 통합되어 하나의 구성요소가 복합적인 기능을 수행할 수도 있다. 이하, 상술한 구성요소들에 대해 구체적으로 설명하기로 한다.In addition, the
센서부(110)는 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성할 수 있다. 이를 위해, 센서부(110)는 카메라, 라이다 센서, 레이더 센서, 초음파 센서 및 ToF(Time of Flight) 카메라 등을 포함할 수 있다.The
이에 따라, 센서부(110)는 카메라 등을 이용하여 보행자의 진행 방향의 상황이 촬영된 영상을 생성할 수 있으며, 센서부(110)는 라이다 센서, 레이더 센서 및 초음파 센서 등을 이용하여 보행자의 진행 방향에 존재하는 객체(300)와의 거리 간격을 측정할 수 있다.Accordingly, the
저장부(140)는 측정 정보로부터 임의의 객체(300)가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장될 수 있다.The
이때, 객체 판단 모델은 기계 학습(Machine Learning) 등의 기법을 이용하여, 영상에 나타나는 객체(300)의 유형 또는 종류를 판단하도록 생성될 수 있으며, 객체 판단 모델은 사전에 마련되는 복수개의 영상에 나타나는 객체(300)의 유형 또는 종류를 학습자로부터 입력 받아 생성될 수 있다.At this time, the object determination model may be generated to determine the type or type of the
여기에서, 기계 학습은 복수개의 정보에 기초하여, 복수개의 정보를 하나 이상의 그룹으로 분류 가능하도록 학습 모델을 생성하고, 생성된 학습 모델에 기초하여 임의의 정보를 분류하는 기법으로 이해할 수 있으며, 이와 같은, 기계 학습은 관리자에 의해 분류된 복수개의 정보에 따라 임의의 정보를 분류 가능 하도록 학습 모델을 생성하는 지도 학습(Supervised Learning), 복수개의 정보 자체를 분석하거나, 또는 군집화 과정을 수행하며 학습 모델을 생성하는 비지도 학습(Unsupervised Learning), 지도 학습과 비지도 학습을 혼합하여 학습 모델을 생성하는 준지도 학습(Semi-Supervised Learning) 및 복수개의 정보에 대해 임의의 동작을 수행하는 과정에서 발생한 보상에 따라 학습 모델을 생성하는 강화 학습(Reinforcement Learning) 등을 포함할 수 있다.Here, machine learning can be understood as a technique of generating a learning model to classify a plurality of information into one or more groups based on a plurality of information, and classifying arbitrary information based on the generated learning model, and In the same way, machine learning is supervised learning that creates a learning model to classify arbitrary information according to a plurality of information classified by an administrator, analyzes a plurality of information itself, or performs a clustering process and performs a learning model Unsupervised learning to create a , semi-supervised learning to create a learning model by mixing supervised learning and unsupervised learning, and rewards generated in the process of performing arbitrary actions on multiple pieces of information It may include reinforcement learning (Reinforcement Learning) that generates a learning model according to the
예를 들어, 객체 판단 모델은 음료 캔, 스티로폼 박스, 포트홀, 계단, 경계석, 턱, 차량 등의 서로 다른 객체(300)의 영상을 학습하여 생성될 수 있다.For example, the object determination model may be generated by learning images of
제어부(150)는 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체(300)를 판단할 수 있고, 제어부(150)는 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 객체(300)의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 객체(300)의 위험 수준을 판단할 수 있으며, 제어부(150)는 객체(300)의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출할 수 있다.The
여기에서, 보행 보조 객체는 측정 정보로부터 나타나는 계단, 에스컬레이터, 엘리베이터, 무빙 워크 등의 보행자가 보행 중에 이용하도록 마련되는 객체(300)를 나타내도록 마련될 수 있고, 고정 객체는 측정 정보로부터 나타나는 차단 봉, 전봇대, 가로수, 울타리 등의 임의의 위치에 고정된 객체(300)를 나타내도록 마련될 수 있으며, 이동 객체는 측정 정보로부터 나타나는 사람, 차량, 동물 등의 이동이 가능한 객체(300)를 나타내도록 마련될 수 있다.Here, the walking assistance object may be provided to represent the
이를 위해, 저장부(140)는 객체(300), 객체(300)의 위치 및 위험 수준에 매칭되는 음성 정보가 저장될 수 있으며, 출력부(160)는 제어부(150)에서 추출된 음성 정보를 출력할 수 있다.To this end, the
이때, 출력부(160)는 스피커 등을 마련하여 음성 정보를 추출할 수 있으며, 또한, 출력부(160)는 유선 또는 무선으로 시각 보조 장치(100)에 연결되는 이어폰 등의 스피커 장치에 음성 정보가 출력되도록 전달할 수도 있다.In this case, the
또한, 출력부(160)는 진동 소자가 마련되어, 제어부(150)에서 판단되는 위험 수준에 따라 진동이 출력되도록 마련될 수 있다. 이러한 경우에, 제어부(150)는 위험 수준이 일정 수준 이상으로 높은 경우에만 출력부(160)에서 진동이 출력되도록 제어할 수 있다.In addition, the
한편, 저장부(140)는 객체 판단 모델이 저장되어, 시각 보조 장치(100)와 무선 네트워크를 통해 측정 정보가 전달되거나, 또는 객체 판단 모델에 의해 판단되는 위험 수준이 전달되도록 마련되는 외부 서버(200)로 대체될 수도 있다.On the other hand, the
이러한 경우에, 시각 보조 장치(100)는 통신부를 더 포함할 수 있으며, 통신부는 센서부(110)에서 생성되는 측정 정보를 외부 서버(200)에 전달할 수 있다.In this case, the
이에 따라, 외부 서버(200)는 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체(300)를 판단할 수 있고, 외부 서버(200)는 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 객체(300)의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 객체(300)의 위험 수준을 판단할 수 있다.Accordingly, the
이러한 경우에, 통신부는 외부 서버(200)로부터 위험 수준을 전달받을 수 있으며, 제어부(150)는 객체(300)의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출할 수 있다.In this case, the communication unit may receive the risk level from the
일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되는 경우에, 측정 정보로부터 계단의 외측 경계선을 추출하여, 객체(300) 계단의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 내측 경계선의 개수에 따라 계단의 단수를 판단할 수 있으며, 제어부(150)는 인접한 두 내측 경계선의 거리 간격을 산출하여, 계단의 한 단의 높이를 판단할 수 있고, 제어부(150)는 계단의 한 단의 높이와 계단의 단수에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the
여기에서, 임의의 객체(300)의 외측 경계선은 측정 정보로부터 객체(300)로 인식된 영역과 배경 영역을 구분하는 경계선을 의미할 수 있다. 이를 위해, 제어부(150)는 영상으로 나타나는 측정 정보에 그레이 스케일(Gray Scale)을 수행하여 임의의 객체(300)의 외측 경계선을 추출할 수 있으며, 또는, 제어부(150)는 영상으로 나타나는 측정 정보에서 일정한 색조를 나타내는 영역을 추출하여 임의의 객체(300)의 외측 경계선을 추출할 수도 있다.Here, the outer boundary line of the
또한, 임의의 객체(300)의 내측 경계선은 측정 정보에서 추출된 객체(300)의 외측 경계선 내측에서 추출되는 경계선을 의미할 수 있다. 이를 위해, 제어부(150)는 영상으로 나타나는 측정 정보에 그레이 스케일(Gray Scale)을 수행하여 외측 경계선 내측에서 내측 경계선을 추출할 수 있으며, 또는, 제어부(150)는 영상으로 나타나는 측정 정보에서 일정한 색조를 나타내는 영역을 추출하여 외측 경계선 내측에서 내측 경계선을 추출할 수도 있다.Also, the inner boundary line of the
이러한 경우에, 제어부(150)는 계단의 한 단의 높이가 높아질수록 위험 수준을 높게 판단할 수 있고, 제어부(150)는 계단의 단수가 많아질수록 위험 수준을 높게 판단할 수 있다.In this case, the
이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 계단이 존재하는 것을 알리는 음성 정보를 추출할 수 있다.In this regard, when it is determined that the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 계단이 위험한 것을 알리는 음성 정보를 추출할 수 있다.In addition, when it is determined that the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 계단이 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when the
이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 계단의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the
한편, 제어부(150)는 측정 정보로부터 나타나는 계단과의 거리 간격이 임계 거리 간격 미만인 경우에, 계단의 단수를 알리는 음성 정보를 추출할 수 있다.Meanwhile, when the distance interval from the stairs indicated from the measurement information is less than the threshold distance interval, the
여기에서, 계단과의 거리 간격에 대해 설정되는 임계 거리 간격은 보행자가 계단을 이용하는 것으로 판단될 수 있는 거리 간격으로 설정될 수 있다.Here, the threshold distance interval set for the distance interval with the stairs may be set as a distance interval at which it can be determined that the pedestrian uses the stairs.
일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되는 경우에, 측정 정보로부터 무빙 워크의 외측 경계선을 추출하여, 무빙 워크의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출할 수 있으며, 제어부(150)는 시간 간격과 위치 변화량에 따라 무빙 워크의 이동 속도를 판단할 수 있고, 제어부(150)는 무빙 워크의 이동 속도에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the
이러한 경우에, 제어부(150)는 무빙 워크의 이동 속도가 빨라질수록 위험 수준을 높게 판단할 수 있다.In this case, the
이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크가 위험한 것을 알리는 음성 정보를 추출할 수 있다.In this regard, the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크가 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the
이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 무빙 워크의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크의 이용을 금지하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the
이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 무빙 워크의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the
일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 에스컬레이터로 판단되는 경우에, 측정 정보로부터 에스컬레이터의 외측 경계선을 추출하여, 에스컬레이터의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 양측 거리 간격의 산출할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 시간 간격과 위치 변화량에 따라 에스컬레이터의 이동 속도를 판단할 수 있고, 제어부(150)는 에스컬레이터의 양측 거리 간격과 이동 속도에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the
이러한 경우에, 제어부(150)는 에스컬레이터의 이동 속도가 빨라질수록 위험 수준을 높게 판단할 수 있고, 제어부(150)는 에스컬레이터의 양측 거리 간격이 임계 수준 미만으로 판단되는 경우에, 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In this case, the
여기에서, 에스컬레이터의 양측 거리 간격에 대해 설정되는 임계 수준은 에스컬레이터에 두 명 이상의 사람이 측 방향으로 나란히 설 수 있도록 설정되는 거리 간격을 의미할 수 있다.Here, the threshold level set for the distance interval on both sides of the escalator may mean a distance interval set so that two or more people can stand side by side on the escalator side by side.
이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 에스컬레이터로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 에스컬레이터가 위험한 것을 알리는 음성 정보를 추출할 수 있다.In this regard, when it is determined that the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 에스컬레이터로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 에스컬레이터가 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the
이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 에스컬레이터의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 에스컬레이터로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 에스컬레이터의 이용을 금지하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the
이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 에스컬레이터의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the
일 실시예에서, 제어부(150)는 객체(300)가 고정 객체로 판단되는 경우에, 측정 정보에서 객체(300)가 차지하는 가로 방향의 화소 수, 세로 방향의 화소 수 및 객체(300)와의 거리 간격에 따라 객체(300)의 크기와 높이를 산출할 수 있고, 이에 따라, 제어부(150)는 객체(300)의 크기와 높이에 따라 위험 수준을 판단할 수 있다.In an embodiment, when it is determined that the
이러한 경우에, 제어부(150)는 객체(300)의 크기가 커질수록 위험 수준을 높게 판단할 수 있고, 제어부(150)는 객체(300)의 높이가 높아질수록 위험 수준을 높게 판단할 수 있다.In this case, the
입력부(120)는 보행자로부터 음성 명령 정보를 입력 받을 수 있으며, 이를 위해, 입력부(120)는 마이크 등을 포함할 수 있다.The
이에 따라, 제어부(150)는 음성 인식(Speech Recognition) 등의 기법을 이용하여 음성 명령 정보를 분석할 수 있다. 여기에서, 음성 인식 기법은 음성 신호를 수십 밀리 초로 분리하여 10여 차원으로 나타나는 특징 벡터를 추출하고, 추출된 특징 벡터를 통해 음성 신호를 모음 또는 자음 단위로 분할하며, 분할된 모음 또는 자음을 연결하여 임의의 단어를 생성하고, 생성된 단어를 분석하여 음성 신호의 의미를 판단하는 기법으로 이해할 수 있다.Accordingly, the
위치 측정부(130)는 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정할 수 있다. 이를 위해, 위치 측정부(130)는 GPS(Global Position System), GLONASS(GLObal NAvigation Satellite System), Galileo, GNSS(Global Navigation Satellite System) 등의 위치 측량 기법이 이용되는 위치 센서가 마련될 수 있다.The
제어부(150)는 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출할 수 있고, 제어부(150)는 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 보행 경로 선택 명령에 기초하여, 현재 위치 정보로부터 주소 정보까지의 보행 경로를 생성할 수 있으며, 제어부(150)는 보행 경로와 현재 위치 정보에 매칭되는 음성 정보를 추출할 수 있다.The
여기에서, 최단 거리 경로는 현재 위치 정보로부터 주소 정보까지의 거리 간격이 가장 짧은 보행 경로를 나타내도록 마련될 수 있고, 안전 경로는 현재 위치 정보로부터 주소 정보까지의 경로에 존재하는 하나 이상의 보행 보조 객체의 위험 수준의 총합이 가장 작은 보행 경로를 나타내도록 마련될 수 있으며, 최소 이동 객체 경로는 현재 위치 정보로부터 주소 정보까지의 경로에서 나타나는 이동 객체가 가장 적은 보행 경로를 나타내도록 마련될 수 있다.Here, the shortest distance path may be provided to indicate a walking path having the shortest distance interval from the current location information to the address information, and the safe path may include one or more walking assistance objects existing in the path from the current location information to the address information. The sum of the risk levels of may be provided to represent the smallest walking path, and the minimum moving object path may be provided to represent the walking path with the fewest moving objects appearing in the path from the current location information to the address information.
이를 위해, 저장부(140)는 임의의 경로에 존재하는 보행 보조 객체에 대해 판단된 위험 수준이 저장될 수 있다. 또한, 저장부(140)는 임의의 시점에 임의의 경로에 존재하는 이동 객체의 개수가 저장될 수 있다.To this end, the
한편, 저장부(140)는 임의의 경로에 존재하는 보행 보조 객체에 대해 판단된 위험 수준 또는, 임의의 시점에 임의의 경로에 존재하는 이동 객체의 개수가 저장되어, 시각 보조 장치(100)와 무선 네트워크를 통해 현재 위치 정보와 주소 정보가 전달되거나, 또는, 임의의 경로에 존재하는 보행 보조 객체에 대해 판단된 위험 수준 또는, 임의의 시점에 임의의 경로에 존재하는 이동 객체의 개수에 따라 생성되는 보행 경로가 전달되도록 마련되는 외부 서버(200)로 대체될 수도 있다.On the other hand, the
일 실시예에서, 제어부(150)는 임의의 현재 위치 정보로부터 임의의 주소 정보까지의 보행 경로를 생성하는 시점이 사전에 설정되는 출퇴근 시간대인 것으로 판단되는 경우에, 지하철 역 입구를 우회하는 보행 경로를 생성할 수 있다.In one embodiment, when it is determined that the time point of generating a walking path from any current location information to any address information is a preset commuting time, the
한편, 제어부(150)는 측정 정보 중 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우에, 제어부(150)는 측정 정보를 임의의 회전 각도로 회전시켜 문자의 형상을 정방향으로 조정할 수 있고, 제어부(150)는 정방향으로 조정된 문자로부터 주소 정보를 추출할 수 있다.On the other hand, when an image in which the shape of a character appears is recognized from the measurement information generated by photographing a situation in the direction in which the pedestrian is traveling among the measurement information, the
도3은 도2의 제어부에서 객체의 위험 수준을 판단하는 과정을 나타낸 블록도이다.3 is a block diagram illustrating a process of determining the risk level of an object in the control unit of FIG. 2 .
도3을 참조하면, 센서부(110)는 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성할 수 있다. 이때, 센서부(110)는 카메라 등을 이용하여 보행자의 진행 방향의 상황이 촬영된 영상을 생성할 수 있으며, 센서부(110)는 라이다 센서, 레이더 센서 및 초음파 센서 등을 이용하여 보행자의 진행 방향에 존재하는 객체(300)와의 거리 간격을 측정할 수 있다.Referring to FIG. 3 , the
이에 따라, 제어부(150)는 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체(300)를 판단할 수 있고, 제어부(150)는 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 객체(300)의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 객체(300)의 위험 수준을 판단할 수 있으며, 제어부(150)는 객체(300)의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출할 수 있다.Accordingly, the
이를 위해, 저장부(140)는 측정 정보로부터 임의의 객체(300)가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장될 수 있다. 또한, 저장부(140)는 객체(300), 객체(300)의 위치 및 위험 수준에 매칭되는 음성 정보가 저장될 수 있다.To this end, the
출력부(160)는 제어부(150)에서 추출된 음성 정보를 출력할 수 있으며, 또한, 출력부(160)는 진동 소자가 마련되어, 제어부(150)에서 판단되는 위험 수준에 따라 진동이 출력되도록 마련될 수 있다.The
도4는 도2의 제어부에서 보행 경로를 생성하는 과정을 나타낸 블록도이다.4 is a block diagram illustrating a process of generating a walking path in the controller of FIG. 2 .
도4를 참조하면, 입력부(120)는 보행자로부터 음성 명령 정보를 입력 받을 수 있으며, 위치 측정부(130)는 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정할 수 있다.Referring to FIG. 4 , the
이에 따라, 제어부(150)는 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출할 수 있고, 제어부(150)는 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 보행 경로 선택 명령에 기초하여, 현재 위치 정보로부터 주소 정보까지의 보행 경로를 생성할 수 있으며, 제어부(150)는 보행 경로와 현재 위치 정보에 매칭되는 음성 정보를 추출할 수 있다.Accordingly, the
이를 위해, 저장부(140)는 임의의 경로에 존재하는 보행 보조 객체에 대해 판단된 위험 수준이 저장될 수 있다. 또한, 저장부(140)는 임의의 시점에 임의의 경로에 존재하는 이동 객체의 개수가 저장될 수 있다.To this end, the
출력부(160)는 제어부(150)에서 추출된 음성 정보를 출력할 수 있다.The
한편, 제어부(150)는 측정 정보 중 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우에, 제어부(150)는 측정 정보를 임의의 회전 각도로 회전시켜 문자의 형상을 정방향으로 조정할 수 있고, 제어부(150)는 정방향으로 조정된 문자로부터 주소 정보를 추출할 수 있다.On the other hand, when an image in which the shape of a character appears is recognized from the measurement information generated by photographing a situation in the direction in which the pedestrian is traveling among the measurement information, the
도5는 도2의 제어부에서 보행 보조 객체인 계단의 위험 수준을 판단하는 일 실시예를 나타낸 개략도이다.5 is a schematic diagram illustrating an embodiment in which the control unit of FIG. 2 determines the risk level of the stairs, which is a walking assistance object.
일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되는 경우에, 측정 정보로부터 객체(300)의 외측 경계선을 추출하여, 객체(300)의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 내측 경계선의 개수에 따라 계단의 단수를 판단할 수 있으며, 제어부(150)는 인접한 두 내측 경계선의 거리 간격을 산출하여, 계단의 한 단의 높이를 판단할 수 있고, 제어부(150)는 계단의 한 단의 높이와 계단의 단수에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the
도5를 참조하면, 제어부(150)에서 계단의 내측 경계선으로 인식하도록 설정되는 계단 모서리 영역을 확인할 수 있다.Referring to FIG. 5 , the
이러한 경우에, 제어부(150)는 계단의 한 단의 높이가 높아질수록 위험 수준을 높게 판단할 수 있고, 제어부(150)는 계단의 단수가 많아질수록 위험 수준을 높게 판단할 수 있다.In this case, the
이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 계단이 존재하는 것을 알리는 음성 정보를 추출할 수 있다.In this regard, when it is determined that the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 계단이 위험한 것을 알리는 음성 정보를 추출할 수 있다.In addition, when it is determined that the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 계단으로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 계단이 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when the
이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 계단의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the
한편, 제어부(150)는 측정 정보로부터 나타나는 계단과의 거리 간격이 임계 거리 간격 미만인 경우에, 계단의 단수를 알리는 음성 정보를 추출할 수 있다.Meanwhile, when the distance interval from the stairs indicated from the measurement information is less than the threshold distance interval, the
여기에서, 계단과의 거리 간격에 대해 설정되는 임계 거리 간격은 보행자가 계단을 이용하는 것으로 판단될 수 있는 거리 간격으로 설정될 수 있다.Here, the threshold distance interval set for the distance interval with the stairs may be set as a distance interval at which it can be determined that the pedestrian uses the stairs.
도6는 도2의 제어부에서 보행 보조 객체인 무빙 워크의 위험 수준을 판단하는 일 실시예를 나타낸 개략도이다.6 is a schematic diagram illustrating an embodiment in which the controller of FIG. 2 determines a risk level of a moving walk, which is a walking assistance object.
일 실시예에서, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되는 경우에, 측정 정보로부터 객체(300)의 외측 경계선을 추출하여, 객체(300)의 외형을 나타내는 외부 경계를 설정할 수 있고, 제어부(150)는 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출할 수 있으며, 제어부(150)는 시간 간격과 위치 변화량에 따라 무빙 워크의 이동 속도를 판단할 수 있고, 제어부(150)는 무빙 워크의 이동 속도에 따라 위험 수준을 판단할 수 있다.In one embodiment, when it is determined that the
도6을 참조하면, 제어부(150)에서 무빙 워크의 내측 경계선으로 인식하도록 설정되는 인접한 두 발판이 분리된 영역을 확인할 수 있다.Referring to FIG. 6 , an area in which two adjacent footrests set to be recognized as an inner boundary line of the moving walk by the
이러한 경우에, 제어부(150)는 무빙 워크의 이동 속도가 빨라질수록 위험 수준을 높게 판단할 수 있다.In this case, the
이와 관련하여, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 하로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크가 위험한 것을 알리는 음성 정보를 추출할 수 있다.In this regard, the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 중으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크가 위험하여 다른 경로를 이용하도록 권고하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the
이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 무빙 워크의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the
또한, 제어부(150)는 객체(300)가 보행 보조 객체인 무빙 워크로 판단되고, 상, 중, 하로 분류되는 위험 수준이 상으로 판단되는 경우에, 보행자가 진행하는 방향에 존재하는 무빙 워크의 이용을 금지하는 음성 정보를 추출할 수 있다.In addition, when it is determined that the
이러한 경우에, 제어부(150)는 측정 정보로부터 나타나는 무빙 워크의 외측 경계선이 측정 정보의 중심 점으로부터 가까운 측의 방향을 알리는 음성 정보를 더 추출할 수 있다.In this case, the
도7 및 도8은 본 발명의 일 실시예에 따른 시각 보조 방법의 순서도이다.7 and 8 are flowcharts of a visual assistance method according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 시각 보조 방법은 도 2에 도시된 시각 보조 장치(100)와 실질적으로 동일한 구성 상에서 진행되므로, 도 2의 시각 보조 장치(100)와 동일한 구성요소에 대해 동일한 도면 부호를 부여하고, 반복되는 설명은 생략하기로 한다.Since the visual assistance method according to an embodiment of the present invention proceeds in substantially the same configuration as that of the
시각 보조 방법은 측정 정보를 생성하는 단계(700), 객체를 판단하는 단계(710), 객체의 위험 수준을 판단하는 단계(720), 음성 정보를 추출하는 단계(730) 및 음성 정보를 출력하는 단계(740)를 포함할 수 있다.The visual assistance method includes generating measurement information (700), determining an object (710), determining a risk level of an object (720), extracting voice information (730), and outputting
측정 정보를 생성하는 단계(700)는 센서부(110)가 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 단계일 수 있다.The
객체를 판단하는 단계(710)는 저장부(140)에 측정 정보로부터 임의의 객체(300)가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되어, 제어부(150)가 객체 판단 모델에 기초하여 측정 정보로부터 나타나는 객체(300)를 판단하는 단계일 수 있다.In
객체의 위험 수준을 판단하는 단계(720)는 제어부(150)가 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 객체(300)의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 객체(300)의 위험 수준을 판단하는 단계일 수 있다.In
음성 정보를 추출하는 단계(730)는 제어부(150)가 객체(300)의 위치와 위험 수준에 따라 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 단계일 수 있다.The
음성 정보를 출력하는 단계(740)는 출력부(160)가 음성 정보를 출력하는 단계일 수 있다.The
한편, 시각 보조 방법은 음성 명령 정보를 입력 받는 단계(800), 현재 위치 정보를 측정하는 단계(810), 주소 정보를 추출하는 단계(820), 보행 경로를 생성하는 단계(830) 및 음성 정보를 추출하여 출력하는 단계(840)를 더 포함할 수 있다.Meanwhile, the visual assistance method includes receiving voice command information (800), measuring current location information (810), extracting address information (820), generating a walking path (830), and voice information The step of extracting and outputting 840 may be further included.
음성 명령 정보를 입력 받는 단계(800)는 입력부(120)가 보행자로부터 음성 명령 정보를 입력 받는 단계일 수 있다.The
현재 위치 정보를 측정하는 단계(810)는 위치 측정부(130)가 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 단계일 수 있다.The
주소 정보를 추출하는 단계(820)는 제어부(150)가 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출하는 단계일 수 있다.The step of extracting the
보행 경로를 생성하는 단계(830)는 제어부(150)가 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 보행 경로 선택 명령에 기초하여, 현재 위치 정보로부터 주소 정보까지의 보행 경로를 생성하는 단계일 수 있다.In the
음성 정보를 추출하여 출력하는 단계(840)는 제어부(150)가 보행 경로와 현재 위치 정보에 매칭되는 음성 정보를 추출하여, 출력부(160)가 음성 정보를 출력하는 단계일 수 있다.The
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the following claims. will be able
100: 시각 보조 장치
200: 외부 서버
300: 객체100: visual aid
200: external server
300: object
Claims (11)
상기 측정 정보로부터 임의의 객체가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되는 저장부;
상기 객체 판단 모델에 기초하여 상기 측정 정보로부터 나타나는 객체를 판단하고, 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 상기 객체의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 상기 객체의 위험 수준을 판단하며, 상기 객체의 위치와 상기 위험 수준에 따라 상기 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 제어부; 및
상기 음성 정보를 출력하는 출력부;를 포함하고,
상기 제어부는,
상기 객체가 보행 보조 객체인 에스컬레이터로 판단되는 경우, 상기 측정 정보로부터 상기 에스컬레이터의 외측 경계선을 추출하여, 상기 에스컬레이터의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 양측 거리 간격의 산출하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 상기 시간 간격과 상기 위치 변화량에 따라 상기 에스컬레이터의 이동 속도를 판단하고, 상기 에스컬레이터의 상기 양측 거리 간격과 상기 이동 속도에 따라 위험 수준을 판단하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
a sensor unit for generating measurement information by measuring a situation in a direction in which a pedestrian is traveling;
a storage unit for storing an object determination model generated by learning to determine an arbitrary object from the measurement information;
Determine the object appearing from the measurement information based on the object determination model, and determine the risk level of the object based on a risk criterion set differently according to the type of the object classified into a walking aid object, a fixed object, and a moving object a controller for determining and extracting matching voice information to inform the pedestrian's path according to the location of the object and the level of risk; and
Including; an output unit for outputting the voice information;
The control unit is
When it is determined that the object is an escalator that is a walking assistance object, the outer boundary line of the escalator is extracted from the measurement information, an outer boundary indicating the appearance of the escalator is set, and the distance between both sides of the outer boundary is calculated, and the Extracting the inner boundary line existing inside the outer boundary, calculating the position change amount of any one inner boundary line from a plurality of measurement information measured according to a preset time interval, according to the time interval and the position change amount Determining the moving speed of the escalator, and determining the level of danger according to the distance between the both sides of the escalator and the moving speed, a visual assistance device capable of object recognition for the escalator.
보행자로부터 음성 명령 정보를 입력 받는 입력부; 및
상기 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 위치 측정부;를 더 포함하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 1,
an input unit for receiving voice command information from a pedestrian; and
A visual assistance device capable of object recognition for an escalator, further comprising a; a position measuring unit for measuring current position information of a space in which the pedestrian is currently located.
상기 음성 명령 정보를 분석하여 주소 정보와 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하며, 상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 2, wherein the control unit,
Address information and walking path selection command are extracted by analyzing the voice command information, and based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path, from the current location information to the address information A visual assistance device capable of object recognition for an escalator, which generates a walking path of the escalator and extracts voice information matching the walking path and the current location information.
상기 측정 정보 중 상기 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우, 상기 측정 정보를 임의의 회전 각도로 회전시켜 상기 문자의 형상을 정방향으로 조정하고, 정방향으로 조정된 문자로부터 주소 정보를 추출하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 2, wherein the control unit,
When an image in which the shape of a character appears is recognized from the measurement information generated by photographing the situation in the direction in which the pedestrian is traveling among the measurement information, the measurement information is rotated at an arbitrary rotation angle to adjust the shape of the character in the forward direction And, a visual assistance device capable of object recognition for the escalator, extracting address information from the characters adjusted in the forward direction.
상기 음성 명령 정보를 분석하여 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 4, wherein the control unit,
A walking path selection command is extracted by analyzing the voice command information, and based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path, a walking path from the current location information to the address information A visual aid device capable of object recognition for escalators that creates
상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출하는, 에스컬레이터에 대한 객체인식이 가능한 시각 보조 장치.
According to claim 5, wherein the control unit,
A visual assistance device capable of object recognition for an escalator that extracts voice information matching the walking path and the current location information.
센서부가 보행자가 진행하는 방향의 상황을 측정하여 측정 정보를 생성하는 단계;
저장부에 상기 측정 정보로부터 임의의 객체가 판단되도록 학습되어 생성되는 객체 판단 모델이 저장되어, 제어부가 상기 객체 판단 모델에 기초하여 상기 측정 정보로부터 나타나는 객체를 판단하는 단계;
제어부가 보행 보조 객체, 고정 객체 및 이동 객체로 분류되는 상기 객체의 유형에 따라 다르게 설정되는 위험 기준에 기초하여, 상기 객체의 위험 수준을 판단하는 단계;
제어부가 상기 객체의 위치와 상기 위험 수준에 따라 상기 보행자의 경로를 알리도록 매칭되는 음성 정보를 추출하는 단계; 및
출력부가 상기 음성 정보를 출력하는 단계;를 포함하고,
상기 객체의 위험 수준을 판단하는 단계는,
상기 객체가 보행 보조 객체인 에스컬레이터로 판단되는 경우, 상기 측정 정보로부터 상기 에스컬레이터의 외측 경계선을 추출하여, 상기 에스컬레이터의 외형을 나타내는 외부 경계를 설정하고, 상기 외부 경계의 양측 거리 간격의 산출하고, 상기 외부 경계의 내측에 존재하는 내측 경계선을 추출하여, 사전에 설정되는 시간 간격에 따라 측정된 복수개의 측정 정보로부터 어느 하나의 내측 경계선의 위치 변화량을 산출하여, 상기 시간 간격과 상기 위치 변화량에 따라 상기 에스컬레이터의 이동 속도를 판단하고, 상기 에스컬레이터의 상기 양측 거리 간격과 상기 이동 속도에 따라 위험 수준을 판단하는, 시각 보조 방법.
In the visual assistance method using a visual assistance device capable of object recognition for the escalator,
generating, by a sensor unit, measurement information by measuring a situation in a direction in which a pedestrian is traveling;
storing an object determination model generated by learning to determine an arbitrary object from the measurement information in a storage unit, and determining, by a controller, an object appearing from the measurement information based on the object determination model;
determining, by the controller, a risk level of the object based on a risk criterion set differently according to the type of the object classified into a walking aid object, a fixed object, and a moving object;
extracting, by the controller, matching voice information to inform the pedestrian's path according to the location of the object and the risk level; and
Including; outputting the voice information by an output unit;
The step of determining the risk level of the object,
When it is determined that the object is an escalator that is a walking assistance object, the outer boundary line of the escalator is extracted from the measurement information, an outer boundary indicating the appearance of the escalator is set, and the distance between both sides of the outer boundary is calculated, and the Extracting the inner boundary line existing inside the outer boundary, calculating the position change amount of any one inner boundary line from a plurality of measurement information measured according to a preset time interval, according to the time interval and the position change amount Determining the moving speed of the escalator, and determining the level of danger according to the distance between the both sides of the escalator and the moving speed, a visual assistance method.
입력부가 보행자로부터 음성 명령 정보를 입력 받는 단계; 및
위치 측정부가 상기 보행자가 현재 위치하는 공간의 현재 위치 정보를 측정하는 단계;를 더 포함하는, 시각 보조 방법.
8. The method of claim 7,
receiving, by an input unit, voice command information from a pedestrian; and
The method further comprising: a position measuring unit measuring current position information of a space in which the pedestrian is currently located; further comprising, a visual assistance method.
상기 제어부가 상기 측정 정보 중 상기 보행자가 진행하는 방향의 상황이 촬영되어 생성되는 측정 정보로부터 문자의 형상이 나타나는 이미지가 인식되는 경우, 상기 측정 정보를 임의의 회전 각도로 회전시켜 상기 문자의 형상을 정방향으로 조정하고, 정방향으로 조정된 문자로부터 주소 정보를 추출하는 단계;를 더 포함하는, 시각 보조 방법.
9. The method of claim 8,
When an image in which a shape of a character appears is recognized from measurement information generated by photographing a situation in a direction in which the pedestrian is traveling among the measurement information, the control unit rotates the measurement information at an arbitrary rotation angle to change the shape of the character Adjusting in the forward direction, and extracting address information from the character adjusted in the forward direction; further comprising, a visual assistance method.
상기 제어부가 상기 음성 명령 정보를 분석하여 보행 경로 선택 명령을 추출하고, 최단 거리 경로, 안전 경로 및 최소 이동 객체 경로로 분류되는 상기 보행 경로 선택 명령에 기초하여, 상기 현재 위치 정보로부터 상기 주소 정보까지의 보행 경로를 생성하는 단계;를 더 포함하는, 시각 보조 방법.
10. The method of claim 9,
The control unit extracts a walking path selection command by analyzing the voice command information, and based on the walking path selection command classified into a shortest distance path, a safe path, and a minimum moving object path, from the current location information to the address information Creating a walking path of the; further comprising, a visual assistance method.
상기 제어부가 상기 보행 경로와 상기 현재 위치 정보에 매칭되는 음성 정보를 추출하는 단계;를 더 포함하는, 시각 보조 방법.
11. The method of claim 10,
The method further comprising; extracting, by the controller, voice information matching the walking path and the current location information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210036377A KR102443925B1 (en) | 2020-11-26 | 2021-03-22 | The vision assistance device and method capable of escalator object recognition |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200160691A KR102234079B1 (en) | 2020-11-26 | 2020-11-26 | The vision assistance device and method |
KR1020210036377A KR102443925B1 (en) | 2020-11-26 | 2021-03-22 | The vision assistance device and method capable of escalator object recognition |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200160691A Division KR102234079B1 (en) | 2020-11-26 | 2020-11-26 | The vision assistance device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220073606A true KR20220073606A (en) | 2022-06-03 |
KR102443925B1 KR102443925B1 (en) | 2022-09-16 |
Family
ID=75238108
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200160691A KR102234079B1 (en) | 2020-11-26 | 2020-11-26 | The vision assistance device and method |
KR1020210036381A KR102496113B1 (en) | 2020-11-26 | 2021-03-22 | The vision assistance device and method capable of stair object recognition |
KR1020210036377A KR102443925B1 (en) | 2020-11-26 | 2021-03-22 | The vision assistance device and method capable of escalator object recognition |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200160691A KR102234079B1 (en) | 2020-11-26 | 2020-11-26 | The vision assistance device and method |
KR1020210036381A KR102496113B1 (en) | 2020-11-26 | 2021-03-22 | The vision assistance device and method capable of stair object recognition |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR102234079B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102683215B1 (en) * | 2021-07-07 | 2024-07-09 | 서울시립대학교 산학협력단 | Apparatus and method for evaluating the management status of pedestrian paths according to obstacles using image deep learning algorithm |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100734624B1 (en) | 2005-09-28 | 2007-07-03 | 한국전자통신연구원 | Apparatus and method for helping safe walking using bio signal |
KR20090105531A (en) * | 2008-04-03 | 2009-10-07 | 슬림디스크 주식회사 | The method and divice which tell the recognized document image by camera sensor |
KR101542132B1 (en) * | 2014-01-29 | 2015-08-06 | 박삼기 | Navigation system for visually handicapped person |
JP2016171972A (en) * | 2015-03-18 | 2016-09-29 | 隆治 安永 | Visually impaired person support system and white stick for visually impaired person used for the same |
KR101759146B1 (en) * | 2016-12-12 | 2017-07-18 | 대구대학교 산학협력단 | Blind walking aid system |
KR20180097962A (en) * | 2017-02-24 | 2018-09-03 | 전자부품연구원 | Situation determining guide apparatus and method based image analysis |
KR20190078712A (en) * | 2017-12-15 | 2019-07-05 | 노진송 | Deep learning technology base blind man Walking danger information guidance system and the method thereof |
KR20190135233A (en) * | 2018-05-28 | 2019-12-06 | 사회복지법인 삼성생명공익재단 | The apparatus for assisting vision and method for assisting vision by the apparatus |
KR102067350B1 (en) * | 2018-12-28 | 2020-01-16 | 주식회사 라온즈 | Walk assistance support method and walk assistance support system based on remote control service for assisting walking of smart glasses |
KR20200076170A (en) * | 2018-12-19 | 2020-06-29 | 유병준 | Assistance system and method for a person who is visually impaired using smart glasses |
-
2020
- 2020-11-26 KR KR1020200160691A patent/KR102234079B1/en active IP Right Grant
-
2021
- 2021-03-22 KR KR1020210036381A patent/KR102496113B1/en active IP Right Grant
- 2021-03-22 KR KR1020210036377A patent/KR102443925B1/en active IP Right Grant
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100734624B1 (en) | 2005-09-28 | 2007-07-03 | 한국전자통신연구원 | Apparatus and method for helping safe walking using bio signal |
KR20090105531A (en) * | 2008-04-03 | 2009-10-07 | 슬림디스크 주식회사 | The method and divice which tell the recognized document image by camera sensor |
KR101542132B1 (en) * | 2014-01-29 | 2015-08-06 | 박삼기 | Navigation system for visually handicapped person |
JP2016171972A (en) * | 2015-03-18 | 2016-09-29 | 隆治 安永 | Visually impaired person support system and white stick for visually impaired person used for the same |
KR101759146B1 (en) * | 2016-12-12 | 2017-07-18 | 대구대학교 산학협력단 | Blind walking aid system |
KR20180097962A (en) * | 2017-02-24 | 2018-09-03 | 전자부품연구원 | Situation determining guide apparatus and method based image analysis |
KR20190078712A (en) * | 2017-12-15 | 2019-07-05 | 노진송 | Deep learning technology base blind man Walking danger information guidance system and the method thereof |
KR20190135233A (en) * | 2018-05-28 | 2019-12-06 | 사회복지법인 삼성생명공익재단 | The apparatus for assisting vision and method for assisting vision by the apparatus |
KR20200076170A (en) * | 2018-12-19 | 2020-06-29 | 유병준 | Assistance system and method for a person who is visually impaired using smart glasses |
KR102067350B1 (en) * | 2018-12-28 | 2020-01-16 | 주식회사 라온즈 | Walk assistance support method and walk assistance support system based on remote control service for assisting walking of smart glasses |
Also Published As
Publication number | Publication date |
---|---|
KR102443925B1 (en) | 2022-09-16 |
KR102234079B1 (en) | 2021-03-31 |
KR102496113B1 (en) | 2023-02-06 |
KR20220073607A (en) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230394683A1 (en) | Information processing apparatus, control method, and program | |
AU2015262344B2 (en) | Processing apparatus, processing system, processing program, and processing method | |
CN109730910B (en) | Visual auxiliary system for trip, auxiliary equipment, method and readable storage medium thereof | |
US10387733B2 (en) | Processing apparatus, processing system, and processing method | |
JP7029170B2 (en) | Sidewalk progress support system and sidewalk progress support software | |
KR101708144B1 (en) | Braille Block Pattern Recognition System Equipped Stick for The Visually Handicappde Person | |
KR20160125215A (en) | The drone, the route guidance drone set and the method of route guidance using them | |
JP2008021034A (en) | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller | |
KR101979324B1 (en) | Safety assistant system and method for pedestrian | |
KR20140006462A (en) | Apparatus and method for assisting safe driving | |
KR102443925B1 (en) | The vision assistance device and method capable of escalator object recognition | |
KR102067350B1 (en) | Walk assistance support method and walk assistance support system based on remote control service for assisting walking of smart glasses | |
KR20130003521A (en) | Driving guidance system using sensors | |
JP2005143892A (en) | Walking support apparatus | |
KR101159437B1 (en) | Apparatus and method for walking assistance of the visually impaired person | |
US20220291684A1 (en) | Control system, mobile object, control method, and storage medium | |
KR102407126B1 (en) | Smart glasses system for the visually and hearing impaired with shape and color recognition cameras | |
KR20200130794A (en) | Smart block guide system | |
KR102673374B1 (en) | Obstacle detecting assist system for blind people | |
CN106176157A (en) | A kind of blind person's blind-guide device and control method thereof | |
Chai | Frontal Ground Plane Checking with Single LiDAR Range Finder-based Wearable Model | |
JP2024002403A (en) | Traffic facility control system, traffic facility control method, and program | |
JP2022098316A (en) | Guidance device | |
CN112949429A (en) | Visual auxiliary method, system and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |