KR102291296B1 - Walking assistance system for the visually-impaired person - Google Patents

Walking assistance system for the visually-impaired person Download PDF

Info

Publication number
KR102291296B1
KR102291296B1 KR1020210061396A KR20210061396A KR102291296B1 KR 102291296 B1 KR102291296 B1 KR 102291296B1 KR 1020210061396 A KR1020210061396 A KR 1020210061396A KR 20210061396 A KR20210061396 A KR 20210061396A KR 102291296 B1 KR102291296 B1 KR 102291296B1
Authority
KR
South Korea
Prior art keywords
module
obstacle
image
walking
user terminal
Prior art date
Application number
KR1020210061396A
Other languages
Korean (ko)
Inventor
방윤
박소희
Original Assignee
방윤
박소희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 방윤, 박소희 filed Critical 방윤
Priority to KR1020210061396A priority Critical patent/KR102291296B1/en
Application granted granted Critical
Publication of KR102291296B1 publication Critical patent/KR102291296B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0157Constructive details portable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5048Audio interfaces, e.g. voice or music controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5097Control means thereof wireless
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2203/00Additional characteristics concerning the patient
    • A61H2203/04Position of the patient
    • A61H2203/0406Standing on the feet

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Rehabilitation Therapy (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Public Health (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Traffic Control Systems (AREA)
  • Rehabilitation Tools (AREA)
  • Navigation (AREA)

Abstract

Disclosed is a walking assistance system for visually impaired persons. According to the present invention, the walking assistance system for visually impaired persons comprises a user terminal performing walking assistance for a visually impaired person and an earphone outputting walking assistance performed in the user terminal as voice. The user terminal is configured to divide and recognize objects including roads and obstacles by a semantic segmentation algorithm and analyze the recognized objects in real-time by an object detection algorithm to detect the obstacles. Accordingly, the depth of an image is recognized by using a visual difference of a dual camera image and the image for each pixel is analyzed by using the semantic segmentation algorithm and the object detection algorithm, thereby providing an effect of distinguishing a sidewalk from a road and accurately detecting obstacles. In addition, the types of obstacles are specified and increased by the object detection algorithm, thereby providing an effect of accurately recognizing the obstacles and perfectly assisting the visually impaired person in walking. In addition, learning is performed on a walkable area by using images acquired by using smartphones of a plurality of visually impaired persons and stored street view images, thereby providing an effect of constructing accurate data on the walkable area for each location.

Description

시각 장애인 보행 보조 시스템{WALKING ASSISTANCE SYSTEM FOR THE VISUALLY-IMPAIRED PERSON} WALKING ASSISTANCE SYSTEM FOR THE VISUALLY-IMPAIRED PERSON

본 발명은 보행 보조 시스템에 관한 것으로서, 구체적으로는 시각 장애인 보행 보조 시스템에 관한 것이다.The present invention relates to a walking assistance system, and more particularly, to a walking assistance system for the visually impaired.

시각 장애인의 보행 안전을 위한 다양한 수단이 개발되고 있지만, 시각 장애인의 보행을 보조할 수 있는 안전한 수단이 강구되어 있지 않다.Although various means for the walking safety of the visually impaired have been developed, there is no safe means for assisting the visually impaired to walk.

시각 장애인이 누구든지 쉽게 보행 보조 수단을 이용할 수 있는 방안이 요구되는데, 아직까지는 안내견이나 도우미가 없으면 원거리를 혼자 다니기에는 무리가 있다.There is a need for a method in which blind people can easily use walking aids, but it is difficult to travel long distances alone without a guide dog or a helper.

갑자기 다가오는 장애물을 감지하고 대처를 해야하는 것은 물론, 이미지 상의 대상이 장애물인지 인도인지를 구별해야 하고, 보행 가능 구역을 정확하게 파악할 수 있어야 한다.In addition to detecting and responding to suddenly approaching obstacles, it is also necessary to distinguish whether the object on the image is an obstacle or a sidewalk, and to accurately identify the walkable area.

이와 같이, 시각 장애인을 위한 보다 안전하고 정확한 수단의 개발이 요구된다.As such, the development of safer and more accurate means for the visually impaired is required.

공개특허공보 10-2021-0014405Laid-Open Patent Publication No. 10-2021-0014405 등록특허공보 10-1929875Registered Patent Publication No. 10-1929875

본 발명의 목적은 시각 장애인 보행 보조 시스템을 제공하는 데 있다.An object of the present invention is to provide a walking assistance system for the visually impaired.

상술한 본 발명의 목적에 따른 시각 장애인 보행 보조 시스템은, 시각 장애인의 보행 보조를 수행하는 사용자 단말; 상기 사용자 단말에서 수행되는 보행 보조를 음성 출력하는 이어폰을 포함하도록 구성될 수 있다.According to an aspect of the present invention described above, a system for assisting the visually impaired walking includes: a user terminal for performing walking assistance for the visually impaired; It may be configured to include an earphone for outputting a voice for walking assistance performed in the user terminal.

여기서, 상기 사용자 단말은, 시맨틱 세그멘테이션(Semantic Segmentation) 알고리즘에 의해 도로 및 장애물을 포함하는 객체 단위로 분할하여 인식하고, 인식된 객체를 오브젝트 디텍션(Object Detection) 알고리즘에 의해 실시간 분석하여 장애물을 탐지하도록 구성될 수 있다.Here, the user terminal divides and recognizes objects including roads and obstacles by a semantic segmentation algorithm, and analyzes the recognized objects in real time by an object detection algorithm to detect obstacles. can be configured.

그리고 상기 시각 장애인의 신체 또는 소지품에 부착되어 상기 사용자 단말에서 수행되는 보행 보조와 연관된 길안내를 출력하는 보행 보조 안내 장치를 더 포함하도록 구성될 수 있다.And it may be configured to further include a walking assistance guide device attached to the body or belongings of the visually impaired to output a road guide associated with the walking assistance performed by the user terminal.

한편, 상기 사용자 단말은, 듀얼 카메라 모듈을 이용하여 장애물 위치를 분석하여 보행 보조를 수행하도록 구성될 수 있다.Meanwhile, the user terminal may be configured to perform walking assistance by analyzing an obstacle position using a dual camera module.

상술한 시각 장애인 보행 보조 시스템에 의하면, 듀얼 카메라의 이미지의 시각차를 이용하여 이미지 상의 깊이를 파악하고 시맨틱 세그멘테이션(semantic segmentation) 알고리즘 및 오브젝트 디텍션(object detection) 알고리즘을 이용하여 이미지를 픽셀 별로 분석하도록 구성됨으로써, 인도와 도로를 구분하고 장애물을 정확하게 감지할 수 있는 효과가 있다. 아울러 오브젝트 디텍션 알고리즘에 의해 장애물의 종류를 구체화하고 늘림으로써, 장애물에 대한 정확한 인지를 하고 시각 장애인의 보행을 완벽하게 보조할 수 있는 효과가 있다.According to the above-described walking assistance system for the visually impaired, the depth of the image is determined using the visual difference of the dual camera image, and the image is analyzed for each pixel using a semantic segmentation algorithm and an object detection algorithm. This has the effect of distinguishing the sidewalk from the road and accurately detecting obstacles. In addition, by specifying and increasing the types of obstacles by the object detection algorithm, there is an effect of accurately recognizing obstacles and perfectly assisting the visually impaired.

또한, 여러 시각 장애인들의 스마트 폰을 이용한 이미지와 미리 확보된 스트리트뷰 이미지를 이용하여 보행 가능 구역에 대한 학습을 수행함으로써, 각 위치 별로 보행 가능 구역에 대한 보다 정확한 데이터 구축이 가능하게 되는 효과가 있다.In addition, by performing learning on the walkable area using images using smart phones of various visually impaired people and street view images secured in advance, it has the effect of enabling more accurate data construction on the walkable area for each location. .

도 1은 본 발명의 일 실시예에 따른 시각 장애인 보행 보조 시스템의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 시맨틱 세그멘테이션 알고리즘의 모식도이다.
도 3은 본 발명의 일 실시예에 따른 오브젝트 디텍션 알고리즘의 모식도이다.
도4는 본 발명의 일 실시예에 따른 장애물 감지 프로세스를 나타내는 이미지의 예시도이다.
도 5는 본 발명의 일 실시예에 따른 듀얼 카메라 이미지의 시차를 이용한 장애물 거리 감지 알고리즘의 예시도이다.
도 6은 본 발명의 일 실시예에 따른 장애물까지의 거리를 산출하는 프로세스를 나타내는 이미지의 예시도이다.
도 7은 본 발명의 일 실시예에 따른 장애물까지의 거리에 가중치를 적용하여 텍스트로 출력하는 프로세스의 모식도이다.
도 8은 본 발명의 일 실시예에 따른 딥러닝 이미지와 깊이 이미지의 예시도이다.
도 9는 본 발명의 일 실시예에 따른 딥러닝과 깊이 분석의 상호 보완 프로세스를 나타내는 이미지의 예시도이다.
도 10은 본 발명의 일 실시예에 따른 보행 가능 구역에 대한 이미지의 예시도이다.
도 11은 본 발명의 일 실시예에 따른 근접 장애물을 나타내는 이미지의 예시도이다.
도 12는 사용자 단말과 연결되는 보조 배터리를 나타낸 도면이다.
1 is a block diagram of a walking assistance system for the visually impaired according to an embodiment of the present invention.
2 is a schematic diagram of a semantic segmentation algorithm according to an embodiment of the present invention.
3 is a schematic diagram of an object detection algorithm according to an embodiment of the present invention.
4 is an exemplary diagram of an image representing an obstacle detection process according to an embodiment of the present invention.
5 is an exemplary diagram of an obstacle distance detection algorithm using parallax of dual camera images according to an embodiment of the present invention.
6 is an exemplary view of an image illustrating a process of calculating a distance to an obstacle according to an embodiment of the present invention.
7 is a schematic diagram of a process of outputting as text by applying a weight to a distance to an obstacle according to an embodiment of the present invention.
8 is an exemplary diagram of a deep learning image and a depth image according to an embodiment of the present invention.
9 is an exemplary view of an image showing a complementary process of deep learning and depth analysis according to an embodiment of the present invention.
10 is an exemplary diagram of an image of a walkable area according to an embodiment of the present invention.
11 is an exemplary view of an image showing a proximity obstacle according to an embodiment of the present invention.
12 is a diagram illustrating an auxiliary battery connected to a user terminal.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 발명을 실시하기 위한 구체적인 내용에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed content for carrying out the invention. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 시각 장애인 보행 보조 시스템의 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 시맨틱 세그멘테이션(Semantic Segmentation) 알고리즘의 모식도이고, 도 3은 본 발명의 일 실시예에 따른 오브젝트 디텍션(Object Detection) 알고리즘의 모식도이고, 도4는 발명의 일 실시예에 따른 장애물 감지 프로세스를 나타내는 이미지의 예시도이고, 도 5는 본 발명의 일 실시예에 따른 듀얼 카메라 이미지의 시차를 이용한 장애물 거리 감지 알고리즘의 예시도이고, 도 6은 본 발명의 일 실시예에 따른 장애물까지의 거리를 산출하는 프로세스를 나타내는 이미지의 예시도이고, 도 7은 본 발명의 일 실시예에 따른 장애물까지의 거리에 가중치를 적용하여 텍스트로 출력하는 프로세스의 모식도이고, 도 8은 본 발명의 일 실시예에 따른 딥러닝 이미지와 깊이 이미지의 예시도이고, 도 9는 본 발명의 일 실시예에 따른 딥러닝과 깊이 분석의 상호 보완 프로세스를 나타내는 이미지의 예시도이고, 도 10은 본 발명의 일 실시예에 따른 보행 가능 구역에 대한 이미지의 예시도이고, 도 11은 본 발명의 일 실시예에 따른 근접 장애물을 나타내는 이미지의 예시도이다.1 is a block diagram of a walking assistance system for the visually impaired according to an embodiment of the present invention, FIG. 2 is a schematic diagram of a semantic segmentation algorithm according to an embodiment of the present invention, and FIG. 3 is a diagram of the present invention It is a schematic diagram of an object detection algorithm according to an embodiment, FIG. 4 is an exemplary view of an image showing an obstacle detection process according to an embodiment of the present invention, and FIG. 5 is a dual camera according to an embodiment of the present invention It is an exemplary diagram of an obstacle distance detection algorithm using parallax of an image, FIG. 6 is an exemplary view of an image showing a process for calculating a distance to an obstacle according to an embodiment of the present invention, and FIG. 7 is an embodiment of the present invention It is a schematic diagram of a process of outputting as text by applying a weight to the distance to an obstacle according to , FIG. 8 is an exemplary view of a deep learning image and a depth image according to an embodiment of the present invention, and FIG. 9 is an embodiment of the present invention It is an exemplary view of an image showing a complementary process of deep learning and depth analysis according to an example, FIG. 10 is an exemplary view of an image for a walkable area according to an embodiment of the present invention, and FIG. 11 is an embodiment of the present invention It is an exemplary view of an image representing a proximity obstacle according to an example.

먼저 도 1을 참조하면, 본 발명의 일 실시예에 따른 시각 장애인 보행 보조 시스템은 사용자 단말(100), 보행 보조 학습 서버(200), 지팡이 부착 안내 장치(300), 휠체어 부착 안내 장치(400), 보조 배터리(500)를 포함하도록 구성될 수 있다.First, referring to FIG. 1 , the walking assistance system for the visually impaired according to an embodiment of the present invention includes a user terminal 100 , a walking assistance learning server 200 , a cane attachment guide device 300 , and a wheelchair attachment guide device 400 . , may be configured to include an auxiliary battery (500).

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.

사용자 단말(100)은 시각 장애인의 보행 보조를 수행하도록 구성될 수 있다.The user terminal 100 may be configured to assist the visually impaired in walking.

사용자 단말(100)은 GPS 모듈(101), 터치스크린(102), 현재 위치 알림 모듈(103), 듀얼 카메라 모듈(104), 시맨틱 세그멘테이션 객체 탐지 적용 모듈(105), 프레임별 셀 분화 모듈(106), 장애물 감지 모듈(107), 장애물 거리 산출 모듈(108), 셀 위치 기반 가중치 적용 모듈(109), 픽셀 깊이 계산 모듈(110), 픽셀 깊이 정규화 모듈(111), 픽셀 깊이 임계치 대비 모듈(112), 보행 가능 구역 산출 모듈(113), 텍스트 출력 모듈(114), 연속 프레임 근접 장애물 감지 모듈(115), 근접 장애물 알림 모듈(116), 목적지 음성 입력 모듈(117), 음성 길안내 모듈(118), 3축 센서(119), 자세 판단 모듈(120), 가로 고정 알림 모듈(121), 위치별 보행길 실시간 참조 모듈(122)을 포함하도록 구성될 수 있다.The user terminal 100 includes a GPS module 101, a touch screen 102, a current location notification module 103, a dual camera module 104, a semantic segmentation object detection application module 105, a cell differentiation module for each frame 106 ), obstacle detection module 107, obstacle distance calculation module 108, cell location-based weighting module 109, pixel depth calculation module 110, pixel depth normalization module 111, pixel depth threshold contrast module 112 ), walkable area calculation module 113, text output module 114, continuous frame proximity obstacle detection module 115, proximity obstacle notification module 116, destination voice input module 117, voice navigation module 118 ), a three-axis sensor 119 , a posture determination module 120 , a horizontal fixation notification module 121 , and a real-time reference module 122 for a walking path by location.

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.

GPS 모듈(101)은 GPS 신호를 수신하여 현재 위치 정보를 산출하도록 구성될 수 있다.The GPS module 101 may be configured to receive a GPS signal and calculate current location information.

터치스크린(102)은 전방의 동영상 이미지를 출력하도록 구성될 수 있다. 여기서, 동영상 이미지는 듀얼 카메라 모듈(104)에 의해 생성되는 듀얼 이미지를 합성한 이미지이다.The touch screen 102 may be configured to output a moving image of the front. Here, the moving image is an image obtained by synthesizing the dual image generated by the dual camera module 104 .

현재 위치 알림 모듈(103)은 시각 장애인에 의해 터치스크린(102)이 터치되면, GPS 모듈(101)에 의해 산출되는 현재 위치 정보를 즉시 음성 출력하도록 구성될 수 있다. 길안내를 하는 중이더라도 터치가 입력되면, 즉시 현재 위치 정보를 음성 출력하도록 구성될 수 있다. 길안내는 전후좌우의 방향으로 이루어질 수 있으며, 시계의 각 시간에 대한 방향으로 이루어질 수도 있다. 예를 들어, "3시 방향으로 5m 이동하세요."와 같이 길안내가 될 수 있다.The current location notification module 103 may be configured to immediately voice output the current location information calculated by the GPS module 101 when the touch screen 102 is touched by the visually impaired. When a touch is input even while guiding a route, it may be configured to immediately output current location information by voice. Directional guidance may be performed in a forward, backward, left, and right direction, or may be made in a direction for each time of the clock. For example, it may be a navigation guide, such as "Go 5m in the 3 o'clock direction."

듀얼 카메라 모듈(104)은 전방의 듀얼 동영상 이미지를 생성하도록 구성될 수 있다. 시각 장애인은 사용자 단말(100)을 이용하여 전방을 촬영하면서 길을 찾아가야 하기 때문에 들지 않고 어깨 등에 부착할 수 있도록 구성될 수 있다. 사용자 단말(100)의 부착을 위한 부착 보조 장치(미도시)가 더 이용될 수 있다.The dual camera module 104 may be configured to generate a dual moving image of the front. Since the visually impaired must find a way while photographing the front using the user terminal 100, it may be configured to be attached to the shoulder or the like without lifting it. An attachment auxiliary device (not shown) for attachment of the user terminal 100 may be further used.

시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈(105)은 듀얼 카메라 모듈(104)에 의해 생성되는 스테레오 타입(stereo type)의 듀얼 동영상 이미지에 대해 시맨틱 세그멘테이션 알고리즘과 오브젝트 디텍션을 위한 분석을 수행하여 동영상 이미지를 출력하도록 구성될 수 있다. 도 2는 시맨틱 세그멘테이션 알고리즘을 수행하여 시맨틱 라벨(semantic label)을 부여하여 객체를 감지하는 것을 나타내고 있다. 그리고 도 3을 참조하면, 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈(105)이 오브젝트 디텍션 알고리즘을 수행하여 추가적으로 객체를 감지하는 것을 나타낸다.The semantic segmentation object detection application module 105 is configured to output a moving image by performing an analysis for a semantic segmentation algorithm and object detection on a stereo type dual moving image image generated by the dual camera module 104 can be FIG. 2 shows that an object is detected by applying a semantic label by performing a semantic segmentation algorithm. And referring to FIG. 3 , it shows that the semantic segmentation object detection application module 105 performs an object detection algorithm to additionally detect an object.

프레임별 셀 분화 모듈(106)은 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈(105)에 의해 출력되는 동영상 이미지의 각 프레임 별로 셀을 지정하여 분화하도록 구성될 수 있다. 예를 들어, 각 프레임의 셀을 32개로 지정하여 프레임을 분화할 수 있다.The frame-by-frame cell differentiation module 106 may be configured to differentiate by designating a cell for each frame of the moving image output by the semantic segmentation object detection application module 105 . For example, by designating 32 cells in each frame, the frames can be divided.

장애물 감지 모듈(107)은 프레임별 셀 분화 모듈(106)에 의해 셀이 분화된 각 프레임에서 장애물을 감지하도록 구성될 수 있다. 각 셀을 기준으로 장애물이 어디에 위치하는지 파악할 수 있다. 도 4를 참조하면, 보라색 영역은 보행이 가능한 영역으로 잠정 파악되고, 각각 점으로 표시된 부분이 보행 중 근접한 장애물의 위치로 인지되는 영역이다.The obstacle detection module 107 may be configured to detect an obstacle in each frame in which a cell is differentiated by the frame-by-frame cell differentiation module 106 . Based on each cell, it is possible to determine where the obstacle is located. Referring to FIG. 4 , the purple region is tentatively identified as a gaitable region, and portions marked with dots are recognized as the location of a nearby obstacle during walking.

장애물 거리 산출 모듈(108)은 장애물 감지 모듈(107)에서 장애물이 감지되는 경우 해당 장애물에 대한 거리를 산출하도록 구성될 수 있다. 도 5에서는 스트레오 타입의 듀얼 이미지를 생성하는 듀얼 카메라 모듈(104)에서 듀얼 이미지 간의 시차 즉, 시각차를 이용하여 이미지 상의 거리를 산출하고 캘리브레이션(calibration) 기법을 적용하여 그 이미지 상의 거리에 대비하여 실제 거리를 산출하도록 구성될 수 있다.The obstacle distance calculation module 108 may be configured to calculate a distance to the obstacle when the obstacle is detected by the obstacle detection module 107 . In FIG. 5 , the distance on the image is calculated using the parallax, that is, the time difference between the dual images in the dual camera module 104 that generates the stereo type dual image, and a calibration technique is applied to compare the actual distance on the image. It may be configured to calculate a distance.

셀 위치 기반 가중치 적용 모듈(109)은 장애물 거리 산출 모듈(108)에서 거리를 산출하는 경우, 장애물이 위치하는 셀의 셀 위치에 기반하여 가중치를 적용하도록 구성될 수 있다. 장애물이 위치하는 셀이 화면 전체에서 어느 지점에 위치하는지를 파악하여 화면의 중앙 부분에서 가까운 위치에 위치하면 더 높은 가중치를 적용하도록 구성될 수 있다.The cell location-based weight application module 109 may be configured to apply a weight based on a cell location of a cell in which an obstacle is located when the distance is calculated by the obstacle distance calculation module 108 . It may be configured to determine where the cell in which the obstacle is located is located in the entire screen, and to apply a higher weight if it is located closer to the center of the screen.

픽셀 깊이 계산 모듈(110)은 듀얼 카메라 모듈(104)에서 생성되는 듀얼 동영상 이미지의 시각차를 이용하여 각 픽셀의 픽셀 깊이(pixel depth)를 계산하도록 구성될 수 있다.The pixel depth calculation module 110 may be configured to calculate a pixel depth of each pixel by using the time difference between the dual video images generated by the dual camera module 104 .

픽셀 깊이 정규화 모듈(111)은 픽셀 깊이 계산 모듈(110)에서 계산되는 픽셀 깊이를 정규화하도록 구성될 수 있다.The pixel depth normalization module 111 may be configured to normalize the pixel depth calculated by the pixel depth calculation module 110 .

픽셀 깊이 임계치 대비 모듈(112)은 픽셀 깊이 정규화 모듈(111)에서 정규화되는 픽셀 깊이를 소정 임계치와 대비하도록 구성될 수 있다.The pixel depth threshold contrast module 112 may be configured to compare the pixel depth normalized in the pixel depth normalization module 111 with a predetermined threshold.

보행 가능 구역 산출 모듈(113)은 장애물 감지 모듈(107)에서 감지된 장애물 및 장애물 거리 산출 모듈(108)에서 산출된 장애물에 대한 거리를 이용하여 현재 동영상 이미지의 각 프레임에서 보행 가능 구역을 산출하도록 구성될 수 있다. 도 8은 시맨틱 세그멘테이션 알고리즘과 오브젝트 디텍션 알고리즘과 픽셀 깊이를 이용하여 분석한 이미지를 나타내며, 도 9는 시맨틱 세그멘테이션 알고리즘과 오브젝트 디텍션에 의한 장애물 분석을 수행한 이미지를 나타낸다.The walkable area calculation module 113 is configured to calculate the walkable area in each frame of the current moving image image by using the obstacle detected by the obstacle detection module 107 and the distance to the obstacle calculated by the obstacle distance calculating module 108. can be configured. 8 shows an image analyzed using a semantic segmentation algorithm, an object detection algorithm, and a pixel depth, and FIG. 9 shows an image on which an obstacle analysis is performed by the semantic segmentation algorithm and object detection.

또한, 보행 가능 구역 산출 모듈(113)은 픽셀 깊이 임계치 대비 모듈(112)의 대비 결과 각 셀의 픽셀 깊이가 임계치보다 큰 경우 해당 픽셀을 블록 셀(blocked cell)로 처리하여 보행 가능 구역을 산출하도록 구성될 수 있다. 도 10은 보행 가능 구역을 산출하여 나타낸 이미지를 예시하고 있다.In addition, when the pixel depth of each cell is greater than the threshold as a result of the comparison of the pixel depth threshold contrast module 112, the walkable area calculation module 113 processes the corresponding pixel as a blocked cell to calculate the walkable area. can be configured. 10 illustrates an image displayed by calculating a walkable area.

텍스트 출력 모듈(114)은 보행 가능 구역 산출 모듈(113)에서 산출된 보행 가능 구역을 텍스트로 출력하도록 구성될 수 있다. 도 7은 장애물과 보행 가능 구역을 감지하여 텍스트로 출력하는 것을 나타낸다.The text output module 114 may be configured to output the walkable area calculated by the walkable area calculation module 113 as text. 7 shows an example of detecting an obstacle and a walkable area and outputting it as text.

연속 프레임 근접 장애물 감지 모듈(115)은 장애물 감지 모듈(107)에서 감지된 장애물이 동영상 이미지의 소정 프레임 개수 이상으로 연속되는지 판단하도록 구성될 수 있다. 도 11은 근접 장애물을 감지한 이미지를 예시하고 있다.The continuous frame proximity obstacle detection module 115 may be configured to determine whether the obstacle detected by the obstacle detection module 107 is continuous for a predetermined number of frames or more of the moving image image. 11 illustrates an image in which a proximity obstacle is detected.

위 판단 결과 소정 프레임 개수 이상으로 연속되는 경우, 연속 프레임 근접 장애물 감지 모듈(115)은 해당 장애물을 근접 장애물로 감지하도록 구성될 수 있다.As a result of the above determination, if more than a predetermined number of frames are continuous, the continuous frame proximity obstacle detection module 115 may be configured to detect the obstacle as a proximity obstacle.

예를 들어, 특정 장애물이 5 프레임 이상 연속되는 경우, 아울러 그 장애물의 픽셀 영역이 더 커진다면 시각 장애인에게 접근하는 것으로 감지할 수 있다.For example, when a specific obstacle is continuous for 5 frames or more, and if the pixel area of the obstacle becomes larger, it may be detected as approaching the visually impaired.

근접 장애물 알림 모듈(116)은 연속 프레임 근접 장애물 감지 모듈(115)에서 근접 장애물로 감지되는 경우, 장애물 근접을 즉시 알림 출력하도록 구성될 수 있다. 길안내 중에도 장애물 근접을 우선적으로 알림 출력할 수 있다.The proximity obstacle notification module 116 may be configured to immediately output a notification of the proximity of the obstacle when the continuous frame proximity obstacle detection module 115 detects the proximity obstacle. It is possible to output a notification of the proximity of obstacles preferentially during route guidance.

목적지 음성 입력 모듈(117)은 시각 장애인의 보행 목적지를 음성 입력받도록 구성될 수 있다.The destination voice input module 117 may be configured to receive a voice input of the walking destination of the visually impaired.

음성 길안내 모듈(118)은 GPS 모듈(101)에서 산출된 현재 위치 정보 및 텍스트 출력 모듈(114)에서 출력된 텍스트를 이용하여 목적지 음성 입력 모듈(117)에서 음성 입력받은 보행 목적지로 가는 길안내를 수행하여 음성 출력하도록 구성될 수 있다.The voice guidance module 118 uses the current location information calculated by the GPS module 101 and the text output from the text output module 114 to guide the way to the walking destination received voice input from the destination voice input module 117 . It may be configured to output a voice by performing .

3축 센서(119)는 사용자 단말(100)의 자세를 감지하도록 구성될 수 있다.The three-axis sensor 119 may be configured to detect the posture of the user terminal 100 .

자세 판단 모듈(120)은 3축 센서(119)에서 감지된 자세가 가로 방향으로 유지되는지 판단하도록 구성될 수 있다. 사용자 단말(100)이 가로 방향으로 유지되어야 듀얼 카메라 모듈(104)을 이용하여 주변의 장애물이나 보행 가능 구역을 폭넓게 파악할 수 있다. 세로 방향인 경우 주변 장애물 감지가 어렵고 듀얼 카메라 모듈(104)에는 주로 하늘 영역이 많이 포착되기 때문에 가로 방향으로 유지되는 것이 바람직하다.The posture determination module 120 may be configured to determine whether the posture detected by the three-axis sensor 119 is maintained in the horizontal direction. When the user terminal 100 is maintained in the horizontal direction, it is possible to broadly grasp the surrounding obstacles or the walkable area using the dual camera module 104 . In the case of the vertical direction, it is difficult to detect surrounding obstacles and the dual camera module 104 mainly captures a large number of sky areas, so it is preferable to maintain the horizontal direction.

가로 고정 알림 모듈(121)은 자세 판단 모듈(120)에서 자세가 가로 방향으로 유지되는지 판단한 결과, 가로 방향으로 유지되지 않는다고 판단되면 가로 방향으로 자세를 유지하도록 음성 알림을 즉시 출력하도록 구성될 수 있다. 즉, 소정 임계 각도를 벗어나 가로 방향이 유지되지 않는 경우에는 길안내 음성에 우선하여 음성 알림을 즉시 출력하여 가로 방향을 유지하게 할 수 있다.As a result of determining whether the posture is maintained in the horizontal direction in the posture determination module 120, the horizontal fix notification module 121 may be configured to immediately output a voice notification to maintain the posture in the horizontal direction if it is determined that the posture is not maintained in the horizontal direction. . That is, when the horizontal direction is not maintained beyond a predetermined threshold angle, a voice notification may be immediately output in preference to a voice guidance voice to maintain the horizontal direction.

위치별 보행길 실시간 참조 모듈(122)은 보행 보조 학습 서버(200)로부터 위치별 보행길 관련 데이터를 실시간 참조하여 보행 가능 구역 산출 모듈(113)의 보행 가능 구역 산출을 지원하도록 구성될 수 있다. 위치별 보행길 관련 데이터는 보행 보조 학습 서버(200)에서 여러 시각 장애인들의 사용자 단말(100)로부터 수집된 이미지 데이터와 기존에 확보된 스트리트뷰 이미지의 학습을 통해 보다 면밀하게 파악한 보행 가능 구역, 장애물 등의 데이터를 포함하도록 구성될 수 있다.The location-specific walking path real-time reference module 122 may be configured to support the walkable area calculation of the walkable area calculation module 113 by referring to the location-specific walking path-related data from the walking assistance learning server 200 in real time. Pedestrian path-related data by location includes image data collected from the user terminal 100 of various visually impaired people in the walking assistance learning server 200 and the walking area and obstacles that are more closely identified through learning of the previously secured Street View image. It may be configured to include data such as

보행 보조 학습 서버(200)는 사용자 단말(100)에서 수행되는 보행 보조와 관련하여 보행길 학습을 수행하도록 구성될 수 있다.The gait assistance learning server 200 may be configured to perform gait learning in relation to the gait assistance performed by the user terminal 100 .

보행 보조 학습 서버(200)는 현재 위치 수신 모듈(201), 이미지 관련 데이터 수신 모듈(202), 이미지 관련 데이터 저장 모듈(203), 스트리트뷰 데이터베이스(204), 보행길 학습 모듈(205), 위치별 보행길 데이터베이스(206)를 포함하도록 구성될 수 있다.The walking assistance learning server 200 includes a current location receiving module 201, an image related data receiving module 202, an image related data storage module 203, a street view database 204, a walking path learning module 205, a location It may be configured to include a star trail database 206 .

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.

현재 위치 수신 모듈(201)은 GPS 모듈(101)에서 산출된 현재 위치 정보를 실시간 수신하도록 구성될 수 있다.The current location receiving module 201 may be configured to receive the current location information calculated by the GPS module 101 in real time.

이미지 관련 데이터 수신 모듈(202)은 보행 가능 구역 산출 모듈(113)로부터 보행 가능 구역 이미지 관련 데이터를 실시간 수신하도록 구성될 수 있다.The image related data receiving module 202 may be configured to receive the walkable area image related data from the walkable area calculation module 113 in real time.

이미지 관련 데이터 저장 모듈(203)은 이미지 관련 데이터 수신 모듈(202)에서 실시간 수신된 보행 가능 구역 이미지 관련 데이터가 저장되도록 구성될 수 있다.The image related data storage module 203 may be configured to store the walkable area image related data received in real time by the image related data receiving module 202 .

스트리트뷰 데이터베이스(204)는 현재 위치 수신 모듈(201)에서 실시간 수신된 현재 위치 정보에 관련된 스트리트뷰(street view) 이미지가 미리 저장되도록 구성될 수 있다. 일례로 다음(Daum) 회사의 스트리트뷰 이미지와 같은 미리 확보된 스트리트뷰 이미지일 수 있다.The street view database 204 may be configured to pre-store a street view image related to the current location information received in real time from the current location receiving module 201 . For example, it may be a street view image obtained in advance, such as a street view image of Daum company.

보행길 학습 모듈(205)은 이미지 관련 데이터 저장 모듈(203)에 저장된 보행 가능 구역 이미지 관련 데이터, 스트리트뷰 데이터베이스(204)에 미리 저장된 스트리트뷰 이미지 중 현재 위치 수신 모듈(201)에서 실시간 수신된 현재 위치 정보에 연관된 스트리트뷰 이미지를 참조하여 해당 보행길을 학습하여 위치별 보행길 관련 데이터를 생성하도록 구성될 수 있다. 즉, 여러 시각 장애인들의 사용자 단말(100)에서 수집되는 보행 가능 구역 이미지와 스트리트뷰 이미지를 상호 대비하여 학습하여 보다 정확하고 면밀한 보행길 관련 데이터를 위치 별로 생성할 수 있다.The walking path learning module 205 includes data related to the walkable area image stored in the image related data storage module 203 and the current received in real time from the current location receiving module 201 among the street view images pre-stored in the street view database 204 . It may be configured to learn a corresponding walking path by referring to a street view image related to location information to generate walking path related data for each location. That is, by comparing and learning the walkable area image and the street view image collected from the user terminal 100 of various visually impaired people, it is possible to generate more accurate and detailed walking path-related data for each location.

위치별 보행길 데이터베이스(206)는 보행길 학습 모듈(205)에서 생성된 위치별 보행길 관련 데이터가 저장되도록 구성될 수 있다.The location-specific walking path database 206 may be configured to store location-specific walking path related data generated by the walking path learning module 205 .

지팡이 부착 안내 장치(300)는 시각 장애인의 지팡이에 부착되어 사용자 단말(100)에서 수행되는 보행 보조와 연관된 길안내를 출력하도록 구성될 수 있다.The stick attachment guide device 300 may be attached to the cane of the visually impaired and may be configured to output a road guide associated with the walking assistance performed by the user terminal 100 .

지팡이 부착 안내 장치(300)에는 손잡이 부분에 전후좌우의 각 영역에 진동 모터가 각각 부착될 수 있고, 진동을 통해 전후좌우의 방향 안내를 할 수 있다.Vibration motors may be respectively attached to the front, rear, left, and right regions of the handle portion to the stick attachment guide device 300 , and the direction of the front, rear, left, and right may be guided through vibration.

휠체어 부착 안내 장치(400)는 시각 장애인의 휠체어에 부착되어 사용자 단말(100)에서 수행되는 보행 보조와 연관된 길안내를 출력하도록 구성될 수 있다.The wheelchair attachment guide apparatus 400 may be attached to a wheelchair of a visually impaired person and may be configured to output a road guide associated with walking assistance performed by the user terminal 100 .

휠체어의 양 팔걸이에 전후좌우의 방향 안내를 위한 진동 모터가 부착될 수 있으며, 이를 이용하여 길안내가 이루어질 수 있다.Vibration motors for guiding forward, backward, left and right directions may be attached to both armrests of the wheelchair, and navigation may be made using this.

지팡이 부착 안내 장치(300), 휠체어 부착 안내 장치(400) 이외에도 이어폰과 같은 다양한 보조 안내 장치가 더 구비될 수 있다In addition to the cane attachment guide device 300 and the wheelchair attachment guide device 400, various auxiliary guide devices such as earphones may be further provided.

보조 배터리(500)는 사용자 단말(100)에 보조 전력을 제공하도록 구성될 수 있다. 사용자 단말(100)의 배터리 소모가 많을 수 있다. 그리고 길안내 중 배터리가 완전히 소모되면 매우 난처할 수 있다. 이에, 보조 배터리(500)의 사용이 필요할 수 있다.The auxiliary battery 500 may be configured to provide auxiliary power to the user terminal 100 . The battery consumption of the user terminal 100 may be high. And if the battery runs out while navigating, it can be very frustrating. Accordingly, it may be necessary to use the auxiliary battery 500 .

도 12는 사용자 단말과 연결되는 보조 배터리를 나타낸 도면이다.12 is a diagram illustrating an auxiliary battery connected to a user terminal.

보조 배터리(500)는 배터리량 감지/판단 모듈(501), 발열 모듈(502), 발향 모듈(503)을 포함하도록 구성될 수 있다.The auxiliary battery 500 may be configured to include a battery amount detection/determination module 501 , a heat generating module 502 , and a scent diffusing module 503 .

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.

배터리량 감지/판단 모듈(501)은 보조 배터리량을 실시간 감지하고 소정 단계별 임계치와 대비하여 판단하도록 구성될 수 있다.The battery amount detection/determination module 501 may be configured to detect an auxiliary battery amount in real time and compare it with a predetermined step-by-step threshold.

발열 모듈(502)은 배터리량 감지/판단 모듈(501)의 판단 결과 보조 배터리량이 소정 단계별 임계치 이하로 판단되는 경우, 해당 단계별로 발열을 하도록 구성될 수 있다. 단계가 낮아질수록 발열량을 높일 수 있다.The heat generating module 502 may be configured to generate heat in a corresponding step when the auxiliary battery amount is determined to be less than or equal to a predetermined step threshold as a result of the determination of the battery amount detecting/determining module 501 . The lower the step, the higher the calorific value.

상기 발열 모듈(502)는 보조 배터리(500)의 단부에 구비됨이 바람직하다.The heating module 502 is preferably provided at an end of the auxiliary battery 500 .

발향 모듈(503)은 배터리량 감지/판단 모듈(501)의 판단 결과 보조 배터리량이 소정 단계별 임계치 이하로 판단되는 경우, 해당 단계별로 발향을 하도록 구성될 수 있다. 단계가 낮아질수록 발향이 많이 되도록 구성될 수 있다.The scent diffusing module 503 may be configured to emit scent in a corresponding step when the auxiliary battery amount is determined to be less than or equal to a threshold value for each step as a result of the determination of the battery amount detecting/determining module 501 . The lower the level, the more scent diffusing may be configured.

또는 도시된 것처럼 내부에 구비된 복수 개의 향액 디스펜서(미도시) 각각에 연결된 분사부(533)를 이용 일정 단계별 임대치별로 서로 다른 향이 발향되도록 함으로써 배터리량을 후각적으로 인식하도록 할 수도 있다. Alternatively, as shown, the amount of the battery may be olfactorily recognized by using the injection unit 533 connected to each of a plurality of hyangaek dispensers (not shown) provided therein so that different scents are scented for each rental value for each predetermined step.

이와 같은 발열과 발향을 통해 시각 장애인은 배터리 잔량을 감지할 수 있고 이에 대처할 수 있다.Through such heat and smell, the visually impaired can sense the remaining battery level and can cope with it.

도시되어 있지는 않으나, 상기 보조 배터리(500)는 상기 발열 모듈(503)이 상측으로 배치된 상태에서 사용자의 목에 걸 수 있도록 목끈이 구비됨이 바람직하다.Although not shown, it is preferable that the auxiliary battery 500 is provided with a neck strap so that it can be hung around the user's neck in a state in which the heating module 503 is disposed upward.

이 경우, 상기 목끈은 철사 등과 같은 재질로 보조 배터리(500)에 결합된 형태를 이루되, 결합된 부위에는 진동부가 구비되어, 상황에 따라 상기 진동부의 진동을 통하여 목끈으로 진동이 전달되도록 함으로써 배터리 잔량을 지시할 수도 있다.In this case, the neck strap is formed in a form coupled to the auxiliary battery 500 with a material such as wire, and a vibrating part is provided in the coupled part, so that the vibration is transmitted to the neck strap through the vibration of the vibrating part depending on the situation. You can also indicate the remaining amount.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the above embodiments, those skilled in the art can understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the following claims. There will be.

100: 사용자 단말
101: GPS 모듈
102: 터치스크린
103: 현재 위치 알림 모듈
104: 듀얼 카메라 모듈
105: 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈
106: 프레임별 셀 분화 모듈
107: 장애물 감지 모듈
108: 장애물 거리 산출 모듈
109: 셀 위치 기반 가중치 적용 모듈
110: 픽셀 깊이 계산 모듈
111: 픽셀 깊이 정규화 모듈
112: 픽셀 깊이 임계치 대비 모듈
113: 보행 가능 구역 산출 모듈
114: 텍스트 출력 모듈
115: 연속 프레임 근접 장애물 감지 모듈
116: 근접 장애물 알림 모듈
117: 목적지 음성 입력 모듈
118: 음성 길안내 모듈
119: 3축 센서
120: 자세 판단 모듈
121: 가로 고정 알림 모듈
122: 위치별 보행길 실시간 참조 모듈
200: 보행 보조 학습 서버
201: 현재 위치 수신 모듈
202: 이미지 관련 데이터 수신 모듈
203: 이미지 관련 데이터 저장 모듈
204: 스트리트뷰 데이터베이스
205: 보행길 학습 모듈
206: 위치별 보행길 데이터베이스
300: 지팡이 부착 안내 장치
400: 휠체어 부착 안내 장치
500: 보조 배터리
501: 배터리량 감지/판단 모듈
502: 발열 모듈
503: 발향 모듈
100: user terminal
101: GPS module
102: touch screen
103: current location notification module
104: dual camera module
105: Semantic segmentation object detection application module
106: frame-by-frame cell differentiation module
107: obstacle detection module
108: obstacle distance calculation module
109: cell location-based weighting module
110: pixel depth calculation module
111: pixel depth normalization module
112: pixel depth threshold contrast module
113: walkable area calculation module
114: text output module
115: continuous frame proximity obstacle detection module
116: proximity obstacle notification module
117: destination voice input module
118: voice guidance module
119: 3-axis sensor
120: posture determination module
121: horizontal fixed notification module
122: real-time reference module for walking path by location
200: walking aid learning server
201: current location receiving module
202: image-related data receiving module
203: image related data storage module
204: Street View Database
205: walking path learning module
206: Pedestrian path database by location
300: stick attachment guide device
400: wheelchair attachment guide device
500: auxiliary battery
501: battery level detection/judgment module
502: heat module
503: scent diffusing module

Claims (3)

시각 장애인의 보행 보조를 수행하는 사용자 단말;
상기 사용자 단말에서 수행되는 보행 보조를 음성 출력하는 이어폰;
상기 사용자 단말에서 수행되는 보행 보조와 관련하여 보행길 학습을 수행하는 보행 보조 학습 서버;
상기 사용자 단말에 보조 전력을 제공하는 보조 배터리를 포함하고,
상기 사용자 단말은,
GPS 신호를 수신하여 현재 위치 정보를 산출하는 GPS 모듈;
전방의 동영상 이미지를 출력하는 터치스크린;
상기 시각 장애인에 의해 상기 터치스크린이 터치되면, 상기 GPS 모듈에 의해 산출되는 현재 위치 정보를 즉시 음성 출력하는 현재 위치 알림 모듈;
전방의 스테레오 타입(stereo type)의 듀얼 동영상 이미지를 생성하는 듀얼 카메라 모듈;
상기 듀얼 카메라 모듈에 의해 생성되는 스테레오 타입의 듀얼 동영상 이미지에 대해 시맨틱 세그멘테이션(Semantic segmentation) 알고리즘과 오브젝트 디텍션(object detection)을 위한 분석을 수행하여 동영상 이미지를 출력하는 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈;
상기 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈에 의해 출력되는 동영상 이미지의 각 프레임 별로 셀을 지정하여 분화하는 프레임별 셀 분화 모듈;
상기 프레임별 셀 분화 모듈에 의해 셀이 분화된 각 프레임에서 장애물을 감지하는 장애물 감지 모듈;
상기 장애물 감지 모듈에서 장애물이 감지되는 경우 해당 장애물에 대한 거리를 산출하는 장애물 거리 산출 모듈;
상기 장애물 거리 산출 모듈에서 거리를 산출하는 경우, 장애물이 위치하는 셀의 셀 위치에 기반하여 가중치를 적용하며, 장애물이 위치하는 셀이 화면 전체에서 어느 지점에 위치하는지를 파악하여 화면의 상기 장애물이 위치하는 셀의 셀 위치가 화면의 중앙 부분에서 가까울수록 더 높은 가중치를 적용하는 셀 위치 기반 가중치 적용 모듈;
상기 듀얼 카메라 모듈에서 생성되는 듀얼 동영상 이미지의 시각차를 이용하여 각 픽셀의 픽셀 깊이를 계산하는 픽셀 깊이 계산 모듈;
상기 픽셀 깊이 계산 모듈에서 계산되는 픽셀 깊이를 정규화하는 픽셀 깊이 정규화 모듈;
상기 픽셀 깊이 정규화 모듈에서 정규화되는 픽셀 깊이를 소정 임계치와 대비하는 픽셀 깊이 임계치 대비 모듈;
상기 장애물 감지 모듈에서 감지된 장애물 및 상기 장애물 거리 산출 모듈에서 산출된 장애물에 대한 거리를 이용하여 현재 동영상 이미지의 각 프레임에서 보행 가능 구역을 산출하며, 상기 픽셀 깊이 임계치 대비 모듈의 대비 결과 각 셀의 픽셀 깊이가 상기 임계치보다 큰 경우 해당 픽셀을 블록 셀(blocked cell)로 처리하여 보행 가능 구역을 산출하는 보행 가능 구역 산출 모듈;
상기 보행 가능 구역 산출 모듈에서 산출된 보행 가능 구역을 텍스트로 출력하는 텍스트 출력 모듈;
상기 장애물 감지 모듈에서 감지된 장애물이 상기 동영상 이미지의 소정 프레임 개수 이상으로 연속되는지 판단하고, 판단 결과 상기 소정 프레임 개수 이상으로 연속되고, 상기 장애물의 크기가 점점 더 커지는 경우 해당 장애물을 근접 장애물로 감지하는 연속 프레임 근접 장애물 감지 모듈;
상기 연속 프레임 근접 장애물 감지 모듈에서 근접 장애물로 감지되는 경우, 장애물 근접을 즉시 알림 출력하는 근접 장애물 알림 모듈;
상기 시각 장애인의 보행 목적지를 음성 입력받는 목적지 음성 입력 모듈;
상기 GPS 모듈에서 산출된 현재 위치 정보 및 상기 텍스트 출력 모듈에서 출력된 텍스트를 이용하여 상기 목적지 음성 입력 모듈에서 음성 입력받은 보행 목적지로 가는 길안내를 수행하여 음성 출력하는 음성 길안내 모듈;
상기 사용자 단말의 자세를 감지하는 3축 센서;
상기 3축 센서에서 감지된 자세가 가로 방향으로 유지되는지 판단하는 자세 판단 모듈;
상기 자세 판단 모듈에서 자세가 가로 방향으로 유지되는지 판단한 결과, 가로 방향으로 유지되지 않는다고 판단되면 가로 방향으로 자세를 유지하도록 음성 알림을 즉시 출력하는 가로 고정 알림 모듈;
상기 보행 보조 학습 서버로부터 위치별 보행길 관련 데이터를 실시간 참조하여 상기 보행 가능 구역 산출 모듈의 보행 가능 구역 산출을 지원하는 위치별 보행길 실시간 참조 모듈을 포함하도록 구성되고,
상기 보행 보조 학습 서버는,
상기 GPS 모듈에서 산출된 현재 위치 정보를 실시간 수신하는 현재 위치 수신 모듈;
상기 보행 가능 구역 산출 모듈로부터 보행 가능 구역 이미지 관련 데이터를 실시간 수신하는 이미지 관련 데이터 수신 모듈;
상기 이미지 관련 데이터 수신 모듈에서 실시간 수신된 보행 가능 구역 이미지 관련 데이터가 저장되는 이미지 관련 데이터 저장 모듈;
상기 현재 위치 수신 모듈에서 실시간 수신된 현재 위치 정보에 관련된 스트리트뷰(street view) 이미지가 미리 저장되는 스트리트뷰 데이터베이스;
상기 이미지 관련 데이터 저장 모듈에 저장된 보행 가능 구역 이미지 관련 데이터, 상기 스트리트뷰 데이터베이스에 미리 저장된 스트리트뷰 이미지 중 상기 현재 위치 수신 모듈에서 실시간 수신된 현재 위치 정보에 연관된 스트리트뷰 이미지를 참조하여 해당 보행길을 학습하여 위치별 보행길 관련 데이터를 생성하는 보행길 학습 모듈;
상기 보행길 학습 모듈에서 생성된 위치별 보행길 관련 데이터가 저장되는 위치별 보행길 데이터베이스를 포함하도록 구성되고,
상기 보조 배터리는,
보조 배터리량을 실시간 감지하고 소정 단계별 임계치와 대비하여 판단하는 배터리량 감지/판단 모듈;
상기 배터리량 감지/판단 모듈의 판단 결과 상기 보조 배터리량이 소정 단계별 임계치 이하로 판단되는 경우, 해당 단계별로 발열을 하는 발열 모듈;
상기 배터리량 감지/판단 모듈의 판단 결과 상기 보조 배터리량이 소정 단계별 임계치 이하로 판단되는 경우, 해당 단계별로 발향을 하는 발향 모듈을 포함하도록 구성되는 것을 특징으로 하는 시각 장애인 보행 보조 시스템.
A user terminal for performing walking assistance for the visually impaired;
an earphone for outputting a voice for walking assistance performed by the user terminal;
a gait assistance learning server for performing gait learning in relation to gait assistance performed by the user terminal;
Comprising an auxiliary battery for providing auxiliary power to the user terminal,
The user terminal is
a GPS module for receiving a GPS signal and calculating current location information;
a touch screen that outputs a moving image of the front;
a current location notification module for immediately outputting the current location information calculated by the GPS module by voice when the touch screen is touched by the visually impaired;
a dual camera module for generating a dual moving image of the front stereo type;
a semantic segmentation algorithm and an analysis for object detection on the stereo type dual video image generated by the dual camera module, and a semantic segmentation object detection application module for outputting a moving image;
a frame-by-frame cell differentiation module for specifying and differentiating cells for each frame of the moving image output by the semantic segmentation object detection application module;
an obstacle detection module for detecting an obstacle in each frame in which cells are differentiated by the frame-by-frame cell differentiation module;
an obstacle distance calculation module for calculating a distance to the obstacle when the obstacle detection module detects an obstacle;
When the distance is calculated by the obstacle distance calculation module, a weight is applied based on the cell position of the cell in which the obstacle is located, and the position of the obstacle on the screen is determined by determining where the cell in which the obstacle is located is located on the entire screen. a cell location-based weighting module that applies a higher weight as the cell location of the cell is closer to the center of the screen;
a pixel depth calculation module for calculating a pixel depth of each pixel using the time difference of the dual moving image generated by the dual camera module;
a pixel depth normalization module for normalizing the pixel depth calculated by the pixel depth calculation module;
a pixel depth threshold comparison module for comparing the pixel depth normalized in the pixel depth normalization module with a predetermined threshold;
By using the obstacle detected by the obstacle detection module and the distance to the obstacle calculated by the obstacle distance calculating module, a walkable area is calculated in each frame of the current moving image image, and the pixel depth threshold comparison module compares the result of each cell. a walkable area calculation module for calculating a walkable area by processing the pixel as a blocked cell when the pixel depth is greater than the threshold;
a text output module for outputting the walkable area calculated by the walkable area calculation module as text;
It is determined whether the obstacle detected by the obstacle detection module is continuous for more than a predetermined number of frames of the moving image image, and as a result of the determination, the obstacle is detected as a proximity obstacle continuous frame proximity obstacle detection module;
a proximity obstacle notification module configured to immediately notify and output an obstacle proximity when the continuous frame proximity obstacle detection module detects a proximity obstacle;
a destination voice input module for receiving a voice input of the walking destination of the visually impaired;
a voice guidance module for performing voice guidance to a walking destination received voice input from the destination voice input module by using the current location information calculated by the GPS module and the text output from the text output module;
a 3-axis sensor for detecting the posture of the user terminal;
a posture determination module for determining whether the posture sensed by the three-axis sensor is maintained in a horizontal direction;
a horizontal fix notification module for immediately outputting a voice notification to maintain the posture in the horizontal direction when it is determined that the posture is not maintained in the horizontal direction as a result of the posture determination module determining whether the posture is maintained in the horizontal direction;
It is configured to include a real-time reference module for each location that supports the calculation of the walkable area of the walkable area calculation module by referring to the data related to the walking path by location from the walking assistance learning server in real time,
The walking assistance learning server,
a current location receiving module configured to receive the current location information calculated by the GPS module in real time;
an image-related data receiving module configured to receive, in real time, image-related data about a walkable area from the walkable area calculation module;
an image-related data storage module for storing the image-related data of the walkable area received in real time from the image-related data receiving module;
a street view database in which a street view image related to the current location information received in real time from the current location receiving module is stored in advance;
The corresponding walking path is determined by referring to the street view image related to the current location information received in real time from the current location receiving module among the walkable area image related data stored in the image related data storage module and the street view images stored in advance in the street view database. a walking path learning module that learns to generate walking path-related data for each location;
It is configured to include a walking path database for each location in which data related to the walking path for each location generated by the walking path learning module is stored,
The auxiliary battery is
a battery amount detection/determination module that detects the auxiliary battery amount in real time and compares it with a predetermined step-by-step threshold;
a heating module configured to generate heat for each step when the auxiliary battery amount is determined to be less than or equal to a threshold value for each step as a result of the determination of the battery amount detection/determination module;
and a scent diffusing module for diffusing scent for each step when the auxiliary battery amount is determined to be less than or equal to a threshold value for each step as a result of the determination of the battery amount detection/determination module.
삭제delete 삭제delete
KR1020210061396A 2021-05-12 2021-05-12 Walking assistance system for the visually-impaired person KR102291296B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210061396A KR102291296B1 (en) 2021-05-12 2021-05-12 Walking assistance system for the visually-impaired person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210061396A KR102291296B1 (en) 2021-05-12 2021-05-12 Walking assistance system for the visually-impaired person

Publications (1)

Publication Number Publication Date
KR102291296B1 true KR102291296B1 (en) 2021-08-20

Family

ID=77466634

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210061396A KR102291296B1 (en) 2021-05-12 2021-05-12 Walking assistance system for the visually-impaired person

Country Status (1)

Country Link
KR (1) KR102291296B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114587949A (en) * 2022-02-21 2022-06-07 北京航空航天大学 Blind guiding system
CN116758591A (en) * 2023-08-18 2023-09-15 厦门瑞为信息技术有限公司 Station special passenger recognition and interaction system and method based on image semantic recognition

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054125A (en) * 2000-05-23 2000-09-05 이성환 Wearable walking guidance device and method for the blind
KR20160074736A (en) * 2014-12-17 2016-06-29 경북대학교 산학협력단 Device, system and method for informing about 3D obstacle or information for blind person
KR20180093753A (en) * 2017-02-14 2018-08-22 숭실대학교산학협력단 A stick for the blind
KR101929875B1 (en) 2018-05-18 2018-12-18 문경진 Method for providing voice guidance service for vision impairment using stream live broadcast in real time
KR20190069919A (en) * 2017-12-12 2019-06-20 (주)리터너블 Walking assistive device and system for visually impaired people
KR20210012198A (en) * 2019-07-24 2021-02-03 이상현 Apparatus and method of speaking object location information for blind person
KR20210014405A (en) 2019-07-30 2021-02-09 이준서 System for disabled person
KR20210025835A (en) * 2019-08-28 2021-03-10 구본준 Wearable device using stereo camera and infrared sensor for the visually impaired

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054125A (en) * 2000-05-23 2000-09-05 이성환 Wearable walking guidance device and method for the blind
KR20160074736A (en) * 2014-12-17 2016-06-29 경북대학교 산학협력단 Device, system and method for informing about 3D obstacle or information for blind person
KR20180093753A (en) * 2017-02-14 2018-08-22 숭실대학교산학협력단 A stick for the blind
KR20190069919A (en) * 2017-12-12 2019-06-20 (주)리터너블 Walking assistive device and system for visually impaired people
KR101929875B1 (en) 2018-05-18 2018-12-18 문경진 Method for providing voice guidance service for vision impairment using stream live broadcast in real time
KR20210012198A (en) * 2019-07-24 2021-02-03 이상현 Apparatus and method of speaking object location information for blind person
KR20210014405A (en) 2019-07-30 2021-02-09 이준서 System for disabled person
KR20210025835A (en) * 2019-08-28 2021-03-10 구본준 Wearable device using stereo camera and infrared sensor for the visually impaired

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
시각장애인을 위한 스테레오 영상기반 보행환경정보안내 단말 플랫폼 개발(대한임베디드공학회논문지 제 13권 제 2호, 2018.4.)* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114587949A (en) * 2022-02-21 2022-06-07 北京航空航天大学 Blind guiding system
CN116758591A (en) * 2023-08-18 2023-09-15 厦门瑞为信息技术有限公司 Station special passenger recognition and interaction system and method based on image semantic recognition
CN116758591B (en) * 2023-08-18 2023-11-21 厦门瑞为信息技术有限公司 Station special passenger recognition and interaction system and method based on image semantic recognition

Similar Documents

Publication Publication Date Title
KR102291296B1 (en) Walking assistance system for the visually-impaired person
KR20150097043A (en) Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module
JP2019046464A (en) Sidewalk travel support system and sidewalk travel support software
KR20110004064A (en) Method for guiding a blind person and system therefor
Parikh et al. Android smartphone based visual object recognition for visually impaired using deep learning
Yadav et al. Fusion of object recognition and obstacle detection approach for assisting visually challenged person
Kuriakose et al. DeepNAVI: A deep learning based smartphone navigation assistant for people with visual impairments
KR20190111262A (en) Portable device for measuring distance from obstacle for blind person
Khenkar et al. ENVISION: Assisted navigation of visually impaired smartphone users
WO2020114214A1 (en) Blind guiding method and apparatus, storage medium and electronic device
Rahman et al. Design and development of navigation guide for visually impaired people
Ghosh et al. Assistive technology for visually impaired using tensor flow object detection in raspberry pi and coral USB accelerator
KR101847764B1 (en) Information gathering system for the visually impaired
Ilag et al. Design review of Smart Stick for the Blind Equipped with Obstacle Detection and Identification using Artificial Intelligence
Pydala et al. Smart_Eye: a navigation and obstacle detection for visually impaired people through smart app
KR20180097962A (en) Situation determining guide apparatus and method based image analysis
Somyat et al. NavTU: android navigation app for Thai people with visual impairments
Yang et al. Seeway: Vision-language assistive navigation for the visually impaired
CN115223115A (en) Information processing apparatus, control method thereof, control apparatus and control method of moving object, and recording medium
TW201525419A (en) Method for providing an obstacle-free path using image identification and mobile assistive device
Hakim et al. Indoor Low Cost Assistive Device using 2D SLAM Based on LiDAR for Visually Impaired People.
Muñoz et al. An assistive indoor navigation system for the visually impaired in multi-floor environments
US20230298340A1 (en) Information processing apparatus, mobile object, control method thereof, and storage medium
Grewe et al. Road following for blindBike: an assistive bike navigation system for low vision persons
Kandoth et al. Dhrishti: a visual aiding system for outdoor environment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant