KR102291296B1 - Walking assistance system for the visually-impaired person - Google Patents
Walking assistance system for the visually-impaired person Download PDFInfo
- Publication number
- KR102291296B1 KR102291296B1 KR1020210061396A KR20210061396A KR102291296B1 KR 102291296 B1 KR102291296 B1 KR 102291296B1 KR 1020210061396 A KR1020210061396 A KR 1020210061396A KR 20210061396 A KR20210061396 A KR 20210061396A KR 102291296 B1 KR102291296 B1 KR 102291296B1
- Authority
- KR
- South Korea
- Prior art keywords
- module
- obstacle
- image
- walking
- user terminal
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/01—Constructive details
- A61H2201/0157—Constructive details portable
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5043—Displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5048—Audio interfaces, e.g. voice or music controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5097—Control means thereof wireless
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2203/00—Additional characteristics concerning the patient
- A61H2203/04—Position of the patient
- A61H2203/0406—Standing on the feet
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Rehabilitation Therapy (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Public Health (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Traffic Control Systems (AREA)
- Rehabilitation Tools (AREA)
- Navigation (AREA)
Abstract
Description
본 발명은 보행 보조 시스템에 관한 것으로서, 구체적으로는 시각 장애인 보행 보조 시스템에 관한 것이다.The present invention relates to a walking assistance system, and more particularly, to a walking assistance system for the visually impaired.
시각 장애인의 보행 안전을 위한 다양한 수단이 개발되고 있지만, 시각 장애인의 보행을 보조할 수 있는 안전한 수단이 강구되어 있지 않다.Although various means for the walking safety of the visually impaired have been developed, there is no safe means for assisting the visually impaired to walk.
시각 장애인이 누구든지 쉽게 보행 보조 수단을 이용할 수 있는 방안이 요구되는데, 아직까지는 안내견이나 도우미가 없으면 원거리를 혼자 다니기에는 무리가 있다.There is a need for a method in which blind people can easily use walking aids, but it is difficult to travel long distances alone without a guide dog or a helper.
갑자기 다가오는 장애물을 감지하고 대처를 해야하는 것은 물론, 이미지 상의 대상이 장애물인지 인도인지를 구별해야 하고, 보행 가능 구역을 정확하게 파악할 수 있어야 한다.In addition to detecting and responding to suddenly approaching obstacles, it is also necessary to distinguish whether the object on the image is an obstacle or a sidewalk, and to accurately identify the walkable area.
이와 같이, 시각 장애인을 위한 보다 안전하고 정확한 수단의 개발이 요구된다.As such, the development of safer and more accurate means for the visually impaired is required.
본 발명의 목적은 시각 장애인 보행 보조 시스템을 제공하는 데 있다.An object of the present invention is to provide a walking assistance system for the visually impaired.
상술한 본 발명의 목적에 따른 시각 장애인 보행 보조 시스템은, 시각 장애인의 보행 보조를 수행하는 사용자 단말; 상기 사용자 단말에서 수행되는 보행 보조를 음성 출력하는 이어폰을 포함하도록 구성될 수 있다.According to an aspect of the present invention described above, a system for assisting the visually impaired walking includes: a user terminal for performing walking assistance for the visually impaired; It may be configured to include an earphone for outputting a voice for walking assistance performed in the user terminal.
여기서, 상기 사용자 단말은, 시맨틱 세그멘테이션(Semantic Segmentation) 알고리즘에 의해 도로 및 장애물을 포함하는 객체 단위로 분할하여 인식하고, 인식된 객체를 오브젝트 디텍션(Object Detection) 알고리즘에 의해 실시간 분석하여 장애물을 탐지하도록 구성될 수 있다.Here, the user terminal divides and recognizes objects including roads and obstacles by a semantic segmentation algorithm, and analyzes the recognized objects in real time by an object detection algorithm to detect obstacles. can be configured.
그리고 상기 시각 장애인의 신체 또는 소지품에 부착되어 상기 사용자 단말에서 수행되는 보행 보조와 연관된 길안내를 출력하는 보행 보조 안내 장치를 더 포함하도록 구성될 수 있다.And it may be configured to further include a walking assistance guide device attached to the body or belongings of the visually impaired to output a road guide associated with the walking assistance performed by the user terminal.
한편, 상기 사용자 단말은, 듀얼 카메라 모듈을 이용하여 장애물 위치를 분석하여 보행 보조를 수행하도록 구성될 수 있다.Meanwhile, the user terminal may be configured to perform walking assistance by analyzing an obstacle position using a dual camera module.
상술한 시각 장애인 보행 보조 시스템에 의하면, 듀얼 카메라의 이미지의 시각차를 이용하여 이미지 상의 깊이를 파악하고 시맨틱 세그멘테이션(semantic segmentation) 알고리즘 및 오브젝트 디텍션(object detection) 알고리즘을 이용하여 이미지를 픽셀 별로 분석하도록 구성됨으로써, 인도와 도로를 구분하고 장애물을 정확하게 감지할 수 있는 효과가 있다. 아울러 오브젝트 디텍션 알고리즘에 의해 장애물의 종류를 구체화하고 늘림으로써, 장애물에 대한 정확한 인지를 하고 시각 장애인의 보행을 완벽하게 보조할 수 있는 효과가 있다.According to the above-described walking assistance system for the visually impaired, the depth of the image is determined using the visual difference of the dual camera image, and the image is analyzed for each pixel using a semantic segmentation algorithm and an object detection algorithm. This has the effect of distinguishing the sidewalk from the road and accurately detecting obstacles. In addition, by specifying and increasing the types of obstacles by the object detection algorithm, there is an effect of accurately recognizing obstacles and perfectly assisting the visually impaired.
또한, 여러 시각 장애인들의 스마트 폰을 이용한 이미지와 미리 확보된 스트리트뷰 이미지를 이용하여 보행 가능 구역에 대한 학습을 수행함으로써, 각 위치 별로 보행 가능 구역에 대한 보다 정확한 데이터 구축이 가능하게 되는 효과가 있다.In addition, by performing learning on the walkable area using images using smart phones of various visually impaired people and street view images secured in advance, it has the effect of enabling more accurate data construction on the walkable area for each location. .
도 1은 본 발명의 일 실시예에 따른 시각 장애인 보행 보조 시스템의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 시맨틱 세그멘테이션 알고리즘의 모식도이다.
도 3은 본 발명의 일 실시예에 따른 오브젝트 디텍션 알고리즘의 모식도이다.
도4는 본 발명의 일 실시예에 따른 장애물 감지 프로세스를 나타내는 이미지의 예시도이다.
도 5는 본 발명의 일 실시예에 따른 듀얼 카메라 이미지의 시차를 이용한 장애물 거리 감지 알고리즘의 예시도이다.
도 6은 본 발명의 일 실시예에 따른 장애물까지의 거리를 산출하는 프로세스를 나타내는 이미지의 예시도이다.
도 7은 본 발명의 일 실시예에 따른 장애물까지의 거리에 가중치를 적용하여 텍스트로 출력하는 프로세스의 모식도이다.
도 8은 본 발명의 일 실시예에 따른 딥러닝 이미지와 깊이 이미지의 예시도이다.
도 9는 본 발명의 일 실시예에 따른 딥러닝과 깊이 분석의 상호 보완 프로세스를 나타내는 이미지의 예시도이다.
도 10은 본 발명의 일 실시예에 따른 보행 가능 구역에 대한 이미지의 예시도이다.
도 11은 본 발명의 일 실시예에 따른 근접 장애물을 나타내는 이미지의 예시도이다.
도 12는 사용자 단말과 연결되는 보조 배터리를 나타낸 도면이다.1 is a block diagram of a walking assistance system for the visually impaired according to an embodiment of the present invention.
2 is a schematic diagram of a semantic segmentation algorithm according to an embodiment of the present invention.
3 is a schematic diagram of an object detection algorithm according to an embodiment of the present invention.
4 is an exemplary diagram of an image representing an obstacle detection process according to an embodiment of the present invention.
5 is an exemplary diagram of an obstacle distance detection algorithm using parallax of dual camera images according to an embodiment of the present invention.
6 is an exemplary view of an image illustrating a process of calculating a distance to an obstacle according to an embodiment of the present invention.
7 is a schematic diagram of a process of outputting as text by applying a weight to a distance to an obstacle according to an embodiment of the present invention.
8 is an exemplary diagram of a deep learning image and a depth image according to an embodiment of the present invention.
9 is an exemplary view of an image showing a complementary process of deep learning and depth analysis according to an embodiment of the present invention.
10 is an exemplary diagram of an image of a walkable area according to an embodiment of the present invention.
11 is an exemplary view of an image showing a proximity obstacle according to an embodiment of the present invention.
12 is a diagram illustrating an auxiliary battery connected to a user terminal.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 발명을 실시하기 위한 구체적인 내용에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed content for carrying out the invention. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 시각 장애인 보행 보조 시스템의 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 시맨틱 세그멘테이션(Semantic Segmentation) 알고리즘의 모식도이고, 도 3은 본 발명의 일 실시예에 따른 오브젝트 디텍션(Object Detection) 알고리즘의 모식도이고, 도4는 발명의 일 실시예에 따른 장애물 감지 프로세스를 나타내는 이미지의 예시도이고, 도 5는 본 발명의 일 실시예에 따른 듀얼 카메라 이미지의 시차를 이용한 장애물 거리 감지 알고리즘의 예시도이고, 도 6은 본 발명의 일 실시예에 따른 장애물까지의 거리를 산출하는 프로세스를 나타내는 이미지의 예시도이고, 도 7은 본 발명의 일 실시예에 따른 장애물까지의 거리에 가중치를 적용하여 텍스트로 출력하는 프로세스의 모식도이고, 도 8은 본 발명의 일 실시예에 따른 딥러닝 이미지와 깊이 이미지의 예시도이고, 도 9는 본 발명의 일 실시예에 따른 딥러닝과 깊이 분석의 상호 보완 프로세스를 나타내는 이미지의 예시도이고, 도 10은 본 발명의 일 실시예에 따른 보행 가능 구역에 대한 이미지의 예시도이고, 도 11은 본 발명의 일 실시예에 따른 근접 장애물을 나타내는 이미지의 예시도이다.1 is a block diagram of a walking assistance system for the visually impaired according to an embodiment of the present invention, FIG. 2 is a schematic diagram of a semantic segmentation algorithm according to an embodiment of the present invention, and FIG. 3 is a diagram of the present invention It is a schematic diagram of an object detection algorithm according to an embodiment, FIG. 4 is an exemplary view of an image showing an obstacle detection process according to an embodiment of the present invention, and FIG. 5 is a dual camera according to an embodiment of the present invention It is an exemplary diagram of an obstacle distance detection algorithm using parallax of an image, FIG. 6 is an exemplary view of an image showing a process for calculating a distance to an obstacle according to an embodiment of the present invention, and FIG. 7 is an embodiment of the present invention It is a schematic diagram of a process of outputting as text by applying a weight to the distance to an obstacle according to , FIG. 8 is an exemplary view of a deep learning image and a depth image according to an embodiment of the present invention, and FIG. 9 is an embodiment of the present invention It is an exemplary view of an image showing a complementary process of deep learning and depth analysis according to an example, FIG. 10 is an exemplary view of an image for a walkable area according to an embodiment of the present invention, and FIG. 11 is an embodiment of the present invention It is an exemplary view of an image representing a proximity obstacle according to an example.
먼저 도 1을 참조하면, 본 발명의 일 실시예에 따른 시각 장애인 보행 보조 시스템은 사용자 단말(100), 보행 보조 학습 서버(200), 지팡이 부착 안내 장치(300), 휠체어 부착 안내 장치(400), 보조 배터리(500)를 포함하도록 구성될 수 있다.First, referring to FIG. 1 , the walking assistance system for the visually impaired according to an embodiment of the present invention includes a
이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.
사용자 단말(100)은 시각 장애인의 보행 보조를 수행하도록 구성될 수 있다.The
사용자 단말(100)은 GPS 모듈(101), 터치스크린(102), 현재 위치 알림 모듈(103), 듀얼 카메라 모듈(104), 시맨틱 세그멘테이션 객체 탐지 적용 모듈(105), 프레임별 셀 분화 모듈(106), 장애물 감지 모듈(107), 장애물 거리 산출 모듈(108), 셀 위치 기반 가중치 적용 모듈(109), 픽셀 깊이 계산 모듈(110), 픽셀 깊이 정규화 모듈(111), 픽셀 깊이 임계치 대비 모듈(112), 보행 가능 구역 산출 모듈(113), 텍스트 출력 모듈(114), 연속 프레임 근접 장애물 감지 모듈(115), 근접 장애물 알림 모듈(116), 목적지 음성 입력 모듈(117), 음성 길안내 모듈(118), 3축 센서(119), 자세 판단 모듈(120), 가로 고정 알림 모듈(121), 위치별 보행길 실시간 참조 모듈(122)을 포함하도록 구성될 수 있다.The
이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.
GPS 모듈(101)은 GPS 신호를 수신하여 현재 위치 정보를 산출하도록 구성될 수 있다.The
터치스크린(102)은 전방의 동영상 이미지를 출력하도록 구성될 수 있다. 여기서, 동영상 이미지는 듀얼 카메라 모듈(104)에 의해 생성되는 듀얼 이미지를 합성한 이미지이다.The
현재 위치 알림 모듈(103)은 시각 장애인에 의해 터치스크린(102)이 터치되면, GPS 모듈(101)에 의해 산출되는 현재 위치 정보를 즉시 음성 출력하도록 구성될 수 있다. 길안내를 하는 중이더라도 터치가 입력되면, 즉시 현재 위치 정보를 음성 출력하도록 구성될 수 있다. 길안내는 전후좌우의 방향으로 이루어질 수 있으며, 시계의 각 시간에 대한 방향으로 이루어질 수도 있다. 예를 들어, "3시 방향으로 5m 이동하세요."와 같이 길안내가 될 수 있다.The current
듀얼 카메라 모듈(104)은 전방의 듀얼 동영상 이미지를 생성하도록 구성될 수 있다. 시각 장애인은 사용자 단말(100)을 이용하여 전방을 촬영하면서 길을 찾아가야 하기 때문에 들지 않고 어깨 등에 부착할 수 있도록 구성될 수 있다. 사용자 단말(100)의 부착을 위한 부착 보조 장치(미도시)가 더 이용될 수 있다.The
시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈(105)은 듀얼 카메라 모듈(104)에 의해 생성되는 스테레오 타입(stereo type)의 듀얼 동영상 이미지에 대해 시맨틱 세그멘테이션 알고리즘과 오브젝트 디텍션을 위한 분석을 수행하여 동영상 이미지를 출력하도록 구성될 수 있다. 도 2는 시맨틱 세그멘테이션 알고리즘을 수행하여 시맨틱 라벨(semantic label)을 부여하여 객체를 감지하는 것을 나타내고 있다. 그리고 도 3을 참조하면, 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈(105)이 오브젝트 디텍션 알고리즘을 수행하여 추가적으로 객체를 감지하는 것을 나타낸다.The semantic segmentation object
프레임별 셀 분화 모듈(106)은 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈(105)에 의해 출력되는 동영상 이미지의 각 프레임 별로 셀을 지정하여 분화하도록 구성될 수 있다. 예를 들어, 각 프레임의 셀을 32개로 지정하여 프레임을 분화할 수 있다.The frame-by-frame
장애물 감지 모듈(107)은 프레임별 셀 분화 모듈(106)에 의해 셀이 분화된 각 프레임에서 장애물을 감지하도록 구성될 수 있다. 각 셀을 기준으로 장애물이 어디에 위치하는지 파악할 수 있다. 도 4를 참조하면, 보라색 영역은 보행이 가능한 영역으로 잠정 파악되고, 각각 점으로 표시된 부분이 보행 중 근접한 장애물의 위치로 인지되는 영역이다.The
장애물 거리 산출 모듈(108)은 장애물 감지 모듈(107)에서 장애물이 감지되는 경우 해당 장애물에 대한 거리를 산출하도록 구성될 수 있다. 도 5에서는 스트레오 타입의 듀얼 이미지를 생성하는 듀얼 카메라 모듈(104)에서 듀얼 이미지 간의 시차 즉, 시각차를 이용하여 이미지 상의 거리를 산출하고 캘리브레이션(calibration) 기법을 적용하여 그 이미지 상의 거리에 대비하여 실제 거리를 산출하도록 구성될 수 있다.The obstacle
셀 위치 기반 가중치 적용 모듈(109)은 장애물 거리 산출 모듈(108)에서 거리를 산출하는 경우, 장애물이 위치하는 셀의 셀 위치에 기반하여 가중치를 적용하도록 구성될 수 있다. 장애물이 위치하는 셀이 화면 전체에서 어느 지점에 위치하는지를 파악하여 화면의 중앙 부분에서 가까운 위치에 위치하면 더 높은 가중치를 적용하도록 구성될 수 있다.The cell location-based
픽셀 깊이 계산 모듈(110)은 듀얼 카메라 모듈(104)에서 생성되는 듀얼 동영상 이미지의 시각차를 이용하여 각 픽셀의 픽셀 깊이(pixel depth)를 계산하도록 구성될 수 있다.The pixel
픽셀 깊이 정규화 모듈(111)은 픽셀 깊이 계산 모듈(110)에서 계산되는 픽셀 깊이를 정규화하도록 구성될 수 있다.The pixel
픽셀 깊이 임계치 대비 모듈(112)은 픽셀 깊이 정규화 모듈(111)에서 정규화되는 픽셀 깊이를 소정 임계치와 대비하도록 구성될 수 있다.The pixel depth
보행 가능 구역 산출 모듈(113)은 장애물 감지 모듈(107)에서 감지된 장애물 및 장애물 거리 산출 모듈(108)에서 산출된 장애물에 대한 거리를 이용하여 현재 동영상 이미지의 각 프레임에서 보행 가능 구역을 산출하도록 구성될 수 있다. 도 8은 시맨틱 세그멘테이션 알고리즘과 오브젝트 디텍션 알고리즘과 픽셀 깊이를 이용하여 분석한 이미지를 나타내며, 도 9는 시맨틱 세그멘테이션 알고리즘과 오브젝트 디텍션에 의한 장애물 분석을 수행한 이미지를 나타낸다.The walkable
또한, 보행 가능 구역 산출 모듈(113)은 픽셀 깊이 임계치 대비 모듈(112)의 대비 결과 각 셀의 픽셀 깊이가 임계치보다 큰 경우 해당 픽셀을 블록 셀(blocked cell)로 처리하여 보행 가능 구역을 산출하도록 구성될 수 있다. 도 10은 보행 가능 구역을 산출하여 나타낸 이미지를 예시하고 있다.In addition, when the pixel depth of each cell is greater than the threshold as a result of the comparison of the pixel depth
텍스트 출력 모듈(114)은 보행 가능 구역 산출 모듈(113)에서 산출된 보행 가능 구역을 텍스트로 출력하도록 구성될 수 있다. 도 7은 장애물과 보행 가능 구역을 감지하여 텍스트로 출력하는 것을 나타낸다.The
연속 프레임 근접 장애물 감지 모듈(115)은 장애물 감지 모듈(107)에서 감지된 장애물이 동영상 이미지의 소정 프레임 개수 이상으로 연속되는지 판단하도록 구성될 수 있다. 도 11은 근접 장애물을 감지한 이미지를 예시하고 있다.The continuous frame proximity
위 판단 결과 소정 프레임 개수 이상으로 연속되는 경우, 연속 프레임 근접 장애물 감지 모듈(115)은 해당 장애물을 근접 장애물로 감지하도록 구성될 수 있다.As a result of the above determination, if more than a predetermined number of frames are continuous, the continuous frame proximity
예를 들어, 특정 장애물이 5 프레임 이상 연속되는 경우, 아울러 그 장애물의 픽셀 영역이 더 커진다면 시각 장애인에게 접근하는 것으로 감지할 수 있다.For example, when a specific obstacle is continuous for 5 frames or more, and if the pixel area of the obstacle becomes larger, it may be detected as approaching the visually impaired.
근접 장애물 알림 모듈(116)은 연속 프레임 근접 장애물 감지 모듈(115)에서 근접 장애물로 감지되는 경우, 장애물 근접을 즉시 알림 출력하도록 구성될 수 있다. 길안내 중에도 장애물 근접을 우선적으로 알림 출력할 수 있다.The proximity
목적지 음성 입력 모듈(117)은 시각 장애인의 보행 목적지를 음성 입력받도록 구성될 수 있다.The destination
음성 길안내 모듈(118)은 GPS 모듈(101)에서 산출된 현재 위치 정보 및 텍스트 출력 모듈(114)에서 출력된 텍스트를 이용하여 목적지 음성 입력 모듈(117)에서 음성 입력받은 보행 목적지로 가는 길안내를 수행하여 음성 출력하도록 구성될 수 있다.The
3축 센서(119)는 사용자 단말(100)의 자세를 감지하도록 구성될 수 있다.The three-
자세 판단 모듈(120)은 3축 센서(119)에서 감지된 자세가 가로 방향으로 유지되는지 판단하도록 구성될 수 있다. 사용자 단말(100)이 가로 방향으로 유지되어야 듀얼 카메라 모듈(104)을 이용하여 주변의 장애물이나 보행 가능 구역을 폭넓게 파악할 수 있다. 세로 방향인 경우 주변 장애물 감지가 어렵고 듀얼 카메라 모듈(104)에는 주로 하늘 영역이 많이 포착되기 때문에 가로 방향으로 유지되는 것이 바람직하다.The
가로 고정 알림 모듈(121)은 자세 판단 모듈(120)에서 자세가 가로 방향으로 유지되는지 판단한 결과, 가로 방향으로 유지되지 않는다고 판단되면 가로 방향으로 자세를 유지하도록 음성 알림을 즉시 출력하도록 구성될 수 있다. 즉, 소정 임계 각도를 벗어나 가로 방향이 유지되지 않는 경우에는 길안내 음성에 우선하여 음성 알림을 즉시 출력하여 가로 방향을 유지하게 할 수 있다.As a result of determining whether the posture is maintained in the horizontal direction in the
위치별 보행길 실시간 참조 모듈(122)은 보행 보조 학습 서버(200)로부터 위치별 보행길 관련 데이터를 실시간 참조하여 보행 가능 구역 산출 모듈(113)의 보행 가능 구역 산출을 지원하도록 구성될 수 있다. 위치별 보행길 관련 데이터는 보행 보조 학습 서버(200)에서 여러 시각 장애인들의 사용자 단말(100)로부터 수집된 이미지 데이터와 기존에 확보된 스트리트뷰 이미지의 학습을 통해 보다 면밀하게 파악한 보행 가능 구역, 장애물 등의 데이터를 포함하도록 구성될 수 있다.The location-specific walking path real-
보행 보조 학습 서버(200)는 사용자 단말(100)에서 수행되는 보행 보조와 관련하여 보행길 학습을 수행하도록 구성될 수 있다.The gait
보행 보조 학습 서버(200)는 현재 위치 수신 모듈(201), 이미지 관련 데이터 수신 모듈(202), 이미지 관련 데이터 저장 모듈(203), 스트리트뷰 데이터베이스(204), 보행길 학습 모듈(205), 위치별 보행길 데이터베이스(206)를 포함하도록 구성될 수 있다.The walking
이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.
현재 위치 수신 모듈(201)은 GPS 모듈(101)에서 산출된 현재 위치 정보를 실시간 수신하도록 구성될 수 있다.The current
이미지 관련 데이터 수신 모듈(202)은 보행 가능 구역 산출 모듈(113)로부터 보행 가능 구역 이미지 관련 데이터를 실시간 수신하도록 구성될 수 있다.The image related
이미지 관련 데이터 저장 모듈(203)은 이미지 관련 데이터 수신 모듈(202)에서 실시간 수신된 보행 가능 구역 이미지 관련 데이터가 저장되도록 구성될 수 있다.The image related
스트리트뷰 데이터베이스(204)는 현재 위치 수신 모듈(201)에서 실시간 수신된 현재 위치 정보에 관련된 스트리트뷰(street view) 이미지가 미리 저장되도록 구성될 수 있다. 일례로 다음(Daum) 회사의 스트리트뷰 이미지와 같은 미리 확보된 스트리트뷰 이미지일 수 있다.The
보행길 학습 모듈(205)은 이미지 관련 데이터 저장 모듈(203)에 저장된 보행 가능 구역 이미지 관련 데이터, 스트리트뷰 데이터베이스(204)에 미리 저장된 스트리트뷰 이미지 중 현재 위치 수신 모듈(201)에서 실시간 수신된 현재 위치 정보에 연관된 스트리트뷰 이미지를 참조하여 해당 보행길을 학습하여 위치별 보행길 관련 데이터를 생성하도록 구성될 수 있다. 즉, 여러 시각 장애인들의 사용자 단말(100)에서 수집되는 보행 가능 구역 이미지와 스트리트뷰 이미지를 상호 대비하여 학습하여 보다 정확하고 면밀한 보행길 관련 데이터를 위치 별로 생성할 수 있다.The walking
위치별 보행길 데이터베이스(206)는 보행길 학습 모듈(205)에서 생성된 위치별 보행길 관련 데이터가 저장되도록 구성될 수 있다.The location-specific
지팡이 부착 안내 장치(300)는 시각 장애인의 지팡이에 부착되어 사용자 단말(100)에서 수행되는 보행 보조와 연관된 길안내를 출력하도록 구성될 수 있다.The stick
지팡이 부착 안내 장치(300)에는 손잡이 부분에 전후좌우의 각 영역에 진동 모터가 각각 부착될 수 있고, 진동을 통해 전후좌우의 방향 안내를 할 수 있다.Vibration motors may be respectively attached to the front, rear, left, and right regions of the handle portion to the stick
휠체어 부착 안내 장치(400)는 시각 장애인의 휠체어에 부착되어 사용자 단말(100)에서 수행되는 보행 보조와 연관된 길안내를 출력하도록 구성될 수 있다.The wheelchair
휠체어의 양 팔걸이에 전후좌우의 방향 안내를 위한 진동 모터가 부착될 수 있으며, 이를 이용하여 길안내가 이루어질 수 있다.Vibration motors for guiding forward, backward, left and right directions may be attached to both armrests of the wheelchair, and navigation may be made using this.
지팡이 부착 안내 장치(300), 휠체어 부착 안내 장치(400) 이외에도 이어폰과 같은 다양한 보조 안내 장치가 더 구비될 수 있다In addition to the cane
보조 배터리(500)는 사용자 단말(100)에 보조 전력을 제공하도록 구성될 수 있다. 사용자 단말(100)의 배터리 소모가 많을 수 있다. 그리고 길안내 중 배터리가 완전히 소모되면 매우 난처할 수 있다. 이에, 보조 배터리(500)의 사용이 필요할 수 있다.The
도 12는 사용자 단말과 연결되는 보조 배터리를 나타낸 도면이다.12 is a diagram illustrating an auxiliary battery connected to a user terminal.
보조 배터리(500)는 배터리량 감지/판단 모듈(501), 발열 모듈(502), 발향 모듈(503)을 포함하도록 구성될 수 있다.The
이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.
배터리량 감지/판단 모듈(501)은 보조 배터리량을 실시간 감지하고 소정 단계별 임계치와 대비하여 판단하도록 구성될 수 있다.The battery amount detection/
발열 모듈(502)은 배터리량 감지/판단 모듈(501)의 판단 결과 보조 배터리량이 소정 단계별 임계치 이하로 판단되는 경우, 해당 단계별로 발열을 하도록 구성될 수 있다. 단계가 낮아질수록 발열량을 높일 수 있다.The
상기 발열 모듈(502)는 보조 배터리(500)의 단부에 구비됨이 바람직하다.The
발향 모듈(503)은 배터리량 감지/판단 모듈(501)의 판단 결과 보조 배터리량이 소정 단계별 임계치 이하로 판단되는 경우, 해당 단계별로 발향을 하도록 구성될 수 있다. 단계가 낮아질수록 발향이 많이 되도록 구성될 수 있다.The
또는 도시된 것처럼 내부에 구비된 복수 개의 향액 디스펜서(미도시) 각각에 연결된 분사부(533)를 이용 일정 단계별 임대치별로 서로 다른 향이 발향되도록 함으로써 배터리량을 후각적으로 인식하도록 할 수도 있다. Alternatively, as shown, the amount of the battery may be olfactorily recognized by using the
이와 같은 발열과 발향을 통해 시각 장애인은 배터리 잔량을 감지할 수 있고 이에 대처할 수 있다.Through such heat and smell, the visually impaired can sense the remaining battery level and can cope with it.
도시되어 있지는 않으나, 상기 보조 배터리(500)는 상기 발열 모듈(503)이 상측으로 배치된 상태에서 사용자의 목에 걸 수 있도록 목끈이 구비됨이 바람직하다.Although not shown, it is preferable that the
이 경우, 상기 목끈은 철사 등과 같은 재질로 보조 배터리(500)에 결합된 형태를 이루되, 결합된 부위에는 진동부가 구비되어, 상황에 따라 상기 진동부의 진동을 통하여 목끈으로 진동이 전달되도록 함으로써 배터리 잔량을 지시할 수도 있다.In this case, the neck strap is formed in a form coupled to the
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the above embodiments, those skilled in the art can understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the following claims. There will be.
100: 사용자 단말
101: GPS 모듈
102: 터치스크린
103: 현재 위치 알림 모듈
104: 듀얼 카메라 모듈
105: 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈
106: 프레임별 셀 분화 모듈
107: 장애물 감지 모듈
108: 장애물 거리 산출 모듈
109: 셀 위치 기반 가중치 적용 모듈
110: 픽셀 깊이 계산 모듈
111: 픽셀 깊이 정규화 모듈
112: 픽셀 깊이 임계치 대비 모듈
113: 보행 가능 구역 산출 모듈
114: 텍스트 출력 모듈
115: 연속 프레임 근접 장애물 감지 모듈
116: 근접 장애물 알림 모듈
117: 목적지 음성 입력 모듈
118: 음성 길안내 모듈
119: 3축 센서
120: 자세 판단 모듈
121: 가로 고정 알림 모듈
122: 위치별 보행길 실시간 참조 모듈
200: 보행 보조 학습 서버
201: 현재 위치 수신 모듈
202: 이미지 관련 데이터 수신 모듈
203: 이미지 관련 데이터 저장 모듈
204: 스트리트뷰 데이터베이스
205: 보행길 학습 모듈
206: 위치별 보행길 데이터베이스
300: 지팡이 부착 안내 장치
400: 휠체어 부착 안내 장치
500: 보조 배터리
501: 배터리량 감지/판단 모듈
502: 발열 모듈
503: 발향 모듈100: user terminal
101: GPS module
102: touch screen
103: current location notification module
104: dual camera module
105: Semantic segmentation object detection application module
106: frame-by-frame cell differentiation module
107: obstacle detection module
108: obstacle distance calculation module
109: cell location-based weighting module
110: pixel depth calculation module
111: pixel depth normalization module
112: pixel depth threshold contrast module
113: walkable area calculation module
114: text output module
115: continuous frame proximity obstacle detection module
116: proximity obstacle notification module
117: destination voice input module
118: voice guidance module
119: 3-axis sensor
120: posture determination module
121: horizontal fixed notification module
122: real-time reference module for walking path by location
200: walking aid learning server
201: current location receiving module
202: image-related data receiving module
203: image related data storage module
204: Street View Database
205: walking path learning module
206: Pedestrian path database by location
300: stick attachment guide device
400: wheelchair attachment guide device
500: auxiliary battery
501: battery level detection/judgment module
502: heat module
503: scent diffusing module
Claims (3)
상기 사용자 단말에서 수행되는 보행 보조를 음성 출력하는 이어폰;
상기 사용자 단말에서 수행되는 보행 보조와 관련하여 보행길 학습을 수행하는 보행 보조 학습 서버;
상기 사용자 단말에 보조 전력을 제공하는 보조 배터리를 포함하고,
상기 사용자 단말은,
GPS 신호를 수신하여 현재 위치 정보를 산출하는 GPS 모듈;
전방의 동영상 이미지를 출력하는 터치스크린;
상기 시각 장애인에 의해 상기 터치스크린이 터치되면, 상기 GPS 모듈에 의해 산출되는 현재 위치 정보를 즉시 음성 출력하는 현재 위치 알림 모듈;
전방의 스테레오 타입(stereo type)의 듀얼 동영상 이미지를 생성하는 듀얼 카메라 모듈;
상기 듀얼 카메라 모듈에 의해 생성되는 스테레오 타입의 듀얼 동영상 이미지에 대해 시맨틱 세그멘테이션(Semantic segmentation) 알고리즘과 오브젝트 디텍션(object detection)을 위한 분석을 수행하여 동영상 이미지를 출력하는 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈;
상기 시맨틱 세그멘테이션 오브젝트 디텍션 적용 모듈에 의해 출력되는 동영상 이미지의 각 프레임 별로 셀을 지정하여 분화하는 프레임별 셀 분화 모듈;
상기 프레임별 셀 분화 모듈에 의해 셀이 분화된 각 프레임에서 장애물을 감지하는 장애물 감지 모듈;
상기 장애물 감지 모듈에서 장애물이 감지되는 경우 해당 장애물에 대한 거리를 산출하는 장애물 거리 산출 모듈;
상기 장애물 거리 산출 모듈에서 거리를 산출하는 경우, 장애물이 위치하는 셀의 셀 위치에 기반하여 가중치를 적용하며, 장애물이 위치하는 셀이 화면 전체에서 어느 지점에 위치하는지를 파악하여 화면의 상기 장애물이 위치하는 셀의 셀 위치가 화면의 중앙 부분에서 가까울수록 더 높은 가중치를 적용하는 셀 위치 기반 가중치 적용 모듈;
상기 듀얼 카메라 모듈에서 생성되는 듀얼 동영상 이미지의 시각차를 이용하여 각 픽셀의 픽셀 깊이를 계산하는 픽셀 깊이 계산 모듈;
상기 픽셀 깊이 계산 모듈에서 계산되는 픽셀 깊이를 정규화하는 픽셀 깊이 정규화 모듈;
상기 픽셀 깊이 정규화 모듈에서 정규화되는 픽셀 깊이를 소정 임계치와 대비하는 픽셀 깊이 임계치 대비 모듈;
상기 장애물 감지 모듈에서 감지된 장애물 및 상기 장애물 거리 산출 모듈에서 산출된 장애물에 대한 거리를 이용하여 현재 동영상 이미지의 각 프레임에서 보행 가능 구역을 산출하며, 상기 픽셀 깊이 임계치 대비 모듈의 대비 결과 각 셀의 픽셀 깊이가 상기 임계치보다 큰 경우 해당 픽셀을 블록 셀(blocked cell)로 처리하여 보행 가능 구역을 산출하는 보행 가능 구역 산출 모듈;
상기 보행 가능 구역 산출 모듈에서 산출된 보행 가능 구역을 텍스트로 출력하는 텍스트 출력 모듈;
상기 장애물 감지 모듈에서 감지된 장애물이 상기 동영상 이미지의 소정 프레임 개수 이상으로 연속되는지 판단하고, 판단 결과 상기 소정 프레임 개수 이상으로 연속되고, 상기 장애물의 크기가 점점 더 커지는 경우 해당 장애물을 근접 장애물로 감지하는 연속 프레임 근접 장애물 감지 모듈;
상기 연속 프레임 근접 장애물 감지 모듈에서 근접 장애물로 감지되는 경우, 장애물 근접을 즉시 알림 출력하는 근접 장애물 알림 모듈;
상기 시각 장애인의 보행 목적지를 음성 입력받는 목적지 음성 입력 모듈;
상기 GPS 모듈에서 산출된 현재 위치 정보 및 상기 텍스트 출력 모듈에서 출력된 텍스트를 이용하여 상기 목적지 음성 입력 모듈에서 음성 입력받은 보행 목적지로 가는 길안내를 수행하여 음성 출력하는 음성 길안내 모듈;
상기 사용자 단말의 자세를 감지하는 3축 센서;
상기 3축 센서에서 감지된 자세가 가로 방향으로 유지되는지 판단하는 자세 판단 모듈;
상기 자세 판단 모듈에서 자세가 가로 방향으로 유지되는지 판단한 결과, 가로 방향으로 유지되지 않는다고 판단되면 가로 방향으로 자세를 유지하도록 음성 알림을 즉시 출력하는 가로 고정 알림 모듈;
상기 보행 보조 학습 서버로부터 위치별 보행길 관련 데이터를 실시간 참조하여 상기 보행 가능 구역 산출 모듈의 보행 가능 구역 산출을 지원하는 위치별 보행길 실시간 참조 모듈을 포함하도록 구성되고,
상기 보행 보조 학습 서버는,
상기 GPS 모듈에서 산출된 현재 위치 정보를 실시간 수신하는 현재 위치 수신 모듈;
상기 보행 가능 구역 산출 모듈로부터 보행 가능 구역 이미지 관련 데이터를 실시간 수신하는 이미지 관련 데이터 수신 모듈;
상기 이미지 관련 데이터 수신 모듈에서 실시간 수신된 보행 가능 구역 이미지 관련 데이터가 저장되는 이미지 관련 데이터 저장 모듈;
상기 현재 위치 수신 모듈에서 실시간 수신된 현재 위치 정보에 관련된 스트리트뷰(street view) 이미지가 미리 저장되는 스트리트뷰 데이터베이스;
상기 이미지 관련 데이터 저장 모듈에 저장된 보행 가능 구역 이미지 관련 데이터, 상기 스트리트뷰 데이터베이스에 미리 저장된 스트리트뷰 이미지 중 상기 현재 위치 수신 모듈에서 실시간 수신된 현재 위치 정보에 연관된 스트리트뷰 이미지를 참조하여 해당 보행길을 학습하여 위치별 보행길 관련 데이터를 생성하는 보행길 학습 모듈;
상기 보행길 학습 모듈에서 생성된 위치별 보행길 관련 데이터가 저장되는 위치별 보행길 데이터베이스를 포함하도록 구성되고,
상기 보조 배터리는,
보조 배터리량을 실시간 감지하고 소정 단계별 임계치와 대비하여 판단하는 배터리량 감지/판단 모듈;
상기 배터리량 감지/판단 모듈의 판단 결과 상기 보조 배터리량이 소정 단계별 임계치 이하로 판단되는 경우, 해당 단계별로 발열을 하는 발열 모듈;
상기 배터리량 감지/판단 모듈의 판단 결과 상기 보조 배터리량이 소정 단계별 임계치 이하로 판단되는 경우, 해당 단계별로 발향을 하는 발향 모듈을 포함하도록 구성되는 것을 특징으로 하는 시각 장애인 보행 보조 시스템.
A user terminal for performing walking assistance for the visually impaired;
an earphone for outputting a voice for walking assistance performed by the user terminal;
a gait assistance learning server for performing gait learning in relation to gait assistance performed by the user terminal;
Comprising an auxiliary battery for providing auxiliary power to the user terminal,
The user terminal is
a GPS module for receiving a GPS signal and calculating current location information;
a touch screen that outputs a moving image of the front;
a current location notification module for immediately outputting the current location information calculated by the GPS module by voice when the touch screen is touched by the visually impaired;
a dual camera module for generating a dual moving image of the front stereo type;
a semantic segmentation algorithm and an analysis for object detection on the stereo type dual video image generated by the dual camera module, and a semantic segmentation object detection application module for outputting a moving image;
a frame-by-frame cell differentiation module for specifying and differentiating cells for each frame of the moving image output by the semantic segmentation object detection application module;
an obstacle detection module for detecting an obstacle in each frame in which cells are differentiated by the frame-by-frame cell differentiation module;
an obstacle distance calculation module for calculating a distance to the obstacle when the obstacle detection module detects an obstacle;
When the distance is calculated by the obstacle distance calculation module, a weight is applied based on the cell position of the cell in which the obstacle is located, and the position of the obstacle on the screen is determined by determining where the cell in which the obstacle is located is located on the entire screen. a cell location-based weighting module that applies a higher weight as the cell location of the cell is closer to the center of the screen;
a pixel depth calculation module for calculating a pixel depth of each pixel using the time difference of the dual moving image generated by the dual camera module;
a pixel depth normalization module for normalizing the pixel depth calculated by the pixel depth calculation module;
a pixel depth threshold comparison module for comparing the pixel depth normalized in the pixel depth normalization module with a predetermined threshold;
By using the obstacle detected by the obstacle detection module and the distance to the obstacle calculated by the obstacle distance calculating module, a walkable area is calculated in each frame of the current moving image image, and the pixel depth threshold comparison module compares the result of each cell. a walkable area calculation module for calculating a walkable area by processing the pixel as a blocked cell when the pixel depth is greater than the threshold;
a text output module for outputting the walkable area calculated by the walkable area calculation module as text;
It is determined whether the obstacle detected by the obstacle detection module is continuous for more than a predetermined number of frames of the moving image image, and as a result of the determination, the obstacle is detected as a proximity obstacle continuous frame proximity obstacle detection module;
a proximity obstacle notification module configured to immediately notify and output an obstacle proximity when the continuous frame proximity obstacle detection module detects a proximity obstacle;
a destination voice input module for receiving a voice input of the walking destination of the visually impaired;
a voice guidance module for performing voice guidance to a walking destination received voice input from the destination voice input module by using the current location information calculated by the GPS module and the text output from the text output module;
a 3-axis sensor for detecting the posture of the user terminal;
a posture determination module for determining whether the posture sensed by the three-axis sensor is maintained in a horizontal direction;
a horizontal fix notification module for immediately outputting a voice notification to maintain the posture in the horizontal direction when it is determined that the posture is not maintained in the horizontal direction as a result of the posture determination module determining whether the posture is maintained in the horizontal direction;
It is configured to include a real-time reference module for each location that supports the calculation of the walkable area of the walkable area calculation module by referring to the data related to the walking path by location from the walking assistance learning server in real time,
The walking assistance learning server,
a current location receiving module configured to receive the current location information calculated by the GPS module in real time;
an image-related data receiving module configured to receive, in real time, image-related data about a walkable area from the walkable area calculation module;
an image-related data storage module for storing the image-related data of the walkable area received in real time from the image-related data receiving module;
a street view database in which a street view image related to the current location information received in real time from the current location receiving module is stored in advance;
The corresponding walking path is determined by referring to the street view image related to the current location information received in real time from the current location receiving module among the walkable area image related data stored in the image related data storage module and the street view images stored in advance in the street view database. a walking path learning module that learns to generate walking path-related data for each location;
It is configured to include a walking path database for each location in which data related to the walking path for each location generated by the walking path learning module is stored,
The auxiliary battery is
a battery amount detection/determination module that detects the auxiliary battery amount in real time and compares it with a predetermined step-by-step threshold;
a heating module configured to generate heat for each step when the auxiliary battery amount is determined to be less than or equal to a threshold value for each step as a result of the determination of the battery amount detection/determination module;
and a scent diffusing module for diffusing scent for each step when the auxiliary battery amount is determined to be less than or equal to a threshold value for each step as a result of the determination of the battery amount detection/determination module.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210061396A KR102291296B1 (en) | 2021-05-12 | 2021-05-12 | Walking assistance system for the visually-impaired person |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210061396A KR102291296B1 (en) | 2021-05-12 | 2021-05-12 | Walking assistance system for the visually-impaired person |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102291296B1 true KR102291296B1 (en) | 2021-08-20 |
Family
ID=77466634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210061396A KR102291296B1 (en) | 2021-05-12 | 2021-05-12 | Walking assistance system for the visually-impaired person |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102291296B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114587949A (en) * | 2022-02-21 | 2022-06-07 | 北京航空航天大学 | Blind guiding system |
CN116758591A (en) * | 2023-08-18 | 2023-09-15 | 厦门瑞为信息技术有限公司 | Station special passenger recognition and interaction system and method based on image semantic recognition |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000054125A (en) * | 2000-05-23 | 2000-09-05 | 이성환 | Wearable walking guidance device and method for the blind |
KR20160074736A (en) * | 2014-12-17 | 2016-06-29 | 경북대학교 산학협력단 | Device, system and method for informing about 3D obstacle or information for blind person |
KR20180093753A (en) * | 2017-02-14 | 2018-08-22 | 숭실대학교산학협력단 | A stick for the blind |
KR101929875B1 (en) | 2018-05-18 | 2018-12-18 | 문경진 | Method for providing voice guidance service for vision impairment using stream live broadcast in real time |
KR20190069919A (en) * | 2017-12-12 | 2019-06-20 | (주)리터너블 | Walking assistive device and system for visually impaired people |
KR20210012198A (en) * | 2019-07-24 | 2021-02-03 | 이상현 | Apparatus and method of speaking object location information for blind person |
KR20210014405A (en) | 2019-07-30 | 2021-02-09 | 이준서 | System for disabled person |
KR20210025835A (en) * | 2019-08-28 | 2021-03-10 | 구본준 | Wearable device using stereo camera and infrared sensor for the visually impaired |
-
2021
- 2021-05-12 KR KR1020210061396A patent/KR102291296B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000054125A (en) * | 2000-05-23 | 2000-09-05 | 이성환 | Wearable walking guidance device and method for the blind |
KR20160074736A (en) * | 2014-12-17 | 2016-06-29 | 경북대학교 산학협력단 | Device, system and method for informing about 3D obstacle or information for blind person |
KR20180093753A (en) * | 2017-02-14 | 2018-08-22 | 숭실대학교산학협력단 | A stick for the blind |
KR20190069919A (en) * | 2017-12-12 | 2019-06-20 | (주)리터너블 | Walking assistive device and system for visually impaired people |
KR101929875B1 (en) | 2018-05-18 | 2018-12-18 | 문경진 | Method for providing voice guidance service for vision impairment using stream live broadcast in real time |
KR20210012198A (en) * | 2019-07-24 | 2021-02-03 | 이상현 | Apparatus and method of speaking object location information for blind person |
KR20210014405A (en) | 2019-07-30 | 2021-02-09 | 이준서 | System for disabled person |
KR20210025835A (en) * | 2019-08-28 | 2021-03-10 | 구본준 | Wearable device using stereo camera and infrared sensor for the visually impaired |
Non-Patent Citations (1)
Title |
---|
시각장애인을 위한 스테레오 영상기반 보행환경정보안내 단말 플랫폼 개발(대한임베디드공학회논문지 제 13권 제 2호, 2018.4.)* * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114587949A (en) * | 2022-02-21 | 2022-06-07 | 北京航空航天大学 | Blind guiding system |
CN116758591A (en) * | 2023-08-18 | 2023-09-15 | 厦门瑞为信息技术有限公司 | Station special passenger recognition and interaction system and method based on image semantic recognition |
CN116758591B (en) * | 2023-08-18 | 2023-11-21 | 厦门瑞为信息技术有限公司 | Station special passenger recognition and interaction system and method based on image semantic recognition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102291296B1 (en) | Walking assistance system for the visually-impaired person | |
KR20150097043A (en) | Smart System for a person who is visually impaired using eyeglasses with camera and a cane with control module | |
JP2019046464A (en) | Sidewalk travel support system and sidewalk travel support software | |
KR20110004064A (en) | Method for guiding a blind person and system therefor | |
Parikh et al. | Android smartphone based visual object recognition for visually impaired using deep learning | |
Yadav et al. | Fusion of object recognition and obstacle detection approach for assisting visually challenged person | |
Kuriakose et al. | DeepNAVI: A deep learning based smartphone navigation assistant for people with visual impairments | |
KR20190111262A (en) | Portable device for measuring distance from obstacle for blind person | |
Khenkar et al. | ENVISION: Assisted navigation of visually impaired smartphone users | |
WO2020114214A1 (en) | Blind guiding method and apparatus, storage medium and electronic device | |
Rahman et al. | Design and development of navigation guide for visually impaired people | |
Ghosh et al. | Assistive technology for visually impaired using tensor flow object detection in raspberry pi and coral USB accelerator | |
KR101847764B1 (en) | Information gathering system for the visually impaired | |
Ilag et al. | Design review of Smart Stick for the Blind Equipped with Obstacle Detection and Identification using Artificial Intelligence | |
Pydala et al. | Smart_Eye: a navigation and obstacle detection for visually impaired people through smart app | |
KR20180097962A (en) | Situation determining guide apparatus and method based image analysis | |
Somyat et al. | NavTU: android navigation app for Thai people with visual impairments | |
Yang et al. | Seeway: Vision-language assistive navigation for the visually impaired | |
CN115223115A (en) | Information processing apparatus, control method thereof, control apparatus and control method of moving object, and recording medium | |
TW201525419A (en) | Method for providing an obstacle-free path using image identification and mobile assistive device | |
Hakim et al. | Indoor Low Cost Assistive Device using 2D SLAM Based on LiDAR for Visually Impaired People. | |
Muñoz et al. | An assistive indoor navigation system for the visually impaired in multi-floor environments | |
US20230298340A1 (en) | Information processing apparatus, mobile object, control method thereof, and storage medium | |
Grewe et al. | Road following for blindBike: an assistive bike navigation system for low vision persons | |
Kandoth et al. | Dhrishti: a visual aiding system for outdoor environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |