KR20210085865A - Crosswalk guide apparatus and method for pedestrians of the visually impaired - Google Patents
Crosswalk guide apparatus and method for pedestrians of the visually impaired Download PDFInfo
- Publication number
- KR20210085865A KR20210085865A KR1020190179382A KR20190179382A KR20210085865A KR 20210085865 A KR20210085865 A KR 20210085865A KR 1020190179382 A KR1020190179382 A KR 1020190179382A KR 20190179382 A KR20190179382 A KR 20190179382A KR 20210085865 A KR20210085865 A KR 20210085865A
- Authority
- KR
- South Korea
- Prior art keywords
- crosswalk
- interest
- regions
- walking
- visually impaired
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000001771 impaired effect Effects 0.000 title claims abstract description 64
- 238000001514 detection method Methods 0.000 claims abstract description 64
- 230000008859 change Effects 0.000 claims abstract description 44
- 238000010801 machine learning Methods 0.000 claims abstract description 24
- 230000001939 inductive effect Effects 0.000 claims description 15
- 238000012937 correction Methods 0.000 claims description 6
- 238000013459 approach Methods 0.000 claims description 4
- 230000005021 gait Effects 0.000 abstract description 29
- 230000008569 process Effects 0.000 description 8
- 239000003973 paint Substances 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000037230 mobility Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G06K9/3233—
-
- G06K9/46—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/146—Aligning or centring of the image pick-up or image-field
- G06V30/147—Determination of region of interest
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
- A61H2201/501—Control means thereof computer controlled connected to external computer devices or networks
- A61H2201/5012—Control means thereof computer controlled connected to external computer devices or networks using the internet
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Evolutionary Computation (AREA)
- Epidemiology (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Rehabilitation Therapy (AREA)
- Vascular Medicine (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Pain & Pain Management (AREA)
- Medical Informatics (AREA)
- Physical Education & Sports Medicine (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 시각장애인의 횡단보도 보행을 위한 가이드 장치 및 방법에 관한 것으로, 더욱 상세하게는 시각장애인이 착용한 웨어러블 디바이스의 전방 영상을 분석하여 횡단보도를 건너는 상황에서의 안전한 보행을 유도하는 정보를 제공하는 장치 및 방법에 관한 것이다. The present invention relates to a guide apparatus and method for walking in a crosswalk for a visually impaired person, and more particularly, by analyzing a front image of a wearable device worn by a visually impaired person, information for inducing safe walking in a situation of crossing a crosswalk. It relates to an apparatus and method for providing.
시각장애인이 다른 사람의 도움 없이 원하는 목적지까지 안전하게 이동하는 것은 시각장애인의 삶의 질을 향상시킨다는 측면에서 중요한 문제이다. 시각장애인의 보행을 돕기 위한 도로 시설물로 점자블록이 있으며, 대부분의 시각장애인은 보행을 위해 지팡이를 사용한다. 지팡이를 이용하여 도로상에 존재하는 점자블록을 감각적으로 인식함으로써, 자신의 진행방향을 판단하고 선형 점자블록인지 점형 점자블록인지에 따라서 정지 상황에 대한 정보를 얻는다. It is an important issue in terms of improving the quality of life of the visually impaired to safely move to a desired destination without the help of others. There are braille blocks as road facilities to help the visually impaired walk, and most of the visually impaired use a cane for walking. By sensibly recognizing the braille blocks that exist on the road using a stick, it judges its own direction and obtains information about the stopping situation according to whether it is a linear braille block or a dotted braille block.
하지만, 시각장애인이 점자블록이 설치되어 있지 않은 횡단보도를 건너는 상황이 되면 문제가 발생한다. 우선, 시각장애인은 정지 점자블록을 인지하더라도 전방에 횡단보도가 존재하는지 알 수 없다. 또한, 소리를 통해 시각장애인에게 보행신호를 전달하는 횡단보도가 존재하나, 대부분의 경우 보행신호의 점등여부를 확인할 수 없다. However, a problem arises when a visually impaired person crosses a crosswalk that does not have braille blocks installed. First of all, even if the blind person recognizes the stop braille block, he cannot know whether there is a crosswalk in front of him. In addition, although there is a crosswalk that transmits a walking signal to the visually impaired through sound, in most cases, it is impossible to check whether the walking signal is on.
가장 큰 문제는 횡단보도에는 보행 방향을 유도하는 점자블록이 없으므로, 시각장애인이 제대로 된 방향으로 건너가고 있는지 알 수 없다. 따라서, 주행 차량으로 인해 위험에 노출될 가능성이 높은 횡단보도에서 시각장애인의 이동성을 확보하기 위해서는 안전한 보행을 유도하는 방법이 필요하다.The biggest problem is that there are no braille blocks to guide the walking direction at the crosswalk, so it is impossible to know whether the blind person is crossing in the correct direction. Therefore, in order to secure the mobility of the visually impaired in a crosswalk, which is likely to be exposed to danger due to a driving vehicle, a method of inducing safe walking is required.
본 발명은 전술한 바와 같은 필요성에 의해 안출된 것으로서, 시각장애인이 횡단보도 및 횡단보도에 설치된 신호등과 같은 보행신호를 안정적으로 인식하도록 정보를 제공함과 동시에 횡단보도를 건너는 상황에서 올바른 방향으로 진행하도록 보조하는 장치 및 방법을 제공함에 목적이 있다.The present invention has been devised by the necessity as described above, and provides information so that the visually impaired can stably recognize walking signals such as crosswalks and traffic lights installed in crosswalks, and at the same time to proceed in the right direction in a situation of crossing the crosswalk. An object of the present invention is to provide an assisting apparatus and method.
본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 장치는, 시각장애인이 착용한 단말로부터 전달되는 전방 영상을 수집하는 영상 획득부, 전방 영상에 대한 복수개의 제 1 관심영역들을 설정하고, 제 1 관심영역들에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들을 추정하는 횡단보도 검출부, 전방 영상의 중심 일 영역을 제 2 관심영역으로 설정하고, 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 후보영역들에 포함된 보행신호의 상태를 판단하는 보행신호 검출부, 횡단보도에 해당하는 제 1 관심영역들을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정하는 진행방향 판단부 및 횡단보도 검출부, 보행신호 검출부 및 진행방향 판단부의 출력 데이터를 기초로 단말의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 정보 분석부를 포함할 수 있다.A guide device for walking in a crosswalk for a blind person according to an embodiment of the present invention is an image acquisition unit that collects a front image transmitted from a terminal worn by the visually impaired, and sets a plurality of first areas of interest for the front image and a crosswalk detector estimating the first regions of interest corresponding to the crosswalk through at least one of feature-based analysis or machine learning for the first regions of interest, and set one central region of the front image as the second region of interest and estimating candidate regions including a gait signal in the second region of interest through at least one of feature-based analysis or machine learning for the second region of interest, and determining the state of the gait signal included in the candidate regions. The signal detector generates projection data based on the horizontal direction based on the first regions of interest corresponding to the crosswalk, and analyzes the gradient change of pixel values constituting the projection data to estimate the moving direction of the visually impaired. It may include an information analysis unit that generates walking guide information output to the user interface of the terminal based on the output data of the determination unit, the crosswalk detection unit, the walking signal detection unit, and the traveling direction determination unit.
본 발명의 일 실시 예에 따른 횡단보도 검출부는, 복수개의 제 1 관심영역들 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행하고, 이진화를 기초로 복수개의 제 1 관심영역들이 횡단보도에 해당하는지를 개별적으로 판단할 수 있다.The crosswalk detection unit according to an embodiment of the present invention performs binarization based on a characteristic of a crosswalk pattern identified in each of a plurality of first ROIs, and a plurality of first ROIs are traversed based on the binarization. It can be judged individually whether or not it falls under the report.
본 발명의 일 실시 예에 따른 횡단보도 검출부는, 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 이진화를 수행하고, 이진화를 기초로 도출된 횡단보도 영역에 대한 평균값과 분산값을 추정하며, 추정된 평균값과 분산값을 기초로 추가적인 이진화를 수행할지를 판단할 수 있다.The crosswalk detection unit according to an embodiment of the present invention performs binarization using the average value of the characteristics of the crosswalk pattern as a threshold value, and estimates the average value and variance value for the crosswalk area derived based on the binarization, It may be determined whether to perform additional binarization based on the estimated mean and variance values.
본 발명의 일 실시 예에 따른 횡단보도 검출부는, 횡단보도 패턴에 대한 모폴로지 기법에 기반한 형태 보정을 수행할 수 있다.The crosswalk detection unit according to an embodiment of the present invention may perform shape correction based on a morphology technique for a crosswalk pattern.
본 발명의 일 실시 예에 따른 진행방향 판단부는, 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써, 횡단보도 패턴이 기울어진 방향을 추정할 수 있다.The traveling direction determining unit according to an embodiment of the present invention may estimate a direction in which the crosswalk pattern is inclined by analyzing a change in a section in which pixel values constituting the projection data change from a minimum value to a maximum value.
본 발명의 일 실시 예에 따른 정보 분석부는, 횡단보도에 해당하는 제 1 관심영역들의 개수가 소정의 기준개수 이상인 경우, 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성할 수 있다.The information analysis unit according to an embodiment of the present invention determines that a crosswalk exists in front of the visually impaired when the number of first regions of interest corresponding to the crosswalk is equal to or greater than a predetermined reference number, and approaches the crosswalk It is possible to generate walking guide information notifying
본 발명의 일 실시 예에 따른 정보 분석부는, 후보영역들에 포함된 보행신호의 상태를 기초로 시각장애인의 정지 또는 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성할 수 있다.The information analysis unit according to an embodiment of the present invention may generate walking guide information for inducing the visually impaired to stop or walk in a crosswalk based on the state of the walking signal included in the candidate areas.
본 발명의 일 실시 예에 따른 정보 분석부는, 시각장애인의 진행방향이 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 시각장애인의 진행방향을 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성할 수 있다.The information analysis unit according to an embodiment of the present invention, when the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk, a walking guide for guiding the visually impaired within a predetermined angular range information can be generated.
본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법은, 시각장애인이 착용한 단말로부터 전달되는 전방 영상을 수집하는 단계, 전방 영상에 대한 복수개의 제 1 관심영역들을 설정하고, 제 1 관심영역들에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들을 추정하는 단계, 전방 영상의 중심 일 영역을 제 2 관심영역으로 설정하고, 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 후보영역들에 포함된 보행신호의 상태를 판단하는 단계, 횡단보도에 해당하는 제 1 관심영역들을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정하는 단계 및 횡단보도 검출부, 보행신호 검출부 및 진행방향 판단부의 출력 데이터를 기초로 단말의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 단계를 포함할 수 있다.A guide method for walking in a crosswalk for a blind person according to an embodiment of the present invention includes collecting a front image transmitted from a terminal worn by the visually impaired, setting a plurality of first regions of interest for the front image, estimating the first regions of interest corresponding to the crosswalk through at least one of feature-based analysis or machine learning of the first regions of interest; setting one central region of the front image as the second region of interest; Estimating candidate regions including a gait signal among the second region of interest through at least one of feature-based analysis or machine learning of the region of interest, and determining the state of the gait signal included in the candidate regions; estimating the moving direction of the visually impaired by generating projection data based on the horizontal direction based on the corresponding first regions of interest and analyzing the gradient change of pixel values constituting the projection data; and a crosswalk detector and a walking signal The method may include generating walking guide information output to a user interface of the terminal based on the output data of the detection unit and the traveling direction determination unit.
본 발명의 일 실시 예에 따른 제 1 관심영역들을 추정하는 단계에서는, 복수개의 제 1 관심영역들 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행하고, 이진화를 기초로 복수개의 제 1 관심영역들이 횡단보도에 해당하는지를 개별적으로 판단할 수 있다.In the step of estimating the first ROIs according to an embodiment of the present invention, binarization is performed based on the characteristics of the crosswalk pattern identified in each of the plurality of first ROIs, and a plurality of second ROIs based on the binarization is performed. 1 It is possible to individually judge whether the areas of interest correspond to crosswalks.
본 발명의 일 실시 예에 따른 제 1 관심영역들을 추정하는 단계에서는, 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 이진화를 수행하고, 이진화를 기초로 도출된 횡단보도 영역에 대한 평균값과 분산값을 추정하며, 추정된 평균값과 분산값을 기초로 추가적인 이진화를 수행할지를 판단할 수 있다.In the step of estimating the first regions of interest according to an embodiment of the present invention, binarization is performed using the average value of the characteristics of the crosswalk pattern as a threshold value, and the average value and variance for the crosswalk area derived based on the binarization It is possible to estimate the value, and determine whether to perform additional binarization based on the estimated average value and variance value.
본 발명의 일 실시 예에 따른 제 1 관심영역들을 추정하는 단계에서는, 횡단보도 패턴에 대한 모폴로지 기법에 기반한 형태 보정을 수행할 수 있다.In the step of estimating the first regions of interest according to an embodiment of the present invention, shape correction based on a morphology technique for the crosswalk pattern may be performed.
본 발명의 일 실시 예에 따른 시각장애인의 진행방향을 추정하는 단계에서는, 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써, 횡단보도 패턴이 기울어진 방향을 추정할 수 있다.In the step of estimating the moving direction of the blind person according to an embodiment of the present invention, the direction in which the crosswalk pattern is inclined is estimated by analyzing the change in the section in which pixel values constituting the projection data change from the minimum value to the maximum value. can
본 발명의 일 실시 예에 따른 보행 가이드 정보를 생성하는 단계에서는, 횡단보도에 해당하는 제 1 관심영역들의 개수가 소정의 기준개수 이상인 경우, 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성할 수 있다.In the step of generating walking guide information according to an embodiment of the present invention, if the number of first regions of interest corresponding to the crosswalk is equal to or greater than a predetermined reference number, it is determined that there is a crosswalk in front of the blind person, It is possible to generate walking guide information notifying the approach of the crosswalk.
본 발명의 일 실시 예에 따른 보행 가이드 정보를 생성하는 단계에서는, 후보영역들에 포함된 보행신호의 상태를 기초로 시각장애인의 정지 또는 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성할 수 있다.In the step of generating the walking guide information according to an embodiment of the present invention, based on the state of the walking signal included in the candidate areas, it is possible to generate walking guide information that induces the visually impaired to stop or walk in a crosswalk. have.
본 발명의 일 실시 예에 따른 보행 가이드 정보를 생성하는 단계에서는, 시각장애인의 진행방향이 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 시각장애인의 진행방향을 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성할 수 있다.In the step of generating walking guide information according to an embodiment of the present invention, when the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk, the moving direction of the visually impaired is set within a predetermined angular range. It is possible to generate walking guide information leading to the inside.
한편, 본 발명의 일 실시 예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.Meanwhile, according to an embodiment of the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above-described method is recorded in a computer.
본 발명의 일 실시 예로서 제공되는 장치 및 방법에 따르면, 시각장애인이 착용한 웨어러블 형태의 카메라 또는 스마트폰 등을 통해 획득한 전방 영상을 분석하여 상황별로 안전한 보행을 유도하는 정보를 전달함으로써, 시각장애인이 안전하게 횡단보도를 건널 수 있도록 보조할 수 있다.According to the apparatus and method provided as an embodiment of the present invention, by analyzing the front image acquired through a wearable camera or smart phone worn by the visually impaired and delivering information to induce safe walking for each situation, the visual Assist people with disabilities to safely cross the crosswalk.
도 1은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 전방 영상에 대한 복수개의 제 1 관심영역들을 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들에 대한 이진화 결과를 나타낸다.
도 4는 횡단보도의 도색상태 불량에 따른 이진화 문제를 나타낸다.
도 5는 장애물의 존재 여부에 따른 (a) 종래 기본적인 방식의 이진화 결과, (b) 본 발명의 일 실시 예에 따른 이진화 결과를 나타낸다.
도 6은 본 발명의 일 실시 예에 따른 투영 데이터 및 진행방향에 따른 기울기 변화를 보여주는 그래프이다.
도 7은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법을 나타낸 순서도이다.1 is a block diagram illustrating a guide device for walking in a crosswalk for a visually impaired person according to an embodiment of the present invention.
2 illustrates a plurality of first ROIs for an anterior image according to an embodiment of the present invention.
3 illustrates a result of binarization of a plurality of first ROIs according to an embodiment of the present invention.
4 shows the binarization problem according to the poor paint condition of the crosswalk.
5 shows (a) the binarization result of the conventional basic method according to the existence of an obstacle, and (b) the binarization result according to an embodiment of the present invention.
6 is a graph showing a change in inclination according to projection data and a moving direction according to an embodiment of the present invention.
7 is a flowchart illustrating a guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" described in the specification mean a unit for processing at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention. However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 장치를 나타낸 블록도이다.1 is a block diagram illustrating a guide device for walking in a crosswalk for a visually impaired person according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 가이드 장치(100)는 시각장애인(이하, 사용자)가 착용한 단말(200)과 연동 가능한 장치로서, 단말(200)로부터 전송되는 전방 영상(10)을 분석하여 사용자의 횡단보도에서의 안정적인 보행을 유도할 수 있다. 이때, 가이드 장치(100)는 사용자가 착용한 단말(200)과 유무선 네트워크 통신이 가능하며, 사용자가 착용한 단말(200)에서 구동 가능한 유저 인터페이스를 통해 보행 가이드 정보를 출력할 수 있다.Referring to FIG. 1 , a
구체적으로, 본 발명의 일 실시 예에 따른 가이드 장치(100)는 사용자가 착용한 단말(200)로부터 전달되는 전방 영상(10)을 수집하는 영상 획득부(110)를 포함할 수 있다. 전방 영상(10)이란 사용자의 이동방향을 기준으로 단말(200)이 착용된 신체가 향하는 방향의 영상을 말한다. 예를 들어, 사용자가 헤드 마운티드 디스플레이(HMD) 방식의 단말을 착용하고 있다면, 사용자의 이동방향을 기준으로 머리가 향하는 방향의 영상들이 전방 영상(10)으로 촬영되고, 이는 영상 획득부(110)로 전달될 수 있다. 이때, 영상 획득부(110)는 사용자가 착용한 단말(200)로부터 수집되는 전방 영상들(10)의 전후 변화를 분석함으로써, 머리의 움직임으로 인해 이동방향에서 크게 벗어난 영상들은 전방 영상(10)이 아닌 것으로 판단하고, 이러한 영상들은 자체적으로 삭제할 수 있다.Specifically, the
본 발명의 일 실시 예에 따른 가이드 장치(100)는 전방 영상(10)에 횡단보도가 존재하는지를 파악하는 횡단보도 검출부(120)를 포함할 수 있다. 횡단보도 검출부(120)는 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 설정할 수 있다. 전방 영상(10)의 전체 영역이 아닌 일부 영역들을 제 1 관심영역들(20)로 설정하는 것은 실시간으로 보행을 가이드해야 하는 상황에서 정확도를 유지하면서 신속한 분석이 이루어지도록 하기 위함이다. 이때, 복수개의 제 1 관심영역들(20)의 크기, 개수 등은 수집된 전방 영상(10)의 크기에 의해 자동으로 결정될 수도 있고, 유저 인터페이스를 통해 인가된 외부 입력을 통해 설정 또는 변경될 수도 있다.The
횡단보도 검출부(120)는 제 1 관심영역들(20) 각각에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들(21)을 추정할 수 있다. 특징 기반의 분석은 제 1 관심영역들(20)에 포함된 횡단보도 패턴의 형태, 크기, 색상 등과 같은 특징요소들을 분석하는 것을 말한다. 예를 들어, 횡단보도 패턴에 대한 특징 기반의 분석에는 흰색영역과 회색영역이 일정한 두께를 가지고 교대로 반복되는지 여부, 횐색영역과 회색영역의 면적의 비율이 비슷한지 여부, 이중모드(bi-modal) 형태의 밝기 분포를 가지는지 여부 등에 대한 분석이 포함될 수 있다. 이때, 횡단보도 검출부(120)는 특징 기반의 분석 과정에서 횡단보도 패턴에 대한 분석 정확도를 향상시키기 위해서 제 1 관심영역들(20)에 대한 이진화를 수행한다. 이진화에 대한 보다 자세한 내용은 도 3을 참조하여 후술하도록 한다.The
한편, 기계학습은 이미지 기반의 지도학습, 비지도학습, 강화학습 및 딥러닝 등을 모두 포함한다. 예를 들어, 기계학습 알고리즘에는 서포트 벡터 머신(support vector machine, SVM), 랜덤 트리(random tree), 컨볼루션 신경망(convolutional neural network, CNN) 등이 포함될 수 있다. 횡단보도 검출부(120)는 전술한 예시와 같은 기계학습 알고리즘을 이용하여 제 1 관심영역들(20)에 횡단보도가 포함되어 있는지를 학습하고, 학습된 결과를 기초로 실시간으로 수집되는 전방 영상(10)에 횡단보도가 존재하는지를 파악할 수 있다.Meanwhile, machine learning includes image-based supervised learning, unsupervised learning, reinforcement learning, and deep learning. For example, the machine learning algorithm may include a support vector machine (SVM), a random tree, a convolutional neural network (CNN), and the like. The
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도에 설치된 신호등과 같은 보행신호의 점등을 확인하기 위한 보행신호 검출부(130)를 포함할 수 있다. 보행신호 검출부(130)는 전방 영상(10)의 중심 일 영역을 제 2 관심영역으로 설정할 수 있다. 즉, 보행신호 검출부(130)는 횡단보도 검출부(120)와는 별개로 전방 영상(10)에 대한 관심영역을 설정한다. 예를 들어, 보행자용 신호등의 경우, 일반적으로 사람의 신장에 비해 상측에 위치하므로, 보행신호 검출부(130)는 전방 영상(10)에서 중심을 기준으로 1/2 영역을 제 2 관심영역으로 설정할 수 있다. 이때, 제 2 관심영역을 결정하는 기준 등은 수집된 전방 영상(10)의 크기에 의해 자동으로 결정될 수도 있고, 유저 인터페이스를 통해 인가된 외부 입력을 통해 설정 또는 변경될 수도 있다.The
보행신호 검출부(130)는 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정할 수 있다. 특징 기반의 분석은 제 2 관심영역에 포함된 보행신호의 형태, 크기, 색상 등과 같은 특징요소들을 분석하는 것을 말한다. 예를 들어, 보행신호에 대한 특징 기반의 분석에는 빨간색 또는 초록색의 점등영역이 존재하는지 여부, 점등영역의 형태가 원형이 아니라 사람 모양인지 여부 등에 대한 분석이 포함될 수 있다.The
이때, 보행자용 신호등의 경우, 차량용 신호등과 달리 주위에 시각적 방해요소들이 존재할 가능성이 높으며, 야간에는 주위 조명의 영향으로 인해 후보영역의 오검출 사례가 증가할 수 있다. 따라서, 보행신호 검출부(130)는 제 2 관심영역 내에서 보행신호가 포함된 것으로 판단되는 복수개의 후보영역들을 추정함으로써, 보행신호를 판단함에 있어 발생할 수 있는 오검출의 확률을 낮추는 작업을 수행할 수 있다. 즉, 보행신호 검출부(130)는 하나의 제 2 관심영역 내에서 추출된 모든 후보영역들을 보행신호의 상태를 판단하기 위한 고려 대상으로 선택한다.At this time, in the case of a traffic light for pedestrians, unlike a traffic light for a vehicle, there is a high possibility that there are visual obstructions around, and the cases of false detection of a candidate area may increase due to the influence of ambient lighting at night. Accordingly, the
보행신호 검출부(130)는 전술한 과정을 통해 선택된 후보영역들에 포함된 보행신호의 상태를 판단할 수 있다. 예를 들어, 보행신호 검출부(130)는 후보영역들에 포함된 보행신호에서 빨간색 신호 또는 초록색 신호의 점등 변화를 검출할 수 있다. 만약 초록색 신호가 점등된다면, 초록색 신호의 점멸 여부를 판단할 수 있다. 또한, 화살표 모양 또는 숫자 모양으로 시간을 표시하는 영역이 존재하는 경우, 신호가 바뀌기까지 남은 시간을 추정할 수 있다. 이와 같은 보행신호의 상태에 대한 판단은 복수개의 후보영역들에 대한 비교를 통해 정확도를 향상시킬 수 있다.The
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도를 건너는 상황에서 사용자의 이동방향을 실시간으로 파악하는 진행방향 판단부(140)를 포함할 수 있다. 진행방향의 판단은 횡단보도 검출부(120)에서 횡단보도라고 검출된 제 1 관심영역들(20)에 대해서 수행될 수 있다. 이때, 사용자가 횡단보도를 따라서 보행중인 상황에서는 주위 보행자 등과 같은 장애물이 존재할 수 있으므로, 횡단보도로 판단되는 제 1 관심영역들(20)은 전방 영상(10)의 프레임마다 바뀔 수 있다.The
진행방향 판단부(140)는 투영 데이터 생성을 위해서 횡단보도에 해당하는 제 1 관심영역들(21)에 대한 이진화 결과(30)를 사용할 수 있다. 즉, 진행방향 판단부(140)는 정상적으로 이진화된 제 1 관심영역들(30)이 횡단보도의 수평방향을 기준으로 얼만큼 변화했는지를 나타내기 위한 투영 데이터를 생성할 수 있다. 예를 들어, 사용자가 정확하게 횡단보도를 수직하게 가로질러 간다면, 투영 데이터에는 횡단보도 패턴에 맞추어 데이터값 간의 명확한 경계와 경계의 급격한 변화가 나타날 수 있다. 사용자가 횡단보도를 비스듬하게 건너고 있다면, 투영 데이터에는 데이터값 간의 불분명한 경계와 소정의 기울기를 가진 경계의 변화가 나타날 수 있다.The traveling
진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정할 수 있다. 전술하였듯이 횡단보도를 기준으로 한 사용자의 이동방향에 따라 투영 데이터에는 픽셀값들의 변화가 발생하는 구간에서 기울기 변화가 발생할 수 밖에 없다. 따라서, 진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 기초로 사용자가 횡단보도를 정확한 방향으로 건너고 있는지를 파악할 수 있다. 기울기 판단에 대한 보다 자세한 내용은 도 6을 참조하여 후술하도록 한다.The moving
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 기초로 단말(200)의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 정보 분석부(150)를 포함할 수 있다. 즉, 정보 분석부(150)는 전방 영상(10)을 기초로 분석된 결과에 대한 피드백을 사용자에게 제공해주는 역할을 수행한다. 이때, 정보 분석부(150)는 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 개별적으로 전달받아 분석하고, 각각의 분석 결과에 대한 보행 가이드 정보를 개별적으로 생성한다.The
정보 분석부(150)는 횡단보도에 해당하는 제 1 관심영역들(21)의 개수가 소정의 기준개수 이상인 경우, 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성할 수 있다. 예를 들어, 8개의 제 1 관심영역들 중 횡단보도에 해당하는 제 1 관심영역들이 3개 이상이고, 횡단보도와 사용자의 거리가 소정의 범위값 이내인 것으로 판단되면, 정보 분석부(150)는 횡단보도에 접근했음을 알리는 보행 가이드 정보를 생성할 수 있다. 이때, 보행 가이드 정보는 단말(200)의 유저 인터페이스를 통해 "전방에 횡단보도가 있으니, 일단 정지하시기 바랍니다." 라는 문구의 사운드 형태로 출력될 수 있다.If the number of the first regions of
정보 분석부(150)는 후보영역들에 포함된 보행신호의 상태를 기초로 시각장애인의 정지 또는 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성할 수 있다. 예를 들어, 보행신호가 빨간색 신호인 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "현재 정지신호입니다. 정지하시기 바랍니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다. 초록색 신호라도 신호가 점멸하거나 화살표 및 숫자를 통해 횡단하기에 시간이 부족하다고 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "남은 시간이 부족합니다. 정지하시기 바랍니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다.The
또한, 빨간색 신호에서 초록색 신호로 보행신호가 변화한 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "보행신호로 변경되었습니다. 횡단보도를 건너갈 수 있습니다." 라는 문구로 출력되는 보행를 유도하는 보행 가이드 정보를 생성할 수 있다. 빨간색 신호와 초록색 신호가 동시에 점등된 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "신호등이 고장났습니다. 이 횡단보도를 이용할 수 없습니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다.In addition, when it is determined that the walking signal has changed from the red signal to the green signal, the
정보 분석부(150)는 시각장애인의 진행방향이 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 시각장애인의 진행방향을 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성할 수 있다. 이때, 소정의 각도범위는 횡단보도의 너비, 횡단보도의 최초 진입지점, 현재 이동지점 등을 기준으로 자동으로 결정될 수 있다. 예를 들어, 사용자가 정상 범위 내에서 횡단보도를 보행하는 것으로 판단되는 경우, 정보 분석부(150)는 별도의 보행 가이드 정보를 생성하지 않는다. 다만, 유저 인터페이스를 통해 사용자로부터 보행 가이드 정보가 요청되는 경우, 정보 분석부(150)는 "현재 방향을 유지하십시오." 라는 문구로 출력되는 보행 가이드 정보를 생성할 수 있다. 사용자의 진행방향이 좌측(또는 우측)으로 일정 각도를 넘어선 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "우측 (또는 좌측)으로 방향을 조정하시기 바랍니다." 라는 문구로 출력되는 보행 가이드 정보를 생성할 수 있다.The
전술한 보행 가이드 정보들은 유저 인터페이스를 통해 사용자에게 실시간으로 제공되므로, 사용자는 사운드 형태로 출력되는 보행 가이드 정보를 기초로 횡단보도를 안정적으로 보행할 수 있다.Since the above-described walking guide information is provided to the user in real time through the user interface, the user can stably walk in the crosswalk based on the walking guide information output in the form of sound.
도 2는 본 발명의 일 실시 예에 따른 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 나타내고, 도 3은 본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들(20)에 대한 이진화 결과(30)를 나타낸다.2 shows a plurality of
본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들(20)은 전방 영상(10) 내에서 소정의 간격으로 설정될 수 있다. 이때, 관심영역에 대한 판단 정확도를 높이기 위해서 제 1 관심영역들(20)은 도 2와 같이 전방영상의 수직방향을 기준으로 직사각형 형태로 설정될 수 있다. 전방에 횡단보도가 존재했을 때, 주위의 사람이나 도로를 주행하는 차량 등의 장애물 때문에 일부분 또는 여러 부분이 가려질 가능성이 높다. 따라서, 횡단보도 상의 일부 관심영역이 장애물로 인해 가려진 경우에도 횡단보도 검출의 신뢰도를 높이기 위해서 제 1 관심영역들(20)은 도 2와 같이 복수개로 설정될 수 있다. The plurality of first regions of
도 3을 참조하면, 본 발명의 일 실시 예에 따른 횡단보도 검출부(120)는 복수개의 제 1 관심영역들(21) 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행할 수 있다. 관심영역 내에 다른 장애물 없이 횡단보도만 존재한다면, 관심영역의 픽셀은 이중모드(bi-modal) 형태의 분포를 가지므로, 이진화는 제 1 관심영역들(21) 내에 횡단보도의 패턴을 명확히 표현하는 과정으로 이해할 수 있다. 예를 들어, 횡단보도 검출부(120)는 흰색영역과 회색(또는 검은색)영역의 평균 밝기 값의 차이, 흰색영역의 면적 비율, 수직방향을 따라 횐색영역에서 회색영역으로, 회색영역에서 흰색영역으로 변환되는 횟수 등을 기초로 제 1 관심영역(21) 내에 횡단보도 패턴을 결정할 수 있다.Referring to FIG. 3 , the
구체적으로, 횡단보도 검출부(120)는 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 1차 이진화를 수행할 수 있다. 1차 이진화가 완료되면, 그 결과로 나타난 흰색영역(i.e. 횡단보도 영역)의 평균값과 분산값을 추정할 수 있다. 이때, 분산값이 충분히 작은 경우(i.e. 소정의 기준값 이하인 경우), 횡단보도 검출부(120)는 1차 이진화가 완료된 제 1 관심영역들(30)을 횡단보도 판정을 위한 데이터로 사용할 수 있다. 반대로, 분산값이 큰 경우(i.e. 소정의 기준값 이상인 경우), 횡단보도 검출부(120)는 흰색영역의 평균값을 임계값으로 하는 2차 이진화를 추가적으로 수행할 수 있다. 이와 같은 이진화의 반복적 수행을 통해 횡단보도 패턴을 보다 정확히 결정하여 분석 정확도를 향상시킬 수 있다.Specifically, the
도 4는 횡단보도의 도색상태 불량에 따른 이진화 문제를 나타낸다.4 shows the binarization problem according to the poor paint condition of the crosswalk.
도 4를 참조하면, 전방 영상(10)으로 촬영된 횡단보도의 흰색영역이 노란색 점선으로 표시된 부분과 같이 일부가 벗겨지거나 도색 상태가 불량한 경우가 발생할 수 있다. 이와 같이 전방 영상(10)으로 촬영된 횡단보도의 흰색영역의 도색 상태가 불량한 경우, 이진화 수행 결과가 바람직하지 않을 가능성이 있다. 좌측을 기준으로 첫번째와 마지막 이진화 결과(40)를 살펴보면, 흰색영역으로 완벽히 구분되어야 하는 빨간색 박스 영역의 일부분이 누락되어 이진화 결과(40)로 표현됨을 알 수 있다.Referring to FIG. 4 , the white area of the crosswalk photographed by the
따라서, 전술한 문제를 개선하기 위해 본 발명의 일 실시 예에 따른 횡단보도 검출부(120)는 횡단보도 패턴에 대한 모폴로지(Morphology) 기법에 기반한 색상 보정을 수행할 수 있다. 즉, 횡단보도 검출부(120)는 이진화 단계의 전후에 모폴로지를 통한 전처리 및 후처리를 수행하여 흰색영역의 도색 상태를 개선할 수 있다. 모폴로지란 영상 내 원하는 부분만 추출하거나, 영상 내 물체 구조의 형태를 표현하는데 필요한 요소를 추출하거나, 영상 내 물체의 구조를 명확하게 하기 위한 연산 기법을 말한다. 따라서, 본 발명에서는 이진화 과정에서 발생하는 불명확한 물체 영역을 명확하게 하기 위한 모폴로지 기법이 이용될 수 있다.Therefore, in order to improve the above-described problem, the
도 5는 장애물의 존재 여부에 따른 (a) 종래 기본적인 방식의 이진화 결과(40), (b) 본 발명의 일 실시 예에 따른 이진화 결과(30)를 나타낸다.5 shows (a) a
만일 제 1 관심영역(21) 내에 장애물이 존재한다면, 통상적인 이진화를 수행하는 경우에 도 5의 (a)와 같은 문제가 발생한다. 도 5의 (a)의 상단 이미지는 제 1 관심영역(21)이 설정된 전방 영상(10)이며, 하단 이미지는 오츠(OTSU) 알고리즘에 따른 이진화 결과(51)를 나타낸다. 도 5의 (a)의 상단 이미지의 노란색 점선으로 표시된 영역에 장애물의 역할을 하는 차량이 존재하기 때문에, 통상의 이진화 방식을 이용하는 경우에는 도 5의 (a)의 하단 이미지와 같이 횡단보도의 흰색영역과 회색영역이 분리되지 못하는 현상이 발생한다. 따라서, 통상적인 이진화 기법을 개선하여 이러한 문제 상황을 해결할 필요가 있다. If an obstacle exists in the first region of
이를 위한 개선 방법 중 하나가 도 3을 참조하여 설명한 본 발명의 일 실시 예에 따른 이진화 방식이다. 도 5의 (b)의 상단 이미지는 제 1 관심영역(21)이 설정된 전방 영상(10)이며, 하단 이미지는 본 발명의 일 실시 예에 따른 이진화 결과(52)를 나타낸다. 도 5의 (b)의 상단 이미지에 노란색 점선으로 표시된 영역과 같이 장애물이 존재하더라도, 본 발명의 일 실시 예에 다른 이진화 방식을 이용하면, 도 5의 (b)의 하단 이미지와 같이 횡단보도의 흰색영역과 회색영역을 명확히 분리할 수 있다.One of the improvement methods for this is the binarization method according to an embodiment of the present invention described with reference to FIG. 3 . The upper image of FIG. 5B is the
도 6은 본 발명의 일 실시 예에 따른 투영 데이터 및 진행방향에 따른 기울기 변화를 보여주는 그래프이다.6 is a graph showing a change in inclination according to projection data and a moving direction according to an embodiment of the present invention.
사용자가 정확하게 횡단보도의 수직방향으로 보행하는 경우, 정상적으로 이진화된 제 1 관심영역(30) 및 그래프 형태의 투영 데이터는 도 6의 (a)와 같이 나타날 수 있다. 이때, 투영 데이터의 X축은 이진화된 제 1 관심영역(30)의 수직길이, Y축은 픽셀값을 나타낼 수 있다. Y축으로 표시되는 픽셀값은 투영 데이터 상에서 누적된 화소수 또는 크기를 의미한다. 도 6의 (a)의 우측 그래프를 참조하면, 투영 데이터의 픽셀값들은 횡단보도의 패턴에 따라 명확히 구별되는 구형파(square wave) 형태의 분포를 보임을 알 수 있다. 구형파 형태의 분포에 의해 발생한 경계에서는 픽셀값들이 급격히 변화하므로, 이러한 변화를 통해 사용자가 정확하게 정확하게 횡단보도의 수직방향으로 보행하고 있음이 파악될 수 있다.When the user accurately walks in the vertical direction of the crosswalk, the normally binarized first region of
반면, 사용자가 횡단보도의 수평방향을 기준으로 소정의 각도(e.g. 40도)로 보행하는 경우, 정상적으로 이진화된 제 1 관심영역(30) 및 그래프 형태의 투영 데이터는 도 6의 (b)와 같이 나타날 수 있다. 도 6의 (b)의 우측 그래프를 참조하면, 도 6의 (a)와는 다르게 투영 데이터의 픽셀값들이 변화하는 경계가 소정의 기울기를 가지면서 변화함을 확인할 수 있다. 즉, 이와 같은 변화가 발생하는 구간의 기울기를 구하거나 밝기를 비교함으로써, 사용자가 어떤 방향으로 횡단보도를 보행하고 있는지가 파악될 수 있다.On the other hand, when the user walks at a predetermined angle (eg 40 degrees) based on the horizontal direction of the crosswalk, the normally binarized first region of
다시 말해서, 본 발명의 일 실시 예에 따른 진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써(e.g. 기울기를 추정하거나 구간의 밝기를 비교 등), 횡단보도 패턴이 기울어진 방향을 추정하고, 사용자의 진행방향을 판단할 수 있다.In other words, the progress
도 7은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법을 나타낸 순서도이다.7 is a flowchart illustrating a guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention.
도 7을 참조하면, 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법은, 시각장애인이 착용한 단말(200)로부터 전달되는 전방 영상(10)을 수집하는 단계(S10), 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 설정하고, 제 1 관심영역들(20)에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들(21)을 추정하는 단계(S20), 전방 영상(10)의 중심 일 영역을 제 2 관심영역으로 설정하고, 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 후보영역들에 포함된 보행신호의 상태를 판단하는 단계(S30), 횡단보도에 해당하는 제 1 관심영역들(21)을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정하는 단계(S40) 및 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 기초로 단말(200)의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 단계(S50)를 포함할 수 있다.Referring to FIG. 7 , the guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention includes the steps of collecting the front image 10 transmitted from the terminal 200 worn by the visually impaired (S10) , set a plurality of first regions of interest 20 for the front image 10, and through at least one of feature-based analysis or machine learning for the first regions of interest 20, the first corresponding to the crosswalk 1 Step of estimating the regions of interest 21 ( S20 ), setting one central region of the front image 10 as the second region of interest, and performing at least one of feature-based analysis or machine learning for the second region of interest estimating candidate regions including the gait signal among the second regions of interest through the step of determining the state of the gait signal included in the candidate regions (S30), based on the first regions of interest 21 corresponding to the crosswalk estimating the moving direction of the visually impaired by generating projection data based on the horizontal direction and analyzing the gradient change of pixel values constituting the projection data (S40) and a crosswalk detection unit 120, a walking signal detection unit ( 130) and generating (S50) walking guide information output to the user interface of the terminal 200 based on the output data of the proceeding direction determining unit 140 .
본 발명의 일 실시 예에 따른 방법과 관련하여서는 전술한 장치에 대한 내용이 적용될 수 있다. 따라서, 방법과 관련하여, 전술한 장치에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.Regarding the method according to an embodiment of the present invention, the contents of the above-described apparatus may be applied. Accordingly, in relation to the method, descriptions of the same contents as those of the above-described apparatus are omitted.
한편, 본 발명의 일 실시 예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 다시 말해서, 전술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록 매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크, 메모리 카드 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.Meanwhile, according to an embodiment of the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above-described method is recorded in a computer. In other words, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium. In addition, the structure of the data used in the above-described method may be recorded in a computer-readable medium through various means. A recording medium for recording an executable computer program or code for performing various methods of the present invention should not be construed as including temporary objects such as carrier waves or signals. The computer-readable medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, a memory card, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. .
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 장치를 나타낸 블록도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 가이드 장치(100)는 시각장애인(이하, 사용자)가 착용한 단말(200)과 연동 가능한 장치로서, 단말(200)로부터 전송되는 전방 영상(10)을 분석하여 사용자의 횡단보도에서의 안정적인 보행을 유도할 수 있다. 이때, 가이드 장치(100)는 사용자가 착용한 단말(200)과 유무선 네트워크 통신이 가능하며, 사용자가 착용한 단말(200)에서 구동 가능한 유저 인터페이스를 통해 보행 가이드 정보를 출력할 수 있다.
구체적으로, 본 발명의 일 실시 예에 따른 가이드 장치(100)는 사용자가 착용한 단말(200)로부터 전달되는 전방 영상(10)을 수집하는 영상 획득부(110)를 포함할 수 있다. 전방 영상(10)이란 사용자의 이동방향을 기준으로 단말(200)이 착용된 신체가 향하는 방향의 영상을 말한다. 예를 들어, 사용자가 헤드 마운티드 디스플레이(HMD) 방식의 단말을 착용하고 있다면, 사용자의 이동방향을 기준으로 머리가 향하는 방향의 영상들이 전방 영상(10)으로 촬영되고, 이는 영상 획득부(110)로 전달될 수 있다. 이때, 영상 획득부(110)는 사용자가 착용한 단말(200)로부터 수집되는 전방 영상들(10)의 전후 변화를 분석함으로써, 머리의 움직임으로 인해 이동방향에서 크게 벗어난 영상들은 전방 영상(10)이 아닌 것으로 판단하고, 이러한 영상들은 자체적으로 삭제할 수 있다.
본 발명의 일 실시 예에 따른 가이드 장치(100)는 전방 영상(10)에 횡단보도가 존재하는지를 파악하는 횡단보도 검출부(120)를 포함할 수 있다. 횡단보도 검출부(120)는 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 설정할 수 있다. 전방 영상(10)의 전체 영역이 아닌 일부 영역들을 제 1 관심영역들(20)로 설정하는 것은 실시간으로 보행을 가이드해야 하는 상황에서 정확도를 유지하면서 신속한 분석이 이루어지도록 하기 위함이다. 이때, 복수개의 제 1 관심영역들(20)의 크기, 개수 등은 수집된 전방 영상(10)의 크기에 의해 자동으로 결정될 수도 있고, 유저 인터페이스를 통해 인가된 외부 입력을 통해 설정 또는 변경될 수도 있다.
횡단보도 검출부(120)는 제 1 관심영역들(20) 각각에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들(21)을 추정할 수 있다. 특징 기반의 분석은 제 1 관심영역들(20)에 포함된 횡단보도 패턴의 형태, 크기, 색상 등과 같은 특징요소들을 분석하는 것을 말한다. 예를 들어, 횡단보도 패턴에 대한 특징 기반의 분석에는 흰색영역과 회색영역이 일정한 두께를 가지고 교대로 반복되는지 여부, 횐색영역과 회색영역의 면적의 비율이 비슷한지 여부, 이중모드(bi-modal) 형태의 밝기 분포를 가지는지 여부 등에 대한 분석이 포함될 수 있다. 이때, 횡단보도 검출부(120)는 특징 기반의 분석 과정에서 횡단보도 패턴에 대한 분석 정확도를 향상시키기 위해서 제 1 관심영역들(20)에 대한 이진화를 수행한다. 이진화에 대한 보다 자세한 내용은 도 3을 참조하여 후술하도록 한다.
한편, 기계학습은 이미지 기반의 지도학습, 비지도학습, 강화학습 및 딥러닝 등을 모두 포함한다. 예를 들어, 기계학습 알고리즘에는 서포트 벡터 머신(support vector machine, SVM), 랜덤 트리(random tree), 컨볼루션 신경망(convolutional neural network, CNN) 등이 포함될 수 있다. 횡단보도 검출부(120)는 전술한 예시와 같은 기계학습 알고리즘을 이용하여 제 1 관심영역들(20)에 횡단보도가 포함되어 있는지를 학습하고, 학습된 결과를 기초로 실시간으로 수집되는 전방 영상(10)에 횡단보도가 존재하는지를 파악할 수 있다.
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도에 설치된 신호등과 같은 보행신호의 점등을 확인하기 위한 보행신호 검출부(130)를 포함할 수 있다. 보행신호 검출부(130)는 전방 영상(10)의 중심 일 영역을 제 2 관심영역으로 설정할 수 있다. 즉, 보행신호 검출부(130)는 횡단보도 검출부(120)와는 별개로 전방 영상(10)에 대한 관심영역을 설정한다. 예를 들어, 보행자용 신호등의 경우, 일반적으로 사람의 신장에 비해 상측에 위치하므로, 보행신호 검출부(130)는 전방 영상(10)에서 중심을 기준으로 1/2 영역을 제 2 관심영역으로 설정할 수 있다. 이때, 제 2 관심영역을 결정하는 기준 등은 수집된 전방 영상(10)의 크기에 의해 자동으로 결정될 수도 있고, 유저 인터페이스를 통해 인가된 외부 입력을 통해 설정 또는 변경될 수도 있다.
보행신호 검출부(130)는 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정할 수 있다. 특징 기반의 분석은 제 2 관심영역에 포함된 보행신호의 형태, 크기, 색상 등과 같은 특징요소들을 분석하는 것을 말한다. 예를 들어, 보행신호에 대한 특징 기반의 분석에는 빨간색 또는 초록색의 점등영역이 존재하는지 여부, 점등영역의 형태가 원형이 아니라 사람 모양인지 여부 등에 대한 분석이 포함될 수 있다.
이때, 보행자용 신호등의 경우, 차량용 신호등과 달리 주위에 시각적 방해요소들이 존재할 가능성이 높으며, 야간에는 주위 조명의 영향으로 인해 후보영역의 오검출 사례가 증가할 수 있다. 따라서, 보행신호 검출부(130)는 제 2 관심영역 내에서 보행신호가 포함된 것으로 판단되는 복수개의 후보영역들을 추정함으로써, 보행신호를 판단함에 있어 발생할 수 있는 오검출의 확률을 낮추는 작업을 수행할 수 있다. 즉, 보행신호 검출부(130)는 하나의 제 2 관심영역 내에서 추출된 모든 후보영역들을 보행신호의 상태를 판단하기 위한 고려 대상으로 선택한다.
보행신호 검출부(130)는 전술한 과정을 통해 선택된 후보영역들에 포함된 보행신호의 상태를 판단할 수 있다. 예를 들어, 보행신호 검출부(130)는 후보영역들에 포함된 보행신호에서 빨간색 신호 또는 초록색 신호의 점등 변화를 검출할 수 있다. 만약 초록색 신호가 점등된다면, 초록색 신호의 점멸 여부를 판단할 수 있다. 또한, 화살표 모양 또는 숫자 모양으로 시간을 표시하는 영역이 존재하는 경우, 신호가 바뀌기까지 남은 시간을 추정할 수 있다. 이와 같은 보행신호의 상태에 대한 판단은 복수개의 후보영역들에 대한 비교를 통해 정확도를 향상시킬 수 있다.
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도를 건너는 상황에서 사용자의 이동방향을 실시간으로 파악하는 진행방향 판단부(140)를 포함할 수 있다. 진행방향의 판단은 횡단보도 검출부(120)에서 횡단보도라고 검출된 제 1 관심영역들(20)에 대해서 수행될 수 있다. 이때, 사용자가 횡단보도를 따라서 보행중인 상황에서는 주위 보행자 등과 같은 장애물이 존재할 수 있으므로, 횡단보도로 판단되는 제 1 관심영역들(20)은 전방 영상(10)의 프레임마다 바뀔 수 있다.
진행방향 판단부(140)는 투영 데이터 생성을 위해서 횡단보도에 해당하는 제 1 관심영역들(21)에 대한 이진화 결과(30)를 사용할 수 있다. 즉, 진행방향 판단부(140)는 정상적으로 이진화된 제 1 관심영역들(30)이 횡단보도의 수평방향을 기준으로 얼만큼 변화했는지를 나타내기 위한 투영 데이터를 생성할 수 있다. 예를 들어, 사용자가 정확하게 횡단보도를 수직하게 가로질러 간다면, 투영 데이터에는 횡단보도 패턴에 맞추어 데이터값 간의 명확한 경계와 경계의 급격한 변화가 나타날 수 있다. 사용자가 횡단보도를 비스듬하게 건너고 있다면, 투영 데이터에는 데이터값 간의 불분명한 경계와 소정의 기울기를 가진 경계의 변화가 나타날 수 있다.
진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정할 수 있다. 전술하였듯이 횡단보도를 기준으로 한 사용자의 이동방향에 따라 투영 데이터에는 픽셀값들의 변화가 발생하는 구간에서 기울기 변화가 발생할 수 밖에 없다. 따라서, 진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 기초로 사용자가 횡단보도를 정확한 방향으로 건너고 있는지를 파악할 수 있다. 기울기 판단에 대한 보다 자세한 내용은 도 6을 참조하여 후술하도록 한다.
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 기초로 단말(200)의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 정보 분석부(150)를 포함할 수 있다. 즉, 정보 분석부(150)는 전방 영상(10)을 기초로 분석된 결과에 대한 피드백을 사용자에게 제공해주는 역할을 수행한다. 이때, 정보 분석부(150)는 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 개별적으로 전달받아 분석하고, 각각의 분석 결과에 대한 보행 가이드 정보를 개별적으로 생성한다.
정보 분석부(150)는 횡단보도에 해당하는 제 1 관심영역들(21)의 개수가 소정의 기준개수 이상인 경우, 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성할 수 있다. 예를 들어, 8개의 제 1 관심영역들 중 횡단보도에 해당하는 제 1 관심영역들이 3개 이상이고, 횡단보도와 사용자의 거리가 소정의 범위값 이내인 것으로 판단되면, 정보 분석부(150)는 횡단보도에 접근했음을 알리는 보행 가이드 정보를 생성할 수 있다. 이때, 보행 가이드 정보는 단말(200)의 유저 인터페이스를 통해 "전방에 횡단보도가 있으니, 일단 정지하시기 바랍니다." 라는 문구의 사운드 형태로 출력될 수 있다.
정보 분석부(150)는 후보영역들에 포함된 보행신호의 상태를 기초로 시각장애인의 정지 또는 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성할 수 있다. 예를 들어, 보행신호가 빨간색 신호인 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "현재 정지신호입니다. 정지하시기 바랍니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다. 초록색 신호라도 신호가 점멸하거나 화살표 및 숫자를 통해 횡단하기에 시간이 부족하다고 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "남은 시간이 부족합니다. 정지하시기 바랍니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다.
또한, 빨간색 신호에서 초록색 신호로 보행신호가 변화한 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "보행신호로 변경되었습니다. 횡단보도를 건너갈 수 있습니다." 라는 문구로 출력되는 보행를 유도하는 보행 가이드 정보를 생성할 수 있다. 빨간색 신호와 초록색 신호가 동시에 점등된 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "신호등이 고장났습니다. 이 횡단보도를 이용할 수 없습니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다.
정보 분석부(150)는 시각장애인의 진행방향이 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 시각장애인의 진행방향을 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성할 수 있다. 이때, 소정의 각도범위는 횡단보도의 너비, 횡단보도의 최초 진입지점, 현재 이동지점 등을 기준으로 자동으로 결정될 수 있다. 예를 들어, 사용자가 정상 범위 내에서 횡단보도를 보행하는 것으로 판단되는 경우, 정보 분석부(150)는 별도의 보행 가이드 정보를 생성하지 않는다. 다만, 유저 인터페이스를 통해 사용자로부터 보행 가이드 정보가 요청되는 경우, 정보 분석부(150)는 "현재 방향을 유지하십시오." 라는 문구로 출력되는 보행 가이드 정보를 생성할 수 있다. 사용자의 진행방향이 좌측(또는 우측)으로 일정 각도를 넘어선 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "우측 (또는 좌측)으로 방향을 조정하시기 바랍니다." 라는 문구로 출력되는 보행 가이드 정보를 생성할 수 있다.
전술한 보행 가이드 정보들은 유저 인터페이스를 통해 사용자에게 실시간으로 제공되므로, 사용자는 사운드 형태로 출력되는 보행 가이드 정보를 기초로 횡단보도를 안정적으로 보행할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 나타내고, 도 3은 본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들(20)에 대한 이진화 결과(30)를 나타낸다.
본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들(20)은 전방 영상(10) 내에서 소정의 간격으로 설정될 수 있다. 이때, 관심영역에 대한 판단 정확도를 높이기 위해서 제 1 관심영역들(20)은 도 2와 같이 전방영상의 수직방향을 기준으로 직사각형 형태로 설정될 수 있다. 전방에 횡단보도가 존재했을 때, 주위의 사람이나 도로를 주행하는 차량 등의 장애물 때문에 일부분 또는 여러 부분이 가려질 가능성이 높다. 따라서, 횡단보도 상의 일부 관심영역이 장애물로 인해 가려진 경우에도 횡단보도 검출의 신뢰도를 높이기 위해서 제 1 관심영역들(20)은 도 2와 같이 복수개로 설정될 수 있다.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 횡단보도 검출부(120)는 복수개의 제 1 관심영역들(21) 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행할 수 있다. 관심영역 내에 다른 장애물 없이 횡단보도만 존재한다면, 관심영역의 픽셀은 이중모드(bi-modal) 형태의 분포를 가지므로, 이진화는 제 1 관심영역들(21) 내에 횡단보도의 패턴을 명확히 표현하는 과정으로 이해할 수 있다. 예를 들어, 횡단보도 검출부(120)는 흰색영역과 회색(또는 검은색)영역의 평균 밝기 값의 차이, 흰색영역의 면적 비율, 수직방향을 따라 횐색영역에서 회색영역으로, 회색영역에서 흰색영역으로 변환되는 횟수 등을 기초로 제 1 관심영역(21) 내에 횡단보도 패턴을 결정할 수 있다.
구체적으로, 횡단보도 검출부(120)는 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 1차 이진화를 수행할 수 있다. 1차 이진화가 완료되면, 그 결과로 나타난 흰색영역(i.e. 횡단보도 영역)의 평균값과 분산값을 추정할 수 있다. 이때, 분산값이 충분히 작은 경우(i.e. 소정의 기준값 이하인 경우), 횡단보도 검출부(120)는 1차 이진화가 완료된 제 1 관심영역들(30)을 횡단보도 판정을 위한 데이터로 사용할 수 있다. 반대로, 분산값이 큰 경우(i.e. 소정의 기준값 이상인 경우), 횡단보도 검출부(120)는 흰색영역의 평균값을 임계값으로 하는 2차 이진화를 추가적으로 수행할 수 있다. 이와 같은 이진화의 반복적 수행을 통해 횡단보도 패턴을 보다 정확히 결정하여 분석 정확도를 향상시킬 수 있다.
도 4는 횡단보도의 도색상태 불량에 따른 이진화 문제를 나타낸다.
도 4를 참조하면, 전방 영상(10)으로 촬영된 횡단보도의 흰색영역이 노란색 점선으로 표시된 부분과 같이 일부가 벗겨지거나 도색 상태가 불량한 경우가 발생할 수 있다. 이와 같이 전방 영상(10)으로 촬영된 횡단보도의 흰색영역의 도색 상태가 불량한 경우, 이진화 수행 결과가 바람직하지 않을 가능성이 있다. 좌측을 기준으로 첫번째와 마지막 이진화 결과(40)를 살펴보면, 흰색영역으로 완벽히 구분되어야 하는 빨간색 박스 영역의 일부분이 누락되어 이진화 결과(40)로 표현됨을 알 수 있다.
따라서, 전술한 문제를 개선하기 위해 본 발명의 일 실시 예에 따른 횡단보도 검출부(120)는 횡단보도 패턴에 대한 모폴로지(Morphology) 기법에 기반한 색상 보정을 수행할 수 있다. 즉, 횡단보도 검출부(120)는 이진화 단계의 전후에 모폴로지를 통한 전처리 및 후처리를 수행하여 흰색영역의 도색 상태를 개선할 수 있다. 모폴로지란 영상 내 원하는 부분만 추출하거나, 영상 내 물체 구조의 형태를 표현하는데 필요한 요소를 추출하거나, 영상 내 물체의 구조를 명확하게 하기 위한 연산 기법을 말한다. 따라서, 본 발명에서는 이진화 과정에서 발생하는 불명확한 물체 영역을 명확하게 하기 위한 모폴로지 기법이 이용될 수 있다.
도 5는 장애물의 존재 여부에 따른 (a) 종래 기본적인 방식의 이진화 결과(40), (b) 본 발명의 일 실시 예에 따른 이진화 결과(30)를 나타낸다.
만일 제 1 관심영역(21) 내에 장애물이 존재한다면, 통상적인 이진화를 수행하는 경우에 도 5의 (a)와 같은 문제가 발생한다. 도 5의 (a)의 상단 이미지는 제 1 관심영역(21)이 설정된 전방 영상(10)이며, 하단 이미지는 오츠(OTSU) 알고리즘에 따른 이진화 결과(51)를 나타낸다. 도 5의 (a)의 상단 이미지의 노란색 점선으로 표시된 영역에 장애물의 역할을 하는 차량이 존재하기 때문에, 통상의 이진화 방식을 이용하는 경우에는 도 5의 (a)의 하단 이미지와 같이 횡단보도의 흰색영역과 회색영역이 분리되지 못하는 현상이 발생한다. 따라서, 통상적인 이진화 기법을 개선하여 이러한 문제 상황을 해결할 필요가 있다.
이를 위한 개선 방법 중 하나가 도 3을 참조하여 설명한 본 발명의 일 실시 예에 따른 이진화 방식이다. 도 5의 (b)의 상단 이미지는 제 1 관심영역(21)이 설정된 전방 영상(10)이며, 하단 이미지는 본 발명의 일 실시 예에 따른 이진화 결과(52)를 나타낸다. 도 5의 (b)의 상단 이미지에 노란색 점선으로 표시된 영역과 같이 장애물이 존재하더라도, 본 발명의 일 실시 예에 다른 이진화 방식을 이용하면, 도 5의 (b)의 하단 이미지와 같이 횡단보도의 흰색영역과 회색영역을 명확히 분리할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 투영 데이터 및 진행방향에 따른 기울기 변화를 보여주는 그래프이다.
사용자가 정확하게 횡단보도의 수직방향으로 보행하는 경우, 정상적으로 이진화된 제 1 관심영역(30) 및 그래프 형태의 투영 데이터는 도 6의 (a)와 같이 나타날 수 있다. 이때, 투영 데이터의 X축은 이진화된 제 1 관심영역(30)의 수직길이, Y축은 픽셀값을 나타낼 수 있다. Y축으로 표시되는 픽셀값은 투영 데이터 상에서 누적된 화소수 또는 크기를 의미한다. 도 6의 (a)의 우측 그래프를 참조하면, 투영 데이터의 픽셀값들은 횡단보도의 패턴에 따라 명확히 구별되는 구형파(square wave) 형태의 분포를 보임을 알 수 있다. 구형파 형태의 분포에 의해 발생한 경계에서는 픽셀값들이 급격히 변화하므로, 이러한 변화를 통해 사용자가 정확하게 정확하게 횡단보도의 수직방향으로 보행하고 있음이 파악될 수 있다.
반면, 사용자가 횡단보도의 수평방향을 기준으로 소정의 각도(e.g. 40도)로 보행하는 경우, 정상적으로 이진화된 제 1 관심영역(30) 및 그래프 형태의 투영 데이터는 도 6의 (b)와 같이 나타날 수 있다. 도 6의 (b)의 우측 그래프를 참조하면, 도 6의 (a)와는 다르게 투영 데이터의 픽셀값들이 변화하는 경계가 소정의 기울기를 가지면서 변화함을 확인할 수 있다. 즉, 이와 같은 변화가 발생하는 구간의 기울기를 구하거나 밝기를 비교함으로써, 사용자가 어떤 방향으로 횡단보도를 보행하고 있는지가 파악될 수 있다.
다시 말해서, 본 발명의 일 실시 예에 따른 진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써(e.g. 기울기를 추정하거나 구간의 밝기를 비교 등), 횡단보도 패턴이 기울어진 방향을 추정하고, 사용자의 진행방향을 판단할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법을 나타낸 순서도이다.
도 7을 참조하면, 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법은, 시각장애인이 착용한 단말(200)로부터 전달되는 전방 영상(10)을 수집하는 단계(S10), 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 설정하고, 제 1 관심영역들(20)에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들(21)을 추정하는 단계(S20), 전방 영상(10)의 중심 일 영역을 제 2 관심영역으로 설정하고, 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 후보영역들에 포함된 보행신호의 상태를 판단하는 단계(S30), 횡단보도에 해당하는 제 1 관심영역들(21)을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정하는 단계(S40) 및 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 기초로 단말(200)의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 단계(S50)를 포함할 수 있다.
본 발명의 일 실시 예에 따른 방법과 관련하여서는 전술한 장치에 대한 내용이 적용될 수 있다. 따라서, 방법과 관련하여, 전술한 장치에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.
한편, 본 발명의 일 실시 예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 다시 말해서, 전술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록 매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크, 메모리 카드 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.
The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" described in the specification mean a unit for processing at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention. However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
1 is a block diagram illustrating a guide device for walking in a crosswalk for a visually impaired person according to an embodiment of the present invention.
Referring to FIG. 1 , a
Specifically, the
The
The
Meanwhile, machine learning includes image-based supervised learning, unsupervised learning, reinforcement learning, and deep learning. For example, the machine learning algorithm may include a support vector machine (SVM), a random tree, a convolutional neural network (CNN), and the like. The
The
The
At this time, in the case of a traffic light for pedestrians, unlike a traffic light for a vehicle, there is a high possibility that there are visual obstructions around, and the cases of false detection of a candidate area may increase due to the influence of ambient lighting at night. Accordingly, the
The
The
The traveling
The moving
The
If the number of the first regions of
The
In addition, when it is determined that the walking signal has changed from the red signal to the green signal, the
The
Since the above-described walking guide information is provided to the user in real time through the user interface, the user can stably walk in the crosswalk based on the walking guide information output in the form of sound.
2 shows a plurality of
The plurality of first regions of
Referring to FIG. 3 , the
Specifically, the
4 shows the binarization problem according to the poor paint condition of the crosswalk.
Referring to FIG. 4 , the white area of the crosswalk photographed by the
Therefore, in order to improve the above-described problem, the
5 shows (a) a
If an obstacle exists in the first region of
One of the improvement methods for this is the binarization method according to an embodiment of the present invention described with reference to FIG. 3 . The upper image of FIG. 5B is the
6 is a graph showing a change in inclination according to projection data and a moving direction according to an embodiment of the present invention.
When the user accurately walks in the vertical direction of the crosswalk, the normally binarized first region of
On the other hand, when the user walks at a predetermined angle (eg 40 degrees) based on the horizontal direction of the crosswalk, the normally binarized first region of
In other words, the progress
7 is a flowchart illustrating a guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention.
Referring to FIG. 7 , the guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention includes the steps of collecting the front image 10 transmitted from the terminal 200 worn by the visually impaired (S10) , set a plurality of first regions of interest 20 for the front image 10, and perform a first corresponding to a crosswalk through at least one of feature-based analysis or machine learning for the first regions of interest 20 1 Step of estimating the regions of interest 21 ( S20 ), setting one central region of the front image 10 as the second region of interest, and performing at least one of feature-based analysis or machine learning for the second region of interest estimating candidate regions including the gait signal among the second regions of interest through the step of determining the state of the gait signal included in the candidate regions (S30), based on the first regions of interest 21 corresponding to the crosswalk estimating the moving direction of the visually impaired by generating projection data based on the horizontal direction and analyzing the gradient change of pixel values constituting the projection data (S40) and a crosswalk detection unit 120, a walking signal detection unit ( 130) and generating (S50) walking guide information output to the user interface of the terminal 200 based on the output data of the proceeding direction determining unit 140 .
Regarding the method according to an embodiment of the present invention, the contents of the above-described apparatus may be applied. Accordingly, in relation to the method, descriptions of the same contents as those of the above-described apparatus are omitted.
Meanwhile, according to an embodiment of the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above-described method in a computer is recorded. In other words, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium. In addition, the structure of the data used in the above-described method may be recorded in a computer-readable medium through various means. A recording medium for recording an executable computer program or code for performing various methods of the present invention should not be construed as including temporary objects such as carrier waves or signals. The computer-readable medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, a memory card, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).
The description of the present invention described above is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.
The scope of the present invention is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .
Claims (16)
시각장애인이 착용한 단말로부터 전달되는 전방 영상을 수집하는 영상 획득부;
상기 전방 영상에 대한 복수개의 제 1 관심영역들을 설정하고, 상기 제 1 관심영역들에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들을 추정하는 횡단보도 검출부;
상기 전방 영상의 중심 일 영역을 제 2 관심영역으로 설정하고, 상기 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 상기 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 상기 후보영역들에 포함된 보행신호의 상태를 판단하는 보행신호 검출부;
상기 횡단보도에 해당하는 제 1 관심영역들을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 상기 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 상기 시각장애인의 진행방향을 추정하는 진행방향 판단부; 및
상기 횡단보도 검출부, 보행신호 검출부 및 진행방향 판단부의 출력 데이터를 기초로 상기 단말의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 정보 분석부를 포함하는 장치.
In the guide device for walking in a crosswalk for the visually impaired,
An image acquisition unit for collecting the front image transmitted from the terminal worn by the visually impaired;
A crosswalk detection unit that sets a plurality of first ROIs for the front image and estimates first ROIs corresponding to a crosswalk through at least one of feature-based analysis or machine learning for the first ROIs ;
A central region of the front image is set as a second region of interest, and candidate regions including a walking signal among the second region of interest are estimated through at least one of a feature-based analysis of the second region of interest or machine learning. and a walking signal detector for determining the state of the walking signal included in the candidate regions;
A moving direction for estimating the moving direction of the visually impaired by generating projection data based on the horizontal direction based on the first regions of interest corresponding to the crosswalk, and analyzing the gradient change of pixel values constituting the projection data judging unit; and
An apparatus including an information analysis unit for generating walking guide information output to a user interface of the terminal based on the output data of the crosswalk detection unit, the walking signal detection unit, and the traveling direction determination unit.
상기 횡단보도 검출부는,
상기 복수개의 제 1 관심영역들 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행하고, 상기 이진화를 기초로 상기 복수개의 제 1 관심영역들이 횡단보도에 해당하는지를 개별적으로 판단하는 것을 특징으로 하는 장치.
The method of claim 1,
The crosswalk detection unit,
performing binarization based on the characteristics of the crosswalk pattern identified in each of the plurality of first regions of interest, and individually determining whether the plurality of first regions of interest correspond to a crosswalk based on the binarization device to do.
상기 횡단보도 검출부는,
상기 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 이진화를 수행하고, 상기 이진화를 기초로 도출된 횡단보도 영역에 대한 평균값과 분산값을 추정하며, 상기 추정된 평균값과 분산값을 기초로 추가적인 이진화를 수행할지를 판단하는 것을 특징으로 하는 장치.
3. The method of claim 2,
The crosswalk detection unit,
Perform binarization using the average value of the characteristics of the crosswalk pattern as a threshold value, estimate the average value and variance value for the crosswalk area derived based on the binarization, and additionally based on the estimated average value and variance value An apparatus, characterized in that it determines whether to perform binarization.
상기 횡단보도 검출부는,
상기 횡단보도 패턴에 대한 모폴로지 기법에 기반한 형태 보정을 수행하는 것을 특징으로 하는 장치.
4. The method of claim 3,
The crosswalk detection unit,
Apparatus, characterized in that performing a shape correction based on the morphology technique for the crosswalk pattern.
상기 진행방향 판단부는,
상기 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써, 횡단보도 패턴이 기울어진 방향을 추정하는 것을 특징으로 하는 장치.
The method of claim 1,
The progress direction determination unit,
The device, characterized in that by analyzing a change in a section in which pixel values constituting the projection data change from a minimum value to a maximum value, the direction in which the pedestrian crossing pattern is inclined is estimated.
상기 정보 분석부는,
상기 횡단보도에 해당하는 제 1 관심영역들의 개수가 소정의 기준개수 이상인 경우, 상기 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 상기 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성하는 것을 특징으로 하는 장치.
The method of claim 1,
The information analysis unit,
When the number of first areas of interest corresponding to the crosswalk is greater than or equal to a predetermined reference number, it is determined that a crosswalk exists in front of the visually impaired, and generating walking guide information informing the approach to the crosswalk device characterized.
상기 정보 분석부는,
상기 후보영역들에 포함된 보행신호의 상태를 기초로 상기 시각장애인의 정지 또는 상기 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성하는 것을 특징으로 하는 장치.
The method of claim 1,
The information analysis unit,
Device characterized in that based on the state of the walking signal included in the candidate areas to generate walking guide information for inducing the visually impaired to stop or walk in the crosswalk.
상기 정보 분석부는,
상기 시각장애인의 진행방향이 상기 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 상기 시각장애인의 진행방향을 상기 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성하는 것을 특징으로 하는 장치.
The method of claim 1,
The information analysis unit,
When the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk, generating walking guide information for guiding the visually impaired person's moving direction within the predetermined angular range Device.
시각장애인이 착용한 단말로부터 전달되는 전방 영상을 수집하는 단계;
상기 전방 영상에 대한 복수개의 제 1 관심영역들을 설정하고, 상기 제 1 관심영역들에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들을 추정하는 단계;
상기 전방 영상의 중심 일 영역을 제 2 관심영역으로 설정하고, 상기 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 상기 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 상기 후보영역들에 포함된 보행신호의 상태를 판단하는 단계;
상기 횡단보도에 해당하는 제 1 관심영역들을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 상기 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 상기 시각장애인의 진행방향을 추정하는 단계; 및
상기 횡단보도 검출부, 보행신호 검출부 및 진행방향 판단부의 출력 데이터를 기초로 상기 단말의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 단계를 포함하는 방법.
In the guiding method for the visually impaired to walk in a crosswalk,
Collecting the front image transmitted from the terminal worn by the visually impaired;
setting a plurality of first ROIs for the front image, and estimating first ROIs corresponding to a crosswalk through at least one of feature-based analysis or machine learning of the first ROIs;
A central region of the front image is set as a second region of interest, and candidate regions including a walking signal among the second region of interest are estimated through at least one of a feature-based analysis of the second region of interest or machine learning. and determining the state of the walking signal included in the candidate regions;
generating projection data based on a horizontal direction based on the first regions of interest corresponding to the crosswalk, and estimating the moving direction of the visually impaired by analyzing a change in inclination of pixel values constituting the projection data; and
The method comprising the step of generating the walking guide information output to the user interface of the terminal based on the output data of the crosswalk detection unit, the walking signal detection unit, and the traveling direction determination unit.
상기 제 1 관심영역들을 추정하는 단계에서는,
상기 복수개의 제 1 관심영역들 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행하고, 상기 이진화를 기초로 상기 복수개의 제 1 관심영역들이 횡단보도에 해당하는지를 개별적으로 판단하는 것을 특징으로 하는 방법.
10. The method of claim 9,
In the step of estimating the first regions of interest,
performing binarization based on the characteristics of the crosswalk pattern identified in each of the plurality of first regions of interest, and individually determining whether the plurality of first regions of interest correspond to a crosswalk based on the binarization how to do it
상기 제 1 관심영역들을 추정하는 단계에서는,
상기 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 이진화를 수행하고, 상기 이진화를 기초로 도출된 횡단보도 영역에 대한 평균값과 분산값을 추정하며, 상기 추정된 평균값과 분산값을 기초로 추가적인 이진화를 수행할지를 판단하는 것을 특징으로 하는 방법.
11. The method of claim 10,
In the step of estimating the first regions of interest,
Perform binarization using the average value of the characteristics of the crosswalk pattern as a threshold value, estimate the average value and variance value for the crosswalk area derived based on the binarization, and additionally based on the estimated average value and variance value A method comprising determining whether to perform binarization.
상기 제 1 관심영역들을 추정하는 단계에서는,
상기 횡단보도 패턴에 대한 모폴로지 기법에 기반한 형태 보정을 수행하는 것을 특징으로 하는 방법.
12. The method of claim 11,
In the step of estimating the first regions of interest,
Method, characterized in that performing a shape correction based on the morphology technique for the crosswalk pattern.
상기 시각장애인의 진행방향을 추정하는 단계에서는,
상기 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써, 횡단보도 패턴이 기울어진 방향을 추정하는 것을 특징으로 하는 장치.
10. The method of claim 9,
In the step of estimating the progress direction of the visually impaired,
The device, characterized in that by analyzing a change in a section in which pixel values constituting the projection data change from a minimum value to a maximum value, the direction in which the pedestrian crossing pattern is inclined is estimated.
상기 보행 가이드 정보를 생성하는 단계에서는,
상기 횡단보도에 해당하는 제 1 관심영역들의 개수가 소정의 기준개수 이상인 경우, 상기 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 상기 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성하는 것을 특징으로 하는 방법.
10. The method of claim 9,
In the step of generating the walking guide information,
When the number of first areas of interest corresponding to the crosswalk is greater than or equal to a predetermined reference number, it is determined that a crosswalk exists in front of the visually impaired, and generating walking guide information informing the approach to the crosswalk How to characterize.
상기 보행 가이드 정보를 생성하는 단계에서는,
상기 후보영역들에 포함된 보행신호의 상태를 기초로 상기 시각장애인의 정지 또는 상기 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성하는 것을 특징으로 하는 방법.
10. The method of claim 9,
In the step of generating the walking guide information,
Based on the state of the walking signal included in the candidate areas, the method characterized in that the generation of walking guide information for inducing the visually impaired to stop or walk in the crosswalk.
상기 보행 가이드 정보를 생성하는 단계에서는,
상기 시각장애인의 진행방향이 상기 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 상기 시각장애인의 진행방향을 상기 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성하는 것을 특징으로 하는 방법.10. The method of claim 9,
In the step of generating the walking guide information,
When the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk, generating walking guide information for guiding the visually impaired person's moving direction within the predetermined angular range Way.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190179382A KR102304593B1 (en) | 2019-12-31 | 2019-12-31 | Crosswalk guide apparatus and method for pedestrians of the visually impaired |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190179382A KR102304593B1 (en) | 2019-12-31 | 2019-12-31 | Crosswalk guide apparatus and method for pedestrians of the visually impaired |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210085865A true KR20210085865A (en) | 2021-07-08 |
KR102304593B1 KR102304593B1 (en) | 2021-09-24 |
Family
ID=76894362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190179382A KR102304593B1 (en) | 2019-12-31 | 2019-12-31 | Crosswalk guide apparatus and method for pedestrians of the visually impaired |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102304593B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102607430B1 (en) | 2021-10-29 | 2023-11-29 | 경북보건대학교 산학협력단 | Bracelet apparatus for the elderly and disabled |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060008106A (en) * | 2004-07-23 | 2006-01-26 | 주식회사 팬택앤큐리텔 | Apparatus for guiding a blind person and method thereof, mobile communication terminal and personal digital assistant to guide a blind person |
KR20110004064A (en) * | 2009-07-07 | 2011-01-13 | 숭실대학교산학협력단 | Method for guiding a blind person and system therefor |
KR101661647B1 (en) * | 2015-02-23 | 2016-09-30 | 한남대학교 산학협력단 | Apparatus and method for guiding walking |
KR101845754B1 (en) | 2017-01-09 | 2018-04-05 | 주식회사 아이트릭스테크놀로지 | Independence walking guidance device for visually handicapped person |
KR101911598B1 (en) * | 2016-08-03 | 2018-10-24 | 울산대학교 산학협력단 | Pedestrian crossing traffic light image recognition method and apparatus for visually impaired People |
KR20190078712A (en) * | 2017-12-15 | 2019-07-05 | 노진송 | Deep learning technology base blind man Walking danger information guidance system and the method thereof |
-
2019
- 2019-12-31 KR KR1020190179382A patent/KR102304593B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060008106A (en) * | 2004-07-23 | 2006-01-26 | 주식회사 팬택앤큐리텔 | Apparatus for guiding a blind person and method thereof, mobile communication terminal and personal digital assistant to guide a blind person |
KR100609977B1 (en) * | 2004-07-23 | 2006-08-08 | 주식회사 팬택앤큐리텔 | Apparatus for guiding a blind person and Method thereof, Mobile communication terminal and Personal Digital Assistant to guide a blind person |
KR20110004064A (en) * | 2009-07-07 | 2011-01-13 | 숭실대학교산학협력단 | Method for guiding a blind person and system therefor |
KR101661647B1 (en) * | 2015-02-23 | 2016-09-30 | 한남대학교 산학협력단 | Apparatus and method for guiding walking |
KR101911598B1 (en) * | 2016-08-03 | 2018-10-24 | 울산대학교 산학협력단 | Pedestrian crossing traffic light image recognition method and apparatus for visually impaired People |
KR101845754B1 (en) | 2017-01-09 | 2018-04-05 | 주식회사 아이트릭스테크놀로지 | Independence walking guidance device for visually handicapped person |
KR20190078712A (en) * | 2017-12-15 | 2019-07-05 | 노진송 | Deep learning technology base blind man Walking danger information guidance system and the method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102304593B1 (en) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101517181B1 (en) | System and method for warning lane departure | |
JP4263737B2 (en) | Pedestrian detection device | |
JP5867596B2 (en) | Three-dimensional object detection apparatus and three-dimensional object detection method | |
JP4845698B2 (en) | Eye detection device, eye detection method, and program | |
KR20220000977A (en) | Apparatus and method for providing guidance information using crosswalk recognition result | |
US8498449B2 (en) | Eye detecting device, eye detecting method, and program | |
KR101982298B1 (en) | Method and apparatus for detecting sudden moving objecj appearance at vehicle | |
JP2000137792A (en) | Eye part detecting device | |
KR102161908B1 (en) | Driver status monitor method and apparatus | |
JP5530530B2 (en) | Vehicle periphery monitoring device | |
US10521679B2 (en) | Human detection device, human detection system, human detection method, and human detection program | |
US9558410B2 (en) | Road environment recognizing apparatus | |
KR102304593B1 (en) | Crosswalk guide apparatus and method for pedestrians of the visually impaired | |
CN111183454B (en) | Recognition device, recognition method, and recognition program | |
EP3207861A2 (en) | Detection system and detection method | |
KR101712673B1 (en) | Apparatus and Method for Detecting Center of Pupil | |
JP6077785B2 (en) | Object detection apparatus and program | |
JP5871069B2 (en) | Three-dimensional object detection apparatus and three-dimensional object detection method | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP2009037284A (en) | Traveling object recognition device | |
KR101965875B1 (en) | Method and apparatus for road guidance based in image processing | |
JP4996943B2 (en) | Facial feature point detection apparatus, facial feature point detection method, and program | |
JP2017202038A (en) | Discrimination device, discrimination method, and discrimination program | |
KR101617182B1 (en) | Method and apparatus for detecting realtime object region robust to vehicle headlight | |
KR20190088154A (en) | A method and apparatus for generating an alarm in accordance with driving on a lane in which entry is prohibited |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |