KR20210085865A - Crosswalk guide apparatus and method for pedestrians of the visually impaired - Google Patents

Crosswalk guide apparatus and method for pedestrians of the visually impaired Download PDF

Info

Publication number
KR20210085865A
KR20210085865A KR1020190179382A KR20190179382A KR20210085865A KR 20210085865 A KR20210085865 A KR 20210085865A KR 1020190179382 A KR1020190179382 A KR 1020190179382A KR 20190179382 A KR20190179382 A KR 20190179382A KR 20210085865 A KR20210085865 A KR 20210085865A
Authority
KR
South Korea
Prior art keywords
crosswalk
interest
regions
walking
visually impaired
Prior art date
Application number
KR1020190179382A
Other languages
Korean (ko)
Other versions
KR102304593B1 (en
Inventor
정경훈
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020190179382A priority Critical patent/KR102304593B1/en
Publication of KR20210085865A publication Critical patent/KR20210085865A/en
Application granted granted Critical
Publication of KR102304593B1 publication Critical patent/KR102304593B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • G06K9/3233
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/147Determination of region of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks
    • A61H2201/5012Control means thereof computer controlled connected to external computer devices or networks using the internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Rehabilitation Therapy (AREA)
  • Vascular Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Pain & Pain Management (AREA)
  • Medical Informatics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a guide device and method for walking in a crosswalk for visually impaired people. The device according to an embodiment of the present invention comprises: an image acquisition unit that collects a front image transmitted from a terminal worn by the visually impaired; a crosswalk detection unit that sets a plurality of first regions of interest for the front image, and estimates first regions of interest corresponding to the crosswalk through at least one of feature-based analysis or machine learning for the first regions of interest; a walking signal detection unit which sets one central region of the front image as second regions of interest, estimates candidate regions including a gait signal in the second regions of interest through at least one of feature-based analysis or machine learning for the second regions of interest, and determines the state of the walking signal included in the candidate areas; a progress direction determination unit for generating projection data on the basis of the horizontal direction on the basis of the first regions of interest corresponding to the crosswalk, and estimating the direction of movement of the visually impaired by analyzing the gradient change of pixel values constituting the projection data; and an information analysis unit that generates walking guide information output to the user interface of the terminal on the basis of the output data of the crosswalk detection unit, the walking signal detection unit, and the traveling direction determination unit.

Description

시각장애인의 횡단보도 보행을 위한 가이드 장치 및 방법{CROSSWALK GUIDE APPARATUS AND METHOD FOR PEDESTRIANS OF THE VISUALLY IMPAIRED}CROSSWALK GUIDE APPARATUS AND METHOD FOR PEDESTRIANS OF THE VISUALLY IMPAIRED

본 발명은 시각장애인의 횡단보도 보행을 위한 가이드 장치 및 방법에 관한 것으로, 더욱 상세하게는 시각장애인이 착용한 웨어러블 디바이스의 전방 영상을 분석하여 횡단보도를 건너는 상황에서의 안전한 보행을 유도하는 정보를 제공하는 장치 및 방법에 관한 것이다. The present invention relates to a guide apparatus and method for walking in a crosswalk for a visually impaired person, and more particularly, by analyzing a front image of a wearable device worn by a visually impaired person, information for inducing safe walking in a situation of crossing a crosswalk. It relates to an apparatus and method for providing.

시각장애인이 다른 사람의 도움 없이 원하는 목적지까지 안전하게 이동하는 것은 시각장애인의 삶의 질을 향상시킨다는 측면에서 중요한 문제이다. 시각장애인의 보행을 돕기 위한 도로 시설물로 점자블록이 있으며, 대부분의 시각장애인은 보행을 위해 지팡이를 사용한다. 지팡이를 이용하여 도로상에 존재하는 점자블록을 감각적으로 인식함으로써, 자신의 진행방향을 판단하고 선형 점자블록인지 점형 점자블록인지에 따라서 정지 상황에 대한 정보를 얻는다. It is an important issue in terms of improving the quality of life of the visually impaired to safely move to a desired destination without the help of others. There are braille blocks as road facilities to help the visually impaired walk, and most of the visually impaired use a cane for walking. By sensibly recognizing the braille blocks that exist on the road using a stick, it judges its own direction and obtains information about the stopping situation according to whether it is a linear braille block or a dotted braille block.

하지만, 시각장애인이 점자블록이 설치되어 있지 않은 횡단보도를 건너는 상황이 되면 문제가 발생한다. 우선, 시각장애인은 정지 점자블록을 인지하더라도 전방에 횡단보도가 존재하는지 알 수 없다. 또한, 소리를 통해 시각장애인에게 보행신호를 전달하는 횡단보도가 존재하나, 대부분의 경우 보행신호의 점등여부를 확인할 수 없다. However, a problem arises when a visually impaired person crosses a crosswalk that does not have braille blocks installed. First of all, even if the blind person recognizes the stop braille block, he cannot know whether there is a crosswalk in front of him. In addition, although there is a crosswalk that transmits a walking signal to the visually impaired through sound, in most cases, it is impossible to check whether the walking signal is on.

가장 큰 문제는 횡단보도에는 보행 방향을 유도하는 점자블록이 없으므로, 시각장애인이 제대로 된 방향으로 건너가고 있는지 알 수 없다. 따라서, 주행 차량으로 인해 위험에 노출될 가능성이 높은 횡단보도에서 시각장애인의 이동성을 확보하기 위해서는 안전한 보행을 유도하는 방법이 필요하다.The biggest problem is that there are no braille blocks to guide the walking direction at the crosswalk, so it is impossible to know whether the blind person is crossing in the correct direction. Therefore, in order to secure the mobility of the visually impaired in a crosswalk, which is likely to be exposed to danger due to a driving vehicle, a method of inducing safe walking is required.

대한민국 등록특허공보 제10-1845754호 (2018.04.05)Republic of Korea Patent Publication No. 10-1845754 (2018.04.05)

본 발명은 전술한 바와 같은 필요성에 의해 안출된 것으로서, 시각장애인이 횡단보도 및 횡단보도에 설치된 신호등과 같은 보행신호를 안정적으로 인식하도록 정보를 제공함과 동시에 횡단보도를 건너는 상황에서 올바른 방향으로 진행하도록 보조하는 장치 및 방법을 제공함에 목적이 있다.The present invention has been devised by the necessity as described above, and provides information so that the visually impaired can stably recognize walking signals such as crosswalks and traffic lights installed in crosswalks, and at the same time to proceed in the right direction in a situation of crossing the crosswalk. An object of the present invention is to provide an assisting apparatus and method.

본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 장치는, 시각장애인이 착용한 단말로부터 전달되는 전방 영상을 수집하는 영상 획득부, 전방 영상에 대한 복수개의 제 1 관심영역들을 설정하고, 제 1 관심영역들에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들을 추정하는 횡단보도 검출부, 전방 영상의 중심 일 영역을 제 2 관심영역으로 설정하고, 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 후보영역들에 포함된 보행신호의 상태를 판단하는 보행신호 검출부, 횡단보도에 해당하는 제 1 관심영역들을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정하는 진행방향 판단부 및 횡단보도 검출부, 보행신호 검출부 및 진행방향 판단부의 출력 데이터를 기초로 단말의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 정보 분석부를 포함할 수 있다.A guide device for walking in a crosswalk for a blind person according to an embodiment of the present invention is an image acquisition unit that collects a front image transmitted from a terminal worn by the visually impaired, and sets a plurality of first areas of interest for the front image and a crosswalk detector estimating the first regions of interest corresponding to the crosswalk through at least one of feature-based analysis or machine learning for the first regions of interest, and set one central region of the front image as the second region of interest and estimating candidate regions including a gait signal in the second region of interest through at least one of feature-based analysis or machine learning for the second region of interest, and determining the state of the gait signal included in the candidate regions. The signal detector generates projection data based on the horizontal direction based on the first regions of interest corresponding to the crosswalk, and analyzes the gradient change of pixel values constituting the projection data to estimate the moving direction of the visually impaired. It may include an information analysis unit that generates walking guide information output to the user interface of the terminal based on the output data of the determination unit, the crosswalk detection unit, the walking signal detection unit, and the traveling direction determination unit.

본 발명의 일 실시 예에 따른 횡단보도 검출부는, 복수개의 제 1 관심영역들 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행하고, 이진화를 기초로 복수개의 제 1 관심영역들이 횡단보도에 해당하는지를 개별적으로 판단할 수 있다.The crosswalk detection unit according to an embodiment of the present invention performs binarization based on a characteristic of a crosswalk pattern identified in each of a plurality of first ROIs, and a plurality of first ROIs are traversed based on the binarization. It can be judged individually whether or not it falls under the report.

본 발명의 일 실시 예에 따른 횡단보도 검출부는, 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 이진화를 수행하고, 이진화를 기초로 도출된 횡단보도 영역에 대한 평균값과 분산값을 추정하며, 추정된 평균값과 분산값을 기초로 추가적인 이진화를 수행할지를 판단할 수 있다.The crosswalk detection unit according to an embodiment of the present invention performs binarization using the average value of the characteristics of the crosswalk pattern as a threshold value, and estimates the average value and variance value for the crosswalk area derived based on the binarization, It may be determined whether to perform additional binarization based on the estimated mean and variance values.

본 발명의 일 실시 예에 따른 횡단보도 검출부는, 횡단보도 패턴에 대한 모폴로지 기법에 기반한 형태 보정을 수행할 수 있다.The crosswalk detection unit according to an embodiment of the present invention may perform shape correction based on a morphology technique for a crosswalk pattern.

본 발명의 일 실시 예에 따른 진행방향 판단부는, 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써, 횡단보도 패턴이 기울어진 방향을 추정할 수 있다.The traveling direction determining unit according to an embodiment of the present invention may estimate a direction in which the crosswalk pattern is inclined by analyzing a change in a section in which pixel values constituting the projection data change from a minimum value to a maximum value.

본 발명의 일 실시 예에 따른 정보 분석부는, 횡단보도에 해당하는 제 1 관심영역들의 개수가 소정의 기준개수 이상인 경우, 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성할 수 있다.The information analysis unit according to an embodiment of the present invention determines that a crosswalk exists in front of the visually impaired when the number of first regions of interest corresponding to the crosswalk is equal to or greater than a predetermined reference number, and approaches the crosswalk It is possible to generate walking guide information notifying

본 발명의 일 실시 예에 따른 정보 분석부는, 후보영역들에 포함된 보행신호의 상태를 기초로 시각장애인의 정지 또는 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성할 수 있다.The information analysis unit according to an embodiment of the present invention may generate walking guide information for inducing the visually impaired to stop or walk in a crosswalk based on the state of the walking signal included in the candidate areas.

본 발명의 일 실시 예에 따른 정보 분석부는, 시각장애인의 진행방향이 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 시각장애인의 진행방향을 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성할 수 있다.The information analysis unit according to an embodiment of the present invention, when the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk, a walking guide for guiding the visually impaired within a predetermined angular range information can be generated.

본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법은, 시각장애인이 착용한 단말로부터 전달되는 전방 영상을 수집하는 단계, 전방 영상에 대한 복수개의 제 1 관심영역들을 설정하고, 제 1 관심영역들에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들을 추정하는 단계, 전방 영상의 중심 일 영역을 제 2 관심영역으로 설정하고, 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 후보영역들에 포함된 보행신호의 상태를 판단하는 단계, 횡단보도에 해당하는 제 1 관심영역들을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정하는 단계 및 횡단보도 검출부, 보행신호 검출부 및 진행방향 판단부의 출력 데이터를 기초로 단말의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 단계를 포함할 수 있다.A guide method for walking in a crosswalk for a blind person according to an embodiment of the present invention includes collecting a front image transmitted from a terminal worn by the visually impaired, setting a plurality of first regions of interest for the front image, estimating the first regions of interest corresponding to the crosswalk through at least one of feature-based analysis or machine learning of the first regions of interest; setting one central region of the front image as the second region of interest; Estimating candidate regions including a gait signal among the second region of interest through at least one of feature-based analysis or machine learning of the region of interest, and determining the state of the gait signal included in the candidate regions; estimating the moving direction of the visually impaired by generating projection data based on the horizontal direction based on the corresponding first regions of interest and analyzing the gradient change of pixel values constituting the projection data; and a crosswalk detector and a walking signal The method may include generating walking guide information output to a user interface of the terminal based on the output data of the detection unit and the traveling direction determination unit.

본 발명의 일 실시 예에 따른 제 1 관심영역들을 추정하는 단계에서는, 복수개의 제 1 관심영역들 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행하고, 이진화를 기초로 복수개의 제 1 관심영역들이 횡단보도에 해당하는지를 개별적으로 판단할 수 있다.In the step of estimating the first ROIs according to an embodiment of the present invention, binarization is performed based on the characteristics of the crosswalk pattern identified in each of the plurality of first ROIs, and a plurality of second ROIs based on the binarization is performed. 1 It is possible to individually judge whether the areas of interest correspond to crosswalks.

본 발명의 일 실시 예에 따른 제 1 관심영역들을 추정하는 단계에서는, 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 이진화를 수행하고, 이진화를 기초로 도출된 횡단보도 영역에 대한 평균값과 분산값을 추정하며, 추정된 평균값과 분산값을 기초로 추가적인 이진화를 수행할지를 판단할 수 있다.In the step of estimating the first regions of interest according to an embodiment of the present invention, binarization is performed using the average value of the characteristics of the crosswalk pattern as a threshold value, and the average value and variance for the crosswalk area derived based on the binarization It is possible to estimate the value, and determine whether to perform additional binarization based on the estimated average value and variance value.

본 발명의 일 실시 예에 따른 제 1 관심영역들을 추정하는 단계에서는, 횡단보도 패턴에 대한 모폴로지 기법에 기반한 형태 보정을 수행할 수 있다.In the step of estimating the first regions of interest according to an embodiment of the present invention, shape correction based on a morphology technique for the crosswalk pattern may be performed.

본 발명의 일 실시 예에 따른 시각장애인의 진행방향을 추정하는 단계에서는, 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써, 횡단보도 패턴이 기울어진 방향을 추정할 수 있다.In the step of estimating the moving direction of the blind person according to an embodiment of the present invention, the direction in which the crosswalk pattern is inclined is estimated by analyzing the change in the section in which pixel values constituting the projection data change from the minimum value to the maximum value. can

본 발명의 일 실시 예에 따른 보행 가이드 정보를 생성하는 단계에서는, 횡단보도에 해당하는 제 1 관심영역들의 개수가 소정의 기준개수 이상인 경우, 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성할 수 있다.In the step of generating walking guide information according to an embodiment of the present invention, if the number of first regions of interest corresponding to the crosswalk is equal to or greater than a predetermined reference number, it is determined that there is a crosswalk in front of the blind person, It is possible to generate walking guide information notifying the approach of the crosswalk.

본 발명의 일 실시 예에 따른 보행 가이드 정보를 생성하는 단계에서는, 후보영역들에 포함된 보행신호의 상태를 기초로 시각장애인의 정지 또는 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성할 수 있다.In the step of generating the walking guide information according to an embodiment of the present invention, based on the state of the walking signal included in the candidate areas, it is possible to generate walking guide information that induces the visually impaired to stop or walk in a crosswalk. have.

본 발명의 일 실시 예에 따른 보행 가이드 정보를 생성하는 단계에서는, 시각장애인의 진행방향이 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 시각장애인의 진행방향을 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성할 수 있다.In the step of generating walking guide information according to an embodiment of the present invention, when the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk, the moving direction of the visually impaired is set within a predetermined angular range. It is possible to generate walking guide information leading to the inside.

한편, 본 발명의 일 실시 예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.Meanwhile, according to an embodiment of the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above-described method is recorded in a computer.

본 발명의 일 실시 예로서 제공되는 장치 및 방법에 따르면, 시각장애인이 착용한 웨어러블 형태의 카메라 또는 스마트폰 등을 통해 획득한 전방 영상을 분석하여 상황별로 안전한 보행을 유도하는 정보를 전달함으로써, 시각장애인이 안전하게 횡단보도를 건널 수 있도록 보조할 수 있다.According to the apparatus and method provided as an embodiment of the present invention, by analyzing the front image acquired through a wearable camera or smart phone worn by the visually impaired and delivering information to induce safe walking for each situation, the visual Assist people with disabilities to safely cross the crosswalk.

도 1은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 전방 영상에 대한 복수개의 제 1 관심영역들을 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들에 대한 이진화 결과를 나타낸다.
도 4는 횡단보도의 도색상태 불량에 따른 이진화 문제를 나타낸다.
도 5는 장애물의 존재 여부에 따른 (a) 종래 기본적인 방식의 이진화 결과, (b) 본 발명의 일 실시 예에 따른 이진화 결과를 나타낸다.
도 6은 본 발명의 일 실시 예에 따른 투영 데이터 및 진행방향에 따른 기울기 변화를 보여주는 그래프이다.
도 7은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법을 나타낸 순서도이다.
1 is a block diagram illustrating a guide device for walking in a crosswalk for a visually impaired person according to an embodiment of the present invention.
2 illustrates a plurality of first ROIs for an anterior image according to an embodiment of the present invention.
3 illustrates a result of binarization of a plurality of first ROIs according to an embodiment of the present invention.
4 shows the binarization problem according to the poor paint condition of the crosswalk.
5 shows (a) the binarization result of the conventional basic method according to the existence of an obstacle, and (b) the binarization result according to an embodiment of the present invention.
6 is a graph showing a change in inclination according to projection data and a moving direction according to an embodiment of the present invention.
7 is a flowchart illustrating a guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" described in the specification mean a unit for processing at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention. However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 장치를 나타낸 블록도이다.1 is a block diagram illustrating a guide device for walking in a crosswalk for a visually impaired person according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 가이드 장치(100)는 시각장애인(이하, 사용자)가 착용한 단말(200)과 연동 가능한 장치로서, 단말(200)로부터 전송되는 전방 영상(10)을 분석하여 사용자의 횡단보도에서의 안정적인 보행을 유도할 수 있다. 이때, 가이드 장치(100)는 사용자가 착용한 단말(200)과 유무선 네트워크 통신이 가능하며, 사용자가 착용한 단말(200)에서 구동 가능한 유저 인터페이스를 통해 보행 가이드 정보를 출력할 수 있다.Referring to FIG. 1 , a guide device 100 according to an embodiment of the present invention is a device capable of interworking with a terminal 200 worn by a visually impaired (hereinafter referred to as a user), and a front image ( 10) can be analyzed to induce the user's stable walking in the crosswalk. In this case, the guide device 100 may communicate with the terminal 200 worn by the user through wired/wireless network communication, and may output walking guide information through a user interface that can be driven by the terminal 200 worn by the user.

구체적으로, 본 발명의 일 실시 예에 따른 가이드 장치(100)는 사용자가 착용한 단말(200)로부터 전달되는 전방 영상(10)을 수집하는 영상 획득부(110)를 포함할 수 있다. 전방 영상(10)이란 사용자의 이동방향을 기준으로 단말(200)이 착용된 신체가 향하는 방향의 영상을 말한다. 예를 들어, 사용자가 헤드 마운티드 디스플레이(HMD) 방식의 단말을 착용하고 있다면, 사용자의 이동방향을 기준으로 머리가 향하는 방향의 영상들이 전방 영상(10)으로 촬영되고, 이는 영상 획득부(110)로 전달될 수 있다. 이때, 영상 획득부(110)는 사용자가 착용한 단말(200)로부터 수집되는 전방 영상들(10)의 전후 변화를 분석함으로써, 머리의 움직임으로 인해 이동방향에서 크게 벗어난 영상들은 전방 영상(10)이 아닌 것으로 판단하고, 이러한 영상들은 자체적으로 삭제할 수 있다.Specifically, the guide device 100 according to an embodiment of the present invention may include an image acquisition unit 110 that collects the front image 10 transmitted from the terminal 200 worn by the user. The front image 10 refers to an image of a direction in which the body in which the terminal 200 is worn faces based on the moving direction of the user. For example, if the user is wearing a head-mounted display (HMD) type terminal, images in the direction of the head based on the moving direction of the user are taken as the front image 10 , which is the image acquisition unit 110 . can be transmitted to At this time, the image acquisition unit 110 analyzes the front and rear changes of the front images 10 collected from the terminal 200 worn by the user, so that the images greatly deviated from the moving direction due to the movement of the head are the front images 10 . It is determined that this is not the case, and these images can be deleted by themselves.

본 발명의 일 실시 예에 따른 가이드 장치(100)는 전방 영상(10)에 횡단보도가 존재하는지를 파악하는 횡단보도 검출부(120)를 포함할 수 있다. 횡단보도 검출부(120)는 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 설정할 수 있다. 전방 영상(10)의 전체 영역이 아닌 일부 영역들을 제 1 관심영역들(20)로 설정하는 것은 실시간으로 보행을 가이드해야 하는 상황에서 정확도를 유지하면서 신속한 분석이 이루어지도록 하기 위함이다. 이때, 복수개의 제 1 관심영역들(20)의 크기, 개수 등은 수집된 전방 영상(10)의 크기에 의해 자동으로 결정될 수도 있고, 유저 인터페이스를 통해 인가된 외부 입력을 통해 설정 또는 변경될 수도 있다.The guide apparatus 100 according to an embodiment of the present invention may include a crosswalk detection unit 120 that detects whether a crosswalk exists in the front image 10 . The crosswalk detector 120 may set a plurality of first regions of interest 20 for the front image 10 . The reason why some regions, not the entire region, of the front image 10 are set as the first regions of interest 20 is to enable rapid analysis while maintaining accuracy in a situation where walking is to be guided in real time. In this case, the size, number, etc. of the plurality of first regions of interest 20 may be automatically determined by the size of the collected front image 10 , or may be set or changed through an external input applied through the user interface. have.

횡단보도 검출부(120)는 제 1 관심영역들(20) 각각에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들(21)을 추정할 수 있다. 특징 기반의 분석은 제 1 관심영역들(20)에 포함된 횡단보도 패턴의 형태, 크기, 색상 등과 같은 특징요소들을 분석하는 것을 말한다. 예를 들어, 횡단보도 패턴에 대한 특징 기반의 분석에는 흰색영역과 회색영역이 일정한 두께를 가지고 교대로 반복되는지 여부, 횐색영역과 회색영역의 면적의 비율이 비슷한지 여부, 이중모드(bi-modal) 형태의 밝기 분포를 가지는지 여부 등에 대한 분석이 포함될 수 있다. 이때, 횡단보도 검출부(120)는 특징 기반의 분석 과정에서 횡단보도 패턴에 대한 분석 정확도를 향상시키기 위해서 제 1 관심영역들(20)에 대한 이진화를 수행한다. 이진화에 대한 보다 자세한 내용은 도 3을 참조하여 후술하도록 한다.The crosswalk detection unit 120 may estimate the first areas of interest 21 corresponding to the crosswalk through at least one of feature-based analysis or machine learning for each of the first areas of interest 20 . The feature-based analysis refers to analyzing characteristic elements such as the shape, size, and color of the crosswalk pattern included in the first regions of interest 20 . For example, in the feature-based analysis of the crosswalk pattern, whether the white area and the gray area are alternately repeated with a certain thickness, whether the ratio of the area of the white area to the gray area is similar, bi-modal ) may be included in the analysis on whether or not it has a brightness distribution of the shape. In this case, the crosswalk detection unit 120 binarizes the first regions of interest 20 in order to improve the analysis accuracy of the crosswalk pattern in the feature-based analysis process. More details on binarization will be described later with reference to FIG. 3 .

한편, 기계학습은 이미지 기반의 지도학습, 비지도학습, 강화학습 및 딥러닝 등을 모두 포함한다. 예를 들어, 기계학습 알고리즘에는 서포트 벡터 머신(support vector machine, SVM), 랜덤 트리(random tree), 컨볼루션 신경망(convolutional neural network, CNN) 등이 포함될 수 있다. 횡단보도 검출부(120)는 전술한 예시와 같은 기계학습 알고리즘을 이용하여 제 1 관심영역들(20)에 횡단보도가 포함되어 있는지를 학습하고, 학습된 결과를 기초로 실시간으로 수집되는 전방 영상(10)에 횡단보도가 존재하는지를 파악할 수 있다.Meanwhile, machine learning includes image-based supervised learning, unsupervised learning, reinforcement learning, and deep learning. For example, the machine learning algorithm may include a support vector machine (SVM), a random tree, a convolutional neural network (CNN), and the like. The crosswalk detection unit 120 learns whether a crosswalk is included in the first regions of interest 20 using a machine learning algorithm as in the above-described example, and a front image ( 10), it is possible to determine whether a crosswalk exists.

본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도에 설치된 신호등과 같은 보행신호의 점등을 확인하기 위한 보행신호 검출부(130)를 포함할 수 있다. 보행신호 검출부(130)는 전방 영상(10)의 중심 일 영역을 제 2 관심영역으로 설정할 수 있다. 즉, 보행신호 검출부(130)는 횡단보도 검출부(120)와는 별개로 전방 영상(10)에 대한 관심영역을 설정한다. 예를 들어, 보행자용 신호등의 경우, 일반적으로 사람의 신장에 비해 상측에 위치하므로, 보행신호 검출부(130)는 전방 영상(10)에서 중심을 기준으로 1/2 영역을 제 2 관심영역으로 설정할 수 있다. 이때, 제 2 관심영역을 결정하는 기준 등은 수집된 전방 영상(10)의 크기에 의해 자동으로 결정될 수도 있고, 유저 인터페이스를 통해 인가된 외부 입력을 통해 설정 또는 변경될 수도 있다.The guide device 100 according to an embodiment of the present invention may include a walking signal detection unit 130 for checking the lighting of a walking signal such as a traffic light installed in a crosswalk. The walking signal detector 130 may set one central region of the front image 10 as the second ROI. That is, the walking signal detector 130 sets a region of interest for the front image 10 separately from the crosswalk detector 120 . For example, in the case of a pedestrian traffic light, since it is generally located above the height of a person, the walking signal detection unit 130 sets the 1/2 region based on the center of the front image 10 as the second region of interest. can In this case, the criterion for determining the second ROI may be automatically determined by the size of the collected front image 10 , or may be set or changed through an external input applied through the user interface.

보행신호 검출부(130)는 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정할 수 있다. 특징 기반의 분석은 제 2 관심영역에 포함된 보행신호의 형태, 크기, 색상 등과 같은 특징요소들을 분석하는 것을 말한다. 예를 들어, 보행신호에 대한 특징 기반의 분석에는 빨간색 또는 초록색의 점등영역이 존재하는지 여부, 점등영역의 형태가 원형이 아니라 사람 모양인지 여부 등에 대한 분석이 포함될 수 있다.The gait signal detector 130 may estimate candidate regions including the gait signal among the second ROIs through at least one of a feature-based analysis of the second ROI or machine learning. The feature-based analysis refers to analyzing feature elements such as the shape, size, and color of the gait signal included in the second region of interest. For example, the feature-based analysis of the walking signal may include analysis of whether a red or green lighting area exists, and whether the shape of the lighting area is a human shape rather than a circle.

이때, 보행자용 신호등의 경우, 차량용 신호등과 달리 주위에 시각적 방해요소들이 존재할 가능성이 높으며, 야간에는 주위 조명의 영향으로 인해 후보영역의 오검출 사례가 증가할 수 있다. 따라서, 보행신호 검출부(130)는 제 2 관심영역 내에서 보행신호가 포함된 것으로 판단되는 복수개의 후보영역들을 추정함으로써, 보행신호를 판단함에 있어 발생할 수 있는 오검출의 확률을 낮추는 작업을 수행할 수 있다. 즉, 보행신호 검출부(130)는 하나의 제 2 관심영역 내에서 추출된 모든 후보영역들을 보행신호의 상태를 판단하기 위한 고려 대상으로 선택한다.At this time, in the case of a traffic light for pedestrians, unlike a traffic light for a vehicle, there is a high possibility that there are visual obstructions around, and the cases of false detection of a candidate area may increase due to the influence of ambient lighting at night. Accordingly, the gait signal detector 130 estimates a plurality of candidate regions determined to contain the gait signal within the second region of interest, thereby reducing the probability of erroneous detection in determining the gait signal. can That is, the gait signal detector 130 selects all candidate regions extracted within one second region of interest as considerations for determining the state of the gait signal.

보행신호 검출부(130)는 전술한 과정을 통해 선택된 후보영역들에 포함된 보행신호의 상태를 판단할 수 있다. 예를 들어, 보행신호 검출부(130)는 후보영역들에 포함된 보행신호에서 빨간색 신호 또는 초록색 신호의 점등 변화를 검출할 수 있다. 만약 초록색 신호가 점등된다면, 초록색 신호의 점멸 여부를 판단할 수 있다. 또한, 화살표 모양 또는 숫자 모양으로 시간을 표시하는 영역이 존재하는 경우, 신호가 바뀌기까지 남은 시간을 추정할 수 있다. 이와 같은 보행신호의 상태에 대한 판단은 복수개의 후보영역들에 대한 비교를 통해 정확도를 향상시킬 수 있다.The walking signal detector 130 may determine the state of the walking signal included in the candidate regions selected through the above-described process. For example, the walking signal detector 130 may detect a change in lighting of a red signal or a green signal in the walking signal included in the candidate regions. If the green signal is lit, it may be determined whether the green signal is flickering. Also, when there is an area in which time is displayed in an arrow shape or a number shape, the time remaining until the signal is changed may be estimated. Such determination of the state of the walking signal may improve accuracy by comparing a plurality of candidate regions.

본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도를 건너는 상황에서 사용자의 이동방향을 실시간으로 파악하는 진행방향 판단부(140)를 포함할 수 있다. 진행방향의 판단은 횡단보도 검출부(120)에서 횡단보도라고 검출된 제 1 관심영역들(20)에 대해서 수행될 수 있다. 이때, 사용자가 횡단보도를 따라서 보행중인 상황에서는 주위 보행자 등과 같은 장애물이 존재할 수 있으므로, 횡단보도로 판단되는 제 1 관심영역들(20)은 전방 영상(10)의 프레임마다 바뀔 수 있다.The guide apparatus 100 according to an embodiment of the present invention may include a moving direction determining unit 140 for detecting the moving direction of the user in real time in a situation of crossing a crosswalk. Determination of the traveling direction may be performed with respect to the first regions of interest 20 detected as a crosswalk by the crosswalk detection unit 120 . At this time, since obstacles such as surrounding pedestrians may exist in a situation in which the user is walking along the crosswalk, the first regions of interest 20 determined as the crosswalk may change for each frame of the front image 10 .

진행방향 판단부(140)는 투영 데이터 생성을 위해서 횡단보도에 해당하는 제 1 관심영역들(21)에 대한 이진화 결과(30)를 사용할 수 있다. 즉, 진행방향 판단부(140)는 정상적으로 이진화된 제 1 관심영역들(30)이 횡단보도의 수평방향을 기준으로 얼만큼 변화했는지를 나타내기 위한 투영 데이터를 생성할 수 있다. 예를 들어, 사용자가 정확하게 횡단보도를 수직하게 가로질러 간다면, 투영 데이터에는 횡단보도 패턴에 맞추어 데이터값 간의 명확한 경계와 경계의 급격한 변화가 나타날 수 있다. 사용자가 횡단보도를 비스듬하게 건너고 있다면, 투영 데이터에는 데이터값 간의 불분명한 경계와 소정의 기울기를 가진 경계의 변화가 나타날 수 있다.The traveling direction determiner 140 may use the binarization result 30 for the first regions of interest 21 corresponding to the crosswalk to generate the projection data. That is, the traveling direction determiner 140 may generate projection data for indicating how much the normally binarized first regions of interest 30 have changed based on the horizontal direction of the crosswalk. For example, if a user accurately crosses a crosswalk vertically, a clear boundary between data values and a sharp change in boundary may appear in the projection data according to the crosswalk pattern. If the user is crossing the crosswalk at an angle, the projection data may show an ambiguous boundary between data values and a change in the boundary with a predetermined inclination.

진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정할 수 있다. 전술하였듯이 횡단보도를 기준으로 한 사용자의 이동방향에 따라 투영 데이터에는 픽셀값들의 변화가 발생하는 구간에서 기울기 변화가 발생할 수 밖에 없다. 따라서, 진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 기초로 사용자가 횡단보도를 정확한 방향으로 건너고 있는지를 파악할 수 있다. 기울기 판단에 대한 보다 자세한 내용은 도 6을 참조하여 후술하도록 한다.The moving direction determining unit 140 may estimate the moving direction of the visually impaired by analyzing a change in inclination of pixel values constituting the projection data. As described above, depending on the user's moving direction with respect to the crosswalk, the inclination change inevitably occurs in the section where the pixel values change in the projection data. Accordingly, the traveling direction determining unit 140 may determine whether the user is crossing the crosswalk in the correct direction based on the change in inclination of pixel values constituting the projection data. A more detailed description of the slope determination will be described later with reference to FIG. 6 .

본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 기초로 단말(200)의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 정보 분석부(150)를 포함할 수 있다. 즉, 정보 분석부(150)는 전방 영상(10)을 기초로 분석된 결과에 대한 피드백을 사용자에게 제공해주는 역할을 수행한다. 이때, 정보 분석부(150)는 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 개별적으로 전달받아 분석하고, 각각의 분석 결과에 대한 보행 가이드 정보를 개별적으로 생성한다.The guide device 100 according to an embodiment of the present invention outputs to the user interface of the terminal 200 based on the output data of the crosswalk detection unit 120 , the walking signal detection unit 130 , and the traveling direction determination unit 140 . It may include an information analysis unit 150 that generates the walking guide information to be used. That is, the information analysis unit 150 serves to provide the user with feedback on the result of the analysis based on the front image 10 . At this time, the information analysis unit 150 receives and analyzes the output data of the crosswalk detection unit 120 , the walking signal detection unit 130 , and the traveling direction determination unit 140 individually, and provides walking guide information for each analysis result. are created individually.

정보 분석부(150)는 횡단보도에 해당하는 제 1 관심영역들(21)의 개수가 소정의 기준개수 이상인 경우, 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성할 수 있다. 예를 들어, 8개의 제 1 관심영역들 중 횡단보도에 해당하는 제 1 관심영역들이 3개 이상이고, 횡단보도와 사용자의 거리가 소정의 범위값 이내인 것으로 판단되면, 정보 분석부(150)는 횡단보도에 접근했음을 알리는 보행 가이드 정보를 생성할 수 있다. 이때, 보행 가이드 정보는 단말(200)의 유저 인터페이스를 통해 "전방에 횡단보도가 있으니, 일단 정지하시기 바랍니다." 라는 문구의 사운드 형태로 출력될 수 있다.If the number of the first regions of interest 21 corresponding to the crosswalk is greater than or equal to a predetermined reference number, the information analysis unit 150 determines that there is a crosswalk in front of the visually impaired and prevents access to the crosswalk. The notification may generate walking guide information. For example, if there are three or more first ROIs corresponding to a crosswalk among the eight first ROIs, and it is determined that the distance between the crosswalk and the user is within a predetermined range, the information analysis unit 150 may generate walking guide information indicating that the crosswalk has been approached. At this time, the walking guide information through the user interface of the terminal 200 "There is a crosswalk in front, please stop once." may be output in the form of a sound of the phrase.

정보 분석부(150)는 후보영역들에 포함된 보행신호의 상태를 기초로 시각장애인의 정지 또는 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성할 수 있다. 예를 들어, 보행신호가 빨간색 신호인 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "현재 정지신호입니다. 정지하시기 바랍니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다. 초록색 신호라도 신호가 점멸하거나 화살표 및 숫자를 통해 횡단하기에 시간이 부족하다고 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "남은 시간이 부족합니다. 정지하시기 바랍니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다.The information analysis unit 150 may generate walking guide information for inducing the visually impaired to stop or walk in a crosswalk based on the state of the walking signal included in the candidate areas. For example, if it is determined that the walking signal is a red signal, the information analysis unit 150 may say "This is a current stop signal. Please stop" through the user interface. It is possible to generate walking guide information for inducing a stop that is output as a phrase. If it is determined that there is not enough time for the signal to flash even if it is a green signal or to cross through arrows and numbers, the information analysis unit 150 displays "Not enough time remaining. Please stop" through the user interface. It is possible to generate walking guide information for inducing a stop that is output as a phrase.

또한, 빨간색 신호에서 초록색 신호로 보행신호가 변화한 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "보행신호로 변경되었습니다. 횡단보도를 건너갈 수 있습니다." 라는 문구로 출력되는 보행를 유도하는 보행 가이드 정보를 생성할 수 있다. 빨간색 신호와 초록색 신호가 동시에 점등된 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "신호등이 고장났습니다. 이 횡단보도를 이용할 수 없습니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다.In addition, when it is determined that the walking signal has changed from the red signal to the green signal, the information analysis unit 150 "changes to a walking signal. You can cross the crosswalk" through the user interface. It is possible to generate gait guide information for inducing a gait that is output as a phrase. If it is determined that the red and green signals are lit at the same time, the information analysis unit 150 displays "The traffic light is broken. You cannot use this crosswalk" through the user interface. It is possible to generate walking guide information for inducing a stop that is output as a phrase.

정보 분석부(150)는 시각장애인의 진행방향이 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 시각장애인의 진행방향을 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성할 수 있다. 이때, 소정의 각도범위는 횡단보도의 너비, 횡단보도의 최초 진입지점, 현재 이동지점 등을 기준으로 자동으로 결정될 수 있다. 예를 들어, 사용자가 정상 범위 내에서 횡단보도를 보행하는 것으로 판단되는 경우, 정보 분석부(150)는 별도의 보행 가이드 정보를 생성하지 않는다. 다만, 유저 인터페이스를 통해 사용자로부터 보행 가이드 정보가 요청되는 경우, 정보 분석부(150)는 "현재 방향을 유지하십시오." 라는 문구로 출력되는 보행 가이드 정보를 생성할 수 있다. 사용자의 진행방향이 좌측(또는 우측)으로 일정 각도를 넘어선 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "우측 (또는 좌측)으로 방향을 조정하시기 바랍니다." 라는 문구로 출력되는 보행 가이드 정보를 생성할 수 있다.The information analysis unit 150 may generate walking guide information that guides the moving direction of the visually impaired within a predetermined angular range when the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk. have. In this case, the predetermined angle range may be automatically determined based on the width of the crosswalk, the first entry point of the crosswalk, the current moving point, and the like. For example, when it is determined that the user walks in a crosswalk within a normal range, the information analysis unit 150 does not generate separate walking guide information. However, when walking guide information is requested from the user through the user interface, the information analysis unit 150 "maintains the current direction." It is possible to generate walking guide information output as a phrase. If it is determined that the user's moving direction exceeds a certain angle to the left (or right), the information analysis unit 150 "Please adjust the direction to the right (or left)" through the user interface. It is possible to generate walking guide information output as a phrase.

전술한 보행 가이드 정보들은 유저 인터페이스를 통해 사용자에게 실시간으로 제공되므로, 사용자는 사운드 형태로 출력되는 보행 가이드 정보를 기초로 횡단보도를 안정적으로 보행할 수 있다.Since the above-described walking guide information is provided to the user in real time through the user interface, the user can stably walk in the crosswalk based on the walking guide information output in the form of sound.

도 2는 본 발명의 일 실시 예에 따른 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 나타내고, 도 3은 본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들(20)에 대한 이진화 결과(30)를 나타낸다.2 shows a plurality of first ROIs 20 for the anterior image 10 according to an embodiment of the present invention, and FIG. 3 shows a plurality of first ROIs according to an embodiment of the present invention. 20) for the binarization result (30).

본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들(20)은 전방 영상(10) 내에서 소정의 간격으로 설정될 수 있다. 이때, 관심영역에 대한 판단 정확도를 높이기 위해서 제 1 관심영역들(20)은 도 2와 같이 전방영상의 수직방향을 기준으로 직사각형 형태로 설정될 수 있다. 전방에 횡단보도가 존재했을 때, 주위의 사람이나 도로를 주행하는 차량 등의 장애물 때문에 일부분 또는 여러 부분이 가려질 가능성이 높다. 따라서, 횡단보도 상의 일부 관심영역이 장애물로 인해 가려진 경우에도 횡단보도 검출의 신뢰도를 높이기 위해서 제 1 관심영역들(20)은 도 2와 같이 복수개로 설정될 수 있다. The plurality of first regions of interest 20 according to an embodiment of the present invention may be set at predetermined intervals in the front image 10 . In this case, in order to increase the accuracy of determining the region of interest, the first regions of interest 20 may be set in a rectangular shape with respect to the vertical direction of the front image as shown in FIG. 2 . When there is a crosswalk in front, it is highly likely that some or several parts will be obscured by obstacles such as people or vehicles traveling on the road. Accordingly, even when some of the regions of interest on the crosswalk are obscured by obstacles, in order to increase the reliability of detection of the crosswalk, the first regions of interest 20 may be set as plural as shown in FIG. 2 .

도 3을 참조하면, 본 발명의 일 실시 예에 따른 횡단보도 검출부(120)는 복수개의 제 1 관심영역들(21) 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행할 수 있다. 관심영역 내에 다른 장애물 없이 횡단보도만 존재한다면, 관심영역의 픽셀은 이중모드(bi-modal) 형태의 분포를 가지므로, 이진화는 제 1 관심영역들(21) 내에 횡단보도의 패턴을 명확히 표현하는 과정으로 이해할 수 있다. 예를 들어, 횡단보도 검출부(120)는 흰색영역과 회색(또는 검은색)영역의 평균 밝기 값의 차이, 흰색영역의 면적 비율, 수직방향을 따라 횐색영역에서 회색영역으로, 회색영역에서 흰색영역으로 변환되는 횟수 등을 기초로 제 1 관심영역(21) 내에 횡단보도 패턴을 결정할 수 있다.Referring to FIG. 3 , the crosswalk detection unit 120 according to an embodiment of the present invention may perform binarization based on the characteristics of the crosswalk pattern identified in each of the plurality of first regions of interest 21 . . If there is only a crosswalk without other obstacles in the region of interest, since the pixels in the region of interest have a bi-modal distribution, binarization clearly expresses the pattern of the crosswalk in the first regions of interest 21. process can be understood. For example, the crosswalk detection unit 120 detects the difference between the average brightness values of the white area and the gray (or black) area, the area ratio of the white area, from the white area to the gray area along the vertical direction, and from the gray area to the white area. A crosswalk pattern in the first region of interest 21 may be determined based on the number of times it is converted to .

구체적으로, 횡단보도 검출부(120)는 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 1차 이진화를 수행할 수 있다. 1차 이진화가 완료되면, 그 결과로 나타난 흰색영역(i.e. 횡단보도 영역)의 평균값과 분산값을 추정할 수 있다. 이때, 분산값이 충분히 작은 경우(i.e. 소정의 기준값 이하인 경우), 횡단보도 검출부(120)는 1차 이진화가 완료된 제 1 관심영역들(30)을 횡단보도 판정을 위한 데이터로 사용할 수 있다. 반대로, 분산값이 큰 경우(i.e. 소정의 기준값 이상인 경우), 횡단보도 검출부(120)는 흰색영역의 평균값을 임계값으로 하는 2차 이진화를 추가적으로 수행할 수 있다. 이와 같은 이진화의 반복적 수행을 통해 횡단보도 패턴을 보다 정확히 결정하여 분석 정확도를 향상시킬 수 있다.Specifically, the crosswalk detection unit 120 may perform primary binarization using the average value of the features of the crosswalk pattern as a threshold value. When the primary binarization is completed, the mean and variance values of the resulting white area (i.e. crosswalk area) can be estimated. At this time, when the variance value is sufficiently small (i.e. less than a predetermined reference value), the crosswalk detection unit 120 may use the first regions of interest 30 that have been first binarized as data for determining the crosswalk. Conversely, when the variance value is large (i.e. greater than or equal to a predetermined reference value), the crosswalk detection unit 120 may additionally perform secondary binarization using the average value of the white area as a threshold value. Through the iterative execution of such binarization, the crosswalk pattern can be determined more accurately and the analysis accuracy can be improved.

도 4는 횡단보도의 도색상태 불량에 따른 이진화 문제를 나타낸다.4 shows the binarization problem according to the poor paint condition of the crosswalk.

도 4를 참조하면, 전방 영상(10)으로 촬영된 횡단보도의 흰색영역이 노란색 점선으로 표시된 부분과 같이 일부가 벗겨지거나 도색 상태가 불량한 경우가 발생할 수 있다. 이와 같이 전방 영상(10)으로 촬영된 횡단보도의 흰색영역의 도색 상태가 불량한 경우, 이진화 수행 결과가 바람직하지 않을 가능성이 있다. 좌측을 기준으로 첫번째와 마지막 이진화 결과(40)를 살펴보면, 흰색영역으로 완벽히 구분되어야 하는 빨간색 박스 영역의 일부분이 누락되어 이진화 결과(40)로 표현됨을 알 수 있다.Referring to FIG. 4 , the white area of the crosswalk photographed by the front image 10 may be partially peeled off, such as a portion indicated by a yellow dotted line, or the paint state may be poor. As described above, when the painted state of the white area of the crosswalk photographed with the front image 10 is poor, there is a possibility that the binarization result is not desirable. Looking at the first and last binarization results 40 on the basis of the left side, it can be seen that a part of the red box area that should be completely separated by a white area is omitted and is expressed as the binarization result 40 .

따라서, 전술한 문제를 개선하기 위해 본 발명의 일 실시 예에 따른 횡단보도 검출부(120)는 횡단보도 패턴에 대한 모폴로지(Morphology) 기법에 기반한 색상 보정을 수행할 수 있다. 즉, 횡단보도 검출부(120)는 이진화 단계의 전후에 모폴로지를 통한 전처리 및 후처리를 수행하여 흰색영역의 도색 상태를 개선할 수 있다. 모폴로지란 영상 내 원하는 부분만 추출하거나, 영상 내 물체 구조의 형태를 표현하는데 필요한 요소를 추출하거나, 영상 내 물체의 구조를 명확하게 하기 위한 연산 기법을 말한다. 따라서, 본 발명에서는 이진화 과정에서 발생하는 불명확한 물체 영역을 명확하게 하기 위한 모폴로지 기법이 이용될 수 있다.Therefore, in order to improve the above-described problem, the crosswalk detection unit 120 according to an embodiment of the present invention may perform color correction based on a morphology technique for the crosswalk pattern. That is, the crosswalk detection unit 120 may improve the painted state of the white area by performing pre-processing and post-processing through morphology before and after the binarization step. Morphology refers to an operation technique for extracting only a desired part in an image, extracting elements necessary to express the shape of an object structure in an image, or clarifying the structure of an object in an image. Therefore, in the present invention, a morphology technique for clarifying an ambiguous object region generated in the binarization process may be used.

도 5는 장애물의 존재 여부에 따른 (a) 종래 기본적인 방식의 이진화 결과(40), (b) 본 발명의 일 실시 예에 따른 이진화 결과(30)를 나타낸다.5 shows (a) a binarization result 40 of a conventional basic method, and (b) a binarization result 30 according to an embodiment of the present invention according to the presence or absence of an obstacle.

만일 제 1 관심영역(21) 내에 장애물이 존재한다면, 통상적인 이진화를 수행하는 경우에 도 5의 (a)와 같은 문제가 발생한다. 도 5의 (a)의 상단 이미지는 제 1 관심영역(21)이 설정된 전방 영상(10)이며, 하단 이미지는 오츠(OTSU) 알고리즘에 따른 이진화 결과(51)를 나타낸다. 도 5의 (a)의 상단 이미지의 노란색 점선으로 표시된 영역에 장애물의 역할을 하는 차량이 존재하기 때문에, 통상의 이진화 방식을 이용하는 경우에는 도 5의 (a)의 하단 이미지와 같이 횡단보도의 흰색영역과 회색영역이 분리되지 못하는 현상이 발생한다. 따라서, 통상적인 이진화 기법을 개선하여 이러한 문제 상황을 해결할 필요가 있다. If an obstacle exists in the first region of interest 21 , a problem as shown in FIG. 5 (a) occurs when normal binarization is performed. The upper image of FIG. 5A is the front image 10 in which the first region of interest 21 is set, and the lower image shows the binarization result 51 according to the OTSU algorithm. Since a vehicle acting as an obstacle exists in the area indicated by the yellow dotted line in the upper image of FIG. 5 (a), when using the conventional binarization method, the white color of the crosswalk as shown in the lower image of FIG. 5 (a) A phenomenon occurs in which the region and the gray region cannot be separated. Therefore, it is necessary to solve this problem by improving the conventional binarization technique.

이를 위한 개선 방법 중 하나가 도 3을 참조하여 설명한 본 발명의 일 실시 예에 따른 이진화 방식이다. 도 5의 (b)의 상단 이미지는 제 1 관심영역(21)이 설정된 전방 영상(10)이며, 하단 이미지는 본 발명의 일 실시 예에 따른 이진화 결과(52)를 나타낸다. 도 5의 (b)의 상단 이미지에 노란색 점선으로 표시된 영역과 같이 장애물이 존재하더라도, 본 발명의 일 실시 예에 다른 이진화 방식을 이용하면, 도 5의 (b)의 하단 이미지와 같이 횡단보도의 흰색영역과 회색영역을 명확히 분리할 수 있다.One of the improvement methods for this is the binarization method according to an embodiment of the present invention described with reference to FIG. 3 . The upper image of FIG. 5B is the front image 10 in which the first region of interest 21 is set, and the lower image shows the binarization result 52 according to an embodiment of the present invention. Even if there is an obstacle, such as an area indicated by a yellow dotted line in the upper image of FIG. 5 (b), if another binarization method is used according to an embodiment of the present invention, as shown in the lower image of FIG. The white area and the gray area can be clearly separated.

도 6은 본 발명의 일 실시 예에 따른 투영 데이터 및 진행방향에 따른 기울기 변화를 보여주는 그래프이다.6 is a graph showing a change in inclination according to projection data and a moving direction according to an embodiment of the present invention.

사용자가 정확하게 횡단보도의 수직방향으로 보행하는 경우, 정상적으로 이진화된 제 1 관심영역(30) 및 그래프 형태의 투영 데이터는 도 6의 (a)와 같이 나타날 수 있다. 이때, 투영 데이터의 X축은 이진화된 제 1 관심영역(30)의 수직길이, Y축은 픽셀값을 나타낼 수 있다. Y축으로 표시되는 픽셀값은 투영 데이터 상에서 누적된 화소수 또는 크기를 의미한다. 도 6의 (a)의 우측 그래프를 참조하면, 투영 데이터의 픽셀값들은 횡단보도의 패턴에 따라 명확히 구별되는 구형파(square wave) 형태의 분포를 보임을 알 수 있다. 구형파 형태의 분포에 의해 발생한 경계에서는 픽셀값들이 급격히 변화하므로, 이러한 변화를 통해 사용자가 정확하게 정확하게 횡단보도의 수직방향으로 보행하고 있음이 파악될 수 있다.When the user accurately walks in the vertical direction of the crosswalk, the normally binarized first region of interest 30 and the projected data in the form of a graph may appear as shown in FIG. 6A . In this case, the X axis of the projection data may represent the vertical length of the binarized first region of interest 30 , and the Y axis may represent pixel values. The pixel value displayed on the Y-axis means the number or size of pixels accumulated on the projection data. Referring to the graph on the right of FIG. 6A , it can be seen that the pixel values of the projection data show a distribution in the form of a square wave that is clearly distinguished according to the pattern of the crosswalk. Since pixel values change rapidly at the boundary generated by the square wave distribution, it can be understood that the user is accurately and accurately walking in the vertical direction of the crosswalk through these changes.

반면, 사용자가 횡단보도의 수평방향을 기준으로 소정의 각도(e.g. 40도)로 보행하는 경우, 정상적으로 이진화된 제 1 관심영역(30) 및 그래프 형태의 투영 데이터는 도 6의 (b)와 같이 나타날 수 있다. 도 6의 (b)의 우측 그래프를 참조하면, 도 6의 (a)와는 다르게 투영 데이터의 픽셀값들이 변화하는 경계가 소정의 기울기를 가지면서 변화함을 확인할 수 있다. 즉, 이와 같은 변화가 발생하는 구간의 기울기를 구하거나 밝기를 비교함으로써, 사용자가 어떤 방향으로 횡단보도를 보행하고 있는지가 파악될 수 있다.On the other hand, when the user walks at a predetermined angle (eg 40 degrees) based on the horizontal direction of the crosswalk, the normally binarized first region of interest 30 and the projection data in the form of a graph are displayed as shown in FIG. may appear Referring to the graph on the right of FIG. 6B , it can be confirmed that, unlike in FIG. 6A , the boundary at which pixel values of the projection data change changes while having a predetermined inclination. That is, by obtaining the slope or comparing the brightness of the section in which such a change occurs, it can be determined in which direction the user is walking in the crosswalk.

다시 말해서, 본 발명의 일 실시 예에 따른 진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써(e.g. 기울기를 추정하거나 구간의 밝기를 비교 등), 횡단보도 패턴이 기울어진 방향을 추정하고, 사용자의 진행방향을 판단할 수 있다.In other words, the progress direction determination unit 140 according to an embodiment of the present invention analyzes a change in a section in which pixel values constituting the projection data change from a minimum value to a maximum value (eg, estimating the slope or comparing the brightness of the section). etc.), estimating the direction in which the crosswalk pattern is inclined, and determining the user's moving direction.

도 7은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법을 나타낸 순서도이다.7 is a flowchart illustrating a guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법은, 시각장애인이 착용한 단말(200)로부터 전달되는 전방 영상(10)을 수집하는 단계(S10), 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 설정하고, 제 1 관심영역들(20)에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들(21)을 추정하는 단계(S20), 전방 영상(10)의 중심 일 영역을 제 2 관심영역으로 설정하고, 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 후보영역들에 포함된 보행신호의 상태를 판단하는 단계(S30), 횡단보도에 해당하는 제 1 관심영역들(21)을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정하는 단계(S40) 및 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 기초로 단말(200)의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 단계(S50)를 포함할 수 있다.Referring to FIG. 7 , the guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention includes the steps of collecting the front image 10 transmitted from the terminal 200 worn by the visually impaired (S10) , set a plurality of first regions of interest 20 for the front image 10, and through at least one of feature-based analysis or machine learning for the first regions of interest 20, the first corresponding to the crosswalk 1 Step of estimating the regions of interest 21 ( S20 ), setting one central region of the front image 10 as the second region of interest, and performing at least one of feature-based analysis or machine learning for the second region of interest estimating candidate regions including the gait signal among the second regions of interest through the step of determining the state of the gait signal included in the candidate regions (S30), based on the first regions of interest 21 corresponding to the crosswalk estimating the moving direction of the visually impaired by generating projection data based on the horizontal direction and analyzing the gradient change of pixel values constituting the projection data (S40) and a crosswalk detection unit 120, a walking signal detection unit ( 130) and generating (S50) walking guide information output to the user interface of the terminal 200 based on the output data of the proceeding direction determining unit 140 .

본 발명의 일 실시 예에 따른 방법과 관련하여서는 전술한 장치에 대한 내용이 적용될 수 있다. 따라서, 방법과 관련하여, 전술한 장치에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.Regarding the method according to an embodiment of the present invention, the contents of the above-described apparatus may be applied. Accordingly, in relation to the method, descriptions of the same contents as those of the above-described apparatus are omitted.

한편, 본 발명의 일 실시 예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 다시 말해서, 전술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록 매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크, 메모리 카드 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.Meanwhile, according to an embodiment of the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above-described method is recorded in a computer. In other words, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium. In addition, the structure of the data used in the above-described method may be recorded in a computer-readable medium through various means. A recording medium for recording an executable computer program or code for performing various methods of the present invention should not be construed as including temporary objects such as carrier waves or signals. The computer-readable medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, a memory card, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. .

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 장치를 나타낸 블록도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 가이드 장치(100)는 시각장애인(이하, 사용자)가 착용한 단말(200)과 연동 가능한 장치로서, 단말(200)로부터 전송되는 전방 영상(10)을 분석하여 사용자의 횡단보도에서의 안정적인 보행을 유도할 수 있다. 이때, 가이드 장치(100)는 사용자가 착용한 단말(200)과 유무선 네트워크 통신이 가능하며, 사용자가 착용한 단말(200)에서 구동 가능한 유저 인터페이스를 통해 보행 가이드 정보를 출력할 수 있다.
구체적으로, 본 발명의 일 실시 예에 따른 가이드 장치(100)는 사용자가 착용한 단말(200)로부터 전달되는 전방 영상(10)을 수집하는 영상 획득부(110)를 포함할 수 있다. 전방 영상(10)이란 사용자의 이동방향을 기준으로 단말(200)이 착용된 신체가 향하는 방향의 영상을 말한다. 예를 들어, 사용자가 헤드 마운티드 디스플레이(HMD) 방식의 단말을 착용하고 있다면, 사용자의 이동방향을 기준으로 머리가 향하는 방향의 영상들이 전방 영상(10)으로 촬영되고, 이는 영상 획득부(110)로 전달될 수 있다. 이때, 영상 획득부(110)는 사용자가 착용한 단말(200)로부터 수집되는 전방 영상들(10)의 전후 변화를 분석함으로써, 머리의 움직임으로 인해 이동방향에서 크게 벗어난 영상들은 전방 영상(10)이 아닌 것으로 판단하고, 이러한 영상들은 자체적으로 삭제할 수 있다.
본 발명의 일 실시 예에 따른 가이드 장치(100)는 전방 영상(10)에 횡단보도가 존재하는지를 파악하는 횡단보도 검출부(120)를 포함할 수 있다. 횡단보도 검출부(120)는 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 설정할 수 있다. 전방 영상(10)의 전체 영역이 아닌 일부 영역들을 제 1 관심영역들(20)로 설정하는 것은 실시간으로 보행을 가이드해야 하는 상황에서 정확도를 유지하면서 신속한 분석이 이루어지도록 하기 위함이다. 이때, 복수개의 제 1 관심영역들(20)의 크기, 개수 등은 수집된 전방 영상(10)의 크기에 의해 자동으로 결정될 수도 있고, 유저 인터페이스를 통해 인가된 외부 입력을 통해 설정 또는 변경될 수도 있다.
횡단보도 검출부(120)는 제 1 관심영역들(20) 각각에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들(21)을 추정할 수 있다. 특징 기반의 분석은 제 1 관심영역들(20)에 포함된 횡단보도 패턴의 형태, 크기, 색상 등과 같은 특징요소들을 분석하는 것을 말한다. 예를 들어, 횡단보도 패턴에 대한 특징 기반의 분석에는 흰색영역과 회색영역이 일정한 두께를 가지고 교대로 반복되는지 여부, 횐색영역과 회색영역의 면적의 비율이 비슷한지 여부, 이중모드(bi-modal) 형태의 밝기 분포를 가지는지 여부 등에 대한 분석이 포함될 수 있다. 이때, 횡단보도 검출부(120)는 특징 기반의 분석 과정에서 횡단보도 패턴에 대한 분석 정확도를 향상시키기 위해서 제 1 관심영역들(20)에 대한 이진화를 수행한다. 이진화에 대한 보다 자세한 내용은 도 3을 참조하여 후술하도록 한다.
한편, 기계학습은 이미지 기반의 지도학습, 비지도학습, 강화학습 및 딥러닝 등을 모두 포함한다. 예를 들어, 기계학습 알고리즘에는 서포트 벡터 머신(support vector machine, SVM), 랜덤 트리(random tree), 컨볼루션 신경망(convolutional neural network, CNN) 등이 포함될 수 있다. 횡단보도 검출부(120)는 전술한 예시와 같은 기계학습 알고리즘을 이용하여 제 1 관심영역들(20)에 횡단보도가 포함되어 있는지를 학습하고, 학습된 결과를 기초로 실시간으로 수집되는 전방 영상(10)에 횡단보도가 존재하는지를 파악할 수 있다.
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도에 설치된 신호등과 같은 보행신호의 점등을 확인하기 위한 보행신호 검출부(130)를 포함할 수 있다. 보행신호 검출부(130)는 전방 영상(10)의 중심 일 영역을 제 2 관심영역으로 설정할 수 있다. 즉, 보행신호 검출부(130)는 횡단보도 검출부(120)와는 별개로 전방 영상(10)에 대한 관심영역을 설정한다. 예를 들어, 보행자용 신호등의 경우, 일반적으로 사람의 신장에 비해 상측에 위치하므로, 보행신호 검출부(130)는 전방 영상(10)에서 중심을 기준으로 1/2 영역을 제 2 관심영역으로 설정할 수 있다. 이때, 제 2 관심영역을 결정하는 기준 등은 수집된 전방 영상(10)의 크기에 의해 자동으로 결정될 수도 있고, 유저 인터페이스를 통해 인가된 외부 입력을 통해 설정 또는 변경될 수도 있다.
보행신호 검출부(130)는 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정할 수 있다. 특징 기반의 분석은 제 2 관심영역에 포함된 보행신호의 형태, 크기, 색상 등과 같은 특징요소들을 분석하는 것을 말한다. 예를 들어, 보행신호에 대한 특징 기반의 분석에는 빨간색 또는 초록색의 점등영역이 존재하는지 여부, 점등영역의 형태가 원형이 아니라 사람 모양인지 여부 등에 대한 분석이 포함될 수 있다.
이때, 보행자용 신호등의 경우, 차량용 신호등과 달리 주위에 시각적 방해요소들이 존재할 가능성이 높으며, 야간에는 주위 조명의 영향으로 인해 후보영역의 오검출 사례가 증가할 수 있다. 따라서, 보행신호 검출부(130)는 제 2 관심영역 내에서 보행신호가 포함된 것으로 판단되는 복수개의 후보영역들을 추정함으로써, 보행신호를 판단함에 있어 발생할 수 있는 오검출의 확률을 낮추는 작업을 수행할 수 있다. 즉, 보행신호 검출부(130)는 하나의 제 2 관심영역 내에서 추출된 모든 후보영역들을 보행신호의 상태를 판단하기 위한 고려 대상으로 선택한다.
보행신호 검출부(130)는 전술한 과정을 통해 선택된 후보영역들에 포함된 보행신호의 상태를 판단할 수 있다. 예를 들어, 보행신호 검출부(130)는 후보영역들에 포함된 보행신호에서 빨간색 신호 또는 초록색 신호의 점등 변화를 검출할 수 있다. 만약 초록색 신호가 점등된다면, 초록색 신호의 점멸 여부를 판단할 수 있다. 또한, 화살표 모양 또는 숫자 모양으로 시간을 표시하는 영역이 존재하는 경우, 신호가 바뀌기까지 남은 시간을 추정할 수 있다. 이와 같은 보행신호의 상태에 대한 판단은 복수개의 후보영역들에 대한 비교를 통해 정확도를 향상시킬 수 있다.
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도를 건너는 상황에서 사용자의 이동방향을 실시간으로 파악하는 진행방향 판단부(140)를 포함할 수 있다. 진행방향의 판단은 횡단보도 검출부(120)에서 횡단보도라고 검출된 제 1 관심영역들(20)에 대해서 수행될 수 있다. 이때, 사용자가 횡단보도를 따라서 보행중인 상황에서는 주위 보행자 등과 같은 장애물이 존재할 수 있으므로, 횡단보도로 판단되는 제 1 관심영역들(20)은 전방 영상(10)의 프레임마다 바뀔 수 있다.
진행방향 판단부(140)는 투영 데이터 생성을 위해서 횡단보도에 해당하는 제 1 관심영역들(21)에 대한 이진화 결과(30)를 사용할 수 있다. 즉, 진행방향 판단부(140)는 정상적으로 이진화된 제 1 관심영역들(30)이 횡단보도의 수평방향을 기준으로 얼만큼 변화했는지를 나타내기 위한 투영 데이터를 생성할 수 있다. 예를 들어, 사용자가 정확하게 횡단보도를 수직하게 가로질러 간다면, 투영 데이터에는 횡단보도 패턴에 맞추어 데이터값 간의 명확한 경계와 경계의 급격한 변화가 나타날 수 있다. 사용자가 횡단보도를 비스듬하게 건너고 있다면, 투영 데이터에는 데이터값 간의 불분명한 경계와 소정의 기울기를 가진 경계의 변화가 나타날 수 있다.
진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정할 수 있다. 전술하였듯이 횡단보도를 기준으로 한 사용자의 이동방향에 따라 투영 데이터에는 픽셀값들의 변화가 발생하는 구간에서 기울기 변화가 발생할 수 밖에 없다. 따라서, 진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 기초로 사용자가 횡단보도를 정확한 방향으로 건너고 있는지를 파악할 수 있다. 기울기 판단에 대한 보다 자세한 내용은 도 6을 참조하여 후술하도록 한다.
본 발명의 일 실시 예에 따른 가이드 장치(100)는 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 기초로 단말(200)의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 정보 분석부(150)를 포함할 수 있다. 즉, 정보 분석부(150)는 전방 영상(10)을 기초로 분석된 결과에 대한 피드백을 사용자에게 제공해주는 역할을 수행한다. 이때, 정보 분석부(150)는 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 개별적으로 전달받아 분석하고, 각각의 분석 결과에 대한 보행 가이드 정보를 개별적으로 생성한다.
정보 분석부(150)는 횡단보도에 해당하는 제 1 관심영역들(21)의 개수가 소정의 기준개수 이상인 경우, 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성할 수 있다. 예를 들어, 8개의 제 1 관심영역들 중 횡단보도에 해당하는 제 1 관심영역들이 3개 이상이고, 횡단보도와 사용자의 거리가 소정의 범위값 이내인 것으로 판단되면, 정보 분석부(150)는 횡단보도에 접근했음을 알리는 보행 가이드 정보를 생성할 수 있다. 이때, 보행 가이드 정보는 단말(200)의 유저 인터페이스를 통해 "전방에 횡단보도가 있으니, 일단 정지하시기 바랍니다." 라는 문구의 사운드 형태로 출력될 수 있다.
정보 분석부(150)는 후보영역들에 포함된 보행신호의 상태를 기초로 시각장애인의 정지 또는 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성할 수 있다. 예를 들어, 보행신호가 빨간색 신호인 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "현재 정지신호입니다. 정지하시기 바랍니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다. 초록색 신호라도 신호가 점멸하거나 화살표 및 숫자를 통해 횡단하기에 시간이 부족하다고 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "남은 시간이 부족합니다. 정지하시기 바랍니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다.
또한, 빨간색 신호에서 초록색 신호로 보행신호가 변화한 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "보행신호로 변경되었습니다. 횡단보도를 건너갈 수 있습니다." 라는 문구로 출력되는 보행를 유도하는 보행 가이드 정보를 생성할 수 있다. 빨간색 신호와 초록색 신호가 동시에 점등된 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "신호등이 고장났습니다. 이 횡단보도를 이용할 수 없습니다." 라는 문구로 출력되는 정지를 유도하는 보행 가이드 정보를 생성할 수 있다.
정보 분석부(150)는 시각장애인의 진행방향이 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 시각장애인의 진행방향을 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성할 수 있다. 이때, 소정의 각도범위는 횡단보도의 너비, 횡단보도의 최초 진입지점, 현재 이동지점 등을 기준으로 자동으로 결정될 수 있다. 예를 들어, 사용자가 정상 범위 내에서 횡단보도를 보행하는 것으로 판단되는 경우, 정보 분석부(150)는 별도의 보행 가이드 정보를 생성하지 않는다. 다만, 유저 인터페이스를 통해 사용자로부터 보행 가이드 정보가 요청되는 경우, 정보 분석부(150)는 "현재 방향을 유지하십시오." 라는 문구로 출력되는 보행 가이드 정보를 생성할 수 있다. 사용자의 진행방향이 좌측(또는 우측)으로 일정 각도를 넘어선 것으로 판단된 경우, 정보 분석부(150)는 유저 인터페이스를 통해 "우측 (또는 좌측)으로 방향을 조정하시기 바랍니다." 라는 문구로 출력되는 보행 가이드 정보를 생성할 수 있다.
전술한 보행 가이드 정보들은 유저 인터페이스를 통해 사용자에게 실시간으로 제공되므로, 사용자는 사운드 형태로 출력되는 보행 가이드 정보를 기초로 횡단보도를 안정적으로 보행할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 나타내고, 도 3은 본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들(20)에 대한 이진화 결과(30)를 나타낸다.
본 발명의 일 실시 예에 따른 복수개의 제 1 관심영역들(20)은 전방 영상(10) 내에서 소정의 간격으로 설정될 수 있다. 이때, 관심영역에 대한 판단 정확도를 높이기 위해서 제 1 관심영역들(20)은 도 2와 같이 전방영상의 수직방향을 기준으로 직사각형 형태로 설정될 수 있다. 전방에 횡단보도가 존재했을 때, 주위의 사람이나 도로를 주행하는 차량 등의 장애물 때문에 일부분 또는 여러 부분이 가려질 가능성이 높다. 따라서, 횡단보도 상의 일부 관심영역이 장애물로 인해 가려진 경우에도 횡단보도 검출의 신뢰도를 높이기 위해서 제 1 관심영역들(20)은 도 2와 같이 복수개로 설정될 수 있다.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 횡단보도 검출부(120)는 복수개의 제 1 관심영역들(21) 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행할 수 있다. 관심영역 내에 다른 장애물 없이 횡단보도만 존재한다면, 관심영역의 픽셀은 이중모드(bi-modal) 형태의 분포를 가지므로, 이진화는 제 1 관심영역들(21) 내에 횡단보도의 패턴을 명확히 표현하는 과정으로 이해할 수 있다. 예를 들어, 횡단보도 검출부(120)는 흰색영역과 회색(또는 검은색)영역의 평균 밝기 값의 차이, 흰색영역의 면적 비율, 수직방향을 따라 횐색영역에서 회색영역으로, 회색영역에서 흰색영역으로 변환되는 횟수 등을 기초로 제 1 관심영역(21) 내에 횡단보도 패턴을 결정할 수 있다.
구체적으로, 횡단보도 검출부(120)는 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 1차 이진화를 수행할 수 있다. 1차 이진화가 완료되면, 그 결과로 나타난 흰색영역(i.e. 횡단보도 영역)의 평균값과 분산값을 추정할 수 있다. 이때, 분산값이 충분히 작은 경우(i.e. 소정의 기준값 이하인 경우), 횡단보도 검출부(120)는 1차 이진화가 완료된 제 1 관심영역들(30)을 횡단보도 판정을 위한 데이터로 사용할 수 있다. 반대로, 분산값이 큰 경우(i.e. 소정의 기준값 이상인 경우), 횡단보도 검출부(120)는 흰색영역의 평균값을 임계값으로 하는 2차 이진화를 추가적으로 수행할 수 있다. 이와 같은 이진화의 반복적 수행을 통해 횡단보도 패턴을 보다 정확히 결정하여 분석 정확도를 향상시킬 수 있다.
도 4는 횡단보도의 도색상태 불량에 따른 이진화 문제를 나타낸다.
도 4를 참조하면, 전방 영상(10)으로 촬영된 횡단보도의 흰색영역이 노란색 점선으로 표시된 부분과 같이 일부가 벗겨지거나 도색 상태가 불량한 경우가 발생할 수 있다. 이와 같이 전방 영상(10)으로 촬영된 횡단보도의 흰색영역의 도색 상태가 불량한 경우, 이진화 수행 결과가 바람직하지 않을 가능성이 있다. 좌측을 기준으로 첫번째와 마지막 이진화 결과(40)를 살펴보면, 흰색영역으로 완벽히 구분되어야 하는 빨간색 박스 영역의 일부분이 누락되어 이진화 결과(40)로 표현됨을 알 수 있다.
따라서, 전술한 문제를 개선하기 위해 본 발명의 일 실시 예에 따른 횡단보도 검출부(120)는 횡단보도 패턴에 대한 모폴로지(Morphology) 기법에 기반한 색상 보정을 수행할 수 있다. 즉, 횡단보도 검출부(120)는 이진화 단계의 전후에 모폴로지를 통한 전처리 및 후처리를 수행하여 흰색영역의 도색 상태를 개선할 수 있다. 모폴로지란 영상 내 원하는 부분만 추출하거나, 영상 내 물체 구조의 형태를 표현하는데 필요한 요소를 추출하거나, 영상 내 물체의 구조를 명확하게 하기 위한 연산 기법을 말한다. 따라서, 본 발명에서는 이진화 과정에서 발생하는 불명확한 물체 영역을 명확하게 하기 위한 모폴로지 기법이 이용될 수 있다.
도 5는 장애물의 존재 여부에 따른 (a) 종래 기본적인 방식의 이진화 결과(40), (b) 본 발명의 일 실시 예에 따른 이진화 결과(30)를 나타낸다.
만일 제 1 관심영역(21) 내에 장애물이 존재한다면, 통상적인 이진화를 수행하는 경우에 도 5의 (a)와 같은 문제가 발생한다. 도 5의 (a)의 상단 이미지는 제 1 관심영역(21)이 설정된 전방 영상(10)이며, 하단 이미지는 오츠(OTSU) 알고리즘에 따른 이진화 결과(51)를 나타낸다. 도 5의 (a)의 상단 이미지의 노란색 점선으로 표시된 영역에 장애물의 역할을 하는 차량이 존재하기 때문에, 통상의 이진화 방식을 이용하는 경우에는 도 5의 (a)의 하단 이미지와 같이 횡단보도의 흰색영역과 회색영역이 분리되지 못하는 현상이 발생한다. 따라서, 통상적인 이진화 기법을 개선하여 이러한 문제 상황을 해결할 필요가 있다.
이를 위한 개선 방법 중 하나가 도 3을 참조하여 설명한 본 발명의 일 실시 예에 따른 이진화 방식이다. 도 5의 (b)의 상단 이미지는 제 1 관심영역(21)이 설정된 전방 영상(10)이며, 하단 이미지는 본 발명의 일 실시 예에 따른 이진화 결과(52)를 나타낸다. 도 5의 (b)의 상단 이미지에 노란색 점선으로 표시된 영역과 같이 장애물이 존재하더라도, 본 발명의 일 실시 예에 다른 이진화 방식을 이용하면, 도 5의 (b)의 하단 이미지와 같이 횡단보도의 흰색영역과 회색영역을 명확히 분리할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 투영 데이터 및 진행방향에 따른 기울기 변화를 보여주는 그래프이다.
사용자가 정확하게 횡단보도의 수직방향으로 보행하는 경우, 정상적으로 이진화된 제 1 관심영역(30) 및 그래프 형태의 투영 데이터는 도 6의 (a)와 같이 나타날 수 있다. 이때, 투영 데이터의 X축은 이진화된 제 1 관심영역(30)의 수직길이, Y축은 픽셀값을 나타낼 수 있다. Y축으로 표시되는 픽셀값은 투영 데이터 상에서 누적된 화소수 또는 크기를 의미한다. 도 6의 (a)의 우측 그래프를 참조하면, 투영 데이터의 픽셀값들은 횡단보도의 패턴에 따라 명확히 구별되는 구형파(square wave) 형태의 분포를 보임을 알 수 있다. 구형파 형태의 분포에 의해 발생한 경계에서는 픽셀값들이 급격히 변화하므로, 이러한 변화를 통해 사용자가 정확하게 정확하게 횡단보도의 수직방향으로 보행하고 있음이 파악될 수 있다.
반면, 사용자가 횡단보도의 수평방향을 기준으로 소정의 각도(e.g. 40도)로 보행하는 경우, 정상적으로 이진화된 제 1 관심영역(30) 및 그래프 형태의 투영 데이터는 도 6의 (b)와 같이 나타날 수 있다. 도 6의 (b)의 우측 그래프를 참조하면, 도 6의 (a)와는 다르게 투영 데이터의 픽셀값들이 변화하는 경계가 소정의 기울기를 가지면서 변화함을 확인할 수 있다. 즉, 이와 같은 변화가 발생하는 구간의 기울기를 구하거나 밝기를 비교함으로써, 사용자가 어떤 방향으로 횡단보도를 보행하고 있는지가 파악될 수 있다.
다시 말해서, 본 발명의 일 실시 예에 따른 진행방향 판단부(140)는 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써(e.g. 기울기를 추정하거나 구간의 밝기를 비교 등), 횡단보도 패턴이 기울어진 방향을 추정하고, 사용자의 진행방향을 판단할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법을 나타낸 순서도이다.
도 7을 참조하면, 본 발명의 일 실시 예에 따른 시각장애인의 횡단보도 보행을 위한 가이드 방법은, 시각장애인이 착용한 단말(200)로부터 전달되는 전방 영상(10)을 수집하는 단계(S10), 전방 영상(10)에 대한 복수개의 제 1 관심영역들(20)을 설정하고, 제 1 관심영역들(20)에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들(21)을 추정하는 단계(S20), 전방 영상(10)의 중심 일 영역을 제 2 관심영역으로 설정하고, 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 후보영역들에 포함된 보행신호의 상태를 판단하는 단계(S30), 횡단보도에 해당하는 제 1 관심영역들(21)을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 시각장애인의 진행방향을 추정하는 단계(S40) 및 횡단보도 검출부(120), 보행신호 검출부(130) 및 진행방향 판단부(140)의 출력 데이터를 기초로 단말(200)의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 단계(S50)를 포함할 수 있다.
본 발명의 일 실시 예에 따른 방법과 관련하여서는 전술한 장치에 대한 내용이 적용될 수 있다. 따라서, 방법과 관련하여, 전술한 장치에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.
한편, 본 발명의 일 실시 예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 다시 말해서, 전술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록 매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크, 메모리 카드 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Terms used in this specification will be briefly described, and the present invention will be described in detail.
The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" described in the specification mean a unit for processing at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention. However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
1 is a block diagram illustrating a guide device for walking in a crosswalk for a visually impaired person according to an embodiment of the present invention.
Referring to FIG. 1 , a guide device 100 according to an embodiment of the present invention is a device capable of interworking with a terminal 200 worn by a visually impaired (hereinafter referred to as a user), and a front image ( 10) can be analyzed to induce the user's stable walking in the crosswalk. In this case, the guide device 100 may communicate with the terminal 200 worn by the user through wired/wireless network communication, and may output walking guide information through a user interface that can be driven by the terminal 200 worn by the user.
Specifically, the guide device 100 according to an embodiment of the present invention may include an image acquisition unit 110 that collects the front image 10 transmitted from the terminal 200 worn by the user. The front image 10 refers to an image of a direction in which the body in which the terminal 200 is worn faces based on the moving direction of the user. For example, if the user is wearing a head-mounted display (HMD) type terminal, images in the direction of the head based on the moving direction of the user are taken as the front image 10 , which is the image acquisition unit 110 . can be transmitted to At this time, the image acquisition unit 110 analyzes the front and rear changes of the front images 10 collected from the terminal 200 worn by the user, so that the images greatly deviated from the moving direction due to the movement of the head are the front images 10 . It is determined that this is not the case, and these images can be deleted by themselves.
The guide apparatus 100 according to an embodiment of the present invention may include a crosswalk detection unit 120 that detects whether a crosswalk exists in the front image 10 . The crosswalk detector 120 may set a plurality of first regions of interest 20 for the front image 10 . The reason why some regions, not the entire region, of the front image 10 are set as the first regions of interest 20 is to enable rapid analysis while maintaining accuracy in a situation where walking is to be guided in real time. In this case, the size, number, etc. of the plurality of first regions of interest 20 may be automatically determined by the size of the collected front image 10 , or may be set or changed through an external input applied through the user interface. have.
The crosswalk detection unit 120 may estimate the first areas of interest 21 corresponding to the crosswalk through at least one of feature-based analysis or machine learning for each of the first areas of interest 20 . The feature-based analysis refers to analyzing characteristic elements such as the shape, size, and color of the crosswalk pattern included in the first regions of interest 20 . For example, in the feature-based analysis of the crosswalk pattern, whether the white area and the gray area are alternately repeated with a certain thickness, whether the ratio of the area of the white area to the gray area is similar, bi-modal ) may be included in the analysis on whether or not it has a brightness distribution of the shape. In this case, the crosswalk detection unit 120 binarizes the first regions of interest 20 in order to improve the analysis accuracy of the crosswalk pattern in the feature-based analysis process. More details on binarization will be described later with reference to FIG. 3 .
Meanwhile, machine learning includes image-based supervised learning, unsupervised learning, reinforcement learning, and deep learning. For example, the machine learning algorithm may include a support vector machine (SVM), a random tree, a convolutional neural network (CNN), and the like. The crosswalk detection unit 120 learns whether a crosswalk is included in the first regions of interest 20 using a machine learning algorithm as in the above-described example, and a front image ( 10), it is possible to determine whether a crosswalk exists.
The guide device 100 according to an embodiment of the present invention may include a walking signal detection unit 130 for checking the lighting of a walking signal such as a traffic light installed in a crosswalk. The walking signal detector 130 may set one central region of the front image 10 as the second ROI. That is, the walking signal detector 130 sets a region of interest for the front image 10 separately from the crosswalk detector 120 . For example, in the case of a pedestrian traffic light, since it is generally located above the height of a person, the walking signal detection unit 130 sets the 1/2 region based on the center of the front image 10 as the second region of interest. can In this case, the criterion for determining the second ROI may be automatically determined by the size of the collected front image 10 , or may be set or changed through an external input applied through the user interface.
The gait signal detector 130 may estimate candidate regions including the gait signal among the second ROIs through at least one of a feature-based analysis of the second ROI or machine learning. The feature-based analysis refers to analyzing feature elements such as the shape, size, and color of the gait signal included in the second region of interest. For example, the feature-based analysis of the walking signal may include analysis of whether a red or green lighting area exists, and whether the shape of the lighting area is a human shape rather than a circle.
At this time, in the case of a traffic light for pedestrians, unlike a traffic light for a vehicle, there is a high possibility that there are visual obstructions around, and the cases of false detection of a candidate area may increase due to the influence of ambient lighting at night. Accordingly, the gait signal detector 130 estimates a plurality of candidate regions determined to contain the gait signal within the second region of interest, thereby reducing the probability of erroneous detection in determining the gait signal. can That is, the gait signal detector 130 selects all candidate regions extracted within one second region of interest as considerations for determining the state of the gait signal.
The walking signal detector 130 may determine the state of the walking signal included in the candidate regions selected through the above-described process. For example, the walking signal detector 130 may detect a change in lighting of a red signal or a green signal in the walking signal included in the candidate regions. If the green signal is lit, it may be determined whether the green signal is flickering. Also, when there is an area in which time is displayed in an arrow shape or a number shape, the time remaining until the signal is changed may be estimated. Such determination of the state of the walking signal may improve accuracy by comparing a plurality of candidate regions.
The guide apparatus 100 according to an embodiment of the present invention may include a moving direction determining unit 140 for detecting the user's moving direction in real time in a situation of crossing a crosswalk. Determination of the traveling direction may be performed with respect to the first regions of interest 20 detected as a crosswalk by the crosswalk detection unit 120 . At this time, since obstacles such as surrounding pedestrians may exist in a situation in which the user is walking along the crosswalk, the first regions of interest 20 determined as the crosswalk may change for each frame of the front image 10 .
The traveling direction determiner 140 may use the binarization result 30 for the first regions of interest 21 corresponding to the crosswalk to generate the projection data. That is, the traveling direction determiner 140 may generate projection data for indicating how much the normally binarized first regions of interest 30 have changed based on the horizontal direction of the crosswalk. For example, if a user accurately crosses a crosswalk vertically, a clear boundary between data values and a sharp change in boundary may appear in the projection data according to the crosswalk pattern. If the user is crossing the crosswalk at an angle, the projection data may show an ambiguous boundary between data values and a change in the boundary with a predetermined inclination.
The moving direction determining unit 140 may estimate the moving direction of the visually impaired by analyzing a change in inclination of pixel values constituting the projection data. As described above, depending on the user's moving direction with respect to the crosswalk, the inclination change inevitably occurs in the section where the pixel values change in the projection data. Accordingly, the traveling direction determining unit 140 may determine whether the user is crossing the crosswalk in the correct direction based on the change in inclination of pixel values constituting the projection data. A more detailed description of the slope determination will be described later with reference to FIG. 6 .
The guide device 100 according to an embodiment of the present invention outputs to the user interface of the terminal 200 based on the output data of the crosswalk detection unit 120 , the walking signal detection unit 130 , and the traveling direction determination unit 140 . It may include an information analysis unit 150 that generates the walking guide information to be used. That is, the information analysis unit 150 serves to provide the user with feedback on the result of the analysis based on the front image 10 . At this time, the information analysis unit 150 receives and analyzes the output data of the crosswalk detection unit 120 , the walking signal detection unit 130 , and the traveling direction determination unit 140 individually, and provides walking guide information for each analysis result. are created individually.
If the number of the first regions of interest 21 corresponding to the crosswalk is greater than or equal to a predetermined reference number, the information analysis unit 150 determines that there is a crosswalk in front of the visually impaired and prevents access to the crosswalk. The notification may generate walking guide information. For example, if there are three or more first ROIs corresponding to a crosswalk among the eight first ROIs, and it is determined that the distance between the crosswalk and the user is within a predetermined range, the information analysis unit 150 may generate walking guide information indicating that the crosswalk has been approached. At this time, the walking guide information through the user interface of the terminal 200 "There is a crosswalk in front, please stop once." may be output in the form of a sound of the phrase.
The information analysis unit 150 may generate walking guide information for inducing the visually impaired to stop or walk in a crosswalk based on the state of the walking signal included in the candidate areas. For example, if it is determined that the walking signal is a red signal, the information analysis unit 150 may say "This is a current stop signal. Please stop" through the user interface. It is possible to generate walking guide information for inducing a stop that is output as a phrase. If it is determined that there is not enough time for the signal to flash even if it is a green signal or to cross through arrows and numbers, the information analysis unit 150 displays "Not enough time remaining. Please stop" through the user interface. It is possible to generate walking guide information for inducing a stop that is output as a phrase.
In addition, when it is determined that the walking signal has changed from the red signal to the green signal, the information analysis unit 150 "changes to a walking signal. You can cross the crosswalk" through the user interface. It is possible to generate gait guide information for inducing a gait that is output as a phrase. If it is determined that the red and green signals are lit at the same time, the information analysis unit 150 displays "The traffic light is broken. You cannot use this crosswalk" through the user interface. It is possible to generate walking guide information for inducing a stop that is output as a phrase.
The information analysis unit 150 may generate walking guide information that guides the moving direction of the visually impaired within a predetermined angular range when the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk. have. In this case, the predetermined angle range may be automatically determined based on the width of the crosswalk, the first entry point of the crosswalk, the current moving point, and the like. For example, when it is determined that the user walks in a crosswalk within a normal range, the information analysis unit 150 does not generate separate walking guide information. However, when walking guide information is requested from the user through the user interface, the information analysis unit 150 "maintains the current direction." It is possible to generate walking guide information output as a phrase. If it is determined that the user's moving direction exceeds a certain angle to the left (or right), the information analysis unit 150 "Please adjust the direction to the right (or left)" through the user interface. It is possible to generate walking guide information output as a phrase.
Since the above-described walking guide information is provided to the user in real time through the user interface, the user can stably walk in the crosswalk based on the walking guide information output in the form of sound.
2 shows a plurality of first ROIs 20 for the anterior image 10 according to an embodiment of the present invention, and FIG. 3 shows a plurality of first ROIs according to an embodiment of the present invention. 20) for the binarization result (30).
The plurality of first regions of interest 20 according to an embodiment of the present invention may be set at predetermined intervals in the front image 10 . In this case, in order to increase the accuracy of determining the region of interest, the first regions of interest 20 may be set in a rectangular shape with respect to the vertical direction of the front image as shown in FIG. 2 . When there is a crosswalk in front, it is highly likely that some or several parts will be obscured by obstacles such as people or vehicles traveling on the road. Accordingly, even when some of the regions of interest on the crosswalk are obscured by obstacles, in order to increase the reliability of detection of the crosswalk, the first regions of interest 20 may be set in plurality as shown in FIG. 2 .
Referring to FIG. 3 , the crosswalk detection unit 120 according to an embodiment of the present invention may perform binarization based on the characteristics of the crosswalk pattern identified in each of the plurality of first regions of interest 21 . . If there is only a crosswalk without other obstacles in the region of interest, since the pixels in the region of interest have a bi-modal distribution, binarization clearly expresses the pattern of the crosswalk in the first regions of interest 21. process can be understood. For example, the crosswalk detection unit 120 detects the difference between the average brightness values of the white area and the gray (or black) area, the area ratio of the white area, from the white area to the gray area along the vertical direction, and from the gray area to the white area A crosswalk pattern in the first region of interest 21 may be determined based on the number of times it is converted to .
Specifically, the crosswalk detection unit 120 may perform primary binarization using the average value of the features of the crosswalk pattern as a threshold value. When the primary binarization is completed, the average value and variance value of the resulting white area (ie the crosswalk area) can be estimated. At this time, when the variance value is sufficiently small (ie, less than a predetermined reference value), the crosswalk detection unit 120 may use the first regions of interest 30 that have been first binarized as data for determining the crosswalk. Conversely, when the variance value is large (ie, greater than or equal to a predetermined reference value), the crosswalk detection unit 120 may additionally perform secondary binarization using the average value of the white area as a threshold value. Through the iterative execution of such binarization, the crosswalk pattern can be determined more accurately and the analysis accuracy can be improved.
4 shows the binarization problem according to the poor paint condition of the crosswalk.
Referring to FIG. 4 , the white area of the crosswalk photographed by the front image 10 may be partially peeled off, such as a portion indicated by a yellow dotted line, or the paint state may be poor. As described above, when the painted state of the white area of the crosswalk photographed with the front image 10 is poor, there is a possibility that the binarization result is not desirable. Looking at the first and last binarization results 40 on the basis of the left side, it can be seen that a part of the red box area that should be completely separated by a white area is omitted and is expressed as the binarization result 40 .
Therefore, in order to improve the above-described problem, the crosswalk detection unit 120 according to an embodiment of the present invention may perform color correction based on a morphology technique for the crosswalk pattern. That is, the crosswalk detection unit 120 may improve the painted state of the white area by performing pre-processing and post-processing through morphology before and after the binarization step. Morphology refers to an operation technique for extracting only a desired part in an image, extracting elements necessary to express the shape of an object structure in an image, or clarifying the structure of an object in an image. Therefore, in the present invention, a morphology technique for clarifying an ambiguous object region generated in the binarization process may be used.
5 shows (a) a binarization result 40 of a conventional basic method, and (b) a binarization result 30 according to an embodiment of the present invention according to the presence or absence of an obstacle.
If an obstacle exists in the first region of interest 21 , a problem as shown in FIG. 5 (a) occurs when normal binarization is performed. The upper image of FIG. 5A is the front image 10 in which the first region of interest 21 is set, and the lower image shows the binarization result 51 according to the OTSU algorithm. Since a vehicle acting as an obstacle exists in the area indicated by the yellow dotted line in the upper image of FIG. 5A, when using the conventional binarization method, the white color of the crosswalk as shown in the lower image of FIG. 5A A phenomenon occurs in which the region and the gray region cannot be separated. Therefore, it is necessary to solve this problem by improving the conventional binarization technique.
One of the improvement methods for this is the binarization method according to an embodiment of the present invention described with reference to FIG. 3 . The upper image of FIG. 5B is the front image 10 in which the first region of interest 21 is set, and the lower image shows the binarization result 52 according to an embodiment of the present invention. Even if there is an obstacle such as the area indicated by the yellow dotted line in the upper image of FIG. 5 (b), if another binarization method is used according to an embodiment of the present invention, as in the lower image of FIG. The white area and the gray area can be clearly separated.
6 is a graph showing a change in inclination according to projection data and a moving direction according to an embodiment of the present invention.
When the user accurately walks in the vertical direction of the crosswalk, the normally binarized first region of interest 30 and the projection data in the form of a graph may appear as shown in FIG. 6( a ). In this case, the X axis of the projection data may represent the vertical length of the binarized first region of interest 30 , and the Y axis may represent pixel values. The pixel value displayed on the Y-axis means the number or size of pixels accumulated on the projection data. Referring to the graph on the right of FIG. 6A , it can be seen that the pixel values of the projection data show a distribution in the form of a square wave that is clearly distinguished according to the pattern of the crosswalk. Since pixel values change rapidly at the boundary generated by the square wave distribution, it can be understood that the user is accurately and accurately walking in the vertical direction of the crosswalk through these changes.
On the other hand, when the user walks at a predetermined angle (eg 40 degrees) based on the horizontal direction of the crosswalk, the normally binarized first region of interest 30 and the projection data in the form of a graph are displayed as shown in FIG. may appear Referring to the graph on the right of FIG. 6B , it can be confirmed that, unlike in FIG. 6A , the boundary at which pixel values of the projection data change changes while having a predetermined inclination. That is, by obtaining the slope or comparing the brightness of the section in which such a change occurs, it can be determined in which direction the user is walking in the crosswalk.
In other words, the progress direction determination unit 140 according to an embodiment of the present invention analyzes a change in a section in which pixel values constituting the projection data change from a minimum value to a maximum value (eg, estimating the slope or comparing the brightness of the section). etc.), estimating the direction in which the crosswalk pattern is inclined, and determining the user's moving direction.
7 is a flowchart illustrating a guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention.
Referring to FIG. 7 , the guide method for walking in a crosswalk for the visually impaired according to an embodiment of the present invention includes the steps of collecting the front image 10 transmitted from the terminal 200 worn by the visually impaired (S10) , set a plurality of first regions of interest 20 for the front image 10, and perform a first corresponding to a crosswalk through at least one of feature-based analysis or machine learning for the first regions of interest 20 1 Step of estimating the regions of interest 21 ( S20 ), setting one central region of the front image 10 as the second region of interest, and performing at least one of feature-based analysis or machine learning for the second region of interest estimating candidate regions including the gait signal among the second regions of interest through the step of determining the state of the gait signal included in the candidate regions (S30), based on the first regions of interest 21 corresponding to the crosswalk estimating the moving direction of the visually impaired by generating projection data based on the horizontal direction and analyzing the gradient change of pixel values constituting the projection data (S40) and a crosswalk detection unit 120, a walking signal detection unit ( 130) and generating (S50) walking guide information output to the user interface of the terminal 200 based on the output data of the proceeding direction determining unit 140 .
Regarding the method according to an embodiment of the present invention, the contents of the above-described apparatus may be applied. Accordingly, in relation to the method, descriptions of the same contents as those of the above-described apparatus are omitted.
Meanwhile, according to an embodiment of the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above-described method in a computer is recorded. In other words, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium. In addition, the structure of the data used in the above-described method may be recorded in a computer-readable medium through various means. A recording medium for recording an executable computer program or code for performing various methods of the present invention should not be construed as including temporary objects such as carrier waves or signals. The computer-readable medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, a memory card, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).
The description of the present invention described above is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.
The scope of the present invention is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .

Claims (16)

시각장애인의 횡단보도 보행을 위한 가이드 장치에 있어서,
시각장애인이 착용한 단말로부터 전달되는 전방 영상을 수집하는 영상 획득부;
상기 전방 영상에 대한 복수개의 제 1 관심영역들을 설정하고, 상기 제 1 관심영역들에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들을 추정하는 횡단보도 검출부;
상기 전방 영상의 중심 일 영역을 제 2 관심영역으로 설정하고, 상기 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 상기 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 상기 후보영역들에 포함된 보행신호의 상태를 판단하는 보행신호 검출부;
상기 횡단보도에 해당하는 제 1 관심영역들을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 상기 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 상기 시각장애인의 진행방향을 추정하는 진행방향 판단부; 및
상기 횡단보도 검출부, 보행신호 검출부 및 진행방향 판단부의 출력 데이터를 기초로 상기 단말의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 정보 분석부를 포함하는 장치.
In the guide device for walking in a crosswalk for the visually impaired,
An image acquisition unit for collecting the front image transmitted from the terminal worn by the visually impaired;
A crosswalk detection unit that sets a plurality of first ROIs for the front image and estimates first ROIs corresponding to a crosswalk through at least one of feature-based analysis or machine learning for the first ROIs ;
A central region of the front image is set as a second region of interest, and candidate regions including a walking signal among the second region of interest are estimated through at least one of a feature-based analysis of the second region of interest or machine learning. and a walking signal detector for determining the state of the walking signal included in the candidate regions;
A moving direction for estimating the moving direction of the visually impaired by generating projection data based on the horizontal direction based on the first regions of interest corresponding to the crosswalk, and analyzing the gradient change of pixel values constituting the projection data judging unit; and
An apparatus including an information analysis unit for generating walking guide information output to a user interface of the terminal based on the output data of the crosswalk detection unit, the walking signal detection unit, and the traveling direction determination unit.
제 1 항에 있어서,
상기 횡단보도 검출부는,
상기 복수개의 제 1 관심영역들 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행하고, 상기 이진화를 기초로 상기 복수개의 제 1 관심영역들이 횡단보도에 해당하는지를 개별적으로 판단하는 것을 특징으로 하는 장치.
The method of claim 1,
The crosswalk detection unit,
performing binarization based on the characteristics of the crosswalk pattern identified in each of the plurality of first regions of interest, and individually determining whether the plurality of first regions of interest correspond to a crosswalk based on the binarization device to do.
제 2 항에 있어서,
상기 횡단보도 검출부는,
상기 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 이진화를 수행하고, 상기 이진화를 기초로 도출된 횡단보도 영역에 대한 평균값과 분산값을 추정하며, 상기 추정된 평균값과 분산값을 기초로 추가적인 이진화를 수행할지를 판단하는 것을 특징으로 하는 장치.
3. The method of claim 2,
The crosswalk detection unit,
Perform binarization using the average value of the characteristics of the crosswalk pattern as a threshold value, estimate the average value and variance value for the crosswalk area derived based on the binarization, and additionally based on the estimated average value and variance value An apparatus, characterized in that it determines whether to perform binarization.
제 3 항에 있어서,
상기 횡단보도 검출부는,
상기 횡단보도 패턴에 대한 모폴로지 기법에 기반한 형태 보정을 수행하는 것을 특징으로 하는 장치.
4. The method of claim 3,
The crosswalk detection unit,
Apparatus, characterized in that performing a shape correction based on the morphology technique for the crosswalk pattern.
제 1 항에 있어서,
상기 진행방향 판단부는,
상기 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써, 횡단보도 패턴이 기울어진 방향을 추정하는 것을 특징으로 하는 장치.
The method of claim 1,
The progress direction determination unit,
The device, characterized in that by analyzing a change in a section in which pixel values constituting the projection data change from a minimum value to a maximum value, the direction in which the pedestrian crossing pattern is inclined is estimated.
제 1 항에 있어서,
상기 정보 분석부는,
상기 횡단보도에 해당하는 제 1 관심영역들의 개수가 소정의 기준개수 이상인 경우, 상기 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 상기 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성하는 것을 특징으로 하는 장치.
The method of claim 1,
The information analysis unit,
When the number of first areas of interest corresponding to the crosswalk is greater than or equal to a predetermined reference number, it is determined that a crosswalk exists in front of the visually impaired, and generating walking guide information informing the approach to the crosswalk device characterized.
제 1 항에 있어서,
상기 정보 분석부는,
상기 후보영역들에 포함된 보행신호의 상태를 기초로 상기 시각장애인의 정지 또는 상기 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성하는 것을 특징으로 하는 장치.
The method of claim 1,
The information analysis unit,
Device characterized in that based on the state of the walking signal included in the candidate areas to generate walking guide information for inducing the visually impaired to stop or walk in the crosswalk.
제 1 항에 있어서,
상기 정보 분석부는,
상기 시각장애인의 진행방향이 상기 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 상기 시각장애인의 진행방향을 상기 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성하는 것을 특징으로 하는 장치.
The method of claim 1,
The information analysis unit,
When the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk, generating walking guide information for guiding the visually impaired person's moving direction within the predetermined angular range Device.
시각장애인의 횡단보도 보행을 위한 가이드 방법에 있어서,
시각장애인이 착용한 단말로부터 전달되는 전방 영상을 수집하는 단계;
상기 전방 영상에 대한 복수개의 제 1 관심영역들을 설정하고, 상기 제 1 관심영역들에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 횡단보도에 해당하는 제 1 관심영역들을 추정하는 단계;
상기 전방 영상의 중심 일 영역을 제 2 관심영역으로 설정하고, 상기 제 2 관심영역에 대한 특징 기반의 분석 또는 기계학습 중 적어도 하나를 통해 상기 제 2 관심영역 중 보행신호를 포함하는 후보영역들을 추정하며, 상기 후보영역들에 포함된 보행신호의 상태를 판단하는 단계;
상기 횡단보도에 해당하는 제 1 관심영역들을 기초로 수평방향을 기준으로 한 투영 데이터를 생성하고, 상기 투영 데이터를 구성하는 픽셀값들의 기울기 변화를 분석하여 상기 시각장애인의 진행방향을 추정하는 단계; 및
상기 횡단보도 검출부, 보행신호 검출부 및 진행방향 판단부의 출력 데이터를 기초로 상기 단말의 유저 인터페이스로 출력되는 보행 가이드 정보를 생성하는 단계를 포함하는 방법.
In the guiding method for the visually impaired to walk in a crosswalk,
Collecting the front image transmitted from the terminal worn by the visually impaired;
setting a plurality of first ROIs for the front image, and estimating first ROIs corresponding to a crosswalk through at least one of feature-based analysis or machine learning of the first ROIs;
A central region of the front image is set as a second region of interest, and candidate regions including a walking signal among the second region of interest are estimated through at least one of a feature-based analysis of the second region of interest or machine learning. and determining the state of the walking signal included in the candidate regions;
generating projection data based on a horizontal direction based on the first regions of interest corresponding to the crosswalk, and estimating the moving direction of the visually impaired by analyzing a change in inclination of pixel values constituting the projection data; and
The method comprising the step of generating the walking guide information output to the user interface of the terminal based on the output data of the crosswalk detection unit, the walking signal detection unit, and the traveling direction determination unit.
제 9 항에 있어서,
상기 제 1 관심영역들을 추정하는 단계에서는,
상기 복수개의 제 1 관심영역들 각각에서 파악되는 횡단보도 패턴의 특징을 기초로 한 이진화를 수행하고, 상기 이진화를 기초로 상기 복수개의 제 1 관심영역들이 횡단보도에 해당하는지를 개별적으로 판단하는 것을 특징으로 하는 방법.
10. The method of claim 9,
In the step of estimating the first regions of interest,
performing binarization based on the characteristics of the crosswalk pattern identified in each of the plurality of first regions of interest, and individually determining whether the plurality of first regions of interest correspond to a crosswalk based on the binarization how to do it
제 10 항에 있어서,
상기 제 1 관심영역들을 추정하는 단계에서는,
상기 횡단보도 패턴의 특징에 대한 평균값을 임계값으로 하는 이진화를 수행하고, 상기 이진화를 기초로 도출된 횡단보도 영역에 대한 평균값과 분산값을 추정하며, 상기 추정된 평균값과 분산값을 기초로 추가적인 이진화를 수행할지를 판단하는 것을 특징으로 하는 방법.
11. The method of claim 10,
In the step of estimating the first regions of interest,
Perform binarization using the average value of the characteristics of the crosswalk pattern as a threshold value, estimate the average value and variance value for the crosswalk area derived based on the binarization, and additionally based on the estimated average value and variance value A method comprising determining whether to perform binarization.
제 11 항에 있어서,
상기 제 1 관심영역들을 추정하는 단계에서는,
상기 횡단보도 패턴에 대한 모폴로지 기법에 기반한 형태 보정을 수행하는 것을 특징으로 하는 방법.
12. The method of claim 11,
In the step of estimating the first regions of interest,
Method, characterized in that performing a shape correction based on the morphology technique for the crosswalk pattern.
제 9 항에 있어서,
상기 시각장애인의 진행방향을 추정하는 단계에서는,
상기 투영 데이터를 구성하는 픽셀값들이 최소값에서 최대값으로 변하는 구간의 변화를 분석함으로써, 횡단보도 패턴이 기울어진 방향을 추정하는 것을 특징으로 하는 장치.
10. The method of claim 9,
In the step of estimating the progress direction of the visually impaired,
The device, characterized in that by analyzing a change in a section in which pixel values constituting the projection data change from a minimum value to a maximum value, the direction in which the pedestrian crossing pattern is inclined is estimated.
제 9 항에 있어서,
상기 보행 가이드 정보를 생성하는 단계에서는,
상기 횡단보도에 해당하는 제 1 관심영역들의 개수가 소정의 기준개수 이상인 경우, 상기 시각장애인의 전방에 횡단보도가 존재하는 것으로 판단하고, 상기 횡단보도로의 접근을 알리는 보행 가이드 정보를 생성하는 것을 특징으로 하는 방법.
10. The method of claim 9,
In the step of generating the walking guide information,
When the number of first areas of interest corresponding to the crosswalk is greater than or equal to a predetermined reference number, it is determined that a crosswalk exists in front of the visually impaired, and generating walking guide information informing the approach to the crosswalk How to characterize.
제 9 항에 있어서,
상기 보행 가이드 정보를 생성하는 단계에서는,
상기 후보영역들에 포함된 보행신호의 상태를 기초로 상기 시각장애인의 정지 또는 상기 횡단보도로의 보행을 유도하는 보행 가이드 정보를 생성하는 것을 특징으로 하는 방법.
10. The method of claim 9,
In the step of generating the walking guide information,
Based on the state of the walking signal included in the candidate areas, the method characterized in that the generation of walking guide information for inducing the visually impaired to stop or walk in the crosswalk.
제 9 항에 있어서,
상기 보행 가이드 정보를 생성하는 단계에서는,
상기 시각장애인의 진행방향이 상기 횡단보도의 가상의 수직선을 기준으로 소정의 각도범위를 벗어나는 경우, 상기 시각장애인의 진행방향을 상기 소정의 각도범위 내로 유도하는 보행 가이드 정보를 생성하는 것을 특징으로 하는 방법.
10. The method of claim 9,
In the step of generating the walking guide information,
When the moving direction of the visually impaired is out of a predetermined angular range based on the virtual vertical line of the crosswalk, generating walking guide information for guiding the visually impaired person's moving direction within the predetermined angular range Way.
KR1020190179382A 2019-12-31 2019-12-31 Crosswalk guide apparatus and method for pedestrians of the visually impaired KR102304593B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190179382A KR102304593B1 (en) 2019-12-31 2019-12-31 Crosswalk guide apparatus and method for pedestrians of the visually impaired

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190179382A KR102304593B1 (en) 2019-12-31 2019-12-31 Crosswalk guide apparatus and method for pedestrians of the visually impaired

Publications (2)

Publication Number Publication Date
KR20210085865A true KR20210085865A (en) 2021-07-08
KR102304593B1 KR102304593B1 (en) 2021-09-24

Family

ID=76894362

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190179382A KR102304593B1 (en) 2019-12-31 2019-12-31 Crosswalk guide apparatus and method for pedestrians of the visually impaired

Country Status (1)

Country Link
KR (1) KR102304593B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102607430B1 (en) 2021-10-29 2023-11-29 경북보건대학교 산학협력단 Bracelet apparatus for the elderly and disabled

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060008106A (en) * 2004-07-23 2006-01-26 주식회사 팬택앤큐리텔 Apparatus for guiding a blind person and method thereof, mobile communication terminal and personal digital assistant to guide a blind person
KR20110004064A (en) * 2009-07-07 2011-01-13 숭실대학교산학협력단 Method for guiding a blind person and system therefor
KR101661647B1 (en) * 2015-02-23 2016-09-30 한남대학교 산학협력단 Apparatus and method for guiding walking
KR101845754B1 (en) 2017-01-09 2018-04-05 주식회사 아이트릭스테크놀로지 Independence walking guidance device for visually handicapped person
KR101911598B1 (en) * 2016-08-03 2018-10-24 울산대학교 산학협력단 Pedestrian crossing traffic light image recognition method and apparatus for visually impaired People
KR20190078712A (en) * 2017-12-15 2019-07-05 노진송 Deep learning technology base blind man Walking danger information guidance system and the method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060008106A (en) * 2004-07-23 2006-01-26 주식회사 팬택앤큐리텔 Apparatus for guiding a blind person and method thereof, mobile communication terminal and personal digital assistant to guide a blind person
KR100609977B1 (en) * 2004-07-23 2006-08-08 주식회사 팬택앤큐리텔 Apparatus for guiding a blind person and Method thereof, Mobile communication terminal and Personal Digital Assistant to guide a blind person
KR20110004064A (en) * 2009-07-07 2011-01-13 숭실대학교산학협력단 Method for guiding a blind person and system therefor
KR101661647B1 (en) * 2015-02-23 2016-09-30 한남대학교 산학협력단 Apparatus and method for guiding walking
KR101911598B1 (en) * 2016-08-03 2018-10-24 울산대학교 산학협력단 Pedestrian crossing traffic light image recognition method and apparatus for visually impaired People
KR101845754B1 (en) 2017-01-09 2018-04-05 주식회사 아이트릭스테크놀로지 Independence walking guidance device for visually handicapped person
KR20190078712A (en) * 2017-12-15 2019-07-05 노진송 Deep learning technology base blind man Walking danger information guidance system and the method thereof

Also Published As

Publication number Publication date
KR102304593B1 (en) 2021-09-24

Similar Documents

Publication Publication Date Title
KR101517181B1 (en) System and method for warning lane departure
JP4263737B2 (en) Pedestrian detection device
JP5867596B2 (en) Three-dimensional object detection apparatus and three-dimensional object detection method
JP4845698B2 (en) Eye detection device, eye detection method, and program
KR20220000977A (en) Apparatus and method for providing guidance information using crosswalk recognition result
US8498449B2 (en) Eye detecting device, eye detecting method, and program
KR101982298B1 (en) Method and apparatus for detecting sudden moving objecj appearance at vehicle
JP2000137792A (en) Eye part detecting device
KR102161908B1 (en) Driver status monitor method and apparatus
JP5530530B2 (en) Vehicle periphery monitoring device
US10521679B2 (en) Human detection device, human detection system, human detection method, and human detection program
US9558410B2 (en) Road environment recognizing apparatus
KR102304593B1 (en) Crosswalk guide apparatus and method for pedestrians of the visually impaired
CN111183454B (en) Recognition device, recognition method, and recognition program
EP3207861A2 (en) Detection system and detection method
KR101712673B1 (en) Apparatus and Method for Detecting Center of Pupil
JP6077785B2 (en) Object detection apparatus and program
JP5871069B2 (en) Three-dimensional object detection apparatus and three-dimensional object detection method
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2009037284A (en) Traveling object recognition device
KR101965875B1 (en) Method and apparatus for road guidance based in image processing
JP4996943B2 (en) Facial feature point detection apparatus, facial feature point detection method, and program
JP2017202038A (en) Discrimination device, discrimination method, and discrimination program
KR101617182B1 (en) Method and apparatus for detecting realtime object region robust to vehicle headlight
KR20190088154A (en) A method and apparatus for generating an alarm in accordance with driving on a lane in which entry is prohibited

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant