WO2016047890A1 - Walking assistance method and system, and recording medium for performing same - Google Patents

Walking assistance method and system, and recording medium for performing same Download PDF

Info

Publication number
WO2016047890A1
WO2016047890A1 PCT/KR2015/005982 KR2015005982W WO2016047890A1 WO 2016047890 A1 WO2016047890 A1 WO 2016047890A1 KR 2015005982 W KR2015005982 W KR 2015005982W WO 2016047890 A1 WO2016047890 A1 WO 2016047890A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
obstacle
information
profile
edge
Prior art date
Application number
PCT/KR2015/005982
Other languages
French (fr)
Korean (ko)
Inventor
한영준
한헌수
린칭
김민수
정환익
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Publication of WO2016047890A1 publication Critical patent/WO2016047890A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons

Definitions

  • the present invention relates to a walking assistance method and system, and a recording medium for performing the same. More particularly, the present invention relates to a method for detecting a obstacle by combining a depth information obtained by using a laser sensor and edge information of an image obtained by using a camera. The present invention relates to a walking assistance method and system for classifying, detecting and classifying obstacles, and providing walking assistance guide information according to a situation of a current walking environment, and a recording medium for performing the same.
  • the walking assistance method that helps the user who is visually impaired to walk detects an object in front of the user by using a laser scanner sensor and measures the distance to the detected object and provides the user to the user, or uses the camera in front of the user. Recognizes an existing object and measures the distance to the recognized object and provides it to the user.
  • the laser scanner sensor may have a high straightness and may miss a dangerous obstacle, and may not provide an outline of the obstacle because only one-dimensional distance information may be measured. Accordingly, there is a disadvantage in that accurate walking assistance information cannot be provided to the user.
  • the camera may incorrectly recognize the shadow as an obstacle, and when detecting an obstacle in direct sunlight, an object reflecting light, a strong light source in the rear, or a low light environment, direct sunlight, an object reflecting light, or a strong rear light Due to the influence of the light source or the low light environment, the image is distorted, and obstacles cannot be detected accurately. Accordingly, there is a disadvantage in that accurate walking assistance information cannot be provided to the user.
  • the obstacle information at a short distance is detected and classified through the data generated by fusing the distance information acquired by using the laser sensor and the image information acquired by the camera, the information on the detected and classified obstacle, and the walking state of the user. According to this situation, a walking assistance method for providing information on a direction and a situation in which the user proceeds is required.
  • a laser profile including depth information and an edge profile including edge information of an image are fused to generate a multi-modal profile, and a multi-modal profile is used to detect and classify obstacles in a short distance.
  • a walking assistance method and system for detecting and classifying obstacles in a remote location using an edge profile, and providing walking assistance information required by a user according to the walking state of the user and information on the detected and classified obstacles, and for performing the same. Provide a record carrier.
  • a walk assistance method includes generating a laser profile model including depth information obtained by using a laser sensor, and generating an edge profile model including edge information extracted from an image obtained by using an image sensor. Generate, generate a multimodal profile model by fusing the laser profile model and the edge profile model, detect and classify an obstacle present at a short distance from the multimodal profile model, and an obstacle present at a distance from the edge profile model. Detects and classifies the symbol, recognizes the situation in front of the user who is assisted with the walking by using the information on the detected and classified obstacle, and provides information on the direction and the situation to proceed according to the situation information in front of the user.
  • Generating the laser profile model may classify the laser profile according to whether the values of the depth information obtained by using the depth information are similar to distinguish the laser profile of the ground from the laser profile of the obstacle.
  • Categorizing the laser profile according to similarity of the obtained depth information may include calculating a difference value between the obtained depth information values, and if the calculated difference value is less than a predetermined reference value, The laser profile having the value may be classified into the same laser profile, and if the calculated difference value is equal to or greater than a predetermined reference value, the laser profile having the value of the obtained depth information may be classified into a different laser profile.
  • the generating of the multimodal profile model may generate the multimodal profile model by matching a coordinate point of depth information included in the laser profile model with a corresponding point of an image included in the edge profile model.
  • Detecting and classifying obstacles that exist at a short distance from the multi-modal profile model may include determining whether there is an edge profile connected to the peripheral eight directions of the point where the laser profile model and the edge profile model match when generating the multi-modal profile model. If the detected edge profile exists, vertical and horizontal histograms may be calculated in the region where the edge profile is detected to detect and classify obstacles existing in the near distance.
  • Categorizing the obstacle present in the near field may include calculating a width of the obstacle through a horizontal histogram of the laser profile model, calculating a height of the obstacle through a vertical histogram of the edge profile model, The obstacle may be classified by using the height to infer the size and shape of the obstacle.
  • Detecting and classifying obstacles that exist at a distance from the edge profile model includes extracting a vertical edge component from the acquired image, top-view transforming the extracted image of the vertical edge component, and performing a morphology calculation on the top-view transformed image.
  • the labeling may be performed to classify the edge blob which is the obstacle region, obtain an ellipse from the edge blob through elliptic approximation, and calculate the direction of the ellipse to classify the obstacle according to the direction of the ellipse.
  • the optical flow to the obtained image A vector and an extended Kalman filter are applied to predict the movement of the user, and recognize the situation of the walking environment including the walking state and the walking direction of the user from the movement of the user and information about the detected and classified obstacles. According to the situation of the pedestrian environment, it is possible to provide information on the direction and the situation to proceed.
  • the computer program may be a computer readable recording medium having recorded thereon a computer program for providing information to assist a user walking.
  • a walk assistance system includes a laser scanner that detects depth information of a space located in front of the camera, a camera that photographs the space located in front of the camera, and a laser profile model using depth information detected by the laser scanner. Generate an edge profile, extract edge information from an image captured by the camera, generate an edge profile model including the edge information, fuse the laser profile and the edge profile model, and generate a multimodal profile model; Detect and classify obstacles located in front of the multi-modal profile model, and detect and classify obstacles that exist in the distance from the edge profile model, and use the information on the detected and classified obstacles in front of the user who is assisted with walking. Recognize the situation before the user Depending on the situation, and a walking guide apparatus that provides information on the walking direction and the situation.
  • the multi-modal profile fusion of the laser profile obtained through the laser scanner and the edge profile obtained through the camera by detecting the obstacle located at a short distance of the obstacle as well as the position information of the obstacle It is possible to obtain the shape information can provide a more accurate walk assistance service.
  • FIG. 1 is a diagram illustrating a walking assistance system according to an exemplary embodiment of the present invention.
  • FIG. 2 is a block diagram of the walking guide apparatus shown in FIG. 1.
  • 3A and 3B illustrate an example of the multi-modal profile generator shown in FIG. 2.
  • FIG. 4 is a diagram illustrating a method of detecting an obstacle using a multi-modal profile.
  • 5A, 5B, 5C, 5D, and 5E are diagrams for explaining a method for detecting a remote obstacle.
  • FIG. 6 is a diagram illustrating an example of an obstacle classification unit that classifies obstacles in a short distance.
  • FIG. 7 is a diagram illustrating a method of elliptical approximation of an edge blob.
  • 8A and 8B are diagrams for explaining that the shape of an obstacle at a distance when the top view is changed.
  • FIG. 9 is a diagram illustrating a method of calculating the directionality of an ellipse.
  • FIG. 10 is a diagram illustrating an example of an obstacle classification unit classifying obstacles at a distance.
  • FIG. 11 is a flowchart illustrating a control method of a walking assistance system according to an exemplary embodiment of the present invention.
  • FIG. 12 is a flowchart illustrating a control method of a walking assistance system according to an exemplary embodiment of the present invention.
  • FIG. 1 is a view showing a walking assistance system according to an embodiment of the present invention
  • Figure 2 is a block diagram of the walking guidance device shown in Figure 1
  • Figures 3a, 3b is a multi-modal profile generation shown in FIG. 4
  • FIG. 4 is a diagram illustrating an example of a part
  • FIG. 4 is a diagram illustrating a method of detecting an obstacle using a multi-modal profile.
  • the walking assistance system 1 detects and classifies obstacles in front of the user who is provided with the walking assistance guide service of the walking assistance system 1, and predicts the movement of the user to be optimal for the user. Can provide walking assistance services.
  • a walking assistance system 1 may include a laser scanner 100, a camera 200, and a walking guide device 300.
  • the laser scanner 100 may detect distance information on an object (eg, a ground or an obstacle) in front of the user by transmitting a laser in front of the user, that is, in front of the user. .
  • an object eg, a ground or an obstacle
  • the laser scanner 100 may transmit a single laser pulse in front of the user.
  • the laser scanner 100 may detect an object in front of the user by receiving a laser returning the reflected laser pulse reflected on the surface of the object present within the sensor range of the laser scanner 100.
  • the laser scanner 100 may calculate a distance from the laser scanner 100 to an obstacle by measuring a time when the transmitted laser pulse is reflected on the surface of the object within the sensor range of the laser scanner 100 and returning. .
  • the laser scanner 100 may be mounted on one side of the user's body where the movement of the user's waist or the user's walking is relatively small.
  • the camera 200 may be mounted at a position close to the laser scanner 100 to photograph the front of the user.
  • the camera 200 may capture a surrounding image at a near and far distance of the user.
  • the short range area may be an area within 3 m from the camera 200
  • the far area may be an area in the range of 3 to 15 m from the camera 200.
  • the ranges of the near and far areas can be adjusted, set by the system manufacturer from the time of product release, and set by the user.
  • the walking guidance apparatus 300 may predict the obstacles in front of the user and the user's movement by using the information acquired through the laser scanner 100 and the camera 200, and the information on the obstacles in front of the user and By using the information on the movement of the user can provide an optimal walk assistance service for the current walking situation of the user.
  • the walking guide apparatus 300 includes a laser profile generator 310, an edge profile generator 320, a multi-modal profile generator 330, an obstacle detector 340, and an obstacle classifier 350. And a guide information extractor 360.
  • the laser profile generator 310 may generate the laser profile by obtaining depth information using distance information between the object in front of the user acquired from the laser scanner 100 and the laser scanner 100.
  • the laser profile generator 310 may receive distance information on each point of the object in front of the user.
  • the laser profile generator 310 may acquire depth information about an object in front of the user using the received distance information.
  • the depth information includes distance information that can indicate how close the laser scanner 100 is to the object in front of the user, so that each point of the user and the object in front of the user is close to the laser scanner 100. It may be an indicator. For example, if there is a pillar standing on the ground and the ground in front of the user, the pillar standing on the ground will be closer to the user than the ground when viewed horizontally. At this time, the depth information indicates that the pillar is closer than the ground.
  • the laser profile generator 310 may generate a laser profile including the acquired depth information.
  • the laser profile since the laser profile includes depth information for each point of the object in front of the user, the laser profile may be a set of depth information for each point of the object in front of the user.
  • the laser profile generator 310 may extract location information (eg, two-dimensional coordinates (x, y)) of each point of the object in front of the user.
  • the laser profile generator 310 may match the depth information of each point of the object in front of the user with the position information of each point of the object in front of the user.
  • the laser profile generator 310 may generate a laser profile by using depth information of each point of the object in front of the user and information matching the location information of each point of the object in front of the user.
  • the laser profile generator 310 may classify the laser profile using the acquired depth information.
  • the laser profile generator 310 may classify the laser profile using depth information obtained to accurately distinguish objects (eg, ground and obstacles) in front of the user. In this case, the laser profile generator 310 may calculate a difference between the acquired depth information. The laser profile generator 310 may detect whether a difference value between the acquired depth information is equal to or greater than a predetermined reference value (or threshold value). The laser profile generator 310 may classify coordinate points having the acquired depth information into the same laser profile if the difference value between the acquired depth information is less than a predetermined reference value, and the difference value between the acquired depth information. If it is equal to or more than the predetermined predetermined reference value, the coordinate point having the acquired depth information can be classified into another laser profile.
  • a predetermined reference value or threshold value
  • the difference between the acquired depth information is calculated to be 0.5 cm.
  • the first coordinate point and the second coordinate point may be included in the same laser profile (eg, the first laser profile).
  • the depth information of the first coordinate point is 10cm
  • the depth information of the second coordinate point is 12cm
  • the predetermined constant reference value is 1cm
  • the first coordinate point and the second coordinate point are different laser profiles (for example, the first coordinate point is the first laser profile, the second coordinate point).
  • the coordinate point can be classified into a second laser profile.
  • the edge profile generator 320 may generate an edge profile including edge information extracted by extracting an edge from a surrounding image in front of the user acquired through the camera 200.
  • the edge profile generator 320 may convert the surrounding image into a gray image.
  • the edge profile generator 320 may extract an edge by using the ⁇ 1 0 1 mask on the gray image.
  • the -1 0 1 mask may be a sobel edge, a prewitt edge, and a Roberts edge. If the mask is capable of extracting an edge from a gray image, the mask other than the above-listed masks may be used. Of course, other masks may be applied.
  • the edge profile generator 320 may generate an edge profile by matching the extracted edge with the location information (eg, two-dimensional coordinates (x, y)) of the extracted edge.
  • location information eg, two-dimensional coordinates (x, y)
  • the multi-modal profile generator 330 may generate a multi-modal profile by fusing the laser profile generated by the laser profile generator 310 and the edge profile generated by the edge profile generator 320.
  • the multi-modal profile generator 330 uses location information of each point of the object in front of the user included in the laser profile and location information of the edge included in the edge profile.
  • the laser profile and the edge profile can be fused.
  • the coordinate point included in the laser profile and the coordinate point of the edge (edge) included in the edge profile is matched to detect a point corresponding to the coordinate point included in the laser profile and the coordinate point of the edge included in the edge profile. can do.
  • the multi-modal profile generator 330 may match the laser profile and the edge profile according to the detected point as shown in FIG. 3B.
  • the multimodal profile in which the laser profile and the edge profile are fused may include edge information and depth information on coordinate points of each edge.
  • the obstacle detector 340 may detect an obstacle in a short distance of the user by using the multimodal profile generated by the multimodal profile generator 330.
  • the obstacle detector 340 may detect an obstacle based on a point where the laser profile and the edge profile match when the multimodal profile is generated. As illustrated in FIG. 4, the obstacle detector 340 may detect whether there is an edge profile that is connected in one shape with respect to the peripheral eight directions of the point where the laser profile and the edge profile match. If there is an edge profile connected in one shape in the peripheral eight directions of the point where the laser profile and the edge profile match, the obstacle detection unit 340 is connected in one of the eight directions around the point where the laser profile and the edge profile match. Bins may be generated for regions where edge profiles exist. The obstacle detector 340 may generate histograms in the vertical and horizontal directions with respect to the region in which the bin is generated.
  • the obstacle detector 340 detects a region having a high histogram with respect to the vertical direction of the region where the bin is generated, and detects a region having a high histogram with respect to the horizontal direction of the region where the bin is generated. can do.
  • the obstacle detector 340 may detect a region where a high histogram value overlaps with a high histogram value in a vertical direction. At this time, the edge profile connected in one shape is more likely to be an obstacle in front of the user. Thus, the area where the histogram is high in the vertical and horizontal directions is detected in the area where the obstacle is located in one shape. Can mean.
  • the obstacle detection unit 340 may detect an area in which an area having a high histogram value overlaps as an obstacle area and remove the background area from the obstacle area by performing clustering on the detected obstacle area. Only can be detected.
  • the obstacle detector 340 may determine a predetermined search order (for example, the left side of the image) when there is no edge profile connected in one shape in the peripheral eight directions of the point where the laser profile and the edge profile are matched. From the top to the bottom right, you can search for edge profiles that are connected in one shape for the surrounding eight directions of the registration points, which are then ordered: In this case, the predetermined search order may be set from the product release by the system manufacturer, and may be set by the user.
  • a predetermined search order for example, the left side of the image
  • FIG. 5A, 5B, 5C, 5D, and 5E are diagrams for explaining a method for detecting a remote obstacle.
  • FIG. 6 is a diagram illustrating an example of an obstacle classification unit classifying obstacles at a short distance
  • FIG. 7 is a diagram illustrating a method of elliptic approximation of an edge blob
  • FIGS. 8A and 8B are remote views at the time of the top view transformation.
  • FIG. 9 is a diagram illustrating a method of calculating an ellipse's directionality
  • FIG. 10 is an example of an obstacle classification unit classifying an obstacle at a distance. The figure is shown.
  • the obstacle detector 340 may detect an obstacle at a far distance by using an edge profile.
  • the obstacle detector 340 may extract only the vertical edge component of the surrounding image in front of the user from the edge profile. As illustrated in FIG. 5C, the obstacle detector 340 may convert the image obtained by extracting only the vertical edge component to the top view transform. At this time, the top view conversion of the surrounding image is because the camera attached to the user's body acquires the image information on the front side, so it is difficult to accurately detect the distance and direction to the obstacle in the distance. Accordingly, the obstacle detecting unit 340 converts the camera's point of view from the front to a top-view point of view looking down from the vertical in order to accurately detect information on the distance and direction to the obstacle at a distance. Can be. In this case, since the method of converting the front view to the top view is disclosed in Korean Patent No. 1342124, a detailed description thereof will be omitted.
  • the obstacle detector 340 performs an opening technique that continuously performs erosion and expansion operations to remove noise from the top-view converted image, and conversely, to connect an edge obtained from one object.
  • Morphological operations such as a closing technique that continuously performs expansion and erosion operations, can be performed.
  • the obstacle detection unit 340 may detect an obstacle at a long distance by applying a labeling to the image from which the noise is removed and detecting edge blobs connected to the same edge as shown in FIG. 5E.
  • the obstacle classification unit 350 may classify the obstacle according to the size or shape of the obstacle detected in the near and far distances.
  • the obstacle classifying unit 350 may classify the obstacle in the short range detected using the multi-modal profile.
  • the obstacle classification unit 350 may infer the size or shape of the obstacle by calculating the width and height of the detected obstacle using the multi-modal profile.
  • the width and height of the obstacle may be calculated through the horizontal histogram of the laser profile included in the multi-modal profile
  • the height of the obstacle may be calculated through the vertical histogram of the edge profile included in the multi-modal profile.
  • the obstacle classification unit 350 may classify the obstacle into two or three steps as shown in FIG. 6. First, the obstacle classification unit 350 may classify the first stage by using the depth information of the obstacle.
  • the obstacle classifying unit 350 may classify the obstacle based on the detected obstacle and the depth information included in the laser profile of the ground on the horizontal line.
  • the obstacle classification unit 350 may classify the object as positive if the depth value of the obstacle is a positive value based on the detected information on the detected obstacle and the depth information included in the laser profile of the ground on the horizontal line. If it is, it can be classified as ground. If the depth value of obstacle is negative, it can be classified as negative.
  • the obstacle classification unit 350 may classify the obstacle according to the shape of the obstacle. In this case, the shape of the obstacle may be inferred according to the calculated ratio of the width to the height of the obstacle.
  • a high ratio of width to height of an obstacle classified as positive means that it is wider than its height, so the shape of the obstacle is a planar like lying on the floor. Since the height is high compared to the obstacle shape may be a vertical shape such as standing on the floor.
  • the obstacle classified as ground means the ground literally, there is no shape to classify, and the obstacle classified as negative may be classified according to the width of the obstacle. Obstacles classified as negative can be classified as holes if their width is negligibly narrow compared to their height, and can be classified as n-curb if their width is similar to their height or greater than the width of the obstacle classified as a hole. If it is larger than the height, it can be classified as a drop-off like an inclined surface.
  • the obstacle classifying unit 350 may classify the obstacle in the distance detected using the edge profile.
  • the obstacle classifying unit 350 detects an ellipse by ellipsing the edge blob detected by the obstacle detecting unit 340, and detects an obstacle at a long distance using the detected short-to-large-axis ratio of the ellipse and the direction guide of the ellipse. .
  • the obstacle classifying unit 350 may ellipse an edge blob detected by the obstacle detecting unit 340.
  • the ellipse approximation may be calculated using the moments of the pixels included in the edge blob, and the rotation rate, the long axis, and the short axis length of the ellipse may be calculated through Equation 1.
  • Is the rotation rate of the ellipse Is the length of the long axis of the ellipse, Is the length of the short axis of the ellipse.
  • Is an image moment for a certain area R which is defined by Equation 2.
  • the obstacle classification unit 350 may detect whether the obstacle is standing on the ground or lying down by analyzing the distortion of the image generated during the top view conversion.
  • an object having a predetermined height or more may be liable to fall in the radial direction from the camera 200.
  • FIG. 8A when a viewpoint of an image photographing an object having a certain height, such as a bar or a person, is converted into a top view, the horizontal edge of the object is parallel to the ground so that there is no change, but the vertical edge of the object is directed toward the ground. Can increase. On the contrary, referring to FIG.
  • the obstacle classification unit 350 may analyze the screen distortion phenomenon during the top view conversion to distinguish whether the obstacle in the distance is standing or lying on the ground. Referring to FIG. 9, the obstacle classifying unit 350 may determine the angle of the straight line formed by the original position of the camera 200 and the center of the ellipse (obstacle) and the direction of the ellipse (obstacle) in the top view image through [Equation 3].
  • DRO (Deviation form Radial Orientation), which indicates the degree of distortion of the screen during the top view transformation, may be calculated. At this time, if the DRO value is greater than or equal to a predetermined value, it may be determined that the obstacle is standing on the ground. If the DRO value is less than the predetermined value, it may be determined that the obstacle is lying on the ground.
  • Is the coordinate of the center point of the i-ellipse Represents coordinates of the original position of the camera 200, Is the angle between the major axis of the i-th ellipse and the horizontal plane.
  • the obstacle classification unit 350 may classify the obstacle at a distance using the DRO value and the long axis to short axis ratio of the ellipse. Referring to FIG. 10, when the DRO value is greater than or equal to a predetermined value, the obstacle sorting unit 350 may classify the obstacle into a shape that is erected on the ground, that is, vertically. It can be classified as a planar, a shape lying on the side. The obstacle classification unit 350 may classify the obstacle using the long axis to short axis ratio as a next step. The obstacle sorting unit 350 may classify the long pole-to-shorten ratios of the vertically classified obstacles into poles having a long shape. It can be classified into blocks, which are shapes.
  • the obstacle classification unit 350 may be classified as curbs representing the sidewalk block if the long axis-to-short ratio among the obstacles classified as planar is more than a predetermined predetermined ratio, and the flat pile if the long-axis-short ratio is less than the predetermined predetermined ratio. It can be classified into piles representing.
  • the guide information extractor 360 may extract optimal walking assistance guide information suitable for a walking environment including information about a user's movement and an obstacle in front of the current user.
  • the guide information extractor 360 may predict the motion of the current user by using the light flow vector.
  • the guide information extractor 360 may set a region of interest at the bottom center of the image and calculate a light flow vector of the region of interest to predict the movement of the user. .
  • the guide information extractor 360 divides nine zones after setting the ROI, calculates an optical flow vector of each corresponding zone, and minimizes an error rate of the optical flow vectors by calculating an average of the calculated optical flow vectors.
  • the guide information extractor 360 may recognize the current situation of the current user through the information on the obstacle obtained through the obstacle detector 340 and the obstacle classifier 350 and the user's movement obtained using the optical flow vector. have. For example, if an obstacle is located 10m away from the user's 10 o'clock position and the user is currently walking toward 12 o'clock, the user is far from the obstacle and if the user is walking in the direction of progress, it is unlikely to collide with the obstacle. The walking state can be detected as a safe state. If an obstacle exists at a position 10m away from the user's 10 o'clock direction and the user is currently walking to the 10 o'clock direction, the user's walking is present because the obstacle exists in the user's traveling direction but is far away.
  • Ecology can be detected in a normal state, and if there is an obstacle at a position 3m away from the user's 12 o'clock direction and the user walks in the 12 o'clock direction, the user's walking state can be detected as a dangerous state.
  • the guide information extractor 360 may detect information about a direction in which the user is going according to the current situation of the user.
  • the guide information extractor 360 when the guide information extractor 360 is hit by an obstacle in front of the user when the user proceeds in the direction of progress, the user must proceed in order not to hit an obstacle in front of the user by applying an extended Kalman filter.
  • the direction can be detected.
  • the Extended Kalman filter can predict the position to which the user will move after a certain time, it can predict whether the object will not hit an obstacle in front of the user if the user rotates at an angle based on the current progress direction.
  • the guide information extractor 360 may extract optimal walking assistance guide information suitable for the current situation of the user.
  • the guide information extractor 360 applies the extended Kalman filter to the user's current progress direction, That is, it is possible to detect whether or not the position is similar to the obstacle position when moving 5m by turning 10 ° clockwise with respect to 12 o'clock, and if the movement is not similar to the position of obstacle when moving 5m by turning 10 ° clockwise,
  • the optimal walking direction according to the situation can be detected in a direction rotated by 10 ° clockwise from the current direction.
  • the guide information extractor 360 may generate a sentence having a predetermined pattern by extracting words corresponding to the current walking environment of the user.
  • the guide information extractor 360 may define words corresponding to the walking state of the user.
  • the walking state of the user is divided into three stages, a safe state, a normal state, a dangerous state, and the guide information extracting unit 360 is information about the direction to proceed, the user's operation and the position of the obstacle if the user's walking state is a safe state.
  • a word including information about a direction and a user's motion may be defined.
  • the walking direction corresponds to the direction to proceed.
  • the word to be defined as "current direction” or "12 o'clock” the word corresponding to the user's action can be defined as "to go the same as the present” or “to go to the average step”
  • the obstacle of The word corresponding to the position may be defined as "rod", “10 o'clock” and "10m”.
  • the word corresponding to the direction to proceed is expanded.
  • the direction detected by the Kalman filter for example, "11 o'clock” may be defined, and the word corresponding to the user's motion may be defined as "quickly visible", and the word corresponding to the position of the obstacle is "bar”. , “12 o'clock” and “10 m”.
  • the word corresponding to the direction to proceed is a direction detected by the extended Kalman filter, for example, It can be defined as "10 o'clock” and the word corresponding to the user's motion can be defined as "quickly go” or "stop".
  • the guide information extractor 360 may generate a sentence having a predetermined pattern by inserting words defined according to the walking state of the user.
  • the guide information extracting unit 360 defines a word defined when the user's walking state is a safe state, that is, "current progress direction”, “go to the average step”, “rod”, “10 o'clock direction”, and "10m” In the preset sentence and say “(Bar) is in front of (10m) at (10 o'clock).
  • the walking assistance system 1 may output a guide message including a sentence generated from the guide information extractor 360.
  • the walking assistance system 1 may output a guide message by using an output module (not shown) provided in the walking guide device 300, and an earphone (not shown) or a headset (not shown) mounted on a user's ear. You can output the guide message through.
  • a laser profile including depth information about each point is generated using the distance information of each point acquired through the laser scanner 100 (410).
  • an edge profile including edge information is generated by extracting the edges in the vertical and horizontal directions from the surrounding image captured by the camera 200 (415).
  • the multi-modal profile is generated by fusing the generated laser profile and the edge profile (420).
  • the fusion of the laser profile and the edge profile may fuse the laser profile and the edge profile so that the edge profile corresponding to the coordinate point of the laser profile is matched with the detected detection point.
  • edge profiles connected in one shape are detected 425 and 435 in the eight directions around the matched point, an obstacle is detected by calculating a histogram in an area where the edge profiles connected in one shape are detected (440). ).
  • the histogram is calculated in the vertical and horizontal directions to the region where the edge profile connected in one shape is detected, and the region where the histogram value is high in the vertical direction and the region where the histogram value is high in the horizontal direction overlap. It may be detected as an obstacle area, and only an obstacle except a background area may be detected in the obstacle area detected through clustering.
  • the width of the obstacle is calculated through the horizontal histogram of the laser profile, and the height or height of the obstacle is calculated by the vertical histogram of the edge profile to infer the size or shape of the obstacle (445).
  • the width-to-height ratio may be calculated using the calculated width and height of the obstacle, and the width-to-height ratio may be used to detect whether the obstacle is standing on the ground or lying on the ground.
  • a large width-to-height ratio can be inferred into a flat shape, such as a pile or a low sidewalk block, and a small width-to-height ratio can be inferred to an elongated shape such as a rod or a person.
  • the obstacle is classified 450 according to the size or shape of the inferred obstacle, and the user's movement is predicted by applying the optical flow vector and the extended Kalman filter (455).
  • the information on the current direction of the user can be detected by using the optical flow vector, and in which direction the current user moves using the extended Kalman filter to avoid collisions with obstacles. Information can be detected.
  • the optimal walking direction is calculated using information on the detected and classified obstacles and information on the user's movement (460).
  • a walking assistance guide message including the calculated optimal walking direction and obstacle information is generated and output.
  • the walking assistance system 1 may recognize the current walking state of the user by using information about the movement and obstacles of the user, and generate a walking assistance guide message by defining words corresponding to the recognized walking state. .
  • an edge profile including edge information is generated by extracting edges in the vertical and horizontal directions from the surrounding image captured by the camera 200 (510).
  • the image photographed from the front view is converted into the top view view (520).
  • the distortion since the horizontal edge is parallel to the ground, the distortion does not occur when converted to the top view, but the vertical edge may occur when the vertical edge is converted to the top view.
  • the walking assistance system 1 of the present invention may analyze this distortion phenomenon to detect whether an obstacle is standing on the ground or lying down.
  • noise is removed that may affect the obstacle detection, and labeling is performed to detect obstacles by using the property that one object is connected to the same edge.
  • the edge blob including the obstacle is extracted (525).
  • an ellipse approximation is performed on the extracted edge blob to obtain an ellipse from the pixels forming the edge blob (530).
  • the length of the ellipse representing the degree of change of the ellipse direction when the top view is transformed by calculating the lengths of the obtained ellipses and the length of the short axis and changing the ellipse of the ellipse due to the distortion phenomenon generated when converting to the top view point of view. Is detected (535).
  • the ratio of the long axis to the short axis is calculated using the calculated long axis and the short axis length, and the obstacle is classified according to the calculated long axis to short axis ratio and the directionality of the ellipse (540).
  • optical flow vector and the extended Kalman filter are applied to predict the motion of the user (545).
  • the information on the current direction of the user can be detected by using the optical flow vector, and in which direction the current user moves using the extended Kalman filter to avoid collisions with obstacles. Information can be detected.
  • an optimal walking direction is calculated using information on the detected and classified obstacles and information on the user's movement.
  • a walking assistance guide message including the calculated optimal walking direction and obstacle information is generated and output.
  • the walking assistance system 1 may recognize the current walking state of the user by using information about the movement and obstacles of the user, and generate a walking assistance guide message by defining words corresponding to the recognized walking state. .
  • Such a technology for detecting an obstacle in a short distance and a long distance and predicting a user's movement to provide an optimal walk assistance service is implemented in the form of program instructions that can be implemented as an application or executed through various computer components. It can be recorded on a computer readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the computer-readable recording medium are those specially designed and configured for the present invention, and may be known and available to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

Abstract

A walking assistance method and system, and a recording medium for performing the same are disclosed. The walking assistance method comprises: generating a laser profile including depth information for each point of an object which is in front of a user; extracting edges from an image acquired using a camera so as to generate an edge profile including edge information on the image; generating a multi-modal profile by merging the generated laser profile and the generated edge profile; detecting and classifying obstacles located in a short distance using the generated multi-modal profile; predicting a movement of the user using the multi-modal profile; recognizing a walking environment of the user using information on the detected and classified obstacles and information on the movement of the user; and providing a walking assistance guide service to the user according to the recognized walking environment.

Description

보행 보조 방법 및 시스템, 이를 수행하기 위한 기록매체Walking assistance method and system, recording medium for performing the same
본 발명은 보행 보조 방법 및 시스템, 이를 수행하기 위한 기록매체에 관한 것으로서, 보다 상세하게는 레이저 센서를 이용하여 획득한 깊이 정보 및 카메라를 이용하여 획득한 영상의 에지 정보를 융합하여 장애물을 검출 및 분류하고, 검출 및 분류한 장애물 및 현재 보행환경의 상황에 따라 보행 보조 안내 정보를 제공하는 보행 보조 방법 및 시스템, 이를 수행하기 위한 기록매체에 관한 것이다.The present invention relates to a walking assistance method and system, and a recording medium for performing the same. More particularly, the present invention relates to a method for detecting a obstacle by combining a depth information obtained by using a laser sensor and edge information of an image obtained by using a camera. The present invention relates to a walking assistance method and system for classifying, detecting and classifying obstacles, and providing walking assistance guide information according to a situation of a current walking environment, and a recording medium for performing the same.
일반적으로, 시각장애인인 사용자의 보행을 도와주는 보행 보조 방식은 레이저 스캐너 센서를 이용하여 사용자 전방에 있는 물체를 검출하고 검출한 물체와의 거리를 측정하여 사용자에게 제공하거나, 카메라를 이용하여 사용자 전방의 존재하는 물체를 인식하고 인식한 물체와의 거리를 측정하여 사용자에게 제공하는 방식이다.In general, the walking assistance method that helps the user who is visually impaired to walk detects an object in front of the user by using a laser scanner sensor and measures the distance to the detected object and provides the user to the user, or uses the camera in front of the user. Recognizes an existing object and measures the distance to the recognized object and provides it to the user.
그러나, 기존의 보행 보조 방식은 레이저 스캐너 센서의 경우 직진성이 높아 위험 장애물을 놓치는 경우가 발생할 수 있으며, 1차원 거리정보만을 측정할 수 있어 장애물의 외형 정보를 제공할 수 없다. 이에 따라, 사용자에게 정확한 보행 보조 정보를 제공할 수 없다는 단점이 있다. 또한, 카메라의 경우 그림자를 장애물로 잘못 인식하는 경우가 발생할 수 있으며, 직사광선, 빛을 반사하는 물체, 후방의 강한 광원 또는 저조도 환경에서 장애물을 검출하는 경우 직사광선, 빛을 반사하는 물체, 후방의 강한 광원 또는 저조도 환경의 영향으로 인해 영상이 왜곡되어 장애물을 정확히 검출할 수 없다. 이에 따라, 사용자에게 정확한 보행 보조 정보를 제공할 수 없다는 단점이 있다.However, in the conventional walking assistance method, the laser scanner sensor may have a high straightness and may miss a dangerous obstacle, and may not provide an outline of the obstacle because only one-dimensional distance information may be measured. Accordingly, there is a disadvantage in that accurate walking assistance information cannot be provided to the user. In addition, the camera may incorrectly recognize the shadow as an obstacle, and when detecting an obstacle in direct sunlight, an object reflecting light, a strong light source in the rear, or a low light environment, direct sunlight, an object reflecting light, or a strong rear light Due to the influence of the light source or the low light environment, the image is distorted, and obstacles cannot be detected accurately. Accordingly, there is a disadvantage in that accurate walking assistance information cannot be provided to the user.
따라서, 레이저 센서를 이용하여 획득한 거리 정보와 카메라를 이용하여 획득한 영상 정보를 융합하여 생성한 데이터를 통해 근거리에 있는 장애물 검출 및 분류하고, 검출 및 분류한 장애물에 대한 정보 및 사용자의 보행 상태에 따라 사용자가 진행할 방향 및 상황에 대한 정보를 제공하는 보행 보조 방식이 필요한 상황이다.Therefore, the obstacle information at a short distance is detected and classified through the data generated by fusing the distance information acquired by using the laser sensor and the image information acquired by the camera, the information on the detected and classified obstacle, and the walking state of the user. According to this situation, a walking assistance method for providing information on a direction and a situation in which the user proceeds is required.
본 발명의 일측면은 깊이 정보를 포함하는 레이저 프로파일 및 영상의 에지 정보를 포함하는 에지 프로파일을 융합하여 멀티모달 프로파일을 생성하고, 멀티모달 프로파일을 이용하여 근거리에 존재하는 장애물을 검출 및 분류하고, 에지 프로파일을 이용하여 원거리에 존재하는 장애물을 검출 및 분류하고, 검출 및 분류한 장애물에 대한 정보 및 사용자의 보행 상태에 따라 사용자에게 필요한 보행 보조 정보를 제공하는 보행 보조 방법 및 시스템, 이를 수행하기 위한 기록매체를 제공한다.In one aspect of the present invention, a laser profile including depth information and an edge profile including edge information of an image are fused to generate a multi-modal profile, and a multi-modal profile is used to detect and classify obstacles in a short distance. A walking assistance method and system for detecting and classifying obstacles in a remote location using an edge profile, and providing walking assistance information required by a user according to the walking state of the user and information on the detected and classified obstacles, and for performing the same. Provide a record carrier.
본 발명의 일측면에 따른 보행 보조 방법은, 레이저 센서를 이용하여 획득한 깊이 정보를 포함하는 레이저 프로파일 모델을 생성하고, 영상 센서를 이용하여 획득한 영상으로부터 추출한 에지 정보를 포함하는 에지 프로파일 모델을 생성하고, 상기 레이저 프로파일 모델과 상기 에지 프로파일 모델을 융합하여 멀티모달 프로파일 모델을 생성하고, 상기 멀티모달 프로파일 모델로부터 근거리에 존재하는 장애물을 검출 및 분류하고, 상기 에지 프로파일 모델로부터 원거리에 존재하는 장애물을 검출 및 분류하고, 상기 검출 및 분류한 장애물에 대한 정보를 이용하여 보행 보조를 받는 사용자 전방의 상황을 인식하고, 상기 사용자 전방의 상황 정보에 따라 진행할 방향 및 상황에 대한 정보를 제공한다.According to an aspect of the present invention, a walk assistance method includes generating a laser profile model including depth information obtained by using a laser sensor, and generating an edge profile model including edge information extracted from an image obtained by using an image sensor. Generate, generate a multimodal profile model by fusing the laser profile model and the edge profile model, detect and classify an obstacle present at a short distance from the multimodal profile model, and an obstacle present at a distance from the edge profile model. Detects and classifies the symbol, recognizes the situation in front of the user who is assisted with the walking by using the information on the detected and classified obstacle, and provides information on the direction and the situation to proceed according to the situation information in front of the user.
상기 레이저 프로파일 모델을 생성하는 것은, 지면의 레이저 프로파일과 장애물의 레이저 프로파일을 구분하기 위해 상기 깊이 정보를 이용하여 획득한 깊이 정보의 값들의 유사 여부에 따라 레이저 프로파일을 분류할 수 있다.Generating the laser profile model may classify the laser profile according to whether the values of the depth information obtained by using the depth information are similar to distinguish the laser profile of the ground from the laser profile of the obstacle.
상기 획득한 깊이 정보의 값들의 유사 여부에 따라 레이저 프로파일을 분류하는 것은, 상기 획득한 깊이 정보의 값들 간의 차이값을 산출하고, 상기 산출한 차이값이 일정 기준 값 미만이면 상기 획득한 깊이 정보의 값을 갖는 레이저 프로파일을 동일한 레이저 프로파일로 분류하고, 상기 산출한 차이값이 일정 기준 값 이상이면 상기 획득한 깊이 정보의 값을 갖는 레이저 프로파일을 상이한 레이저 프로파일로 분류할 수 있다.Categorizing the laser profile according to similarity of the obtained depth information may include calculating a difference value between the obtained depth information values, and if the calculated difference value is less than a predetermined reference value, The laser profile having the value may be classified into the same laser profile, and if the calculated difference value is equal to or greater than a predetermined reference value, the laser profile having the value of the obtained depth information may be classified into a different laser profile.
상기 멀티모달 프로파일 모델을 생성하는 것은, 상기 레이저 프로파일 모델에 포함된 깊이 정보의 좌표점과 상기 에지 프로파일 모델에 포함된 영상의 대응점에 정합하여 상기 멀티모달 프로파일 모델을 생성할 수 있다.The generating of the multimodal profile model may generate the multimodal profile model by matching a coordinate point of depth information included in the laser profile model with a corresponding point of an image included in the edge profile model.
상기 멀티모달 프로파일 모델로부터 근거리에 존재하는 장애물을 검출 및 분류하는 것은, 상기 멀티모달 프로파일 모델 생성 시 상기 레이저 프로파일 모델과 상기 에지 프로파일 모델이 정합된 포인트의 주변 8 방향에 대해 연결된 에지 프로파일이 존재하는지 여부를 검출하고, 상기 연결된 에지 프로파일이 존재하면 상기 에지 프로파일이 검출된 영역에 수직 및 수평 히스토그램을 산출하여 상기 근거리에 존재하는 장애물을 검출 및 분류할 수 있다.Detecting and classifying obstacles that exist at a short distance from the multi-modal profile model may include determining whether there is an edge profile connected to the peripheral eight directions of the point where the laser profile model and the edge profile model match when generating the multi-modal profile model. If the detected edge profile exists, vertical and horizontal histograms may be calculated in the region where the edge profile is detected to detect and classify obstacles existing in the near distance.
상기 근거리에 존재하는 장애물을 분류하는 것은, 상기 레이저 프로파일 모델의 수평 히스토그램을 통해 상기 장애물의 너비를 산출하고, 상기 에지 프로파일 모델의 수직 히스토그램을 통해 상기 장애물의 높이를 산출하고, 상기 장애물의 너비 및 높이를 이용하여 상기 장애물의 크기 및 모양을 유추하여 상기 장애물을 분류할 수 있다.Categorizing the obstacle present in the near field may include calculating a width of the obstacle through a horizontal histogram of the laser profile model, calculating a height of the obstacle through a vertical histogram of the edge profile model, The obstacle may be classified by using the height to infer the size and shape of the obstacle.
상기 에지 프로파일 모델로부터 원거리에 존재하는 장애물을 검출 및 분류하는 것은, 상기 획득한 영상으로부터 수직 에지 성분을 추출하고, 상기 수직 에지 성분을 추출한 영상을 탑뷰 변환하고, 상기 탑뷰 변환한 영상에 모폴로지 연산 및 레이블링을 수행하여 상기 장애물이 있는 영역인 에지 블랍을 분류하고, 타원 근사화를 통해 상기 에지 블랍으로부터 타원을 획득하고, 상기 타원의 방향을 산출하여 상기 타원의 방향에 따라 상기 장애물을 분류할 수 있다.Detecting and classifying obstacles that exist at a distance from the edge profile model includes extracting a vertical edge component from the acquired image, top-view transforming the extracted image of the vertical edge component, and performing a morphology calculation on the top-view transformed image. The labeling may be performed to classify the edge blob which is the obstacle region, obtain an ellipse from the edge blob through elliptic approximation, and calculate the direction of the ellipse to classify the obstacle according to the direction of the ellipse.
상기 검출 및 분류한 장애물에 대한 정보를 이용하여 보행 보조를 받는 사용자 전방의 상황을 인식하고, 상기 사용자 전방의 상황 정보에 따라 진행할 방향 및 상황에 대한 정보를 제공하는 것은, 상기 획득한 영상에 광류 벡터 및 확장 칼만 필터를 적용하여 상기 사용자의 움직임을 예측하고, 상기 사용자의 움직임 및 상기 검출 및 분류한 장애물에 대한 정보로부터 상기 사용자의 보행 상태 및 보행 방향을 포함하는 보행환경의 상황을 인식하여 상기 보행환경의 상황에 따라 상기 진행할 방향 및 상황에 대한 정보를 제공할 수 있다.Recognizing the situation in front of the user who is assisted with the walking assistance using the information on the detected and classified obstacles, and providing information on the direction and the situation to proceed according to the situation information in front of the user, the optical flow to the obtained image A vector and an extended Kalman filter are applied to predict the movement of the user, and recognize the situation of the walking environment including the walking state and the walking direction of the user from the movement of the user and information about the detected and classified obstacles. According to the situation of the pedestrian environment, it is possible to provide information on the direction and the situation to proceed.
상기 보행환경의 상황에 따라 상기 진행할 방향 및 상황에 대한 정보를 제공하는 것은, 상기 사용자의 보행환경의 상황에 따라 상기 사용자의 보행환경 상황에 대응하는 복수 개의 단어를 검색하고, 상기 검색한 복수 개의 단어를 조합하여 일정한 패턴을 갖는 문장을 생성하고, 상기 생성한 문장을 포함하는 안내 메시지를 출력할 수 있다.Providing information about the direction and the situation to proceed according to the situation of the walking environment, searching for a plurality of words corresponding to the situation of the walking environment of the user according to the situation of the walking environment of the user, By combining words, a sentence having a predetermined pattern may be generated, and a guide message including the generated sentence may be output.
사용자의 보행을 보조하기 위한 정보를 제공하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체일 수 있다.The computer program may be a computer readable recording medium having recorded thereon a computer program for providing information to assist a user walking.
본 발명의 다른 측면에 따른 보행 보조 시스템은, 전방에 위치한 공간의 깊이 정보를 검출하는 레이저 스캐너, 상기 전방에 위치한 공간을 촬영하는 카메라, 상기 레이저 스캐너를 통해 검출한 깊이 정보를 이용하여 레이저 프로파일 모델을 생성하고, 상기 카메라를 통해 촬영한 영상에서 에지 정보를 추출하고 상기 에지 정보를 포함하는 에지 프로파일 모델을 생성하고, 상기 레이저 프로파일과 상기 에지 프로파일 모델을 융합하여 멀티모달 프로파일 모델을 생성하고, 상기 멀티모달 프로파일 모델로부터 전방에 위치한 장애물을 검출 및 분류하고, 상기 에지 프로파일 모델로부터 원거리에 존재하는 장애물을 검출 및 분류하고, 상기 검출 및 분류한 장애물에 대한 정보를 이용하여 보행 보조를 받는 사용자 전방의 상황을 인식하여 상기 사용자 전방의 상황에 따라 보행 방향 및 상황에 대한 정보를 제공하는 보행 안내 장치를 포함한다.According to another aspect of the present invention, a walk assistance system includes a laser scanner that detects depth information of a space located in front of the camera, a camera that photographs the space located in front of the camera, and a laser profile model using depth information detected by the laser scanner. Generate an edge profile, extract edge information from an image captured by the camera, generate an edge profile model including the edge information, fuse the laser profile and the edge profile model, and generate a multimodal profile model; Detect and classify obstacles located in front of the multi-modal profile model, and detect and classify obstacles that exist in the distance from the edge profile model, and use the information on the detected and classified obstacles in front of the user who is assisted with walking. Recognize the situation before the user Depending on the situation, and a walking guide apparatus that provides information on the walking direction and the situation.
상술한 본 발명의 일측면에 따르면, 레이저 스캐너를 통해 획득한 레이저 프로파일과 카메라를 통해 획득한 에지 프로파일을 융합한 멀티모달 프로파일을 이용하여 근거리에 위치한 장애물을 검출함으로써 장애물의 위치 정보뿐만 아니라 장애물의 형태 정보를 획득할 수 있어 보다 정확한 보행 보조 안내 서비스를 제공할 수 있다.According to one aspect of the present invention, by using the multi-modal profile fusion of the laser profile obtained through the laser scanner and the edge profile obtained through the camera by detecting the obstacle located at a short distance of the obstacle as well as the position information of the obstacle It is possible to obtain the shape information can provide a more accurate walk assistance service.
또한, 사용자의 전방에 위치한 장애물에 정보를 제공할 뿐만 아니라 멀티모달 프로파일을 이용하여 사용자의 움직임을 예측함으로써 사용자에게 필요한 최적의 보행 방향에 대한 정보를 제공할 수 있다.In addition, as well as providing information to the obstacle located in front of the user, it is possible to provide information about the optimal walking direction required by the user by predicting the user's movement using a multi-modal profile.
도 1 은 본 발명의 일 실시예에 따른 보행 보조 시스템을 도시한 도면이다.1 is a diagram illustrating a walking assistance system according to an exemplary embodiment of the present invention.
도 2 는 도 1 에 도시된 보행 안내 장치의 블록도이다.FIG. 2 is a block diagram of the walking guide apparatus shown in FIG. 1.
도 3a, 3b 는 도 2 에 도시된 멀티모달 프로파일 생성부의 일 예를 도시한 도면이다.3A and 3B illustrate an example of the multi-modal profile generator shown in FIG. 2.
도 4 는 멀티모달 프로파일을 이용하여 장애물을 검출하는 방법을 설명하기 위해 도시한 도면이다.4 is a diagram illustrating a method of detecting an obstacle using a multi-modal profile.
도 5a, 5b, 5c, 5d, 5e 는 원거리에 있는 장애물을 검출하기 위한 방법을 설명하기 위해 도시된 도면이다.5A, 5B, 5C, 5D, and 5E are diagrams for explaining a method for detecting a remote obstacle.
도 6 은 근거리에 있는 장애물을 분류하는 장애물 분류부의 일 예를 도시한 도면이다.6 is a diagram illustrating an example of an obstacle classification unit that classifies obstacles in a short distance.
도 7 은 에지 블랍을 타원 근사화하는 방법을 설명하기 위해 도시된 도면이다.7 is a diagram illustrating a method of elliptical approximation of an edge blob.
도 8a, 8b 는 탑뷰 변환 시 원거리에 있는 장애물의 모양이 변하는 것을 설명하기 위해 도시된 도면이다.8A and 8B are diagrams for explaining that the shape of an obstacle at a distance when the top view is changed.
도 9 는 타원의 방향성을 산출하는 방법을 설명하기 위해 도시된 도면이다.9 is a diagram illustrating a method of calculating the directionality of an ellipse.
도 10 은 원거리에 있는 장애물을 분류하는 장애물 분류부의 일 예를 도시한 도면이다.FIG. 10 is a diagram illustrating an example of an obstacle classification unit classifying obstacles at a distance.
도 11 은 본 발명의 일 실시예에 따른 보행 보조 시스템의 제어방법을 도시한 순서도이다.11 is a flowchart illustrating a control method of a walking assistance system according to an exemplary embodiment of the present invention.
도 12 는 본 발명의 일 실시예에 따른 보행 보조 시스템의 제어방법을 도시한 순서도이다.12 is a flowchart illustrating a control method of a walking assistance system according to an exemplary embodiment of the present invention.
<부호의 설명><Description of the code>
1: 보행 보조 시스템1: walk assistance system
100: 레이저 스캐너100: laser scanner
200: 카메라200: camera
300: 보행 안내 장치300: walking guidance device
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.
도 1 은 본 발명의 일 실시예에 따른 보행 보조 시스템을 도시한 도면이며, 도 2 는 도 1 에 도시된 보행 안내 장치의 블록도이며, 도 3a, 3b 는 도 2 에 도시된 멀티모달 프로파일 생성부의 일 예를 도시한 도면이며, 도 4 는 멀티모달 프로파일을 이용하여 장애물을 검출하는 방법을 설명하기 위해 도시한 도면이다.1 is a view showing a walking assistance system according to an embodiment of the present invention, Figure 2 is a block diagram of the walking guidance device shown in Figure 1, Figures 3a, 3b is a multi-modal profile generation shown in FIG. 4 is a diagram illustrating an example of a part, and FIG. 4 is a diagram illustrating a method of detecting an obstacle using a multi-modal profile.
본 발명의 일 실시예에 따른 보행 보조 시스템(1)은 보행 보조 시스템(1)의 보행 보조 안내 서비스를 제공받는 사용자의 전방에 있는 장애물을 검출 및 분류하고, 사용자의 움직임을 예측하여 사용자에게 최적의 보행 보조 안내 서비스를 제공할 수 있다.The walking assistance system 1 according to an embodiment of the present invention detects and classifies obstacles in front of the user who is provided with the walking assistance guide service of the walking assistance system 1, and predicts the movement of the user to be optimal for the user. Can provide walking assistance services.
도 1 을 참조하면, 본 발명의 일 실시예에 따른 보행 보조 시스템(1)은 레이저 스캐너(100), 카메라(200) 및 보행 안내 장치(300)를 포함할 수 있다. Referring to FIG. 1, a walking assistance system 1 according to an exemplary embodiment may include a laser scanner 100, a camera 200, and a walking guide device 300.
레이저 스캐너(100)는 레이저 스캐너(100)가 바라보고 있는 방향에, 즉 사용자 전방에 레이저를 송신하여 사용자 전방에 존재하는 사물(예를 들어, 지면 또는 장애물)에 대한 거리 정보를 검출할 수 있다.The laser scanner 100 may detect distance information on an object (eg, a ground or an obstacle) in front of the user by transmitting a laser in front of the user, that is, in front of the user. .
구체적으로, 레이저 스캐너(100)는 단일 레이저 펄스를 사용자 전방에 송신할 수 있다. 레이저 스캐너(100)는 송신한 레이저 펄스가 레이저 스캐너(100) 센서 범위 내에 존재하는 사물의 표면에 반사되어 돌아오는 레이저를 수신하여 사용자 전방에 존재하는 사물을 검출할 수 있다. 이때, 레이저 스캐너(100)는 송신한 레이저 펄스가 레이저 스캐너(100) 센서 범위 내에 존재하는 사물의 표면에 반사되어 돌아오는 시간을 측정하여 레이저 스캐너(100)로부터 장애물까지의 거리를 산출할 수 있다.Specifically, the laser scanner 100 may transmit a single laser pulse in front of the user. The laser scanner 100 may detect an object in front of the user by receiving a laser returning the reflected laser pulse reflected on the surface of the object present within the sensor range of the laser scanner 100. In this case, the laser scanner 100 may calculate a distance from the laser scanner 100 to an obstacle by measuring a time when the transmitted laser pulse is reflected on the surface of the object within the sensor range of the laser scanner 100 and returning. .
레이저 스캐너(100)는 사용자의 허리 또는 사용자의 보행에 의한 움직임이 상대적으로 적은 사용자 신체 일측에 장착될 수 있다.The laser scanner 100 may be mounted on one side of the user's body where the movement of the user's waist or the user's walking is relatively small.
카메라(200)는 레이저 스캐너(100)와 근접한 위치에 장착되어 사용자의 전방을 촬영할 수 있다.The camera 200 may be mounted at a position close to the laser scanner 100 to photograph the front of the user.
구체적으로, 카메라(200)는 사용자의 근거리 및 원거리에 있는 주변 영상을 촬영할 수 있다. 이때, 근거리 영역은 카메라(200)로부터 3m이내의 영역일 수 있으며, 원거리 영역은 카메라(200)로부터 3~15m 범위의 영역일 수 있다. 또한, 근거리 영역 및 원거리 영역의 범위는 조정될 수 있으며, 시스템 제조사에 의해 제품 출시 때부터 설정될 수 있으며, 사용자에 의해 설정될 수 있다.In detail, the camera 200 may capture a surrounding image at a near and far distance of the user. In this case, the short range area may be an area within 3 m from the camera 200, and the far area may be an area in the range of 3 to 15 m from the camera 200. In addition, the ranges of the near and far areas can be adjusted, set by the system manufacturer from the time of product release, and set by the user.
보행 안내 장치(300)는 레이저 스캐너(100) 및 카메라(200)를 통해 획득한 정보를 이용하여 사용자 전방에 존재하는 장애물 및 사용자의 움직임을 예측할 수 있으며, 사용자 전방에 존재하는 장애물에 대한 정보 및 사용자의 움직임에 대한 정보를 이용하여 사용자의 현재 보행 상황에 맞는 최적의 보행 보조 안내 서비스를 제공할 수 있다.The walking guidance apparatus 300 may predict the obstacles in front of the user and the user's movement by using the information acquired through the laser scanner 100 and the camera 200, and the information on the obstacles in front of the user and By using the information on the movement of the user can provide an optimal walk assistance service for the current walking situation of the user.
도 2 를 참조하면, 보행 안내 장치(300)는 레이저 프로파일 생성부(310), 에지 프로파일 생성부(320), 멀티모달 프로파일 생성부(330), 장애물 검출부(340), 장애물 분류부(350) 및 안내 정보 추출부(360)를 포함할 수 있다.Referring to FIG. 2, the walking guide apparatus 300 includes a laser profile generator 310, an edge profile generator 320, a multi-modal profile generator 330, an obstacle detector 340, and an obstacle classifier 350. And a guide information extractor 360.
레이저 프로파일 생성부(310)는 레이저 스캐너(100)로부터 획득한 사용자 전방의 사물과 레이저 스캐너(100)간의 거리 정보를 이용하여 깊이 정보를 획득하여 레이저 프로파일을 생성할 수 있다.The laser profile generator 310 may generate the laser profile by obtaining depth information using distance information between the object in front of the user acquired from the laser scanner 100 and the laser scanner 100.
구체적으로, 레이저 프로파일 생성부(310)는 사용자 전방에 있는 사물의 각 점에 대한 거리 정보를 수신할 수 있다. 레이저 프로파일 생성부(310)는 수신한 거리 정보를 이용하여 사용자 전방에 있는 사물에 대한 깊이 정보를 획득할 수 있다. 이때, 깊이 정보는 사용자 전방에 있는 사물에 대해 레이저 스캐너(100)와 얼마나 가까이 있는지를 나타낼 수 있는 거리 정보를 포함하므로 사용자와 사용자 전방에 있는 사물의 각 점이 레이저 스캐너(100)와 가까이 있는 정도를 나타내는 지표일 수 있다. 예를 들어, 사용자 전방에 지면과 지면에 세워져 있는 기둥이 있을 경우, 수평선 상으로 보면 지면보다 지면에 세워져 있는 기둥이 사용자와 더 가까이 있을 것이다. 이때, 깊이 정보는 기둥이 지면보다 가까이 있다는 것을 나타낸다.In detail, the laser profile generator 310 may receive distance information on each point of the object in front of the user. The laser profile generator 310 may acquire depth information about an object in front of the user using the received distance information. In this case, the depth information includes distance information that can indicate how close the laser scanner 100 is to the object in front of the user, so that each point of the user and the object in front of the user is close to the laser scanner 100. It may be an indicator. For example, if there is a pillar standing on the ground and the ground in front of the user, the pillar standing on the ground will be closer to the user than the ground when viewed horizontally. At this time, the depth information indicates that the pillar is closer than the ground.
레이저 프로파일 생성부(310)는 획득한 깊이 정보를 포함하는 레이저 프로파일을 생성할 수 있다. 이때, 레이저 프로파일은 사용자 전방에 있는 사물의 각 점마다의 깊이 정보를 포함하므로 사용자 전방에 있는 사물의 각 점에 대한 깊이 정보의 집합일 수 있다.The laser profile generator 310 may generate a laser profile including the acquired depth information. In this case, since the laser profile includes depth information for each point of the object in front of the user, the laser profile may be a set of depth information for each point of the object in front of the user.
또한, 레이저 프로파일 생성부(310)는 사용자 전방에 있는 사물의 각 점에 대한 위치 정보(예를 들어, 2차원 좌표(x, y))를 추출할 수 있다. 레이저 프로파일 생성부(310)는 사용자 전방에 있는 사물의 각 점에 대한 깊이 정보와 사용자 전방에 있는 사물의 각 점에 대한 위치 정보를 매칭시킬 수 있다. 레이저 프로파일 생성부(310)는 사용자 전방에 있는 사물의 각 점에 대한 깊이 정보와 사용자 전방에 있는 사물의 각 점에 대한 위치 정보를 매칭시킨 정보를 이용하여 레이저 프로파일을 생성할 수 있다.In addition, the laser profile generator 310 may extract location information (eg, two-dimensional coordinates (x, y)) of each point of the object in front of the user. The laser profile generator 310 may match the depth information of each point of the object in front of the user with the position information of each point of the object in front of the user. The laser profile generator 310 may generate a laser profile by using depth information of each point of the object in front of the user and information matching the location information of each point of the object in front of the user.
또한, 레이저 프로파일 생성부(310)는 획득한 깊이 정보를 이용하여 레이저 프로파일을 분류할 수 있다.In addition, the laser profile generator 310 may classify the laser profile using the acquired depth information.
구체적으로, 레이저 프로파일 생성부(310)는 사용자 전방에 있는 물체들(예를 들어, 지면과 장애물)을 정확하게 구분하기 위해 획득한 깊이 정보를 이용하여 레이저 프로파일을 분류할 수 있다. 이때, 레이저 프로파일 생성부(310)는 획득한 깊이 정보들 간의 차이값을 산출할 수 있다. 레이저 프로파일 생성부(310)는 획득한 깊이 정보들 간의 차이값이 미리 정해진 일정 기준 값(또는 문턱값) 이상인지 여부를 검출할 수 있다. 레이저 프로파일 생성부(310)는 획득한 깊이 정보들 간의 차이값이 미리 정해진 일정 기준 값 미만이면 획득한 깊이 정보를 갖는 좌표점을 동일한 레이저 프로파일로 분류할 수 있으며, 획득한 깊이 정보들 간의 차이값이 미리 정해진 일정 기준 값 이상이면 획득한 깊이 정보를 갖는 좌표점을 다른 레이저 프로파일로 분류할 수 있다. 예를 들어, 제1 좌표점의 깊이 정보는 10cm이고, 제2 좌표점의 깊이 정보는 10.5cm 이고, 미리 정해진 일정 기준 값이 1cm이면, 획득한 깊이 정보들 간의 차이값은 0.5cm로 산출된다. 이때, 획득한 깊이 정보들 간의 차이값은 미리 정해진 일정 기준 값 미만이므로, 제1 좌표점 및 제2 좌표점은 같은 레이저 프로파일(예를 들어, 제1 레이저 프로파일)에 포함시킬 수 있다. 또한, 제1 좌표점의 깊이 정보는 10cm이고, 제2 좌표점의 깊이 정보는 12cm 이고, 미리 정해진 일정 기준 값이 1cm이면, 획득한 깊이 정보들 간의 차이값은 2cm로 산출된다. 이때, 획득한 깊이 정보들 간의 차이값은 미리 정해진 일정 기준 값 이상이므로, 제1 좌표점 및 제2 좌표점은 서로 다른 레이저 프로파일(예를 들어, 제1 좌표점은 제1 레이저 프로파일, 제2 좌표점은 제2 레이저 프로파일)로 분류시킬 수 있다.In detail, the laser profile generator 310 may classify the laser profile using depth information obtained to accurately distinguish objects (eg, ground and obstacles) in front of the user. In this case, the laser profile generator 310 may calculate a difference between the acquired depth information. The laser profile generator 310 may detect whether a difference value between the acquired depth information is equal to or greater than a predetermined reference value (or threshold value). The laser profile generator 310 may classify coordinate points having the acquired depth information into the same laser profile if the difference value between the acquired depth information is less than a predetermined reference value, and the difference value between the acquired depth information. If it is equal to or more than the predetermined predetermined reference value, the coordinate point having the acquired depth information can be classified into another laser profile. For example, if the depth information of the first coordinate point is 10 cm, the depth information of the second coordinate point is 10.5 cm, and the predetermined constant reference value is 1 cm, the difference between the acquired depth information is calculated to be 0.5 cm. . In this case, since the difference between the acquired depth information is less than a predetermined reference value, the first coordinate point and the second coordinate point may be included in the same laser profile (eg, the first laser profile). In addition, if the depth information of the first coordinate point is 10cm, the depth information of the second coordinate point is 12cm, and the predetermined constant reference value is 1cm, the difference between the acquired depth information is calculated as 2cm. At this time, since the difference value between the acquired depth information is equal to or greater than a predetermined reference value, the first coordinate point and the second coordinate point are different laser profiles (for example, the first coordinate point is the first laser profile, the second coordinate point). The coordinate point can be classified into a second laser profile.
에지 프로파일 생성부(320)는 카메라(200)를 통해 획득한 사용자의 전방에 있는 주변 영상으로부터 에지(edge)를 추출하여 추출한 에지 정보를 포함하는 에지 프로파일을 생성할 수 있다.The edge profile generator 320 may generate an edge profile including edge information extracted by extracting an edge from a surrounding image in front of the user acquired through the camera 200.
구체적으로, 에지 프로파일 생성부(320)는 주변 영상을 그레이(gray) 영상으로 변환할 수 있다. 에지 프로파일 생성부(320)는 그레이 영상에 -1 0 1 마스크를 이용하여 에지(edge)를 추출할 수 있다. 이때, -1 0 1 마스크는 소벨 마스크(sobel edge), 프리윗 마스크(prewitt edge) 및 로버츠 마스크(Roberts edge)일 수 있으며, 그레이 영상에서 에지를 추출할 수 있는 마스크라면 상술한 열거된 마스크 외 다른 마스크가 적용될 수 있음은 물론이다.In detail, the edge profile generator 320 may convert the surrounding image into a gray image. The edge profile generator 320 may extract an edge by using the −1 0 1 mask on the gray image. In this case, the -1 0 1 mask may be a sobel edge, a prewitt edge, and a Roberts edge. If the mask is capable of extracting an edge from a gray image, the mask other than the above-listed masks may be used. Of course, other masks may be applied.
에지 프로파일 생성부(320)는 추출한 에지(edge)와 추출한 에지(edge)의 위치 정보(예를 들어, 2차원 좌표(x, y))를 매칭하여 에지 프로파일을 생성할 수 있다.The edge profile generator 320 may generate an edge profile by matching the extracted edge with the location information (eg, two-dimensional coordinates (x, y)) of the extracted edge.
멀티모달 프로파일 생성부(330)는 레이저 프로파일 생성부(310)에서 생성한 레이저 프로파일과 에지 프로파일 생성부(320)에서 생성한 에지 프로파일을 융합하여 멀티모달 프로파일을 생성할 수 있다.The multi-modal profile generator 330 may generate a multi-modal profile by fusing the laser profile generated by the laser profile generator 310 and the edge profile generated by the edge profile generator 320.
구체적으로, 멀티모달 프로파일 생성부(330)는 도 3a 와 같이, 레이저 프로파일에 포함된 사용자 전방에 있는 사물의 각 점에 대한 위치 정보 및 에지 프로파일에 포함된 에지(edge)의 위치 정보를 이용하여 레이저 프로파일과 에지 프로파일을 융합할 수 있다. 이때, 레이저 프로파일에 포함된 좌표점과 에지 프로파일에 포함된 에지(edge)의 좌표점을 매칭시켜 레이저 프로파일에 포함된 좌표점과 에지 프로파일에 포함된 에지(edge)의 좌표점이 대응되는 포인트를 검출할 수 있다. 멀티모달 프로파일 생성부(330)는 도 3b 와 같이, 검출한 포인트에 맞게 레이저 프로파일과 에지 프로파일을 정합할 수 있다. 이때, 레이저 프로파일과 에지 프로파일이 융합된 멀티모달 프로파일은 에지(edge) 정보 및 각 에지(edge)의 좌표점에 대한 깊이 정보를 포함할 수 있다.In detail, as illustrated in FIG. 3A, the multi-modal profile generator 330 uses location information of each point of the object in front of the user included in the laser profile and location information of the edge included in the edge profile. The laser profile and the edge profile can be fused. At this time, the coordinate point included in the laser profile and the coordinate point of the edge (edge) included in the edge profile is matched to detect a point corresponding to the coordinate point included in the laser profile and the coordinate point of the edge included in the edge profile. can do. The multi-modal profile generator 330 may match the laser profile and the edge profile according to the detected point as shown in FIG. 3B. In this case, the multimodal profile in which the laser profile and the edge profile are fused may include edge information and depth information on coordinate points of each edge.
장애물 검출부(340)는 멀티모달 프로파일 생성부(330)를 통해 생성된 멀티모달 프로파일을 이용하여 사용자의 근거리에 있는 장애물을 검출할 수 있다.The obstacle detector 340 may detect an obstacle in a short distance of the user by using the multimodal profile generated by the multimodal profile generator 330.
구체적으로, 장애물 검출부(340)는 멀티모달 프로파일 생성 시 레이저 프로파일과 에지 프로파일이 정합된 포인트를 기준으로 하여 장애물을 검출할 수 있다. 장애물 검출부(340)는 도 4 와 같이, 레이저 프로파일과 에지 프로파일이 정합된 포인트의 주변 8 방향에 대해 하나의 모양으로 연결되어 있는 에지 프로파일이 존재하는지 여부를 검출할 수 있다. 장애물 검출부(340)는 레이저 프로파일과 에지 프로파일이 정합된 포인트의 주변 8 방향에서 하나의 모양으로 연결된 에지 프로파일이 존재하면, 레이저 프로파일과 에지 프로파일이 정합된 포인트의 주변 8 방향 중 하나의 모양으로 연결된 에지 프로파일이 존재하는 영역에 대해 빈(bin)을 생성할 수 있다. 장애물 검출부(340)는 빈(bin)을 생성한 영역에 대해 수직 및 수평 방향으로 히스토그램을 생성할 수 있다. 장애물 검출부(340)는 빈(bin)을 생성한 영역의 수직 방향에 대한 히스토그램의 값이 높은 영역을 검출하고, 빈(bin)을 생성한 영역의 수평 방향에 대한 히스토그램의 값이 높은 영역을 검출할 수 있다. 장애물 검출부(340)는 수직 방향에 대해 히스토그램의 값이 높은 영역과 수평 방향에 대해 히스토그램의 값이 높은 영역이 겹치는 영역을 검출할 수 있다. 이때, 하나의 모양으로 연결된 에지 프로파일은 사용자 전방에 있는 장애물일 가능성이 높으며, 이에 따라, 하나의 모양으로 연결된 에지 프로파일이 검출된 영역에서 수직 및 수평 방향으로 히스토그램이 높은 영역은 장애물이 있는 영역을 의미할 수 있다. 장애물 검출부(340)는 수직 및 수평 방향에 대해 히스토그램 값이 높은 영역이 겹치는 영역을 장애물 영역으로 검출할 수 있으며, 검출한 장애물 영역에 클러스터링을 수행하여 장애물 영역에서 배경 영역을 제거함으로써 장애물 영역에서 장애물만을 검출할 수 있다.In detail, the obstacle detector 340 may detect an obstacle based on a point where the laser profile and the edge profile match when the multimodal profile is generated. As illustrated in FIG. 4, the obstacle detector 340 may detect whether there is an edge profile that is connected in one shape with respect to the peripheral eight directions of the point where the laser profile and the edge profile match. If there is an edge profile connected in one shape in the peripheral eight directions of the point where the laser profile and the edge profile match, the obstacle detection unit 340 is connected in one of the eight directions around the point where the laser profile and the edge profile match. Bins may be generated for regions where edge profiles exist. The obstacle detector 340 may generate histograms in the vertical and horizontal directions with respect to the region in which the bin is generated. The obstacle detector 340 detects a region having a high histogram with respect to the vertical direction of the region where the bin is generated, and detects a region having a high histogram with respect to the horizontal direction of the region where the bin is generated. can do. The obstacle detector 340 may detect a region where a high histogram value overlaps with a high histogram value in a vertical direction. At this time, the edge profile connected in one shape is more likely to be an obstacle in front of the user. Thus, the area where the histogram is high in the vertical and horizontal directions is detected in the area where the obstacle is located in one shape. Can mean. The obstacle detection unit 340 may detect an area in which an area having a high histogram value overlaps as an obstacle area and remove the background area from the obstacle area by performing clustering on the detected obstacle area. Only can be detected.
또한, 장애물 검출부(340)는 레이저 프로파일과 에지 프로파일이 정합된 포인트의 주변 8 방향에 대해 하나의 모양으로 연결되어 있는 에지 프로파일이 존재하지 않을 경우, 미리 정해진 검색 순서(예를 들어, 영상의 왼쪽 상단부터 오른쪽 하단 순)에 따라 그 다음 순서로 정해진 정합 포인트의 주변 8 방향에 대해 하나의 모양으로 연결되어 있는 에지 프로파일을 검색할 수 있다. 이때, 미리 정해진 검색 순서는 시스템 제조사에 의해 제품 출시 때부터 설정될 수 있으며, 사용자에 의해 설정될 수 있다.In addition, the obstacle detector 340 may determine a predetermined search order (for example, the left side of the image) when there is no edge profile connected in one shape in the peripheral eight directions of the point where the laser profile and the edge profile are matched. From the top to the bottom right, you can search for edge profiles that are connected in one shape for the surrounding eight directions of the registration points, which are then ordered: In this case, the predetermined search order may be set from the product release by the system manufacturer, and may be set by the user.
도 5a, 5b, 5c, 5d, 5e 는 원거리에 있는 장애물을 검출하기 위한 방법을 설명하기 위해 도시된 도면이다. 도 6 은 근거리에 있는 장애물을 분류하는 장애물 분류부의 일 예를 도시한 도면이며, 도 7 은 에지 블랍을 타원 근사화하는 방법을 설명하기 위해 도시된 도면이며, 도 8a, 8b 는 탑뷰 변환 시 원거리에 있는 장애물의 모양이 변하는 것을 설명하기 위해 도시된 도면이며, 도 9 는 타원의 방향성을 산출하는 방법을 설명하기 위해 도시된 도면이며, 도 10 은 원거리에 있는 장애물을 분류하는 장애물 분류부의 일 예를 도시한 도면이다.5A, 5B, 5C, 5D, and 5E are diagrams for explaining a method for detecting a remote obstacle. FIG. 6 is a diagram illustrating an example of an obstacle classification unit classifying obstacles at a short distance, and FIG. 7 is a diagram illustrating a method of elliptic approximation of an edge blob, and FIGS. 8A and 8B are remote views at the time of the top view transformation. FIG. 9 is a diagram illustrating a method of calculating an ellipse's directionality, and FIG. 10 is an example of an obstacle classification unit classifying an obstacle at a distance. The figure is shown.
본 발명의 일 실시예에 따른 장애물 검출부(340)는 에지 프로파일을 이용하여 원거리에 있는 장애물을 검출할 수 있다.The obstacle detector 340 according to an embodiment of the present invention may detect an obstacle at a far distance by using an edge profile.
구체적으로, 장애물 검출부(340)는 도 5a, 5b 와 같이, 에지 프로파일로부터 사용자 전방에 있는 주변 영상의 수직 에지 성분만 추출할 수 있다. 장애물 검출부(340)는 도 5c 와 같이, 수직 에지 성분만 추출한 영상을 탑뷰 변환할 수 있다. 이때, 주변 영상을 탑뷰 변환하는 것은 사용자의 신체에 부착된 카메라는 정면에 있는 영상 정보를 획득하기 때문에 원거리에 있는 장애물까지의 거리 및 방향을 정확하게 검출하기가 어렵기 때문이다. 이에 따라, 장애물 검출부(340)는 원거리에 있는 장애물까지의 거리 및 방향에 대한 정보를 정확하게 검출하기 위해, 정면을 바라보는 카메라의 시점을 수직 상공에서 내려다보는 탑뷰(Top-view) 시점으로 변환할 수 있다. 이때, 정면 시점을 탑뷰 시점으로 변환하는 방식은 "한국등록특허 제1342124호" 에 개시되어 있으므로 자세한 설명은 생략한다.In detail, as illustrated in FIGS. 5A and 5B, the obstacle detector 340 may extract only the vertical edge component of the surrounding image in front of the user from the edge profile. As illustrated in FIG. 5C, the obstacle detector 340 may convert the image obtained by extracting only the vertical edge component to the top view transform. At this time, the top view conversion of the surrounding image is because the camera attached to the user's body acquires the image information on the front side, so it is difficult to accurately detect the distance and direction to the obstacle in the distance. Accordingly, the obstacle detecting unit 340 converts the camera's point of view from the front to a top-view point of view looking down from the vertical in order to accurately detect information on the distance and direction to the obstacle at a distance. Can be. In this case, since the method of converting the front view to the top view is disclosed in Korean Patent No. 1342124, a detailed description thereof will be omitted.
장애물 검출부(340)는 도 5d 를 참조하면, 탑뷰 변환한 영상에서 잡음을 제거하기 위해 침식연산과 팽창연산을 연속으로 수행하는 열림 기법을 수행하고, 반대로 하나의 물체에서 얻어진 에지가 끊어진 것을 잇기 위해 팽창 연산과 침식 연산을 연속으로 수행하는 닫힘 기법 등의 모폴로지 연산을 수행할 수 있다. Referring to FIG. 5D, the obstacle detector 340 performs an opening technique that continuously performs erosion and expansion operations to remove noise from the top-view converted image, and conversely, to connect an edge obtained from one object. Morphological operations, such as a closing technique that continuously performs expansion and erosion operations, can be performed.
한편, 영상에 배경과 구분되는 물체(예를 들어, 장애물)가 존재한다면 상기 물체는 동일한 에지로 연결되어 있을 것이다. 이에 따라, 영상에서 장애물을 검출하기 위해, 장애물 검출부(340)는 도5e 와 같이, 잡음을 제거한 영상에 레이블링을 적용하여 동일한 에지로 연결된 에지 블랍을 검출함으로써 원거리에 있는 장애물을 검출할 수 있다.On the other hand, if there is an object (eg, an obstacle) that is separated from the background in the image, the objects will be connected to the same edge. Accordingly, in order to detect an obstacle in the image, the obstacle detection unit 340 may detect an obstacle at a long distance by applying a labeling to the image from which the noise is removed and detecting edge blobs connected to the same edge as shown in FIG. 5E.
장애물 분류부(350)는 근거리 및 원거리에서 검출한 장애물의 크기 또는 모양에 따라 장애물을 분류할 수 있다.The obstacle classification unit 350 may classify the obstacle according to the size or shape of the obstacle detected in the near and far distances.
구체적으로, 장애물 분류부(350)는 멀티모달 프로파일을 이용하여 검출한 근거리에 있는 장애물을 분류할 수 있다. 장애물 분류부(350)는 멀티모달 프로파일을 이용하여 검출한 장애물의 너비 및 높이를 산출하여 장애물의 크기 또는 모양을 유추할 수 있다. 이때, 장애물의 너비 및 높이는 멀티모달 프로파일에 포함된 레이저 프로파일의 수평 히스토그램을 통해 장애물의 너비를 산출할 수 있으며, 멀티모달 프로파일에 포함된 에지 프로파일의 수직 히스토그램을 통해 장애물의 높이를 산출할 수 있다. 장애물 분류부(350)는 도 6 과 같이, 2단계 또는 3단계로 나눠 장애물을 분류할 수 있다. 먼저, 장애물 분류부(350)는 장애물의 깊이 정보를 이용하여 1단계 분류할 수 있다. 이때, 장애물 분류부(350)는 검출된 장애물과 수평선 상에 있는 지면의 레이저 프로파일에 포함된 깊이 정보를 기준으로 하여 장애물을 분류할 수 있다. 장애물 분류부(350)는 검출된 장애물과 수평선 상에 있는 지면의 레이저 프로파일에 포함된 깊이 정보를 기준으로 장애물의 깊이 값이 (+)값이면 positive로 분류할 수 있으며, 장애물의 깊이 값이 0이면 ground로 분류할 수 있으며, 장애물의 깊이 값이 (-)값이면 negative로 분류할 수 있다. 또한, 장애물 분류부(350)는 장애물의 모양에 따라 장애물을 분류할 수 있다. 이때, 장애물의 모양은 산출한 장애물의 너비 대 높이의 비율에 따라 유추할 수 있다. 예를 들어, positive로 분류된 장애물의 너비 대 높이 비율이 높으면 높이에 비해 너비가 넓다는 것을 의미하므로 장애물의 모양은 바닥에 누워져 있는 것과 같은 planar 모양이며, 너비 대 높이 비율이 낮으면 너비에 비해 높이가 높다는 것을 의미하므로 장애물의 모양은 바닥에 세워져 있는 것과 같은 vertical 모양일 수 있다. 또한, ground로 분류된 장애물은 지면을 말 그대로 지면을 의미하므로 분류할 모양은 없으며, negative로 분류된 장애물은 장애물의 너비에 따라 분류할 수 있다. negative로 분류된 장애물은 너비가 높이에 비해 무시할 수 있을 정도로 좁으면 hole로 분류할 수 있으며, 너비가 높이와 비슷하거나 hole로 분류된 장애물의 너비보다 크면 n-curb로 분류할 수 있으며, 너비가 높이에 비해 크면 경사면과 같은 drop-off로 분류할 수 있다.In detail, the obstacle classifying unit 350 may classify the obstacle in the short range detected using the multi-modal profile. The obstacle classification unit 350 may infer the size or shape of the obstacle by calculating the width and height of the detected obstacle using the multi-modal profile. In this case, the width and height of the obstacle may be calculated through the horizontal histogram of the laser profile included in the multi-modal profile, the height of the obstacle may be calculated through the vertical histogram of the edge profile included in the multi-modal profile. . The obstacle classification unit 350 may classify the obstacle into two or three steps as shown in FIG. 6. First, the obstacle classification unit 350 may classify the first stage by using the depth information of the obstacle. At this time, the obstacle classifying unit 350 may classify the obstacle based on the detected obstacle and the depth information included in the laser profile of the ground on the horizontal line. The obstacle classification unit 350 may classify the object as positive if the depth value of the obstacle is a positive value based on the detected information on the detected obstacle and the depth information included in the laser profile of the ground on the horizontal line. If it is, it can be classified as ground. If the depth value of obstacle is negative, it can be classified as negative. In addition, the obstacle classification unit 350 may classify the obstacle according to the shape of the obstacle. In this case, the shape of the obstacle may be inferred according to the calculated ratio of the width to the height of the obstacle. For example, a high ratio of width to height of an obstacle classified as positive means that it is wider than its height, so the shape of the obstacle is a planar like lying on the floor. Since the height is high compared to the obstacle shape may be a vertical shape such as standing on the floor. In addition, since the obstacle classified as ground means the ground literally, there is no shape to classify, and the obstacle classified as negative may be classified according to the width of the obstacle. Obstacles classified as negative can be classified as holes if their width is negligibly narrow compared to their height, and can be classified as n-curb if their width is similar to their height or greater than the width of the obstacle classified as a hole. If it is larger than the height, it can be classified as a drop-off like an inclined surface.
또한, 장애물 분류부(350)는 에지 프로파일을 이용하여 검출한 원거리에 있는 장애물을 분류할 수 있다. 장애물 분류부(350)는 장애물 검출부(340)로부터 검출한 에지 블랍을 타원 근사화하여 타원을 검출하고, 검출한 타원의 단축 대 장축 비율 및 타원의 방향서을 이용하여 원거리에 있는 장애물을 검출할 수 있다.In addition, the obstacle classifying unit 350 may classify the obstacle in the distance detected using the edge profile. The obstacle classifying unit 350 detects an ellipse by ellipsing the edge blob detected by the obstacle detecting unit 340, and detects an obstacle at a long distance using the detected short-to-large-axis ratio of the ellipse and the direction guide of the ellipse. .
구체적으로, 장애물 분류부(350)는 도 7 과 같이, 장애물 검출부(340)를 통해 검출한 에지 블랍을 타원 근사화할 수 있다. 이때, 타원 근사화는 에지 블랍에 포함된 화소들의 모멘트를 이용하여 산출할 수 있으며, [수학식 1]을 통해 타원의 회전률, 장축 및 단축의 길이를 산출할 수 있다.In detail, as illustrated in FIG. 7, the obstacle classifying unit 350 may ellipse an edge blob detected by the obstacle detecting unit 340. In this case, the ellipse approximation may be calculated using the moments of the pixels included in the edge blob, and the rotation rate, the long axis, and the short axis length of the ellipse may be calculated through Equation 1.
Figure PCTKR2015005982-appb-M000001
Figure PCTKR2015005982-appb-M000001
이때,
Figure PCTKR2015005982-appb-I000001
는 타원의 회전률을 의미하며,
Figure PCTKR2015005982-appb-I000002
는 타원의 장축의 길이,
Figure PCTKR2015005982-appb-I000003
는 타원의 단축의 길이를 의미한다. 또한,
Figure PCTKR2015005982-appb-I000004
은 일정 영역(R)에 대한 영상 모멘트로, [수학식 2]로 정의된다.
At this time,
Figure PCTKR2015005982-appb-I000001
Is the rotation rate of the ellipse,
Figure PCTKR2015005982-appb-I000002
Is the length of the long axis of the ellipse,
Figure PCTKR2015005982-appb-I000003
Is the length of the short axis of the ellipse. Also,
Figure PCTKR2015005982-appb-I000004
Is an image moment for a certain area R, which is defined by Equation 2.
Figure PCTKR2015005982-appb-M000002
Figure PCTKR2015005982-appb-M000002
여기서, x, y는 도 8a, 8b 와 같이, 카메라의 시점을 정면 시점에서 탑뷰 시점으로 변환했을 시, 지면에 대한 장애물이 방사성 방향으로 늘어진 모양의 2차원 좌표를 의미한다.Here, x and y, as shown in Figure 8a, 8b, when the viewpoint of the camera is converted from the front view to the top view view, the two-dimensional coordinates of the shape of the obstacle to the ground is stretched in the radial direction.
장애물 분류부(350)는 탑뷰 변환 시 발생하는 영상의 왜곡을 분석하여 장애물이 지면에 세워져 있은지 눕혀져 있는지를 검출할 수 있다. 정면 시점의 영상을 탑뷰 시점으로 변환하면 일정 높이 이상을 가지는 물체는 카메라(200)로부터 방사상 방향으로 늘어지는 현상이 발생할 수 있다. 도 8a 를 참조하면, 막대 또는 사람과 같은 일정 높이 이상을 가지는 물체를 촬영한 영상의 시점을 탑뷰 시점으로 변환하면, 물체의 수평 에지는 지면과 평행하므로 변화가 없지만 물체의 수직 에지는 지면 방향으로 늘어날 수 있다. 반대로, 도 8b 를 참조하면, 평평한 파일과 같은 높이가 낮은 물체를 촬영한 영상의 시점을 탑뷰 시점으로 변환하면, 파일과 같은 높이가 낮은 물체는 지면에 평행하게 보일 정도로 높이가 낮기 때문에 탑뷰 시점으로 변환해도 왜곡 현상이 발생하지 않을 수 있다. 장애물 분류부(350)는 이와 같은 탑뷰 변환 시 화면 왜곡 현상을 분석하여 원거리에 있는 장애물이 지면에 세워져 있는지 눕혀져 있는지를 구분할 수 있다. 도 9 를 참조하면, 장애물 분류부(350)는 [수학식 3]를 통해 탑뷰 영상에서 카메라(200)의 원 위치와 타원(장애물)의 중심이 이루는 직선의 각도와 타원(장애물)의 방향의 차이, 즉 탑뷰 변환 시 화면의 왜곡 정도를 나타내는 DRO(Deviation form Radial Orientation)을 산출할 수 있다. 이때, DRO 값이 미리 정해진 일정 값 이상이면 장애물 지면에 세워져 있는 것으로 판단할 수 있으며, DRO 값이 미리 정해진 일정 값 미만이면 장애물이 지면에 눕혀져 있다고 판단할 수 있다.The obstacle classification unit 350 may detect whether the obstacle is standing on the ground or lying down by analyzing the distortion of the image generated during the top view conversion. When the image of the front view is converted to the top view, an object having a predetermined height or more may be liable to fall in the radial direction from the camera 200. Referring to FIG. 8A, when a viewpoint of an image photographing an object having a certain height, such as a bar or a person, is converted into a top view, the horizontal edge of the object is parallel to the ground so that there is no change, but the vertical edge of the object is directed toward the ground. Can increase. On the contrary, referring to FIG. 8B, when a viewpoint of an image of a low-level object, such as a flat file, is converted to a top-view point of view, an object with a low height, such as a file, is low enough to appear parallel to the ground. The conversion may not cause distortion. The obstacle classification unit 350 may analyze the screen distortion phenomenon during the top view conversion to distinguish whether the obstacle in the distance is standing or lying on the ground. Referring to FIG. 9, the obstacle classifying unit 350 may determine the angle of the straight line formed by the original position of the camera 200 and the center of the ellipse (obstacle) and the direction of the ellipse (obstacle) in the top view image through [Equation 3]. DRO (Deviation form Radial Orientation), which indicates the degree of distortion of the screen during the top view transformation, may be calculated. At this time, if the DRO value is greater than or equal to a predetermined value, it may be determined that the obstacle is standing on the ground. If the DRO value is less than the predetermined value, it may be determined that the obstacle is lying on the ground.
Figure PCTKR2015005982-appb-M000003
Figure PCTKR2015005982-appb-M000003
이때,
Figure PCTKR2015005982-appb-I000005
는 i번째 타원의 중심점 좌표를 나타내며,
Figure PCTKR2015005982-appb-I000006
는 카메라(200)의 원 위치의 좌표를 나타내며,
Figure PCTKR2015005982-appb-I000007
는 i번째 타원의 장축과 수평면이 이루는 각도를 나타낸다.
At this time,
Figure PCTKR2015005982-appb-I000005
Is the coordinate of the center point of the i-ellipse,
Figure PCTKR2015005982-appb-I000006
Represents coordinates of the original position of the camera 200,
Figure PCTKR2015005982-appb-I000007
Is the angle between the major axis of the i-th ellipse and the horizontal plane.
장애물 분류부(350)는 DRO 값 및 타원의 장축 대 단축 비율을 이용하여 원거리에 있는 장애물을 분류할 수 있다. 도 10 을 참조하면, 장애물 분류부(350)는 DRO 값이 미리 정해진 일정 값 이상이면 장애물이 지면에 세워져 있는 모양, 즉 vertical로 분류할 수 있으며, DRO 값이 미리 정해진 일정 값 미만이면 장애물이 지면에 눕혀져 있는 모양, 즉 planar로 분류할 수 있다. 장애물 분류부(350)는 그 다음 단계로 장축 대 단축 비율을 이용하여 장애물을 분류할 수 있다. 장애물 분류부(350)는 vertical로 분류된 장애물 중 장축 대 단축 비율이 미리 정해진 일정 비율 이상이면 길이가 긴 모양인 poles로 분류할 수 있으며, 장축 대 단축 비율이 미리 정해진 일정 비율 미만이면 길이가 짧은 모양인 blocks로 분류할 수 있다. 또한, 장애물 분류부(350)는 planar로 분류된 장애물 중 장축 대 단축 비율이 미리 정해진 일정 비율 이상이면 보도 블록을 나타내는 curbs로 분류할 수 있으며, 장축 대 단축 비율이 미리 정해진 일정 비율 미만이면 평평한 더미를 나타내는 piles로 분류할 수 있다.The obstacle classification unit 350 may classify the obstacle at a distance using the DRO value and the long axis to short axis ratio of the ellipse. Referring to FIG. 10, when the DRO value is greater than or equal to a predetermined value, the obstacle sorting unit 350 may classify the obstacle into a shape that is erected on the ground, that is, vertically. It can be classified as a planar, a shape lying on the side. The obstacle classification unit 350 may classify the obstacle using the long axis to short axis ratio as a next step. The obstacle sorting unit 350 may classify the long pole-to-shorten ratios of the vertically classified obstacles into poles having a long shape. It can be classified into blocks, which are shapes. In addition, the obstacle classification unit 350 may be classified as curbs representing the sidewalk block if the long axis-to-short ratio among the obstacles classified as planar is more than a predetermined predetermined ratio, and the flat pile if the long-axis-short ratio is less than the predetermined predetermined ratio. It can be classified into piles representing.
안내 정보 추출부(360)는 사용자의 움직임 및 현재 사용자의 전방에 있는 장애물에 대한 정보를 포함하는 보행환경에 맞는 최적의 보행 보조 안내 정보를 추출할 수 있다.The guide information extractor 360 may extract optimal walking assistance guide information suitable for a walking environment including information about a user's movement and an obstacle in front of the current user.
구체적으로, 안내 정보 추출부(360)는 광류 벡터를 이용하여 현재 사용자의 움직임을 예측할 수 있다. 이때, 일반적으로 사용자의 위치는 영상의 하단 중앙부에 위치하므로, 안내 정보 추출부(360)는 영상의 하단 중앙부에 관심영역을 설정하고, 관심영역의 광류 벡터를 산출하여 사용자의 움직임을 예측할 수 있다. 이때, 안내 정보 추출부(360)는 관심영역 설정 후 9개의 구역을 나뉘어 각각의 해당 구역의 광류 벡터를 산출하고, 산출한 광류 벡터의 평균을 산출함으로써 광류 벡터들의 오차율을 최소화 시킬 수 있다.In detail, the guide information extractor 360 may predict the motion of the current user by using the light flow vector. In this case, since the user's position is generally located at the bottom center of the image, the guide information extractor 360 may set a region of interest at the bottom center of the image and calculate a light flow vector of the region of interest to predict the movement of the user. . In this case, the guide information extractor 360 divides nine zones after setting the ROI, calculates an optical flow vector of each corresponding zone, and minimizes an error rate of the optical flow vectors by calculating an average of the calculated optical flow vectors.
안내 정보 추출부(360)는 장애물 검출부(340) 및 장애물 분류부(350)를 통해 획득한 장애물에 대한 정보와 광류 벡터를 이용하여 획득한 사용자의 움직임을 통해 현재 사용자의 현재 상황을 인식할 수 있다. 예를 들어, 사용자의 10시 방향으로 10m 떨어진 위치에 장애물이 존재하고 현재 사용자가 12시 방향으로 걸어가고 있으면 장애물과의 거리도 멀고 현재 진행 방향으로 걸어간다면 장애물과 충돌할 가능성이 낮기 때문에 사용자의 보행 상태를 안전한 상태로 검출할 수 있으며, 사용자의 10시 방향으로 10m 떨어진 위치에 장애물이 존재하고 현재 사용자가 10시 방향으로 걸어가고 있으면 사용자의 진행 방향에 장애물이 존재하지만 멀리 떨어져 있으므로 사용자의 보행 생태를 보통 상태로 검출할 수 있으며, 사용자의 12시 방향으로 3m 떨어진 위치에 장애물이 존재하며 사용자가 12시 방향으로 걸어가고 있으면 사용자의 보행 상태는 위험 상태로 검출할 수 있다.The guide information extractor 360 may recognize the current situation of the current user through the information on the obstacle obtained through the obstacle detector 340 and the obstacle classifier 350 and the user's movement obtained using the optical flow vector. have. For example, if an obstacle is located 10m away from the user's 10 o'clock position and the user is currently walking toward 12 o'clock, the user is far from the obstacle and if the user is walking in the direction of progress, it is unlikely to collide with the obstacle. The walking state can be detected as a safe state.If an obstacle exists at a position 10m away from the user's 10 o'clock direction and the user is currently walking to the 10 o'clock direction, the user's walking is present because the obstacle exists in the user's traveling direction but is far away. Ecology can be detected in a normal state, and if there is an obstacle at a position 3m away from the user's 12 o'clock direction and the user walks in the 12 o'clock direction, the user's walking state can be detected as a dangerous state.
또한, 안내 정보 추출부(360)는 사용자의 현재 상황에 따라 사용자가 진행할 방향에 대한 정보를 검출할 수 있다.In addition, the guide information extractor 360 may detect information about a direction in which the user is going according to the current situation of the user.
구체적으로, 안내 정보 추출부(360)는 현재 사용자가 진행하는 방향으로 진행할 경우 사용자 전방에 있는 장애물과 부딪히게 된다면, 확장 칼만 필터를 적용하여 사용자 전방에 있는 장애물과 부딪히지 않기 위해 사용자가 진행해야 할 방향을 검출할 수 있다. 이때, 확장 칼만 필터는 특정 시간 후 사용자가 이동할 위치를 예측할 수 있으므로, 현재 진행 방향을 기준으로 어느 정도 각도로 회전하여 이동하면 사용자 전방에 있는 장애물과 부딪히지 않을지를 예측할 수 있다. 이러한 확장 칼만 필터를 이용하면 안내 정보 추출부(360)는 사용자의 현재 상황에 맞는 최적의 보행 보조 안내 정보를 추출할 수 있다. 예를 들어, 현재 사용자가 12시 방향으로 진행하고 있으며, 사용자의 12시 방향으로 5m 떨어진 위치에 장애물이 존재한다면, 안내 정보 추출부(360)는 확장 칼만 필터를 적용하여 사용자의 현재 진행 방향, 즉 12시 방향을 기준으로 시계방향으로 10°틀어 5m 이동했을 때 장애물가 있는 위치와 유사한지 여부를 검출할 수 있으며, 시계방향으로 10°도 틀어 5m 이동했을 때 장애물가 있는 위치와 유사하지 않으면, 현재 상황에 맞는 최적의 보행 방향을 현재 방향을 기준으로 시계방향으로 10°회전한 방향으로 검출할 수 있다.Specifically, when the guide information extractor 360 is hit by an obstacle in front of the user when the user proceeds in the direction of progress, the user must proceed in order not to hit an obstacle in front of the user by applying an extended Kalman filter. The direction can be detected. At this time, since the Extended Kalman filter can predict the position to which the user will move after a certain time, it can predict whether the object will not hit an obstacle in front of the user if the user rotates at an angle based on the current progress direction. Using the extended Kalman filter, the guide information extractor 360 may extract optimal walking assistance guide information suitable for the current situation of the user. For example, if the user is currently proceeding at 12 o'clock and there is an obstacle at a position 5 m away from the user's 12 o'clock, the guide information extractor 360 applies the extended Kalman filter to the user's current progress direction, That is, it is possible to detect whether or not the position is similar to the obstacle position when moving 5m by turning 10 ° clockwise with respect to 12 o'clock, and if the movement is not similar to the position of obstacle when moving 5m by turning 10 ° clockwise, The optimal walking direction according to the situation can be detected in a direction rotated by 10 ° clockwise from the current direction.
안내 정보 추출부(360)는 현재 사용자의 보행환경에 해당하는 단어들을 추출하여 일정한 패턴을 갖는 문장을 생성할 수 있다.The guide information extractor 360 may generate a sentence having a predetermined pattern by extracting words corresponding to the current walking environment of the user.
구체적으로, 안내 정보 추출부(360)는 사용자의 보행 상태에 대응하는 단어들을 정의할 수 있다. 이때, 사용자의 보행 상태는 안전 상태, 보통 상태, 위험 상태 3단계로 나눠져 있으며, 안내 정보 추출부(360)는 사용자의 보행 상태가 안전 상태이면 진행할 방향, 사용자의 동작 및 장애물의 위치에 대한 정보를 포함하는 단어를 정의할 수 있으며, 사용자의 보행 상태가 보통 상태이면 진행할 방향, 사용자의 동작 및 장애물의 위치에 대한 정보를 포함하는 단어를 정의할 수 있으며, 사용자의 보행 상태가 위험 상태이면 진행할 방향 및 사용자의 동작에 대한 정보를 포함하는 단어를 정의할 수 있다. 이때, 사용자의 보행 상태가 위험 상태이면 매우 가까운 곳에 장애물이 존재하는 상황으로 보행 방향이 급격하게 바뀔 가능성이 높아 장애물의 위치에 대한 정보를 출력하지 않고 보행 방향 및 사용자의 동작에 대한 정보를 포함하는 단어만을 정의한다.In detail, the guide information extractor 360 may define words corresponding to the walking state of the user. At this time, the walking state of the user is divided into three stages, a safe state, a normal state, a dangerous state, and the guide information extracting unit 360 is information about the direction to proceed, the user's operation and the position of the obstacle if the user's walking state is a safe state. You can define a word that includes, and if the user's walking state is a normal state can define a word containing information about the direction to proceed, the user's motion and the location of the obstacle, if the user's walking state is dangerous state A word including information about a direction and a user's motion may be defined. At this time, when the walking state of the user is a dangerous state, there is an obstacle that is very close to the situation, and the walking direction is likely to change suddenly, so that the information on the walking direction and the user's motion is not included without outputting information on the position of the obstacle. Define only words.
예를 들어, 사용자의 보행 상태가 안전 상태로 사용자의 현재 보행 방향을 기준으로 10시 방향으로 10m 떨어진 위치에 막대 모양의 장애물이 존재하고 현재 사용자가 12시 방향으로 걸어가고 있으면, 진행할 방향에 해당하는 단어는 "현재 진행방향" 또는 "12시 방향" 으로 정의할 수 있으며, 사용자의 동작에 해당하는 단어는 "현재와 동일하게 가시길" 또는 "평균 걸음으로 가시길" 으로 정의할 수 있으며, 장애물의 위치에 해당하는 단어는 "막대" , "10시 방향" 및 "10m" 로 정의할 수 있다. 또한, 사용자의 보행 상태가 보통 상태로 사용자의 현재 보행 방향인 12시 방향으로 10m 떨어진 위치에 막대 모양의 장애물이 존재하고 현재 사용자가 12시 방향으로 걸어가고 있으면, 진행할 방향에 해당하는 단어는 확장 칼만 필터에서 검출된 방향, 예를 들어 "11시 방향" 으로 정의할 수 있으며, 사용자의 동작에 해당하는 단어는 "빨리 가시길" 으로 정의할 수 있으며, 장애물의 위치에 해당하는 단어는 "막대" , "12시 방향" 및 "10m" 로 정의할 수 있다. 또한, 사용자의 보행 상태가 위험 상태로 사용자의 현재 보행 방향인 12시 방향으로 3m 떨어진 위치에 막대 모양의 장애물이 존재하면, 진행할 방향에 해당하는 단어는 확장 칼만 필터에서 검출된 방향, 예를 들어 "10시 방향" 으로 정의할 수 있으며, 사용자의 동작에 해당하는 단어는 "빨리 가시길" 또는 "정지 하시길" 으로 정의할 수 있다.For example, if the user's walking state is safe and there is a bar-shaped obstacle 10m away from the user's current walking direction at 10 o'clock, and the current user is walking at 12 o'clock, the walking direction corresponds to the direction to proceed. The word to be defined as "current direction" or "12 o'clock", the word corresponding to the user's action can be defined as "to go the same as the present" or "to go to the average step", the obstacle of The word corresponding to the position may be defined as "rod", "10 o'clock" and "10m". In addition, when the user's walking state is a normal state and a bar-shaped obstacle exists at a position 10 m away from the user's current walking direction at 12 o'clock, and the current user is walking at 12 o'clock, the word corresponding to the direction to proceed is expanded. The direction detected by the Kalman filter, for example, "11 o'clock" may be defined, and the word corresponding to the user's motion may be defined as "quickly visible", and the word corresponding to the position of the obstacle is "bar". , “12 o'clock” and “10 m”. In addition, when the user's walking state is a dangerous state and a bar-shaped obstacle exists at a position 3 m away from the user's current walking direction at 12 o'clock, the word corresponding to the direction to proceed is a direction detected by the extended Kalman filter, for example, It can be defined as "10 o'clock" and the word corresponding to the user's motion can be defined as "quickly go" or "stop".
안내 정보 추출부(360)는 사용자의 보행 상태에 따라 정의한 단어들을 삽입하여 일정한 패턴을 갖는 문장을 생성할 수 있다. 예를 들어, 안내 정보 추출부(360)는 사용자의 보행 상태가 안전 상태이면 정의한 단어, 즉 "현재 진행 방향" , "평균 걸음으로 가시길" , "막대" , "10시 방향" 및 "10m" 을 미리 설정된 문장에 삽입하여 "(막대)가 (10시 방향)에 (10m) 앞에 있습니다. (현재 진행 방향)으로 (평균 걸음으로 가시길) 바랍니다." 라는 문장을 생성할 수 있다. 또한, 사용자의 보행 상태가 보통 상태이면 정의한 단어, 즉 "11시 방향" , "빨리 가시길" , "막대" , "12시 방향" 및 "10m" 을 미리 설정된 문장에 삽입하여 "(막대)가 (12시 방향)에 (10m) 앞에 있습니다. (11시 방향)으로 (빨리 가시길) 바랍니다." 라는 문장을 생성할 수 있다. 또한, 사용자의 보행 상태가 위험 상태이면 정의한 단어, 즉 "10시 방향" , "빨리 가시길" 을 미리 설정된 문장에 삽입하여 "(10시 방향)으로 (빨리 가시길) 바랍니다." 라는 문장을 생성할 수 있다.The guide information extractor 360 may generate a sentence having a predetermined pattern by inserting words defined according to the walking state of the user. For example, the guide information extracting unit 360 defines a word defined when the user's walking state is a safe state, that is, "current progress direction", "go to the average step", "rod", "10 o'clock direction", and "10m" In the preset sentence and say "(Bar) is in front of (10m) at (10 o'clock). (Go to the average step in the (current direction)." Can produce In addition, if the walking state of the user is a normal state, the defined words, that is, "11 o'clock", "go quickly", "bar", "12 o'clock", and "10m" are inserted into a preset sentence, and the "(bar) is added. (At 10 o'clock) at (12 o'clock). (Go as soon as possible) at (11 o'clock). " Can produce In addition, if the user's walking state is dangerous, insert the defined word, "10 o'clock" or "quickly go" into the preset sentence, and "go quickly" (10 o'clock). " Can produce
본 발명의 일 실시예에 따른 보행 보조 시스템(1)은 안내 정보 추출부(360)로부터 생성한 문장을 포함하는 안내 메시지를 출력할 수 있다. 이때, 보행 보조 시스템(1)은 보행 안내 장치(300)에 마련된 출력 모듈(미도시)을 이용하여 안내 메시지를 출력할 수 있으며, 사용자의 귀에 장착된 이어폰(미도시) 또는 헤드셋(미도시)을 통해 안내 메시지를 출력할 수 있다.The walking assistance system 1 according to an exemplary embodiment of the present invention may output a guide message including a sentence generated from the guide information extractor 360. In this case, the walking assistance system 1 may output a guide message by using an output module (not shown) provided in the walking guide device 300, and an earphone (not shown) or a headset (not shown) mounted on a user's ear. You can output the guide message through.
이하에서는, 도 11 을 통하여 본 발명의 일 실시예에 따른 근거리에 있는 장애물을 검출하여 보행 보조 안내 서비스를 제공하는 보행 보조 시스템의 제어방법에 대해 설명한다.Hereinafter, a control method of a walking assistance system for providing a walking assistance guide service by detecting an obstacle at a short distance according to an embodiment of the present disclosure will be described with reference to FIG. 11.
먼저, 레이저 스캐너(100)를 통해 획득한 각 점의 거리 정보를 이용하여 각 점에 대한 깊이 정보를 포함하는 레이저 프로파일을 생성한다(410).First, a laser profile including depth information about each point is generated using the distance information of each point acquired through the laser scanner 100 (410).
또한, 카메라(200)를 통해 촬영한 주변 영상으로부터 수직 및 수평 방향으로 에지를 추출하여 에지 정보를 포함하는 에지 프로파일을 생성한다(415).In addition, an edge profile including edge information is generated by extracting the edges in the vertical and horizontal directions from the surrounding image captured by the camera 200 (415).
또한, 생성한 레이저 프로파일과 에지 프로파일을 융합하여 멀티모달 프로파일을 생성한다(420).In addition, the multi-modal profile is generated by fusing the generated laser profile and the edge profile (420).
이때, 레이저 프로파일과 에지 프로파일을 융합하는 것은, 레이저 프로파일의 좌표점에 대응하는 에지 프로파일을 대응점을 검출하여 검출한 대응점에 정합되도록 레이저 프로파일과 에지 프로파일을 융합할 수 있다.In this case, the fusion of the laser profile and the edge profile may fuse the laser profile and the edge profile so that the edge profile corresponding to the coordinate point of the laser profile is matched with the detected detection point.
또한, 멀티모달 프로파일에서 장애물을 검출하기 위해, 레이저 포인트와 에지 프로파일이 정합된 포인트를 기준으로 하여 주변 8방향에 하나의 모양으로 연결되어 있는 에지 프로파일이 존재하는지 여부를 검출한다(425).In addition, in order to detect an obstacle in the multi-modal profile, it is detected whether there is an edge profile connected in one shape in the peripheral eight directions based on the matched point of the laser point and the edge profile (425).
이때, 정합된 포인트의 주변 8방향에서 하나의 모양으로 연결되어 있는 에지 프로파일이 존재하지 않으면, 미리 정해진 검색 순서에 따라 다음 순서로 정해진 포인트의 주변 8방향에 대해 하나의 모양으로 연결되어 있는 에지 프로파일이 존재하는지 여부를 검출한다(430).At this time, if there is no edge profile connected in one shape in the peripheral eight directions of the matched point, the edge profile connected in one shape in the peripheral eight directions of the point determined in the next order according to a predetermined search order It is detected whether there exists (430).
또한, 정합된 포인트의 주변 8방향에 하나의 모양으로 연결된 에지 프로파일이 검출(425, 435)되면, 하나의 모양으로 연결되어 있는 에지 프로파일이 검출된 영역에 히스토그램을 산출하여 장애물을 검출한다(440).In addition, when edge profiles connected in one shape are detected 425 and 435 in the eight directions around the matched point, an obstacle is detected by calculating a histogram in an area where the edge profiles connected in one shape are detected (440). ).
이때, 하나의 모양으로 연결되어 있는 에지 프로파일이 검출된 영역에 수직 및 수평 방향으로 히스토그램을 산출하여 수직 방향으로 히스토그램의 값이 높게 나오는 영역과 수평 방향으로 히스토그램의 값이 높게 나오는 영역이 겹치는 영역을 장애물 영역으로 검출할 수 있으며, 클러스터링을 통해 검출한 장애물 영역에서 배경 영역을 제외한 장애물만을 검출할 수 있다.At this time, the histogram is calculated in the vertical and horizontal directions to the region where the edge profile connected in one shape is detected, and the region where the histogram value is high in the vertical direction and the region where the histogram value is high in the horizontal direction overlap. It may be detected as an obstacle area, and only an obstacle except a background area may be detected in the obstacle area detected through clustering.
또한, 레이저 프로파일의 수평 히스토그램을 통해 장애물의 너비를 산출하고, 에지 프로파일의 수직 히스토그램을 통해 장애물의 높이를 산출하여 장애물의 크기 또는 모양을 유추한다(445).In addition, the width of the obstacle is calculated through the horizontal histogram of the laser profile, and the height or height of the obstacle is calculated by the vertical histogram of the edge profile to infer the size or shape of the obstacle (445).
이때, 산출한 장애물의 너비 및 높이를 이용하여 너비 대 높이의 비율을 산출할 수 있으며, 너비 대 높이의 비율을 이용하여 장애물이 지면에 세워져 있는 모양인지, 지면에 눕혀져 있는 모양인지를 검출할 수 있으며, 너비 대 높이의 비율이 크면 더미 또는 높이가 낮은 보도 블록과 같은 납작한 모양으로 유추할 수 있고, 너비 대 높이의 비율이 작으면 막대 또는 사람 등과 같은 길쭉한 모양으로 유추할 수 있다.In this case, the width-to-height ratio may be calculated using the calculated width and height of the obstacle, and the width-to-height ratio may be used to detect whether the obstacle is standing on the ground or lying on the ground. A large width-to-height ratio can be inferred into a flat shape, such as a pile or a low sidewalk block, and a small width-to-height ratio can be inferred to an elongated shape such as a rod or a person.
또한, 유추한 장애물의 크기 또는 모양에 따라 장애물을 분류(450)하고, 광류 벡터 및 확장 칼만 필터를 적용하여 사용자의 움직임을 예측한다(455).In addition, the obstacle is classified 450 according to the size or shape of the inferred obstacle, and the user's movement is predicted by applying the optical flow vector and the extended Kalman filter (455).
이때, 광류 벡터를 이용하여 사용자의 현재 움직이는 방향에 대한 정보를 검출할 수 있으며, 확장 칼만 필터를 이용하여 현재 사용자가 진행하는 방향을 기준으로 어떤 방향으로 이동하면 장애물과의 충돌을 피할 수 있는지에 대한 정보를 검출할 수 있다.At this time, the information on the current direction of the user can be detected by using the optical flow vector, and in which direction the current user moves using the extended Kalman filter to avoid collisions with obstacles. Information can be detected.
또한, 검출 및 분류한 장애물에 대한 정보와 사용자의 움직임에 대한 정보를 이용하여 최적의 보행 방향을 산출한다(460).In addition, the optimal walking direction is calculated using information on the detected and classified obstacles and information on the user's movement (460).
또한, 산출한 최적의 보행 방향 및 장애물에 대한 정보를 포함하는 보행 보조 안내 메시지를 생성하여 출력한다(465).In operation 465, a walking assistance guide message including the calculated optimal walking direction and obstacle information is generated and output.
이때, 보행 보조 시스템(1)은 사용자의 움직임 및 장애물에 대한 정보를 이용하여 사용자의 현재 보행 상태에 대해 인식하고, 인식한 보행 상태에 해당하는 단어들을 정의하여 보행 보조 안내 메시지를 생성할 수 있다.In this case, the walking assistance system 1 may recognize the current walking state of the user by using information about the movement and obstacles of the user, and generate a walking assistance guide message by defining words corresponding to the recognized walking state. .
이하에서는, 도 12 를 통하여 본 발명의 일 실시예에 따른 원거리에 있는 장애물을 검출하여 보행 보조 안내 서비스를 제공하는 보행 보조 시스템의 제어방법에 대해 설명한다.Hereinafter, a control method of a walking assistance system for providing a walking assistance guide service by detecting an obstacle at a distance according to an embodiment of the present disclosure will be described with reference to FIG. 12.
먼저, 카메라(200)를 통해 촬영한 주변 영상으로부터 수직 및 수평 방향으로 에지를 추출하여 에지 정보를 포함하는 에지 프로파일을 생성한다(510).First, an edge profile including edge information is generated by extracting edges in the vertical and horizontal directions from the surrounding image captured by the camera 200 (510).
또한, 에지 프로파일로부터 장애물을 추출하기 위해 장애물 추출에 기여하는 수직 에지 성분만을 추출하여 수직 에지 성분만을 포함하는 영상을 추출한다(515).In addition, in order to extract the obstacle from the edge profile, only the vertical edge component that contributes to the obstacle extraction is extracted to extract an image including only the vertical edge component (515).
또한, 원거리에 있는 장애물이 지면에 세워져 있는지 눕혀져 있는지 여부를 검출하기 위해, 정면 시점으로 촬영된 영상을 탑뷰 시점으로 변환한다(520).Also, in order to detect whether an obstacle at a distance is standing on the ground or lying down, the image photographed from the front view is converted into the top view view (520).
이때, 수평 에지는 지면과 평행하므로 탑뷰 시점으로 변환하였을 때 왜곡 현상이 발생하지 않지만, 수직 에지는 탑뷰 시점으로 변환 시 지면 방향으로 늘어나는 왜곡 현상이 발생할 수 있다. 본 발명의 보행 보조 시스템(1)은 이러한 왜곡 현상을 분석하여 장애물이 지면에 세워져 있는지 눕혀져 있는지 여부를 검출할 수 있다.In this case, since the horizontal edge is parallel to the ground, the distortion does not occur when converted to the top view, but the vertical edge may occur when the vertical edge is converted to the top view. The walking assistance system 1 of the present invention may analyze this distortion phenomenon to detect whether an obstacle is standing on the ground or lying down.
또한, 탑뷰 시점으로 변환한 영상에서 장애물을 검출하기 위해, 장애물 검출에 영향을 줄 수 있는 잡음을 제거하고, 하나의 물체는 동일한 에지로 연결되어 있다는 성질을 이용하여 장애물을 검출하기 위해 레이블링을 통해 장애물을 포함하는 에지 블랍을 추출한다(525).Also, in order to detect obstacles in the image converted to the top view, noise is removed that may affect the obstacle detection, and labeling is performed to detect obstacles by using the property that one object is connected to the same edge. The edge blob including the obstacle is extracted (525).
또한, 추출한 에지 블랍에 타원 근사화를 하여 에지 블랍을 이루는 화소들로부터 타원을 획득한다(530).In addition, an ellipse approximation is performed on the extracted edge blob to obtain an ellipse from the pixels forming the edge blob (530).
또한, 획득한 타원의 장축 및 단축의 길이를 산출하고, 탑뷰 시점으로 변환하였을 때 발생하는 왜곡 현상에 의해 타원의 ◎향이 변한다는 것을 이용하여 탑뷰 변환 시 타원의 방향이 변한 정도를 나타내는 타원의 방향성을 검출한다(535).In addition, the length of the ellipse representing the degree of change of the ellipse direction when the top view is transformed by calculating the lengths of the obtained ellipses and the length of the short axis and changing the ellipse of the ellipse due to the distortion phenomenon generated when converting to the top view point of view. Is detected (535).
산출한 장축과 단축의 길이를 이용하여 장축 대 단축의 비율을 산출하고, 산출한 장축 대 단축의 비율 및 타원의 방향성에 따라 장애물을 분류한다(540).The ratio of the long axis to the short axis is calculated using the calculated long axis and the short axis length, and the obstacle is classified according to the calculated long axis to short axis ratio and the directionality of the ellipse (540).
또한, 광류 벡터 및 확장 칼만 필터를 적용하여 사용자의 움직임을 예측한다(545).In addition, the optical flow vector and the extended Kalman filter are applied to predict the motion of the user (545).
이때, 광류 벡터를 이용하여 사용자의 현재 움직이는 방향에 대한 정보를 검출할 수 있으며, 확장 칼만 필터를 이용하여 현재 사용자가 진행하는 방향을 기준으로 어떤 방향으로 이동하면 장애물과의 충돌을 피할 수 있는지에 대한 정보를 검출할 수 있다.At this time, the information on the current direction of the user can be detected by using the optical flow vector, and in which direction the current user moves using the extended Kalman filter to avoid collisions with obstacles. Information can be detected.
또한, 검출 및 분류한 장애물에 대한 정보와 사용자의 움직임에 대한 정보를 이용하여 최적의 보행 방향을 산출한다(550).In operation 550, an optimal walking direction is calculated using information on the detected and classified obstacles and information on the user's movement.
또한, 산출한 최적의 보행 방향 및 장애물에 대한 정보를 포함하는 보행 보조 안내 메시지를 생성하여 출력한다(555).In operation 555, a walking assistance guide message including the calculated optimal walking direction and obstacle information is generated and output.
이때, 보행 보조 시스템(1)은 사용자의 움직임 및 장애물에 대한 정보를 이용하여 사용자의 현재 보행 상태에 대해 인식하고, 인식한 보행 상태에 해당하는 단어들을 정의하여 보행 보조 안내 메시지를 생성할 수 있다.In this case, the walking assistance system 1 may recognize the current walking state of the user by using information about the movement and obstacles of the user, and generate a walking assistance guide message by defining words corresponding to the recognized walking state. .
이와 같은, 근거리 및 원거리에 있는 장애물을 검출하고 사용자의 움직임을 예측하여 최적의 보행 보조 안내 서비스를 제공하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a technology for detecting an obstacle in a short distance and a long distance and predicting a user's movement to provide an optimal walk assistance service is implemented in the form of program instructions that can be implemented as an application or executed through various computer components. It can be recorded on a computer readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium are those specially designed and configured for the present invention, and may be known and available to those skilled in the computer software arts.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, those skilled in the art will understand that various modifications and changes can be made without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

Claims (11)

  1. 레이저 센서를 이용하여 획득한 깊이 정보를 포함하는 레이저 프로파일 모델을 생성하고, 영상 센서를 이용하여 획득한 영상으로부터 추출한 에지 정보를 포함하는 에지 프로파일 모델을 생성하고, 상기 레이저 프로파일 모델과 상기 에지 프로파일 모델을 융합하여 멀티모달 프로파일 모델을 생성하고,A laser profile model including depth information obtained using a laser sensor is generated, an edge profile model including edge information extracted from an image acquired using an image sensor is generated, and the laser profile model and the edge profile model are generated. To create a multimodal profile model,
    상기 멀티모달 프로파일 모델로부터 근거리에 존재하는 장애물을 검출 및 분류하고, 상기 에지 프로파일 모델로부터 원거리에 존재하는 장애물을 검출 및 분류하고, Detect and classify obstacles that exist in the near distance from the multi-modal profile model, detect and classify obstacles that exist in the distance from the edge profile model,
    상기 검출 및 분류한 장애물에 대한 정보를 이용하여 보행 보조를 받는 사용자 전방의 상황을 인식하고, 상기 사용자 전방의 상황 정보에 따라 진행할 방향 및 상황에 대한 정보를 제공하는 보행 보조 방법.The walk assistance method of recognizing the situation in front of the user receiving the walking assistance using the information on the detected and classified obstacles, and providing information on the direction and the situation to proceed according to the situation information in front of the user.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 레이저 프로파일 모델을 생성하는 것은,Generating the laser profile model,
    지면의 레이저 프로파일과 장애물의 레이저 프로파일을 구분하기 위해 상기 깊이 정보를 이용하여 획득한 깊이 정보의 값들의 유사 여부에 따라 레이저 프로파일을 분류하는 보행 보조 방법.The walk assistance method of classifying a laser profile according to whether or not the values of the depth information obtained by using the depth information to distinguish the laser profile of the ground and the laser profile of the obstacle.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 획득한 깊이 정보의 값들의 유사 여부에 따라 레이저 프로파일을 분류하는 것은,Categorizing the laser profile according to similarity of the obtained depth information,
    상기 획득한 깊이 정보의 값들 간의 차이값을 산출하고, 상기 산출한 차이값이 일정 기준 값 미만이면 상기 획득한 깊이 정보의 값을 갖는 레이저 프로파일을 동일한 레이저 프로파일로 분류하고, 상기 산출한 차이값이 일정 기준 값 이상이면 상기 획득한 깊이 정보의 값을 갖는 레이저 프로파일을 상이한 레이저 프로파일로 분류하는 보행 보조 방법.Compute a difference value between the values of the acquired depth information, and if the calculated difference value is less than a predetermined reference value, the laser profile having the value of the acquired depth information is classified into the same laser profile, and the calculated difference value is The walk assistance method of classifying a laser profile having a value of the acquired depth information into a different laser profile if it is equal to or greater than a predetermined reference value.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 멀티모달 프로파일 모델을 생성하는 것은,Generating the multi-modal profile model,
    상기 레이저 프로파일 모델에 포함된 깊이 정보의 좌표점과 상기 에지 프로파일 모델에 포함된 영상의 대응점에 정합하여 상기 멀티모달 프로파일 모델을 생성하는 보행 보조 방법.And generating a multi-modal profile model by matching a coordinate point of depth information included in the laser profile model with a corresponding point of an image included in the edge profile model.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 멀티모달 프로파일 모델로부터 근거리에 존재하는 장애물을 검출 및 분류하는 것은,Detecting and classifying obstacles in the near field from the multi-modal profile model,
    상기 멀티모달 프로파일 모델 생성 시 상기 레이저 프로파일 모델과 상기 에지 프로파일 모델이 정합된 포인트의 주변 8 방향에 대해 연결된 에지 프로파일이 존재하는지 여부를 검출하고, 상기 연결된 에지 프로파일이 존재하면 상기 에지 프로파일이 검출된 영역에 수직 및 수평 히스토그램을 산출하여 상기 근거리에 존재하는 장애물을 검출 및 분류하는 보행 보조 방법.When generating the multi-modal profile model, the laser profile model and the edge profile model detects whether there is a connected edge profile for the peripheral eight directions of the matched point, and if the connected edge profile exists, the edge profile is detected. The walk assistance method of detecting and classifying obstacles in the near field by calculating vertical and horizontal histograms in an area.
  6. 제 5 항에 있어서,The method of claim 5, wherein
    상기 근거리에 존재하는 장애물을 분류하는 것은,Categorizing the obstacles present in the short distance,
    상기 레이저 프로파일 모델의 수평 히스토그램을 통해 상기 장애물의 너비를 산출하고, 상기 에지 프로파일 모델의 수직 히스토그램을 통해 상기 장애물의 높이를 산출하고, 상기 장애물의 너비 및 높이를 이용하여 상기 장애물의 크기 및 모양을 유추하여 상기 장애물을 분류하는 보행 보조 방법.The width of the obstacle is calculated through a horizontal histogram of the laser profile model, the height of the obstacle is calculated through a vertical histogram of the edge profile model, and the size and shape of the obstacle are determined using the width and height of the obstacle. Walking assistance method for inferring and classifying the obstacle.
  7. 제 1 항에 있어서,The method of claim 1,
    상기 에지 프로파일 모델로부터 원거리에 존재하는 장애물을 검출 및 분류하는 것은,Detecting and classifying obstacles that exist at a distance from the edge profile model,
    상기 획득한 영상으로부터 수직 에지 성분을 추출하고, 상기 수직 에지 성분을 추출한 영상을 탑뷰 변환하고, 상기 탑뷰 변환한 영상에 모폴로지 연산 및 레이블링을 수행하여 상기 장애물이 있는 영역인 에지 블랍을 분류하고, 타원 근사화를 통해 상기 에지 블랍으로부터 타원을 획득하고, 상기 타원의 방향을 산출하여 상기 타원의 방향에 따라 상기 장애물을 분류하는 보행 보조 방법.Extract the vertical edge component from the obtained image, top view transform the extracted image of the vertical edge component, perform morphology calculation and labeling on the top view transformed image, and classify the edge blob which is the obstacle region, and oval The walk assistance method of obtaining an ellipse from the edge blob through approximation, calculating the direction of the ellipse, and classifying the obstacle according to the direction of the ellipse.
  8. 제 1 항에 있어서,The method of claim 1,
    상기 검출 및 분류한 장애물에 대한 정보를 이용하여 보행 보조를 받는 사용자 전방의 상황을 인식하고, 상기 사용자 전방의 상황 정보에 따라 진행할 방향 및 상황에 대한 정보를 제공하는 것은,Recognizing the situation in front of the user receiving the walking assistance using the information on the detected and classified obstacles, and providing information about the direction and the situation to proceed according to the situation information in front of the user,
    상기 획득한 영상에 광류 벡터 및 확장 칼만 필터를 적용하여 상기 사용자의 움직임을 예측하고, 상기 사용자의 움직임 및 상기 검출 및 분류한 장애물에 대한 정보로부터 상기 사용자의 보행 상태 및 보행 방향을 포함하는 보행환경의 상황을 인식하여 상기 보행환경의 상황에 따라 상기 진행할 방향 및 상황에 대한 정보를 제공하는 보행 보조 방법.A walking environment including a walking state and a walking direction of the user from the movement of the user and information about the detected and classified obstacles by predicting the movement of the user by applying an optical flow vector and an extended Kalman filter to the obtained image. Recognizing the situation of the walk assistance method for providing information on the direction and the situation to proceed according to the situation of the walking environment.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 보행환경의 상황에 따라 상기 진행할 방향 및 상황에 대한 정보를 제공하는 것은,Providing information on the direction and the situation to proceed according to the situation of the walking environment,
    상기 사용자의 보행환경의 상황에 따라 상기 사용자의 보행환경 상황에 대응하는 복수 개의 단어를 검색하고, 상기 검색한 복수 개의 단어를 조합하여 일정한 패턴을 갖는 문장을 생성하고, 상기 생성한 문장을 포함하는 안내 메시지를 출력하는 보행 보조 방법.Searching for a plurality of words corresponding to the walking environment of the user according to the walking environment of the user, generating a sentence having a predetermined pattern by combining the searched plurality of words, and including the generated sentences Pedestrian assistance method that outputs a guidance message.
  10. 제 1 항 내지 제 9 항 중 어느 하나의 항에 따라 사용자의 보행을 보조하기 위한 정보를 제공하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.A computer-readable recording medium having a computer program recorded thereon for providing information for assisting walking of a user according to any one of claims 1 to 9.
  11. 전방에 위치한 공간의 깊이 정보를 검출하는 레이저 스캐너;A laser scanner for detecting depth information of a space located in front of the apparatus;
    상기 전방에 위치한 공간을 촬영하는 카메라;A camera for photographing the space located in front of the camera;
    상기 레이저 스캐너를 통해 검출한 깊이 정보를 이용하여 레이저 프로파일 모델을 생성하고, 상기 카메라를 통해 촬영한 영상에서 에지 정보를 추출하고 상기 에지 정보를 포함하는 에지 프로파일 모델을 생성하고, 상기 레이저 프로파일과 상기 에지 프로파일 모델을 융합하여 멀티모달 프로파일 모델을 생성하고, 상기 멀티모달 프로파일 모델로부터 전방에 위치한 장애물을 검출 및 분류하고, 상기 에지 프로파일 모델로부터 원거리에 존재하는 장애물을 검출 및 분류하고, 상기 검출 및 분류한 장애물에 대한 정보를 이용하여 보행 보조를 받는 사용자 전방의 상황을 인식하여 상기 사용자 전방의 상황에 따라 보행 방향 및 상황에 대한 정보를 제공하는 보행 안내 장치를 포함하는 보행 보조 시스템.Generate a laser profile model using the depth information detected by the laser scanner, extract edge information from the image taken by the camera and generate an edge profile model including the edge information, the laser profile and the Fuse an edge profile model to generate a multimodal profile model, detect and classify obstacles located forward from the multimodal profile model, detect and classify obstacles remote from the edge profile model, and detect and classify the obstacles. And a walking guidance device that recognizes a situation in front of a user who receives walking assistance using information on an obstacle and provides information on a walking direction and a situation according to the situation in front of the user.
PCT/KR2015/005982 2014-09-26 2015-06-15 Walking assistance method and system, and recording medium for performing same WO2016047890A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0129563 2014-09-26
KR20140129563 2014-09-26

Publications (1)

Publication Number Publication Date
WO2016047890A1 true WO2016047890A1 (en) 2016-03-31

Family

ID=55581385

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005982 WO2016047890A1 (en) 2014-09-26 2015-06-15 Walking assistance method and system, and recording medium for performing same

Country Status (1)

Country Link
WO (1) WO2016047890A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156751A (en) * 2016-07-25 2016-11-23 上海肇观电子科技有限公司 A kind of method and device playing audio-frequency information to destination object
CN110826512A (en) * 2019-11-12 2020-02-21 深圳创维数字技术有限公司 Ground obstacle detection method, ground obstacle detection device, and computer-readable storage medium
CN112556687A (en) * 2020-12-08 2021-03-26 广州赛特智能科技有限公司 Robot starting positioning method, system, electronic equipment and storage medium
WO2022068193A1 (en) * 2020-09-30 2022-04-07 深圳市商汤科技有限公司 Wearable device, intelligent guidance method and apparatus, guidance system and storage medium
CN116434346A (en) * 2023-06-12 2023-07-14 四川汉唐云分布式存储技术有限公司 Method and device for detecting customer behaviors in unattended store and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060071507A (en) * 2004-12-22 2006-06-27 주식회사 팬택앤큐리텔 A walking supporting apparatus and method
KR20100111543A (en) * 2009-04-07 2010-10-15 주식회사 만도 Method and apparatus for recognizing vehicle
KR20120034352A (en) * 2010-10-01 2012-04-12 한국전자통신연구원 System and method for detecting obstacle applying to vehicle
KR20130011608A (en) * 2011-07-22 2013-01-30 에스케이플래닛 주식회사 Apparatus and method for sampled profile based motion estimation
KR101428403B1 (en) * 2013-07-17 2014-08-07 현대자동차주식회사 Apparatus and method for detecting obstacle in front

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060071507A (en) * 2004-12-22 2006-06-27 주식회사 팬택앤큐리텔 A walking supporting apparatus and method
KR20100111543A (en) * 2009-04-07 2010-10-15 주식회사 만도 Method and apparatus for recognizing vehicle
KR20120034352A (en) * 2010-10-01 2012-04-12 한국전자통신연구원 System and method for detecting obstacle applying to vehicle
KR20130011608A (en) * 2011-07-22 2013-01-30 에스케이플래닛 주식회사 Apparatus and method for sampled profile based motion estimation
KR101428403B1 (en) * 2013-07-17 2014-08-07 현대자동차주식회사 Apparatus and method for detecting obstacle in front

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIN, QING ET AL.: "A Context-Aware-Based Audio Guidance System for Blind People Using a Multimodal Profile Model", SENSORS, vol. 14, pages 18670 - 18700 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156751A (en) * 2016-07-25 2016-11-23 上海肇观电子科技有限公司 A kind of method and device playing audio-frequency information to destination object
CN106156751B (en) * 2016-07-25 2019-05-07 上海肇观电子科技有限公司 A kind of method and device playing audio-frequency information to target object
CN110826512A (en) * 2019-11-12 2020-02-21 深圳创维数字技术有限公司 Ground obstacle detection method, ground obstacle detection device, and computer-readable storage medium
CN110826512B (en) * 2019-11-12 2022-03-08 深圳创维数字技术有限公司 Ground obstacle detection method, ground obstacle detection device, and computer-readable storage medium
WO2022068193A1 (en) * 2020-09-30 2022-04-07 深圳市商汤科技有限公司 Wearable device, intelligent guidance method and apparatus, guidance system and storage medium
CN112556687A (en) * 2020-12-08 2021-03-26 广州赛特智能科技有限公司 Robot starting positioning method, system, electronic equipment and storage medium
CN112556687B (en) * 2020-12-08 2023-04-07 广州赛特智能科技有限公司 Robot starting positioning method, system, electronic equipment and storage medium
CN116434346A (en) * 2023-06-12 2023-07-14 四川汉唐云分布式存储技术有限公司 Method and device for detecting customer behaviors in unattended store and storage medium
CN116434346B (en) * 2023-06-12 2023-08-18 四川汉唐云分布式存储技术有限公司 Method and device for detecting customer behaviors in unattended store and storage medium

Similar Documents

Publication Publication Date Title
WO2016047890A1 (en) Walking assistance method and system, and recording medium for performing same
WO2011052826A1 (en) Map generating and updating method for mobile robot position recognition
WO2019225817A1 (en) Vehicle position estimation device, vehicle position estimation method, and computer-readable recording medium for storing computer program programmed to perform said method
Porikli Trajectory distance metric using hidden markov model based representation
WO2017030259A1 (en) Unmanned aerial vehicle having automatic tracking function and control method thereof
CN111753797B (en) Vehicle speed measuring method based on video analysis
US8238607B2 (en) System and method for detecting, tracking and counting human objects of interest
WO2011052827A1 (en) Slip detection apparatus and method for a mobile robot
WO2011013862A1 (en) Control method for localization and navigation of mobile robot and mobile robot using same
WO2012011713A2 (en) System and method for traffic lane recognition
US20060067562A1 (en) Detection of moving objects in a video
JP2009143722A (en) Person tracking apparatus, person tracking method and person tracking program
WO2015105239A1 (en) Vehicle and lane position detection system and method
WO2020067751A1 (en) Device and method for data fusion between heterogeneous sensors
WO2020036295A1 (en) Apparatus and method for acquiring coordinate conversion information
WO2020159076A1 (en) Landmark location estimation apparatus and method, and computer-readable recording medium storing computer program programmed to perform method
JP2006251596A (en) Support device for visually handicapped person
CN106503632A (en) A kind of escalator intelligent and safe monitoring method based on video analysis
WO2019147024A1 (en) Object detection method using two cameras having different focal distances, and apparatus therefor
KR20190051128A (en) Method and System for Detecting Weak Walking Person Based on Behavioral Cognition using Machine Learning Technique
WO2016209029A1 (en) Optical homing system using stereoscopic camera and logo and method thereof
WO2012011715A2 (en) Vehicle collision warning system and method therefor
Snaith et al. A low-cost system using sparse vision for navigation in the urban environment
KR100874890B1 (en) Traffic analysis system and method thereof
Sadek et al. A statistical framework for real-time traffic accident recognition

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15844709

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15844709

Country of ref document: EP

Kind code of ref document: A1