KR102588436B1 - Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing - Google Patents

Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing Download PDF

Info

Publication number
KR102588436B1
KR102588436B1 KR1020200186362A KR20200186362A KR102588436B1 KR 102588436 B1 KR102588436 B1 KR 102588436B1 KR 1020200186362 A KR1020200186362 A KR 1020200186362A KR 20200186362 A KR20200186362 A KR 20200186362A KR 102588436 B1 KR102588436 B1 KR 102588436B1
Authority
KR
South Korea
Prior art keywords
load
image
image data
real
motion sensing
Prior art date
Application number
KR1020200186362A
Other languages
Korean (ko)
Other versions
KR20220095359A (en
Inventor
윤형철
임정혁
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020200186362A priority Critical patent/KR102588436B1/en
Publication of KR20220095359A publication Critical patent/KR20220095359A/en
Application granted granted Critical
Publication of KR102588436B1 publication Critical patent/KR102588436B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/006Geometric correction
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템은, (a) 영상 데이터를 수신하는 단계와, (b) 상기 영상 데이터를 분석하여 객체정보를 검출하는 단계와, (c) 상기 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 단계와, (d) 상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수를 산출하는 단계; 및 (e) 상기 이미지 좌표 및 상기 축척계수를 이용하여 상기 객체 하중 기준점의 실제 좌표를 산출하는 단계를 포함하여 영상분석만으로 편리하고 경제적으로 동적 하중의 위치를 검출할 수 있다.A method and system for real-time dynamic walking load location recognition using image-based motion sensing according to an embodiment of the present invention includes the steps of (a) receiving image data, and (b) analyzing the image data to detect object information. (c) calculating image coordinates of an object load reference point from the object information, (d) calculating a scale factor that is the ratio of the length of a unit pixel of the image data to the corresponding actual length; And (e) calculating the actual coordinates of the object load reference point using the image coordinates and the scale factor, so that the position of the dynamic load can be conveniently and economically detected only through image analysis.

Description

영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템{METHOD AND SYSTEM FOR REAL-TIME PEDESTRIAN DYNAMIC-LOAD LOCALIZATION USING VISION-BASED MOTION SENSING}Method and system for real-time dynamic walking load location recognition using video-based motion sensing {METHOD AND SYSTEM FOR REAL-TIME PEDESTRIAN DYNAMIC-LOAD LOCALIZATION USING VISION-BASED MOTION SENSING}

본 발명은 실시간 동적 보행하중의 위치인식 방법 및 시스템에 관한 것으로, 보다 상세하게는 영상 데이터를 분석하여 실시간으로 동적 보행하중의 위치를 인식할 수 있는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for recognizing the position of a dynamic walking load in real time. More specifically, the location of a dynamic walking load in real time using image-based motion sensing that can recognize the position of a dynamic walking load in real time by analyzing image data. It relates to recognition methods and systems.

건물, 다리 등의 사회기반시설물들이 30년 이상 경과되면 노후화로 인한 문제가 발생할 가능성이 높다. 이에 따라 구조물의 노후화에 따른 피해를 최소화하기 위해 점검 및 유지관리의 필요성이 증대되고 있다. 기존에는 구조물의 노후화를 평가하거나 점검하는데 전문가가 직접 구조물의 상태를 확인하고 평가하는 방식을 사용하였는데, 이러한 방법은 주관적인 요소가 개입될 뿐만 아니라, 상당한 인력과 시간 및 비용을 필요로 하는 점에서 한계가 있었다.If social infrastructure such as buildings, bridges, etc. are more than 30 years old, there is a high possibility that problems due to deterioration will occur. Accordingly, the need for inspection and maintenance is increasing to minimize damage caused by the aging of structures. Previously, to evaluate or inspect the deterioration of a structure, experts used a method of directly checking and evaluating the condition of the structure. However, this method has limitations in that it not only involves subjective factors, but also requires a significant amount of manpower, time, and cost. There was.

구조물의 노후화를 파악하는 기술로 진동 기반 구조물 건전성 모니터링(Structure Health Monitoring, SHM) 기술이 주로 사용된다. 이는 구조물에 가속도계 등의 센서를 부착하여 응답을 측정하고, 이 정보로부터 구조물의 상태를 파악하는 기술이다. SHM 기술은 구조물의 응답 데이터만을 활용하는 출력 기반 방법(Output-only method)와 입력(Input)과 출력(Output)을 모두 활용한 입출력 기반 방법(Input-output method)으로 나누어지는데, 출력 기반 방법은 입력을 백색 소음으로 가정하고 출력인 동적 거동 정보만을 활용하기에 정확도가 다소 떨어지나 입력 측정의 어려움으로 인해 널리 사용되고 있는 실정이다. Vibration-based Structure Health Monitoring (SHM) technology is mainly used to identify the deterioration of structures. This is a technology that measures the response by attaching a sensor such as an accelerometer to the structure and determines the state of the structure from this information. SHM technology is divided into an output-only method that utilizes only the response data of the structure and an input-output method that utilizes both input and output. The output-based method is Since the input is assumed to be white noise and only the dynamic behavior information is used as the output, the accuracy is somewhat low, but it is widely used due to the difficulty of measuring the input.

한국공개특허 제10-2017-0017659호(2017.02.15)Korean Patent Publication No. 10-2017-0017659 (2017.02.15)

본 발명은 위와 같은 문제를 해결하기 위한 것으로, 상세하게는 영상 데이터를 분석하여 정확하고 간편하게 실시간 동적 보행하중의 위치를 인식할 수 있는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템을 제공하는 것을 목적으로 한다.The present invention is intended to solve the above problems, and specifically, a method and system for real-time dynamic walking load location recognition using image-based motion sensing that can accurately and easily recognize the location of real-time dynamic walking load by analyzing image data. The purpose is to provide.

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 과제를 해결하기 위한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법은, (a) 영상 데이터를 수신하는 단계; (b) 상기 영상 데이터를 분석하여 객체정보를 검출하는 단계; (c) 상기 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 단계; (d) 상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수를 산출하는 단계; 및 (e) 상기 이미지 좌표 및 상기 축척계수를 이용하여 상기 객체 하중 기준점의 실제 좌표를 산출하는 단계를 포함할 수 있다.A real-time dynamic location recognition method of walking load using image-based motion sensing according to an embodiment of the present invention to solve the above problem includes the steps of: (a) receiving image data; (b) analyzing the image data to detect object information; (c) calculating image coordinates of the object load reference point from the object information; (d) calculating a scale factor that is a ratio of the length of a unit pixel of the image data and the corresponding actual length; and (e) calculating actual coordinates of the object load reference point using the image coordinates and the scale factor.

상기 (b) 단계는 CRST 알고리즘을 이용하여 수행될 수 있다.Step (b) may be performed using the CRST algorithm.

상기 (d) 단계에서, 상기 축척계수는 하기 수학식 1에 의하여 산출될 수 있다.In step (d), the scale factor can be calculated using Equation 1 below.

<수학식 1><Equation 1>

축척계수 = Y/XScale factor = Y/X

(상기 수학식 1에서 X는 상기 영상 데이터 내의 특정 객체의 픽셀 길이이며, Y는 상기 특정 객체의 실제 길이이다)(In Equation 1, X is the pixel length of a specific object in the image data, and Y is the actual length of the specific object)

상기 (e) 단계에서 상기 실제 좌표는 상기 이미지 좌표에 상기 축척계수를 곱하여 산출될 수 있다.In step (e), the actual coordinates can be calculated by multiplying the image coordinates by the scale factor.

상기 수신된 영상 데이터의 왜곡을 보정하는 단계는 Zhang 알고리즘에 의해 수행될 수 있다.The step of correcting distortion of the received image data may be performed by the Zhang algorithm.

또한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법은, 상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하는 단계를 더 포함할 수 있다.In addition, the real-time dynamic location recognition method of walking load using image-based motion sensing according to an embodiment of the present invention may further include analyzing the image data to calculate a predicted load value of the object load reference point.

또한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 동적 보행하중의 위치인식 시스템은, 영상 데이터를 수신하는 영상데이터 수신부; 상기 영상 데이터를 분석하여 객체정보를 검출하고, 상기 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 객체정보 검출부; 상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수를 산출하는 축적계수 산출부; 및In addition, the position recognition system for dynamic walking load using image-based motion sensing according to an embodiment of the present invention includes an image data receiver that receives image data; an object information detection unit that analyzes the image data to detect object information and calculates image coordinates of an object load reference point from the object information; a scale coefficient calculation unit that calculates a scale coefficient that is a ratio of the length of a unit pixel of the image data and the corresponding actual length; and

상기 이미지 좌표 및 상기 축척계수를 이용하여 상기 객체 하중 기준점의 실제 좌표를 산출하는 객체위치 산출부를 포함할 수 있다.It may include an object position calculation unit that calculates actual coordinates of the object load reference point using the image coordinates and the scale factor.

상기 객체정보 검출부는 CRST 알고리즘을 이용하여 상기 객체정보를 검출할 수 있다.The object information detector may detect the object information using the CRST algorithm.

상기 축척계수는 하기 수학식 1에 의하여 산출될 수 있다.The scale factor can be calculated using Equation 1 below.

<수학식 1><Equation 1>

축척계수 = Y/XScale factor = Y/X

(상기 수학식 1에서 X는 상기 영상 데이터 내의 특정 객체의 픽셀 길이이며, Y는 상기 특정 객체의 실제 길이이다)(In Equation 1, X is the pixel length of a specific object in the image data, and Y is the actual length of the specific object)

상기 실제 좌표는 상기 이미지 좌표에 상기 축척계수를 곱하여 산출될 수 있다.The actual coordinates can be calculated by multiplying the image coordinates by the scale factor.

또한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템은, 상기 수신된 영상 데이터의 왜곡을 보정하는 영상데이터 보정부를 더 포함할 수 있다.In addition, the real-time dynamic walking load position recognition system using image-based motion sensing according to an embodiment of the present invention may further include an image data correction unit that corrects distortion of the received image data.

상기 영상데이터 보정부는 Zhang 알고리즘을 이용하여 상기 영상 데이터의 왜곡을 보정할 수 있다.The image data correction unit may correct distortion of the image data using the Zhang algorithm.

또한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템은, 상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하는 하중 예측부를 더 포함할 수 있다.In addition, the real-time dynamic walking load position recognition system using image-based motion sensing according to an embodiment of the present invention may further include a load prediction unit that analyzes the image data and calculates a load prediction value of the object load reference point.

본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템은 별도의 센서 없이 영상 데이터를 분석하는 것만으로 간편하게 실시간 동적 보행하중의 위치를 인식할 수 있도록 한다.The method and system for recognizing the position of a real-time dynamic walking load using image-based motion sensing according to an embodiment of the present invention allows the location of a real-time dynamic walking load to be easily recognized by simply analyzing the image data without a separate sensor.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited to the contents exemplified above, and further various effects are included in the present specification.

도 1은 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템의 개략 구성도이다.
도 2는 도 1의 시스템의 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법을 설명하는 개략 순서도이다.
도 3은 도 1의 객체정보 검출부에 적용 가능한 객체정보 검출 알고리즘의 성능 평가 실험의 예시 결과 도면이다.
도 4는 원본 영상 데이터 및 도 1의 영상데이터 보정부에서 보정된 데이터가 입력된 경우의 위치 결과를 나타내는 도면이다.
도 5는 도 1의 객체정보 검출부가 실시간으로 검출하는 객체의 위치 정보를 나타내는 도면이다.
도 6은 도 1의 객체정보 검출부가 산출한 객체 하중 기준점 이미지 좌표의 예시를 나타내는 도면이다.
도 7은 도 1의 객체위치 산출부가 산출한 객체 하중 기준점의 실제 좌표를 계산하는 방법을 설명하기 위한 개념도이다.
도 8은 도 1의 객체위치 산출부가 산출한 객체의 위치와 실제 위치를 비교한 결과를 나타내는 그래프이다.
Figure 1 is a schematic configuration diagram of a real-time dynamic walking load position recognition system using image-based motion sensing according to an embodiment of the present invention.
Figure 2 is a schematic flowchart explaining a method for recognizing the position of a real-time dynamic walking load using image-based motion sensing of the system of Figure 1.
FIG. 3 is a diagram illustrating an example result of a performance evaluation experiment of an object information detection algorithm applicable to the object information detection unit of FIG. 1.
FIG. 4 is a diagram showing positioning results when original image data and data corrected by the image data correction unit of FIG. 1 are input.
FIG. 5 is a diagram showing location information of an object detected in real time by the object information detection unit of FIG. 1.
FIG. 6 is a diagram showing an example of image coordinates of an object load reference point calculated by the object information detection unit of FIG. 1.
FIG. 7 is a conceptual diagram illustrating a method of calculating the actual coordinates of the object load reference point calculated by the object position calculation unit of FIG. 1.
FIG. 8 is a graph showing the results of comparing the location of the object calculated by the object location calculation unit of FIG. 1 and the actual location.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to be understood by those skilled in the art. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

이하, 본 발명의 실시예들에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템에 대하여 도면들을 참고하여 설명하도록 한다.Hereinafter, a method and system for real-time dynamic walking load location recognition using image-based motion sensing according to embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템의 개략 구성도이다.Figure 1 is a schematic configuration diagram of a real-time dynamic walking load position recognition system using image-based motion sensing according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템(100)은 영상데이터 수신부(110), 영상데이터 보정부(120), 객체정보 검출부(130), 축척계수 산출부(140), 객체위치 산출부(150) 및 하중 예측부(160)를 포함하여 구성된다.Referring to Figure 1, the real-time dynamic walking load position recognition system 100 using image-based motion sensing according to an embodiment of the present invention includes an image data reception unit 110, an image data correction unit 120, and an object information detection unit ( 130), a scale factor calculation unit 140, an object position calculation unit 150, and a load prediction unit 160.

본 발명에서 시스템(100)는 도 1의 구성을 포함하는 컴퓨터 등의 하드웨어일 수 있다. 하지만 이는 일실시예일 뿐이며 도 1의 구성과 같은 동작이 구현되도록 알고리즘화된 컴퓨터 프로그램일 수도 있을 것이다.In the present invention, the system 100 may be hardware such as a computer including the configuration of FIG. 1. However, this is only an example, and it may be an algorithmic computer program that implements the same operation as the configuration in FIG. 1.

영상데이터 수신부(110)는 구조물에 대한 영상 데이터를 수신하는 역할을 한다. 이때, 영상 데이터는 카메라, 스마트폰 등 사진 또는 실시간 동영상을 촬영할 수 있는 장치일 수 있다.The image data receiving unit 110 serves to receive image data about the structure. At this time, the video data may be a device that can take photos or real-time video, such as a camera or smartphone.

영상데이터 보정부(120)는 수신된 영상 데이터의 왜곡을 보정하는 역할을 한다. 영상데이터 속의 움직이는 보행자와 같은 객체가 검출되는 경우 3차원 영상의 원근감 효과에 따라 객체가 위치한 위치에 따라 픽셀 길이와 실제 길이의 변환에 왜곡이 발생할 수 있다.The image data correction unit 120 serves to correct distortion of received image data. When an object such as a moving pedestrian is detected in video data, distortion may occur in the conversion between pixel length and actual length depending on the location of the object due to the perspective effect of the 3D image.

영상데이터 보정부(120)는 위와 같은 왜곡을 보정하기 위하여 예를 들어 Zhang (2000)이 제시한 알고리즘을 이용하여 카메라 캘리브레이션을 수행할 수 있다.The image data correction unit 120 may perform camera calibration using, for example, the algorithm presented by Zhang (2000) to correct the above distortion.

도 4에는 원본 영상 데이터 및 도 1의 영상데이터 보정부에서 보정된 데이터가 입력된 경우의 위치 결과가 예시적으로 도시되어 있다.FIG. 4 exemplarily shows location results when original image data and data corrected by the image data correction unit of FIG. 1 are input.

도 4의 결과는 영상이 720 × 404의 픽셀로 이루어진 경우에 평균 제곱근 오차(RMSE)가 약 5.4 픽셀 정도 발생하는 것을 보여주고 있다. 또한 영상의 왜곡이 가장자리에서 상대적으로 크게 발생하기 때문에 객체가 영상의 좌, 우 끝으로 이동할수록 오차가 크게 발생하는 것을 확인할 수 있었다. The results in Figure 4 show that when the image consists of 720 × 404 pixels, the root mean square error (RMSE) occurs about 5.4 pixels. In addition, because the distortion of the image occurs relatively large at the edges, it was confirmed that the error increases as the object moves to the left and right ends of the image.

영상 보정의 효과를 확인하기 위하여 원본 영상과 보정된 영상이 입력된 경우를 비교해 보았다.To check the effect of image correction, we compared the cases where the original image and the corrected image were input.

추적할 보행자 객체의 키는 1,816mm로 이미 알고 있었고, 보정된 영상 데이터에서 보행자의 키에 대응되는 픽셀수는 163개였다. 보정된 영상의 전체 가로 픽셀수는 총 720개였고, 바닥 가로폭은 실제 8,150mm였다. The height of the pedestrian object to be tracked was already known to be 1,816 mm, and the number of pixels corresponding to the height of the pedestrian in the corrected image data was 163. The total number of horizontal pixels in the corrected image was 720, and the actual width of the floor was 8,150 mm.

후술할 수식에 의하여 계산된 바닥 가로폭은 약 8,022mm로, 실제 측정값인 8,150mm와 비교시 약 1.57%의 오차가 발생하였다.The horizontal width of the floor calculated using the formula described later was approximately 8,022 mm, which resulted in an error of approximately 1.57% when compared to the actual measured value of 8,150 mm.

보정 전 영상의 경우 보행자의 키에 대응되는 픽셀수가 168개이고, 계산된 바닥 가로폭은 7,783mm로 약 4.51%의 오차를 보였는데, 이는 영상 보정을 통해 약 2.94%의 오차 감소 효과가 나타났음을 보여준다.In the case of the image before correction, the number of pixels corresponding to the height of the pedestrian was 168, and the calculated floor width was 7,783 mm, showing an error of about 4.51%. This shows that the error reduction effect of about 2.94% was achieved through image correction. .

객체정보 검출부(130)는 영상 데이터를 분석하여 객체정보를 검출하고, 검출된 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 역할을 한다.The object information detection unit 130 analyzes image data to detect object information and calculates image coordinates of the object load reference point from the detected object information.

객체정보 검출부(130)는 사용자가 지정해 준 범위를 관심 영역(Region of Interests)로 하여 현재 프레임의 관심 영역 내에서 찾아낸 특징점들이 다음 프레임에서 어떻게 변화하는지를 추적하는 객체 추적 기법으로 사용한다. The object information detection unit 130 uses the user-specified range as the region of interest as an object tracking technique to track how feature points found within the region of interest of the current frame change in the next frame.

객체정보 검출부(130)는 추적된 특징점들의 이동을 나타내는 변환 행렬(Transform Matrix)을 구하고, 변환 행령을 이용한 기하 변환(Geometric Transform)을 통해서 새로운 프레임으로의 이동을 계산하여 위치 변화를 주정하는 방식을 이용한다.The object information detection unit 130 determines the position change by obtaining a transformation matrix representing the movement of the tracked feature points and calculating the movement to a new frame through geometric transformation using a transformation command. Use it.

본 발명에서는 객체 추적 알고리즘으로 CSRT(Channel and Spatial Reliability), KCF(Kernelized Correlation Filters), MIL(Multiple Instance Learning), MOSSE(Minimum Output Sum of Squared Error)의 네 가지 알고리즘에 대한 성능 평가를 진행하였으며, 그 결과가 도 3에 도시되어 있다.In the present invention, the performance of four object tracking algorithms was evaluated: CSRT (Channel and Spatial Reliability), KCF (Kernelized Correlation Filters), MIL (Multiple Instance Learning), and MOSSE (Minimum Output Sum of Squared Error). The results are shown in Figure 3.

순환행렬의 특성을 이용한 KCF 알고리즘의 경우 높은 처리속도를 보였으나 추적 중이던 객체의 배경이 급격하게 변화하는 경우나 객체가 가려지는 경우 추적 중이던 객체를 상실하는 경우가 빈번하게 발생하였다. The KCF algorithm using the characteristics of a circular matrix showed high processing speed, but frequently lost the object being tracked when the background of the object being tracked changed rapidly or the object was obscured.

물체의 현재 위치와 주변 위치까지 Positive example로 고려, 다중 인스턴스 학습을 통해 물체를 추적하는 MIL 알고리즘은 해상도에 따른 성능 편차가 불규칙하게 발생하였고, 낮은 처리속도를 보여주었다.The MIL algorithm, which tracks objects through multi-instance learning by considering the object's current location and surrounding locations as positive examples, showed irregular performance deviations depending on resolution and low processing speed.

적응형 상관 필터를 이용한 MOSSE 알고리즘은 매우 빠른 처리속도와 준수한 추적 성공률을 보였으나, 추적 중이던 객체가 가려지는 경우에 성능이 급격하게 하락하는 모습을 보였다.The MOSSE algorithm using an adaptive correlation filter showed very fast processing speed and a decent tracking success rate, but performance showed a sharp decline when the object being tracked was obscured.

관심 영역(ROI)으로 설정한 객체의 가중치를 맵핑하는 방식으로 작동하는 CSRT 알고지름은 공간 신뢰도 맵 구축, 제한된 상관 필터 학습, 채널 신뢰성 추정의 3단계 연산을 통해 작동한다.The CSRT algorithm, which operates by mapping the weights of objects set as regions of interest (ROI), operates through three-step operations: building a spatial reliability map, learning a restricted correlation filter, and estimating channel reliability.

첫 번째 단계는 ROI로 설정된 영역 안에서 필터가 작동하는 범위를 추적할 객체에 적합하도록 제안하여 직사각형이 아닌 불규칙한 모양의 객체에 대한 검색 범위와 성능을 향상시키는 단계이다.The first step is to improve the search range and performance for non-rectangular, irregularly shaped objects by proposing that the range in which the filter operates within the area set as ROI is suitable for the object to be tracked.

두 번째 단계에서는 첫 번째 단계를 통해 제한된 영역 내의 픽셀들에 대해 배경의 영향을 감소시키고 객체에 해당하는 부분에 가중치를 부여한다.In the second step, the influence of the background is reduced for pixels within the limited area through the first step and weight is given to the part corresponding to the object.

마지막으로 제한되지 않은 전 영역에 대한 필터의 응답에 이전 단계에서 산정한 가중치를 곱해서 객체의 위치를 추정한다. Finally, the position of the object is estimated by multiplying the filter's response for the entire unrestricted area by the weight calculated in the previous step.

이러한 CSRT 알고리즘은 최상의 추적 성공률을 보여주었고, 처리 속도는 낮은 편에 속했으나, 실사용에는 무리가 없는 수준으로 판단되었다. This CSRT algorithm showed the best tracking success rate, and although the processing speed was on the low side, it was judged to be acceptable for actual use.

성능 평가 결과를 종합하여 보면, 보행자와 같이 객체의 형태와 크기 등이 변화하는 경우에는 CSRT 알고리즘이 적합한 것으로 파악되었으며, 차량과 같이 정적인 객체인 경우에는 KCF 알고리즘 또한 적용 가능할 것으로 파악되었다. Summarizing the performance evaluation results, the CSRT algorithm was found to be suitable for cases where the shape and size of objects, such as pedestrians, change, and the KCF algorithm was also found to be applicable for static objects such as vehicles.

예를 들어 CSRT 알고리즘 알고리즘을 적용하면 도 5와 같이 보행자의 위치를 실시간으로 파악할 수 있게 된다. For example, by applying the CSRT algorithm, it is possible to determine the location of pedestrians in real time, as shown in Figure 5.

도 5는 도 1의 객체정보 검출부가 실시간으로 검출하는 객체의 위치 정보를 나타내는 도면이다.FIG. 5 is a diagram showing location information of an object detected in real time by the object information detection unit of FIG. 1.

도 5에는 고정된 바닥 구조물으로 하중값을 정확하게 예측할 수 없으므로 임의의 하중값을 기준으로 보행자의 위치별로 전단력도 및 휨모멘트도가 같이 도시되어 있다.In Figure 5, since the load value cannot be accurately predicted with a fixed floor structure, the shear force diagram and bending moment diagram are shown for each pedestrian's position based on an arbitrary load value.

이때, 객체정보 검출부(130)는 객체 영역으로부터 객체 하중 기준점의 이미지 좌표를 산출할 수 있다. 객체 하중 기준점은 객체의 하중의 기준점이 될 수 있는 중심 영역을 의미하며 예를 들어 객체 영역의 좌우 및 상하의 중심점으로 결정될 수 있다.At this time, the object information detector 130 may calculate the image coordinates of the object load reference point from the object area. The object load reference point refers to the central area that can be the reference point for the load of the object and, for example, can be determined as the left, right, and top and bottom center points of the object area.

도 6에서 객체인 보행자의 중심 부분이 객체 하중 기준점으로 표시되어 있으며 좌표가 (A, B)로 표시된 것을 확인할 수 있다. In Figure 6, it can be seen that the central part of the object, a pedestrian, is indicated as the object load reference point and the coordinates are indicated as (A, B).

도 6의 좌표 (A, B)의 영상 데이터상의 이미지 픽셀 기준상의 좌표이다. A는 영상 좌측으로부터 객체 하중 기준점까지의 픽셀 거리를 의미하며, B는 영상 상측으로부터 객체 하중 기준점까지의 픽셀 거리를 의미한다. The coordinates (A, B) in FIG. 6 are coordinates on the image pixel reference on the image data. A refers to the pixel distance from the left side of the image to the object load reference point, and B refers to the pixel distance from the top of the image to the object load reference point.

도 6의 좌표 설정 방법은 일실시예일 뿐이며, B의 픽셀 길이가 영상 하측으로부터의 길이로 설정되는 등 다른 방식으로 설정될 수도 있다.The coordinate setting method in FIG. 6 is only an example, and the pixel length of B may be set in other ways, such as setting the length from the bottom of the image.

축척계수 산출부(140)는 영상 데이터의 단위 픽셀 길이와 대응되는 실제 길이의 비인 축척 계수를 산출하는 역할을 한다.The scale coefficient calculation unit 140 serves to calculate a scale coefficient that is the ratio of the unit pixel length of the image data and the corresponding actual length.

도 7은 도 1의 객체위치 산출부가 산출한 객체 하중 기준점의 실제 좌표를 계산하는 방법을 설명하기 위한 개념도이다.FIG. 7 is a conceptual diagram illustrating a method of calculating the actual coordinates of the object load reference point calculated by the object position calculation unit of FIG. 1.

도 7을 참조하면 보행자의 키에 해당하는 상하 높이는 영상 데이터 상에서 X 픽셀에 대응되고, 실제 보행자의 키는 Y 값으로 표시되어 있다. 이 경우 픽셀과 실제 길이의 비인 축척계수(Scale Factor) C는 아래의 수학식 1과 같이 계산될 수 있다.Referring to FIG. 7, the vertical height corresponding to the height of the pedestrian corresponds to the X pixel in the image data, and the actual height of the pedestrian is indicated as the Y value. In this case, the scale factor C, which is the ratio of the pixel to the actual length, can be calculated as in Equation 1 below.

[수학식 1][Equation 1]

상기 수학식 1에서 X는 영상 데이터 내의 특정 객체의 좌우 또는 상하 방향의 픽셀 길이(개수)이며, Y는 대응되는 부분의 실제 길이를 나타낸다.In Equation 1 above,

도 7에서 영상의 실제 가로폭 길이 Z는 프레임의 가로 픽셀 수인 W에 상기 축척계수 C를 곱하여 얻어질 수 있다.In FIG. 7, the actual width length Z of the image can be obtained by multiplying W, the number of horizontal pixels in the frame, by the scale factor C.

축척계수 산출부(140)는 이와 같은 방법으로 축척계수를 산출할 수 있는데 축적계수를 산출하기 위한 객체는 다양하게 설정될 수 있다.The scale factor calculation unit 140 can calculate the scale factor in this manner, and the object for calculating the scale factor can be set in various ways.

도 7에서는 보행자의 키를 미리 알고 있는 상황인 경우에 보행자 객체의 영역을 검출함과 동시에 키에 해당하는 픽셀 데이터를 추출하고 이에 따라 자연스럽게 축척계수를 산출하는 경우를 예로 들고 있다.Figure 7 shows an example of a situation in which the pedestrian's height is known in advance, the area of the pedestrian object is detected, pixel data corresponding to the height is extracted, and the scale factor is naturally calculated accordingly.

하지만, 이와 달리 보행자 외의 별도 특징적인 객체를 검출하고, 해당 객체의 좌우 또는 상하 길이를 기초로 축척계수를 산출하는 방법도 가능하다. 예를 들어, 구조물에 눈에 띄는 특징적인 구조물 영역이 있고 해당 영역의 가로 길이 정보가 미리 획득된 경우에는 해당 구조물의 영상 내에서의 가로 픽셀 수를 검출하여 축척계수를 산출할 수도 있을 것이다. However, unlike this, it is also possible to detect a characteristic object other than a pedestrian and calculate a scale factor based on the left and right or top and bottom lengths of the object. For example, if the structure has a distinctive structure area that stands out and information on the horizontal length of the area is obtained in advance, the scale factor may be calculated by detecting the number of horizontal pixels in the image of the structure.

단, 이 경우에는 동적 객체인 보행자를 검출하는 것 외에 별도로 축척계수 산출을 위한 별도의 객체 검출을 해야 할 필요가 있다.However, in this case, in addition to detecting pedestrians, which are dynamic objects, it is necessary to detect separate objects to calculate the scale factor.

객체위치 산출부(150)는 이미지 좌표 및 축척계수를 이용하여 객체 하중 기준점의 실제 좌표를 산출하는 역할을 한다.The object position calculation unit 150 serves to calculate the actual coordinates of the object load reference point using image coordinates and a scale factor.

도 7의 경우에 구조물 해석의 경우에 이미지 상의 좌표 (A, B) 중에서 영상 좌측을 기준으로 한 좌표인 A가 중요한 수치가 될 수 있다. In the case of Figure 7, in the case of structural analysis, among the coordinates (A, B) on the image, A, which is the coordinate based on the left side of the image, may be an important value.

객체위치 산출부(150)는 아래의 수학식 2와 같이 보행자 객체의 실제 대응되는 길이를 다음과 같이 계산할 수 있다.The object location calculation unit 150 can calculate the actual corresponding length of the pedestrian object as shown in Equation 2 below.

[수학식 2][Equation 2]

상기 수학식 2에서 A는 동적 객체의 이미지상의 가로 이동 길이이며, A'는 동적 객체의 실제 가로 이동 길이를 의미한다.In Equation 2 above, A is the horizontal movement length of the dynamic object on the image, and A' means the actual horizontal movement length of the dynamic object.

도 8에는 도 1의 객체위치 산출부가 산출한 객체의 위치와 실제 위치를 비교한 결과를 나타내는 그래프가 도시되어 있다.FIG. 8 shows a graph showing the results of comparing the location of the object calculated by the object location calculation unit of FIG. 1 and the actual location.

도 8과 같이 RMSE가 약 2.47 픽셀로 나타나 매우 정확하게 보행자의 위치 추정을 할 수 있는 것으로 나타났다. As shown in Figure 8, the RMSE was approximately 2.47 pixels, indicating that the pedestrian's location could be estimated very accurately.

하중 예측부(160)는 영상 데이터를 분석하여 객체 하중 기준점의 하중 예측값을 산출하는 역할을 한다.The load prediction unit 160 analyzes image data and calculates the load prediction value of the object load reference point.

하중 예측부(160)는 영상 데이터를 분석하여 동적 객체의 이동시 검출되는 동적 객체의 지지 구조물의 형상 변화를 검출하여 동적 객체에 의하여 발생하는 하중을 예측할 수 있다.The load prediction unit 160 may predict the load generated by the dynamic object by analyzing image data and detecting a change in the shape of the support structure of the dynamic object detected when the dynamic object moves.

예를 들어, 구조물이 보도현수교인 경우에는 보행자가 지나가는 경우 보도현수교 바닥면의 상하 변위 이동이 검출될 수 있다. 이러한 상하 변위는 동적 객체의 무게 및 위치에 따라 달라질 수 있으므로 하중 예측부(160)는 미리 구축된 데이터베이스를 이용하여 실시간으로 하중을 예측할 수 있다.For example, if the structure is a sidewalk suspension bridge, the vertical displacement of the bottom surface of the sidewalk suspension bridge may be detected when a pedestrian passes by. Since this vertical displacement may vary depending on the weight and position of the dynamic object, the load prediction unit 160 can predict the load in real time using a pre-built database.

이때, 하중 예측부(160)는 딥러닝(Deep Learning) 기법을 기반으로 구조물의 유사도, 객체의 유사도 등에 따른 데이터베이스를 업데이트 하면서 보다 정확한 하중 예측 알고리즘으로 하중을 예측할 수 있다. At this time, the load prediction unit 160 can predict the load with a more accurate load prediction algorithm while updating the database according to the similarity of structures, similarity of objects, etc. based on deep learning techniques.

도 2는 도 1의 시스템의 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법을 설명하는 개략 순서도이다.Figure 2 is a schematic flowchart explaining a method for recognizing the position of a real-time dynamic walking load using image-based motion sensing of the system of Figure 1.

본 발명의 일실시예에 따른 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법은 먼저 카메라 등으로부터 촬영된 영상 데이터를 수신한다(S210).The real-time dynamic walking load location recognition method using motion sensing according to an embodiment of the present invention first receives image data captured from a camera, etc. (S210).

영상 데이터의 왜곡을 보정하기 위하여 Zhang 알고리즘 등을 이용하여 영상 보정 작업을 수행한다(S220).In order to correct distortion of image data, image correction is performed using the Zhang algorithm, etc. (S220).

보정된 영상이 산출되면 보정된 영상 데이터를 기준으로 CSRT 알고리즘 등을 이용하여 움직이는 객체정보를 검출한다(S230).When the corrected image is calculated, moving object information is detected using the CSRT algorithm based on the corrected image data (S230).

객체정보가 검출되면 객체 하중 기준점 이미지의 좌표를 산출한다(S240).When object information is detected, the coordinates of the object load reference point image are calculated (S240).

또한, 미리 실제 길이를 알고 있는 특정 객체의 픽셀 개수를 이용하여 축척계수를 산출한다(S250).Additionally, the scale factor is calculated using the number of pixels of a specific object whose actual length is known in advance (S250).

축척계수가 산출되는 객체 하중 기준점 실제 좌표를 산출한다(S260). 구조물이 다리인 경우라면 상기와 같은 방법으로 보행자의 실제 이동 거리 또는 가로축 위치를 산출할 수 있게 된다.Calculate the actual coordinates of the object load reference point from which the scale factor is calculated (S260). If the structure is a bridge, the actual moving distance or horizontal axis position of the pedestrian can be calculated using the above method.

만약 구조물이 보도현수교와 같이 하중에 의하여 상하 변위가 발생하는 구조물인 경우에는 미리 설정된 알고리즘에 의하여 하중 예측값을 산출한다(S270).If the structure is a structure in which vertical displacement occurs due to load, such as a sidewalk suspension bridge, the predicted load value is calculated using a preset algorithm (S270).

이때, 하중 예측값을 산출하는 방법은 영상 데이터를 분석하여 특정 시점에서의 객체의 위치 및 구조물의 상하 변위값 등을 산출하여 미리 구축된 데이터베이스 및 알고리즘에 의하여 하중 예측값을 산출하는 방법일 수 있다.At this time, the method of calculating the predicted load value may be to analyze image data to calculate the position of the object and the vertical displacement of the structure at a specific point in time, and then calculate the predicted load value using a pre-built database and algorithm.

이때, 하중 예측 방법은 딥러닝 알고리즘을 이용하여 학습을 통해 빅데이터를 활용한 정확한 예측 방식을 채택할 수 있다.At this time, the load prediction method can adopt an accurate prediction method using big data through learning using a deep learning algorithm.

본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템은 상기와 같은 방법으로 영상 데이터를 분석하여 편리하고 경제적으로 하중의 위치정보를 획득할 수 있도록 한다.The method and system for real-time dynamic location recognition of a walking load using image-based motion sensing according to an embodiment of the present invention enables the location information of the load to be obtained conveniently and economically by analyzing image data in the same manner as described above.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.A person skilled in the art to which the present invention pertains will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 위치인식 시스템 110: 영상데이터 수신부
120: 영상데이터 보정부 130: 객체정보 검출부
140: 축척계수 산출부 150: 객체위치 산출부
160: 하중 예측부
100: Location recognition system 110: Image data receiving unit
120: Image data correction unit 130: Object information detection unit
140: Scale factor calculation unit 150: Object position calculation unit
160: Load prediction unit

Claims (14)

(a) 카메라로부터 촬영된 영상 데이터를 수신하는 단계;
(b) 상기 영상 데이터를 분석하여 객체정보를 검출하는 단계;
(c) 상기 검출된 객체정보로부터 객체 하중 기준점에 대해 픽셀로 이루어진 이미지 좌표(A)를 산출하는 단계;
(d) 상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수(C)를 아래 <수학식1>과 같이 산출하는 단계;
<수학식 1>
축척계수 C = Y/X
(단, X는 상기 영상 데이터 내의 특정 객체의 픽셀 길이이며, Y는 상기 특정 객체의 실제 길이임)
(e) 상기 이미지 좌표(A) 및 상기 축척계수(C)를 이용하여 상기 객체 하중 기준점의 실제 좌표(A')를 산출하는 단계를 포함하며,
상기 (b) 단계는,
(f) 사전에 설정된 관심 영역(Region of Interests)에 있어서 상기 영상 데이터에서 현재 프레임의 상기 관심 영역 내에서 찾아낸 특징점들이 다음 프레임에서 어떻게 변화하는지를 추적하는 객체 추적 단계; 및
(g) 상기 추적된 특징점들의 이동을 나타내는 변환 행렬(Transform Matrix) 및 상기 변환 행렬을 이용한 기하 변환(Geometric Transform)을 이용하여 다음 프레임으로의 이동을 계산하여 위치 변화를 추정하는 단계;를 더 포함하는 것을 특징으로 하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
(a) receiving image data captured from a camera;
(b) analyzing the image data to detect object information;
(c) calculating image coordinates (A) consisting of pixels with respect to the object load reference point from the detected object information;
(d) calculating a scale factor (C), which is the ratio of the length of the unit pixel of the image data and the corresponding actual length, as shown in Equation 1 below;
<Equation 1>
Scale factor C = Y/X
(However, X is the pixel length of a specific object in the image data, and Y is the actual length of the specific object)
(e) calculating the actual coordinates (A') of the object load reference point using the image coordinates (A) and the scale factor (C),
In step (b),
(f) an object tracking step of tracking how feature points found within the region of interest of the current frame in the image data change in the next frame in a preset Region of Interests; and
(g) estimating the position change by calculating the movement to the next frame using a transformation matrix representing the movement of the tracked feature points and a geometric transformation using the transformation matrix; A real-time dynamic walking load location recognition method using image-based motion sensing.
제1항에 있어서,
상기 (b) 단계는
(h) 상기 관심 영역으로 설정된 영역 안에서 필터가 작동하는 범위를 추적할 객체에 적합하도록 직사각형이 아닌 불규칙한 모양의 객체에 대한 검색 범위로 제한하여 설정하는 단계;
(i) 상기 (h) 단계를 통해 제한된 검색 범위 내의 픽셀들에 대해 배경 및 객체에 해당하는 부분에 대한 각각의 가중치를 부여하는 단계;
(j) 상기 (h) 단계에서 제한되지 않은 전 범위에 대한 필터의 응답값에 이전 단계에서 산정한 가중치를 곱하여 상기 객체의 위치를 추정하는 단계;를 포함하는 것을 특징으로 하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
According to paragraph 1,
Step (b) above is
(h) setting the range in which the filter operates within the area set as the area of interest to be limited to a search range for objects of an irregular shape other than a rectangle to suit the object to be tracked;
(i) assigning weights to parts corresponding to the background and object to pixels within the limited search range through step (h);
(j) estimating the location of the object by multiplying the response value of the filter for the entire range that is not limited in step (h) by the weight calculated in the previous step; video-based motion sensing comprising a. A real-time dynamic walking load location recognition method using.
삭제delete 제1항에 있어서,
상기 (e) 단계에서 상기 실제 좌표는 상기 이미지 좌표에 상기 축척계수를 곱하여 산출되는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
According to paragraph 1,
In step (e), the actual coordinates are calculated by multiplying the image coordinates by the scale factor. A real-time dynamic walking load location recognition method using image-based motion sensing.
제1항에 있어서,
(k) 상기 (a) 단계와 상기 (b) 단계 사이에 상기 수신된 영상 데이터의 왜곡을 보정하는 단계를 더 포함하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
According to paragraph 1,
(k) A real-time dynamic location recognition method of walking load using image-based motion sensing, further comprising correcting distortion of the received image data between steps (a) and (b).
삭제delete 제1항에 있어서,
(l) 상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하는 단계를 더 포함하며,
상기 (l) 단계는, 상기 영상 데이터를 분석하여 객체의 이동시 검출되는 동적 객체의 지지 구조물의 형상 변화를 검출하여 동적 객체에 의하여 발생하는 하중을 실시간으로 예측하며,
상기 구조물의 유사도 또는 상기 객체의 유사도에 따른 데이터베이스를 딥러닝(Deep Learning) 기법을 기반으로 업데이트 하면서 상기 하중 예측값을 산출하는 것을 특징으로 하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
According to paragraph 1,
(l) further comprising calculating a predicted load value of the object load reference point by analyzing the image data,
In step (l), the image data is analyzed to detect changes in the shape of the support structure of the dynamic object detected when the object moves, and the load generated by the dynamic object is predicted in real time,
A real-time dynamic walking load location recognition method using image-based motion sensing, characterized in that the load prediction value is calculated while updating a database according to the similarity of the structure or the similarity of the object based on deep learning techniques.
영상 데이터를 수신하는 영상데이터 수신부;
상기 영상 데이터를 분석하여 객체정보를 검출하고, 상기 객체정보로부터 객체 하중 기준점에 대해 픽셀로 이루어진 이미지 좌표(A)를 산출하는 객체정보 검출부;
상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수(C)를 아래 <수학식1>과 같이 산출하는 축적계수 산출부;
<수학식 1>
축척계수 C = Y/X
(단, X는 상기 영상 데이터 내의 특정 객체의 픽셀 길이이며, Y는 상기 특정 객체의 실제 길이임)
상기 이미지 좌표(A) 및 상기 축척계수(C)를 이용하여 상기 객체 하중 기준점의 실제 좌표(A')를 산출하는 객체위치 산출부를 포함하며,
상기 객체정보 검출부는,
사전에 설정된 관심 영역(Region of Interests)에 있어서 상기 영상 데이터에서 현재 프레임의 상기 관심 영역 내에서 찾아낸 특징점들이 다음 프레임에서 어떻게 변화하는지를 추적하고, 상기 추적된 특징점들의 이동을 나타내는 변환 행렬(Transform Matrix) 및 상기 변환 행렬을 이용한 기하 변환(Geometric Transform)을 이용하여 다음 프레임으로의 이동을 계산하여 위치 변화를 추정하는 것을 특징으로 하는 영상기반 모션센싱을 이용한 동적 보행하중의 위치인식 시스템.
A video data receiving unit that receives video data;
an object information detection unit that analyzes the image data to detect object information and calculates image coordinates (A) consisting of pixels with respect to the object load reference point from the object information;
A scale coefficient calculation unit that calculates a scale coefficient (C), which is the ratio of the length of the unit pixel of the image data and the corresponding actual length, as shown in Equation 1 below;
<Equation 1>
Scale factor C = Y/X
(However, X is the pixel length of a specific object in the image data, and Y is the actual length of the specific object)
An object position calculation unit that calculates actual coordinates (A') of the object load reference point using the image coordinates (A) and the scale factor (C),
The object information detection unit,
A transformation matrix that tracks how feature points found within the region of interest of the current frame in the image data change in the next frame in a preset Region of Interests, and represents the movement of the tracked feature points. And a position recognition system for dynamic walking load using image-based motion sensing, characterized in that the position change is estimated by calculating movement to the next frame using a geometric transformation using the transformation matrix.
제8항에 있어서,
상기 객체정보 검출부는
상기 관심 영역으로 설정된 영역 안에서 필터가 작동하는 범위를 추적할 객체에 적합하도록 직사각형이 아닌 불규칙한 모양의 객체에 대한 검색 범위로 제한하여 설정하며,
상기 제한된 검색 범위 내의 픽셀들에 대해 배경 및 객체에 해당하는 부분에 대한 각각의 가중치를 부여하고,
상기 제한되지 않은 전 범위에 대한 필터의 응답값에 이전 단계에서 산정한 가중치를 곱하여 상기 객체의 위치를 추정함으로써 상기 객체정보를 검출하는 것을 특징으로 하는 영상기반 모션센싱을 이용한 동적 보행하중의 위치인식 시스템.
According to clause 8,
The object information detection unit
The range in which the filter operates within the area set as the area of interest is limited to the search range for objects of irregular shape rather than rectangles to suit the object to be tracked,
Each weight is assigned to the background and object portions for pixels within the limited search range,
Position recognition of dynamic walking load using image-based motion sensing, characterized in that the object information is detected by estimating the position of the object by multiplying the response value of the filter for the entire unrestricted range by the weight calculated in the previous step. system.
삭제delete 제8항에 있어서,
상기 실제 좌표는 상기 이미지 좌표에 상기 축척계수를 곱하여 산출되는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템.
According to clause 8,
A real-time dynamic walking load position recognition system using image-based motion sensing where the actual coordinates are calculated by multiplying the image coordinates by the scale factor.
제8항에 있어서,
상기 수신된 영상 데이터의 왜곡을 보정하는 영상데이터 보정부를 더 포함하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템.
According to clause 8,
A real-time dynamic walking load position recognition system using image-based motion sensing, further comprising an image data correction unit that corrects distortion of the received image data.
삭제delete 제8항에 있어서,
상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하는 하중 예측부를 더 포함하며,
상기 하중 예측부는,
상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하고, 상기 영상 데이터를 분석하여 객체의 이동시 검출되는 동적 객체의 지지 구조물의 형상 변화를 검출하여 동적 객체에 의하여 발생하는 하중을 실시간으로 예측하며, 상기 구조물의 유사도 또는 상기 객체의 유사도에 따른 데이터베이스를 딥러닝(Deep Learning) 기법을 기반으로 업데이트 하면서 상기 하중 예측값을 산출하는 것을 특징으로 하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템.
According to clause 8,
It further includes a load prediction unit that analyzes the image data and calculates a load prediction value of the object load reference point,
The load prediction unit,
Analyzing the image data to calculate the load prediction value of the object load reference point, analyzing the image data to detect changes in the shape of the support structure of the dynamic object detected when the object moves, predicting the load generated by the dynamic object in real time And, real-time dynamic location recognition of walking load using image-based motion sensing, characterized in that the predicted load value is calculated while updating the database according to the similarity of the structure or the similarity of the object based on deep learning techniques. system.
KR1020200186362A 2020-12-29 2020-12-29 Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing KR102588436B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200186362A KR102588436B1 (en) 2020-12-29 2020-12-29 Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200186362A KR102588436B1 (en) 2020-12-29 2020-12-29 Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing

Publications (2)

Publication Number Publication Date
KR20220095359A KR20220095359A (en) 2022-07-07
KR102588436B1 true KR102588436B1 (en) 2023-10-12

Family

ID=82398590

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200186362A KR102588436B1 (en) 2020-12-29 2020-12-29 Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing

Country Status (1)

Country Link
KR (1) KR102588436B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170017659A (en) 2015-08-07 2017-02-15 주식회사 에스코컨설턴트 Structure deterioration prodiction system based on the performance
KR20180008066A (en) * 2016-07-15 2018-01-24 연세대학교 산학협력단 Measurement system and method of 3d displacement for structure using of single camera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김태원 등 ,'현실 세계에서의 로봇 파지 작업을 위한 정책/가치 심층 강화학습 플랫폼 개발', 로봇학회 논문지, 2020, vol. 15, no. 2, pp. 197-204(2020.05.31)*

Also Published As

Publication number Publication date
KR20220095359A (en) 2022-07-07

Similar Documents

Publication Publication Date Title
KR100459476B1 (en) Apparatus and method for queue length of vehicle to measure
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
US8094884B2 (en) Apparatus and method for detecting object
JP2002175535A (en) Road white line recognizing device
KR101825687B1 (en) The obstacle detection appratus and method using difference image
KR101704830B1 (en) Apparatus and method for detecting object in image
Zhao et al. Video‐based multiscale identification approach for tower vibration of a cable‐stayed bridge model under earthquake ground motions
KR101804681B1 (en) A human detecting apparatus and method using a low-resolution 2d lidar sensor
KR102308892B1 (en) System and method for traffic measurement of image based
KR20180098945A (en) Method and apparatus for measuring speed of vehicle by using fixed single camera
JP2009110185A (en) Passerby behavior analyzer, passerby behavior analysis method, and its program
KR101966666B1 (en) Apparatus and method for evaluating load carry capacity of bridge
CN112164093A (en) Automatic person tracking method based on edge features and related filtering
US11922650B2 (en) Point cloud analysis device, estimation device, point cloud analysis method, and program
KR101723536B1 (en) Method and Apparatus for detecting lane of road
CN114549440A (en) Method and device for detecting dynamic geometric parameters of contact network and electronic equipment
KR102588436B1 (en) Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing
KR100751096B1 (en) Velocity measuring apparatus and method using optical flow
CN111553342A (en) Visual positioning method and device, computer equipment and storage medium
KR101040904B1 (en) System and method for estimating traffic using the laser
CN115761487A (en) Method for quickly identifying vibration characteristics of small and medium-span bridges based on machine vision
JP6954369B2 (en) Vibration measuring device, vibration measuring method, and program
CN108573497B (en) Passenger flow statistical device and method
KR102357210B1 (en) System and method for measuring waves for preventing beach accidents and computer program for the same
KR20220120211A (en) Drone image analysis system based on deep learning for traffic measurement

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant