KR20220095359A - Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing - Google Patents

Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing Download PDF

Info

Publication number
KR20220095359A
KR20220095359A KR1020200186362A KR20200186362A KR20220095359A KR 20220095359 A KR20220095359 A KR 20220095359A KR 1020200186362 A KR1020200186362 A KR 1020200186362A KR 20200186362 A KR20200186362 A KR 20200186362A KR 20220095359 A KR20220095359 A KR 20220095359A
Authority
KR
South Korea
Prior art keywords
image
image data
load
real
motion sensing
Prior art date
Application number
KR1020200186362A
Other languages
Korean (ko)
Other versions
KR102588436B1 (en
Inventor
윤형철
임정혁
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020200186362A priority Critical patent/KR102588436B1/en
Publication of KR20220095359A publication Critical patent/KR20220095359A/en
Application granted granted Critical
Publication of KR102588436B1 publication Critical patent/KR102588436B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

A method and system for recognizing the location of a real-time dynamic walking load using image-based motion sensing according to one embodiment of the present invention may include the steps of: (a) receiving image data; (b) detecting object information by analyzing the image data; (c) calculating image coordinates of an object load reference point from the object information; (d) calculating a scale factor, which is a ratio of a length of a unit pixel of the image data and a corresponding actual length; and (e) calculating actual coordinates of the object load reference point using the image coordinates and the scale factor. The location of the dynamic load can be detected conveniently and economically only by image analysis.

Description

영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템{METHOD AND SYSTEM FOR REAL-TIME PEDESTRIAN DYNAMIC-LOAD LOCALIZATION USING VISION-BASED MOTION SENSING}Method and system for real-time dynamic gait load position recognition using image-based motion sensing

본 발명은 실시간 동적 보행하중의 위치인식 방법 및 시스템에 관한 것으로, 보다 상세하게는 영상 데이터를 분석하여 실시간으로 동적 보행하중의 위치를 인식할 수 있는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템에 관한 것이다.The present invention relates to a real-time dynamic gait load position recognition method and system, and more particularly, to a real-time dynamic gait load position using image-based motion sensing capable of recognizing the position of a dynamic gait load in real time by analyzing image data. It relates to a recognition method and system.

건물, 다리 등의 사회기반시설물들이 30년 이상 경과되면 노후화로 인한 문제가 발생할 가능성이 높다. 이에 따라 구조물의 노후화에 따른 피해를 최소화하기 위해 점검 및 유지관리의 필요성이 증대되고 있다. 기존에는 구조물의 노후화를 평가하거나 점검하는데 전문가가 직접 구조물의 상태를 확인하고 평가하는 방식을 사용하였는데, 이러한 방법은 주관적인 요소가 개입될 뿐만 아니라, 상당한 인력과 시간 및 비용을 필요로 하는 점에서 한계가 있었다.If social infrastructures such as buildings and bridges are more than 30 years old, there is a high possibility of problems due to aging. Accordingly, the need for inspection and maintenance is increasing in order to minimize damage caused by deterioration of structures. In the past, to evaluate or check the deterioration of a structure, a method of directly checking and evaluating the condition of a structure was used by an expert, but this method is limited in that it requires not only subjective factors but also considerable manpower, time, and cost. there was

구조물의 노후화를 파악하는 기술로 진동 기반 구조물 건전성 모니터링(Structure Health Monitoring, SHM) 기술이 주로 사용된다. 이는 구조물에 가속도계 등의 센서를 부착하여 응답을 측정하고, 이 정보로부터 구조물의 상태를 파악하는 기술이다. SHM 기술은 구조물의 응답 데이터만을 활용하는 출력 기반 방법(Output-only method)와 입력(Input)과 출력(Output)을 모두 활용한 입출력 기반 방법(Input-output method)으로 나누어지는데, 출력 기반 방법은 입력을 백색 소음으로 가정하고 출력인 동적 거동 정보만을 활용하기에 정확도가 다소 떨어지나 입력 측정의 어려움으로 인해 널리 사용되고 있는 실정이다. Vibration-based Structure Health Monitoring (SHM) technology is mainly used as a technology to detect deterioration of structures. This is a technology that measures the response by attaching a sensor such as an accelerometer to the structure, and grasps the state of the structure from this information. SHM technology is divided into an output-only method that utilizes only the response data of the structure and an input-output method that utilizes both inputs and outputs. Assuming that the input is white noise and using only the dynamic behavior information that is the output, the accuracy is somewhat low, but it is widely used due to the difficulty of measuring the input.

한국공개특허 제10-2017-0017659호(2017.02.15)Korean Patent Publication No. 10-2017-0017659 (2017.02.15)

본 발명은 위와 같은 문제를 해결하기 위한 것으로, 상세하게는 영상 데이터를 분석하여 정확하고 간편하게 실시간 동적 보행하중의 위치를 인식할 수 있는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템을 제공하는 것을 목적으로 한다.The present invention is to solve the above problems, and in detail, a method and system for real-time dynamic gait load position recognition using image-based motion sensing that can accurately and conveniently recognize the position of real-time dynamic gait load by analyzing image data is intended to provide

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법은, (a) 영상 데이터를 수신하는 단계; (b) 상기 영상 데이터를 분석하여 객체정보를 검출하는 단계; (c) 상기 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 단계; (d) 상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수를 산출하는 단계; 및 (e) 상기 이미지 좌표 및 상기 축척계수를 이용하여 상기 객체 하중 기준점의 실제 좌표를 산출하는 단계를 포함할 수 있다.In accordance with an embodiment of the present invention for solving the above problems, a method for recognizing a location of a real-time dynamic gait load using an image-based motion sensing includes the steps of: (a) receiving image data; (b) analyzing the image data to detect object information; (c) calculating image coordinates of an object load reference point from the object information; (d) calculating a scale factor that is a ratio of a length of a unit pixel of the image data and a corresponding actual length; and (e) calculating the actual coordinates of the object load reference point using the image coordinates and the scale factor.

상기 (b) 단계는 CRST 알고리즘을 이용하여 수행될 수 있다.Step (b) may be performed using a CRST algorithm.

상기 (d) 단계에서, 상기 축척계수는 하기 수학식 1에 의하여 산출될 수 있다.In step (d), the scale factor may be calculated by Equation 1 below.

<수학식 1><Equation 1>

축척계수 = Y/XScale factor = Y/X

(상기 수학식 1에서 X는 상기 영상 데이터 내의 특정 객체의 픽셀 길이이며, Y는 상기 특정 객체의 실제 길이이다)(In Equation 1, X is the pixel length of the specific object in the image data, and Y is the actual length of the specific object)

상기 (e) 단계에서 상기 실제 좌표는 상기 이미지 좌표에 상기 축척계수를 곱하여 산출될 수 있다.In step (e), the actual coordinates may be calculated by multiplying the image coordinates by the scale factor.

상기 수신된 영상 데이터의 왜곡을 보정하는 단계는 Zhang 알고리즘에 의해 수행될 수 있다.Correcting the distortion of the received image data may be performed by a Zhang algorithm.

또한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법은, 상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하는 단계를 더 포함할 수 있다.In addition, the real-time dynamic gait load position recognition method using image-based motion sensing according to an embodiment of the present invention may further include the step of analyzing the image data and calculating a load prediction value of the object load reference point.

또한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 동적 보행하중의 위치인식 시스템은, 영상 데이터를 수신하는 영상데이터 수신부; 상기 영상 데이터를 분석하여 객체정보를 검출하고, 상기 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 객체정보 검출부; 상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수를 산출하는 축적계수 산출부; 및In addition, the position recognition system of the dynamic walking load using the image-based motion sensing according to an embodiment of the present invention, the image data receiving unit for receiving the image data; an object information detection unit that analyzes the image data to detect object information, and calculates image coordinates of an object load reference point from the object information; an accumulation coefficient calculator configured to calculate a scale coefficient that is a ratio of a length of a unit pixel of the image data to an actual length corresponding to the image data; and

상기 이미지 좌표 및 상기 축척계수를 이용하여 상기 객체 하중 기준점의 실제 좌표를 산출하는 객체위치 산출부를 포함할 수 있다.and an object position calculator for calculating the actual coordinates of the object load reference point by using the image coordinates and the scale factor.

상기 객체정보 검출부는 CRST 알고리즘을 이용하여 상기 객체정보를 검출할 수 있다.The object information detector may detect the object information using a CRST algorithm.

상기 축척계수는 하기 수학식 1에 의하여 산출될 수 있다.The scale factor may be calculated by Equation 1 below.

<수학식 1><Equation 1>

축척계수 = Y/XScale factor = Y/X

(상기 수학식 1에서 X는 상기 영상 데이터 내의 특정 객체의 픽셀 길이이며, Y는 상기 특정 객체의 실제 길이이다)(In Equation 1, X is the pixel length of the specific object in the image data, and Y is the actual length of the specific object)

상기 실제 좌표는 상기 이미지 좌표에 상기 축척계수를 곱하여 산출될 수 있다.The actual coordinates may be calculated by multiplying the image coordinates by the scale factor.

또한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템은, 상기 수신된 영상 데이터의 왜곡을 보정하는 영상데이터 보정부를 더 포함할 수 있다.In addition, the real-time dynamic gait load position recognition system using image-based motion sensing according to an embodiment of the present invention may further include an image data correction unit for correcting distortion of the received image data.

상기 영상데이터 보정부는 Zhang 알고리즘을 이용하여 상기 영상 데이터의 왜곡을 보정할 수 있다.The image data corrector may correct distortion of the image data by using a Zhang algorithm.

또한 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템은, 상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하는 하중 예측부를 더 포함할 수 있다.In addition, the real-time dynamic gait load position recognition system using image-based motion sensing according to an embodiment of the present invention may further include a load predictor that analyzes the image data and calculates a load prediction value of the object load reference point.

본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템은 별도의 센서 없이 영상 데이터를 분석하는 것만으로 간편하게 실시간 동적 보행하중의 위치를 인식할 수 있도록 한다.The method and system for recognizing the location of real-time dynamic gait load using image-based motion sensing according to an embodiment of the present invention enable simple real-time recognition of the location of dynamic gait load simply by analyzing image data without a separate sensor.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effect according to the present invention is not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템의 개략 구성도이다.
도 2는 도 1의 시스템의 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법을 설명하는 개략 순서도이다.
도 3은 도 1의 객체정보 검출부에 적용 가능한 객체정보 검출 알고리즘의 성능 평가 실험의 예시 결과 도면이다.
도 4는 원본 영상 데이터 및 도 1의 영상데이터 보정부에서 보정된 데이터가 입력된 경우의 위치 결과를 나타내는 도면이다.
도 5는 도 1의 객체정보 검출부가 실시간으로 검출하는 객체의 위치 정보를 나타내는 도면이다.
도 6은 도 1의 객체정보 검출부가 산출한 객체 하중 기준점 이미지 좌표의 예시를 나타내는 도면이다.
도 7은 도 1의 객체위치 산출부가 산출한 객체 하중 기준점의 실제 좌표를 계산하는 방법을 설명하기 위한 개념도이다.
도 8은 도 1의 객체위치 산출부가 산출한 객체의 위치와 실제 위치를 비교한 결과를 나타내는 그래프이다.
1 is a schematic configuration diagram of a real-time dynamic gait load position recognition system using image-based motion sensing according to an embodiment of the present invention.
FIG. 2 is a schematic flowchart illustrating a real-time dynamic gait load position recognition method using image-based motion sensing of the system of FIG. 1 .
FIG. 3 is an exemplary result diagram of a performance evaluation experiment of an object information detection algorithm applicable to the object information detection unit of FIG. 1 .
FIG. 4 is a view showing a position result when original image data and data corrected by the image data correction unit of FIG. 1 are input.
5 is a diagram illustrating location information of an object detected in real time by the object information detection unit of FIG. 1 .
6 is a view showing an example of the object load reference point image coordinates calculated by the object information detection unit of FIG. 1 .
7 is a conceptual diagram for explaining a method of calculating the actual coordinates of the object load reference point calculated by the object position calculation unit of FIG. 1 .
8 is a graph showing a result of comparing the actual position of the object calculated by the object position calculator of FIG. 1 .

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시예들에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템에 대하여 도면들을 참고하여 설명하도록 한다.Hereinafter, a method and system for real-time dynamic gait load position recognition using image-based motion sensing according to embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템의 개략 구성도이다.1 is a schematic configuration diagram of a real-time dynamic gait load position recognition system using image-based motion sensing according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템(100)은 영상데이터 수신부(110), 영상데이터 보정부(120), 객체정보 검출부(130), 축척계수 산출부(140), 객체위치 산출부(150) 및 하중 예측부(160)를 포함하여 구성된다.1, the real-time dynamic gait load position recognition system 100 using image-based motion sensing according to an embodiment of the present invention includes an image data receiving unit 110, an image data correcting unit 120, an object information detecting unit ( 130 ), a scale factor calculating unit 140 , an object position calculating unit 150 , and a load prediction unit 160 .

본 발명에서 시스템(100)는 도 1의 구성을 포함하는 컴퓨터 등의 하드웨어일 수 있다. 하지만 이는 일실시예일 뿐이며 도 1의 구성과 같은 동작이 구현되도록 알고리즘화된 컴퓨터 프로그램일 수도 있을 것이다.In the present invention, the system 100 may be hardware such as a computer including the configuration of FIG. 1 . However, this is only an embodiment, and it may be an algorithmized computer program to implement the operation as in the configuration of FIG. 1 .

영상데이터 수신부(110)는 구조물에 대한 영상 데이터를 수신하는 역할을 한다. 이때, 영상 데이터는 카메라, 스마트폰 등 사진 또는 실시간 동영상을 촬영할 수 있는 장치일 수 있다.The image data receiving unit 110 serves to receive image data for the structure. In this case, the image data may be a device capable of taking a picture or a real-time video, such as a camera or a smart phone.

영상데이터 보정부(120)는 수신된 영상 데이터의 왜곡을 보정하는 역할을 한다. 영상데이터 속의 움직이는 보행자와 같은 객체가 검출되는 경우 3차원 영상의 원근감 효과에 따라 객체가 위치한 위치에 따라 픽셀 길이와 실제 길이의 변환에 왜곡이 발생할 수 있다.The image data correction unit 120 serves to correct distortion of the received image data. When an object such as a moving pedestrian in the image data is detected, distortion may occur in the conversion between the pixel length and the actual length depending on the location of the object according to the perspective effect of the 3D image.

영상데이터 보정부(120)는 위와 같은 왜곡을 보정하기 위하여 예를 들어 Zhang (2000)이 제시한 알고리즘을 이용하여 카메라 캘리브레이션을 수행할 수 있다.The image data corrector 120 may perform camera calibration using, for example, an algorithm proposed by Zhang (2000) in order to correct the above distortion.

도 4에는 원본 영상 데이터 및 도 1의 영상데이터 보정부에서 보정된 데이터가 입력된 경우의 위치 결과가 예시적으로 도시되어 있다.4 exemplarily shows the original image data and the position result when the data corrected by the image data correction unit of FIG. 1 are input.

도 4의 결과는 영상이 720 × 404의 픽셀로 이루어진 경우에 평균 제곱근 오차(RMSE)가 약 5.4 픽셀 정도 발생하는 것을 보여주고 있다. 또한 영상의 왜곡이 가장자리에서 상대적으로 크게 발생하기 때문에 객체가 영상의 좌, 우 끝으로 이동할수록 오차가 크게 발생하는 것을 확인할 수 있었다. The result of FIG. 4 shows that when the image is composed of 720 × 404 pixels, the root mean square error (RMSE) occurs about 5.4 pixels. In addition, since the distortion of the image occurs relatively large at the edge, it was confirmed that the error increases as the object moves to the left and right ends of the image.

영상 보정의 효과를 확인하기 위하여 원본 영상과 보정된 영상이 입력된 경우를 비교해 보았다.In order to confirm the effect of image correction, the case in which the original image and the corrected image are input was compared.

추적할 보행자 객체의 키는 1,816mm로 이미 알고 있었고, 보정된 영상 데이터에서 보행자의 키에 대응되는 픽셀수는 163개였다. 보정된 영상의 전체 가로 픽셀수는 총 720개였고, 바닥 가로폭은 실제 8,150mm였다. The height of the pedestrian object to be tracked was already known to be 1,816 mm, and the number of pixels corresponding to the height of the pedestrian in the corrected image data was 163. The total number of horizontal pixels of the corrected image was 720, and the actual width of the bottom was 8,150 mm.

후술할 수식에 의하여 계산된 바닥 가로폭은 약 8,022mm로, 실제 측정값인 8,150mm와 비교시 약 1.57%의 오차가 발생하였다.The width of the floor calculated by the formula to be described later was about 8,022 mm, and an error of about 1.57% occurred when compared with the actual measured value of 8,150 mm.

보정 전 영상의 경우 보행자의 키에 대응되는 픽셀수가 168개이고, 계산된 바닥 가로폭은 7,783mm로 약 4.51%의 오차를 보였는데, 이는 영상 보정을 통해 약 2.94%의 오차 감소 효과가 나타났음을 보여준다.In the case of the image before correction, the number of pixels corresponding to the height of the pedestrian was 168, and the calculated floor width was 7,783 mm, showing an error of about 4.51%, which shows that the error reduction effect of about 2.94% was shown through image correction. .

객체정보 검출부(130)는 영상 데이터를 분석하여 객체정보를 검출하고, 검출된 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 역할을 한다.The object information detection unit 130 analyzes image data to detect object information, and calculates image coordinates of an object load reference point from the detected object information.

객체정보 검출부(130)는 사용자가 지정해 준 범위를 관심 영역(Region of Interests)로 하여 현재 프레임의 관심 영역 내에서 찾아낸 특징점들이 다음 프레임에서 어떻게 변화하는지를 추적하는 객체 추적 기법으로 사용한다. The object information detector 130 uses a range designated by the user as a region of interest as an object tracking technique for tracking how feature points found in the region of interest of the current frame change in the next frame.

객체정보 검출부(130)는 추적된 특징점들의 이동을 나타내는 변환 행렬(Transform Matrix)을 구하고, 변환 행령을 이용한 기하 변환(Geometric Transform)을 통해서 새로운 프레임으로의 이동을 계산하여 위치 변화를 주정하는 방식을 이용한다.The object information detection unit 130 obtains a transformation matrix representing the movement of the tracked feature points, calculates the movement to a new frame through a geometric transformation using a transformation command, and determines the position change. use it

본 발명에서는 객체 추적 알고리즘으로 CSRT(Channel and Spatial Reliability), KCF(Kernelized Correlation Filters), MIL(Multiple Instance Learning), MOSSE(Minimum Output Sum of Squared Error)의 네 가지 알고리즘에 대한 성능 평가를 진행하였으며, 그 결과가 도 3에 도시되어 있다.In the present invention, as an object tracking algorithm, performance evaluation was performed on four algorithms: Channel and Spatial Reliability (CSRT), Kernelized Correlation Filters (KCF), Multiple Instance Learning (MIL), and Minimum Output Sum of Squared Error (MOSSE). The result is shown in FIG. 3 .

순환행렬의 특성을 이용한 KCF 알고리즘의 경우 높은 처리속도를 보였으나 추적 중이던 객체의 배경이 급격하게 변화하는 경우나 객체가 가려지는 경우 추적 중이던 객체를 상실하는 경우가 빈번하게 발생하였다. In the case of the KCF algorithm using the characteristics of the cyclic matrix, the processing speed was high, but the object being tracked was frequently lost when the background of the object being tracked changed abruptly or when the object was covered.

물체의 현재 위치와 주변 위치까지 Positive example로 고려, 다중 인스턴스 학습을 통해 물체를 추적하는 MIL 알고리즘은 해상도에 따른 성능 편차가 불규칙하게 발생하였고, 낮은 처리속도를 보여주었다.The MIL algorithm that tracks the object through multi-instance learning, considering the current position of the object and the surrounding position as a positive example, showed irregular performance deviations according to resolution and low processing speed.

적응형 상관 필터를 이용한 MOSSE 알고리즘은 매우 빠른 처리속도와 준수한 추적 성공률을 보였으나, 추적 중이던 객체가 가려지는 경우에 성능이 급격하게 하락하는 모습을 보였다.The MOSSE algorithm using the adaptive correlation filter showed a very fast processing speed and a satisfactory tracking success rate, but the performance dropped sharply when the object being tracked was obscured.

관심 영역(ROI)으로 설정한 객체의 가중치를 맵핑하는 방식으로 작동하는 CSRT 알고지름은 공간 신뢰도 맵 구축, 제한된 상관 필터 학습, 채널 신뢰성 추정의 3단계 연산을 통해 작동한다.CSRT Algorithm, which operates by mapping the weight of an object set as a region of interest (ROI), operates through three-step operations: building a spatial reliability map, learning a limited correlation filter, and estimating the channel reliability.

첫 번째 단계는 ROI로 설정된 영역 안에서 필터가 작동하는 범위를 추적할 객체에 적합하도록 제안하여 직사각형이 아닌 불규칙한 모양의 객체에 대한 검색 범위와 성능을 향상시키는 단계이다.The first step is to improve the search range and performance for non-rectangular irregular-shaped objects by proposing suitable for the object to be tracked within the area set by the ROI, where the filter operates.

두 번째 단계에서는 첫 번째 단계를 통해 제한된 영역 내의 픽셀들에 대해 배경의 영향을 감소시키고 객체에 해당하는 부분에 가중치를 부여한다.In the second step, the influence of the background is reduced on the pixels within the limited area through the first step, and a weight is given to the part corresponding to the object.

마지막으로 제한되지 않은 전 영역에 대한 필터의 응답에 이전 단계에서 산정한 가중치를 곱해서 객체의 위치를 추정한다. Finally, the position of the object is estimated by multiplying the response of the filter for all unconstrained areas by the weight calculated in the previous step.

이러한 CSRT 알고리즘은 최상의 추적 성공률을 보여주었고, 처리 속도는 낮은 편에 속했으나, 실사용에는 무리가 없는 수준으로 판단되었다. This CSRT algorithm showed the best tracking success rate, and although the processing speed was on the low side, it was judged to be at a level that is not unreasonable for practical use.

성능 평가 결과를 종합하여 보면, 보행자와 같이 객체의 형태와 크기 등이 변화하는 경우에는 CSRT 알고리즘이 적합한 것으로 파악되었으며, 차량과 같이 정적인 객체인 경우에는 KCF 알고리즘 또한 적용 가능할 것으로 파악되었다. Combining the performance evaluation results, the CSRT algorithm was found to be suitable when the shape and size of an object change, such as a pedestrian, and the KCF algorithm was also found to be applicable to a static object such as a vehicle.

예를 들어 CSRT 알고리즘 알고리즘을 적용하면 도 5와 같이 보행자의 위치를 실시간으로 파악할 수 있게 된다. For example, if the CSRT algorithm algorithm is applied, the location of the pedestrian can be grasped in real time as shown in FIG. 5 .

도 5는 도 1의 객체정보 검출부가 실시간으로 검출하는 객체의 위치 정보를 나타내는 도면이다.5 is a diagram illustrating location information of an object detected in real time by the object information detection unit of FIG. 1 .

도 5에는 고정된 바닥 구조물으로 하중값을 정확하게 예측할 수 없으므로 임의의 하중값을 기준으로 보행자의 위치별로 전단력도 및 휨모멘트도가 같이 도시되어 있다.In FIG. 5, since the load value cannot be accurately predicted with a fixed floor structure, a shear force diagram and a bending moment diagram are shown for each position of a pedestrian based on an arbitrary load value.

이때, 객체정보 검출부(130)는 객체 영역으로부터 객체 하중 기준점의 이미지 좌표를 산출할 수 있다. 객체 하중 기준점은 객체의 하중의 기준점이 될 수 있는 중심 영역을 의미하며 예를 들어 객체 영역의 좌우 및 상하의 중심점으로 결정될 수 있다.In this case, the object information detection unit 130 may calculate the image coordinates of the object load reference point from the object area. The object load reference point refers to a central area that can be a reference point for the load of an object, and may be determined as, for example, left and right, upper and lower center points of the object area.

도 6에서 객체인 보행자의 중심 부분이 객체 하중 기준점으로 표시되어 있으며 좌표가 (A, B)로 표시된 것을 확인할 수 있다. In FIG. 6 , it can be seen that the central part of the pedestrian, which is an object, is indicated as an object load reference point, and the coordinates are indicated by (A, B).

도 6의 좌표 (A, B)의 영상 데이터상의 이미지 픽셀 기준상의 좌표이다. A는 영상 좌측으로부터 객체 하중 기준점까지의 픽셀 거리를 의미하며, B는 영상 상측으로부터 객체 하중 기준점까지의 픽셀 거리를 의미한다. Coordinates (A, B) in Fig. 6 are coordinates on the reference image pixel on the image data. A is the pixel distance from the left side of the image to the object load reference point, and B is the pixel distance from the upper side of the image to the object load reference point.

도 6의 좌표 설정 방법은 일실시예일 뿐이며, B의 픽셀 길이가 영상 하측으로부터의 길이로 설정되는 등 다른 방식으로 설정될 수도 있다.The method of setting the coordinates of FIG. 6 is only one embodiment, and may be set in other ways, such as setting the pixel length of B to the length from the lower side of the image.

축척계수 산출부(140)는 영상 데이터의 단위 픽셀 길이와 대응되는 실제 길이의 비인 축척 계수를 산출하는 역할을 한다.The scale factor calculator 140 calculates a scale factor that is a ratio of a unit pixel length of image data to a corresponding actual length.

도 7은 도 1의 객체위치 산출부가 산출한 객체 하중 기준점의 실제 좌표를 계산하는 방법을 설명하기 위한 개념도이다.7 is a conceptual diagram for explaining a method of calculating the actual coordinates of the object load reference point calculated by the object position calculation unit of FIG. 1 .

도 7을 참조하면 보행자의 키에 해당하는 상하 높이는 영상 데이터 상에서 X 픽셀에 대응되고, 실제 보행자의 키는 Y 값으로 표시되어 있다. 이 경우 픽셀과 실제 길이의 비인 축척계수(Scale Factor) C는 아래의 수학식 1과 같이 계산될 수 있다.Referring to FIG. 7 , the vertical height corresponding to the pedestrian's height corresponds to X pixels on the image data, and the actual pedestrian's height is indicated by the Y value. In this case, a scale factor C, which is a ratio between a pixel and an actual length, may be calculated as in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

상기 수학식 1에서 X는 영상 데이터 내의 특정 객체의 좌우 또는 상하 방향의 픽셀 길이(개수)이며, Y는 대응되는 부분의 실제 길이를 나타낸다.In Equation 1, X is the length (number) of pixels in the left and right or vertical directions of a specific object in the image data, and Y is the actual length of the corresponding part.

도 7에서 영상의 실제 가로폭 길이 Z는 프레임의 가로 픽셀 수인 W에 상기 축척계수 C를 곱하여 얻어질 수 있다.In FIG. 7 , the actual width and length Z of the image may be obtained by multiplying W, which is the number of horizontal pixels of a frame, by the scale factor C. As shown in FIG.

축척계수 산출부(140)는 이와 같은 방법으로 축척계수를 산출할 수 있는데 축적계수를 산출하기 위한 객체는 다양하게 설정될 수 있다.The scale factor calculator 140 may calculate the scale factor in this way, and various objects for calculating the scale factor may be set.

도 7에서는 보행자의 키를 미리 알고 있는 상황인 경우에 보행자 객체의 영역을 검출함과 동시에 키에 해당하는 픽셀 데이터를 추출하고 이에 따라 자연스럽게 축척계수를 산출하는 경우를 예로 들고 있다.7 exemplifies the case in which the area of the pedestrian object is detected and pixel data corresponding to the height is extracted in a situation in which the height of the pedestrian is known in advance, and the scale factor is naturally calculated accordingly.

하지만, 이와 달리 보행자 외의 별도 특징적인 객체를 검출하고, 해당 객체의 좌우 또는 상하 길이를 기초로 축척계수를 산출하는 방법도 가능하다. 예를 들어, 구조물에 눈에 띄는 특징적인 구조물 영역이 있고 해당 영역의 가로 길이 정보가 미리 획득된 경우에는 해당 구조물의 영상 내에서의 가로 픽셀 수를 검출하여 축척계수를 산출할 수도 있을 것이다. However, unlike this, a method of detecting a separate characteristic object other than a pedestrian and calculating a scale factor based on the left and right or vertical lengths of the object is also possible. For example, when there is a distinctive structure area in a structure and horizontal length information of the area is previously obtained, the scale factor may be calculated by detecting the number of horizontal pixels in the image of the structure.

단, 이 경우에는 동적 객체인 보행자를 검출하는 것 외에 별도로 축척계수 산출을 위한 별도의 객체 검출을 해야 할 필요가 있다.However, in this case, it is necessary to detect a separate object for calculating the scale factor in addition to detecting the pedestrian, which is a dynamic object.

객체위치 산출부(150)는 이미지 좌표 및 축척계수를 이용하여 객체 하중 기준점의 실제 좌표를 산출하는 역할을 한다.The object position calculation unit 150 serves to calculate the actual coordinates of the object load reference point by using the image coordinates and the scale factor.

도 7의 경우에 구조물 해석의 경우에 이미지 상의 좌표 (A, B) 중에서 영상 좌측을 기준으로 한 좌표인 A가 중요한 수치가 될 수 있다. In the case of FIG. 7 , in the case of structure analysis, among the coordinates (A, B) on the image, A, which is a coordinate based on the left side of the image, may be an important numerical value.

객체위치 산출부(150)는 아래의 수학식 2와 같이 보행자 객체의 실제 대응되는 길이를 다음과 같이 계산할 수 있다.The object position calculator 150 may calculate the actual corresponding length of the pedestrian object as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

상기 수학식 2에서 A는 동적 객체의 이미지상의 가로 이동 길이이며, A'는 동적 객체의 실제 가로 이동 길이를 의미한다.In Equation 2, A is the horizontal movement length on the image of the dynamic object, and A' indicates the actual horizontal movement length of the dynamic object.

도 8에는 도 1의 객체위치 산출부가 산출한 객체의 위치와 실제 위치를 비교한 결과를 나타내는 그래프가 도시되어 있다.8 is a graph showing a result of comparing the actual position of the object calculated by the object position calculating unit of FIG. 1 .

도 8과 같이 RMSE가 약 2.47 픽셀로 나타나 매우 정확하게 보행자의 위치 추정을 할 수 있는 것으로 나타났다. As shown in FIG. 8 , the RMSE is about 2.47 pixels, indicating that the pedestrian's location can be estimated very accurately.

하중 예측부(160)는 영상 데이터를 분석하여 객체 하중 기준점의 하중 예측값을 산출하는 역할을 한다.The load prediction unit 160 analyzes image data to calculate a load prediction value of an object load reference point.

하중 예측부(160)는 영상 데이터를 분석하여 동적 객체의 이동시 검출되는 동적 객체의 지지 구조물의 형상 변화를 검출하여 동적 객체에 의하여 발생하는 하중을 예측할 수 있다.The load prediction unit 160 may analyze the image data to detect a change in the shape of the support structure of the dynamic object detected when the dynamic object moves, and predict the load generated by the dynamic object.

예를 들어, 구조물이 보도현수교인 경우에는 보행자가 지나가는 경우 보도현수교 바닥면의 상하 변위 이동이 검출될 수 있다. 이러한 상하 변위는 동적 객체의 무게 및 위치에 따라 달라질 수 있으므로 하중 예측부(160)는 미리 구축된 데이터베이스를 이용하여 실시간으로 하중을 예측할 수 있다.For example, when the structure is a sidewalk suspension bridge, the vertical displacement movement of the floor surface of the sidewalk suspension bridge may be detected when a pedestrian passes. Since the vertical displacement may vary depending on the weight and location of the dynamic object, the load predictor 160 may predict the load in real time using a pre-built database.

이때, 하중 예측부(160)는 딥러닝(Deep Learning) 기법을 기반으로 구조물의 유사도, 객체의 유사도 등에 따른 데이터베이스를 업데이트 하면서 보다 정확한 하중 예측 알고리즘으로 하중을 예측할 수 있다. At this time, the load prediction unit 160 may predict the load with a more accurate load prediction algorithm while updating the database according to the similarity of structures and objects based on the deep learning technique.

도 2는 도 1의 시스템의 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법을 설명하는 개략 순서도이다.FIG. 2 is a schematic flowchart illustrating a real-time dynamic gait load position recognition method using image-based motion sensing of the system of FIG. 1 .

본 발명의 일실시예에 따른 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법은 먼저 카메라 등으로부터 촬영된 영상 데이터를 수신한다(S210).In the real-time dynamic gait load position recognition method using motion sensing according to an embodiment of the present invention, image data captured from a camera or the like is first received (S210).

영상 데이터의 왜곡을 보정하기 위하여 Zhang 알고리즘 등을 이용하여 영상 보정 작업을 수행한다(S220).In order to correct the distortion of the image data, an image correction operation is performed using the Zhang algorithm (S220).

보정된 영상이 산출되면 보정된 영상 데이터를 기준으로 CSRT 알고리즘 등을 이용하여 움직이는 객체정보를 검출한다(S230).When the corrected image is calculated, moving object information is detected using the CSRT algorithm based on the corrected image data (S230).

객체정보가 검출되면 객체 하중 기준점 이미지의 좌표를 산출한다(S240).When the object information is detected, the coordinates of the object load reference point image are calculated (S240).

또한, 미리 실제 길이를 알고 있는 특정 객체의 픽셀 개수를 이용하여 축척계수를 산출한다(S250).In addition, a scale factor is calculated using the number of pixels of a specific object whose actual length is known in advance (S250).

축척계수가 산출되는 객체 하중 기준점 실제 좌표를 산출한다(S260). 구조물이 다리인 경우라면 상기와 같은 방법으로 보행자의 실제 이동 거리 또는 가로축 위치를 산출할 수 있게 된다.The actual coordinates of the object load reference point from which the scale factor is calculated are calculated (S260). When the structure is a bridge, it is possible to calculate the actual moving distance or the horizontal axis position of the pedestrian in the same way as described above.

만약 구조물이 보도현수교와 같이 하중에 의하여 상하 변위가 발생하는 구조물인 경우에는 미리 설정된 알고리즘에 의하여 하중 예측값을 산출한다(S270).If the structure is a structure in which vertical displacement occurs due to a load, such as a sidewalk suspension bridge, a predicted load value is calculated according to a preset algorithm (S270).

이때, 하중 예측값을 산출하는 방법은 영상 데이터를 분석하여 특정 시점에서의 객체의 위치 및 구조물의 상하 변위값 등을 산출하여 미리 구축된 데이터베이스 및 알고리즘에 의하여 하중 예측값을 산출하는 방법일 수 있다.In this case, the method of calculating the predicted load value may be a method of calculating the predicted load value by using a pre-built database and algorithm by analyzing the image data to calculate the position of the object and the vertical displacement of the structure at a specific point in time.

이때, 하중 예측 방법은 딥러닝 알고리즘을 이용하여 학습을 통해 빅데이터를 활용한 정확한 예측 방식을 채택할 수 있다.In this case, the load prediction method may adopt an accurate prediction method using big data through learning using a deep learning algorithm.

본 발명의 일실시예에 따른 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법 및 시스템은 상기와 같은 방법으로 영상 데이터를 분석하여 편리하고 경제적으로 하중의 위치정보를 획득할 수 있도록 한다.The real-time dynamic gait load position recognition method and system using image-based motion sensing according to an embodiment of the present invention analyzes image data in the same manner as described above to obtain position information of the load conveniently and economically.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be interpreted as being included in the scope of the present invention. do.

100: 위치인식 시스템 110: 영상데이터 수신부
120: 영상데이터 보정부 130: 객체정보 검출부
140: 축척계수 산출부 150: 객체위치 산출부
160: 하중 예측부
100: location recognition system 110: image data receiving unit
120: image data correction unit 130: object information detection unit
140: scale factor calculation unit 150: object position calculation unit
160: load prediction unit

Claims (14)

(a) 영상 데이터를 수신하는 단계;
(b) 상기 영상 데이터를 분석하여 객체정보를 검출하는 단계;
(c) 상기 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 단계;
(d) 상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수를 산출하는 단계; 및
(e) 상기 이미지 좌표 및 상기 축척계수를 이용하여 상기 객체 하중 기준점의 실제 좌표를 산출하는 단계를 포함하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
(a) receiving image data;
(b) analyzing the image data to detect object information;
(c) calculating image coordinates of an object load reference point from the object information;
(d) calculating a scale factor that is a ratio of a length of a unit pixel of the image data and a corresponding actual length; and
(e) using the image coordinates and the scale factor to calculate the actual coordinates of the reference point of the object load, a real-time dynamic gait load position recognition method using image-based motion sensing comprising the step of.
제1항에 있어서,
상기 (b) 단계는 CSRT 알고리즘을 이용하여 수행되는 것을 특징으로 하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
According to claim 1,
The step (b) is a real-time dynamic gait load position recognition method using image-based motion sensing, characterized in that it is performed using a CSRT algorithm.
제1항에 있어서,
상기 (d) 단계에서, 상기 축척계수는 하기 수학식 1에 의하여 산출되는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
<수학식 1>
축척계수 = Y/X
(상기 수학식 1에서 X는 상기 영상 데이터 내의 특정 객체의 픽셀 길이이며, Y는 상기 특정 객체의 실제 길이이다)
According to claim 1,
In step (d), the scale factor is a real-time dynamic gait load position recognition method using image-based motion sensing calculated by Equation 1 below.
<Equation 1>
Scale factor = Y/X
(In Equation 1, X is the pixel length of a specific object in the image data, and Y is the actual length of the specific object)
제3항에 있어서,
상기 (e) 단계에서 상기 실제 좌표는 상기 이미지 좌표에 상기 축척계수를 곱하여 산출되는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
4. The method of claim 3,
In the step (e), the actual coordinates are a real-time dynamic gait load position recognition method using image-based motion sensing that is calculated by multiplying the image coordinates by the scale factor.
제1항에 있어서,
상기 (a) 단계와 상기 (b) 단계 사이에 상기 수신된 영상 데이터의 왜곡을 보정하는 단계를 더 포함하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
According to claim 1,
The real-time dynamic gait load position recognition method using image-based motion sensing further comprising correcting the distortion of the received image data between the steps (a) and (b).
제5항에 있어서,
상기 수신된 영상 데이터의 왜곡을 보정하는 단계는 Zhang 알고리즘에 의해 수행되는 것을 특징으로 하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
6. The method of claim 5,
Correcting the distortion of the received image data is a real-time dynamic gait load position recognition method using image-based motion sensing, characterized in that performed by the Zhang algorithm.
제1항에 있어서,
상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하는 단계를 더 포함하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 방법.
The method of claim 1,
The method of real-time dynamic gait load position recognition using image-based motion sensing further comprising the step of analyzing the image data and calculating a load prediction value of the object load reference point.
영상 데이터를 수신하는 영상데이터 수신부;
상기 영상 데이터를 분석하여 객체정보를 검출하고, 상기 객체정보로부터 객체 하중 기준점의 이미지 좌표를 산출하는 객체정보 검출부;
상기 영상 데이터의 단위 픽셀의 길이와 대응되는 실제 길이의 비인 축척계수를 산출하는 축적계수 산출부; 및
상기 이미지 좌표 및 상기 축척계수를 이용하여 상기 객체 하중 기준점의 실제 좌표를 산출하는 객체위치 산출부를 포함하는 영상기반 모션센싱을 이용한 동적 보행하중의 위치인식 시스템.
an image data receiving unit for receiving image data;
an object information detection unit that analyzes the image data to detect object information, and calculates image coordinates of an object load reference point from the object information;
an accumulation coefficient calculator configured to calculate a scale coefficient that is a ratio of a length of a unit pixel of the image data to an actual length corresponding to the image data; and
Position recognition system of dynamic walking load using image-based motion sensing including an object position calculator for calculating actual coordinates of the reference point of the object load by using the image coordinates and the scale factor.
제8항에 있어서,
상기 객체정보 검출부는 CSRT 알고리즘을 이용하여 상기 객체정보를 검출하는 것을 특징으로 하는 영상기반 모션센싱을 이용한 동적 보행하중의 위치인식 시스템.
9. The method of claim 8,
Wherein the object information detection unit detects the object information by using a CSRT algorithm, a dynamic gait load position recognition system using image-based motion sensing.
제8항에 있어서,
상기 축척계수는 하기 수학식 1에 의하여 산출되는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템.
<수학식 1>
축척계수 = Y/X
(상기 수학식 1에서 X는 상기 영상 데이터 내의 특정 객체의 픽셀 길이이며, Y는 상기 특정 객체의 실제 길이이다)
9. The method of claim 8,
The scale factor is a real-time dynamic gait load position recognition system using image-based motion sensing calculated by Equation 1 below.
<Equation 1>
Scale factor = Y/X
(In Equation 1, X is the pixel length of a specific object in the image data, and Y is the actual length of the specific object)
제9항에 있어서,
상기 실제 좌표는 상기 이미지 좌표에 상기 축척계수를 곱하여 산출되는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템.
10. The method of claim 9,
The real coordinate is a real-time dynamic gait load position recognition system using image-based motion sensing that is calculated by multiplying the image coordinates by the scale factor.
제8항에 있어서,
상기 수신된 영상 데이터의 왜곡을 보정하는 영상데이터 보정부를 더 포함하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템.
9. The method of claim 8,
A real-time dynamic gait load position recognition system using image-based motion sensing further comprising an image data correction unit for correcting the distortion of the received image data.
제12항에 있어서,
상기 영상데이터 보정부는 Zhang 알고리즘을 이용하여 상기 영상 데이터의 왜곡을 보정하는 것을 특징으로 하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템.
13. The method of claim 12,
The image data correction unit uses a Zhang algorithm to correct the distortion of the image data. A real-time dynamic gait load position recognition system using image-based motion sensing.
제8항에 있어서,
상기 영상 데이터를 분석하여 상기 객체 하중 기준점의 하중 예측값을 산출하는 하중 예측부를 더 포함하는 영상기반 모션센싱을 이용한 실시간 동적 보행하중의 위치인식 시스템.

9. The method of claim 8,
A real-time dynamic gait load position recognition system using image-based motion sensing further comprising a load predictor that analyzes the image data and calculates a load prediction value of the object load reference point.

KR1020200186362A 2020-12-29 2020-12-29 Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing KR102588436B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200186362A KR102588436B1 (en) 2020-12-29 2020-12-29 Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200186362A KR102588436B1 (en) 2020-12-29 2020-12-29 Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing

Publications (2)

Publication Number Publication Date
KR20220095359A true KR20220095359A (en) 2022-07-07
KR102588436B1 KR102588436B1 (en) 2023-10-12

Family

ID=82398590

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200186362A KR102588436B1 (en) 2020-12-29 2020-12-29 Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing

Country Status (1)

Country Link
KR (1) KR102588436B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170017659A (en) 2015-08-07 2017-02-15 주식회사 에스코컨설턴트 Structure deterioration prodiction system based on the performance
KR20180008066A (en) * 2016-07-15 2018-01-24 연세대학교 산학협력단 Measurement system and method of 3d displacement for structure using of single camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170017659A (en) 2015-08-07 2017-02-15 주식회사 에스코컨설턴트 Structure deterioration prodiction system based on the performance
KR20180008066A (en) * 2016-07-15 2018-01-24 연세대학교 산학협력단 Measurement system and method of 3d displacement for structure using of single camera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김태원 등 ,'현실 세계에서의 로봇 파지 작업을 위한 정책/가치 심층 강화학습 플랫폼 개발', 로봇학회 논문지, 2020, vol. 15, no. 2, pp. 197-204(2020.05.31)* *

Also Published As

Publication number Publication date
KR102588436B1 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
JP7163945B2 (en) Movement situation estimation device, movement situation estimation method, and program recording medium
JP5293815B2 (en) Image processing apparatus, image processing method, and image processing program
US11308315B2 (en) Information processing apparatus, control method, and program
KR101618814B1 (en) Method and Apparatus for Monitoring Video for Estimating Gradient of Single Object
US8094884B2 (en) Apparatus and method for detecting object
US20060126941A1 (en) Face region estimating device, face region estimating method, and face region estimating program
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
JP5065449B2 (en) Vanishing point estimation device and program
JP4810893B2 (en) Distance measuring device
KR102295183B1 (en) object tracking method for CCTV video by use of CCTV projection model
KR20140056790A (en) Apparatus for image recognition and method thereof
JP7354767B2 (en) Object tracking device and object tracking method
KR20180098945A (en) Method and apparatus for measuring speed of vehicle by using fixed single camera
KR101972582B1 (en) Development for Displacement Measurement System Based on a PTZ Camera and Method thereof
US20180204333A1 (en) Object detection device and object detection method
KR20120048958A (en) Method for tracking object and for estimating
KR102547768B1 (en) Method and Apparatus for Detecting Real-time Anomaly in Video Surveillance System
KR101723536B1 (en) Method and Apparatus for detecting lane of road
KR20110125899A (en) Warking robot system and method for analysising ground and warking for the same
JP2006318064A (en) Image sensor
CN113344906A (en) Vehicle-road cooperative camera evaluation method and device, road side equipment and cloud control platform
KR102588436B1 (en) Method and system for real-time pedestrian dynamic-load localization using vision-based motion sensing
CN111553342A (en) Visual positioning method and device, computer equipment and storage medium
KR100994366B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
KR100332639B1 (en) Moving object detection method using a line matching technique

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant