KR20100056711A - Fall dection method using perspective image - Google Patents

Fall dection method using perspective image Download PDF

Info

Publication number
KR20100056711A
KR20100056711A KR1020080115639A KR20080115639A KR20100056711A KR 20100056711 A KR20100056711 A KR 20100056711A KR 1020080115639 A KR1020080115639 A KR 1020080115639A KR 20080115639 A KR20080115639 A KR 20080115639A KR 20100056711 A KR20100056711 A KR 20100056711A
Authority
KR
South Korea
Prior art keywords
image
foreground
perspective
stunning
ellipse
Prior art date
Application number
KR1020080115639A
Other languages
Korean (ko)
Inventor
정성태
소인미
김영운
강선경
Original Assignee
원광대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 원광대학교산학협력단 filed Critical 원광대학교산학협력단
Priority to KR1020080115639A priority Critical patent/KR20100056711A/en
Publication of KR20100056711A publication Critical patent/KR20100056711A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A method for recognizing a faint action using a penetration image is provided to convert a fish-eye lens image of a traced person into a penetration image to recognize a faint action, thereby improving recognizing performance. CONSTITUTION: An input image including a target person is obtained using a camera using a fish-eye lens(S10). A mobile object is generated as a foreground image using the difference between the obtained input image and the background image(S11). The detected foreground image is elliptically mapped(S13). An input image including an elliptically mapped foreground image is converted into a penetration image(S14). A faint action is determined from the converted penetration image(S15).

Description

투시영상을 이용한 기절동작 인식방법{Fall Dection Method using Perspective Image}Stall motion recognition method using perspective image {Fall Dection Method using Perspective Image}

본 발명은 기절동작 인식방법에 관한 것으로, 특히 추적된 사람의 어안 렌즈 영상을 투시 영상으로 변환하여 기절동작을 인식함으로써 인식성능을 향상시키는 인식 기술에 관련한다.The present invention relates to a method for recognizing stunning motion, and more particularly, to a recognition technology for improving recognition performance by converting a fisheye lens image of a tracked person into a perspective image to recognize a stunning motion.

기절(fall)은 고령자들에게서 흔히 일어날 수 있고 부상이나 사망으로 이어질 수 있어서, 독거인의 건강을 위협하는 중요한 요소로 지적되고 있다. 이와 같이 건강에 중요한 요소인 기절에 대한 의료 처리 결과는 기절을 감지하여 구조 요청을 하고 응급 처치를 받기까지의 시간에 큰 영향을 받는다. Falls are often found in older people and can lead to injuries or deaths, making them an important threat to the health of single people. The result of medical treatment for the stun, which is an important factor for health, is greatly influenced by the time until the stun is detected, the rescue request is made, and the emergency treatment is performed.

이러한 이유로, 가속도 센서와 기울기 센서 등을 이용하여 기절동작을 자동으로 감지하여 응급 호출을 해주는 기절동작 감지기들이 제안되었다. 그러나 이러한 제안에 의하면, 사용자가 장치를 항상 휴대하고 다녀야 한다는 문제점이 있다([1], [2] 참조).For this reason, stun motion detectors have been proposed to make emergency calls by automatically detecting stun motions using acceleration sensors and tilt sensors. However, according to this proposal, there is a problem that the user must always carry the device (see [1] and [2]).

이러한 문제점을 해결하기 위한 방법으로 카메라 영상으로부터 실시간으로 사람을 검출하고 추적하여 기절동작을 감지하는 방법이 있다. 영상을 이용한 방법 중에는 시야각이 큰 어안렌즈(fish-eye lens) 카메라 또는 전방향(omni-directional) 카메라를 사용하여 필요한 카메라를 줄이는 방법이 제안되었다([3], [4], [5], [6] 참조). 이들 방법에 의하면, 어안 렌즈 영상 자체에서 사람을 검출하고 사람 영역의 크기 변화를 이용하여 기절동작을 인식한다. 그러나, 이 방법에 의할 경우, 기절동작의 인식률이 떨어진다는 문제점이 있다. In order to solve this problem, there is a method of detecting a stunning motion by detecting and tracking a person in real time from a camera image. Among the methods using the image, a method of reducing the necessary camera using a fish-eye lens camera or an omni-directional camera with a large field of view has been proposed [3], [4], [5], [6]). According to these methods, a person is detected in the fisheye lens image itself and a stunning motion is recognized by using a change in the size of the human area. However, this method has a problem that the recognition rate of the stunning operation is lowered.

여기서, 기절동작의 인식률이 떨어진다는 것은 실제 기절동작이 발생한 경우에도 이를 기절동작으로 인식하지 못할 가능성이 크다는 것을 의미하며, 이는 독거인의 건강관리에 있어서 치명적인 결과를 초래할 수 있다.Here, when the recognition rate of the stun movement is lowered, it means that even if the stun movement occurs, it is highly unlikely to recognize it as a stun movement, which may cause a fatal result in the health care of the single person.

[1] Y.B. Lee, J.K. Kim, M.T. Son and M.H. Lee, "Implementation of Accelerometer Sensor Module and Fall Detection Monitoring System based on Wireless Sensor Network," Annual International Conference of the IEEE Engineering in Medicine and Biology Society, pp. 2315-2318, 2007.[1] Y.B. Lee, J.K. Kim, M. T. Son and M.H. Lee, "Implementation of Accelerometer Sensor Module and Fall Detection Monitoring System based on Wireless Sensor Network," Annual International Conference of the IEEE Engineering in Medicine and Biology Society, pp. 2315-2318, 2007.

[2] M.R. Narayanan, S.R. Lord, M.M. Budge, B.G. Celler and N.H. Lovell, "Falls Management: Detection and Prevention, using a Waist-mounted Triaxial Accelerometer," Annual International Conference of the IEEE Engineering in Medicine and Biology Society, pp. 4037-4040, 2007.[2] M.R. Narayanan, S.R. Lord, M.M. Budge, B.G. Celler and N.H. Lovell, "Falls Management: Detection and Prevention, using a Waist-mounted Triaxial Accelerometer," Annual International Conference of the IEEE Engineering in Medicine and Biology Society, pp. 4037-4040, 2007.

[3] H. Nait-Charif and S. McKenna. "Activity summarisation and fall detection in a supportive home environment," In Proceedings of the 17th International Conference on Pattern Recognition (ICPR), volume 4, pp. 323- 326, 2004.[3] H. Nait-Charif and S. McKenna. "Activity summarisation and fall detection in a supportive home environment," In Proceedings of the 17th International Conference on Pattern Recognition (ICPR), volume 4, pp. 323-326, 2004.

[4] S.-G. Miaou, P.-H. Sung, and C.-Y. Huang, "A Customized Human Fall Detection System Using Omni-Camera Images and Personal Information," Proc. of Distributed Diagnosis and Home Healthcare (D2H2) Conference, pp. 39-42, 2006.[4] S.-G. Miaou, P.-H. Sung, and C.-Y. Huang, "A Customized Human Fall Detection System Using Omni-Camera Images and Personal Information," Proc. of Distributed Diagnosis and Home Healthcare (D2H2) Conference, pp. 39-42, 2006.

[5] M.-L. Wang, C.-C. Huang, H.-Y. Lin, "An Intelligent Surveillance System Based on an Omnidirectional Vision Sensor" IEEE Conference on Cybernetics and Intelligent Systems, pp. 1-6, 2006.[5] M.-L. Wang, C.-C. Huang, H.-Y. Lin, "An Intelligent Surveillance System Based on an Omnidirectional Vision Sensor" IEEE Conference on Cybernetics and Intelligent Systems, pp. 1-6, 2006.

[6] Shaou-Gang Miaou, Pei-Hsu Sung and Chia-Yuan Huang, "A Customized Human Fall Detection System Using Omni-Camera Images and Personal Information", Proceedings of the 1st Distributed Diagnosis and Home Healthcare (D2H2) Conference, pp. 39-42, 2006.[6] Shaou-Gang Miaou, Pei-Hsu Sung and Chia-Yuan Huang, "A Customized Human Fall Detection System Using Omni-Camera Images and Personal Information", Proceedings of the 1st Distributed Diagnosis and Home Healthcare (D2H2) Conference, pp . 39-42, 2006.

따라서, 본 발명의 목적은 투시 영상을 이용하여 인식률을 향상시킨 기절동작 인식방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide a stun gesture recognition method using a perspective image to improve recognition rate.

상기의 목적은, 어안렌즈를 적용한 카메라를 이용하여 대상자가 포함된 입력 영상을 획득하는 단계; 상기 획득한 입력 영상과 배경 영상과의 차이를 이용하여 움직이는 객체를 전경 영상으로 생성하는 단계; 상기 검출된 전경 영상을 타원으로 매핑하는 단계; 상기 타원으로 매핑된 전경 영상을 포함하는 입력 영상을 투시 영상으로 변환하는 단계; 및 상기 변환된 투시 영상으로부터 상기 매핑된 타원의 크기 변화, 위치 변화, 및 이동 속도를 추출하여 이동과 정지 및 움직임에 기초하여 기절동작을 판정하는 단계를 포함하는 투시영상을 이용한 기절동작 인식방법에 의해 달성된다.The above object is to obtain an input image including a subject using a camera to which the fisheye lens is applied; Generating a moving object as a foreground image by using a difference between the obtained input image and a background image; Mapping the detected foreground image to an ellipse; Converting an input image including the foreground image mapped to the ellipse into a perspective image; And extracting the size change, the position change, and the moving speed of the mapped ellipse from the converted perspective image to determine the stunning motion based on the movement, the stop, and the movement. Is achieved by

바람직하게, 상기 전경 영상을 생성하는 단계에서, 가우시안(Gaussian) 혼합 모델 기반의 적응적 배경 모델링 방법을 이용하여 동적으로 배경 영상을 갱신하고, 상기 입력 영상의 RGB 컬러 모델을 YCbCr 컬러 모델로 변환하고, 평균 밝기가 급격하게 변화하지 않도록 평균 밝기 보정을 수행하며, 밝기 변화와 색상 변화량을 이용하여 그림자 영역인지를 판별하여 상기 대상자의 그림자를 제거할 수 있다.Preferably, in the generating the foreground image, the background image is dynamically updated using a Gaussian mixed model based adaptive background modeling method, and the RGB color model of the input image is converted into a YCbCr color model. In addition, the average brightness may be corrected so that the average brightness does not change suddenly, and the shadow of the subject may be removed by determining whether the shadow area is a shadow area using the brightness change and the color change amount.

또한, 바람직하게, 상기 전경 영상을 생성하는 단계 이후, 상기 전경 영상에 포함되지 않은 영역에서의 잡음을 제거하는 단계를 더 포함할 수 있다. 더욱 바람 직하게, 상기 잡음 제거는, 연결되어 있는 전경 픽셀 영역에서 일정 개수 이하의 픽셀로 구성된 영역은 제거하여 수행될 수 있다.In addition, preferably, after generating the foreground image, the method may further include removing noise in an area not included in the foreground image. More preferably, the noise removal may be performed by removing a region consisting of a predetermined number or less pixels from the connected foreground pixel region.

바람직하게, 상기 타원 매핑 단계에서, 윤곽선 검출 기법을 이용하여 연결되어 있는 전경 픽셀 영역들의 외곽점들을 추적하고, 상기 외곽점들을 감싸는 타원으로 매핑할 수 있다.Preferably, in the elliptic mapping step, contour points of the connected foreground pixel areas may be tracked using an edge detection method, and mapped to the ellipses surrounding the outer points.

상기의 구성에 의하면, 대상자의 투시영상을 이용함으로써 기절동작의 인식률을 현저하게 향상시켜 독거인의 건강관리에 크게 이바지할 수 있다.According to the above arrangement, by using the subject's perspective image, the recognition rate of the stunning motion can be significantly improved, which can greatly contribute to the health care of the lone.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 구체적으로 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 기절동작 인식방법을 설명하는 플로차트이다.1 is a flowchart illustrating a stunning motion recognition method according to the present invention.

1. 입력 영상 획득1. Input image acquisition

방이나 거실의 천장 또는 벽체의 모서리에 설치된 카메라를 이용하여 촬영한 입력 영상을 획득한다(단계 S10). 상기한 바와 같이, 넓은 시야각을 확보하기 위해서 시야각이 큰 어안렌즈를 카메라에 적용한다.An input image photographed is acquired by using a camera installed at a corner of a ceiling or a wall of a room or a living room (step S10). As described above, in order to secure a wide viewing angle, a fisheye lens having a large viewing angle is applied to the camera.

도 2는 각각 어안 렌즈를 통하여 획득한 입력 영상을 나타내는 이미지로서, 도 2(a)는 대상자가 서 있는 영상이고, 도 2(b)는 대상자가 누워 있는 영상을 나타낸다.FIG. 2 is an image representing an input image acquired through a fisheye lens, respectively, FIG. 2 (a) is an image in which the subject is standing, and FIG. 2 (b) is an image in which the subject is lying.

2. 전경 영상 생성2. Create foreground image

획득한 입력 영상으로부터 전경 영상을 생성한다(단계 S11). 구체적으로, 배경 영상과 입력 영상과의 차이를 이용하여 움직이는 객체를 전경 영상으로 생성한다. 여기서, 전경 영상을 생성하기 위해 두 가지의 서브 단계를 수행할 수 있다. A foreground image is generated from the obtained input image (step S11). In detail, a moving object is generated as a foreground image by using a difference between a background image and an input image. Here, two sub-steps may be performed to generate the foreground image.

배경 검출 및 제거Background detection and removal

배경 영상은 조명의 변화나 물체의 이동에 따라 계속하여 변화하므로 가우시안 혼합 모델 기반의 적응적 배경 모델링 방법을 이용하여 동적으로 배경 영상을 갱신한다. 배경 영상을 생성하기 위해 시스템 동작 초기에는 입력 영상 내에 움직이는 객체가 없을 때로 제한하며, 적어도 300 프레임의 영상을 입력받는다. Since the background image continuously changes as the light changes or the object moves, the background image is dynamically updated by using an adaptive background modeling method based on a Gaussian mixture model. In order to generate a background image, the system is initially limited to when there is no moving object in the input image, and receives an image of at least 300 frames.

여기서, RGB 컬러 영상은 조명의 영향에 따라 변화가 크므로 본 발명에서는 입력 영상의 RGB 컬러 모델을 YCbCr 컬러 모델로 변환하여 조명과 색상을 분리함으로써 조명 변화로 인한 영상의 변화를 감소시킨다. Here, since the RGB color image is largely changed according to the influence of illumination, in the present invention, the RGB color model of the input image is converted into a YCbCr color model to separate the illumination from the color to reduce the change of the image due to the illumination change.

또한, 일반적으로 카메라는 조명 변화에 따라 노출을 자동으로 조절하여 촬영된 영상의 밝기를 자동 조절하는데, 영상의 밝기가 급격하게 변화하는 경우에 그 영역이 움직이는 객체로 오인될 수 있다. 따라서, 본 발명에서는 RGB 컬러 모델을 YCbCr 컬러 모델로 변환한 다음, 입력 영상의 평균 밝기를 구하고 그 값이 최근 10 프레임에 대한 평균 밝기에서 임계값 이상으로 변화하는 경우 영상 픽셀 값을 보정하여 평균 밝기가 급격하게 변화하지 않도록 만든다.Also, in general, the camera automatically adjusts the exposure according to a change in lighting to automatically adjust the brightness of the captured image. When the brightness of the image changes drastically, the area may be mistaken as a moving object. Therefore, in the present invention, after converting the RGB color model to the YCbCr color model, the average brightness of the input image is obtained, and when the value changes from the average brightness for the last 10 frames to more than the threshold, the average brightness is corrected by correcting the image pixel value. Does not change abruptly.

그림자 검출 및 제거Shadow detection and removal

도 3(a)과 같이, 움직이는 객체가 입력 영상 내에 나타나면 해당 픽셀은 배 경과 차이가 나게 되어 전경 픽셀로 분류되도록 하고, 전경 픽셀만 남기고 나머지 픽셀은 제거하여, 도 3(b)과 같이 전경 영상을 생성한다. As shown in FIG. 3 (a), when a moving object appears in the input image, the corresponding pixel becomes different from the background and is classified as a foreground pixel, leaving only the foreground pixel and removing the remaining pixels. Create

이와 함께, 도 3(b)에 나타낸 것처럼, 움직이는 객체의 그림자가 객체로 인식될 수 있기 때문에 그림자의 검출과 제거가 필요하다. 이때, 그림자 영역에서는 밝기가 어두워지고 원래의 색상은 유지되는 성질이 있으므로 밝기 변화와 색상 변화량을 이용하여 그림자 영역인지를 판별한다. In addition, as shown in FIG. 3 (b), since the shadow of the moving object can be recognized as an object, the detection and removal of the shadow is necessary. In this case, since the brightness is dark in the shadow area and the original color is maintained, the shadow area is determined using the brightness change and the color change amount.

3. 잡음 제거3. Noise Reduction

상기와 같은 과정을 거쳐 전경 영상을 생성한 후, 생성된 전경 영상의 잡음을 제거할 수 있다(단계 S12). After generating the foreground image through the above process, the noise of the generated foreground image may be removed (step S12).

움직이는 객체에 포함되지 않은 영역에서도 잡음에 의하여 픽셀들이 전경 픽셀로 분류될 수 있기 때문에 잡음을 제거할 필요가 있다. 이를 위해, 연결되어 있는 전경 픽셀 영역이 4개 이하의 픽셀로 구성된 영역은 제거한다. 도 4는 도 3(b)의 전경 영상에서 그림자와 잡음을 제거한 영상을 나타낸다.Noise may need to be removed because pixels may be classified as foreground pixels by noise even in areas not included in a moving object. To this end, the connected foreground pixel area is removed from the area consisting of four pixels or less. 4 illustrates an image in which the shadow and the noise are removed from the foreground image of FIG. 3 (b).

또한, 바람직하게, Morphology Close 연산을 적용하여 서로 떨어져 있는 영역들을 합병한다. 다시 말해, 움직이는 객체의 일부가 배경과 비슷한 색상을 가질 경우에 객체의 일부분이 배경으로 분류되어 객체가 분리될 수 있기 때문에, 이 연산을 적용함으로써 분리되었던 객체의 부분들을 합병할 수 있다. Also, preferably, the Morphology Close operation is applied to merge regions that are separated from each other. In other words, when a part of the moving object has a color similar to the background, the part of the object may be classified as a background and the object may be separated, thereby applying the operation to merge parts of the separated object.

4. 타원 매핑(elliptical mapping)4. elliptical mapping

움직이는 객체의 크기 변화, 위치 변화, 및 이동 속도를 정확히 알기 위해서는 움직이는 객체를 일정한 패턴으로 형상화하는 것이 필요하며, 본 발명에서는 움직이는 객체를 타원으로 매핑한다(단계 S13).In order to accurately know the size change, the position change, and the moving speed of the moving object, it is necessary to shape the moving object in a certain pattern. In the present invention, the moving object is mapped to an ellipse (step S13).

움직이는 객체를 타원으로 매핑하기 위해서 윤곽선 검출 기법을 이용하여 연결되어 있는 전경 픽셀 영역들의 외곽점들을 추적하고, 외곽점들을 가장 잘 감싸는 타원으로 매핑하여 움직이는 객체 영역의 형태를 단순화한다. In order to map the moving object to an ellipse, the contour detection technique is used to track the outer points of the connected foreground pixel areas and to simplify the shape of the moving object area by mapping the outer points to the ellipse that best wraps them.

시간에 따라 연속적으로 입력되는 영상들에서 검출된 타원을 추적함으로써 타원의 크기 변화, 위치 변화, 이동 속도 정보를 추출한다. By tracking the ellipses detected from images continuously input over time, the size change, position change, and movement speed information of the ellipse are extracted.

이때, 잡음에 의하여 전경 픽셀 영역이 여러 개 존재할 수 있지만 사람에 해당하는 영역은 그 크기가 일정한 범위 안에 존재하게 된다. 특히, 대상자의 기절동작 인식을 전제로 하기 때문에, 전경 픽셀 영역 중에서 크기가 미리 설정된 범위 내에 해당하는 것 중에서 가장 큰 것을 선택하면 된다.At this time, the foreground pixel area may exist due to noise, but the area corresponding to the person exists in a certain range. In particular, since the subject is aware of the stunning motion, it is sufficient to select the largest one among the foreground pixel areas corresponding to the preset range.

도 5는 도 3(a)의 입력 영상의 움직이는 객체, 즉 대상자에 대해 타원 매핑을 한 결과를 보여준다.FIG. 5 illustrates a result of elliptic mapping of a moving object, that is, a target, of the input image of FIG.

5. 투시 영상 변환5. Perspective Image Conversion

통상, 기절동작이 일어날 때에는 빠른 몸동작이 있은 후에 사람이 누워있는 자세를 취하게 되고 그 다음에는 움직임이 없는 상태가 지속된다. 단계 S13에서는, 대상자에 매핑된 타원의 형태 변화와 움직임 속도 등을 이용하여 기절동작을 인식할 수 있다.Typically, when a stunner occurs, a person is in a lying position after a rapid gesture, and then a state of inactivity is continued. In operation S13, the stunning motion may be recognized using a change in the shape of the ellipse mapped to the subject, a movement speed, and the like.

본 발명의 발명자에 의하면, 어안렌즈에 의한 입력 영상보다 투시 영상에서 대상자의 몸의 형태 변화가 더 분명하게 나타나기 때문에, 기절동작의 인식성능을 향상시키기 위해서 어안렌즈에 의한 입력 영상을 투시 영상으로 변환한다(단계 S14).According to the inventor of the present invention, since the change in the shape of the subject's body appears more clearly in the see-through image than the input image by the fisheye lens, the input image by the fisheye lens is converted into the see-through image in order to improve the recognition performance of the stunning motion. (Step S14).

어안렌즈 영상을 투시 영상으로 변환하는 방법으로는 Zimmermann에 의해 유도된 방법을 사용할 수 있다(S. Zimmermann and D. Kuban, "A video pan/tilt/magnify/rotate system with no moving parts," Proceedings of IEEE/AIA Digital Avionics Systems Conference, pp. 523-531, 1992. 참조). Zimmermann-derived methods can be used to convert fisheye images into perspective images (S. Zimmermann and D. Kuban, "A video pan / tilt / magnify / rotate system with no moving parts," Proceedings of IEEE / AIA Digital Avionics Systems Conference, pp. 523-531, 1992.).

이하, 이를 구체적으로 설명한다.This will be described in detail below.

도 6을 참조하면, 어안렌즈 영상 좌표계와 투시 영상 좌표계가 나타나 있다. 도 5에서, DOV [x, y, z]는 관측 방향을 나타내는 벡터이고, 어안렌즈 영상 좌표계의 원점에서 이 방향으로 관측한 경우의 투시 영상을 구하는 것이다. 이때, 투시 영상 좌표계가 위치하는 U-V 평면이 DOV [x, y, z]에 수직이고 투시 영상 좌표계의 원점을 DOV [x, y, z]가 관통한다고 가정한다.Referring to FIG. 6, a fisheye lens image coordinate system and a perspective image coordinate system are shown. In FIG. 5, DOV [x, y, z] is a vector representing a viewing direction, and the perspective image obtained when the viewing is observed in this direction at the origin of the fisheye lens image coordinate system. In this case, it is assumed that perspective image coordinate system the position UV plane the DOV [x, y, z] is perpendicular to the origin of the image coordinate system perspective DOV [x, y, z] in which the through.

투시 영상의 좌표 (u, v)를 어안 렌즈 영상의 좌표 (x, y)로 매핑하는 공식은 [식 1]과 같다. The formula for mapping the coordinates (u, v) of the perspective image to the coordinates (x, y) of the fisheye lens image is shown in [Equation 1].

Figure 112008080031262-PAT00001
Figure 112008080031262-PAT00001

[식 1]에서 R은 어안 렌즈 영상 원의 반지름을 나타내고, m은 확대 비율을 나타내고, φ는 투시 영상에서의 회전 각도를 나타내고, β는 축과 시선 방향 사이의 위도각을 나타내고, δX 축과 시선 방향 사이의 경도각을 나타낸다. 본 발명에서, R, m, φ는 상수로 사용하였고 값은 R = 160, m = 1, φ = 0으로 설정하였다. In Equation 1, R represents the radius of the fisheye lens image circle, m represents the enlargement ratio, φ represents the rotation angle in the perspective image, β represents the latitude angle between the axis and the line of sight direction, δ is X The hardness angle between the axis and the line of sight direction is shown. In the present invention, R , m , φ was used as a constant and the value was set to R = 160 , m = 1, φ = 0.

도 7은 타원 매핑된 도 5의 입력 영상을 투시 영상으로 변환한 결과를 나타낸다.FIG. 7 illustrates a result of converting an elliptical mapped input image of FIG. 5 into a perspective image.

6. 기절동작의 판정6. Determination of stunning action

단계 S15에서 변환된 투시 영상으로부터 움직이는 객체를 타원으로 매핑해 타원의 크기 변화, 위치 변화, 및 이동 속도를 추출하여 이동과 정지 및 움직임이 기절동작과 유사한지를 판단한다(단계 S15). The moving object is mapped to the ellipse from the converted perspective image in step S15 to extract the size change, the position change, and the moving speed of the ellipse to determine whether the movement, the stop, and the movement are similar to the stunning motion (step S15).

도 8은 기절동작으로 인식되는 과정을 보이고 있다. 결과 영상에서 볼 수 있듯이 대상자의 행동에 따라 타원의 크기와 위치가 변화하는 것을 볼 수 있으며, 대상자가 서 있거나 걷거나 또는 눕는 동작을 하게 되면 타원의 가로(width) 및 세로(height)의 크기가 변화한다.8 shows a process recognized as a stunning action. As shown in the result image, the size and position of the ellipse changes according to the behavior of the subject, and the width and height of the ellipse changes when the subject stands, walks, or lies down. do.

표 1은 대상자 서 있다가 기절하는 과정을 프레임, 가로, 및 세로 크기 변화를 나타내고 있다. Table 1 shows the frame, horizontal and vertical size changes of the subject standing out and stunning.

프레임frame 가로 크기Horizontal size 세로 크기Vertical size 652652 5151 9696 662662 4646 7777 668668 3838 5454 674674 4444 4545 681681 4343 4949 687687 5353 5454 700700 7474 6565 704704 8989 3737 740740 8484 3737

결과에서 볼 수 있듯이 사용자가 서 있을 때(652 frame)는 타원의 세로 크기가 가로 크기보다 크다. 그러나, 사용자가 누워 있을 때(704 frame)는 가로 크기가 세로 크기보다 큰 것을 알 수 있다. 이러한 크기 변화는 사용자의 동작에 따라 속도(frame)가 다르게 변화하는 것을 볼 수 있다. 단순히 눕는 동작과 기절동작을 구분하는 방법도 이러한 동작에 따라 속도가 변하는 특성에 기초하여 판정할 수 있다.As the results show, when the user is standing (652 frames), the height of the ellipse is larger than the width of the ellipse. However, it can be seen that the horizontal size is larger than the vertical size when the user is lying down (704 frames). This size change can be seen that the frame (frame) changes differently depending on the user's motion. The method of distinguishing between the simple lying down motion and the stunning motion can also be determined based on a characteristic in which the speed changes according to this motion.

실험 예Experiment example

도 9와 같이, 9개의 위치에 따라 10명의 실험자를 통해 각각 27번의 기절동작을 촬영하고 이에 대한 기절동작 인식 및 비정상 상황 감지 실험을 수행하였다. 아래의 표 2는 10명의 실험자가 9개 위치에서 수행한 3가지 방향에 따른 기절동작에 대한 인식 여부를 나타내고 있다. 표 2로부터 알 수 있는 것처럼, 270개의 기절동작 영상 중 233개의 기절동작 인식으로 86%의 인식률을 얻을 수 있었다. As shown in FIG. 9, 27 stun motions were photographed through 10 testers according to 9 positions, and stun motion recognition and abnormal situation detection experiments were performed. Table 2 below shows whether or not the 10 experimenters recognized the stun movement along the three directions performed at nine positions. As can be seen from Table 2, the recognition rate of 86% was obtained by recognizing 233 stunning motions among 270 stunning motion images.

Figure 112008080031262-PAT00002
Figure 112008080031262-PAT00002

결과적으로, 참고 문헌 [6]에서 어안렌즈 영상을 그대로 사용하여 기절동작을 인식하는 경우, 인식률이 79.8%인 점과 비교할 때, 본 발명과 같이, 어안렌즈 영상을 투시 영상으로 변환하여 기절동작을 인식한 결과 인식률이 향상됨을 알 수 있다. 이것은 투시 영상으로 변환하여 인식을 한 경우, 대상자의 동작에 따른 타원의 크기 변화를 정확히 알 수 있어 기절동작 인식이 더 잘 될 수 있기 때문이다. As a result, in the case of recognizing the stunning motion using the fisheye lens image as it is in Reference [6], as compared with the point where the recognition rate is 79.8%, the stunning movement is performed by converting the fisheye lens image into a perspective image as in the present invention. As a result of recognition, the recognition rate is improved. This is because when the recognition is performed by converting into a perspective image, the size of the ellipse according to the motion of the subject can be accurately known, so that the stunning motion can be recognized better.

본 발명에 따르면, 실시간 추적을 위하여 대상자의 몸을 타원으로 매핑하고, 어안렌즈 입력 영상을 투시 영상으로 변환한 후, 움직이는 객체에 매핑된 타원의 크기 변화, 위치 변화, 및 이동 속도 등의 타원의 형태 변화를 이용함으로써 기절동작의 인식률을 높일 수 있다. 또한 적응적 배경 모델을 이용함으로써 조명 변화에 견고하며 컬러 모델 변환과 평균 밝기 보정을 통하여 더욱 견고한 사람 검출 및 추적이 가능하다.According to the present invention, the subject's body is mapped to an ellipse for real-time tracking, the fisheye lens input image is converted into a perspective image, and the ellipses such as size change, position change, and movement speed of the ellipse mapped to the moving object are By using the shape change, the recognition rate of the stunning action can be increased. The adaptive background model is also robust against light changes and more robust in human detection and tracking through color model conversion and average brightness correction.

이상에서는 본 발명의 실시 예를 중심으로 설명하였지만, 당업자의 수준에서 다양한 변경을 가할 수 있음은 물론이다. 따라서, 본 발명의 권리범위는 상기한 실시 예에 한정되어 해석될 수 없으며, 이하에 기재되는 특허청구범위에 의해 해석되어야 한다.In the above description, the embodiment of the present invention has been described, but various changes can be made at the level of those skilled in the art. Therefore, the scope of the present invention should not be construed as being limited to the above embodiment, but should be interpreted by the claims described below.

도 1은 본 발명에 따른 기절동작 인식방법을 설명하는 플로차트이다.1 is a flowchart illustrating a stunning motion recognition method according to the present invention.

도 2는 각각 어안 렌즈를 통하여 획득한 입력 영상을 나타내는 이미지로서, 도 2(a)는 대상자가 서 있는 영상이고, 도 2(b)는 대상자가 누워 있는 영상을 나타낸다.FIG. 2 is an image representing an input image acquired through a fisheye lens, respectively, FIG. 2 (a) is an image in which the subject is standing, and FIG. 2 (b) is an image in which the subject is lying.

도 3(a)은 입력 영상이고, 도 3(b)은 입력 영상에서 전경 픽셀만 남기고 나머지 픽셀은 제거하여 얻은 전경 영상이다. 3 (a) is an input image, and FIG. 3 (b) is a foreground image obtained by removing only the foreground pixels and removing the remaining pixels from the input image.

도 4는 도 3(b)의 전경 영상에서 그림자와 잡음을 제거한 영상을 나타낸다.4 illustrates an image in which the shadow and the noise are removed from the foreground image of FIG. 3 (b).

도 5는 도 3(a)의 입력 영상의 움직이는 객체, 즉 대상자에 대해 타원 매핑을 한 결과를 보여준다.FIG. 5 illustrates a result of elliptic mapping of a moving object, that is, a target, of the input image of FIG.

도 6은 어안렌즈 영상 좌표계와 투시 영상 좌표계를 나타낸다.6 shows a fisheye lens image coordinate system and a perspective image coordinate system.

도 7은 타원 매핑된 도 5의 입력 영상을 투시 영상으로 변환한 결과를 나타낸다.FIG. 7 illustrates a result of converting an elliptical mapped input image of FIG. 5 into a perspective image.

도 8은 기절동작으로 인식되는 과정을 보여준다.8 shows a process recognized as a stunning action.

도 9는 실험을 위한 기절 위치의 배치를 나타낸다.9 shows the placement of the stun positions for the experiment.

Claims (6)

어안렌즈를 적용한 카메라를 이용하여 대상자가 포함된 입력 영상을 획득하는 단계;Obtaining an input image including the subject using a camera to which the fisheye lens is applied; 상기 획득한 입력 영상과 배경 영상과의 차이를 이용하여 움직이는 객체를 전경 영상으로 생성하는 단계;Generating a moving object as a foreground image by using a difference between the obtained input image and a background image; 상기 검출된 전경 영상을 타원으로 매핑하는 단계;Mapping the detected foreground image to an ellipse; 상기 타원으로 매핑된 전경 영상을 포함하는 입력 영상을 투시 영상으로 변환하는 단계; 및Converting an input image including the foreground image mapped to the ellipse into a perspective image; And 상기 변환된 투시 영상으로부터 상기 매핑된 타원의 크기 변화, 위치 변화, 및 이동 속도를 추출하여 이동과 정지 및 움직임에 기초하여 기절동작을 판정하는 단계를 포함하는 것을 특징으로 하는 투시영상을 이용한 기절동작 인식방법.And extracting the magnitude change, the position change, and the movement speed of the mapped ellipse from the converted perspective image to determine the stunning motion based on the movement, the stop, and the movement. Recognition method. 청구항 1에 있어서,The method according to claim 1, 상기 전경 영상을 생성하는 단계에서,In generating the foreground image, 가우시안(Gaussian) 혼합 모델 기반의 적응적 배경 모델링 방법을 이용하여 동적으로 배경 영상을 갱신하고, 상기 입력 영상의 RGB 컬러 모델을 YCbCr 컬러 모델로 변환하고, 평균 밝기가 급격하게 변화하지 않도록 평균 밝기 보정을 수행하며, Adaptive background modeling based on Gaussian mixed model dynamically updates background image, converts RGB color model of input image into YCbCr color model, and corrects average brightness so that average brightness does not change suddenly , And 밝기 변화와 색상 변화량을 이용하여 그림자 영역인지를 판별하여 상기 대상 자의 그림자를 제거하는 것을 특징으로 하는 투시영상을 이용한 기절동작 인식방법.A method of recognizing stunning motion using a perspective image, characterized in that the shadow of the subject is removed by determining whether the shadow is a shadow area using a brightness change and a color change amount. 청구항 1에 있어서,The method according to claim 1, 상기 전경 영상을 생성하는 단계 이후, 상기 전경 영상에 포함되지 않은 영역에서의 잡음을 제거하는 단계를 더 포함하는 것을 특징으로 하는 투시영상을 이용한 기절동작 인식방법.And after the generating of the foreground image, removing the noise in an area not included in the foreground image. 청구항 3에 있어서,The method according to claim 3, 상기 잡음 제거는, 연결되어 있는 전경 픽셀 영역에서 일정 개수 이하의 픽셀로 구성된 영역은 제거하여 수행되는 것을 특징으로 하는 투시영상을 이용한 기절동작 인식방법.The noise elimination method is performed by removing a region consisting of a predetermined number of pixels or less from a connected foreground pixel region. 청구항 1에 있어서,The method according to claim 1, 상기 타원 매핑 단계에서,In the elliptic mapping step, 윤곽선 검출 기법을 이용하여 연결되어 있는 전경 픽셀 영역들의 외곽점들을 추적하고, 상기 외곽점들을 감싸는 타원으로 매핑하는 것을 특징으로 하는 투시영상을 이용한 기절동작 인식방법.A method of recognizing stunning motion using a perspective image, characterized by tracking the outer points of connected foreground pixel areas using an edge detection technique and mapping the outer points to an ellipse surrounding the outer points. 청구항 1에 있어서,The method according to claim 1, 상기 투시 영상 변환은 다음의 식을 통하여 이루어지는 것을 특징으로 하는 투시영상을 이용한 기절동작 인식방법.The perspective image conversion is a stun gesture recognition method using a perspective image, characterized in that through the following equation.
Figure 112008080031262-PAT00003
Figure 112008080031262-PAT00003
여기서, (u, v)는 상기 투시 영상의 좌표이고, (x, y)는 상기 입력 영상의 좌표이고, R은 어안 렌즈 영상 원의 반지름을 나타내고, m은 확대 비율을 나타내고, φ는 투시 영상에서의 회전 각도를 나타내고, β는 축과 시선 방향 사이의 위도각을 나타내며, δX 축과 시선 방향 사이의 경도각을 나타낸다.Here, (u, v) is the coordinate of the perspective image, (x, y) is the coordinate of the input image, R represents the radius of the fisheye lens image circle, m represents the magnification ratio, φ represents the perspective image Denotes a rotation angle at, β denotes a latitude angle between the axis and the visual direction, and δ denotes a longitudinal angle between the X axis and the visual direction.
KR1020080115639A 2008-11-20 2008-11-20 Fall dection method using perspective image KR20100056711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080115639A KR20100056711A (en) 2008-11-20 2008-11-20 Fall dection method using perspective image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080115639A KR20100056711A (en) 2008-11-20 2008-11-20 Fall dection method using perspective image

Publications (1)

Publication Number Publication Date
KR20100056711A true KR20100056711A (en) 2010-05-28

Family

ID=42280676

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080115639A KR20100056711A (en) 2008-11-20 2008-11-20 Fall dection method using perspective image

Country Status (1)

Country Link
KR (1) KR20100056711A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101038650B1 (en) * 2011-01-26 2011-06-02 박상현 Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it
WO2017125094A1 (en) * 2016-01-22 2017-07-27 苏州望湖房地产开发有限公司 Body fall smart control system and method therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101038650B1 (en) * 2011-01-26 2011-06-02 박상현 Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it
WO2017125094A1 (en) * 2016-01-22 2017-07-27 苏州望湖房地产开发有限公司 Body fall smart control system and method therefor
US10424180B2 (en) 2016-01-22 2019-09-24 Suzhou Ling Wei Technology Co., Ltd. Body fall smart control system and method therefor

Similar Documents

Publication Publication Date Title
JP3938257B2 (en) Method and apparatus for detecting a face-like area and observer tracking display
WO2016006027A1 (en) Pulse wave detection method, pulse wave detection program, and pulse wave detection device
JP2008234208A (en) Facial region detection apparatus and program
JP5127531B2 (en) Image monitoring device
KR20140111858A (en) Apparatus and method for processing image
JP6579950B2 (en) Image analysis apparatus, program, and method for detecting person appearing in captured image of camera
JP4448304B2 (en) Face detection device
EP1933256A3 (en) Eye closure recognition system and method
JP2011165008A (en) Image recognition apparatus and method
JP2008113071A (en) Automatic tracking device
JP2006171929A (en) Facial area estimation system, facial area estimation method and facial area estimation program
CN108537131B (en) Face recognition living body detection method based on face characteristic points and optical flow field
WO2018233637A1 (en) Video processing method and apparatus, electronic device, and storage medium
KR100822476B1 (en) Remote emergency monitoring system and method
CN112232204B (en) Living body detection method based on infrared image
CN106881716A (en) Human body follower method and system based on 3D cameras robot
CN111183431A (en) Fingerprint identification method and terminal equipment
JP2009123081A (en) Face detection method and photographing apparatus
JP4825909B2 (en) Face detection device
JP4412929B2 (en) Face detection device
US20230419500A1 (en) Information processing device and information processing method
KR20100056711A (en) Fall dection method using perspective image
JP4741019B2 (en) Intercom device
Srinivasan et al. Internet of Things (IoT) based object recognition technologies
KR101715247B1 (en) Apparatus and method for processing image to adaptively enhance low contrast, and apparatus for detecting object employing the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application