KR101185935B1 - Animal detection system and method thereof - Google Patents

Animal detection system and method thereof Download PDF

Info

Publication number
KR101185935B1
KR101185935B1 KR1020110049633A KR20110049633A KR101185935B1 KR 101185935 B1 KR101185935 B1 KR 101185935B1 KR 1020110049633 A KR1020110049633 A KR 1020110049633A KR 20110049633 A KR20110049633 A KR 20110049633A KR 101185935 B1 KR101185935 B1 KR 101185935B1
Authority
KR
South Korea
Prior art keywords
region
area
animal
end point
areas
Prior art date
Application number
KR1020110049633A
Other languages
Korean (ko)
Inventor
김정훈
Original Assignee
에스엘 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스엘 주식회사 filed Critical 에스엘 주식회사
Priority to KR1020110049633A priority Critical patent/KR101185935B1/en
Application granted granted Critical
Publication of KR101185935B1 publication Critical patent/KR101185935B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: An animal detecting system and a method thereof are provided to quickly predict a moving direction of an animal through a minimum algorithm if an object in front of a car is the animal. CONSTITUTION: An animal sensing system obtains a binarized image by binarizing a photographed image(S1315). The system extracts an area of a target object(S1320). The system detects at least one end point from the target object(S1330). The system partitions the area of the target object into four areas(S1340). The system determines whether the target object is an animal(S1350). [Reference numerals] (A1310) Taking photography; (A1315) Obtaining a binarized image; (A1320) Extracting an area of a target object; (A1330) Extracting an end point from the target object; (A1340) Partitioning the area of the target object into four areas; (A1350) Determining whether the target object is an animal; (A1360) Predicting the moving direction of the target object; (A1370) Generating a warning event; (AA) Start; (BB) End

Description

동물 감지 시스템 및 방법{Animal Detection System and Method thereof}Animal Detection System and Method

본 발명은 다점 포인터 및 영역을 활용하여 동물 여부에 대한 감지 및 동물의 상황에 대한 추이를 예상하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for utilizing the multipoint pointer and region to detect whether the animal is present and to predict the trend of the animal.

차도에 갑자기 뛰어든 동물을 들이받는 이른바 로드킬(Road Kill)로 인한 사고는 동물의 생명을 앗아갈 뿐만 아니라, 차량에 탑승하고 있었던 사람에게도 치명적인 영향을 미칠 수 있다. 이러한 로드킬로 인한 사고는 비단 국내뿐만 아니라 차량을 통한 이동이 일반화된 국가라면 어디에서든 심각한 문제가 될 수 있다. Accidents caused by so-called road kills that inadvertently enter the driveway not only kill the animals, but can also have a fatal effect on the person in the vehicle. These road killing accidents can be a serious problem not only in Korea but also in countries where travel by vehicles is common.

이러한 로드킬을 방지하기 위해 여러 방면에서 방안들이 마련되고 있는데, 특히, 야간에 발생하는 로드킬을 방지하기 위한 방편으로 차량에 나이트 비젼 시스템을 탑재하기도 한다. 나이트 비젼은 열화상(thermal-imaging) 기술을 자동차에 적용하여 야간운전시 운전자의 시야를 확보하게 함으로써 야간운전의 안전성을 강화하기 위한 장치로서, 일반적으로 프런트그릴 후부에 장착된 특수한 적외선식 감시카메라로 차량의 전방 물체를 촬영하여 이미지 화상으로 헤드업 디스플레이에 표시함으로써 전조등으로 빔의 조사거리의 3배 이상 앞에 존재하는 물체를 확인할 수 있는 장치이다. In order to prevent such road kills, various measures are being prepared. In particular, a night vision system may be installed in a vehicle to prevent road kills occurring at night. Night Vision is a device designed to enhance the safety of night driving by applying thermal-imaging technology to automobiles to secure the driver's vision at night. Generally, a special infrared surveillance camera mounted on the rear of the front grill is used. It is a device that can identify an object that is over three times the irradiation distance of the beam by the headlight by photographing the object in front of the vehicle and displaying it on the head-up display as an image image.

그러나, 운행하는 차량의 전방에 위치한 대상물이 이동할 수 없는 물체인지, 아니면 현재 이동하고 있거나 혹은 이후 이동할 가능성이 있는 물체인지를 확인하고, 이동하는 차량에 특히 위험이 될 수 있는 후자의 경우에만 필요한 경고를 운전자에게 하도록 함으로써, 운전자의 집중도를 방해하지 않도록 하는 것이 중요할 것이다. However, it is necessary to determine whether an object located in front of a moving vehicle is an object that cannot be moved or is currently moving or is likely to move later, and a warning necessary only in the latter case, which can be particularly dangerous to a moving vehicle. It will be important to make the driver do not disturb the driver's concentration.

더욱이, 현재 이동하고 있거나 혹은 이동할 가능성이 있는 대상물이 동물인 경우에는 이러한 경고 시스템이 매우 중요하다. 인간과는 달리 이동 차량에 대한 위험 인지 능력이 떨어지는 동물의 경우에는 가만히 정지해 있다가도 갑작스럽게 차도에 뛰어드는 행동을 할 수도 있기 때문이다. Moreover, this warning system is very important if the object being moved or possibly moving is an animal. Unlike humans, animals with low risk perception of moving vehicles may be able to suddenly jump into the road even if they are stopped.

따라서, 운행 차량의 전방에 위치한 대상물 중에서 특히 동물인지 여부를 식별하고, 더 나아가 이 대상물의 이후 이동 방향을 예측하여 이를 토대로 운전자에게 필요한 경우에만 경고를 하거나 혹은 위험도를 단계별로 나누어 경고를 하는 시스템이 필요하다. Therefore, a system that identifies whether the object is in particular an animal among the objects located in front of the driving vehicle, and further predicts the future direction of movement of the object, warns the driver only when necessary or warns by dividing the risk step by step. need.

이를 위해 기본적으로 운행 차량의 전방에 위치한 대상물이 동물인지 여부 및 동물이라고 판단될 경우 이 동물의 이후의 이동 방향을 예측하는 방법 및 장치가 선행될 필요가 있다. 차량에 탑재되는 CPU가 고급 사양이 아닌 경우까지도 감안해야 하고, 또한 고속으로 달리는 차량에 탑재되어야 한다는 점을 고려한다면, 동물 여부 및 이동방향에 대한 예측은 가능한 한 빠른 속도로 이루어져야 하여, 이를 위해 알고리듬을 최소화할 필요가 있다. To this end, a method and apparatus for predicting the future direction of movement of the animal need to be preceded if it is determined whether the object located in front of the driving vehicle is an animal and the animal. Considering the fact that the onboard CPU is not an advanced specification, and that the vehicle should be mounted on a high-speed vehicle, the prediction of animal status and direction of movement should be made as fast as possible. Need to be minimized.

본 발명이 해결하려는 과제는, 운행하는 차량의 전방에 위치한 대상물이 동물인지 여부에 대한 인식이 최소한의 알고리듬을 통해 빠른 순간 안에 이루어질 수 있도록 하는 동물 인식 시스템 및 방법을 제공하는 것이다. It is an object of the present invention to provide an animal recognition system and method that enables recognition of whether an object located in front of a driving vehicle is an animal in a quick moment through a minimum algorithm.

본 발명이 해결하려는 다른 과제는, 운행하는 차량의 전방에 위치한 대상물이 동물이라고 판단될 경우 상기 동물의 향후 이동 방향에 대한 예측이 최소한의 알고리듬을 통해 빠른 순간 안에 이루어질 수 있도록 하는 동물 인식 시스템 및 방법을 제공하는 것이다.Another problem to be solved by the present invention is an animal recognition system and method for predicting the future direction of movement of the animal when it is determined that the object located in front of the driving vehicle is an animal in a short time through a minimum algorithm. To provide.

본 발명이 해결하려는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 동물 인식 방법의 일 태양은 촬영된 영상 내에 촬영된 대상물이 존재하는 위치인, 대상물 영역을 추출하는 단계, 상기 대상물 영역을 좌우 및 상하로 분할하여, 4분할 영역을 설정하는 단계, 상기 촬영된 대상물의 하나 이상의 말단점을 검출하는 단계, 및 상기 말단점이 상기 4분할 영역에 위치하는 패턴에 따라, 상기 대상물이 동물인지를 판단하는 단계를 포함한다. One aspect of the animal recognition method of the present invention for solving the above problems is the step of extracting the object region, which is the position where the photographed object exists in the photographed image, by dividing the object region to the left and right and up and down, a quadrant region Setting a step, detecting at least one end point of the photographed object, and determining whether the object is an animal according to a pattern in which the end point is located in the quadrant region.

상기 과제를 해결하기 위한 본 발명의 동물 인식 장치의 일 태양은 촬영된 영상 내에 촬영된 대상물이 존재하는 위치인, 대상물 영역을 추출하는 대상물 영역 추출부, 상기 대상물 영역을 좌우 및 상하로 분할하여, 4분할 영역을 설정하는 4분할 영역 설정부, 상기 촬영된 대상물의 하나 이상의 말단점을 검출하는 말단점 추출부, 및 상기 말단점이 상기 4분할 영역에 위치하는 패턴에 따라, 상기 대상물이 동물인지 판단하는 판단부를 포함한다. One aspect of the animal recognition device of the present invention for solving the above problems is an object region extraction unit for extracting an object region, which is a position where a photographed object exists in the photographed image, by dividing the object region left and right and up and down, According to the pattern of 4 division region setting unit for setting the 4 division region, the end point extraction unit for detecting one or more end points of the photographed object, and the end point is located in the 4 division region, it is determined whether the object is an animal It includes a determination unit.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명으로 인하여, 운행하는 차량의 전방에 위치한 대상물이 동물인지 여부에 대한 인식 및 운행하는 차량의 전방에 위치한 대상물이 동물이라고 판단될 경우 상기 동물의 이후 이동 방향에 대한 예측이 최소한의 알고리듬을 통해 빠른 순간 안에 이루어질 수 있게 됨으로써, 로드킬로 인한 차량 사고를 방지할 수 있다. Due to the present invention, if it is determined that the object located in front of the running vehicle is an animal and the object located in front of the running vehicle is determined to be an animal, the prediction about the future direction of movement of the animal is performed through a minimum algorithm. By being able to do it in a short time, it is possible to prevent vehicle accidents caused by road kills.

도 1은 촬영된 영상 내에서 추출될 대상물 영역을 보여주는 실시예이다.
도 2는 본 발명인 추출된 대상물 영역 내의 대상물에 대한 3개의 말단점을 검출하는 과정을 보여주는 실시예이다.
도 3은 본 발명인 추출된 대상물 영역 내의 대상물에 대한 3개의 말단점을 검출하는 과정을 보여주는 실시예이다.
도 4는 본 발명인 4분할된 대상물 영역 및 말단점의 위치를 토대로 하여 대상물의 좌, 우 이동 방향을 예측하는 과정을 보여주는 실시예이다.
도 5는 본 발명인 4분할된 대상물 영역 및 말단점의 위치를 토대로 하여 대상물의 좌, 우 이동 방향을 예측하는 과정을 보여주는 실시예이다.
도 6은 본 발명인 전방향 또는 후방향을 향하는 대상물에 대한 파악을 위해 추출된 대상물 영역 내의 대상물에 대한 4개의 말단점을 검출하는 과정을 보여주는 실시예이다.
도 7은 본 발명인 전방향 또는 후방향을 향하는 대상물에 대한 파악을 위해 추출된 대상물 영역 내의 대상물에 대한 3개의 말단점을 검출하는 과정을 보여주는 실시예이다.
도 8은 본 발명인 4분할된 대상물 영역 및 말단점의 위치를 토대로 하여 대상물의 전, 후 이동 방향을 예측하는 과정을 보여주는 실시예이다.
도 9는 본 발명인 4분할된 대상물 영역 및 말단점의 위치를 토대로 하여 대상물의 전, 후 이동 방향을 예측하는 과정을 보여주는 실시예이다.
도 10은 본 발명인 정지된 대상물에 대한 파악을 위해 추출된 대상물 영역 내의 대상물에 대한 말단점을 검출하는 과정을 보여주는 실시예이다.
도 11은 본 발명인 4분할된 대상물 영역 및 말단점의 위치를 토대로 하여 대상물의 정지 상황을 예측하는 과정을 보여주는 실시예이다.
도 12는 본 발명인 동물 감지 시스템의 일 실시예이다.
도 13은 본 발명인 동물 감지 방법의 일 실시예의 흐름도이다.
도 14는 도 13의 S1360 과정을 구체적으로 설명하는 흐름도이다.
1 illustrates an example of an object region to be extracted in a captured image.
Figure 2 is an embodiment showing a process for detecting the three end points for the object in the extracted object region of the present inventors.
Figure 3 is an embodiment showing a process of detecting the three end points for the object in the extracted object region of the present inventors.
Figure 4 is an embodiment showing a process of estimating the left and right moving direction of the object based on the location of the four-divided object region and the end point of the present invention.
FIG. 5 is an embodiment illustrating a process of predicting left and right moving directions of an object based on the positions of the quadrant object region and the end point of the present invention.
Figure 6 is an embodiment showing a process of detecting the four end points for the object in the extracted object region for grasping the object in the forward or backward direction of the present invention.
7 is an embodiment showing a process of detecting the three end points for the object in the extracted object region for grasping the object in the forward or backward direction of the present invention.
8 is an embodiment showing a process of predicting the moving direction of the front and back of the object based on the location of the four-divided object region and the end point of the present invention.
9 is an embodiment showing a process of predicting the moving direction of the front and rear of the object based on the location of the quadrant object region and the end point of the present invention.
FIG. 10 is an embodiment illustrating a process of detecting an end point of an object in an extracted object area for grasping a still object of the present invention.
FIG. 11 is an embodiment illustrating a process of predicting a stationary state of an object based on the location of the quadrant object region and the end point of the present invention.
12 is an embodiment of the animal detection system of the present invention.
Figure 13 is a flow chart of one embodiment of the present invention animal detection method.
FIG. 14 is a flowchart specifically describing an operation S1360 of FIG. 13.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used in a sense that can be commonly understood by those skilled in the art. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

도 1은 촬영된 영상 내에서 추출될 대상물 영역을 보여주는 실시예이고, 도 2와 도 3은 추출된 대상물 영역 내의 대상물에 대한 3개의 말단점을 검출하는 과정을 보여주는 실시예이다. 그리고 도 13은 본 발명인 동물 감지 방법 일 실시예의 흐름도이다. 1 is an embodiment illustrating an object region to be extracted in a captured image, and FIGS. 2 and 3 are embodiments illustrating a process of detecting three end points of an object in an extracted object region. And Figure 13 is a flow diagram of an embodiment of the animal detection method of the present invention.

도 1은 주간 혹은 야간에 운행하는 차량의 전방을 촬영하여 얻어지는 영상을 나타낸다. 이러한 촬영은 차량에 장착된 램프로부터 소정 주파수의 광을 조사한 후, 상기 광이 대상물에 반사되어 비춰지는 모습을 카메라로 촬영하게 되는데(도 13의 단계 S1310), 이 때 소정 주파수의 광은 적외선일 수 있고, 이 중 특히 근적외선일 수 있다. 1 is a view showing an image obtained by photographing the front of a vehicle running during the day or night. In this shooting, after irradiating light of a predetermined frequency from a lamp mounted on a vehicle, the light is reflected by an object and photographed by a camera (step S1310 of FIG. 13), wherein the light of the predetermined frequency is infrared light. And especially near-infrared.

다음으로, 촬영된 영상을 이진화하여 이진화 영상을 획득한다(도 13의 단계 S1315). 이진화(binarization) 영상의 모든 픽셀은 오직 흑과 백으로만 표시된다. 이를 위한 기준으로 소정 임계값을 기초로 낮은 값을 가지는 픽셀은 흑으로, 높은 값을 가지는 픽셀은 백으로 표현할 수 있다. 상기 소정 임계값은, 모든 픽셀들의 밝기 값의 평균을 이용하거나 iterative selection, tow peak 방법 등 여러 가지 방법을 사용할 수 있다. 또는 사용자가 직접 임계값을 정하여 사용할 수도 있다. Next, the captured image is binarized to obtain a binarized image (step S1315 of FIG. 13). All pixels of the binarization image are displayed in black and white only. As a reference for this, a pixel having a low value may be expressed in black and a pixel having a high value may be expressed in white based on a predetermined threshold value. The predetermined threshold value may use various methods such as an average of brightness values of all pixels or an iterative selection and a tow peak method. Alternatively, the user may set and use a threshold value.

또한, 이진화 영상에 대해 침식(erosion)과 팽창(dilation) 연산을 수행하여 이진화 영상의 노이즈를 제거한다. 즉, 침식 연산을 통해 피사체 영역에 대해 배경 영역을 확장시키고 피사체의 크기를 축소하여 피사체 영역 주변의 노이즈 성분을 제거 혹은 축소한다. 그리고 작아진 피사체 이미지의 크기를 복원하기 위해 팽창 연산을 통해 피사체의 크기를 확장하고 배경은 축소한다. In addition, erosion and dilation operations are performed on the binarized image to remove noise of the binarized image. That is, the background region is extended with respect to the subject area through erosion, and the size of the subject is reduced to remove or reduce noise components around the subject area. In order to restore the size of the smaller subject image, the subject is expanded and the background is reduced through the expansion operation.

이러한 과정을 통해 도 1에서는 촬영된 대상물이 2 개(102, 103)가 존재하는 예를 보여주고 있다. 이렇게 촬영된 대상물은 도 1에서 볼 수 있는 바와 같이 주변에 비하여 높은 휘도를 가진 영역(107, 108)으로 표시된다. 이렇게 주변과 구별되는 고휘도 영역을 추출한다(도 13의 단계 S1320). 이렇게 추출된 영역을 이하에서는 대상물 영역이라 칭하기로 한다. Through this process, FIG. 1 shows an example in which two objects 102 and 103 are photographed. The object photographed in this way is represented by regions 107 and 108 having a higher luminance than the surroundings as shown in FIG. 1. In this way, the high brightness region distinguished from the surroundings is extracted (step S1320 of FIG. 13). The region thus extracted is hereinafter referred to as an object region.

본 발명의 일 실시예로서, 대상물 영역(107, 108)은 도 1에서와 같이 직사각형의 형태로 추출될 수 있다. 고휘도의 픽셀과 저휘도의 픽셀이 서로 근접해 있는 지점이 대상물의 형상을 나타내는 경계선으로 파악될 것이다. 여기에서, 이러한 경계선과 접하는 세로 및 가로선들 중 최외곽 직선들끼리 접한 지점을 네 꼭지점으로 하는 직사각형을 대상물 영역으로 추출하거나, 또는 이 직사각형 영역보다 상하, 좌우로 약간의 여유 공간을 더 포함하는 직사각형을 대상물 영역으로 추출할 수도 있을 것이다. 도 2와 도 3에서의 오른 쪽 그림은 이렇게 추출된 대상물 영역(206, 306)을 나타낸다. As an embodiment of the present invention, the object regions 107 and 108 may be extracted in the form of rectangles as shown in FIG. 1. The point where the high luminance pixel and the low luminance pixel are close to each other will be identified as a boundary line representing the shape of the object. Here, a rectangle including four vertices of the vertical and horizontal lines in contact with the boundary lines as the vertices of the vertices is extracted into the object area, or a rectangle further includes some free space up, down, left and right than the rectangular area. May be extracted to the object area. 2 and 3 show the object regions 206 and 306 thus extracted.

다음으로, 대상물 영역 내의 대상물의 말단점을 검출한다(도 13의 S1330). 말단점을 검출하기 위해 도 2와 도 3의 오른 쪽 그림에서와 같은 대상물 영역 내의 대상물(201, 301)의 형상 특성을 가지는 선 형상(202, 302)을 취득한다. 취득된 선 형상(202, 302) 상에 존재하는 어떠한 픽셀을 둘러싸는 8개의 픽셀 안에, 선 형상의 다른 점이 1개만 포함되어 있는 경우라면, 이 점은 이 대상물의 말단점으로 파악할 수 있을 것이다. Next, the end point of the object in the object area is detected (S1330 in Fig. 13). In order to detect the end point, line shapes 202 and 302 having the shape characteristics of the objects 201 and 301 in the object area as shown in the right picture of Figs. If only one other point of the linear shape is included in the eight pixels surrounding any pixel existing on the acquired linear shapes 202 and 302, this point may be regarded as the end point of the object.

본 발명의 일 실시예에서, 이러한 말단점은 원칙적으로 3개로 할 수 있다. 차량에 탑재되는 CPU는 판매가를 고려할 때 고급 사양이 아닌 것을 사용할 수가 있을 것이며, 더 나아가 고속으로 달리는 차량에 탑재되어 빠른 판단을 통해 사고를 예방하기 위해서는 최소한의 알고리듬을 통해 CPU의 연산 시간을 최소화할 필요가 있다. 따라서, 가능한 한 말단점의 개수를 줄일수록 사고 예상의 효과를 극대화할 수가 있는 것이다. In one embodiment of the invention, these end points can in principle be three. The CPU installed in the vehicle may use a non-high-end specification in consideration of the selling price. Furthermore, in order to prevent an accident through quick judgment because it is mounted in a vehicle that runs at high speed, a minimum algorithm may minimize the computation time of the CPU. There is a need. Therefore, reducing the number of endpoints as much as possible can maximize the effect of accident prediction.

본 발명에서 원칙으로 하는 3개의 말단점은, 도 2 및 도 3에서 볼 수 있듯이, 각각 동물의 머리를 나타내는 제1 말단점(205, 305)과, 측방향에서 볼 때의 다리를 나타내는 제2 및 제3 말단점(203과 204, 303과 304)을 포함하는 것으로 한다. The three end points made in principle in the present invention, as shown in Figs. 2 and 3, respectively, are the first end points 205 and 305 representing the head of the animal and the second points representing the leg in the lateral view. And third end points 203 and 204 and 303 and 304.

네 발 동물에 대한 식별을 위해, 본 발명에서 다리를 나타내는 말단점을 네 개가 아닌 이와 같이 두 개로 설정하는 이유는, 이미 언급하였듯이, 알고리듬을 최소화하여 빠른 판단을 통한 사고 예방 조치의 효과를 높일 수 있기 때문이다. In order to identify four-legged animals, the reason why the end points representing the legs are set to two instead of four in the present invention is that, as mentioned above, the algorithm can be minimized to increase the effectiveness of accident prevention measures through quick judgment. Because there is.

다음으로, 촬영된 대상물 영역을 좌우 및 상하로 분할하여, 4분할 영역을 설정한다(도 13의 S1340). 이렇게 4분할 영역을 설정하는 이유는 말단점들이 4분할 영역에 위치하는 패턴에 따라, 대상물이 동물인지 여부 및 대상물의 이동 방향을 예상하기 위함이다. Next, the photographed object area is divided into left and right and up and down to set a quadrant area (S1340 in FIG. 13). The reason for setting the quadrant is to predict whether the object is an animal and the direction of movement of the object according to the pattern in which the end points are located in the quadrant.

다만, 도 13에서는 대상물의 말단점을 검출(S1330)한 다음에 대상물 영역을 4분할하여 4분할 영역을 설정(S1340)하는 것으로 설명하고 있으나, 이 두 단계의 순서는 서로 뒤바뀌어도 상관이 없다. 즉, 대상물 영역의 4분할 영역을 설정한 이후에, 대상물의 말단점을 검출하여도 무관하다. In FIG. 13, the end point of the object is detected (S1330), and the object area is divided into four to set up a four-division area (S1340). However, the order of these two steps may be reversed. That is, the end point of the object may be detected after setting the quadrant region of the object area.

도 4와 도 5는 본 발명인 4분할된 대상물 영역 및 말단점의 위치를 토대로 하여 대상물의 좌, 우 이동 방향을 예측하는 과정을 보여주는 실시예이다.4 and 5 are exemplary embodiments illustrating a process of predicting left and right moving directions of an object based on the positions of the quadrant object region and the end point of the present invention.

먼저 도 4는 도 2에서와 같이 추출된 말단점들(203 내지 205)이 4분할 영역들 중 일정 영역에 위치하는 모습을 보여주고 있고, 도 5는 도 3에서와 같이 추출된 말단점들(303 내지 305)이 4분할 영역들 중 일정 영역에 위치하는 모습을 보여주고 있다. First, as shown in FIG. 2, the extracted end points 203 to 205 are located in a predetermined region among the four divided regions, and FIG. 5 shows the extracted end points (as shown in FIG. 3). 303 to 305 are located in a predetermined region among the four divided regions.

설명을 위해, 4분할 영역 각각에 대한 명칭으로서, 4분할 영역 중 상측의 좌, 우 두 영역을 각각 제1 영역과 제2 영역이라 하고, 상기 4분할 영역 중 하측의 좌, 우 두 영역을 각각 제3 영역과 제4 영역이라 하기로 한다. For explanation, as a name for each of the four divided regions, the upper left and right two regions of the four divided regions are called the first region and the second region, respectively, and the lower left and right regions of the four divided regions are respectively referred to. This is referred to as a third region and a fourth region.

제2 및 제3 말단점이 제3 영역 및 제4 영역에 하나씩 존재하고 있고, 제1 말단점이 제1 영역 또는 제2 영역 중 어느 하나에 존재하고 있는 경우에는 이 대상물을 측면으로 서 있는 동물이라고 판단할 수 있다(도 13의 S1350). When the 2nd and 3rd end points exist one by one in the 3rd area | region and the 4th area | region, and the 1st end point exists in either one of a 1st area | region or a 2nd area | region, it is judged that this object is an animal standing sideways. (S1350 of FIG. 13).

더 나아가, 제1 말단점이 도 5에서와 같이, 제1 영역에 위치할 경우 상기 대상물이 현재 좌측으로 이동하고 있는 도중이거나, 혹은 정지해 있다고 하더라도 추후 어느 순간에서라도 이 동물이 좌측으로 갑작스럽게 튀어 이동할 가능성이 있는 것으로 판단할 수 있다. 즉, 제1 말단점이 제1 영역에 위치할 경우 상기 대상물의 실제 또는 잠정적인 이동 방향을 좌방향으로 예상한다(도 13의 S1360). Furthermore, when the first end point is located in the first region as shown in FIG. 5, the animal may suddenly jump to the left at any moment in the future, even if the object is currently moving to the left or is stationary. It can be judged that there is a possibility. That is, when the first end point is located in the first region, the actual or tentative movement direction of the object is anticipated to the left (S1360 in FIG. 13).

또한, 제1 말단점이 도 4에서와 같이, 제2 영역에 위치할 경우 상기 대상물이 현재 우측으로 이동하고 있는 도중이거나, 혹은 정지해 있다고 하더라도 추후 어느 순간에서라도 이 동물이 우측으로 갑작스럽게 튀어 이동할 가능성이 있는 것으로 판단할 수 있다. 즉, 제1 말단점이 제2 영역에 위치할 경우 상기 대상물의 실제 또는 잠정적인 이동 방향을 우방향으로 예상한다(도 13의 S1360). 그리고 대상물이 존재하는 위치 및 이동 방향에 대한 예상을 토대로 하여 운전자에게 여러 단계의 경고 이벤트를 발생할 수 있다(도 13의 S1370).In addition, when the first end point is located in the second region as shown in FIG. 4, even if the object is currently moving to the right or stopped, the animal may suddenly jump to the right at any moment in the future. You can judge that there is. That is, when the first end point is located in the second region, the actual or potential moving direction of the object is predicted in the right direction (S1360 of FIG. 13). The driver may generate a warning event of various stages based on the prediction about the position and the moving direction in which the object exists (S1370 of FIG. 13).

도 6과 도 7은 각각 본 발명인 전방향 또는 후방향을 향하는 대상물에 대한 파악을 위해 추출된 대상물 영역 내의 대상물에 대한 4개 또는 3개의 말단점을 검출하는 과정을 보여주는 그림이다. 도 8과 도 9는 본 발명인 4분할된 대상물 영역 및 말단점의 위치를 토대로 하여 대상물의 전, 후 이동 방향을 예측하는 과정을 보여주는 그림이다.6 and 7 are diagrams illustrating a process of detecting four or three end points of an object in the extracted object region to identify an object facing forward or backward, respectively. 8 and 9 are diagrams showing a process of predicting the moving direction of the front and rear of the object on the basis of the location of the quadrant object region and the end point of the present invention.

본 발명은 대상물의 좌, 우 방향 예측에 더하여 전, 후 방향에 대한 예측에 대한 실시예를 제공한다. 여기에서도 촬영 및 4분할 영역으로의 분할에 대한 설명은 도 2 내지 도 5에서 설명한 바와 같으므로 설명을 생략하도록 한다. 다만, 말단점은 도 7과 같이 3개로 나타날 수도 있고 도 6과 같이 4개로 나타날 수도 있다. 일반적인 경우는 말단점이 도 7과 같이 3개로 나타날 수 있을 것이나, 예를 들어 일부 사슴과 동물과 같이 뿔이 있는 경우에는 도 6과 같이 4개로 나타날 수도 있다. 다만, 4개로 나타나는 경우는 예외적인 경우로 볼 수도 있는데, 그 이유는, 추출되는 대상물 영역 내의 대상물은 통상적으로, 주행하는 차량으로부터 원거리에 위치해 있기 때문에, 두 갈래의 뿔이 명확하게 구분되지 않은 채로 촬영될 수가 있고, 이 경우에는 머리를 나타내는 하나의 말단점만이 검출될 것이기 때문이다. The present invention provides an embodiment for predicting forward and backward directions in addition to predicting left and right directions of an object. Here, the descriptions of the photographing and the division into the four divided regions are the same as those described with reference to FIGS. 2 to 5, and thus descriptions thereof will be omitted. However, the endpoint may be represented as three as shown in Figure 7 or may be shown as four as shown in FIG. In a general case, three end points may appear as shown in FIG. 7, but, for example, when there are horns such as some deer and animals, four end points may appear as shown in FIG. 6. However, the case of four may be considered as an exceptional case, because the object in the object area to be extracted is usually located at a distance from the driving vehicle, so that the two horns are not clearly distinguished. This can be taken, in which case only one endpoint representing the head will be detected.

만약, 3개 또는 4개의 말단점들 중 두 개가 각각 상기 제3 영역과 상기 제4 영역에 하나씩 위치하고 있고, 나머지 하나 또는 두 개의 말단점이 상기 제1 영역과 상기 제2 영역의 경계선 또는 경계선으로부터 소정 거리 내에 위치하는 경우에는, 상기 대상물을 전방향 또는 후방향을 향하는 네발 동물로 판단할 수 있다. If two of the three or four end points are located in the third area and the fourth area, respectively, and one or two end points are predetermined from the boundary or boundary line between the first area and the second area. When located within a distance, the object can be determined to be a four-legged animal facing forward or backward.

도 8과 도 9를 통해 구체적으로 설명하면, 본 명세서 제시하는 일 실시예로서, 제1 영역과 제2 영역 이외에 새로운 영역을 하나 더 추가하여 분할할 수 있을 것이다. 즉, 원래의 제1 및 제2 영역의 경계선 및 이 경계선으로부터 좌, 우 방향으로 일정 거리를 설정하여, 도 8과 도 9에서와 같이 이 일정 거리 내에 나머지 하나 또는 두 개의 말단점이 위치하는 경우에는, 이 대상물을 전방향 또는 후방향을 향하는 네 발 동물로 판단하는 것이다. 8 and 9, as an embodiment of the present disclosure, a new region may be added and divided in addition to the first region and the second region. That is, when a boundary line of the original first and second regions and a predetermined distance are set in the left and right directions from the boundary line, the remaining one or two end points are located within this predetermined distance as shown in FIGS. 8 and 9. The object is judged as a four-legged animal facing forward or backward.

도 2내지 도 5에서 동물이 좌방향 또는 우방향으로 이동하거나 혹은 이동이 예상되는 경우에 비하여, 도 6내지 도 9에서와 같이 전, 후방항으로 이동하고 있거나 혹은 이동이 예상되는 경우가 운전자에게는 상대적으로 한 단계 낮은 위험이라고 여겨진다고 볼 수도 있으나, 사람이 비하여 동물의 이동 방향 전환이 주변 상황에 대한 파악 없이 매우 순식간에 이루어진다는 점을 고려한다면, 역시 운전자에게 위험 요소가 존재함을 알릴 필요성이 여전히 존재한다. Compared to the case in which the animal moves in the left or right direction in FIG. 2 to FIG. 2 or the movement is expected, the driver may move to the front or rear term as in FIGS. It may be considered as a relatively low risk, but considering that the change of direction of movement of animals is very quick compared to humans, it is also necessary to inform the driver that there is a risk. Still exists.

도 10은 본 발명인 정지된 대상물에 대한 파악을 위해 추출된 대상물 영역 내의 대상물에 대한 말단점을 검출하는 과정을 보여주는 그림이고, 도 11은 본 발명인 4분할된 대상물 영역 및 말단점의 위치를 토대로 하여 대상물의 정지 상황을 예측하는 과정을 설명하기 위한 그림이다.FIG. 10 is a diagram illustrating a process of detecting an end point of an object in an object region extracted for grasp of the stationary object of the present invention, and FIG. 11 is based on the location of the quadrant object region and the end point of the present invention. It is a figure to explain the process of predicting the stationary state of an object.

도 10의 오른쪽 그림과 같이 동물이 앉아 있는 경우에는 다리를 나타내는 말단점이 검출되지 않는다. 따라서, 도 11과 같이 4분할 영역 중 제3 영역 및 제4 영역에는 말단점이 존재하지 않고, 도 11과 같이 제1 영역 또는 제2 영역에 말단점이 두 개가 존재하거나 혹은, 뿔이 없는 동물의 경우 말단점이 하나만 존재(미도시)할 수 있다. 즉, 휘도가 높아 대상물 영역으로 추출이 되었으나, 검출된 말단점이 제3 또는 제4 영역에 존재하지 않는 경우에는 앉아 있는 동물로 판단하도록 한다. 이 경우, 비록 다리를 나타내는 말단점이 표시가 되지는 않으나, 운전자에 재확인이 가능하도록 필요에 따라, 디스플레이부(도 12의 1230)를 통해에 동물의 몸체를 나타내는 영역(도 10의 1001)을 표시할 수도 있다. When the animal is sitting as shown in the right figure of FIG. 10, the end point representing the leg is not detected. Accordingly, as shown in FIG. 11, there are no end points in the third and fourth regions of the four-divided region, and two end points exist in the first region or the second region as illustrated in FIG. 11, or when the animal has no horns. Only one endpoint may be present (not shown). That is, although the luminance is extracted to the object region because the brightness is high, if the detected end point does not exist in the third or fourth region, it is determined as a sitting animal. In this case, although the end point indicating the leg is not displayed, an area (1001 of FIG. 10) representing the body of the animal is displayed on the display unit 1230 of FIG. 12 as needed so that the driver can reconfirm. You may.

도 12는 본 발명인 동물 감지 시스템의 일 실시예이다. 본 발명인 동물 감지 시스템은 이진화 영상 획득부(1105), 대상물 영역 추출부(1110), 4분할 영역 설정부(1120), 말단점 추출부(1130), 판단부(1140)를 포함하고, 제어부(1150), 경고부(1150)를 더 포함할 수 있으며, 이에 더하여 대상물을 촬영하기 위해 램프(1210)와 카메라(1220)를 포함하는 촬영부(1200)와 디스플레이부(1230)를 더 포함할 수 있다. 12 is an embodiment of the animal detection system of the present invention. The animal detection system of the present invention includes a binarization image acquisition unit 1105, an object region extraction unit 1110, a four-division region setting unit 1120, an end point extraction unit 1130, the determination unit 1140, the control unit ( 1150, and a warning unit 1150, and may further include a photographing unit 1200 and a display unit 1230 including a lamp 1210 and a camera 1220 to photograph an object. have.

촬영부(1200)의 램프(1210)는 촬영을 위해 소정 주파수의 광을 차량의 이동 방향을 향해 조사하는데, 이 소정 주파수의 광은 적외선일 수 있고, 이 중 특히 근적외선일 수 있다. 카메라(1220)는 상기 광이 대상물에 반사되어 비춰지는 모습을 촬영하여 촬영된 결과를 이진화 영상 획득부(1105)에 전달한다. The lamp 1210 of the photographing unit 1200 irradiates light of a predetermined frequency toward the moving direction of the vehicle for photographing, and the light of the predetermined frequency may be infrared rays, particularly near infrared rays. The camera 1220 photographs a state in which the light is reflected by the object and transmits the photographed result to the binarization image acquisition unit 1105.

이진화 영상 획득부(1105)는 촬영된 영상을 이진화하여 이진화 영상을 획득한다. 이진화(binarization) 영상의 모든 픽셀은 오직 흑과 백으로만 표시된다. 이를 위한 기준으로 소정 임계값을 기초로 낮은 값을 가지는 픽셀은 흑으로, 높은 값을 가지는 픽셀은 백으로 표현할 수 있다. 상기 소정 임계값은, 모든 픽셀들의 밝기 값의 평균을 이용하거나 iterative selection, tow peak 방법 등 여러 가지 방법을 사용할 수 있다. 또는 사용자가 직접 임계값을 정하여 사용할 수도 있다. The binarization image acquisition unit 1105 obtains the binarization image by binarizing the photographed image. All pixels of the binarization image are displayed in black and white only. As a reference for this, a pixel having a low value may be expressed in black and a pixel having a high value may be expressed in white based on a predetermined threshold value. The predetermined threshold value may use various methods such as an average of brightness values of all pixels or an iterative selection and a tow peak method. Alternatively, the user may set and use a threshold value.

또한, 이진화 영상 획득부(1105)는 이진화 영상에 대해 침식(erosion)과 팽창(dilation) 연산을 수행하여 이진화 영상의 노이즈를 제거한다. 즉, 침식 연산을 통해 피사체 영역에 대해 배경 영역을 확장시키고 피사체의 크기를 축소하여 피사체 영역 주변의 노이즈 성분을 제거 혹은 축소한다. 그리고 작아진 피사체 이미지의 크기를 복원하기 위해 팽창 연산을 통해 피사체의 크기를 확장하고 배경은 축소한다.In addition, the binarization image acquisition unit 1105 removes noise of the binarization image by performing erosion and dilation operations on the binarization image. That is, the background region is extended with respect to the subject area through erosion, and the size of the subject is reduced to remove or reduce noise components around the subject area. In order to restore the size of the smaller subject image, the subject is expanded and the background is reduced through the expansion operation.

대상물 영역 추출부(1110)는 이진화 영상 획득부(1105)에 의해 획득된 이진회 영상을 토대로 하여, 도 1에서 설명한 바와 같이, 직사각형의 형태로 대상물 영역을 추출할 수 있다. 고휘도의 픽셀과 저휘도의 픽셀이 서로 근접해 있는 지점이 대상물의 형상을 나타내는 경계선으로 파악하고, 이 경계선과 접하는 세로 및 가로선들 중 최외곽 직선들끼리 접한 지점을 네 꼭지점으로 하는 직사각형을 대상물 영역으로 추출하거나, 또는 이 직사각형 영역보다 상하, 좌우로 약간의 여유 공간을 더 포함하는 직사각형을 대상물 영역으로 추출할 수도 있다. 추출된 대상물 영역은 4분할 영역 설정부(1120)와 말단점 추출부(1130)으로 전송된다. The object region extractor 1110 may extract the object region in the form of a rectangle, as described with reference to FIG. 1, based on the binary image obtained by the binarization image acquirer 1105. The point where the pixels of high brightness and pixels of low brightness are close to each other is identified as the boundary line representing the shape of the object, and the rectangle whose four vertices are the points where the outermost straight lines among the vertical and horizontal lines that contact the boundary line are the four vertices as the object area. Alternatively, a rectangle may further be extracted as the object region, which further includes some free space on the upper, lower, left and right sides of the rectangular region. The extracted object region is transmitted to the four division region setting unit 1120 and the endpoint extraction unit 1130.

4분할 영역 설정부(1120)는 상기 대상물 영역을 상하, 좌우로 4분할한다. 이 4분할된 영역을 통해 추후 판단부(1140)에서는 대상물에 대한 식별 및 이동 방향에 대한 예상을 수행하게 된다. The four division region setting unit 1120 divides the object region into four vertical sections. Through the four divided areas, the determination unit 1140 later performs identification on the object and the prediction of the moving direction.

말단점 추출부(1130)는 대상물 영역 내의 대상물의 말단점을 검출한다. 말단점을 검출하기 위해 도 2와 도 3이 오른 쪽 그림에서와 같은 대상물 영역 내의 대상물(201, 301)의 형상 특성을 가지는 선 형상(202, 302)을 취득한 다음, 취득된 선 형상(202, 302) 상에 존재하는 어떠한 픽셀을 둘러싸는 8개의 픽셀 안에, 선 형상의 다른 점이 1개만 포함되어 있는 경우라면, 이 점은 이 대상물의 말단점으로 파악할 수 있을 것이다. 그리고, 본 발명의 일 실시예에서, 이러한 말단점은 원칙적으로 3개로 할 것이나, 대상물의 형태에 따라 1개, 2개 또는 4개가 될 수도 있다. The endpoint extractor 1130 detects an endpoint of the object in the object region. In order to detect the end point, the linear shapes 202 and 302 having the shape characteristics of the objects 201 and 301 in the object area as shown in the right figure of Figs. If the eight pixels surrounding any pixel present on 302 contain only one other point in the line shape, this point may be regarded as the end point of the object. And, in one embodiment of the present invention, these end points will be three in principle, but may be one, two or four, depending on the shape of the object.

판단부(1140)는 4분할된 영역 내에 말단점들이 존재하는 위치를 통하여 이 대상물이 동물인지 여부와, 좌, 우 또는 전, 후 방향으로의 이동 여부 및, 이동 방향, 이동 예상 방향을 판단하여 제어부(1140)에 전달한다. 구체적인 판단 방법은 도 2 내지 도 11에 대한 설명을 통해 전술하였으므로 여기에서는 설명을 생략하도록 한다. The determination unit 1140 determines whether the object is an animal, whether the object moves in the left, right, or forward and backward directions, the moving direction, and the expected movement direction through the positions where the end points exist in the divided region. Transfer to control unit 1140. Since a detailed determination method has been described above with reference to FIGS. 2 through 11, a description thereof will be omitted.

제어부(1140)는 판단부(1140)을 통해 전달받은 판단 결과를 토대로 하여 운전자에게 어떤 수준의 경고를 발할 것인지 판단하여 경고부(1160)에 전달한다. 한편, 도 12 및 이에 대한 설명에서는 판단부와 제어부를 별개로 표시하여 설명하였으나, 판단부와 제어부가 하나의 구성요소로 이루어져 위와 같은 기능들을 수행할 수도 있을 것이다. The controller 1140 determines the level of warning to be issued to the driver based on the determination result received through the determination unit 1140 and transmits the warning to the warning unit 1160. Meanwhile, in FIG. 12 and the description thereof, the determination unit and the control unit are separately displayed and described, but the determination unit and the control unit may be configured as one component to perform the above functions.

경고부(1160)는 제어부에 의해 판단된 위험의 정도에 따라, 운전자에게 경고 이벤트를 발생시키며, 이러한 경고 이벤트에는 위험의 정도에 따라 서로 다른 강도의 시각적 경고, 서로 다른 음량의 음성 경고 및 자동 제동 수행 등을 포함할 수 있다. 이 중, 음성 경고는 운전자에게 알리는 소리일 수도 있고, 동물만 반응할 수 있는 주파수 범위대의 음파일 수도 있을 것이다. The warning unit 1160 generates a warning event to the driver according to the degree of danger determined by the control unit, and the warning event includes a visual warning of different intensities, a voice warning of different volumes, and automatic braking according to the degree of danger. Performance and the like. Among these, the voice alert may be a sound for notifying the driver, or a sound file in a frequency range in which only an animal can respond.

디스플레이부(1230)는 촬영된 영상을 그대로 운전자가 볼 수 있도록 한다. 디스플레이부는 입력된 영상 신호를 디스플레이할 수 있는 음극선관(CRT, Cathode Ray Tube), 액정 화면(LCD, Liquid Crystal Display), 발광 다이오드(LED, Light-Emitting Diode), 유기 발광 다이오드(OLED, Organic Light-Emitting Diode) 또는 플라즈마 디스플레이(PDP, Plasma Display Panel) 등의 영상 표시 수단이 구비된 모듈로서 전달 받은 영상 정보를 디스플레이하는 역할을 한다. The display unit 1230 allows the driver to see the captured image as it is. The display unit displays a cathode ray tube (CRT), a liquid crystal display (LCD), a light-emitting diode (LED), and an organic light emitting diode (OLED) capable of displaying an input image signal. -A module having an image display means such as an emitting diode (PDP) or a plasma display panel (PDP), and serves to display the received image information.

지금까지 도 12의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.Until now, each component of FIG. 12 may refer to software or hardware such as a field-programmable gate array (FPGA) or an application-specific integrated circuit (ASIC). However, the components are not limited to software or hardware, and may be configured to be in an addressable storage medium and configured to execute one or more processors. The functions provided in the above components may be implemented by more detailed components, or may be implemented as one component that performs a specific function by combining a plurality of components.

도 14는 도 13의 1360 과정을 구체적으로 설명하는 본 발명의 일 실시예에 대한 흐름도이다. 파악된 말단점의 개수가 3개인 경우(S1402), 파악된 3개의 말단점 중 두 개가 4분할된 대상물 영역 중 제3 영역과 제4 영역에 각각 하나씩 존재하는지 판단(S1403)되는 경우에는(Y), 다른 하나의 말단점이 위치하는 지점을 파악한다. 만약 1영역에 존재할 경우(S1406)에는 이 대상물이 우방향으로 현재 이동하고 있거나 혹은 추후 이동할 것으로 예상하고(S1407), 만약 2영역에 존재할 경우(S1408)에는 이 대상물이 우방향으로 현재 이동하고 있거나 혹은 추후 이동할 것으로 예상한다(S1409). 만약 제1 영역과 제2 영역의 경계선상 또는 미리 설정된 경계선으로부터의 일정 거리 내에 포함된 경우에는 이 대상물이 전방향 또는 후방향으로 현재 이동하고 있거나 혹은 추후 이동할 것으로 예상할 수도 있다(S1405).FIG. 14 is a flowchart illustrating an embodiment of the present invention specifically describing operation 1360 of FIG. 13. When the number of the identified endpoints is three (S1402), when it is determined whether two of the three identified endpoints exist in each of the third and fourth regions of the divided object region (S1403) (Y1403) ), Where the other end point is located. If the object is present in area 1 (S1406), the object is currently moving in the right direction or is expected to be moved later (S1407). If the object is present in area 2 (S1408), the object is currently moving in the right direction; Or it is expected to move later (S1409). If the object is included in a predetermined distance from the boundary line between the first region and the second region or within a predetermined boundary line, the object may be currently moving forward or backward or may be expected to move later (S1405).

만약, S1403 단계에서, 3개의 말단점 중 두 개가 4분할된 대상물 영역 중 제3 영역과 제4 영역에 각각 하나씩 존재하지 않는 경우에는(N), 이 대상물이 현재 정지상태인 것으로 파악한다(S1410). If, in step S1403, two of the three end points are not present in each of the third and fourth regions of the object region divided into four (N), it is determined that the object is currently stopped (S1410). ).

S1402 단계에서, 파악된 말단점의 개수가 3개가 아니라(N), 말단점이 4개로 판단되는 경우(S1411의 Y)에도 두 말단점이 3, 4 영역에 각각 존재하는지 판단한 후 나머지 두 말단점이 제1 영역, 제2 영역 또는 1,2 영역 경계선의 일정 범위 내에 존재하는지 여부에 따라 우방향, 좌방향 또는 전, 후방향으로 이동을 예상하는 것은 동일하다. In the step S1402, the number of the identified end points is not three (N), even if it is determined that the four end points (Y in S1411), it is determined whether the two end points are present in the 3, 4 areas, respectively, the remaining two end points are the first It is the same to expect the movement in the right direction, the left direction, or the front and rear directions depending on whether it is within a certain range of the region, the second region or the 1,2 region boundary line.

파악된 말단점의 개수가 3개 또는 4개가 아닌 경우(S1411의 N)에는 말단점이 제3 영역 및 제4 영역에 존재하는지 여부를 판단하여, 존재하지 않을 경우(N) 이 대상물을 정지상태라고 판단한다. If the number of identified endpoints is not three or four (N in S1411), it is determined whether the endpoint exists in the third region and the fourth region, and if it is not present (N), the object is called a stationary state. To judge.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

102, 103, 201, 301: 대상물
107, 108, 206, 306: 대상물 영역
202, 302: 선 형상
203~205, 303~305: 말단점
1105: 이진화 영상 획득부
1110: 대상물 영역 추출부
1120: 4분할 영역 설정부
1130: 말단점 추출부
1140: 판단부 1150: 제어부
1160: 경고부 1210: 램프
1220: 카메라 1230: 디스플레이부
102, 103, 201, 301: object
107, 108, 206, 306: object area
202, 302: line shape
203-205, 303-305: Endpoint
1105: binarization image acquisition unit
1110: object region extraction unit
1120: 4-part division setting unit
1130: endpoint extraction
1140: determination unit 1150: control unit
1160: warning unit 1210: lamp
1220: camera 1230: display unit

Claims (16)

촬영된 영상을 이진화하여 이진화 영상을 획득하는 단계;
상기 획득된 이진화 영상을 기초로 상기 영상에 포함된 대상물의 영역을 추출하는 단계;
상기 대상물로부터 하나 이상의 말단점을 검출하는 단계;
상기 대상물의 영역을 좌우 및 상하로 분할하여, 4분할 영역을 설정하는 단계; 및
상기 말단점이 상기 4분할 영역 중에 위치하는 패턴에 따라, 상기 대상물이 동물인지를 판단하는 단계를 포함하되,
상기 말단점은 상기 대상물의 형상 특성을 갖는 선 형상의 말단점을 의미하는, 동물 감지 방법.
Binarizing the photographed image to obtain a binarized image;
Extracting an area of an object included in the image based on the obtained binarized image;
Detecting one or more endpoints from the object;
Dividing the area of the object into left and right and up and down to set a quadrant area; And
And determining whether the object is an animal according to a pattern in which the endpoint is located in the quadrant region.
The end point means a linear end point having the shape characteristics of the object , animal detection method.
제1항에 있어서,
상기 패턴에 따라 상기 대상물의 이동 방향을 예측하는 단계를 더 포함하는 동물 감지 방법.
The method of claim 1,
And predicting a moving direction of the object according to the pattern.
제1항에 있어서,
상기 말단점은 세 개로서, 각각 제1 내지 제 3 말단점이고, 상기 4분할 영역 중 상측의 좌, 우 두 영역을 각각 제1 영역과 제2 영역이라 하고, 상기 4분할 영역 중 하측의 좌, 우 두 영역을 각각 제3 영역과 제4 영역이라고 할 때,
상기 제1 말단점이 상기 제1 또는 제2 영역 중 어느 하나에 위치하고, 상기 제2 말단점과 상기 제3 말단점이 각각 상기 제3 영역과 상기 제4 영역에 위치하는 경우, 상기 대상물을 동물로 판단하는 동물 감지 방법.
The method of claim 1,
The end points are three, each of the first to third end points, and the upper left and right areas of the four divided areas are called the first area and the second area, respectively, and the lower left, When the two regions are called the third region and the fourth region, respectively,
When the first end point is located in any one of the first or second regions, and the second end point and the third end point are located in the third region and the fourth region, respectively, the object is determined as an animal. How to detect animals.
제3항에 있어서,
상기 제1 말단점이 상기 제1 영역에 위치할 경우 상기 대상물의 이동 방향을 좌방향으로 예측하고,
상기 제1 말단점이 상기 제2 영역에 위치할 경우 상기 대상물의 이동 방향을 우방향으로 예측하는 동물 감지 방법.
The method of claim 3,
When the first end point is located in the first region, the moving direction of the object is predicted to the left,
And detecting the movement direction of the object in the right direction when the first end point is located in the second area.
제1항에 있어서,
상기 대상물의 촬영은, 소정 주파수의 광을 조사한 후, 상기 광이 상기 대상물에 반사되어 비춰지는 모습을 촬영하는 동물 감지 방법.
The method of claim 1,
The photographing of the object, after irradiating light of a predetermined frequency, the animal detection method for photographing the state in which the light is reflected by the object.
제5항에 있어서,
상기 소정 주파수의 광은 근적외선인 동물 감지 방법.
The method of claim 5,
The light of the predetermined frequency is near-infrared animal detection method.
제1항에 있어서,
상기 4분할 영역 중 상측의 좌, 우 두 영역을 각각 제1 영역과 제2 영역이라 하고, 상기 4분할 영역 중 하측의 좌, 우 두 영역을 각각 제3 영역과 제4 영역이라고 할 때,
상기 말단점이 상기 제3 영역 및 제4 영역에 존재하지 않는 경우, 상기 대상물을 앉아 있는 동물로 판단하는 동물 감지 방법.
The method of claim 1,
When the upper left and right areas of the four divided areas are called the first area and the second area, respectively, and the lower left and right areas of the four divided areas are called the third area and the fourth area, respectively,
And the end point is not present in the third and fourth areas, and determines the object as a sitting animal.
제1항에 있어서,
상기 말단점은 세 개 또는 네 개로서, 각각 제1 내지 제 3 또는 1 내지 제4 말단점이고, 상기 4분할 영역 중 상측의 좌, 우 두 영역을 각각 제1 영역과 제2 영역이라 하고, 상기 4분할 영역 중 하측의 좌, 우 두 영역을 각각 제3 영역과 제4 영역이라고 할 때,
상기 말단점들 중 두 개가 각각 상기 제3 영역과 상기 제4 영역에 각각 하나씩 위치하고, 나머지 하나 또는 두 개의 말단점이 상기 제1 영역과 상기 제2 영역의 경계선 또는 경계선으로부터 소정 거리 내에 위치하는 경우, 상기 대상물을 전방향 또는 후방향을 향하는 네발 동물로 판단하는 동물 감지 방법.
The method of claim 1,
The end points are three or four, and are the first to third or the first to fourth end points, respectively, and the upper left and right areas of the four divided areas are called the first area and the second area, respectively. When the lower left and right areas of the four divided areas are referred to as the third area and the fourth area, respectively,
When two of the endpoints are each located in the third region and the fourth region, respectively, and one or two endpoints are located within a predetermined distance from the boundary or boundary line between the first region and the second region, Animal detection method for determining the object as a four-footed animal facing forward or backward.
촬영된 영상을 이진화하여 이진화 영상을 획득하는 이진화 변환부;
상기 획득된 이진화 영상을 기초로 상기 영상에 포함된 대상물의 영역을 추출하는 대상물 영역 추출부;
상기 추출된 대상물의 영역을 좌우 및 상하로 분할하여, 4분할 영역을 설정하는 4분할 영역 설정부;
상기 대상물로부터 하나 이상의 말단점을 검출하는 말단점 추출부; 및
상기 말단점이 상기 4분할 영역 중에 위치하는 패턴에 따라, 상기 대상물이 동물인지 판단하는 판단부를 포함하되,
상기 말단점은 상기 대상물의 형상 특성을 갖는 선 형상의 말단점을 의미하는, 동물 감지 시스템.
A binarization converter for binarizing the photographed image to obtain a binarized image;
An object region extracting unit extracting an area of an object included in the image based on the obtained binarized image;
A 4-division region setting unit which divides the extracted region of the object into left and right and up and down to set a 4-division region;
An endpoint extraction unit for detecting one or more endpoints from the object; And
According to the pattern of the end point is located in the four-division region, including a determination unit for determining whether the object is an animal,
The end point means a linear end point having the shape characteristics of the object .
제9항에 있어서,
상기 판단부는 상기 패턴에 따라 상기 대상물의 이동 방향을 예측하는 동물 감지 시스템.
10. The method of claim 9,
The determination unit is an animal detection system for predicting the moving direction of the object according to the pattern.
제9항에 있어서,
상기 말단점은 세 개로서, 각각 제1 내지 제 3 말단점이고, 상기 4분할 영역 중 상측의 좌, 우 두 영역을 각각 제1 영역과 제2 영역이라 하고, 상기 4분할 영역 중 하측의 좌, 우 두 영역을 각각 제3 영역과 제4 영역이라고 할 때,
상기 판단부는, 상기 제1 말단점이 상기 제1 또는 제2 영역 중 어느 하나에 위치하고, 상기 제2 말단점과 상기 제3 말단점이 각각 상기 제3 영역과 상기 제4 영역에 위치하는 경우, 상기 대상물을 동물로 판단하는 동물 감지 시스템.
10. The method of claim 9,
The end points are three, each of the first to third end points, and the upper left and right areas of the four divided areas are called the first area and the second area, respectively, and the lower left, When the two regions are called the third region and the fourth region, respectively,
The determination unit, when the first end point is located in any one of the first or second region, the second end point and the third end point is located in the third region and the fourth region, respectively, the object Animal detection system to judge the animal as.
제11항에 있어서,
상기 판단부는, 상기 제1 말단점이 상기 제1 영역에 위치할 경우 상기 대상물의 이동 방향을 좌방향으로 예측하고, 상기 제1 말단점이 상기 제2 영역에 위치할 경우 상기 대상물의 이동 방향을 우방향으로 예측하는 동물 감지 시스템.
The method of claim 11,
The determination unit predicts a moving direction of the object to the left when the first end point is located in the first area, and moves the moving direction of the object to a right direction when the first end point is located in the second area. Predictive animal detection system.
제9항에 있어서,
상기 대상물의 촬영은, 소정 주파수의 광을 조사하는 램프와
상기 광이 상기 대상물에 반사되어 비춰지는 모습을 촬영하는 카메라를 더 포함하는 동물 감지 시스템.
10. The method of claim 9,
The photographing of the object includes a lamp for irradiating light of a predetermined frequency;
And a camera for photographing the light reflected by the object.
제13항에 있어서,
상기 소정 주파수의 광은 근적외선인 동물 감지 시스템.
The method of claim 13,
And the light of the predetermined frequency is near infrared.
제9항에 있어서,
상기 4분할 영역 중 상측의 좌, 우 두 영역을 각각 제1 영역과 제2 영역이라 하고, 상기 4분할 영역 중 하측의 좌, 우 두 영역을 각각 제3 영역과 제4 영역이라고 할 때,
상기 판단부는, 상기 말단점이 상기 제3 영역 및 제4 영역에 존재하지 않는 경우, 상기 대상물을 앉아 있는 동물로 판단하는 동물 감지 시스템.
10. The method of claim 9,
When the upper left and right areas of the four divided areas are called the first area and the second area, respectively, and the lower left and right areas of the four divided areas are called the third area and the fourth area, respectively,
The determination unit, if the end point is not present in the third region and the fourth region, the animal detection system for determining the object as a sitting animal.
제9항에 있어서,
상기 말단점은 세 개 또는 네 개로서, 각각 제1 내지 제 3 또는 1 내지 제4 말단점이고, 상기 4분할 영역 중 상측의 좌, 우 두 영역을 각각 제1 영역과 제2 영역이라 하고, 상기 4분할 영역 중 하측의 좌, 우 두 영역을 각각 제3 영역과 제4 영역이라고 할 때,
상기 판단부는, 상기 말단점들 중 두 개가 각각 상기 제3 영역과 상기 제4 영역에 각각 하나씩 위치하고, 나머지 하나 또는 두 개의 말단점이 상기 제1 영역과 상기 제2 영역의 경계선 또는 경계선으로부터 소정 거리 내에 위치하는 경우, 상기 대상물을 전방향 또는 후방향을 향하는 네발 동물로 판단하는 동물 감지 시스템.
10. The method of claim 9,
The end points are three or four, and are the first to third or the first to fourth end points, respectively, and the upper left and right areas of the four divided areas are called the first area and the second area, respectively. When the lower left and right areas of the four divided areas are referred to as the third area and the fourth area, respectively,
The determination unit may include two of the endpoints, one each in the third region and the fourth region, respectively, and the other one or two endpoints are within a predetermined distance from the boundary or boundary line between the first region and the second region. When positioned, the animal detection system for determining the object as a four-footed animal facing forward or backward.
KR1020110049633A 2011-05-25 2011-05-25 Animal detection system and method thereof KR101185935B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110049633A KR101185935B1 (en) 2011-05-25 2011-05-25 Animal detection system and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110049633A KR101185935B1 (en) 2011-05-25 2011-05-25 Animal detection system and method thereof

Publications (1)

Publication Number Publication Date
KR101185935B1 true KR101185935B1 (en) 2012-09-26

Family

ID=47114119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110049633A KR101185935B1 (en) 2011-05-25 2011-05-25 Animal detection system and method thereof

Country Status (1)

Country Link
KR (1) KR101185935B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149143A (en) 2003-11-14 2005-06-09 Konica Minolta Holdings Inc Object detecting device and method, and computer program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149143A (en) 2003-11-14 2005-06-09 Konica Minolta Holdings Inc Object detecting device and method, and computer program

Similar Documents

Publication Publication Date Title
CN102779430B (en) Collision-warning system, controller and method of operating thereof after the night of view-based access control model
US9090205B2 (en) Light distribution controller
JP5883732B2 (en) Environment recognition device
JP5577398B2 (en) Vehicle periphery monitoring device
JP5906224B2 (en) Outside environment recognition device
US20120176499A1 (en) Method and apparatus for detecting a rear vehicle light
JP5886809B2 (en) Outside environment recognition device
JP4732985B2 (en) Image processing device
JP6358552B2 (en) Image recognition apparatus and image recognition method
JP6457278B2 (en) Object detection apparatus and object detection method
KR101510189B1 (en) Automatic exposure control apparatus and automatic exposure control method
JP2000030197A (en) Device for detecting warm body
JP2009217495A (en) Hazard warning device
JP2009298344A (en) Apparatus and program for determining lights of vehicle
GB2550472A (en) Adaptive display for low visibility
EP2741234A2 (en) Object localization using vertical symmetry
US9524645B2 (en) Filtering device and environment recognition system
JP2005318408A (en) Vehicle surrounding monitoring apparatus and method
KR101616462B1 (en) Forward Vehicle Identification Method and System with the Vehicular Brake Lamp at Night Time
KR101185935B1 (en) Animal detection system and method thereof
JP6087240B2 (en) Vehicle periphery monitoring device
KR20120131457A (en) Animal Detection and Warning System and Method thereof
JP2019175372A (en) Danger prediction device, method for predicting dangers, and program
JP2009193130A (en) Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
KR20140054922A (en) Method and device for detecting front vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150625

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160627

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170626

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee