KR100789721B1 - A disaster prevention system and method - Google Patents

A disaster prevention system and method Download PDF

Info

Publication number
KR100789721B1
KR100789721B1 KR1020060026760A KR20060026760A KR100789721B1 KR 100789721 B1 KR100789721 B1 KR 100789721B1 KR 1020060026760 A KR1020060026760 A KR 1020060026760A KR 20060026760 A KR20060026760 A KR 20060026760A KR 100789721 B1 KR100789721 B1 KR 100789721B1
Authority
KR
South Korea
Prior art keywords
image
information
situation
camera
disaster
Prior art date
Application number
KR1020060026760A
Other languages
Korean (ko)
Other versions
KR20070096409A (en
Inventor
우경욱
Original Assignee
주식회사 네이블텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네이블텍 filed Critical 주식회사 네이블텍
Priority to KR1020060026760A priority Critical patent/KR100789721B1/en
Publication of KR20070096409A publication Critical patent/KR20070096409A/en
Application granted granted Critical
Publication of KR100789721B1 publication Critical patent/KR100789721B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • G08B3/1008Personal calling arrangements or devices, i.e. paging systems
    • G08B3/1016Personal calling arrangements or devices, i.e. paging systems using wireless transmission
    • G08B3/1025Paging receivers with audible signalling details
    • G08B3/1033Paging receivers with audible signalling details with voice message alert

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 카메라에 의해서 촬영된 건설현장의 영상과 사전에 저장된 영상데이터를 비교하여 보호구 미 착용으로 인한 안전사고 및 각종 장비에 의한 안전사고를 예방함과 동시에 건설현장에 발생된 재난사고(화재, 붕괴 등)를 신속하게 확인할 수 있는 재해 방지 시스템에 관한 것으로서, 그 특징적인 구성은 안전상황을 감시하기 위한 감시대상지역(100)을 촬영하는 카메라(200); 상기 카메라(200)에 의해서 촬영된 영상을 이용하여 감시대상지역(100)의 현재 상황을 분석하고 해당 분석내용에 따라 위험 수준을 판독하고 위험 수준이 높을시 해당 내용을 무선으로 송신하고 현재 사항을 수시로 전달하는 상황인식장치(300); 및 상기 상황인식장치(300)와 무선으로 송수신하도록 서버용 안테나(410)가 마련되어 상기 감시대상지역(100)의 재해상태를 관리하는 중앙서버(400)를 포함하여서 된 것이다.The present invention compares the image of the construction site photographed by the camera with the previously stored image data to prevent safety accidents due to the wearing of protective equipment and safety accidents caused by various equipment and at the same time disaster accidents occurred on the construction site (fire, Regarding a disaster prevention system that can quickly determine the collapse, etc., the characteristic configuration is a camera 200 for photographing the monitoring target area 100 for monitoring the safety situation; Analyzes the current situation of the monitoring target area 100 using the image captured by the camera 200, reads the risk level according to the analysis, and if the risk level is high, transmits the content wirelessly and presents the current matter. Situational recognition device 300 to deliver from time to time; And a central antenna 400 provided with a server antenna 410 to wirelessly transmit and receive the situation recognition apparatus 300 to manage a disaster state of the monitored area 100.

재해, 방지, 건설현장, 작업자, 카메라 Disaster, Prevention, Construction Site, Worker

Description

재해 방지 시스템 및 방법{A disaster prevention system and method} A disaster prevention system and method

도1은 종래의 토목 건설 현장의 일예를 나타낸 참고도.1 is a reference diagram showing an example of a conventional civil construction site.

도2는 본 발명에 따른 재해 방지 시스템을 나타낸 개략도.Figure 2 is a schematic diagram showing a disaster prevention system according to the present invention.

도3은 본 발명에 따른 재해 방지 시스템을 나타낸 블록구성도. Figure 3 is a block diagram showing a disaster prevention system according to the present invention.

도4는 본 발명에 따른 재해 방지 방법을 설명하기 위한 흐름도.4 is a flowchart for explaining a disaster prevention method according to the present invention;

도5는 얼굴 인식 시스템의 작동 상태를 나타낸 흐름도.5 is a flowchart showing an operating state of a face recognition system.

도6은 얼굴 인식 시스템을 이용한 동영상 검색 예시도.6 is a video search example using a face recognition system.

도7은 SVM을 이용한 얼굴 검출 과정을 나타낸 예시도.7 is an exemplary diagram illustrating a face detection process using an SVM.

도8은 얼굴 영역 검출과 특징점 추출을 통한 정규화 과정도.8 is a normalization process diagram through face region detection and feature point extraction;

도9는 얼굴의 부부 영역 예시도.9 is an illustration of a married couple area of a face.

도10은 얼굴 인식 시스템의 결과를 나타낸 예시도.10 is an exemplary view showing a result of a face recognition system.

도11은 색기반 영상 검색 시스템을 나타낸 개략도.11 is a schematic diagram illustrating a color-based image retrieval system.

도12는 영상의 특징 값 종류를 나타낸 예시도.12 is an exemplary diagram illustrating types of feature values of an image.

도13은 같은 섹터 이미지의 분포 형태를 나타낸 그래프.Fig. 13 is a graph showing the distribution form of the same sector image.

도14는 NMFM의 기본 정합을 나타낸 예시도.Fig. 14 is an illustration showing basic matching of NMFM.

도15a 내지 도 15c는 이미지 측정 방법에 따른 결과 그래프.15A to 15C are graphs of results according to the image measuring method.

도16은 이미지 측정 방법에 따른 평가표.16 is an evaluation table according to the image measuring method.

※도면의 주요부분에 대한 부호의 설명※※ Explanation of symbols about main part of drawing ※

100 : 감시대상지역 200 : 카메라100: area to be monitored 200: camera

300 : 상황인식장치 310 : 제어부300: situation recognition device 310: control unit

320 : 영상 분할부 330 : 영상비교부320: image segmentation unit 330: image comparison unit

340 : 영상 DB 350 : 현장용 송수신부340: Image DB 350: field transceiver

360 : 스피커 400 : 중앙서버360: Speaker 400: Central Server

410 : 서버용 안테나410: antenna for the server

본 발명은 재해 방지 시스템에 관한 것으로서, 더욱 상세하게는 카메라에 의해서 촬영된 건설현장의 영상과 사전에 저장된 영상을 비교하여 보호구 미 착용으로 인한 안전사고 및 각종 장비에 의한 안전사고를 예방함과 동시에 건설현장에 발생된 재난사고(화재, 붕괴 등)를 신속하게 확인할 수 있는 재해 방지 시스템에 관한 것이다.The present invention relates to a disaster prevention system, and more particularly, by comparing the image of the construction site photographed by the camera with the image stored in advance to prevent safety accidents due to wearing protective equipment and safety accidents by various equipment It is about a disaster prevention system that can quickly identify disaster accidents (fire, collapse, etc.) that occurred at the construction site.

최근 각종 재해로 인한 사고에 대한 예방 및 관리에 대한 관심이 급증 하고 있다. 해마다 약 100명 이상이 재해로 사망하고 있으며 그중 50%가 건설. 토목 공사에서 산업 재해로 인한 사망이 발생하고, 화재 및 자연재해로 인한 사망이 10%가 차지하고 있다. 사망 이외에도 산업재해와 자연재해로 인하여 년간 이만명 정도가 부상 및 중상을 당하고 있다. 인명 피해 이외에도 재해로 인한 년간 손실액은 1조 원이 넘고 있는 게 우리의 현실이다.Recently, interest in the prevention and management of accidents caused by various disasters is increasing rapidly. More than 100 people die each year from disasters, 50% of which are built. Civil engineering causes deaths due to industrial accidents, and 10% of them are due to fire and natural disasters. In addition to death, about 20,000 people are injured and seriously injured each year due to industrial and natural disasters. In addition to the loss of lives, our annual loss is more than 1 trillion won due to disasters.

한편, 해마다 재해로 인산 사고율은 5%정도 씩 증가 되는데 반해 이런 재해에 대한 예방 및 안전장치는 과거(약 20년 전)에 사용하였던 구시대적 방법을 그대로 사용하고 있다. On the other hand, the annual accident rate of phosphoric acid accidents increases by 5%, while the prevention and safety measures for such disasters are using the old methods used in the past (about 20 years ago).

즉, 전자 및 측정기술의 발달로 수많은 분야에서는 첨단장치 및 방법을 이용하는 자동화 측정 관리 시스템을 사용하고 있으나, 자연재해, 사업재해에 대한 분야는 아직도 관리자(인간)가 직접 관리 감독하는 시스템을 그대로 유지하고 있다.In other words, due to the development of electronic and measurement technology, many fields use automated measurement management system using advanced devices and methods, but the field of natural disaster and business accident still maintains the system directly managed by the manager (human). Doing.

이와 같이 관리자에 의한 직접 관리 감독은 그 자체가 항시적이지 않고 또한 인력이 많이 지원되지 않는 이유로 인해 완벽한 관리가 되지 못하므로 인력에 의존하지 않고 24시간 재해를 감시 할 수 있는 시스템이 절실하게 요구되고 있는 실정이다.As such, the direct supervision by managers is not always complete due to the fact that it is not always on its own and is not supported by a lot of manpower. Therefore, a system for monitoring 24-hour disasters without manpower is urgently required. There is a situation.

따라서, 많은 분야에서 이런 시스템 개발을 연구해 왔다. 센서를 이용하여 화재를 알려주는 기법부터 다리에 센서를 부착하여 다리가 무너지기 전에 알려주는 장치 등 다양한 방법이 제공 되어 졌다. 그러나 이런 재해 방지 시스템은 특정한 분야와 특정 환경에 맞게 고안되어 개발 되었기에 다양한 환경과 다양한 형태의 재해를 방지하는데 한계가 있었다.Therefore, many fields have been researching such system development. Various methods have been provided, including the technique of using a sensor to notify the fire, and a device that attaches the sensor to the leg before the bridge collapses. However, such a disaster prevention system was designed and developed for a specific field and a specific environment, and thus there was a limit in preventing various environments and various types of disasters.

한편, 재해를 예방할 수 있는 가장 좋은 방법은 인간이 눈으로 직접 환경을 파악하고 해당 내용을 보고 위험 사태를 감지하는 것이다. 그러나 인간이 직접 항시 위험 사항을 관리한다는 것은 환경적으로 매우 어려움이 있다. On the other hand, the best way to prevent disasters is for humans to understand the environment with their own eyes, to see the contents and to detect dangers. However, it is environmentally very difficult for humans to manage risks at all times.

최근에는 도1에 나타낸 바와 같이 카메라를 통해서 현재 상황을 촬영하고 그 촬영된 영상을 관리자가 원거리에서 파악하고 해당 사항에 대한 위험을 감지한 후에 현재 상황이 위험 상태일 때 해당 내용을 현장의 작업자 또는 관리자에게 보고 하는 시스템이 개발되어 사용되고 있다.Recently, as shown in FIG. 1, the current situation is photographed through a camera, and the captured image is remotely recognized by the administrator and the risk of the matter is detected. A system for reporting to managers has been developed and used.

도1은 토목 건설 현장의 일예를 나타낸 것으로서, 여기에서 참조되는 바와 같이 크레인(1)이 언덕(2)에서 공사를 하고 있는데 2명의 작업자(3)가 안전화 및 안전모를 착용하지 않고 위험지역에 있는 형태이다. FIG. 1 shows an example of a civil construction site, in which a crane 1 is constructing a hill 2 in which two workers 3 are not in a safety zone and are wearing a safety helmet and hat. Form.

만일 위쪽에 있는 크레인(1)에서 어떤 위험 상황이 발생되어 돌이나 위험물이 작업자(3)에게 덮쳤을 경우 안전 장비를 착용하지 않은 상태에서 매우 큰 산업 재해 사고를 당하게 된다. If a dangerous situation occurs in the crane (1) in the upper part and the stone or dangerous goods hit the worker (3) is subjected to a very large industrial accident accident without wearing safety equipment.

한편, 카메라(4)를 통해 현재의 상황 정보를 영상으로 확인하는 관리자가 스피커(5)를 통하여 현장의 작업자(3) 또는 크레인(1) 운전자에게 위험상황을 알려주는 것으로서, 재해를 예방할 수 있는 것이다.On the other hand, the manager who checks the current situation information through the camera (4) as an image to inform the dangerous situation to the operator (3) or the crane (1) driver in the field through the speaker (5), which can prevent the disaster will be.

그러나 이때에도 재해를 예방하기 위해서는 영상을 통하여 현장 상황을 확인 및 조치할 수 있는 관리자에게 의존하게 되는 문제점이 있었다.However, even at this time, there was a problem in that it depends on the administrator who can check and take action on the site through video to prevent disasters.

또한 건설, 토목 공사 중에 여러 환경적 위험 요소가 있다. 이런 위험 요소로부터 안전한 작업을 하기 위해 여러 안전 기구 및 기계 장치들이 되어 있으나, 해당 기구 및 장치를 활용하지 않아 인명 피해가 크게 발생한다. There are also many environmental hazards during construction and civil works. There are several safety mechanisms and mechanisms to work safely from these hazards, but the loss of life is caused by the failure to utilize them.

그리고 작업자들은 작업 공간에서 헬멧과 안전화를 필히 착용해야 하는데 불구하고 헬멧과 안전화를 착용하지 않아서 사고 발생시에 큰 부상을 유발 시킬 수 있으며, 터널 공사와 같은 폭발 위험지역에 무허가 차량 및 작업자가 있게 되에 인 사 사고가 발생 할 수 있고, 공사지역에 산사태 및 여러 재해가 발생 할 수 있다. And even though workers must wear helmets and safety shoes in the work area, they can wear a helmet and safety shoes and cause serious injuries in the event of an accident, and there will be unauthorized vehicles and workers in explosive areas such as tunnel construction. Personnel accidents can occur and landslides and other disasters can occur in construction areas.

한편, 해마다 산불로 인하여 재산상의 피해가 매우 커지고 있다. 산불 발생을 미리 알 수 있다면 미연에 방지 할 수 있으나, 현재 사용하는 산불 감시시스템은 상술한 바와 같이 카메라에 의해서 촬영된 영상을 관리자가 확인하는 것으로서, 산불 발생시 신속하고 정확한 판단을 하는데 한계가 있는 문제점이 있었다.On the other hand, the damage caused by forest fires is increasing year by year. If a fire can be known in advance, it can be prevented in advance, but the currently used forest fire monitoring system checks the image taken by the camera as described above, and has a limitation in making a quick and accurate judgment in case of a fire. There was this.

본 발명은 상기한 문제점을 해결하기 위하여 발명한 것으로서, 그 목적은 카메라에 의해서 촬영된 동영상의 상태를 인식하여 설정된 위험 요소들을 인식하고 해당 내용을 중앙서버에 알려주기 위한 것이다.The present invention has been invented to solve the above problems, the object of which is to recognize the state of the video taken by the camera to recognize the set risk factors and inform the central server of the contents.

즉, 본 발명은 카메라에 의해서 촬영된 영상을 소정의 크기로 분할하고 그 분할된 영상과 영상 DB에 저장된 영상데이터를 비교하여 안전사고의 원인 또는 재해 발생시 작업자 및 관리자에게 고지할 수 있는 건설현장용 재해 방지 시스템을 제공함에 있다.That is, the present invention divides the image taken by the camera into a predetermined size and compares the divided image with the image data stored in the image DB to prevent accidents at construction sites that can be notified to workers and managers in case of safety accidents or disasters. It is to provide a prevention system.

상기 목적을 달성하기 위한 본 발명의 특징적인 구성을 설명하면 다음과 같다.Referring to the characteristic configuration of the present invention for achieving the above object is as follows.

본 발명 재해 방지 시스템의 특징적인 구성은 안전상황을 감시하고자 하는 감시대상지역을 촬영하기 위한 카메라; 상기 카메라에 의해서 촬영된 영상을 이용하여 감시대상지역의 현재 상황을 분석하고 해당 분석내용에 따라 위험 수준을 판독하고 위험 수준이 높을시 해당 내용을 무선으로 송신하고 현재 사항을 수시로 전 달하는 상황인식장치; 및 상기 상황인식장치와 무선으로 송수신하도록 서버용 안테나가 마련되어 상기 감시대상지역의 재해상태를 관리하는 중앙서버를 포함하여서 된 것이다.Characteristic configuration of the disaster prevention system of the present invention is a camera for photographing the monitoring target area to monitor the safety situation; Analyzing the current situation of the monitored area by using the image captured by the camera, and reading the risk level according to the analysis contents, and when the risk level is high, wirelessly transmits the contents and transmits the current matter from time to time. ; And a central server provided with a server antenna to wirelessly transmit and receive the situation recognition device to manage a disaster state of the monitored area.

또한 본 발명의 재해 방지 방법의 특징적인 구성은 안전상황을 감시하고자 하는 감시대상지역을 카메라로 촬영하는 단계; 상기 단계에서 촬영된 영상을 소정의 크기로 각각 분할하는 단계; 상기 단계에서 분할된 각 영상을 영상 DB에 저장된 영상 데이터와 비교하여 감시대상지역의 재해 상황을 판단하는 단계 및 상기 단계에서 재해 상황 발생시 현장의 작업자 또는 관리자에게 스피커를 통하여 음성으로 고지하는 단계를 포함하여서 된 것이다.In addition, the characteristic configuration of the disaster prevention method of the present invention comprises the steps of photographing a surveillance target area to monitor the safety situation with a camera; Dividing the image photographed in the step into predetermined sizes; Determining the disaster situation of the monitoring target area by comparing each image divided in the above step with the image data stored in the image DB, and in the step, notifying a worker or manager of the field by voice through a speaker when the disaster situation occurs. It was done.

이와 같은 특징을 갖는 본 발명을 상세하게 설명하면 다음과 같다.Referring to the present invention having such characteristics in detail as follows.

본 발명은 영상 인식 기술을 이용하여 재해가 발생되었을 때 위험을 감지하는 영상 패턴 인식 기술을 포함하고 있는 재해 방지 시스템이다. The present invention is a disaster prevention system that includes an image pattern recognition technology for detecting a danger when a disaster occurs using the image recognition technology.

도2는 본 발명에 따른 재해 방지 시스템을 나타낸 개략도이고, 도3은 본 발명에 따른 재해 방지 시스템을 나타낸 블록구성도이다. Figure 2 is a schematic diagram showing a disaster prevention system according to the present invention, Figure 3 is a block diagram showing a disaster prevention system according to the present invention.

여기에서 참조되는 바와 같이 안전상황을 감시하고자 하는 감시대상지역(100)을 촬영할 수 있는 카메라(200)가 마련되어 있고, 그 카메라(200)는 촬영된 영상을 이용하여 감시대상지역(100)의 현재 상황을 분석하고 해당 분석내용에 따라 위험 수준을 판독하고 위험 수준이 높을시 해당 내용을 모바일 통신을 통해서 센터에 알려주고 현재 사항을 수시로 전달하는 상황인식장치(300)에 연결되어 있다.As referred to herein, a camera 200 capable of capturing a surveillance target region 100 to monitor a safety situation is provided, and the camera 200 uses the photographed image to present the current of the surveillance target region 100. The situation is analyzed and the risk level is read according to the analysis, and when the risk level is high, the contents are notified to the center through mobile communication and the current situation is frequently connected to the situation recognition device 300.

상기 상황인식장치(300)는 카메라(200)에서 촬영된 영상을 소정의 크기로 분 할하는 영상 분할부(320)가 마련되어 있고, 상기 영상 분할부(320)에서 분할된 영상과 비교하기 위한 영상 데이터가 저장되는 영상 DB(340)가 마련되어 있으며, 상기 영상 DB(340)에는 감시대상지역(100)에 존재할 수 있는 작업자. 사물 및 현상(화재, 붕괴 등)에 해당하는 영상 데이터가 저장되는 것이다.The situation recognition apparatus 300 is provided with an image splitter 320 for dividing an image taken by the camera 200 into a predetermined size, and an image for comparing with the image split by the image splitter 320. An image DB 340 is provided to store data, and the image DB 340 may be present in an area to be monitored 100. Image data corresponding to objects and phenomena (fire, collapse, etc.) are stored.

그리고 상기 영상 DB(340)로부터 전송되는 영상데이터와 영상 분할부(320)에서 분할된 영상을 비교하는 영상비교부(330)가 마련되어 있고, 상기 각 부분의 동작을 제어하는 제어부(310)가 마련되어 있으며, 상기 제어부(310)에서 발생되는 신호를 송신하고 외부에서 전송되는 신호를 수신하기 위한 현장용 송수신부(350)가 마련되어 있다.In addition, an image comparator 330 for comparing the image data transmitted from the image DB 340 and an image divided by the image splitter 320 is provided, and a controller 310 for controlling the operation of each part is provided. In addition, a field transmitting and receiving unit 350 for transmitting a signal generated by the control unit 310 and receiving a signal transmitted from the outside is provided.

한편, 중앙 서버(400)는 복수개의 상황인식장치(300)의 동작상태를 확인 및 제어하기 위한 것으로서, 그 중앙 서버(400)에는 상황인식장치(300)와 데이터를 송수신하기 위한 서버용 안테나(410)가 연결되어 있다.On the other hand, the central server 400 is to check and control the operation status of the plurality of situation recognition apparatus 300, the central server 400 for the server antenna for transmitting and receiving data with the situation recognition apparatus 300 (410) ) Is connected.

도4는 본 발명에 따른 재해 방지 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a disaster prevention method according to the present invention.

여기에서 참조되는 바와 같이 안전상황을 감시하고자 하는 감시대상지역(100)을 카메라(200)로 촬영하는 단계를 수행하고, 상기 단계에서 촬영된 영상을 소정의 크기로 각각 분할한다.As described herein, a step of photographing the surveillance target area 100 to monitor the safety situation with the camera 200 is performed, and each of the images photographed in the step is divided into predetermined sizes.

상기와 같이 분할된 영상은 영상 DB(340)에 저장된 영상 데이터와 비교하여 감시대상지역(100)에서 작업중인 작업자의 보호구 착용상태를 확인함과 동시에 장비의 동작 및 재해발생 상황을 판단하는 단계를 수행한다.The divided image as described above is compared with the image data stored in the image DB (340) to check the wearing state of the protective equipment of the worker working in the monitoring area 100 and at the same time determine the operation of the equipment and the occurrence of disaster Perform.

상기 단계에서 보호구를 착용하지 않은 작업자가 존재할 경우에는 현장에 설 치된 스피커(360)를 통하여 작업자에게 보호구 미 착용상태를 음성으로 고지하게 되는 것이다.If there is an operator who does not wear the protective equipment in the step is to notify the worker wearing the protective device to the voice through the speaker 360 installed in the field by voice.

한편, 상기 단계에서 장비의 이상상태 또는 재해(화재, 붕괴 등)가 발생될 경우에는 스피커(360)를 통하여 작업자에게 고지함과 동시에 현장용 송수신부(350)를 통하여 비상상황을 송신하게 된다.On the other hand, when an abnormal state or a disaster (fire, collapse, etc.) of the equipment in the above step is notified to the operator through the speaker 360 and at the same time to transmit the emergency situation through the transmission and reception unit 350 for the field.

이와 같이 송신된 신호는 서버용 안테나(410)에서 수신하여 중앙서버(400)로 전송되므로 상기 중앙서버(400)는 관리자에게 비상상황을 고지함과 동시에 사전에 입력된 비상조치부(안전조치요원, 소방서 등)에 비상상황을 고지하여 안전사고 및 재해를 신속하게 처리할 수 있게 되는 것이다.The signal transmitted in this way is received by the antenna for the server 410 is transmitted to the central server 400, the central server 400 notifies the administrator of the emergency and at the same time the emergency measures (safety personnel, It will be possible to promptly handle safety accidents and disasters by notifying emergency situations to the fire department.

본 발명은 다음과 같은 기술을 가지고 있다.The present invention has the following technology.

1. 사람의 얼굴을 인식하고, 사람의 행위 및 사람이 현재 착용하고 있는 헬멧이나 장화 의복 등을 인식하는 인간 상태 인식 기술.1. A human state recognition technology that recognizes a person's face and recognizes a person's actions and the helmet or boots he currently wears.

2. 산속이나 작업장등 특정 공간에 화재가 발생하였을 경우 화재 발생을 인식하고 해당 내용을 모바일을 통해서 알려주는 기술.2. When a fire occurs in a specific space such as a mountain or a workplace, a technology that recognizes the fire and informs the contents through a mobile.

3. 굴착 기계 등의 작업 반경을 인식하고 해당 반경 안에 사람이나 또는 다른 기자재가 있을 경우 위험을 알려 주고 해당 내용을 기록하고 필요시 서버에 모바일을 통해 전송하는 기술.3. A technology that recognizes the working radius of the excavating machine, etc., if there is a person or other equipment within the radius, notifies the danger, records the contents, and sends it to the server via mobile if necessary.

4. 자동차 번호판을 인식하고 해당차량이 출입 가능한 차량인가를 확인하고 관리하는 기술.4. Technology that recognizes license plates and confirms and manages whether the vehicle is accessible.

5. 기타 카메라를 통해서 어떤 위험 사항에 대한 패턴을 정의하면 해당 패턴 이 발생되었을 때 내용을 센터에 전송하는 기술.5. A technology that defines patterns for certain hazards through other cameras and sends them to the center when those patterns occur.

한편, 컴퓨터의 성능, 네트워크, 데이터 압축기술등의 발달로 현재 멀티미디어 데이터의 양은 엄청나게 증가하고 있어서, 내용기반 비디오 검색, 비디오 인덱싱 등 멀티미디어 데이터를 관리/사용하기 위한 기술이 필요하다. 자동화된 컷 검출(cut detection)은 이러한 다양한 요구를 충족시키기 위한 출발점이 된다.On the other hand, due to the development of computer performance, network, data compression technology, etc., the amount of multimedia data is increasing tremendously, and there is a need for technology for managing / using multimedia data such as content-based video retrieval and video indexing. Automated cut detection is a starting point to meet these various needs.

카메라로 입력 받은 영상들은 하나의 비디오물로 저장되고 해당 비디오물을 처리 관리 하는 기술이 필요하다. 비디오를 구성하는 최소 단위는 한 장의 영상을 나타내는 프레임(frame)이다. 하나의 카메라에 의해서 연속적으로 얻어진 프레임의 시퀀스를 샷(shot) 이라고 하며, 내용상으로 연관이 있는 샷들의 집합을 씬(scene)이라고 한다. 컷(cut)은 장면과 장면 사이의 경계에 해당하는 장면 전환점을 의미한다. 현재 상황을 정확하게 분석하기 위해서는 현재 동영상 흐름에서 내용상 연관 있는 컷과 씬들을 분리하여 처리하는 기술이 필요하다.The images inputted by the camera are stored as a single video material, and a technology for processing and managing the video material is required. The minimum unit constituting the video is a frame representing one image. A sequence of frames continuously obtained by one camera is called a shot, and a set of shots that are related in content is called a scene. Cut refers to a scene change point corresponding to a boundary between the scene and the scene. In order to accurately analyze the current situation, it is necessary to have a technique for separating and processing scene-related cuts and scenes in the current video flow.

지금까지 컷 검출을 위한 다양한 방법들이 제안되었다. 이러한 방법들은 압축되지 않은 비디오 시퀀스를 위한 방법과 압축된 비디오 시퀀스 위한 방법의 두 종류로 분류될 수 있다. 압축되지 않은 비디오 시퀀스에 적용되는 방법으로는 연속된 두 프레임 간에 픽셀의 차이 비교, 히스토그램의 차이 비교, 움직임 벡터의 비교 등이 있다. 압축된 비디오 시퀀스에 사용될 수 있는 방법은 압축 계수를 비교하는 방법, I,P,B 프레임을 이용한 방법 등이 있다.To date, various methods for cut detection have been proposed. These methods can be classified into two types, one for uncompressed video sequences and one for compressed video sequences. Methods applied to uncompressed video sequences include comparing pixel differences between two consecutive frames, comparing histograms, and comparing motion vectors. Methods that can be used for a compressed video sequence include a method of comparing compression coefficients and a method using I, P, and B frames.

컷을 자동으로 찾아낸다고 하더라도 검출해낸 컷을 비디오 인덱싱 등의 응용에 그대로 이용하기에는 무리가 따른다. 같은 샷 안에서도 여러 컷이 존재할 수 있 는데, 인간이 보기에 의미를 갖는 비디오의 단위는 컷이 아닌 샷이기 때문이다. 따라서 검출된 컷을 각 샷에 따라서 계층적, 구조적으로 저장할 필요가 생기게 된다.Even if the cut is found automatically, it is difficult to use the detected cut as it is for applications such as video indexing. Multiple cuts can exist within the same shot, since the unit of video that humans see is meaningful is the shot, not the cut. Therefore, there is a need to store the detected cuts hierarchically and structurally according to each shot.

그리고 컷 검출 방법을 설명하면 다음과 같다.The cut detection method is as follows.

본 발명에서는 컬러 히스토그램과 edge 정보를 이용한다. 연속된 두 프레임 사이에 히스토그램 및 edge 정보의 변화를 관찰하여 변화 값이 주어진 임계값을 초과하는 경우 컷으로 판단한다.In the present invention, color histogram and edge information are used. The change in the histogram and the edge information is observed between two consecutive frames. If the change exceeds the given threshold, the cut is determined.

컬러 히스토그램의 계산에는 HSV 컬러 모델이 사용된다. HSV 컬러 모델은 RGB 컬러모델에 비해 색상을 표현하는 방법이 인간이 인식하는 방법과 비슷하며, 따라서 색상사이의 거리도 인간이 느끼는 것과 좀 더 비슷하다는 장점이 있다.The HSV color model is used to calculate the color histogram. The HSV color model has the advantage that the method of expressing color is similar to the method of human recognition, compared to the RGB color model, and thus the distance between colors is more similar to that of human being.

컬러 히스토그램에는 H, S, V 성분이 모두 사용되었으며 각 히스토그램 구간을 적절히 양자화 한다. 이는 계산 량을 줄이기 위한 것이기도 하지만, 히스토그램을 양자화 할 경우 작은 변화에 덜 민감해지는 장점이 있기 때문이기도 하다. H, S, V 성분의 양자화 레벨은 인간이 중요하게 느끼는 정도에 따라 각각 다르게 정해주었는데, 각각 18, 12, 16 레벨이 사용된다.H, S, and V components are used in the color histogram, and each histogram section is quantized properly. This is to reduce the amount of computation, but also because the quantization of the histogram is less sensitive to small changes. The quantization levels of the H, S, and V components were determined differently depending on how important humans feel. 18, 12, and 16 levels are used, respectively.

연속한 두 프레임 M 와 M-1 사이의 각 컬러 히스토그램의 변화량의 총 합을 DC(x,y) 라고 정의했고, 수학식1과 같다. The sum of the amount of change in each color histogram between two consecutive frames M and M-1 was defined as DC (x, y), as shown in Equation (1).

[수학식1][Equation 1]

Figure 112006020592323-pat00001
Figure 112006020592323-pat00001

( for each H, S, V )(for each H, S, V)

Figure 112006020592323-pat00002
: M번째 프레임의 i 번째 히스토그램 값
Figure 112006020592323-pat00002
: I th histogram value of Mth frame

프레임 내에서 edge 성분을 추출하기 위해서는 소벨 연산자를 사용한다. 소벨 연산자를 그레이 영상에 적용한 후 임계치 이상의 그레이 값을 갖는 픽셀의 숫자를 구하여 연속된 두 프레임에서 그 차이를 컷 검출을 위한 특징 값으로 사용한다.The Sobel operator is used to extract edge components within a frame. After the Sobel operator is applied to a gray image, the number of pixels having gray values above a threshold is obtained, and the difference is used as a feature value for cut detection in two consecutive frames.

[수학식2][Equation 2]

Figure 112006020592323-pat00003
Figure 112006020592323-pat00003

Figure 112006020592323-pat00004
Figure 112006020592323-pat00004

S(x,y) : Sobel 경계선 영상S (x, y): Sobel boundary image

연속된 두 프레임 사이의 차이는 수학식2에서 얻은 Dist. Color 와 Dist. Edge 의 조합으로 구해졌으며, 이 값이 임계치 이상이 되면 장면전환이 발생한 것으로 판단한다. The difference between two consecutive frames is obtained by Dist. Color and Dist. It is determined by the combination of edges. If this value is over the threshold, it is determined that a scene change has occurred.

한편, 전역 정보의 사용에 대하여 설명하면 다음과 같다.On the other hand, the use of global information is described as follows.

검출된 각 컷을 씬 별로 구분하기 위해서 우선 전역 정보를 이용하는 방법이 검토된다. 두 컷간의 차이를 계산하는데 사용된 방법은 컷 검출에 사용된 방법과 같은 방법을 사용한다. 즉 이미 검출된 연속된 두 컷의 컬러 히스토그램 및 edge 정보를 이용하여 두 컷의 차이를 계산하고, 이 값이 임계치 이상이면 두 컷이 서로 다른 씬에 포함된다고 결정한다.In order to classify each detected cut for each scene, a method of using global information is first examined. The method used to calculate the difference between two cuts uses the same method as the one used for cut detection. That is, the difference between the two cuts is calculated using the color histogram and the edge information of the two consecutive cuts already detected, and if the value is greater than or equal to the threshold, it is determined that the two cuts are included in different scenes.

또한 국부 정보를 사용할 때에는 컷 간의 비교에 국부 정보를 사용하기 위하 여 우선 비교 대상인 두 컷을 3x3 의 구획으로 나누었고, 각 블록에 대하여 컷 검출에 사용되었던 것과 같은 특징 값을 추출한다. 이 특징 값의 비교를 위해서는 Bipartite matching을 사용한다. Bipartite matching은 Bipartite 그래프에서 각 노드들을 최적으로 매칭하는 조합을 찾아준다.In addition, when using local information, in order to use local information for comparison between cuts, two cuts to be compared are first divided into 3x3 sections, and the same feature values as those used for cut detection are extracted for each block. Bipartite matching is used to compare the feature values. Bipartite matching finds a combination that best matches each node in a bipartite graph.

비교 대상인 이전 컷과 현재 컷의 각 블록별 히스토그램과 엣지 성분을 추출한 후, 블록마다 그 차이를 계산하여 그 차이를 weight로 갖는 Bipartite 그래프를 구성한다. 이 그래프에 Bipartite matching을 이용하면 두 컷 사이의 차이가 최소가 되는 조합을 얻을 수 있으며, 이 조합을 통한 두 컷 사이의 차이를 씬 검출에 사용하였다.After extracting the histogram and edge components of each block of the previous and current cuts to be compared, the difference is calculated for each block, and a Bipartite graph having the weight as the difference is constructed. By using Bipartite matching in this graph, we can obtain the combination that minimizes the difference between the two cuts. The difference between the two cuts through this combination is used for scene detection.

그리고, 얼굴인식 기술을 이용한 작업자 인증 및 상황 분석 기술은 안전관리 시스템에 얼굴인식 기술을 도입함으로 해서 카메라로 입력 받은 상에서 얼굴을 검출하고 해당 얼굴을 인식하여 작업자가 누구인지 아는 기술이 필요하다. In addition, the worker authentication and situation analysis technology using face recognition technology requires a technology of detecting a face on the input received by a camera and recognizing the face by introducing a face recognition technology into a safety management system to know who the worker is.

도5의 얼굴 인식 흐름도에 나타낸 바와 같이 영상에서 사람의 얼굴을 검출하고, 그 얼굴이 누구인가를 인식하고 색인하여, 나중에 입력된 영상에서 얼굴을 빠르게 인식 할 수 있다. 도6은 이러한 기능의 일예를 나타낸 것으로서, 이 기술을 이용하여 얼굴과 함께 작업자의 안전 기구 착용상태를 확인할 수 있는 것이다.As shown in the face recognition flowchart of FIG. 5, a face of a person may be detected from an image, a face may be recognized and indexed, and a face may be quickly recognized from a later input image. Figure 6 shows an example of such a function, it is possible to check the wearing state of the safety device of the worker with the face using this technique.

또한, 본 발명에서는 얼굴 검출을 위해서 도7에 나타낸 바와 같이 SVM (support vector machine)을 이용한다. SVM을 이용하여 회전과 크기에 무관하게 얼굴을 검출하기 위해서 영상을 스캔하는 마스크의 크기와 회전각을 달리 하여야 한다. 이렇게 이미지의 전체 영역을 스캔하며 얼굴을 검출하면 계산 시간이 급격히 늘어난다. 이런 문제점을 해결하기 위해서 전체 이미지에서 얼굴이 있을 만한 후보 영역을 검출한 다음, 그 후보 영역 안에서 정확한 얼굴 영역을 검출하는 방법을 쓴다. 보통 얼굴 후보 영역을 검출하기 위해서 살색 정보를 이용하는데, 살색으로 후보 영역을 검출할 경우 조명이 심하게 바뀌는 영상이나 흑백 영상에서는 제대로 후보 영역을 검출하지 못하는 문제점이 있다. 본 시스템 개발에서는 이에 대한 심도 있는 연구를 수행하여 완벽한 얼굴인식 시스템을 개발할 것이다. In addition, the present invention uses a SVM (support vector machine) as shown in Fig. 7 for face detection. In order to detect a face regardless of rotation and size using SVM, the size and rotation angle of a mask scanning an image must be changed. Scanning the entire area of the image and detecting a face like this greatly increases the computation time. In order to solve this problem, a method of detecting a candidate face in the entire image and then detecting a correct face area in the candidate area is used. Normally, skin color information is used to detect a face candidate area. When detecting a candidate area by flesh color, there is a problem in that the candidate area is not properly detected in an image in which illumination is severely changed or a black and white image. In this system development, we will develop a complete face recognition system by conducting in-depth research.

그리고, 얼굴인식은 매우 어려운 문제인데 이것은 한 사람의 얼굴 변화가 다른 사람과의 얼굴 차이보다 크다는데 기한다. 사람이 하품을 한다던가, 눈을 감는다든가, 머리 스타일, 수염, 안경 착용, 노화, 카메라 촬영 위치, 잡음, 조명등에 의해서 한 사람의 얼굴 형태의 변화가 매우 심하게 나타나서, 컴퓨터의 입장에서 처리하는 데이터로서 한 사람 내의 얼굴 변화가 다른 사람과의 얼굴 차이보다 훨씬 클 수가 있다. 이러한 문제를 해결하기 위해 얼굴 영상의 촬영 위치에 따른 보정이나, 전처리 과정을 통한 잡음제거 등의 연산이 필요하다. 이러한 문제를 해결하기 위해 본 연구에서는 얼굴 영상을 미리 정해진 규칙에 의한 정확한 localization을 수행한다. 현재 얼굴의 레지스트레이션을 위한 주된 방법은 도8에 나타낸 바와 같이 두 눈의 위치를 검출한 다음 검출된 눈의 위치를 정해진 좌표에 대응시킴으로써 행해진다. 이를 위해서는 두 눈의 정확한 검출이 필요하다. And, face recognition is a very difficult problem, which suggests that one person's face change is greater than the other's face difference. Data that is processed from the computer's point of view by a person yawning, closing eyes, hair style, beard, wearing glasses, aging, camera shooting position, noise, lighting, etc. As a result, facial changes in one person can be much greater than facial differences in another person. In order to solve this problem, it is necessary to perform calculations such as correction according to the photographing position of the face image or noise removal through a preprocessing process. In order to solve this problem, this study performs accurate localization of face image by predetermined rule. The main method for registration of the current face is performed by detecting the positions of both eyes as shown in Fig. 8, and then correlating the detected eye positions with predetermined coordinates. This requires accurate detection of both eyes.

눈을 검출하는 방법으로 low level의 영상처리 방식과 통계학적인 방법으로 나눌 수가 있다. Low level의 영상처리를 이용할 경우 edge를 이용한 눈이나 동공의 모양을 이용하거나, intensity 자체의 정보를 이용할 수 있는데, 이런 방법은 비교적 해상도가 높은 영상에 적용된다는 단점이 있다. 본 연구에서는 해상도가 낮은 영상에서도 눈을 검출할 수 있도록 SVM을 이용한 통계학적인 방법으로 접근할 수 있다. The eye detection method can be divided into low level image processing method and statistical method. When using low level image processing, it is possible to use the shape of eyes or pupils using edges or information on intensity itself. This method has a disadvantage in that it is applied to a relatively high resolution image. In this study, we can approach the statistical method using SVM to detect the eyes in low resolution images.

또한 얼굴 인식은 컴퓨터 비젼 학문에서 오랫동안 연구외어 왔으며, 보안이나 경찰 수사, 인사관리와 같은 얼굴 데이터베이스 응용으로 활용되어 왔다. 얼굴 인식은 먼저 입력 영상으로부터 얼굴이 있는지, 어떤 위치에 있는 지를 검출하고, 눈과 같은 특징 점을 통한 정규화 과정을 거친다. 정규 화된 얼굴 영상으로부터 얼굴을 특징짓는 특징 벡터(Feature vector)정보를 추출하고, 이 특징 벡터를 같은 과정을 거쳐서 만들어진 얼굴 영상들의 특징 벡터들과 비교하여 누구의 얼굴인지를 인식한다. 얼굴 특징 벡터는 얼굴 영상 전체로부터 추출하는 방법과 얼굴 영상을 눈, 코, 입 등의 부분 영역으로 분할하여, 부분 영역 단위로 특징 벡터를 추출하는 방법이 있다. 부분영역으로 추출하는 경우의 얼굴 영역의 분할 예를 도9에 나타낸 바와 같다. In addition, face recognition has long been studied in computer vision studies, and has been used for face database applications such as security, police investigation, and personnel management. Face recognition first detects whether or not a face exists from an input image and normalizes it using feature points such as eyes. Feature vector information is extracted from the normalized face image, and the feature vector is compared with the feature vectors of the face images created through the same process to recognize who the face is. The facial feature vectors may be extracted from the entire face image, and the facial images may be divided into partial regions such as eyes, nose, and mouth, and the feature vectors may be extracted in units of partial regions. An example of segmentation of the face region in the case of extraction into partial regions is shown in FIG.

여기에서 참조되는 바와 같이 전체 얼굴 영역을 눈, 코, 입을 중심으로 한 3개의 부분영역으로 분할하고 있다. 본 발명에서는 두 가지 방법을 모두 사용하거나 어느 하나를 사용할 수도 있다.As referred to herein, the entire face area is divided into three partial areas centered on the eyes, nose, and mouth. In the present invention, both methods may be used or either may be used.

얼굴 인식 시스템을 개발하기 위해서는 얼굴의 특징을 잘 표현할 수 있는 feature space 정의가 중요한 핵심이 된다. 현재 PCA(Principle Component Analysis)를 이용한 얼굴 인식 기술을 많은 연구가 채택하고 있다. PCA는 데이터베이스에 있는 얼굴 이미지에 대하여 가장 주요하게 나타나는 공통적인 특성을 분석 하여 이를 각 얼굴을 나타내는 특징 값으로 정의하는 방식으로 도10에 나타낸 바와 같이 국내외의 많은 업체에서 실제 시스템을 개발하여 사용하고 있다. 그러나 PCA는 그 특성상 각 이미지에 비슷한 형태의 특징 값을 갖게 하므로 인식하려는 대상의 얼굴이 많은 경우 그 인식률이 현저하게 감소하는 단점을 가지고 있다. 본 발명은 최근에 얼굴 인식 분야에 적용되고 있는 새로운 기술들 - LDA(Linear Discriminant Analysis), ICA(Independent Component Analysis), Non-parametric Methods, 신경망(Neural network), Baysian 분류기, HMM(Hidden Markov Model) - 을 이용하여 강인한 얼굴 인식이 가능하게 되는 것이다.To develop a face recognition system, defining a feature space that can express facial features is an important key. Currently, many studies have adopted face recognition technology using Principle Component Analysis (PCA). As shown in FIG. 10, PCA develops and uses the actual system by analyzing the most common characteristics that appear in the database for the face images in the database and defining them as feature values representing each face. . However, the PCA has similar characteristics in each image due to its characteristics, and thus, the recognition rate is remarkably reduced when there are many faces to be recognized. The present invention has recently been applied to the field of face recognition-Linear Discriminant Analysis (LDA), Independent Component Analysis (ICA), Non-parametric Methods, Neural Network, Baysian Classifier, HMM (Hidden Markov Model) By using-, strong face recognition is possible.

그리고 본 발명은 크게 영상 패턴 인식 기술과 무선 네트워크 연동 기술 멀티미디어 데이터 입력 전송 인식 할 수 있는 하드웨어 제작 기술 3가지로 나눌 수 있다.In addition, the present invention can be largely divided into three types of hardware manufacturing technology that can recognize multimedia data input transmission technology and image pattern recognition technology.

또한 영상 패턴 인식 기술에서는 얼굴인식, 상황인식, 형태 인식등 각각의 내용 하나 하나가 첨단 기술에 속하는 기술이다. Also, in image pattern recognition technology, each content such as face recognition, situation recognition, and shape recognition belongs to advanced technology.

그리고 본 발명은 다음과 같은 4가지 특징이 있다.And the present invention has four features as follows.

첫째 상황을 인식할 수 있는 영상 패턴 인식 방법을 대략적 최대 흐름을 이용하여 영상 매칭 기법(Near Maximum Flow Matching)를 이용한다. 이 방법을 이용하면 실시간으로 영상 패턴을 인식하고 해당 내용을 판독 할 수 있다.First, an image pattern recognition method capable of recognizing a situation uses a near maximum flow matching method using an approximate maximum flow. Using this method, the image pattern can be recognized and read out in real time.

둘째 얼굴을 인식하는 부분에서는 현재 PCA방식을 이용하고 매칭 기법은 WBM방법을 이용하여 얼굴을 정확하게 인식 하도록 한다.Second, the face recognition part uses the current PCA method and the matching method uses the WBM method to correctly recognize the face.

셋째 모바일 네트워크 기술은 CDMA 기술을 연동하여 영상 정보를 최적화 압 축하여 빠른 속도로 전송할 수 있도록 한다.Third, the mobile network technology works in conjunction with the CDMA technology to optimize and compress video information for high speed transmission.

네째 하드웨어 구성은 기술은 최첨단에 비애 가장 저렴한 비용을 사용하여 최저가의 하드웨어를 구성하는 데 있다. 저가의 시스템을 만들어 최적의 기능을 유지 할 수 있는 것도 기술의 우수성과 독창성에 포함 된다고 할 수 있다.Fourth, the hardware configuration is the state-of-the-art technology to construct the lowest cost hardware using the lowest cost. Making a low-cost system capable of maintaining optimal functionality is part of the excellence and ingenuity of the technology.

이하에서 영상패턴 인식에 대하여 설명한다.Hereinafter, image pattern recognition will be described.

본 발명의 영상패턴 인식 기술은 영상 패턴 인식의 종류와 기존의 연구와 비교하여 우리가 가지고 있는 개술의 우수성을 도표로 평가한다.The image pattern recognition technology of the present invention evaluates the superiority of the technique we have in comparison with the types of image pattern recognition and existing researches.

영상 패턴 인식 시스템의 종류Types of Image Pattern Recognition System

기존의 영상 인식 시스템은 크게 색인기반 영상 인식 시스템과 내용기반 영상 인식 시스템으로 나눌 수 있다. 색인기반은 영상 검색 관련 연구 초기에 많은 연구가 이루어졌으며 현재까지 상용화된 대부분의 시스템에 사용되고 있는 방법이며 최근 들어 MPEG-7 표준 기반의 내용기반 영상검색 시스템에 대한 연구와 개발이 활발히 이루어지고 있다.Existing image recognition system can be divided into index-based image recognition system and content-based image recognition system. Index-based research has been conducted in the early stages of research on image retrieval, and has been used for most commercialized systems until now.

색인기반 영상 인식 시스템은 영상과 함께 영상의 정보를 색인한 텍스트 문자열을 사용하는 방법이다. 도11은 색인기반 영상 인식 시스템의 예를 보여준다.Index-based image recognition system is a method using a text string that indexes the information of the image with the image. 11 shows an example of an index-based image recognition system.

색인기반 영상 인식 시스템은 영상의 특징과 정보를 문자열로 정확하게 입력하여 검색하는 방법이기 때문에 원하는 검색을 정확하게 찾을 수 있다는 장점이 있다. 그러나 다양한 검색에 맞게 하기 위해서는 영상에 대한 정보를 다양하게 색인 해야 한다. The index-based image recognition system has a merit of finding exactly the desired search because it is a method of accurately inputting a feature and information of an image as a string. However, in order to fit various searches, information about images must be variously indexed.

예를 들어서 "곰", "달린다", "아기곰" 이라는 3개의 정보가 부합되는 영상 을 찾기 위해서는 해당 영상에 여러 가지의 색인을 해야 한다. 따라서 데이터베이스를 구축하기 위한 많은 시간과 노력이 들게 된다. 이러한 기술은 실시간으로 사물의 패턴을 인식하여 판별 사는 시스템에서 사용하기에는 적합하지 않다.For example, to find an image that matches three pieces of information: "bear", "running", and "baby bear", you need to index the image in several ways. This takes a lot of time and effort to build the database. This technology is not suitable for use in systems that recognize patterns of objects in real time.

내용기반 영상 인식 시스템은 영상의 내용을 이용하여 자동적으로 특징 값을 추출 하고 데이터베이스화하여 검색하는 시스템이다. MPEG-7 표준안 ISO/IEC 15938의 "Multimedia Content Description Interface" 에서는 영상 데이터의 특징 값을 대표하는 여러 가지 서술자(Descriptor)를 정하고 있다. 이 서술자는 정지 영상 외에 동영상에도 포함되는 여러 정보들을 표준화하기 위한 것이며, 표준화의 목적은 콘텐츠의 검색에 있어서 효과적인 데이터 정보 공유에 있다The content-based image recognition system is a system that automatically extracts feature values using database contents and searches them by database. The MPEG-7 standard "Multimedia Content Description Interface" of ISO / IEC 15938 defines various descriptors that represent feature values of video data. This descriptor is intended to standardize various information included in moving image as well as still image, and the purpose of standardization is to share effective data information in retrieval of contents.

MPEG-7 표준에서 시각적으로 표현 되는 부분을 Visual Part라고 하며 본 발명에서는 비주얼부분'으로 표기한다. MPEG-7의 비주얼부분에는 여러 가지 형태의 영상특징을 분석할 수 있는 서술자들이 정의되어 있다. MPEG-7의 비주얼부분의 모든 서술자들이 실제 검색에 사용되는 서술자는 아니며 몇 개의 서술자는 표시 매체로부터 속성 정보만 일련 적으로 나열한 것도 있다. 또한 서술자 중 몇 개는 서술자들의 집합이거나 일부분이기도 하다. 기본적인 서술자로는 컬러 레이아웃(Color Layout), 컬러 구조(Color Structure), 지배적 색상(Dominant Color), 계층적 컬러(ScalableColor), 에지 히스토그램(Edge Histogram), 균등 질감(Homogeneous Texture), 텍스처 브라우징(Texture Browsing), 영역기반 모양 (Region Shape), 윤곽 기반 형태(Contour Shape), 카메라 움직임 (Camera Motion), 움직임 분포(Activity) 등이 있다.The visually expressed part of the MPEG-7 standard is called a visual part and is referred to as a visual part in the present invention. The visual part of MPEG-7 defines descriptors that can analyze various types of image features. Not all descriptors in the visual portion of MPEG-7 are actually descriptors used for searching, and some descriptors list only attribute information serially from the display medium. Some of the descriptors are also collections or parts of descriptors. Basic descriptors include Color Layout, Color Structure, Dominant Color, Hierarchical Color, Edge Histogram, Homogeneous Texture, and Texture Browsing. Browsing, Region Shape, Contour Shape, Camera Motion, and Motion Distribution.

서술자를 이용하는 시스템은 해당 시스템을 지원하는 저수준 서술자(low level descriptor)에 기반을 두어 이루어진다. Systems using descriptors are based on low level descriptors that support the system.

GOF/GOP (Group-of-Frame/Group-of-Picture)은 계층적 컬러 서술자를 이용하고, 3D 형태 정보 구축은 3D 메쉬 정보(mesh-information)를 이용하고, 움직임 경로(Motion Trajectory)는 객체 세그멘테이션(segmentation) 정보를 이용하며, 얼굴 인식(Face Recognition)은 얼굴 추출(Face Extraction) 정보를 이용한다. 공간적 결합을 위한 서술자와 지역화 되는 것들은 특정 2D 좌표, 그리드 레이아웃(Grid Layout) 영역 할당, 시간 급수 등의 정보를 이용하여 구축한다.GOF / GOP (Group-of-Frame / Group-of-Picture) uses hierarchical color descriptors, 3D shape information construction uses 3D mesh-information, and Motion Trajectory is an object. Segmentation information is used, and Face Recognition uses face extraction information. Descriptors and localizations for spatial combining are constructed using information such as specific 2D coordinates, grid layout area allocation, and time series.

MPEG-7 비주얼 서술자의 특징은 영상검색에서 사용되는 비주얼 서술자 중 색상을 이용하는 서술자로는 컬러 레이아웃 서술자(CLD), 컬러 구조 서술자(CSD), 지배적 색상 서술자(DCD), 계층적 컬러 서술자(SCD)가 있다. MPEG-7 visual descriptors are characterized by color layout descriptors (CLD), color structure descriptors (CSD), dominant color descriptors (DCD), and hierarchical color descriptors (SCD). There is.

텍스처 검색용 서술자는 에지 히스토그램(EHD), 균등 질감 서술자(HTD), 텍스쳐 브라우징 서술자(TBD) 가 있고 형태로는 영역/윤곽 기반 모양 서술자(RSD/CSS) 가 있다. 서술자 정보는 MPEG-7의 표준에 의해서 정의되어 있다. 정보추출 과정에서 각각의 서술자들은 전체 영상 내에서 정의된 파라미터를 추출한다. 예를 들어 색상 구조의 색상은 양자 화된 32빈(bin)이 사용되며, 유효색상은 YCrCb 색공간에서 특징 값을 추출하고, 균등 질감 서술자는 32개의 요소로 양자화 되고, 계층적 컬러 서술자의 특징 값은 시스템의 정수형 값에서 3비트 값을 태그정보로 그리고 64빈의 양자화 특징 값을 이용한다.Descriptors for texture retrieval include Edge Histogram (EHD), Uniform Texture Descriptor (HTD), Texture Browsing Descriptor (TBD), and Shape / Contour Based Shape Descriptor (RSD / CSS). Descriptor information is defined by the standard of MPEG-7. In the information extraction process, each descriptor extracts the defined parameter in the whole image. For example, the color of the color structure uses 32 quantized bins, the effective color extracts feature values from the YCrCb color space, the uniform texture descriptor is quantized into 32 elements, and the feature values of the hierarchical color descriptors. Uses the 3-bit value as tag information and 64 quantization feature values.

영상 패턴인식 시스템의 응용과 장단에 대하여 설명하면 다음과 같다.The application and the advantages and disadvantages of the image pattern recognition system will be described as follows.

기존의 영상 인식 시스템은 다양한 분야에서 이용된다. 현재까지는 색인기반 검색 시스템이 주를 이루고 있으며, 내용기반 영상 인식 시스템이 점차로 늘어가는 추세이다. 색인기반 검색 시스템은 검색 구간이 한정 되어 있는 단점이 있으나 한정된 검색 구간에서는 정확하게 검색을 할 수 있는 장점이 있다. Existing image recognition systems are used in various fields. To date, index-based retrieval systems have been dominant, and content-based image recognition systems are gradually increasing. Index-based search system has the disadvantage that the search section is limited, but there is an advantage that can be searched correctly in the limited search section.

예를 들어서 영상의 정보를 동물명으로 분류하였다면 동물명으로는 정확하게 검색할 수 있으나 동물의 움직임이나 속성 등으로 검색 할 때는 검색이 어려운 단점을 가지고 있다. For example, if the information of the image is classified by the animal name, the animal name can be searched correctly. However, the search is difficult when searching by the movement or property of the animal.

또한 실시간으로 안전유무를 판독하는 부분에서는 색인 기반 기술을 이용할 수가 없다. 내용기반 영상 인식 시스템은 색과 형태 패턴을 기반으로 하기 때문에 분류 방법이 아닌 유사 검색에 많이 이용된다. In addition, index-based technology cannot be used to read safety status in real time. Because content-based image recognition systems are based on color and shape patterns, they are often used for similar retrieval rather than classification.

단점으로는 색인 분류가 없기 때문에 분류에 따른 정확한 검색이 이루어지지 않는다. 예를 들어서 호랑이와 같은 형태의 정보를 찾고자 할 때 호랑이의 색과 패턴을 가진 모든 영상을 검색할 수 있으나, 그 영상이 호랑이에 국한 되지 않을 수도 있다.The disadvantage is that there is no index classification, so the exact search is not performed according to the classification. For example, when searching for information in the form of a tiger, all images having the color and pattern of the tiger can be searched, but the image may not be limited to the tiger.

색인기반 영상 인식은 정보를 색인하기 위해서 많은 시간과 노력이 필요하며, 또한 영상의 정보를 다양하게 구성하기에 어려움이 있다. 내용기반 영상 인식에서 영상을 인식할 때 단일 정보를 이용하는 시스템을 주로 하고 있다. 단일 정보만으로 영상을 검색할 때 단일 정보가 변화되거나 단일정보의 안정적인 제공이 없게 되면 정확한 검색을 할 수 없게 된다. 또한 MPEG-7에 제안된 서술자를 사용하는 검색은 표준화에 기인하기 때문에 표준화에 맞는 형태의 정보에는 성능이 우수하 나, 표준화된 정보를 이용할 수 없는 특수한 시스템에 있어 검색에 어려움이 있다. 따라서 특수 형태의 검색에 있어서 그에 합당한 방법이 제시되어야 하는 문제점이 있었다.Index-based image recognition requires a lot of time and effort to index the information, and it is difficult to construct a variety of information of the image. In content-based image recognition, a system using a single information is mainly used to recognize an image. When retrieving an image using only single information, if single information is changed or there is no stable provision of single information, accurate search cannot be performed. In addition, since the search using the descriptors proposed in MPEG-7 is due to standardization, the performance of the standardized information is excellent, but it is difficult to search in a special system that cannot use the standardized information. Therefore, there was a problem that a proper method should be suggested in the special type of search.

내용기반 영상 인식 시스템의 필요성은 다음과 같다.The necessity of a content-based image recognition system is as follows.

색인기반 영상 검색 시스템의 문제점과 내용기반 영상 검색 시스템은 상술한 바와 같다.Problems of the index-based image retrieval system and the content-based image retrieval system have been described above.

즉, 색인기반 영상 인식 시스템의 최대 문제점은 영상 데이터에 따른 색인 작업이 필요하고 기하급수적으로 늘어나는 영상을 데이터 베이스화 하기 위한 시간과 노력이 많이 든다는 것이다. 실제로 현재 많은 시스템들이 색인기반에서 내용기반으로 변화가 이루어지는 것은 이런 한계를 극복하기 위함이다. That is, the biggest problem of the index-based image recognition system is that indexing is required according to the image data, and it takes a lot of time and effort to make an image of an exponentially increasing image database. Indeed, many systems are currently shifting from index-based to content-based to overcome this limitation.

내용기반 영상 인식에서 단일 정보를 이용하는 시스템과 다중 정보를 이용하는 시스템으로 나눌 수 있다. 단일 정보에는 색, 형태, 패턴 각각의 정보를 이용하여 검색하는 시스템을 말하며, 다중 정보는 색과 형태, 색과 패턴 등을 결합한 시스템을 의미한다. 단일 정보는 정보량이 최소화 되는 반면 영상의 특징을 한 가지 정보에 의존하기 때문에 해당 정보의 변화가 크면 정확한 검색을 할 수가 없다. 이 문제점을 해결하기 위한 다중 정보를 사용하는 내용기반 영상 검색 시스템이 개발이 많은 분야에서 진행되고 있다.Content-based image recognition can be divided into a system using a single information and a system using multiple information. The single information refers to a system for searching by using information of colors, shapes, and patterns, and the multiple information refers to a system combining colors and shapes, colors, and patterns. While single information minimizes the amount of information, the characteristics of the image are dependent on one information, so large changes in the information cannot accurately search. In order to solve this problem, a content-based image retrieval system using multiple information has been developed in many fields.

단일 특징을 이용한 인식 시스템은 도12에 나타낸 바와 같이 영상의 특징을 대표하는 특징 값으로는 색상과 형태 그리고 패턴으로 볼 수 있다. 일반적으로 캐릭터와 같은 영상을 검색할 때 가장 많이 사용하는 것이 색상이다. 캐릭터 영상 외 에 상표 검색이나 형태의 변화가 적은 객체 검색에는 형태가 이용된다. As shown in FIG. 12, a recognition system using a single feature may be regarded as color, shape, and pattern as feature values representing a feature of an image. In general, the most commonly used color when searching for images such as characters. In addition to the character image, the form is used for a trademark search or an object search with a small change in form.

모양 정보를 이용할 경우 두 개의 대표적인 정보를 이용한다. 영역 기반 모양 정보(Region shape information)와 윤곽 기반 모양 정보(Contour shape information)이다. When using shape information, two representative information is used. Region shape information and contour shape information.

영역 기반 모양 서술자는 일반적으로 moment등과 같은 기저함수(basis function)를 이용하여 특징 값을 추출한다. 대표적인 영역 기반 모양 서술자로는 Zernike Moments나 ART을 이용한 Descriptor가 있다. 형태 정보를 이용하는 검색 시스템은 주로 정적인 영상의 검색 - 상표 검색 시스템이나 문자형 검색 및 로고 검색 등 형태의 변화가 없는 시스템 - 에서 주로 사용한다.Area-based shape descriptors typically extract feature values using a basis function such as moment. Typical domain-based shape descriptors are Zernike Moments or Descriptors using ART. Retrieval system using shape information is mainly used in static image retrieval-system without change of shape such as trademark retrieval system or character retrieval and logo retrieval.

색상 정보를 이용한 영상 검색은 최근 들어 활발하게 진행되어 왔다. 색상 정보를 이용할 경우 일반적으로 색상 히스토그램을 이용한다. 색상 히스토그램을 이용하여 색인 하는 방법은 Swain이 제안하였다. 이 방법은 객체의 색상 히스토그램을 만들고 해당 히스토그램을 양자화 하여 특징 값을 추출한다. Swain방법은 조명에 민감한 단점을 가지고 있는데 Brain은 조명에 관계되지 않는 색상 히스토그램을 상용하여 양자화 하는 방법을 제안하였다. 이 방법을 이용하여 색상 히스토그램 양자화 값을 이용한 검색 시스템들이 많이 제안되어 왔으며, 그 중 Gevers가 제안한 방법이 가장 최근에 많이 사용하는 방법이다.Image retrieval using color information has been actively conducted in recent years. When using color information, color histograms are generally used. Swain's method of indexing using color histogram is proposed. This method creates a color histogram of an object and quantizes the histogram to extract feature values. The Swain method has a light-sensitive disadvantage. Brain proposed a method of quantizing a color histogram that is not related to lighting. Many search systems using color histogram quantization values have been proposed using this method, and Gevers's proposed method is the most recently used method.

색상 히스토그램을 이용할 때 RGB 3개의 영역의 히스토그램을 이용하는 것이 일반적이다. Swain은 RGB 3개의 특징 값을 흑-백, 적색-초록색, 청색-노랑색의 상관관계로 가진 영역으로 색상 히스토그램을 전환시켰다. 전환되는 영역의 채널 당 8 비트를 할당하여 정보 값을 2,048 빈으로 압축하였다. 이 방법을 이용하면 영상의 정보를 매우 빠르게 검색할 수가 있다. 데이터베이스에 있는 영상들은 배경을 제외시킨 객체 영상만의 색상 히스토그램을 가지고 있으며 이 색상 히스토그램의 2,048 빈의 정보를 저장하고 있다. 즉, 검색하고자 하는 질의 영상에서 색상 히스토그램의 특징 값을 추출하고 데이터베이스의 영상과 비교할 때 빈의 수가 작기 때문에 매우 빠르게 비교 할 수가 있다.  When using a color histogram, it is common to use a histogram of three RGB regions. Swain transforms the color histogram into regions with three RGB feature values correlated with black-white, red-green, and blue-yellow. The information value is compressed to 2,048 bins by allocating 8 bits per channel of the region to be switched. Using this method, you can search the information of the image very quickly. The images in the database have a color histogram of the object image that excludes the background, and store the 2,048 bins of the color histogram. In other words, when the feature value of the color histogram is extracted from the query image to be searched and compared with the image in the database, the number of bins is small so that the comparison can be performed very quickly.

그리고 다중 특징을 이용한 검색 시스템은 색상과 형태의 정보를 동시에 이용하여 영상을 인식하는 것으로서, Gevers는 변화되지 않는 색상과 칼라 정보를 이용하여 영상을 인식하는 시스템을 제안하였다. Gevers가 제안한 방법은 객체의 형태 정보를 기하학 정보로 가지고 있고 해당 영역의 색상의 정보를 저장하여 검색하는 방법을 이용하였다. 색상과 형태를 이용할 경우 단일 데이터를 검색하는 것 보다 정보량이 커지게 된다. In addition, the retrieval system using multiple features recognizes images using color and shape information at the same time. Gevers proposed a system for recognizing images using unchanged color and color information. The method proposed by Gevers uses the shape information of the object as geometry information and the method of storing and retrieving the color information of the corresponding area. Using colors and shapes increases the amount of information than retrieving a single piece of data.

따라서 여러 정보를 이용할 경우 정보량의 최적화가 필수적이다. Gevers가 제안한 방법은 정보량의 최적화보다 정보 검색의 정확도에 우선하였다. 색상 정보와 형태 정보를 함께 이용하여 영상을 검색하면 색상 또는 형태의 정보 단일로 검색하는 방법보다는 정확도가 더 높아지거나 떨어질 수도 있다. 정확도가 떨어지는 이유는 색상이나 또는 형태 둘 중에 하나의 정보의 오차 값이 클 경우 같은 영상이라도 같은 영상으로 처리 되지 않기 때문이다. 두 개의 정보를 동시에 보게 되면 오차 또한 한 개의 정보에서 나오는 것 보다 클 수 있기 때문이다. 색상 정보와 형태 정보를 동시에 보면서도 정보 값이 불변(invariant)하는 방법으로는 Gevers가 제안한 방법을 들 수 있다.Therefore, it is essential to optimize the amount of information when using multiple pieces of information. The method proposed by Gevers prioritizes the accuracy of information retrieval over optimization of information volume. When the image is searched using the color information and the shape information together, the accuracy may be higher or lower than the method of searching the information of the color or shape in a single way. The reason for the lower accuracy is that the same image is not processed in the same image if the error value of one of the colors or the shape is large. This is because when two pieces of information are viewed at the same time, the error may be greater than that derived from one piece of information. The method that Gevers suggests as an invariant value of information even while viewing color and shape information at the same time.

상술한 바와 같이 다양한 방법의 영상 인식기술이 개발되었다. 영상인식의 가장 중요한 점은 다중 정보를 이용하는 방법을 사용하는가 그렇지 않은가 이다. As described above, various methods of image recognition technology have been developed. The most important aspect of image recognition is whether or not to use multiple information.

예를 들어서 사람이 안전모를 착용하였는가를 인식하고자 한때 안전모의 형태, 안전모의 색상 등을 함께 고려하여 인식하는 방법이 안전모의 색상 정보 또는 형태 정보 한 개만으로 인식하는 방법 보다 월등하게 된다. 본 발명의 영상 인식 기술은 다중 정보를 이용하여 유사도 분포를 측정하여 인식하는 방법이다. 이 방법을 사용하게 되면 기존의 영상 인식 방법보다 정확하게 상황을 인식할 수 있다. For example, in order to recognize whether a person wears a hard hat, the method of recognizing the shape of the hard hat and the color of the hard hat is superior to the method of recognizing only the color information or the shape information of the hard hat. The image recognition technology of the present invention is a method of measuring and recognizing similarity distribution using multiple information. By using this method, the situation can be recognized more accurately than the existing image recognition method.

본 발명의 인식방법은 인식 자료가 고정적인 것이 아닌 유동적인 형태의 인식 방법이다. 따라서, 인식 요소를 변경시키면 해당 부분을 빠르게 인식 할 수 있다. 예를 들어서 안전모에 대한 인식정보를 제공 하면 안전모 인식을 하고, 화재가 나는 상황의 정보를 요소로 설정하면 화재를 인식 할 수 있게 동적 인식을 할 수 있다. The recognition method of the present invention is a flexible recognition method in which the recognition data is not fixed. Therefore, if the recognition element is changed, the corresponding part can be recognized quickly. For example, by providing recognition information about the hard hat, the hard hat is recognized, and if the information of the fire situation is set as an element, the dynamic recognition can be performed to recognize the fire.

본 발명은 영상 객체에서 다중 특징을 추출하고 비교할 때 통계적인 방법을 이용하여 문턱 값을 추출하고 이 값을 이용하여 유사도 측정을 한다. 통계 적인 방법을 이용할 때는 많은 영상 데이터의 비교 실험을 통하여 도13에 나타낸 바와 같이 영상간의 거리차 분포를 구한 다음, 대부분 같은 영상으로 구성되어 있는 경우의 특정 거리차

Figure 112006020592323-pat00005
를 구하고, 질의 영상과의 비교 값이
Figure 112006020592323-pat00006
이하 일 때 같은 영상으로 처리한다. 대부분의 영상 비교가 통계적인 방법을 이용하고 있으며, 판별을 요구할 때 통계의 의해 결정지어진 특정 문턱치값
Figure 112006020592323-pat00007
를 이용한다. In the present invention, when extracting and comparing multiple features in an image object, a threshold value is extracted using a statistical method, and similarity is measured using this value. When using the statistical method, as shown in Fig. 13, the distance difference distribution between the images is obtained through a comparison experiment of a large number of image data, and then the specific distance difference when the image is mostly composed of the same image.
Figure 112006020592323-pat00005
And compare with the query image
Figure 112006020592323-pat00006
The same image is processed when Most image comparisons use statistical methods, and specific thresholds determined by statistics when requiring discrimination.
Figure 112006020592323-pat00007
Use

WBM을 이용하여 영상을 비교할 때도 같은 영상으로 판별하기 위해서 실험을 통해서

Figure 112006020592323-pat00008
값을 구해야 한다. 값이 없을 경우 WBM은 단순히 유사도가 큰 순서로 영상들을 정렬 할 수밖에 없다. 영상 검색의 목적은 영상의 유사도 정렬이 아니고 같은 영상, 또는 유사도가 특정값 미만인 영상을 검색하는 것이다. 따라서 WBM을 이용하여 영상을 비교하는 경우에도 실험을 통해
Figure 112006020592323-pat00010
값을 구해야 한다. When comparing images using WBM, experiments are conducted to distinguish the same image.
Figure 112006020592323-pat00008
You need to get the value. If there is no value, WBM simply sorts the images in order of similarity. The purpose of the image retrieval is not to sort the similarities of the images, but to search for the same image or an image having a similarity less than a specific value. Therefore, even when comparing images using WBM,
Figure 112006020592323-pat00010
You need to get the value.

지금까지의 방법은 영상의 비교 결과 후에 값을 같는 영상인가 아닌가를 결정하는데 이용하였으나, 제안되는 NMFM은 값을 예측 지수로 활용을 하는 것이 특징이다. 일반적으로 통계적 방법을 이용하여 특정 문턱치를 추출하고자 할 때 영상의 유사도 분포를 이용한다. 수학식3은 일반적인 유사도 분포 식이다.Until now, the method has been used to determine whether the value is the same image after the comparison result of the image, but the proposed NMFM is characterized by using the value as a prediction index. In general, the similarity distribution of an image is used to extract a specific threshold using a statistical method. Equation 3 is a general similarity distribution equation.

[수학식3][Equation 3]

Figure 112006020592323-pat00011
Figure 112006020592323-pat00011

Figure 112006020592323-pat00012
는 질의 영상인 와 데이터베이스 영상인
Figure 112006020592323-pat00013
와의 거리차를 의미한다. 총 n개의 영상을 모두 비교하였을 때
Figure 112006020592323-pat00014
값의 거리차가 있는 수를
Figure 112006020592323-pat00015
로 표시하고, 전체적인 분포는 값의 총합을 의미하며 이 값이
Figure 112006020592323-pat00016
이다.
Figure 112006020592323-pat00012
Are query images and database images
Figure 112006020592323-pat00013
The distance between and When comparing all n images
Figure 112006020592323-pat00014
The number of distance differences
Figure 112006020592323-pat00015
, The overall distribution is the sum of the values,
Figure 112006020592323-pat00016
to be.

도14는 수학식3을 사용하여 구한 분포 곡선이다. 실제 실험 후 표준 편차를 결정할 때는 시스템에 따라서 다르다. Fig. 14 is a distribution curve obtained using equation (3). Determining the standard deviation after the actual experiment depends on the system.

예를 들어 95%의 정확도를 요구하는 시스템일 경우 같은 영상의 95%가 있는 영역의 끝점을

Figure 112006020592323-pat00017
로 정한다. NMFM에서는
Figure 112006020592323-pat00018
를 Bipartite Graph에서 더 이상 자라지 않는 노드 설정에 이용한다.For example, if the system requires 95% accuracy, the end point of the area where 95% of the same image is
Figure 112006020592323-pat00017
Decide on In NMFM
Figure 112006020592323-pat00018
Use to set up nodes that no longer grow in the Bipartite Graph.

최소 흐름 행렬에서 최적의 쌍을 설정할 때에는 N개의 에지를 설정하고 각 에지의 최소 비용을 행렬로 설정한 후 최소의 비용을 가지는 쌍을 구한다. 가장 최소 흐름을 찾아내는 방법은 수학식4와 같다.

Figure 112006020592323-pat00019
는 최소 흐름을 가지는 쌍이며 특정 섹터에 연결된 가중치 값들이다.When setting the optimal pair in the minimum flow matrix, N edges are set, the minimum cost of each edge is set in the matrix, and the pair having the minimum cost is obtained. The method of finding the minimum flow is shown in Equation 4.
Figure 112006020592323-pat00019
Are the pairs with the minimum flow and are weight values connected to a particular sector.

[수학식4][Equation 4]

Figure 112006020592323-pat00020
Figure 112006020592323-pat00020

최소 흐름 쌍을 정하면 해당 쌍을 제거 한 후 다음 쌍은 수학식4를 반복 이용하여 구해 나간다. 쌍을 구한 다음 총 흐름을 얻어 내고 이 흐름을 대략적 최대 흐름으로 보는 것이다. Once the minimum flow pair is determined, the pair is removed and the next pair is obtained by repeating Equation 4. Find the pair, then get the total flow and see it as the approximate maximum flow.

본 발명에서 만일 전체 쌍의 가중치가 모두

Figure 112006020592323-pat00021
값 보다 클 경우, NMFM에서 WBM을 이용하여 최적화 흐름을 유도한다. 실험을 하는 동안 같은 영상이면서
Figure 112006020592323-pat00022
값보다 큰 경우가 발생하지 않는다. 같은 영상일 경우 2500개의 영상에서 모두 한 개 이상은 존재 하는 것이다.In the present invention, if the weight of all pairs is
Figure 112006020592323-pat00021
If greater than this value, the NMFM uses WBM to derive the optimization flow. During the experiment, the same video
Figure 112006020592323-pat00022
It does not occur if it is larger than the value. In the same image, at least one of the 2500 images exists.

상술한 NMFM에 의한 재해 예방 방법을 설명하면 다음과 같다.The disaster prevention method by the NMFM described above is as follows.

먼저, 소정의 크기로 분할된 영상에서 영상 데이터와 연결 가능한 모든 연결을 설정하고, 이때 최소 비용을 얻는 쌍을 추출한다. 이때 최소 비용을 얻는 쌍의 가중치가

Figure 112006020592323-pat00023
의 차이 값을 구한다. First, all the connections that can be connected to the image data are set in the image divided into a predetermined size, and at this time, a pair for obtaining the minimum cost is extracted. Where the weight of the pair
Figure 112006020592323-pat00023
Find the difference between.

상기 단계에서 구하여진

Figure 112006020592323-pat00024
의 차이가 소정의 범위(영상 데이터의 유사범위)보다 클 경우 NMFM에서 WBM 알고리즘을 이용하여 최적화 되는 흐름을 구한다.Obtained in the above step
Figure 112006020592323-pat00024
If the difference is greater than a predetermined range (similar range of the image data), the NMFM calculates the optimized flow using the WBM algorithm.

한편, 상기 단계에서 구하여진 σ의 차이가 소정의 범위(영상 데이터의 유사 범위)보다 작을 경우 또 다른 영상 데이터와 비교하여 연결 쌍을 구한다.(촬영된 영상과 유사한 영상데이터를 추출)On the other hand, if the difference of σ obtained in the above step is smaller than a predetermined range (similar range of the image data), a connection pair is obtained by comparing with another image data (extracting image data similar to the captured image).

이와 같이 계속적으로 연결 쌍을 구할 때 오차의 범위를 넘지 않아서 무시할 수 있는 에지의 계수를 설정하고 순서적으로 해당 계수를 넘는 쌍은 무시한다.As described above, when continuously connecting pairs are set, the coefficients of the edges that can be ignored because they do not exceed the error range are set and the pairs exceeding the coefficients are sequentially ignored.

그리고 해당 흐름 값을 연결된 에지의 값으로 나누어서 평균 흐름 값을 얻어낸다.Then, the flow value is divided by the value of the connected edge to obtain an average flow value.

도15a 내지 도15c는 본 발명에 따른 NMFM의 기본 방법을 설명하기 위한 측정 그래프로서,

Figure 112006020592323-pat00025
값과 비교하였을 때 해당 구간 안에 있을 경우는 도15a 내지 도15c에 나타낸 방법을 수행하고,
Figure 112006020592323-pat00026
의 범위를 벗어났을 경우 또는 완전한 정합 시
Figure 112006020592323-pat00027
구간에 있는 영상이 하나도 없을 경우 대략적 흐름에서 매우 큰 흐름을 유지하기 때문에 같지 않은 영상으로 처리할 수 있다.15A to 15C are measurement graphs for explaining the basic method of NMFM according to the present invention;
Figure 112006020592323-pat00025
When compared with the value, if it is in the corresponding section, the method shown in Figure 15a to 15c,
Figure 112006020592323-pat00026
Out of bounds, or on full match
Figure 112006020592323-pat00027
If there is no image in the section, it can be treated as an unequal image because it maintains a very large flow in the approximate flow.

이와 같이 NMFM은 두 가지 방법에서 시간을 줄일 수 있다. 첫 번째는

Figure 112006020592323-pat00028
값의 영역 내에 있는 영상이 없을 경우, 더 이상 계산을 하지 않고 전혀 다른 영상으로 처리함으로써 계산을 하지 않고 비교하면서 빠르게 연산할 수 있다. 두 번째로 모든 영상에서 거리차를 계산하여 정렬 하고자 할 경우
Figure 112006020592323-pat00029
안에 있는 영상들은 NMFM을 이용하여 연산함으로써 시간을 절약하고 나머지 부분은 WBM을 이용하여 연산하여 유사한 영상의 정렬을 할 수 있다. As such, NMFM can save time in two ways. at first
Figure 112006020592323-pat00028
If there is no image in the range of values, it can be computed quickly by comparing the calculations without further calculations by processing them as completely different images. Second, if you want to calculate distance difference in all images
Figure 112006020592323-pat00029
The images inside can be saved using NMFM to save time, and the rest can be calculated using WBM to align similar images.

상기한 NMFM의 기본 정합은 섹터영상을 에지로 두었을 때 변화가 큰 영상에서는 특정 빈에서 매우 큰 거리차가 나타난다. 이런 거리 차의 값은 영상의 유사 도에 큰 오차 값으로 나타난다. NMFM에서는 거리차가 매우 크게 나타나는 섹터 영 상을 무시하고 나머지 섹터만 가지고 최대 흐름을 유지 한다. 수학식5는 최대 흐름을 구하는 식이다.In the basic registration of the NMFM, when the sector image is placed at the edge, a very large distance difference appears in a specific bin in the image having a large change. The value of this distance difference appears as a large error value in the image similarity. The NMFM ignores the sector image where the distance difference is very large and maintains the maximum flow with only the remaining sectors. Equation 5 is to calculate the maximum flow.

[수학식5][Equation 5]

Figure 112006020592323-pat00030
Figure 112006020592323-pat00030

위 식 에서

Figure 112006020592323-pat00031
는 무시하고자 하는 섹터의 개수를 의미한다.From above
Figure 112006020592323-pat00031
Denotes the number of sectors to be ignored.

이와 같은 NMFM의 특성은 다음과 같다.The characteristics of such NMFM are as follows.

NMFM과 WBM의 큰 차이는 정합쌍을 추출하는가와 그렇지 않은가에 있다. WBM은 최대 흐름도와 함께 최대 흐름도가 이루어 질 때의 정합쌍도 동시에 구한다. 그러나 NMFM은 최대 흐름 도를 추출하지만 정합 쌍을 구하지는 않는다. 영상 정합의 목적은 정합 쌍을 찾는 것이 아니고, 최대 흐름도를 구하는 데 있다. 정합 쌍을 찾는 불필요한 연산을 제거하고 WBM과 같은 흐름도를 예측하기 때문에 WBM 보다 연산 복잡도가 매우 작다. N개의 정점을 WBM 알고리즘을 이용하면 가장 빠른 방법이 n-1개의 순회를 하는 것이다. NMFM의 n-1개의 순회 중 값보다 작거나 같은 흐름도가 나오면 더 이상 순회를 할 필요가 없기 때문에 NMFM은 언제나 WBM의 연산과 같거나 작게 된다. 따라서 NMFM의 연산은 WBM보다 빠르다. 도16은 본 발명을 이용한 연상 패턴 인식 결과이다.The big difference between NMFM and WBM is whether to extract matched pairs. In addition to the maximum flow chart, WBM also finds matching pairs when the maximum flow chart is achieved. However, NMFM extracts the maximum flow rate but does not find a matched pair. The purpose of image matching is not to find matching pairs, but to find the maximum flow chart. The computational complexity is much smaller than that of WBM because it eliminates unnecessary operations for finding matching pairs and predicts flow diagrams like WBM. Using the WBM algorithm for N vertices, the fastest way is to do n-1 traversals. NMFM is always equal to or less than the operation of WBM because when the flow is less than or equal to the value of n-1 traversals of NMFM, no further traversal is necessary. Therefore, the operation of NMFM is faster than WBM. Fig. 16 shows the associative pattern recognition result using the present invention.

내용기반 검색 시스템에서 평가 척도는 시스템의 정확성을 알려주는 중요한 지표가 된다. 본 발명에서는 캐릭터 검색에 있어서 평가 척도를 BEP(Bull's Eye Performance), NMRR(Normalized Modified Retrieval Rank), 그리고 NDS(Normalized Distance Sum)를 이용하였다. BEP는 MPEG-7의 모양 및 움직임 서술자의 평가 척도이며, NMRR은 MPEG-7의 색상 및 질감 서술자의 평가 척도이다. NDS는 0으로 근접할수록 좋은 성능을 나타내며 평가 조건을 모두 고려하고 세밀한 측정이 가능하다는 장점이 있다. In content-based retrieval systems, evaluation scales are important indicators of the accuracy of the system. In the present invention, in the character search, evaluation scales were used as BEP (Bull's Eye Performance), NMRR (Normalized Modified Retrieval Rank), and NDS (Normalized Distance Sum). BEP is a measure of the shape and motion descriptors of MPEG-7, and NMRR is a measure of the color and texture descriptors of MPEG-7. NDS has the advantage that the closer to 0, the better the performance, and all the evaluation conditions are considered and detailed measurement is possible.

NMRR 과 NDS는 수치가 작을수록 성능이 좋은 것이며, BEP는 1에 가까울수록 성능이 좋다. WBM과 NMFM은 지금까지 일반적으로 사용되는 GHM과 PicToSeek의 방법보다 월등히 좋은 것으로 결과가 나왔다.The smaller the numbers, the better the NMRR and NDS. The closer to 1, the better the BEP. WBM and NMFM are far superior to the commonly used GHM and PicToSeek methods.

이와 같이 본 발명은 카메라에 의해서 촬영된 현장 정보와 영상 DB에 저장된 영상 데이터를 실시간으로 비교하여 현장 작업자의 부주의로 인한 안전사고 방지는 물론, 재해 발생시 신속하게 정보를 획득하여 재해로 인한 피해를 최소화 할 수 있는 특유의 효과가 있다.As described above, the present invention compares real-time information captured by a camera with image data stored in an image DB in real time to prevent safety accidents due to carelessness of field workers, as well as to quickly obtain information when a disaster occurs, thereby minimizing damage caused by a disaster. There is a unique effect that can be done.

Claims (5)

안전상황을 감시하고자 하는 감시대상지역(100)을 촬영하기 위하여 각 감시대상지역(100)에 각각 설치된 카메라(200); 상기 카메라(200)에서 촬영된 영상을 소정의 크기로 분할하는 영상 분할부(320)와, 상기 영상 분할부(320)에서 분할된 영상과 비교하기 위한 영상 데이터가 저장되는 영상 DB(340)와, 상기 영상 분할부(320)에서 분할된 영상의 재해 상황 판단 시간이 최소화되도록 정보량의 최적화보다 정보 검색의 정확도가 우선하도록 유사도 분포를 측정하여 상황의 정보를 요소로 설정한 후 영상 DB(340)에 저장된 영상과 분할된 영상을 비교하는 영상비교부(330)와, 상기 각 부분의 동작을 제어하는 제어부(310)와, 상기 제어부(310)에서 발생되는 음성신호를 작업자에게 전달하는 스피커(360)와, 상기 제어부(310)에서 발생되는 신호를 송신하고 외부에서 전송되는 신호를 수신하기 위한 현장용 송수신부(350)를 구비하여 상기 카메라(200)에 의해서 촬영된 영상을 이용하여 감시대상지역(100)의 현재 상황을 분석하고 해당 분석내용에 따라 위험 수준을 판독하고 위험 수준이 높을시 해당 내용을 무선으로 송신하고 현재 사항을 수시로 전달하도록 각 카메라(200)에 각각 연결된 상황인식장치(300); 및 상기 상황인식장치(300)와 무선으로 송수신하도록 서버용 안테나(410)가 마련되어 상기 감시대상지역(100)의 재해상태를 관리하는 중앙서버(400)를 포함함을 특징으로 하는 재해 방지 시스템.A camera 200 installed in each of the surveillance region 100 to photograph the surveillance region 100 to monitor the safety situation; An image splitter 320 for dividing the image photographed by the camera 200 into a predetermined size, an image DB 340 for storing image data for comparison with the image split by the image splitter 320, and After measuring the similarity distribution so that the accuracy of information retrieval takes precedence over the optimization of the amount of information so that the disaster situation determination time of the image divided by the image dividing unit 320 is minimized, the information of the situation is set as an element and the image DB 340. The image comparator 330 for comparing the image stored in the image and the divided image, the controller 310 for controlling the operation of each part, and the speaker 360 for transmitting the audio signal generated by the controller 310 to the worker And a field transmitting / receiving unit 350 for transmitting a signal generated by the controller 310 and receiving a signal transmitted from the outside, to be monitored using the image photographed by the camera 200. Analyzes the current situation of the station 100 and reads the risk level according to the analysis, and when the risk level is high, the situation recognition device connected to each camera 200 to transmit the contents wirelessly and deliver the current matter from time to time ( 300); And a central server (400) provided with a server antenna (410) to wirelessly transmit and receive the situation recognition device (300) to manage a disaster state of the monitored area (100). 삭제delete 삭제delete 안전상황을 감시하고자 하는 감시대상지역(100)을 카메라(200)로 촬영하는 단계; 상기 단계에서 촬영된 영상을 소정의 크기로 각각 분할하는 단계; 상기 단계에서 분할된 각 영상의 재해 상황 판단 시간이 최소화되도록 정보량의 최적화보다 정보 검색의 정확도가 우선하도록 유사도 분포를 측정하여 상황의 정보를 요소로 설정한 후 영상 DB(340)에 저장된 영상을 비교하여 감시대상지역(100)의 재해 상황을 판단하는 단계; 및 상기 단계에서 재해 상황 발생시 현장의 작업자 또는 관리자에게 스피커(360)를 통하여 음성으로 고지하는 단계를 포함함을 특징으로 하는 재해 방지 방법.Photographing a surveillance target area 100 to monitor a safety situation with a camera 200; Dividing the image photographed in the step into predetermined sizes; The similarity distribution is measured so that the accuracy of information retrieval takes precedence over the optimization of the amount of information so that the disaster determination time of each image divided in the above steps is minimized, the situation information is set as an element, and the images stored in the image DB 340 are compared. Determining a disaster situation of the monitoring target area 100; And notifying a worker or a manager in the field by voice through the speaker 360 when a disaster situation occurs in the step. 삭제delete
KR1020060026760A 2006-03-24 2006-03-24 A disaster prevention system and method KR100789721B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060026760A KR100789721B1 (en) 2006-03-24 2006-03-24 A disaster prevention system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060026760A KR100789721B1 (en) 2006-03-24 2006-03-24 A disaster prevention system and method

Publications (2)

Publication Number Publication Date
KR20070096409A KR20070096409A (en) 2007-10-02
KR100789721B1 true KR100789721B1 (en) 2008-01-02

Family

ID=38803250

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060026760A KR100789721B1 (en) 2006-03-24 2006-03-24 A disaster prevention system and method

Country Status (1)

Country Link
KR (1) KR100789721B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011123741A3 (en) * 2010-04-01 2011-11-24 Sealed Air Corporation (Us) Automated monitoring and control of safety in a production area
US9011607B2 (en) 2010-10-07 2015-04-21 Sealed Air Corporation (Us) Automated monitoring and control of cleaning in a production area
US9143843B2 (en) 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
US9189949B2 (en) 2010-12-09 2015-11-17 Sealed Air Corporation (Us) Automated monitoring and control of contamination in a production area
US9406212B2 (en) 2010-04-01 2016-08-02 Sealed Air Corporation (Us) Automated monitoring and control of contamination activity in a production area

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8208681B2 (en) * 2007-12-20 2012-06-26 Kimberly-Clark Worldwide, Inc. Image analysis system for detecting personal protective equipment compliance
KR102210614B1 (en) * 2020-02-12 2021-02-03 주식회사 씨엠엑스 Method and server for differentiating space state information of structure based on machine learning
CN113190537A (en) * 2021-03-22 2021-07-30 广东电网有限责任公司东莞供电局 Data characterization method for emergency repair site in monitoring area
KR102411316B1 (en) * 2021-07-28 2022-06-22 박덕근 Method for providing worker safty analysis service in construction site and server and system for performing the same
KR102455862B1 (en) * 2022-04-19 2022-10-20 (주)채움종합건설 Construction site monitoring system to prevent serious disasters

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09205640A (en) * 1996-01-25 1997-08-05 Matsushita Electric Ind Co Ltd Remote monitor system
KR19990066063A (en) * 1998-01-21 1999-08-16 유무성 Video surveillance system and its control method
KR20020043832A (en) * 2000-12-04 2002-06-12 이계철 Methods and Apparatuses for Monitoring System using Multi-Channel/Multi-Level Motion Detector
JP2002204444A (en) 2001-10-31 2002-07-19 Toshiba Corp Person supervisory system
JP2003333590A (en) 2002-05-16 2003-11-21 Komatsu Ltd System for generating image at site
JP2005285080A (en) 2004-03-30 2005-10-13 Choji Saito Power self-supply type disaster prevention management system for unitarily managing disaster information and power information including job maintenance effectively utilizing distributed power supply system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09205640A (en) * 1996-01-25 1997-08-05 Matsushita Electric Ind Co Ltd Remote monitor system
KR19990066063A (en) * 1998-01-21 1999-08-16 유무성 Video surveillance system and its control method
KR20020043832A (en) * 2000-12-04 2002-06-12 이계철 Methods and Apparatuses for Monitoring System using Multi-Channel/Multi-Level Motion Detector
JP2002204444A (en) 2001-10-31 2002-07-19 Toshiba Corp Person supervisory system
JP2003333590A (en) 2002-05-16 2003-11-21 Komatsu Ltd System for generating image at site
JP2005285080A (en) 2004-03-30 2005-10-13 Choji Saito Power self-supply type disaster prevention management system for unitarily managing disaster information and power information including job maintenance effectively utilizing distributed power supply system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011123741A3 (en) * 2010-04-01 2011-11-24 Sealed Air Corporation (Us) Automated monitoring and control of safety in a production area
US9406212B2 (en) 2010-04-01 2016-08-02 Sealed Air Corporation (Us) Automated monitoring and control of contamination activity in a production area
US9011607B2 (en) 2010-10-07 2015-04-21 Sealed Air Corporation (Us) Automated monitoring and control of cleaning in a production area
US9143843B2 (en) 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
US9189949B2 (en) 2010-12-09 2015-11-17 Sealed Air Corporation (Us) Automated monitoring and control of contamination in a production area

Also Published As

Publication number Publication date
KR20070096409A (en) 2007-10-02

Similar Documents

Publication Publication Date Title
KR100789721B1 (en) A disaster prevention system and method
Rubaiyat et al. Automatic detection of helmet uses for construction safety
CN109670441B (en) Method, system, terminal and computer readable storage medium for realizing wearing recognition of safety helmet
KR101716646B1 (en) Method for detecting and recogniting object using local binary patterns and apparatus thereof
KR101546137B1 (en) Person recognizing device and method
CN110136172B (en) Detection method for wearing of underground protective equipment of miners
Mneymneh et al. Evaluation of computer vision techniques for automated hardhat detection in indoor construction safety applications
US20220391796A1 (en) System and Method for Mapping Risks in a Warehouse Environment
CN111062303A (en) Image processing method, system and computer storage medium
CN107688830B (en) Generation method of vision information correlation layer for case serial-parallel
KR100968024B1 (en) Method and system for tracing trajectory of moving objects using surveillance systems' network
CN111401301B (en) Personnel dressing monitoring method, device, equipment and storage medium
CN101715111A (en) Method for automatically searching abandoned object in video monitoring
Vipparthi et al. Directional local ternary patterns for multimedia image indexing and retrieval
Zhu et al. Automated monitoring of hardhats wearing for onsite safety enhancement
KR20180085505A (en) System for learning based real time guidance through face recognition and the method thereof
RU2315352C2 (en) Method and system for automatically finding three-dimensional images
KR20130122262A (en) System for searching video and server for analysing video
CN113269127A (en) Face recognition and pedestrian re-recognition monitoring method and system for real-time automatic database building
Wu et al. Automated visual helmet identification based on deep convolutional neural networks
Di Benedetto et al. An embedded toolset for human activity monitoring in critical environments
CN115311735A (en) Intelligent recognition early warning method for abnormal behaviors
KR101547255B1 (en) Object-based Searching Method for Intelligent Surveillance System
Srinidhi et al. Pothole detection using CNN and AlexNet
CN114067244A (en) Safety operation violation behavior video analysis method and system

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20111222

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee