KR102640386B1 - Apparatus for monitoring construction - Google Patents

Apparatus for monitoring construction Download PDF

Info

Publication number
KR102640386B1
KR102640386B1 KR1020230119618A KR20230119618A KR102640386B1 KR 102640386 B1 KR102640386 B1 KR 102640386B1 KR 1020230119618 A KR1020230119618 A KR 1020230119618A KR 20230119618 A KR20230119618 A KR 20230119618A KR 102640386 B1 KR102640386 B1 KR 102640386B1
Authority
KR
South Korea
Prior art keywords
area
radar
control unit
building
distance
Prior art date
Application number
KR1020230119618A
Other languages
Korean (ko)
Inventor
이민석
Original Assignee
주식회사 어반어소시에이츠
이민석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 어반어소시에이츠, 이민석 filed Critical 주식회사 어반어소시에이츠
Priority to KR1020230119618A priority Critical patent/KR102640386B1/en
Application granted granted Critical
Publication of KR102640386B1 publication Critical patent/KR102640386B1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명의 실시예에 따른 건축물 모니터링 장치는 건축물 내부의 제1 영역을 촬영하여 영상 정보를 출력하도록 구성된 영상 촬영부; 상기 건축물 내부의 제2 영역에 레이더 신호를 송신하고 상기 제2 영역에서 반사된 레이더 신호를 수신하여 레이더 정보를 출력하도록 구성된 레이더 처리부; 및 상기 제1 영역과 상기 제2 영역의 중첩 영역에 있는 객체를 도출하고 상기 객체 중 이동하는 객체의 유무를 판단하도록 구성된 컨트롤부를 포함하며, 상기 컨트롤부는 상기 중첩 영역의 레이더 정보로부터 상기 객체에 대한 거리 및 방향을 도출하고, 상기 객체의 거리에 따라 상기 객체의 표시 사이즈를 캘리브레이션(calibration)하도록 구성된다. A building monitoring device according to an embodiment of the present invention includes an image capture unit configured to capture a first area inside a building and output image information; a radar processing unit configured to transmit a radar signal to a second area inside the building, receive a radar signal reflected from the second area, and output radar information; and a control unit configured to derive an object in an overlapping area of the first area and the second area and determine the presence or absence of a moving object among the objects, wherein the control unit detects the object from radar information in the overlapping area. It is configured to derive the distance and direction, and calibrate the display size of the object according to the distance of the object.

Description

건축물 모니터링 장치{APPARATUS FOR MONITORING CONSTRUCTION }Building monitoring device{APPARATUS FOR MONITORING CONSTRUCTION}

본 발명은 건축물 모니터링 장치에 관한 것이다. The present invention relates to a building monitoring device.

건축물의 화재 및 보안을 위하여 가시광을 센싱하는 카메라와 적외선을 센싱하는 열화상 카메라가 이용되고 있다.For fire and security purposes in buildings, cameras that sense visible light and thermal imaging cameras that sense infrared rays are used.

가시광을 센싱하는 카메라의 경우, 영상의 왜곡이나 연기 또는 안개 등으로 인하여 객체의 위치를 정확하게 제공하기 어려울 수 있다. 또한 적외선을 센싱하는 카메라의 경우, 화재 발생시 화염의 열과 객체에서 발생하는 열을 구분하기 힘들 수 있다.In the case of cameras that sense visible light, it may be difficult to accurately provide the location of an object due to image distortion, smoke, or fog. Additionally, in the case of a camera that senses infrared rays, it may be difficult to distinguish between the heat of the flame and the heat generated from the object when a fire occurs.

이에 따라 건축물 내부를 비교적 정확하게 모니터링하기 위한 장치가 요구되고 있다.Accordingly, there is a need for devices to monitor the interior of buildings relatively accurately.

공개특허 10-2018-0096984 (공개일 : 2018년08월30일)Publication Patent 10-2018-0096984 (Publication date: August 30, 2018)

본 발명의 실시예에 따른 건축물 모니터링 장치는 건축물 내부의 객체 상황에 대한 모니터링을 비교적 정확하게 수행하고, 연기나 화염의 영향을 줄여 건축물 내부를 효과적으로 감시하기 위한 것이다.The building monitoring device according to an embodiment of the present invention is intended to relatively accurately monitor the status of objects inside the building and effectively monitor the inside of the building by reducing the influence of smoke or flame.

본 출원의 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않는 또 다른 과제는 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problem of the present application is not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 일측면에 따르면, 건축물 내부의 제1 영역을 촬영하여 영상 정보를 출력하도록 구성된 영상 촬영부; 상기 건축물 내부의 제2 영역에 레이더 신호를 송신하고 상기 제2 영역에서 반사된 레이더 신호를 수신하여 레이더 정보를 출력하도록 구성된 레이더 처리부; 및 상기 제1 영역과 상기 제2 영역의 중첩 영역에 있는 객체를 도출하고 상기 객체 중 이동하는 객체의 유무를 판단하도록 구성된 컨트롤부를 포함하는 건축물 모니터링 장치가 제공되며, 상기 컨트롤부가 상기 중첩 영역의 레이더 정보로부터 상기 객체에 대한 거리 및 방향을 도출하고, 상기 객체의 거리에 따라 상기 객체의 표시 사이즈를 캘리브레이션(calibration)하도록 구성되는 것을 특징으로 하는 건축물 모니터링 장치가 제공된다. According to one aspect of the present invention, an image capture unit configured to photograph a first area inside a building and output image information; a radar processing unit configured to transmit a radar signal to a second area inside the building, receive a radar signal reflected from the second area, and output radar information; and a control unit configured to derive objects in an overlapping area of the first area and the second area and determine the presence or absence of a moving object among the objects, wherein the control unit is provided with a radar in the overlapping area. A building monitoring device is provided, which is configured to derive the distance and direction to the object from information and calibrate the display size of the object according to the distance of the object.

관심 영역이 상기 중첩 영역이거나 상기 중첩 영역 내에 있을 경우, 상기 컨트롤부는 표시 사이즈가 캘리브레이션된 객체가 허가 없이 상기 관심 영역 내로 진입함에 따라 알람을 출력할 수 있다. If the area of interest is the overlapping area or is within the overlapping area, the control unit may output an alarm when an object whose display size is calibrated enters the area of interest without permission.

상기 컨트롤부는 표준 사이즈를 지닌 캘리브레이션용 표준 객체가 거리에 따른 표시 사이즈 변화에 따라 도출된 원근감 조정값을 통하여 상기 표시 사이즈의 캘리브레이션을 수행할 수 있다. The control unit may perform calibration of the display size through a perspective adjustment value derived according to a change in display size of a standard object for calibration according to distance.

상기 중첩 영역에 있는 객체들 중 동일 거리에 있는 객체들의 표시 사이즈는 객체의 실제 물리적 사이즈와 상관없이 동일하게 표시될 수 있다. Among the objects in the overlapping area, the display sizes of objects at the same distance may be displayed the same regardless of the actual physical size of the objects.

상기 레이더 처리부는 상기 레이더 정보에 따른 상기 객체의 RCS(Radar Cross Section)에 따라 상기 객체가 사람인지 물체인지를 도출할 수 있다. The radar processing unit may derive whether the object is a person or an object according to the RCS (Radar Cross Section) of the object according to the radar information.

밀집도가 낮은 중첩 영역에 방사하는 레이더 신호의 주파수는 밀집도가 높은 중첩 영역에 방사하는 레이더 신호의 주파수에 비하여 낮을 수 있다. The frequency of the radar signal radiated to the overlapping area with low density may be lower than the frequency of the radar signal radiated to the overlapping area with high density.

상기 컨트롤부는 상기 중첩 영역을 제외한 제1 영역 및 제2 영역의 영상 정보 및 레이더 정보를 처리하지 않을 수 있다. The control unit may not process image information and radar information in the first and second areas excluding the overlapping area.

본 발명의 실시예에 따른 건축물 모니터링 장치는 객체의 사이즈 추정에 적합한 영상 정보와 객체와의 거리 및 방향 도출에 적합한 레이더 정보를 사용함으로써 건축물 내부의 객체 상황에 대한 모니터링을 비교적 정확하게 수행할 수 있다.The building monitoring device according to an embodiment of the present invention can relatively accurately monitor the status of objects inside a building by using image information suitable for estimating the size of the object and radar information suitable for deriving the distance and direction to the object.

본 발명의 실시예에 따른 건축물 모니터링 시스템은 레이저는 열화상이나 가사광 이미지에 비하여 연기나 화염의 영향을 덜 받기 때문에 건축물 내부를 효과적으로 감시할 수 있다. The building monitoring system according to an embodiment of the present invention can effectively monitor the interior of a building because lasers are less affected by smoke or flames than thermal images or visible light images.

본 출원의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않는 또 다른 효과는 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present application are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시예에 따른 건축물 모니터링 장치를 나타낸다.
도 2는 영상 촬영부 및 레이더 처리부의 제1 영역, 제2 영역 및 중첩 영역의 일례를 나타낸다.
도 3은 원근감 조정값을 설명하기 위한 것이다.
도 4는 본 발명의 실시예에 따른 건축물 모니터링 장치의 설치 일례를 나타낸다.
도 5는 본 발명이 실제 설치된 상황에서 원근감 조정값에 따른 객체의 표시 형태 일례를 나타낸다.
도 6은 캘리브레이션된 객체와 경계의 표시 일례를 나타낸다.
Figure 1 shows a building monitoring device according to an embodiment of the present invention.
Figure 2 shows an example of the first area, the second area, and the overlapping area of the image capture unit and the radar processing unit.
Figure 3 is for explaining perspective adjustment values.
Figure 4 shows an example of installation of a building monitoring device according to an embodiment of the present invention.
Figure 5 shows an example of the display form of an object according to the perspective adjustment value in a situation where the present invention is actually installed.
Figure 6 shows an example of displaying a calibrated object and boundary.

이하 본 발명의 실시예에 대하여 첨부한 도면을 참조하여 상세하게 설명하기로 한다. 다만, 첨부된 도면은 본 발명의 내용을 보다 쉽게 개시하기 위하여 설명되는 것일 뿐, 본 발명의 범위가 첨부된 도면의 범위로 한정되는 것이 아님은 이 기술분야의 통상의 지식을 가진 자라면 용이하게 알 수 있을 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. However, the attached drawings are merely explained to more easily disclose the content of the present invention, and the scope of the present invention is not limited to the scope of the attached drawings. Anyone skilled in the art can easily understand this. You will find out.

또한, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Additionally, the terms used in this application are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

도 1은 본 발명의 실시예에 따른 건축물 모니터링 장치를 나타낸다. 도 2는 영상 촬영부 및 레이더 처리부의 제1 영역, 제2 영역 및 중첩 영역의 일례를 나타낸다. 도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 건축물 모니터링 장치는 영상 촬영부(110), 레이더 처리부(130) 및 컨트롤부(150)를 포함한다. Figure 1 shows a building monitoring device according to an embodiment of the present invention. Figure 2 shows an example of the first area, the second area, and the overlapping area of the image capture unit and the radar processing unit. As shown in FIG. 1, the building monitoring device according to an embodiment of the present invention includes an image capture unit 110, a radar processing unit 130, and a control unit 150.

도 1에서와 같이 컨트롤부(150)는 영상 촬영부(110) 및 레이더 처리부(130)와 함께 하나의 하우징(170)에 패키징될 수도 있다. 또한 본 발명의 건축물 모니터링 장치에 전원을 공급하기 위한 전원부(160)를 포함할 수 있다. 컨트롤부(150)가 영상 촬영부(110) 및 레이더 처리부(130)와 함께 하우징(170)에 패키징되는 경우, 필요에 따라 통신부(165)를 더 포함할 수 있다. 통신부(165)는 영상 정보와 레이더 정보를 외부로 전송하거나 컨트롤부(150)에 의하여 영상 정보와 레이더 정보를 처리한 결과를 전송할 수도 있다. As shown in FIG. 1, the control unit 150 may be packaged in one housing 170 together with the image capture unit 110 and the radar processing unit 130. It may also include a power supply unit 160 for supplying power to the building monitoring device of the present invention. When the control unit 150 is packaged in the housing 170 together with the image capture unit 110 and the radar processing unit 130, a communication unit 165 may be further included if necessary. The communication unit 165 may transmit image information and radar information to the outside or transmit the results of processing the image information and radar information by the control unit 150.

도 1과 다르게 컨트롤부(150)는 영상 촬영부(110) 및 레이더 처리부(130)와 네트워크를 통하여 통신가능한 관제 센터에 설치될 수도 있다. 이와 같은 경우, 영상 정보와 레이더 정보가 관제 센터로 전송되어야 하므로 본 발명은 통신부(165)를 포함할 수 있다. Unlike FIG. 1, the control unit 150 may be installed in a control center capable of communicating with the video capture unit 110 and the radar processing unit 130 through a network. In this case, since image information and radar information must be transmitted to the control center, the present invention may include a communication unit 165.

또한 컨트롤부(150)이 관제 센서에 설치될 경우, 컨트롤부(150) 외에 영상 촬영부(110), 레이더 처리부(130) 및 통신부(165)의 제어를 위한 프로세서(미도시)가 구비될 수 있다.In addition, when the control unit 150 is installed in the control sensor, a processor (not shown) for controlling the image capture unit 110, radar processing unit 130, and communication unit 165 may be provided in addition to the control unit 150. there is.

또한 컨트롤부(150) 및 프로세서는 메모리를 포함할 수 있으며, 메모리에는 본 발명의 실시예에 따른 건축물 모니터링 장치의 동작에 필요한 데이터, 로직, 프로그램 중 적어도 일부가 저장될 수 있다. Additionally, the control unit 150 and the processor may include a memory, and at least some of the data, logic, and programs required for the operation of the building monitoring device according to an embodiment of the present invention may be stored in the memory.

영상 촬영부(110)는 건축물 내부의 제1 영역을 촬영하여 영상 정보를 출력하도록 구성된다. 영상 촬영부(110)는 CCD나 CMOS와 같은 촬상 소자를 포함할 수 있다. 영상 촬영부(110)의 촬영각은 110도이나 본 발명이 이에 한정되는 것은 아니며 110도보다 작거나 클 수 있다. 본 발명에서 건축물은 건물 뿐만 아니라 터널과 같은 구조물일 수도 있다. 또한 건축물 내부는 건축물에 부속된 주차장이나 마당 등을 포함할 수 있다. The image capture unit 110 is configured to photograph the first area inside the building and output image information. The image capture unit 110 may include an imaging device such as CCD or CMOS. The shooting angle of the image capture unit 110 is 110 degrees, but the present invention is not limited to this and may be smaller or larger than 110 degrees. In the present invention, the building may be a structure such as a tunnel as well as a building. Additionally, the interior of the building may include a parking lot or yard attached to the building.

레이더 처리부(130)는 건축물 내부의 제2 영역에 레이더 신호를 송신하고 제2 영역에서 반사된 레이더 신호를 수신하여 레이더 정보를 출력하도록 구성된다. 레이더 처리부(130)는 MIMO(Multiple-input multiple-output) 방식의 레이더 모듈을 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. 레이더 신호의 주파수 대역은 24 GHz 또는 60 GHz이나 이에 한정되는 것은 아니다. 레이더 정보는 레이더 신호를 반사시킨 객체까지의 거리와 레이더 처리부(130)에서 객체까지의 방향을 포함할 수 있다. 객체는 사람, 물건, 동물일 수 있으나 이에 한정되는 것은 아니다. The radar processing unit 130 is configured to transmit a radar signal to a second area inside the building and receive a radar signal reflected from the second area to output radar information. The radar processing unit 130 may include a multiple-input multiple-output (MIMO) type radar module, but the present invention is not limited thereto. The frequency band of the radar signal is 24 GHz or 60 GHz, but is not limited thereto. Radar information may include the distance to the object that reflected the radar signal and the direction from the radar processing unit 130 to the object. Objects may be people, objects, or animals, but are not limited to these.

컨트롤부(150)는 도 2에 도시된 바와 같이, 제1 영역과 제2 영역의 중첩 영역에 있는 객체를 도출하고 객체 중 이동하는 객체의 유무를 판단하도록 구성된다. As shown in FIG. 2, the control unit 150 is configured to derive objects in the overlapping area of the first area and the second area and determine whether there is a moving object among the objects.

영상 정보는 객체의 사이즈를 추정할 수 있지만 객체와의 거리 및 방향을 제공하기 어려울 수 있다. 레이더 정보는 객체의 사이즈를 추정하기 어렵지만 객체와의 거리 및 방향을 제공할 수 있다. Image information can estimate the size of an object, but it may be difficult to provide the distance and direction to the object. Radar information is difficult to estimate the size of an object, but can provide the distance and direction to the object.

본 발명은 객체에 대한 영상 정보와 레이더 정보를 모두 이용함으로써 객체의 사이즈, 거리 및 방향을 도출할 수 있으며, 이에 따라 객체가 건축물 내부에서 이동하는 지를 비교적 정확하게 도출할 수 있다. The present invention can derive the size, distance, and direction of an object by using both image information and radar information about the object, and thus can relatively accurately determine whether the object is moving inside the building.

컨트롤부(150)가 이동하는 객체를 판단하는 것은 객체의 표시 사이즈의 시간에 따른 위치 변화를 통하여 이루어질 수 있다. 컨트롤부(150)가 이동하는 객체를 도출함으로써 컨트롤부 및 관제 센터 중 적어도 하나는 화재나 지진과 같은 비상 상황에서 사람을 대피시키거나 출입이 통제되는 보안 구역에서 사람을 확인할 수 있다. The control unit 150 can determine a moving object through a change in the position of the display size of the object over time. By deriving the moving object from the control unit 150, at least one of the control unit and the control center can evacuate people in an emergency situation such as a fire or earthquake or check people in a security area where access is controlled.

이 때 컨트롤부(150)는 중첩 영역의 레이더 정보로부터 객체에 대한 거리 및 방향을 도출하고, 객체의 거리에 따라 객체의 표시 사이즈를 캘리브레이션(calibration)하도록 구성된다. At this time, the control unit 150 is configured to derive the distance and direction to the object from radar information in the overlapping area and calibrate the display size of the object according to the distance of the object.

표시 사이즈는 객체에 해당되는 이미지의 사이즈를 의미할 수 있다. 객체의 표시 사이즈에 대한 캘리브레이션을 위하여 원근감 조정값이 설정될 수 있다. 원근감 조정값은 본 발명의 실시예에 따른 건축물 모니터링 장치가 현장에 설치되기 이전에 미리 설정되어 저장될 수 있다. 원근감 조정값에 대한 보다 상세한 설명은 이후에 도면을 참조하여 이루어진다. The display size may refer to the size of the image corresponding to the object. A perspective adjustment value may be set to calibrate the display size of the object. The perspective adjustment value may be set and stored in advance before the building monitoring device according to an embodiment of the present invention is installed on site. A more detailed description of the perspective adjustment value will be made later with reference to the drawings.

앞서 설명된 바와 같이, 본 발명은 객체의 사이즈 추정에 적합한 영상 정보와 객체와의 거리 및 방향 도출에 적합한 레이더 정보를 사용함으로써 건축물 내부의 객체 상황에 대한 모니터링을 비교적 정확하게 수행할 수 있다.As described above, the present invention can relatively accurately monitor the status of objects inside a building by using image information suitable for estimating the size of the object and radar information suitable for deriving the distance and direction to the object.

또한, 본 발명의 실시예에 따른 건축물 모니터링 시스템은 레이저는 열화상이나 가사광 이미지에 비하여 연기나 화염의 영향을 덜 받기 때문에 건축물 내부를 효과적으로 감시할 수 있다. Additionally, the building monitoring system according to an embodiment of the present invention can effectively monitor the interior of a building because lasers are less affected by smoke or flames than thermal images or visible light images.

한편, 컨트롤부(150)는 표준 사이즈를 지닌 캘리브레이션용 표준 객체가 거리에 따른 표시 사이즈 변화에 따라 도출된 원근감 조정값을 통하여 표시 사이즈의 캘리브레이션을 수행할 수 있다. Meanwhile, the control unit 150 may perform calibration of the display size of a standard object for calibration with a standard size through a perspective adjustment value derived according to a change in display size according to distance.

예를 들어, 도 3에 도시된 바와 같이, 영상 촬영부(110)는 거리 별로 표준 객체에 대한 영상을 촬영할 수 있다. 이 때 표준 객체는 성인 남성이거나 성인 남성의 키와 양어깨폭과 유사한 크기의 물체가 될 수 있다. For example, as shown in FIG. 3, the image capture unit 110 may capture images of standard objects at different distances. At this time, the standard object can be an adult male or an object with a size similar to the height and shoulder width of an adult male.

표준 객체에 해당되는 성인 남성의 키는 전체 성인 남성의 평균키보다 큰 상위자의 키일 수 있다. 예를 들어, 표준 객체에 해당되는 성인 남성의 키는 전체 성인 남성의 상위 10%의 평균키일 수 있으나 상위의 기준은 10%보다 크거나 작을 수 있다. The height of an adult male corresponding to a standard object may be the height of a superior who is taller than the average height of all adult males. For example, the height of an adult male corresponding to a standard object may be the average height of the top 10% of all adult males, but the top standard may be larger or smaller than 10%.

영상 정보의 경우 영상 촬영부(110)와 표준 객체의 거리가 멀어질수록 표준 객체의 표시 사이즈가 작아질 수 있다. 원근감 조정값은 거리에 따라 표시 사이즈가 변하는 정도에 해당될 수 있다. 예를 들어, 영상 촬영부(110)와 표준 객체의 거리가 2 미터, 3 미터, 및 4 미터일 때 표준 객체가 영상에서 표시되는 표시 사이즈는 400개의 픽셀(pixel), 300개의 픽셀, 200개의 픽셀과 같이 거리가 증가함에 따라 작아질 수 있다. In the case of image information, as the distance between the image capturing unit 110 and the standard object increases, the display size of the standard object may become smaller. The perspective adjustment value may correspond to the degree to which the display size changes depending on the distance. For example, when the distance between the image capture unit 110 and the standard object is 2 meters, 3 meters, and 4 meters, the display size of the standard object in the image is 400 pixels, 300 pixels, and 200 pixels. Like pixels, they can get smaller as distance increases.

이와 같이 원근감 조정값은 객체의 거리에 따라 표시 사이즈가 변하는 정도를 나타낼 수 있다. 원근감 조정값은 픽셀의 개수일 수도 있고, 변화율일 수도 있으나 본 발명이 이에 한정되는 것은 아니다. In this way, the perspective adjustment value may indicate the degree to which the display size changes depending on the distance of the object. The perspective adjustment value may be the number of pixels or the rate of change, but the present invention is not limited thereto.

2 미터 거리가 기준 거리로 설정될 경우, 2 미터 거리에서의 400개의 픽셀이 기준 사이즈로 설정될 수 있다. 2미터 미만, 즉, 기준 거리 미만의 거리에서는 원근감 조정값에 따라 표시 사이즈가 400개의 픽셀보다 커질 수 있다. 또한, 기준 거리 초과의 거리에서는 원근감 조정값에 따라 표시 사이즈가 400개의 픽셀보다 작아질 수 있다. When a distance of 2 meters is set as the standard distance, 400 pixels at a distance of 2 meters can be set as the standard size. At distances of less than 2 meters, that is, less than the standard distance, the display size may be larger than 400 pixels depending on the perspective adjustment value. Additionally, at a distance exceeding the standard distance, the display size may become smaller than 400 pixels depending on the perspective adjustment value.

원근감 조정값은 영상 촬영부(110)의 스펙(spec)에 따라 달라질 수 있다. 예를 들어, 영상 촬영부(110)의 화각, 초점거리 또는 해상도에 따라 원근감 조정값이 달라질 수 있다. 본 발명에서 영상 촬영부(110)의 스펙은 이에 한정되지 않으며 다른 요소에 따라 원근감 조정값이 설정될 수 있다. The perspective adjustment value may vary depending on the specifications of the image capture unit 110. For example, the perspective adjustment value may vary depending on the angle of view, focal length, or resolution of the image capture unit 110. In the present invention, the specifications of the image capture unit 110 are not limited to this, and the perspective adjustment value may be set according to other factors.

다음으로 도 4 및 도 5를 참조하여 현장에 설치된 본 발명의 건축물 모니터링 장치의 동작 일례를 설명한다. Next, an example of the operation of the building monitoring device of the present invention installed in the field will be described with reference to FIGS. 4 and 5.

도 5에 도시된 바와 같이, 건축물 내부의 벽이나 기둥에 본 발명의 실시예에 따른 건축물 모니터링 장치가 설치될 수 있다. As shown in FIG. 5, a building monitoring device according to an embodiment of the present invention may be installed on a wall or pillar inside a building.

도 5 및 도 6에서는 본 발명의 실시예에 따른 건축물 모니터링 장치가 벽에 설치되어 있는 것으로 도시되어 있으나 이는 일례일 뿐 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 본 발명의 실시예에 따른 건축물 모니터링 장치는 천정이나 복도 등에 설치될 수 있다. 5 and 6 show that the building monitoring device according to an embodiment of the present invention is installed on a wall, but this is only an example and the present invention is not limited thereto. For example, the building monitoring device according to an embodiment of the present invention may be installed on the ceiling or hallway.

중첩 영역에 객체가 있을 경우, 도 5와 같이 레이더 정보는 객체에 대한 방향과 거리를 포함하므로 객체의 3차원 위치 정보를 제공할 수 있다. 레이더 정보는 객체의 사이즈에 대한 정보는 제공하지 못하므로 객체는 점으로 표시될 수 있다. 객체의 3차원 위치 정보에 따라 컨트롤부(150)는 본 발명의 실시예에 따른 건축물 모니터링 장치와 객체와의 거리 r1을 도출할 수 있다. When there is an object in the overlapping area, as shown in FIG. 5, radar information includes the direction and distance to the object, so it can provide three-dimensional location information of the object. Since radar information does not provide information about the size of an object, the object may be displayed as a dot. According to the 3D location information of the object, the control unit 150 can derive the distance r1 between the object and the building monitoring device according to an embodiment of the present invention.

컨트롤부(150)는 거리 r1에 해당되는 원근감 보정값을 통하여 객체의 표시 사이즈를 캘리브레이션할 수 있다. 캘리브레이션된 객체는 도 5와 같이 2차원 평면 상에 사각형으로 표시될 수 있다. 도 5에서는 캘리브레이션된 객체가 사각형으로 표시되었으나 본 발명이 이에 한정되는 것은 아니다. The control unit 150 may calibrate the display size of the object through the perspective correction value corresponding to the distance r1. The calibrated object may be displayed as a square on a two-dimensional plane, as shown in FIG. 5. In Figure 5, the calibrated object is displayed as a square, but the present invention is not limited to this.

이에 따라 도 5와 같이 객체의 사이즈와 객체의 거리가 2차원 평면 상에 표시될 수 있다. Accordingly, the size of the object and the distance between the object can be displayed on a two-dimensional plane, as shown in FIG. 5.

한편, 중첩 영역에 있는 객체들 중 동일 거리에 있는 객체들의 표시 사이즈는 객체의 실제 물리적 사이즈와 상관없이 동일하게 표시될 수 있다. Meanwhile, the display size of objects at the same distance among objects in the overlapping area may be displayed the same regardless of the actual physical size of the objects.

예를 들어, 중첩 영역에 성인 한명이 아동 한명을 데리고 있을 경우, 본 발명의 건축물 모니터링 장치와 성인의 거리 및 본 발명의 건축물 모니터링 장치와 아동의 거리가 거의 유사한 레이더 정보가 도출될 수 있다. 즉, 성인과 아동은 거리가 거의 유사한 2개의 점으로 표시될 수 있으며, 원근감 보정값을 통하여 성인과 아동 각각에 대한 캘리브레이션이 이루어질 수 있다.For example, when an adult has a child in an overlapping area, radar information may be derived in which the distance between the building monitoring device of the present invention and the adult and the distance between the building monitoring device of the present invention and the child are substantially similar. In other words, an adult and a child can be displayed as two points with approximately similar distances, and calibration for each adult and child can be performed through perspective correction values.

앞서 도 3을 참조하여 설명된 바와 같이, 캘리브레이션을 위한 원근감 보정값은 표준 객체를 통하여 설정된 것이기 때문에 성인과 아동의 키에 상관없이 캘리브레이션된 표시 사이즈는 서로 동일할 수 있다. As previously explained with reference to FIG. 3, since the perspective correction value for calibration is set through a standard object, the calibrated display size may be the same regardless of the height of the adult and child.

이와 같이 다양한 크기를 지닌 실제 객체가 동일 거리에 있을 경우 본 발명은 상기 객체들을 모두 동일한 표시 사이즈로 캘리브레이션함으로써 컨트롤부(150)의 연산량을 줄일 수 있다. In this way, when real objects of various sizes are at the same distance, the present invention can reduce the amount of calculation of the control unit 150 by calibrating all of the objects to the same display size.

한편, 도 6에 도시된 바와 같이, 관심 영역이 중첩 영역이거나 관심 영역이 중첩 영역 내에 있을 경우, 컨트롤부(150)는 표시 사이즈가 캘리브레이션된 객체가 허가 없이 관심 영역 내로 진입함에 따라 알람을 출력할 수 있다. Meanwhile, as shown in FIG. 6, when the area of interest is an overlapping area or the area of interest is within the overlapping area, the control unit 150 may output an alarm as an object whose display size is calibrated enters the area of interest without permission. You can.

보안 장치는 관심 영역으로 객체가 진입하는 것을 관리할 수 있다.컨트롤부(150)는 객체의 진입 허가 여부를 보안 장치(미도시)의 제어 모듈과 통신하여 확인할 수 있다. The security device can manage the entry of objects into the area of interest. The control unit 150 can check whether the object is permitted to enter by communicating with the control module of the security device (not shown).

도 6에 도시된 바와 같이, 캘리브레이션된 객체가 표시되는 2차원 좌표계는 영상 촬영부(110)의 영상 정보의 2차원 좌표계와 동일할 수 있다. 이를 위하여 컨트롤부(150)는 영상 정보와 좌표계와 레이더 정보의 좌표계 중 적어도 하나를 변환하여 영상 정보와 좌표계와 레이더 정보의 좌표계를 매칭시킬 수 있다. 또는 본 발명의 설치 전에 영상 정보와 좌표계와 레이더 정보의 좌표계가 매칭되도록 미리 설정될 수 있다. As shown in FIG. 6, the two-dimensional coordinate system in which the calibrated object is displayed may be the same as the two-dimensional coordinate system of the image information of the image capture unit 110. To this end, the control unit 150 can transform at least one of the coordinate system of the image information, the coordinate system, and the coordinate system of the radar information to match the coordinate system of the image information and the coordinate system with the radar information. Alternatively, before installation of the present invention, the coordinate system of the image information, the coordinate system, and the radar information may be set in advance to match.

이에 따라 컨트롤부(150)는 객체가 관심 영역에 다가감에 따라 거리가 변하므로 표시 사이즈를 조정하면서 객체가 관심 영역을 넘어서는지를 확인할 수 있다. Accordingly, the control unit 150 can check whether the object exceeds the area of interest while adjusting the display size because the distance changes as the object approaches the area of interest.

한편, 레이더 처리부(130)는 레이더 정보에 따른 객체의 RCS(Radar Cross Section)에 따라 객체가 사람인지 물체인지를 도출할 수 있다. 레이더 신호의 반사량은 객체의 표면에 따라 달라질 수 있다. 예를 들어, 사람의 피부, 물체 표면의 플라스틱이나 금속, 동물의 털에 따른 레이더 RCS값이 달라질 수 있다. Meanwhile, the radar processing unit 130 can derive whether the object is a person or an object according to the RCS (Radar Cross Section) of the object according to the radar information. The amount of reflection of a radar signal may vary depending on the surface of the object. For example, the radar RCS value may vary depending on human skin, plastic or metal on the surface of an object, or animal fur.

컨트롤부(150)는 레이더 정보로부터 도출된 객체의 RCS에 따라 객체의 종류를 제공할 수 있다. The control unit 150 may provide the type of object according to the RCS of the object derived from radar information.

한편, 밀집도가 낮은 중첩 영역에 방사하는 레이더 신호의 주파수는 밀집도가 높은 중첩 영역에 방사하는 레이더 신호의 주파수에 비하여 낮을 수 있다. Meanwhile, the frequency of the radar signal radiated to the overlapping area with low density may be lower than the frequency of the radar signal radiated to the overlapping area with high density.

예를 들어, 도심 번화가에 있는 건축물의 내부은 변두리 지역에 있는 건축물 내부에 비하여 객체의 밀집도가 높을 수 있다. 밀집도가 높을수록 객체와 객체 사이의 거리가 좁기 때문에 컨트롤부(150)는 레이더 정보를 통하여 객체들의 일부를 구별하지 못할 수 있다. For example, the interior of a building in a downtown area may have a higher density of objects than the interior of a building in a suburban area. As the density increases, the distance between objects becomes narrow, so the control unit 150 may not be able to distinguish some of the objects through radar information.

이를 방지하기 위하여 밀집도가 높은 중첩 영역에는 주파수가 높은 레이더 신호를 처리하는 레이더 처리부(130)가 구비될 수 있고, 밀집도가 낮은 중첩 영역에는 주파수가 낮은 레이더 신호를 처리하는 레이더 처리부(130)가 구비될 수 있다.To prevent this, a radar processing unit 130 that processes high-frequency radar signals may be provided in the overlapping area with high density, and a radar processing unit 130 that processes low-frequency radar signals may be provided in the overlapping area with low density. It can be.

예를 들어, 밀집도가 낮은 변두리의 보행 영역은 24 GHz 대역의 주파수 신호가 이용되고, 밀집도가 높은 도심 번화가의 보행 영역은 60 GHz 대역의 주파수 신호가 이용될 수 있다. For example, a frequency signal in the 24 GHz band may be used in a pedestrian area on the outskirts with low density, and a frequency signal in the 60 GHz band may be used in a pedestrian area in a downtown area with high density.

한편, 컨트롤부(150)는 중첩 영역을 제외한 제1 영역 및 제2 영역의 영상 정보 및 레이더 정보를 처리하지 않을 수 있다. 예를 들어, 도 2에 도시된 바와 같이, 중첩 영역을 제외한 영상 정보 및 레이더 정보의 제1 영역과 제2 영역에 있는 객체에 대한 캘리브레이션을 수행하지 않음으로써 컨트롤부(150)의 연산 부담을 줄일 수 있다. Meanwhile, the control unit 150 may not process image information and radar information in the first and second areas excluding the overlapping area. For example, as shown in FIG. 2, the computational burden on the control unit 150 can be reduced by not performing calibration on objects in the first and second areas of image information and radar information excluding the overlapping area. You can.

한편, 컨트롤부(150)는 관제 센터의 제어에 따라 중첩 영역에 포함된 관심 영역을 설정하고, 관심 영역에 있는 객체를 도출하여 객체가 관심 영역 내로 진입하거나 관심 영역 밖으로 진출하는 지를 판단할 수 있다. Meanwhile, the control unit 150 sets the area of interest included in the overlapping area under the control of the control center, derives the object in the area of interest, and determines whether the object enters the area of interest or advances out of the area of interest. .

예를 들어, 도 6에 도시된 바와 같이, 관제 센터는 제1 영역과 제2 영역의 중첩 영역 중 적어도 일부를 관심 영역으로 설정할 수 있다. 이에 따라 컨트롤부(150)는 관심 영역을 제외한 나머지 제1 영역 및 제2 영역에서의 객체 처리하지 않을 수 있다. For example, as shown in FIG. 6, the control center may set at least a portion of the overlapping area between the first area and the second area as the area of interest. Accordingly, the control unit 150 may not process objects in the first and second areas other than the area of interest.

또한, 관리자는 관제 센터의 입력장치(예를 들어, 마우스, 키보드, 스타일러스 펜 등)을 조작하여 2차원 평면 상에서 관심 영역의 위치를 필요에 따라 변경시킬 수 있다.Additionally, the administrator can manipulate the control center's input device (eg, mouse, keyboard, stylus pen, etc.) to change the location of the area of interest on the two-dimensional plane as needed.

이상과 같이 본 발명에 따른 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화 될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, the embodiments according to the present invention have been examined, and the fact that the present invention can be embodied in other specific forms in addition to the embodiments described above without departing from the spirit or scope thereof will be recognized by those skilled in the art. It is self-evident. Therefore, the above-described embodiments are to be regarded as illustrative and not restrictive, and thus the present invention is not limited to the above description but may be modified within the scope of the appended claims and their equivalents.

영상 촬영부(110)
레이더 처리부(130)
컨트롤부(150)
하우징(170)
Video recording unit (110)
Radar processing unit (130)
Control unit (150)
Housing(170)

Claims (7)

건축물 내부의 제1 영역을 촬영하여 영상 정보를 출력하도록 구성된 영상 촬영부;
상기 건축물 내부의 제2 영역에 레이더 신호를 송신하고 상기 제2 영역에서 반사된 레이더 신호를 수신하여 레이더 정보를 출력하도록 구성된 레이더 처리부; 및
상기 제1 영역과 상기 제2 영역의 중첩 영역에 있는 객체를 도출하고 상기 객체 중 이동하는 객체의 유무를 판단하도록 구성된 컨트롤부를 포함하며,
상기 컨트롤부는 상기 중첩 영역의 레이더 정보로부터 상기 객체에 대한 거리 및 방향을 도출하고, 상기 객체의 거리에 따라 상기 객체의 표시 사이즈를 캘리브레이션(calibration)하도록 구성되며,
상기 컨트롤부는 크기가 고정된 캘리브레이션용 표준 객체가 거리에 따른 표시 사이즈 변화에 따라 도출된 원근감 조정값을 통하여 상기 표시 사이즈의 캘리브레이션을 수행하고,
상기 중첩 영역에 있는 객체들 중 동일 거리에 있는 객체들의 표시 사이즈는 상기 크기가 고정된 캘리브레이션용 표준 객체를 통하여 설정된 상기 원근값 보정값에 따라 캘리브레이션되어 객체의 실제 물리적 사이즈와 상관없이 동일 사이즈로 표시되는 것을 특징으로 하는 건축물 모니터링 장치.
An image capture unit configured to photograph a first area inside a building and output image information;
a radar processing unit configured to transmit a radar signal to a second area inside the building, receive a radar signal reflected from the second area, and output radar information; and
A control unit configured to derive objects in an overlapping area of the first area and the second area and determine whether or not there is a moving object among the objects,
The control unit is configured to derive the distance and direction to the object from radar information in the overlapping area and calibrate the display size of the object according to the distance of the object,
The control unit performs calibration of the display size through a perspective adjustment value derived according to a change in the display size of a standard object for calibration with a fixed size depending on the distance,
The display size of objects at the same distance among the objects in the overlapping area is calibrated according to the perspective correction value set through the standard object for calibration with a fixed size, and is displayed at the same size regardless of the actual physical size of the object. A building monitoring device characterized by being.
제1항에 있어서,
관심 영역이 상기 중첩 영역이거나 상기 중첩 영역 내에 있을 경우,
상기 컨트롤부는 표시 사이즈가 캘리브레이션된 객체가 허가 없이 상기 관심 영역 내로 진입함에 따라 알람을 출력하는 것을 특징으로 하는 건축물 모니터링 장치.
According to paragraph 1,
If the region of interest is or is within the overlapping area,
The control unit is a building monitoring device characterized in that the control unit outputs an alarm when an object whose display size is calibrated enters the area of interest without permission.
삭제delete 삭제delete 제1항 또는 제2항에 있어서,
상기 레이더 처리부는 상기 레이더 정보에 따른 상기 객체의 RCS(Radar Cross Section)에 따라 상기 객체가 사람인지 물체인지를 도출하는 것을 특징으로 하는 건축물 모니터링 장치.
According to claim 1 or 2,
The radar processing unit is a building monitoring device characterized in that the object is a person or an object according to the RCS (Radar Cross Section) of the object according to the radar information.
제1항 또는 제2항에 있어서,
밀집도가 낮은 중첩 영역에 방사하는 레이더 신호의 주파수는 밀집도가 높은 중첩 영역에 방사하는 레이더 신호의 주파수에 비하여 낮은 것을 특징으로 하는 건축물 모니터링 장치.
According to claim 1 or 2,
A building monitoring device characterized in that the frequency of the radar signal radiated to a low-density overlapping area is lower than the frequency of the radar signal radiated to a high-density overlapping area.
제1항에 있어서,
상기 컨트롤부는 상기 중첩 영역을 제외한 제1 영역 및 제2 영역의 영상 정보 및 레이더 정보를 처리하지 않는 것을 특징으로 하는 건축물 모니터링 장치.
According to paragraph 1,
A building monitoring device, characterized in that the control unit does not process image information and radar information in the first and second areas excluding the overlapping area.
KR1020230119618A 2023-09-08 2023-09-08 Apparatus for monitoring construction KR102640386B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230119618A KR102640386B1 (en) 2023-09-08 2023-09-08 Apparatus for monitoring construction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230119618A KR102640386B1 (en) 2023-09-08 2023-09-08 Apparatus for monitoring construction

Publications (1)

Publication Number Publication Date
KR102640386B1 true KR102640386B1 (en) 2024-02-27

Family

ID=90058485

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230119618A KR102640386B1 (en) 2023-09-08 2023-09-08 Apparatus for monitoring construction

Country Status (1)

Country Link
KR (1) KR102640386B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160116842A (en) * 2015-03-31 2016-10-10 (주)블루비스 Video surveillance system and method for providing visual event outcomes
KR20180096984A (en) 2017-02-22 2018-08-30 한국과학기술원 Apparatus and method for depth estimation based on thermal image, and neural network learning method
KR102108326B1 (en) * 2019-12-19 2020-05-12 주식회사 세오 Artificial intelligence object identification method and system based on radar signal and camera image information identifying object
KR20230075193A (en) * 2021-11-22 2023-05-31 (주)노바코스 Radar and camera fusion based vehicle recognition system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160116842A (en) * 2015-03-31 2016-10-10 (주)블루비스 Video surveillance system and method for providing visual event outcomes
KR20180096984A (en) 2017-02-22 2018-08-30 한국과학기술원 Apparatus and method for depth estimation based on thermal image, and neural network learning method
KR102108326B1 (en) * 2019-12-19 2020-05-12 주식회사 세오 Artificial intelligence object identification method and system based on radar signal and camera image information identifying object
KR20230075193A (en) * 2021-11-22 2023-05-31 (주)노바코스 Radar and camera fusion based vehicle recognition system

Similar Documents

Publication Publication Date Title
CN107836012B (en) Projection image generation method and device, and mapping method between image pixel and depth value
TWI580273B (en) Surveillance system
US6476812B1 (en) Information processing system, information processing method, and supplying medium
CN104935893B (en) Monitor method and apparatus
US9274204B2 (en) Camera tracing and surveillance system and method for security using thermal image coordinate
US10885761B2 (en) Calibrating a sensor system including multiple movable sensors
US9129181B1 (en) Object detection, location, and/or tracking with camera and lighting system
EP3300045A1 (en) System and method for surveilling a scene comprising an allowed region and a restricted region
KR20200132137A (en) Device For Computing Position of Detected Object Using Motion Detect and Radar Sensor
US20210241597A1 (en) Smart surveillance system for swimming pools
McNeil et al. Autonomous fire suppression system for use in high and low visibility environments by visual servoing
US20190218773A1 (en) Light-shielding device, light-shielding method, and program
CN108769476A (en) Image acquiring method and device, image collecting device, computer equipment and readable storage medium storing program for executing
CZ306524B6 (en) A method of monitoring using a camera system with spatial motion detection
JP2013051477A (en) Video monitoring device, video monitoring method, and program
US20210378520A1 (en) Free flow fever screening
KR102640386B1 (en) Apparatus for monitoring construction
CN112995619A (en) Projection display control method and device and projection system
US10242269B2 (en) Occupant position tracking using imaging sensors
KR102374357B1 (en) Video Surveillance Apparatus for Congestion Control
US11256910B2 (en) Method and system for locating an occupant
KR102617713B1 (en) Apparatus for managing cross of crosswalk
JP7040511B2 (en) Information processing equipment and methods
JP2003109001A (en) System and program for detecting person
US20170255833A1 (en) Surveillance method, device and system

Legal Events

Date Code Title Description
GRNT Written decision to grant