KR102153486B1 - Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position - Google Patents

Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position Download PDF

Info

Publication number
KR102153486B1
KR102153486B1 KR1020190111459A KR20190111459A KR102153486B1 KR 102153486 B1 KR102153486 B1 KR 102153486B1 KR 1020190111459 A KR1020190111459 A KR 1020190111459A KR 20190111459 A KR20190111459 A KR 20190111459A KR 102153486 B1 KR102153486 B1 KR 102153486B1
Authority
KR
South Korea
Prior art keywords
avm
fixed
information
location information
mobile
Prior art date
Application number
KR1020190111459A
Other languages
Korean (ko)
Inventor
심승보
최상일
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020190111459A priority Critical patent/KR102153486B1/en
Application granted granted Critical
Publication of KR102153486B1 publication Critical patent/KR102153486B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Abstract

Provided are a multi-AVM camera system for measuring locations of construction machines and workers and a method for measuring locations of construction machines and workers thereof. The multi-AVM camera system for measuring locations of construction machines and workers comprises: a plurality of fixed AVM devices installed on different fixed locations of a construction site, recognizing an object by analyzing fixed photographed images obtained by photographing the construction site, estimating location information of the recognized object, and transmitting attribute information (hereinafter, referred to as fixed attribute information) including the estimated location information to a central server; at least one mobile AVM device installed in a construction machine to be able to move, recognizing an object by analyzing a mobile photographed image obtained by photographing the construction site, estimating location information of the recognized object, and transmitting attribute information (hereinafter, referred to as mobile attribute information) including the estimated location information to the central server; and a central server for correcting the location information of the object based on multiple views by analyzing a plurality of fixed attribute information and at least one mobile type attribute information, which are received.

Description

건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템 및 그의 건설 기계 및 작업자 위치 측정 방법{Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position}Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position, and a multi-AVM Camera System and Method for Measuring Construction Machine and Worker Position

본 발명은 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템 및 그의 건설 기계 및 작업자 위치 측정 방법에 관한 것으로서, 보다 상세하게는, 고정형 및 이동형 AVM 카메라들을 이용하여 건설 기계 주변의 다른 기계 또는 작업자의 위치를 측정 및 보정할 수 있는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템 및 그의 건설 기계 및 작업자 위치 측정 방법에 관한 것이다.The present invention relates to a multi-AVM camera system for measuring the position of a construction machine and a worker, and a method for measuring the location of the construction machine and the worker, and more particularly, by using fixed and mobile AVM cameras, It relates to a construction machine capable of measuring and correcting the position and a multi-AVM camera system for measuring the position of a worker, and a method of measuring the position of the construction machine and the worker thereof.

안전사고 예방기술로서 건설 기계에 대한 안전기술은 지속적으로 연구되고 있으며 그 중에서도 센서 기술은 핵심 분야라고 할 수 있다.As a safety accident prevention technology, safety technology for construction machinery is constantly being researched, and sensor technology is a key field among them.

실제로 건설 기계 분야에 적용된 기술을 살펴보면 굴삭기를 이용한 작업 수행 중 안전사고를 예방하기 위해 레이저 센서를 사용하는 기술이 적용되고 있으며, 센서를 이용하여 굴삭기 주변에 장애물이 존재하는지 판단하고 사고가 일어나지 않도록 제어를 수행한다.When looking at the technology applied in the field of construction machinery, a technology using a laser sensor is applied to prevent safety accidents while performing work using an excavator, and the sensor is used to determine whether obstacles exist around the excavator and control to prevent accidents. Perform.

또한, 초음파 센서를 이용하여 건설 기계 주변에 근접하는 객체에 대한 알람을 발생하는 기술도 존재한다. In addition, there is a technology that generates an alarm for an object close to a construction machine using an ultrasonic sensor.

그러나, 이러한 기존의 기술은 1차원적인 센서들로 주변에 객체가 존재하는지 존재 유무를 판단하는 역할만 수행할 뿐, 객체에 대한 정확한 정보를 제공하지는 못한다. However, such existing technology is one-dimensional sensors that only play a role of determining whether an object exists or not, but does not provide accurate information about the object.

따라서, 기존의 기술을 이용하는 경우 작업자와 건설 기계 간의 구분이 어렵고, 심지어 작업 대상을 오인식하는 경우도 일어나 작업에 효율성을 떨어뜨릴 수 있다. Therefore, when using an existing technology, it is difficult to distinguish between a worker and a construction machine, and even a case of misrecognizing a work object may decrease the efficiency of work.

이러한 단점을 보완하기 위해서 주변 객체를 인식할 수 있는 고차원 센서를 사용하고자 하는 수요가 증가하고 있는 추세이며, 대표적으로 영상 센서가 있다.In order to compensate for these shortcomings, there is a trend of increasing demand to use a high-dimensional sensor capable of recognizing surrounding objects, and representatively, there is an image sensor.

일례로 AVM (Around View Monitor) 카메라 기술을 바탕으로 카메라와 초음파 센서를 융합하여 초음파 센서의 단점인 객체 인식 기능을 카메라로 보완하고, 4대의 AVM 카메라를 굴삭기에 장착하여 작업자의 근접 여부를 파악하는 기술이 연구되었다. 그러나, 이 기술 역시 영상을 통해 주변에 작업자의 존재 여부를 판단하는 알고리즘은 제시하지 못하고 있으며, 모니터를 통해 굴삭기 운전자가 육안으로 작업자의 존재 여부를 판단하여야만 한다. For example, based on the AVM (Around View Monitor) camera technology, a camera and an ultrasonic sensor are combined to complement the object recognition function, which is a disadvantage of the ultrasonic sensor, with a camera, and four AVM cameras are installed on the excavator to determine the proximity of the worker. The technology was studied. However, this technology also does not present an algorithm for determining whether an operator exists in the vicinity through an image, and an excavator driver must visually determine whether an operator exists through a monitor.

국내 등록특허 제10-1916467호Domestic Patent Registration No. 10-1916467

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 카메라 영상을 통해 건설 기계의 주변에 존재하는 객체의 종류와 영상 내에서의 위치정보뿐만 아니라, 건설 기계로부터 대상 물체까지의 거리 정보와 방향 정보도 파악할 수 있는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템 및 그의 건설 기계 및 작업자 위치 측정 방법을 제시하는 데 있다.In order to solve the above-described problems, the present invention provides information on the distance from the construction machine to the target object, as well as information on the types of objects existing around the construction machine and location information in the image through the camera image. It is to present a multi-AVM camera system for measuring the position of construction machinery and workers that can also grasp direction information, and a method of measuring the position of construction machinery and workers thereof.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem of the present invention is not limited to those mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따르면, 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템은, 건설 현장의 서로 다른 고정된 위치에 설치되고, 건설 현장을 촬영한 고정형 촬영 영상들을 분석하여 객체를 인식하고, 상기 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '고정형 속성정보'라 한다)를 하기 중앙 서버로 전송하는 다수의 고정형 AVM 장치들; 건설 기계에 이동가능하도록 설치되고, 건설 현장을 촬영한 이동형 촬영 영상을 분석하여 객체를 인식하고, 상기 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '이동형 속성정보'라 한다)를 하기 중앙 서버로 전송하는 적어도 하나의 이동형 AVM 장치; 및 상기 수신되는 다수의 고정형 속성정보들과 적어도 하나의 이동형 속성정보를 분석하여 상기 객체의 위치정보를 다시점 기반으로 보정하는 중앙 서버;를 포함한다.As a means for solving the above-described technical problem, according to an embodiment of the present invention, a multiple AVM camera system for measuring a construction machine and a worker's position is installed at different fixed positions on a construction site, and photographing a construction site. Recognizing the object by analyzing the fixed-type photographed images, and transmitting attribute information (hereinafter referred to as'fixed-type attribute information') including the estimated position information by estimating the position information of the recognized object to the following central server. Fixed AVM devices; Attribute information that is installed to be movable on a construction machine, recognizes an object by analyzing a movable photographed image of a construction site, and estimates the position information of the recognized object (hereinafter referred to as ``movable attribute At least one mobile AVM device that transmits'information') to the following central server; And a central server that analyzes the received plurality of fixed type attribute information and at least one mobile type attribute information and corrects the location information of the object based on a multi-view.

상기 고정형 속성정보는, 상기 고정형 촬영 영상에서 인식된 객체의 위치정보와 종류, 상기 객체가 포함된 고정형 촬영 영상과 촬영 시간 및 고정형 AVM 장치가 설치된 위치 정보를 포함하고, 상기 이동형 속성정보는, 상기 이동형 촬영 영상에서 인식된 객체의 위치정보와 종류, 상기 객체가 포함된 이동형 촬영 영상과 촬영 시간 및 건설 기계의 위치 정보를 포함한다.The fixed attribute information includes location information and type of an object recognized in the fixed photographed image, a fixed photographed image including the object, a photographing time, and location information on which a fixed AVM device is installed, and the movable attribute information includes the It includes the location information and type of the object recognized in the mobile photographing image, the mobile photographing image including the object, the photographing time, and the location information of the construction machine.

상기 중앙 서버는, 상기 다수의 고정형 AVM 장치들과 적어도 하나의 이동형 AVM 장치로부터 다수의 고정형 속성정보들과 적어도 하나의 이동형 속성정보들을 수신하는 서버 통신부; 상기 다수의 고정형 AVM 장치들의 검교정을 수행하여 고정형 AVM 장치들 간의 관계 파라미터를 획득하는 AVM 검교정부; 상기 획득한 관계 파라미터와 상기 다수의 고정형 속성정보들을 이용하여, 상기 다수의 고정형 AVM 장치들에서 인식된 객체의 위치정보를 보정하는 제1위치 보정부; 및 상기 제1위치 보정부에서 보정된 객체의 위치정보와 상기 적어도 하나의 이동형 AVM 장치에서 추정된 객체의 위치정보를 비교하여 상기 객체의 위치정보를 최종으로 보정하는 제2위치 보정부;를 포함한다.The central server includes: a server communication unit configured to receive a plurality of fixed type attribute information and at least one mobile type attribute information from the plurality of fixed AVM devices and at least one mobile AVM device; An AVM calibration unit for acquiring a relationship parameter between the fixed AVM devices by performing calibration and calibration of the plurality of fixed AVM devices; A first position correction unit correcting position information of an object recognized by the plurality of fixed AVM devices by using the obtained relationship parameter and the plurality of fixed attribute information; And a second position correction unit for finally correcting the position information of the object by comparing the position information of the object corrected by the first position correction unit with the position information of the object estimated by the at least one mobile AVM device. do.

상기 제1위치 보정부는, 상기 다수의 고정형 속성정보들 중 위치정보들과 촬영 영상들로부터 상기 객체가 위치할 것으로 추정되는 카메라 측정 오차 범위를 상기 다수의 고정형 AVM 장치들 각각에 대해 판단하는 오차 범위 판단부; 및 상기 오차 범위 판단부에서 판단된 다수의 카메라 측정 오차 범위들의 중첩 영역을 확인하여 상기 객체의 보정된 위치정보로서 정하는 중첩 확인부;를 포함한다.The first position correction unit may determine an error range of a camera measurement estimated to be located at the object from position information and captured images among the plurality of fixed attribute information for each of the plurality of fixed AVM devices. Judgment unit; And an overlap checker configured to determine an overlapping area of the plurality of camera measurement error ranges determined by the error range determination unit as corrected position information of the object.

상기 제2위치 보정부는, 상기 중첩 확인부에서 확인된 중첩 영역과 상기 이동형 속성정보에 포함된 객체의 위치정보의 중첩영역을 확인하여 상기 객체의 최종 위치정보로서 보정한다.The second position correcting unit checks the overlapping area of the overlapping area checked by the overlapping check unit and the positional information of the object included in the movable property information, and corrects it as the final positional information of the object.

상기 다수의 고정형 AVM 장치들은 각각, 각각 고정형 촬영 영상을 출력하는 다수의 고정형 AVM 카메라들을 포함하는 AVM 카메라부; 상기 다수의 고정형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 상기 측정된 객체의 위치정보를 포함하는 고정형 속성정보를 생성하는 연산 제어부; 및 상기 생성된 고정형 속성정보를 중앙 서버로 전송하는 통신부;를 포함한다.Each of the plurality of fixed AVM devices includes an AVM camera unit including a plurality of fixed AVM cameras each outputting a fixed image; An operation for recognizing temporary objects by analyzing the plurality of stationary photographed images, matching the recognized temporary objects to determine the object, measuring location information, and generating fixed property information including location information of the measured object Control unit; And a communication unit for transmitting the generated fixed attribute information to a central server.

상기 적어도 하나의 이동형 AVM 장치는, 상기 건설 기계의 위치 정보를 수신하는 GPS부; 각각 이동형 촬영 영상을 출력하는 다수의 이동형 AVM 카메라들을 포함하는 AVM 카메라부; 상기 다수의 이동형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 상기 측정된 객체의 위치정보를 포함하는 이동형 속성정보를 생성하는 연산 제어부; 및 상기 생성된 이동형 속성정보를 중앙 서버로 전송하는 통신부;를 포함한다.The at least one mobile AVM device may include a GPS unit for receiving location information of the construction machine; An AVM camera unit including a plurality of mobile AVM cameras each outputting a mobile photographed image; An operation for recognizing temporary objects by analyzing the plurality of mobile photographed images, matching the recognized temporary objects to determine the object, measuring position information, and generating mobile attribute information including position information of the measured object Control unit; And a communication unit for transmitting the generated mobile attribute information to a central server.

상기 연산 제어부는, 상기 측정된 객체의 위치정보를 상기 GPS부에서 수신한 건설 기계의 위치 정보와 연계하여 월드 좌표로 변환하고, 변환된 월드 좌표를 상기 객체의 위치정보로 정한다.The calculation control unit converts the measured location information of the object into world coordinates in association with the location information of the construction machine received from the GPS unit, and determines the converted world coordinates as the location information of the object.

한편, 본 발명의 다른 실시 예에 따르면, 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법은, (A) 다수의 고정형 AVM 장치들이, 건설 현장의 서로 다른 고정된 위치에 설치되어 건설 현장을 촬영한 고정형 촬영 영상들을 분석하여 객체를 인식하고, 상기 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '고정형 속성정보'라 한다)를 하기 중앙 서버로 전송하는 단계; (B) 적어도 하나의 이동형 AVM 장치가, 건설 기계에 이동가능하도록 설치되어 건설 현장을 촬영한 이동형 촬영 영상을 분석하여 객체를 인식하고, 상기 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '이동형 속성정보'라 한다)를 하기 중앙 서버로 전송하는 단계; 및 (C) 중앙 서버가, 상기 (A) 단계 및 (B) 단계로부터 수신되는 다수의 고정형 속성정보들과 적어도 하나의 이동형 속성정보를 분석하여 상기 객체의 위치정보를 다시점 기반으로 보정하는 단계;를 포함한다.On the other hand, according to another embodiment of the present invention, the method for measuring the position of a construction machine and a worker of a multi-AVM camera system includes (A) a plurality of fixed AVM devices are installed at different fixed positions of a construction site to photograph a construction site. Recognizing an object by analyzing the fixed-type photographed images, and transmitting attribute information (hereinafter referred to as'fixed-type attribute information') including the estimated position information by estimating the position information of the recognized object to the following central server ; (B) At least one movable AVM device is installed to be movable on a construction machine and recognizes an object by analyzing a movable photographed image taken of a construction site, and estimates the location information of the recognized object to obtain the estimated location information. Transmitting the included attribute information (hereinafter, referred to as'portable attribute information') to the following central server; And (C) analyzing, by the central server, a plurality of fixed property information and at least one mobile property information received from steps (A) and (B), and correcting the location information of the object based on multiple views. Includes;

상기 (C) 단계는, (C1) 상기 중앙 서버가, 상기 다수의 고정형 AVM 장치들의 검교정을 수행하여 고정형 AVM 장치들 간의 관계 파라미터를 획득하는 단계; (C2) 상기 중앙 서버가, 상기 획득한 관계 파라미터와 상기 수신된 다수의 고정형 속성정보들을 이용하여, 상기 다수의 고정형 AVM 장치들에서 인식된 객체의 위치정보를 보정하는 단계; 및 (C3) 상기 중앙 서버가, 상기 (C2) 단계에서 보정된 객체의 위치정보와 상기 (B) 단계에서 추정된 객체의 위치정보를 비교하여 상기 객체의 위치정보를 최종으로 보정하는 단계;를 포함한다.The step (C) may include: (C1) the central server performing calibration of the plurality of fixed AVM devices to obtain a relationship parameter between the fixed AVM devices; (C2) the central server correcting, by the central server, location information of objects recognized by the plurality of fixed AVM devices, using the obtained relationship parameter and the plurality of received fixed attribute information; And (C3) comparing, by the central server, the location information of the object corrected in step (C2) with the location information of the object estimated in step (B), and finally correcting the location information of the object. Include.

상기 (C2) 단계는, 상기 중앙 서버가, 상기 다수의 고정형 속성정보들 중 위치정보들과 촬영 영상들로부터 상기 객체가 위치할 것으로 추정되는 카메라 측정 오차 범위를 상기 다수의 고정형 AVM 장치들 각각에 대해 판단하고, 상기 판단된 다수의 카메라 측정 오차 범위들의 중첩 영역을 확인하여 상기 객체의 보정된 위치정보로서 정한다.In the step (C2), the central server determines a camera measurement error range estimated to be located from the location information and captured images among the plurality of fixed property information to each of the plurality of fixed AVM devices. Is determined, and the overlapped region of the determined measurement error ranges of the plurality of cameras is checked and determined as corrected position information of the object.

상기 (C3) 단계는, 상기 중앙 서버가, 상기 (C2) 단계에서 확인된 중첩 영역과 상기 이동형 속성정보에 포함된 객체의 위치정보의 중첩영역을 확인하여 상기 객체의 최종 위치정보로서 보정한다.In the step (C3), the central server checks the overlapping area of the overlapping area checked in the step (C2) and the location information of the object included in the movable property information, and corrects it as the final location information of the object.

상기 (A) 단계는, 상기 다수의 고정형 AVM 장치들이 각각, (A1) 다수의 고정형 AVM 카메라들이 촬영한 고정형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 상기 측정된 객체의 위치정보를 포함하는 고정형 속성정보를 생성하는 단계; 및 (A2) 상기 생성된 고정형 속성정보를 중앙 서버로 전송하는 단계;를 포함한다.In the step (A), each of the plurality of fixed AVM devices, (A1) recognizes temporary objects by analyzing fixed image images captured by a plurality of fixed AVM cameras, matches the recognized temporary objects to determine the object. Measuring the location information, and generating fixed property information including location information of the measured object; And (A2) transmitting the generated fixed type attribute information to a central server.

상기 (B) 단계는, 상기 적어도 하나의 이동형 AVM 장치가, (B1) 상기 건설 기계의 위치 정보를 수신하는 단계; (B2) 다수의 이동형 AVM 카메라들이 촬영한 이동형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 상기 측정된 객체의 위치정보를 포함하는 이동형 속성정보를 생성하는 단계; 및 (B3) 상기 생성된 이동형 속성정보를 중앙 서버로 전송하는 단계;를 포함한다.The (B) step, the at least one mobile AVM device, (B1) receiving the location information of the construction machine; (B2) Recognize temporary objects by analyzing mobile photographed images captured by a plurality of mobile AVM cameras, match the recognized temporary objects to determine the object, measure location information, and include location information of the measured object Generating mobile attribute information to be performed; And (B3) transmitting the generated mobile attribute information to a central server.

본 발명에 따르면, 건설기계 탑재형 AVM 장치 또는 건설 현장 고정형 AVM 장치로부터 획득한 객체(작업자 또는 다른 장비)와 건설기계의 위치 정보를 수집하여, 수집된 위치 정보로부터 객체의 정확한 위치 정보를 추정하여 건설 현장에서 발생할 수 있는 위험상황을 사전에 방지할 수 있다. According to the present invention, by collecting the location information of the object (worker or other equipment) and the construction machine acquired from a construction machine-mounted AVM device or a construction site fixed AVM device, and by estimating the exact location information of the object from the collected location information Dangerous situations that may occur at construction sites can be prevented in advance.

또한, 본 발명에 따르면, 건설 현장에서 정보 공유 채널의 부재로 인해 발생하던 안전사고를 예방할 수 있으며, 재해율 감소에 기여할 수 있다.In addition, according to the present invention, it is possible to prevent a safety accident that occurred due to the absence of an information sharing channel at a construction site, and contribute to a reduction in the accident rate.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시 예에 따른 건설 기계 및 작업자 위치 측정을 위한 다중 AVM(Around View Monitor) 카메라 시스템 개요도,
도 2는 도 1에 도시된 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템을 도시한 블록도,
도 3은 본 발명의 실시 예에 따른 제1위치 보정부를 도시한 블록도,
도 4는 위치정보 보정을 설명하기 위한 예시도,
도 5는 본 발명의 실시 예에 따른 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법을 도시한 흐름도,
도 6은 S500단계를 자세히 도시한 흐름도, 그리고,
도 7은 S540단계를 자세히 도시한 흐름도이다.
1 is a schematic diagram of a multiple AVM (Around View Monitor) camera system for measuring a construction machine and a worker's position according to an embodiment of the present invention;
FIG. 2 is a block diagram showing a multiple AVM camera system for measuring the location of the construction machine and worker shown in FIG. 1;
3 is a block diagram showing a first position correction unit according to an embodiment of the present invention;
4 is an exemplary diagram for explaining position information correction;
5 is a flow chart illustrating a method for measuring a construction machine and a worker's position of a multi-AVM camera system according to an embodiment of the present invention;
6 is a flow chart showing in detail step S500, and,
7 is a detailed flowchart illustrating step S540.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features, and advantages of the present invention will be easily understood through the following preferred embodiments related to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

본 명세서에서 제1, 제2 등의 용어가 구성요소들을 기술하기 위해서 사용된 경우, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시 예들은 그것의 상보적인 실시 예들도 포함한다.In the present specification, when terms such as first and second are used to describe components, these components should not be limited by these terms. These terms are only used to distinguish one component from another component. The embodiments described and illustrated herein also include complementary embodiments thereof.

또한, 어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.In addition, if an element, component, device, or system is stated to include a program or a component made of software, the element, component, device, or system is executed by the program or software, even if there is no explicit mention. Or, it should be understood to include hardware (eg, memory, CPU, etc.) or other programs or software (eg, a driver required to drive an operating system or hardware) required to operate.

또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, it should be understood that an element (or component) may be implemented in software, hardware, or any form of software and hardware, unless otherwise specified in the implementation of any element (or component).

또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements.

이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시 예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. Hereinafter, the present invention will be described in detail with reference to the drawings. In describing the specific embodiments below, a number of specific contents have been prepared to explain the invention in more detail and to aid understanding. However, readers who have knowledge in this field to the extent that they can understand the present invention can recognize that it can be used without these various specific contents.

어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다. In some cases, it is mentioned in advance that parts that are commonly known in describing the invention and are not largely related to the invention are not described in order to avoid confusion in the description of the invention without any reason.

도 2 및 도 3에 도시된 다중 AVM 카메라 시스템의 각각의 구성은 기능 및 논리적으로 분리될 수도 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 작성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.Each configuration of the multi-AVM camera system shown in FIGS. 2 and 3 indicates that each configuration may be separated functionally and logically, and it means that each configuration is divided into a separate physical device or written in a separate code. It may be easily inferred by an average expert in the technical field of the present invention.

도 1은 본 발명의 실시 예에 따른 건설 기계 및 작업자 위치 측정을 위한 다중 AVM(Around View Monitor) 카메라 시스템 개요도이다.1 is a schematic diagram of a multiple AVM (Around View Monitor) camera system for measuring a construction machine and a worker's position according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예는 건설 기계에 탑재되는 이동형 AVM 카메라 장치와 건설 현장 내에 설치되는 고정형 AVM 카메라 장치를 이용하여 작업자 또는 다른 건설 기계의 위치를 측정 및 보정하는 것으로, 이를 위하여 카메라 간 검교정 동작과, 다시점 기반 위치 추정 및 보정 동작을 수행할 수 있다. 이로써, 건설 현장에서 작업자 또는 다른 건설 기계의 위치를 측정 및 공유함으로써 안전사고 예방을 높이고 위험 상황을 미리 판단할 수 있다.Referring to Figure 1, an embodiment of the present invention is to measure and correct the position of a worker or other construction machine using a mobile AVM camera device mounted on a construction machine and a fixed AVM camera device installed in the construction site. It is possible to perform a calibration operation between cameras and a multi-view-based position estimation and correction operation. Accordingly, by measuring and sharing the location of workers or other construction machinery on the construction site, it is possible to increase the prevention of safety accidents and to determine the danger situation in advance.

도 2는 도 1에 도시된 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템을 도시한 블록도이다.FIG. 2 is a block diagram illustrating a multi-AVM camera system for measuring the location of a construction machine and a worker shown in FIG. 1.

도 2를 참조하면, 본 발명의 실시 예에 따른 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템은 제1고정형 AVM 장치(100), 제2고정형 AVM 장치(200), 이동형 AVM 장치(300) 및 중앙 서버(400)를 포함한다. 도 2에는 두 개의 고정형 AVM 장치들(100, 200)과 하나의 이동형 AVM 장치(300)가 도시되어 있으나, 개수는 이에 한정되지 않으며 2대 이상 구비될 수 있다.Referring to FIG. 2, a multi-AVM camera system for measuring a construction machine and a worker's position according to an embodiment of the present invention includes a first fixed AVM device 100, a second fixed AVM device 200, and a mobile AVM device 300. And a central server 400. In FIG. 2, two fixed AVM devices 100 and 200 and one mobile AVM device 300 are shown, but the number is not limited thereto, and two or more units may be provided.

제1고정형 AVM 장치(100) 및 제2고정형 AVM 장치(200)는 건설 현장의 서로 다른 고정된 위치에 설치된다. The first fixed AVM device 100 and the second fixed AVM device 200 are installed at different fixed positions on a construction site.

제1고정형 AVM 장치(100)는 건설 현장의 제1위치에 설치되어 건설 현장을 촬영하고, 촬영된 영상(이하, '제1고정형 촬영 영상'이라 한다)을 분석하여 제1고정형 촬영 영상 내의 객체를 인식하고, 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '제1고정형 속성정보'라 한다)를 중앙 서버(400)로 전송할 수 있다.The first fixed AVM device 100 is installed at a first location of the construction site to photograph the construction site, and analyzes the captured image (hereinafter referred to as'first fixed type photographing image') to determine the object in the first fixed type photographed image. Recognizes and estimates the location information of the recognized object and transmits property information (hereinafter referred to as “first fixed property information”) including the estimated location information to the central server 400.

이를 이하여, 제1고정형 AVM 장치(100)는 제1AVM 카메라부(110), 제1저장부(120), 제1연산제어부(130) 및 제1통신부(140)를 포함할 수 있다.Accordingly, the first fixed AVM device 100 may include a first AVM camera unit 110, a first storage unit 120, a first operation control unit 130, and a first communication unit 140.

제1AVM 카메라부(110)는 각각 고정형 촬영 영상을 출력하는 다수의 고정형 AVM 카메라들을 포함한다. 본 발명의 실시 예에서, 제1AVM 카메라부(110)는 제1AVM 카메라(112)와 제2AVM 카메라(114)를 포함한다.The first AVM camera unit 110 includes a plurality of fixed AVM cameras each outputting a fixed image. In an embodiment of the present invention, the first AVM camera unit 110 includes a first AVM camera 112 and a second AVM camera 114.

제1고정형 AVM 장치(100)가 건설 현장을 촬영하기 전, 후술할 제1연산제어부(230)는 제1AVM 카메라(112)와 제2AVM 카메라(114)는 상호간에 관계 파라미터에 대해 사전에 카메라 검교정(Camera Calibration)을 수행할 수 있다.Before the first fixed AVM device 100 photographs the construction site, the first operation control unit 230 to be described later calibrates the camera in advance for the relationship parameter between the first AVM camera 112 and the second AVM camera 114 (Camera Calibration) can be performed.

사람이 실제 눈으로 보는 세상은 3차원이나, 이를 카메라로 촬영하면 2차원의 이미지로 변한다. 이 때, 3차원의 점들이 이미지 상에서 어디에 맺히는지는 기하학적으로 생각하면 영상을 찍을 당시의 카메라의 위치 및 방향에 의해 결정된다. 하지만, 실제 이미지는 사용된 렌즈, 렌즈와 이미지 센서와의 거리, 렌즈와 이미지 센서가 이루는 각 등 카메라 내부의 기구적인 부분에 의해서 크게 영향을 받는다. 따라서, 3차원 점들이 영상에 투영된 위치를 구하거나 역으로 영상좌표로부터 3차원 공간좌표를 복원할 때에는 이러한 내부 요인을 제거해야만 정확한 계산이 가능하다. 이러한 내부 요인의 파라미터 값을 구하는 과정을 카메라 검교정이라고 한다.The world that people see with their own eyes is three-dimensional, but when photographed with a camera, it turns into a two-dimensional image. At this time, where the three-dimensional dots are formed on the image is determined geometrically, it is determined by the position and direction of the camera at the time the image is taken. However, the actual image is greatly affected by the mechanical parts inside the camera, such as the lens used, the distance between the lens and the image sensor, and the angle between the lens and the image sensor. Therefore, when obtaining a position where the 3D points are projected onto an image or, conversely, restoring a 3D spatial coordinate from an image coordinate, accurate calculation is possible only by removing these internal factors. The process of obtaining the parameter values of these internal factors is called camera calibration.

카메라 검교정에 의해 획득되는 관계 파라미터는 내부 파라미터(Intrinsic parameter)와 외부 파라미터(Extrinsic parameter)를 포함한다. 내부 파라미터는 초점거리, 영상의 중심점, 비대칭 계수 정보를 포함한다. 외부 파라미터는 월드 좌표계에서 각각의 카메라의 좌표계 정보를 포함한다. 이 때 모든 카메라 좌표계가 하나의 월드 좌표계에서 표현되었을 때 검교정이 완료된 것이다. 카메라 검교정을 수행하는 방법은 체크 보드판을 활용하는 방법과 자연지형물을 활용하는 방법(Field Calibration) 방법이 있다. Relationship parameters obtained by camera calibration include an Intrinsic parameter and an Extrinsic parameter. The internal parameters include focal length, image center point, and asymmetry coefficient information. The external parameter includes information on the coordinate system of each camera in the world coordinate system. At this time, when all camera coordinate systems are expressed in one world coordinate system, calibration is complete. There are two methods of performing camera calibration: a method using a check board and a method using natural terrain (Field Calibration).

제1 및 제2AVM 카메라들(112, 114)는 제1고정형 AVM 장치(100)가 촬영하도록 지정된 건설 현장(예를 들어, 동일한 위치)를 실시간으로 촬영하여 각각 제1고정형 촬영 영상과 제2고정형 촬영 영상을 출력할 수 있다.The first and second AVM cameras 112 and 114 capture a construction site (for example, the same location) designated to be photographed by the first fixed AVM device 100 in real time, and respectively, the first fixed type photographed image and the second fixed type. You can output the captured image.

제1저장부(120)는 제1고정형 AVM 장치(100)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(110~140)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어 등을 저장할 수 있다.In order to implement and/or provide an operation, function, etc. provided by the first fixed AVM device 100, the first storage unit 120 includes instructions or data related to the components 110 to 140, one or more programs, and / Or you can store software, etc.

또한, 제1저장부(120)는 제1AVM 카메라(112)와 제2AVM 카메라(114)가 촬영한 제1고정형 촬영 영상과 제2고정형 촬영 영상을 촬영 시간과 함께 저장할 수 있다.In addition, the first storage unit 120 may store the first fixed-type photographed image and the second fixed-type photographed image captured by the first AVM camera 112 and the second AVM camera 114 together with a photographing time.

또한, 제1저장부(120)는 관리자에 의해 입력되는 제1고정형 AVM 장치(100)의 위치 정보를 저장할 수 있다. 제1고정형 AVM 장치(100)의 위치 정보는 월드 좌표계에 기반할 수 있다.Also, the first storage unit 120 may store location information of the first fixed AVM device 100 input by an administrator. The location information of the first fixed AVM device 100 may be based on the world coordinate system.

제1연산제어부(130)는 인공지능을 수행할 수 있는 장치 또는 모듈로서 실시간으로 고정형 촬영 영상들을 분석하여 사전에 설정된 다수의 형태의 건설 기계들 또는 사람을 인식 및 매칭하는 알고리즘을 수행할 수 있다. 제1연산제어부(130)는 다수의 고정형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 측정된 객체의 위치정보를 포함하는 고정형 속성정보를 생성할 수 있다.As a device or module capable of performing artificial intelligence, the first operation control unit 130 may perform an algorithm for recognizing and matching a plurality of types of construction machines or people set in advance by analyzing fixed-type photographed images in real time. . The first operation control unit 130 analyzes a plurality of fixed-type photographed images to recognize temporary objects, matches the recognized temporary objects to determine the object, and measures location information, and a fixed type including location information of the measured object. You can create attribute information.

자세히 설명하면, 제1연산제어부(130)는 제1고정형 촬영 영상을 분석하여 제1고정형 촬영 영상에서 사전에 설정된 형태의 객체를 추출하여 객체의 종류를 판단하고 제1임시 객체로 인식하며, 이와 동일하게 제2고정형 촬영 영상을 분석하여 제2고정형 촬영 영상에서 제2임시 객체를 인식할 수 있다. 제1 및 제2임시 객체는 건설 현장에 있는 건설 기계 또는 건설 관계자일 수 있다.In detail, the first operation control unit 130 analyzes the first fixed-type photographed image, extracts an object of a preset type from the first fixed-type photographed image, determines the type of the object, and recognizes it as a first temporary object. Similarly, by analyzing the second fixed-type photographed image, the second temporary object may be recognized from the second fixed-type photographed image. The first and second temporary objects may be construction machinery or construction personnel at a construction site.

제1연산제어부(130)는 제1 및 제2임시 객체가 촬영된 시점이 동일하거나 오차범위 내에 있는 제1조건과, 제1임시 객체와 제2임시 객체의 형태의 유사도가 기준을 초과하는 제2조건과, 제1고정형 촬영 영상 내에서 제1임시 객체의 절대위치와 제2고정형 촬영 영상 내에서 제2임시 객체의 절대위치의 차이가 오차범위 내에 있는 제3조건 중 하나 이상이 부합하면 제1임시 객체와 제2임시 객체를 동일한 객체로 판단할 수 있다.The first operation control unit 130 includes a first condition in which the time points at which the first and second temporary objects are photographed are the same or within an error range, and the similarity between the shape of the first temporary object and the second temporary object exceeds the standard. If the second condition and at least one of the third conditions in which the difference between the absolute position of the first temporary object in the first fixed type image and the absolute position of the second temporary object in the second fixed type image is within the error range are met, The first temporary object and the second temporary object may be determined as the same object.

제1연산제어부(130)는 인식된 제1임시 객체와 제2임시 객체를 비교하여 동일한 객체로 판단되면, 제1임시 객체와 제2임시 객체를 매칭시켜 객체로 정하고, 삼각측량 기법을 이용하여 제1고정형 AVM 장치(100)로부터 객체까지의 물리적인 거리와 방향을 추정할 수 있다.The first operation control unit 130 compares the recognized first temporary object with the second temporary object and determines that it is the same object, matches the first temporary object with the second temporary object, and determines the object as an object, using a triangulation technique. It is possible to estimate the physical distance and direction from the first fixed AVM device 100 to the object.

제1연산제어부(130)는 제1저장부(120)에 저장된 제1고정형 AVM 장치(100)의 위치정보와 추정된 객체까지의 거리 및 방향을 이용하여 객체의 위치정보를 측정할 수 있다. 또는 제1연산제어부(130)는 추정된 객체까지의 거리와 방향을 객체의 위치정보로서 정할 수도 있다.The first operation control unit 130 may measure the location information of the object using the location information of the first fixed AVM device 100 stored in the first storage unit 120 and the estimated distance and direction to the object. Alternatively, the first operation control unit 130 may determine the estimated distance and direction to the object as the location information of the object.

제1연산제어부(130)는 제1 및 제2고정형 촬영 영상들에서 인식 및 매칭된 객체의 위치정보와 종류, 제1 및 제2임시 객체가 포함된 제1 및 제2고정형 촬영 영상들과 촬영 시간, 제1고정형 AVM 장치(100)가 설치된 위치 정보를 포함하는 제1고정형 속성정보를 생성할 수 있다.The first operation control unit 130 captures the location information and type of the object recognized and matched in the first and second fixed-type photographed images, and the first and second fixed-type photographed images including the first and second temporary objects. First fixed type attribute information including time and location information on which the first fixed type AVM device 100 is installed may be generated.

또한, 제1연산제어부(130)는 제1고정형 촬영 영상과 제2고정형 촬영 영상으로부터 특징점(Feature)들을 추출할 수도 있다. 이러한 경우, 제1연산제어부(230)는 특징점들을 더 포함하는 제1고정형 속성정보를 생성할 수 있다.In addition, the first operation control unit 130 may extract feature points from the first fixed-type photographed image and the second fixed-type photographed image. In this case, the first operation control unit 230 may generate first fixed type attribute information further including feature points.

제1통신부(140)는 제1고정형 AVM 장치(100)의 위치정보와 주변 작업자의 위치정보를 주변 작업자의 장치(미도시, 예를 들어, 휴대용 단말기)로부터 수신하여 중앙 서버(400)로 전송할 수 있다. 또한, 제1통신부(140)는 제1연산제어부(130)에서 생성되는 제1고정형 속성정보(예를 들어, 주변 작업자와 관련된 정보)를 유무선 네트워크를 통해 중앙 서버(400)로 전송한다.The first communication unit 140 receives the location information of the first fixed AVM device 100 and the location information of the nearby workers from the devices of the nearby workers (not shown, for example, portable terminals) and transmits them to the central server 400. I can. In addition, the first communication unit 140 transmits the first fixed type attribute information (eg, information related to nearby workers) generated by the first operation control unit 130 to the central server 400 through a wired or wireless network.

제2고정형 AVM 장치(200)는 건설 현장의 제2위치에 설치되어 건설 현장을 촬영하고, 촬영된 영상(이하, '제2고정형 촬영 영상'이라 한다)을 분석하여 제1고정형 촬영 영상 내의 객체를 인식하고, 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '제2고정형 속성정보'라 한다)를 중앙 서버(400)로 전송할 수 있다. 제1고정형 AVM 장치(100)와 제2고정형 AVM 장치(200)는 건설 현장 중 동일한 지점을 촬영하도록 설치될 수 있다. The second fixed AVM device 200 is installed at a second location of the construction site to photograph the construction site, analyzes the captured image (hereinafter, referred to as'second fixed type photographing image'), and analyzes the object in the first fixed type photographed image. Recognizes and estimates the location information of the recognized object and transmits property information (hereinafter referred to as “second fixed property information”) including the estimated location information to the central server 400. The first fixed AVM device 100 and the second fixed AVM device 200 may be installed to photograph the same point in a construction site.

이를 위하여, 제2고정형 AVM 장치(200)는 제2AVM 카메라부(210), 제2저장부(220), 제2연산제어부(230) 및 제2통신부(240)를 포함할 수 있다. 제2고정형 AVM 장치(200)의 제2AVM 카메라부(210), 제2저장부(220), 제2연산제어부(230) 및 제2통신부(240)의 동작은 제1고정형 AVM 장치(100)의 제1AVM 카메라부(110), 제1저장부(120), 제1연산제어부(130) 및 제1통신부(140)와 거의 동일하므로 상세한 설명은 생략한다.To this end, the second fixed AVM device 200 may include a second AVM camera unit 210, a second storage unit 220, a second operation control unit 230, and a second communication unit 240. The operations of the second AVM camera unit 210, the second storage unit 220, the second operation control unit 230, and the second communication unit 240 of the second fixed AVM device 200 are performed by the first fixed AVM device 100. Since the first AVM camera unit 110, the first storage unit 120, the first operation control unit 130, and the first communication unit 140 is almost the same, a detailed description will be omitted.

다만, 제2AVM 카메라부(210)는 제3고정형 촬영 영상을 출력하는 제3AVM 카메라(212)와 제4고정형 촬영 영상을 출력하는 제4AVM 카메라(214)를 포함한다.However, the second AVM camera unit 210 includes a third AVM camera 212 that outputs a third fixed-type photographed image and a fourth AVM camera 214 that outputs a fourth fixed-type photographed image.

제2연산제어부(230)는 제3 및 제4고정형 촬영 영상들을 분석하여 제3 및 제4임시 객체들을 인식하고, 인식된 제3 및 제4임시 객체들을 매칭시켜 객체로 정한 후 객체의 위치정보를 측정한다. The second operation control unit 230 analyzes the third and fourth fixed-type photographed images to recognize the third and fourth temporary objects, matches the recognized third and fourth temporary objects, and determines the object as an object. Measure

그리고, 제2연산제어부(230)는 제3 및 제4고정형 촬영 영상들에서 인식 및 매칭된 객체의 위치정보와 종류, 제3 및 제4임시 객체가 포함된 제3 및 제4고정형 촬영 영상들과 촬영 시간, 제2고정형 AVM 장치(100)의 위치 정보를 포함하는 제2고정형 속성정보를 생성할 수 있다. 선택적으로, 제2연산제어부(230)는 제3 및 제4고정형 촬영 영상들로부터 특징점(Feature)들을 추출하고, 특징점들을 더 포함하는 제2고정형 속성정보를 생성할 수 있다.In addition, the second operation control unit 230 includes the location information and type of the object recognized and matched in the third and fourth fixed type photographed images, and third and fourth fixed type photographed images including the third and fourth temporary objects. It is possible to generate second fixed type attribute information including information on a photographing time and location of the second fixed AVM device 100. Optionally, the second operation control unit 230 may extract feature points from the third and fourth fixed type captured images, and generate second fixed type attribute information further including the feature points.

이동형 AVM 장치(300)는 굴삭기와 같은 건설 기계에 이동가능하도록 설치되고, 건설 현장을 촬영한 영상(이하, '이동형 촬영 영상'이라 한다)을 분석하여 객체를 인식하고, 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '이동형 속성정보'라 한다)를 중앙 서버(400)로 전송할 수 있다.The mobile AVM device 300 is installed to be movable on a construction machine such as an excavator, and recognizes an object by analyzing an image photographed of a construction site (hereinafter referred to as a'portable photographing image'), and location information of the recognized object. Attribute information including the estimated location information (hereinafter, referred to as'portable attribute information') may be transmitted to the central server 400 by estimating.

이를 위하여, 이동형 AVM 장치(300)는 제3AVM 카메라부(310), 제3저장부(320), 위치정보 수신부(330), 제3연산제어부(340) 및 제3통신부(350)를 포함한다. 제3AVM 카메라부(310), 제3저장부(320), 제3연산제어부(340) 및 제3통신부(350)의 동작은 제1고정형 AVM 장치(100)의 제1AVM 카메라부(110), 제1저장부(120), 제1연산제어부(130) 및 제1통신부(140)와 거의 동일하므로 상세한 설명은 생략한다.To this end, the mobile AVM device 300 includes a third AVM camera unit 310, a third storage unit 320, a location information receiving unit 330, a third operation control unit 340, and a third communication unit 350. . The operation of the third AVM camera unit 310, the third storage unit 320, the third operation control unit 340 and the third communication unit 350 is performed by the first AVM camera unit 110 of the first fixed AVM device 100, Since the first storage unit 120, the first operation control unit 130, and the first communication unit 140 are almost the same, a detailed description will be omitted.

제3AVM 카메라부(310)는 각각 이동형 촬영 영상을 출력하는 제5AVM 카메라(312)와 제6AVM 카메라(314)를 포함한다.The third AVM camera unit 310 includes a fifth AVM camera 312 and a sixth AVM camera 314 respectively outputting a moving image.

위치정보 수신부(330)는 이동형 AVM 장치(300)가 구비된 건설 기계의 위치를 수신하는 기기로서, GPS 모듈을 예로 들 수 있다. 건설 기계는 작업 시 또는 이동 시 지속적으로 이동이 발생하므로 건설 기계의 위치 역시 변동된다. 따라서, 이동형 AVM 장치(300)의 위치를 월드좌표계로 표현하기 위해 이동형 AVM 장치(300)는 위치정보 수신부(330)를 더 포함할 수 있다.The location information receiving unit 330 is a device that receives the location of a construction machine equipped with the mobile AVM device 300 and may be a GPS module. As construction machinery continuously moves during work or when moving, the location of construction machinery also changes. Accordingly, the mobile AVM device 300 may further include a location information receiving unit 330 in order to represent the location of the mobile AVM device 300 in a world coordinate system.

제3연산제어부(340)는 제1 및 제2이동형 촬영 영상들을 분석하여 제5 및 제6임시 객체들을 인식하고, 인식된 제5 및 제6임시 객체들을 매칭시켜 객체로 정한 후 객체의 위치정보를 측정하고, 측정된 객체의 위치정보를 포함하는 이동형 속성정보를 생성할 수 있다.The third operation control unit 340 analyzes the first and second movable photographed images to recognize the fifth and sixth temporary objects, matches the recognized fifth and sixth temporary objects, and determines the object as an object. Is measured, and mobile property information including the location information of the measured object may be generated.

이동형 속성정보는 제1 및 제2이동형 촬영 영상들에서 인식 및 매칭된 객체의 위치정보와 종류, 제1 및 제2이동형 촬영 영상들과 촬영 시간, 위치정보 수신부(330)에서 수신되는 이동형 AVM 장치(300) 또는 건설 기계의 위치정보를 포함한다.The movable attribute information is the location information and type of the object recognized and matched in the first and second movable photographed images, the first and second movable photographed images and the photographing time, a mobile AVM device received from the location information receiving unit 330 (300) or includes location information of construction machinery.

제3연산제어부(340)는 제5임시 객체와 제6임시 객체를 매칭시켜 객체로 정하고, 삼각측량 기법을 이용하여 이동형 AVM 장치(300)로부터 객체까지의 물리적인 거리와 방향을 추정할 수 있다. 그리고, 제3연산제어부(340)는 위치정보 수신부(330)에서 수신된 건설 기계의 위치정보와 추정된 객체까지의 거리와 방향을 연계하여 객체의 위치 정보를 건설 현장에서 월드 좌표계로 변환하고, 변환된 월드 좌표계의 좌표를 객체의 위치정보로서 할 수 있다. 이로써, 제1 및 제2고정형 AVM 장치들(100, 200)에서 측정된 객체의 위치정보와 이동형 AVM 장치(300)에서 측정된 객체의 위치정보의 형태가 월드 좌표계로 일치할 수 있다.The third operation control unit 340 may match the fifth temporary object and the sixth temporary object to determine an object, and estimate the physical distance and direction from the mobile AVM device 300 to the object using a triangulation technique. . In addition, the third operation control unit 340 converts the location information of the object into a world coordinate system at the construction site by linking the location information of the construction machine received from the location information receiving unit 330 with the distance and direction to the estimated object, The coordinates of the transformed world coordinate system can be used as the location information of the object. Accordingly, the shape of the location information of the object measured by the first and second fixed AVM devices 100 and 200 and the location information of the object measured by the mobile AVM device 300 may be matched with the world coordinate system.

제3통신부(350)는 제3연산제어부(340)에서 생성되는 이동형 속성정보를 중앙 서버(400)로 전송한다.The third communication unit 350 transmits the mobile attribute information generated by the third operation control unit 340 to the central server 400.

중앙 서버(400)는 제1 및 제2고정형 AVM 장치들(100, 200)로부터 수신되는 제1 및 제2고정형 속성정보들과 이동형 AVM 장치(300)로부터 수신되는 적어도 하나의 이동형 속성정보를 분석하여 객체의 위치정보를 다시점 기반으로 보정할 수 있다.The central server 400 analyzes first and second fixed type attribute information received from the first and second fixed type AVM devices 100 and 200 and at least one mobile type attribute information received from the mobile AVM device 300 Thus, the location information of the object can be corrected based on multiple points.

이를 위하여, 중앙 서버(400)는 서버 통신부(410), 서버 저장부(420), AVM 검교정부(430), 제1위치 보정부(440), 제2위치 보정부(450) 및 공유부(460)를 포함할 수 있다.To this end, the central server 400 includes a server communication unit 410, a server storage unit 420, an AVM calibration unit 430, a first position correction unit 440, a second position correction unit 450, and a sharing unit ( 460).

서버 통신부(410)는 제1고정형 AVM 장치(100), 제2고정형 AVM 장치(200), 이동형 AVM 장치(300)와 통신하여 제1 및 제2고정형 속성정보들과 적어도 하나의 이동형 속성정보를 수신할 수 있다.The server communication unit 410 communicates with the first fixed AVM device 100, the second fixed AVM device 200, and the mobile AVM device 300 to provide first and second fixed attribute information and at least one mobile attribute information. Can receive.

또한, 서버 통신부(410)는 중앙 서버(400)에서 발생하는 제어 명령을 제1고정형 AVM 장치(100), 제2고정형 AVM 장치(200) 또는 이동형 AVM 장치(300)에게 전송할 수 있다. In addition, the server communication unit 410 may transmit a control command generated from the central server 400 to the first fixed AVM device 100, the second fixed AVM device 200, or the mobile AVM device 300.

서버 저장부(420)는 중앙 서버(400)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(410~460)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등을 저장할 수 있다. 서버 저장부(420)에 저장되는 프로그램은 AVM 검교정을 위한 검교정 프로그램, 객체의 다시점 기반 위치정보 보정을 위한 위치보정 프로그램을 포함할 수 있다.The server storage unit 420 is a command or data related to the components 410 to 460, one or more programs and/or software, in order to implement and/or provide operations, functions, etc. provided by the central server 400, The operating system can be saved. The program stored in the server storage unit 420 may include a calibration program for AVM calibration and a location calibration program for correcting multi-view-based location information of an object.

또한, 서버 저장부(420)는 수신되는 제1 및 제2고정형 속성정보들과 적어도 하나의 이동형 속성정보를 저장할 수 있다.In addition, the server storage unit 420 may store the received first and second fixed attribute information and at least one mobile attribute information.

AVM 검교정부(430)는 다수의 고정형 AVM 장치들, 예를 들어, 제1 및 제2고정형 AVM 장치들(100, 200)의 검교정을 수행하여 제1 및 제2고정형 AVM 장치들(100, 200) 간의 관계 파라미터를 획득할 수 있다. AVM 검교정부(430)는 제1 및 제2AVM 카메라들(112, 114) 중 적어도 하나와 제3 및 제4AVM 카메라들(212, 214) 중 적어도 하나 간의 검교정을 수행할 수 있다. The AVM calibration unit 430 performs calibration of a plurality of fixed AVM devices, for example, the first and second fixed AVM devices 100 and 200 to perform the calibration of the first and second fixed AVM devices 100 and 200. ) Can be obtained. The AVM calibration unit 430 may perform calibration between at least one of the first and second AVM cameras 112 and 114 and at least one of the third and fourth AVM cameras 212 and 214.

AVM 검교정부(430)는 제1 및 제2고정형 속성정보들에 포함된 촬영 영상들로부터 SIFT(Scale Invariant Feature Transform)/SURF(Speeded Up Robust Features) 알고리즘 또는 Harris Corner 알고리즘을 통해 현장에서 있을 수 있는 Feature(또는 Nature Feature)를 추출하고, 추출된 Feature를 Field Calibration 방식에 적용하여 검교정을 수행하며, 검교정 결과로부터 제1 및 제2고정형 AVM 장치들(100, 200) 간의 관계 파라미터를 획득할 수 있다. 즉, AVM 검교정부(430)는 건설 현장에 설치된 최소 2대 이상의 고정형 AVM 카메라들 간의 관계 파라미터를 카메라 검교정으로부터 획득할 수 있다.The AVM revising unit 430 uses the Scale Invariant Feature Transform (SIFT)/Speeded Up Robust Features (SURF) algorithm or the Harris Corner algorithm from the captured images included in the first and second fixed attribute information. A feature (or nature feature) is extracted, and the extracted feature is applied to a field calibration method to perform calibration, and a relationship parameter between the first and second fixed AVM devices 100 and 200 may be obtained from the calibration result. . That is, the AVM calibration unit 430 may obtain a relationship parameter between at least two fixed AVM cameras installed at the construction site from the camera calibration.

Feature는 카메라로부터 얻은 영상에서 음영으로 인한 경계선 부근 주로 나타나는 지점들로 특이한 형상을 띠고 있는 지점을 포함할 수 있다. 일반적으로 촬영 영상에서 보여지는 자연지형물로부터 획득되는 Feature를 Nature Feature라고 한다.Features are points that appear mainly near the boundary line due to shadows in the image obtained from the camera, and may include points that have an unusual shape. In general, a feature acquired from natural terrain objects shown in a photographed image is called a nature feature.

본 발명의 실시 예에서는 중앙 서버(400)가 촬영 영상으로부터 Feature를 추출하는 경우를 설명하고 있으나, 제1 및 제2고정형 AVM 장치들(100, 200)의 제1 및 제2연산 제어부들(130, 230)이 각각 제1 및 제2고정형 촬영 영상들로부터 Feature를 추출하여 중앙 서버(400)로 전송할 수도 있다. 이러한 경우, AVM 검교정부(430)는 수신된 Feature를 이용하여 관계 파라미터를 획득할 수 있다.In an embodiment of the present invention, a case in which the central server 400 extracts a feature from a captured image is described, but the first and second operation control units 130 of the first and second fixed AVM devices 100 and 200 are described. , 230) may extract features from the first and second fixed-type photographed images, respectively, and transmit them to the central server 400. In this case, the AVM verification unit 430 may acquire a relationship parameter using the received feature.

관계 파라미터는 내부(Intrinsic) 파라미터와 외부(Extrinsic) 파라미터를 포함하고, 카메라 검교정을 통해 추출된다. 관계 파라미터에 대해서는 위에서 자세히 설명하고 있다.Relationship parameters include Intrinsic and Extrinsic parameters, and are extracted through camera calibration. The relationship parameters are described in detail above.

본 발명의 실시 예에서, AVM 검교정부(430)가 검교정을 수행하여 관계 파라미터를 추정하는 동작을 설명하면 다음과 같다. In an embodiment of the present invention, an operation of estimating a relationship parameter by performing a calibration by the AVM calibration unit 430 will be described as follows.

두 대의 제1 및 제2고정형 AVM 장치들(100, 200)이 서로 다른 지점에 설치되어 있다. 가 제1고정형 AVM 장치(100) 중 하나(예를 들어, 제1AVM 카메라(112))와 제2고정형 AVM 장치(200) 중 하나(예를 들어, 제3AVM 카메라(212))는 동일한 건설 현장 영역을 다른 각도에서 촬영할 것이다. 이는 제1AVM 카메라(112)와 제3AVM 카메라(212)는 모두 360도를 볼 수 있기 때문이다. Two first and second fixed AVM devices 100 and 200 are installed at different locations. One of the first fixed AVM device 100 (for example, the first AVM camera 112) and one of the second fixed AVM device 200 (for example, the third AVM camera 212) are the same construction site The area will be shot from a different angle. This is because both the first AVM camera 112 and the third AVM camera 212 can view 360 degrees.

이 때, AVM 검교정부(430)는 제1AVM 카메라(112)와 제3AVM 카메라(212)가 바라보고 있는 서로 다른 각도의 자연지형물(건설 현장 영역, 즉, 제1고정형 촬영 영상과 제3고정형 촬영 영상)으로부터 Feature를 추출한다. 그리고, AVM 검교정부(430)는 Feature 간의 매칭 알고리즘을 수행하고 카메라 간의 검교정을 수행하여 관계 파라미터를 획득할 수 있다.At this time, the AVM inspection unit 430 is the first AVM camera 112 and the third AVM camera 212 are viewed from different angles of natural terrain (construction site area, that is, the first fixed type photographed image and the third fixed type Feature is extracted from the photographed image). In addition, the AVM calibration unit 430 may obtain a relationship parameter by performing a matching algorithm between features and performing calibration between cameras.

그러나, 카메라 검교정을 통해서는 스케일 정보를 알 수 없다. 모든 카메라 좌표계는 월드 좌표계로 변환되지만 실제 물리적인 스케일 정보는 반영되지 않기 때문이다. 따라서, AVM 검교정부(430)는 제1 및 제2고정형 AVM 장치들(100, 200)이 설치된 위치정보와 관계 파라미터 간의 정합을 통해 물리적 3D 스케일 정보를 더 반영할 수 있다. However, the scale information cannot be known through camera calibration. This is because all camera coordinate systems are converted to world coordinate systems, but actual physical scale information is not reflected. Accordingly, the AVM verification unit 430 may further reflect physical 3D scale information through matching between the location information in which the first and second fixed AVM devices 100 and 200 are installed and the relationship parameter.

물리적인 3D 스케일 정보를 반영하기 위해, 또한, 현실 세계를 월드 좌표계에 맞추기 위해, 관리자는 사용자 인터페이스 장치(미도시)를 이용하여, 제1 및 제2고정형 AVM 장치들(100, 200)이 설치된 위치정보와 관계 파라미터 간의 정합을 통해 물리적 3D 스케일 정보를 입력할 수 있다. 카메라의 설치 위치를 다른 측정 장비를 통해 실제 거리를 측량하여 스케일 정보로서 반영하면, 고정형 AVM 장치들(100, 200) 간의 관계 파라미터가 현실세계를 그대로 반영한 물리적 3D 좌표계에 있게 된다. 예를 들어, 제1 및 제2고정형 AVM 장치들(100, 200) 간의 거리가 10미터이면, 물리적 3D 스케일 정보로서 10미터가 입력 및 반영된다.In order to reflect the physical 3D scale information, and to fit the real world into the world coordinate system, the administrator uses a user interface device (not shown) to install the first and second fixed AVM devices 100 and 200. Physical 3D scale information can be input through matching between location information and relationship parameters. When the actual distance is measured through other measuring equipment and reflected as scale information, the relationship parameter between the fixed AVM devices 100 and 200 is in the physical 3D coordinate system reflecting the real world as it is. For example, if the distance between the first and second fixed AVM devices 100 and 200 is 10 meters, 10 meters is input and reflected as physical 3D scale information.

이로써, AVM 검교정부(430)는 스케일 정보를 포함하는 관계 파라미터를 획득할 수 있으며, 현실 세계의 좌표계는 월드 좌표계로 맞출 수 있게 된다.Accordingly, the AVM verification unit 430 may obtain a relationship parameter including scale information, and the real world coordinate system can be adjusted to the world coordinate system.

촬영 영상으로부터 객체를 인식하게 되면 영상좌표계(화소 정보), 즉, (x, y)의 2D 좌표만 획득하는데, 본 발명에서와 같이 스케일 정보를 포함하는 관계 파라미터가 정의되면 월드 좌표계에서 객체의 위치, 즉, (X, Y, Z)의 3D 좌표를 알 수 있으며, 이를 통해 차량 또는 작업자와 같은 객체의 위치정보를 정확히 객관적으로 알 수 있다.When an object is recognized from a captured image, only 2D coordinates of the image coordinate system (pixel information), that is, (x, y) are acquired. If a relationship parameter including scale information is defined as in the present invention, the position of the object in the world coordinate system In other words, it is possible to know the 3D coordinates of (X, Y, Z), and through this, it is possible to accurately and objectively know the location information of an object such as a vehicle or a worker.

제1위치 보정부(440)는 AVM 검교정부(430)에서 획득한 관계 파라미터와 제1 및 제2고정형 속성정보들을 이용하여, 제1 및 제2고정형 AVM 장치들(100, 200)에서 인식된 객체의 위치정보를 보정할 수 있다.The first position correction unit 440 uses the relationship parameter obtained from the AVM verification unit 430 and the first and second fixed type attribute information, and is recognized by the first and second fixed type AVM devices 100 and 200. You can correct the location information of the object.

도 3은 본 발명의 실시 예에 따른 제1위치 보정부(440)를 도시한 블록도, 도 4는 위치정보 보정을 설명하기 위한 예시도이다.3 is a block diagram illustrating a first position correction unit 440 according to an embodiment of the present invention, and FIG. 4 is an exemplary diagram for explaining position information correction.

도 3을 참조하면, 제1위치 보정부(440)는 오차 범위 판단부(442) 및 중첩 확인부(444)를 포함할 수 있다.Referring to FIG. 3, the first position correction unit 440 may include an error range determination unit 442 and an overlap check unit 444.

오차 범위 판단부(442)는 제1 및 제2고정형 속성정보들 중 위치정보들과 촬영 영상들로부터 객체가 위치할 것으로 추정되는 카메라 측정 오차 범위를 제1 및 제2고정형 AVM 장치들(100, 200) 각각에 대해 판단할 수 있다. The error range determination unit 442 determines the camera measurement error range estimated to be located from the location information and the captured images among the first and second fixed type property information, and the first and second fixed type AVM devices 100, 200) You can judge for each.

먼저, 오차 범위 판단부(442)는 제1고정형 속성정보에 포함된 객체의 종류와 제2고정형 속성정보에 포함된 객체의 종류가 동일하고, 위치정보의 차이도 오차범위 내에 있으면 서로 동일한 객체인 것으로 판단할 수 있다.First, if the type of the object included in the first fixed property information and the type of the object included in the second fixed property information are the same, and the difference between the location information is also within the error range, the error range determination unit 442 is the same object. It can be judged as.

그리고, 오차 범위 판단부(442)는 제1고정형 속성정보에 포함된 객체의 위치정보와 관계 파라미터를 이용하여 2D 좌표를 가지는 객체의 위치정보를 3D 월드 좌표계로 변환하고, 제2고정형 속성정보에 포함된 객체의 위치정보와 관계 파라미터를 이용하여 객체의 위치정보를 3D 월드 좌표계로 변환할 수 있다.In addition, the error range determination unit 442 converts the location information of the object having 2D coordinates into a 3D world coordinate system using the location information of the object and the relationship parameter included in the first fixed property information, and the second fixed property information The location information of the object can be converted into a 3D world coordinate system using the location information of the included object and the relationship parameter.

이 때, 오차 범위 판단부(442)는 실시간으로 수신되는 제1고정형 속성정보들로부터 객체의 위치정보를 3D 좌표계로 변환하므로 도 4에서와 같은 제1카메라 측정 오차 범위를 추출할 수 있다. 또한, 오차 범위 판단부(442)는 실시간으로 수신되는 제2고정형 속성정보들로부터 객체의 위치정보를 3D 좌표계로 변환하므로 도 4에서와 같은 제2카메라 측정 오차 범위를 추출할 수 있다.In this case, the error range determination unit 442 converts the location information of the object from the first fixed property information received in real time into a 3D coordinate system, so that the first camera measurement error range as shown in FIG. 4 may be extracted. In addition, since the error range determination unit 442 converts the location information of the object from the second fixed type attribute information received in real time into a 3D coordinate system, it is possible to extract the measurement error range of the second camera as shown in FIG. 4.

중첩 확인부(444)는 오차 범위 판단부(442)에서 판단된 제1 및 제2카메라 측정 오차 범위들의 중첩 영역을 확인하여 위치 측정 대상인 객체의 보정된 위치정보로서 정할 수 있다.The overlap confirmation unit 444 may determine an overlapping area of the measurement error ranges of the first and second cameras determined by the error range determination unit 442 as corrected position information of the object to be measured.

또는, 중첩 확인부(444)는 오차 범위 판단부(442)에서 판단된 제1 및 제2카메라 측정 오차 범위들의 위치정보를 알고 있으므로, 위치정보의 평균을 산출하여 객체의 최종 위치정보로서 보정할 수도 있다. Alternatively, since the overlap confirmation unit 444 knows the location information of the measurement error ranges of the first and second cameras determined by the error range determination unit 442, the average of the location information is calculated and corrected as the final location information of the object. May be.

제2위치 보정부(450)는 제1위치 보정부(440)에서 보정된 객체의 위치정보와 적어도 하나의 이동형 AVM 장치(300)에서 추정된 객체의 위치정보를 비교하여 객체의 위치정보를 최종으로 보정할 수 있다. The second position correction unit 450 compares the position information of the object corrected by the first position correction unit 440 with the position information of the object estimated by the at least one mobile AVM device 300 to finalize the position information of the object. Can be corrected with

자세히 설명하면, 제2위치 보정부(450)는 제1위치 보정부(440)에서 위치정보가 보정된 객체와 이동형 속성정보에 포함된 객체가 동일한 것으로 판단할 수 있다. 제2위치 보정부(450)는 오차 범위 판단부(442)에서 위치정보가 보정된 객체의 종류와 이동형 속성정보에 포함된 객체의 종류가 동일하고, 촬영된 시점의 차이가 오차범위 내에 있거나, 촬영된 월드 좌표의 차이가 오차범위 내에 있으면 동일한 객체로 판단할 수 있다. In detail, the second position correction unit 450 may determine that the object for which the position information is corrected by the first position correction unit 440 and the object included in the movable attribute information are the same. In the second position correction unit 450, the type of the object for which the location information is corrected by the error range determination unit 442 and the type of the object included in the mobile attribute information are the same, and the difference between the photographed time point is within the error range, If the difference between the captured world coordinates is within the error range, it can be determined as the same object.

서로 동일한 객체이면, 제2위치 보정부(450)는 중첩 확인부(444)에서 확인된 중첩 영역과 이동형 속성정보에 포함된 객체의 위치정보의 중첩영역을 확인하고, 확인된 중첩영역을 객체의 최종 위치정보로서 보정할 수 있다. 이 때, 제2위치 보정부(450)는 이동형 AVM 장치(300)로부터 실시간으로 수신되는 다수의 이동형 속성정보들로부터 객체의 위치정보를 수집하여 3D 좌표계로 변환하므로 하나의 점이 아닌 제3카메라 측정 오차 범위를 추출하고, 추출된 제3카메라 측정 오차 범위와 중첩 확인부(444)에서 확인된 중첩 영역을 비교하여 중첩영역을 최종적으로 확인할 수 있다.If the object is the same as each other, the second position correction unit 450 checks the overlapping area of the overlapping area checked by the overlapping check unit 444 and the positional information of the object included in the movable property information, and determines the checked overlapping area of the object. It can be corrected as final location information. At this time, the second position correction unit 450 collects the position information of the object from a plurality of mobile attribute information received from the mobile AVM device 300 in real time and converts it into a 3D coordinate system, so the third camera is measured instead of a single point. The error range may be extracted, and the overlapped area may be finally confirmed by comparing the extracted third camera measurement error range and the overlapping area checked by the overlapping confirmation unit 444.

만약, 제1위치 보정부(440)에서 위치정보가 보정된 객체와 이동형 속성정보에 포함된 객체가 동일하지 않은 것으로 판단되면, 제2위치 보정부(450)는 제1위치 보정부(440)에서 보정된 위치정보를 객체의 최종위치정보로서 정할 수 있다.If the first position correction unit 440 determines that the object for which the position information is corrected and the object included in the movable attribute information are not the same, the second position correction unit 450 performs the first position correction unit 440 The position information corrected in can be determined as the final position information of the object.

공유부(460)는 제1위치 보정부(440) 또는 제2위치 보정부(450)에서 보정된 객체의 위치정보를 디지털 건설 현장 지도와 매핑하여 모니터링이 가능하도록 한다. The sharing unit 460 maps the location information of the object corrected by the first position correction unit 440 or the second position correction unit 450 to a digital construction site map to enable monitoring.

또한, 공유부(460)는 건설 현장 지도에 반영된 실시간 위치정보를 바탕으로 작업 위험 상황 분석과 판단 알고리즘을 수행하고, 수행 결과를 건설 기계 운전자 또는 주변 작업자에게 전송하여 안전사고 예방을 위한 알람 기능을 제공할 수 있다.In addition, the sharing unit 460 performs a work risk situation analysis and judgment algorithm based on real-time location information reflected on the construction site map, and transmits the execution result to the construction machine driver or nearby workers to provide an alarm function for preventing safety accidents. Can provide.

또한, 공유부(460)는 건설 기계 주변 작업자의 위치정보를 고려한 건설 기계의 안전 작업을 위한 가이던스 정보를 제공할 수 있다. 예를 들어, 건설 기계가 크레인인 경우, 공유부(460)는 크레인 인양물 하부에 작업자가 접근 금지하도록 하여 크레인의 안전 인양 작업이 가능하도록 한다.In addition, the sharing unit 460 may provide guidance information for safe work of a construction machine in consideration of location information of workers around the construction machine. For example, when the construction machine is a crane, the sharing unit 460 makes it possible for the operator to prohibit access to the lower part of the crane lifted object so that the crane can be safely lifted.

도 5는 본 발명의 실시 예에 따른 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법을 도시한 흐름도, 도 6은 S500단계를 자세히 도시한 흐름도, 도 7은 S540단계를 자세히 도시한 흐름도이다.FIG. 5 is a flowchart illustrating a method of measuring the position of a construction machine and a worker in a multi-AVM camera system according to an embodiment of the present invention, FIG. 6 is a flowchart illustrating step S500 in detail, and FIG. 7 is a flowchart illustrating step S540 in detail.

도 5에 도시된 제1 및 제2고정형 AVM 장치들(100, 200), 이동형 AVM 장치(300) 및 중앙 서버(400)는 도 1 내지 도 4를 참조하여 설명하였으므로 자세한 설명은 생략한다.The first and second fixed AVM devices 100 and 200, the mobile AVM device 300, and the central server 400 illustrated in FIG. 5 have been described with reference to FIGS. 1 to 4, and thus detailed descriptions thereof will be omitted.

도 5를 참조하면, 제1 및 제2고정형 AVM 장치들(100, 200)이, 건설 현장의 서로 다른 고정된 위치에 설치되어 건설 현장을 촬영한 고정형 촬영 영상들을 분석하여 객체를 인식하고, 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 제1 및 제2고정형 속성정보를 중앙 서버(400)로 전송할 수 있다(S500~S530).Referring to FIG. 5, the first and second fixed AVM devices 100 and 200 are installed at different fixed positions on the construction site to analyze fixed images taken of the construction site to recognize and recognize an object. The first and second fixed property information including the estimated location information may be transmitted to the central server 400 by estimating the location information of the object in operation (S500 to S530).

적어도 하나의 이동형 AVM 장치(300)는, 건설 기계에 이동가능하도록 설치되어 건설 현장을 촬영한 이동형 촬영 영상을 분석하여 객체를 인식하고, 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 이동형 속성정보를 중앙 서버(400)로 전송할 수 있다(S540, S550).At least one movable AVM device 300 is installed to be movable on a construction machine and recognizes an object by analyzing a movable photographed image taken of a construction site, and includes location information estimated by estimating the location information of the recognized object. It is possible to transmit the mobile attribute information to the central server 400 (S540, S550).

중앙 서버(400)는 S510, S530, S550단계로부터 수신되는 제1 및 제2고정형 속성정보들과 적어도 하나의 이동형 속성정보를 저장한다(S560).The central server 400 stores first and second fixed attribute information and at least one mobile attribute information received from steps S510, S530, and S550 (S560).

중앙 서버(400)는 제1 및 제2고정형 AVM 장치들(100, 200) 간의 검교정을 수행하여 제1 및 제2고정형 AVM 장치들(100, 200) 간의 관계 파라미터를 획득하고, 관리자로부터 스케일 정보를 획득하여 반영한다(S570).The central server 400 performs calibration between the first and second fixed AVM devices 100 and 200 to obtain a relationship parameter between the first and second fixed AVM devices 100 and 200, and obtains scale information from the administrator. Acquire and reflect (S570).

중앙 서버(400)는 획득된 관계 파라미터와 제1 및 제2고정형 속성정보들을 이용하여, 제1 및 제2고정형 AVM 장치들(100, 200)에서 인식된 객체의 위치정보를 보정할 수 있다(S580). S580단계에서, 중앙 서버(400)는 제1 및 제2고정형 속성정보들 중 위치정보들과 촬영 영상들로부터 제1 및 제2카메라 측정 오차 범위를 판단하고, 판단된 제1 및 제2카메라 측정 오차 범위들의 중첩 영역을 확인하여 객체의 위치정보로서 보정할 수 있다.The central server 400 may correct the location information of the object recognized by the first and second fixed AVM devices 100 and 200 using the obtained relationship parameter and the first and second fixed attribute information ( S580). In step S580, the central server 400 determines the first and second camera measurement error ranges from the location information and captured images among the first and second fixed property information, and measures the determined first and second cameras. The overlapping area of the error ranges can be checked and corrected as the location information of the object.

중앙 서버(400)는 이동형 AVM 장치(300)에서 추정된 객체의 위치정보와 S580단계에서 보정된 객체의 위치정보를 비교하여 객체의 위치정보를 최종으로 보정할 수 있다(S590). The central server 400 may finally correct the location information of the object by comparing the location information of the object estimated by the mobile AVM device 300 with the location information of the object corrected in step S580 (S590).

중앙 서버(400)는 S590단계어서 최종 보정된 객체의 위치정보를 이동형 AVM 장치(300)가 탑재된 건설 기계의 모니터링 장치 또는 운전자 또는 주변 작업자에게 전송하여 위치정보를 공유하고, 위험도를 알릴 수 있다(S595).In step S590, the central server 400 transmits the position information of the final corrected object to the monitoring device of the construction machine equipped with the mobile AVM device 300, the driver, or the neighboring worker to share the location information and notify the degree of risk. (S595).

한편 본 발명에 따른 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법은 이를 구현하기 위한 명령어들의 프로그램이 유형적으로 구현됨으로써, 컴퓨터를 통해 판독될 수 있는 기록매체에 포함되어 제공될 수도 있음은 통상의 기술자가 쉽게 이해할 수 있다.On the other hand, the method for measuring the location of construction machines and workers of the multi-AVM camera system according to the present invention may be provided by being included in a recording medium that can be read through a computer by tangibly implementing a program of instructions for implementing it. Technicians can easily understand.

즉, 본 발명에 따른 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 형태로 구현되어, 컴퓨터 판독 가능한 기록매체에 기록될 수 있으며, 상기 컴퓨터 판독 가능한 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록매체에는 하드 디스크와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media) 및 롬(ROM), 램(RAM), 플래시 메모리, USB 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.That is, the construction machine and worker position measurement method of the multi-AVM camera system according to the present invention is implemented in the form of a program that can be performed through various computer means, and can be recorded on a computer-readable recording medium, and the computer-readable recording The medium may include program instructions, data files, data structures, and the like alone or in combination. The computer-readable recording medium includes magnetic media such as a hard disk, optical media such as CD-ROM and DVD, and ROM, RAM, flash memory, and USB memory. Hardware devices specially configured to store and execute program instructions are included.

따라서, 본 발명은 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법을 구현하기 위하여 상기 다중 AVM 카메라 시스템을 제어하는 컴퓨터 상에서 수행되는 컴퓨터 판독 가능한 기록매체에 저장된 프로그램을 함께 제공한다.Accordingly, the present invention provides a program stored in a computer-readable recording medium executed on a computer controlling the multi-AVM camera system in order to implement a method for measuring the position of a construction machine and a worker in a multi-AVM camera system.

한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.On the other hand, although it has been described and illustrated in connection with a preferred embodiment for exemplifying the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described as described above, and deviates from the scope of the technical idea. It will be appreciated by those skilled in the art that a number of changes and modifications can be made to the present invention. Accordingly, all such appropriate changes, modifications, and equivalents should be considered to be within the scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical idea of the attached registration claims.

100: 제1고정형 AVM 장치 110: 제1AVM 카메라부
120: 제1저장부 130: 제1연산제어부
140: 제1통신부 200: 제2고정형 AVM 장치
210: 제2AVM 카메라부 220: 제2저장부
230: 제2연산제어부 240: 제2통신부
300: 이동형 AVM 장치 310: 제3AVM 카메라부
320: 제3저장부 330: 위치정보 수신부
340: 제3연산제어부 350: 제3통신부
400: 중앙 서버 410: 서버 통신부
420: 서버 저장부 430: AVM 검교정부
440: 제1위치 보정부 450: 제2위치 보정부
460: 공유부
100: first fixed AVM device 110: first AVM camera unit
120: first storage unit 130: first operation control unit
140: first communication unit 200: second fixed AVM device
210: second AVM camera unit 220: second storage unit
230: second operation control unit 240: second communication unit
300: mobile AVM device 310: third AVM camera unit
320: third storage unit 330: location information receiving unit
340: third operation control unit 350: third communication unit
400: central server 410: server communication unit
420: server storage unit 430: AVM inspection department
440: first position correction unit 450: second position correction unit
460: share part

Claims (15)

건설 현장의 서로 다른 고정된 위치에 설치되고, 건설 현장을 촬영한 고정형 촬영 영상들을 분석하여 객체를 인식하고, 상기 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '고정형 속성정보'라 한다)를 하기 중앙 서버로 전송하는 다수의 고정형 AVM 장치들;
건설 기계에 이동가능하도록 설치되고, 건설 현장을 촬영한 이동형 촬영 영상을 분석하여 객체를 인식하고, 상기 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '이동형 속성정보'라 한다)를 하기 중앙 서버로 전송하는 적어도 하나의 이동형 AVM 장치; 및
상기 수신되는 다수의 고정형 속성정보들과 적어도 하나의 이동형 속성정보를 분석하여 상기 객체의 위치정보를 다시점 기반으로 보정하는 중앙 서버;를 포함하는 것을 특징으로 하는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템.
Attribute information (hereinafter, referred to as hereinafter, which is installed at different fixed positions of a construction site) and includes positional information estimated by analyzing fixed-type photographed images of the construction site to recognize an object, and estimating the position information of the recognized object. A plurality of fixed AVM devices that transmit'fixed attribute information') to the following central server;
Attribute information that is installed to be movable on a construction machine, recognizes an object by analyzing a movable photographed image of a construction site, and estimates the position information of the recognized object (hereinafter referred to as ``movable attribute At least one mobile AVM device that transmits'information') to the following central server; And
A central server for analyzing the received plurality of fixed attribute information and at least one mobile attribute information and correcting the position information of the object based on a multi-view; multiplex for measuring the position of a construction machine and a worker, comprising: AVM camera system.
제1항에 있어서,
상기 고정형 속성정보는,
상기 고정형 촬영 영상에서 인식된 객체의 위치정보와 종류, 상기 객체가 포함된 고정형 촬영 영상과 촬영 시간 및 고정형 AVM 장치가 설치된 위치 정보를 포함하고,
상기 이동형 속성정보는,
상기 이동형 촬영 영상에서 인식된 객체의 위치정보와 종류, 상기 객체가 포함된 이동형 촬영 영상과 촬영 시간 및 건설 기계의 위치 정보를 포함하는 것을 특징으로 하는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템.
The method of claim 1,
The fixed type attribute information,
Including location information and type of the object recognized in the fixed-type photographed image, a fixed-type photographed image including the object, a photographing time, and location information of a fixed AVM device,
The mobile attribute information,
A multi-AVM camera system for measuring the location of a construction machine and a worker, characterized in that it includes location information and type of the object recognized in the mobile photographed image, a mobile photographed image including the object, a photographing time, and location information of the construction machine. .
제1항에 있어서,
상기 중앙 서버는,
상기 다수의 고정형 AVM 장치들과 적어도 하나의 이동형 AVM 장치로부터 다수의 고정형 속성정보들과 적어도 하나의 이동형 속성정보들을 수신하는 서버 통신부;
상기 다수의 고정형 AVM 장치들의 검교정을 수행하여 고정형 AVM 장치들 간의 관계 파라미터를 획득하는 AVM 검교정부;
상기 획득한 관계 파라미터와 상기 다수의 고정형 속성정보들을 이용하여, 상기 다수의 고정형 AVM 장치들에서 인식된 객체의 위치정보를 보정하는 제1위치 보정부; 및
상기 제1위치 보정부에서 보정된 객체의 위치정보와 상기 적어도 하나의 이동형 AVM 장치에서 추정된 객체의 위치정보를 비교하여 상기 객체의 위치정보를 최종으로 보정하는 제2위치 보정부;를 포함하는 것을 특징으로 하는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템.
The method of claim 1,
The central server,
A server communication unit for receiving a plurality of fixed type attribute information and at least one mobile type attribute information from the plurality of fixed AVM devices and at least one mobile AVM device;
An AVM calibration unit for acquiring a relationship parameter between the fixed AVM devices by performing calibration and calibration of the plurality of fixed AVM devices;
A first position correction unit correcting position information of an object recognized by the plurality of fixed AVM devices by using the obtained relationship parameter and the plurality of fixed attribute information; And
Comprising: a second position correction unit for finally correcting the position information of the object by comparing the position information of the object corrected by the first position correction unit and the position information of the object estimated by the at least one mobile AVM device; Multi-AVM camera system for measuring the position of construction machinery and workers, characterized in that.
제3항에 있어서,
상기 제1위치 보정부는,
상기 다수의 고정형 속성정보들 중 위치정보들과 촬영 영상들로부터 상기 객체가 위치할 것으로 추정되는 카메라 측정 오차 범위를 상기 다수의 고정형 AVM 장치들 각각에 대해 판단하는 오차 범위 판단부; 및
상기 오차 범위 판단부에서 판단된 다수의 카메라 측정 오차 범위들의 중첩 영역을 확인하여 상기 객체의 보정된 위치정보로서 정하는 중첩 확인부;를 포함하는 것을 특징으로 하는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템.
The method of claim 3,
The first position correction unit,
An error range determination unit for determining, for each of the plurality of fixed AVM devices, a camera measurement error range in which the object is estimated to be located from position information and captured images among the plurality of fixed attribute information; And
A multi-AVM for measuring the position of a construction machine and a worker, comprising: an overlap confirmation unit that checks an overlapping area of a plurality of camera measurement error ranges determined by the error range determination unit and determines the corrected position information of the object. Camera system.
제4항에 있어서,
상기 제2위치 보정부는,
상기 중첩 확인부에서 확인된 중첩 영역과 상기 이동형 속성정보에 포함된 객체의 위치정보의 중첩영역을 확인하여 상기 객체의 최종 위치정보로서 보정하는 것을 특징으로 하는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템.
The method of claim 4,
The second position correction unit,
Multiple AVM for measuring the position of a construction machine and a worker, characterized in that the overlapping area checked by the overlap check unit and the overlapping area of the location information of the object included in the movable property information are corrected as the final location information of the object Camera system.
제1항에 있어서,
상기 다수의 고정형 AVM 장치들은 각각,
각각 고정형 촬영 영상을 출력하는 다수의 고정형 AVM 카메라들을 포함하는 AVM 카메라부;
상기 다수의 고정형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 상기 측정된 객체의 위치정보를 포함하는 고정형 속성정보를 생성하는 연산 제어부; 및
상기 생성된 고정형 속성정보를 중앙 서버로 전송하는 통신부;를 포함하는 것을 특징으로 하는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템.
The method of claim 1,
Each of the plurality of fixed AVM devices,
An AVM camera unit including a plurality of fixed AVM cameras each outputting a fixed image;
An operation for recognizing temporary objects by analyzing the plurality of stationary photographed images, matching the recognized temporary objects to determine the object, measuring location information, and generating fixed property information including location information of the measured object Control unit; And
A communication unit for transmitting the generated fixed attribute information to a central server; a multi-AVM camera system for measuring the location of construction machinery and workers, comprising a.
제1항에 있어서,
상기 적어도 하나의 이동형 AVM 장치는,
상기 건설 기계의 위치 정보를 수신하는 GPS부;
각각 이동형 촬영 영상을 출력하는 다수의 이동형 AVM 카메라들을 포함하는 AVM 카메라부;
상기 다수의 이동형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 상기 측정된 객체의 위치정보를 포함하는 이동형 속성정보를 생성하는 연산 제어부; 및
상기 생성된 이동형 속성정보를 중앙 서버로 전송하는 통신부;를 포함하는 것을 특징으로 하는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템.
The method of claim 1,
The at least one mobile AVM device,
A GPS unit receiving location information of the construction machine;
An AVM camera unit including a plurality of mobile AVM cameras each outputting a mobile photographed image;
An operation for recognizing temporary objects by analyzing the plurality of mobile photographed images, matching the recognized temporary objects to determine the object, measuring position information, and generating mobile attribute information including position information of the measured object Control unit; And
A communication unit for transmitting the generated mobile attribute information to a central server; a multi-AVM camera system for measuring the position of a construction machine and a worker, comprising a.
제7항에 있어서,
상기 연산 제어부는,
상기 측정된 객체의 위치정보를 상기 GPS부에서 수신한 건설 기계의 위치 정보와 연계하여 월드 좌표로 변환하고, 변환된 월드 좌표를 상기 객체의 위치정보로 정하는 것을 특징으로 하는 건설 기계 및 작업자 위치 측정을 위한 다중 AVM 카메라 시스템.
The method of claim 7,
The operation control unit,
A construction machine and worker position measurement, characterized in that the measured location information of the object is converted into world coordinates in connection with the location information of the construction machine received from the GPS unit, and the converted world coordinates are determined as the location information of the object. AVM camera system for the camera.
(A) 다수의 고정형 AVM 장치들이, 건설 현장의 서로 다른 고정된 위치에 설치되어 건설 현장을 촬영한 고정형 촬영 영상들을 분석하여 객체를 인식하고, 상기 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '고정형 속성정보'라 한다)를 하기 중앙 서버로 전송하는 단계;
(B) 적어도 하나의 이동형 AVM 장치가, 건설 기계에 이동가능하도록 설치되어 건설 현장을 촬영한 이동형 촬영 영상을 분석하여 객체를 인식하고, 상기 인식된 객체의 위치정보를 추정하여 추정된 위치정보를 포함하는 속성정보(이하, '이동형 속성정보'라 한다)를 하기 중앙 서버로 전송하는 단계; 및
(C) 중앙 서버가, 상기 (A) 단계 및 (B) 단계로부터 수신되는 다수의 고정형 속성정보들과 적어도 하나의 이동형 속성정보를 분석하여 상기 객체의 위치정보를 다시점 기반으로 보정하는 단계;를 포함하는 것을 특징으로 하는 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법.
(A) A number of fixed AVM devices are installed at different fixed locations on the construction site to recognize the object by analyzing the fixed-type photographed images taken of the construction site, and the estimated position by estimating the location information of the recognized object. Transmitting attribute information including information (hereinafter, referred to as'fixed attribute information') to the following central server;
(B) At least one movable AVM device is installed to be movable on a construction machine and recognizes an object by analyzing a movable photographed image taken of a construction site, and estimates the location information of the recognized object to obtain the estimated location information. Transmitting the included attribute information (hereinafter, referred to as'portable attribute information') to the following central server; And
(C) analyzing, by the central server, a plurality of fixed property information and at least one mobile property information received from steps (A) and (B), and correcting the location information of the object based on multiple views; Construction machinery and worker position measurement method of a multi-AVM camera system comprising a.
제9항에 있어서,
상기 고정형 속성정보는,
상기 고정형 촬영 영상에서 인식된 객체의 위치정보와 종류, 상기 객체가 포함된 고정형 촬영 영상과 촬영 시간 및 고정형 AVM 장치가 설치된 위치 정보를 포함하고,
상기 이동형 속성정보는,
상기 이동형 촬영 영상에서 인식된 객체의 위치정보와 종류, 상기 객체가 포함된 이동형 촬영 영상과 촬영 시간 및 건설 기계의 위치 정보를 포함하는 것을 특징으로 하는 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법.
The method of claim 9,
The fixed type attribute information,
Including location information and type of the object recognized in the fixed-type photographed image, a fixed-type photographed image including the object, a photographing time, and location information of a fixed AVM device,
The mobile attribute information,
A method for measuring a location of a construction machine and a worker in a multi-AVM camera system, comprising: location information and type of the object recognized in the mobile photographing image, a mobile photographing image including the object, a photographing time, and location information of a construction machine. .
제9항에 있어서,
상기 (C) 단계는,
(C1) 상기 중앙 서버가, 상기 다수의 고정형 AVM 장치들의 검교정을 수행하여 고정형 AVM 장치들 간의 관계 파라미터를 획득하는 단계;
(C2) 상기 중앙 서버가, 상기 획득한 관계 파라미터와 상기 수신된 다수의 고정형 속성정보들을 이용하여, 상기 다수의 고정형 AVM 장치들에서 인식된 객체의 위치정보를 보정하는 단계; 및
(C3) 상기 중앙 서버가, 상기 (C2) 단계에서 보정된 객체의 위치정보와 상기 (B) 단계에서 추정된 객체의 위치정보를 비교하여 상기 객체의 위치정보를 최종으로 보정하는 단계;를 포함하는 것을 특징으로 하는 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법.
The method of claim 9,
The (C) step,
(C1) obtaining, by the central server, a relationship parameter between the fixed AVM devices by performing calibration and calibration of the plurality of fixed AVM devices;
(C2) the central server correcting, by the central server, the location information of the object recognized by the plurality of fixed AVM devices by using the obtained relationship parameter and the received plurality of fixed attribute information; And
(C3) comparing, by the central server, the location information of the object corrected in step (C2) with the location information of the object estimated in step (B) to finally correct the location information of the object; Construction machinery and worker position measurement method of a multi-AVM camera system, characterized in that.
제10항에 있어서,
상기 (C2) 단계는,
상기 중앙 서버가, 상기 다수의 고정형 속성정보들 중 위치정보들과 촬영 영상들로부터 상기 객체가 위치할 것으로 추정되는 카메라 측정 오차 범위를 상기 다수의 고정형 AVM 장치들 각각에 대해 판단하고, 상기 판단된 다수의 카메라 측정 오차 범위들의 중첩 영역을 확인하여 상기 객체의 보정된 위치정보로서 정하는 것을 특징으로 하는 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법.
The method of claim 10,
The (C2) step,
The central server determines, for each of the plurality of fixed AVM devices, a camera measurement error range estimated to be located from the location information and the captured images among the plurality of fixed property information, and the determined A construction machine and worker position measurement method of a multi-AVM camera system, characterized in that the overlapping area of the measurement error ranges of a plurality of cameras is identified and determined as corrected position information of the object.
제12항에 있어서,
상기 (C3) 단계는,
상기 중앙 서버가, 상기 (C2) 단계에서 확인된 중첩 영역과 상기 이동형 속성정보에 포함된 객체의 위치정보의 중첩영역을 확인하여 상기 객체의 최종 위치정보로서 보정하는 것을 특징으로 하는 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법.
The method of claim 12,
The (C3) step,
The central server, a multi-AVM camera system, characterized in that the overlapping area checked in step (C2) and the overlapping area of the location information of the object included in the mobile property information are corrected as final location information of the object. Construction machinery and worker position measurement method.
제9항에 있어서,
상기 (A) 단계는, 상기 다수의 고정형 AVM 장치들이 각각,
(A1) 다수의 고정형 AVM 카메라들이 촬영한 고정형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 상기 측정된 객체의 위치정보를 포함하는 고정형 속성정보를 생성하는 단계; 및
(A2) 상기 생성된 고정형 속성정보를 중앙 서버로 전송하는 단계;를 포함하는 것을 특징으로 하는 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법.
The method of claim 9,
In the step (A), each of the plurality of fixed AVM devices,
(A1) Recognizing temporary objects by analyzing fixed-type photographed images captured by a plurality of fixed AVM cameras, matching the recognized temporary objects to determine the object, measuring location information, and including location information of the measured object Generating fixed attribute information; And
(A2) transmitting the generated fixed attribute information to a central server; construction machine and worker position measurement method of a multi-AVM camera system comprising a.
제9항에 있어서,
상기 (B) 단계는, 상기 적어도 하나의 이동형 AVM 장치가,
(B1) 상기 건설 기계의 위치 정보를 수신하는 단계;
(B2) 다수의 이동형 AVM 카메라들이 촬영한 이동형 촬영 영상들을 분석하여 임시 객체들을 인식하고, 인식된 임시 객체들을 매칭시켜 상기 객체로 정한 후 위치정보를 측정하고, 상기 측정된 객체의 위치정보를 포함하는 이동형 속성정보를 생성하는 단계; 및
(B3) 상기 생성된 이동형 속성정보를 중앙 서버로 전송하는 단계;를 포함하는 것을 특징으로 하는 다중 AVM 카메라 시스템의 건설 기계 및 작업자 위치 측정 방법.
The method of claim 9,
In the step (B), the at least one mobile AVM device,
(B1) receiving location information of the construction machine;
(B2) Recognizing temporary objects by analyzing mobile photographed images captured by a plurality of mobile AVM cameras, matching the recognized temporary objects to determine the object, measuring location information, and including location information of the measured object Generating mobile attribute information to be performed; And
(B3) transmitting the generated mobile attribute information to a central server; construction machine and worker position measurement method of a multi-AVM camera system comprising a.
KR1020190111459A 2019-09-09 2019-09-09 Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position KR102153486B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190111459A KR102153486B1 (en) 2019-09-09 2019-09-09 Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190111459A KR102153486B1 (en) 2019-09-09 2019-09-09 Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position

Publications (1)

Publication Number Publication Date
KR102153486B1 true KR102153486B1 (en) 2020-09-08

Family

ID=72451095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190111459A KR102153486B1 (en) 2019-09-09 2019-09-09 Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position

Country Status (1)

Country Link
KR (1) KR102153486B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08166993A (en) * 1994-12-12 1996-06-25 Yutaka Totsuka Method and device for management of construction site
JP2004309318A (en) * 2003-04-07 2004-11-04 Honda Motor Co Ltd Position detection method, its device and its program, and calibration information creation method
KR20130088051A (en) * 2012-01-30 2013-08-07 두산인프라코어 주식회사 Monitor display apparatus in construction machinery
JP2016219968A (en) * 2015-05-19 2016-12-22 日本放送協会 Multi-viewpoint video expression apparatus and program therefor
KR101916467B1 (en) 2012-10-30 2018-11-07 현대자동차주식회사 Apparatus and method for detecting obstacle for Around View Monitoring system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08166993A (en) * 1994-12-12 1996-06-25 Yutaka Totsuka Method and device for management of construction site
JP2004309318A (en) * 2003-04-07 2004-11-04 Honda Motor Co Ltd Position detection method, its device and its program, and calibration information creation method
KR20130088051A (en) * 2012-01-30 2013-08-07 두산인프라코어 주식회사 Monitor display apparatus in construction machinery
KR101916467B1 (en) 2012-10-30 2018-11-07 현대자동차주식회사 Apparatus and method for detecting obstacle for Around View Monitoring system
JP2016219968A (en) * 2015-05-19 2016-12-22 日本放送協会 Multi-viewpoint video expression apparatus and program therefor

Similar Documents

Publication Publication Date Title
JP5109294B2 (en) 3D position correction device
AU2010201110B2 (en) Method for Producing a Known Fixed Spatial Relationship Between a Laser Scanner and a Digital Camera for Traffic Monitoring
WO2015019526A1 (en) Image processing device and markers
JP5775965B2 (en) Stereo camera system and moving body
TW201727537A (en) Face recognition system and face recognition method
JP6035620B2 (en) On-vehicle stereo camera system and calibration method thereof
JP2015002547A (en) Image processing apparatus, program, and image processing method
WO2011118476A1 (en) Three dimensional distance measuring device and method
CN114821497A (en) Method, device and equipment for determining position of target object and storage medium
JP6125102B2 (en) Information display system
CN109191522B (en) Robot displacement correction method and system based on three-dimensional modeling
KR102153486B1 (en) Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position
KR20170142379A (en) Apparatus for detect dimensional welding line of welding robot using image processing
KR102410300B1 (en) Apparatus for measuring position of camera using stereo camera and method using the same
JP2015114917A (en) Person detection device
JP2018201146A (en) Image correction apparatus, image correction method, attention point recognition apparatus, attention point recognition method, and abnormality detection system
KR102135672B1 (en) Autonomous driving devise and method
JP3696335B2 (en) Method for associating each measurement point of multiple images
JP2020088840A (en) Monitoring device, monitoring system, monitoring method, and monitoring program
KR102490520B1 (en) Apparatus for building map using gps information and lidar signal and controlling method thereof
KR102374357B1 (en) Video Surveillance Apparatus for Congestion Control
JP6581280B1 (en) Monitoring device, monitoring system, monitoring method, monitoring program
KR20140053712A (en) The localization method for indoor mobile robots by sensor fusion
KR20140011672A (en) Method and apparatus for controlling robot
KR101300166B1 (en) Apparatus and method for detecting iris

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant