KR101313134B1 - Apparatus for combing image in surveillance camera system and method thereof - Google Patents

Apparatus for combing image in surveillance camera system and method thereof Download PDF

Info

Publication number
KR101313134B1
KR101313134B1 KR1020110137594A KR20110137594A KR101313134B1 KR 101313134 B1 KR101313134 B1 KR 101313134B1 KR 1020110137594 A KR1020110137594 A KR 1020110137594A KR 20110137594 A KR20110137594 A KR 20110137594A KR 101313134 B1 KR101313134 B1 KR 101313134B1
Authority
KR
South Korea
Prior art keywords
images
image
synthesizing
synthesized
overlapping
Prior art date
Application number
KR1020110137594A
Other languages
Korean (ko)
Other versions
KR20130070329A (en
Inventor
허진녕
문병섭
박범진
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020110137594A priority Critical patent/KR101313134B1/en
Publication of KR20130070329A publication Critical patent/KR20130070329A/en
Application granted granted Critical
Publication of KR101313134B1 publication Critical patent/KR101313134B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명에 의한 감시 카메라 시스템에서 영상을 합성하기 위한 장치 및 그 방법이 개시된다.
본 발명에 따른 영상을 합성하기 위한 장치는 감시하는 영역 내의 다수의 카메라로부터 압축된 영상을 입력받는 영상 입력부; 입력받은 상기 압축된 영상들을 복원하여 그 복원된 영상들을 미리 정의된 변환 행렬을 이용하여 각각 변형하는 영상 변형부; 및 변형된 상기 영상들을 합성하여 하나의 합성 영상을 생성하는 영상 합성부를 포함하고, 여기서, 상기 변환 행렬은 3차원 공간상의 좌표를 2차원 이미지상의 좌표로 변형하도록 정의된 행렬인 것을 특징으로 한다.
이를 통해, 본 발명은 카메라의 위치나 설치 각도에 관계없이 전체 영역에 대한 영상을 획득할 수 있을 뿐 아니라 감시자가 직관적으로 전체 영역을 감시할 수 있고, 전체 영역 안에서 움직이는 이동체를 쉽게 추척 및 모니터링할 수 있다.
An apparatus and method for synthesizing an image in a surveillance camera system according to the present invention are disclosed.
An apparatus for synthesizing an image according to the present invention includes an image input unit for receiving a compressed image from a plurality of cameras in a monitored area; An image transformation unit for reconstructing the received compressed images and transforming the reconstructed images by using a predefined transformation matrix; And an image synthesizing unit for synthesizing the transformed images to generate one synthesized image, wherein the transformation matrix is a matrix defined to transform coordinates in three-dimensional space into coordinates in a two-dimensional image.
Through this, the present invention can not only acquire the image of the entire area regardless of the position or installation angle of the camera, but also the monitor can intuitively monitor the whole area, and can easily track and monitor the moving object moving in the whole area. Can be.

Figure R1020110137594
Figure R1020110137594

Description

감시 카메라 시스템에서 영상을 합성하기 위한 장치 및 그 방법{APPARATUS FOR COMBING IMAGE IN SURVEILLANCE CAMERA SYSTEM AND METHOD THEREOF}Apparatus and method for synthesizing images in surveillance camera system {APPARATUS FOR COMBING IMAGE IN SURVEILLANCE CAMERA SYSTEM AND METHOD THEREOF}

본 발명은 영상 합성 장치에 관한 것으로, 특히, 다수의 카메라로부터 획득된 3차원 공간 평면의 영상을 미리 정의된 변환 행렬을 이용하여 2차원 공간 평면의 영상으로 변형하고 그 변형된 영상들을 합성하여 하나의 합성 영상을 생성하도록 하는 감시 카메라 시스템에서 영상을 합성하기 위한 장치 및 그 방법에 관한 것이다.The present invention relates to an image synthesizing apparatus. In particular, an image of a three-dimensional space plane obtained from a plurality of cameras is transformed into an image of a two-dimensional space plane by using a predefined transformation matrix, and the modified images are synthesized. An apparatus and method for synthesizing an image in a surveillance camera system for generating a composite image of the present invention.

일반적으로 감시 카메라 시스템은 특정 지역을 감시하기 위하여 다수의 카메라를 사용한다. 각각의 카메라로부터 획득된 영상은 개별적인 모니터에 출력되어 감시자는 그 개별적인 모니터를 이용하여 전체적인 지역을 감시하게 된다.Surveillance camera systems typically use multiple cameras to monitor specific areas. Images from each camera are output to a separate monitor so that the observer can monitor the entire area using that individual monitor.

각각의 카메라는 모두 다양한 각도와 방향으로 설치되기 때문에 각각의 모니터에서 출력되는 영상을 관찰하여서는 실제 모니터에 나타나는 영상과 물리적으로 존재하는 영역 사이의 관계를 파악하기가 어렵다.Since each camera is installed at various angles and directions, it is difficult to observe the image output from each monitor to determine the relationship between the image displayed on the actual monitor and the physically existing area.

따라서 감시자는 모니터에 출력되는 영상만을 확인하는 것으로 감시하고자 하는 전체 영역에 대한 이미지를 쉽게 떠올릴 수 없기 때문에 전체 영역에 대한 감시가 쉽지 않을 뿐만 아니라 감시자 또한 쉽게 피로해진다.Therefore, the monitor cannot easily think of the image of the entire area to be monitored by checking only the image output on the monitor, so not only the monitoring of the entire area is easy, but also the monitor is easily tired.

또한 감시하는 특정 영역 안의 특정 이동체를 지속적으로 모니터링하고자 할 경우 감시하고자 하는 전체 영역에 대한 이미지를 쉽게 확인할 수 없기 때문에 특정 지역 안의 이동체를 지속적으로 모니터링하는데 상당한 어려움이 있다.In addition, when continuously monitoring a specific moving object in a specific area to be monitored, it is difficult to continuously monitor the moving object in a specific area because the image of the entire area to be monitored cannot be easily identified.

따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 다수의 카메라로부터 획득된 3차원 공간 평면의 영상을 미리 정의된 변환 행렬을 이용하여 2차원 공간 평면의 영상으로 변형하고, 그 변형된 영상들을 합성하여 하나의 합성 영상을 생성하도록 하는 감시 카메라 시스템에서 영상을 합성하기 위한 장치 및 그 방법을 제공하는데 있다.Therefore, to solve the problems of the prior art, an object of the present invention is to transform the image of the three-dimensional space plane obtained from a plurality of cameras to the image of the two-dimensional space plane using a predefined transformation matrix, the deformation An apparatus and method for synthesizing an image in a surveillance camera system for synthesizing the captured images to generate a single composite image are provided.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 목적들을 달성하기 위하여, 본 발명의 한 관점에 따른 영상을 합성하기 위한 장치는 감시하는 영역 내의 다수의 카메라로부터 압축된 영상을 입력받는 영상 입력부; 입력받은 상기 압축된 영상들을 복원하여 그 복원된 영상들을 미리 정의된 변환 행렬을 이용하여 각각 변형하는 영상 변형부; 및 변형된 상기 영상들을 합성하여 하나의 합성 영상을 생성하는 영상 합성부를 포함하고, 여기서, 상기 변환 행렬은 3차원 공간상의 좌표를 2차원 이미지상의 좌표로 변형하도록 정의된 행렬인 것을 특징으로 한다.In order to achieve the above objects, an apparatus for synthesizing an image according to an aspect of the present invention includes an image input unit for receiving a compressed image from a plurality of cameras in the area to be monitored; An image transformation unit for reconstructing the received compressed images and transforming the reconstructed images by using a predefined transformation matrix; And an image synthesizing unit for synthesizing the transformed images to generate one synthesized image, wherein the transformation matrix is a matrix defined to transform coordinates in three-dimensional space into coordinates in a two-dimensional image.

바람직하게, 상기 영상 변형부는 복원된 3차원 좌표계 영상들을 상기 미리 정의된 변환 행렬을 이용하여 각각 2차원 좌표계 영상들로 각각 변형할 수 있다.Preferably, the image transformation unit may transform the reconstructed three-dimensional coordinate system images into two-dimensional coordinate system images, respectively, by using the predefined transformation matrix.

바람직하게, 상기 영상 변형부는 상기 복원된 영상들 각각에서 미리 알고 있는 적어도 하나의 좌표를 기반으로 상기 변환 행렬의 값을 계산하여 계산된 상기 변환 행렬을 이용하여 상기 복원된 영상들 각각을 변형할 수 있다.Preferably, the image transformation unit may transform each of the reconstructed images by using the transformation matrix calculated by calculating a value of the transformation matrix based on at least one coordinate previously known in each of the reconstructed images. have.

바람직하게, 상기 영상 합성부는 상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 미리 설정된 블랜딩 기법을 사용하여 하나로 합성할 수 있다.Preferably, the image synthesizing unit may synthesize the overlapping portions between the images synthesized in the process of synthesizing the images into one using a preset blending technique.

바람직하게, 상기 영상 합성부는 상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 겹쳐지는 상기 영상들의 평균값을 사용하여 하나로 합성할 수 있다.Preferably, the image synthesizing unit may combine the overlapping portions between the images synthesized in the process of synthesizing the images into one using an average value of the overlapping images.

바람직하게, 상기 영상 합성부는 상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 겹쳐지는 상기 영상들 각각으로부터의 거리에 따라 미리 설정되는 가중치를 사용하여 하나로 합성할 수 있다.Preferably, the image synthesizing unit may synthesize one overlapping portion between the images synthesized in the process of synthesizing the images by using a preset weight according to a distance from each of the overlapping images.

본 발명의 다른 한 관점에 따른 영상을 합성하기 위한 방법은 (a)감시하는 영역 내의 다수의 카메라로부터 압축된 영상을 입력받는 단계; (b)입력받은 상기 압축된 영상들을 복원하여 그 복원된 영상들을 미리 정의된 변환 행렬을 이용하여 각각 변형하는 단계; 및 (c)변형된 상기 다수의 영상들을 합성하여 하나의 합성 영상을 생성하는 단계를 포함하고, 여기서, 상기 변환 행렬은 3차원 공간상의 좌표를 2차원 이미지상의 좌표로 변형하도록 정의된 행렬인 것을 특징으로 한다.According to another aspect of the present invention, a method for synthesizing an image includes: (a) receiving a compressed image from a plurality of cameras in a monitored area; (b) restoring the received compressed images and transforming the restored images using a predefined transformation matrix; And (c) synthesizing the plurality of modified images to generate a single composite image, wherein the transformation matrix is a matrix defined to transform coordinates in three-dimensional space into coordinates in a two-dimensional image. It features.

바람직하게, 상기 (b) 단계는 복원된 3차원 좌표계 영상들을 상기 미리 정의된 변환 행렬을 이용하여 각각 2차원 좌표계 영상들로 각각 변형할 수 있다.Preferably, in the step (b), the reconstructed three-dimensional coordinate system images may be transformed into two-dimensional coordinate system images, respectively, by using the predefined transformation matrix.

바람직하게, 상기 (b) 단계는 상기 복원된 영상들 각각에서 미리 알고 있는 적어도 하나의 좌표를 기반으로 상기 변환 행렬의 값을 계산하여 계산된 상기 변환 행렬을 이용하여 상기 복원된 영상들 각각을 변형할 수 있다.Preferably, the step (b) transforms each of the reconstructed images by using the transformation matrix calculated by calculating a value of the transformation matrix based on at least one coordinate previously known in each of the reconstructed images. can do.

바람직하게, 상기 (c) 단계는 상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 미리 설정된 블랜딩 기법을 사용하여 하나로 합성할 수 있다.Preferably, in the step (c), the overlapping portions between the images synthesized in the process of synthesizing the images may be synthesized into one using a preset blending technique.

바람직하게, 상기 (c) 단계는 상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 겹쳐지는 상기 영상들의 평균값을 사용하여 하나로 합성할 수 있다.Preferably, in the step (c), the overlapping portions between the synthesized images may be synthesized into one using the average value of the overlapping images.

바람직하게, 상기 (c) 단계는 상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 겹쳐지는 상기 영상들 각각으로부터의 거리에 따라 미리 설정되는 가중치를 사용하여 하나로 합성할 수 있다.Preferably, in the step (c), the overlapping portions between the images synthesized in the process of synthesizing the images may be synthesized into one using a weight set in advance according to the distance from each of the overlapping images.

이를 통해, 본 발명은 다수의 카메라로부터 획득된 3차원 공간 평면의 영상을 미리 정의된 변환 행렬을 이용하여 2차원 공간 평면의 영상으로 변형하고 그 변형된 영상들을 합성하여 하나의 합성 영상을 생성함으로써, 카메라의 위치나 설치 각도에 관계없이 전체 영역에 대한 영상을 획득할 수 있는 효과가 있다.Through this, the present invention transforms the image of the three-dimensional space plane obtained from a plurality of cameras to the image of the two-dimensional space plane using a predefined transformation matrix and synthesized the modified images to generate a single composite image In addition, there is an effect of obtaining an image of the entire area regardless of the position or installation angle of the camera.

또한, 본 발명은 카메라의 위치나 설치 각도에 관계없이 전체 영역에 대한 영상을 획득하기 때문에 감시자가 직관적으로 전체 영역을 감시할 수 있는 효과가 있다.In addition, the present invention has the effect that the monitor can intuitively monitor the entire area because the image is obtained for the entire area regardless of the position or installation angle of the camera.

또한, 본 발명은 감시자가 직관적으로 전체 영역을 감시할 수 있기 때문에 전체 영역 안에서 움직이는 이동체를 쉽게 추척 및 모니터링할 수 있는 효과가 있다.In addition, the present invention has an effect that can easily track and monitor the moving object moving in the entire area because the monitor can intuitively monitor the entire area.

도 1은 본 발명의 일 실시예에 따른 감시 카메라 시스템을 나타내는 도면이다.
도 2는 도 1에 도시된 영상 합성 장치(200)의 상세한 구성을 나타내는 도면이다.
도 3은 2차원 평면으로 투영된 3차원 공간상의 점을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상의 변환을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상의 합성을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 영상을 합성하기 위한 방법을 나타내는 도면이다.
1 is a view showing a surveillance camera system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a detailed configuration of the image synthesizing apparatus 200 shown in FIG. 1.
3 is a diagram showing a point in three-dimensional space projected on a two-dimensional plane.
4 is a diagram for describing a transformation of an image, according to an exemplary embodiment.
5 is a diagram for describing synthesis of an image, according to an exemplary embodiment.
6 is a diagram illustrating a method for synthesizing an image according to an embodiment of the present invention.

이하에서는, 본 발명의 실시예에 따른 감시 카메라 시스템에서 영상을 합성하기 위한 장치 및 그 방법을 첨부한 도 1 내지 도 6을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는데 필요한 부분을 중심으로 상세히 설명한다. 명세서 전체를 통하여 각 도면에서 제시된 동일한 참조 부호는 동일한 구성 요소를 나타낸다. 또한, 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.Hereinafter, an apparatus and method for synthesizing an image in a surveillance camera system according to an exemplary embodiment of the present invention will be described with reference to FIGS. 1 to 6. The present invention will be described in detail with reference to the portions necessary for understanding the operation and operation according to the present invention. Like reference numerals in the drawings denote like elements throughout the specification. In the following description, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

특히, 본 발명에서는 다수의 카메라로부터 획득된 3차원 공간 평면의 영상을 미리 정의된 변환 행렬을 이용하여 2차원 공간 평면의 영상으로 변형하고 그 변형된 영상들을 합성하여 하나의 합성 영상을 생성하도록 하는 새로운 방안을 제안한다.Particularly, in the present invention, the image of the three-dimensional space plane obtained from a plurality of cameras is transformed into the image of the two-dimensional space plane using a predefined transformation matrix, and the modified images are synthesized to generate one composite image. Propose a new solution.

도 1은 본 발명의 일 실시예에 따른 감시 카메라 시스템을 나타내는 도면이다.1 is a view showing a surveillance camera system according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명에 따른 감시 카메라 시스템은 감시 영역(예: 교량, 터널 등)에 설치되는 다수의 카메라(100), 및 영상 합성 장치(200) 등을 포함하여 구성될 수 있다.As shown in FIG. 1, the surveillance camera system according to the present invention may include a plurality of cameras 100 installed in a surveillance area (eg, a bridge, a tunnel, etc.), and an image synthesizing apparatus 200. have.

카메라(100)는 감시하고자 하는 전체 영역(예: 교량, 터널 등)을 모두 관찰할 수 있도록 배치될 수 있다. 이때, 카메라(100)의 위치와 방향은 상관이 없는데, 감시하고자 하는 전체 영역을 모두 확보할 수 있는 영상을 획득할 수 있도록 배치되어야 한다.The camera 100 may be arranged to observe all the areas (eg, bridges, tunnels, etc.) to be monitored. At this time, the position and direction of the camera 100 are irrelevant, but should be arranged to obtain an image that can secure all the entire area to be monitored.

카메라(100)는 획득된 영상을 압축하여 유선 또는 무선 네트워크를 통해 영상 합성 장치(200)로 전송할 수 있다.The camera 100 may compress the obtained image and transmit the compressed image to the image synthesizing apparatus 200 through a wired or wireless network.

영상 합성 장치(200)는 카메라로부터 입력받은 압축된 영상을 복원하고 그 복원된 영상을 미리 정의된 변환식 또는 변환 행렬을 이용하여 변형(wrapping)하고 그 변형된 영상들을 합성하여 하나의 합성 영상을 생성할 수 있다.The image synthesizing apparatus 200 restores the compressed image received from the camera, transforms the restored image using a predefined transformation or transformation matrix, and synthesizes the modified images to generate one composite image. can do.

도 2는 도 1에 도시된 영상 합성 장치(200)의 상세한 구성을 나타내는 도면이다.FIG. 2 is a diagram illustrating a detailed configuration of the image synthesizing apparatus 200 shown in FIG. 1.

도 2에 도시한 바와 같이, 본 발명에 따른 영상 합성 장치(200)는 영상 입력부(210), 영상 변형부(220), 영상 합성부(230), 및 영상 저장부(240) 등을 포함하여 구성될 수 있다.As shown in FIG. 2, the image synthesizing apparatus 200 according to the present invention includes an image input unit 210, an image transformation unit 220, an image synthesis unit 230, an image storage unit 240, and the like. Can be configured.

영상 입력부(210)는 카메라로부터 압축된 영상을 유선 또는 무선으로 입력받을 수 있다.The image input unit 210 may receive a compressed image from a camera by wire or wirelessly.

영상 변형부(220)는 압축된 영상을 복원하여 그 복원된 영상을 미리 정의된 변환 행렬을 이용하여 변형할 수 있는데, 여기서, 변환 행렬은 3차원 공간상의 좌표를 2차원 이미지상의 좌표로 변형하거나 2차원 이미지상의 좌표를 3차원 공간상의 좌표로 변형할 수 있다.The image transformation unit 220 may restore the compressed image and transform the restored image using a predefined transformation matrix, wherein the transformation matrix transforms coordinates in three-dimensional space into coordinates in a two-dimensional image. Coordinates on a two-dimensional image can be transformed into coordinates on a three-dimensional space.

이러한 변환 행렬을 도 3 내지 도 5를 참조하여 구체적으로 설명하면 다음과 같다.This conversion matrix is described in detail with reference to FIGS. 3 to 5 as follows.

도 3은 2차원 평면으로 투영된 3차원 공간상의 점을 나타내는 도면이다.3 is a diagram showing a point in three-dimensional space projected on a two-dimensional plane.

도 3에 도시한 바와 같이, 3차원 공간상의 점 (X,Y,Z)가 카메라를 통해 2차원 평면상의 점 (x,y)로 투영될 수 있다고 가정하면, 이때의 3차원 공간상의 좌표 (X,Y,Z)와 2차원 평면상의 좌표 (x,y) 사이의 관계는 다음의 [수학식 1]과 같이 나타낼 수 있다.As shown in FIG. 3, assuming that a point (X, Y, Z) in three-dimensional space can be projected to a point (x, y) in a two-dimensional plane through a camera, the coordinate in three-dimensional space ( X, Y, Z) and the relationship between the coordinates (x, y) on the two-dimensional plane can be expressed as Equation 1 below.

[수학식 1][Equation 1]

Figure 112011100960181-pat00001
Figure 112011100960181-pat00001

(x,y)는 카메라 센서 상의 좌표이므로 이것을 이미지의 픽셀 좌표로 변경하면 다음의 [수학식 2]와 같이 나타낼 수 있다.Since (x, y) is a coordinate on the camera sensor, changing this to the pixel coordinate of the image can be expressed as Equation 2 below.

[수학식 2]&Quot; (2) "

Figure 112011100960181-pat00002
Figure 112011100960181-pat00002

여기서, (u,v)는 이미지 상의 좌표를 나타내고, (u0,v0)는 카메라 광축이 이미지에 투영되는 곳의 좌표를 나타낼 수 있다. 그리고 ku, kv는 x축과 y축 각각에 대하여 카메라 센서 상의 좌표와 이미지 좌표 사이의 비율을 나타낼 수 있다.Here, (u, v) may represent coordinates on the image, and (u 0 , v 0 ) may represent coordinates where the camera optical axis is projected on the image. And k u , k v may represent the ratio between the coordinates on the camera sensor and the image coordinates for the x and y axes, respectively.

상기 [수학식 2]를 행렬로 표현하면 다음의 [수학식 3]과 같이 나타낼 수 있다.If Equation 2 is expressed as a matrix, it can be expressed as Equation 3 below.

[수학식 3]&Quot; (3) "

Figure 112011100960181-pat00003
Figure 112011100960181-pat00003

3차원 공간상의 좌표는 회전과 이동이 이루어지므로 3차원 공간상의 회전과 이동을 고려하여 상기 [수학식 3]을 표현하면 다음의 [수학식 4]와 같이 나타낼 수 있다.Since the coordinates in the three-dimensional space are rotated and moved, the equation (3) can be expressed by the following equation (4) in consideration of the rotation and the movement in the three-dimensional space.

[수학식 4]&Quot; (4) "

Figure 112011100960181-pat00004
Figure 112011100960181-pat00004

여기서, 회전은 회전 행렬

Figure 112011100960181-pat00005
로 이루어지고, 이동은 이동 행렬
Figure 112011100960181-pat00006
로 이루어진다.Where rotation is the rotation matrix
Figure 112011100960181-pat00005
Is made up of a moving matrix
Figure 112011100960181-pat00006
.

3차원 회전 행렬 R은 3차원 공간상에서 x,y,z축에 대한 회전을 표현한 행렬로 만일 각 축에 대한 회전량을

Figure 112011100960181-pat00007
(z축)
Figure 112011100960181-pat00008
(y축),
Figure 112011100960181-pat00009
(x축)이라 하면, 회전 행렬 R은 다음의 [수학식 5]와 같이 나타낼 수 있다.The three-dimensional rotation matrix R is a matrix representing rotations about the x, y, and z axes in three-dimensional space.
Figure 112011100960181-pat00007
(z-axis)
Figure 112011100960181-pat00008
(y-axis),
Figure 112011100960181-pat00009
In the case of (x-axis), the rotation matrix R can be expressed as Equation 5 below.

[수학식 5]&Quot; (5) "

Figure 112011100960181-pat00010
Figure 112011100960181-pat00010

상기 [수학식 5]에서 주간 행렬을 모두 곱하여 3차원 공간상의 좌표 (X,Y,Z)와 2차원 이미지 상의 좌표 (u,v) 사이의 관계를 정리하면 다음의 [수학식 6]와 같이 나타낼 수 있다.In Equation 5, the relationship between coordinates (X, Y, Z) in three-dimensional space and coordinates (u, v) in two-dimensional images is multiplied by multiplying the weekly matrix, as shown in Equation 6 below. Can be represented.

[수학식 6]&Quot; (6) "

Figure 112011100960181-pat00011
Figure 112011100960181-pat00011

상기 [수학식 6]에서 행렬 P는 카메라 내부 변수, f, ku, kv, u0, v0와 카메라의 회전과 이동에 관계된 변수

Figure 112011100960181-pat00012
가 모두 포함되어 있는 행렬로, 3차원 물체가 2차원 평면상에 투영되어 변화한다면 임의의 형태로 변형되는 것이 아니라 상기 [수학식 6]에 의하여 형태의 변화가 제한받게 된다.In Equation 6, the matrix P is a camera internal variable, f, k u , k v , u 0 , v 0 and a variable related to the rotation and movement of the camera.
Figure 112011100960181-pat00012
Is a matrix that contains all, if the three-dimensional object is projected on the two-dimensional plane and is not transformed into any shape, but the change in form is limited by the equation (6).

실제로 행렬 P를 계산하기 위하여 카메라 내부 변수와 외부 변수를 측정하는 것은 거의 불가능하기 때문에 실제 3차원 공간상의 좌표와 2차원 이미지상의 좌표를 측정하여 계산해야 한다. 이러한 3차원 공간상의 좌표와 2차원 이미지상의 좌표와의 관계식으로부터 다음의 [수학식 7]을 유도할 수 있다.In practice, it is almost impossible to measure the camera internal and external variables in order to calculate the matrix P. Therefore, the coordinates in the actual three-dimensional space and the coordinates in the two-dimensional image must be measured and calculated. The following Equation 7 can be derived from the relationship between the coordinates in the three-dimensional space and the coordinates in the two-dimensional image.

[수학식 7][Equation 7]

Figure 112011100960181-pat00013
,
Figure 112011100960181-pat00013
,

Figure 112011100960181-pat00014
,
Figure 112011100960181-pat00014
,

Figure 112011100960181-pat00015
Figure 112011100960181-pat00015

상기 [수학식 7]을 이용하면 3차원 공간상의 좌표와 이에 대응하는 2차원 이미지상의 좌표로부터 변환 행렬 P를 계산할 수 있다. 만일 3차원 공간상의 좌표가 동일한 평면위에 있다고 가정하면 다음의 [수학식 8]과 같이 단순화시킬 수 있다.Using Equation 7, the transformation matrix P can be calculated from the coordinates in the three-dimensional space and the coordinates in the two-dimensional image corresponding thereto. If we assume that the coordinates in the three-dimensional space are on the same plane, it can be simplified as shown in [Equation 8].

[수학식 8][Equation 8]

Figure 112011100960181-pat00016
Figure 112011100960181-pat00016

만일 3차원 공간상의 좌표가 동일한 평면위에 존재하지 않는다면 3차원 공간 물체의 높이 정보까지 알아야만 영상을 합성할 수 있다. 하지만 감시카메라는 상당히 높은 곳에 설치되기 때문에 카메라에서 지면까지의 거리에 비하여 차량의 높이는 무시할 수 있기 때문에 [수학식 8]에서처럼 카메라로부터 들어오는 영상이 동일한 평면상에 존재한다고 가정하여도 무방할 수 있다.If the coordinates in the three-dimensional space do not exist on the same plane, it is necessary to know the height information of the three-dimensional space object to synthesize the image. However, since the surveillance camera is installed at a very high level, the height of the vehicle is negligible compared to the distance from the camera to the ground, so it can be assumed that the image coming from the camera is on the same plane as shown in [Equation 8].

3차원 공간상의 좌표가 동일 평면 위에 있다고 가정하면 행렬 P를 계산하기 위해서는 3차원 공간상의 점과 이에 대응되는 이미지상의 4점이 필요하다.Assuming that the coordinates in the three-dimensional space are on the same plane, a point in the three-dimensional space and four corresponding points on the image are required to calculate the matrix P.

도 4는 본 발명의 일 실시예에 따른 영상의 변환을 설명하기 위한 도면이다.4 is a diagram for describing a transformation of an image, according to an exemplary embodiment.

도 4에 도시한 바와 같이, (a)처럼 영상의 변환은 3x3 변환 행렬 P를 이용하여 이루어진다. 즉, 3차원 좌표계의 이미지에서 2차원 좌표계의 이미지로 변형되거나 2차원 좌표계의 이미지에서 3차원 좌표계의 이미지로 변형될 수 있다.As shown in FIG. 4, the transformation of the image is performed by using a 3x3 transformation matrix P as shown in (a). That is, the image of the 3D coordinate system may be transformed into the image of the 2D coordinate system or the image of the 2D coordinate system may be transformed into the image of the 3D coordinate system.

여기서, 카메라로부터 들어온 이미지에서 4점에 대한 좌표를 알고 있다면 이 4점으로부터 변환 행렬 P를 계산할 수 있고, 역으로 변환 행렬 P를 이용하면 카메라 이미지 상의 모든 점을 3차원 좌표계 이미지로 변환할 수 있다.Here, if in the image coming from the camera to know the coordinates of the four points are 4 points can be from calculating the transformation matrix P, by using the transformation matrix P in the reverse may be converted to any point on the camera image to a three-dimensional coordinate system image .

이때, 카메라 영상에서 최소한 4점의 좌표는 미리 알고 있다고 가정하는데, 이러한 4점의 좌표는 미리 정의된 표식점이거나 잘 알려진 랜드마크 등을 사용할 수 있다.In this case, it is assumed that at least four coordinates in the camera image are known in advance. Such four coordinates may be predefined mark points or well-known landmarks.

(b)에서는 실제 3차원 좌표계의 영상이 2차원 좌표계의 영상으로 변형되는 것을 보여주고 있다.In (b), the image of the actual 3D coordinate system is transformed into the image of the 2D coordinate system.

영상 합성부(230)는 변형된 영상들을 합성하여 하나의 합성 영상을 생성할 수 있다.The image synthesizer 230 may generate one composite image by synthesizing the modified images.

도 5는 본 발명의 일 실시예에 따른 영상의 합성을 설명하기 위한 도면이다.5 is a diagram for describing synthesis of an image, according to an exemplary embodiment.

도 5에 도시한 바와 같이, 카메라가 2개일 경우 각각의 개별 카메라에 의해 촬영된 영상에 대한 변환 행렬 P를 계산하여 2차원 평면상으로 합성하게 된다.As shown in FIG. 5, when there are two cameras, a conversion matrix P for an image photographed by each individual camera is calculated and synthesized in a two-dimensional plane.

영상을 합성하는 과정에서 영상과 영상이 겹쳐지는 부분이 발생할 수 있다. 이 부분을 얼마나 부드럽게 합성하는가는 합성된 영상의 질을 보장하게 된다. 겹쳐지는 부분에서 영상을 부드럽게 합성하는 것을 영상 블랜딩(image blending)이라고 한다.In the process of synthesizing the images, a portion where the images overlap with the images may occur. How smoothly this part is combined ensures the quality of the synthesized image. Smooth blending of the images at the overlapping portion is called image blending.

이러한 블랜딩 기법에는 다양한 방법들이 존재하게 되는데, 예컨대, 두 영상의 평균값을 사용하는 방법과 각 영상으로부터의 거리에 따라 미리 설정된 가중치를 이용하는 방법 등이 있다. 물론, 본 발명은 반드시 이에 한정되지 않는다.There are various methods for such a blending technique, for example, a method using an average value of two images and a method using a preset weight according to a distance from each image. Of course, the present invention is not necessarily limited thereto.

영상 저장부(240)는 이렇게 생성된 합성 영상을 주기적으로 저장할 수 있다. 이렇게 저장된 합성 영상들은 필요에 따라 감시자 또는 관리자에게 제공될 수 있다.The image storage unit 240 may periodically store the generated synthetic image. The stored synthetic images may be provided to a monitor or a manager as needed.

도 6은 본 발명의 일 실시예에 따른 영상을 합성하기 위한 방법을 나타내는 도면이다.6 is a diagram illustrating a method for synthesizing an image according to an embodiment of the present invention.

도 6에 도시한 바와 같이, 본 발명에 따른 영상을 합성하기 위한 장치(이하, '영상 합성 장치'라고 한다)는 카메라로부터 압축된 영상을 유선 또는 무선으로 입력받을 수 있다(S610).As illustrated in FIG. 6, an apparatus for synthesizing an image according to the present invention (hereinafter, referred to as an “image synthesizing apparatus”) may receive a compressed image from a camera by wire or wirelessly (S610).

다음으로, 영상 합성 장치는 압축된 영상들을 복원하여(S620) 그 복원된 영상들을 미리 정의된 변환 행렬을 이용하여 각각 변형할 수 있다(S630). 즉, 영상 합성 장치는 복원된 3차원 좌표계의 영상을 2차원 좌표계의 영상으로 변형할 수 있다.Next, the image synthesizing apparatus may reconstruct the compressed images (S620) and transform the reconstructed images using the predefined transformation matrix (S630). That is, the image synthesizing apparatus may transform the reconstructed image of the 3D coordinate system into an image of the 2D coordinate system.

다음으로, 영상 합성 장치는 변형된 영상들을 합성하여 하나의 합성 영상을 생성할 수 있다(S640). 이때, 영상 합성 장치는 영상들을 합성하는 과정에서 합성되는 영상들 간에 겹쳐지는 부분은 겹쳐지는 영상들의 평균값을 사용하여 하나로 합성할 수 있다. 그리고 합성 영상 장치는 영상들을 합성하는 과정에서 합성되는 영상들 간에 겹쳐지는 부분은 겹쳐지는 영상들 각각으로부터의 거리에 따라 미리 설정되는 가중치를 사용하여 하나로 합성할 수 있다.Next, the image synthesizing apparatus may generate one synthetic image by synthesizing the modified images (S640). In this case, the image synthesizing apparatus may combine the overlapping portions between the images synthesized in the process of synthesizing the images into one using an average value of the overlapping images. In the process of synthesizing the images, the composite imaging apparatus may combine the overlapping portions between the synthesized images into one by using a weight set in advance according to the distance from each of the overlapping images.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.The above-described embodiments of the present invention can be embodied in a general-purpose digital computer that can be embodied as a program that can be executed by a computer and operates the program using a computer-readable recording medium. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD ROM,

본 발명에 의한 감시 카메라 시스템에서 영상을 합성하기 위한 장치 및 그 방법이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Those skilled in the art of synthesizing the image in the surveillance camera system according to the present invention and its method will be capable of various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

100: 카메라
200: 영상 합성 장치
210: 영상 입력부
220: 영상 변형부
230: 영상 합성부
240: 영상 저장부
100: camera
200: video synthesis device
210: video input unit
220: image transformation unit
230: video synthesis unit
240: image storage unit

Claims (12)

교량이나 터널을 감시하는 영역 내의 다수의 카메라로부터 압축된 영상을 입력받는 영상 입력부;
입력받은 상기 압축된 영상들을 3차원 좌표계 영상들로 복원하고 그 복원된 3차원 좌표계 영상들 각각에서 미리 정의된 4개의 표식점 또는 잘 알려진 랜드마크의 좌표를 기반으로 소정의 변환 행렬의 값을 계산한 후 계산된 변환 행렬을 이용하여 상기 복원된 3차원 좌표계 영상들을 2차원 좌표계 영상들로 각각 변형하는 영상 변형부; 및
변형된 상기 영상들을 합성하여 하나의 합성 영상을 생성하는 영상 합성부를 포함하고, 여기서, 상기 변환 행렬은 높이(z축)에 제로값('0')을 할당하는 3X3 행렬인 것을 특징으로 하는 영상을 합성하기 위한 장치.
An image input unit configured to receive a compressed image from a plurality of cameras in an area for monitoring a bridge or tunnel;
Reconstruct the received compressed images into three-dimensional coordinate system images and calculate a value of a predetermined transformation matrix based on four predefined marker points or coordinates of well-known landmarks in each of the restored three-dimensional coordinate system images. An image transformation unit for transforming the reconstructed 3D coordinate system images into 2D coordinate system images using the calculated transformation matrix; And
And an image synthesizer for synthesizing the transformed images to generate one synthesized image, wherein the transform matrix is a 3 × 3 matrix for allocating a zero value '0' to a height (z-axis). Device for synthesizing.
삭제delete 삭제delete 제1 항에 있어서,
상기 영상 합성부는,
상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 미리 설정된 블랜딩 기법을 사용하여 하나로 합성하는 것을 특징으로 하는 영상을 합성하기 위한 장치.
The method according to claim 1,
Wherein the image synthesizer comprises:
And a portion overlapping the synthesized images in the process of synthesizing the images is synthesized into one using a predetermined blending technique.
제4 항에 있어서,
상기 영상 합성부는,
상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 겹쳐지는 상기 영상들의 평균값을 사용하여 하나로 합성하는 것을 특징으로 하는 영상을 합성하기 위한 장치.
5. The method of claim 4,
Wherein the image synthesizer comprises:
And an overlapping portion of the synthesized images in the synthesizing of the images is synthesized into one using an average value of the overlapping images.
제4 항에 있어서,
상기 영상 합성부는,
상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 겹쳐지는 상기 영상들 각각으로부터의 거리에 따라 미리 설정되는 가중치를 사용하여 하나로 합성하는 것을 특징으로 하는 영상을 합성하기 위한 장치.
5. The method of claim 4,
Wherein the image synthesizer comprises:
And an overlapping portion between the synthesized images in the synthesizing of the images is synthesized into one using a weight set in advance according to a distance from each of the overlapping images.
(a)교량이나 터널을 감시하는 영역 내의 다수의 카메라로부터 압축된 영상을 입력받는 단계;
(b)입력받은 상기 압축된 영상들을 3차원 좌표계 영상들로 복원하고 그 복원된 3차원 좌표계 영상들 각각에서 미리 정의된 4개의 표식점 또는 잘 알려진 랜드마크의 좌표를 기반으로 소정의 변환 행렬의 값을 계산한 후 계산된 변환 행렬을 이용하여 상기 복원된 3차원 좌표계 영상들을 2차원 좌표계 영상들로 각각 변형하는 단계; 및
(c)변형된 상기 다수의 영상들을 합성하여 하나의 합성 영상을 생성하는 단계를 포함하고,
여기서, 상기 변환 행렬은 높이(z축)에 제로값('0')을 할당하는 3X3 행렬인 것을 특징으로 하는 영상을 합성하기 위한 방법.
(a) receiving a compressed image from a plurality of cameras in an area for monitoring a bridge or tunnel;
(b) reconstructing the received compressed images into three-dimensional coordinate system images, and based on the coordinates of four marker points or well-known landmarks defined in each of the restored three-dimensional coordinate system images, Transforming the reconstructed 3D coordinate system images into 2D coordinate system images using a calculated transformation matrix after calculating a value; And
(c) synthesizing the plurality of modified images to generate a single composite image,
Wherein the transformation matrix is a 3 × 3 matrix that assigns a zero value ('0') to a height (z-axis).
삭제delete 삭제delete 제7 항에 있어서,
상기 (c) 단계는,
상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 미리 설정된 블랜딩 기법을 사용하여 하나로 합성하는 것을 특징으로 하는 영상을 합성하기 위한 방법.
The method of claim 7, wherein
The step (c)
The overlapping portions of the synthesized images in the synthesizing of the images are synthesized into one using a predetermined blending technique.
제10 항에 있어서,
상기 (c) 단계는,
상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 겹쳐지는 상기 영상들의 평균값을 사용하여 하나로 합성하는 것을 특징으로 하는 영상을 합성하기 위한 방법.
The method of claim 10,
The step (c)
And the overlapping portions of the synthesized images are synthesized into one by using the average value of the overlapping images.
제10 항에 있어서,
상기 (c) 단계는,
상기 영상들을 합성하는 과정에서 합성되는 상기 영상들 간에 겹쳐지는 부분은 겹쳐지는 상기 영상들 각각으로부터의 거리에 따라 미리 설정되는 가중치를 사용하여 하나로 합성하는 것을 특징으로 하는 영상을 합성하기 위한 방법.
The method of claim 10,
The step (c)
The overlapping part between the synthesized images in the synthesizing of the images is synthesized into one by using a weight set in advance according to the distance from each of the overlapping images.
KR1020110137594A 2011-12-19 2011-12-19 Apparatus for combing image in surveillance camera system and method thereof KR101313134B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110137594A KR101313134B1 (en) 2011-12-19 2011-12-19 Apparatus for combing image in surveillance camera system and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110137594A KR101313134B1 (en) 2011-12-19 2011-12-19 Apparatus for combing image in surveillance camera system and method thereof

Publications (2)

Publication Number Publication Date
KR20130070329A KR20130070329A (en) 2013-06-27
KR101313134B1 true KR101313134B1 (en) 2013-09-30

Family

ID=48865157

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110137594A KR101313134B1 (en) 2011-12-19 2011-12-19 Apparatus for combing image in surveillance camera system and method thereof

Country Status (1)

Country Link
KR (1) KR101313134B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102231343B1 (en) 2020-04-24 2021-03-24 (주)아이지오 Marine warning system for the protection of bridge facilities
KR20230015023A (en) 2021-07-22 2023-01-31 주식회사 신세계아이앤씨 System for recognition of customer behavior based on image and method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101514366B1 (en) * 2014-09-17 2015-04-23 한국건설기술연구원 Apparatus for combing image in surveillance camera system and method thereof
KR102011119B1 (en) * 2017-12-28 2019-10-21 (주)에스비네트워크 A system for displaying accident situation event in tunnel to panorama image and a method of displaying the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002094849A (en) 2000-09-12 2002-03-29 Sanyo Electric Co Ltd Wide view image pickup device
JP2007274377A (en) 2006-03-31 2007-10-18 Denso Corp Periphery monitoring apparatus, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002094849A (en) 2000-09-12 2002-03-29 Sanyo Electric Co Ltd Wide view image pickup device
JP2007274377A (en) 2006-03-31 2007-10-18 Denso Corp Periphery monitoring apparatus, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102231343B1 (en) 2020-04-24 2021-03-24 (주)아이지오 Marine warning system for the protection of bridge facilities
KR20230015023A (en) 2021-07-22 2023-01-31 주식회사 신세계아이앤씨 System for recognition of customer behavior based on image and method thereof

Also Published As

Publication number Publication date
KR20130070329A (en) 2013-06-27

Similar Documents

Publication Publication Date Title
CN113570721B (en) Method and device for reconstructing three-dimensional space model and storage medium
JP6483075B2 (en) Method of 3D panoramic mosaicing of scenes
WO2019127347A1 (en) Three-dimensional mapping method, apparatus and system, cloud platform, electronic device, and computer program product
US9633266B2 (en) Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings
EP3606032B1 (en) Method and camera system combining views from plurality of cameras
JP2018527554A (en) Unmanned aircraft depth image acquisition method, acquisition device, and unmanned aircraft
JP5603663B2 (en) Moving object locus display device and moving object locus display program
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
JP6251142B2 (en) Non-contact detection method and apparatus for measurement object
US11689808B2 (en) Image synthesis system
KR101313134B1 (en) Apparatus for combing image in surveillance camera system and method thereof
JP2008204304A (en) Vehicle behavior reproduction method and system
KR101548639B1 (en) Apparatus for tracking the objects in surveillance camera system and method thereof
WO2011030771A1 (en) Method for measuring displacement, device for measuring displacement, and program for measuring displacement
Bolognini et al. Vision-based modal analysis of built environment structures with multiple drones
JP2011095858A (en) Three-dimensional digitizer
US20220138971A1 (en) Three-dimensional displacement measuring method and three-dimensional displacement measuring device
Opsahl et al. Real-time georeferencing for an airborne hyperspectral imaging system
JP6166631B2 (en) 3D shape measurement system
WO2023194965A1 (en) Method for monitoring the deformation by combined use of lidar and radar measurements
CN115619944A (en) Three-dimensional scene loading method, device and equipment
Briese et al. Analysis of mobile laser scanning data and multi-view image reconstruction
JP5409451B2 (en) 3D change detector
JP5086120B2 (en) Depth information acquisition method, depth information acquisition device, program, and recording medium
KR101514366B1 (en) Apparatus for combing image in surveillance camera system and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160830

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170901

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180903

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200309

Year of fee payment: 7