KR102349837B1 - Method and apparatus for displaying real location information in image captured by camera - Google Patents

Method and apparatus for displaying real location information in image captured by camera Download PDF

Info

Publication number
KR102349837B1
KR102349837B1 KR1020210080805A KR20210080805A KR102349837B1 KR 102349837 B1 KR102349837 B1 KR 102349837B1 KR 1020210080805 A KR1020210080805 A KR 1020210080805A KR 20210080805 A KR20210080805 A KR 20210080805A KR 102349837 B1 KR102349837 B1 KR 102349837B1
Authority
KR
South Korea
Prior art keywords
camera
captured image
location information
coordinate
parameter
Prior art date
Application number
KR1020210080805A
Other languages
Korean (ko)
Inventor
김창현
유태웅
Original Assignee
엔쓰리엔 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔쓰리엔 주식회사 filed Critical 엔쓰리엔 주식회사
Priority to KR1020210080805A priority Critical patent/KR102349837B1/en
Application granted granted Critical
Publication of KR102349837B1 publication Critical patent/KR102349837B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)

Abstract

According to an embodiment of the present invention, disclosed is a method for displaying real location information in an image captured by a camera. The method comprises: a step of acquiring a plurality of parameters related to the camera, wherein the plurality of parameters include a height parameter related to the height of the camera and an angle parameter related to a vertical-directional angle of the camera; a step of making a pixel of the captured image correspond to a coordinate on a world coordinate system by using the plurality of parameters; and a step of mapping and displaying real location information based on the world coordinate system on the captured image based on the corresponding relation. The present invention aims to provide a method and apparatus for displaying real location information in an image captured by a camera, which are capable of making it possible to perform an effective control.

Description

카메라 촬영 영상에 실제 위치 정보를 표시하는 방법 및 장치{METHOD AND APPARATUS FOR DISPLAYING REAL LOCATION INFORMATION IN IMAGE CAPTURED BY CAMERA}A method and device for displaying actual location information on a camera shot image

본 발명은 영상 내 위치 정보 방법에 관한 것으로, 보다 상세하게는, 카메라와 연관된 파라미터를 분석하여 월드 좌표계의 좌표를 기반으로 하는 실제 위치 정보를 영상 내에 표시하는 방법에 관한 것이다.The present invention relates to a method of location information in an image, and more particularly, to a method of displaying real location information based on coordinates of a world coordinate system in an image by analyzing parameters associated with a camera.

날로 증가하는 각종 강력 범죄들로 인해 안전에 대한 사람들의 요구가 증가하고 있다. 최근의 범죄들은 그 수법이 더욱 지능화되고 다양해지고 있으며 때와 장소를 가리지 않는 예측 불가능한 특징으로 인해 보다 지능적이고 체계적인 보안 솔루션이 필요하게 되었다. 이에 따라 다수의 감시 장비로 넓은 지역을 실시간으로 감시하며 여러 지역에서 발생할 수 있는 사건들에 대해 상호 연관성을 파악하여 대처할 수 있는 대규모 종합 감시시스템은 이러한 위협을 효과적으로 억제할 수 있는 수단으로 각광받으며 학교나 주거단지 및 지자체 등에서 그 수요와 설치 사례가 증가하고 있다.With the increasing number of violent crimes, people's demands for safety are increasing. Recent crimes have become more intelligent and diverse in their methods, and more intelligent and systematic security solutions are needed due to the unpredictable characteristics of any time and place. Accordingly, a large-scale comprehensive monitoring system that monitors a large area in real time with multiple monitoring devices and can respond to events that may occur in multiple areas by identifying correlations is in the limelight as a means to effectively suppress these threats. The demand and installation cases are increasing in residential complexes and local governments.

설치된 종합 감시시스템은 적게는 수십에서 많게는 수천 대의 감시 카메라를 통합하여 운용하는 등 그 규모가 다양하고 설치 목적도 범죄 예방뿐 아니라 쓰레기 무단 투기나 재난경보까지 포함하는 등 사회 문제의 여러 부분을 책임지게 된다.The installed comprehensive monitoring system is diverse in scale, such as integrating and operating at least tens to as many as thousands of surveillance cameras. do.

다만, 감시 시스템이 촬영한 영상에 중요한 증거가 포착되었다 하더라도, 해당 증거가 실제 위치 정보와 연동되지 않아, 효과적인 관제가 어려운 실정이다. 특히, 공사 현장 또는 범죄 현장과 같이, 특정 사건과 관련하여 실제 위치가 매우 중요한 상황이라면 더 그러하다. 그럼에도 불구하고, 영상 내에 카메라의 위치 또는 실제 월드 좌표계 상의 위치를 표시하는 장치 또는 시스템이 존재하지 않아 관제 및 증거 수집 효율을 떨어뜨리는 문제가 있다. However, even if important evidence is captured in the video captured by the surveillance system, the evidence is not linked with actual location information, making effective control difficult. This is especially true in situations where actual location is very important in relation to a particular incident, such as a construction site or a crime scene. Nevertheless, there is no device or system that displays the position of the camera or the position on the real world coordinate system in the image, so there is a problem in reducing control and evidence collection efficiency.

상술한 문제점을 해결하기 위한 본 발명의 일 양태에 따른 목적은 카메라를 통해 촬영된 영상 내에 카메라 위치를 기반으로 산출된 월드 좌표계(WCS: World Coordinate System) 기반의 실제 위치 정보를 표시하는 방법을 제공하는 것이다. An object of the present invention for solving the above problems is to provide a method of displaying actual position information based on a World Coordinate System (WCS) calculated based on a camera position in an image captured by a camera. will do

상기한 목적을 달성하기 위한 본 발명의 일 양태에 따른, 카메라를 통해 촬영된 영상에 실제 위치 정보를 표시하는 방법은, 카메라와 연관된 복수의 파라미터들(parameters)을 획득하는 단계(상기 복수의 파라미터는 상기 카메라의 높이와 연관된 높이 파라미터 및 상기 카메라의 수직 방향 각도와 연관된 각도 파라미터를 포함함), 상기 복수의 파라미터들을 이용하여 상기 촬영 영상의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시키는 단계 및 상기 대응관계를 기반으로 월드 좌표계를 기반으로 하는 실제 위치 정보를 상기 촬영 영상에 매핑(mapping)하여 표시하는 단계를 포함할 수 있다.According to an aspect of the present invention for achieving the above object, a method of displaying actual location information on an image captured by a camera includes the steps of obtaining a plurality of parameters associated with a camera (the plurality of parameters) includes a height parameter associated with the height of the camera and an angle parameter associated with a vertical angle of the camera), using the plurality of parameters to associate a pixel of the captured image with coordinates on a world coordinate system and mapping and displaying actual location information based on the world coordinate system on the captured image based on the step and the correspondence relationship.

상기 복수의 파라미터는 (i) 상기 높이 파라미터 이외에, (ii) 상기 카메라의 수평 방향 및 수직 방향 중 적어도 하나의 방향에 대한 각도 파라미터, 및 (iii) 카메라의 초점 거리 파라미터 중 적어도 하나를 더 포함할 수 있다.The plurality of parameters may further include at least one of (i) in addition to the height parameter, (ii) an angle parameter for at least one of a horizontal direction and a vertical direction of the camera, and (iii) a focal length parameter of the camera. can

상기 실제 위치 정보를 상기 촬영 영상에 매핑하여 표시하는 단계는, 상기 실제 위치 정보를 기반으로 격자 형상을 생성하는 단계 및 상기 생성된 격자 형상을 상기 촬영 영상에 오버레이(overlay)하여 표시하는 단계를 포함할 수 있다.The step of mapping and displaying the actual location information on the captured image includes generating a grid shape based on the actual location information and displaying the generated grid shape by overlaying the captured image on the captured image. can do.

상기 격자 형상은 월드 좌표계에서 일정 면적을 갖는 다각형 형상의 격자를 적어도 하나 포함할 수 있다.The grid shape may include at least one polygonal grid having a predetermined area in the world coordinate system.

상기 촬영 영상 내에서 상기 평면 영역(plane area)을 추출하는 단계를 더 포함하되, 상기 격자 형상은 상기 평면 영역을 중심으로 상기 촬영 영상에 오버레이될 수 있다.The method may further include extracting the plane area from the captured image, wherein the grid shape may be overlaid on the captured image based on the planar area.

상기 다각형 형상의 격자는 가로 및 세로 길이가 동일한 정방형의 격자를 포함할 수 있다.The polygonal grid may include a square grid having the same horizontal and vertical lengths.

상기 대응시키는 단계는, 상기 카메라로부터의 실제 거리를 월드 좌표계로 표현한 x 좌표와 y 좌표, 카메라 설치 높이, 카메라의 초점 거리와 픽셀 비의 곱, 그리고 카메라의 수직 방향 각도 파라미터를 이용하여, 코사인(cosine) 및 사인(sine) 함수를 통해, 상기 촬영 영상의 픽셀의 x 좌표(x')와 y 좌표(y')를 대응시키는 단계를 포함할 수 있다.The step of matching is the cosine (cosine ( cosine) and a sine function, and matching the x-coordinate (x') and y-coordinate (y') of the pixel of the captured image.

Figure 112021071805312-pat00001
를 이용하여 상기 촬영 영상의 픽셀의 x 좌표(x')와 y 좌표(y')를 산출하되, 여기서, x는 월드 좌표계 상에서 상기 카메라로부터의 x 방향 거리를 나타내는 좌표, y는 월드 좌표계의 상기 카메라로부터의 y 방향 거리를 나타내는 좌표, z는 상기 카메라 설치 높이를 나타내며, x'는 상기 촬영 영상의 픽셀의 x 좌표, y'는 상기 촬영 영상의 픽셀의 y 좌표, z'는 카메라 초점 거리와 픽셀 비의 곱, θ0는 상기 카메라의 수직 방향 기울기를 나타낼 수 있다.
Figure 112021071805312-pat00001
Calculate the x-coordinate (x') and y-coordinate (y') of the pixel of the captured image using Coordinates indicating the distance in the y direction from the camera, z indicates the installation height of the camera, x' is the x coordinate of the pixel of the photographed image, y' is the y coordinate of the pixel of the photographed image, z' is the camera focal length and A product of the pixel ratio, θ 0 , may represent a vertical inclination of the camera.

상기 복수의 파라미터에 줌(zoom)과 연관된 파라미터가 포함된 경우, 줌 파라미터를 상기 카메라 초점 거리와 픽셀 비의 곱에 곱하여 연산함에 의해, 상기 촬영 영상의 픽셀의 x 좌표(x')와 y 좌표(y')를 산출할 수 있다.When the plurality of parameters includes a parameter related to zoom, the x-coordinate (x') and y-coordinate of the pixel of the captured image by multiplying the zoom parameter by the product of the camera focal length and the pixel ratio (y') can be calculated.

상기 대응시키는 단계는, 상기 수평 방향의 각도 파라미터(φ0)가 존재하는 경우, 상기 수평 방향의 각도 파라미터(φ0)와 상기 수직 방향의 각도 파라미터(θ0)를 기반으로, 회전 변환으로 치환하여, 카메라 좌표계와 월드 좌표계를 각각 회전변환함에 의해, 상기 촬영 영상의 픽셀과 대응시키는 단계를 포함할 수 있다.In the matching step, when the horizontal angle parameter (φ 0 ) exists, the horizontal direction angle parameter (φ 0 ) and the vertical direction angle parameter (θ 0 ) are replaced by rotational transformation based on the Thus, by rotationally transforming the camera coordinate system and the world coordinate system, respectively, it may include the step of matching the pixels of the captured image.

Figure 112021071805312-pat00002
를 이용하여 상기 수평 방향의 각도 파라미터(φ0)와 상기 수직 방향의 각도 파라미터(θ0)를 기반으로, 회전 변환(θrot)으로 치환할 수 있다.
Figure 112021071805312-pat00002
can be replaced with rotation transformation (θ rot ) based on the horizontal angle parameter (φ 0 ) and the vertical direction angle parameter (θ 0 ) by using .

상기 회전 변환 이후, 상기 카메라의 수평 방향 및 수직 방향의 각도 파라미터(φ0, θ0)를 기반으로, 탄젠트(tangent), 코탄젠트(cotangent) 및 아크탄젠트(ARCTAN) 함수를 이용하여, 재설정된 하나의 각도 파라미터로 환산함에 의해, 상기 촬영된 영상의 픽셀과 대응시킬 수 있다. After the rotation transformation, based on the angular parameters (φ 0 , θ 0 ) in the horizontal and vertical directions of the camera, using tangent, cotangent and arctangent functions, one reset By converting to an angle parameter of , it is possible to correspond to the pixels of the photographed image.

Figure 112021071805312-pat00003
를 이용하여 상기 재설정된 하나의 각도 파라미터로 환산하되, 여기서, θnew는 상기 재설정된 하나의 각도 파라미터일 수 있다.
Figure 112021071805312-pat00003
It is converted into the one reset angle parameter using , where θ new may be the reset one angle parameter.

상기 방법은, 사용자 단말로부터 상기 촬영 영상 내에 특정 픽셀에 대한 선택을 입력받고, 상기 선택된 픽셀의 실제 위치 정보를 표시하는 사용자 인터페이스를 제공하는 단계를 더 포함할 수 있다.The method may further include receiving a selection for a specific pixel in the captured image from a user terminal, and providing a user interface displaying actual location information of the selected pixel.

상기한 목적을 달성하기 위한 본 발명의 다른 양태에 따른, 카메라를 통해 촬영된 영상에 실제 위치 정보를 표시하는 장치는, 카메라와 연관된 복수의 파라미터들(parameters)을 획득하는 카메라 정보 입력부(상기 복수의 파라미터는 상기 카메라의 높이와 연관된 높이 파라미터 및 상기 카메라의 수직 방향 각도와 연관된 각도 파라미터를 포함함), 카메라로부터 촬영된 영상을 입력받는 영상 입력부 및 상기 복수의 파라미터들을 이용하여 상기 촬영 영상의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시키는 좌표 매핑부를 포함하되, 상기 대응관계를 기반으로 월드 좌표계를 기반으로 하는 실제 위치 정보가 상기 촬영 영상에 매핑(mapping)되어 표시될 수 있다.According to another aspect of the present invention for achieving the above object, an apparatus for displaying actual location information on an image captured by a camera is a camera information input unit (the plurality of parameters) for obtaining a plurality of parameters associated with the camera. parameters of the photographed image using a height parameter associated with the height of the camera and an angle parameter associated with a vertical angle of the camera), an image input unit receiving an image photographed from the camera, and the plurality of parameters and a coordinate mapping unit corresponding to coordinates on a world coordinate system, wherein actual location information based on the world coordinate system based on the correspondence relationship may be mapped to and displayed on the captured image.

본 발명의 카메라 촬영 영상에 위치 정보를 표시하는 방법에 따르면, 공사 현장 등에서 관제 카메라의 촬영 영상에 실제 위치 정보(현실 좌표)를 함께 오버레이하여 표시함에 의해 효과적인 관제를 가능케하는 효과가 있다. According to the method of displaying location information on a camera captured image of the present invention, there is an effect of enabling effective control by overlaying and displaying the actual location information (real coordinates) on the captured image of the control camera at a construction site, etc.

도 1은 본 발명의 일 실시예에 따른 카메라 촬영 영상에 실제 위치 정보를 표시하는 방법이 적용되는 환경을 설명하기 위한 개념도,
도 2는 본 발명의 일 실시예에 따라 카메라 촬영 영상에 내에 실제 위치 정보를 격자 형태로 표시하는 것을 설명하기 위한 개념도,
도 3은 본 발명의 일 실시예에 따른 카메라 촬영 영상에 실제 위치 정보를 표시하는 장치의 구성을 개략적으로 나타낸 블록도,
도 4는 본 발명의 제 1 및 제 2 실시예에 따라 카메라 관련 파라미터를 이용하여 월드 좌표계의 실제 위치 정보를 산출하는 방법을 설명하기 위한 개념도,
도 5는 본 발명의 일 실시예에 따른 카메라 촬영 영상에 실제 위치 정보를 표시하는 방법에 따라 생성된 격자 레이어의 모습을 나타낸 도면,
도 6은 도 5의 격자 레이어를 실제 촬영 영상 위에 오버레이한 모습을 나타낸 도면,
도 7은 줌 파라미터 변경에 따라 변화된 격자 레이어의 모습을 나타낸 도면,
도 8a 및 도 8b는 촬영 영상 내에 삽입한 격자와 실제 촬영 현장 바닥에 설치한 격자가 촬영 각도가 변함에도 일치함을 나타내는 테스트 결과를 나타낸 도면,
도 9a는 본 발명의 일 실시예에 따른 카메라 촬영 영상에 실제 위치 정보를 표시하는 방법에 의해 표시된 촬영 영상 상의 격자를 선택하여 실제 위치 정보를 확인하는 사용자 인터페이스의 구성을 나타낸 도면,
도 9b는 도 9a의 사용자 인터페이스를 이용해 서로 다른 격자의 거리를 확인하는 방법을 설명하기 위한 도면이다.
1 is a conceptual diagram for explaining an environment in which a method of displaying actual location information on a camera-captured image according to an embodiment of the present invention is applied;
2 is a conceptual diagram for explaining the display of actual location information in a lattice form in an image taken by a camera according to an embodiment of the present invention;
3 is a block diagram schematically showing the configuration of an apparatus for displaying actual location information on a camera captured image according to an embodiment of the present invention;
4 is a conceptual diagram for explaining a method of calculating actual position information of a world coordinate system using camera-related parameters according to the first and second embodiments of the present invention;
5 is a view showing a state of a grid layer generated according to a method of displaying actual location information on a camera-captured image according to an embodiment of the present invention;
6 is a view showing a state in which the grid layer of FIG. 5 is overlaid on an actual captured image;
7 is a view showing the appearance of the grid layer changed according to the zoom parameter change;
8A and 8B are diagrams showing test results indicating that the grid inserted in the captured image and the grid installed on the floor of the actual filming site match even when the photographing angle is changed;
9A is a view showing the configuration of a user interface for checking actual location information by selecting a grid on a captured image displayed by a method of displaying actual location information on a camera captured image according to an embodiment of the present invention;
FIG. 9B is a diagram for explaining a method of checking distances between different grids using the user interface of FIG. 9A .

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 일 실시예에 따른 카메라 촬영 영상에 실제 위치 정보를 표시하는 방법이 적용되는 환경을 설명하기 위한 개념도이다. 1 is a conceptual diagram illustrating an environment in which a method of displaying actual location information on a camera-captured image according to an embodiment of the present invention is applied.

도 1을 참조하면, 카메라(110)는 감시 또는 관제 역할을 할 때, 일반적으로 일정한 높이를 가지고 고정된 위치에 설치되어 일정 반경 내에 위치한 촬영영역(120)을 촬영한다. 다만, 영상 내에 위치정보가 표시되지 않으면, 카메라(110)를 통해 중요한 단서를 제공하는 피사체(130)를 촬영한다고 할지라도, 촬영영역(120) 자체가 실제로 어느 위치에 존재하며, 그 안의 피사체(130)는 또 어느 위치에 존재하는지 파악이 되지 않아 관제 및 보안 관리에 어려움이 존재한다. Referring to FIG. 1 , when the camera 110 plays a monitoring or control role, the camera 110 is installed in a fixed position with a predetermined height to photograph the photographing area 120 located within a predetermined radius. However, if the location information is not displayed in the image, even if the subject 130 that provides an important clue is photographed through the camera 110, the photographing area 120 itself actually exists at a certain location, and the subject ( 130), there is a difficulty in control and security management because it is not possible to know where it is located.

본 발명의 일 실시예에 따르면, 카메라(110)의 위치 및 기울기와 같은 카메라 관련 파라미터를 기반으로, 실제 위치 정보를 산출하여, 촬영 영상 내에 이를 함께 표시함으로써 보다 효과적인 관제가 이루어지도록 한다. 여기서, 실제 위치 정보는 현실 좌표와 연관된 위치일 수 있고, 월드 좌표계(WCS: World Coordinate System)와 연계된 좌표에 기반한 위치라고 할 수 있다. 이는 기본적으로 카메라(110)로부터의 상대적인 현실 거리로 산출된다. 즉, x=-2, y=1라면, 카메라로부터 1미터 앞에 있으면서, 2미터 왼쪽에 있는 위치를 가리킨다. According to an embodiment of the present invention, based on camera-related parameters such as the position and inclination of the camera 110, actual position information is calculated and displayed together in the captured image, so that more effective control is achieved. Here, the actual location information may be a location associated with real coordinates, or a location based on coordinates associated with a World Coordinate System (WCS). This is basically calculated as a relative real distance from the camera 110 . That is, if x=-2, y=1, it points to a position that is 1 meter in front of the camera and 2 meters to the left.

만약, 카메라(110)의 절대적인 위치, 즉, GIS(geographic information system) 상의 위경도 위치를 알고 있다면, 본 발명의 일 실시예에 따른, 카메라 좌표계와 월드 좌표계를 대응시키는 방법을 통해, 촬영영역(120)의 카메라(110)로부터의 상대적인 위치를 산출할 수 있고, 산출된 위치를 상기 절대적인 카메라 위치(110)와 합산함에 의해, 결국, 촬영 영역(120)의 절대적인 위치 또한, 산출할 수 있을 것이다. If the absolute position of the camera 110, that is, the latitude and longitude position on the geographic information system (GIS), is known, the photographing area ( 120) from the camera 110 can be calculated, and by summing the calculated position with the absolute camera position 110, eventually, the absolute position of the photographing area 120 can also be calculated. .

한편, 카메라 관련 파라미터는, 기본적으로, 카메라의 지면(실내의 경우, 지면은 해당 층의 바닥을 가리킬 수 있음)으로부터의 높이(h), 그리고, 기울어진 각도(θ) 등의 파라미터를 포함할 수 있다. 이러한 파라미터를 통해, 촬영 영역(120)의 월드 좌표계 상의 위치(카메라로부터의 상대적인 위치)를 산출할 수 있고, 나아가 촬영 영상 내에서, 피사체(130)의 위치를 상대적 거리로, 정밀하게 특정할 수 있다. On the other hand, the camera-related parameters basically include parameters such as the height (h) of the camera from the ground (in the case of an indoor, the ground may point to the floor of the corresponding floor), and the inclination angle (θ). can Through these parameters, the position (relative position from the camera) of the shooting area 120 on the world coordinate system can be calculated, and further, the position of the subject 130 can be precisely specified with a relative distance in the captured image. have.

본 발명의 일 실시예에 따르면, 위와 같이, 촬영 영상 내에 월드 좌표계 상의 실제 위치를 표시하는 장치는, 카메라(110)와 연동하는 장치일 수 있다. 이는 카메라(110)와 유선 또는 무선 네트워크로 연결된 컴퓨팅 장치로써 구현될 수 있다. 컴퓨팅 장치는, 셀룰러 전화기, 스마트 폰, 개인 휴대용 단말기(PDA), 개인용 컴퓨터(PC), 휴대용 컴퓨터(laptop), 통신 기능을 가지는 디지털 카메라와 같은 촬영장치, 통신 기능을 가지는 게이밍 장치, 통신 기능을 가지는 음악저장 및 재생 가전제품, 인터넷 접속 및 브라우징이 가능한 인터넷 가전제품뿐만 아니라 그러한 기능들의 조합들을 통합하고 있는 휴대형 유닛 또는 단말기들을 포함할 수 있으나, 이에 한정되는 것은 아니다. 상기 장치는, 촬영 영상을 표시하기 위한 디스플레이 수단을 포함하는 것이 바람직하다. According to an embodiment of the present invention, as described above, the device for displaying the actual location on the world coordinate system in the captured image may be a device that interworks with the camera 110 . This may be implemented as a computing device connected to the camera 110 through a wired or wireless network. A computing device includes a cellular phone, a smart phone, a personal digital assistant (PDA), a personal computer (PC), a portable computer (laptop), a photographing device such as a digital camera having a communication function, a gaming device having a communication function, and a communication function. The branch may include, but is not limited to, music storage and playback appliances, Internet appliances capable of Internet access and browsing, as well as portable units or terminals incorporating combinations of such functions. The apparatus preferably includes a display means for displaying the captured image.

본 발명의 다른 실시예에 따르면, 장치는 사용자가 휴대하고 다니는 스마트 폰으로 구현될 수 있고, 이때, 카메라 관련 파라미터로, 스마트 폰의 절대적인 위치 정보를 나타내는 GPS 정보가 활용될 수 있다. 또한, 높이 정보는 일반적인 사람의 스마트폰 휴대 높이로 산출될 수 있고, 기울기 정보(각도 정보)는 스마트 폰에 구비된 자이로 센서를 통해 획득할 수 있다. 이를 통해 상하 그리고/또는 좌우 기울기를 모두 알 수 있다. 그리고, 촬영 영상 내에 월드 좌표계 상의 실제 위치 정보를 표시하는 애플리케이션(application: 이하 "앱(APP)"이라고 부름)을 스마트 폰 등의 사용자 단말에 설치하여, 앱을 통해 위와 같이 산출된 위치 정보를 촬영 영상에 오버레이(Overlay)함에 의해, 표시되도록 할 수 있다. According to another embodiment of the present invention, the device may be implemented as a smart phone carried by the user, and in this case, GPS information indicating absolute location information of the smart phone may be utilized as a camera-related parameter. In addition, the height information may be calculated as the height of a normal person carrying a smartphone, and the inclination information (angle information) may be acquired through a gyro sensor provided in the smartphone. Through this, both the up and down and/or left and right inclinations may be known. Then, an application that displays actual location information on the world coordinate system in the captured image (application: hereinafter referred to as “app”) is installed in a user terminal such as a smart phone, and the location information calculated as above is taken through the app By overlaying on the image, it can be displayed.

도 2는 본 발명의 일 실시예에 따라 카메라 촬영 영상에 내에 실제 위치 정보를 격자 형태로 표시하는 것을 설명하기 위한 개념도이다. FIG. 2 is a conceptual diagram for explaining displaying of actual location information in a grid form in an image captured by a camera according to an embodiment of the present invention. Referring to FIG.

도 2를 참조하면, 촬영 영상 내에 위치 정보는 다양한 형태로 표현될 수 있다. 먼저, 월드 좌표계(WCS)에서 일정한 면적에 해당하는 격자를 만들어서 촬영 영상 내에 오버레이하여 표시할 수 있다. 즉, 하나의 격자가 가로 1M, 세로 1M의 크기를 갖도록 하여 촬영 영상 내에 배열되도록 표시할 수 있다. 이때, 격자가 반드시 사각형의 모양일 필요는 없고, 반드시 정방형일 필요도 없다. 가로 5M, 세로 10M의 다각형 형상의 격자를 배열하는 형태로 표현되어도 무방하다. 촬영 영상의 면적(화면 종횡비)에 비례하여, 적절한 크기의 격자 형태를 선택하여 표시하는 것이 바람직하다. 만약 촬영 영상이 전체적으로 100M X 100M의 월드 좌표계의 면적을 촬영한다면, 하나의 격자는 1M X 1M가 적절하겠으나, 1000M X 100M의 면적을 촬영한다면, 하나의 격자는 10M X 1M로 설정하는 것이 바람직할 수 있다. 이는 사용자 설정을 통해 선택하거나, 비례관계를 입력하여 자동으로 선택될 수 있도록 할 수 있다. 그리고, 하나의 격자는 개별적으로 적어도 하나의 월드좌표계의 좌표와 대응될 수 있다. 즉, 제 1 격자는 x 좌표 100, y 좌표 100에 대응되고, 그와 인접한 제 2 격자는 x 좌표 101, y 좌표 100에 대응되는 형태로, 개별적으로, 격자는 적어도 하나의 월드좌표계의 위치 정보를 가지고 있을 수 있다. Referring to FIG. 2 , location information in a captured image may be expressed in various forms. First, a grid corresponding to a certain area in the world coordinate system (WCS) may be created and displayed by overlaying it in a captured image. That is, one grid may have a size of 1M horizontally and 1M vertically, and may be displayed to be arranged in the captured image. In this case, the lattice does not necessarily have to have a rectangular shape, nor does it necessarily have to be a square shape. It may be expressed in the form of arranging a polygonal grid with a width of 5M and a length of 10M. It is desirable to select and display a grid shape of an appropriate size in proportion to the area (aspect ratio) of the captured image. If the captured image captures an area of the world coordinate system of 100M X 100M as a whole, 1M X 1M is appropriate for one grid, but if an area of 1000M X 100M is photographed, it is desirable to set one grid to 10M X 1M can This may be selected through user settings or may be automatically selected by inputting a proportional relationship. In addition, one grid may individually correspond to coordinates of at least one world coordinate system. That is, the first grid corresponds to the x-coordinate 100 and the y-coordinate 100, and the second grid adjacent thereto corresponds to the x-coordinate 101 and the y-coordinate 100. Individually, the grid includes at least one world coordinate system location information. may have

도 2의 실시예에는 촬영 영상 내에 실제 위치 정보를 격자 형상으로 표시하는 실시예를 개시하고 있지만, 다른 예에서, 장치는, 점을 찍어 실제 위치 정보를 표시할 수도 있다. 즉, 월드 좌표계의 일정한 거리 단위마다 점을 찍어, 촬영 영상 내에 다수의 점이 일정 간격으로 표시되는 형태로 구현할 수 있다. 또는, 선을 그려 위치 정보를 표현할 수도 있다. 격자, 점, 선 등은 촬영 영상 위에 오버레이되는 형태로 표현될 수 있는데, 이는 적절한 투명도를 가질 수 있다. 즉, 촬영 영상의 색상, 밝기, 및/또는 선명도에 따라 대응하는 투명도를 갖도록 제어할 수 있다. Although the embodiment of FIG. 2 discloses an embodiment in which actual position information is displayed in a grid shape in a captured image, in another example, the device may display the actual position information by marking dots. That is, it can be implemented in a form in which a plurality of points are displayed at regular intervals in a captured image by taking a point for each unit of a certain distance in the world coordinate system. Alternatively, the location information may be expressed by drawing a line. Grids, dots, lines, etc. may be expressed in a form that is overlaid on the captured image, and may have appropriate transparency. That is, it is possible to control to have a corresponding transparency according to the color, brightness, and/or sharpness of the captured image.

한편, 실제 위치 정보는 촬영 영역 중 평면 영역에 대응하는 것이 바람직하다. 즉, 촬영 영역 중 평면 영역 상에 다수의 피사체가 존재한다면, 피사체의 평면에 대응하는 위치가 해당 피사체의 위치로 표시되도록 하는 것이 바람직하다. 따라서, 피사체가 평면이 아닌 부분(공중)에 존재한다면, 장치는, 피사체의 수직방향의 높이 등을 고려하여, 평면 영역에 대응시켰을 때의 위치가 표시될 수 있도록 위치 정보를 보정하여 산출할 수 있다. On the other hand, it is preferable that the actual location information corresponds to a planar area of the photographing area. That is, if a plurality of subjects exist on a plane area of the photographing area, it is preferable to display a position corresponding to the plane of the subject as the position of the subject. Therefore, if the subject exists in a non-planar part (in the air), the device may calculate the position information by correcting the position information so that the position when it corresponds to the planar area can be displayed in consideration of the vertical height of the subject. have.

도 3은 본 발명의 일 실시예에 따른 카메라 촬영 영상에 위치 정보를 표시하는 장치의 구성을 개략적으로 나타낸 블록도이다. 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 장치는, 카메라 정보 입력부(310), 영상 입력부(320), 좌표 매핑부(330), 격자 레이어 생성부(340) 및 합성부(350)를 포함할 수 있다. 상기 구성요소들은 입력 포트 및 하드웨어 프로세서로 구현될 수 있다. 한편, 위 구성요소 외에, 별도로, 입출력 장치(사용자 인터페이스) 및/또는 디스플레이 수단을 더 포함할 수 있다. 3 is a block diagram schematically showing the configuration of an apparatus for displaying location information on a camera-captured image according to an embodiment of the present invention. As shown in FIG. 3 , the apparatus according to an embodiment of the present invention includes a camera information input unit 310 , an image input unit 320 , a coordinate mapping unit 330 , a grid layer generating unit 340 , and a synthesizing unit ( 350) may be included. The above components may be implemented with an input port and a hardware processor. Meanwhile, in addition to the above components, it may further include an input/output device (user interface) and/or a display means separately.

도 3을 참조하면, 카메라 정보 입력부(310)는 카메라와 관련된 각종 파라미터를 입력받는다. 카메라 관련 파라미터는, 높이, 수직방향으로의 기울기(지면으로의 기울기), 수평방향으로의 기울기, 카메라의 초점 거리 파라미터 중 적어도 하나를 포함할 수 있다. 특히, 높이와 수직방향 기울기는 기본적으로 필요할 수 있고, 나머지 파라미터 중 적어도 하나가 더 입력되는 것이 바람직하다. 파라미터의 입력은 사용자가 직접 할 수도 있고, 타 장치로부터 수신할 수도 있다. 특히, 카메라의 PTZ(Pan Tilt Zoom) 정보를 받아서, 이를 카메라 파라미터로 활용할 수 있다. 더욱이, 카메라의 절대적인 위치 정보를 알면, 위의 매핑관계를 통해 산출되는 상대적인 위치를 더해 특정 촬영 영역의 절대적인 위치도 산출할 수 있는데, 스마트폰의 경우, 카메라의 절대적인 위치 정보는 GPS 모듈로부터, 높이 및/또는 각도 정보는 자이로 센서로부터 획득할 수 있다. Referring to FIG. 3 , the camera information input unit 310 receives various parameters related to a camera. The camera-related parameter may include at least one of a height, a vertical inclination (inclination to the ground), a horizontal inclination, and a focal length parameter of the camera. In particular, the height and the vertical direction may be basically required, and it is preferable that at least one of the remaining parameters is further input. The parameter may be input directly by the user or may be received from another device. In particular, it is possible to receive PTZ (Pan Tilt Zoom) information of a camera and use it as a camera parameter. Moreover, if the absolute position information of the camera is known, the absolute position of a specific shooting area can be calculated by adding the relative position calculated through the above mapping relationship. In the case of a smartphone, the absolute position information of the camera is obtained from the GPS module, and/or the angle information may be obtained from the gyro sensor.

영상 입력부(320)는 카메라를 통해 촬영된 영상을 입력받는다. The image input unit 320 receives an image captured by the camera.

좌표 매핑부(330)는 카메라 정보 입력부(310)에서 입력된 카메라 관련 파라미터를 기반으로 촬영 영상 내의 각 픽셀들의 월드 좌표계 상의 위치(카메라로부터의 상대적 위치)를 계산하여 매핑시킨다. 이때, 촬영 영상 내에 평면 부분을 추출하는 로직(logic)을 활용하여 보다 정확한 매핑이 이루어지도록 제어할 수 있다. 즉, 평면 부분을 중심으로 실제 위치를 촬영 영상 내 픽셀에 대응시킨다. 그리고, 평면이 아닌 부분은 평면 부분의 위치를 이용하여 상대적으로 매핑시키거나, 또는, 평면에 접촉되지 않은 피사체로부터 지면으로 그은 수선을 중심으로 피사체의 위치를 매핑시킬 수 있다. The coordinate mapping unit 330 calculates and maps the positions (relative positions from the camera) of each pixel in the captured image on the world coordinate system based on the camera-related parameters input from the camera information input unit 310 . In this case, it is possible to control more accurate mapping by utilizing logic for extracting a plane part from the captured image. That is, the actual position of the plane portion as the center corresponds to the pixel in the captured image. In addition, the non-planar part may be relatively mapped using the position of the planar part, or the position of the subject may be mapped based on a water line drawn from the subject not in contact with the plane to the ground.

좌표 매핑은 크게, (i) 카메라 관련 파라미터를 통해 카메라로부터의 상대적인 위치와 촬영 영상의 픽셀을 매핑하는 과정과, (ii) 매핑 관계를 카메라의 절대적인 위치에 대입하여 개별 픽셀의 최종 절대적 위치를 산출하는 과정을 포함할 수 있다. Coordinate mapping is largely divided into (i) the process of mapping the relative position from the camera to the pixels of the captured image through camera-related parameters, and (ii) calculating the final absolute position of individual pixels by substituting the mapping relationship into the absolute position of the camera. process may include.

격자 레이어 생성부(340)는 산출된 위치 정보를 기반으로 격자 형상을 생성한다. 격자 레이어는 월드 좌표계 상 일정 면적을 갖는 다각형의 집합으로 이루어진다. 격자는 매핑된 위치 정보를 기반으로 생성된다. 만약, 정방형의 사각형 격자의 경우, 촬영 영상의 중심으로부터 제 1 매핑 지점을 생성하고, 그로부터 격자 크기에 대응되는 제 2 매핑 지점, 제 3 매핑 지점 및 제 4 매핑 지점을 생성하며, 이 4개의 점을 잇는 4개 선을 통해 하나의 격자를 형성시킬 수 있다. 그리고, 이러한 격자들이 집합하여 전체 격자 레이어를 형성할 수 있다. The grid layer generator 340 generates a grid shape based on the calculated position information. The grid layer consists of a set of polygons having a certain area in the world coordinate system. A grid is created based on the mapped location information. In the case of a square grid, a first mapping point is generated from the center of a captured image, and a second mapping point, a third mapping point, and a fourth mapping point corresponding to the grid size are generated therefrom, and these four points One grid can be formed through the four lines connecting them. In addition, these lattices may be aggregated to form the entire lattice layer.

합성부(350)는 촬영 영상 위에 격자 레이어 생성부(340)에서 생성한 격자 레이어를 오버레이하여, 최종 출력 영상을 생성한다. 앞서 설명한 바와 같이, 이때, 격자 레이어에는 적절한 투명도가 적용될 수 있다. 생성된 최종 영상은 디스플레이 수단(미도시)으로 전달될 수 있다. The synthesizer 350 overlays the grid layer generated by the grid layer generator 340 on the captured image to generate a final output image. As described above, in this case, appropriate transparency may be applied to the grid layer. The generated final image may be transmitted to a display means (not shown).

도 4는 본 발명의 제 1 및 제 2 실시예에 따라 카메라 관련 파라미터를 이용하여 월드 좌표계의 위치 정보를 산출하는 방법을 설명하기 위한 개념도이다. 4 is a conceptual diagram for explaining a method of calculating location information of a world coordinate system using camera-related parameters according to the first and second embodiments of the present invention.

도 4를 참조하면, 도 3의 좌표 매핑부는 촬영 영상의 픽셀과 월드 좌표계 상의 좌표 간의 관계식을 통해 픽셀과 좌표를 매핑시킨다. 이때, 카메라가 좌우 기울기 없이 앞뒤로만 기울어진 경우, 즉, 카메라의 수평 방향 기울기가 없는 경우(미리 설정된 0˚의 수평방향 기울기를 갖음), 다음의 수학식을 이용하여 픽셀 좌표를 실제 좌표(월드 좌표계 상의 좌표)에 매핑할 수 있다. 이때, 카메라 관련 파라미터는 위치 파라미터, 높이 파라미터, 초점 거리 및 수직 방향 기울기만 필요할 수 있다. Referring to FIG. 4 , the coordinate mapping unit of FIG. 3 maps pixels and coordinates through a relational expression between pixels of a captured image and coordinates on a world coordinate system. At this time, when the camera is tilted only forward and backward without left and right tilt, that is, when there is no horizontal tilt of the camera (with a preset horizontal tilt of 0˚), the pixel coordinates are converted to real coordinates (world coordinates in the coordinate system). In this case, camera-related parameters may require only a position parameter, a height parameter, a focal length, and a vertical inclination.

Figure 112021071805312-pat00004
Figure 112021071805312-pat00004

여기서, x는 월드 좌표계의 x 좌표(x 방향으로, 카메라로부터의 상대적인 실제 거리), y는 월드 좌표계의 y 좌표(y 방향으로, 카메라로부터의 상대적인 실제 거리), z는 카메라 설치 높이를 나타내며, x'는 촬영 영상의 픽셀의 x 좌표, y'는 촬영 영상의 픽셀의 y 좌표, z'는 카메라 초점 거리와 픽셀 비의 곱, θ0는 카메라의 수직 방향 기울기를 나타낸다. where x is the x coordinate of the world coordinate system (in the x direction, relative real distance from the camera), y is the y coordinate of the world coordinate system (in the y direction, the relative real distance from the camera), z is the camera installation height, x' is the x-coordinate of the pixel of the captured image, y' is the y-coordinate of the pixel of the captured image, z' is the product of the camera focal length and the pixel ratio, and θ 0 is the vertical inclination of the camera.

장치는, 수학식 1을 통해, 상기 카메라 관련 파라미터들로부터 월드 좌표계의 좌표와 촬영 영상 내의 픽셀의 좌표(x', y')를 매핑시킬 수 있다. The device may map the coordinates of the world coordinate system and the coordinates (x', y') of the pixels in the captured image from the camera-related parameters through Equation 1 .

다른 예에서, 카메라의 수평 방향 기울기가 존재하는 경우, 장치는, 수직 및 수평 방향 기울기를 좌우 기울기가 없는 경우의 회전 변환으로 치환하여, 재설정된 각도를 산출함에 의해 픽셀 좌표를 실제 월드 좌표계 상의 좌표에 대응시킬 수 있다. 이때, 회전 변환 각도는 다음의 수학식을 이용하여 산출된다.In another example, when there is a horizontal tilt of the camera, the device replaces the vertical and horizontal tilts with rotational transformations in the absence of left and right tilt to calculate the reset angle, thereby converting the pixel coordinates to the coordinates in the real world coordinate system. can correspond to At this time, the rotation conversion angle is calculated using the following equation.

Figure 112021071805312-pat00005
Figure 112021071805312-pat00005

여기서, θrot은 회전 변환 각도를, φ0는 카메라의 수평 방향의 각도 파라미터를 나타낸다.Here, θ rot represents a rotation conversion angle, and φ 0 represents an angle parameter in the horizontal direction of the camera.

이를 보다 구체적으로 살펴보면, 수평 방향 기울기가 있는 경우를 수평 방향 기울기가 없는 경우의 회전 변환으로 치환하여 처리한다. 즉, 카메라 렌즈 좌표계와 월드 좌표계를 각각 특정 각도로 회전변환하면 좌우 기울기가 0이 되어 수학식 1을 사용할 수 있다. Looking at this in more detail, the case where there is a horizontal gradient is processed by substituting a rotation transformation in the case where there is no horizontal gradient. That is, when the camera lens coordinate system and the world coordinate system are each rotated by a specific angle, the left and right inclination becomes 0, so that Equation 1 can be used.

이때, 카메라 좌표계의 회전 변환 각도는 상기 수학식 2와 같다. In this case, the rotation transformation angle of the camera coordinate system is the same as in Equation 2 above.

또한, 월드 좌표계의 회전 변환 각도는 다음과 같이 계산된다.In addition, the rotation transformation angle of the world coordinate system is calculated as follows.

Figure 112021071805312-pat00006
Figure 112021071805312-pat00006

그리고, 회전 변환 이후, 카메라가 지면과 이루는 각도가 θ0와 φ0의 두 개의 각도가 아닌 θnew라는 재설정된 하나의 각도 파라미터로 고려되어, 수학식 1에 대입함에 의해 픽셀 좌표를 월드 좌표계 상의 좌표와 매핑시킬 수 있다. 이때, θnew는 다음의 수학식을 이용하여 산출된다.And, after rotation transformation, the angle the camera makes with the ground is considered as a reset one angle parameter called θ new instead of two angles of θ 0 and φ 0 , and by substituting into Equation 1, the pixel coordinates on the world coordinate system It can be mapped to coordinates. In this case, θ new is calculated using the following equation.

Figure 112021071805312-pat00007
Figure 112021071805312-pat00007

φ0가 0인 경우, θnew는 θ0와 같은 값을 갖는다.When φ 0 is 0, θ new has the same value as θ 0 .

위에서 구한 값들을 이용해, 다음과 같은 절차로 촬영 영상 내 각 픽셀의 좌표를 구할 수 있다. Using the values obtained above, the coordinates of each pixel in the captured image can be obtained by the following procedure.

카메라 좌표계(촬영 영상의 픽셀 좌표)와 월드 좌표계를 각각 다음과 같이 회전변환한다(수학식 2 및 수학식 3 참조). The camera coordinate system (pixel coordinates of the captured image) and the world coordinate system are respectively rotated as follows (refer to Equations 2 and 3).

Figure 112021071805312-pat00008
Figure 112021071805312-pat00008

회전 변환한 좌표계끼리는 좌우 기울기가 없다. 따라서, 변수들을 상하 기울기만 있는 경우의 수학식 1에 대입할 수 있다. 이를 대입하면 다음과 같다.There is no left-right inclination between the rotationally transformed coordinate systems. Therefore, the variables can be substituted into Equation 1 in the case where there is only an up and down slope. Substituting this, we get:

Figure 112021071805312-pat00009
Figure 112021071805312-pat00009

회전 변환된 각도를 역변환해주면, 픽셀 상의 좌표가 월드 좌표계 상의 좌표에 어떻게 대응되는지 알 수 있다. 변환식은 다음과 같다.If the rotationally transformed angle is inversely transformed, you can see how the coordinates on the pixel correspond to the coordinates on the world coordinate system. The conversion formula is as follows.

Figure 112021071805312-pat00010
Figure 112021071805312-pat00010

도 5는 본 발명의 일 실시예에 따른 카메라 촬영 영상에 위치 정보를 표시하는 방법에 따라 생성된 격자 레이어의 모습을 나타낸 도면이다. 5 is a diagram illustrating a state of a grid layer generated according to a method of displaying location information on a camera-captured image according to an embodiment of the present invention.

도 5를 참조하면, 장치(특히, 격자 레이어 생성부)는 좌표 매핑 정보를 기반으로 격자 레이어를 생성한다. 격자 레이어는 월드 좌표계 상의 복수 개의 지점을 기반으로 생성된다. 보다 구체적으로, 좌표 매핑 정보를 기반으로 가로 및 세로에 동일 간격으로 점을 찍어 격자를 생성한다. 빗금친 격자를 살펴보면, 제 1 지점은 x:344, y:375 지점을, 제 2 지점은 x:345, y:375 지점을, 제 3 지점은 x:344, y:374 지점을, 제 4 지점은 x:345, y:374 지점을 나타내고, 이때, 제 1 지점과 제 3 지점은 1m의 거리를, 제 2 지점과 제 4 지점(세로 거리) 역시 1M의 거리를 가질 수 있다. 즉, 1x1 크기의 격자를 복수 개 배열하여 격자 레이어를 생성할 수 있다. Referring to FIG. 5 , the device (particularly, the grid layer generator) generates a grid layer based on coordinate mapping information. A grid layer is created based on a plurality of points on the world coordinate system. More specifically, based on the coordinate mapping information, a grid is created by placing dots at equal intervals horizontally and vertically. Looking at the hatched grid, the first point is the x:344, y:375 point, the second point is the x:345, y:375 point, the third point is the x:344, y:374 point, and the fourth point is the point x:344, y:374. The points indicate points x:345 and y:374. In this case, the first point and the third point may have a distance of 1 m, and the second point and the fourth point (vertical distance) may also have a distance of 1M. That is, a grid layer may be created by arranging a plurality of 1x1 grids.

도 6은 도 5의 격자 레이어를 실제 촬영 영상 위에 오버레이한 모습을 나타낸 도면이다. 6 is a diagram illustrating a state in which the grid layer of FIG. 5 is overlaid on an actual captured image.

도 6을 참조하면, 장치는, 도 5에서 생성된 격자 레이어를 촬영 영상 상에 오버레이한다. 특히, 도 6의 실시예에서 촬영 대상 영역의 바닥면에 실제 격자를 배치하고, 본 발명의 일 실시예에 따른 장치를 이용하여 생성된 격자 레이어를 오버레이한 것인데, 두 격자가 거의 일치함을 확인할 수 있다. 테스트 결과는 도 8a 및 도 8b에서 보다 상세히 설명한다.Referring to FIG. 6 , the device overlays the grid layer generated in FIG. 5 on a captured image. In particular, in the embodiment of FIG. 6 , an actual grid is placed on the bottom surface of the area to be photographed, and a grid layer generated using the device according to an embodiment of the present invention is overlaid. can The test results will be described in more detail with reference to FIGS. 8A and 8B .

도 7은 줌 파라미터(zoom parameter) 변경에 따라 변화된 격자 레이어의 모습을 나타낸 도면이다. FIG. 7 is a diagram illustrating a shape of a grid layer changed according to a change of a zoom parameter.

도 7을 참조하면, 앞선 도 5의 실시예보다 변화된 줌 레벨(zoom level)에 기반하여, 장치는, 도 5의 격자 레이어와 다른 형상의 격자 레이어를 생성한다. 즉, 줌(zoom)과 연관된 파라미터가 카메라 파라미터로써 포함된 경우, 줌 파라미터를 수학식 1의 카메라 초점 거리와 픽셀 비의 곱(z')에 곱하여 연산함에 의해, 픽셀 좌표와 실제 위치 좌표를 매칭시킨다. 이에 따라, 격자 레이어의 형상 및 크기도 달라질 수 있다. Referring to FIG. 7 , based on a zoom level changed from that of the previous embodiment of FIG. 5 , the apparatus generates a grid layer having a shape different from that of the grid layer of FIG. 5 . That is, when a parameter related to zoom is included as a camera parameter, pixel coordinates and actual position coordinates are matched by multiplying the zoom parameter by the product (z') of the camera focal length and pixel ratio of Equation 1 make it Accordingly, the shape and size of the grating layer may also vary.

도 8a 및 도 8b는 촬영 영상 내에 삽입한 격자와 실제 촬영 현장 바닥에 설치한 격자가 촬영 각도가 변함에도 일치함을 나타내는 테스트 결과를 나타낸 도면이다.8A and 8B are diagrams showing test results indicating that the grid inserted in the captured image and the grid installed on the floor of the actual filming site match even when the photographing angle is changed.

도 8a 및 도 8b를 참조하면, 카메라를 어떤 각도로 틀더라도, 수학식 1 내지 7에 따라 픽셀에 대응하는 월드 좌표계 상의 매핑된 좌표 정보가 변화하고, 이에 따라 격자 레이어가 재생성되어, 틀어진 각도에 맞게 격자 레이어의 형상 역시 변화된다. 그 결과, 도 8a 및 도 8b를 보면, 바닥면의 격자 모양과 실제 장치에서 형성한 격자 모양이 거의 일치함을 확인할 수 있다. 즉, 카메라 각도의 변화는 카메라 정보 입력부에서 카메라의 PTZ 정보의 입력에 반영되고, 이이를 기반으로 좌표 매핑부 및 격자 레이어 형성부에서의 격자 변경 로직을 통해, 장치에 실시간으로 반영되어 영상 내에 표시된다. 8A and 8B , no matter what angle the camera is turned, the mapped coordinate information on the world coordinate system corresponding to the pixel is changed according to Equations 1 to 7 according to Equations 1 to 7, and accordingly the grid layer is regenerated, The shape of the grid layer is also changed accordingly. As a result, referring to FIGS. 8A and 8B , it can be seen that the lattice shape of the bottom surface and the lattice shape formed in the actual device are almost identical. That is, the change of the camera angle is reflected in the input of the PTZ information of the camera in the camera information input unit, and based on this, through the grid change logic in the coordinate mapping unit and the grid layer forming unit, it is reflected in the device in real time and displayed in the image do.

도 9a는 본 발명의 일 실시예에 따른 카메라 촬영 영상에 위치 정보를 표시하는 방법에 의해 표시된 촬영 영상 상의 격자를 선택하여 실제 위치 정보를 확인하는 사용자 인터페이스의 구성을 나타낸 도면이다. 9A is a diagram illustrating the configuration of a user interface for checking actual location information by selecting a grid on a captured image displayed by a method of displaying location information on a camera captured image according to an embodiment of the present invention.

도 9a를 참조하면, 사용자 단말의 앱을 통해, 본 발명의 일 실시예에 따른 카메라 촬영 영상에 위치 정보를 표시하는 방법을 구현하는 경우, 앱에서 제공하는 사용자 인터페이스는 개별 격자의 월드좌표계 상의 위치 정보를 다양한 형태로 표시해줄 수 있다. 촬영 영상의 영역과 도구 영역을 구분하여 도구 영역에서 하나의 격자를 선택할 시, 선택된 격자의 위치 정보를 표시해줄 수 있다. 이때, 위치 정보는 카메라로부터의 상대적인 위치로 표시될 수 있다. 다른 예에서, 카메라의 절대 위치에 상대적인 위치를 합산하여 절대적인 위치로 표시될 수도 있다. 다른 측면에서, 격자의 위치는 격자를 구성하는 4개 지점 중 하나의 위치로 정의될 수 있고, 또는 4개 지점의 중심점, 즉, 격자의 중심점의 위치로 정의될 수 있다. Referring to FIG. 9A , when the method of displaying location information on a camera-captured image according to an embodiment of the present invention is implemented through the app of the user terminal, the user interface provided by the app shows the location of the individual grid in the world coordinate system. Information can be displayed in a variety of formats. When one grid is selected from the tool area by dividing the area of the captured image and the tool area, location information of the selected grid may be displayed. In this case, the location information may be displayed as a relative location from the camera. In another example, the absolute position may be displayed by adding the relative position to the absolute position of the camera. In another aspect, the location of the grid may be defined as a location of one of four points constituting the grid, or may be defined as a location of a center point of the four points, that is, a center point of the grid.

한편, 사용자는 원하는 격자를 번갈아가며 선택함에 따라, 자신이 촬영 영상 내에서 원하는 영역의 위치 정보를 획득할 수 있다. Meanwhile, as the user alternately selects a desired grid, the user may acquire location information of a desired area within the captured image.

도 9b는 도 9a의 사용자 인터페이스를 이용해 서로 다른 격자의 거리를 확인하는 방법을 설명하기 위한 도면이다.FIG. 9B is a diagram for explaining a method of checking distances between different grids using the user interface of FIG. 9A .

도 9b를 참조하면, 사용자 인터페이스는 서로 다른 격자들 간의 거리를 월드 좌표계 상의 거리로 환산하여 표시해줄 수 있다. 즉, 촬영 영상 내에서 사람이 배열된 격자 1(910)과, 상자가 배열된 격자 2(920)를 선택하여, 두 선택된 격자(910, 920) 간의 실제 거리를 표시할 수 있다. 실제 거리는 두 격자의 월드 좌표계 상의 좌표를 기반으로 산출될 수 있다. 도 9b의 실시예에 따른 거리 산출 및/또는 도 9a의 실시예에 따른 좌표 위치 표시를 위한 격자 선택시 격자는 빗금친 형태로 표시되거나 붉은 색, 형광 색 등 일반 격자와 다른 색상으로 표시되도록 제어될 수 있다.Referring to FIG. 9B , the user interface may display distances between different grids by converting them into distances in the world coordinate system. That is, by selecting grid 1 910 in which people are arranged and grid 2 920 in which boxes are arranged in the captured image, the actual distance between the two selected grids 910 and 920 may be displayed. The actual distance may be calculated based on the coordinates on the world coordinate system of the two grids. When the grid is selected for calculating the distance according to the embodiment of FIG. 9B and/or displaying the coordinate position according to the embodiment of FIG. 9A, the grid is displayed in a hatched form or in a color different from the general grid such as red or fluorescent color. can be

이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although described above with reference to the drawings and embodiments, it does not mean that the scope of protection of the present invention is limited by the drawings or embodiments, and those skilled in the art will appreciate the spirit of the present invention described in the claims below. And it will be understood that various modifications and changes can be made without departing from the scope of the present invention.

Claims (15)

카메라를 통해 촬영된 영상에 실제 위치 정보를 표시하는 방법에 있어서,
카메라와 연관된 복수의 파라미터들(parameters)을 획득하는 단계, 상기 복수의 파라미터는 상기 카메라의 높이와 연관된 높이 파라미터 및 상기 카메라의 수직 방향 각도와 연관된 각도 파라미터를 포함함;
상기 복수의 파라미터들을 이용하여 상기 촬영 영상의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시키는 단계; 및
상기 대응관계를 기반으로 월드 좌표계를 기반으로 하는 실제 위치 정보를 상기 촬영 영상에 매핑(mapping)하여 표시하는 단계를 포함하되,
상기 복수의 파라미터는 (i) 상기 높이 파라미터 이외에, (ii) 상기 카메라의 수평 방향 및 수직 방향 중 적어도 하나의 방향에 대한 각도 파라미터, 및 (iii) 카메라의 초점 거리 파라미터 중 적어도 하나를 더 포함하고,
상기 대응시키는 단계는, 상기 카메라로부터의 실제 거리를 월드 좌표계로 표현한 x 좌표와 y 좌표, 카메라 설치 높이, 카메라의 초점 거리와 픽셀 비의 곱, 그리고 카메라의 수직 방향 각도 파라미터를 이용하여, 코사인(cosine) 및 사인(sine) 함수를 통해, 상기 촬영 영상의 픽셀의 x 좌표(x')와 y 좌표(y')를 대응시키는 단계를 포함하며,
상기 복수의 파라미터에 줌(zoom)과 연관된 파라미터가 포함된 경우, 줌 파라미터를 상기 카메라 초점 거리와 픽셀 비의 곱에 곱하여 연산함에 의해, 상기 촬영 영상의 픽셀의 x 좌표(x')와 y 좌표(y')를 산출하는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
In the method of displaying actual location information on an image taken through a camera,
obtaining a plurality of parameters associated with a camera, the plurality of parameters including a height parameter associated with a height of the camera and an angle parameter associated with a vertical angle of the camera;
matching the pixels of the captured image with coordinates on a world coordinate system using the plurality of parameters; and
Comprising the step of mapping and displaying actual location information based on the world coordinate system based on the correspondence relationship to the captured image,
The plurality of parameters further include at least one of (i) in addition to the height parameter, (ii) an angle parameter for at least one of a horizontal direction and a vertical direction of the camera, and (iii) a focal length parameter of the camera; ,
The step of matching is the cosine (cosine ( cosine) and a sine function, comprising the step of matching the x-coordinate (x') and y-coordinate (y') of the pixel of the photographed image,
When the plurality of parameters includes a parameter related to zoom, the x-coordinate (x') and y-coordinate of the pixel of the captured image by multiplying the zoom parameter by the product of the camera focal length and the pixel ratio A method of displaying actual location information on a camera-captured image, calculating (y').
삭제delete 제 1 항에 있어서, 상기 실제 위치 정보를 상기 촬영 영상에 매핑하여 표시하는 단계는,
상기 실제 위치 정보를 기반으로 격자 형상을 생성하는 단계; 및
상기 생성된 격자 형상을 상기 촬영 영상에 오버레이(overlay)하여 표시하는 단계를 포함하는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
The method of claim 1, wherein the step of mapping and displaying the actual location information to the captured image comprises:
generating a grid shape based on the actual location information; and
and displaying the generated grid shape by overlaying the image on the captured image.
제 3 항에 있어서,
상기 격자 형상은 월드 좌표계에서 일정 면적을 갖는 다각형 형상의 격자를 적어도 하나 포함하는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
4. The method of claim 3,
The lattice shape includes at least one polygonal lattice having a predetermined area in the world coordinate system, the method for displaying actual location information in a camera-captured image.
제 4 항에 있어서,
상기 촬영 영상 내에서 평면 영역(plane area)을 추출하는 단계를 더 포함하되,
상기 격자 형상은 상기 평면 영역을 중심으로 상기 촬영 영상에 오버레이되는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
5. The method of claim 4,
Further comprising the step of extracting a plane area (plane area) in the captured image,
The grid shape is overlaid on the captured image with respect to the planar area, the method for displaying actual location information on a camera-captured image.
제 4 항에 있어서,
상기 다각형 형상의 격자는 가로 및 세로 길이가 동일한 정방형의 격자를 포함하는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
5. The method of claim 4,
The polygonal grid includes a square grid having the same horizontal and vertical lengths, the method for displaying actual location information in a camera-captured image.
삭제delete 제 1 항에 있어서,
Figure 112021127831997-pat00011
를 이용하여 상기 촬영 영상의 픽셀의 x 좌표(x')와 y 좌표(y')를 산출하되,
여기서, x는 월드 좌표계 상에서 상기 카메라로부터의 x 방향 거리를 나타내는 좌표, y는 월드 좌표계의 상기 카메라로부터의 y 방향 거리를 나타내는 좌표, z는 상기 카메라 설치 높이를 나타내며, x'는 상기 촬영 영상의 픽셀의 x 좌표, y'는 상기 촬영 영상의 픽셀의 y 좌표, z'는 카메라 초점 거리와 픽셀 비의 곱, θ0는 상기 카메라의 수직 방향 기울기를 나타내는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
The method of claim 1,
Figure 112021127831997-pat00011
Calculate the x-coordinate (x') and y-coordinate (y') of the pixel of the captured image using
Here, x is a coordinate indicating the distance in the x direction from the camera in the world coordinate system, y is a coordinate indicating the distance in the y direction from the camera in the world coordinate system, z is the installation height of the camera, and x' is the The x-coordinate of the pixel, y' is the y-coordinate of the pixel of the captured image, z' is the product of the camera focal length and the pixel ratio, and θ 0 is the vertical inclination of the camera. .
삭제delete 제 1 항에 있어서, 상기 대응시키는 단계는,
상기 수평 방향의 각도 파라미터(φ0)가 존재하는 경우, 상기 수평 방향의 각도 파라미터(φ0)와 상기 수직 방향의 각도 파라미터(θ0)를 기반으로, 회전 변환으로 치환하여, 카메라 좌표계와 월드 좌표계를 각각 회전변환함에 의해, 상기 촬영 영상의 픽셀과 대응시키는 단계를 포함하는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
The method of claim 1, wherein the matching step comprises:
When the horizontal angle parameter (φ 0 ) exists, based on the horizontal angle parameter (φ 0 ) and the vertical direction angle parameter (θ 0 ), it is replaced by rotation transformation, A method of displaying actual position information on a camera-captured image, comprising the step of corresponding to the pixels of the captured image by rotating each coordinate system.
제 10 항에 있어서,
Figure 112021071805312-pat00012
를 이용하여 상기 수평 방향의 각도 파라미터(φ0)와 상기 수직 방향의 각도 파라미터(θ0)를 기반으로, 회전 변환(θrot)으로 치환하는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
11. The method of claim 10,
Figure 112021071805312-pat00012
Based on the horizontal angle parameter (φ 0 ) and the vertical direction angle parameter (θ 0 ) by using a rotation transformation (θ rot ), the actual position information display method in the camera-shot image.
제 10 항에 있어서,
상기 회전 변환 이후, 상기 카메라의 수평 방향 및 수직 방향의 각도 파라미터(φ0, θ0)를 기반으로, 탄젠트(tangent), 코탄젠트(cotangent) 및 아크탄젠트(ARCTAN) 함수를 이용하여, 재설정된 하나의 각도 파라미터로 환산함에 의해, 상기 촬영된 영상의 픽셀과 대응시키는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
11. The method of claim 10,
After the rotation transformation, based on the angular parameters (φ 0 , θ 0 ) in the horizontal and vertical directions of the camera, using tangent, cotangent and arctangent functions, one reset A method of displaying actual position information in a camera-captured image, which corresponds to the pixels of the captured image by converting it into an angle parameter of .
제 12 항에 있어서,
Figure 112021071805312-pat00013
를 이용하여 상기 재설정된 하나의 각도 파라미터로 환산하되,
여기서, θnew는 상기 재설정된 하나의 각도 파라미터인, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
13. The method of claim 12,
Figure 112021071805312-pat00013
Converted to the reset one angle parameter using
Here, θ new is the reset one angle parameter.
제 1 항에 있어서,
사용자 단말로부터 상기 촬영 영상 내에 특정 픽셀에 대한 선택을 입력받고, 상기 선택된 픽셀의 실제 위치 정보를 표시하는 사용자 인터페이스를 제공하는 단계를 더 포함하는, 카메라 촬영 영상에 실제 위치 정보 표시 방법.
The method of claim 1,
The method further comprising the step of receiving a selection of a specific pixel in the captured image from a user terminal and providing a user interface for displaying the actual location information of the selected pixel, the method of displaying actual location information in a camera-captured image.
카메라를 통해 촬영된 영상에 실제 위치 정보를 표시하는 장치에 있어서,
카메라와 연관된 복수의 파라미터들(parameters)을 획득하는 카메라 정보 입력부, 상기 복수의 파라미터는 상기 카메라의 높이와 연관된 높이 파라미터 및 상기 카메라의 수직 방향 각도와 연관된 각도 파라미터를 포함함;
카메라로부터 촬영된 영상을 입력받는 영상 입력부; 및
상기 복수의 파라미터들을 이용하여 상기 촬영 영상의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시키는 좌표 매핑부를 포함하되,
상기 대응관계를 기반으로 월드 좌표계를 기반으로 하는 실제 위치 정보가 상기 촬영 영상에 매핑(mapping)되어 표시되고,
상기 복수의 파라미터는 (i) 상기 높이 파라미터 이외에, (ii) 상기 카메라의 수평 방향 및 수직 방향 중 적어도 하나의 방향에 대한 각도 파라미터, 및 (iii) 카메라의 초점 거리 파라미터 중 적어도 하나를 더 포함하고,
상기 좌표 매핑부는, 상기 카메라로부터의 실제 거리를 월드 좌표계로 표현한 x 좌표와 y 좌표, 카메라 설치 높이, 카메라의 초점 거리와 픽셀 비의 곱, 그리고 카메라의 수직 방향 각도 파라미터를 이용하여, 코사인(cosine) 및 사인(sine) 함수를 통해, 상기 촬영 영상의 픽셀의 x 좌표(x')와 y 좌표(y')를 대응시키며,
상기 복수의 파라미터에 줌(zoom)과 연관된 파라미터가 포함된 경우, 줌 파라미터를 상기 카메라 초점 거리와 픽셀 비의 곱에 곱하여 연산함에 의해, 상기 촬영 영상의 픽셀의 x 좌표(x')와 y 좌표(y')를 산출하는, 카메라 촬영 영상에 실제 위치 정보 표시 장치.
In the device for displaying actual location information on the image taken through the camera,
a camera information input unit for obtaining a plurality of parameters associated with a camera, the plurality of parameters including a height parameter associated with a height of the camera and an angle parameter associated with a vertical angle of the camera;
an image input unit receiving an image captured by the camera; and
A coordinate mapping unit for matching a pixel of the captured image with coordinates on a world coordinate system by using the plurality of parameters,
Based on the correspondence, actual location information based on the world coordinate system is mapped and displayed on the captured image,
The plurality of parameters further include at least one of (i) in addition to the height parameter, (ii) an angle parameter for at least one of a horizontal direction and a vertical direction of the camera, and (iii) a focal length parameter of the camera; ,
The coordinate mapping unit is, by using the x coordinate and y coordinate expressing the actual distance from the camera in the world coordinate system, the camera installation height, the product of the focal length of the camera and the pixel ratio, and the vertical angle parameter of the camera, cosine (cosine) ) and through a sine function, the x-coordinate (x') and y-coordinate (y') of the pixel of the photographed image correspond,
When a parameter related to zoom is included in the plurality of parameters, the x-coordinate (x') and y-coordinate of the pixel of the captured image by multiplying the zoom parameter by the product of the camera focal length and the pixel ratio A device for displaying actual location information on an image captured by a camera, which calculates (y').
KR1020210080805A 2021-06-22 2021-06-22 Method and apparatus for displaying real location information in image captured by camera KR102349837B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210080805A KR102349837B1 (en) 2021-06-22 2021-06-22 Method and apparatus for displaying real location information in image captured by camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210080805A KR102349837B1 (en) 2021-06-22 2021-06-22 Method and apparatus for displaying real location information in image captured by camera

Publications (1)

Publication Number Publication Date
KR102349837B1 true KR102349837B1 (en) 2022-01-11

Family

ID=79355608

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210080805A KR102349837B1 (en) 2021-06-22 2021-06-22 Method and apparatus for displaying real location information in image captured by camera

Country Status (1)

Country Link
KR (1) KR102349837B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008249431A (en) * 2007-03-29 2008-10-16 Nippon Hoso Kyokai <Nhk> Three-dimensional image correction method and its device
KR20130064167A (en) * 2011-12-08 2013-06-18 주식회사 우신산업 Image generating method for around view of vehicl using improved polygon matching
KR20140071188A (en) * 2012-12-03 2014-06-11 삼성테크윈 주식회사 Method for acquiring horizontal distance between camera and target, camera and surveillance system adopting the method
KR101996226B1 (en) * 2018-04-30 2019-07-05 재단법인대구경북과학기술원 Apparatus for measuring three-dimensional position of subject and method thereof
KR20210057964A (en) * 2019-11-13 2021-05-24 울산대학교 산학협력단 Method and system for determining location information of moving object with photography apparatus
KR20210069385A (en) * 2019-12-03 2021-06-11 한국과학기술정보연구원 Mapping device between image and space, and computer trogram that performs each step of the device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008249431A (en) * 2007-03-29 2008-10-16 Nippon Hoso Kyokai <Nhk> Three-dimensional image correction method and its device
KR20130064167A (en) * 2011-12-08 2013-06-18 주식회사 우신산업 Image generating method for around view of vehicl using improved polygon matching
KR20140071188A (en) * 2012-12-03 2014-06-11 삼성테크윈 주식회사 Method for acquiring horizontal distance between camera and target, camera and surveillance system adopting the method
KR101996226B1 (en) * 2018-04-30 2019-07-05 재단법인대구경북과학기술원 Apparatus for measuring three-dimensional position of subject and method thereof
KR20210057964A (en) * 2019-11-13 2021-05-24 울산대학교 산학협력단 Method and system for determining location information of moving object with photography apparatus
KR20210069385A (en) * 2019-12-03 2021-06-11 한국과학기술정보연구원 Mapping device between image and space, and computer trogram that performs each step of the device

Similar Documents

Publication Publication Date Title
US20220100348A1 (en) System and Method of Indicating the Distance or the Surface of an Image of a Geographical Object
US7944547B2 (en) Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
KR101871764B1 (en) Industrial infrastructure management platform building system based on virtual reality
CN108304075B (en) Method and device for performing man-machine interaction on augmented reality device
EP3134829B1 (en) Selecting time-distributed panoramic images for display
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
US20190221023A1 (en) Determining and Presenting Solar Flux Information
US20230162449A1 (en) Systems and methods for data transmission and rendering of virtual objects for display
WO2017017790A1 (en) Image generation device, image generation system, and image generation method
KR20120076175A (en) 3d street view system using identification information
CN111192321A (en) Three-dimensional positioning method and device for target object
CN111612901A (en) Extraction feature and generation method of geographic information image
Jian et al. Augmented virtual environment: fusion of real-time video and 3D models in the digital earth system
US8395760B2 (en) Unified spectral and geospatial information model and the method and system generating it
CN115375779B (en) Method and system for camera AR live-action annotation
CN116210013A (en) BIM (building information modeling) visualization system and device, visualization platform and storage medium
CN108932055B (en) Method and equipment for enhancing reality content
CN113129346B (en) Depth information acquisition method and device, electronic equipment and storage medium
JP5862865B2 (en) Composite image display device and composite image display program
KR102349837B1 (en) Method and apparatus for displaying real location information in image captured by camera
JP2012213083A (en) Monitoring range detection device
CN109688381B (en) VR monitoring method, device, equipment and storage medium
CN111596594A (en) Panoramic big data application monitoring and control system
CN116152471A (en) Factory safety production supervision method and system based on video stream and electronic equipment
CN106033623A (en) 3D visualized mass data processing method, apparatus and system thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant