KR101051355B1 - 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법 - Google Patents

3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법 Download PDF

Info

Publication number
KR101051355B1
KR101051355B1 KR1020090050757A KR20090050757A KR101051355B1 KR 101051355 B1 KR101051355 B1 KR 101051355B1 KR 1020090050757 A KR1020090050757 A KR 1020090050757A KR 20090050757 A KR20090050757 A KR 20090050757A KR 101051355 B1 KR101051355 B1 KR 101051355B1
Authority
KR
South Korea
Prior art keywords
camera
image
dimensional
angle
spatial data
Prior art date
Application number
KR1020090050757A
Other languages
English (en)
Other versions
KR20100132110A (ko
Inventor
김성호
Original Assignee
(주)이지스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이지스 filed Critical (주)이지스
Priority to KR1020090050757A priority Critical patent/KR101051355B1/ko
Publication of KR20100132110A publication Critical patent/KR20100132110A/ko
Application granted granted Critical
Publication of KR101051355B1 publication Critical patent/KR101051355B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법에 있어서, (a) 감시 대상 지역의 3차원 영상을 제공하기 위한 3차원 공간 데이터를 구축하는 단계, (b) 카메라의 줌 변화에 따른 화각 변화량을 산출하는 단계, (c) 상기 카메라의 화면과 상기 3차원 영상의 화면을 동기화시키는 단계 및 (d) 상기 실제 카메라 화면의 특정 지점에 대한 3차원 좌표를 산출하는 단계를 포함하는 것을 특징으로 한다.
상기와 같은 본 발명에 따르면, CCTV카메라의 임의 지점에 대한 정확한 3차원 좌표를 획득할 수 있는 방안을 제공함으로써, 이를 통해 CCTV를 특정 목표점으로 바라보게 한다든지 화재, 감시, 추적 등을 목표로 영상 변화가 감지된 지점에 대한 정확한 3차원 좌표를 취득하는 등 다양한 통합 운영이 가능해지는 효과가 있다
군집지능, 카메라, CCTV, 3차원, 공간, 영상, GIS, 좌표.

Description

3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법{A Method For Obtaining 3-dimension Coordinate of Camera Image Using 3-Dimension Space Data And Method For Controlling Interlock of Cameras Thereof}
본 발명은 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법에 관한 것으로서, 보다 상세하게는 3차원 공간데이타와 CCTV 시야를 정합(CCTV시야와 3차원 시야를 동기화)시켜 CCTV영상의 특정 지점에 대한 3차원 좌표를 획득하는 방법과 CCTV에 대한 3차원 기반의 가시범위를 3차원 공간데이타 상에 등록시켜 특정위치로 CCTV시야를 이동시킬 수 있는데 필요한 팬, 틸트값을 산출하는 방법을 제시하고 이를 통해 개별단위로 관리되던 CCTV들이 군집단위로 관리될 수 있도록 하는 방법에 관한 것이다.
CCTV(Closed Circuit Tele-Vision) 시스템은 원격지에서 영상 및 음성을 모니터링하는 것을 목적으로 하는 것으로서, 근래에는 단순한 영상 전달장치 개념을 벗어나 안면인식, 자동차 번호판 인식, 움직이는 물체추적 등 다양한 영상분석 기능들이 탑재되어 다양한 분야로 활용범위를 넓혀가고 있다.
하지만 현재 CCTV 시스템의 운용방식은 영상을 보면서 사람이 개별 단위로 조작하는 관리 방식을 취하고 있으며 영상분석결과 또한 해당 카메라를 기준으로 한 경보발생, 위치추적 등 개별 단위 운용에 그치고 있다.
이와 같이 개별단위로 운용되던 CCTV를 하나의 관리체계로 연동하여 보다 복합적인 업무를 수행할 수 있는 군집지능 기반 지능형 CCTV에 대한 다양한 연구가 진행 중이다. 특히 CCTV를 하나의 관리체계로 연동하여 움직이는 물체에 대해 여러 대의 CCTV가 연동해서 추적하는 기능 이라던지 CCTV시야를 원하는 특정좌표로 이동하는 것 과 같은 기존의 개별단위 운용에서 할 수 없던 복합적인 역할을 수행하기 위해서는 CCTV가 바라보고 있는 가시영역에 대한 볼륨형태의 정확한 3차원 정보와 CCTV 영상에서 감지된 특정지점에 대한 3차원 좌표 획득이 필요하다.
CCTV 영상에서 감지된 특정지점에 대한 3차원 좌표를 얻기 위한 방법의 하나로서 임의의 베이스 라인의 거리를 두고 배치된 두대의 카메라를 통해 촬영된 두 개 영상에서의 피사체 간 거리차(변위, disparity)를 구하고 렌즈의 초점거리(f)를 알면 카메라로부터 피사체 사이의 거리가 기하학적 구조를 통해 추출하는 스테레오 매칭 시스템을 이용한 3차원 좌표 및 거리 측정방식이 있으나, 아직은 연구단계라 정확한 좌표 획득이 어려운 문제점이 있다.
그 외, CCTV에 레이저 스캐너를 설치하는 방식이 있으나 너무 고가의 장비라 비용적인 문제로 실용화가 힘든 문제점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 3차원 공간데이타와 CCTV 시야를 정합(CCTV시야와 3차원 시야를 동기화)시켜 CCTV영상의 특정 지점에 대한 3차원 좌표를 획득하는 방법을 제공하는 것이다.
본 발명의 다른 목적은 CCTV에 대한 3차원 기반의 가시범위를 3차원 공간데이타 상에 등록시켜 특정위치로 CCTV시야를 이동시킬 수 있는데 필요한 팬, 틸트값을 산출하는 방법을 제시하고 이를 통해 개별단위로 관리되던 CCTV들이 군집단위로 관리될 수 있는 방법을 제시하고자 하는 것이다.
상기와 같은 목적을 달성하기 위한 본 발명의 일측면에 따르면, 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법에 있어서, (a) 감시 대상 지역의 3차원 영상을 제공하기 위한 3차원 공간 데이터를 구축하는 단계, (b) 카메라의 줌 변화에 따른 화각 변화량을 산출하는 단계, (c) 상기 카메라의 화면과 상기 3차원 영상의 화면을 동기화시키는 단계 및 (d) 상기 실제 카메라 화면의 특정 지점에 대한 3차원 좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법이 제공된다.
여기서, 상기 (b) 단계에서 상기 카메라의 시야에 포함되는 좌우 양끝점 간의 거리를 L1, 카메라와 상기 양끝점을 잇는 직선과 상기 카메라 간의 거리를 L2라 할 때, 카메라의 좌우방향 화각 θ = tan-1 (L1/2/L2) × 2의 수식에 의해 계산된다.
그리고, 상기 (c) 단계는 (c-1) 상기 3차원 영상내에서 상기 카메라의 설치 위치에 해당하는 지점에 카메라 이미지를 배치하는 단계, (c-2) 상기 카메라의 렌즈 정보를 상기 3차원 공간 데이터에 등록하는 단계 및 (c-3) 현재 카메라의 줌 상태에 상응하는 화각을 적용하여 상기 3차원 공간 데이터를 3차원 영상으로 전환하는 단계를 포함하는 것이 바람직하다.
또한, 상기 (d) 단계는 (d-1) 상기 카메라와 상기 실제 카메라 영상의 특정 지점을 연결하는 카메라 시선 벡터를 생성하는 단계, (d-2) 상기 카메라 시선 벡터와 교차하는 공간객체들을 획득하는 단계 및 (d-3) 상기 획득된 공간객체 중 상기 카메라와 가장 근접한 공간객체와의 교차점의 3차원 좌표를 산출하는 단계를 포함하는 것이 보다 바람직하다.
그리고, (e) 상기 특정 지점의 위치가 초기위치 P1에서 목표위치 P2로 이동되는 경우 상기 카메라의 시선 벡터와 상기 카메라 시점과 목표위치 P2를 잇는 벡터의 사이각을 산출하는 단계와 상기 사이각에 상응하는 팬/틸트 제어신호를 생성하여 상기 카메라의 팬/틸트를 제어하는 단계가 더 포함되는 것이 보다 바람직하다.
상기와 같은 목적을 달성하기 위한 본 발명의 다른 일측면에 따르면, 제 1 항 내지 4 항 중 어느 한 항에 따라 제 1 카메라 화면의 특정 지점에 대한 3차원 좌표를 산출하는 단계, 상기 제 1 카메라와 인접한 제 2 카메라의 시선 벡터와 상 기 제 2 카메라의 시점과 특정 지점을 잇는 벡터의 사이각을 산출하는 단계 및 상기 사이각에 상응하는 팬/틸트 제어신호를 생성하여 상기 제 2 카메라의 팬/틸트를 제어하는 단계를 포함하는 것을 특징으로 하는 3차원 공간 데이터를 이용하여 획득된 카메라 영상의 3차원 좌표를 이용한 카메라 연동제어방법이 제공된다.
상기와 같은 본 발명에 따르면, CCTV카메라의 임의 지점에 대한 정확한 3차원 좌표를 획득할 수 있는 방안을 제공함으로써, 이를 통해 CCTV를 특정 목표점으로 바라보게 한다든지 화재, 감시, 추적 등을 목표로 영상 변화가 감지된 지점에 대한 정확한 3차원 좌표를 취득하는 등 다양한 통합 운영이 가능해지는 효과가 있다.
이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시예를 상세하게 설명하기로 한다.
도 1은 본 발명에 따른 CCTV 시스템의 구성도이다. 도 1에 도시된 바와 같이, 본 발명에 따른 CCTV 시스템은 감시대상 지역에 복수개가 설치되는 카메라(10)와 복수개의 카메라(10)에 연결되어 카메라(10)로부터 촬영된 영상 데이터를 수신하고, 각 카메라(10)의 동작을 제어하는 중앙 감시장치(20)로 구성된다.
본 발명의 중앙 감시장치(20)는 감시대상 지역의 지리 정보를 3차원 영상 데 이터로 표시하기 위한 GIS 데이터베이스(30)를 구비하고 있으며, 카메라(10)에서 촬영된 실제 영상 화면과 GIS 데이터베이스(30)에 저장된 3차원 영상 데이터를 이용하여 카메라 화면과 동기화되어 카메라 화면을 3차원 그래픽 형태로 묘사하는 3차원 영상을 생성하고, 카메라 화면 상의 특정 지점 또는 감시대상 물체의 위치를 3차원 좌표로 산출하고, 산출된 3차원 좌표값에 근거하여 복수개의 카메라들이 연동하여 특정 지점 또는 감시대상 물체를 촬영할 수 있도록 하는 것이 특징이다.
도 2는 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득 및 카메라 연동 제어방법이 수행되는 과정을 도시한 흐름도, 도 3은 도 2의 S220 단계의 세부 흐름도, 도 4는 도 2의 S230 단계의 세부 흐름도이다.
도 2를 참조하면, 우선, 감시 대상 지역의 3차원 영상을 제공하기 위한 3차원 공간 데이터를 구축한다(S200). 3차원 공간 데이터는 DEM 형태의 데이터나 등고선 형태의 데이터를 활용하여 3차원 지형을 생성하고 이를 LOD(Levle of Detail) 처리를 통해 사용자 시야의 위치에 따라 최적화된 지형데이터를 제공하게 된다.
그 다음, 카메라 줌별 화각(FOV : Field of View)을 산출한다(S210). 본 단계에서는 카메라의 각 줌 단위에서의 카메라 화각(좌우 방향 화각, 상하방향 화각)을 피타고라스 정리를 이용하여 구하게 되는데, 이는 카메라의 시각에 대한 정보를 3차원 공간 데이터 운용 시스템의 뷰어의 시각과 일치시키기 위한 것이다. 카메라 줌별 화각을 산출하는 원리는 도 5 및 6을 통해서 상세하게 설명될 것이다.
카메라 줌별 화각 변화량이 산출되면, 카메라의 화면과 3차원 영상의 화면을 동기화시킨다(S220).
본 단계의 세부 흐름도인 도 3을 참조하면, 3차원 영상내에서 상기 카메라의 설치 위치에 해당하는 지점에 카메라 이미지를 배치하고(S221), 카메라의 렌즈 정보를 3차원 공간 데이터에 등록한다(S222). 이 때, 등록되는 카메라 렌즈 정보는 다음 표 1과 같은 내용인 것이 바람직하다.
구분 내용
LENS_NAME: TEST_LENSE 랜즈명칭
ZOOM_MODE: DEC ZOOM 하드웨어 제어 형태 (DEC,INC) 증가여부
ZOOM_VALUE: 635 325 ZOOM 값 변화 범위
FOV_VALUE: 29.77 2.42 FOV 변화량
FOV: 635 29.77
FOV: 625 28.43
FOV: 615 27.1
FOV: 605 25.4
.
FOV: 365 3.1
FOV: 355 2.79
FOV: 345 2.62
FOV: 335 2.47
FOV: 325 2.42
ZOOM값에 대한 FOV 설정치 ( 랜즈 스팩 )
그 다음, 현재 카메라의 줌 상태에 상응하는 화각을 적용하여 3차원 공간 데이터를 3차원 영상으로 전환하게 된다(S223). 공간 데이터를 컴퓨터 스크린 상의 화면으로 이동시키기 위해서는 월드 트랜스포메이션, 뷰 트랜스포메이션, 프로젝션 트랜스포메이션, 클리핑 및 뷰포인트 스켈링으로 이루어지는 변환 파이프라인을 거치게 되는데, 각 변환과정의 행렬의 화각으로서 S210 단계에서 구한 값으로 변경적용하여 3차원 영상을 얻게 된다.
카메라의 화면과 3차원 영상의 화면이 동기화되면, 실제 카메라 화면의 특정 지점에 대한 3차원 좌표를 산출한다(S230).
본 단계의 세부 흐름도인 도 4를 참조하면, 카메라에서 특정 지점을 바라보는 방향으로 카메라 시선 벡터를 생성한 후(S231), 카메라 시선 벡터가 3차원 영상내의 지형물 즉, 공간객체들과 교차하는 점들을 획득한다(S232). 교차점들은 여러개가 존재할 수 있는데, 이들 중 카메라와 가장 근접한 공간객체와의 교차점의 3차원 좌표를 특정 지점으로 결정한다(S233).
S210 ~ S230 단계에 의해 카메라 상의 특정 지점에 대한 3차원 위치좌표를 얻을 수 있게 되는데, 이는 종래에 비해 상당히 정확하면서도 고가의 추가 장비가 요구되지 않는 장점이 있으며, 이를 통해 카메라 연동제어가 가능하게 되는 장점이 있다.
즉, 정확한 3차원 좌표가 구해지면 특정 좌표로의 카메라 시야 이동량이 산출되고(S240), 그 값에 따라 카메라를 연동제어하게 된다(S250). GPS나 기타 방법으로 획득된 특정 좌표로 카메라의 시야를 위치시키기 위해 현재의 카메라 시야를 기준으로 특정 위치를 바라보기 위한 팬, 틸트의 하드웨어 제어량을 산출한다. 즉, 카메라의 시야 기준점과 방향점을 벡터로 생성한 후, 팬,틸트값 변동이 발생할 때마다 방향점 벡터를 변동시켜 카메라의 시점 방향에 대한 정보를 항상 유지한다. 특정 위치가 탐지되면 두 벡터의 사이각 연산을 통해 팬, 틸트값을 산출하여 팬, 틸트 제어신호를 카메라로 전송하여 카메라가 상기 특정 위치를 바라보도록 제어하게 된다.
여기서, 카메라는 복수 개일 수 있으며, 복수 개의 카메라가 모두 상기 특정 위치를 바라보도록 제어하는 방법(화재 발생의 경우 등)과 감시대상 물체가 이동하고 있는 경우 복수개의 카메라가 연동하여 물체의 이동경로에 따라 이동경로에 설치된 카메라가 감시대상 물체를 추적하도록 제어하는 방법(범행 차량 추적 등)이 가능하다.
도 5는 카메라 줌 단위별 화각 변화량을 산출하는 원리를 도시한 도면이고, 도 6은 도 5의 원리에 의해 산출된 카메라 줌 단위별 화각 변화량 관계 그래프이다.
도 5를 참조하면, 카메라에서 특정 거리(L2)만큼 떨어진 곳에 눈금자를 배치하고, 눈금자를 통해 카메라의 시야에 포함되는 좌우 양끝점 간의 거리 L1을 구하면, 카메라의 좌우방향 화각 θ = tan-1 (L1/2/L2) × 2의 수식에 의해 계산될 수 있다. 이러한 방식으로 줌 단위를 변화시켜 가면서 카메라 줌 단위별 화각을 산출하게 된다. 카메라의 상하방향 화각도 동일한 방식으로 구할 수 있다.
카메라 줌 단위별 화각은 상기 방법 외에 특정 줌 단위에서 시야에 들어오는 범위에 대한 정보를 기록한 후 카메라를 시작지점부터 끝지점까지 패닝시켜 이동한 팬값을 기록하는 방식으로 얻을 수도 있다.
도 6은 CCTV Raymax Cat300의 화각 변화량을 실험적으로 구한 그래프로서, 줌 레벨을 89에서 837로 가변시킬 때, 화각이 31.62°에서 1.08°로 가변됨을 알 수 있었다.
도 7은 S221단계에서 설명한 바와 같이, 3차원 영상에서 실제 카메라 설치 위치에 해당하는 지점에 카메라 이미지가 배치된 것을 도시한 것이고, 도 8은 카메라 제어 프로그램의 유저 인터페이스를 도시한 것이다.
도 7과 같이, 3차원 영상내에서 상기 카메라의 설치 위치에 해당하는 지점에 카메라 이미지를 배치한 후, 렌즈명칭, 줌값 변화범위, 화각 변화량, 줌단위별 화각 변화량 등의 정보가 3차원 공간 데이터에 등록되게 된다.
도 8에서 상단의 카메라 조작 메뉴는 카메라의 팬, 틸트, 줌 값을 조절하기 위한 것이고, 그 하단의 카메라 이동 메뉴는 카메라의 시야를 원하는 방향으로 이동시키기 위한 것이다. 그 하단의 카메라 셋팅 메뉴는 렌즈 특성(화각) 입력, 카메라 가시영역 표기, 카메라 시점으로 3차원 화면 전환 등의 설정을 하기 위한 것이고, 그 하단의 추적정보는 특정위치로 카메라 시야를 이동하기 위한 팬, 틸트값, 표적거리 등이 표시되는 부분이다.
도 9a는 실제 카메라에 의해 촬영된 화면이고, 도 9b는 본 발명에 따라 도 9a의 카메라 화면과 동기화되어 생성된 3차원 영상 화면을 도시한 것이다.
도 9a는 경희대 수원 캠퍼스의 CCTV 촬영화면이고, 도 9b는 이를 3차원 공간정보 뷰어에서 표시한 화면이다. CCTV의 시야각을 공간정보 시야각과 동기화시켜 테스트한 결과 전체 영역 10% 이하의 오차율 이내에서 시야가 동기화됨을 알 수 있었다.
도 10은 특정 지점의 3차원 좌표를 구하는 원리를 도시한 것이다.
도 10에 도시된 바와 같이, 카메라와 실제 카메라 영상의 특정 지점을 연결하는 카메라 시선 벡터(Line of Sight)를 생성하면 카메라 시선 벡터는 3차원 공간내에서 여러 공간객체를 관통하게 된다.
이들 공간객체 중 카메라와 가장 근접한 공간객체와의 교차점의 3차원 좌표가 특정 지점의 3차원 좌표가 된다.
도 11은 카메라 화면상의 특정지점의 3차원 좌표를 계산하여 3차원 영상에 표시한 것을 나타낸 것이다.
좌측의 실제 카메라 화면 상의 한 지점을 선택하고, 이를 본 발명에 따른 3차원 좌표 산출방법에 의해 계산한 결과 실험 카메라의 최대 줌에서 3m 이내의 오차가 산출되었으며, 이는 CCTV를 연동하기 위해 필요한 오차 범위이내이므로 본 발명에 따른 3차원 좌표 산출방법이 유효함을 알 수 있었다.
도 12는 특정 좌표로의 카메라 시야 이동량을 산출하는 원리를 도시한 것이다.
도 12에 도시된 바와 같이, 상기 특정 지점의 위치가 초기위치 Pcurrent에서 목표위치 Ptarget으로 이동되는 경우 상기 카메라의 시선 벡터와 상기 카메라 시점과 목표위치 Ptarget를 잇는 벡터의 사이각을 하기 수학식 1에 의해 산출하여 카메라 시야 이동을 위한 팬, 틸트 값을 산출하게 된다.
Figure 112009034655174-pat00001
도 13a 및 13b는 3차원 영상으로서, 도 13a는 특정지점으로 카메라 시야 이동전에 2개의 카메라의 시야를 나타낸 것이고, 도 13b는 특정지점으로 카메라 시야 이동후에 2개의 카메라의 시야를 나타낸 것이다.
도 13a와 같이 초기에 2개의 카메라가 서로 다른 구역을 감시하고 있는 상태에서 좌측의 카메라 화면에 특정 이벤트가 발생한 경우 우측의 카메라로 팬, 틸트 제어신호를 전송하면 도 13b와 같이 우측의 카메라가 이벤트가 발생한 지점을 향하도록 시야가 이동됨을 알 수 있다.
도 14는 도 13b의 하단부분의 확대도로서, 카메라 시야이동을 위한 팬, 틸트 제어값을 산출결과를 표시되어 있음을 알 수 있다.
비록 본 발명이 상기 언급된 바람직한 실시예와 관련하여 설명되어졌지만, 발명의 요지와 범위로부터 벗어남이 없이 다양한 수정이나 변형을 하는 것이 가능하다. 따라서 첨부된 특허청구의 범위는 본 발명의 요지에서 속하는 이러한 수정이 나 변형을 포함할 것이다.
도 1은 본 발명에 따른 CCTV 시스템의 구성도이다.
도 2는 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득 및 카메라 연동 제어방법이 수행되는 과정을 도시한 흐름도이다.
도 3은 도 2의 S220 단계의 세부 흐름도이다.
도 4는 도 2의 S230 단계의 세부 흐름도이다.
도 5는 카메라 줌 단위별 화각 변화량을 산출하는 원리를 도시한 도면이다.
도 6은 도 5의 원리에 의해 산출된 카메라 줌 단위별 화각 변화량 관계 그래프이다.
도 7은 3차원 영상에서 실제 카메라 설치 위치에 해당하는 지점에 카메라 이미지가 배치된 것을 도시한 것이다.
도 8은 카메라 제어 프로그램의 유저 인터페이스를 도시한 것이다.
도 9a는 실제 카메라에 의해 촬영된 화면이고, 도 9b는 본 발명에 따라 도 9a의 카메라 화면과 동기화되어 생성된 3차원 영상 화면을 도시한 것이다.
도 10은 특정 지점의 3차원 좌표를 구하는 원리를 도시한 것이다.
도 11은 카메라 화면상의 특정지점의 3차원 좌표를 계산하여 3차원 영상에 표시한 것을 나타낸 것이다.
도 12는 특정 좌표로의 카메라 시야 이동량을 산출하는 원리를 도시한 것이다.
도 13a 및 13b는 3차원 영상으로서, 도 13a는 특정지점으로 카메라 시야 이 동전에 2개의 카메라의 시야를 나타낸 것이고, 도 13b는 특정지점으로 카메라 시야 이동후에 2개의 카메라의 시야를 나타낸 것이다.
도 14는 카메라 시야이동을 위한 팬, 틸트 제어값을 산출결과를 표시한 것이다.

Claims (6)

  1. 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법에 있어서,
    (a) 감시 대상 지역의 3차원 영상을 제공하기 위한 3차원 공간 데이터를 구축하는 단계;
    (b) 카메라의 줌 단위를 변화시키면서 카메라 줌 단위별 화각을 미리 산출하고, 산출된 정보에 기초하여 현재 카메라의 줌 상태에 상응하는 화각을 획득하는 단계;
    (c) 현재 카메라의 줌 상태에 상응하는 화각을 적용하여 상기 카메라의 화면과 상기 3차원 영상의 화면을 동기화시키는 단계; 및
    (d) 상기 실제 카메라 화면의 특정 지점에 대한 3차원 좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법.
  2. 제 1 항에 있어서,
    상기 (b) 단계에서 상기 카메라의 시야에 포함되는 좌우 양끝점 간의 거리를 L1, 카메라와 상기 양끝점을 잇는 직선과 상기 카메라 간의 거리를 L2라 할 때,
    카메라의 좌우방향 화각 θ = tan-1 (L1/2/L2) × 2의 수식에 의해 계산되는 것을 특징으로 하는 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법.
  3. 제 2 항에 있어서,
    상기 (c) 단계는
    (c-1) 상기 3차원 영상내에서 상기 카메라의 설치 위치에 해당하는 지점에 카메라 이미지를 배치하는 단계;
    (c-2) 상기 카메라의 렌즈 정보를 상기 3차원 공간 데이터에 등록하는 단계; 및
    (c-3) 현재 카메라의 줌 상태에 상응하는 화각을 적용하여 상기 3차원 공간 데이터를 3차원 영상으로 전환하는 단계를 포함하는 것을 특징으로 하는 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법.
  4. 제 3 항에 있어서,
    상기 (d) 단계는
    (d-1) 상기 카메라와 상기 실제 카메라 영상의 특정 지점을 연결하는 카메라 시선 벡터를 생성하는 단계;
    (d-2) 상기 카메라 시선 벡터와 교차하는 공간객체들을 획득하는 단계; 및
    (d-3) 상기 획득된 공간객체 중 상기 카메라와 가장 근접한 공간객체와의 교차점의 3차원 좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법.
  5. 제 1 항에 있어서,
    (e) 상기 특정 지점의 위치가 초기위치 P1에서 목표위치 P2로 이동되는 경우 상기 카메라의 시선 벡터와 상기 카메라 시점과 목표위치 P2를 잇는 벡터의 사이각을 산출하는 단계;
    (f) 상기 사이각에 상응하는 팬/틸트 제어신호를 생성하여 상기 카메라의 팬/틸트를 제어하는 단계가 더 포함되는 것을 특징으로 하는 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법.
  6. 3차원 공간 데이터를 이용하여 획득된 카메라 영상의 3차원 좌표를 이용한 카메라 연동제어방법에 있어서,
    제 1 항 내지 4 항 중 어느 한 항에 따라 제 1 카메라 화면의 특정 지점에 대한 3차원 좌표를 산출하는 단계;
    상기 제 1 카메라와 인접한 제 2 카메라의 시선 벡터와 상기 제 2 카메라의 시점과 특정 지점을 잇는 벡터의 사이각을 산출하는 단계; 및
    상기 사이각에 상응하는 팬/틸트 제어신호를 생성하여 상기 제 2 카메라의 팬/틸트를 제어하는 단계를 포함하는 것을 특징으로 하는 3차원 공간 데이터를 이용하여 획득된 카메라 영상의 3차원 좌표를 이용한 카메라 연동제어방법.
KR1020090050757A 2009-06-09 2009-06-09 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법 KR101051355B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090050757A KR101051355B1 (ko) 2009-06-09 2009-06-09 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090050757A KR101051355B1 (ko) 2009-06-09 2009-06-09 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법

Publications (2)

Publication Number Publication Date
KR20100132110A KR20100132110A (ko) 2010-12-17
KR101051355B1 true KR101051355B1 (ko) 2011-07-22

Family

ID=43507848

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090050757A KR101051355B1 (ko) 2009-06-09 2009-06-09 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법

Country Status (1)

Country Link
KR (1) KR101051355B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101383997B1 (ko) * 2013-03-08 2014-04-10 홍익대학교 산학협력단 실시간 동영상 합병 방법 및 시스템, 실시간 동영상 합병을 이용한 영상 감시 시스템 및 가상 영상 투어 시스템
KR101674031B1 (ko) 2015-02-13 2016-11-08 대한민국 삼차원 지도 기반의 폐쇄회로 텔레비전 등록 시스템 및 이를 사용한 관리방법
CN108492482B (zh) * 2017-12-18 2020-11-03 上海云拿智能科技有限公司 货品监控系统及监控方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100656342B1 (ko) 2004-12-16 2006-12-11 한국전자통신연구원 다중 입체 영상 혼합 제시용 시각 인터페이스 장치
KR100670816B1 (ko) 2005-12-09 2007-01-19 한국전자통신연구원 3차원공간정보를 이용한 영상취득카메라의 설치위치 결정장치 및 방법
KR100818340B1 (ko) 2006-11-01 2008-04-01 (주)이지스 3차원 건축물의 지붕면 산출 방법과, 지붕 영상 맵핑 방법
KR20090049670A (ko) * 2007-11-14 2009-05-19 주식회사 영구아트 피사체의 3차원 좌표 검출방법 및 그 방법을 컴퓨터에서실행시키기 위한 프로그램을 기록한 기록매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100656342B1 (ko) 2004-12-16 2006-12-11 한국전자통신연구원 다중 입체 영상 혼합 제시용 시각 인터페이스 장치
KR100670816B1 (ko) 2005-12-09 2007-01-19 한국전자통신연구원 3차원공간정보를 이용한 영상취득카메라의 설치위치 결정장치 및 방법
KR100818340B1 (ko) 2006-11-01 2008-04-01 (주)이지스 3차원 건축물의 지붕면 산출 방법과, 지붕 영상 맵핑 방법
KR20090049670A (ko) * 2007-11-14 2009-05-19 주식회사 영구아트 피사체의 3차원 좌표 검출방법 및 그 방법을 컴퓨터에서실행시키기 위한 프로그램을 기록한 기록매체

Also Published As

Publication number Publication date
KR20100132110A (ko) 2010-12-17

Similar Documents

Publication Publication Date Title
US8180107B2 (en) Active coordinated tracking for multi-camera systems
JP6974873B2 (ja) シーンから深度情報を取得するための装置および方法
US6717728B2 (en) System and method for visualization of stereo and multi aspect images
EP2913796B1 (en) Method of generating panorama views on a mobile mapping system
US20170094227A1 (en) Three-dimensional spatial-awareness vision system
CN110784641B (zh) 组合来自多个摄像机的视图的方法及摄像机系统
TWI547901B (zh) 模擬立體圖像顯示方法及顯示設備
US20080074494A1 (en) Video Surveillance System Providing Tracking of a Moving Object in a Geospatial Model and Related Methods
CN105678748A (zh) 三维监控系统中基于三维重构的交互式标定方法和装置
CN105574847B (zh) 相机系统及其图像配准方法
CN107370994B (zh) 海域全景监控方法、装置、服务器及系统
WO2014065854A1 (en) Method, system and computer program product for gamifying the process of obtaining panoramic images
CN104902246A (zh) 视频监视方法和装置
US20220078385A1 (en) Projection method based on augmented reality technology and projection equipment
JPH07287761A (ja) 画像処理装置及び画像処理方法
AU2021211677B2 (en) Methods and systems for augmenting depth data from a depth sensor, such as with data from a multiview camera system
WO2012015563A1 (en) Video summarization using video frames from different perspectives
KR101051355B1 (ko) 3차원 공간 데이터를 이용한 카메라 영상의 3차원 좌표 획득방법 및 이를 이용한 카메라 연동 제어방법
CN116778094B (zh) 一种基于优选视角拍摄的建筑物变形监测方法及装置
KR101960577B1 (ko) 뷰 공간에 관한 스테레오 정보를 송수신하는 방법
US9305401B1 (en) Real-time 3-D video-security
KR101686797B1 (ko) 3차원 지형 지물을 고려한 cctv 가시권 분석방법
Park et al. 48.2: Light field rendering of multi‐view contents for high density light field 3D display
KR101383997B1 (ko) 실시간 동영상 합병 방법 및 시스템, 실시간 동영상 합병을 이용한 영상 감시 시스템 및 가상 영상 투어 시스템
CN113192125B (zh) 虚拟视点优选的地理场景中多相机视频浓缩方法及系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140430

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150714

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160711

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170710

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180528

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190527

Year of fee payment: 9