KR101573755B1 - 카메라 촬영 시스템 및 방법 - Google Patents

카메라 촬영 시스템 및 방법 Download PDF

Info

Publication number
KR101573755B1
KR101573755B1 KR1020140158321A KR20140158321A KR101573755B1 KR 101573755 B1 KR101573755 B1 KR 101573755B1 KR 1020140158321 A KR1020140158321 A KR 1020140158321A KR 20140158321 A KR20140158321 A KR 20140158321A KR 101573755 B1 KR101573755 B1 KR 101573755B1
Authority
KR
South Korea
Prior art keywords
camera
group
belonging
probability information
cameras
Prior art date
Application number
KR1020140158321A
Other languages
English (en)
Inventor
김은호
김보성
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020140158321A priority Critical patent/KR101573755B1/ko
Application granted granted Critical
Publication of KR101573755B1 publication Critical patent/KR101573755B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 카메라 촬영 시스템 및 방법에 관한 것으로, 본 발명에 따른 시스템은 제1 그룹에 속하는 복수의 카메라의 온오프를 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 제1 프로세서를 포함한다. 본 발명에 의하면, 객체의 위치에 따라 최적의 카메라만 구동되도록 복수의 카메라의 온오프를 제어할 수 있게 된다.

Description

카메라 촬영 시스템 및 방법{Camera Imaging System and Method}
본 발명은 카메라 촬영 시스템 및 방법에 관한 것으로, 보다 자세하게는 복수의 카메라의 온오프를 제어하여 객체를 촬영할 수 있는 카메라 촬영 시스템 및 방법에 관한 것이다.
일반적으로 사용자는 특정 장면이나 피사체를 촬영하고자 할 때 카메라를 이용하여 원하는 장면이나 피사체를 촬영하고 있다. 그리고, 보다 광범위한 영역을 촬영하거나 다수의 피사체를 인식하기 위하여 여러 대의 카메라로 촬영하는 다중 카메라 시스템을 이용하고 있다.
종래에는 여러 대의 카메라로 다수의 피사체를 촬영하기 위하여 여러 대의 카메라를 동시에 또는 연속적으로 구동시키는 방법을 사용하였다. 그리고, 광범위한 영역을 커버하기 위하여 렌즈를 사용하거나 처음 인식된 피사체를 추적하는 방식을 사용하였다.
하지만, 여러 대의 카메라를 동시에 또는 연속적으로 구동시키기 위해서는 카메라에 대한 연산을 수행하는 프로세서의 개수와 연산 시간이 증가하며, 프로세서의 개수가 증가함에 따라 전체 비용이 증가하는 문제점이 있었다.
그리고, 하나의 프로세서에 여러 대의 카메라를 연결할 경우, 연산 처리 속도가 느려지기 때문에 연산 시간이 오래 걸리는 문제점이 있었다.
게다가, 여러 대의 카메라가 피사체를 촬영하는 경우, 각 카메라가 독립적으로 움직이기 때문에 제1 카메라 영역에서 제2 카메라 영역으로 피사체의 이동 시 서로 정보가 공유되지 못한 문제점이 있었다. 이는 카메라를 단순히 병렬로 설치한 것에 불과하기 때문에 피사체를 보다 효과적으로 촬영하지 못하는 문제점이 있었다.
한국공개특허공보 제2011-0078655호 (공개일: 2011. 07. 07.)
따라서 본 발명이 해결하고자 하는 과제는 객체의 위치에 따라 최적의 카메라만 구동되도록 복수의 카메라의 온오프를 제어할 수 있는 카메라 촬영 시스템 및 방법을 제공하는 것이다.
상기한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 카메라 촬영 시스템은 제1 그룹에 속하는 복수의 카메라의 온오프를 상기 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 제1 프로세서를 포함한다.
제2 그룹에 속하는 복수의 카메라의 온오프를 상기 제2 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제2 객체의 위치 확률 정보에 기초하여 제어하는 제2 프로세서를 더 포함하고, 상기 제1 프로세서 및 상기 제2 프로세서는 상기 제1 객체 또는 상기 제2 객체의 위치 확률 정보를 교환하고, 상기 교환된 제1 객체 또는 제2 객체의 위치 확률 정보를 기초로 각각에 속하는 상기 카메라의 온오프를 제어할 수 있다.
상기 제1 프로세서는 상기 제1 객체의 위치 확률 정보를 상기 제1 그룹에 속하는 복수의 카메라마다 산출하고, 상기 산출된 제1 객체의 위치 확률 정보가 미리 정해진 조건에 해당되는 카메라를 온 시킬 수 있다.
상기 제1 프로세서는 상기 제1 그룹에 속하고 서로 이웃하는 제1 카메라와 제2 카메라 간의 카메라 중첩 영역에 객체가 위치하면, 상기 제1 카메라의 제1 객체의 위치 확률 정보와 상기 제2 카메라의 제1 객체의 위치 확률 정보 중에서 큰 값을 가지는 카메라를 온 시킬 수 있다.
상기 제1 객체의 위치 확률 정보는
Figure 112014109521287-pat00001
로 산출되고, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고, K는 제1 그룹에 속하는 카메라의 개수,
Figure 112014109521287-pat00002
는 객체의 위치,
Figure 112014109521287-pat00003
는 제1 그룹에 속하는 카메라의 위치로 보다 자세하게는
Figure 112014109521287-pat00004
,
Figure 112014109521287-pat00005
는 제1 그룹에 속하는 카메라의 촬영 영역으로 보다 자세하게는
Figure 112014109521287-pat00006
,
Figure 112014109521287-pat00007
은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치할 확률(
Figure 112014109521287-pat00008
),
Figure 112014109521287-pat00009
은 제1 그룹에 속하는 k번째 카메라의 촬영 영역에 객체가 위치할 확률,
Figure 112014109521287-pat00010
Figure 112014109521287-pat00011
일 수 있다.
상기 제1 프로세서는 상기 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 상기 제1 객체의 위치 확률 정보에 기초하여 변경할 수 있다.
상기 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치는
Figure 112014109521287-pat00012
를 평균하여 산출되고,
Figure 112014109521287-pat00013
는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
Figure 112014109521287-pat00014
은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
Figure 112014109521287-pat00015
이고,
Figure 112014109521287-pat00016
일 수 있다.
한편, 본 발명의 다른 실시예에 따른 카메라 촬영 시스템은 제1 그룹에 속하는 복수의 카메라의 촬영 각도 및 이동에 대한 위치를 상기 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 제1 프로세서를 포함한다.
상기 제1 그룹에 속하는 카메라의 촬영 각도 및 이동에 대한 위치는
Figure 112014109521287-pat00017
를 평균하여 산출되고,
Figure 112014109521287-pat00018
는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
Figure 112014109521287-pat00019
은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
Figure 112014109521287-pat00020
이고,
Figure 112014109521287-pat00021
일 수 있다.
또 한편, 본 발명의 일 실시예에 따른 카메라 촬영 방법은 제1 프로세서가 제1 그룹에 속하는 복수의 카메라의 온오프를 상기 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 단계를 포함한다.
제2 프로세서가 제2 그룹에 속하는 복수의 카메라의 온오프를 상기 제2 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제2 객체의 위치 확률 정보에 기초하여 제어하는 단계를 더 포함하고, 상기 제1 프로세서 및 상기 제2 프로세서는 상기 제1 객체 또는 상기 제2 객체의 위치 확률 정보를 교환하고, 상기 교환된 제1 객체 또는 제2 객체의 위치 확률 정보를 기초로 각각에 속하는 상기 카메라의 온오프를 제어할 수 있다.
상기 제1 프로세서는 상기 제1 객체의 위치 확률 정보를 상기 제1 그룹에 속하는 복수의 카메라마다 산출하고, 상기 산출된 제1 객체의 위치 확률 정보가 미리 정해진 조건에 해당되는 카메라를 온 시킬 수 있다.
상기 제1 프로세서는 상기 제1 그룹에 속하고 서로 이웃하는 제1 카메라와 제2 카메라 간의 카메라 중첩 영역에 객체가 위치하면, 상기 제1 카메라의 제1 객체의 위치 확률 정보와 상기 제2 카메라의 제1 객체의 위치 확률 정보 중에서 큰 값을 가지는 카메라를 온 시킬 수 있다.
상기 제1 객체의 위치 확률 정보는
Figure 112014109521287-pat00022
로 산출되고, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고, K는 제1 그룹에 속하는 카메라의 개수,
Figure 112014109521287-pat00023
는 객체의 위치,
Figure 112014109521287-pat00024
는 제1 그룹에 속하는 카메라의 위치로 보다 자세하게는
Figure 112014109521287-pat00025
,
Figure 112014109521287-pat00026
는 제1 그룹에 속하는 카메라의 촬영 영역으로 보다 자세하게는
Figure 112014109521287-pat00027
,
Figure 112014109521287-pat00028
은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치할 확률(
Figure 112014109521287-pat00029
),
Figure 112014109521287-pat00030
은 제1 그룹에 속하는 k번째 카메라의 촬영 영역에 객체가 위치할 확률,
Figure 112014109521287-pat00031
Figure 112014109521287-pat00032
일 수 있다.
상기 제1 프로세서는 상기 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 상기 제1 객체의 위치 확률 정보에 기초하여 변경할 수 있다.
상기 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치는
Figure 112014109521287-pat00033
를 평균하여 산출되고,
Figure 112014109521287-pat00034
는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
Figure 112014109521287-pat00035
은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
Figure 112014109521287-pat00036
이고,
Figure 112014109521287-pat00037
일 수 있다.
본 발명의 다른 실시예에 따른 카메라 촬영 방법은 제1 프로세서가 제1 그룹에 속하는 복수의 카메라의 촬영 각도 및 이동에 대한 위치를 상기 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 단계를 포함한다.
상기 제1 그룹에 속하는 카메라의 촬영 각도 및 이동에 대한 위치는
Figure 112014109521287-pat00038
를 평균하여 산출되고,
Figure 112014109521287-pat00039
는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
Figure 112014109521287-pat00040
은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
Figure 112014109521287-pat00041
이고,
Figure 112014109521287-pat00042
일 수 있다.
이와 같이 본 발명의 실시예에 따른 카메라 촬영 시스템 및 방법에 따르면, 현재 객체의 상태나 위치에 따라 최적의 카메라만 구동되도록 복수의 카메라의 온오프를 실시간으로 제어할 수 있는 장점이 있다.
그리고, 하나의 프로세서에 복수의 카메라를 연결할 수 있기 때문에 비용 문제를 해결할 수 있으며, 모든 카메라를 구동시키는 것이 아니라 최적의 카메라만 구동시키기 때문에 연산 시간을 줄일 수 있는 장점이 있다.
게다가, 카메라의 좌우 회전이나 좌우 이동에 따른 위치 조정을 통해 비교적 소수의 카메라로 광범위한 영역을 인식할 수 있으며, 이때, 최적의 카메라 위치를 실시간으로 결정하여 변경할 수 있는 장점이 있다.
도 1은 본 발명의 실시예에 따른 카메라 촬영 시스템의 구성도이다.
도 2는 도 1에 도시한 제1 및 제2 프로세서의 상세 구성도이다.
도 3은 객체의 이동에 따른 카메라의 좌우 회전을 보여주는 도면이다.
도 4는 객체의 이동에 따른 카메라의 좌우 이동을 보여주는 도면이다.
도 5는 본 발명의 실시예에 따른 카메라 촬영 과정을 보여주는 동작 흐름도이다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 카메라 촬영 시스템의 구성도 및 도 2는 도 1에 도시한 제1 및 제2 프로세서의 상세 구성도를 나타낸다.
도 1 및 도 2에 도시한 바와 같이, 카메라 촬영 시스템(1)은 제1 그룹에 속하는 복수의 카메라(10a~10n)의 온오프(ON/OFF)를 제어하는 제1 프로세서(100) 및 제2 그룹에 속하는 복수의 카메라(20a~20n)의 온오프(ON/OFF)를 제어하는 제2 프로세서(200)를 포함하여 구성된다.
복수의 카메라(10a~10n, 20a~20n)는 미리 정해진 각도의 범위 내에서 좌우 회전 가능하게 구비되거나 미리 정해진 거리의 범위 내에서 좌우 이동 가능하게 구비될 수 있다. 복수의 카메라(10a~10n, 20a~20n)는 바퀴 및 레일 등과 같이 카메라를 이동시킬 수 있는 다양한 부재를 이용하여 좌우 이동될 수 있다.
복수의 카메라(10a~10n, 20a~20n)는 미리 정해진 간격으로 배열되어 자신의 촬영 영역에 위치하는 객체(30: 30a~30n)를 촬영하고, 촬영된 객체 영상을 자신이 속하는 제1 프로세서(100) 또는 제2 프로세서(200)에 전달할 수 있다. 복수의 카메라(10a~10n, 20a~20n)는 복수의 객체(30a~30n)를 촬영하거나 광범위한 영역을 인식하기 위하여 좁은 간격으로 설치될 수 있다.
복수의 카메라(10a~10n, 20a~20n)는 별도의 컨트롤러(controller) 없이 사람이나 물체의 이동을 감지하여 읽어낼 수 있는 키넥트(kinect) 등으로 이루어질 수 있다.
제1 프로세서(100)는 제1 산출부(120), 제1 구동 제어부(140) 및 제1 통신부(160)를 포함하며, 제1 그룹에 속하는 복수의 카메라(10a~10n)의 온오프를 카메라(10a~10n)로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어할 수 있다.
보다 자세하게는, 제1 산출부(120)는 제1 그룹에 속하는 복수의 카메라마다 제1 객체의 위치 확률 정보를 산출할 수 있다. 제1 산출부(120)는 제1 그룹에 속하는 모든 카메라(10a~10n)마다 제1 객체의 위치 확률 정보를 산출하여 총 n개에 해당하는 제1 객체의 위치 확률 정보를 획득할 수 있거나 객체의 위치에 대응하는 카메라에 대해서만 제1 객체의 위치 확률 정보를 산출할 수 있다. 예컨대, 제1 그룹에 속하고 서로 이웃하는 제1 카메라(10a) 및 제2 카메라(10b) 간의 카메라 중첩 영역에 객체가 위치하면, 제1 산출부(120)는 제1 카메라(10a)와 제2 카메라(10b)에 각각 대응하는 제1 객체의 위치 확률 정보를 산출하여 2개에 해당하는 제1 객체의 위치 확률 정보를 획득할 수 있다.
제1 산출부(120)는 객체의 위치, 제1 그룹에 속하는 카메라의 위치 및 제1 그룹에 속하는 카메라의 촬영 영역 등에 기초하여 다음 (수학식 1)과 같이 제1 객체의 위치 확률 정보를 산출할 수 있다. 여기서, 제1 객체의 위치 확률 정보는 객체가 관찰되었는데, 그것이 제1 그룹에 속하는 복수의 카메라 중 해당 카메라(j번째 카메라)에서 발생했을 확률을 나타낸다.
(수학식 1)
Figure 112014109521287-pat00043
zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고, K는 제1 그룹에 속하는 카메라의 개수,
Figure 112014109521287-pat00044
는 객체의 위치,
Figure 112014109521287-pat00045
는 제1 그룹에 속하는 카메라의 위치로 보다 자세하게는
Figure 112014109521287-pat00046
,
Figure 112014109521287-pat00047
는 제1 그룹에 속하는 카메라의 촬영 영역으로 보다 자세하게는
Figure 112014109521287-pat00048
,
Figure 112014109521287-pat00049
은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치할 확률(
Figure 112014109521287-pat00050
),
Figure 112014109521287-pat00051
은 제1 그룹에 속하는 k번째 카메라의 촬영 영역에 객체가 위치할 확률,
Figure 112014109521287-pat00052
Figure 112014109521287-pat00053
이다.
여기서, 객체의 위치나 제1 그룹에 속하는 카메라의 위치는 소정의 기준점을 기준으로 정해질 수 있으며, 소정의 기준점은 카메라가 설치된 환경, 상태, 조건 등에 따라 변경될 수 있음은 물론이다.
초기 객체의 인식 과정부터 제1 객체의 위치 확률 정보를 산출하는 과정에 대하여 예를 들어 설명하면, 제1 그룹에 속하는 복수의 카메라(10a~10n)가 미리 정해진 간격으로 설치된 상태에서 제1 그룹에 속하는 복수의 카메라(10a~10n)는 동시에 또는 연속적으로 객체를 스캔하여 객체의 초기 위치가 인식되도록 한다. 그러면, 제1 산출부(120)는 인식된 객체의 초기 위치, 초기에 설정된 카메라의 위치 및 미리 정해진 카메라의 촬영 영역을 (수학식 1)에 대입하여 제1 객체의 위치 확률 정보를 산출할 수 있게 된다. 그리고, 객체가 이동하거나 새로운 객체가 추가되어 객체의 위치 및 카메라의 위치가 변경될 때마다 제1 산출부(120)는 변경된 객체의 위치나 카메라의 위치를 이용하여 제1 객체의 위치 확률 정보를 산출할 수 있다.
제1 구동 제어부(140)는 산출된 제1 객체의 위치 확률 정보가 미리 정해진 조건에 해당되는 카메라를 온(ON) 시킬 수 있다. 예컨대, 제1 그룹에 속하는 전체 카메라에 대하여 제1 객체의 위치 확률 정보가 산출되면, 제1 구동 제어부(140)는 n개의 제1 객체의 위치 확률 정보 중에서 제1 객체의 위치 확률 정보가 최대인 카메라를 객체 촬영 카메라로 선택하여 온(ON) 시키고, 나머지 카메라는 오프(OFF) 시킬 수 있다.
이와 같이, 미리 정해진 조건은 제1 객체의 위치 확률 정보가 최대인 경우를 나타낼 수 있으며, 상황에 따라 다양한 조건으로 이루어질 수 있다.
제1 구동 제어부(140)는 제1 그룹에 속하고 서로 이웃하는 제1 카메라(10a)와 제2 카메라(10b) 간의 카메라 중첩 영역에 객체가 위치하면, 제1 카메라(10a)의 제1 객체의 위치 확률 정보와 제2 카메라(10b)의 제1 객체의 위치 확률 정보 중에서 큰 값을 가지는 카메라를 온(ON) 시킬 수 있다. 즉, 두 개의 카메라 중첩 영역에서 하나의 객체가 인식되면, 제1 구동 제어부(140)는 두 개의 카메라(10a, 10b)를 모두 온 시키는 것이 아니라 두 개의 카메라(10a, 10b) 중에서 제1 객체의 위치 확률 정보가 상대적으로 큰 하나의 카메라만을 온 시키기 때문에 카메라의 구동에 따른 에너지 소비를 줄이며, 카메라 촬영 시스템을 보다 효율적으로 운영할 수 있다.
그리고, 제1 카메라(10a)가 온(ON) 되어 객체를 촬영하고 있는 상태에서 객체가 제1 카메라(10a)와 제2 카메라(10b)의 카메라 중첩 영역으로 이동하면, 제1 산출부(120)에서 제1 카메라(10a)의 제1 객체의 위치 확률 정보와 제2 카메라(10b)의 제1 객체의 위치 확률 정보를 각각 산출하는데, 산출된 제1 카메라(10a)의 제1 객체의 위치 확률 정보와 제2 카메라(10b)의 제1 객체의 위치 확률 정보가 동일하면, 제1 구동 제어부(140)는 제2 카메라(10b)를 온 시키는 것이 아니라 기존에 촬영하고 있던 제1 카메라(10a)의 온을 유지시킴으로써 카메라를 최적의 효율로 구동시킬 수 있다.
이와 같이, 하나의 프로세서에 복수의 카메라를 연결할 수 있기 때문에 프로세서의 구입에 따른 비용 문제를 해결할 수 있으며, 모든 카메라를 구동시키는 것이 아니라 최적의 카메라만 구동시키기 때문에 연산 시간을 줄일 수 있다.
제1 통신부(160)는 제2 프로세서(200)와 통신하여 각종 정보나 데이터를 교환할 수 있다. 특히, 본 발명의 실시예에 따른 제1 통신부(160)는 객체가 제1 그룹에 속하는 카메라의 촬영 영역에서 제2 그룹에 속하는 카메라의 촬영 영역으로 이동하거나 제1 그룹에 속하는 카메라와 제2 그룹에 속하는 카메라 간의 카메라 중첩 영역에 존재할 경우, 제1 산출부(120)에서 산출된 제1 객체의 위치 확률 정보를 제2 프로세서(200)로 전달할 수 있다.
제1 통신부(160)는 객체가 제2 그룹에 속하는 카메라의 촬영 영역에서 제1 그룹에 속하는 카메라의 촬영 영역으로 이동하거나 제1 그룹에 속하는 카메라와 제2 그룹에 속하는 카메라 간의 카메라 중첩 영역에 존재할 경우, 제2 프로세서(200)로부터 제2 객체의 위치 확률 정보를 전달 받아 제1 그룹에 속하는 최적의 카메라를 선택하는데 이용할 수 있다.
도 3은 객체의 이동에 따른 카메라의 좌우 회전을 보여주는 도면 및 도 4는 객체의 이동에 따른 카메라의 좌우 이동을 보여주는 도면을 나타낸다.
도 3 및 도 4를 참조하면, 제1 프로세서(100)는 카메라의 회전 각도 및 이동에 대한 위치를 제1 객체의 위치 확률 정보에 기초하여 변경할 수 있다. 여기서, 카메라의 회전 각도 및 이동에 대한 위치는 카메라의 좌우 회전에 의한 위치와 카메라의 좌우 이동에 의한 위치를 포함할 수 있다. 도 3에서와 같이, 카메라가 좌우 회전만 가능할 경우 카메라의 위치는 카메라의 회전 각도에 대한 위치일 수 있으며, 도 4에서와 같이, 카메라가 좌우 이동만 가능할 경우, 카메라의 위치는 카메라의 이동에 대한 위치일 수 있다. 그리고, 카메라가 좌우 회전과 좌우 이동이 모두 가능할 경우, 카메라의 위치는 카메라의 회전 각도와 카메라의 이동을 모두 포함할 수 있다.
이와 같이, 카메라의 위치는 카메라가 설치된 환경 및 조건 등에 따라 선택적으로 변경될 수 있다.
보다 자세하게는, 제1 산출부(120)는 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 제1 객체의 위치 확률 정보에 기초하여 산출할 수 있다. 즉, 제1 산출부(120)는 EM(Expectation Maximization) 알고리즘을 바탕으로 객체의 위치가 이동되거나 새로운 객체가 추가될 때마다 제1 객체의 위치 확률 정보에 기초하여 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 새로 산출할 수 있다.
제1 산출부(120)는 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 다음 (수학식 2)를 평균하여 산출할 수 있다. 제1 산출부(120)는 카메라가 좌우 회전만 가능할 경우, 카메라의 회전 각도에 대한 위치를 산출할 수 있으며, 카메라가 좌우 이동만 가능할 경우, 카메라의 이동에 대한 위치를 산출할 수 있다. 그리고, 카메라가 좌우 회전과 좌우 이동이 모두 가능할 경우, 제1 산출부(120)는 카메라의 회전 각도와 카메라의 이동을 모두 포함한 위치를 산출할 수 있다.
(수학식 2)
Figure 112014109521287-pat00054
Figure 112014109521287-pat00055
는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
Figure 112014109521287-pat00056
은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
Figure 112014109521287-pat00057
이고,
Figure 112014109521287-pat00058
이다.
제1 구동 제어부(140)는 산출된 카메라의 회전 각도 및 이동에 대한 위치에 따라 카메라의 실제 위치를 제어할 수 있다. 즉, 제1 구동 제어부(140)는 산출된 카메라의 회전 각도 및 이동에 대한 위치에 따라 카메라의 좌우 회전하여 회전 각도를 조절하거나 좌우 이동하여 좌우 위치를 변경할 수 있다.
예컨대, 객체를 초기에 촬영할 경우에는 카메라의 초기 위치가 미리 정해져 있으나, 객체가 이동하거나 새로운 객체가 추가되면 이를 촬영하는 카메라의 위치도 최적으로 조정되야 하므로 제1 산출부(120)는 제1 객체의 위치 확률 정보에 기초하여 카메라의 회전 각도 및 이동에 대한 위치를 산출하고, 제1 구동 제어부(140)는 산출된 카메라의 회전 각도 및 이동에 대한 위치에 따라 카메라의 위치를 최적으로 변경할 수 있다.
이와 같이, 카메라의 회전 각도 및 이동에 대한 위치를 이용하여 카메라를 최적의 위치로 조정하여 비교적 소수의 카메라로 광범위한 영역에 대해서도 객체의 인식을 보다 효과적으로 수행할 수 있다.
제2 프로세서(200)는 제2 산출부(220), 제2 구동 제어부(240) 및 제2 통신부(260)를 포함하며, 제2 그룹에 속하는 복수의 카메라(20a~20n)의 온오프를 카메라(20a~20n)로부터 인식된 제2 객체의 위치 확률 정보에 기초하여 제어할 수 있다. 여기서, 제2 프로세서(200)는 제1 프로세서(100)와 동일한 동작을 수행하는 구성요소에 대한 설명은 생략하도록 한다.
제2 산출부(220)는 제2 그룹에 속하는 복수의 카메라마다 제2 객체의 위치 확률 정보를 산출할 수 있다. 제2 산출부(220)는 객체의 위치, 제2 그룹에 속하는 카메라의 위치 및 제2 그룹에 속하는 카메라의 촬영 영역 등에 기초하여 제2 객체의 위치 확률 정보를 산출할 수 있다.
제2 구동 제어부(240)는 산출된 제2 객체의 위치 확률 정보가 미리 정해진 조건에 해당되는 카메라를 온(ON) 시킬 수 있다.
제2 통신부(260)는 객체가 제2 그룹에 속하는 카메라의 촬영 영역에서 제1 그룹에 속하는 카메라의 촬영 영역으로 이동하거나 제2 그룹에 속하는 카메라와 제1 그룹에 속하는 카메라 간의 카메라 중첩 영역에 존재할 경우, 제2 산출부(220)에서 산출된 제2 객체의 위치 확률 정보를 제1 통신부(160)에 전달할 수 있다.
제2 통신부(260)는 객체가 제1 그룹에 속하는 카메라의 촬영 영역에서 제2 그룹에 속하는 카메라의 촬영 영역으로 이동하거나 제2 그룹에 속하는 카메라와 제1 그룹에 속하는 카메라 간의 카메라 중첩 영역에 존재할 경우, 제1 통신부(160)로부터 제1 객체의 위치 확률 정보를 전달 받아 제2 그룹에 속하는 최적의 카메라를 선택하는데 이용할 수 있다.
이하에서는 본 발명의 실시예에 따른 카메라 촬영 방법에 대하여 설명하도록 한다.
도 5는 본 발명의 실시예에 따른 카메라 촬영 과정을 보여주는 동작 흐름도를 나타낸다.
도 5를 참조하면, 제1 그룹에 속하는 복수의 카메라(10a~10n)의 온오프(ON/OFF)를 제어하는 제1 프로세서(100) 및 제2 그룹에 속하는 복수의 카메라(20a~20n)의 온오프(ON/OFF)를 제어하는 제2 프로세서(200)를 포함하는 카메라 촬영 시스템(1)에서 제1 프로세서(100)는 제1 그룹에 속하는 복수의 카메라마다 제1 객체의 위치 확률 정보를 산출할 수 있다(S500).
보다 자세하게는, 제1 프로세서(100)는 제1 그룹에 속하는 모든 카메라(10a~10n)마다 제1 객체의 위치 확률 정보를 산출하여 총 n개에 해당하는 제1 객체의 위치 확률 정보를 획득할 수 있거나 객체의 위치에 대응하는 카메라에 대해서만 제1 객체의 위치 확률 정보를 산출할 수 있다. 예컨대, 제1 그룹에 속하고 서로 이웃하는 제1 카메라(10a) 및 제2 카메라(10b) 간의 카메라 중첩 영역에 객체가 위치하면, 제1 프로세서(100)는 제1 카메라(10a)와 제2 카메라(10b)에 각각 대응하는 제1 객체의 위치 확률 정보를 산출하여 2개에 해당하는 제1 객체의 위치 확률 정보를 획득할 수 있다.
제1 프로세서(100)는 객체의 위치, 제1 그룹에 속하는 카메라의 위치 및 제1 그룹에 속하는 카메라의 촬영 영역 등에 기초하여 다음 (수학식 1)과 같이 제1 객체의 위치 확률 정보를 산출할 수 있다. 여기서, 제1 객체의 위치 확률 정보는 객체가 관찰되었는데, 그것이 제1 그룹에 속하는 복수의 카메라 중 해당 카메라(j번째 카메라)에서 발생했을 확률을 나타낸다.
(수학식 1)
Figure 112014109521287-pat00059
zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고, K는 제1 그룹에 속하는 카메라의 개수,
Figure 112014109521287-pat00060
는 객체의 위치,
Figure 112014109521287-pat00061
는 제1 그룹에 속하는 카메라의 위치로 보다 자세하게는
Figure 112014109521287-pat00062
,
Figure 112014109521287-pat00063
는 제1 그룹에 속하는 카메라의 촬영 영역으로 보다 자세하게는
Figure 112014109521287-pat00064
,
Figure 112014109521287-pat00065
은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치할 확률(
Figure 112014109521287-pat00066
),
Figure 112014109521287-pat00067
은 제1 그룹에 속하는 k번째 카메라의 촬영 영역에 객체가 위치할 확률,
Figure 112014109521287-pat00068
Figure 112014109521287-pat00069
이다.
여기서, 객체의 위치나 제1 그룹에 속하는 카메라의 위치는 소정의 기준점을 기준으로 정해질 수 있으며, 소정의 기준점은 카메라가 설치된 환경, 상태, 조건 등에 따라 변경될 수 있음은 물론이다.
그리고, 제1 프로세서(100)는 복수의 제1 객체의 위치 확률 정보 중에서 제1 객체의 위치 확률 정보가 최대인 카메라를 객체 촬영 카메라로 선택(S510)하고, 선택된 카메라에 전원을 인가하여 온(ON) 시킬 수 있다(S520).
예컨대, 제1 그룹에 속하는 전체 카메라에 대하여 제1 객체의 위치 확률 정보가 산출되면, 제1 구동 제어부(140)는 n개의 제1 객체의 위치 확률 정보 중에서 제1 객체의 위치 확률 정보가 최대인 카메라를 객체 촬영 카메라로 선택하여 온(ON) 시키고, 나머지 카메라는 오프(OFF) 시킬 수 있다.
제1 프로세서(100)는 제1 그룹에 속하고 서로 이웃하는 제1 카메라(10a)와 제2 카메라(10b) 간의 카메라 중첩 영역에 객체가 위치하면, 제1 카메라(10a)의 제1 객체의 위치 확률 정보와 제2 카메라(10b)의 제1 객체의 위치 확률 정보 중에서 큰 값을 가지는 카메라를 온(ON) 시킬 수 있다. 즉, 두 개의 카메라 중첩 영역에서 하나의 객체가 인식되면, 제1 프로세서(100)는 두 개의 카메라(10a, 10b)를 모두 온 시키는 것이 아니라 두 개의 카메라(10a, 10b) 중에서 제1 객체의 위치 확률 정보가 상대적으로 큰 하나의 카메라만을 온 시키기 때문에 카메라의 구동에 따른 에너지 소비를 줄이며, 카메라 촬영 시스템을 보다 효율적으로 운영할 수 있다.
그리고, 제1 카메라(10a)가 온(ON) 되어 객체를 촬영하고 있는 상태에서 객체가 제1 카메라(10a)와 제2 카메라(10b)의 카메라 중첩 영역으로 이동하면, 제1 카메라(10a)의 제1 객체의 위치 확률 정보와 제2 카메라(10b)의 제1 객체의 위치 확률 정보를 각각 산출하는데, 산출된 제1 카메라(10a)의 제1 객체의 위치 확률 정보와 제2 카메라(10b)의 제1 객체의 위치 확률 정보가 동일하면, 제2 카메라(10b)를 온 시키는 것이 아니라 기존에 촬영하고 있던 제1 카메라(10a)의 온을 유지시킴으로써 카메라를 최적의 효율로 구동시킬 수 있다.
게다가, 제1 프로세서(100)는 제2 프로세서(200)와 통신하여 각종 정보나 데이터를 교환할 수 있다. 특히, 본 발명의 실시예에 따른 제1 프로세서(100)는 객체가 제1 그룹에 속하는 카메라의 촬영 영역에서 제2 그룹에 속하는 카메라의 촬영 영역으로 이동하거나 제1 그룹에 속하는 카메라와 제2 그룹에 속하는 카메라 간의 카메라 중첩 영역에 존재할 경우, 산출된 제1 객체의 위치 확률 정보를 제2 프로세서(200)로 전달할 수 있다.
한편, 제1 프로세서(100)는 카메라의 회전 각도 및 이동에 대한 위치를 제1 객체의 위치 확률 정보에 기초하여 변경할 수 있다.
보다 자세하게는, 제1 프로세서(100)는 EM(Expectation Maximization) 알고리즘을 바탕으로 객체의 위치가 이동되거나 새로운 객체가 추가될 때마다 제1 객체의 위치 확률 정보에 기초하여 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 새로 산출할 수 있다.
즉, 제1 프로세서(100)는 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 다음 (수학식 2)를 평균하여 산출할 수 있다. 제1 프로세서(100)는 카메라가 좌우 회전만 가능할 경우, 카메라의 회전 각도에 대한 위치를 산출할 수 있으며, 카메라가 좌우 이동만 가능할 경우, 카메라의 이동에 대한 위치를 산출할 수 있다. 그리고, 카메라가 좌우 회전과 좌우 이동이 모두 가능할 경우, 제1 산출부(120)는 카메라의 회전 각도와 카메라의 이동을 모두 포함한 위치를 산출할 수 있다.
(수학식 2)
Figure 112014109521287-pat00070
Figure 112014109521287-pat00071
는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
Figure 112014109521287-pat00072
은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
Figure 112014109521287-pat00073
이고,
Figure 112014109521287-pat00074
이다.
그리고, 제1 프로세서(100)는 산출된 카메라의 회전 각도 및 이동에 대한 위치에 따라 카메라의 실제 위치를 제어할 수 있다. 즉, 제1 프로세서(100)는 산출된 카메라의 회전 각도 및 이동에 대한 위치에 따라 카메라의 좌우 회전하여 회전 각도를 조절하거나 좌우 이동하여 좌우 위치를 변경할 수 있다.
예컨대, 객체를 초기에 촬영할 경우에는 카메라의 초기 위치가 미리 정해져 있으나, 객체가 이동하거나 새로운 객체가 추가되면 이를 촬영하는 카메라의 위치도 최적으로 조정되야 하므로 제1 객체의 위치 확률 정보에 기초하여 카메라의 회전 각도 및 이동에 대한 위치를 산출하고, 산출된 카메라의 회전 각도 및 이동에 대한 위치에 따라 카메라의 위치를 최적으로 변경할 수 있다.
이와 같이, 카메라의 회전 각도 및 이동에 대한 위치를 이용하여 카메라를 최적의 위치로 조정하여 비교적 소수의 카메라로 광범위한 영역에 대해서도 객체의 인식을 보다 효과적으로 수행할 수 있다.
본 발명의 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 카메라 촬영 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
1: 카메라 촬영 시스템
100: 제1 프로세서 120: 제1 산출부
140: 제1 구동 제어부 160: 제1 통신부
200: 제2 프로세서 220: 제2 산출부
240: 제2 구동 제어부 260: 제2 통신부

Claims (18)

  1. 제1 그룹에 속하는 복수의 카메라의 온오프를 상기 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 제1 프로세서를 포함하고,
    상기 제1 객체의 위치 확률 정보는,
    Figure 112015102169582-pat00122

    로 산출되고,
    zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고, K는 제1 그룹에 속하는 카메라의 개수,
    Figure 112015102169582-pat00123
    는 객체의 위치,
    Figure 112015102169582-pat00124
    는 제1 그룹에 속하는 카메라의 위치로 보다 자세하게는
    Figure 112015102169582-pat00125
    ,
    Figure 112015102169582-pat00126
    는 제1 그룹에 속하는 카메라의 촬영 영역으로 보다 자세하게는
    Figure 112015102169582-pat00127
    ,
    Figure 112015102169582-pat00128
    은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치할 확률(
    Figure 112015102169582-pat00129
    ),
    Figure 112015102169582-pat00130
    은 제1 그룹에 속하는 k번째 카메라의 촬영 영역에 객체가 위치할 확률,
    Figure 112015102169582-pat00131
    Figure 112015102169582-pat00132
    인 카메라 촬영 시스템.
  2. 제 1 항에서,
    제2 그룹에 속하는 복수의 카메라의 온오프를 상기 제2 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제2 객체의 위치 확률 정보에 기초하여 제어하는 제2 프로세서를 더 포함하고,
    상기 제1 프로세서 및 상기 제2 프로세서는,
    상기 제1 객체 또는 상기 제2 객체의 위치 확률 정보를 교환하고, 상기 교환된 제1 객체 또는 제2 객체의 위치 확률 정보를 기초로 각각에 속하는 상기 카메라의 온오프를 제어하는 카메라 촬영 시스템.
  3. 제 1 항에서,
    상기 제1 프로세서는,
    상기 제1 객체의 위치 확률 정보를 상기 제1 그룹에 속하는 복수의 카메라마다 산출하고, 상기 산출된 제1 객체의 위치 확률 정보가 미리 정해진 조건에 해당되는 카메라를 온 시키는 카메라 촬영 시스템.
  4. 제 1 항에서,
    상기 제1 프로세서는,
    상기 제1 그룹에 속하고 서로 이웃하는 제1 카메라와 제2 카메라 간의 카메라 중첩 영역에 객체가 위치하면, 상기 제1 카메라의 제1 객체의 위치 확률 정보와 상기 제2 카메라의 제1 객체의 위치 확률 정보 중에서 큰 값을 가지는 카메라를 온 시키는 카메라 촬영 시스템.
  5. 삭제
  6. 제 1 항에서,
    상기 제1 프로세서는,
    상기 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 상기 제1 객체의 위치 확률 정보에 기초하여 변경하는 카메라 촬영 시스템.
  7. 제 6 항에서,
    상기 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치는,
    Figure 112014109521287-pat00086

    를 평균하여 산출되고,
    Figure 112014109521287-pat00087
    는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
    Figure 112014109521287-pat00088
    은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
    Figure 112014109521287-pat00089
    이고,
    Figure 112014109521287-pat00090
    인 카메라 촬영 시스템.
  8. 제1 그룹에 속하는 복수의 카메라의 촬영 각도 및 이동에 대한 위치를 상기 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 제1 프로세서를 포함하고,
    상기 제1 그룹에 속하는 카메라의 촬영 각도 및 이동에 대한 위치는,
    Figure 112015102169582-pat00133

    를 평균하여 산출되고,
    Figure 112015102169582-pat00134
    는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
    Figure 112015102169582-pat00135
    은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
    Figure 112015102169582-pat00136
    이고,
    Figure 112015102169582-pat00137
    인 카메라 촬영 시스템.
  9. 삭제
  10. 제1 프로세서가 제1 그룹에 속하는 복수의 카메라의 온오프를 상기 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 단계를 포함하고,
    상기 제1 객체의 위치 확률 정보는,
    Figure 112015102169582-pat00138

    로 산출되고,
    zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고, K는 제1 그룹에 속하는 카메라의 개수,
    Figure 112015102169582-pat00139
    는 객체의 위치,
    Figure 112015102169582-pat00140
    는 제1 그룹에 속하는 카메라의 위치로 보다 자세하게는
    Figure 112015102169582-pat00141
    ,
    Figure 112015102169582-pat00142
    는 제1 그룹에 속하는 카메라의 촬영 영역으로 보다 자세하게는
    Figure 112015102169582-pat00143
    ,
    Figure 112015102169582-pat00144
    은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치할 확률(
    Figure 112015102169582-pat00145
    ),
    Figure 112015102169582-pat00146
    은 제1 그룹에 속하는 k번째 카메라의 촬영 영역에 객체가 위치할 확률,
    Figure 112015102169582-pat00147
    Figure 112015102169582-pat00148
    인 카메라 촬영 방법.
  11. 제 10 항에서,
    제2 프로세서가 제2 그룹에 속하는 복수의 카메라의 온오프를 상기 제2 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제2 객체의 위치 확률 정보에 기초하여 제어하는 단계를 더 포함하고,
    상기 제1 프로세서 및 상기 제2 프로세서는,
    상기 제1 객체 또는 상기 제2 객체의 위치 확률 정보를 교환하고, 상기 교환된 제1 객체 또는 제2 객체의 위치 확률 정보를 기초로 각각에 속하는 상기 카메라의 온오프를 제어하는 카메라 촬영 방법.
  12. 제 10 항에서,
    상기 제1 프로세서는,
    상기 제1 객체의 위치 확률 정보를 상기 제1 그룹에 속하는 복수의 카메라마다 산출하고, 상기 산출된 제1 객체의 위치 확률 정보가 미리 정해진 조건에 해당되는 카메라를 온 시키는 카메라 촬영 방법.
  13. 제 10 항에서,
    상기 제1 프로세서는,
    상기 제1 그룹에 속하고 서로 이웃하는 제1 카메라와 제2 카메라 간의 카메라 중첩 영역에 객체가 위치하면, 상기 제1 카메라의 제1 객체의 위치 확률 정보와 상기 제2 카메라의 제1 객체의 위치 확률 정보 중에서 큰 값을 가지는 카메라를 온 시키는 카메라 촬영 방법.
  14. 삭제
  15. 제 10 항에서,
    상기 제1 프로세서는,
    상기 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치를 상기 제1 객체의 위치 확률 정보에 기초하여 변경하는 카메라 촬영 방법.
  16. 제 15 항에서,
    상기 제1 그룹에 속하는 카메라의 회전 각도 및 이동에 대한 위치는,
    Figure 112014109521287-pat00107

    를 평균하여 산출되고,
    Figure 112014109521287-pat00108
    는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
    Figure 112014109521287-pat00109
    은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
    Figure 112014109521287-pat00110
    이고,
    Figure 112014109521287-pat00111
    인 카메라 촬영 방법.
  17. 제1 프로세서가 제1 그룹에 속하는 복수의 카메라의 촬영 각도 및 이동에 대한 위치를 상기 제1 그룹에 속하는 복수의 카메라 중 적어도 하나의 카메라로부터 인식된 제1 객체의 위치 확률 정보에 기초하여 제어하는 단계를 포함하고,
    상기 제1 그룹에 속하는 카메라의 촬영 각도 및 이동에 대한 위치는,
    Figure 112015102169582-pat00112

    를 평균하여 산출되고,
    Figure 112015102169582-pat00113
    는 객체의 위치, zj=1은 제1 그룹에 속하는 j번째 카메라의 촬영 영역에 객체가 위치하는 경우를 나타내고,
    Figure 112015102169582-pat00114
    은 객체가 관찰되었는데 그것이 제1 그룹에 속하는 j번째 카메라의 촬영 영역에서 발생되었을 확률로,
    Figure 112015102169582-pat00115
    이고,
    Figure 112015102169582-pat00116
    인 카메라 촬영 방법.
  18. 삭제
KR1020140158321A 2014-11-13 2014-11-13 카메라 촬영 시스템 및 방법 KR101573755B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140158321A KR101573755B1 (ko) 2014-11-13 2014-11-13 카메라 촬영 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140158321A KR101573755B1 (ko) 2014-11-13 2014-11-13 카메라 촬영 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR101573755B1 true KR101573755B1 (ko) 2015-12-04

Family

ID=54867656

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140158321A KR101573755B1 (ko) 2014-11-13 2014-11-13 카메라 촬영 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101573755B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100825403B1 (ko) 2007-07-04 2008-04-29 (주)굿벨 보안 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100825403B1 (ko) 2007-07-04 2008-04-29 (주)굿벨 보안 시스템

Similar Documents

Publication Publication Date Title
WO2021022580A1 (zh) 一种自动跟踪拍摄方法及系统
CN106778471B (zh) 自动跟踪购物车
CN108469823B (zh) 一种基于单应性的移动机器人编队跟随方法
US20210258470A1 (en) Mobile body and control method
CN105744163A (zh) 一种基于深度信息跟踪对焦的摄像机及摄像方法
CN108600620B (zh) 一种基于电液可调焦镜头的移动机器人的目标跟踪方法
JP2009516480A5 (ko)
CN104410797A (zh) 天体缩时摄影的设备和方法
CN108156371B (zh) 一种红外自动对焦快速搜索方法
KR102008503B1 (ko) 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
TWI691208B (zh) 改良之監視攝影機方向控制
JP6257308B2 (ja) 自動追尾撮影システム
US20110304730A1 (en) Pan, tilt, and zoom camera and method for aiming ptz camera
KR101573755B1 (ko) 카메라 촬영 시스템 및 방법
JP2011211598A (ja) 撮像システムおよび撮像装置
CN102566594B (zh) 基于微视觉反馈的微构件声操纵二维平移方法
CN107437071B (zh) 一种基于双黄线检测的机器人自主巡检方法
CN103365294A (zh) 无人飞行载具控制系统及方法
CN111380535A (zh) 基于视觉标签的导航方法、装置、移动式机器及可读介质
KR20210054347A (ko) 영상 기반 경로 인식 및 조향각 산출 기술을 지원하는 자율 주행 농기계 장치 및 그 동작 방법
Janani et al. Multi-agent cooperative area coverage: Case study ploughing
WO2022253119A1 (zh) 自移动设备及躲避障碍的控制方法、存储介质
WO2020019113A1 (zh) 移动机器人的控制方法、装置及移动机器人系统
KR101380123B1 (ko) 스마트 로봇용 위치 인식 장치
JP7237625B2 (ja) 移動体、及び画像補正装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181002

Year of fee payment: 4