KR20020077255A - 촬상장치의 시야 제어방법과 장치 및 그것을 위한컴퓨터프로그램 - Google Patents

촬상장치의 시야 제어방법과 장치 및 그것을 위한컴퓨터프로그램 Download PDF

Info

Publication number
KR20020077255A
KR20020077255A KR1020020017380A KR20020017380A KR20020077255A KR 20020077255 A KR20020077255 A KR 20020077255A KR 1020020017380 A KR1020020017380 A KR 1020020017380A KR 20020017380 A KR20020017380 A KR 20020017380A KR 20020077255 A KR20020077255 A KR 20020077255A
Authority
KR
South Korea
Prior art keywords
image
imaging device
control
driving
imaging
Prior art date
Application number
KR1020020017380A
Other languages
English (en)
Other versions
KR100452100B1 (ko
Inventor
이토와타루
우에다히로타다
Original Assignee
가부시키가이샤 히다치 고쿠사이 덴키
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 히다치 고쿠사이 덴키 filed Critical 가부시키가이샤 히다치 고쿠사이 덴키
Publication of KR20020077255A publication Critical patent/KR20020077255A/ko
Application granted granted Critical
Publication of KR100452100B1 publication Critical patent/KR100452100B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 수동조작기를 사용하여 촬상장치의 시야를 제어하는 장치는 촬상장치로부터의 영상신호를 화상데이터로 변환하는 화상입력인터페이스와, 상기 화상데이터를 기억하는 화상메모리와, 상기 화상데이터를 처리하는 화상처리유닛과, 상기 화상데이터에 상기 조작기에서 지시한 위치에 조작표식을 중첩하여 화상으로서 표시하는 표시장치와, 상기 화상처리유닛으로부터의 신호에 의하여 상기 촬상장치의 시야를 제어하는 제어장치를 구비하고, 상기 조작기는 상기 화상 위에 표시된 상기 조작표식을 이동하고, 상기 화상처리유닛은 상기 조작표식의 위치좌표에 의거하여 상기 촬상장치의 시야의 제어량을 산출하고, 상기 제어량에 따라 상기 시야를 제어하는 것이다.

Description

촬상장치의 시야 제어방법과 장치 및 그것을 위한 컴퓨터프로그램{METHOD AND APPARATUS FOR CONTROLLING A VIEW FIELD OF AN IMAGE PICKING-UP APPARATUS AND COMPUTER PROGRAM THEREFOR}
본 발명은 촬상장치의 시야를 제어하는 촬상장치 시야제어장치에 관한 것으로, 특히 화상 위를 이동하는 조작표식과 그 조작표식의 위치에 의거하여 촬상장치의 시야를 제어하도록 한 촬상장치 시야제어방법과 장치 및 프로그램에 관한 것이다.
제 1 종래기술을 도 5에 의하여 설명한다. 도 5는 카메라 등의 촬상장치에 설치된 운대(pan-tilt head) 등의 시야제어장치에 의하여 촬상장치의 시야방향을 제어하는 경우에, 시야 제어장치를 제어하기 위한 조작의 개요를 설명하기 위한 도면이다. 이 종래예에서는 조작수단의 조작에 연동하여 카메라 등의 촬상장치의 시야방향이 제어되도록 구성되어 있다. 즉 카메라 운대 조작장치는 조작수단의 조작에 따라 전동선회대인 카메라 운대를 조작하고, 카메라 운대에 설치되어 있는 카메라의 팬각도 또는 틸트각도 또는 양쪽을 변경하여 카메라시야방향을 제어한다.
도 5에 있어서 감시원(조작자)은 감시모니터 등의 표시장치의 화면상에 표시된 카메라영상(507)을 보면서 카메라 운대 조작장치(504)와 조이스틱 등의 조작수단 (505)을 사용하여 카메라 운대(503)를 조작하여 카메라(503a)의 시야방향을 제어하고, 탱크야드부지(501)내에 침입한 침입물체(502)를 감시하고 있다. 도 5에서는 카메라(503a)와 카메라 운대(503)를 하나의 도형으로서 표시하고 있다.
카메라 운대(503)에 설치된 카메라(503a)는 카메라시야방향을 중심으로 한 시야범위[카메라의 시야(506)]의 화상을 취득하여 그 화상을 카메라 운대 조작장치 (504)에 보낸다. 카메라 운대 조작장치(504)는 입력화상을 카메라 운대 조작장치 (504)에 내장된 감시모니터 또는 외부 부착의 감시모니터상의 화면에 카메라영상 (507)으로서 표시한다. 이 예에서는 카메라 운대 조작장치(504)는 카메라(503a)에서 취득한 화상을 다른 기기에 중계하는 기능을 가지고 있다.
감시원은 카메라영상(507)을 봄으로써 탱크야드부지(501)내에 침입물체(502)를 발견한 경우에 조작수단(505)을 조작한다. 조작수단(505)은 감시원의 조작에 따른 조작신호(예를 들면 조작방향을 지시하는 신호)를 발생하여 카메라 운대 조작장치 (504)에 보낸다. 카메라 운대 조작장치(504)는 받아 들인 조작신호에 의거하여 제어신호를 발생하여 카메라 운대(503)에 보낸다. 카메라 운대(503)는 받아 들인 제어신호에 의거하여 카메라 운대(503)의 팬모터 및 틸트모터를 제어하여 카메라(503a)의 카메라시야방향(시야각도)을 변경한다.
카메라시야각도의 변화에 따라 카메라의 시야(506)가 변경되어 카메라영상 (507)이 변경된다. 즉 카메라(503a)의 카메라시야방향이 변경되기 때문에 카메라 (503a)가 취득하는 카메라영상(507)이 변경된다.
여기서 팬각도를 변경하기 위한 팬모터와, 틸트각도를 변경하기 위한 틸트모터는 카메라 운대 조작장치(504)에 의하여 제어신호가 "온"인 상태의 동안에 회전하는 각도(제어량)가 예를 들면 각각 20°/sec로 설정된다. 이 제어량은 예를 들면 조작수단(505)에 부속하는 조작버튼[도 5에서는 2개의 버튼(505a, 505b)을 가지고 있는 조작수단(505)의 예를 나타내고 있음]에 의해 조작할 수 있도록 되어 있다.
예를 들면 버튼(505a)을 누르면서 조작수단(505)을 조작하면 10°/sec, 버튼(505b)을 누르면서 조작수단(505)을 조작하면 40°/sec의 제어량이라는 바와 같이 세밀한 제어량과 성긴 제어량으로 카메라 운대(503)의 팬모터 및 틸트모터가 제어된다. 또 어느쪽의 버튼도 누르지 않고 조작수단(505)을 조작하면 20°/sec의 제어량으로 팬모터 또는 틸트모터를 회전할 수 있다.
따라서 상기 제 1 종래기술에 의하면, 조작자에 의한 조작수단의 조작에 따라 카메라 등의 촬상장치의 촬상시야각도가 변경되어 카메라시야방향을 변경할 수 있다.
다음에 화면상에 표시되어 있는 방향버튼 등의 카메라 운대 조작버튼 도형을 마우스 등의 지시장치(포인팅디바이스)에 의해 선택함으로써 카메라시야방향을 제어하고, 조작수단을 사용하여 카메라시야를 조작하는 제 2 종래기술에 의한 촬상장치 시야제어장치를 도 5와 도 6에 의해 설명한다. 도 6은 감시모니터 등의 표시장치의 화면상에 카메라영상(602)[도 5에서는 카메라영상(507)]에 중첩시켜 카메라 운대 조작버튼 도형을 표시하도록 한 카메라 운대 조작장치의 표시화면(조작화면)의 개요를 설명하기 위한 도이다.
제 2 종래기술은 도 5의 카메라영상(507) 대신에 도 6에 나타내는 바와 같은 조작화면 (601)을 설치하고, 다른 부분[탱크야드부지(501), 침입물체(502), 카메라 (503a)와 카메라 운대(503), 카메라 운대 조작기(504), 조작수단(505)]은 도 5와 동일한 구성으로 한 것이다.
도 6에 있어서, 조작화면(601)에서는 카메라영상(602) 외에 조작수단(505)의 조작에 연동하여 화면상을 이동하는 조작표식(603)와 카메라 운대(503)를 조작하는 전용 GUI 조작버튼(GUI : Graphical User Interface)(604 내지 610)이 표시되어 있다. 조작수단(505)의 스틱을 상방향, 하방향, 좌방향, 우방향으로 조작하면, 그것에 연동하여 조작표식(603)도 상방향, 하방향, 좌방향, 우방향으로 이동한다. 또한 조작수단(505)의 스틱을 예를 들면 좌방향으로 조작하면 조작표식(603)도 좌상방향으로 이동한다. 이와 같이 하여 조작자는 조작수단(505)을 조작함으로써 조작화면 (601)의 위를 자유롭게 조작표식(603)을 움직일 수 있다.
또한 조작수단(505)은 조작자의 조작표식(603) 이외의 지시를 입력하는 적어도 하나의 버튼을 가지고 있어 조작자의 상기 버튼을 누르는 조작을 카메라 운대 조작장치(504)가 검지할 수 있도록 되어 있다. 카메라 운대 조작장치(504)는 버튼이 눌러진 것을 검지하면 조작표식(603)의 위치에 GUI 조작버튼(604 내지 610) 중의 어느 것이 존재하는지의 여부를 판정하여 GUI 조작버튼이 존재하는 경우에 그 조작버튼을 가상적으로 누른 것으로 한다. 이와 같이 함으로써, 조작자는 조작화면상의 GUI 조작버튼(604 내지 610)을 자유롭게 누를 수 있다.
이 GUI 조작버튼(604 내지 610)에는 각각 특정한 동작이 할당되어 있다. 예를 들면 상 버튼(604)이 눌러진 경우에는 카메라 운대 조작장치(504)는 카메라시야방향을 상방향으로 소정량 이동(틸트모터를 카메라시야가 상방향으로 움직이도록 소정량분 제어)하고, 하 버튼(605)이 눌러진 경우에는 카메라시야방향을 하방향으로 소정량 이동(틸트모터를 카메라시야가 하방향으로 움직이도록 소정량분 제어)한다. 마찬가지로 좌 버튼(606)이 눌러진 경우에는 카메라 운대 조작장치(504)는 카메라시야방향을 좌방향으로 소정량 이동(팬모터를 카메라시야가 좌방향으로 움직이도록 소정량분 제어)하고, 우 버튼(607)이 눌러진 경우에는 카메라 시야방향을 우방향으로 소정량 이동(팬모터를 카메라시야가 좌방향으로 움직이도록 소정량 제어)한다.
여기서 팬모터 및 틸트모터의 제어하는 이들 소정량은, 제어량 지정버튼(608 내지 610)에 의해 설정되고, 저속(×1/2)버튼(608)을 누르고 나서 버튼(604 내지 607)을 누른 경우에는 팬모터 및 틸트모터의 제어량을 예를 들면 10°/sec 로 미세하게 제어할 수 있도록 설정하고, 중속(×1)버튼(609)을 누른 경우는 팬모터 및 틸트모터의 제어량을 예를 들면 20°/sec로 중간 정도의 제어량으로 제어할 수 있도록 설정하고, 고속(×2)버튼(610)을 누른 경우는 팬모터 및 틸트모터의 제어량을 예를 들면 40°/sec로 성기게 제어할 수 있도록 설정한다. 이와 같이 하여 카메라 (503a)의 카메라시야방향을 자유롭게 제어할 수 있다.
따라서 상기 제 2 종래기술에 의하면, 조작자가 조작수단(505)을 조작하여 조작화면(601)의 조작표식(603)을 조작하고, GUI 조작버튼(604 내지 610)을 누르면그것에 따라 촬상장치의 시야방향을 제어할 수 있다.
상기한 종래기술에서는 조작자의 조작에 따라 촬상장치의 시야방향을 제어할 수 있다. 그러나 제 1과 제 2 종래기술에서는 팬모터 및 틸트모터의 제어량이 정해진 일정한 비율(회전속도)만 [예를 들면 도 5의 버튼(505a와 505b)이나 도 6의 GUI 조작버튼(604 내지 610)]으로 밖에 설정할 수 없어 팬각도 또는 틸트각도의 회전속도를 임의로 바꿀 수 없다는 문제가 있다. 즉 침입물체가 이동하는 속도에 맞추어 임의의 속도로 카메라의 시야방향을 변경할 수 없다.
또 제 2 종래기술에서는 상하 좌우방향의 이동을 GUI 조작버튼으로 행하기 때문에 감시자(조작자)가 카메라영상(602)을 보고, 예를 들면 상방향으로 카메라시야를 이동시키고 싶은 경우에 조작표식을 상 버튼(604)의 위치에 맞추어 버튼을 누른다는 조작이 필요하게 된다. 그 때문에 조작자의 시선은 카메라영상과 GUI 조작버튼를 오가게 되어 직접적인 카메라 운대조작을 실행할 수 없다는 문제가 있다. 즉 GUI 조작버튼을 조작하기 위해 카메라영상을 보고 있지 않을 때에 침입물체를 놓칠 가능성이 있다.
또한 제 1과 제 2 종래기술을 사용한 카메라 운대 등의 시야제어장치를 사용하여 어느 특정한 부분을 카메라영상(602)의 중앙부에 찍으려고 하는 경우, 조작수단 (505)을 상하 좌우로 움직여[제 2 종래기술을 사용한 시야제어장치에서는 조작표식 (603)를 조작하여 GUI 조작버튼의 상 버튼(604), 하 버튼(605), 좌 버튼(606), 우버튼(607)을 눌러], 목적하는 부분을 카메라영상(602)의 중앙부에 찍히도록 조작하지 않으면 안되어, 이 조작에는 숙련성을 요한다는 문제도 있다.
요약하면, 상기한 종래기술에는 팬모터나 틸트모터의 제어량을 임의의 값으로 변경할 수 없다는 단점이 있었다. 또한 GUI 조작버튼을 사용하여 촬상장치의 시야방향을 제어하는 방법에서는 조작자의 시선이 카메라영상과 조작버튼을 오가게 하여 영상을 직시하면서 촬상장치의 시야방향을 제어할 수 없다는 불편이 있었다. 또 다시 어느 특정한 부분을 영상의 중앙부에 찍기 위하여 촬상장치 시야 제어장치를 사용하여 시야방향을 상하 좌우로 제어하지 않으면 않되어 숙련성을 요한다는 불편이 있었다.
본 발명의 목적은 임의의 제어량으로 촬상장치의 시야방향을 제어할 수 있는 조작성이 높은 촬상장치 시야제어방법과 장치 및 그것을 위한 컴퓨터프로그램을 제공하는 것에 있다.
본 발명의 다른 목적은 지정한 특정한 부분을 표시화면의 중앙부에 찍히도록 촬상장치의 시야방향을 제어할 수 있는 조작성이 높은 촬상장치 시야제어방법과 장치 및 그것을 위한 컴퓨터프로그램을 제공하는 것에 있다.
도 1은 본 발명의 일 실시예의 촬상장치의 시야 제어의 처리동작을 설명하기 위한 플로우차트,
도 2는 본 발명의 다른 실시예를 설명하기 위한 플로우차트,
도 3은 본 발명의 다른 실시예를 설명하기 위한 플로우차트,
도 4는 본 발명을 침입물체감시에 적용한 경우의 침입물체감시장치의 구성을 나타내는 블록도,
도 5는 종래의 침입물체감시장치의 개요를 설명하기 위한 도,
도 6은 다른 종래의 침입물체감시장치에 설치한 운대의 조작화면을 설명하기 위한 도,
도 7a, 도 7b는 본 발명의 다른 실시예의 시야 조작방법에 있어서의 템플레이트매칭방법을 설명하기 위한 도,
도 8은 본 발명의 일 실시예의 표시장치에 표시되는 화면의 일례를 나타내는 도,
도 9는 본 발명의 일 실시예의 카메라영상 위의 조작표식의 위치와 제어량과의 관계의 일례를 설명하기 위한 도,
도 10은 본 발명의 다른 실시예의 카메라영상 위의 조작표식의 위치와 제어량과의 관계의 일례를 설명하기 위한 도,
도 11은 도 3에서 설명한 실시예의 워크메모리내의 내용을 설명하기 위한 도면이다.
본 발명의 일 측면에 의한 대상물체를 촬상하는 촬상장치와, 촬상장치를 구동하는 구동기구와, 상기 촬상장치의 시야를 제어하는 조작기와, 표시장치 및 제어장치로 이루어지는 촬상장치의 시야제어장치의 제어방법은 상기 촬상장치로 대상물체를 촬상하는 단계와, 상기 촬상장치를 구동하기 위하여 상기 촬상장치의 시야를 제어하는 조작기를 조작하는 단계와, 상기 촬상장치로 촬상된 화상에 상기 조작기에 의하여 조작되는 조작표식을 중첩하여 상기 표시장치에 표시하는 단계 및 상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 단계로 이루어지고, 상기 조작기의 조작에 의하여 상기 촬상장치의 시야가 제어되는 것을 특징으로 한다.
바람직하게는 상기 촬상장치로 대상물체를 촬상하는 단계는 상기 촬상장치로부터의 영상신호를 화상데이터로 변환하는 단계를 가지고, 상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 단계는 상기 조작표식의 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어하는 단계를 포함한다.
바람직하게는 상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 단계는 상기 구동장치의 구동을 위한 소정의 한계값을 설정하는 단계를 가지고, 상기 촬상장치의 이동을 위한 제어량 연산결과가 상기 소정의 한계값을 초과하였을 때 상기 구동기구를 구동하는 단계를 포함한다.
바람직하게는 이 시야제어방법은 다시 상기 소정의 한계값을 상기 표시장치에 영역정보로서 표시하는 단계를 포함한다.
바람직하게는 이 시야제어방법은 상기 조작기에 의하여 조작되는 조작표식이 초기설정에 있어서 상기 표시장치의 표시화면의 중앙 주변에 위치하도록 제어하는 단계를 포함한다.
바람직하게는 이 시야제어방법은 상기 조작기에 의하여 조작되는 조작표식의 이동거리에 응답하여 상기 구동장치의 구동속도가 제어되는 단계를 포함한다.
바람직하게는 상기 촬상장치로 대상물체를 촬상하는 단계는 다시 상기 촬상장치로부터 얻어지는 소정의 화상 중, 상기 조작표식으로 지정된 부분의 화상을 템플레이트화상으로서 기억장치에 기록하는 단계를 포함하고, 상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 단계는 상기 촬상장치로부터 그 후에 얻어지는 소정의 화상 중, 상기 템플레이트화상과 가장 유사도가 높은 부분의 위치좌표를 검출하고, 상기 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어하는 단계를 포함한다.
본 발명의 다른 측면에 의한 촬상장치의 시야제어장치는, 대상물체를 촬상하는 촬상장치와, 상기 촬상장치를 구동하는 구동기구와, 상기 촬상장치의 시야를 제어하는 조작기와, 상기 촬상장치로부터의 화상을 표시하는 표시장치 및 상기 촬상장치, 구동기구, 표시장치를 제어하는 제어장치로 이루어지고, 상기 제어장치는 상기 촬상장치로부터의 화상에 상기 조작기에 의하여 조작되는 조작표식을 중첩하여 상기 표시장치에 표시함과 동시에, 상기 조작표식의 이동에 응답하여 상기 구동기구가 구동되고, 상기 촬상장치의 시야가 제어되는 것을 특징으로 한다.
바람직하게는 상기 제어장치는 화상데이터변환부와 화상처리부를 가지고, 상기 화상데이터변환부는 상기 촬상장치로부터의 영상신호를 화상데이터로 변환하고, 상기 화상처리부는 상기 조작표식의 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어한다.
바람직하게는 상기 제어장치는 상기 촬상장치의 구동을 위한 소정의 한계값 설정수단을 가지고, 상기 촬상장치의 이동을 위한 제어량 연산결과가 상기 소정의 한계값을 초과하였을 때 상기 구동기구를 구동한다.
바람직하게는 상기 소정의 한계값은 상기 표시장치에 영역정보로서 표시된다.
바람직하게는 상기 제어장치는 상기 조작기에 의하여 조작되는 조작표식이 초기설정에 있어서 상기 표시장치의 표시화면의 중앙 주변에 위치하도록 제어한다.
바람직하게는 상기 조작기는 조작자의 음성, 몸짓, 손짓, 시선 중의 어느 하나를 입력으로 하는 장치이다.
바람직하게는 상기 화상처리부는 상기 촬상장치로부터 얻어지는 소정의 화상 중, 상기 조작표식으로 지정된 부분의 화상을 템플레이트화상으로서 기억장치에 기록함과 동시에, 상기 촬상장치로부터 그 후에 얻어지는 소정의 화상 중, 상기 템플레이트화상과 가장 유사도가 높은 부분의 위치좌표를 검출하고, 상기 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어한다.
본 발명의 다른 측면에 의한 제어를 위한 구체화된 컴퓨터 판독 가능한 프로그램코드수단이 내부에 구비된 컴퓨터 사용 가능한 매체를 포함하여 이루어지는 대상물체를 촬상하는 촬상장치와, 촬상장치를 구동하는 구동기구와, 상기 촬상장치의 시야를 제어하는 조작기와, 표시장치 및 제어장치로 이루어지는 촬상장치의 시야제어장치와, 상기 컴퓨터 판독 가능한 프로그램 코드수단으로 이루어지는 컴퓨터프로그램은, 상기 촬상장치로 대상물체를 촬상하고, 상기 촬상장치로부터의 영상신호를 영상데이터로 변환하는 수단과, 상기 촬상장치를 구동하기 위하여 상기 촬상장치의 시야를 제어하는 조작기로부터의 신호를 입력하는 수단과, 상기 촬상장치로 촬상된화상에 상기 조작기에 의하여 조작되는 조작표식을 중첩하여 상기 표시장치에 표시하는 수단 및 상기 조작표식의 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어하는 수단.
바람직하게는 상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 수단은, 상기 구동장치의 구동을 위한 소정의 한계값을 설정하는 수단을 가지고, 상기 촬상장치의 이동을 위한 제어량 연산결과가 상기 소정의 한계값을 초과하였을 때, 상기 구동기구를 구동하는 수단을 포함한다.
이하, 본 발명의 실시예를 도면을 따라 설명한다. 도면에 있어서 동일한 부재에는 동일한 참조부호를 붙인다.
본 발명의 침입물체 감시시스템에 관한 실시형태의 하나를 도 4에 나타낸다. 도 4는 촬상장치의 시야제어장치의 하드웨어구성을 나타내는 블록도이다. 401은 카메라 등의 촬상장치(이하, 카메라라 함), 402는 카메라(401)의 시야방향을 변경하기 위한 카메라 운대 등의 촬상장치의 시야제어장치(이하, 카메라 운대라 함), 403은 수동조작기, 403a 와 403b는 조작기(403)에 부속되는 버튼(스위치), 404a는 화상입력 I/F, 404b는 운대제어 I/F, 404c는 입력 I/F, 404d는 화상메모리, 404e는 화상출력 I/F, 404f는 CPU(Central Processing Unit), 404g는 프로그램메모리, 404h는 워크메모리, 404i는 데이터버스, 404는 적어도 화상입력 I/F(404a), 운대제어 I/F (404b), 입력 I/F(404c), 화상메모리(404d), 화상출력 I/F(404e), CPU(404f), 프로그램메모리(404g), 워크메모리(404h), 데이터버스(404i)로 이루어지는 촬상장치의 시야제어장치, 405는 출력모니터이다.
도 4의 하드웨어구성에서는 카메라(401)는 화상입력 I/F(404a)에 접속되고, 카메라 운대(402)는 운대제어 I/F(404b)에 접속되고, 조작기(403)는 입력 I/F(404c)에 접속되고, 출력모니터(405)는 화상출력 I/F(404e)에 접속되어 있다. 또 화상입력 I/F(404a), 운대제어 I/F(404b), 입력 I/F(404c), 화상메모리(404d), 화상출력 I/F(404e), CPU(404f), 프로그램메모리(404g) 및 워크메모리(404h)는 데이터버스 (404i)에 접속되어 있다.
도 4에 있어서, 카메라(401)는 촬상으로 하는 촬상시야내를 촬상한다. 카메라(401)는 촬상한 영상을 전기적인 영상신호(예를 들면 NTSC 영상신호)로 변환하고, 변환한 영상신호를 화상입력 I/F(404a)에 출력한다. 화상입력 I/F(404a)는 입력한 영상신호를 침입물체 감시장치에서 처리하는 포맷(예를 들면 폭 640pix, 높이 480pix, 8bit/pix)의 화상데이터로 변환하고, 데이터버스(404i)를 거쳐 화상메모리 (404d)에 보낸다. 화상메모리(404d)는 보내져 온 화상데이터를 축적한다. 조작기 (403)는 조작자의 조작방향 및 버튼(403a와 403b)의 상태를 전기적인 신호(예를 들면 접점신호)로 변환하고, 신호를 입력 I/F(404c)에 출력한다. 입력 I/F(404c)는 상기 신호를 조작데이터로 변환하여 데이터버스(404i)에 출력한다. CPU(404f)는 프로그램메모리(404g)에 보존되어 있는 프로그램에 따라 워크메모리(404h)내에서 입력 I/F(404c)로부터 입력된 신호(조작데이터)와 화상메모리(404d)에 축적된 화상의 해석을 행한다.
이상의 해석결과, 카메라(401)의 시야방향의 제어량을 산출한다. CPU(404f)는 운대제어 I/F(404b)를 거쳐 카메라 운대(402)를 제어한다. 운대제어 I/F(404b)는 CPU(404f)의 제어명령을 카메라 운대(402)의 제어신호(예를 들면 RS485 시리얼신호)로 변환하고 카메라 운대(402)에 출력한다. 카메라 운대(402)는 운대제어 I/F(404b)로부터의 제어신호에 따라 팬모터 및 틸트모터를 제어하여 카메라시야각도를 변화시킨다. 또한 CPU(404f)는 화상메모리(404d)에 축적된 입력화상 위에 워크메모리(404h)에 기억되어 있는 조작포인터위치에 의거하여 조작포인터를 묘화(중첩)하고, 화상출력 I/F(404e)를 거쳐 출력모니터(405)에 카메라영상을 표시한다. 화상출력 I/F(404e)는 CPU(404f)로부터의 신호를 출력모니터(404e)가 사용할 수 있는 포맷(예를 들면 NTSC영상신호)으로 변환하여 표시모니터(405)에 보낸다. 표시모니터(405)는 예를 들면 카메라영상을 표시한다.
또한 도 4의 실시예에서는 카메라 운대 제어장치로서, 촬상장치가 촬상하는 시야방향을 변경하는 촬상장치의 시야제어장치로서 설명하였으나, 다시 프로그램메모리(404g)에 상기한 동작프로그램을 포함하는 침입물체 검출처리프로그램을 보존하고 침입물체의 검출기능을 구비시키는 것도 가능하고, 다른 동작을 더하는 것도 가능하다. 또 상기한 동작프로그램은 컴퓨터로 판독하는 것이 가능한 기록매체상에 저장할 수 있음은 물론이다.
이하에서 설명하는 실시예는 상기 촬상장치의 시야제어장치의 하드웨어구성의 일례인 도 4를 사용하여 실행된다. 또 각 실시예에서는 사용하는 화상을 폭 640pix, 높이 480pix, 8bit/pix로서 설명한다. 물론 이것 이외의 화소수의 화상을 사용하여도 동일한 동작을 하는 것은 물론이다.
본 발명의 제 1 실시예를 도 2와 도 8에 의하여 설명한다. 도 2는 본 발명의 일 실시예의 처리동작을 나타내는 플로우차트의 일례이다. 또 도 8은 본 발명의 감시모니터 등의 표시장치의 화면의 일례를 나타내는 도면으로, 화면상에서 카메라 운대 조작장치를 조작하는 동작의 개요를 설명하기 위한 도면이다. 이 제 1 실시예는 조작자가 조작기(403)를 조작한 경우에 입력 I/F(404c)를 거쳐 입력되는 조작신호에 의거하여 카메라 운대(402)의 제어량을 산출하고, 운대제어 I/F(404b)를 거쳐 카메라 운대(402)를 제어하도록 한 것이다.
도 8에 있어서, 카메라영상(802)은 출력모니터(405)의 표시화면[조작화면 (801)]의 거의 전체에 표시되고, 조작기(403)의 조작에 연동하여 화면상을 이동하는 조작표식(803)이 카메라영상(802) 위에 중첩 표시된다. 또한 「조작표식」이란, 카메라영상의 특정한 부분을 지정하기 위하여 화면상에 표시되는 조작포인터 또는 인디리아의 것이다.
도 2에 있어서, 장치가 기동하면 먼저 시스템 초기화 단계(101)에서 촬상장치의 시야제어장치(404)를 구성하는 모든 수단(404a 내지 404i)의 설정을 초기화하고, 조작표식(803)의 위치좌표(x, y)[조작화면(801)의 좌상을 (0, 0)으로 하고, 조작화면의 화소를 1로 하는 좌표계)를 예를 들면 조작화면내의 표시화면의 중앙 (x=320, y=240)으로 한다.
다음에 화상입력단계(102)에서는 카메라(401)로부터 화상입력 I/F(404a)를 거쳐 입력화상을 얻는다.
그리고 조작신호 입력단계(110)에서는 조작기(403)의 조작방향(예를 들면 조이스틱의 기울어진 각도방향), 조작버튼(403a, 403b)의 상태[예를 들면 조작버튼(403a, 403b)이 "온"인지 "오프"인지)를 취득한다. 조작신호 입력단계(110)에서는 조작신호의 입력이 있었을 경우는 그 조작방향을 따라 조작표식(803)의 위치좌표 (x, y)를 변화시킨다. 단 0 ≤x < 640, 0 ≤y < 480으로 한다.
다음에 운대제어 판정단계(201)에서는 카메라 운대(402)의 제어가 필요한지의 여부를 판정한다. 예를 들면 조작신호 입력단계(110)의 조작버튼(403a)의 상태를 체크하여 조작버튼(403a)이 "온"의 상태인 경우에는 카메라 운대(402)의 제어가 필요한 것으로 하여 운대제어량 산출단계(202)로 분기하여 조작버튼(403a)이 "오프"의 상태인 경우에는 카메라 운대(402)의 제어는 필요없는 것으로 하여 조작표식 중첩단계(114)로 분기한다.
상기 실시예에서는 카메라 운대(402)의 제어가 필요한지의 여부의 판정을 조작버튼(403a)의 상태가 "온"인지 "오프"인지의 판정에 의하여 행하고 있으나, 또는 조작버튼(403b)의 상태가 "온"인 경우, 또는 조작버튼(403a, 403b)이 동시에 눌러진(양쪽 "온"상태)경우에도 카메라 운대(402)의 제어가 필요하다고 하여도 좋다.
또 운대제어여부 판정단계(201)의 판정의 방법으로서는 그외 조작표식(803)의 위치좌표의 카메라영상(802)의 중앙(320, 240)[여기서는 (xo, yo)라 한다]으로부터의 x방향의 변위(dx)와 y방향의 변위(dy)를 수학식 (1)로부터 구하여
x방향의 변위의 절대값이 |dx|>T인 경우, 또는 y방향의 변위의 절대값이 |dy|>T인 경우에는 카메라 운대(402)의 제어가 필요하다고 하여도 좋다. 여기서 T는 카메라 운대(402)를 제어하기 위한 미리 정해진 한계값이고, 예를 들면 T=64(화상폭의 10%)로 한다.
다음에 운대제어량 산출단계(202)에서는 카메라 운대(402)의 제어량(제어방향 및 제어속도)을 산출한다. 여기서 제어방향은 수학식 (1)에 의하여 카메라영상 (802)의 중앙으로부터의 변위(dx와 dy)에 의거하여 x방향에 대해서는 dx <-T인 경우는 카메라시야(506)를 좌방향으로 움직이도록 팬모터를 제어하고, dx >T인 경우는 카메라시야(506)를 우방향으로 움직이도록 팬모터를 제어한다. 또 마찬가지로 y 방향에 대해서는 dy <-T인 경우는 카메라시야(506)를 하방향으로 움직이도록 틸트모터를 제어하고, dy >T인 경우는 카메라시야(506)를 상방향으로 움직이도록 틸트모터를 제어한다.
또한 팬모터 및 틸트모터의 제어속도(sx, sy)는 수학식 (2)에 의하여 산출한다.
수학식 (2)에 있어서, M은 카메라 운대 제어량의 소정의 최대 제어속도를 나타내고, 예를 들면 40°/sec로 한다. 수학식 (2)에 의하면 조작표식(803)의 위치좌표의 카메라영상(802)의 중앙으로부터의 변위에 의거하여 0 내지 40°/sec의 제어속도를 얻을 수 있다.
도 9는 표시모니터(405)에 표시된 카메라영상(802)위에 있어서의 조작표식 (803)의 위치[조작버튼(403a)이 "온"상태가 되었을 때]와, 제어방향 및 제어속도와의 관계의 일레를 도해적으로 나타낸 도면이다. 설명을 간단하게 하기 위하여 한계값 T = 40으로 하고, 최대 제어속도 M = 40°/sec로 하고 있다.
도 9에 있어서, 표시모니터(405)에는 카메라영상(900)이 표시되어 있다. 설명상 필요없으므로, 실제의 영상은 표시하지 않고, 화면프레임만을 나타내고 있다. 가로방향이 x방향이고, 세로방향이 y방향이다. 점(A 내지 D은 조작버튼(403a)이 "온"상태가 되었을 때, 조작표식(803)이 있었던 위치를 나타낸다[실제로는 점(A 내지 D)이 한번에 표시되는 일은 없고, 조작표식(803)의 움직에 따라 하나의 점만 나타냄). 또 파선의 프레임(901)으로 둘러 싸인 영역(902)은 카메라영상(900)의 중앙(원점)(903)의 위치(xo, yo)로부터의 x방향과 y방향의 변위의 절대값이 어느쪽도 한계값(T)보다 작은(|dx|≤T 및 |dy|≤T)영역을 나타낸다.
조작표식(803)이 점(A)의 위치에 있는 경우에는 x방향과 y방향의 변위의 절대값이 어느쪽이2나 한계값(T)보다 작기 때문에 조작버튼(403a)이 "온"상태가 되어도 카메라 운대(402)의 제어가 필요하지 않다고 판정되어 조작표식 중첩단계(114)로 처리가 이행한다. 그러나 조작표식(803)이 프레임(901)의 바깥쪽의 위치[예를 들면 점(B 내지 D)]에 있을 때에 조작버튼(403a)이 "온"상태가 된 경우에는 카메라운대 (402)의 제어가 필요하다고 판정되어 운대제어량 산출단계9202)로 처리가 이행하여 카메라 운대(402)의 제어량(제어방향 및 제어속도)을 산출한다. 예를 들면 점(B)의 위치가 x=xo+160(=480), y=yo-10(230)인 경우는 |dx|> T 또한 |dy|≤T이기 때문에 제어방향은 수학식 (1)에 의하여 우방향이 된다. 마찬가지로 예를 들면 점(C)의 위치가 x=xo-20(=300), y=yo-120(120)인 경우는 |dx|≤ T 또한 |dy|>이므로 제어방향은 상방향이 된다. 또 마찬가지로 예를 들면 점(D)의 위치가 x=xo-160(=160), y=yo+160 (400)인 경우는 |dx|> T 또한 |dy|>T이므로, 제어방향은 좌방향과 하방향이 된다.
또한 운대제어량 산출단계(202)는 제어속도를 조작표식(803)의 위치에 따라 예를 들면 수학식 (2)에 의하여 변경한다. 예를 들면 점(B)의 위치에서 조작버튼 (403a)이 "온"상태가 된 경우에는 팬모터의 제어속도는 sx = 20°/sec가 된다. 마찬가지로 예를 들면 점(C)의 위치에서는 틸트모터의 제어속도는 sy = 20°/sec가 된다. 또 마찬가지로 예를 들면 점(D)의 위치에서는 팬모터의 제어속도는 sx = 20°/sec가 되고, 틸트모터의 제어속도는 sy = 27°/sec가 된다.
다음에 운대제어단계(109)에서는 운대제어량 산출단계(202)에 의하여 얻어진 제어량(팬모터 및 틸트모터의 제어방향 및 제어속도)에 의거하여 운대제어 I/F (404b)를 거쳐 카메라 운대(402)를 제어한다.
조작표식 중첩단계(114)에서는 조작표식(803)의 위치좌표를 기초로 입력화상에 조작표식(803)을 중첩한 출력화상을 생성한다.
그리고 화상출력단계(115)에서는 조작표식 중첩단계(114)에서 생성한 출력화상을 화상출력 I/F(404e)를 거쳐 예를 들면 출력모니터(405)에 출력한다.
따라서 상기 실시예에 의하면, 조작자가 수동조작기를 조작하면, 그 조작에 연동하여 조작표식(803)이 이동하고, 그 위치좌표에 의거하여 카메라 운대(402)의 제어량이 산출되어 카메라의 시야방향을 변경하는 것이 가능하게 된다.
상기 실시예에서는 한계값(T)이 x방향과 y방향에서 동일한 값이었다. 그러나 한계값(T)을 x방향과 y방향에서 다른 값으로 하여도 좋은 것은 자명하다. 또 다시 변위를 카메라영상(802)의 중앙으로부터 구하였으나, 중앙이 아니라 임의의 위치에 지정하여도 좋다.
상기 실시예에서의 운대제어 판정단계(201)의 판정의 방법으로서, 도 9에서 설명한 방법은 조작표식(803)의 위치좌표의 카메라영상(802)의 중앙[여기서는 (xo, yo)으로 한다]으로부터의 x방향의 변위(dx)와 y방향의 변위(dy)를 수학식 (1)로부터 구하여 변위의 절대값이 소정의 한계값(T)보다 크면 카메라 운대(402)제어가 필요하다고 판정하고, 운대제어량 산출단계(202)에서도 또 중앙으로부터의 거리에 의거하여 제어량을 산출하였다. 그러나 그 밖의 판정방법으로서 예를 들면 도 10에 나타내는 바와 같이 카메라영상(802)의 끝으로부터의 거리에 의거하여 제어가 필요한지의 여부의 판정과 운대제어량의 산출을 행할 수도 있다.
도 10은 표시모니터(405)에 표시된 카메라영상(802) 위에 있어서의 조작표식 (803)의 위치[조작버튼(403a)이 "온"상태로 되었을 때]와, 제어방향 및 제어속도와의 관계의 일례를 도해적으로 나타낸 도면이다.
도 10에 있어서, 표시모니터(405)에는 카메라영상(900)이 표시되어 있다. 설명상 필요하지 않기 때문에, 실제의 영상은 표시하지 않고 화면프레임만을 나타내고 있다. 가로방향이 x방향이고, 세로방향이 y방향이다. 점(E, F1 내지 F4, G1 내지 G4)은 조작버튼(403a)이 "온"상태로 되었을 때, 조작표식(803)이 있었던 위치를 나타낸다[실제로는 이들 점(E, F1 내지 F4, G1 내지 G4)이 한번에 표시되는 일은 없고, 조작표식(803)의 움직임에 따라 1개의 점만 나타남). 또 파선의 프레임(904)과 카메라영상(900)의 화면 프레임으로 둘러싸인 영역(검게 칠한 표시영역)(902)은 화면 끝으로부터 x방향, y방향 각각 소정의 화소수(T1) 안쪽까지의 영역을 나타낸다.
조작표식(803)이 점(E)의 위치에 있는 경우에는 x방향과 y방향의 변위의 절대값이 어느쪽도 화면 끝으로부터 미리 정해진 한계값(T1)(예를 들면 80화소) 이상 떨어져 있으므로, 조작버튼(403a)이 "온"상태가 되어도 카메라 운대(402)의 제어가 필요하지 않다고 판단되어 조작표식 중첩단계(114)로 처리가 이행한다. 그러나 조작표식(803)이 프레임(904)의 바깥쪽의 위치[예를 들면 점(F1내지 F4) 및 점(G1내지 G4)]에 있을 때에 조작버튼(403a)이 "온"상태가 된 경우에는 카메라 운대(402)의 제어가 필요하다고 판단되어 운대제어량 산출단계(202)로 처리가 이행하여 카메라 운대 (402)의 제어량(제어방향 및 제어속도)을 산출한다.
이 때의 제어방향은 예를 들면 조작표식이 점(F1)의 위치에 있는 경우는 우방향, 점(F2)의 위치에 있는 경우는 상방향, 점(F3)의 위치에 있는 경우는 좌방향, 점(F4)의 위치에 있는 경우는 하방향으로 한다. 또 점(G1내지 G4)과 같이 화면의 모서리에 있는 경우의 제어방향은 예를 들면 점(G1)일 때에는 좌상방향, 점(G2)일 때에는 우상방향, 점(G3)일 때에는 좌하방향, 점(G4)일 때에는 우하방향으로 한다. 화면의 모서리에 있는지의 여부의 판정은 예를 들면 화면의 인접하는 2개의 끝으로부터 소정의 값(T1) 이내에 조작표식(803)이 있으면 화면의 각에 있다고 한다.
또한 이 때의 제어속도는 미리 정해진 일정속도이어도 좋으나, 예를 들면 수학식 (2)를 응용하여 화면의 끝으로부터의 거리에 따라 변경할 수 있어 예를 들면 수학식 (3)에 나타내는 바와 같이 산출한다.
이 경우에는 예를 들면 조작표식이 점(F1)과 같이 우변에 있는 경우[좌표를 (635, 220)로 함] 로, 카메라영상(900)의 우단(xB = 639)을 기준으로 하여 예를 들면 한계값 T1= 80으로 하고, 최대 제어속도 M = 40°/sec로 하면, 팬모터의 제어속도(sx)는 수학식 (3)에 의하여 sx = 38°/sec가 된다. 점(F1)의 경우, 상단, 하단으로부터는 T1이상 떨어져 있으므로, 틸트모터의 제어는 행하여지지 않는다. 마찬가지로 조작표식이 점(F2)과 같은 상변에 있는 경우는 기준을 예를 들면 상단(yB=0)으로하여 수학식 (3)에 의하여 sy를 산출한다. 이하, 점(F3)과 같은 좌변에 있는 경우는 기준을 예를 들면 좌단(xB=0)으로 하여 수학식 (3)에 의하여 sx를 산출하고, 점(F4)과 같은 하변에 있는 경우는 기준을 예를 들면 하단(yB=479)으로 하여 수학식 (3)에 의하여 sy를 산출한다.
상기 실시예의 설명에서는 제어속도를 화면의 끝으로부터의 거리에 의거하여 행하였으나, 변의 중심으로부터의 거리, 화면 중앙으로부터의 거리 등에 비례하도록 산출하는 등, 원점을 어느 하나에 자유롭게 설정함으로써, 산출할 수 있다.
본 발명의 제 2 실시예를 도 3에 의하여 설명한다. 도 3은 본 발명의 제 2 실시예의 처리동작을 나타내는 플로우차트의 일례이다. 이 제 2 실시예는 카메라 운대의 제어량 산출시에 조작자의 지금까지(과거 또는 직전의)의 조작상태에 따라 카메라 운대(402)의 제어속도를 조정하도록 한 것이다. 도 3은 도 2에서 나타내는 플로우차트의 운대제어량 산출단계(202) 대신에 다른 운대제어량 산출단계(301)를 더하고, 다시 조작표식위치 기록단계(302)를 추가한 것이다. 따라서 그것 이외의 처리동작은 도 2와 동일하므로 설명을 생략한다.
도 3의 처리동작의 운대제어 판정단계(201)에서 카메라 운대(402)의 제어가 필요하다고 판정된 경우에 있어서, 운대제어량 산출단계(301)에서는 워크메모리 (404h)에 기록하고 있는 소정의 프레임전[예를 들면 30프레임 (1sec에 상당함)]의조작표식(803)의 위치(x30, y30)와 현재의 조작표식(803)의 위치(x, y)에 의거하여 카메라 운대(402)의 제어속도를 산출하도록 한 것이다. 또한 (xn, yn)이란, n프레임전의 조작표식의 위치좌표를 나타낸다. 여기서 제어방향은 본 발명의 제 1 실시예와 동일하다.
이 때 제어속도는 수학식 (4)에 의하여 산출한다.
수학식 (2)와 마찬가지로 수학식 (4)에 있어서, M은 카메라 운대 제어량의 소정의 최대 제어속도를 나타내고, 예를 들면 40°/sec로 한다. 이 수학식 (4)에 의하면 조작자의 조작표식(803)의 조작속도에 의거하여 0 내지 40°/sec의 제어속도를 얻을 수 있다. 또한 본 실시예에서는 30프레임전의 조작표식(803)의 위치(x30, y30)와 현재의 조작표식(803)의 위치(x, y)에 의거하여 제어속도를 산출하였으나, 조작표식(803)의 이동량을 산출할 수 있는 시간간격이면 30 이외의 프레임수이어도 좋다.
다음에 조작표식위치 기록단계(302)에서는 워크메모리(404h)내에 기록된 조작표식(803)의 위치좌표의 이력을 갱신한다. 이 처리를 도 11을 사용하여 설명한다.
도 11은 현재의 조작표식(803)의 위치좌표(x, y) 및 소정 프레임전까지의 조작표식(803)의 위치좌표(xi, yi)(i=1 내지 N)가 워크메모리(404h)내에 기록되어 있는 모양을 나타내고 있다. 또한 도 11에서는 워크메모리(404h)내에 기록되어 있는 조작표식의 위치좌표 이외의 데이터에 대해서는 생략하여 표시하고 있다. 조작표식위치 기록단계(302)에 있어서, 워크메모리(404h)내에 기록된 j프레임전의 조작표식의 위치좌표(xi, yi)를 j-1 프레임전의 조작표식의 위치좌표(xj-1, yj-1)로 치환한다. 이 조작을 j = N 내지 1로 실행한다. 다음에 1프레임전의 조작표식의 위치좌표(x1, y1)(1101)를 현재의 조작표식의 위치좌표(x, y)(1100)에서 치환한다. 즉 현재의 조작표식의 위치좌표(x, y)(1100)는 1프레임전의 조작표식의 위치좌표(x1, y1)(1101)이 되고, 1프레임전의 조작표식의 위치좌표(x1, y1)(1101)는 2프레임전의 조작표식의 위치좌표(x2, y2)(1102)가 되고, 이후 각 조작표식의 위치좌표는 1프레임씩 시프트되어 기억된다. 또 가장 오랜 시각으로 기록된 N프레임전의 조작표식의 위치좌표(xN, yN)(1106)는 파기된다. 이와 같이 함으로써 워크메모리(404h)내에 과거 N프레임분의 조작표식(803)의 위치좌표의 이력이 기록되게 된다. 또한 N은 운대제어량 산출단계(301)에 있어서 조작표식(803)의 이동량을 산출하기 위하여 사용하는 프레임수 이상이면 임의의 수이어도 관계없다.
따라서 본 실시예에 의하면, 조작자가 조작수단을 조작하면, 그 조작에 연동하여 조작표식(803)이 이동하고, 그 위치좌표에 의거하여 카메라 운대의 제어방향이 산출되고, 그 조작표식(803)의 이동속도에 의거하여 카메라 운대의 제어속도가 산출되어 카메라의 시야방향을 바꾸는 것이 가능하게 된다.
본 발명의 제 3 실시예를 도 1에 의하여 설명한다. 도 1은 본 발명의 제 3실시예의 처리동작을 나타내는 플로우차트의 일례이다. 이 제 3 실시예는 조작버튼 (403a)이 눌러진 경우에 조작표식(803)의 위치좌표의 카메라영상(802)에 찍히는 부분이 카메라시야(506)의 중앙에 위치하도록 카메라 운대(402)의 시야방향을 자동제어하도록(이것을 자동제어모드라 함) 한 것이다.
먼저 시스템 초기화단계(101), 화상입력단계(102), 조작신호 입력단계(110)는 도 3에서 나타낸 본 발명의 제 2 실시예의 플로우차트와 마찬가지로 각각 시스템의 초기화, 입력화상의 취득, 조작수단(403)의 조작방향, 조작버튼(403a, 403b)의 상태를 입력한다. 단 본 실시예에서는 화상입력단계(102)와 조작신호 입력단계(110) 사이에서 이하의 처리를 행한다.
즉, 화상입력단계(102)의 다음 처리단계인 자동제어판정단계(103)에서는 침입물체감시장치가 자동제어모드인지의 여부를 판정한다. 그리고 자동제어모드인 경우에는 매칭처리단계(104)로 분기하고, 자동제어모드가 아닌 경우에는 조작신호입력단계(110)로 분기한다.
매칭처리단계(104)에서는 화상메모리(404d)에 기록되어 있는 템플레이트화상 (뒤에서 설명함)과 화상입력단계(102)에서 입력한 입력화상의 템플레이트매칭을 행하여 입력화상 중에서 템플레이트화상과 가장 유사도가 높은 부분을 탐색한다.
여기서 도 7a, 도 7b를 사용하여 템플레이트매칭의 처리에 대하여 설명한다. 도 7a, 도 7b는 본 발명에 적용하는 템플레이트매칭방법을 설명하기 위한 도면이다.
도 7a에 있어서 카메라영상(화상)(701)은 템플레이트등록시의 입력화상, 영역 (701a)은 입력화상(701)으로부터 등록하는 템플레이트화상(a1)의 영역을 나타내고 있다. 이 화상(701), 템플레이트화상(a1) 및 템플레이트화상(a1)의 영역의 위치는 화상메모리(404d)에 기록된다.
다음에 화상(701)과 다른 시각에 얻어진 카메라영상(화상)(702)(도 7b)에 대하여 템플레이트화상(a1)과 가장 유사도가 높은 부분화상의 영역을 검색하여 영역 (702a)을 얻는다. 이 영역의 중앙을 매칭위치라 부른다. 여기서 화상(702) 중의 영역(702b)은 영역(701a)과 동일한 위치를 나타내고 있고, 화살표(702c)는 영역 (702b)의 중앙으로부터 영역(702a)의 중앙을 연결하는 것으로 한다. 따라서 템플레이트매칭에 의해 영역(701a)이 영역(702b)으로 이동하였다고 판단할 수 있어 그 이동량은 화살표(702c)에 의해 나타낸다. 이 템플레이트매칭의 방법은 예를 들면 1985년에 소엔출판에서 출판된 다무라 히데유키씨 감수에 의한 『컴퓨터화상처리입문』이라는 제목의 서적 P149 내지 153 에서 해설되어 있고, 화상처리의 기본적인 처리로서 널리 사용되고 있다.
다음에 자동제어 종료판정단계(105)에서는 매칭처리단계(104)에서 구한 매칭위치가 카메라영상의 중앙으로부터 소정값 이내이었을 경우, 또는 유사도가 소정의 값 이하가 된 경우에 자동제어종료단계(106)로 분기하고, 그렇지 않은 경우에는 템플레이트 갱신단계(107)로 분기한다.
여기서 매칭위치가 카메라영상의 중앙으로부터 소정값 이내인지의 여부의 판정에는 영역(701a)이 영역(702a)으로 이동하였을 때의 이동량을 템플레이트매칭에 의하여 얻어진 영역(702a)의 중앙의 좌표(mx, my)와 카메라영상(702)의 중앙의 좌표 [여기서는 (xo, yo)라 함]으로부터 수학식 (5)에 의하여 산출한다.
단, x방향의 이동량을 dx, y방향의 이동량을 dy로 한다.
수학식 (5)에 의하여 이동량의 산출을 행하여 x방향의 이동량이 |dx|≤ T 이고, 또한 y방향의 이동량이 |dy|≤ T 이었을 경우에는 매칭위치가 카메라영상의 중앙으로부터 소정값 이내인 것으로 한다.
다음에 유사도가 소정의 값 이하가 되었는지의 여부의 판정에는 예를 들면 유사도로서 템플레이트화상과 매칭한 위치의 부분화상의 영역과의 사이의 화소값의 차분값의 평균값을 사용하여 이 차분값의 평균값이 20(1화소를 8bit로 가정, 화소값은 0 내지 255의 값을 취함) 이상인 경우에 유사도가 소정의 값 이하가 되었다고 판정한다.
다음에 자동제어 종료단계(106)는 자동제어모드를 해제하고 조작신호 입력단계(110)로 진행한다.
또 템플레이트 갱신단계(107)에서는 화상메모리(404d)에 기록된 템플레이트화상(a1)을 템플레이트매칭에 의해 얻어진 영역(702a)의 화상(a2)으로 치환한다.
다음에 운대제어량 산출단계(108)와 운대제어단계(109)에서는 예를 들면 도 2에서 나타낸 본 발명의 제 1 실시예의 운대제어량 산출단계(202)와 운대제어단계(109)와 마찬가지로 처리를 행하여 수학식 (1)과 수학식 (2)를 사용하여 카메라 운대 (402)의 제어량(제어방향 및 제어속도)을 산출하여 카메라 운대(402)를 제어한다.
조작신호 입력단계(110)에서는 도 2에 나타내는 제 1 실시예에서의 조작신호 입력단계(110)와 마찬가지로 하여 처리를 행하여 조작자의 조작수단(403)의 조작방향 및 버튼(403a, 403b)의 상태를 취득한다.
다음에 자동제어개시 판정단계(111)에서는 자동제어를 개시할지의 여부의 판정을 행한다. 예를 들면 조작기(403)의 조작버튼(403a)이 눌러진 경우에는 자동제어개시로 판정하여 템플레이트화상 등록단계(112)로 분기하고, 눌러져 있지 않은 경우에는 조작표식 중첩단계(114)로 분기한다.
템플레이트화상 등록단계(112)에서는 조작버튼(403a)이 눌러진 시점의 조작표식(803)의 위치를 중심으로 하는 소정의 영역(예를 들면 30 ×30)을 템플레이트화상 (a1)으로서 화상메모리(404d)에 등록한다. 또한 자동제어 개시단계(113)에서는 자동제어모드를 개시한다. 다음에 조작표식 중첩단계(114) 및 화상출력단계(115)는 도 2에 나타낸 본 발명의 제 1 실시예의 조작표식 중첩단계(114) 및 화상출력단계 (115)와 마찬가지로 입력화상에 조작표식(803)을 중첩하여 출력하고, 화상출력 I/F (404e)를 거쳐 표시모니터(405)에 표시한다.
또한 본 실시예에서는 자동제어모드개시를 조작수단(403)의 조작버튼(403a)을 사용하여 판정하고 있으나, 특정한 음성, 조작자의 몸짓, 손짓, 시야방향 등의 입력에 의하여 자동제어모드를 개시시키도록 하여도 좋다. 따라서 본 실시예에 의하면 조작자가 지정한 위치의 영상을 카메라영상의 중앙에 찍히도록 자동적으로 카메라 운대를 제어하는 것이 가능하게 된다.
이상 설명한 본 발명의 실시예에서는 모든 수동조작기로서 조이스틱을 사용하였으나, 퍼스널컴퓨터 등에 사용하는 일반적인 포인팅디바이스와 같은 상하 좌우 경사의 적어도 하나 이상의 방향을 지시하기 위하여 화면상에 표시한 조작표식을 이동시키는 것이 가능한 것이면 무엇이더라도 좋은 것은 자명하다. 예를 들면 조작기에 마우스를 사용하여 조작버튼(403a)을 누르는 것을 마우스의 좌클릭으로 하고, 조작버튼(403b)을 누르는 것을 마우스의 우클릭으로 할 수 있다.
또 촬상장치의 시야제어장치와 조작기와는 다른 구성으로서 설명하였으나, 촬상장치의 시야제어장치에 조작기가 내장되어 있어도 좋다.
또한 본 발명의 촬상장치의 시야제어장치는 촬상장치가 이동하는 물체를 촬상할 때에 자동적으로 이동하는 물체를 추적하여 촬상이 가능하기 때문에 감시에 한하지 않고, 영상기록, 뉴스취재, 영상제작 등에 널리 이용할 수 있다.
따라서 상기 실시예에 의하면, 카메라 운대의 팬모터 및 틸트모터의 제어량을 조작자가 용이하게 변경하면서 카메라시야를 바꿀 수 있도록 하고, 또한 특정한 부분을 카메라영상의 중앙부에 찍히도록 자동적으로 카메라 운대를 제어하도록 함으로써 조작성을 현저하게 향상시킬 수 있어 촬상장치의 시야제어장치의 적용범위를 크게 넓힐 수 있다.

Claims (19)

  1. 대상물체를 촬상하는 촬상장치와;
    촬상장치를 구동하는 구동기구와;
    상기 촬상장치의 시야를 제어하는 조작기와 표시장치 및 제어장치로 이루어지는 촬상장치의 시야제어장치의 제어방법은,
    상기 촬상장치로 대상물체를 촬상하는 단계와;
    상기 촬상장치를 구동하기 위하여 상기 촬상장치의 시야방향을 제어하는 조작기를 조작하는 단계와;
    상기 촬상장치로 촬상된 화상에 상기 조작기에 의해 조작되는 조작표식을 중첩하여 상기 표시장치에 표시하는 단계 및 상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 단계로 이루어지고,
    상기 조작기의 조작에 의해 상기 촬상장치의 시야가 제어되는 것을 특징으로 하는 촬상장치의 시야제어방법.
  2. 제 1항에 있어서,
    상기 촬상장치로 대상물체를 촬상하는 단계는 상기 촬상장치로부터의 영상신호를 화상데이터로 변환하는 단계를 가지고, 상기 조작표식의 이동에 응답하여 상기구동기구를 구동하는 단계는 상기 조작표식의 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를제어하는 단계를 포함하는 것을 특징으로 하는 촬상장치의 시야제어방법.
  3. 제 2항에 있어서,
    상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 단계는 상기 구동장치의 구동을 위한 소정의 한계값을 설정하는 단계를 가지고, 상기 촬상장치의 이동을 위한 제어량 연산결과가 상기 소정의 한계값을 초과하였을 때 상기 구동기구를 구동하는 단계를 포함하는 것을 특징으로 하는 촬상장치의 시야제어방법.
  4. 제 3항에 있어서,
    상기 소정의 한계값을 상기 표시장치에 영역정보로서 표시하는 단계를 더욱 포함하는 것을 특징으로 하는 촬상장치의 시야제어방법.
  5. 제 2항에 있어서,
    상기 조작기에 의해 조작되는 조작표식이 초기설정에 있어서, 상기 표시장치의 표시화면의 중앙 주변에 위치하도록 제어하는 단계를 포함하는 것을 특징으로 하는 촬상장치의 시야제어방법.
  6. 제 2항에 있어서,
    상기 조작기에 의해 조작되는 조작표식의 이동거리에 응답하여 상기 구동장치의 구동속도가 제어되는 단계를 포함하는 것을 특징으로 하는 촬상장치의 시야제어방법.
  7. 제 2항에 있어서,
    상기 촬상장치로 대상물체를 촬상하는 단계는 다시 상기 촬상장치로부터 얻어지는 소정의 화상 중, 상기 조작표식으로 지정된 부분의 화상을 템플레이트화상으로서 기억장치에 기록하는 단계를 포함하고, 상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 단계는 상기 촬상장치로부터 그 후에 얻어지는 소정의 화상 중, 상기 템플레이트화상과 가장 유사도가 높은 부분의 위치좌표를 검출하여 상기 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어하는 단계를 포함하는 것을 특징으로 하는 촬상장치의 시야제어방법.
  8. 대상물체를 촬상하는 촬상장치와;
    상기 촬상장치를 구동하는 구동기구와;
    상기 촬상장치의 시야를 제어하는 조작기와;
    상기 촬상장치로부터의 화상을 표시하는 표시장치 및 상기 촬상장치, 구동기구, 표시장치를 제어하는 제어장치로 이루어지고,
    상기 제어장치는 상기 촬상장치로부터의 화상에 상기 조작기에 의해 조작되는 조작표식을 중첩하여 상기 표시장치에 표시함과 동시에, 상기 조작표식의 이동에 응답하여 상기 구동기구가 구동되어 상기 촬상장치의 시야가 제어되는 것을 특징으로 하는 촬상장치의 시야제어장치.
  9. 제 8항에 있어서,
    상기 제어장치는 화상데이터변환부와 화상처리부를 가지고, 상기 화상데이터변환부는 상기 촬상장치로부터의 영상신호를 화상데이터로 변환하고, 상기 화상처리부는 상기 조작표식의 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어하는 것을 특징으로 하는 촬상장치의 시야제어장치.
  10. 제 9항에 있어서,
    상기 제어장치는 상기 촬상장치의 구동을 위한 소정의 한계값 설정수단을 가지고, 상기 촬상장치의 이동을 위한 제어량 연산결과가 상기 소정의 한계값을 초과하였을 때, 상기 구동기구를 구동하는 것을 특징으로 하는 촬상장치의 시야제어장치.
  11. 제 9항에 있어서,
    상기 소정의 한계값을 상기 표시장치에 영역정보로서 표시하는 것을 특징으로 하는 촬상장치의 시야제어장치.
  12. 제 9항에 있어서,
    상기 제어장치는 상기 조작기에 의해 조작되는 조작표식이 초기설정에 있어서 상기 표시장치의 표시화면의 중앙 주변에 위치하도록 제어하는 것을 특징으로 하는 촬상장치의 시야제어장치.
  13. 제 9항에 있어서,
    상기 조작기는 조작자의 음성, 몸짓, 손짓, 시선 중 어느 하나를 입력으로 하는 장치인 것을 특징으로 하는 촬상장치의 시야제어장치.
  14. 제 9항에 있어서,
    상기 화상처리부는 상기 촬상장치로부터 얻어지는 소정의 화상 중, 상기 조작표식으로 지정된 부분의 화상을 템플레이트화상으로서 기억장치에 기록함과 동시에, 상기 촬상장치로부터 그 후에 얻어지는 소정의 화상 중, 상기 템플레이트화상과 가장 유사도가 높은 부분의 위치좌표를 검출하고, 상기 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어하는 것을 특징으로 하는 촬상장치의 시야제어장치.
  15. 대상물체를 촬상하는 촬상장치와;
    촬상장치를 구동하는 구동기구와;
    상기 촬상장치의 시야를 제어하는 조작기와, 표시장치 및 제어장치로 이루어지는 촬상장치의 시야제어장치를 제어하기 위한 컴퓨터 판독 가능한 코드수단을 기능시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체에 있어서,
    상기 컴퓨터 판독 가능한 프로그램코드수단은
    상기 촬상장치로 대상물체를 촬상하여 상기 촬상장치로부터의 영상신호를 화상데이터로 변환하는 수단과;
    상기 촬상장치를 구동하기 위하여 상기 촬상장치의 시야를 제어하는 조작기로부터의 신호를 입력하는 수단과;
    상기 촬상장치로 촬상된 화상에 상기 조작기에 의해 조작되는 조작표식을 중첩하여 상기 표시장치에 표시하는 수단 및 상기 조작표식의 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과에 의거하여 상기 구동기구를 제어하는 수단을 포함하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터판독 가능한 기록매체.
  16. 제 15항에 있어서,
    상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 수단은 상기 구동장치의 구동을 위한 소정의 한계값을 설정하는 수단을 가지고, 상기 촬상장치의 이동을 위한 제어량 연산결과가 상기 소정의 한계값을 초과하였을 때, 상기 구동기구를 구동하는 수단을 포함하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터판독 가능한 기록매체.
  17. 제 16항에 있어서,
    상기 조작기에 의해 조작되는 조작표식이 초기설정에 있어서 상기 표시장치의 표시화면의 중앙 주변에 위치하도록 제어하는 수단을 더욱 포함하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터판독 가능한 기록매체.
  18. 제 16항에 있어서,
    상기 조작기에 의해 조작되는 조작표식의 이동거리에 응답하여 상기 구동장치의 구동속도를 제어하는 수단을 더욱 포함하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터판독 가능한 기록매체.
  19. 제 15항에 있어서,
    상기 촬상장치로 대상물체를 촬상하는 수단은, 상기 촬상장치로부터 얻어지는 소정의 화상 중, 상기 조작표식으로 지정된 부분의 화상을 템플레이트화상으로서 기억장치에 기록하는 수단을 더욱 포함하고, 상기 조작표식의 이동에 응답하여 상기 구동기구를 구동하는 수단은 상기 촬상장치로부터 그 후에 얻어지는 소정의 화상 중, 상기 템플레이트화상과 가장 유사도가 높은 부분의 위치좌표를 검출하고, 상기 위치좌표에 의거하여 상기 촬상장치의 이동을 위한 제어량을 연산하고, 상기 연산결과 에 의거하여 상기 구동기구를 제어하는 수단을 포함하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터판독 가능한 기록매체.
KR10-2002-0017380A 2001-03-30 2002-03-29 촬상장치의 시야 제어방법과 장치 및 그것을 위한컴퓨터프로그램 KR100452100B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2001-00099318 2001-03-30
JP2001099318 2001-03-30

Publications (2)

Publication Number Publication Date
KR20020077255A true KR20020077255A (ko) 2002-10-11
KR100452100B1 KR100452100B1 (ko) 2004-10-08

Family

ID=18952870

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0017380A KR100452100B1 (ko) 2001-03-30 2002-03-29 촬상장치의 시야 제어방법과 장치 및 그것을 위한컴퓨터프로그램

Country Status (2)

Country Link
US (1) US20020171742A1 (ko)
KR (1) KR100452100B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7647197B2 (en) * 2002-08-09 2010-01-12 Surveylab Group Limited Mobile instrument, viewing device, and methods of processing and storing information
WO2005038737A1 (en) * 2003-10-15 2005-04-28 Macroswiss S.A. Equipment for audio/video acquisition and transmission which can be thrown into predetermined places
JP5514506B2 (ja) * 2009-10-21 2014-06-04 株式会社日立国際電気 侵入物監視システムおよび侵入物監視方法
JP2011199750A (ja) * 2010-03-23 2011-10-06 Olympus Corp 撮像端末、外部端末、撮像システム、及び撮像方法
US20130335587A1 (en) * 2012-06-14 2013-12-19 Sony Mobile Communications, Inc. Terminal device and image capturing method
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN107077154B (zh) 2016-08-17 2018-12-07 深圳市大疆灵眸科技有限公司 云台控制方法、装置、存储介质以及无人机

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5196929A (en) * 1989-07-05 1993-03-23 Olympus Optical Co., Ltd. Display system of camera having tracking apparatus
JPH07288802A (ja) * 1994-04-18 1995-10-31 Nippon Telegr & Teleph Corp <Ntt> 侵入物体監視装置
JP3797678B2 (ja) * 1994-05-26 2006-07-19 富士通株式会社 ウィンドウとカメラの協調制御方法および装置
KR960001858A (ko) * 1994-06-08 1996-01-26 김광호 마우스를 이용한 카메라방향제어방법 및 그 장치
US6266085B1 (en) * 1994-11-17 2001-07-24 Canon Kabushiki Kaisha Camera imaging and magnification device
JP3335017B2 (ja) * 1994-11-29 2002-10-15 キヤノン株式会社 カメラ装置の制御装置
JP3315555B2 (ja) * 1995-04-07 2002-08-19 キヤノン株式会社 カメラ制御装置
US5878151A (en) * 1996-10-31 1999-03-02 Combustion Engineering, Inc. Moving object tracking
KR19990041792A (ko) * 1997-11-24 1999-06-15 윤종용 피사체 추적 촬영장치 및 방법
US6400831B2 (en) * 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
EP0967584B1 (en) * 1998-04-30 2004-10-20 Texas Instruments Incorporated Automatic video monitoring system
US6545706B1 (en) * 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
AU2001247315A1 (en) * 2000-03-10 2001-09-24 Sensormatic Electronics Corporation Method and apparatus for object tracking and detection
US6944315B1 (en) * 2000-10-31 2005-09-13 Intel Corporation Method and apparatus for performing scale-invariant gesture recognition
US6771306B2 (en) * 2001-03-28 2004-08-03 Koninklijke Philips Electronics N.V. Method for selecting a target in an automated video tracking system
US7173650B2 (en) * 2001-03-28 2007-02-06 Koninklijke Philips Electronics N.V. Method for assisting an automated video tracking system in reaquiring a target

Also Published As

Publication number Publication date
US20020171742A1 (en) 2002-11-21
KR100452100B1 (ko) 2004-10-08

Similar Documents

Publication Publication Date Title
US5617312A (en) Computer system that enters control information by means of video camera
JP4451122B2 (ja) ビデオ追跡システム及び方法
US6337709B1 (en) Image display device
US7596240B2 (en) Object tracking method and object tracking apparatus
US6154558A (en) Intention identification method
US6266085B1 (en) Camera imaging and magnification device
US20040179121A1 (en) System and method for displaying captured images according to imaging device position
JP5591006B2 (ja) 自動追尾カメラシステムの制御装置及びそれを有する自動追尾カメラシステム
KR20190013759A (ko) 연산 처리 장치 및 연산 처리 방법
JP2004258837A (ja) カーソル操作装置、その方法およびそのプログラム
US20130314547A1 (en) Controlling apparatus for automatic tracking camera, and automatic tracking camera having the same
KR20030007728A (ko) 타겟을 재포착하는데 있어 자동화된 비디오 추적 시스템을지원하는 방법
JP2006229321A (ja) 自動追尾撮像装置及び自動追尾撮像方法、並びにプログラム
KR100452100B1 (ko) 촬상장치의 시야 제어방법과 장치 및 그것을 위한컴퓨터프로그램
JP2008181198A (ja) 画像表示システム
JP2005135014A (ja) 物体検出装置
JP2002010240A (ja) 監視システム
JP4572190B2 (ja) 物体検出装置
JP2002359766A (ja) 撮像装置の視野制御法及び視野制御装置並びにプログラム
JP4286961B2 (ja) Itv監視方法及びitv監視装置
JP4010708B2 (ja) 機器制御装置
JP3828096B2 (ja) 物体追跡装置
JP2000101990A (ja) 監視カメラ装置
JP2001145094A (ja) カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP3197076B2 (ja) 監視制御装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120907

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20130903

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20140901

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20150827

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee