KR20000071313A - 감시 시스템에 있어서의 화상 기록/재생 장치 - Google Patents

감시 시스템에 있어서의 화상 기록/재생 장치 Download PDF

Info

Publication number
KR20000071313A
KR20000071313A KR1020000004221A KR20000004221A KR20000071313A KR 20000071313 A KR20000071313 A KR 20000071313A KR 1020000004221 A KR1020000004221 A KR 1020000004221A KR 20000004221 A KR20000004221 A KR 20000004221A KR 20000071313 A KR20000071313 A KR 20000071313A
Authority
KR
South Korea
Prior art keywords
image
surveillance
surveillance image
display
event
Prior art date
Application number
KR1020000004221A
Other languages
English (en)
Other versions
KR100774078B1 (ko
Inventor
나가야시게끼
미야따께다까후미
후지따다께히로
나가사까아끼오
Original Assignee
가나이 쓰토무
가부시키가이샤 히타치세이사쿠쇼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가나이 쓰토무, 가부시키가이샤 히타치세이사쿠쇼 filed Critical 가나이 쓰토무
Publication of KR20000071313A publication Critical patent/KR20000071313A/ko
Application granted granted Critical
Publication of KR100774078B1 publication Critical patent/KR100774078B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99932Access augmentation or optimizing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching

Abstract

감시 시스템에 있어서의 화상 기록/재생 장치 내에서, 입력되는 감시 화상 신호(110)를 디지털화된 복수의 시계열적인 감시 화상 프레임으로 하여 제1 기억 영역(173)에 일시적으로 기억한다. 제1 기억 영역에 기억된 디지털화된 복수의 감시 화상 프레임에서 적어도 1종류의 감시 이벤트에 해당하는 복수의 감시 화상 프레임을 추출하여 제2 기억 영역(161)에 기억한다. 제2 기억 영역에 기억된 감시 화상 프레임 각각에 대하여, 그 감시 화상 프레임의 제2 기억 영역에 있어서의 저장 장소에 관한 정보와 상기 감시 화상 프레임의 속성에 관한 정보를 포함하는 요소로 구성되는 데이타 구조를 갖는 감시 이벤트 DB를 작성하여 제3 기억 영역(162)에 저장한다. WEB 브라우저(501)를 사용한 유저로부터의 네트워크(502)를 거친 열람 요구에 응답하여, 감시 이벤트 DB를 검색하여 열람 요구에 해당하는 복수의 감시 화상 프레임의 저장 장소를 취득하는 것에 의해, 열람 요구에 해당하는 복수의 감시 화상 프레임을 제2 기억 영역에서 선택한다. 선택된 복수의 감시 화상 프레임은 HTML 데이타로 변환되고, 네트워크를 거쳐 접속된 디스플레이로 보내지고, 디스플레이 상에 2차원적인 배치(도 8)로서 표시되든가 또는 시계열적인 애니메이션(552)으로서 표시된다.

Description

감시 시스템에 있어서의 화상 기록/재생 장치{IMAGE RECORDING/REPRODUCING APPARATUS IN MONITOR SYSTEM}
본 발명은 감시 화상 분야에서 사용되는 화상 기록/재생 장치(image recording/reproduction apparatus)에 관한 것으로, 특히 장시간에 기록한 감시 화상을 녹화 시간의 수십분의 일로 열람·검색할 수 있는 화상 기록/재생 장치에 관한 것이다.
슈퍼마킷이나 컨비니언스 스토어, 엘리베이터 등, 빈번히 사람의 출입이 있으면서, 그것을 관리·유지하는 측 스탭의 눈이 가기 어려운 장소에는 방범·검찰을 목적으로 한 감시 카메라가 설치되어 있다. 이러한 감시 시스템에는 모아진 화상을 인간에게 겉치레로 보여주는 형태(온라인 감시라 함)와 화상을 축적함에 있어서 사후 필요한 경우(범죄 발생 등)에 열람 검색을 하는 형태(축적형 감시라 함)의 크게 두가지가 있다. 축적형 감시의 형태는 온라인 감시에 비하여 인건비가 거의 들지 않으므로, 널리 이용되고 있다. 이 축적형 감시에서는 취득된 화상의 축적에 주로 타임 경과 비디오 레코더(time-lapse video recorder)가 사용된다.
타임 경과 비디오 레코더라 함은 통상의 비디오 카메라를 기초로, 수백시간분의 화상을 축적할 수 있도록, 통상 초당 30회 하는 프레임 화상 녹화의 간격을 1초사이에 수 프레임 정도로 넓혀서, 산발적으로 화상을 기록할 수 있도록 변경한 것이다. 일반적인 비디오 캠코더 베이스의 타임 경과 비디오 레코더에서는 120분 녹화가능한 테이프 매체를 사용하여 1프레임/초로 녹화하는 것에 의해, 약 180 시간(약 8일분)의 기록이 가능하다. 프레임 녹화의 간격을 넓히면 더욱 장시간의 기록이 가능하지만, 감시 대상이 기록 화상에서 빠져 버릴 위험이 있다. 그 때문에, 실제 운영 상은 1초이상 간격을 넓히는 일은 거의 없다. 또한, 120분이상의 기록 시간을 갖는 테이프 매체를 사용하는 것도 가능하지만, 테이프 매체의 내구성(파단) 문제가 있으므로, 120분 테이프가 사용된다. 그러한 상황에서, 비디오 캠코더 베이스의 타임 경과 비디오 레코더의 최장 녹화 시간은 약 180시간으로 되어 있다.
화상 기록은 테이프의 선두에서 끝을 향하여 차례로 실행된다. 테이프의 끝까지 기록하면, 자동적으로 되감기를 실행하고, 테이프의 선두부터 오버라이트를 실행하여 간다. 이와 같이 하여, 항상 최대 180시간전까지의 화상을 저장하도록 되어 있다. 화상의 열람 방법은 통상의 비디오 캠코더와 대략 같다. 단, 그대로 보통으로 녹화된 비디오 테이프와 같게 재생하면, 30배속으로 되어 버리므로, 초당 몇장의 비율로도 재생할 수 있도록 되어 있다.
또한, 일부의 타임 경과 비디오 레코더에서는 기록 방법을 디지털화하고 하드디스크 상에 기록하는 것도 있다. 이것은 VHS 비디오 캠코더 베이스의 타임 경과 비디오 레코더에서 기계적으로 기록·정지를 반복하여 기록 헤드가 고장나거나 재생시에 테이프 매체가 열화하거나 하는 문제점을 해결하는 것이다. 그러한 디지털 기록 방식을 채용한 것은 종래 테이프 매체에 기록하는 방식과 구별하여 디지털·타임 경과·비디오 레코더라 한다.
이와 같이, 타임 경과 비디오 레코더에서는 장시간의 축적이 가능하지만, 축적한 화상의 재생·열람에 큰 문제가 있었다. 먼저, 첫째, 180시간분 모두를 확인하는 데는 기록 매체가 갖는 녹화 시간(테이프에서는 120분)의 수배의 시간이 걸려 버린다는 점이 있다. 둘째, 감시 화상로서 의미가 있는 것과 없는 것이 동시에 또한 교대로 기록·재생되어, 조사해야 할 장소의 정리가 되지 않는 상태에서 검색·열람을 실행하므로, 매우 효율이 나쁘다고 하는 점이다. 현장에서는 테이프 선두부터 단순히 재생을 실행하고, 막연한 열람을 하는 것에 지나지 않으므로, 목적으로 하는 화상을 빼먹기 쉬운 상황으로 된다.
이상과 같이, 타임 경과 비디오 레코더에서는 축적 화상의 열람에서는 장시간에 걸쳐 화상의 판별을 집중하는 것이 요구되어, 유저의 고통으로 되어 있었다.
이것에 대하여, 적외선 센서와 같은 인감(人感) 센서와 조합하는 어프로치가 이미 있고, 해결이 가능할 것으로 생각되지만, (1)VHS 비디오 캠코더 베이스의 타임 경과 비디오 레코더에서는 녹화·정지 동작을 실행하는 기계 부분이 빈번한 온 오프에 의해 고장율이 격증하고, (2) 인감 센서의 유효 거리나 센서 감도의 관점에서 신뢰성이 부족하고, (3) 새로운 설치 코스트가 드는 등의 문제점 때문에, 실제 타임 경과 비디오 레코더의 운용에서는 거의 사용되지 않고, 문제의 해결에는 이르지 않고 있다.
종래 타임 경과 비디오 레코더에 있어서의 근원적인 문제점은 입력되는 화상을 조금도 분류하는 일없고, 단순히 시간순으로 축적하는 것에 있다. 만일, 인간이 직접 감시를 실행하여 메모를 취하는 것이면, 감시 장소에 생기는 변화(예 : 사람의 출입, 비품 배치의 변화 등)에 맞춰 분류·정리를 실행하는 등하여 후에 찾기 쉽게 할 것이다. 또한, 열람의 경우에도 찾고 싶은 내용(예 : 침입자의 얼굴 화상, 비품의 파괴·도난의 유무)에 맞춰, 요구에 맞는 부분 만을 대략 추출하여, 그곳부터 차분하게 찾는 다고 하는 연구를 실시한다. 감시를 실행하는 시간이 길게 되면, 그러한 연구는 더욱 중요하다.
타임 경과 비디오 레코더에서도 앞서 기술한 바와 같은 인간이 실행하고 있는 정리·분류·포커싱을 실행할 수 있으면, 이제까지 검색에 걸렸던 시간을 대폭적으로 줄임과 동시에 유저에 관한 정신적인 부담을 현저히 저감하는 것이 가능하게 된다.
이상과 같이 종래 화상 기억 장치(타임 경과 비디오 레코더)는 화상을 분류·정리하여 축적하는 방식과 목적으로 하는 화상을 찾기 위한 열람 방식에 관하여 문제가 있었다.
본 발명의 목적은 감시 시스템에 있어서, 유저에 의해 효율적인 감시 화상의 기록/재생이 실행되는 화상 기록/재생 장치를 제공하는 것이다.
본 발명의 목적은 보다 구체적으로, 감시 대상으로 되는 장소에 생기는 여러 가지 감시 이벤트(사람의 출입, 얼굴이 찍히고 있는가 어떤가, 환경의 물리적 변화 등)을 검출하고, 그 이벤트의 종류에 따라 화상을 분류·정리하여 축적하고, 유저가 열람·검색할 때에 요하는 시간을 대폭적으로 단축하는 인터페이스를 구비한 화상 기록/재생 장치, 감시 시스템, 감시 방법이 기록된 컴퓨터 판독 가능한 기록 매체를 제공하는 것이다.
도 1은 본 발명의 화상 기록/재생 장치를 이용한 감시 시스템의 일예를 도시한 도면.
도 2는 본 발명의 화상 기록/재생 장치에 있어서의 시스템 구성의 일예를 도시한 도면.
도 3은 본 발명에서 검출한 감시 이벤트에 해당하는 화상을 기록하는 방식 중, 기본적인 프레임 화상의 샘플링 방식을 설명하는 도면.
도 4는 본 발명에서 검출한 감시 이벤트에 해당하는 화상을 기록하는 방식 중, 감시 이벤트의 유무에 따른 프레임 화상의 샘플링 방법을 설명하는 도면.
도 5a 및 도 5b는 본 발명에서 검출한 감시 이벤트에 해당하는 화상을 기록하는 방식 중, 프레임 화상의 샘플링 간격을 감시 이벤트 변동에 따라 동적으로 제어하는 방법을 설명하는 도면.
도 6은 본 발명의 감시 화상 기록/재생 장치에 있어서의 화상 녹화·재생시의 화면 중, 기록시 화면을 설명하는 도면.
도 7은 본 발명의 감시 화상 기록/재생 장치에 있어서의 화상 녹화·재생시의 화면 중, 재생시 화면을 설명하는 도면.
도 8은 본 발명의 감시 화상 기록/재생 장치에 있어서의 화상 기록·재생시의 화면 중, 일람 표시 화면을 설명하는 도면.
도 9는 본 발명의 화상 기록/재생 장치를 감시 센터와 같은 원격지에서 조작하고, 기록을 실행하거나 감시 화상을 재생·열람하는 유저 인터페이스에 대하여 설명하는 도면.
도 10은 본 발명의 화상 기록/재생 장치에 대하여, 기능의 관점에서 구성을 설명하는 도면.
도 11은 본 발명의 감시 이벤트 검출 엔진에서 실행되는 감시 이벤트 검출 방법에 있어서, 착목 영역의 설정 방법과 그때의 검출 결과에 대하여 설명하는 도면.
도 12는 본 발명의 감시 이벤트 검출 엔진에서 실행되는 감시 이벤트 검출 방법에 있어서, 도 11에서의 착목 영역의 설정에 의해 얻어지는 시공간 화상에 대하여 설명하는 도면.
도 13은 본 발명의 감시 이벤트 검출 엔진에서 실행되는 감시 이벤트 검출 방법에 있어서, 또 하나의 착목 영역의 설정 방법을 설명하는 도면.
도 14는 본 발명의 감시 이벤트 DB의 데이타 구조를 설명하는 도면.
도 15는 본 발명의 감시 이벤트 구간에 있어서의 대표 화면을 결정하는 알고리즘에 대하여 설명하는 도면.
도 16a, 도 16b 및 도 16c는 본 발명의 WEB 브라우저에 의해 제시되는 유저 인터페이스에서의 감시 화상 표시를 HTML에 의해 실현하는 방식에 대하여 설명하는 도면.
도 17은 본 발명의 일람 화상 표시 화면 상에 있어서의 대표 화상의 클릭에서 화상 재생 표시 영역 상에 화상이 재생되기까지의 처리 흐름을 간단히 설명하는 도면.
도 18은 본 발명의 일람 화상 표시 화면 상의 HTML 텍스트 데이타가 생성되는 순서에 대하여 설명하는 도면.
도 19a 및 도 19b는 본 발명의 시간 트리 표시에서 일람 표시 화면을 동적으로 전환하는 방법에 대하여 설명하는 도면.
도 20은 본 발명의 시간 트리 구조 표시의 가지 노드를 클릭한 경우의 동작을 설명하는 도면.
<도면의 주요 부분에 대한 부호의 설명>
100 : 화상 기록/재생 장치
110 : 비디오 입력 단자
111 : A/D 변환기
112 : 인터페이스
118 : 비디오 메모리
119 : D/A 변환기
120 : 비디오 출력 단자
130 : 터치 패널
139 : NIC
150 : CPU
160 : 보조 기억 장치
상기 과제를 해결하기 위한 화상 기록/재생 장치는 시계열적으로 화상을 입력하여 디지털화하는 유닛, 현재 입력중인 화상을 표시하는 입력 화상 유닛, 입력 화상에 대하여 감시 이벤트를 검출하는 감시 이벤트 검출 유닛, 검출한 감시 이벤트에 따라 입력 화상을 기억하는가 판정하는 녹화 판정 유닛, 녹화 판정 수단에서 「녹화함」으로 판정된 화상을 기억하는 화상 기억 유닛, 기억한 화상의 저장 장소와 검출된 감시 이벤트 정보를 기록하는 감시 이벤트 기억 유닛, 유저의 열람 요구를 만족하는 감시 이벤트 정보를 검색하고 열람하는 화상을 선별하고, 감시 이벤트 정보와 함께 레이아웃하는 화상 선별 배치 유닛, 및 레이아웃된 화상 또는 감시 이벤트 정보를 하나 또는 복수 표시하는 감시 정보 표시 유닛을 구비한다.
상기 화상 기억 수단 및 감시 이벤트 기억 수단의 매체에는 하드디스크, DVD-RAM, 플래시 메모리의 랜덤 액세스 메모리를 사용한다.
상기 감시 이벤트 검출 수단은 예를 들면 USP5,721,692 「이동 물체 검출·추출 장치」에 공개되어 있는 수단을 사용하면 된다. 즉 샘플링 시각때의 입력 화상과 과거에 녹화한 화상 사이의 상이도로부터, 배경 구조 변화의 유무, 조명 변화의 유무, 이동 물체의 유무 등을 각각 감시 이벤트로서 검출한다. 또한, 살색 영역을 검출함과 동시에 이동 물체가 존재하는 신 중에 얼굴 후보 영역이 존재하는 가 어떤 가를 판정하는 것에 의해, 「얼굴이 카메라측에 가장 향한 시점」이라고 하는 감시 이벤트를 검출한다.
상기 녹화 판정 수단은 최신 감시 이벤트와 이미 검출되어 있는 감시 이벤트의 종류·이력과 직전에 기억한 화상의 녹화 시각과 현재 시각의 차, 각종 기억 수단에 사용되고 있는 매체의 나머지 용량, 유저가 지정한 최소 기억 시간 길이 등으로부터, 화상을 「녹화함」인가 어떤가를 판정한다.
상기 감시 이벤트 기억 수단은 이들 감시 이벤트에 대하여 녹화한다고 판정된 경우에 화상 기억 수단 내에서의 화상이 저장되는 장소, 발생·종료한 일시·프레임 화상 중에서의 위치·카메라 ID(장소 ID)와 감시 이벤트를 나타내는 특징량을 소정의 장소에 기억한다.
상기 화상 선택 배치 수단은 예를 들면, 「검지된 얼굴 화상의 일람」, 「어느 1시간내에 발생한 감시 이벤트의 일람」, 「존재하는 감시 이벤트에서 녹화된 화상의 애니메이션 표시」, 「감시 장소의 설치물의 변화시 만의 일람」, 「하루의 감시 이벤트 분포」 등의 유저의 열람 요구마다 감시 이벤트 정보를 검색하고, 대응하는 화상을 선택·배치하여 유저가 찾기 쉽게 뷰(view)를 작성한다. 또한, 각 뷰마다의 녹화 선택·배치에 필요한 검색 대상이나 레이아웃에 관한 룰·알고리즘은 미리 장치의 펌웨어로서 내장한다.
또한, 다른 해결 수단에서는 상기 화상 기록/재생 장치에 복수 표시된 화상 또는 감시 이벤트 정보를 유저의 열람 조작에 따라 동기시키는 수단을 추가하는 것에 의해, 복수의 뷰가 연휴하여 표시되는 인터페이스를 실현하고, 유저에게 감시 이벤트 정보와 화상을 다각적·효율적으로 제시하는 장치를 실현한다.
이하, 본 발명의 1실시예를 상세히 설명한다.
도 1은 본 발명의 화상 기록/재생 장치를 이용한 감시 시스템의 일예이다. 감시 카메라(200)로부터의 화상 신호는 화상 기록/재생 장치(100)의 비디오 입력 단자(110)에서 입력되고, 디지털 화상로서 기록된다. 기록된 디지털 화상은 비디오 출력 단자(120)에서 아날로그 화상로서 디스플레이(210)에 표시된다. 또한, 기록된 디지털 화상은 LAN 단자(140)에서 네트워크(WAN)(502)를 통하여 감시 센터의 퍼스널 컴퓨터(220)로 보내진다. 그때, 전화 회선 등도 이용할 수 있다. 화상 기록/재생 장치(100)는 터치 패널(130)과 포인팅 디바이스(190)를 거친 지시에 의해 제어된다.
이상과 같이 본 발명의 화상 기록/재생 장치(100)에 접속되는 감시 기기는 종래 아날로그 감시 카메라나 디스플레이가 그대로 접속될 수 있다. 또한, 네트워크를 거쳐 먼 곳으로 감시 화상을 전송할 수 있는 점은 종래 타임 경과 비디오 레코더에 없었던 기능이다.
도 2는 본 발명인 화상 기록/재생 장치의 시스템 구성의 일예이다. 구체적으로는 현재 범용적으로 사용되고 있는 디지털 컴퓨터의 시스템 구성과 같다.
먼저, 참조 부호(111)은 감시 카메라로부터의 아날로그 화상 신호를 디지털 화상로 변환하는 A/D 변환기이다. 변환된 디지털 화상은 인터페이스(112)를 거쳐 메모리(170)에 페치한다. 감시 카메라(200)로부터의 화상을 그대로 디스플레이(210) 상에 표시하는 경우는 그것과 동시에 비디오 메모리(118)에 페치한다. 또한, 비디오 입력 단자(110)에서 디지털 화상 신호가 입력되는 경우는 A/D 변환기(111)는 사용되지 않는다.
비디오 메모리(118)는 디스플레이(210)에 표시되는 화상을 디지털 데이타로서 저장한다. 참조 부호(119)는 일반적으로 RAMDAC라고도 불리우고 있는 종류의 D/A 변환기이고, 비디오 메모리(118)에 기록된 데이타를 주사선 속도에 맞춰 순차 판독하고, 디스플레이(210)에 묘화한다. 따라서, 비디오 메모리(118)의 데이타를 갱신하면, 그 갱신 내용이 디스플레이(210)의 표시 내용에 바로 반영된다. 디스플레이(210)는 화상을 표시하기 위한 디바이스이고, 예를 들면, 소형 CRT나 플라즈마 디스플레이라도 좋고, 액정 타입의 표시 디바이스라도 상관없다.
이러한 화상의 페치를 초30회 정도의 빈도로 반복함으로써, 디스플레이 상에서 연속적인 동상의 표시가 실행된다.
보조 기억 장치(160)는 하드 디스크 등의 대용량 기록 장치이고, 디지털 데이타를 반영구적으로 기록하기 위한 장치이다. 이것은 PCMCIA 타입의 하드 디스크 카드와 같이 기억 장치마다 본체에서 착탈할 수 있는 것이거나 또는 DVD-RAM, 플래시 메모리 등과 같이 기록 매체 만을 착탈할 수 있는 타입의 기록 장치라도 상관없다.
CPU(150)는 감시 이벤트의 검출, 녹화 제어, 표시 화상의 선택·배치 등, 본 발명에서 설명하는 기능을 실현하기 위한 소프트웨어 프로그램을 실행한다. 프로그램은 메모리(170)에 상주하고, 프로그램의 실행에 필요하게 되는 데이타도 여기에 필요에 따라 저장된다.
NIC(Network Interface Card)(139)는 녹화한 화상나 감시 이벤트 정보를 네트워크를 통하여 전송한다.
유저로부터의 지시는 터치 패널(130)에서 인터페이스(131)를 거쳐 CPU(150)로 전해지고, 적절히 처리된다. 또한, 터치 패널(130) 대신에, 적외선 통신 방식을 사용하여 리모컨에서 정보 입력을 실행하여도 좋다.
참조 부호(180)은 이상 기술한 각 디바이스 사이를 상호 연결하는 데이타 버스이다.
이상의 화상 기록/재생 장치의 시스템 구성에 있어서, 먼저 감시 화상을 기록할 때의 동작에 대하여 설명한다.
기록 동작은 메모리(170) 내에 저장된 제어 프로그램(171)에 의해 제어되는 CPU(150)의 실행에 의해 실행된다. 최초에 비디오 입력 단자(110)에서 소정 기간의 화상 신호를 페치하고 각각의 디지털 프레임 화상의 열로 하고, 메모리(170)에 일시적으로 저장한다. 페치한 화상을 그대로 디스플레이(210) 상에 표시하는 경우는 동시에 순차 비디오 메모리(118)로 전송하고, D/A 변환기(119) 및 비디오 출력 단자(120)를 거쳐 디스플레이(210)에 입력 화상을 표시한다. 이어서, 메모리(170)에 일시적으로 저장된 프레임 화상열(173)에서 그 프레임 화상열(173)에 있어서의 감시 이벤트 정보(174)를 검출하고, 이것을 메모리(170)에 저장한다. 이 감시 이벤트 정보(174)와 제어 데이타(172)에서, 녹화해야 할 화상 만을 판정·선택한다. 최후에 선택된 화상 및 그것에 대응하는 감시 이벤트 정보를 각각 보조 기억 장치(160)에 화상 데이타(161)로의 추가 화상 데이타 및 감시 이벤트 DB(162)로의 추가 이벤트 정보로서 저장한다. 감시 이벤트 DB는 이벤트의 식별 ID, 장소, 시간, 이벤트를 나타내는 특징량, 이벤트의 판정에 사용한 계산 결과를 각 화상마다 저장하고, 감시 이벤트의 종류나 특징량으로 검색·분류할 수 있도록 한다.
이어서, 감시 화상이 유저에 의해 열람될 때의 동작에 대하여 설명한다. 열람시의 동작은 기록시와 마찬가지로, 메모리(170) 내에 저장된 제어 프로그램(171)에 의해 제어되는 CPU(150)가 실행한다. 먼저, 터치 패널(130)을 거쳐 입력된 유저의 열람 요구에 따라, 보조 기억 장치(160)에 저장되어 있는 감시 이벤트 DB에서, 유저의 열람 요구에 해당하는 감시 이벤트 정보를 포함하는 감시 이벤트 정보를 메모리(170) 상으로 전송한다. 이때, 감시 이벤트 정보의 내부 레코드를 판독하고, 요구에 일치하지 않는 것을 메모리(170)에서 삭제한다. 이어서, 선별된 감시 이벤트 정보의 내부 레코드를 판독하고, 유저의 열람 요구에 해당하는 감시 이벤트에 대응하는 화상의 패스(path)명을 취득하고, 이 패스명을 이용하여 해당하는 화상을 보조 기억 장치(160)에서 메모리(170)로 전송한다. 이어서, 메모리(170) 상의 감시 이벤트 정보와 화상을 유저에게 보기 쉬운 형태로 레이아웃하고, 비디오 메모리(118)로 전송한다. 비디오 메모리(118)로 전송된 감시 이벤트 정보와 화상 데이타는 감시 결과로서 그대로 디스플레이(210)에 표시된다. 이상의 동작은 유저로부터의 입력 지시에 따라 몇 번이고 반복된다.
일반적으로, 타임 경과 비디오 레코더에서는 화상을 녹화할 때의 샘플링 간격은 자유롭게 설정할 수 있도록 되어 있고, 간격을 크게 하는 것에서 보다 장시간의 녹화를 할 수 있도록 되어 있다. 그러나, 단순히 샘플링 간격을 지나치게 넓히면, 카메라의 프레임 화상 내를 통과하는 물체가 빠른 경우에 녹화 누락이 생기고, 감시의 목적을 달성할 수 없게 되어 버린다. 그래서, 녹화 누락을 발생시키는 일없이, 장시간 녹화가 가능한 방식을 이하에 설명한다.
도 3, 도 4, 및 도 5는 본 발명에서 검출한 감시 이벤트에 해당하는 화상을 기록하는 방식을 도시한 도면이다.
도 3은 단순한 타임 경과 녹화에 감시 이벤트에 의한 필터링을 조합한 기록 방식을 설명하는 도면이다.
참조 부호(300)는 비디오 신호의 생성 주기를 나타내는 타이밍 챠트이다. NTSC 규격에서는 1초사이에 30 프레임이 생성된다. 이것에 대하여, 지정된 샘플링 간격으로 화상을 페치함으로써 시간적으로 프레임을 솎아낸다.
참조 부호(310)는 샘플링의 타이밍 챠트를 도시한다. 이 예에서는 시간적으로 프레임을 30분의 1로 솎아내고, 1초에 1프레임만 페치하도록 하고 있다.
참조 부호(320)는 샘플링시의 화상 내용을 나타내고 있다. 감시 카메라가 고정하고 있고, 침입물이나 배경의 변화가 없는 경우(320-1), 즉 감시 이벤트가 생기고 있지 않은 경우, 입력 화상열은 거의 동일하게 된다. 그래서, 「감시 이벤트가 생기고 있지 않음=침입물이나 배경의 변화가 없는 상태를 나타내는 미리 기록된 화상과 같음」 또는 「감시 이벤트가 생기고 있지 않음=전회 녹화한 화상과 현재 녹화하고자 하는 화상이 같음」으로 판정된 경우는 녹화를 생락함으로써, 녹화를 위한 메모리 소비를 절약한다.
참조 번호(330)은 선택된 프레임을 나타낸다. 이와 같이, 감시 이벤트에 의한 필터링을 실행하면, 화상의 변화가 많은 시간대는 일정 메모리 소비로 되지만, 야간 등 변화가 적게 되면, 중복 녹화에 의한 메모리 소비가 작게 되고, 장시간의 녹화가 가능하게 된다. 녹화가 생략된 시간의 화상은 침입물이나 배경의 변화가 없는 상태의 화상 또는 그 하나전에 녹화된 화상과 같은 화상이므로, 녹화가 생략된 시각의 화상 검색 요구가 있어도, 대리 화상로 결과를 표시하는 것이 가능하게 된다.
보조 기억 장치(160)에 기억된 감시 화상 정보는 녹화 데이타(161)와 그것이 취득된 시각 정보를 포함하는 감시 이벤트 DB(162)로 구성되어 있으므로, 도 3의 예에서는 「시각1의 화상을 표시시킴」의 검색 요구가 있었던 경우, 시각0의 화상을 대리로 표시할 수 있다.
도 4는 도 3과는 다른 방식에 의한 화상 기록 방식에 대하여 설명하는 것이다.
참조 부호(340)는 샘플링의 타이밍 챠트를 나타낸다. 도 3은 프레임의 솎아냄(thin-out)을 실행한 후에 감시 이벤트를 판정하는 것이지만, 도 4에서는 프레임의 솎아냄을 하지 않고 직접 입력된 비디오 화상의 전(全)프레임에서 감시 이벤트의 검출을 실행하고, 이벤트 구간을 결정한 후에 예를 들면, 1초에 3회 미리 지정된 샘플링 간격으로 기록을 실행한다. 샘플링 간격을 입력과 같이 1/30초로 하면, 이벤트 발생시의 입력 화상을 기록할 수 있다. 또한, 감시 이벤트의 종류에 따라, 미리 정해져 있던 복수의 녹화 간격의 패턴을 전환하여도 좋다.
이 방식은 감시 카메라 중의 이동 물체의 운동 방향 등을 감시 이벤트로서 검출하고 싶은 경우나 하기에 기술하는 동적인 녹화 간격의 제어를 실행하는 경우에 적합하다.
도 5a 및 도 5b는 동적인 녹화 간격의 제어를 실행하는 방식을 설명하는 것이다.
도 5a의 참조 부호(350), 도 5b의 참조 부호(360)는 샘플링의 타이밍챠트를 나타낸다.
이 기록 방식의 기본적인 큰틀은 도 4와 동일하고, 샘플링 솎아냄을 실행하는 것에 의해, 입력 비디오 화상의 전(全)프레임에서 감시 이벤트를 검출·기록을 실행한다. 도 4와 다른 점은 기록시의 샘플링 간격이 고정인 것에 대하여, 도 5a 및 도 5b에서는 샘플링 간격을 동적으로 변경하는 점이다. 도 5a에 도시한 타이밍 챠트(350)에서는 감시 이벤트 정보와 샘플링 간격을 링크시켜 기록을 실행하는 방식을 나타낸 것이다.
예를 들면, 감시 이벤트로서 연통하는 프레임 화상의 변화를 검지한다. 최신 프레임 화상과 직전 프레임 화상에 대하여 각 화소의 차분 절대값을 각각 구하여 총합을 계산한다. 이 값은 카메라 화상 중에서 이동 물체가 많을 때나 움직임이 심할 때나 명암 변화가 클 때에 크게 되고, 움직임이 작을 때는 거의 제로로 된다고 하는 성질을 갖고 있다.
이 성질을 이용하여, 이 값의 대소에 맞춰, 값이 작을 때에는 샘플링 간격을 예를 들면, 매초 2에서 4회 정도로 넓히고, 값이 클때에는 샘플링 간격을 예를 들면, 매초 30회 정도로 좁히는 것으로 한다. 그러면, 기록되는 감시 화상은 카메라 화상 중에서 움직이는 것이 많을 때나 움직임이 격할 때에는 거의 동화상에 가까운 형으로 되고, 변화가 적은 경우에는 확 움직이는 애니메이션과 같이 기록된다.
이 방식에서는 화상 중의 변화가 일정 범위로 되도록 기록할 수 있고, 예를 들면, 사람의 동작을 기록하고 싶은 경우 등에도 일정 움직임마다 기록을 실행할 수 있다.
또한, 도 5b에 도시한 타이밍 챠트(360)와 같이, 샘플링 간격의 제어에 관한 미리 작성한 룰을 주는 것도 유효하다. 예를 들면, 외부에서 사람이 입실하여 가는 도어를 감시하는 경우, 입실자의 얼굴 화상을 기록할 수 있는 것이 중요하게 된다. 이 경우, 예를 들면, 살색으로 판정되는 영역이 소정값을 넘은 것에 의해 감시 이벤트(화상 변화)를 검출하고, 기록을 시작한 직후는 샘플링 간격을 촘촘하게 하고, 서서히 간격을 넓혀 가도록 설정하고, 이것에 의해, 얼굴이 찍힌 프레임 화상을 확실히 녹화하는 것이 가능하게 된다.
이상과 같이 본 발명에 의하면, 감시 이벤트에 의해, 녹화 실행의 판정과 녹화 간격의 제어를 실행하고 있으므로, 동작이나 얼굴로 한 감시하고 싶은 대상의 녹화 누락을 발생시키는 일없이, 장시간의 녹화를 가능하게 한다.
감시 이벤트를 검출하는 수단으로서, 입력 프레임 화상 중에 있어서 상위도 대로 판정되는 영역수가 소정의 값을 넘었을 때에 「이동 물체」 또는 「조명 변화」라고 하는 감시 이벤트를 갖는다고 하여도 좋다.
또한, 감시 이벤트를 검출하는 수단으로서, 입력 프레임 화상 중에 있어서 상위도 대로 판정되는 영역수의 시간 변동이 소정의 값을 넘었을 때에, 「배경 구조의 변화」라고 하는 감시 이벤트를 갖는다고 판정하여도 좋다.
또한, 감시 이벤트를 검출하는 수단으로서, 입력 프레임 화상 중에 있어서 살색으로 판정되는 영역수가 소정의 값을 넘었을 때에 「얼굴 후보 영역임」이라고 하는 감시 이벤트를 갖는다고 판정하여도 좋다.
상이도는 예를 들면, 어떤 과거의 화상과 현재 입력된 화상 각각으로부터 블록마다 색 또는 휘도의 평균값을 계산하고, 대응하는 블록 사이의 차의 절대값을 각각 구하고, 그들의 최대값으로 하는 것에 의해 얻어진다.
또한, 상이도는 예를 들면, 어떤 과거의 화상과 현재까지의 입력 화상에 대하여, 블록마다 색 또는 휘도의 평균값에 대하여 대응하는 블록 사이의 차의 절대값을 각각 구하여 얻어진 시계열값의 이동 편균값으로 하는 것에 의해 얻어진다.
도 6, 도 7 및 도 8은 본 발명의 감시 화상 기록/재생 장치에 있어서의 화상 녹화·재생시의 화면을 설명하는 것이다. 이들 출력은 터치 패널(130)이 덮어 쓰여진 디스플레이(210) 상에 표시되는 것이다.
도 6은 화상 기록시의 화면이다. 기본적으로, 현재 입력되고 있는 화상을 표시하는 영역(400)이 중심으로 되어 구성된다. 입력 화상 영역(400)에는 장소·일시 등의 감시 이벤트 정보 표시(401)나 감시 이벤트가 현재 검지되고 있는 것과 녹화가 실행되고 있는 것을 나타내는 마커(marker)(402)가 중첩 표시되고, 유저에게 시스템 동작을 한눈에 알아볼 수 있도록 되어 있다. 참조 부호(403)은 시스템이 화상 감시를 개시하는가 어떤가를 제어하는 버튼이다.
감시 이벤트 정보 표시(401)에는 카메라가 찍고 있는 장소를 나타내는 ID(감시 장소의 명칭 : 미리 유저에 의해 등록됨), 연월일, 타임 코드(시분초와 그 초내에서의 프레임 번호) 등이 포함된다.
마커(402)에 의한 감시 이벤트의 검출 상태와 녹화 상태를 유저에게 통지 방법은 예를 들면, 이하와 같이 동작한다. 시스템이 감시 이벤트를 검출하기 시작하면, 황색으로 점멸을 시작한다. 녹화시에는 일순 붉게 점멸하는 것에 의해 보조기억 장치(160)로의 녹화(화상 데이타와 감시 이벤트 정보 데이타의 전송)가 발생하고 있는 것을 통지한다.
참조 부호(410)는 검출한 감시 이벤트의 이력을 유저에게 통지하는 영역이다. 이곳에는 감시 이벤트 정보의 유무나 강도(예 : 프레임 차분값 등)를 나타내는 파형 그래프(411)가 표시된다. 파형(411)은 시간 천이에 따라 순차 왼쪽 방향으로 시프트하고, 표시 영역(410)의 오른쪽 끝에 최신 감시 이벤트 정보값이 파형값으로서 추가된다. 표시 영역(410) 하부에는 파형 데이타(411)의 전체적인 시간 분포를 알 수 있도록, 시각을 나타내는 표시(412)가 도시되어 있다. 본예에서는 현재 시점으로부터의 몇분전인가를 표시하고 있지만, 절대 시간(몇시 몇분인 가)을 표시하여도 좋다.
참조 부호(420)도 또한 검출한 감시 이벤트의 이력을 유저에게 통지하는 영역이다. 이곳에는 그때까지 검출된 감시 이벤트마다의 대표 화상(421)와 시각(422)이 표시된다. 본예에서는 표시 영역(420) 상부에 최신 감시 이벤트에 대응하는 화상이 표시되고, 이하 아래로 향하여 새로운 순으로 대표 화상(421)와 시각(422)이 배치되어 있다.
표시 영역(410, 420)은 예를 들면, 포인팅 디바이스(190)에서, 그래프 부분이나 화상 부분을 터치하는 것에 의해, 녹화 화상의 재생이 가능하게 되어 있다.
재생시에는 후술하는 도 7과 같이 영역(400) 부분의 표시로 전환하고, 그것에 녹화한 화상이 출력된다.
예를 들면, 영역(420) 상의 대표 화상 부분을 터치하는 것에 의해, 해당하는 감시 이벤트가 발생한 구간의 일련의 화상 데이타(161)를 보조 기억 장치(160)에서 판독하여 영역(400) 상에 표시 재생한다. 또한, 영역(410)의 파형 그래프 부분을 터치하면, 해당 시간에 가장 시간적으로 가까운 감시 이벤트 구간의 화상을 영역(400) 상에 재생한다. 이것에 동기하여, 표시한 감시 이벤트와 그 전후의 이벤트의 대표 화상을 영역(420) 상에 표시한다. 이때, 터치한 장소가 유저에게 피드백되도록 그래프 상에 다른 색의 종선(도시하지 않음)이 표시된다.
또한, 본 예에서는 기록시 화면 내에 기록 화상과 재생 화상의 표시를 실행하는 영역(400)과 그이외의 영역(410, 420)을 병치하고 있지만, 이들은 표시 영역(400)과 따로따로 표시하여도 좋다.
도 7은 재생시의 화면에 대하여 설명하는 것이다. 재생시에는 영역(400)의 상부와 하부에 각각 재생 조작에 적합한 버튼류가 새로 표시된다. 이들 버튼류는 디스플레이(210) 상에 표시되는 도면과 터치 패널(130)의 조합에 의해 실현되고 있는 가상적인 버튼이다. 이들 버튼류에 포인팅 디바이스(190) 등으로 터치하는 것에 의해, 버튼을 누른 것에 상당하는 동작을 시스템이 실행한다.
영역(400)에는 재생되는 화상이 기록시의 입력 화상과 마찬가지로 표시된다.
참조 부호(401)에는 재생하고 있는 화상에 대응하는 감시 이벤트 정보가 표시된다.
감시 이벤트 검출 마커(402)는 재생시에도 표시될 것이다. 후술하지만, 본 발명에서는 재생시에도 백그라운드에서 기록을 실행하는 것이 가능하게 되어 있다. 예를 들면, 유저가 감시 화상을 기록하고 있는 동안에, 기록한 화상을 재생하고자 하는 경우, 마커(402)가 표시되어도, 유저가 열람하고 있는 동안에도 감시 이벤트의 검출이 있었던 것을 통지한다. 물론, 백그라운드에서 녹화를 실행하고 있지 않은 경우에도 마커(402)는 표시되지 않는다.
참조 부호(430)는 도 6의 기록시 화면으로 되돌리기 위한 버튼이다.
참조 부호(431)는 현재 재생하고 있는 감시 이벤트 화상 중, 이벤트 구간에 포함되는 프레임 화상 데이타의 총수와 현재 표시되고 있는 화상이 몇 프레임째인가를 유저에게 통지한다.
참조 부호(432)는 재생 화상의 재생, 일시 정지, 역재생, 저속 보내기 등을 제어하는 버튼이다.
참조 부호(433)는 후술하는 도 8의 대표 화상 일람 화면으로 천이하기 위한 버튼이다.
도 8은 검출한 감시 이벤트마다 대표 화상의 일람을 표시하는 화면이다. 기본적으로는 도 6에 있어서의 표시 영역(420)과 같고, 횡 방향으로도 폭을 넓혀 래스터 스캔 순으로 대표 화상(421)와 시각(422)을 나란히 표시한 것이다.
상하에 삼각형 형상으로 배치되어 있는 버튼(440)은 일람 표시의 내용을 시간 방향을 따라 전환한다. 상부 버튼을 누르면, 시간적으로 일표시 단위분전의 내용을 현재 페이지에 표시한다. 하부 버튼을 누르면, 일표시단위분후의 내용을 표시한다. 유저의 조작에 의해 기록되어 있는 감시 이벤트의 최초나 최후까지 도달한 경우에는 나가지 않는 방향의 버튼이 엷은 색으로 표시되고, 버튼 입력을 받아들이지 않게 된다.
도 8에 있어서, 유저가 각각의 대표 화상(421)에 터치·선택을 실행하면, 도 7에서 설명한 재생 화면으로 전환하거나, 선택한 감시 이벤트 구간의 화상이 재생된다.
도 9는 화상 기억 장치(100)를 감시 센터와 같은 원격지에서 조작하고, 기록을 실행하거나 감시 화상을 재생·열람하는 유저 인터페이스에 대하여 설명하는 도면이고, 원격지의 감시 센터(220)의 표시 화면(500)을 도시하고 있다.
본 실시예에서는 화상 기록/재생 장치(100)에 대하여 네트워크(502)를 거쳐 원격지에 있는 퍼스널 컴퓨터(220)에서 제어·열람을 실행하기 위해, 각각 WEB 서버(650)(도 10)와 WEB 브라우저(501)(도 10)을 사용하고 있다. 다음에 설명하지만, 화상 기록/재생 장치(100) 측에 WEB 서버를 내장시키고, 원격지에 있는 퍼스널 컴퓨터(220)의 WEB 브라우저 상에 나타내어지는 WEB 페이지(500)(도 9)를 표시한다. 이하, 이 페이지의 설명을 한다.
도 9에 있어서, 메뉴(510), 브라우즈 버튼(520), URL 표시부(530), 브라우저 스테이터스 표시부(580)는 감시 정보 페이지(500)를 표시하는 WEB 브라우저의 제어용 유저 인터페이스의 일부이다.
이 감시 정보 페이지(500)는 상기 브라우저 콤포넌트외에, 감시 데이타의 최신 시각을 표시하는 영역(540), 감시 장소(카메라 위치)마다 연월일/시로 감시 이벤트를 트리 표시한 영역(560), 지시된 일시마다 감시 이벤트에 대하여 그 대표 화상을 일람 표시하는 영역(570), 트리 표시 영역(560) 또는 일람 표시 영역(570)에서 선택된 감시 이벤트 구간의 화상을 재생 표시하는 영역(550)의 크게 4가지 표시 영역으로 구성된다.
영역(540)은 현재 표시중 감시 데이타가 어떤 시점의 것인가를 유저에게 나타낸다. 이것은 WEB과 같은 형태의 대화에서는 항상 최신의 정보를 서버로부터 브라우저측으로 송부하는 것이 일반적으로는 곤란하다. 즉, 어떤 특정 시각부터 소급한 정적인 상태로 밖에 브라우저에 제시할 수 없기 때문이다(WAN 등의 도중의 네트워크 대역이 충분하지 않은 것이나 통신 회선을 유지하는 코스트의 문제, 서버·클라이언트 양쪽에 생기는 CPU 부하가 큰 것 등). 따라서, 화상 기억 장치(100)가 감시 화상을 기록 중에 원격지로부터 감시 결과를 브라우저 경유로 열람하는 경우, 페이지의 내용이 화상 기억 장치(100)의 내부에 축적된 상태와 다른 일이 자주 생기게 되어, 유저에게 그 시간차를 의식시킬 필요가 생기기 때문이다.
영역(560)은 감시 장소(카메라 위치)마다 년월일/시로 감시 이벤트를 트리 표시하는 것에 의해, 유저가 미리 열람하고 싶다고 생각하는 장소, 일시에 재빠르게 도달할 수 있는 인터페이스를 제공한다. 트리 표시는 위부터 순서대로 장소(561), 년월일(562), 시(563), 감시 이벤트 단위(564)의 4계층으로 구성된다. 트리의 각 노드의 아이콘을 마우스로 클릭하면, 하위 노드가 표시되고 있지 않은 경우에는 아이콘이 열린 화상의 것으로 바뀌고, 하위 노드 표시를 실행한다. 반대로, 표시되고 있는 경우에는 아이콘이 닫힌 화상의 것으로 변하고, 하위 노드를 숨기는 동작을 실행한다. 이것에 의해, 유저는 목적으로 하는 노드 만을 항상 열어서 열람할 수 있다.
각 노드의 텍스트 부분(565)을 클릭하면, 화상 재생 표시 영역(550)이나 일람 표시 영역(570)의 표시 내용이 변화한다. 예를 들면, 장소(561), 년월일(562), 시(563)의 상위 3계층의 노드에 대하여, 그 텍스트 부분(565)을 클릭하면, 그 범위에서 가장 새로운 연월일/시각의 감시 이벤트 일람이 영역(570)에 표시된다.
가장 하위 노드인 감시 이벤트 단위(564)의 텍스트 부분을 클릭하면, 금회는 화상 재생 표시 영역(550)에 해당하는 감시 이벤트 구간의 녹화 화상을 재생한다.
참조 부호(570)는 도 6에 있어서의 (420)과 마찬가지로, 지정된 시각에 포함되는 검출한 감시 이벤트마다의 대표 화상의 일람을 표시하는 영역이다. 영역 상에는 일람 표시하고 있는 장소와 년월일의 표시(571)와 시각 마다의 구획을 나타내는 시각 표시(572), 대표 화상(573)가 배치된다. 브라우저 기동시 등, 시각을 줄 수 없는 경우에는 최신의 기록 일시에 포함되는 대표 화상의 일람을 표시한다.
대표 화상(573)를 클릭하면, 화상 재생 표시 영역(550) 상에 해당하는 감시 이벤트 구간의 녹화 화상을 애니메이션으로 재생한다.
종래 타임 경과 비디오 레코더에서는 감시 결과를 재생할 때에, 단순히 시간순으로 제시할 뿐이었으므로, 매우 시간이 걸렸었다.
이것에 대하여, 도 6∼도 9에서 기술하여 온 유저 인터페이스를 사용하는 것에 의해, 시간 구조에 맞춰 계층적으로 제시하거나 내용을 판정하기 쉬운 대표 화상로 타일 형상으로 2차원 배치하여 제시할 수 있다.
트리 표시는 종래에는 불가능하였던 목적 일시로의 고속 액세스가 가능하고, 또 즉시 화상을 재생할 수 있으므로, 큰틀의 짐작을 어림잡은 검색을 실행하는 경우에 매우 효과를 발휘한다. 또한, 2차원 배치는 한번에 복수의 감시 이벤트를 대충 보고 넘기는 것을 가능하게 하고, 대충 볼 때에 필요로 하는 시간을 대폭적으로 단축하는 것을 가능하게 한다.
이들에 의해, 종래의 타임 경과 비디오 레코더에서는 불가능하였던 고속 열람과 감시 화상 내용의 효율적인 확인이 가능하게 된다. 실제, 우리들의 필드 테스트에서는 검색에 요하는 시간을 1/30∼1/100정도로 저감할 수 있는 것이 확인되고 있다. 이와 같이, 본 발명은 종래 감시 화상 기록 기기에 비하여, 사용의 편리함이 좋고 시간 절약 효과가 높은 인터페이스를 제공한다.
도 10은 화상 기록/재생 장치(100)에 대하여, 기능의 관점에서 구성을 설명하는 것이다. 주된 구성 요소는 메인 컨트롤러(610), 감시 이벤트 검출 엔진(620), 비디오 출력용 표시 프로그램(630), HTML 생성 프로그램(640), WEB 서버(650)의 5개이다.
메인 컨트롤러(610)는 제어 프로그램(171)의 주된 기능 그것이고, 화상 기록/재생 장치(100) 전체를 제어한다. 구체적으로, 터치 패널(130)이나 WEB 서버(650) 경유로 시스템으로의 유저 입력을 검출하고, 감시 이벤트 검출 엔진(620), 비디오 출력용 표시 프로그램(630), HTML 생성 프로그램(640), WEB 서버(650)의 동작을 제어한다.
감시 이벤트 검출 엔진(620)은 미리 등록되어 있는 감시 이벤트를 감시 카메라(200)에서 입력된 화상 신호에서 검출하고, 그 감시 화상 데이타와 감시 이벤트 정보 데이타를 각각 보조 기억 장치(160)에 감시 화상 데이타(161)와 감시 이벤트 DB(162)로서 저장한다.
비디오 출력용 표시 프로그램(630)은 도 6에서 설명한 화면을 출력·표시한다. 터치 패널(130)을 경유하여 메인 컨트롤러(160)에 전해진 유저로부터의 입력에 따라 감시 화상 데이타(161)와 감시 이벤트 DB(162)를 보조 기억 장치(160)에서 판독하여, 화면 상에 화상나 관련하는 이벤트 정보를 표시한다.
HTML 생성 프로그램(640)은 도 9에서 설명한 감시 화상의 WEB 페이지 출력용으로 HTML을 동적으로 작성한다. 먼저, 리모트 퍼스널 컴퓨터(220) 상에서 실행된 유저 조작은 WEB 페이지(500)에서 WEB 서버(650)를 경유하여 메인 컨트롤러(610)로 전해진다. 리모트 퍼스널 컴퓨터에서의 유저로부터의 요구에 따라, 감시 화상 데이타(161)와 감시 이벤트 DB(162)를 보조 기억 장치(160)에서 판독하여, 미리 준비된 HTML 데이타 중에 감시 이벤트 정보와 화상의 WEB 서버 상에서의 위치와의 링크를 나타내는 HTML 태그를 써낸다. 이것에 의해, HTML의 동적 생성을 실현한다.
WEB 서버(650)는 이리하여 작성된 WEB 페이지를 원격지측의 퍼스널 컴퓨터(220)로 전송함과 동시에 유저로부터의 조작 명령을 메인 컨트롤러(610)에 전한다.
도 11, 도 12 및 도 13은 감시 이벤트 검출 엔진(620)에서 실행되는 감시 이벤트 검출 방법에 대하여 설명하는 것이다.
여기서는 이동 물체의 유무를 예로 하여 기술한다.
먼저, 입력되는 화상에서 각각의 프레임 화상(700)를 인출한다. 이어서, 도 11에 도시한 바와 같이 프레임 화상을 복수의 작은 사각형 영역(710)으로 나누고, 각각의 영역마다 화상 변화의 유무를 검출한다.
화상 변화의 판별 방법으로서는 예를 들면, USP5,721,692에 기술되어 있는 방법을 사용한다. 이 방식에서는 각각의 착목(着目) 영역(710)마다 배경·이동 물체·배경 구조 변화·조도 변화를 검출할 수 있다.
이하, 각각의 영역에서 사용되는 이동 물체 검출 방식에 대하여 간단히 설명한다.
먼저, 프레임 화상 상의 착목 영역 중, 이동 물제가 존재하지 않는 시간을 선택하고 이것을 배경 화상로 한다.
그리고, 이 배경 화상과 매회 새로 입력되는 최신 화상 사이에서, 화상의 상위도를 계산한다. 이 상위도 계산의 구체예로서는 대응하는 위치의 각 화소의 밝기에 대하여 차를 구하고, 화상 전체에 대하여 그들의 2승합을 구하여도 좋고, 밝기 대신에 RGB 각각의 값의 차분 2승합으로 하여도 좋다.
이렇게 하여 얻어진 상위도를 시간순으로 정렬하고, 연속하는 그래프로서 응시하여 보면, 이동 물체가 존재하는 시간 구간은 크게 변동하는 상태로 된다. 이동 물체가 존재하지 않는 시간 구간에서는 변동이 적은 평탄한 상태로 되지만, 배경으로서 결정한 시각과 배경이 모두 동일한 경우, 즉 화상적으로 내용이 같음에는 그 구간의 평균값은 대략 영으로 된다. 한편, 물체가 놓이거나 하는 등, 배경의 구조가 바뀐 경우에는 화상적으로 내용이 다르므로, 평탄에는 있지만 구간 평균값은 일정 크기 이상으로 된다.
이 성질을 사용함으로써, 시간 구간으로서, 이동 물체의 유무나 배경 구조의 변화 유무를 확인하는 것이 가능하게 된다. 여기서 문제로 되는 것이 최초에 어떻게 하여 배경으로 되어 있는 시각을 결정하는 가가 먼저, 임의의 시점의 화상을 적당히 선택하고, 상위도의 시간 변화 그래프를 구하고, 평탄한 구간이 발견되는 시점을 개시로 하면 좋다. 그후의 처리도, 배경 구조의 변화가 있을 때, 즉 그래프의 형상이 평탄하고 또한 일정값 이상의 평균값으로 될 때만, 배경으로 하는 시각을 갱신하도록 하면, 안정하게 이 처리를 반복하는 것이 가능하게 된다.
이상 설명한 방식에 의해, 프레임 화상 상에 설정한 각각의 착목 영역에 대하여 이동 물체가 존재하는 영역을 색지음(레벨 지음)하였다고 하면, 도 11의 우측 도면과 같이 된다.
도 12는 도 11에서 설명한 처리를 모두 프레임 화상에 대하여 실행하고, 프레임 화상을 시간순으로 정렬할 수 있는 3차원의 시공간 화상에 대하여 기술한 것이다. 이때 공간 화상 중에서는 이동 물체가 부분적인 입체(720)를 구성한다. 이것을 도시한 것이 도 12이다. 이 시공간 화상(730)을 보면, 「이동 물제가 있음」이라고 하는 감시 이벤트는 어느 정도의 크기를 가진 부분 영역(720)인 것으로 간주하여도 좋다. 이것을 다른 관점에서 본 것이 아래의 그래프이다. 1프레임당 화상 변화가 있었던 영역수를 그래프(740)로 하여 보면, 상기 판정은 그래프가 일정값이상의 구간(750)으로 간주할 수 있다. 이와 같이 하여 결정된 구간을 감시 이벤트「이동 물체 있음」의 구간으로서 판별한다. 그리고, 감시 이벤트 DB(162)로서 개시 프레임, 종료 프레임, 구간 길이, 각 영역마다의 판정 결과를 보조 기억 장치(160)에 기억한다.
또한, 화상 전체를 하나의 영역으로 간주하여 판정하는 또 하나의 방법은 있지만, 상기와 같이 소영역으로 분할하여 그 결과를 총합하는 쪽이 감시 이벤트의 취급에 적합하다. 예를 들면, 작은 외란 등에 대하여 검출 엔진의 동작을 확고하게 할 수 있다. 또한, 판정에 포함하지 않은 영역도 용이하게 설정할 수 있거나 다음에 설명하는 검색 처리나 대표 화면 결정 처리를 간단히 기술할 수 있는 등의 이점이 있다.
다른 감시 이벤트, 예를 들면, 배경 구조의 변화(물체의 배치 바뀜 등)이나 얼굴 영역의 출현 등을 검출하는 경우에는 상기와 같이 프레임 내의 영역 단위로 검출하는 실행하는 것에 의해, 안정한 검출이 가능하게 된다.
또한, 본예에서는 착목 영역을 사각형으로 하였지만, 다른 어떠한 형상으로 하여도 아무 문제 없다. 또한, 여기서는 소영역을 깨끗하게 정렬하였지만, 도 13의 점선으로 나타낸 바와 같이 소영역과 오버랩을 갖게 한 다른 복수 소영역을 마련하고, 이들 2종류의 소영역마다의 판별 결과에 대하여 논리 연산을 실시하는 것에 의해, 큰 영역에서 안정한 판별을 실행하면서, 판별하는 영역의 실효 면적을 작게 하는 것도 가능하다.
도 14는 감시 이벤트 DB(162)의 데이타 구조를 설명하는 것이다.
감시 이벤트 DB(162)는 RDB(Relational Database : 관계 데이타베이스)이고, 장소 테이블(162-1), 화상 테이블(162-2), 이벤트 테이블(162-3), 시간 트리 테이블(162-4)의 4가지 테이블로 구성된다.
장소 테이블(162-1)은 감시 화상 기록/재생 장치(100)가 접속된 카메라의 식별 ID(162-1-1)와 명칭(162-1-2), 감시 장소의 명칭(162-1-3)을 저장하는 테이블이다. 화상 테이블(162-2)의 각 레코드의 중복성을 없애기 위해, 독립하여 마련하고 있다.
화상 테이블(162-2)은 감시 화상 기록/재생 장치(100)에 기억된 각각의 프레임 화상을 제어하기 위한 테이블이다. 프레임 화상 ID(레코드 번호)(162-2-1), 장소 ID(162-2-2), 녹화 년월일(162-2-3), 녹화 시분초(162-2-4), 프레임 번호(162-2-5), 화상 파일 패스명(162-2-6), 이벤트 종류(162-2-7), 이벤트 속성 데이타(162-2-8)의 항목으로 구성된다. 장소 ID(162-2-2)는 장소 테이블(162-1)의 장소 ID(162-1-2)와 동일 항목이고, 실제 ID 번호가 저장된다. 녹화 년월일(162-2-3), 녹화 시분초(162-2-4), 프레임 번호(162-2-5)는 프레임 화상이 기록되었을 때의 시각 정보이다. 일반적인 RDB에서는 고속으로 취급할 수 있는 데이타형으로서, 년월일과 시분초를 알 수 있는 일이 많으므로, 본 실시예에서는 이들을 3으로 분할하고 있다. 화상 파일 패스명(162-6)은 시스템 내에 기록되어 있는 화상 파일의 패스명이 저장되어 있고, 감시 화상의 재생이나 검색시에 실제 화상 데이타를 판독하는 데에 사용된다. 이벤트 종류(162-2-7)는 저장된 프레임 화상이 어떤 감시 이벤트에 의해 저장되는 것으로 되었는 가를 나타내는 필드이다. 복수의 감시 이벤트가 겹치는 경우를 상정하여 비트 플래그에 의해 감시 이벤트의 종류를 나타낸다. 감시 화상 재생시나 검색시에 감시 이벤트마다의 필터링을 실시하기 위해 마련하고 있다. 이벤트 속성 데이타(162-2-8)는 감시 이벤트 검출의 근거로 된 각 영역마다의 특징량 데이타를 저장하는 영역이다.
이벤트 테이블(162-3)은 감시 이벤트의 구간 정보를 취급한다. 이벤트 ID(162-3-1), 개시 프레임 ID(162-3-2), 종료 프레임 ID(162-3-3), 대표 프레임 ID(162-3-4)으로 구성된다. 개시 프레임 ID(162-3-2), 종료 프레임 ID(162-3-3)에는 화상 테이블(162-2)의 프레임 화상 ID(162-2-2)가 저장된다. 마찬가지로, 대표 프레임 ID(162-3-4)는 후술하는 대표 화상 결정 알고리즘에 의해 결정된 프레임 화상 ID(162-2-1)가 저장된다.
시간 트리 테이블(162-4)은 도 9의 트리 표시 영역(560) 등과 같이, 감시 이벤트 정보에 대하여, 시간 지정으로 직접 또한 고속으로 액세스하기 위해 마련된 테이블이다. 노드 ID(162-4-1), 부모 노드 ID(162-4-2), 노드 검색 키(162-4-3), 노드내 순서(162-4-4), 이벤트 ID(162-4-5), 이벤트 종류(162-4-6), 장소 ID(162-4-7)로 구성된다. 이 테이블은 중복되지만, 감시 결과 액세스시의 스루풋을 향상시키기위해 마련되어 있다. 기본적으로는 장소 테이블(162-1), 화상 테이블(62-2), 이벤트 테이블(162-3)의 3개로부터 동적으로 작성 가능하지만, 감시 화상의 재생·열람 동작에서는 매우 높은 빈도로 이 계산이 필요하게 되므로, 따로 테이블로서 마련하여 두는 것에 의해, 시스템의 부하를 작게 하는 것을 목적으로 하고 있다. 노드 ID(162-4-1), 부모 노드 ID(162-4-2)는 테이블에 의해 트리 구조를 표현하기 위한 필드이다. 노드 검색 키(162-4-3)는 장소와 년월일·시분초에서 직접 가장 하위의 노드에 액세스하기 위한 문자열이고, 이 테이블을 해쉬에 의해 검색하기 위한 주 키로서 설정되어 있다. 문자열이므로, 키 작성이 용이하고, 검색을 위한 계산 코스트가 작게 든다. 이벤트 ID(162-4-5)는 이벤트 테이블(162-3)의 이벤트 ID(162-3-1)와 동일하고, 실제 ID 번호가 저장된다. 이벤트 종류(162-4-6), 장소 ID(162-4-7)는 감시 화상 재생시나 검색시에 감시 이벤트마다 필터링을 실시하기 위해 마련된 것이다.
또한, 이들 테이블의 데이타가 생성되는 타이밍이지만, 장소 테이블(162-1)은 감시가 개시되기 전에 유저에 의해 미리 작성되는 것이다. 화상 테이블(162-2)과 이벤트 테이블(162-3)은 실제 감시 화상 기록시에 동적으로 생성되는 데이타이다. 시간 트리 테이블(162-4)도 또한 기록시에 생성되는 데이타이지만, 이것은 화상 테이블(162-2)과 이벤트 테이블(162-3)의 내용에서 부차적으로 생성되는 것이다. 이것은 앞서 기술한 바와 같이 감시 결과 액세스의 스루풋을 향상시키기 위해 마련되어 있기 때문이다.
이상의 데이타 구조에 의해, 화상 기록/재생 장치(100)는 기록된 감시 이벤트와 화상을 고속으로 검색·재시하는 것이 가능하게 된다. 또한, 도 2, 도 10에 도시한 하드웨어 시스템 구성과 이 각각의 프레임 화상마다 독립한 데이타 구조에 의해, 감시 화상을 기록하면서 열람을 실행한다고 하는 이제까지의 감시 기억 시스템에서는 불가능하였던 것을 새롭게 가능하게 하고 있다.
도 15는 감시 이벤트 구간에 있어서의 대표 화면을 결정하는 알고리즘에 대하여 설명하는 것이다.
화상 기록/재생 장치(100)가 검출한 감시 이벤트를 참조 부호(420)나 참조 부호(500)와 같이 표시하는 케이스를 고려한다. 이동 물체 있음을 나타내는 감시 이벤트의 경우, 감시 이벤트 구간을 대표하는 화상로서 어느것을 선택하는 가는 감시 결과의 열람 효율을 크게 좌우하는 중요한 점이다.
예를 들면, 구간의 선두 프레임을 대표 화상로 하면, 이동 물체의 일부 만이 찍힐 뿐이고, 검출한 이동 물체에 관한 정보를 거의 제시할 수 없는 일이 자주 일어난다. 이것은 최종 프레임이라도 마찬가지이다. 단순히 선두 프레임과 최종 프레임의 중간으로 하는 것도 고려되지만, 2개의 이동체가 연속하여 검출되어 하나의 구간으로 된 경우에는 잠시간의 나머지 양쪽이 찍히고 있지 않은 화상이 대표로 되어 버린다고 하는 문제점이 발생한다. 그래서, 도 5에서 기술한 샘플링 간격의 제어에 사용한 것과 같은 방법을 사용하는 것으로 한다.
감시 이벤트를 검출할 때에 참조 부호(900)과 같은 그래프가 얻어졌다고 한다. 먼저, 감시 이벤트가 얼굴 영역의 검출과 같은 케이스로 고려되는 것이 그래프값이 최대로 되는 프레임(910-4)을 대표 화면으로 하는 방법이다. 한편, 감시 이벤트가 이동 물체의 유무인 경우, 복수의 최대값이 나타난다고 하는 것 이퀄 복수의 이동 물체가 하나의 이벤트 구간 내에 통과한 케이스로 고려되므로, 처음에 나온 최대값(910-2)을 우선 대표로 간주하여, 이것을 채용하는 방법도 고려된다.
이어서, 도 9에서 설명한 WEB 브라우저에 의해 제시되는 유저 인터페이스에서의 감시 화상 표시를 HTML에 의해 실현하는 방식에 대하여 설명한다. 또한, 이하에서 사용하는 전문 용어에 대해서는 URL(http://w3c.org/)에 상세히 설명되어 있다.
도 16a∼도 16c는 먼저 일람 표시 영역(570)에서의 대표 화상(573)를 클릭하였을 때에, 화상 재생 표시 영역(550) 상에 해당하는 감시 이벤트 구간의 녹화 화상을 재생하는 것을 실현하는 방식에 대하여 설명한다. 각각, 각 영역도 프레임으로 불리우는 독립한 HTML 표시 영역으로 구성되어 있는 것으로 한다. 여기서는 설명을 위해 일람 표시 영역을 프레임 Digest, 화상 재생 표시 영역을 Anime이라고 하는 것으로 한다.
Digest도 Anime도 정적인 HTML 데이타가 아니고, WEB 서버측의 상태에 따라 동적으로 생성되는 HTML 데이타로 되어 있다. 이들 동적인 HTML 데이타를 생성하기 위해 CGI(Common Gateway Interface)나 ASP(Active Server Pages)라고 하는 서버 사이드 스크립트(WEB 서버측에서 동작하는 스크립트)가 사용된다.
참조 부호(1000)는 Digest의 HTML 텍스트 데이타의 예이다. 본 실시예에서는 참조 부호(1010) 및 참조 부호(1020)에 나타나 있는 바와 같이, 감시 이벤트의 시각을 나타내는 문자열이나 그의 대표 화면을 타일 형상으로 표시하기 위해, <TABLE> 태그가 사용되고 있다. 태그(1030)는 표시(1010)에 대응하고, 태그(1040)는 표시(1020)에 대응하고 있다. 표시 화상(1020)는 클릭커블한(clickable) 영역으로 되어 있지만, 이것은 참조 부호(1041)로 나타낸 하이퍼텍스트 태그<A>를 붙여서, 대표 화상(573)를 표시하는 화상 태그(1042)를 둘러싸는 것에 의해 실현된다. 그리고, 링크 점프선으로서 프레임 Anime을 지정하고, 클릭된 화상에 따라 동적으로 HTML 출력 내용을 변화시키는 것에 의해, 대응하는 감시 이벤트마다 화상이 재생되게 된다.
유저에 의한 클릭에 따라 대응선을 전환하기 위해 하이퍼 텍스트 태그<A>의 요소인 HREF의 점프선으로 퀘스쳔 마크(question mark)에 이어서 파라미터로 되는 문자열을 미리 기록해 둔다. 참조 부호(1051)로 나타낸 바와 같이, 기록되는 파라미터로서는 화상 테이블(162-2)의 레코드 범위를 나타내는 프레임 화상 ID 또는 그것을 인출할 수 있는 데이타가 적합한다.
먼저, 도 17의 플로우챠트(1100)는 대표 화상(573)의 클릭부터 화상 재생 표시 영역(550) 상에 화상이 애니메이션으로 재생되기 까지의 처리 흐름을 간단히 설명하는 것이다. 먼저, 대표 화상(573)가 클릭되면(1110), WEB 브라우저측에서 지정된 프레임 Anime로의 점프가 일어난다(1120). 그러나, Anime에 표시되는 HTML 데이타는 점프시에 넘겨지는 파라미터(1051)에서 동적으로 결정·생성된다(1130). 구체적으로는 파라미터명 sJumpKey에 대입된 문자열(1131)에서 화상 테이블(162-2) 상에서의 범위를 나타내는 프레임 화상 ID를 취하거나(1132), 화상 테이블에 대하여 해당하는 레코드의 검색을 실행하여, 각각의 화상 패스명을 URL(Universal Resource Location)로서 인출한다(1133). 그리고 이것을 HTML 형식으로 출력한다(1134). WEB 브라우저는 그렇게 얻어진 HTML 데이타를 프레임 Anime 상에 표시한다(1140). 최후에 유저 조작에 따라 해당하는 프레임 화상을 가시-불가시로 하는 것에 의해 애니메이션으로서 표시한다(1150).
이어서, 도 18의 참조 부호(1200)에 트리 표시와 함께 Digest의 HTML 텍스트 데이타를 생성하는 순서에 대하여 설명한다. 여기서는 일람 표시의 범위가 특히 지정되지 않고 전데이타를 표시하는 경우를 상정하여 설명을 한다. 먼저, 시간 트리의 뿌리로 되는 루트 노드(레코드 ID가 -1인 것)를 친히 갖는 노드를 전레코드에서 검색한다(1210). 이어서 이것을 장소 ID(162-4-7)마다 소트한다(1220). 이어서 루트 노드를 부모 노드로 한다(1230). 부모 노드가 결정되면, 동일 부모 노드 ID를 갖는 노드를 찾고 노드내 순서에 따라 소트를 실행하고, 리스트를 작성한다(1240). 그렇게 할 수 있던 노드 리스트에 대하여, 이하 재귀적으로 트리 구조 내의 모든 잎 노드로의 이동을 반복한다(1250).
먼저, 현재의 노드가 가지 노드인가 잎 노드인가를 조사한다(1260). 가지 노드이면 재귀적으로 하층 노드로 내려 간다(1290). 잎 노드이면, sJumpKey를 작성하고(1270), 이것을 HTML 출력한다(1280).
sJumpKey의 작성은 구체적으로는 이하의 순서로 된다. 먼저, 감시 이벤트 테이블(162-3)에서 노드가 갖는 이벤트 ID(162-4-5)와 일치하는 레코드를 검색하고(1271), 개시 프레임 ID(162-3-2)와 종료 프레임 ID(162-3-3)를 취득한다. 이어서, 화상 테이블에서 대표 프레임 ID(162-3-4)와 일치하는 레코드를 찾고(1273), 그 대표 화상 패스명을 URL로서 취득한다(1274). 모든 잎 노드에 대하여 이상의 처리를 반복한다.
도 19a 및 도 19b는 시간 트리를 나타내는 트리 표시(560)에서 일람 표시 영역(570)을 동적으로 전환하는 방법에 대하여 설명하는 것이다. 설명을 위해, 트리 표시 영역(560)의 프레임 명칭을 TimeTree로 부르는 것으로 한다.
유저가 트리 표시부의 잎이 아닌 노드를 포인팅 디바이스(190)로 포인트하고, 표시가 전환되는 경우, 프레임 Digest에는 일시의 범위가 지정된다. 내부 처리적으로는 시간 트리 테이블(162-4)에서 구체적으로 부모 노드가 주어지고 있는 경우에 상당한다. 앞은 도 18에서 설명한 것과 같은 순서로 HTML 데이타가 동적으로 생성된다.
도 19b에 있어서의 참조 부호(1300)는 점프를 실현하는 HTML의 예를 나타낸 것이다. 여기서는 동적으로 개폐하는 트리 구조를 실현하기 위해 <DIV> 태그가 사용되고 있다. Anime의 예와 마찬가지로 클릭하는 선으로 출력이 전환되도록, 각 하이퍼텍스트 태그<A>가 넘겨지는 파라미터 s DigestKey의 값이 바뀌어진다. 이 값으로서 사용하는 것이 참조 부호(1310, 1320)로 도시되어 있는 바와 같은 「장소명」+「일시」로 구성되는 문자열이다. 이것은 시간 트리 테이블(162-4)에 있어서의 노드 검색 키(162-4-3)와 동일하게 되어 있고, 프레임 Digest를 묘화하기 위한 검색이 신속히 실행되는 구조로 되어 있다.
도 20은 프레임 TimeTree의 시간 트리 구조 표시의 가지 노드를 클릭한 경우의 동작을 설명하는 것이다.
먼저, 가지 노드가 클릭되면(1410), 프레임 Digest로의 점프 이벤트가 생긴다(1420). 프레임 Digest가 표시되는 HTML은 동적인 페이지이므로, 내용 생성 처리가 스타트한다(1430). 구체적으로, 점프시에 파라미터로서 주어지는 sDigestKey의 문자열값을 취하거나(1431), 이것을 검색 키로 하여 시간 트리 테이블(162-4)에서 일치하는 레코드를 검색한다(1432). 이리하여 검색된 레코드의 노드 ID(162-4-1)를 부모 노드로 한 후, 참조 부호(1200)로 기술한 것과 동일 순서로 일람 표시 화면의 HTML 데이타 생성을 실행한다(1433). 그 후, 이 HTML 데이타를 프레임 Digest 상에 표시한다(1440).
본 발명에 의하면, 녹화 데이타를 랜덤 액세스가능한 메모리에 기억하므로, 기록과 동시에 열람을 실행할 수 있다. 또한, 화상이 디지털화되어 있으므로, 녹화를 몇회 반복하여도 화질 열화가 생기지 않는다. 또한, 유저가 지정한 감시 이벤트(사람의 출임, 얼굴이 찍히고 있는가 어떤가, 환경의 물리적 변화 등)에 대해서만, 적절한 간격으로 화상의 기록을 실행하므로, 녹화에 필요한 메모리양을 저감하고, 장시간 녹화가 가능하게 된다. 감시 화상을 기억할 때에 여러 가지 감시 이벤트에 의해 화상의 분류·정리하여 축적하므로, 열람시에 목적으로 하는 감시 이벤트에 맞추어 화상을 찾을 수 있다. 또한, 감시 이벤트의 시간적 분포를 평면적으로 제시하는 것에 의해, 유저가 열람·검색할 때에 요하는 시간을 대폭적으로 단축하고, 목적으로 하는 데이타로의 이동을 하이퍼 점프로 실행할 수 있는 인터페이스를 제공할 수 있다고 하는 효과가 있다.

Claims (26)

  1. 감시 시스템에서의 화상 기록/재생 장치(100)에 있어서,
    입력되는 감시 화상 신호(110)를 디지털화된 복수의 시계열적인 감시 화상 프레임으로 하여 제1 기억 영역(173)에 기억하는 처리 유닛(150, 170 ; 610);
    상기 제1 기억 영역에 기억된 상기 디지털화된 복수의 감시 화상 프레임에서 적어도 1종류의 감시 이벤트에 해당하는 복수의 감시 화상 프레임을 추출하여 제2 기억 영역(161)에 기억하는 처리 유닛(150, 160 ; 610, 160);
    상기 제2 기억 영역에 기억된 감시 화상 프레임 각각에 대하여, 상기 감시 화상 프레임의 상기 제2 기억 영역에 있어서의 저장 장소에 관한 정보와 상기 감시 화상 프레임의 속성에 관한 정보를 포함하는 요소로 구성되는 데이타 구조를 갖는 감시 이벤트 데이타베이스(DB)를 작성하여 제3 기억 영역(162)에 저장하는 처리 유닛(150, 160 ; 610, 160);
    상기 감시 이벤트 DB의 데이타 구조의 요소를 지정한 유저로부터의 열람 요구에 응답하여, 상기 감시 이벤트 DB를 검색하여 상기 열람 요구에 해당하는 복수의 감시 화상 프레임의 상기 제2 기억 영역에 있어서의 저장 장소를 취득하고, 상기 취득한 저장 장소에 따라 상기 열람 요구에 해당하는 복수의 감시 화상 프레임을 상기 제2 기억 영역에서 선택하는 처리 유닛(150, 130 ; 610, 130); 및
    상기 선택된 복수의 감시 화상 프레임을 디스플레이 상에 2차원적인 배치로서 표시하든가 또는 시계열적인 애니메이션(552)으로서 표시하는 출력 신호를 생성하는 처리 유닛(150, 120, 140 ; 610, 630, 640, 650)
    을 포함하는 것을 특징으로 하는 화상 기록/재생 장치.
  2. 제1항에 있어서,
    상기 디스플레이(220)는 네트워크(502)를 거쳐 상기 기록/재생 장치와 접속되고, 상기 출력 신호를 생성하는 처리 유닛(610, 630, 640, 650)은 WEB 서버(650)를 포함하고, 상기 디스플레이를 관찰하는 유저로부터의 WEB 브라우저(501)를 이용하는 열람 요구에 응답하여, 상기 WEB 서버는 상기 선택된 복수의 감시 화상 프레임을 하이퍼 텍스트 마크업 랭귀지(Hyper Text Markup Language : HTML) 데이타로 하여 상기 네트워크를 거쳐 상기 디스플레이로 송신하는 것을 특징으로 하는 화상 기록/재생 장치.
  3. 제1항에 있어서,
    상기 출력 신호를 생성하는 처리 유닛은 상기 제1 기억 영역에 기억되어야 할 현시점의 감시 화상 프레임(400)을 상기 선택된 복수의 감시 화상 프레임과 동시에 상기 디스플레이 상에 표시하는 출력 신호를 생성하는 것을 특징으로 하는 화상 기록/재생 장치.
  4. 제1항에 있어서,
    상기 기록/재생 장치는 또 상기 감시 이벤트 DB의 데이타 구조의 요소를 트리 구조로 배치한 트리 도형(560)으로서 상기 디스플레이 상에 표시하는 출력 신호를 생성하는 처리 유닛(150, 160, 170, 120, 140)을 더 포함하는 것을 특징으로 하는 화상 기록/재생 장치.
  5. 제4항에 있어서,
    상기 유저로부터의 열람 요구에 있어서의 요소는 상기 디스플레이 상에 표시된 트리 도형의 도형화된 요소가 클릭되는 것에 의해 지정되는 것을 특징으로 하는 화상 기록/재생 장치.
  6. 제1항에 있어서,
    상기 감시 화상 프레임을 선택하는 처리 유닛은 상기 유저로부터의 상기 열람 요구 전에 상기 감시 이벤트 DB의 데이타 구조의 요소 중, 미리 정한 요소에 관하여 상기 감시 이벤트 DB를 검색하여 상기 미리 정한 요소에 해당하는 감시 화상 프레임의 상기 제2 기억 영역에 있어서의 저장 장소를 취득하고, 상기 취득한 저장 장소에 따라 상기 미리 정한 요소에 해당하는 감시 화상 프레임(421)을 상기 제2 기억 영역에서 선택하는 것을 특징으로 하는 화상 기록/재생 장치.
  7. 제6항에 있어서,
    상기 유저로부터의 열람 요구에 있어서의 요소는 상기 디스플레이 상에 표시된 상기 선택된 화상 프레임(421)이 클릭되는 것에 의해 지정되는 것을 특징으로 하는 화상 기록/재생 장치.
  8. 제1항에 있어서,
    상기 제2 및 제3 기억 영역은 보조 기억 장치(160)에서 작성되는 것을 특징으로 하는 화상 기록/재생 장치.
  9. 제1항에 있어서,
    상기 감시 화상 프레임에 관한 속성으로서, 감시 화상 프레임의 촬영 장소, 촬영 시각 및 감시 이벤트를 나타내는 특징량을 포함하는 것을 특징으로 하는 화상 기록/재생 장치.
  10. 감시 시스템에서의 화상 기록/재생 방법에 있어서,
    입력되는 감시 화상 신호(110)를 디지털화된 복수의 시계열적인 감시 화상 프레임으로 하여 제1 기억 영역(173)에 기억하는 단계;
    상기 제1 기억 영역에 기억된 상기 디지털화된 복수의 감시 화상 프레임에서 적어도 1종류의 감시 이벤트에 해당하는 복수의 감시 화상 프레임을 추출하여 제2 기억 영역(161)에 기억하는 단계;
    상기 제2 기억 영역에 기억된 감시 화상 프레임 각각에 대하여, 상기 감시 화상 프레임의 상기 제2 기억 영역에 있어서의 저장 장소에 관한 정보와 상기 감시 화상 프레임의 속성에 관한 정보를 포함하는 요소로 구성되는 데이타 구조를 갖는 감시 이벤트 DB를 작성하여 제3 기억 영역(162)에 저장하는 단계;
    상기 감시 이벤트 DB의 데이타 구조의 요소를 지정한 유저로부터의 열람 요구에 응답하여, 상기 감시 이벤트 DB를 검색하여 상기 열람 요구에 해당하는 복수의 감시 화상 프레임의 상기 제2 기억 영역에 있어서의 저장 장소를 취득하고, 상기 취득한 저장 장소에 따라 상기 열람 요구에 해당하는 복수의 감시 화상 프레임을 상기 제2 기억 영역에서 선택하는 단계; 및
    상기 선택된 복수의 감시 화상 프레임을 디스플레이 상에 2차원적인 배치로서 표시하든가 또는 시계열적인 애니메이션(552)으로서 표시하는 출력 신호를 생성하는 단계
    를 포함하는 것을 특징으로 하는 화상 기록/재생 방법.
  11. 제10항에 있어서,
    상기 디스플레이(220)는 네트워크(502)를 거쳐 상기 기록/재생 장치와 접속되고, 상기 출력 신호를 생성하는 단계는 상기 디스플레이를 관찰하는 유저로부터의 WEB 브라우저(501)를 이용하는 열람 요구에 응답하여, 상기 선택된 복수의 감시 화상 프레임을 HTML 데이타로 하여 WEB 서버(650)에서 상기 네트워크를 거쳐 상기 디스플레이로 송신하는 것을 특징으로 하는 화상 기록/재생 방법.
  12. 제10항에 있어서,
    상기 출력 신호를 생성하는 단계에서, 상기 제1 기억 영역에 기억되어야 할 현시점의 감시 화상 프레임(400)을 상기 선택된 복수의 감시 화상 프레임과 동시에 상기 디스플레이 상에 표시하는 출력 신호를 생성하는 것을 특징으로 하는 화상 기록/재생 방법.
  13. 제10항에 있어서,
    상기 감시 이벤트 DB의 데이타 구조의 요소를 트리 구조로 배치한 트리 도형(560)으로서 상기 디스플레이 상에 표시하는 출력 신호를 생성하는 단계를 더 포함하는 것을 특징으로 하는 화상 기록/재생 방법.
  14. 제13항에 있어서,
    상기 유저로부터의 열람 요구에 있어서의 요소는 상기 디스플레이 상에 표시된 트리 도형의 도형화된 요소가 클릭되는 것에 의해 지정되는 것을 특징으로 하는 화상 기록/재생 방법.
  15. 제10항에 있어서,
    상기 감시 화상 프레임을 선택하는 단계에서, 상기 유저로부터의 상기 열람 요구 전에 상기 감시 이벤트 DB의 데이타 구조의 요소 중, 미리 정한 요소에 관하여 상기 감시 이벤트 DB를 검색하여 상기 미리 정한 요소에 해당하는 감시 화상 프레임의 상기 제2 기억 영역에 있어서의 저장 장소를 취득하고, 상기 취득한 저장 장소에 따라 상기 미리 정한 요소에 해당하는 감시 화상 프레임(421)을 상기 제2 기억 영역에서 선택하는 것을 특징으로 하는 화상 기록/재생 방법.
  16. 제15항에 있어서,
    상기 유저로부터의 열람 요구에 있어서의 요소는 상기 디스플레이 상에 표시된 상기 선택된 화상 프레임(421)이 클릭되는 것에 의해 지정되는 것을 특징으로 하는 화상 기록/재생 방법.
  17. 감시 시스템에 있어서의 화상 기록/재생 방법을 위한 컴퓨터 실행가능한 프로그램을 저장하는 기억 매체에 있어서,
    입력되는 감시 화상 신호(110)를 디지털화된 복수의 시계열적인 감시 화상 프레임으로 하여 제1 기억 영역(173)에 기억하는 처리 유닛;
    상기 제1 기억 영역에 기억된 상기 디지털화된 복수의 감시 화상 프레임에서, 적어도 1종류의 감시 이벤트에 해당하는 복수의 감시 화상 프레임을 추출하여 제2 기억 영역(161)에 기억하는 처리 유닛;
    상기 제2 기억 영역에 기억된 감시 화상 프레임 각각에 대하여, 상기 감시 화상 프레임의 상기 제2 기억 영역에 있어서의 저장 장소에 관한 정보와 상기 감시 화상 프레임의 속성에 관한 정보를 포함하는 요소로 구성되는 데이타 구조를 갖는 감시 이벤트 데이타베이스(DB)를 작성하여 제3 기억 영역(162)에 저장하는 처리 유닛;
    상기 감시 이벤트 DB의 데이타 구조의 요소를 지정한 유저로부터의 열람 요구에 응답하여, 상기 감시 이벤트 DB를 검색하여 상기 열람 요소에 해당하는 복수의 감시 화상 프레임의 상기 제2 기억 영역에 있어서의 저장 장소를 취득하고, 상기 취득한 저장 장소에 따라 상기 열람 요구에 해당하는 복수의 감시 화상 프레임을 상기 제2 기억 영역에서 선택하는 처리 유닛; 및
    상기 선택된 복수의 감시 화상 프레임을 디스플레이 상에 2차원적인 배치로서 표시하든가 또는 시계열적인 애니메이션(552)으로서 표시하는 출력 신호를 생성하는 처리 유닛
    을 포함하는 것을 특징으로 하는 기억 매체.
  18. 제1항에 있어서,
    상기 감시 화상을 추출하여 상기 제2 기억 영역에 기억하는 처리 유닛은 검출한 감시 이벤트의 강도 변화에 따라 추출 간격을 동적으로 변화시키는 것을 특징으로 하는 화상 기록/재생 장치.
  19. 제6항에 있어서,
    상기 미리 정한 요소에 해당하는 감시 화상 프레임 중, 대표 감시 화상을 적어도 1장 사용하여, 이들을 2차원적으로 상기 디스플레이 상에 배치 표시하는 것을 특징으로 하는 화상 기록/재생 장치.
  20. 제19항에 있어서,
    대표 화상으로서 감시 이벤트가 발생하고 있는 시간 구간 중에서 가장 최초, 가장 최후 또는 정확히 중간에 걸리는 프레임 화상을 사용하는 것을 특징으로 하는 화상 기록/재생 장치.
  21. 제19항에 있어서,
    대표 화상으로서, 감시 이벤트를 나타내는 특징량이 극대 또는 극소 또는 급격히 변화하고 있는 장소의 프레임 화상을 사용하는 것을 특징으로 하는 화상 기록/재생 장치.
  22. 제1항에 있어서,
    상기 선택된 복수의 감시 화상 프레임은 일, 오전, 오후, 시, 15분 마다 등의 시간 단위로 시간 색인과 함께 2차원적으로 배치하는 것을 특징으로 하는 화상 기록/재생 장치.
  23. 제6항에 있어서,
    상기 선택된 감시 화상 프레임에 관련한 감시 이벤트의 과거 이력을 나타내는 특징량의 천이 그래프를 표시하는 것을 특징으로 하는 화상 기록/재생 장치.
  24. 제2항에 있어서,
    상기 출력 신호를 생성하는 처리 유닛은 대표 화상을 WEB에서 표시가능한 화상 포맷으로 프레임마다 저장하여 두고, 이것을 표시하는 HTML 데이타로서 HTML 태그 <IMG SRC=화상 데이타 저장 패스명>를 출력하는 것에 의해, WEB 서버 내부에서의 화상 데이타의 카피·이동을 없애는 것을 특징으로 하는 화상 기록/재생 장치.
  25. 제2항에 있어서,
    상기 출력 신호를 생성하는 처리 유닛은 대표 화상을 표시하는 HTML 태그 또는 감시 이벤트를 나타내는 문자열을 <A HREF=다른 레이아웃 표시? 파라미터>와 </A>에 사이에 둔 문자열로서 출력하는 것에 의해 이것을 클릭하는 것에 의해 동적으로 이동·표시할 수 있도록 한 것을 특징으로 하는 화상 기록/재생 장치.
  26. 제25항에 있어서,
    상기 출력 신호를 생성하는 처리 유닛은 시시각각으로 추가 갱신되는 감시 이벤트 정보와 화상에서 이들의 HTML 데이타를 동적으로 생성하는 수단을 갖는 것을 특징으로 하는 화상 기록/재생 장치.
KR1020000004221A 1999-01-29 2000-01-28 감시 시스템에 있어서의 화상 기록/재생 장치 KR100774078B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP02124199A JP3826598B2 (ja) 1999-01-29 1999-01-29 画像監視装置及び記録媒体
JP1999-021241 1999-01-29

Publications (2)

Publication Number Publication Date
KR20000071313A true KR20000071313A (ko) 2000-11-25
KR100774078B1 KR100774078B1 (ko) 2007-11-06

Family

ID=12049568

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000004221A KR100774078B1 (ko) 1999-01-29 2000-01-28 감시 시스템에 있어서의 화상 기록/재생 장치

Country Status (4)

Country Link
US (1) US6741977B1 (ko)
EP (1) EP1024666A3 (ko)
JP (1) JP3826598B2 (ko)
KR (1) KR100774078B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369103B1 (ko) * 2000-12-20 2003-01-24 삼성전기주식회사 컴퓨터 인터페이스용 디지털 카메라의 화상 데이터 구조
KR100482837B1 (ko) * 2002-08-14 2005-04-14 엘지전자 주식회사 감시용 디지털 비디오 레코더에서의 이벤트 영상 탐색방법
KR100833615B1 (ko) * 2007-03-02 2008-05-30 주식회사 훠엔시스 원격 감시 시스템 및 원격 감시 방법
KR20170074538A (ko) * 2015-12-22 2017-06-30 삼성전자주식회사 타임랩스 영상을 생성하는 장치 및 방법

Families Citing this family (216)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8948442B2 (en) * 1982-06-18 2015-02-03 Intelligent Technologies International, Inc. Optical monitoring of vehicle interiors
US6414996B1 (en) 1998-12-08 2002-07-02 Stmicroelectronics, Inc. System, method and apparatus for an instruction driven digital video processor
US6381029B1 (en) 1998-12-23 2002-04-30 Etrauma, Llc Systems and methods for remote viewing of patient images
AUPQ535100A0 (en) * 2000-01-31 2000-02-17 Canon Kabushiki Kaisha Video browser data magnifier
EP1269754A4 (en) 2000-03-14 2009-03-11 Joseph Robert Marchese DIGITAL VIDEO SYSTEM USING NETWORKED CAMERAS
US20020089587A1 (en) * 2000-05-18 2002-07-11 Imove Inc. Intelligent buffering and reporting in a multiple camera data streaming video system
AU2001264723A1 (en) * 2000-05-18 2001-11-26 Imove Inc. Multiple camera video system which displays selected images
JP2002094970A (ja) * 2000-09-14 2002-03-29 Hidetoshi Yamauchi カメラ撮像管理システム
US7106479B2 (en) 2000-10-10 2006-09-12 Stryker Corporation Systems and methods for enhancing the viewing of medical images
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US7868912B2 (en) 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
KR20020061288A (ko) * 2001-01-15 2002-07-24 유로시스템 주식회사 네트워크 디지털 화상 제어 서버 시스템
JP3859449B2 (ja) * 2001-02-06 2006-12-20 株式会社日立国際電気 映像再生方法
JP3685730B2 (ja) 2001-03-28 2005-08-24 三洋電機株式会社 画像検索装置およびこれを用いた監視カメラシステム
JP4778158B2 (ja) * 2001-05-31 2011-09-21 オリンパス株式会社 画像選出支援装置
JP2003052037A (ja) * 2001-08-08 2003-02-21 Mega Chips Corp 監視画像記録装置
JP2003087772A (ja) 2001-09-10 2003-03-20 Fujitsu Ltd 画像制御装置
EP1427206A4 (en) * 2001-09-14 2006-10-04 Sony Corp INFORMATION GENERATION PROCESS, INFORMATION GENERATOR AND NETWORK INFORMATION PROCESSING SYSTEM
JP4288879B2 (ja) * 2001-09-14 2009-07-01 ソニー株式会社 ネットワーク情報処理システムおよび情報処理方法
AUPR899401A0 (en) * 2001-11-21 2001-12-13 Cea Technologies Pty Limited Method and apparatus for non-motion detection
JP2003219225A (ja) * 2002-01-25 2003-07-31 Nippon Micro Systems Kk 動体画像監視装置
US7545949B2 (en) * 2004-06-09 2009-06-09 Cognex Technology And Investment Corporation Method for setting parameters of a vision detector using production line information
JP2003223689A (ja) * 2002-01-29 2003-08-08 Yokogawa Electric Corp 監視システム
US9092841B2 (en) 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
US8022980B2 (en) * 2002-02-12 2011-09-20 Given Imaging Ltd. System and method for displaying an image stream
US7474327B2 (en) 2002-02-12 2009-01-06 Given Imaging Ltd. System and method for displaying an image stream
DE60320169T2 (de) 2002-05-02 2009-04-09 Sony Corp. Überwachungssystem und Verfahren sowie zugehöriges Programm- und Aufzeichnungsmedium
EP1359553B1 (en) 2002-05-02 2012-10-10 Sony Corporation Monitoring system, monitoring method, computer program and storage medium
JP2003340124A (ja) * 2002-05-30 2003-12-02 Sankyo Kk 遊技場における監視装置
US20040027365A1 (en) * 2002-08-07 2004-02-12 Sayers Craig P. Controlling playback of a temporal stream with a user interface device
US7697025B2 (en) 2002-08-28 2010-04-13 Sony Corporation Camera surveillance system and method for displaying multiple zoom levels of an image on different portions of a display
JP4136638B2 (ja) * 2002-12-13 2008-08-20 キヤノン株式会社 監視システム、被監視サイトのコンピュータ、監視サイトのコンピュータ、及び携帯電話
JP2004207843A (ja) * 2002-12-24 2004-07-22 Casio Comput Co Ltd 画像撮影装置およびプログラム
DE10301455A1 (de) * 2003-01-10 2004-07-29 Vcs Video Communication Systems Ag Verfahren zur Aufzeichnung von Video-/Audiodaten
JP4328556B2 (ja) * 2003-05-20 2009-09-09 キヤノン株式会社 情報処理装置及び情報処理方法及びそのプログラム
US7280753B2 (en) 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
US7280673B2 (en) * 2003-10-10 2007-10-09 Intellivid Corporation System and method for searching for changes in surveillance video
WO2005039174A1 (ja) * 2003-10-20 2005-04-28 Matsushita Electric Industrial Co., Ltd. マルチメディアデータ記録装置、モニタシステム、およびマルチメディアデータ記録方法
US7664292B2 (en) * 2003-12-03 2010-02-16 Safehouse International, Inc. Monitoring an output from a camera
JP4340528B2 (ja) * 2003-12-16 2009-10-07 パイオニア株式会社 情報再生装置、情報再生方法及び情報再生用プログラム並びに情報記録媒体
EP1699530B1 (en) * 2003-12-31 2012-07-04 Given Imaging Ltd. System and method for displaying an image stream
JP4514778B2 (ja) * 2004-01-22 2010-07-28 株式会社日立国際電気 映像配信装置
US20080225119A1 (en) * 2004-01-22 2008-09-18 Shigeyuki Murata Video Distribution Device
JP4558338B2 (ja) * 2004-01-29 2010-10-06 パナソニック株式会社 画像監視自動通報システム、自動通報システムおよび端末装置
US11113950B2 (en) 2005-03-16 2021-09-07 Icontrol Networks, Inc. Gateway integrated with premises security system
US11582065B2 (en) 2007-06-12 2023-02-14 Icontrol Networks, Inc. Systems and methods for device communication
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US20050216302A1 (en) 2004-03-16 2005-09-29 Icontrol Networks, Inc. Business method for premises management
US11277465B2 (en) 2004-03-16 2022-03-15 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US11489812B2 (en) 2004-03-16 2022-11-01 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US7711796B2 (en) 2006-06-12 2010-05-04 Icontrol Networks, Inc. Gateway registry methods and systems
US10522026B2 (en) 2008-08-11 2019-12-31 Icontrol Networks, Inc. Automation system user interface with three-dimensional display
US20090077623A1 (en) 2005-03-16 2009-03-19 Marc Baum Security Network Integrating Security System and Network Devices
US9729342B2 (en) 2010-12-20 2017-08-08 Icontrol Networks, Inc. Defining and implementing sensor triggered response rules
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
US10156959B2 (en) 2005-03-16 2018-12-18 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US11201755B2 (en) 2004-03-16 2021-12-14 Icontrol Networks, Inc. Premises system management using status signal
US10142392B2 (en) 2007-01-24 2018-11-27 Icontrol Networks, Inc. Methods and systems for improved system performance
US11316958B2 (en) 2008-08-11 2022-04-26 Icontrol Networks, Inc. Virtual device systems and methods
US11343380B2 (en) 2004-03-16 2022-05-24 Icontrol Networks, Inc. Premises system automation
US20170118037A1 (en) 2008-08-11 2017-04-27 Icontrol Networks, Inc. Integrated cloud system for premises automation
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US20160065414A1 (en) 2013-06-27 2016-03-03 Ken Sundermeyer Control system user interface
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US11159484B2 (en) 2004-03-16 2021-10-26 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US10127802B2 (en) 2010-09-28 2018-11-13 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US11368429B2 (en) 2004-03-16 2022-06-21 Icontrol Networks, Inc. Premises management configuration and control
US9531593B2 (en) 2007-06-12 2016-12-27 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US10339791B2 (en) 2007-06-12 2019-07-02 Icontrol Networks, Inc. Security network integrated with premise security system
US9141276B2 (en) 2005-03-16 2015-09-22 Icontrol Networks, Inc. Integrated interface for mobile device
US11677577B2 (en) 2004-03-16 2023-06-13 Icontrol Networks, Inc. Premises system management using status signal
US20050276445A1 (en) * 2004-06-09 2005-12-15 Silver William M Method and apparatus for automatic visual detection, recording, and retrieval of events
US8891852B2 (en) * 2004-06-09 2014-11-18 Cognex Technology And Investment Corporation Method and apparatus for configuring and testing a machine vision detector
US8243986B2 (en) * 2004-06-09 2012-08-14 Cognex Technology And Investment Corporation Method and apparatus for automatic visual event detection
US8127247B2 (en) * 2004-06-09 2012-02-28 Cognex Corporation Human-machine-interface and method for manipulating data in a machine vision system
TWI246033B (en) * 2004-06-30 2005-12-21 Unisvr Global Information Tech Hierarchical method for managing and displaying images for network monitoring
JP4308798B2 (ja) * 2004-06-30 2009-08-05 パナソニック株式会社 イベント重要度調整方法とその方法を実施する装置
JP2006094293A (ja) * 2004-09-27 2006-04-06 Hitachi Software Eng Co Ltd 差分画像検出システムおよび差分画像検出方法
US7720315B2 (en) * 2004-11-12 2010-05-18 Cognex Technology And Investment Corporation System and method for displaying and using non-numeric graphic elements to control and monitor a vision system
US7636449B2 (en) 2004-11-12 2009-12-22 Cognex Technology And Investment Corporation System and method for assigning analysis parameters to vision detector using a graphical interface
US9292187B2 (en) 2004-11-12 2016-03-22 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
JP4325541B2 (ja) * 2004-11-16 2009-09-02 ソニー株式会社 画像処理装置、再生画像処理装置、画像処理方法及び再生画像処理装置
JP2006163605A (ja) * 2004-12-03 2006-06-22 Hitachi Kokusai Electric Inc 画像検索表示装置とそのプログラム
JP4685465B2 (ja) * 2005-02-01 2011-05-18 パナソニック株式会社 監視記録装置
JP4716744B2 (ja) * 2005-02-01 2011-07-06 株式会社日立製作所 映像監視配信装置
JP4718860B2 (ja) * 2005-02-17 2011-07-06 株式会社クリプトン 遠方監視システムおよび遠方監視方法
JP4470759B2 (ja) * 2005-02-28 2010-06-02 ソニー株式会社 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体
US20110128378A1 (en) 2005-03-16 2011-06-02 Reza Raji Modular Electronic Display Platform
US11615697B2 (en) 2005-03-16 2023-03-28 Icontrol Networks, Inc. Premise management systems and methods
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US10999254B2 (en) 2005-03-16 2021-05-04 Icontrol Networks, Inc. System for data routing in networks
US11496568B2 (en) 2005-03-16 2022-11-08 Icontrol Networks, Inc. Security system with networked touchscreen
US11700142B2 (en) 2005-03-16 2023-07-11 Icontrol Networks, Inc. Security network integrating security system and network devices
US20170180198A1 (en) 2008-08-11 2017-06-22 Marc Baum Forming a security network including integrated security system components
JP2006295366A (ja) * 2005-04-07 2006-10-26 Takanobu Deguchi 監視カメラシステム
JP4722537B2 (ja) * 2005-04-21 2011-07-13 パナソニック株式会社 監視装置
JP2006352879A (ja) * 2005-06-17 2006-12-28 Fuji Xerox Co Ltd 映像フレーム内の事象を識別及び可視化する方法、及び、映像ストリーム内の事象のタイムラインを生成するためのシステム
AU2005202866A1 (en) * 2005-06-29 2007-01-18 Canon Kabushiki Kaisha Storing video data in a video file
US7702681B2 (en) * 2005-06-29 2010-04-20 Microsoft Corporation Query-by-image search and retrieval system
JP4955239B2 (ja) * 2005-08-16 2012-06-20 日本電気株式会社 監視方法並びに監視システム、監視装置及びセンター監視装置
EP1777959A1 (en) * 2005-10-20 2007-04-25 France Telecom System and method for capturing audio/video material
US20070124666A1 (en) * 2005-11-29 2007-05-31 Microsoft Corporation Custom loading activity or progress animation
US9166883B2 (en) 2006-04-05 2015-10-20 Joseph Robert Marchese Network device detection, identification, and management
JP2007300280A (ja) * 2006-04-28 2007-11-15 Toshiba Corp 映像再生装置および映像再生方法
JP4716025B2 (ja) * 2006-05-22 2011-07-06 富士フイルム株式会社 画像表示装置、表示制御プログラム及び撮影装置
JP5088463B2 (ja) * 2006-05-22 2012-12-05 日本電気株式会社 監視システム
EP2581888B1 (en) * 2006-06-02 2014-03-19 Sensormatic Electronics, LLC Systems and methods for distributed monitoring of remote sites
US10079839B1 (en) 2007-06-12 2018-09-18 Icontrol Networks, Inc. Activation of gateway device
JP2008028756A (ja) * 2006-07-21 2008-02-07 Hitachi Ltd 遠隔監視システム
US7787679B2 (en) * 2006-11-22 2010-08-31 Agfa Healthcare Inc. Study navigation system and method
JP4965990B2 (ja) * 2006-12-20 2012-07-04 キヤノン株式会社 再生装置及びファイル情報表示方法
US11706279B2 (en) 2007-01-24 2023-07-18 Icontrol Networks, Inc. Methods and systems for data communication
KR20080072202A (ko) * 2007-02-01 2008-08-06 삼성전자주식회사 데이터 처리 방법 및 데이터 처리 장치
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
JP2008242367A (ja) * 2007-03-29 2008-10-09 Fuji Xerox Co Ltd 表示制御装置、表示装置、表示システム及びプログラム
US8451986B2 (en) 2007-04-23 2013-05-28 Icontrol Networks, Inc. Method and system for automatically providing alternate network access for telecommunications
US11423756B2 (en) 2007-06-12 2022-08-23 Icontrol Networks, Inc. Communication protocols in integrated systems
US11237714B2 (en) 2007-06-12 2022-02-01 Control Networks, Inc. Control system user interface
US11218878B2 (en) 2007-06-12 2022-01-04 Icontrol Networks, Inc. Communication protocols in integrated systems
US10523689B2 (en) 2007-06-12 2019-12-31 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11316753B2 (en) 2007-06-12 2022-04-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US11601810B2 (en) 2007-06-12 2023-03-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US11089122B2 (en) 2007-06-12 2021-08-10 Icontrol Networks, Inc. Controlling data routing among networks
US11646907B2 (en) 2007-06-12 2023-05-09 Icontrol Networks, Inc. Communication protocols in integrated systems
US8237099B2 (en) * 2007-06-15 2012-08-07 Cognex Corporation Method and system for optoelectronic detection and location of objects
JP4867852B2 (ja) * 2007-08-21 2012-02-01 ソニー株式会社 画像生成装置、表示装置、画像生成方法、プログラム及びプログラムを記録した記録媒体
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
JP2009081699A (ja) * 2007-09-26 2009-04-16 Toshiba Corp 電子機器および顔画像抽出制御方法
JP5038836B2 (ja) * 2007-09-28 2012-10-03 株式会社東芝 情報処理装置
AT506051B1 (de) * 2007-11-09 2013-02-15 Hopf Richard Verfahren zum erfassen und/oder auswerten von bewegungsabläufen
US8310542B2 (en) * 2007-11-28 2012-11-13 Fuji Xerox Co., Ltd. Segmenting time based on the geographic distribution of activity in sensor data
JP4322945B2 (ja) * 2007-12-27 2009-09-02 株式会社東芝 電子機器、及び画像表示制御方法
JP5454992B2 (ja) * 2008-01-18 2014-03-26 株式会社日立製作所 映像ネットワークシステム
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US8320717B2 (en) * 2008-03-31 2012-11-27 Brother Kogyo Kabushiki Kaisha Image processor
JP5094568B2 (ja) * 2008-06-04 2012-12-12 三菱電機株式会社 映像管理システム
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US11758026B2 (en) 2008-08-11 2023-09-12 Icontrol Networks, Inc. Virtual device systems and methods
US11258625B2 (en) 2008-08-11 2022-02-22 Icontrol Networks, Inc. Mobile premises automation platform
US10530839B2 (en) 2008-08-11 2020-01-07 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11729255B2 (en) 2008-08-11 2023-08-15 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11792036B2 (en) 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
CN101370126B (zh) 2008-09-24 2012-02-08 中兴通讯股份有限公司 一种监控录像的播放控制方法及系统
JP2010081561A (ja) * 2008-09-29 2010-04-08 Nikon Corp 電子カメラ
JP5279475B2 (ja) * 2008-12-19 2013-09-04 パナソニック株式会社 監視カメラ装置
JP5106430B2 (ja) * 2009-01-21 2012-12-26 セコム株式会社 遠隔画像監視システム
JP5416421B2 (ja) * 2009-01-22 2014-02-12 株式会社日立国際電気 監視映像検索装置、監視映像検索プログラム及び監視映像検索方法
US20100195978A1 (en) * 2009-02-03 2010-08-05 Ekchian Gregory J System to facilitate replay of multiple recordings of a live event
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
US20110172550A1 (en) 2009-07-21 2011-07-14 Michael Scott Martin Uspa: systems and methods for ems device communication interface
JP5531512B2 (ja) * 2009-08-31 2014-06-25 ソニー株式会社 情報処理装置、プログラム、および情報処理方法
US8682142B1 (en) 2010-03-18 2014-03-25 Given Imaging Ltd. System and method for editing an image stream captured in-vivo
JP5205409B2 (ja) * 2010-04-09 2013-06-05 株式会社アップ 反応情報表示システム
CN106923779A (zh) 2010-04-28 2017-07-07 基文影像公司 用于显示体内图像部分的系统和方法
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
EP2629516B1 (en) * 2010-10-11 2017-03-22 LG Electronics Inc. Image-monitoring device and method for searching for objects therefor
US11750414B2 (en) 2010-12-16 2023-09-05 Icontrol Networks, Inc. Bidirectional security sensor communication for a premises security system
US9147337B2 (en) 2010-12-17 2015-09-29 Icontrol Networks, Inc. Method and system for logging security event data
US9282289B2 (en) * 2010-12-23 2016-03-08 Citrix Systems, Inc. Systems, methods, and devices for generating a summary document of an online meeting
JP5759212B2 (ja) * 2011-03-17 2015-08-05 キヤノン株式会社 シナリオ編集装置およびシナリオ編集方法、ならびに撮像システム
JP5738028B2 (ja) * 2011-03-25 2015-06-17 セコム株式会社 映像処理装置
JP5960950B2 (ja) * 2011-03-29 2016-08-02 セコム株式会社 画像監視装置およびプログラム
CN102761733A (zh) * 2011-04-29 2012-10-31 富泰华工业(深圳)有限公司 监控系统及视频数据存储方法
US9762967B2 (en) 2011-06-14 2017-09-12 Comcast Cable Communications, Llc System and method for presenting content with time based metadata
US8799358B2 (en) 2011-11-28 2014-08-05 Merge Healthcare Incorporated Remote cine viewing of medical images on a zero-client application
US9651499B2 (en) 2011-12-20 2017-05-16 Cognex Corporation Configurable image trigger for a vision system and method for using the same
JP5906806B2 (ja) * 2012-02-28 2016-04-20 沖電気工業株式会社 動画処理システム及び端末装置
JP5909147B2 (ja) * 2012-05-08 2016-04-26 キヤノン株式会社 撮像装置、撮像装置の制御方法、およびプログラム
JP5450735B2 (ja) * 2012-08-20 2014-03-26 東芝テック株式会社 情報端末及びプログラム
WO2014052802A2 (en) * 2012-09-28 2014-04-03 Zoll Medical Corporation Systems and methods for three-dimensional interaction monitoring in an ems environment
JP2015005809A (ja) * 2013-06-19 2015-01-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9860517B1 (en) * 2013-09-24 2018-01-02 Amazon Technologies, Inc. Power saving approaches to object detection
US11146637B2 (en) 2014-03-03 2021-10-12 Icontrol Networks, Inc. Media content management
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
AU2014202293B2 (en) * 2014-04-28 2021-02-25 Sure Technologies Pty Ltd Monitored security system including cameras
JP6137102B2 (ja) * 2014-06-30 2017-05-31 キヤノンマーケティングジャパン株式会社 情報処理装置、及びその制御方法、プログラム
US9449229B1 (en) 2014-07-07 2016-09-20 Google Inc. Systems and methods for categorizing motion event candidates
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9544636B2 (en) 2014-07-07 2017-01-10 Google Inc. Method and system for editing event categories
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US9158974B1 (en) 2014-07-07 2015-10-13 Google Inc. Method and system for motion vector-based video monitoring and event categorization
JP2016039496A (ja) * 2014-08-07 2016-03-22 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP6435550B2 (ja) * 2014-08-29 2018-12-12 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
WO2017154845A1 (ja) * 2016-03-10 2017-09-14 株式会社smart-FOA 再生装置
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
JP6872963B2 (ja) * 2017-04-28 2021-05-19 三菱電機ビルテクノサービス株式会社 監視カメラシステム
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10410086B2 (en) 2017-05-30 2019-09-10 Google Llc Systems and methods of person recognition in video streams
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
JP7086552B2 (ja) * 2017-09-22 2022-06-20 キヤノン株式会社 情報処理装置、撮像装置、情報処理方法及びプログラム
JP6904871B2 (ja) * 2017-10-03 2021-07-21 キヤノン株式会社 プログラム、情報処理装置、および情報処理方法
CN107977400B (zh) * 2017-10-09 2021-07-13 捷开通讯(深圳)有限公司 一种信息的显示方法、装置及计算机可读存储介质
CN110140152B (zh) * 2017-10-20 2020-10-30 三菱电机株式会社 数据处理装置、可编程显示器及数据处理方法
JP7098367B2 (ja) * 2018-03-19 2022-07-11 キヤノン株式会社 プログラムプロダクト及び監視制御システム並びに情報処理装置
JP7200493B2 (ja) * 2018-03-29 2023-01-10 京セラドキュメントソリューションズ株式会社 監視システム
JP7167134B2 (ja) * 2018-04-27 2022-11-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置
JP7254327B2 (ja) 2018-06-25 2023-04-10 株式会社キーレックス プレス部品用検査装置及びプレス部品の検査方法
JP6708937B2 (ja) * 2018-11-07 2020-06-10 キヤノンマーケティングジャパン株式会社 監視カメラ、情報処理システム、制御方法、プログラム
EP3905670A4 (en) * 2018-12-26 2022-08-10 Pioneer Corporation DISPLAY CONTROL DEVICE, METHOD AND PROGRAM
KR102150793B1 (ko) * 2019-04-17 2020-09-01 주식회사 엘지유플러스 사용자 인터페이스를 표시하는 단말 및 이의 동작 방법
JP2020065248A (ja) * 2019-09-04 2020-04-23 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
JP7140177B2 (ja) * 2020-11-25 2022-09-21 ソニーグループ株式会社 カメラ、カメラの制御方法、制御装置、制御装置の制御方法、システムおよびシステムの制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3222456B2 (ja) * 1990-07-30 2001-10-29 株式会社東芝 映像監視システム、送信装置、受信装置、および映像監視方法
GB2271460A (en) * 1992-08-11 1994-04-13 Solicitor For The Affairs Of H Event analysis recorder
KR100215586B1 (ko) * 1992-11-09 1999-08-16 모리시타 요이찌 다이제스트 화상 자동생성 장치 및 다이제스트 화상 자동생성 방법
US6003030A (en) * 1995-06-07 1999-12-14 Intervu, Inc. System and method for optimized storage and retrieval of data on a distributed computer network
WO1997007486A1 (en) * 1995-08-21 1997-02-27 Prism Video, Inc. Event monitoring
US5969755A (en) * 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
US6360234B2 (en) * 1997-08-14 2002-03-19 Virage, Inc. Video cataloger system with synchronized encoders
US6006265A (en) * 1998-04-02 1999-12-21 Hotv, Inc. Hyperlinks resolution at and by a special network server in order to enable diverse sophisticated hyperlinking upon a digital network
US6483532B1 (en) * 1998-07-13 2002-11-19 Netergy Microelectronics, Inc. Video-assisted audio signal processing system and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369103B1 (ko) * 2000-12-20 2003-01-24 삼성전기주식회사 컴퓨터 인터페이스용 디지털 카메라의 화상 데이터 구조
KR100482837B1 (ko) * 2002-08-14 2005-04-14 엘지전자 주식회사 감시용 디지털 비디오 레코더에서의 이벤트 영상 탐색방법
KR100833615B1 (ko) * 2007-03-02 2008-05-30 주식회사 훠엔시스 원격 감시 시스템 및 원격 감시 방법
KR20170074538A (ko) * 2015-12-22 2017-06-30 삼성전자주식회사 타임랩스 영상을 생성하는 장치 및 방법

Also Published As

Publication number Publication date
JP3826598B2 (ja) 2006-09-27
US6741977B1 (en) 2004-05-25
JP2000224542A (ja) 2000-08-11
EP1024666A2 (en) 2000-08-02
EP1024666A3 (en) 2001-07-25
KR100774078B1 (ko) 2007-11-06

Similar Documents

Publication Publication Date Title
KR100774078B1 (ko) 감시 시스템에 있어서의 화상 기록/재생 장치
JP4678043B2 (ja) 画像記憶装置、監視システム、記憶媒体
US11308158B2 (en) Information processing system, method for controlling information processing system, and storage medium
CN1326070C (zh) 视频信息智能管理系统
EP2260646B1 (en) Method and systems for video collection and analysis thereof
US8250490B2 (en) Display image control apparatus
AU2011201215B2 (en) Intelligent camera selection and object tracking
CN105872452A (zh) 浏览摘要图像的系统及方法
US20020126143A1 (en) Article-based news video content summarizing method and browsing system
WO1991011773A1 (en) Automated interactive record system
US20050163345A1 (en) Analysing image data
GB2408880A (en) Observing monitored image data and highlighting incidents on a timeline
CN106464836A (zh) 云视频服务中的智能变动选择
JP4162003B2 (ja) 画像記憶装置、監視システム、記憶媒体
KR100319160B1 (ko) 사건구간을기반으로하는동영상검색방법과검색데이타구성방법
CN110502117A (zh) 电子终端中的截图方法以及电子终端
JP2002152721A (ja) 録画再生装置の映像表示方法および装置
JP5826513B2 (ja) 類似画像検索システム
JPH07175816A (ja) 映像の連想検索装置及び方法
JP2007134934A (ja) 映像情報検索システムおよび映像監視システム
JP3473864B2 (ja) ビデオ情報検索方法
JP4175622B2 (ja) 画像表示システム
JP3711993B2 (ja) 映像の連想検索装置
KR102336906B1 (ko) 다수의 녹화 영상 채널을 효율적으로 검색할 수 있는 영상 검색 인터페이스 장치
JP2010093323A (ja) 監視装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee