KR20230103972A - 영상 수신/검색 장치 및 영상 표시 방법 - Google Patents
영상 수신/검색 장치 및 영상 표시 방법 Download PDFInfo
- Publication number
- KR20230103972A KR20230103972A KR1020220178554A KR20220178554A KR20230103972A KR 20230103972 A KR20230103972 A KR 20230103972A KR 1020220178554 A KR1020220178554 A KR 1020220178554A KR 20220178554 A KR20220178554 A KR 20220178554A KR 20230103972 A KR20230103972 A KR 20230103972A
- Authority
- KR
- South Korea
- Prior art keywords
- thumbnail
- image
- images
- thumbnail images
- area
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 239000003550 marker Substances 0.000 claims abstract description 29
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 28
- 238000004891 communication Methods 0.000 description 15
- 238000010191 image analysis Methods 0.000 description 15
- 238000012544 monitoring process Methods 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
- G06F16/739—Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Human Computer Interaction (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
영상 표시 방법은, 상기 비디오를 수신하는 단계와, 상기 수신된 비디오로부터 이벤트가 발생한 복수의 영상 프레임을 식별하는 단계와, 상기 영상 프레임으로부터 상기 복수의 영상 프레임을 대표하는 복수의 썸네일 이미지를 생성하는 단계와, 복수의 마커에 의해 상기 이벤트의 발생 시간을 나타내는 타임라인 인터페이스를 스크린 상에 표시하는 단계와, 상기 복수의 썸네일 이미지를 상기 타임라인 인터페이스와 인접한 썸네일 영역에 상기 복수의 마커와 동기적으로 배치하는 단계로 이루어지는데, 상기 마커의 좌측단은 상기 이벤트의 시작시간을 나타내고, 상기 배치되는 썸네일 이미지의 좌측단은 상기 썸네일 이미지와 대응되는 상기 마커의 좌측단과 일치하도록 배치된다.
Description
본 발명의 실시예는 네트워크 감시 카메라 시스템에 관한 것으로, 보다 구체적으로는, 채널 별 수신 영상을 표시하는 영상 검색 뷰어의 타임라인 상에 상기 채널 별 수신 영상의 이벤트 하이라이트에 대응하는 썸네일 이미지를 비균등 간격으로 표시하는 영상 수신/검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템에 관한 것이다.
최근의 감시 카메라 시스템은 지능형 영상분석을 수행하는 네트워크 카메라를 활용하여 감시영역에서 취득되는 다양한 영상분석 정보를 영상 및 오디오 신호와 함께 전송할 수 있다.
상기 네트워크 기반의 감시 카메라 시스템은 네트워크 감시 카메라 및 상기 네트워크 감시 카메라에서 취득된 정보를 RTP/RTSP를 응용한 미디어 스트리밍 방식 등을 통해 수신하는 DVR(Digital Video Recorder), NVR(Network Video Recorder) 등의 영상수신장치를 포함하여 구성될 수 있다. 이 때, 상기 정보 전송 방식은 ONVIF 등의 영상감시 표준화 기구를 통해 표준 프로토콜을 채택하고 있으며, RTSP(Real Time Streaming Protocol)는 IETF가 개발한 표준 통신규약(RFC2326)으로 서, 미디어 서버를 원격으로 제어할 때 사용될 수 있다. 실제 비디오, 오디오를 포함한 미디어 스트리밍 데이터를 전송하기 위해서는, 주로 RTP(Real-time Transport Protocol) 규약을 전송계층으로 함께 사용할 수 있다.
기존의 네트워크 기반의 감시 카메라 시스템의 경우, 각 감시 카메라들로부터 촬영된 채널 별 영상을 영상 수신 장치의 디스플레이를 통해 확인할 수 있으나, 각 채널 별로 스크린이 분할되어 있고, 분할된 다수의 스크린 중 어떤 채널에서 이벤트의 발생 빈도가 높은지 직관적으로 모니터링하기 어렵다는 문제가 있다.
또한, 영상 검색의 편의를 제공하기 위해 타임라인 인터페이스가 상기 영상 수신 장치의 디스플레이에 표시될 수 있으나, 기존의 타임라인 인터페이스는 상기 영상 수신 장치에 의해 수신되는 각 채널 별 영상의 재생 시점을 선택하거나 조절하는 측면에서만 활용되고 있는 실정이다. 즉, 기존의 타임라인 인터페이스에 의해서는 각 채널 별 수신 영상에서 사용자가 검색하고자 하는 특정 이벤트가 발생된 시점을 선택하기 어렵다는 문제도 있다.
본 발명의 목적은 이벤트가 발생한 영상 프레임에 대한 썸네일 이미지만을 타임라인 인터페이스와 동기적으로 표시함으로써 이벤트 발생 여부, 이벤트 발생 빈도, 발생시간 등을 사용자가 직관적으로 인식할 수 있게 하는 것이다.
본 발명의 다른 목적은 이벤트가 발생한 영상 프레임을 나타내는 썸네일 이미지를 상기 이벤트의 발생시간을 기준으로 배치함으로써 상기 썸네일 이미지의 위치만으로도 상기 이벤트의 발생시간을 직관적으로 알 수 있게 하는 것이다.
본 발명의 또 다른 목적은 다수의 썸네일 이미지를 썸네일 영역에 모두 표시하기에 충분하지 않을 때, 상기 다수의 썸네일 이미지들을 가공하여 보다 효율적이고 체계적인 방식으로 상기 썸네일 영역 상에 배치하는 것이다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른, 프로세서와, 상기 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리를 포함하며, 적어도 하나의 카메라로부터 비디오를 수신하는 영상 수신 장치에서, 상기 인스트럭션들에 의해 수행되는 영상 표시 방법은, 상기 비디오를 수신하는 단계; 상기 수신된 비디오로부터 이벤트가 발생한 복수의 영상 프레임을 식별하는 단계; 상기 영상 프레임으로부터 상기 복수의 영상 프레임을 대표하는 복수의 썸네일 이미지를 생성하는 단계; 복수의 마커에 의해 상기 이벤트의 발생 시간을 나타내는 타임라인 인터페이스를 스크린 상에 표시하는 단계; 및 상기 복수의 썸네일 이미지를 상기 타임라인 인터페이스와 인접한 썸네일 영역에 상기 복수의 마커와 동기적으로 배치하는 단계를 포함하되,
상기 마커의 좌측단은 상기 이벤트의 시작시간을 나타내고, 상기 배치되는 썸네일 이미지의 좌측단은 상기 썸네일 이미지와 대응되는 상기 마커의 좌측단과 일치하도록 배치된다.
이와 같은 본 발명의 실시예에 의하면, 감시영역에 대한 영상분석 정보들 중 식별 가능한 특정영역의 영상 프레임을 제공함으로써, 영상수신/검색장치 등과 같은 클라이언트가 별도의 영상 디코딩 절차를 수행하지 않고서도 상기 이미지 정보를 이용하여 보다 신속하고 정확하게 감시영역의 영상 데이터를 검색할 수 있다.
또한, 본 발명의 실시예는 복수의 네트워크 카메라들로부터 전송되는 각 채널 별 감시 영상 및 상기 감시 영상에 대응하는 영상분석 정보를 수신하고, 상기 채널 별 수신 영상을 표시하는 영상 검색 뷰어의 타임라인 상에 상기 채널 별 수신 영상의 이벤트 하이라이트에 대응하는 썸네일 이미지를 비균등 간격으로 표시함으로써, 사용자에게 검색의 편의를 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 네트워크 감시 카메라 시스템의 구성을 개략적으로 나타내는 블록도이다.
도 2는 도 1에 도시된 카메라의 구성을 나타내는 블록도이다.
도 3은 도 2에 도시된 프로세서의 내부 구성의 일 실시예를 나타내는 블록도이다.
도 4는 도 1에 도시된 영상수신/검색장치의 구성을 나타내는 블록도이다.
도 5는 도 4에 도시된 프로세서의 내부 구성의 일 실시예를 나타내는 블록도이다.
도 6은 본 발명의 실시예에 따른 의한 영상수신/검색장치에서 제공하는 영상 검색 뷰어가 표시하는 GUI를 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 타임라인 인터페이스와 썸네일 영역을 도시한 도면이다.
도 8은 도 7에서 사용자에 의해 필터링 된 마커와 썸네일 이미지를 도시한 도면이다.
도 9는 썸네일 영역에 표시된 썸네일 이미지를 생성하는 방법을 보여주는 도면이다.
도 10은 썸네일 영역에 썸네일 이미지가 여백 없이 채워지는 예를 보여주는 도면이다.
도 11a는 영상 프레임 내에서 이벤트와 관련된 객체의 바운딩 박스를 추출하는 예를 보여주는 도면이고, 도 11b는 상기 추출된 객체를 썸네일 영역에 표시한 예를 보여주는 도면이다.
도 12a는 썸네일 영역에 표시된 썸네일 이미지 중 하나를 사용자가 선택한 예를 보여주는 도면이고, 도 12b는 도 12a에서 선택된 썸네일 이미지를 기준으로 주변의 썸네일 이미지를 카루젤 형태로 표시하는 예를 보여주는 도면이다.
도 13은 썸네일 영역 중에서 사용자에 의해 지정된 일부 영역을 확대하여 표시하는 예를 보여주는 도면이다.
도 2는 도 1에 도시된 카메라의 구성을 나타내는 블록도이다.
도 3은 도 2에 도시된 프로세서의 내부 구성의 일 실시예를 나타내는 블록도이다.
도 4는 도 1에 도시된 영상수신/검색장치의 구성을 나타내는 블록도이다.
도 5는 도 4에 도시된 프로세서의 내부 구성의 일 실시예를 나타내는 블록도이다.
도 6은 본 발명의 실시예에 따른 의한 영상수신/검색장치에서 제공하는 영상 검색 뷰어가 표시하는 GUI를 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 타임라인 인터페이스와 썸네일 영역을 도시한 도면이다.
도 8은 도 7에서 사용자에 의해 필터링 된 마커와 썸네일 이미지를 도시한 도면이다.
도 9는 썸네일 영역에 표시된 썸네일 이미지를 생성하는 방법을 보여주는 도면이다.
도 10은 썸네일 영역에 썸네일 이미지가 여백 없이 채워지는 예를 보여주는 도면이다.
도 11a는 영상 프레임 내에서 이벤트와 관련된 객체의 바운딩 박스를 추출하는 예를 보여주는 도면이고, 도 11b는 상기 추출된 객체를 썸네일 영역에 표시한 예를 보여주는 도면이다.
도 12a는 썸네일 영역에 표시된 썸네일 이미지 중 하나를 사용자가 선택한 예를 보여주는 도면이고, 도 12b는 도 12a에서 선택된 썸네일 이미지를 기준으로 주변의 썸네일 이미지를 카루젤 형태로 표시하는 예를 보여주는 도면이다.
도 13은 썸네일 영역 중에서 사용자에 의해 지정된 일부 영역을 확대하여 표시하는 예를 보여주는 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
이하 첨부된 도면들을 참조하여 본 발명의 일 실시예를 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 네트워크 감시 카메라 시스템의 구성을 개략적으로 나타내는 블록도이다.
도 1을 참조하면, 본 발명의 실시예에 따른 네트워크 감시 카메라 시스템은, 카메라(100), 네트워크(170) 및 영상수신/검색장치(300)를 포함하여 구성될 수 있다. 상기 네트워크 감시 카메라 시스템은 상기 카메라(100)에서 취득된 영상 정보들이 네트워크(170)를 통해 영상수신/검색장치(300)로 전송되고, 관리자가 영상수신/검색장치(300)를 이용하여 상기 전송된 다채널 영상 정보들에 대한 검색을 수행할 수 있다. 즉, 본 발명의 실시예에서는 상기 카메라(100)가 데이터를 전송하는 서버의 역할을 수행하고, 상기 영상수신/검색장치(300)가 상기 전송된 데이터를 수신하는 클라이언트의 역할을 수행할 수 있다.
상기 카메라(100)는 감시영역을 촬영하여 상기 감시영역에 대한 영상 및 오디오 신호를 획득하는 것으로, 이는 감시 또는 보안의 목적으로 상기 감시영역을 실시간으로 촬영할 수 있다. 본 발명의 실시예에서는 상기 카메라(100)가 복수 개로 구현되며, 이를 통해 복수의 감시 영역들을 촬영하여 상기 각 감시영역에 대한 영상 정보를 취득하고, 상기 취득한 각 감시 영역별 영상 정보를 각각의 채널로 전송할 수 있다. 다시 말하면, 본 발명의 실시예는 상기 카메라(100)가 복수 개로 구현되어 각각의 감시영역에 대한 영상 신호 등의 영상 정보를 취득하는 동작을 수행할 수 있다. 즉, 상기 복수 개의 카메라(100)들 각각은 각자의 감시영역에 대응하는 다 채널의 영상 신호를 생성하고 이를 전송하는 동작을 수행할 수 있다.
상기 카메라(100)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌 배율이 조절 가능한 PTZ 카메라로 구현될 수 있으며, 상기 카메라(100)는 지능형 영상분석 기능을 수행하는 네트워크 카메라로 구현될 수 있다.
일 예로, 본 발명의 실시예에 따른 카메라(100)는 상기 감시영역에 대응하는 영상 신호를 포함한 영상 정보 외에 상기 영상 정보에 대한 영상분석 정보들을 메타데이터 형태로 생성하여 전송할 수 있다. 상기 메타데이터는 텍스트 형식으로 작성될 수 있을 뿐 아니라, 시스템에 의해 해석 가능한 다양한 형태로 구현될 수 있다. 일 예로, XML, JSON 등의 규칙을 갖는 텍스트 포맷 또는 자체 프로토콜로 정의된 바이너리 형태로도 구현될 수 있다.
상기 메타데이터는 상기 감시영역에 촬영된 객체 검출 정보(움직임, 소리, 지정지역 침입 등), 객체 식별 정보(사람, 차, 얼굴, 모자, 의상 등), 및 객체 추적을 위한 객체의 고유 식별자 정보, 검출된 객체의 위치 정보(좌표, 크기 등), 시간 정보를 포함할 수 있다. 이러한 메타데이터는 상기 감시영역에서 검출된 영상 및 오디오 신호와 함께 실시간으로 네트워크(170)를 통해 영상수신장치(300)로 전송되어 실시간 관제, 영상 검색 시 활용하여 관제 편의성과 검색 효율을 높이는데 사용될 수 있다.
이하의 실시예에서는 상기 카메라(100)가 지능형 영상분석 기능을 수행하여 상기 영상분석 신호를 생성하는 네트워크 카메라임을 그 예로 설명하나, 본 발명의 실시예에 따른 네트워크 감시 카메라 시스템의 동작이 반드시 이에 한정되는 것은 아니다. 일 예로, 상기 카메라(100)에서는 각 감시영역에 대응하는 영상 정보를 전송하고, 상기 영상 정보를 수신한 영상수신/검색장치(300)에서 상기 영상 정보를 분석하여 상기 영상 정보에 대한 영상분석 정보들을 생성할 수도 있다.
본 발명의 실시예에 따른 카메라(100)는 상기 메타데이터를 생성함과 함께 상기 영상분석 정보들 중 특정 분석 영역에 대한 영상 프레임을 캡쳐하고, 이를 실시간으로 함께 전송할 수도 있다. 일 예로, 상기 영상 프레임은 JPEG 이미지 파일로 구현될 수 있다.
상기 카메라(100)는 이더넷(Ethernet), 와이파이(Wi-Fi), 블루투스(Bluetooth) 등 다양한 유무선 통신 방식을 이용하여 영상수신장치(300)에 정보를 전송할 수도 있고, 영상수신/검색장치(300)로부터 명령을 수신할 수도 있다.
네트워크(170)는 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
영상수신/검색장치(300)는 상기 카메라(100)들로부터 전송된 각 채널 별 영상 정보들을 수신하고 저장하며, 이를 분석 및 모니터링하는 동작을 수행할 수 있다.
이하의 실시예에서는 상기 영상수신/검색장치(300)를 하나의 블록으로 도시하여 설명하지만, 본 발명의 실시예에 따른 영상수신/검색장치(300)의 구성 및 동작이 이에 한정되는 것은 아니다.
보다 구체적으로, 상기 영상수신/검색장치(300)는 상기 카메라(100)로부터 전송된 데이터들을 수신 및 저장하는 영상수신장치의 기능과 상기 데이터들에 대한 분석 및 모니터링의 동작을 수행하는 영상검색장치의 기능을 구현할 수 있다. 이때, 상기 영상수신장치 및 영상검색장치는 물리적으로 분리되어 구성되거나, 하나의 서버 시스템을 통해 함께 구현할 수도 있다.
일 예로, 상기 영상수신장치는 DVR (Digital Video Recorder), NVR (Network Video Recorder), VMS (Video Management System) 등으로 구현될 수 있고, 상기 영상검색장치는 상기 영상수신장치에 저장된 카메라 영상 데이터들 이용하여 이를 검색하고 분석하는 기능을 수행하는 별도의 디바이스 또는 응용 소프트웨어로 구현될 수 있으며, 이를 통해 관리자가 영상수신/검색장치(300)를 이용하여 상기 전송된 다채널 영상 정보들에 대한 검색을 수행할 수 있다.
본 발명의 실시예에서는 상기 영상수신/검색장치(300)에서 제공하는 영상 검색 뷰어를 이용하여 다채널 영상 정보들에 대한 검색을 수행할 수 있으며, 상기 영상 검색 뷰어에서 제공하는 GUI의 실시예는 이하 도 6 내지 13을 통해 보다 상세히 설명하도록 한다.
도 2는 도 1에 도시된 카메라의 구성을 나타내는 블록도이고, 도 3은 도 2에 도시된 프로세서의 내부 구성의 일 실시예를 나타내는 블록도이다. 앞서 언급한 바와 같이, 도 2 및 도 3에 도시된 카메라(100)는 지능형 영상분석 기능을 수행하여 상기 영상분석 신호를 생성하는 네트워크 카메라임을 그 예로 설명하나, 본 발명의 실시예에 따른 네트워크 감시 카메라 시스템의 동작이 반드시 이에 한정되는 것은 아니다.
먼저 도 2를 참조하면, 카메라(100)는 이미지 센서(110), 인코더(120), 메모리(130), 이벤트 센서(140), 프로세서(140), 및 통신 인터페이스(150)를 포함한다.
이미지 센서(110)는 감시 영역을 촬영하여 영상을 획득하는 기능을 수행하는 것으로서, 예컨대, CCD(Charge-Coupled Device) 센서, CMOS(Complementary Metal-Oxide-Semiconductor) 센서 등으로 구현될 수 있다.
인코더(120)는 이미지 센서(110)를 통해 획득한 영상을 디지털 신호로 부호화하는 동작을 수행하며, 이는 예컨대, H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준 등을 따를 수 있다.
메모리(130)는 영상 데이터, 음성 데이터, 영상 프레임, 메타데이터 등을 저장할 수 있다. 앞서 언급한 바와 같이, 상기 메타데이터는 상기 감시영역에 촬영된 객체 검출 정보(움직임, 소리, 지정지역 침입 등), 객체 식별 정보(사람, 차, 얼굴, 모자, 의상 등), 및 검출된 위치 정보(좌표, 크기 등)을 포함하는 데이터일 수 있다.
또한, 상기 영상 프레임은 상기 메타데이터와 함께 생성되어 메모리(130)에 저장되는 것으로서, 상기 영상분석 정보들 중 특정 분석 영역에 대한 이미지 정보를 캡쳐하여 생성될 수 있다. 일 예로, 상기 영상 프레임은 JPEG 이미지 파일로 구현될 수 있다.
일 예로, 상기 영상 프레임은 특정 영역 및 특정 기간 동안 검출된 상기 감시영역의 영상 데이터들 중 식별 가능한 객체로 판단된 영상 데이터의 특정영역을 크롭핑(cropping)하여 생성될 수 있으며, 이는 상기 메타데이터와 함께 실시간으로 전송될 수 있다.
통신 인터페이스(150)는 상기 영상 데이터, 음성 데이터, 영상 프레임, 및/또는 메타데이터를 영상수신장치(300)에 전송한다. 일 실시예에 따른 통신 인터페이스(150)는 영상 데이터, 음성 데이터, 영상 프레임, 및/또는 메타데이터를 영상수신/검색장치(300)에 실시간으로 전송할 수 있다. 통신 인터페이스(150)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 중 적어도 하나의 통신 기능을 수행할 수 있다.
프로세서(140)는 카메라(100)의 전반적인 동작을 제어하는 것으로서, 이는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(130) 또는 통신 인터페이스(150)에 의해 프로세서(140)로 제공될 수 있다. 일 예로, 프로세서(140)는 메모리(130)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 즉, 상기 프로세서(140)는 소프트웨어적으로 C, C++, Java, Visual Basic, Visual C 등에 의해 구현되어 다양한 기능들을 수행하는 프로그램 모듈(Module)을 포함할 수 있다.
도 3을 참조하면, 본 발명의 실시예에 따른 네트워크 카메라(100)의 프로세서(140)는 메타데이터 생성부(142) 및 영상 프레임 생성부(144)를 포함할 수 있다.
여기서, 상기 프로세서(140)는 메모리(130)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있으며, 이때, 상기 프로세서(140) 내의 구성요소들 즉, 메타데이터 생성부(142) 및 영상 프레임 생성부(144)는 카메라(100)에 저장된 프로그램 코드가 제공하는 제어 명령에 의해 프로세서(140)에 의해 수행되는 서로 다른 기능들을 구분하여 표현하는 것으로 이해할 수도 있다.
메타데이터 생성부(142)는 각 카메라의 감시영역에 대응하는 영상분석 정보들을 메타데이터 형태로 생성하는 기능을 수행한다. 상기 메타데이터는 감시영역에 촬영된 객체 검출 정보(움직임, 소리, 지정지역 침입 등), 객체 식별 정보(사람, 차, 얼굴, 모자, 의상 등), 및 객체 추적을 위한 객체의 고유 식별자 정보, 검출된 객체의 위치 정보(좌표, 크기 등), 시간 정보를 포함할 수 있으며, 이러한 메타데이터는 상기 감시영역에서 검출된 영상 및 오디오 신호와 함께 실시간으로 네트워크(170)를 통해 영상수신/검색장치(300)로 전송되어 실시간 관제, 영상 검색 시 활용하여 관제 편의성과 검색 효율을 높이는데 사용될 수 있다.
본 발명의 실시예에 따른 카메라(100)의 프로세서(140)는 상기 메타데이터를 생성함과 함께 영상 프레임 생성부(144)를 통해 상기 영상분석 정보들 중 특정 분석 영역에 대한 영상 프레임을 캡쳐하여 생성할 수 있고, 상기 영상 프레임 생성부(144)를 통해 생성된 영상 프레임은 상기 메모리(130)에 저장될 수 있다.
일 예로, 상기 영상 프레임은 특정 영역 및 특정 기간 동안 검출된 상기 감시영역의 영상 데이터들 중 식별 가능한 객체로 판단된 영상 데이터의 특정영역을 크롭핑(cropping)하여 생성될 수 있다.
보다 구체적으로, 상기 영상 프레임은 상기 메타데이터로 작성된 상기 감시 영역에 대응하는 영상분석 정보들 중 특정 영역 즉, 상기 감시영역 내에서 검출된 식별 가능한 객체에 해당하는 영상 부분을 크롭핑하여 생성된 영상 프레임일 수 있다.
즉, 상기 감시영역에서 촬영된 영상 데이터들 중 특정 객체를 가장 잘 인식할 수 있는 "베스트 샷(best shot)" 영상 프레임으로 선택될 수 있으며, 이는 상기 메타데이터와 함께 실시간으로 전송될 수 있다. 이에 영상수신/검색장치(300)와 같은 클라이언트는 별도의 영상 처리 일 예로 디코딩을 수행하지 않고 상기 영상 프레임을 사용하여 전송된 영상 데이터의 검색시 썸네일 이미지로 활용할 수 있다.
도 4는 도 1에 도시된 영상수신/검색장치의 구성을 나타내는 블록도이고, 도 5는 도 4에 도시된 프로세서의 내부 구성의 일 실시예를 나타내는 블록도이다.
영상수신/검색장치(300)는 상기 카메라(100)에서 전송된 데이터들을 수신하고 저장하며, 이를 분석 및 모니터링하는 클라이언트의 역할을 수행할 수 있다. 일 예로, 상기 영상수신/검색장치(300)는 카메라(100)들로부터 다채널 영상 정보들을 수신하는 영상수신 기능과 상기 수신된 다채널 영상 정보들에 대한 분석 및 검색을 수행하는 영상검색 기능을 구현하는 것으로서, 특히 상기 영상검색 기능은 이를 구현할 수 있는 응용 프로그램(영상 검색 뷰어)을 영상수신장치를 구성하는 서버 시스템에 탑재됨으로써 동작할 수 있다. 다만, 이는 하나의 실시예로서 앞서 언급한 바와 같이 상기 영상수신/검색장치(300)는 각각 영상수신장치와 영상검색장치로 분리된 구성으로도 구현될 수 있다.
상기 영상검색 기능을 수행하는 응용 프로그램을 통해 도 @ 내지 도 @에 도시된 바와 같은 영상 검색 뷰어(viewer)를 제공할 수 있으며, 이를 통해 관리자가 영상수신/검색장치(300)를 이용하여 상기 전송된 다채널 영상 정보들에 대한 검색을 수행할 수 있다.
먼저 도 4를 참조하면, 본 발명의 실시예에 따른 영상수신/검색장치(300)는 메모리(310), 데이터베이스(320) 프로세서(330), 통신모듈(350) 및 입출력 인터페이스(340)을 포함한다.
메모리(310)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM, ROM 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치를 포함할 수 있다. 상기 메모리(310)에는 도 1에 도시된 카메라(100)로부터 전송된 신호들 일 예로, 상기 카메라의 감시 영역에 대응하는 영상 데이터, 음성 데이터, 영상 프레임, 메타데이터 등을 저장할 수 있다.
데이터베이스(320)는 도 1에 도시된 카메라(100)의 고유 정보들(예: 카메라 ID 등)을 저장 및 유지할 수 있다. 즉, 상기 영상수신장치(300)와 연결되는 감시 카메라들이 추가 및/또는 변경되면 이에 대응하는 정보 역시 상기 데이터베이스(320)에 업데이트될 수 있다.
프로세서(330)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(310) 또는 통신 모듈(350)에 의해 프로세서(330)로 제공될 수 있다. 일 예로, 프로세서(330)는 메모리(310)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 즉, 상기 프로세서(330)는 소프트웨어적으로 C, C++, Java, Visual Basic, Visual C 등에 의해 구현되어 다양한 기능들을 수행하는 프로그램 모듈(Module)을 포함할 수 있다.
통신모듈(350)은 네트워크(170)를 통해 카메라(100)와 통신할 수 있도록 하는 기능을 제공할 수 있다. 일 예로, 영상수신/검색장치(300)의 프로세서(330)의 제어에 따라 제공되는 제어신호, 명령 등이 통신모듈(350)을 통해 상기 네트워크(170)을 거쳐 카메라(100)로 전송될 수 있고, 마찬가지로 상기 카메라(100)에서 생성되는 촬영 영상 정보 및/또는 위치 정보들은 상기 네트워크(170)을 거쳐 영상 수신/검색장치(300)로 전송될 수 있다.
입출력 인터페이스(340)는 키보드 또는 마우스 등으로 구현되는 입력장치 및 디스플레이 등과 같은 출력장치 간의 인터페이스를 제공하는 역할을 할 수 있다.
도 5를 참조하면, 본 발명의 실시예에 따른 영상수신/검색장치(300)의 프로세서(330)는 메타데이터 수신부(332), 영상 프레임 수신부(334), 썸네일 이미지 생성부(336), 및 GUI 제어부(338)를 포함할 수 있다.
여기서, 상기 프로세서(330)는 메모리(310)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있으며, 이때, 상기 프로세서(330) 내의 구성요소들 즉, 메타데이터 수신부(332), 영상 프레임 수신부(334), 썸네일 이미지 생성부(336), GUI 제어부(338)는 영상수신/검색장치(300)에 저장된 프로그램 코드가 제공하는 제어 명령에 의해 프로세서(330)에 의해 수행되는 서로 다른 기능들을 구분하여 표현하는 것으로 이해할 수도 있다.
메타데이터 수신부(332)는 앞서 도 3에서 설명된 카메라(100)의 프로세서(140) 내의 기능블록인 메타데이터 생성부(142)와 대응되는 기능블록으로서, 상기 메타데이터 생성부(142)에서 생성하여 전송한 메타데이터를 수신하는 기능을 수행한다.
상기 메타데이터는 각 카메라의 채널 별 감시영역에서 촬영된 감시 영상 중 상기 각 채널 별로 이벤트가 발생된 경우, 상기 이벤트가 발생된 감시 영역에서 촬영된 객체 검출 정보(움직임, 소리, 지정지역 침입 등), 객체 식별 정보(사람, 차, 얼굴, 모자, 의상 등), 및 객체 추적을 위한 객체의 고유 식별자 정보, 검출된 객체의 위치 정보(좌표, 크기 등), 시간 정보를 포함할 수 있다.
영상 프레임 수신부(334)는 앞서 도 3에서 설명된 카메라(100)의 프로세서(140) 내의 기능블록인 영상 프레임 생성부(144)와 대응되는 기능블록으로서, 상기 영상 프레임 생성부(144)에서 생성하여 전송한 영상 프레임을 수신하는 기능을 수행한다. 일 예로, 상기 영상 프레임은 특정 영역 및 특정 기간 동안 검출된 상기 감시영역의 영상 데이터들 중 식별 가능한 객체로 판단된 영상 데이터의 특정영역을 크롭핑(cropping)하여 생성될 수 있다. 보다 구체적으로, 상기 영상 프레임은 상기 메타데이터로 작성된 상기 감시영역에 대응하는 영상분석 정보들 중 특정 영역 즉, 상기 감시영역 내에서 검출된 식별 가능한 객체에 해당하는 영상 부분을 크롭핑하여 생성된 영상 프레임일 수 있다. 즉, 상기 감시영역에서 촬영된 영상 데이터들 중 특정 객체를 가장 잘 인식할 수 있는 "베스트 샷(best shot)" 영상 프레임으로 선택될 수 있다.
썸네일 이미지 생성부(336)는 상기 영상 프레임 수신부(334)를 통해 수신한 영상 프레임을 이용하여 썸네일 이미지를 생성하는 기능을 수행한다. 상기 썸네일 이미지는 채널 별로 전송된 감시영역에 대응하는 영상 정보들 중 이벤트 발생 시 이를 가장 잘 나타낼 수 있는 이미지 즉, 상기 "베스트 샷(best shot)" 영상 프레임을 활용하여 생성될 수 있으며, 사용자는 앞서 설명한 영상 검색 뷰어에서 상기 썸네일 이미지로 표시되는 각 채널별 이벤트 정보들을 보다 용이하게 검색할 수 있다.
본 발명의 실시예는 상기 썸네일 이미지 생성부(336)에 의해 생성된 썸네일 이미지를 상기 채널 별 수신 영상을 표시하는 영상 검색 뷰어의 타임라인 인터페이스에 표시함을 특징으로 한다.
보다 구체적으로, GUI 제어부(338)는 썸네일 이미지 표시부 및 시간축을 포함하여 구성되는 타임라인 인터페이스에 있어서, 상기 각각의 썸네일 이미지들을 상기 썸네일 이미지에 해당하는 채널 별 수신 영상의 특정 이벤트가 발생된 시점에 대응하여 비균등 간격으로 표시하도록 상기 타임라인 인터페이스를 제어하는 동작을 수행한다.
이와 같은 본 발명의 실시예에 따른 타임라인 인터페이스의 기능을 통해 사용자는 검색을 원하는 이벤트를 보다 용이하고 신속하게 찾을 수 있게 됨으로써, 결과적으로 검색의 편의를 제공할 수 있다.
또한, 중요 이벤트들 및 이와 대응되는 썸네일 이미지들이 생성된 시점에 해당하는 타임라인의 시간 축에 대응되도록 표시됨으로써, 사용자는 시간의 흐름에 따라 각 채널 별로 발생되는 이벤트의 특성을 보다 직관적으로 파악할 수 있으며, 이를 통해 채널별 이벤트 정보들을 보다 용이하게 검색할 수 있다.
이하, 도 6 내지 도 13을 통해 본 발명의 실시예에 따른 영상 검색 뷰어의 동작을 보다 자세히 설명하도록 한다.
도 6은 본 발명의 실시예에 따른 의한 영상수신/검색장치에서 제공하는 영상 검색 뷰어가 표시하는 GUI(graphic user interface)(200)를 나타내는 도면이다.
상기 영상 검색 뷰어의 GUI(200)에는 각 채널에 대응하는 수신된 영상 프레임(250)이 표시될 수 있다. 단, 도 6에서는 하나의 영상 프레임(250)에 표시되는 것을 예시하였지만 이에 한하지 않고 복수의 채널 영상 프레임을 매트릭스 형태로 표시하는 것도 가능하다.
또한, 본 발명의 실시예에 따른 영상 검색 뷰어는 타임라인 인터페이스(210)를 포함한다. 본 발명의 실시예에 따른 타임라인 인터페이스(210)는 시간의 흐름에 따라 이벤트를 갖는 영상 프레임의 상대적인 위치를 나타내는 마커(10: 10-1, 10-2, 10-3)를 포함한다. 이에 따라, 사용자는 영상 검색 뷰어의 GUI(200)의 하단부에 표시된 타임라인 인터페이스(210)를 통해 특정 채널의 수신 영상 프레임의 내용을 시간의 흐름에 따라 확인할 수 있다.
또한, 상기 타임라인 인터페이스(210)와 인접하여, 예를 들어 타임라인 인터페이스(210)의 하측에는 썸네일 영역(220)이 표시된다. 이 때, 상기 복수의 썸네일 이미지(30: 30-1, 30-2, 30-3)는 상기 썸네일 영역(220)에 상기 복수의 마커(10-1, 10-2, 10-3)와 동기적으로 배치된다.
상기 썸네일 영역(220)은 상기 선택된 채널의 수신 영상 정보들 중 특정 이벤트가 발생된 시점에 대응하여 상기 특정 이벤트와 연관된 썸네일 이미지들(30)을 표시하는 것으로서, 상기 썸네일 이미지들(30)은 앞서 도 5를 통해 설명한 썸네일 이미지 생성부(336)에서 생성된 썸네일 이미지들로 구현될 수 있다.
또한, 본 발명의 실시예는 상기 생성된 썸네일 이미지들(30)이 각각의 썸네일 이미지들의 이벤트 발생 시점에 해당하는 타임라인 인터페이스(210)의 마커(10)에 대응되도록 표시될 수 있다. 일 예로, 제1 썸네일 이미지(30-1)는 제2 및 제3 썸네일 이미지들(30-2, 30-3)보다 빠른 시점에 촬영된 채널 영상에 대응될 수 있다.
도시된 바와 같이 복수의 썸네일 이미지들(30)은 상기 선택된 채널의 수신 영상의 특정 이벤트가 발생된 시점에 대응하여 비균등 간격으로 표시될 수 있다. 이에 따라, 상기 선택된 채널의 수신 영상 정보들 중 특정 주요 이벤트에 대응하는 주요 장면들만으로 추려진 비균등 간격의 썸네일 이미지가 표시됨으로써, GUI(200)에 표시되는 불필요한 정보를 최소화할 수 있다.
또한, 사용자는 상기 주요 이벤트들이 발생되는 빈도수 및 시점을 본 발명의 실시예에 따른 타임라인 인터페이스(210) 및 썸네일 영역(220) 의 기능을 통해 직관적으로 확인할 수 있으므로, 원하는 이벤트를 보다 용이하고 신속하게 검색할 수 있다.
한편, 이와 같은 썸네일 이미지(30)는 사용자에게 직관적인 이벤트 확인을 가능하게 하면서도, 해당 썸네일 이미지(30)에 사용자가 마우스 오버 또는 클릭 동작을 수행한 경우에, 상기 썸네일 이미지(30)의 이벤트 발생 구간 동안 영상 프레임(250)이 재생될 수 있다.
이와 같은 영상 수신/검색 장치(300)에서 수행되는 동작을 요약하면 다음과 같다.
먼저, 영상 수신/검색 장치(300)의 프로세서(330) 내에 구비된 영상 프레임 수신부(334)는 카메라(100)로부터 복수의 영상 프레임을 포함하는 비디오를 수신한다. 다음으로, 메타데이터 수신부(332)는 상기 수신된 비디오로부터 이벤트가 발생한 복수의 영상 프레임을 식별한다. 그리고, 썸네일 이미지 생성부(336)는 상기 영상 프레임으로부터 상기 복수의 영상 프레임을 대표하는 복수의 썸네일 이미지(30)를 생성한다. 이후, GUI 제어부(338)는 복수의 마커(10)에 의해 상기 이벤트의 발생 시간을 나타내는 타임라인 인터페이스(210)를 스크린 상에 표시하고, 이와 동시에 상기 복수의 썸네일 이미지(30)를 상기 타임라인 인터페이스(210)와 인접한 썸네일 영역(220)에 배치한다.
이 때, 본 발명에서는 도 6에 도시된 바와 같이, 타임라인 인터페이스(210)의 마커(10)와, 상기 마커(10)에 대응되는 썸네일 이미지(30)는 동기적으로 배치된다. 구체적으로, 마커(10)의 좌측단과 썸네일 이미지(30)의 좌측단이 일치하도록 배치된다.
예를 들어, 마커(10-1)의 좌측단은 이벤트가 시작되는 제1 시간(t1)을 나타내는데, 썸네일 이미지(30-1)의 좌측단도 상기 제1 시간(t1)과 일치하는 위치에 놓여 진다. 이러한 규칙은 다른 썸네일 이미지들 및 마커들에 대해서도 마찬가지이다. 썸네일 이미지(30-2)와 마커(10-2)의 좌측단은 제2 시간(t2)를 기준으로 정렬되고, 썸네일 이미지(30-3)와 마커(10-3)의 좌측단은 제3 시간(t3)를 기준으로 정렬된다.
이와 같이 마커(10)의 좌측단과 썸네일 이미지(30)의 좌측단을 일치시키면 썸네일 이미지(30)에 대응되는 마커(10)를 일일이 확인하지 않고도 썸네일 이미지들(30)이 나타내는 이벤트의 발생 시점을 직관적으로 알 수 있다.
물론, 마커(10)의 좌측단은 이벤트의 시작시간을 나타내고, 우측단은 이벤트의 종료시간을 나타내기 때문에, 상기 썸네일 이미지(30)의 우측단도 마커(10)의 우측단과 정렬하면 이벤트의 종류시간도 직관적으로 파악할 수 있겠지만, 그렇게 되면 썸네일 이미지(30)의 크기가 마커(10) 만큼 작아져서 썸네일 이미지의 기능을 제공하기 어렵다. 이벤트란 시작시간과 종료시간을 모두 갖기는 하지만, 이벤트가 발생하기 시작한 시점이 상대적으로 중요하다고 볼 수 있다. 따라서, 본 발명에서는 이벤트의 시작시간에 맞추어 썸네일 이미지(30)의 좌측단을 위치시킴으로써 이벤트의 내용 및 시작시점(발생시점)에 관한 직관성을 높일 수 있게 된다.
또한, 본 발명에서, 복수의 썸네일 이미지(30)를 배치하면서 썸네일 영역(220)의 공간상의 제약으로 복수의 썸네일 이미지(30) 간의 중첩이 발생하는 경우에, 시간순서로 이후의 썸네일 이미지(30)가 이전의 썸네일 이미지(30)보다 전면 배치된다.
도 6을 참조하면, 보다 이후에 발생한 이벤트를 갖는 썸네일 이미지(30-3)는 그 이전에 발생한 이벤트를 갖는 썸네일 이미지(30-2)와 중첩되어 있는데, 이 때, 시간순서를 기준으로 최신의 썸네일 이미지(30-3)가 상위 레이어, 즉 스크린의 전면에 배치된다. 이러한 썸네일 이미지의 배치는 새로운 이벤트에 보다 더 주목하게 할 수 있다는 특성을 제공한다.
도 7은 본 발명의 일 실시예에 따른 타임라인 인터페이스(210)와 썸네일 영역(220)을 도시한 도면이다.
도 7을 참조하면, 복수의 마커(10) 중에서 표시범위가 다른 마커(10)와 중첩되지 않는 마커(10-4, 10-5, 10-6)는 상기 시작시간 및 상기 이벤트의 종료시간을 모두 나타내고, 상기 복수의 마커(10) 중에서 상기 표시범위가 다른 마커(10)와 중첩되는 마커(10-1, 10-2, 10-3)는 상기 시작시간만 나타낼 수 있다.
예를 들어, 마커(10-1)에 대응되는 썸네일 이미지(30-1), 마커(10-2)에 대응되는 썸네일 이미지(30-2) 및 마커(10-3)에 대응되는 썸네일 이미지(30-3)는 그 이벤트의 시작시간이 상당히 근접하여 위치한다.
따라서, 썸네일 이미지들(30) 뿐만 아니라 이에 대응되는 마커들(10)도 상당히 근접하여 위치할 수 밖에 없으며, 이로 인해 하나의 마커(10-1)의 종료시간이 도래하기도 전에 다른 마커(10-2)의 시작시간이 도래한다. 이러한 경우에는 혼란을 방지하기 위해 해당 마커(10-1, 10-2, 10-3)는 단순히 시작시간만을 나타내는 축소 마커(10-1, 10-2, 10-3)로 표시될 수 있다. 어느 정도의 폭을 갖는 일반적인 마커(10-4, 10-5, 10-6)에 비해, 상기 축소 마커(10-1, 10-2, 10-3)는 좁은 폭을 갖는 선 형태로 표시될 수 있다.
한편, 상기 썸네일 영역(220)의 좌측단과 우측단에는, 상기 배치된 복수의 썸네일 이미지(30)와 다른 시간대에 있는 썸네일 이미지(30)가 더 존재할 수 있다. 따라서, 썸네일 영역(220) 및/또는 타임라인 인터페이스(210)의 좌측단 및 우측단에는 각각 스크롤 인디케이터들(5a, 5b)이 표시될 수 있다. 상기 스크롤 인디케이터들(5a, 5b) 중에서 어느 하나를 사용자가 선택하면 그쪽 방향으로 스크롤되면서 다른 시간대에 있는 썸네일 이미지들 및 마커들이 표시될 것이다.
도 8은 도 7에서 사용자에 의해 필터링 된 마커(10)와 썸네일 이미지(30)를 도시한 도면이다.
전술한 도 7과 같이, 복수의 썸네일 이미지(30)가 상기 썸네일 영역(220)에 표시된 상태에서, 사용자 명령이 입력되면 상기 사용자 명령에 대응되는 썸네일 이미지(30)만 선택되어 상기 썸네일 영역(220)에 표시될 수 있다. 이 때, 상기 선택된 썸네일 이미지(30)는, 상기 복수의 썸네일 이미지(30)와 구별되는 방식으로 표시될 수 있다. 상기 구별되는 방식으로는 예를 들어, 굵은 경계선 표시, 다른 색상의 경계선 표시, 하이라이트 표시 등 다양한 방식이 포함될 수 있다.
예를 들어, 도 7의 6개의 썸네일 이미지(30-1 내지 30-6) 중에서 첫번째, 네번째, 다섯번째 썸네일 이미지(30-1, 30-4, 30-5)가 선택된 경우에, 도 8에 도시된 바와 같이 해당 썸네일 이미지(30-1, 30-4, 30-5) 및 이에 대응되는 마커(10-1, 10-4, 10-5)만이 GUI(200) 상에 표시됨을 알 수 있다.
이 때, 상기 사용자 명령은, 예를 들어, 마우스나 터치 스크린을 통해 사용자가 썸네일 이미지(30) 중 일부를 직접 선택하는 사용자 입력일 수도 있고, 사용자의 이벤트 검색 명령일 수도 있다.
전자의 경우에는, 상기 사용자에 의해 선택된 썸네일 이미지(30)만 상기 썸네일 영역(220)에 표시될 것이고, 후자의 경우에는, 상기 복수의 썸네일 이미지(30) 중에서 상기 이벤트 검색 명령에 대응되는 썸네일 이미지(30)만 상기 썸네일 영역(220)에 표시될 것이다. 어느 경우에서도, 상기 선택된 썸네일 이미지(30)의 좌측단은 상기 썸네일 이미지(30)와 대응되는 상기 마커(10)의 좌측단과 일치하도록 표시된다.
도 9는 썸네일 영역(220)에 표시된 썸네일 이미지(30)를 생성하는 방법을 보여주는 도면이다.
일반적으로, GUI(200) 상에 표시되는 썸네일 이미지(30)는 메모리 상에 로드되어 있고, 이러한 썸네일 이미지(30)의 조합에 의해 썸네일 영역(220)이 채워진다. 그런데, 본 발명에 따르면 복수의 썸네일 이미지(30)의 일부는 화면 상에 온전한 이미지가 보이지 않고 가려지고 남은 일부 이미지만 보일 수 있다. 그러나 이 경우에도 메모리 상에는 썸네일 이미지(30) 전체가 로드되어 있으므로 메모리 내지 시스템 리소스 낭비가 발생할 수 있다.
이러한 경우를 고려하여, 본 발명에서 썸네일 이미지 생성부(336)는 썸네일 영역(220)에 배치되는 썸네일 이미지(30)를 실제 보여지는 결과를 기준으로 생성할 수 있다.
구체적으로, 썸네일 이미지 생성부(336)는 상기 복수의 썸네일 이미지(30)로부터 사용자에게 보여지는 부분 이미지들(31: 31-1, 31-2, 31-3, 31-5)을 크롭핑(cropping)하고, 상기 부분 이미지들(31)을 합성하여 단일의 합성 이미지(35)를 생성한다. 최종적으로는 이러한 단일의 합성 이미지(35)가 썸네일 영역(220) 상에 표시된다.
도 9을 참조하면 예를 들어, 제1 내지 제3 썸네일 이미지(30-1, 30-2, 30-3)와 제5 썸네일 이미지(30-5)는 실제로 GUI(200) 상에 가려지고 남은 일부만 나타나므로, 썸네일 이미지 생성부(336)는 상기 썸네일 이미지들에 대해서는 부분 이미지들(31-1, 31-2, 31-3, 31-5)만을 생성하고, 이러한 부분 이미지들(31-1, 31-2, 31-3, 31-5)과 다른 온전한 썸네일 이미지(30-4, 30-6)을 순차적으로 합성하여 합성 이미지(35)를 생성하고, GUI 제어부(338)는 상기 합성 이미지(35)를 썸네일 영역(220)에 표시한다.
도 10은 썸네일 영역(220)에 썸네일 이미지(30)가 여백 없이 채워지는 예를 보여주는 도면이다.
한편, 전술한 바와 같이 썸네일 이미지(30)를 시간과 동기화하여 표시하면 직관적으로 이벤트 시작시간을 알 수 있는 장점이 있지만, 전체 썸네일 영역(220) 중에서 상당한 부분이 공백으로 남아 있을 수 있다는 단점도 있을 수 있다.
이러한 점을 고려하여, 도 10에 도시된 바와 같이 썸네일 영역(220)에 썸네일 이미지(30-4, 30-5, 30-6, 30-7)가 여백 없이 채워질 수도 있다. 이 때, 상기 썸네일 영역(220)에 배치되는 상기 복수의 썸네일 이미지(30)는, 모두 동일한 가로 크기를 가지며, 시간 순서에 따라 사이드-바이-사이드(side-by-side)로 배치된다.
다만, 이 경우에는 썸네일 이미지(30)가 시간적 순서는 유지되지만 이벤트 시작시간은 알 수가 없으므로, 이를 알기 위해 상단의 타임라인 인터페이스(210)의 마커(10-4, 10-5, 10-6)를 참조할 수 있다. 이 때, 마커(10-4, 10-5, 10-6)의 좌측단과 대응되는 썸네일 이미지(30-4, 30-5, 30-6)의 좌측단은 가이드 라인(예: 점선)으로 연결되어 표시될 수도 있다.
한편 도 10에서, 썸네일 이미지(10-1, 10-2, 10-3)는 표시가 생략되어 있다. 이와 같이, 제한된 썸네일 영역(220)에 다수의 썸네일 이미지(30)를 표시하기 위해서는, 이벤트 시작시간이 소정 시간보다 작은 시간범위 내에서 중첩되는 썸네일 이미지(30)는 썸네일 영역(220) 상의 표시가 생략될 수 있다.
도 11a는 영상 프레임(250) 내에서 이벤트와 관련된 객체(20)의 바운딩 박스(bounding box)를 추출하는 예를 보여주는 도면이고, 도 11b는 상기 추출된 객체(20)를 썸네일 영역(220)에 표시한 예를 보여주는 도면이다.
전술한 바와 같이, 이벤트가 발생한 영상 프레임 전체에 대한 썸네일 이미지(30)를 생성하여 썸네일 영역(220)에 표시하는 실시예를 변형하여, 상기 영상 프레임 대신에 상기 영상 프레임 내의 베스트 샷을 크롭핑하여 썸네일 영역(220)에 배치하는 것도 가능하다. 상기 베스트 샷이란 영상 프레임 전체 내에서 특정 이벤트가 발생한 객체의 영역을 의미한다. 이러한 객체의 영역(20)은 일반적으로 바운딩 박스(bounding box)라고 불리는 사각형 박스로 정의될 수 있다.
구체적으로, 썸네일 이미지 생성부(336)는 사용자 명령(예: 베스트 샷 표시 명령)을 수신하면, 상기 사용자 명령에 따라, 상기 복수의 썸네일 이미지(30)로부터 상기 복수의 썸네일 이미지(30)에 포함된 베스트 샷(best shot)(20: 20a, 20b)을 크롭핑한다(도 11a 참조). 그리고, GUI 제어부(338)는 상기 크롭핑된 베스트 샷을, 상기 복수의 썸네일 이미지(30)를 대신하여 상기 썸네일 영역(220)에 표시한다(도 11b 참조).
도 11b에서도, 상기 크롭핑된 베스트 샷(20a 내지 20f)은 상기 복수의 마커(10)와 동기적으로 배치될 수 있다. 다만, 상기 베스트 샷(20)의 시작시간이 근접하여 상기 베스트 샷(20) 간에 중첩이 발생할 수 있는 경우가 있다. 예를 들어, 베스트 샷(20d)와 베스트 샷(20e)는 시작시간이 근접하므로 사이드-바이-사이드로는 표시하기 어렵다. 따라서, 이 경우에는 이후에 발생한 베스트 샷(20e)은 이전에 발생한 베스트 샷(20d)보다 하측에 배치될 수 있다. 이러한 베스트 샷(20)은 썸네일 이미지(30)보다 작은 이미지 영역이므로 이와 같이 상하로 나누어 배치하더라도 사용자에 의한 식별이 가능하다.
도 12a는 썸네일 영역(220)에 표시된 썸네일 이미지(30) 중 하나를 사용자가 선택한 예를 보여주는 도면이고, 도 12b는 도 12a에서 선택된 썸네일 이미지(30)를 기준으로 주변의 썸네일 이미지(30)를 카루젤 형태로 표시하는 예를 보여주는 도면이다.
예를 들어, 사용자가 도 12a와 같이 표시된 썸네일 이미지(30-1, 30-2, 30-3, 30-4, 30-5) 중에서 어느 하나(30-4)를 선택하면, 선택된 썸네일 이미지(30-4)는 하이라이트로 표시될 수 있다.
그 후, 상기 선택된 썸네일 이미지(30-5)를 기준으로 나머지 썸네일 이미지(30-1, 30-2, 30-3, 30-4, 30-6, 30-7)가 상기 하나의 썸네일 이미지(30)의 좌우에 카루젤(carousel) 형태로 배치될 수 있다. 이 때, 좌측의 썸네일 이미지(30-1, 30-2, 30-3)는 선택된 썸네일 이미지(30-5)보다 시간적으로 앞선 이미지이고, 우측의 썸네일 이미지(30-6, 30-7)는 선택된 썸네일 이미지(30-5)보다 시간적으로 이후의 이미지이다.
이와 같은 카루젤 형태란, 중심으로 점차로 작아지는 형태로 표시되며, 스크롤 인디케이터들(5a, 5b)에 의해 좌우로 회전 가능한 방식을 의미한다. 만약, 사용자가 우측의 스크롤 인디케이터(5b)를 선택한다면 썸네일 이미지(36-6)가 중앙에 위치하면서, 썸네일 이미지(36-7)의 우측에 시간적으로 이후의 썸네일 이미지가 추가로 표시될 수 있을 것이다.
도 13은 썸네일 영역(220) 중에서 사용자에 의해 지정된 일부 영역을 확대하여 표시하는 예를 보여주는 도면이다.
프로세서(330)는, 상기 썸네일 영역(220) 중에서 일부 영역(예: 30-1 내지 30-6을 포함하는 영역)을 지정하는 사용자 명령을 수신할 수 있다. 이 때, 프로세서(330)는, 상기 사용자 명령에 따라, 상기 복수의 썸네일 이미지(30) 중에서 상기 지정된 일부 영역에 포함된 썸네일 이미지(30)가 상기 썸네일 영역(220)의 전체를 커버하도록, 상기 지정된 일부 영역에 포함된 썸네일 이미지(30)를 배치할 수 있다. 이와 동시에, 타임라인 인터페이스(210)에 배치된 마커(10)는 그 폭이 상기 확대된 비율만큼 커진 마커(15: 15-1, 15-2, 15-3, 15-4, 15-5, 15-6)로 변경될 수 있다.
구체적으로, 상기 지정된 일부의 영역에 포함된 썸네일 이미지(30-1 내지 30-6) 중에서 일부의 썸네일 이미지(30-4, 30-5, 30-6)는 온전한 이미지 형태로 배치하고, 상기 썸네일 이미지(30) 중에서 나머지 썸네일 이미지(30-1, 30-2, 30-3)는 잘려진 이미지 형태로 배치될 수 있다. 이와 같이 온전한 이미지 형태와 잘려진 이미지 형태의 선택은, 썸네일 영역(220) 대비 배치되는 썸네일 이미지(30)의 수에 따라 달라질 수 있다. 다만, 전체 썸네일 이미지(30)를 온전한 이미지 형태로 표시할 수 없는 경우에 일부는 잘려진 이미지 형태로 표시될 수 밖에 없다. 이와 같이 잘려진 이미지 형태로 표시되는 썸네일 이미지(30-1, 30-2, 30-3)는 상대적으로 해당 이벤트의 시작시간이 소정 범위 내로 근접한 썸네일 이미지인 것이 바람직하다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
Claims (15)
- 프로세서와, 상기 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리를 포함하며, 적어도 하나의 카메라로부터 비디오를 수신하는 영상 수신 장치에서, 상기 인스트럭션들에 의해 수행되는 영상 표시 방법으로서,
상기 비디오를 수신하는 단계;
상기 수신된 비디오로부터 이벤트가 발생한 복수의 영상 프레임을 식별하는 단계;
상기 영상 프레임으로부터 상기 복수의 영상 프레임을 대표하는 복수의 썸네일 이미지를 생성하는 단계;
복수의 마커에 의해 상기 이벤트의 발생 시간을 나타내는 타임라인 인터페이스를 스크린 상에 표시하는 단계; 및
상기 복수의 썸네일 이미지를 상기 타임라인 인터페이스와 인접한 썸네일 영역에 상기 복수의 마커와 동기적으로 배치하는 단계를 포함하되,
상기 마커의 좌측단은 상기 이벤트의 시작시간을 나타내고,
상기 배치되는 썸네일 이미지의 좌측단은 상기 썸네일 이미지와 대응되는 상기 마커의 좌측단과 일치하도록 배치되는, 영상 표시 방법. - 제1 항에 있어서,
상기 복수의 마커 중에서 표시범위가 다른 마커와 중첩되지 않는 마커는 상기 시작시간 및 상기 이벤트의 종료시간을 모두 나타내고,
상기 복수의 마커 중에서 상기 표시범위가 다른 마커와 중첩되는 마커는 상기 시작시간만 나타내는, 영상 표시 방법. - 제2항에 있어서,
상기 썸네일 영역의 좌측단과 우측단에는, 상기 배치된 복수의 썸네일 이미지와 다른 시간대에 있는 썸네일 이미지를 표시하기 위한 스크롤 인디케이터들이 표시되는, 영상 표시 방법. - 제1항에 있어서,
상기 복수의 썸네일 이미지의 좌측단이, 각각 대응되는 마커의 좌측단과 일치하도록 배치되면서 복수의 썸네일 이미지 간의 중첩이 발생하는 경우에, 시간순서로 이후의 썸네일 이미지가 이전의 썸네일 이미지보다 전면 배치되는, 영상 표시 방법. - 제1항에 있어서,
상기 복수의 썸네일 이미지가 상기 썸네일 영역에 표시된 상태에서, 사용자 명령이 입력되면 상기 사용자 명령에 대응되는 썸네일 이미지만 선택되어 상기 썸네일 영역에 표시되는, 영상 표시 방법. - 제5항에 있어서,
상기 선택된 썸네일 이미지는, 상기 복수의 썸네일 이미지와 구별되는 방식으로 표시되는, 영상 표시 방법. - 제5항에 있어서,
상기 사용자 명령은 사용자에 의한 상기 복수의 썸네일 이미지의 직접 선택이고, 상기 사용자에 의해 선택된 썸네일 이미지만 상기 썸네일 영역에 표시되며,
상기 선택된 썸네일 이미지의 좌측단은 상기 썸네일 이미지와 대응되는 상기 마커의 좌측단과 일치하도록 표시되는, 영상 표시 방법. - 제5항에 있어서,
상기 사용자 명령은 사용자에 의한 이벤트 검색 명령이고, 상기 복수의 썸네일 이미지 중에서 상기 이벤트 검색 명령에 대응되는 썸네일 이미지만 상기 썸네일 영역에 표시되며,
상기 선택된 썸네일 이미지의 좌측단은 상기 썸네일 이미지와 대응되는 상기 마커의 좌측단과 일치하도록 표시되는, 영상 표시 방법. - 제1항에 있어서,
상기 복수의 썸네일 이미지를 상기 썸네일 영역에 배치하는 단계는,
상기 복수의 썸네일 이미지로부터 사용자에게 보여지는 부분 이미지들을 크롭핑하는 단계; 및
상기 부분 이미지들을 합성하여 단일의 합성 이미지를 생성하고, 상기 합성 이미지를 상기 썸네일 영역에 배치하는 단계를 포함하는, 영상 표시 방법. - 제1항에 있어서,
상기 썸네일 영역에 배치되는 상기 복수의 썸네일 이미지는,
모두 동일한 가로 크기를 가지며, 시간 순서에 따라 사이드-바이-사이드로 배치되는, 영상 표시 방법. - 제1항에 있어서,
사용자 명령을 수신하는 단계;
상기 사용자 명령에 따라, 상기 복수의 썸네일 이미지로부터 상기 복수의 썸네일 이미지에 포함된 베스트 샷을 크롭핑하는 단계; 및
상기 크롭핑된 베스트 샷을, 상기 복수의 썸네일 이미지를 대신하여 상기 썸네일 영역에 표시하는 단계를 더 포함하는, 영상 표시 방법. - 제11항에 있어서,
상기 크롭핑된 베스트 샷은 상기 복수의 마커와 동기적으로 배치되는, 영상 표시 방법. - 제1항에 있어서,
상기 복수의 썸네일 이미지는 하나의 썸네일 이미지를 기준으로 나머지 썸네일 이미지가 상기 하나의 썸네일 이미지의 좌우에 카루젤 형태로 배치되는, 영상 표시 방법. - 제1항에 있어서,
상기 썸네일 영역 중에서 일부 영역을 지정하는 사용자 명령을 수신하는 단계; 및
상기 사용자 명령에 따라, 상기 복수의 썸네일 이미지 중에서 상기 지정된 일부 영역에 포함된 썸네일 이미지가 상기 썸네일 영역의 전체를 커버하도록, 상기 지정된 일부 영역에 포함된 썸네일 이미지를 배치하는 단계를 더 포함하는, 영상 표시 방법. - 제14항에 있어서,
상기 썸네일 이미지를 확대하는 단계는,
상기 지정된 일부의 영역에 포함된 썸네일 이미지 중에서 일부의 썸네일 이미지는 온전한 이미지 형태로 배치하고, 상기 썸네일 이미지 중에서 나머지 썸네일 이미지는 잘려진 이미지 형태로 배치하는, 영상 표시 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210194371 | 2021-12-31 | ||
KR20210194371 | 2021-12-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230103972A true KR20230103972A (ko) | 2023-07-07 |
Family
ID=86999684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220178554A KR20230103972A (ko) | 2021-12-31 | 2022-12-19 | 영상 수신/검색 장치 및 영상 표시 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240305750A1 (ko) |
KR (1) | KR20230103972A (ko) |
WO (1) | WO2023128437A1 (ko) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4168940B2 (ja) | 2004-01-26 | 2008-10-22 | 三菱電機株式会社 | 映像表示システム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI552591B (zh) * | 2015-08-24 | 2016-10-01 | 晶睿通訊股份有限公司 | 標記視頻中物件的方法、裝置及電腦可讀取記錄媒體 |
KR101960667B1 (ko) * | 2018-08-31 | 2019-07-15 | 주식회사 텍트원 | 저장 영상에서 용의자 추적 장치 및 방법 |
US11863815B2 (en) * | 2019-09-17 | 2024-01-02 | Lightmetrics Technologies Pvt. Ltd. | Methods and systems for managing storage of videos in a storage device |
US10998007B2 (en) * | 2019-09-30 | 2021-05-04 | Adobe Inc. | Providing context aware video searching |
JP2021129216A (ja) * | 2020-02-13 | 2021-09-02 | パイオニア株式会社 | 画像処理装置及び画像処理方法 |
-
2022
- 2022-12-19 WO PCT/KR2022/020716 patent/WO2023128437A1/ko unknown
- 2022-12-19 KR KR1020220178554A patent/KR20230103972A/ko unknown
-
2024
- 2024-05-16 US US18/666,467 patent/US20240305750A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4168940B2 (ja) | 2004-01-26 | 2008-10-22 | 三菱電機株式会社 | 映像表示システム |
Also Published As
Publication number | Publication date |
---|---|
WO2023128437A1 (ko) | 2023-07-06 |
US20240305750A1 (en) | 2024-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9807338B2 (en) | Image processing apparatus and method for providing image matching a search condition | |
US8724970B2 (en) | Method and apparatus to search video data for an object of interest | |
JP4847165B2 (ja) | 映像記録再生方法及び映像記録再生装置 | |
US8174571B2 (en) | Apparatus for processing images, apparatus for processing reproduced images, method of processing images, and method of processing reproduced images | |
US20230093631A1 (en) | Video search device and network surveillance camera system including same | |
KR100883066B1 (ko) | 텍스트를 이용한 피사체 이동 경로 표시장치 및 방법 | |
KR100883632B1 (ko) | 고해상도 카메라를 이용한 지능형 영상 감시 시스템 및 그 방법 | |
US20080304706A1 (en) | Information processing apparatus and information processing method | |
JP2016220173A (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
EP2954499A1 (en) | Information processing apparatus, information processing method, program, and information processing system | |
JP4959592B2 (ja) | ネットワーク映像モニタリングシステム及びモニタ装置 | |
WO2014065033A1 (ja) | 類似画像検索装置 | |
WO2021172943A1 (ko) | 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템 | |
US20220286642A1 (en) | Event-oriented multi-channel video backup apparatus and method, and network surveillance camera system including the same | |
JP2006245756A (ja) | 映像情報記録再生方法および映像情報処理方法および映像情報記録再生装置および映像情報処理装置 | |
KR20230103972A (ko) | 영상 수신/검색 장치 및 영상 표시 방법 | |
KR20220003779A (ko) | 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템 | |
JP4689341B2 (ja) | 画像表示装置及び画像表示システム | |
JP4185376B2 (ja) | 画像処理システム | |
KR102092074B1 (ko) | 효율적 관제를 위한 스마트관제서비스장치 및 그 장치의 구동방법 | |
KR20210065006A (ko) | 사건 중심의 다채널 영상 백업 장치 및 그 방법과, 이를 포함한 네트워크 감시 카메라 시스템 | |
JP4175622B2 (ja) | 画像表示システム | |
JP4983628B2 (ja) | 監視装置、監視方法、及び監視プログラム | |
JP2005217886A (ja) | 画像表示装置および画像表示方法およびその動作処理プログラムおよびそのプログラムを記憶した記憶媒体 | |
US20220239826A1 (en) | Network surveillance camera system and method for operating same |