KR102223010B1 - Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function - Google Patents

Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function Download PDF

Info

Publication number
KR102223010B1
KR102223010B1 KR1020200087425A KR20200087425A KR102223010B1 KR 102223010 B1 KR102223010 B1 KR 102223010B1 KR 1020200087425 A KR1020200087425 A KR 1020200087425A KR 20200087425 A KR20200087425 A KR 20200087425A KR 102223010 B1 KR102223010 B1 KR 102223010B1
Authority
KR
South Korea
Prior art keywords
image data
screen
search
channel
unit
Prior art date
Application number
KR1020200087425A
Other languages
Korean (ko)
Inventor
배경해
Original Assignee
(주)비상정보통신
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)비상정보통신 filed Critical (주)비상정보통신
Priority to KR1020200087425A priority Critical patent/KR102223010B1/en
Application granted granted Critical
Publication of KR102223010B1 publication Critical patent/KR102223010B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7335Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a multi-screen search service providing device having an object recognition function and a method thereof, which simultaneously displays image data extracted by a search request including object information on at least one split screen by listing the image data in the order of photographing time. The device comprises: a search request receiving unit for receiving a screen search request including object information from a search requester; an object recognition unit for recognizing the object information included in the screen search request received by the search request receiving unit; an image data extraction unit for extracting image data including the object information recognized by the object recognition unit from image data photographed by a plurality of cameras; and a screen display unit for listing the image data extracted by the image data extraction unit in the order of photographing time and displaying the image data on at least one split screen. An image portion containing a specific object is extracted from the image data recorded by the plurality of CCTV cameras so as to quickly identify the movement of the specific object during search, thereby saving search time.

Description

객체 인식 기반의 채널 재조정 편집이 가능한 다중화면 검색기술 지원 시스템 및 방법{Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function}Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function}

본 발명은 객체 인식 기반의 채널 재조정 편집이 가능한 다중화면 검색기술 지원 시스템 및 방법에 관한 것으로 보다 상세하게는, 객체 정보를 포함하는 영상 데이터를 저장하고 있는 CCTV 시스템이 구축되어 있는 상황에서 객체 정보를 특정하여 검색 요청에 의해 추출된 영상 데이터를 촬영 시각 순서 또는 특정 파라메타의 우선순위를 정하여 나열하도록 하여 적어도 하나 이상의 분할화면으로 동시에 표시할 수 있으며, 이때 나열된 영상 데이터들을 운영자가 임의적으로 다중 검색화면에서 새로이 조합하거나 불필요한 영상채널은 다중검색화면에서 삭제할 수 있는 객체 인식 기반의 채널 재조정 편집이 가능한 다중화면 검색기술 지원 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for supporting multi-screen search technology capable of re-adjusting and editing channels based on object recognition, and more specifically, object information in a situation in which a CCTV system storing image data including object information is constructed. The image data extracted by a specific search request can be displayed simultaneously in at least one split screen by setting the shooting time sequence or the priority of a specific parameter to be listed. At this time, the listed image data can be displayed on the multiple search screen at random by the operator. The present invention relates to a system and method for supporting a multi-screen search technology capable of re-adjusting and editing channels based on object recognition that can be deleted from a multi-search screen for newly combined or unnecessary video channels.

일반적으로 CCTV 시스템의 중요한 기능에는 두 가지의 중요한 기능이 있다. 범죄의 예방과 범죄의 발생 시 범죄의 증거자료를 확보하는 것이다. In general, there are two important functions in the important functions of a CCTV system. It is to prevent crime and secure evidence of crime in the event of a crime.

최근 들어, 범죄 예방이나 교통정보 수집, 및 모니터링 목적으로 CCTV(Closed Circuit Television)가 건물 내외부를 비롯하여 골목이나 도로 등에 설치되고 있다. 어떤 사고가 발생한 후, 경찰이나 관리자가 사고 경위를 확인하기 위해서는 CCTV를 통해 촬영된 감시영상을 모니터에 표시하면서 확인해야 한다. 이때, 발생 시점을 정확히 모르는 경우 촬영된 감시 영상을 처음부터 끝까지 모니터에 표시하면서 일일이 확인해야 해서 시간이 많이 소요된다.Recently, CCTV (Closed Circuit Television) has been installed inside and outside buildings as well as alleys and roads for crime prevention, traffic information collection, and monitoring purposes. After an accident occurs, the police or manager must check the surveillance image taken through CCTV while displaying it on the monitor in order to check the accident. At this time, if you do not know the exact time of occurrence, it takes a lot of time because you have to check the captured surveillance images on a monitor from start to finish.

최근 CCTV 분야의 기술발전은 12M 픽셀 카메라가 영상을 촬영하고 이를 녹화장치에 저장/검색/네트워크 전송이 가능한 수준까지 발전하였다. 또한 5M 픽셀 카메라에 객체인식(사람/자동차/오토바이/자전거 등)을 통해 객체의 특성(얼굴부분 취출, 성별구분, 나이추정, 옷색상, 수염유무, 안경착용 유무, 마스크 착용 유무, 차량의 번호판 취출, 차량의 제조사, 차량 색상, 차량의 형태 구분, 오토바이를 탄 사람, 자전거를 탄 사람 등)을 영상에서 분석하여 메타 데이터를 영상자료와 함께 녹화장치에 전송하고 녹화장치에 영상과 함께 메타데이터를 저장하여 메타데이터를 기반으로 이벤트를 검색하는 기술이 이용되고 있다. The recent technological advancement in the CCTV field has advanced to the level where a 12M pixel camera can capture an image and store/search/network transmission of it to a recording device. In addition, through object recognition (person/car/motorcycle/bicycle, etc.) on a 5M pixel camera, the characteristics of the object (face part extraction, gender classification, age estimation, clothes color, beard presence, wearing glasses, wearing a mask, vehicle license plate, etc.) Extraction, vehicle manufacturer, vehicle color, vehicle type classification, people riding motorcycles, people riding bicycles, etc.) are analyzed in the video, and metadata is transmitted to the recording device along with the video data, and the metadata along with the video to the recording device. A technology for storing events and searching for events based on metadata is being used.

종래의 기술은 녹화기에서 특정한 한 채널의 카메라 저장 영상에서 메타데이터를 이용 빠르게 검색하는 데까지는 발전하였다. 이때 썸네일 방식으로 메타데이터로 특정 지어진 객체를 검색할 수 있는 검색 기능을 제공할 수 있다. The conventional technology has evolved from a recorder to a fast search using metadata from a camera stored image of a specific channel. In this case, a search function capable of searching for an object specified as metadata in a thumbnail method may be provided.

그러나 썸네일 방식으로 특정 객체 영상을 무수히 나열만 할 수 있으며 썸네일 방식으로 나열된 영상은 단독 화면으로 영상을 재생하는 수준이고 동시간대의 다른 영상을 같이 표출을 해주는 기능이 없으며, 운영자가 다중검색화면의 채널들을 조합하거나 삭제 할 수 있는 정렬기능이 없어 특정 객체의 동선을 일목요연하게 표현하지 못하는 기술적 한계가 있다. However, you can only list a myriad of images of specific objects in the thumbnail method, and the images listed in the thumbnail method are at the level of playing the image on a single screen, and there is no function to display other images at the same time. There is a technical limitation that cannot clearly express the movement of a specific object because there is no sorting function that can combine or delete them.

기존 녹화기 검색기능의 기반은 동 시간대에 촬영된 영상을 동시에 보여 주는 한계가 있기 때문이다. 예를 들어 16 분할의 검색 영상을 동시에 검색을 하고 있을 때, A라는 차량이 아파트 정문을 통과하면, 1번 카메라 영상에 A 차량이 12시 00분에 촬영된다. 그리고 5번 카메라에 A 차량이 12시 5분에 촬영되고, 10번 카메라에 A 차량이 12시 10분에 촬영된 경우. 기존 방식은 썸네일 방식으로 세 개의 동영상을 검색할 수 있도록 각각 나열하게 된다. The basis of the existing recorder search function is that there is a limit to simultaneously displaying images recorded at the same time. For example, while searching for 16-segmented search images at the same time, if vehicle A passes through the front door of the apartment, vehicle A is photographed at 12:00 on the first camera image. In addition, when vehicle A is photographed at 12:05 on camera 5, and vehicle A is photographed on camera 10 at 12:10. The existing method is a thumbnail method, and each of the three videos is listed so that they can be searched.

따라서 검색하는 사람은 각각의 동영상을 따로 확인해야 하는 번거로움이 있다. 16분할 상태로 검색 시엔 12시 00분부터 12시 10분까지 검색하는 동안 15개의 채널은 불필요한 영상들로 채워져 있고 1번 5번 10번 카메라 영상을 분주하게 시선을 옮겨가면서 보아야 하는 불편함이 있다. Therefore, the searcher has the hassle of having to check each video separately. When searching in the 16-segment mode, 15 channels are filled with unnecessary images while searching from 12: 00 to 12: 10, and there is an inconvenience of having to look at camera images 1, 5, and 10 while moving their eyes busy. .

이를 개선하기 위해 본 발명을 통해 예를 들어 16분할 상태에서 1번 채널에 12시 00분에 촬영된 영상을 배치하고 2번 채널에 12시 05분에 촬영된 5번 카메라 영상을 배치하고 3번 채널에 12시 10분에 촬영된 10번 카메라 영상을 배치하도록 하며 나머지 불필요한 2번,3번,4번,6번,7번,8번,9번,11번,12번,13번,14번,15번,16번 카메라 영상은 삭제하도록 하고 16분할을 4분할로 다중검색화면을 재조정하여, 운영자가 다중검색화면을 추가 또는 삭제 가능하여 재조정 재배치할 수 있도록 하는 것이다. 이를 통해 검색 시 검색 시간을 최소화하고 검색 영상을 백업 받는 시간과 용량을 최소화할 수 있다. 또한 최근의 녹화장치의 다중 채널화의 발전이 32/36/64/72/128채널등으로 확대되고 있는 상황에서는 더더욱 본 발명의 기술이 필요하다.In order to improve this, through the present invention, for example, in a state of 16 division, an image taken at 12:00 is placed on channel 1, and a video from camera 5 taken at 12:05 is placed on channel 2, and the third On the channel, the 10th camera video taken at 12:10 is placed, and the remaining unnecessary 2, 3, 4, 6, 7, 8, 9, 11, 12, 13, 14 are unnecessary. Camera images No., No. 15, and No. 16 are deleted, and the multi-search screen is readjusted into four divisions by 16 divisions, so that the operator can add or delete the multi-search screen so that it can be re-adjusted and rearranged. Through this, it is possible to minimize the search time during search and to minimize the time and capacity for backing up search images. In addition, in a situation in which the recent development of multi-channel recording apparatuses is expanding to 32/36/64/72/128 channels, the technology of the present invention is further required.

한편, 대한민국 공개특허 제10-2008-0082836호에는 비디오 시놉시스 생성 방법 및 시스템이 개시된다. 시놉시스 방법은 다수의 원본 이미지들로부터 선택된 부분들을 조합하여 단축된 비디오를 만드는 방법이다. 이러한 시놉시스 방법을 통해 시간을 압축하여 짧은 시간 내에 비디오 클립의 요약 시청이 가능하다.Meanwhile, Korean Patent Application Publication No. 10-2008-0082836 discloses a method and system for generating a video synopsis. The synopsis method is a method of creating a shortened video by combining selected parts from a plurality of original images. By compressing time through this synopsis method, it is possible to view a summary of a video clip within a short time.

상기 기술의 경우, 객체의 비공간적 중복 출현을 나타내는 포션(portion)이 최소 세 개의 상이한 입력 프레임으로부터 최소 두 개의 연속적인 프레임으로 카피되어 표시된다. 따라서, 출현하는 객체의 수에 따라 한꺼번에 많은 객체가 표시될 때도 있고 적은 객체가 표시될 때도 있어 한꺼번에 많은 객체가 표시되는 경우 모니터링 작업이 용이하지 않으며, 표시되는 객체의 수가 적은 경우 모니터링 시간이 불필요하게 소요된다.In the case of the above technique, a portion representing the non-spatial overlapping appearance of an object is copied and displayed from at least three different input frames to at least two consecutive frames. Therefore, depending on the number of objects that appear, there are times when many objects are displayed at once, and there are times when fewer objects are displayed, so when many objects are displayed at once, monitoring is not easy, and when the number of displayed objects is small, monitoring time is unnecessary. It takes.

KRKR 10-2008-008296310-2008-0082963 AA KRKR 10-2009-011777110-2009-0117771 AA KRKR 10-2010-002663110-2010-0026631 AA

본 발명은 이 같은 기술적 배경에서 도출된 것으로, 다수의 CCTV 카메라로 녹화된 영상 데이터에서 특정 객체가 포함된 영상 부분을 추출하여 검색시에 검색 시간을 절감할 수 있는 객체 인식 기반의 채널 재조정 편집이 가능한 다중화면 검색기술 지원 시스템 및 방법을 제공함에 그 목적이 있다. The present invention is derived from such a technical background, and object recognition-based channel readjustment editing is possible to save search time when searching by extracting an image portion containing a specific object from image data recorded by a plurality of CCTV cameras. Its purpose is to provide a system and method for supporting multi-screen search technology.

구체적으로 검색 시 불필요한 영상채널은 검색화면에서 삭제하고, 관심 영상채널을 선택할 수 있으며 관심 영상채널을 기존 녹화채널 번호와 무관하게 검색채널에서 임의의 위치로 변경할 수 있게함으로써, 검색인이 집중적으로 영상검색을 할 수 있도록 검색기술을 향상시키고자 한다.Specifically, unnecessary video channels can be deleted from the search screen when searching, and video channels of interest can be selected, and video channels of interest can be changed from the search channel to any location regardless of the existing recording channel number. We want to improve our search skills so that you can search.

또한, 검색하기 원하는 특정 객체가 찍힌 영상 데이터를 시간의 흐름에 따라 분할하여 한 화면에서 확인 가능하기 때문에 영상 재생시간을 효율적으로 조정할 수 있어 검색이 필요한 객체의 시간 흐름에 따른 변동상황을 한눈에 파악할 수 있고, 특정 객체의 이동경로와 같은 시간 흐름에 따른 변동상황을 파악하기 위해 필요한 검색의 번거로움 및 인력을 줄일 수 있는 객체 인식 기반의 채널 재조정 편집이 가능한 다중화면 검색기술 지원 시스템 및 방법을 제공하고자 한다. In addition, since the image data on which the specific object to be searched is photographed can be divided according to the passage of time and checked on one screen, the video playback time can be efficiently adjusted, so that the fluctuations of the object that needs to be searched over time can be grasped at a glance. Provides a multi-screen search technology support system and method capable of re-adjusting and editing channels based on object recognition that can reduce the hassle and manpower of searching necessary to grasp the fluctuations over time, such as the movement path of a specific object. I want to.

상기의 과제를 달성하기 위한 본 발명은 다음과 같은 구성을 포함한다. The present invention for achieving the above object includes the following configurations.

즉 본 발명의 일 실시예에 따른 다중화면 검색기술 지원 시스템은 적어도 하나의 카메라로부터 촬영된 영상 데이터를 수신하여, 수신된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성하는 객체 인식부, 상기 수신된 영상 데이터와 상기 객체 인식부에서 생성된 메타데이터를 매칭시켜 저장하는 저장부, 객체 정보를 포함하는 화면 검색 요청을 수신하고, 수신되는 화면 검색 요청에 포함된 객체 정보를 파악하여 상기 저장부에 저장된 영상 데이터들 중 상기 파악된 객체 정보가 포함된 영상 데이터를 추출하는 영상 데이터 추출부 및 상기 영상 데이터 추출부에서 추출된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할 화면으로 표시하는 화면 표시부를 포함한다.That is, the multi-screen search technology support system according to an embodiment of the present invention receives image data captured from at least one camera, recognizes object information included in the received image data, and generates metadata, A storage unit that matches and stores the received image data and metadata generated by the object recognition unit, receives a screen search request including object information, and identifies and stores object information included in the received screen search request An image data extraction unit that extracts image data including the identified object information among image data stored in the unit, and the image data extracted from the image data extraction unit are arranged in the order of photographing time and displayed on at least one divided screen. Includes a screen display.

또한, 본 발명의 다른 실시예에 따른 다중화면 검색기술 지원 시스템은, 촬영된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성하는 객체 인식부를 포함하는 적어도 하나의 객체 인식 카메라로부터 촬영된 영상 데이터와 상기 객체 인식부에서 생성된 메타데이터를 수신하는 영상 데이터 수신부, 상기 영상 데이터 수신부로 수신된 영상 데이터와 메타데이터를 함께 매칭시켜 저장하는 저장부, 객체 정보를 포함하는 화면 검색 요청을 수신하고, 수신되는 화면 검색 요청에 포함된 객체 정보를 파악하여 상기 저장부에 저장된 영상 데이터들 중 상기 파악된 객체 정보가 포함된 영상 데이터를 추출하는 영상 데이터 추출부 및 상기 영상 데이터 추출부에서 추출된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할 화면으로 표시하는 화면 표시부를 포함한다.In addition, the system for supporting multi-screen search technology according to another embodiment of the present invention includes an object recognition unit configured to generate metadata by identifying object information included in the captured image data. An image data receiving unit for receiving data and metadata generated by the object recognition unit, a storage unit for matching and storing the image data and metadata received by the image data receiving unit together, and receiving a screen search request including object information, and , An image data extracting unit configured to extract image data including the identified object information among image data stored in the storage unit by grasping object information included in a received screen search request, and an image extracted from the image data extracting unit. And a screen display unit that arranges data in the order of photographing time and displays at least one divided screen.

한편, 객체 인식부, 저장부, 영상 데이터 추출부, 및 화면 표시부를 포함하는 다중화면 검색기술 지원 시스템에서 수행되는 다중화면 검색기술 지원 방법은, 객체 인식부가 적어도 하나 이상의 카메라로 촬영된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성하는 단계, 영상 데이터 추출부가 객체 정보를 포함하는 화면 검색 요청이 수신되면, 수신되는 화면 검색 요청에 포함된 객체 정보를 파악하여 상기 적어도 하나 이상의 카메라로 촬영된 영상 데이터와 상기 객체 인식부에서 생성된 메타데이터를 함께 매칭시켜 저장하는 저장부에 저장된 영상 데이터들 중 상기 파악된 객체 정보가 포함된 영상 데이터를 추출하는 단계 및 화면 표시부가 상기 영상 데이터 추출부에서 추출된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할화면으로 표시하는 단계를 포함한다.On the other hand, the multi-screen search technology support method performed in a multi-screen search technology support system including an object recognition unit, a storage unit, an image data extraction unit, and a screen display unit, the object recognition unit Generating metadata by recognizing included object information, when an image data extraction unit receives a screen search request including object information, captures object information included in the received screen search request with the at least one camera Extracting image data including the identified object information from among image data stored in a storage unit that matches and stores the image data generated by the object recognition unit and metadata generated by the object recognition unit, and the image data extraction unit by a screen display unit And displaying the image data extracted from the image data in the order of photographing time in at least one divided screen.

본 발명에 의하면 다수의 CCTV 카메라로 녹화된 영상 데이터에서 특정 객체가 포함된 영상 부분을 추출하여 검색시에 빠르게 특정 객체의 움직임을 파악할 수 있어 검색 시간을 절감할 수 있는 객체 인식 기반의 채널 재조정 편집이 가능한 다중화면 검색기술 지원 시스템 및 방법을 제공할 수 있다는 효과가 도출된다. According to the present invention, an object recognition-based channel readjustment editing that can reduce search time by extracting an image portion containing a specific object from image data recorded by a plurality of CCTV cameras and quickly grasping the movement of a specific object during search The effect of providing a multi-screen search technology support system and method is derived.

또한, 검색하기 원하는 특정 객체가 찍힌 여러 개의 영상 데이터를 시간의 흐름에 따라 분할하여 한 화면에서 확인 가능하기 때문에 영상 재생시간을 효율적으로 조정할 수 있고, 검색이 필요한 객체의 시간 흐름에 따른 변동상황을 한눈에 파악할 수 있어 특정 객체의 이동경로와 같은 시간 흐름에 따른 변동상황을 파악하기 위해 필요한 검색의 번거로움 및 인력을 줄일 수 있는 객체 인식 기반의 채널 재조정 편집이 가능한 다중화면 검색기술 지원 시스템 및 방법을 제공할 수 있다. In addition, since multiple image data on which a specific object to be searched is photographed can be divided according to the passage of time and viewed on a single screen, the video playback time can be efficiently adjusted and the fluctuations of the object that need to be searched over time can be controlled. A multi-screen search technology support system and method that enables re-adjustment and editing of channels based on object recognition that can be identified at a glance, reducing the hassle and manpower of searching necessary to understand changes over time, such as the movement path of a specific object. Can provide.

도 1 은 본 발명의 일 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색 서비스 제공장치의 구성을 도시한 블록도,
도 2 는 본 발명의 다른 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색 서비스 제공장치의 구성을 도시한 블록도,
도 3 은 본 발명의 일 실시예에 따른 다중화면 검색 서비스 제공장치의 화면 표시부에 검색 결과가 표시된 화면의 예시도,
도 4 는 본 발명의 일 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색기술 지원 방법을 도시한 흐름도이다.
1 is a block diagram showing the configuration of a multi-screen search service providing apparatus having an object recognition function according to an embodiment of the present invention;
2 is a block diagram showing the configuration of a multi-screen search service providing apparatus having an object recognition function according to another embodiment of the present invention;
3 is an exemplary view of a screen in which a search result is displayed on a screen display unit of a multi-screen search service providing apparatus according to an embodiment of the present invention;
4 is a flowchart illustrating a method of supporting a multi-screen search technology having an object recognition function according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present invention, and is excessively comprehensive. It should not be construed as a human meaning or an excessively reduced meaning.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 은 본 발명의 일 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색 서비스 제공시스템의 구성을 도시한 블록도이다. 1 is a block diagram showing the configuration of a system for providing a multi-screen search service having an object recognition function according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색기술 지원 시스템은 범죄 발생 후 증거자료를 효과적이고도 빠르게 확보하기 위한 기술에 관한 것이다. The multi-screen search technology support system having an object recognition function according to an embodiment of the present invention relates to a technology for effectively and quickly securing evidence after a crime occurs.

다중화면 검색기술 지원 시스템(10)은 객체인식카메라 또는 객체 인식부가 포함되어 있는 일체형 녹화장치(또는 분산서버 등)를 포함한 시스템에서 효율적인 검색과 백업을 위하여 다중화면으로 검색채널을 표현하고 불필요한 검색채널은 삭제하고 관심있는 검색채널을 추가 할 수 있고 다중화면 중 원하는 위치로 배치 및 조정할 수 있는 검색의 편리함을 제공할 수 이TEk.The multi-screen search technology support system 10 expresses search channels in multiple screens for efficient search and backup in a system including an object recognition camera or an integrated recording device (or distributed server, etc.) including an object recognition unit, and unnecessary search channels. This TEk can provide the convenience of searching that you can delete and add search channels you are interested in, and you can place and adjust the desired location among multiple screens.

본 발명의 일 실시예에 따른 다중화면 검색기술 지원 시스템(10)은 다중 화면(2화면 이상) 검색창에서 다수의 카메라(20)로 촬영된 영상들 중 특정 지어진 객체가 촬영된 영상만을 시간대별로 1번부터 순차적으로 채널을 정렬하여 보여줄 수 있다. In the multi-screen search technology support system 10 according to an embodiment of the present invention, only the image in which a specific object is photographed among images photographed by a plurality of cameras 20 in a multi-screen (two or more screens) search window. Channels can be sorted and displayed sequentially from No. 1.

예를 들어 12시 00분에 촬영된 1번 카메라 영상을 1번 채널에 표현해 주고, 12시 05분에 촬영된 5번 카메라 영상을 2번 채널에 표현해 주고, 12시 10분에 촬영된 10번 카메라 영상을 3번 카메라에 표현해 주면 검색하는 사람은 순차적으로 채널을 따라가며 어느 위치에 있는 카메라가 A 차량을 언제 촬영하였는지 손쉽게 확인할 수 있고, A 차량이 어느 경로로 움직였는지 동선을 쉽게 확인할 수 있는 것이다. For example, the image of camera 1, taken at 12:00, is expressed on channel 1, the image of camera 5, taken at 12:05, is expressed on channel 2, and the 10th, recorded at 12:10 When the camera image is expressed on camera 3, the searcher can follow the channels sequentially and easily check when and when the camera at which location took the picture of vehicle A, and can easily check the path of which vehicle A moved. will be.

예를 들어 16분할 상태에서 1번 채널에 12시 00분에 촬영된 영상을 배치하고 2번 채널에 12시 05분에 촬영된 5번 카메라 영상을 배치하고 3번 채널에 12시 10분에 촬영된 10번 카메라 영상을 배치하도록 하며 나머지 불필요한 2번,3번,4번,6번,7번,8번,9번,11번,12번,13번,14번,15번,16번 카메라 영상은 삭제하도록 하고 16분할을 4분할로 다중검색화면을 재조정하여, 운영자가 다중검색화면을 추가 또는 삭제 가능하여 재조정 재배치할 수 있도록 하는 것이다. 이를 통해 검색 시 검색 시간을 최소화 하고 검색영상을 백업받는 시간과 용량을 최소화 할 수 있다. For example, in the state of 16 division, a video shot at 12:00 is placed on channel 1, and a video from camera 5 shot at 12:05 is placed on channel 2, and recorded at 12:10 on channel 3 Arrange the video from the 10th camera, and the remaining unnecessary 2, 3, 4, 6, 7, 8, 9, 11, 12, 13, 14, 15, and 16 cameras The video is deleted and the multiple search screens are readjusted by 16 divisions into 4 divisions, so that the operator can add or delete multiple search screens so that they can be re-adjusted and rearranged. Through this, it is possible to minimize the search time during search and to minimize the time and capacity to back up search images.

따라서 본 발명의 일 실시예에 따른 다중화면 검색기술 지원 시스템(10)은, 다중 화면을 동시에 검색 시 매우 유용하고 특히 검색하기 원하는 특정 객체가 포함되지 않은 불필요한 동영상들은 다중화면 검색창에 표현되지 않기 때문에 검색하는 인원의 피로감을 최소화할 수 있고 빠르게 목적한 자료를 수집할 수 있는 자료 검색의 효율성을 제공한다. Therefore, the multi-screen search technology support system 10 according to an embodiment of the present invention is very useful when searching for multiple screens at the same time, and in particular, unnecessary videos that do not contain a specific object to be searched are not displayed in the multi-screen search window. Therefore, it provides the efficiency of data search that can minimize the fatigue of the searching personnel and quickly collect the desired data.

즉, 검색하기 원하는 객체가 포함된 영상들을 다중영상검색 창에 순차적으로 정렬하여 표시하고, 필요한 영상들만 포함하여 백업하는 것이 가능하여 백업 시간을 단축시킬 수 있을 뿐 아니라 불필요한 영상 데이터의 백업으로 백업 용량이 낭비되는 것을 막을 수 있다. In other words, it is possible to sequentially display images containing the object to be searched in the multi-image search window, and to back up only the necessary images, thereby shortening the backup time as well as the backup capacity by backing up unnecessary image data. This can be prevented from being wasted.

도 1 에서와 같이 일 실시예에 따른 다중화면 검색기술 지원 시스템(10)은 통신부(110), 영상 데이터 수신부(120), 객체 인식부(130), 검색 요청 수신부(140), 영상 데이터 추출부(150), 화면 표시부(160), 백업부(170) 및 저장부(180)를 포함한다. As shown in FIG. 1, the multi-screen search technology support system 10 according to an embodiment includes a communication unit 110, an image data receiving unit 120, an object recognition unit 130, a search request receiving unit 140, and an image data extracting unit. 150, a screen display unit 160, a backup unit 170, and a storage unit 180.

일 실시예에 따른 다중화면 검색기술 지원 시스템(10)은 통신부(110), 영상 데이터 수신부(120), 객체 인식부(130), 검색 요청 수신부(140), 영상 데이터 추출부(150), 화면 표시부(160), 백업부(170) 및 저장부(180)와 같은 기술적 구성들을 모두 포함하는 하나의 물리적 장치로 구현되거나, 이들 중 일부를 포함하는 녹화서버, 네트워크서버, 검색서버, 백업서버, 디스플레이 서버 등 기능별 독립된 서버와 같은 적어도 하나 이상의 물리적 장치들로 구현되는 것 모두 가능하다. 또한 객체 인식부(130)가 통신부(110) 또는 객체인식 카메라(20)와 사용자 단말(30)에 통합되는 형태로 구현되는 것도 가능하다. The multi-screen search technology support system 10 according to an embodiment includes a communication unit 110, an image data receiving unit 120, an object recognition unit 130, a search request receiving unit 140, an image data extracting unit 150, and a screen. A recording server, a network server, a search server, a backup server, which are implemented as a single physical device including all of the technical components such as the display unit 160, the backup unit 170, and the storage unit 180, or include some of them. It is possible to implement at least one or more physical devices such as an independent server for each function such as a display server. In addition, the object recognition unit 130 may be implemented in a form in which the communication unit 110 or the object recognition camera 20 and the user terminal 30 are integrated.

통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기 및 서버와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 카메라(20) 및 사용자 단말(30)을 포함할 수 있다. The communication unit 110 communicates with an internal element or at least one external terminal and a server through a wired/wireless communication network. In this case, the external arbitrary terminal may include a camera 20 and a user terminal 30.

여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. Here, as the wireless Internet technology, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wireless Broadband: Wibro, Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet Access) ), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS), etc. In addition, the communication unit 110 transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed above.

또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신 (Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신 (serial communication), 광/동축 케이블 등이 포함될 수 있다.In addition, short-range communication technologies include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). , Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and the like may be included. In addition, wired communication technologies may include power line communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cables, and the like.

통신부(110)가 지원하는 통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들 간의 근거리 무선 통신 방식으로 데이터 송수신을 수행할 수 있다. The communication method supported by the communication unit 110 is not limited, and a short-range wireless communication method between devices as well as a communication method using a communication network (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network) that the network may include. Data transmission and reception can be performed.

여기서 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. Here, the network is one of networks such as PAN (personal area network), LAN (local area network), CAN (campus area network), MAN (metropolitan area network), WAN (wide area network), BBN (broadband network), and the Internet. It may include one or more of any network.

또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수도 있으나, 이에 제한되지는 않는다.In addition, the network may include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree, or a hierarchical network, but is not limited thereto. Does not.

영상 데이터 수신부(120)는 통신부(110)를 통해 카메라(20, 제1CCTV, 제2CCTV,..)로부터 촬영된 영상 데이터를 수신하고, 수신되는 영상 데이터에서 객체 인식 및 메타데이터를 생성하는 기능을 수행한다. 그리고 수신되는 영상 데이터는 생성된 메타 데이터와 함께 저장부(180)에 저장한다. 또한 카메라(20) 또는 사용자 단말(30)이 객체인식 및 메타데이터를 생성하는 기능을 수행할 수도 있다. The image data receiving unit 120 receives image data captured from the camera 20, the first CCTV, the second CCTV, ... through the communication unit 110, and performs a function of recognizing an object and generating metadata from the received image data. Carry out. In addition, the received image data is stored in the storage unit 180 together with the generated metadata. In addition, the camera 20 or the user terminal 30 may perform a function of recognizing an object and generating metadata.

저장부(180)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. The storage unit 180 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.) , Magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory: RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) may include at least one storage medium.

일 실시예에 있어서 저장부(180)는 영상 데이터 수신부(120)로 수신된 영상 데이터와 영상 데이터에 포함되는 객체 정보에 대한 메타데이터를 함께 저장한다. In an embodiment, the storage unit 180 stores image data received by the image data receiving unit 120 and metadata about object information included in the image data together.

이때 영상 데이터 수신부(120)는 얼굴인식, 성별, 나이, 옷 색상, 수염, 안경, 마스크, 차량 번호판, 차량 제조사, 차량 색상, 차량 형태, 오토바이 탑승자, 자전거 탑승자 특성 중 하나를 분석한 메타데이터에 기반하여 객체 정보를 파악하고 파악된 객체 정보를 함께 저장부(180)에 저장한다. 메타데이터는 이에 한정되는 것은 아니고 객체의 특징이나 성향을 파악할 수 있는 이외의 다양한 정보들을 모두 포괄하도록 해석된다. At this time, the image data receiving unit 120 analyzes one of face recognition, gender, age, clothes color, beard, glasses, mask, vehicle license plate, vehicle manufacturer, vehicle color, vehicle type, motorcycle occupant, and bicycle occupant characteristics. Based on the object information, the identified object information is stored together in the storage unit 180. Metadata is not limited thereto, and is interpreted to include all types of information other than the characteristics or propensity of the object.

검색 요청 수신부(140)는 검색 요청자로부터 객체 정보를 포함하는 화면 검색 요청을 수신한다. 일 실시에에 있어서 검색 요청 수신부(140)는 다중화면 검색기술 지원 시스템(10)의 검색 요청 수신부(140)가 탑재된 단말 자체에 구비되는 사용자 인터페이스를 통해 화면 검색 요청을 수신할 수 있다. The search request receiving unit 140 receives a screen search request including object information from a search requester. In one embodiment, the search request receiving unit 140 may receive a screen search request through a user interface provided in a terminal on which the search request receiving unit 140 of the multi-screen search technology support system 10 is mounted.

또 다른 실시예에 있어서 검색 요청 수신부(140)는 네트워크 통신을 수행하는 통신부(110)를 통해 사용자 단말(30)로부터 화면 검색 요청을 수신할 수도 있다.In another embodiment, the search request receiving unit 140 may receive a screen search request from the user terminal 30 through the communication unit 110 performing network communication.

일 실시예에 있어서 화면 검색 요청은 객체 정보를 포함한다. 검색 요청자는 화면 표시부(160)에서 제공되는 2채널 이상의 다중 검색 화면 동시 검색 화면창에서 관심 채널을 마우스, 전자펜, 터치스크린, 모션(동체)감지 센서 입력, 음성인지, 다양한 센서 입력 등으로 선택할 수 있다. 그리고 검색 요청자는 선택한 관심 채널의 영상 데이터에서 특정 사람이나 사물을 관심 객체로 선정한다. In one embodiment, the screen search request includes object information. The search requester selects a channel of interest from a mouse, electronic pen, touch screen, motion (movement) sensor input, voice recognition, various sensor inputs, etc. from the simultaneous search screen window of two or more channels of multiple search screens provided by the screen display unit 160. I can. In addition, the search requester selects a specific person or object as an object of interest from the image data of the selected channel of interest.

검색 요청자는 관심 객체로 선정하는 것은 직접 객체의 메타데이터 값을 입력하거나 사진 이미지를 이용하여 관심 객체를 입력할 수 있다. To select an object of interest, the search requestor may directly input the object's metadata value or may use a photographic image to input the object of interest.

그러면 일 실시예에 따른 다중화면 검색기술 지원 시스템(10)은 검색 요청자가 선택한 관심 객체의 메타데이터를 확인한다. 그리고 관심 객체의 메타 데이터 중 검색에 유용한 메타데이터를 검색 기준으로 선정할 수 있다. Then, the multi-screen search technology support system 10 according to an embodiment checks the metadata of the object of interest selected by the search requestor. In addition, metadata useful for search among the metadata of the object of interest can be selected as a search criterion.

이후에 검색 요청자는 검색 일시 범위를 지정하여 저장된 영상 데이터 검색을 요청할 수 있다. Thereafter, the search requestor may request a search for stored image data by designating a search date and time range.

이에 따라 특정 인물이나 차량에 대한 정보를 메타데이터로 파악하여 상이한 시간대에 촬영된 특정 인물이나 차량이 포함된 영상 데이터를 검색 결과로 제공함으로써, 시간의 흐름에 따라 특정인물이나 차량의 이동동선, 움직임을 한눈에 파악하는 것이 가능해진다.Accordingly, information on a specific person or vehicle is identified as metadata, and image data including a specific person or vehicle photographed in different time periods is provided as a search result. It becomes possible to grasp at a glance.

사용자 단말(30)은 검색 요청자가 소지하거나 조작하는 단말장치로 구현된다. 예를들어 사용자 단말(30)은 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 폴더블 단말기(Foldable Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal), 디지털 사이니지 장치 등과 같은 다양한 단말기에 적용될 수 있다. The user terminal 30 is implemented as a terminal device possessed or manipulated by a search requestor. For example, the user terminal 30 includes a smart phone, a portable terminal, a mobile terminal, a foldable terminal, a personal digital assistant (PDA), and a PMP. (Portable Multimedia Player) Terminal, Telematics Terminal, Navigation Terminal, Personal Computer, Notebook Computer, Slate PC, Tablet PC, Ultrabook, Wearable Device (Wearable Device, for example, Smartwatch, Smart Glass, HMD (Head Mounted Display), etc.), Wibro terminal, IPTV (Internet Protocol Television) terminal, Smart TV , Digital broadcasting terminals, AVN (Audio Video Navigation) terminals, A/V (Audio/Video) systems, flexible terminals, digital signage devices, and the like.

객체 인식부(130)는 검색 요청 수신부(140)로 수신된 화면 검색 요청에 포함된 객체 정보를 파악한다. The object recognition unit 130 recognizes object information included in the screen search request received by the search request receiving unit 140.

일 양상에 있어서 객체 인식부(130)는 얼굴인식, 성별, 나이, 옷 색상, 수염, 안경, 마스크, 차량 번호판, 차량 제조사, 차량 색상, 차량 형태, 오토바이 탑승자, 자전거 탑승자 특성 중 하나를 분석한 메타데이터에 기반하여 객체 정보를 선별적으로 파악할 수 있다. 객체 인식부(130)는 객체 인식 기능을 포함한 카메라(20) 또는 사용자 단말(30)등이 기능을 대신할 수도 있다. In one aspect, the object recognition unit 130 analyzes one of face recognition, gender, age, clothes color, beard, glasses, mask, license plate, vehicle manufacturer, vehicle color, vehicle shape, motorcycle occupant, and bicycle occupant characteristics. Object information can be selectively identified based on metadata. In the object recognition unit 130, a camera 20 or a user terminal 30 including an object recognition function may replace the function.

메타데이터는 이에 한정되는 것은 아니고 객체의 특징이나 성향을 파악할 수 있는 이외의 다양한 정보들을 모두 포괄하도록 해석된다. Metadata is not limited thereto, and is interpreted to include all types of information other than the characteristics or propensity of the object.

영상 데이터 추출부(150)는 다수의 카메라(20)로 촬영된 영상 데이터에서 상기 객체 인식부가 인식한 객체 정보가 포함된 영상 데이터를 추출한다. The image data extracting unit 150 extracts image data including object information recognized by the object recognition unit from image data captured by a plurality of cameras 20.

일 양상에 있어서, 영상 데이터 추출부(150)는, 검색 요청자로부터 러닝 타임 설정값을 입력받고, 추출된 객체 정보가 포함된 영상 데이터를 입력받은 러닝 타임 설정값에 기반하여 러닝 타임 설정값 단위로 영상 데이터를 추출한다. In one aspect, the image data extractor 150 receives a running time set value from a search requester, and receives the image data including the extracted object information in units of a running time set value based on the received running time set value. Extract image data.

러닝 타임 설정값은 검색 요청자가 검색하기 원하는 관심 객체가 포함된 영상 중 어느 정도 시간 동안의 영상 데이터를 추출할지를 결정하기 위한 설정 값이라 할 수 있다. 예를 들면 러닝 타임 설정 값은 수초, 수분, 수시간, 수일로 설정 가능하다. The running time setting value may be referred to as a setting value for determining how long image data is to be extracted from the images including the object of interest that the search requestor wants to search. For example, the running time setting value can be set in seconds, minutes, hours, and days.

예를 들어 하나의 채널에서 수십 분 이상 객체가 발견될 경우에는 해당 채널의 영상은 검색 요청자가 설정한 러닝 타임 설정 값에 의한 시간만큼만 화면 표시되도록 설정하는 것이 가능하다. For example, when an object is found for several tens of minutes or more in one channel, it is possible to set the image of the channel to be displayed on the screen only for a time according to the running time setting value set by the search requester.

화면 표시부(160)는 영상 데이터 추출부(150)에서 추출된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할화면으로 표시한다. The screen display unit 160 arranges the image data extracted by the image data extractor 150 in the order of photographing time and displays at least one divided screen.

화면 표시부(160)는 다중화면 검색기술 지원 시스템(10)의 전반적인 동작을 제어하는 제어부의 제어에 의해 저장부(180)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할수 있다. The screen display unit 160 uses a user interface and/or a graphic user interface stored in the storage unit 180 under the control of a control unit that controls the overall operation of the multi-screen search technology support system 10 to provide various types of menu screens, etc. Content can be displayed.

여기서, 화면 표시부(160)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 화면 표시부(160)는 터치 스크린 일 수도 있다.Here, the content displayed on the screen display unit 160 includes various text or image data (including various information data) and a menu screen including data such as icons, list menus, and combo boxes. Also, the screen display unit 160 may be a touch screen.

또한, 화면 표시부(160)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.In addition, the screen display unit 160 includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. It may include at least one of (Flexible Display), 3D display, e-ink display, and LED (Light Emitting Diode).

일 실시예에 있어서 화면 표시부(160)는 영상 데이터 추출부(150)에서 추출된 영상 데이터들을 다중 검색 화면 중 원하는 채널에 배치할 수 있다. 이때 검색 요청자가 임의로 검색 영상들을 배치하거나 녹화된 시간을 기준으로 자동 정렬 시킬 수도 있다. 화면 표시부(160)는 다중 검색 결과 화면을 재생한다. In an embodiment, the screen display unit 160 may arrange the image data extracted by the image data extracting unit 150 on a desired channel among multiple search screens. In this case, the search requester may arbitrarily arrange search images or automatically sort them based on the recorded time. The screen display unit 160 reproduces the multiple search result screen.

화면 표시부(160)는 편집기능을 더 제공할 수 있다. 화면 표시부(160)는 적어도 하나의 분할 화면에 표시되는 채널 영상 데이터를 추가 또는 삭제 또는 위치 변경하여 채널 재조정 편집을 수행한다. The screen display unit 160 may further provide an editing function. The screen display unit 160 performs channel readjustment editing by adding, deleting, or relocating channel image data displayed on at least one split screen.

일 양상에 있어서, 화면 표시부(160)는 적어도 하나 이상의 채널 영상 데이터를 분할 화면으로 표시된 상태에서 드래그 앤드 드롭(Drag-and-drop)방식으로 관심 채널 영상 데이터를 선택받고, 선택된 관심 채널 영상 데이터의 화면 편집을 수행할 수 있다. In one aspect, the screen display unit 160 selects the channel-of-interest image data by drag-and-drop method while displaying at least one or more channel image data as a split screen, and selects the selected channel-of-interest image data. You can perform screen editing.

화면 표시부(160)에 3채널 이상의 다중 검색 화면이 재생되는 상태에서 관심 영상 채널을 선택받고, 새로운 채널 영상을 추가하거나, 순서를 재배열 하거나, 불필요한 영상 채널은 화면 표시부(160)에 표시되는 다중 검색 화면상에서 제외시킬 수 있다. In a state in which a multi-search screen of 3 or more channels is being played on the screen display unit 160, an image channel of interest is selected, a new channel image is added, the order is rearranged, or unnecessary image channels are displayed on the screen display unit 160. It can be excluded from the search screen.

이때 마우스, 전자펜, 터치스크린, 모션(동체)감지 센서 입력, 음성인지, 다양한 센서 등과 같은 신호 입력 장치를 통해 관심 채널 영상을 선택받을 수 있다. At this time, an image of a channel of interest may be selected through a signal input device such as a mouse, an electronic pen, a touch screen, a motion (movement) sensor input, voice recognition, and various sensors.

또한 본 발명의 다른 양상에 있어서, 화면 표시부(160)는 적어도 하나 이상의 채널 영상 데이터 리스트를 출력하고, 적어도 하나 이상의 채널 영상 데이터 리스트에서 적어도 하나의 관심 채널 영상 데이터를 선택받고, 선택된 관심 채널 영상 데이터의 화면 편집을 수행할 수도 있다. In another aspect of the present invention, the screen display unit 160 outputs at least one channel image data list, selects at least one channel of interest image data from the at least one channel image data list, and receives the selected channel image data of interest. You can also edit the screen.

화면 표시부(160)는 적어도 하나 이상의 채널 영상 데이터를 분할 화면으로 표시된 상태에서 채널 영상 데이터 리스트에 채널 화면 일부인 썸네일 목록을 표시하여 관심 채널을 선택받을 수도 있다. The screen display unit 160 may select a channel of interest by displaying a thumbnail list, which is a part of the channel screen, on the channel image data list while displaying at least one or more channel image data on a split screen.

일 실시예에 있어서 전체 채널 영상 데이터 리스트 창을 다중 검색 화면의 일정위치에 고정 표시되도록 구현될 수도 있다. 그리고 화면 표시부(160)는 선택받은 관심 채널 영상 데이터를 드래그 앤 드롭하는 방식으로 사용자가 원하는 위치에 배치할 수 있다. In an embodiment, the entire channel image data list window may be fixedly displayed at a predetermined position on the multiple search screen. In addition, the screen display unit 160 may drag and drop the selected image data of the channel of interest and arrange it at a location desired by the user.

화면 표시부(160)는 또한 관심 채널로 선택된 순서에 따라 자동으로 분할 화면상에 화면 배치 순서를 지정할 수 있다. 또한 관심 채널 선택시에 수동으로 화면 배치 정보를 입력받을 수도 있다. The screen display unit 160 may also automatically designate the screen arrangement order on the split screen according to the order selected as the channel of interest. In addition, when selecting a channel of interest, screen arrangement information may be manually input.

화면 표시부(160)는 입력되는 화면 편집 내용에 따라 다중 검색 화면을 재배열한다. 관심 채널로 선택되지 않은 채널 영상은 다중 검색 화면에서 제외시키고, 선택된 관심 채널 영상 데이터의 개수에 따라 다중검색 분할화면 수를 조정하여 화면 표시한다. The screen display unit 160 rearranges the multiple search screens according to the input screen edit contents. Channel images that are not selected as the channel of interest are excluded from the multiple search screen, and the number of split screens for the multiple search is adjusted according to the number of selected channel image data of the selected channel of interest and displayed on the screen.

도 2 는 본 발명의 다른 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색 서비스 제공장치의 구성을 도시한 블록도이다. 2 is a block diagram showing a configuration of an apparatus for providing a multi-screen search service having an object recognition function according to another embodiment of the present invention.

도 2 와 같이 본 발명의 다른 실시예에 따른 다중화면 검색기술 지원 시스템(10)은 영상 데이터 수신부(120)가 촬영된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성하는 객체 인식부(130-1, 130-2..)를 포함하는 객체 인식 카메라(20-1, 20-2...)로부터 촬영된 영상 데이터와 객체 인식부에서 생성된 메타데이터를 수신한다. As shown in FIG. 2, in the multi-screen search technology support system 10 according to another embodiment of the present invention, an object recognition unit ( 130-1, 130-2..), image data captured from the object recognition cameras 20-1, 20-2...) and metadata generated by the object recognition unit are received.

일 실시예에 따른 다중화면 검색기술 지원 시스템(10)은 일반 카메라로부터 촬영 영상 데이터를 수신하여 시스템 자체에서 수신되는 영상 데이터에 포함된 객체 정보에 대한 메타데이터를 생성하거나, 객체 인식 카메라(20-1, 20-2...)로부터 촬영 영상 데이터와 촬영 영상 데이터에 포함된 객체 정보에 따라 생성된 메타데이터를 함께 수신할 수도 있다. The multi-screen search technology support system 10 according to an embodiment generates metadata for object information included in the image data received from the system itself by receiving photographed image data from a general camera, or the object recognition camera 20- 1, 20-2...) may also receive captured image data and metadata generated according to object information included in the captured image data.

도 3 은 본 발명의 일 실시예에 따른 다중화면 검색기술 지원 시스템의 화면 표시부에 검색 결과가 표시된 화면의 예시도이다. 3 is an exemplary view of a screen in which a search result is displayed on a screen display unit of a multi-screen search technology support system according to an embodiment of the present invention.

도 3 에서와 같이 일 실시예에 따른 화면 표시부(160)는 적어도 하나 이상의 분할화면마다 표시되는 영상 데이터에 해당 영상 데이터의 촬영 시각 정보를 더 표시한다. As shown in FIG. 3, the screen display unit 160 according to an exemplary embodiment further displays photographing time information of the corresponding image data on image data displayed for each of at least one divided screen.

또한, 화면 표시부(160)는 적어도 하나 이상의 분할 화면마다 표시되는 영상 데이터에 해당 영상 데이터를 촬영한 카메라 정보를 더 표시한다. 이에 따라 검색하기 원하는 객체가 어느 순간에 어느 채널의 카메라로 촬영되었는지를 한눈에 파악할 수 있어 별도의 검색이나 조작을 가하지 않더라도 정확하게 객체 정보를 검색하는 것이 가능하다. In addition, the screen display unit 160 further displays camera information that has captured the image data on the image data displayed for each of at least one or more split screens. Accordingly, it is possible to grasp at a glance whether an object to be searched for is photographed by a camera of which channel at any moment, and thus it is possible to accurately search object information without performing a separate search or manipulation.

본 발명의 추가적인 양상에 있어서, 백업부(170)는 화면 표시부(160)에 표시된 검색 결과 즉, 검색하고자 하는 객체의 서로 다른 촬영 시각 분할 영상을 포함하는 영상 데이터를 백업한다. 종래에는 특정 객체의 움직임을 파악하기 위해서는 원하는 시간대의 객체 영상이 포함된 채널의 촬영 영상을 모두 백업 받거나 특정 시간대에 전체 채널의 촬영 영상을 모두 백업 받아야 했다. 예를 들어 16개 채널의 경우에는 15개의 불필요한 영상이 백업 파일에 포함되어야 했던 것이다.In an additional aspect of the present invention, the backup unit 170 backs up a search result displayed on the screen display unit 160, that is, image data including divided images of different photographing times of an object to be searched. Conventionally, in order to grasp the movement of a specific object, all captured images of a channel including an object image in a desired time period must be backed up, or all captured images of all channels must be backed up at a specific time period. For example, in the case of 16 channels, 15 unnecessary videos had to be included in the backup file.

그러나 일 실시예에 따른 백업부(170)는 특정 시간대에 검색을 원하는 객체가 포함된 영상 데이터들만 추출하여 하나의 화면에 분할 화면으로 포함시키기 때문에, 검색을 원하는 객체가 포함된 영상만 포함된 화면 데이터를 생성하여 백업할 수 있다. 이에 따라 데이터 백업을 위한 백업 시간을 단축할 수 있고, 백업 용량을 최소화할 수 있어 데이터 효율성을 향상시킬 수 있는 효과가 도출된다. However, since the backup unit 170 according to an embodiment extracts only image data including the object to be searched in a specific time period and includes it as a split screen in one screen, a screen including only the image including the object to be searched is included. Data can be created and backed up. Accordingly, the backup time for data backup can be shortened, and the backup capacity can be minimized, resulting in an effect of improving data efficiency.

(실시예1)(Example 1)

일 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색기술 지원 시스템(10)은 객체 인식 및 메타 데이터 생성 기능을 수행한다. 이에 따라 객체 검색 요청에 따라 녹화 시간이 다른 해당 객체를 포함하는 동영상들을 하나의 화면상에 순차적으로 나열하고 화면 제공해줄 수 있다. The multi-screen search technology support system 10 having an object recognition function according to an embodiment performs an object recognition and metadata generation function. Accordingly, according to an object search request, videos including a corresponding object having a different recording time may be sequentially arranged on one screen and provided to the screen.

따라서 일 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색기술 지원 시스템(10)은 카메라(20)로부터 수신되는 영상 데이터에 포함된 객체들에 대한 메타데이터를 추출하고 영상 데이터와 함께 저장한다. Accordingly, the multi-screen search technology support system 10 having an object recognition function according to an exemplary embodiment extracts metadata about objects included in image data received from the camera 20 and stores it together with the image data.

이때 본 발명의 일 실시예에 따른 다중화면 검색 서비스를 이용하는 사용자는 다중검색화면에서 관심 채널을 등록할 수 있다. In this case, a user who uses the multi-screen search service according to an embodiment of the present invention may register a channel of interest on the multi-search screen.

메타데이터는 얼굴인식, 성별, 나이, 옷색상, 수염, 안경, 마스크, 차량 번호판, 차량의 제조사, 차량 색상, 차량의 형태, 오토바이 탑승자, 자전거 탑승자 등의 특성과 같이 객체 특성을 분석한 데이터를 모두 포괄하도록 해석된다. Metadata analyzes object characteristics such as face recognition, gender, age, clothing color, beard, glasses, mask, vehicle license plate, vehicle manufacturer, vehicle color, vehicle shape, motorcycle occupant, and bicycle occupant characteristics. It is interpreted to be inclusive.

검색 요청자는 2채널 이상의 다중 검색 화면 동시 검색 화면창에서 관심 채널을 마우스, 전자펜, 터치스크린, 모션(동체)감지 센서 입력, 음성인지, 다양한 센서 입력등으로 선택할 수 있다. 그리고 검색 요청자는 선택한 관심 채널의 영상 데이터에서 특정 사람이나 사물을 관심 객체로 선정한다. The search requester can select a channel of interest from a mouse, electronic pen, touch screen, motion (movement) sensor input, voice recognition, and various sensor inputs from the simultaneous search screen window of two or more channels of multiple search screens. In addition, the search requester selects a specific person or object as an object of interest from the image data of the selected channel of interest.

그러면 일 실시예에 따른 다중화면 검색기술 지원 시스템(10)은 검색 요청자가 선택한 관심 객체의 메타데이터를 확인한다. 그리고 관심 객체의 메타 데이터 중 검색에 유용한 메타데이터를 검색 기준으로 선정할 수 있다. Then, the multi-screen search technology support system 10 according to an embodiment checks the metadata of the object of interest selected by the search requestor. In addition, metadata useful for search among the metadata of the object of interest can be selected as a search criterion.

이후에 검색 요청자는 검색 일시 범위를 지정하여 저장된 영상 데이터 검색을 요청할 수 있다. 그리고 검색이 완료된 영상들을 다중 검색 화면 중 원하는 채널에 배치할 수 있다. 이때 검색 요청자가 임의로 검색 영상들을 배치하거나 녹화된 시간을 기준으로 자동 정렬시킬 수도 있다. 그리고 다중화면 검색기술 지원 시스템(10)은 화면 표시부를 통해 다중 검색화면을 재생한다. Thereafter, the search requestor may request a search for stored image data by designating a search date range. In addition, images for which the search is completed may be arranged in a desired channel among multiple search screens. In this case, the search requester may arbitrarily arrange search images or automatically sort them based on the recorded time. In addition, the multi-screen search technology support system 10 reproduces the multi-search screen through the screen display unit.

다중 검색 화면이 표시된 상태에서 검색 요청자가 원하는 채널을 지정하여 백업을 하거나 전체 채널을 백업하도록 백업 요청이 입력되면 백업부(170)는 검색 요청자의 제어에 따라 필요한 영상 데이터를 백업한다. In a state in which the multiple search screen is displayed, when a search requestor designates a desired channel to perform backup or a backup request is input to backup all channels, the backup unit 170 backs up necessary image data under the control of the search requestor.

(실시예2)(Example 2)

다른 실시예에 있어서 객체 인식 기능을 갖는 다중화면 검색기술 지원 시스템(10)은 썸네일 파일을 이용하여 관심 채널을 등록하고 객체 검색 요청에 따라 녹화 시간이 다른 해당 객체를 포함하는 동영상들을 하나의 화면상에 순차적으로 나열하고 화면 제공해줄 수 있다. In another embodiment, the multi-screen search technology support system 10 having an object recognition function registers a channel of interest using a thumbnail file and displays videos including a corresponding object having a different recording time according to an object search request on one screen. It can be listed in sequence and provided on the screen.

일 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색기술 지원 시스템(10)은 카메라(20)로부터 수신되는 영상 데이터에 포함된 객체들에 대한 메타데이터를 추출하고 영상 데이터와 함께 저장한다. The multi-screen search technology support system 10 having an object recognition function according to an exemplary embodiment extracts metadata about objects included in image data received from the camera 20 and stores it together with the image data.

이때 본 발명의 일 실시예에 따른 다중화면 검색 서비스를 이용하는 사용자는 다중검색화면에서 관심 채널을 등록할 수 있다. In this case, a user who uses the multi-screen search service according to an embodiment of the present invention may register a channel of interest on the multi-search screen.

메타데이터는 얼굴인식, 성별, 나이, 옷 색상, 수염, 안경, 마스크, 차량 번호판, 차량의 제조사, 차량 색상, 차량의 형태, 오토바이 탑승자, 자전거 탑승자 등의 특성과 같이 객체 특성을 분석한 데이터를 모두 포괄하도록 해석된다. Metadata analyzes object characteristics such as face recognition, gender, age, clothes color, beard, glasses, mask, license plate, vehicle manufacturer, vehicle color, vehicle shape, motorcycle occupant, and bicycle occupant characteristics. It is interpreted to be inclusive.

검색 요청자는 객체 인식을 통해 객체들에 대한 메타데이터가 함께 저장된 녹화 영상 중 관심 객체를 지정하여 썸네일 영상을 검색할 수 있다. 검색 조건으로 메타데이터값을 입력하거나, 관심 객체가 포함된 이미지파일을 이용할 수 있다. 그리고 검색 일시 범위를 지정하여 저장된 영상 데이터를 선별할 수 있다. The search requestor may search for a thumbnail image by designating an object of interest among recorded images in which metadata about objects is also stored through object recognition. As a search condition, a metadata value can be entered, or an image file containing an object of interest can be used. In addition, it is possible to select the stored image data by specifying the search date and time range.

그리고 검색된 썸네일 영상들을 다중 검색 화면 중 원하는 채널에 위치시킨다. 이때 검색 요청자가 임의로 썸네일 영상들을 배치하거나 녹화된 시간을 기준으로 자동 정렬시킬 수도 있다. 그리고 다중화면 검색기술 지원 시스템(10)은 화면 표시부를 통해 다중 검색화면을 재생한다. Then, the searched thumbnail images are placed in a desired channel among the multiple search screens. In this case, the search requestor may arbitrarily arrange the thumbnail images or automatically arrange them based on the recorded time. In addition, the multi-screen search technology support system 10 reproduces the multi-search screen through the screen display unit.

다중 검색 화면이 표시된 상태에서 검색 요청자가 원하는 채널을 지정하여 백업을 하거나 전체 채널을 백업하도록 백업 요청이 입력되면 백업부(170)는 검색 요청자의 제어에 따라 필요한 영상 데이터를 백업한다. In a state in which the multiple search screen is displayed, when a search requestor designates a desired channel to perform backup or a backup request is input to backup all channels, the backup unit 170 backs up necessary image data under the control of the search requestor.

도 4 는 본 발명의 일 실시예에 따른 객체 인식 기능을 갖는 다중화면 검색기술 지원 방법을 도시한 흐름도이다. 4 is a flowchart illustrating a method of supporting a multi-screen search technology having an object recognition function according to an embodiment of the present invention.

객체 인식부, 저장부, 영상 데이터 추출부, 및 화면 표시부를 포함하는 다중화면 검색기술 지원 시스템에서 수행되는 다중화면 검색기술 지원 방법은 먼저 통신부를 통해 다수의 카메라들로부터 촬영된 영상 데이터를 수신하고(S400), 수신된 영상 데이터에 메타 데이터가 포함되는지 여부를 파악한다(S405).The multi-screen search technology support method performed in a multi-screen search technology support system including an object recognition unit, a storage unit, an image data extracting unit, and a screen display unit first receives image data captured from a plurality of cameras through a communication unit. (S400), it is determined whether meta data is included in the received image data (S405).

그리고 수신된 영상 데이터에 메타데이터가 포함되지 않은 경우, 즉 일반 카메라에서 촬영된 영상 데이터만 수신되는 경우, 객체 인식부가 적어도 하나 이상의 카메라로 촬영된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성한다(S410). In addition, when the received image data does not contain metadata, that is, when only image data captured by a general camera is received, the object recognition unit recognizes object information included in the image data captured by at least one or more cameras to obtain metadata. Generate (S410).

일 양상에 있어서, 다중화면 검색기술 지원 시스템은 촬영된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성하는 객체 인식부를 포함하는 적어도 하나의 객체 인식 카메라로부터 촬영된 영상 데이터와 객체 인식부에서 생성된 메타데이터를 수신할 수도 있다. In one aspect, the multi-screen search technology support system includes image data captured from at least one object recognition camera including an object recognition unit that generates metadata by identifying object information included in the captured image data and the object recognition unit. You can also receive the generated metadata.

즉 객체 인식 카메라부터 영상 데이터와 메타 데이터가 함께 수신되면(S405)바로 수신된 영상 데이터와 메타데이터를 함께 매칭시켜 저장한다(S420). That is, when image data and metadata are received together from the object recognition camera (S405), the received image data and metadata are matched together and stored (S420).

이때, 일 실시예에 따른 다중화면 검색기술 지원 시스템은 얼굴인식, 성별, 나이, 옷 색상, 수염, 안경, 마스크, 차량 번호판, 차량 제조사, 차량 색상, 차량 형태, 오토바이 탑승자, 자전거 탑승자 특성 중 하나를 분석한 메타데이터에 기반하여 객체 정보를 파악하고 파악된 객체 정보를 영상 데이터와 매칭시켜 함께 저장부에 저장한다. 메타데이터는 이에 한정되는 것은 아니고 객체의 특징이나 성향을 파악할 수 있는 이외의 다양한 정보들을 모두 포괄하도록 해석된다. At this time, the multi-screen search technology support system according to an embodiment is one of face recognition, gender, age, clothes color, beard, glasses, mask, vehicle license plate, vehicle manufacturer, vehicle color, vehicle shape, motorcycle occupant, and bicycle occupant characteristics. Based on the analyzed metadata, object information is identified, the identified object information is matched with image data, and stored together in a storage unit. Metadata is not limited thereto, and is interpreted to include all types of information other than the characteristics or propensity of the object.

이후에, 영상 데이터 추출부는 화면 검색 요청이 수신되면(S430), 수신되는 화면 검색 요청에 포함된 객체 정보를 파악하여(S440) 적어도 하나 이상의 카메라로 촬영된 영상 데이터와 객체 인식부에서 생성된 메타데이터를 함께 매칭시켜 저장하는 저장부에 저장된 영상 데이터들 중 파악된 객체 정보가 포함된 영상 데이터를 추출하여 제공한다(S450).Thereafter, when the screen search request is received (S430), the image data extracting unit identifies object information included in the received screen search request (S440), Image data including identified object information is extracted from among image data stored in a storage unit that matches and stores the data together and provides (S450).

일 양상에 있어서, 영상 데이터를 추출하는 단계는, 검색 요청자로부터 러닝 타임 설정값을 입력받고(S460), 추출된 객체 정보가 포함된 영상 데이터를 입력받은 러닝 타임 설정 값에 기반하여 러닝 타임 설정값 단위로 영상 데이터를 추출한다(S470).In one aspect, in the step of extracting the image data, a running time set value is received from a search requester (S460), and a running time set value is received based on the running time set value received by receiving the image data including the extracted object information. Image data is extracted in units (S470).

러닝 타임 설정값은 검색 요청자가 검색하기 원하는 관심 객체가 포함된 영상 중 어느 정도 시간 동안의 영상 데이터를 추출할지를 결정하기 위한 설정 값이라 할 수 있다. 예를 들면 러닝 타임 설정값은 수초, 수분, 수시간, 수일로 설정 가능하다. The running time setting value may be referred to as a setting value for determining how long image data is to be extracted from the images including the object of interest that the search requestor wants to search. For example, the running time setting can be set in seconds, minutes, hours, or days.

그리고 화면 표시부가 상기 영상 데이터 추출부에서 추출된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할화면으로 표시하여 제공한다(S480).In addition, the screen display unit arranges the image data extracted by the image data extraction unit in the order of photographing time, and displays and provides at least one divided screen (S480).

이때, 적어도 하나 이상의 분할화면으로 표시하는 단계는, 적어도 하나 이상의 분할화면마다 표시되는 영상 데이터에 해당 영상 데이터의 촬영 시각 정보를 더 표시한다. In this case, in the step of displaying at least one divided screen, the photographing time information of the corresponding image data is further displayed on the image data displayed for each of the at least one or more divided screens.

또한, 상기 적어도 하나 이상의 분할화면으로 표시하는 단계는, 적어도 하나 이상의 분할 화면마다 표시되는 영상 데이터에 해당 영상 데이터를 촬영한 카메라 정보를 더 표시한다.In addition, in the displaying of the at least one split screen, camera information on which the corresponding image data is captured is further displayed on the image data displayed for each of the at least one split screen.

이에 따라 검색하기 원하는 객체가 어느 순간에 어느 채널의 카메라로 촬영되었는지를 한눈에 파악할 수 있어 별도의 검색이나 조작을 가하지 않더라도 정확하게 객체 정보를 검색하는 것이 가능하다. Accordingly, it is possible to grasp at a glance whether an object to be searched for is photographed by a camera of which channel at any moment, and thus it is possible to accurately search object information without performing a separate search or manipulation.

본 발명의 일 양상에 따르면, 다중화면 검색기술 지원 방법은 표시하는 단계 이후에, 화면 표시부가 분활 화면으로 표시되는 적어도 하나 이상의 채널 화면에 대한 편집 기능을 제공하는 단계를 더 포함한다. According to an aspect of the present invention, after the displaying of the multi-screen search technology, the screen display unit further includes providing an editing function for at least one channel screen displayed as a split screen.

편집 기능을 제공하는 단계는 적어도 하나의 분할 화면에 표시되는 채널 영상 데이터를 추가 또는 삭제 또는 위치 변경하여 채널 재조정 편집을 수행한다(S490). In the providing of the editing function, channel readjustment editing is performed by adding, deleting, or changing the position of channel image data displayed on at least one split screen (S490).

일 양상에 있어서, 편집 기능을 제공하는 단계는 적어도 하나 이상의 채널 영상 데이터를 분할 화면으로 표시된 상태에서 드래그 앤드 드롭(Drag-and-drop)방식으로 관심 채널 영상 데이터를 선택받고, 선택된 관심 채널 영상 데이터의 화면 편집을 수행할 수 있다. In one aspect, the providing of the editing function includes selecting the channel-of-interest image data in a drag-and-drop method while displaying at least one or more channel image data in a split screen, and the selected channel-of-interest image data. You can edit the screen.

화면 표시부에 3채널 이상의 다중 검색 화면이 재생되는 상태에서 관심 영상 채널을 선택받고, 새로운 채널 영상을 추가하거나, 순서를 재배열 하거나, 불필요한 영상 채널은 화면 표시부에 표시되는 다중 검색 화면상에서 제외시킬 수 있다. When a multi-search screen of 3 or more channels is being played on the screen display, a video channel of interest can be selected, a new channel video can be added, the order can be rearranged, or unnecessary video channels can be excluded from the multi-search screen displayed on the screen display have.

또한 편집 기능을 제공하는 단계는 적어도 하나 이상의 채널 영상 데이터 리스트를 출력하고, 적어도 하나 이상의 채널 영상 데이터 리스트에서 적어도 하나의 관심 채널 영상 데이터를 선택받고, 선택된 관심 채널 영상 데이터의 화면 편집을 수행할 수도 있다. In addition, the providing of the editing function may include outputting at least one channel image data list, selecting at least one channel image data of interest from the at least one channel image data list, and performing screen editing of the selected channel image data of interest. have.

일 실시예에 있어서 전체 채널 영상 데이터 리스트 창을 다중 검색 화면의 일정위치에 고정 표시되도록 구현될수도 있다. 그리고 화면 표시부는 선택받은 관심 채널 영상 데이터를 드래그앤드롭하는 방식으로 사용자가 원하는 위치에 배치할 수 있다. In an embodiment, the entire channel image data list window may be fixedly displayed at a predetermined position on the multiple search screen. In addition, the screen display unit may place the selected image data of the channel of interest in a desired position by a user by dragging and dropping it.

편집 기능을 제공하는 단계는 또한 관심 채널로 선택된 순서에 따라 자동으로 분할 화면상에 화면 배치 순서를 지정할 수 있다. 또한 관심 채널 선택시에 수동으로 화면 배치 정보를 입력받을 수도 있다. The step of providing the editing function may also automatically designate the screen arrangement order on the split screen according to the order selected as the channel of interest. In addition, when selecting a channel of interest, screen arrangement information may be manually input.

화면 표시부는 입력되는 화면 편집 내용에 따라 다중 검색 화면을 재배열한다. 관심 채널로 선택되지 않은 채널 영상은 다중 검색 화면에서 제외시키고, 선택된 관심 채널 영상 데이터의 개수에 따라 다중검색 분할화면 수를 조정하여 화면 표시한다. The screen display unit rearranges the multiple search screens according to the input screen edits. Channel images that are not selected as the channel of interest are excluded from the multiple search screen, and the number of split screens for the multiple search is adjusted according to the number of selected channel image data of the selected channel of interest and displayed on the screen.

본 발명의 추가적인 양상에 따라 분할 화면으로 표시된 영상 데이터 전체 또는 검색 요청자에 의해 선택된 관심 채널의 영상데이터를 선별적으로 백업할 수 있다(S500). According to an additional aspect of the present invention, it is possible to selectively back up the entire image data displayed on a split screen or the image data of a channel of interest selected by the search requester (S500).

일 실시예에 따른 백업부는 특정 시간대에 검색을 원하는 객체가 포함된 영상 데이터들만 추출하여 하나의 화면에 분할 화면으로 포함 시키기 때문에, 검색을 원하는 객체가 포함된 영상만 포함된 화면 데이터를 생성하여 백업할 수 있다. 이에 따라 데이터 백업을 위한 백업 시간을 단축할 수 있고, 백업 용량을 최소화할 수 있어 데이터 효율성을 향상시킬 수 있는 효과가 도출된다. Since the backup unit according to an embodiment extracts only image data including the object to be searched in a specific time period and includes it as a split screen on one screen, it creates and backs up screen data including only the image including the object to be searched. can do. Accordingly, the backup time for data backup can be shortened, and the backup capacity can be minimized, resulting in an effect of improving data efficiency.

전술한 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.The above-described method may be implemented as an application or in the form of program instructions that may be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, and the like alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded in the computer-readable recording medium may be specially designed and constructed for the present invention, and may be known and usable to those skilled in the computer software field.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks. media), and a hardware device specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention described in the following claims. I will be able to.

10 : 다중화면 검색기술 지원 시스템 20 : 카메라
30 : 사용자 단말 110 : 통신부
120 : 영상 데이터 수신부 130 : 객체 인식부
140 : 검색 요청 수신부 150 : 영상 데이터 추출부
160 : 화면 표시부 170 : 백업부
180 : 저장부
10: multi-screen search technology support system 20: camera
30: user terminal 110: communication unit
120: image data receiving unit 130: object recognition unit
140: search request receiving unit 150: image data extracting unit
160: screen display unit 170: backup unit
180: storage unit

Claims (15)

적어도 하나의 카메라로부터 촬영된 영상 데이터를 수신하여, 수신된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성하는 객체 인식부;
상기 수신된 영상 데이터와 상기 객체 인식부에서 생성된 메타데이터를 매칭시켜 저장하는 저장부;
객체 정보를 포함하는 화면 검색 요청을 수신하고, 수신되는 화면 검색 요청에 포함된 객체 정보를 파악하여 상기 저장부에 저장된 영상 데이터들 중 상기 파악된 객체 정보가 포함된 영상 데이터를 추출하는 영상 데이터 추출부; 및
상기 영상 데이터 추출부에서 추출된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할 화면으로 표시하고, 분활 화면으로 표시되는 적어도 하나 이상의 채널 화면에 대한 객체 인식 기반의 채널 재조정 편집 기능을 제공하는 화면 표시부;를 포함하고,
상기 화면 표시부는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분할 화면에 새로운 채널 영상 데이터를 추가하는 편집 기능을 제공하며,
상기 화면 표시부에 표시된 검색하고자 하는 객체의 서로 다른 촬영 시각 분할 영상을 포함하는 영상 데이터를 백업하는 백업부;를 더 포함하고,
상기 영상 데이터 추출부는, 검색 요청자로부터 러닝 타임 설정값을 입력받고, 추출된 객체 정보가 포함된 영상 데이터를 입력받은 러닝 타임 설정값에 기반하여 러닝 타임 설정값 단위로 영상 데이터를 추출하며,
러닝 타임 설정값은 검색 요청자가 검색하기 원하는 관심 객체가 포함된 영상 중 어느 정도 시간 동안의 영상 데이터를 추출할지를 결정하기 위한 설정 값인 것을 특징으로하는, 다중화면 검색기술 지원 시스템.
An object recognition unit that receives image data captured from at least one camera, recognizes object information included in the received image data, and generates metadata;
A storage unit for matching and storing the received image data and metadata generated by the object recognition unit;
Image data extraction for receiving a screen search request including object information, identifying object information included in the received screen search request, and extracting image data including the identified object information among image data stored in the storage unit part; And
A screen that arranges the image data extracted from the image data extraction unit in the order of shooting time, displays them as at least one split screen, and provides an object recognition-based channel readjustment editing function for at least one or more channel screens displayed as a split screen Including;
The screen display unit,
Provides an editing function for adding new channel image data to at least one split screen of a multi-screen including at least one or more channel screens displayed as a split screen,
A backup unit for backing up image data including divided images of different shooting times of the object to be searched displayed on the screen display unit; further comprising,
The image data extracting unit receives a running time set value from a search requester, and extracts the image data in units of a running time set value based on a running time set value received from the inputted image data including the extracted object information,
The running time setting value is a setting value for determining how long video data is to be extracted from the video including the object of interest that the search requestor wants to search for, a multi-screen search technology support system.
제 1 항에 있어서,
상기 화면 표시부는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분활 화면에서 재생되는 채널 영상 데이터를 삭제하는 편집 기능을 제공하는, 다중화면 검색기술 지원 시스템.
The method of claim 1,
The screen display unit,
A multi-screen search technology support system that provides an editing function for deleting channel image data played on at least one split screen of a multi-screen including at least one or more channel screens displayed as a split screen.
삭제delete 제 1 항에 있어서,
상기 화면 표시부는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분할 화면에서 재생되는 채널 영상 데이터를 드래그 앤 드롭하는 방식으로 사용자가 원하는 위치에 배치하는 편집 기능을 제공하는, 다중화면 검색기술 지원 시스템.
The method of claim 1,
The screen display unit,
Multi-screen search, which provides an editing function to place the channel image data in a desired location by dragging and dropping the channel image data played on at least one split screen of a multi-screen including at least one channel screen displayed as a split screen Technical support system.
제 1 항에 있어서,
상기 화면 표시부는,
상기 영상 데이터 추출부에서 추출된 상이한 시각에 촬영된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할 화면으로 표시하는, 다중화면 검색기술 지원 시스템.
The method of claim 1,
The screen display unit,
A multi-screen search technology support system for displaying image data captured at different times extracted by the image data extracting unit in the order of photographing time in at least one divided screen.
촬영된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성하는 객체 인식부를 포함하는 적어도 하나의 객체 인식 카메라로부터 촬영된 영상 데이터와 상기 객체 인식부에서 생성된 메타데이터를 수신하는 영상 데이터 수신부;
상기 영상 데이터 수신부로 수신된 영상 데이터와 메타데이터를 함께 매칭시켜 저장하는 저장부;
객체 정보를 포함하는 화면 검색 요청을 수신하고, 수신되는 화면 검색 요청에 포함된 객체 정보를 파악하여 상기 저장부에 저장된 영상 데이터들 중 상기 파악된 객체 정보가 포함된 영상 데이터를 추출하는 영상 데이터 추출부; 및
상기 영상 데이터 추출부에서 추출된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할 화면으로 표시하고, 분활 화면으로 표시되는 적어도 하나 이상의 채널 화면에 대한 객체 인식 기반의 채널 재조정 편집 기능을 제공하는 화면 표시부;를 포함하고,
상기 화면 표시부는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분할 화면에 새로운 채널 영상 데이터를 추가하는 편집 기능을 제공하며,
상기 화면 표시부에 표시된 검색하고자 하는 객체의 서로 다른 촬영 시각 분할 영상을 포함하는 영상 데이터를 백업하는 백업부;를 더 포함하고,
상기 영상 데이터 추출부는, 검색 요청자로부터 러닝 타임 설정값을 입력받고, 추출된 객체 정보가 포함된 영상 데이터를 입력받은 러닝 타임 설정값에 기반하여 러닝 타임 설정값 단위로 영상 데이터를 추출하며,
러닝 타임 설정값은 검색 요청자가 검색하기 원하는 관심 객체가 포함된 영상 중 어느 정도 시간 동안의 영상 데이터를 추출할지를 결정하기 위한 설정 값인 것을 특징으로 하는 다중화면 검색기술 지원 시스템.
An image data receiving unit receiving image data captured from at least one object recognition camera including an object recognition unit generating metadata by recognizing object information included in the captured image data and metadata generated by the object recognition unit;
A storage unit for matching and storing image data and metadata received by the image data receiving unit;
Image data extraction for receiving a screen search request including object information, identifying object information included in the received screen search request, and extracting image data including the identified object information among image data stored in the storage unit part; And
A screen that arranges the image data extracted from the image data extraction unit in the order of shooting time, displays them as at least one split screen, and provides an object recognition-based channel readjustment editing function for at least one or more channel screens displayed as a split screen Including;
The screen display unit,
Provides an editing function for adding new channel image data to at least one split screen of a multi-screen including at least one or more channel screens displayed as a split screen,
A backup unit for backing up image data including divided images of different shooting times of the object to be searched displayed on the screen display unit; further comprising,
The image data extracting unit receives a running time set value from a search requester, and extracts the image data in units of a running time set value based on a running time set value received from the inputted image data including the extracted object information,
The running time setting value is a multi-screen search technology support system, characterized in that the search requestor is a setting value for determining how long image data is to be extracted among images including an object of interest desired to be searched.
제 6 항에 있어서,
상기 화면 표시부는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분활 화면에서 재생되는 채널 영상 데이터를 삭제하는 편집 기능을 제공하는, 다중화면 검색기술 지원 시스템.
The method of claim 6,
The screen display unit,
A multi-screen search technology support system that provides an editing function for deleting channel image data played on at least one split screen of a multi-screen including at least one or more channel screens displayed as a split screen.
삭제delete 제 6 항에 있어서,
상기 화면 표시부는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분할 화면에서 재생되는 채널 영상 데이터를 드래그 앤 드롭하는 방식으로 사용자가 원하는 위치에 배치하는 편집 기능을 제공하는, 다중화면 검색기술 지원 시스템.
The method of claim 6,
The screen display unit,
Multi-screen search, which provides an editing function to place the channel image data in a desired location by dragging and dropping the channel image data played on at least one split screen of a multi-screen including at least one channel screen displayed as a split screen Technical support system.
제 6 항에 있어서,
상기 화면 표시부는,
상기 영상 데이터 추출부에서 추출된 상이한 시각에 촬영된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할 화면으로 표시하는, 다중화면 검색기술 지원 시스템.
The method of claim 6,
The screen display unit,
A multi-screen search technology support system for displaying image data captured at different times extracted by the image data extracting unit in the order of photographing time in at least one divided screen.
객체 인식부, 저장부, 영상 데이터 추출부, 및 화면 표시부를 포함하는 다중화면 검색기술 지원 시스템에서 수행되는 다중화면 검색기술 지원 방법에 있어서,
객체 인식부가 적어도 하나 이상의 카메라로 촬영된 영상 데이터에 포함된 객체 정보를 파악하여 메타데이터를 생성하는 단계;
영상 데이터 추출부가 객체 정보를 포함하는 화면 검색 요청이 수신되면, 수신되는 화면 검색 요청에 포함된 객체 정보를 파악하여 상기 적어도 하나 이상의 카메라로 촬영된 영상 데이터와 상기 객체 인식부에서 생성된 메타데이터를 함께 매칭시켜 저장하는 저장부에 저장된 영상 데이터들 중 상기 파악된 객체 정보가 포함된 영상 데이터를 추출하는 단계;
화면 표시부가 상기 영상 데이터 추출부에서 추출된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할화면으로 표시하는 단계; 및
화면 표시부가 분활 화면으로 표시되는 적어도 하나 이상의 채널 화면에 대한 편집 기능을 제공하는 단계;를 포함하고,
상기 편집 기능을 제공하는 단계는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분할 화면에 새로운 채널 영상 데이터를 추가하는 편집 기능을 제공하며,
백업부가 상기 화면 표시부에 표시된 검색하고자 하는 객체의 서로 다른 촬영 시각 분할 영상을 포함하는 영상 데이터를 백업하는 단계;를 더 포함하고,
상기 영상 데이터 추출부는, 검색 요청자로부터 러닝 타임 설정값을 입력받고, 추출된 객체 정보가 포함된 영상 데이터를 입력받은 러닝 타임 설정값에 기반하여 러닝 타임 설정값 단위로 영상 데이터를 추출하며,
러닝 타임 설정값은 검색 요청자가 검색하기 원하는 관심 객체가 포함된 영상 중 어느 정도 시간 동안의 영상 데이터를 추출할지를 결정하기 위한 설정 값인 것을 특징으로하는, 다중화면 검색기술 지원 방법.
In the multi-screen search technology support method performed in a multi-screen search technology support system including an object recognition unit, a storage unit, an image data extracting unit, and a screen display unit,
Generating metadata by recognizing object information included in image data captured by at least one or more cameras by an object recognition unit;
When an image data extraction unit receives a screen search request including object information, the object information included in the received screen search request is identified and the image data photographed by the at least one camera and the metadata generated by the object recognition unit are collected. Extracting image data including the identified object information from among image data stored in a storage unit matching and storing together;
Arranging the image data extracted by the image data extracting unit in the order of photographing time by a screen display unit and displaying at least one divided screen; And
Providing an editing function for at least one channel screen displayed as a split screen by the screen display unit; Including,
Providing the editing function,
Provides an editing function for adding new channel image data to at least one split screen of a multi-screen including at least one or more channel screens displayed as a split screen,
The backup unit backing up image data including divided images of different shooting times of the object to be searched displayed on the screen display unit; further comprising,
The image data extracting unit receives a running time set value from a search requester, and extracts the image data in units of a running time set value based on a running time set value received from the inputted image data including the extracted object information,
The running time setting value is a setting value for determining how long video data is to be extracted from the video including the object of interest that the search requestor wants to search.
제 11항에 있어서,
상기 편집 기능을 제공하는 단계는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분활 화면에서 재생되는 채널 영상 데이터를 삭제하는 편집 기능을 제공하는, 다중화면 검색기술 지원 방법.
The method of claim 11,
Providing the editing function,
A method of supporting a multi-screen search technology, providing an editing function for deleting channel image data played on at least one split screen of a multi-screen including at least one channel screen displayed as a split screen.
삭제delete 제 11 항에 있어서,
상기 편집 기능을 제공하는 단계는,
분활 화면으로 표시되는 적어도 하나 이상의 채널 화면을 포함하는 다중 화면의 적어도 하나의 분할 화면에서 재생되는 채널 영상 데이터를 드래그 앤 드롭하는 방식으로 사용자가 원하는 위치에 배치하는 편집 기능을 제공하는,
다중화면 검색기술 지원 방법.
The method of claim 11,
Providing the editing function,
Providing an editing function in which channel image data played on at least one split screen of a multi-screen including at least one channel screen displayed as a split screen is placed at a desired location by dragging and dropping,
How to support multi-screen search technology.
제 11 항에 있어서,
상기 분할화면으로 표시하는 단계는,
상기 영상 데이터 추출부에서 추출된 상이한 시각에 촬영된 영상 데이터를 촬영 시각 순서로 나열하여 적어도 하나 이상의 분할 화면으로 표시하는,
다중화면 검색기술 지원 방법.


The method of claim 11,
The displaying of the split screen includes:
Arranging the image data captured at different times extracted by the image data extracting unit in the order of shooting time and displaying them as at least one split screen,
How to support multi-screen search technology.


KR1020200087425A 2020-07-15 2020-07-15 Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function KR102223010B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200087425A KR102223010B1 (en) 2020-07-15 2020-07-15 Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200087425A KR102223010B1 (en) 2020-07-15 2020-07-15 Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function

Publications (1)

Publication Number Publication Date
KR102223010B1 true KR102223010B1 (en) 2021-03-05

Family

ID=75163939

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200087425A KR102223010B1 (en) 2020-07-15 2020-07-15 Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function

Country Status (1)

Country Link
KR (1) KR102223010B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100504133B1 (en) * 2003-05-15 2005-07-27 김윤수 Method for controlling plural images on a monitor of an unattended monitoring system
KR20080082963A (en) 2005-11-15 2008-09-12 이슘 리서치 디벨롭먼트 컴퍼니 오브 더 히브루 유니버시티 오브 예루살렘 Method and system for producing a video synopsis
KR20090117771A (en) 2007-02-01 2009-11-12 이섬 리서치 디벨러프먼트 컴파니 오브 더 히브루 유니버시티 오브 예루살렘 Method and system for video indexing and video synopsis
KR20100026631A (en) 2008-09-01 2010-03-10 부경대학교 산학협력단 Auto indexing and difference frame saving method of surveillance video using shot change detection technique in surveillance camera system
KR101213153B1 (en) * 2011-03-14 2012-12-18 삼성테크윈 주식회사 System and method for searching video data having simultaneous play function
KR20160128779A (en) * 2015-04-29 2016-11-08 (주)이지펙스 System and Method for Collecting Event-Related Moving Image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100504133B1 (en) * 2003-05-15 2005-07-27 김윤수 Method for controlling plural images on a monitor of an unattended monitoring system
KR20080082963A (en) 2005-11-15 2008-09-12 이슘 리서치 디벨롭먼트 컴퍼니 오브 더 히브루 유니버시티 오브 예루살렘 Method and system for producing a video synopsis
KR20090117771A (en) 2007-02-01 2009-11-12 이섬 리서치 디벨러프먼트 컴파니 오브 더 히브루 유니버시티 오브 예루살렘 Method and system for video indexing and video synopsis
KR20100026631A (en) 2008-09-01 2010-03-10 부경대학교 산학협력단 Auto indexing and difference frame saving method of surveillance video using shot change detection technique in surveillance camera system
KR101213153B1 (en) * 2011-03-14 2012-12-18 삼성테크윈 주식회사 System and method for searching video data having simultaneous play function
KR20160128779A (en) * 2015-04-29 2016-11-08 (주)이지펙스 System and Method for Collecting Event-Related Moving Image

Similar Documents

Publication Publication Date Title
KR102290419B1 (en) Method and Appratus For Creating Photo Story based on Visual Context Analysis of Digital Contents
AU2010284736B2 (en) Metadata tagging system, image searching method and device, and method for tagging a gesture thereof
US10739958B2 (en) Method and device for executing application using icon associated with application metadata
US9270950B2 (en) Identifying a locale for controlling capture of data by a digital life recorder based on location
US10332561B2 (en) Multi-source video input
US11037604B2 (en) Method for video investigation
EP2735984A1 (en) Video query method, device and system
US10674183B2 (en) System and method for perspective switching during video access
US20200413001A1 (en) Information processing device and reproduction control method
KR20180058019A (en) The Apparatus For Searching Image And The Method For Storing Data And The Apparatus For Storing Data
CN109389088A (en) Video frequency identifying method, device, machinery equipment and computer readable storage medium
US7949208B2 (en) Monitor system, monitor device, search method, and search program
WO2021053689A1 (en) Methods and systems for managing storage of videos in a storage device
US20190082002A1 (en) Media file sharing method, media file sharing device, and terminal
CN106331606A (en) Multi-screen display system and method for video detection system
KR102223010B1 (en) Apparatus and Method for Providing Multi frame Image display searching technology Having Object Identifying Function
CN112949430A (en) Video processing method and device, storage medium and electronic equipment
CN115379136A (en) Special effect prop processing method and device, electronic equipment and storage medium
US20210312188A1 (en) Systems and methods for collecting video clip evidence from a plurality of video streams of a video surveillance system
CN113946254A (en) Content display method, device, equipment and medium
CN103514428A (en) Intelligent prompting device and method
US20140153836A1 (en) Electronic device and image processing method
WO2019082606A1 (en) Content management device, content management system, and control method
CN109286754A (en) Information processing method and electronic equipment
TW201322199A (en) Vehicle-locating system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant