KR20160099289A - Method and system for video search using convergence of global feature and region feature of image - Google Patents

Method and system for video search using convergence of global feature and region feature of image Download PDF

Info

Publication number
KR20160099289A
KR20160099289A KR1020150021566A KR20150021566A KR20160099289A KR 20160099289 A KR20160099289 A KR 20160099289A KR 1020150021566 A KR1020150021566 A KR 1020150021566A KR 20150021566 A KR20150021566 A KR 20150021566A KR 20160099289 A KR20160099289 A KR 20160099289A
Authority
KR
South Korea
Prior art keywords
person
unit
video
descriptor
moving object
Prior art date
Application number
KR1020150021566A
Other languages
Korean (ko)
Inventor
이규원
정건희
Original Assignee
대전대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대전대학교 산학협력단 filed Critical 대전대학교 산학협력단
Priority to KR1020150021566A priority Critical patent/KR20160099289A/en
Publication of KR20160099289A publication Critical patent/KR20160099289A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7335Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people

Abstract

Disclosed are a method and system for searching for a video by using global features of a video and local features of a moving object in an integrated manner. The system for searching for a video comprises: a moving object detection unit which detects a region corresponding to movement of a person from a photographed video; a tracking unit which tracks the detected region corresponding to the person; a prediction unit which predicts whether the tracked person is a new person or an existing person; a region unit which determines whether information of the movement of the person is included in nine regions; a moving object centroid processing unit which generates a connection list for the individual person when the person is recognized as a single person; a movement descriptor unit which generates a descriptor on a per-object basis based on the connection list; and a video search unit which searches for a video by comparing a trajectory input through a query with a trajectory described by the descriptor. Accordingly, provided is a method for searching a video, which is fast and highly accurate.

Description

영상의 전역 특징과 이동객체의 지역 특징을 융합한 동영상 검색 방법 및 그 시스템{Method and system for video search using convergence of global feature and region feature of image}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and a system for video retrieval,

본 발명은 비데오(동영상) 검색 방법 및 이를 위한 시스템에 관한 것이다. 보다 상세하게는 고정 카메라환경에서 사람을 검출하고 추적하여 생성되는 전체 영역에 대한 특징을 미리 지정한 개수(예컨대, 9개)의 영역에 포함되는 일부 특징만을 이용하여 기술(description)하고, 질의로 입력되는 궤적과 기술(description) 된 궤적을 비교하여 빠르고 정확도 높은 검색을 수행할 수 있는 방법 및 그 시스템에 관한 것이다.
The present invention relates to a video (video) retrieval method and a system therefor. More specifically, description is made using only some features included in a predetermined number (for example, nine) of the features of the entire area generated by detecting and tracking a person in the fixed camera environment, The present invention relates to a method and system for performing fast and accurate retrieval by comparing a trajectory with a trajectory that is described in detail.

비디오를 검색하는 기존의 방법은 비디오의 전체 영역에 대한 특징점을 기술(description) 하여 검색하는 방법과 비디오의 일부 영역에 대한 특징점을 기술(description) 하여 검색하는 방법 등이 있다. Conventional methods for searching video include a method of describing and searching for a minutiae of an entire area of a video and a method of describing minutiae points of a partial area of the video.

전자의 방법 중 비디오의 전체 영역에 대한 특징점을 기술(description) 하는 방법은 비디오 내에 존재하는 모든 부분을 특징으로 기술하여 비디오 검색의 정확도는 높지만 기술기(descriptor)를 생성하는 과정의 시간이 오래 걸리며, 기술기(descriptor) 데이터양 또한 방대하다는 문제점이 있다. 또한 일부 영역에 대한 특징점을 기술(description) 하는 방법은 기술기(descriptor) 생성 시간과 데이터의 양이 효율적이지만 비디오 검색에서 정확도가 떨어지는 문제점이 있다.
Among the former methods, the method of describing the minutiae of the entire area of the video characterizes all the parts existing in the video, so that the accuracy of the video retrieval is high, but the process of generating the descriptor takes a long time , And the amount of descriptor data is also large. In addition, the method of describing the minutiae points in some areas is problematic in that the descriptor generation time and amount of data are efficient but the accuracy of the video search is poor.

본 발명은 상기의 문제점을 개선하기 위하여 고안된 것으로, 고정 카메라환경에서 사람을 검출하고 추적하여 생성되는 전체 영역에 대한 특징을 미리 지정한 개수의 영역에 포함되는 일부 특징만을 이용하여 기술(description)하고, 질의로 입력되는 궤적과 기술(description) 된 궤적을 비교하여 빠르고 정확도 높은 비디오 검색 방법을 제공하는 것을 그 목적으로 한다.
SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide a method and apparatus for capturing and tracking a person in a fixed camera environment by describing a feature of an entire region generated using only some features included in a predetermined number of regions, The object of the present invention is to provide a fast and accurate video retrieval method by comparing the trajectory inputted with the query and the described trajectory.

상기의 기술적 과제를 해결하기 위한 본 발명에 따른 비데오 검색 방법은 촬영된 영상으로부터 사람의 움직임 영역을 검출하는 이동객체 검출부와, 검출된 사람영역을 추적하는 추적부, 추적되는 사람이 신규 사람인지 기존 사람인지 예측하는 예측부, 사람의 움직임 정보가 9개의 영역에 포함되는지 여부를 확인하는 영역부, 하나의 사람으로 인지하여 사람별 연결리스트를 생성하는 이동객체 무게중심 처리부, 연결리스트에 기반하면 객체별 기술기(descriptor)를 생성하는 움직임 기술기(descriptor)부, 질의로 입력되는 궤적과 기술(description)된 궤적을 비교하여 비디오를 검색하는 비디오 검색부를 포함하여, 빠르고 정확도 높은 비디오 검색 방법을 제공하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a video search method comprising: a moving object detection unit that detects a moving region of a person from a photographed image; a tracking unit that tracks a detected human region; A region unit for checking whether human motion information is included in nine regions, a moving object gravity center processing unit for generating a linked list of persons perceived as one person, A descriptor section for generating a descriptor for each descriptor, and a video search section for searching for a video by comparing the trajectory inputted with the query and the described trajectory, thereby providing a fast and accurate video search method .

또한, 상기 기술체계(descriptor scheme)는 입력되는 비디오의 전체 영역을 9-영역 위치부에서 9개의 영역으로 분할하여 영상의 전체적인 특징을 취득 한다. 특징을 취득하는 과정에서 이동객체 무게중심 처리부에서는 이동객체의 무게중심 좌표가 9개의 영역에 포함되는지 여부를 확인하여 포함되는 일부 좌표만을 가지고 최종 특징을 생성한다. 따라서 영상의 전역 특징 기술기(descriptor)의 장점과 지역 특징 기술기(descriptor)의 장점을 융합할 수 있다.
In addition, the descriptor scheme divides the entire area of the input video into nine areas in the 9-area location part to acquire the overall characteristics of the image. In the process of acquiring the feature, the moving object gravity center processing unit checks whether the gravity center coordinate of the moving object is included in the nine regions, and generates the final feature with only some coordinates included. Therefore, it is possible to combine the merits of global feature descriptors and local feature descriptors.

상기와 같이 이루어 지는 본 발명은, 고정카메라환경에서 사람검출 및 추적을 통한 기술기(descriptor) 설계로서 효율적으로 비디오 검색을 행할 수 있다. 또한 비디오 전체 영역의 특징점 기술(description)의 장점인 높은 검색 정확도와 일부 영역 특징점 기술(description)의 장점인 빠른 검색 처리속도를 융합하여 본 발명에서는 빠른 처리속도와 높은 정확도를 구현시킬 수 있다.
As described above, the present invention can efficiently perform video search as a descriptor design through human detection and tracking in a fixed camera environment. In addition, a fast processing speed and high accuracy can be realized in the present invention by blending the high search accuracy, which is an advantage of the feature point description of the entire video area, and the fast search processing speed, which is an advantage of some area feature point description.

도 1은 본 발명이 적용되는 고정형 카메라에서 사람 검출 및 추적 장치의 구성도
도 2는 본 발명에 따른 영상의 전역 특징과 이동객체의 지역 특징을 융합한 동영상 검색 기술기(descriptor) 설계의 흐름도
도 3은 비디오 내의 미리 지정한 9개의 특징점 생성 영역 개념도
도 4는 비디오의 전체 특징점 중 일부 특징인 이동객체의 무게중심 좌표 개념도
1 is a block diagram of a human detection and tracking apparatus in a fixed camera to which the present invention is applied
FIG. 2 is a flowchart of a moving picture descriptor design fusing a global feature of an image and a local feature of a moving object according to the present invention.
Fig. 3 is a view showing nine feature point generation area concept maps
Fig. 4 is a conceptual diagram of the center-of-gravity coordinates of a moving object,

상기 목적을 달성하기 위하여 본 발명은, 고정 카메라 환경에서 입력되는 비디오데이터로부터 배경학습을 이용하여 이동객체를 검출하고, 이동객체의 이전 장면(frame) 무게중심 좌표와 현재 장면(frame) 무게중심 좌표의 연관성을 이용하여 이동객체를 추적한다. 한 이동객체가 비디오에 출현하여 사라질 때까지의 움직임 정보와 이동객체가 출현했을 때의 장면(frame)과 사라졌을 때의 장면(frame)을 특징으로 하여 기술기(descriptor)를 생성한다. 질의가 입력되면 질의 궤적과 생성된 기술기(descriptor)의 궤적을 비교하여 비디오 검색을 한다. 이하 본 발명의 일 실시 예에 관하여 첨부 도면을 참조하면서 상세히 설명한다.According to an aspect of the present invention, there is provided a method for detecting a moving object using background learning from video data input in a fixed camera environment, To track the moving object. A descriptor is generated by characterizing motion information until a moving object appears and disappears in a video, a scene when the moving object appears and a frame when the moving object disappears. When a query is input, video search is performed by comparing the query trajectory with the generated trajectory of the descriptor. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명이 적용될 고정형 카메라에서 사람 검출 및 추적을 통한 특징점 기술기(descriptor) 설계 및 비디오 검색 구성도로 도면에서 1은 비디오 취득부 2는 이동객체 검출부, 3은 이동객체 추적부, 4는 비디오 검색부를 각각 나타낸다.FIG. 1 is a block diagram of a feature point descriptor design and video retrieval configuration in a fixed camera to which the present invention is applied. FIG. 1 is a block diagram of a moving object detection unit 2, a moving object tracking unit 3, And a video search unit, respectively.

도 1과 같이 구성된 사람 검출 및 추적을 통한 특징점 기술기(descriptor) 설계 및 비디오 검색 장치는 일반적으로 다음과 같이 동작한다.The feature point descriptor design and video search apparatus through person detection and tracking as shown in FIG. 1 generally operates as follows.

비디오 취득부(1)는, 일반적으로 사용되는 폐쇄회로 TV(CC-TV)혹은 CCD 카메라로서, 비디오 신호를 생성하여 이를 이동객체 검출부(2)으로 전달한다. 이동객체 검출부(2)는 배경학습을 통하여 이동객체를 검출하여, 이동객체 추적부(3)로 전달한다. 이동객체 추적부(3)는 객체의 이전 장면(frame) 무게중심 좌표와 현재 장면(frame) 무게중심 좌표의 연관성을 이용하여 동일한 객체인지 신규객체 인지 판별하여 추적하고 추적으로 얻어지는 무게중심 특징점과 객체의 출현 했을 때의 장면(frame)번호와 객체가 사라질 때의 장면(frame) 번호를 연결리스트에 저장하여 비디오 검색부(4)로 전달한다. 비디오 검색부(4)는 각 객체별 연결리스트를 기반으로 기술기(descriptor)를 생성한다. 생성된 기술기(descriptor)를 기반으로 질의가 입력되면 거리를 비교하여 최적의 검색을 응답한다.
The video acquisition unit 1 is a commonly used closed-circuit TV (CC-TV) or a CCD camera, and generates a video signal and transmits it to the moving object detection unit 2. The moving object detection unit 2 detects a moving object through background learning and transmits the detected moving object to the moving object tracking unit 3. The moving object tracking unit 3 determines whether the object is a new object or an identical object by using the coordinates of the center of gravity of the previous frame of the object and the coordinates of the center of gravity of the current scene, And transmits the frame number when the object disappears to the video search unit 4 by storing the frame number when the object disappears and the frame number when the object disappears. The video search unit 4 generates a descriptor based on the linked list for each object. When a query is input based on the generated descriptor, the distance is compared and an optimal search is answered.

도 2는 일 실시 예에 적용된 본 발명에 따른 사람 검출 및 추적을 통한 특징점 기술기(descriptor) 설계 및 비디오 검색 방법의 흐름도로서 도면에서 5 는 비디오 취득부이며, 6 은 배경학습부, 7 은 임계값 누적부, 8 은 이동객체 검출부, 9 는 사람 추적부, 10 은 움직임 파라미터부, 11 은 N 프레임 예측 부, 12 는 N-1 프레임 예측 부, 13 은 이동객체 무게중심처리부, 14 는 움직임 파라미터 갱신부, 15 는 미리설정된 9개의 영역 위치부, 16 은 이동객체 무게중심처리부, 17 은 움직임 디스크립터 생성부, 19 는 비디오 검색부를 나타낸다.FIG. 2 is a flowchart of a feature point descriptor design and video retrieval method through human detection and tracking according to an embodiment of the present invention applied to an embodiment. In FIG. 2, reference numeral 5 denotes a video acquisition unit, 6 denotes a background learning unit, Numeral 11 denotes an N-frame predictor, numeral 12 denotes an N-1 frame predictor, numeral 13 denotes a moving object center-of-gravity processing unit, numeral 14 denotes a motion parameter An update unit 15, nine preset area location units 16, a moving object weight center processing unit 17, a motion descriptor generating unit 19, and a video retrieving unit 19.

도 2 와 같이 구성된 사람 검출 및 추적을 통한 특징점 기술기(descriptor) 설계 및 비디오 검색 방법은 다음과 같이 동작한다.The feature point descriptor design and video search method through human detection and tracking as shown in FIG. 2 operates as follows.

비디오취득부(5)는 카메라가 고정된 환경에서 비디오를 취득하여, 배경학습부(6)로 보낸다. 배경학습부(6)는 입력되는 영상을 한 장면(frame)식 학습하여 평균 임계값을 구하고 임계값을 입계값 누적부(7)로 보낸다. 임계값 누적부(7)는 배경학습부(6)에서 넘어오는 임계값을 지속적으로 누적하여 누적된 임계값의 평균값을 이동객체 검출부(8)로 보낸다. 평균 임계값을 이용하여 이동객체 검출부(8)에서 배경과 이동객체를 분리하여 이동객체를 검출한다. 검출된 이동객체는 움직임 파라미터부(10)로 보낸다. 검출된 이동객체의 움직임 파라미터를 N 장면(frame) 예측부(11)와 N-1 장면(frame) 예측부(12)에서 검출된 이동객체의 무게중심 좌표를 이용하여 신규객체인지 기존객체인지 판별한다. 이동객체 무게중심 처리부(13)에서 이동객체의 무게중심 좌표판별이 이루어지면 움직임 파라미터 갱신부(14)와 9-영역 위치부(15)로 보낸다. 움직임 파라미터 갱신부(14)에서는 이전 움직임 파라미터를 처리하고 다음 움직임과 연결될 수 있도록 움직임 파라미터를 갱신한다. 9-영역 위치부(15)는 이동객체 무게중심 처리부(13)에서 넘어온 좌표값이 영역에 포함되는지 판별하여 포함되는 좌표만을 이용하여 이동객체 무게중심 처리부(16)으로 보낸다. 이동객체 무게중심 처리부(16)에서는 각 객체별의 움직임 정보를 연결리스트를 이용하여 객체별로 움직임 정보, 객체가 영상에 출현하는 장면(frame)번호, 객체가 영상에서 사라지는 장면(frame)을 번호를 저장한다. 움직임 기술기(descriptor)부(17)는 이동객체 무게중심 처리부(16)에서 넘겨받은 연결리스트를 기반으로 각 객체별 특징을 기술(description) 한다. 비디오 검색부(18)에서는 사용자의 질의를 입력받아 움직임 기술기(descriptor)부(17)에서 생성된 데이터와 비교하여 가장 근사한 영상부터 비슷한 영상을 응답으로 출력한다.The video acquisition unit 5 acquires video in an environment in which the camera is fixed and sends it to the background learning unit 6. [ The background learning unit 6 obtains an average threshold value by learning a frame type of the input image and sends the threshold value to the threshold value accumulation unit 7. The threshold value accumulating unit 7 continuously accumulates the threshold values passed from the background learning unit 6 and sends the average value of the accumulated threshold values to the moving object detecting unit 8. The moving object detection unit 8 detects the moving object by separating the background and the moving object using the average threshold value. The detected moving object is sent to the motion parameter unit (10). The motion parameter of the detected moving object is determined as a new object or an existing object by using the coordinates of the center of gravity of the moving object detected by the N-frame predictor 11 and the N-1 scene predictor 12 do. When the center of gravity coordinates of the moving object is determined in the moving object center-of-gravity processing unit 13, the moving object center-coordinate processing unit 13 sends it to the motion parameter updating unit 14 and the 9-region position unit 15. The motion parameter update unit 14 processes the previous motion parameter and updates the motion parameter so that it can be linked to the next motion. The 9-region location unit 15 determines whether the coordinate value passed from the moving object center-of-gravity processing unit 13 is included in the area and sends it to the moving object center-of-gravity processing unit 16 only using the coordinates. In the moving object center-of-gravity processing unit 16, motion information for each object is divided into motion information for each object, a frame number in which the object appears in the image, and a scene in which the object disappears from the image . The motion descriptor unit 17 describes the characteristics of each object on the basis of the link list passed from the moving object center-of-gravity processing unit 16. The video retrieval unit 18 receives the user's query and compares it with the data generated by the descriptor unit 17 to output a similar image as a response from the nearest image.

도 3은 입력되는 비디오의 전체영역을 9개의 영역으로 분할하여 전역적 특징을 취득하는 것을 말한다.FIG. 3 shows a case in which the entire area of the input video is divided into nine regions to obtain a global characteristic.

도 4는 입력되는 비디오에서 움직임이 있는 사람의 무게중심 좌표를 취득한다. 좌표를 취득할 때 좌표의 생성위치가 미리 설정한 9개의 영역에 포함되는지 확인하여 포함되는 일부 좌표를 최종 특징으로 기술(description)한다.
Fig. 4 shows the coordinates of the center of gravity of a person in motion in the input video. When obtaining the coordinates, it is confirmed whether or not the generation position of the coordinates is included in the nine preset areas, and some coordinates included are described as the final features.

Claims (2)

촬영된 영상으로부터 사람의 움직임 영역을 검출하는 이동객체 검출부와, 검출된 사람영역을 추적하는 추적부, 추적되는 사람이 신규 사람인지 기존 사람인지 예측하는 예측부, 사람의 움직임 정보가 9개의 영역에 포함되는지 여부를 확인하는 영역부, 하나의 사람으로 인지하여 사람별 연결리스트를 생성하는 이동객체 무게중심 처리부, 연결리스트에 기반하면 객체별 기술기(descriptor)를 생성하는 움직임 기술기(descriptor)부, 질의로 입력되는 궤적과 기술(description)된 궤적을 비교하여 비디오를 검색하는 비디오 검색부를 포함하여, 빠르고 정확도 높은 비디오 검색 방법을 제공하는 방법.
A moving object detection unit that detects a moving region of a person from the photographed image; a tracking unit that tracks the detected human region; a prediction unit that predicts whether the person being tracked is a new person or an existing person; A moving object weight center processor for generating a linked list according to a person and recognizing the person as a person; a motion descriptor unit for generating a descriptor for each object based on the linked list; And a video retrieval unit for retrieving the video by comparing the trajectory input with the query and the described trajectory.
제 1항에서 있어서, 상기 기술체계(descriptor scheme)는 입력되는 비디오의 전체 영역을 9-영역 위치부에서 9개의 영역으로 분할하여 영상의 전체적인 특징을 취득 한다. 특징을 취득하는 과정에서 이동객체 무게중심 처리부에서는 이동객체의 무게중심 좌표가 9개의 영역에 포함되는지 여부를 확인하여 포함되는 일부 좌표만을 가지고 최종 특징을 생성한다. 따라서 영상의 전역 특징 기술기(descriptor)의 장점과 지역 특징 기술기(descriptor)의 장점을 융합하는 방법
The descriptor scheme according to claim 1, wherein the descriptor scheme divides the entire area of the input video into nine regions in the 9-region location unit to obtain the overall characteristics of the image. In the process of acquiring the feature, the moving object gravity center processing unit checks whether the gravity center coordinate of the moving object is included in the nine regions, and generates the final feature with only some coordinates included. Therefore, it is necessary to combine the merits of the global feature descriptor and the local feature descriptor
KR1020150021566A 2015-02-12 2015-02-12 Method and system for video search using convergence of global feature and region feature of image KR20160099289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150021566A KR20160099289A (en) 2015-02-12 2015-02-12 Method and system for video search using convergence of global feature and region feature of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150021566A KR20160099289A (en) 2015-02-12 2015-02-12 Method and system for video search using convergence of global feature and region feature of image

Publications (1)

Publication Number Publication Date
KR20160099289A true KR20160099289A (en) 2016-08-22

Family

ID=56854812

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150021566A KR20160099289A (en) 2015-02-12 2015-02-12 Method and system for video search using convergence of global feature and region feature of image

Country Status (1)

Country Link
KR (1) KR20160099289A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109873987A (en) * 2019-03-04 2019-06-11 深圳市梦网百科信息技术有限公司 A kind of Target Searching Method and system based on monitor video
KR20190126366A (en) * 2017-12-13 2019-11-11 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Video recognition and training methods and devices, electronic devices and media
CN111651635A (en) * 2020-05-28 2020-09-11 拾音智能科技有限公司 Video retrieval method based on natural language description
KR102497399B1 (en) 2022-10-24 2023-02-08 (주)인포스텍 Image control system compatible object search method based on artificial intelligence technology

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190126366A (en) * 2017-12-13 2019-11-11 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Video recognition and training methods and devices, electronic devices and media
CN109873987A (en) * 2019-03-04 2019-06-11 深圳市梦网百科信息技术有限公司 A kind of Target Searching Method and system based on monitor video
CN111651635A (en) * 2020-05-28 2020-09-11 拾音智能科技有限公司 Video retrieval method based on natural language description
KR102497399B1 (en) 2022-10-24 2023-02-08 (주)인포스텍 Image control system compatible object search method based on artificial intelligence technology

Similar Documents

Publication Publication Date Title
KR102415632B1 (en) Information processing apparatus, information processing method, and storage medium
KR102560308B1 (en) System and method for exterior search
RU2546327C1 (en) Human tracking device, human tracking method and non-temporary computer-readable medium storing human tracking programme
US11887318B2 (en) Object tracking
US20150338497A1 (en) Target tracking device using handover between cameras and method thereof
CN107438173A (en) Video process apparatus, method for processing video frequency and storage medium
JP2018160219A (en) Moving route prediction device and method for predicting moving route
US9959651B2 (en) Methods, devices and computer programs for processing images in a system comprising a plurality of cameras
US11652978B2 (en) Depth map generation device
KR20160099289A (en) Method and system for video search using convergence of global feature and region feature of image
JP2010206405A (en) Image monitoring device
US11200683B2 (en) Image processing device and image processing method
US9256945B2 (en) System for tracking a moving object, and a method and a non-transitory computer readable medium thereof
JP2016085675A (en) Moving object tracking device
US20220004748A1 (en) Video display method, device and system, and video camera
KR102128319B1 (en) Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera
WO2020213099A1 (en) Object detection/tracking device, method, and program recording medium
JPWO2021095085A1 (en) Image processing equipment, image processing system, image processing method, and image processing program
JP2019096062A (en) Object tracking device, object tracking method, and object tracking program
JP2012212238A (en) Article detection device and stationary-person detection device
KR20220029946A (en) Apparatus, method and computer program for tracking object included in video
US20230098829A1 (en) Image Processing System for Extending a Range for Image Analytics
CN109000634B (en) Navigation object traveling route reminding method and system
JP2002027480A (en) Dynamic image processing method and apparatus thereof
CN112446355B (en) Pedestrian recognition method and people stream statistics system in public place

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination