WO2015178540A1 - 카메라간 핸드오버를 이용한 목표물 추적 장치 및 방법 - Google Patents
카메라간 핸드오버를 이용한 목표물 추적 장치 및 방법 Download PDFInfo
- Publication number
- WO2015178540A1 WO2015178540A1 PCT/KR2014/007424 KR2014007424W WO2015178540A1 WO 2015178540 A1 WO2015178540 A1 WO 2015178540A1 KR 2014007424 W KR2014007424 W KR 2014007424W WO 2015178540 A1 WO2015178540 A1 WO 2015178540A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- target
- prediction
- camera
- searched
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Definitions
- Embodiments of the present invention relate to a target tracking technique through an image.
- the conventional target tracking method is mainly a method in which a monitor person directly finds a target by visually observing video data of a suspected area and time zone.
- this method is dependent on the subjective judgment of the monitor personnel, there is a limitation in accuracy, and as the tracking range is widened, there is a problem that the time and cost of the entire search increase rapidly.
- Embodiments of the present invention are for effectively reducing the amount of computation and computation time in target tracking using a plurality of cameras.
- an input unit for receiving information of a target to search for; And a moving candidate point for each prediction model of the target from the inputted information, using two or more position prediction models, and comparing the calculated moving candidate points for each of the prediction models by moving the prediction points of the target.
- a target tracking device includes a prediction path calculator that determines a value.
- the information of the target may include one or more of an image of the target, an observation position of the target, an observation time, and a moving direction.
- the observation position of the target may be position information of a camera photographing the target.
- the movement prediction point of the target may be location information of a camera that is determined to be searched for the target.
- the prediction path calculator may derive one or more candidate camera information determined to be searched for the target from each of the two or more position prediction models, and compare one or more candidate camera information to determine the target to be searched. You can select a camera.
- the location prediction model may include at least one of a Hidden Marcov model (HMM), a Gaussian Mixture Model (GMM), a decision tree, or a location-based model.
- HMM Hidden Marcov model
- GMM Gaussian Mixture Model
- decision tree a location-based model.
- the prediction path calculator may select one or more cameras for determining that the target is to be searched by combining the two or more position prediction models using an ensemble model.
- the prediction path calculator may combine the two or more location prediction models by using a weighted majority voting method that applies different weights to each of the two or more location prediction models.
- the prediction path calculator may select one or more cameras that are determined to search for the target in consideration of one or more of the frequency of candidate cameras selected from each of the prediction models and weights of each preset prediction model.
- the apparatus may further include a determiner configured to determine whether the target exists from an image obtained from at least one camera selected by the prediction path calculator.
- the prediction path calculator may determine a camera from which the target is to be searched from the candidate camera information derived except for the selected camera. You can reselect.
- a target tracking method comprising the step of calculating the prediction path to determine.
- the information of the target may include at least one of an image of the target, an observation position of the target, an observation time, and a moving direction.
- the observation position of the target may be position information of a camera photographing the target.
- the movement prediction point of the target may be location information of a camera that is determined to be searched for the target.
- the predicting path calculating step may include deriving one or more candidate camera information from which the target is to be searched from each of the two or more position prediction models; And selecting one or more cameras in which the target object is determined to be searched by comparing the derived candidate camera information.
- the selecting of the one or more cameras may select one or more cameras in which the target is determined to be searched in consideration of one or more of the frequency of the candidate camera selected from each of the prediction models and a weight of each of the preset prediction models.
- the calculating of the prediction path may further include determining whether the target exists from an image obtained from at least one selected camera.
- the target camera is determined to be searched from the candidate camera information derived except for the selected camera. Can be reselected.
- FIG. 1 is a block diagram illustrating a configuration of another target tracking device 100 according to an embodiment of the present invention.
- FIG 2 is an exemplary view for explaining a path calculation process in the prediction path calculator 104 and the determiner 106 according to an embodiment of the present invention.
- FIG. 3 is an exemplary view illustrating an example of displaying a target tracking result on a screen according to an embodiment of the present invention.
- FIG. 4 is a flowchart illustrating a target tracking method 300 according to an embodiment of the present invention.
- FIG. 5 is a state transition diagram illustrating an example of data modeling for applying a hidden Markov model to a target in the prediction path calculator according to an embodiment of the present invention.
- FIG. 6 is an exemplary diagram for describing a direction of a symbol observed in each state in the state transition diagram illustrated in FIG. 5.
- the target tracking apparatus 100 effectively selects another camera to be searched to track the movement of the target when a target is detected by a specific camera in an area where a plurality of cameras are installed. It is an apparatus for doing so.
- the area where one camera can be photographed is limited, and a target such as a person or a vehicle moves continuously, so to track the movement of the target, the target is continuously maintained through handover between cameras in the region. It is necessary to observe.
- the target tracking device 100 is configured to track a specific target from a database (not shown) in which location information of a plurality of cameras in a specific region and image data obtained from each camera are stored, and the like. Examples are not necessarily limited thereto, and may be configured to track a specific target in real time using image information received in real time from a plurality of cameras in a specific region. That is, in the embodiment of the present invention, it is noted that the camera includes not only a physical camera such as a network camera and a CCTV, but also an image captured or acquired by the corresponding camera.
- the target tracking device 100 includes an input unit 102, the prediction path calculation unit 104, the determination unit 106 and the output unit 108.
- the input unit 102 receives information of a target to be searched from a user or the like.
- the target may be any kind of subject that can be recognized through a camera image such as a specific person, an animal, or a vehicle.
- the information of the target may include one or more of an image of the target, an observation position of the target, an observation time, and a moving direction.
- the user may select an image of a target to be searched from one frame of an image photographed by a specific camera in the search target area.
- the image of the target may be more easily identified by selecting an image capable of identifying the characteristics of the target, such as a face or dress of the target, in a subsequent target tracking process.
- the input unit 102 may provide an appropriate user interface for selecting a target on the screen, and the user may select a specific area on the screen through the user interface and separate a subject of the selected area from the background. Can be performed.
- the input unit 102 displays the image of the target obtained through the above operation together with information such as the shooting time of the frame, the shooting position (GPS location information of the target, etc.), and the moving direction of the target within the corresponding image.
- the prediction path calculator 104 searches for a point where the target is predicted to have moved from the first recognized point.
- the prediction path calculator 104 calculates a moving candidate point for each prediction model of the target from the inputted information by using two or more position prediction models, and calculates each of the calculated prediction models. And determine a movement prediction point of the target through comparison between movement candidate points.
- the movement prediction point of the target may be location information of a camera that is determined to be searched for the target.
- the camera's location information may include camera installation information (angle of view, IP address, image quality, installation location, etc.), camera product information (company name, model name, specifications, etc.), type (fixed or PTZ (Pan-Tilt-Zoom). ), The presence or absence of an infrared function, etc.). This will be described in more detail as follows.
- the prediction path calculator 104 may include a plurality of algorithm models for calculating a moving prediction point of the target from the information of the target obtained by the input unit 102. Also, in one embodiment, the prediction path calculator 104 may configure two or more position prediction models as an ensemble model. This can lead to more reliable and accurate results compared to using only one location prediction model result.
- the algorithm model may be, for example, a statistical based method such as a Hidden Marcov model (HMM), a Gaussian Mixture Model (GMM), a decision tree, etc. It could be a model, or something else.
- HMM Hidden Marcov model
- GMM Gaussian Mixture Model
- the prediction path calculator 104 may be configured to use an appropriate algorithm model among the above-described algorithm models in consideration of the movement direction pattern of the suspect (target) to be tracked.
- the selected algorithm models may be models that are robust to different movement direction patterns according to learning results.
- HMM is a statistical-based prediction model that predicts the next position of a target from sequential data based on time series. Therefore, if the pedestrian has a walking pattern moving in consideration of the shortest distance to the destination when moving to a specific point, the prediction result by the HMM will not deviate significantly from the direction of movement of the actual target (pedestrian).
- FIG. 5 is a state transition diagram illustrating an example of data modeling for applying a hidden Markov model to a target in the prediction path calculator according to an embodiment of the present invention.
- the state transition diagram shown is generated by learning the pedestrian trajectory data configured by the actual pedestrian transmitting GPS coordinates at 5 second intervals, and found three states of S1, S2, and S3.
- the arrows connecting each state are the probability of transitioning to the next state and the probability of pointing to itself.
- the symbols observed in each state are eight directions as shown in FIG. 6, and the probability of the symbols to be observed in each state is shown in Table 1 below.
- GMM is a statistical-based prediction model that generates a normal distribution for each different direction of movement to be observed in each state and predicts the next position based on this.
- the normal distribution for each state is not affected by the previous state, so it is better than HMM for prediction when the target turns rapidly or shows an irregular walking pattern with a reverse path.
- the combination in this ensemble model uses a voting scheme, which can be weighted majority voting rather than a simple majority voting scheme to vary the weighting weight for each model.
- the prediction path calculator 104 may combine an ensemble model through an Adaboost technique, which is a kind of boosting. Adaboost allows algorithmic models to produce complementary results, depending on the characteristics of the target, such as walking patterns.
- the prediction path calculator 104 substitutes the information of the target into each algorithm model to derive one or more candidate points for each algorithm, and selects a prediction point to search for the target by comparing or competing the derived candidate points. Will be decided.
- the prediction path calculator 104 may select one or more cameras that are determined to be searched for the target based on the frequency (selection number of each camera) of candidate cameras selected from each of the prediction models. In addition, when a weight for each prediction model is set according to an embodiment, the weight may be taken into consideration and reflected in the camera selection. In detail, the prediction path calculator 104 may determine a candidate point for searching for the target through voting between candidate points according to respective algorithm models.
- the prediction path calculator 104 may determine the movement prediction point of the target from candidate points derived from each algorithm model according to the majority rule. For example, in the above example, if the algorithm for selecting camera 3 as the best candidate point is 2, and the algorithm for selecting camera 2 is 1, camera 3 may be selected as the moving prediction point of the target according to the majority rule. have.
- the prediction path calculator 104 may assign weights for each crime or event type to each candidate point by using the results learned previously through the training data.
- the training data may be generated by a separate tester having a GPS transmitter and the like and transmitting the camera candidate points to the collection server at specific cycles.
- Such training data can be categorized differently depending on the propensity of the crime. For example, when considering a scenario of a crime involving a large crowd, such as a bombing, testers may be directed toward crowded squares or facilities. You can generate data while moving. As another example, when considering a scenario of a crime targeting a specific target such as robbery or rape, the tester may generate data while moving toward a rare alley or an entertainment center.
- the basic information of such data may be composed of latitude and longitude coordinates and a transmission time. Additional information may also include features such as the type of offender's clothing resulting from profiling. Therefore, by applying the weight according to the crime type, it is possible to select a more accurate prediction of the target movement.
- the prediction path calculator 104 may be configured to predict the movement of the target from the candidate points derived for each algorithm by applying various factors such as the accuracy of each algorithm in the previous step and the weight of each algorithm according to the characteristics of the target. have. For example, if the target is a murderer, it can be predicted that they will deliberately mix into the crowd to avoid investigation, or move to a crowded shopping center, subway, etc. in consideration of the second crime. Etc. are generally expected to be avoided. In addition, if the suspect is a child, the chances are high that she will move to a nearby government office, such as a police station or a fire station.
- the embodiments of the present invention are not limited to a specific method of drawing a final conclusion from the results of the plurality of algorithms, and the plurality of result values according to the plurality of algorithms such as the frequency, weight, priority, etc. as described above. Any method of drawing a final conclusion from can be used without limitation. That is, in the embodiment of the present invention "comparison" of the result value according to each algorithm should be interpreted to include all means for deriving a final conclusion from a plurality of different result values.
- the prediction path calculator 104 does not necessarily select one prediction point (camera), but selects a plurality of camera groups located in an area where the target is expected to move, or sequentially connects a plurality of cameras. It may be configured to select a prediction path.
- the determination unit 106 determines whether the target is present from an image obtained from at least one camera selected by the prediction path calculator 104. For example, when the target is a person, the determination unit 106 may determine whether a face similar to the target is found from the image by using a face recognition algorithm. In this case, it is a face recognition method that is robust to the outdoor environment, and has high detection and recognition rate under various outdoor environment conditions (lighting and color change according to time zone), robust to angle change according to occlusion and posture, and partial face recognition. matching) A recognition algorithm with a high recognition rate may be used. In addition, the feature of the person may be considered as a method for increasing the accuracy of the similarity for determining the target as well as the face recognition. In this case, size information, color information, speed information, and the like may be used.
- the prediction path calculator 104 determines that the target is searched for from the candidate camera information derived except for the selected camera. It may be configured to reselect the camera to be. For example, when the prediction path calculation unit 104 selects a camera by voting between algorithms, if it is determined that a target is not detected by the selected camera, the prediction path calculation unit 104 selects the camera that the algorithm has selected the second most. Can be selected (Camera 3 or Camera 6 in the example above).
- the prediction path calculator 104 searches for the movement prediction point of the target based on the newly found camera. This iteration is continued until the initial set time range or regional range is reached, or until no more candidates are found, and the target is predicted by linking the movement prediction points derived as a result of the search.
- the path can be derived.
- FIG 2 is an exemplary diagram for explaining a path calculation process in the prediction path calculator 104 and the determiner 106 according to an embodiment of the present invention.
- the prediction path calculator 104 calculates a next candidate point where the target is to be found for each algorithm by using a plurality of different algorithms (for example, three). If the result of three algorithms, two algorithms selected camera 15, the other algorithm 14 selected. In this case, the determination unit 106 selects the camera 15 predicted by the two algorithms as the next point, and searches for the presence of the target from the image of the camera.
- the prediction path calculator 104 calculates a new candidate point based on the camera 15, and the determination unit 106 selects one of them.
- parts indicated by hatched lines indicate cameras in which targets are found as a result of the above search, and arrows indicate movement paths of targets generated by connecting respective cameras.
- the output unit 108 displays the movement path of the target calculated by the prediction path calculator 104 and the determiner 106 on the screen. For example, as illustrated in FIG. 3, the output unit 108 outputs a moving path calculated by the prediction path calculator 104 and the determiner 106 on a map, or each point according to a user's selection. It may be configured to provide the user with the necessary information, such as playing the image of the star target is found.
- the dotted line represents the position of the camera in the region of interest
- the solid line represents candidate points for each algorithm
- the diagonally etched portion represents the actually selected movement prediction point
- the large large circle in the center represents a preset time range (e.g., For example, within 2 hours from the time of initial discovery, etc.) or regional coverage.
- the computation amount and the computation time in the target tracking can be drastically reduced. Will be.
- FIG. 4 is a flowchart illustrating a target tracking method 300 according to an embodiment of the present invention.
- the input unit 102 receives information of a target to be searched for.
- the information of the target may include one or more of an image of the target, an observation position of the target, an observation time, and a moving direction.
- the observation position of the target may be position information of a camera photographing the target.
- the prediction path calculator 104 calculates a moving candidate point for each prediction model of the target from the inputted information by using two or more position prediction models.
- the prediction path calculator 104 determines a movement prediction point of the target through comparison between movement candidate points for each prediction model calculated in operation 304.
- the movement prediction point of the target may be location information of a camera that is determined to be searched for the target. That is, in step 304, one or more candidate camera information that is determined to be searched for the target is derived from each of the two or more position prediction models, and in step 306, the target camera is determined by comparing the derived candidate camera information. One or more cameras will be selected. As described above, step 306 may be configured to select one or more cameras for which the target is to be searched based on the frequency of candidate cameras selected from each of the prediction models.
- the determination unit 106 searches for the presence or absence of the target from an image acquired from one or more selected cameras.
- the determination unit 106 determines whether a target exists in the image as a result of the search in operation 308. If a target is not found in the image as a result of the determination, the determination unit 106 returns to step 306 to reselect the moving prediction point of the target from the moving candidate points for each algorithm. Excluded from selection.
- the prediction path calculator 104 updates the reference position with the newly searched point (step 312), and repeats the step 304 or less from the updated reference position. To perform. The process is repeated until the initially set time range or region range is reached, or until no more candidates are found.
- an embodiment of the present invention may include a computer readable recording medium including a program for performing the methods described herein on a computer.
- the computer-readable recording medium may include program instructions, local data files, local data structures, etc. alone or in combination.
- the media may be those specially designed and constructed for the purposes of the present invention, or those conventionally available in the field of computer software.
- Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floppy disks, and ROM, RAM, flash memory, and the like.
- Hardware devices specifically configured to store and execute program instructions are included.
- Examples of program instructions may include high-level language code that can be executed by a computer using an interpreter as well as machine code such as produced by a compiler.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
카메라간 핸드오버를 이용한 목표물 추적 장치가 개시된다. 본 발명의 일 실시예에 따른 목표물 추적 장치는 탐색하고자 하는 목표물의 정보를 입력받는 입력부; 및 둘 이상의 위치 예측 모델을 이용하여, 입력된 상기 정보로부터 상기 목표물의 각 예측 모델 별 이동 후보 지점을 계산하고, 계산된 상기 각 예측 모델 별 이동 후보 지점들 간의 비교를 통하여 상기 목표물의 이동 예측 지점을 결정하는 예측 경로 산출부를 포함한다.
Description
본 발명의 실시예들은 영상을 통한 목표물 추적 기술과 관련된다.
CCTV 등이 일반화되면서, 용의자 또는 용의 차량 등의 이동 경로를 추적하기 위하여 비디오 데이터를 이용하는 경우가 증가하고 있다. 종래의 목표물 추적 방법은 주로 모니터 요원이 직접 의심 지역 및 시간대의 비디오 데이터를 육안으로 모두 관찰하여 목표물을 찾아내는 방식이었다. 그러나 이와 같은 방식은 모니터 요원의 주관적인 판단에 의존하는 방식이어서 정확성에 한계가 있을 뿐만 아니라, 추적 범위가 넓어질수록 전체 검색에 따른 시간 및 비용이 급격히 증가하는 문제가 있었다.
이와 같은 문제를 해결하기 위하여 영상에서 특정 인물 등을 추적하는 다양한 트래킹 방법들이 제안되었다. 그러나 종래의 방법들은 대부분 하나의 영상 내에서 특정 목표물의 존재 여부를 검출하기 위한 방법들이어서, 다수의 카메라로부터 수집된 영상으로부터 효과적으로 목표물을 추적하는 데에는 한계가 있었다.
본 발명의 실시예들은 복수의 카메라를 이용한 목표물 추적에 있어서의 연산량 및 연산 시간을 효과적으로 감소시키기 위한 것이다.
본 발명의 예시적인 실시예에 따르면, 탐색하고자 하는 목표물의 정보를 입력받는 입력부; 및 둘 이상의 위치 예측 모델을 이용하여, 입력된 상기 정보로부터 상기 목표물의 각 예측 모델 별 이동 후보 지점을 계산하고, 계산된 상기 각 예측 모델 별 이동 후보 지점들 간의 비교를 통하여 상기 목표물의 이동 예측 지점을 결정하는 예측 경로 산출부를 포함하는 목표물 추적 장치가 제공된다.
상기 목표물의 정보는, 상기 목표물의 이미지, 상기 목표물의 관측 위치 관측 시각 및 이동 방향 중 하나 이상을 포함할 수 있다.
상기 목표물의 관측 위치는, 상기 목표물을 촬영한 카메라의 위치 정보일 수 있다.
상기 목표물의 이동 예측 지점은, 상기 목표물이 검색될 것으로 판단되는 카메라의 위치 정보일 수 있다.
상기 예측 경로 산출부는, 상기 둘 이상의 위치 예측 모델 각각으로부터 상기 목표물이 검색될 것으로 판단되는 후보 카메라 정보를 하나 이상 도출하고, 도출된 상기 후보 카메라 정보를 비교하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택할 수 있다.
상기 위치 예측 모델은, 히든 마르코프 모델(Hidden Marcov model; HMM), 가우시안 믹스쳐 모델(Gaussian Mixture Model; GMM), 디시젼 트리(Decision Tree) 또는 위치 기반 모델 중 하나 이상을 포함할 수 있다.
상기 예측 경로 산출부는, 상기 둘 이상의 위치 예측 모델을 앙상블 모델을 이용하여 결합함으로써 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택할 수 있다.
상기 예측 경로 산출부는, 상기 둘 이상의 위치 예측 모델 별로 각각 다른 가중치를 적용하는 가중 다수 투표 방식(weighted majority voting)을 이용하여 상기 둘 이상의 위치 예측 모델을 결합할 수 있다.
상기 예측 경로 산출부는, 상기 각 예측 모델로부터 선택된 후보 카메라의 빈도수 및 기 설정된 각 예측 모델 별 가중치 중 하나 이상을 고려하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택할 수 있다.
상기 장치는, 상기 예측 경로 산출부에서 선택된 하나 이상의 카메라로부터 획득된 영상으로부터 상기 목표물의 존재 여부를 판단하는 판단부를 더 포함할 수 있다.
상기 예측 경로 산출부는, 상기 선택된 하나 이상의 카메라로부터 획득된 영상에 상기 목표물이 존재하지 않는 것으로 판단되는 경우, 상기 선택된 카메라를 제외하고 도출된 상기 후보 카메라 정보로부터 상기 목표물이 검색될 것으로 판단되는 카메라를 재선택할 수 있다.
본 발명의 다른 예시적인 실시예에 따르면, 탐색하고자 하는 목표물의 정보를 입력받는 단계; 및 둘 이상의 위치 예측 모델을 이용하여, 입력된 상기 정보로부터 상기 목표물의 각 예측 모델 별 이동 후보 지점을 계산하고, 계산된 상기 각 예측 모델 별 이동 후보 지점들 간의 비교를 통하여 상기 목표물의 이동 예측 지점을 결정하는 예측 경로 산출 단계를 포함하는 목표물 추적 방법이 제공된다.
상기 목표물의 정보는, 상기 목표물의 이미지, 상기 목표물의 관측 위치, 관측 시각 및 이동 방향 중 하나 이상을 포함할 수 있다.
상기 목표물의 관측 위치는, 상기 목표물을 촬영한 카메라의 위치 정보일 수 있다.
상기 목표물의 이동 예측 지점은, 상기 목표물이 검색될 것으로 판단되는 카메라의 위치 정보일 수 있다.
상기 예측 경로 산출 단계는, 상기 둘 이상의 위치 예측 모델 각각으로부터 상기 목표물이 검색될 것으로 판단되는 후보 카메라 정보를 하나 이상 도출하는 단계; 및 도출된 상기 후보 카메라 정보를 비교하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택하는 단계를 더 포함할 수 있다.
상기 하나 이상의 카메라를 선택하는 단계는, 상기 각 예측 모델로부터 선택된 후보 카메라의 빈도수 및 기 설정된 각 예측 모델 별 가중치 중 하나 이상을 고려하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택할 수 있다.
상기 예측 경로 산출 단계는, 선택된 하나 이상의 카메라로부터 획득된 영상으로부터 상기 목표물의 존재 여부를 판단하는 단계를 더 포함할 수 있다.
상기 예측 경로 산출 단계는, 상기 선택된 하나 이상의 카메라로부터 획득된 영상에 상기 목표물이 존재하지 않는 것으로 판단되는 경우, 상기 선택된 카메라를 제외하고 도출된 상기 후보 카메라 정보로부터 상기 목표물이 검색될 것으로 판단되는 카메라를 재선택할 수 있다.
본 발명의 실시예들에 따르면, 복수의 카메라들을 이용하여 특정 지역 내에서 목표물을 추적함에 있어 해당 지역의 모든 카메라 영상을 대상으로 탐색을 수행하는 것이 아니라 목표물의 이동할 것으로 예측되는 지점의 카메라만을 탐색하게 되므로, 목표물 탐색에 있어서의 연산량 및 연산 시간을 비약적으로 줄일 수 있다.
도 1은 본 발명의 일 실시예에 다른 목표물 추적 장치(100)의 구성을 설명하기 위한 블록도
도 2는 본 발명의 일 실시예에 따른 예측 경로 산출부(104) 및 판단부(106)에서의 경로 계산 과정을 설명하기 위한 예시도
도 3은 본 발명의 일 실시예에 따른 목표물 추적 결과를 화면 상에 디스플레이하는 예를 나타낸 예시도
도 4는 본 발명의 일 실시예에 따른 목표물 추적 방법(300)을 설명하기 위한 흐름도
도 5는 본 발명의 일 실시예에 따른 예측 경로 산출부에서 히든 마르코프 모델을 목표물에 적용하기 위한 데이터 모델링의 일례를 나타낸 상태 전이도
도 6은 도 5에 도시된 상태 전이도에서 각 상태에서 관측되는 심볼의 방향을 설명하기 위한 예시도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 본 발명의 일 실시예에 다른 목표물 추적 장치(100)의 구성을 설명하기 위한 블록도이다. 본 발명의 일 실시예에 따른 목표물 추적 장치(100)는 복수 개의 카메라가 설치된 지역(area) 내의 특정 카메라에 목표물이 감지되었을 경우, 상기 목표물의 이동을 추적하기 위하여 탐색하여야 할 다른 카메라를 효과적으로 선택하기 위한 장치이다. 일반적으로 하나의 카메라가 촬영 가능한 영역은 한정되어 있고, 사람 또는 자동차 등의 목표물은 지속적으로 이동하게 되므로, 목표물의 이동을 추적하기 위해서는 해당 지역 내의 카메라들 간의 핸드오버(handover)를 통하여 목표물을 지속적으로 관찰할 필요가 있다. 일 실시예에서, 목표물 추적 장치(100)는 특정 지역 내 복수 개의 카메라의 위치 정보 및 각각의 카메라로부터 획득된 영상 데이터가 저장된 데이터베이스(미도시) 등으로부터 특정 목표물을 추적하도록 구성되나 본 발명의 실시예들은 반드시 이에 한정되는 것은 아니며, 특정 지역 내 복수 개의 카메라들로부터 실시간으로 수신되는 영상 정보를 이용하여 특정 목표물을 실시간으로 추적하도록 구성될 수도 있다. 즉, 본 발명의 실시예에서 카메라는 네트워크 카메라, CCTV 등의 물리적 카메라 뿐만 아니라 해당 카메라에서 촬영 또는 획득한 영상 또한 포함하는 의미임을 유의한다.
도시된 바와 같이, 본 발명의 일 실시예에 따른 목표물 추적 장치(100)는 입력부(102), 예측 경로 산출부(104), 판단부(106) 및 출력부(108)를 포함한다.
입력부(102)는 사용자 등으로부터 탐색하고자 하는 목표물의 정보를 입력받는다. 전술한 바와 같이, 본 발명의 실시예들에서 상기 목표물은 특정 사람, 동물 또는 차량 등 카메라 영상을 통하여 인식 가능한 모든 종류의 피사체가 될 수 있다. 또한 상기 목표물의 정보는, 상기 목표물의 이미지, 상기 목표물의 관측 위치, 관측 시각 및 이동 방향 중 하나 이상을 포함할 수 있다.
일 실시예에서, 사용자는 탐색 대상 지역 내의 특정 카메라로부터 촬영된 영상의 일 프레임으로부터 탐색하고자 하는 목표물의 이미지를 선택할 수 있다. 이때 상기 목표물의 이미지는 상기 목표물의 얼굴이나 복장 등 해당 목표물의 특징을 잘 식별할 수 있는 이미지를 선택함으로써 이후의 목표물 추적 과정에서 목표물의 식별을 좀 더 용이하도록 할 수 있다. 이를 위하여 입력부(102)는 화면 상에서 목표물을 선택하기 위한 적절한 사용자 인터페이스를 제공할 수 있으며, 사용자는 상기 사용자 인터페이스를 통하여 화면 상의 특정 영역을 선택하고, 선택된 영역의 피사체를 배경과 분리하는 등의 작업을 수행할 수 있다. 입력부(102)는 상기와 같은 작업을 통해 획득된 목표물의 이미지를 해당 프레임의 촬영 시각, 촬영 위치(해당 목표물을 촬영한 GPS 위치 정보 등), 해당 영상 내에서 목표물의 이동 방향 등의 정보와 함께 저장하도록 구성될 수 있다.
예측 경로 산출부(104)는 목표물이 최초 인식된 지점에서 이동했을 것으로 예측되는 지점을 탐색한다. 본 발명의 일 실시예에서 예측 경로 산출부(104)는 둘 이상의 위치 예측 모델을 이용하여, 입력된 상기 정보로부터 상기 목표물의 각 예측 모델 별 이동 후보 지점을 계산하고, 계산된 상기 각 예측 모델 별 이동 후보 지점들 간의 비교를 통하여 상기 목표물의 이동 예측 지점을 결정하도록 구성된다. 이때 상기 목표물의 이동 예측 지점은, 상기 목표물이 검색될 것으로 판단되는 카메라의 위치 정보일 수 있다. 또한, 상기 카메라의 위치 정보는 카메라의 설치 정보(화각, IP 주소, 화질, 설치 위치 등), 카메라의 제품 정보(회사명, 모델명, 사양 등), 유형(고정형 또는 PTZ(Pan-Tilt-Zoom), 적외선 기능 유무 등) 등의 정보를 포함하는 개념일 수 있다. 이를 좀 더 상세히 설명하면 다음과 같다.
예측 경로 산출부(104)는 입력부(102)에서 획득한 목표물의 정보로부터 목표물이 이동 예측 지점을 계산하기 위한 복수 개의 알고리즘 모델을 포함할 수 있다. 또한, 일 실시예에서 예측 경로 산출부(104)는 둘 이상의 위치 예측 모델을 앙상블 모델로 구성할 수 있다. 이를 이용하면 하나의 위치 예측 모델 결과만을 이용할 때와 비교하여 더욱 신뢰도 및 정확도가 높은 결과를 이끌어 낼 수 있기 때문이다.
상기 알고리즘 모델은, 예를 들어 히든 마르코프 모델(Hidden Marcov model; HMM), 가우시안 믹스쳐 모델(Gaussian Mixture Model; GMM), 디시젼 트리(Decision Tree) 등과 같은 통계적 기반 방법일 수 있고, 단순한 위치 기반 모델 일수도 있으며, 그 외에 다른 방법일 수도 있다. 다시 말해 본 발명의 실시 예들은 특정 알고리즘 모델에 한정되는 것은 아니다. 즉, 예측 경로 산출부(104)는 추적 대상 용의자(목표물)의 이동 방향 패턴 등을 고려하여 전술한 알고리즘 모델들 중에서 적정한 알고리즘 모델을 이용하도록 구성될 수 있다. 이때 선택된 알고리즘 모델들은 학습 결과에 따라 각각 서로 상이한 이동 방향 패턴에 강인한 모델이 될 수 있을 것이다.
상기 알고리즘 모델들 중 하나인 HMM의 경우 시계열을 기반으로 하는 순차 데이터로부터 목표물의 다음 위치를 예측하는 통계기반 예측 모델이다. 따라서 보행자가 특정 지점으로 이동할 때 목적지까지의 최단거리를 염두에 두고 이동하는 보행 패턴을 가질 경우 경우, HMM에 의한 예측 결과는 실제 목표물(보행자)의 이동 방향에서 크게 벗어나지 않을 것이다.
도 5는 본 발명의 일 실시예에 따른 예측 경로 산출부에서 히든 마르코프 모델을 목표물에 적용하기 위한 데이터 모델링의 일례를 나타낸 상태 전이도이다. 도시된 상태 전이도는 실제 보행자가 5초 간격으로 GPS 좌표를 송신하여 구성한 보행자 이동 경로(trajectory) 데이터 학습을 통해 생성한 것으로써, 학습한 결과로 찾은 상태는 S1, S2, S3 세 개이다. 각 상태를 연결하는 화살표는 다음 상태로 전이될 확률 및 자기 자신을 가리킬 확률이다. 각 상태에서 관측되는 심볼은 도 6에 도시된 바와 같은 8개의 방향이며, 각 상태에서 관측될 심볼의 확률은 아래 표 1과 같다.
또한, GMM의 경우 각 상태에서 관측될 서로 다른 이동 방향에 대한 정규분포를 각각 생성하고 이를 바탕으로 다음 위치를 예측하는 통계기반 예측 모델이다. 이 모델의 경우 각 상태에 대한 정규분포가 이전 상태로부터의 영향을 받지 않으므로 목표물이 급격히 방향을 튼다던가, 거꾸로 경로를 바꾸어 가는 불규칙한 보행 패턴을 보일 경우의 예측에 있어 HMM보다 적합하다.
이와 같이 여러 위치 예측 알고리즘 모델들은 각각의 특징 및 장단점이 존재하는 바, 복수 개의 알고리즘 모델을 앙상블 모델로 구성할 경우 바이어스(bias)를 분산할 수 있고, local optimum(지역 최적점)의 한계를 극복할 수 있다. 따라서 하나의 알고리즘 모델을 통해 생성한 결과보다 더 높은 정확도를 낼 수 있다. 일 실시예에서, 이러한 앙상블 모델에서의 결합은 투표(voting) 방식을 사용하는데, 단순한 다수 투표 방식이 아닌 가중 다수 투표 방식(weighted majority voting)을 사용하여 모델 별 가중치 비중을 다르게 둘 수 있다. 전술한 바와 같이 특정 보행 패턴 등 목표물의 특성에 따라 더 적합한 알고리즘이 존재하므로 그에 따라 가중치를 다르게 가져가는 것이다. 예를 들어 예측 경로 산출부(104)는 부스팅(boosting)의 일종인 Adaboost 기법을 통해 앙상블 모델을 결합할 수 있다. Adaboost를 사용할 경우 보행 패턴 등의 목표물의 특성에 따라 알고리즘 모델들이 상호 보완적인 결과를 낼 수 있게 된다.
예측 경로 산출부(104)는 상기 목표물의 정보를 각각의 알고리즘 모델에 대입하여 각 알고리즘별로 하나 이상의 후보 지점을 도출하고, 도출된 후보 지점들 간의 비교 또는 경합을 통하여 상기 목표물을 탐색할 예측 지점을 결정하게 된다.
일 실시예에서, 예측 경로 산출부(104)는, 상기 각 예측 모델로부터 선택된 후보 카메라의 빈도수(각 카메라 별 선택 회수)를 기반으로 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택할 수 있다. 또한, 실시예에 따라 각 예측 모델 별 가중치 등이 설정되어 있는 경우에는 이를 함께 고려하여 상기 카메라 선택에 반영할 수 있다. 구체적으로 예측 경로 산출부(104)는 각각의 알고리즘 모델들에 따른 후보 지점들 간의 투표(voting)을 통하여 상기 목표물을 탐색할 후보 지점을 결정할 수 있다. 예를 들어 현재 목표물이 발견된 지점의 카메라와 인접한 카메라가 1번부터 6번까지 6개 존재하고, 3개의 서로 다른 알고리즘 모델에 따른 분석 결과 알고리즘 모델 1번에서는 후보 지점으로서 카메라 1, 3, 5번의 결과를, 알고리즘 모델 2번에서는 카메라 3, 5, 6번의 결과를, 알고리즘 모델 3번에서는 4, 5, 6번의 결과가 나왔다고 가정하자. 이 경우 6개의 카메라 중 5번 카메라의 득표 수가 3으로 가장 높으므로 예측 경로 산출부(104)는 5번 지점(카메라)를 우선적으로 목표물의 이동 예측 지점으로 결정한다.
다른 실시예에서, 예측 경로 산출부(104)는 다수결의 원칙에 따라 각 알고리즘 모델들로부터 도출된 후보 지점으로부터 목표물의 이동 예측 지점을 결정할 수 있다. 예를 들어 상기 예에서 3번 카메라를 최적의 후보 지점으로 선택한 알고리즘이 2개, 2번 카메라를 선택한 알고리즘이 1일 경우에는 다수결의 원칙에 따라 3번 카메라가 목표물의 이동 예측 지점으로 선택될 수 있다.
또 다른 실시예에서, 예측 경로 산출부(104)는 트레이닝 데이터를 통해 선행 학습된 결과를 활용하여 각 후보 지점에 범죄 혹은 사건 유형 별 가중치를 부여할 수 있다. 구체적으로 트레이닝 데이터는 별도의 테스터가 GPS발신 장치 등을 소지하고 카메라 후보 지점들을 이동하면서 특정 주기로 수집 서버에 송신하여 생성할 수 있다. 이러한 트레이닝 데이터는 범죄 성향에 따라 다르게 카테고리를 생성할 수 있는데, 하나의 예로써 폭탄테러와 같은 다수의 군중을 대상으로 하는 범죄의 시나리오를 고려하는 경우, 사람이 많이 몰리는 광장이나 시설 방향으로 테스터가 이동하면서 데이터를 생성할 수 있다. 또 다른 예로써 강도, 강간 등 특정 대상자를 대상으로 한 범죄의 시나리오를 고려하는 경우, 인적이 드문 골목이나 유흥업소 밀집 지역 방향 등으로 테스터가 이동하면서 데이터를 생성할 수 있다. 이러한 데이터의 기본 정보는 위도 및 경도 좌표와 발신 시간 등으로 구성될 수 있다. 또한 추가 정보로 프로파일링에 따른 범죄자의 복장 유형 등의 특징을 삽입할 수도 있다. 따라서 범죄 유형에 따른 가중치를 고려하여 적용함으로써 더 정확한 목표물의 이동 예측 지점을 선택할 수 있다.
이 외에도, 예측 경로 산출부(104)는 이전 단계에서의 알고리즘 별 정확도, 목표물의 특성에 따른 알고리즘 별 가중치 등 다양한 요소들을 적용하여 각 알고리즘 별로 도출된 후보 지점으로부터 목표물의 이동을 예측하도록 구성될 수 있다. 예를 들어 목표물이 살인을 저지른 범죄자라면 수사를 피하기 위해서 군중 속으로 고의적으로 섞인다거나 2차 범죄를 고려하여 인구가 많이 밀집하는 쇼핑센터, 지하철 등으로 이동 할 것으로 예측 가능하고, 경찰서, 소방서 등 관공서 등은 대체로 피할 것으로 예측된다. 또한 용의자가 미아라면 경찰서, 소방서 등 근처 관공서 위주로 이동할 가능성이 크고, 시외 교통수단을 이용할 가능성은 적어 보인다. 즉 후보 탐색 지점 주변에 위치한 교통시설, 관공서, 쇼핑 센터 등 특정 거점에 대해서, 용의자의 유형에 따라 가중치를 부여한다면 후보 선정에 있어 더 높은 정확도를 기대 할 수 있다. 다시 말해, 본 발명의 실시예들은 복수 개의 알고리즘에 따른 결과로부터 최종적인 결론을 도출해내는 특정 방법에 제한되는 것은 아니며, 전술한 바와 같은 빈도수, 가중치, 우선 순위 등 복수 개의 알고리즘에 따른 복수 개의 결과값으로부터 최종 결론을 도출하는 방법이라면 제한 없이 사용될 수 있다. 즉, 본 발명의 실시예에서 각 알고리즘에 따른 결과값의 "비교"는 복수 개의 서로 다른 결과값으로부터 최종 결론을 도출하는 모든 수단들을 포함하는 의미로 해석되어야 한다.
또한, 예측 경로 산출부(104)는 반드시 하나의 예측 지점(카메라)을 선택할 필요는 없으며, 목표물이 이동할 것으로 예측되는 지역에 위치한 복수 개의 카메라 그룹을 선택하거나, 또는 복수 개의 카메라를 순차적으로 연결한 예측 경로를 선택도록 구성될 수도 있다.
판단부(106)는 예측 경로 산출부(104)에서 선택된 하나 이상의 카메라로부터 획득된 영상으로부터 상기 목표물의 존재 여부를 판단한다. 예를 들어, 상기 목표물이 사람일 경우 판단부(106)는 얼굴 인식 알고리즘을 이용하여 상기 영상으로부터 상기 목표물과 유사한 얼굴이 발견되는지의 여부를 판단할 수 있다. 이 경우에는 실외 환경에 강인한 얼굴 인식 방법으로써, 다양한 실외 환경 조건(조명, 시간대에 따른 색상 변화)에서의 검출 및 인식률이 높고, occlusion, 자세 등에 따른 각도 변화에 강인하며, 부분 얼굴 인식(partial face matching) 인식률이 높은 인식 알고리즘이 사용될 수 있다. 도한 얼굴 인식과 함께 목표물임을 판단하기 위한 유사도의 정확도를 더 높이기 위한 방법으로 인물의 피처(feature)도 고려해 볼 수 있다. 이때 상기 feature는 크기 정보, 색상 정보, 속도 정보 등이 사용 될 수 있다.
예측 경로 산출부(104)는, 상기 선택된 하나 이상의 카메라로부터 획득된 영상에 상기 목표물이 존재하지 않는 것으로 판단되는 경우, 상기 선택된 카메라를 제외하고 도출된 상기 후보 카메라 정보로부터 상기 목표물이 검색될 것으로 판단되는 카메라를 재선택하도록 구성될 수 있다. 예를 들어 예측 경로 산출부(104)가 알고리즘간의 투표에 의하여 카메라를 선택하는 경우, 만약 선택된 카메라에서 목표물이 검출되지 않는다고 판단되면 예측 경로 산출부(104)는 각 알고리즘이 2번째로 많이 선택한 카메라를 선택할 수 있다(전술한 예의 경우 카메라 3 또는 카메라 6).
또한, 이와 달리 판단부(106)이 판단 결과 예측 지점의 카메라로부터 목표물이 실제로 발견되는 경우, 예측 경로 산출부(104)는 새로 발견된 카메라를 기준으로 목표물의 이동 예측 지점 탐색을 다시 수행한다. 이러한 반복은 최초 설정한 시간 범위 또는 지역 범위에 도달할 때까지, 혹은 더 이상 용의자가 검색되는 후보가 나타나지 않을 때까지 계속 수행되며, 상기 탐색의 결과 도출된 이동 예측 지점들을 연결함으로써 목표물의 이동 예측 경로를 도출할 수 있게 된다.
도 2는 본 발명의 일 실시예에 따른 예측 경로 산출부(104) 및 판단부(106)에서의 경로 계산 과정을 설명하기 위한 예시도이다. 도시된 바와 같이, 카메라 1부터 카메라 20까지 20개의 카메라가 각각 배치되고, 최초로 카메라 20에서 목표물이 발견되었다고 가정하자. 이 경우 예측 경로 산출부(104)는 서로 다른 복수 개(예를 들어, 3개)의 서로 다른 알고리즘을 이용하여 각 알고리즘 별로 상기 목표물이 발견될 다음 후보 지점을 계산한다. 만약 3개의 알고리즘에 따른 결과 두 개의 알고리즘이 카메라 15를, 나머지 하나의 알고리즘이 14를 선택하였다고 가정하자. 이 경우 판단부(106)는 2개의 알고리즘이 예측한 카메라 15를 다음 지점으로 선택하고, 해당 카메라의 영상으로부터 목표물의 존재를 탐색한다. 만약 상기 탐색 결과 카메라 15에서 목표물이 발견된 경우, 예측 경로 산출부(104)는 카메라 15를 기준으로 새로운 후보 지점을 계산하고, 판단부(106)는 이 중 하나를 선택하게 된다. 도시된 도면에서 빗금으로 표현된 부분은 위와 같은 과정에 의한 탐색 결과 목표물이 발견된 카메라를, 화살표는 각 카메라를 연결함으로써 생성되는 목표물의 이동 경로를 각각 나타낸다.
출력부(108)는 예측 경로 산출부(104) 및 판단부(106)에 의하여 산출된 목표물의 이동 경로를 화면 상에 디스플레이한다. 예를 들어, 출력부(108)는 도 3에 도시된 바와 같이 예측 경로 산출부(104) 및 판단부(106)에 의하여 산출된 이동 경로를 지도 상에 출력하거나, 사용자의 선택에 따라 각 지점 별 목표물이 발견된 영상을 재생하는 등 사용자에게 필요한 정보를 제공하도록 구성될 수 있다. 도시된 실시예에서, 점선은 관심 영역 내의 카메라의 위치를, 실선은 각 알고리즘별 후보 지점을, 사선으로 에칭된 부분은 실제로 선택된 이동 예측 지점을, 중앙의 큰 원은 기 설정된 시간 범위(예를 들어, 최초 발견시로부터 2시간 이내 등) 또는 지역 범위를 의미한다.
이러한 본 발명의 실시예들에 따를 경우, 목표물의 이동 경로 탐색을 위해 특정 지역의 모든 카메라를 탐색할 필요 없이 후보 예측 지점만 탐색하게 되므로, 목표물 추적에 있어서의 연산량 및 연산 시간을 비약적으로 줄일 수 있게 된다.
도 4는 본 발명의 일 실시예에 따른 목표물 추적 방법(300)을 설명하기 위한 흐름도이다.
단계 302에서, 입력부(102)는 탐색하고자 하는 목표물의 정보를 입력받는 다. 상기 목표물의 정보는, 상기 목표물의 이미지, 상기 목표물의 관측 위치 관측 시각 및 이동 방향 중 하나 이상을 포함할 수 있다. 또한 상기 목표물의 관측 위치는, 상기 목표물을 촬영한 카메라의 위치 정보일 수 있다.
단계 304에서, 예측 경로 산출부(104)는 둘 이상의 위치 예측 모델을 이용하여, 입력된 상기 정보로부터 상기 목표물의 각 예측 모델 별 이동 후보 지점을 계산한다.
단계 306에서, 예측 경로 산출부(104)는 상기 304 단계에서 계산된 상기 각 예측 모델 별 이동 후보 지점들 간의 비교를 통하여 상기 목표물의 이동 예측 지점을 결정한다. 이때 상기 목표물의 이동 예측 지점은, 상기 목표물이 검색될 것으로 판단되는 카메라의 위치 정보일 수 있다. 즉, 상기 304 단계에서는 상기 둘 이상의 위치 예측 모델 각각으로부터 상기 목표물이 검색될 것으로 판단되는 후보 카메라 정보를 하나 이상 도출하고, 306 단계에서는 도출된 상기 후보 카메라 정보를 비교하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택하게 된다. 전술한 바와 같이, 상기 306 단계는 상기 각 예측 모델로부터 선택된 후보 카메라의 빈도수를 기반으로 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택하도록 구성될 수 있다.
단계 308에서, 판단부(106)는 선택된 하나 이상의 카메라로부터 획득된 영상으로부터 상기 목표물의 존재 여부를 탐색한다.
단계 310에서, 판단부(106)는 상기 308 단계의 탐색 결과 상기 영상에 목표물이 존재하는지의 여부를 판단한다. 만약 상기 판단 결과 상기 영상 내에 목표물이 발견되지 않는 경우, 판단부(106)는 상기 306 단계로 돌아가, 각 알고리즘별 이동 후보 지점으로부터 목표물의 이동 예측 지점을 다시 선택하게 되며, 이 경우 최초로 선택된 지점은 선택에서 배제된다.
한편, 이와 달리 상기 판단 결과 상기 영상 내에 목표물이 발견되는 경우, 예측 경로 산출부(104)는 새로 탐색된 지점으로 기준 위치를 업데이트하고(단계 312), 업데이트된 기준 위치로부터 상기 304 단계 이하를 반복 수행한다. 상기 과정은 최초 설정한 시간 범위 또는 지역 범위에 도달할 때까지, 혹은 더 이상 용의자가 검색되는 후보가 나타나지 않을 때까지 반복하여 수행된다.
한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 플로피 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
[부호의 설명]
100: 목표물 추적 장치
102: 입력부
104: 예측 경로 산출부
106: 판단부
108: 출력부
Claims (19)
- 탐색하고자 하는 목표물의 정보를 입력받는 입력부; 및둘 이상의 위치 예측 모델을 이용하여, 입력된 상기 정보로부터 상기 목표물의 각 예측 모델 별 이동 후보 지점을 계산하고, 계산된 상기 각 예측 모델 별 이동 후보 지점들 간의 비교를 통하여 상기 목표물의 이동 예측 지점을 결정하는 예측 경로 산출부를 포함하는 목표물 추적 장치.
- 청구항 1에 있어서,상기 목표물의 정보는, 상기 목표물의 이미지, 상기 목표물의 관측 위치, 관측 시각 및 이동 방향 중 하나 이상을 포함하는, 목표물 추적 장치.
- 청구항 2에 있어서,상기 목표물의 관측 위치는, 상기 목표물을 촬영한 카메라의 위치 정보인, 목표물 추적 장치.
- 청구항 1에 있어서,상기 목표물의 이동 예측 지점은, 상기 목표물이 검색될 것으로 판단되는 카메라의 위치 정보인, 목표물 추적 장치.
- 청구항 1에 있어서,상기 예측 경로 산출부는, 상기 둘 이상의 위치 예측 모델 각각으로부터 상기 목표물이 검색될 것으로 판단되는 후보 카메라 정보를 하나 이상 도출하고, 도출된 상기 카메라 정보를 비교하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택하는, 목표물 추적 장치.
- 청구항 5에 있어서,상기 예측 경로 산출부는, 상기 각 예측 모델로부터 선택된 후보 카메라의 빈도수 및 기 설정된 각 예측 모델 별 가중치 중 하나 이상을 고려하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택하는, 목표물 추적 장치.
- 청구항 5에 있어서,상기 위치 예측 모델은, 히든 마르코프 모델(Hidden Marcov model; HMM), 가우시안 믹스쳐 모델(Gaussian Mixture Model; GMM), 디시젼 트리(Decision Tree) 또는 위치 기반 모델 중 하나 이상을 포함하는, 목표물 추적 장치.
- 청구항 5에 있어서,상기 예측 경로 산출부는, 상기 둘 이상의 위치 예측 모델을 앙상블 모델을 이용하여 결합함으로써 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택하는, 목표물 추적 장치.
- 청구항 5에 있어서,상기 예측 경로 산출부는, 상기 둘 이상의 위치 예측 모델 별로 각각 다른 가중치를 적용하는 가중 다수 투표 방식(weighted majority voting)을 이용하여 상기 둘 이상의 위치 예측 모델을 결합하는, 목표물 추적 장치.
- 청구항 5에 있어서,상기 예측 경로 산출부에서 선택된 하나 이상의 카메라로부터 획득된 영상으로부터 상기 목표물의 존재 여부를 판단하는 판단부를 더 포함하는, 목표물 추적 장치.
- 청구항 10에 있어서,상기 예측 경로 산출부는, 상기 선택된 하나 이상의 카메라로부터 획득된 영상에 상기 목표물이 존재하지 않는 것으로 판단되는 경우, 상기 선택된 카메라를 제외하고 도출된 상기 후보 카메라 정보로부터 상기 목표물이 검색될 것으로 판단되는 카메라를 재선택하는, 목표물 추적 장치.
- 탐색하고자 하는 목표물의 정보를 입력받는 단계; 및둘 이상의 위치 예측 모델을 이용하여, 입력된 상기 정보로부터 상기 목표물의 각 예측 모델 별 이동 후보 지점을 계산하고, 계산된 상기 각 예측 모델 별 이동 후보 지점들 간의 비교를 통하여 상기 목표물의 이동 예측 지점을 결정하는 예측 경로 산출 단계를 포함하는 목표물 추적 방법.
- 청구항 12에 있어서,상기 목표물의 정보는, 상기 목표물의 이미지, 상기 목표물의 관측 위치, 관측 시각 및 이동 방향 중 하나 이상을 포함하는, 목표물 추적 방법.
- 청구항 12에 있어서,상기 목표물의 관측 위치는, 상기 목표물을 촬영한 카메라의 위치 정보인, 목표물 추적 방법.
- 청구항 12에 있어서,상기 목표물의 이동 예측 지점은, 상기 목표물이 검색될 것으로 판단되는 카메라의 위치 정보인, 목표물 추적 방법.
- 청구항 12에 있어서,상기 예측 경로 산출 단계는,상기 둘 이상의 위치 예측 모델 각각으로부터 상기 목표물이 검색될 것으로 판단되는 후보 카메라 정보를 하나 이상 도출하는 단계; 및도출된 상기 후보 카메라 정보를 비교하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택하는 단계를 더 포함하는, 목표물 추적 방법.
- 청구항 16에 있어서,상기 하나 이상의 카메라를 선택하는 단계는, 상기 각 예측 모델로부터 선택된 후보 카메라의 빈도수 및 기 설정된 각 예측 모델 별 가중치 중 하나 이상을 고려하여 상기 목표물이 검색될 것으로 판단되는 하나 이상의 카메라를 선택하는, 목표물 추적 방법.
- 청구항 16에 있어서,상기 예측 경로 산출 단계는,선택된 하나 이상의 카메라로부터 획득된 영상으로부터 상기 목표물의 존재 여부를 판단하는 단계를 더 포함하는, 목표물 추적 방법.
- 청구항 18에 있어서,상기 예측 경로 산출 단계는,상기 선택된 하나 이상의 카메라로부터 획득된 영상에 상기 목표물이 존재하지 않는 것으로 판단되는 경우, 상기 선택된 카메라를 제외하고 도출된 상기 후보 카메라 정보로부터 상기 목표물이 검색될 것으로 판단되는 카메라를 재선택하는, 목표물 추적 방법.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2014-0060309 | 2014-05-20 | ||
KR20140060309 | 2014-05-20 | ||
KR1020140097147A KR20150133619A (ko) | 2014-05-20 | 2014-07-30 | 카메라간 핸드오버를 이용한 목표물 추적 장치 및 방법 |
KR10-2014-0097147 | 2014-07-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015178540A1 true WO2015178540A1 (ko) | 2015-11-26 |
Family
ID=54554187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2014/007424 WO2015178540A1 (ko) | 2014-05-20 | 2014-08-11 | 카메라간 핸드오버를 이용한 목표물 추적 장치 및 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150338497A1 (ko) |
CN (1) | CN105100700A (ko) |
WO (1) | WO2015178540A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109564595A (zh) * | 2016-08-09 | 2019-04-02 | 日本米思米株式会社 | 设计辅助装置、设计辅助系统、服务器以及设计辅助方法 |
WO2022192836A1 (en) * | 2021-03-09 | 2022-09-15 | Motorola Solutions, Inc. | Monitoring system and method for identifying an object of interest after the object of interest has undergone a change in appearance |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9786177B2 (en) * | 2015-04-10 | 2017-10-10 | Honda Motor Co., Ltd. | Pedestrian path predictions |
CN106791586A (zh) * | 2015-11-19 | 2017-05-31 | 杭州海康威视数字技术股份有限公司 | 一种对移动目标进行监控的方法及监控设备、装置、系统 |
CN106651916B (zh) * | 2016-12-29 | 2019-09-03 | 深圳市深网视界科技有限公司 | 一种目标的定位跟踪方法及装置 |
GB2562049A (en) * | 2017-05-02 | 2018-11-07 | Kompetenzzentrum Das Virtuelle Fahrzeug | Improved pedestrian prediction by using enhanced map data in automated vehicles |
JP7369623B2 (ja) * | 2017-09-26 | 2023-10-26 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理システムおよび情報処理方法 |
CN108111806A (zh) * | 2017-11-20 | 2018-06-01 | 厦门市美亚柏科信息股份有限公司 | 一种监控方法及终端 |
CN108985218A (zh) * | 2018-07-10 | 2018-12-11 | 上海小蚁科技有限公司 | 人流量统计方法及装置、存储介质、计算设备 |
CN109325965A (zh) * | 2018-08-22 | 2019-02-12 | 浙江大华技术股份有限公司 | 一种目标对象跟踪方法及装置 |
CN110110690B (zh) * | 2019-05-16 | 2023-04-07 | 廊坊鑫良基科技有限公司 | 一种目标行人追踪方法、装置、设备及存储介质 |
CN110827316A (zh) * | 2019-10-29 | 2020-02-21 | 贵州民族大学 | 人群恐慌四散检测方法、系统、可读存储介质和电子设备 |
CN112750301A (zh) * | 2019-10-30 | 2021-05-04 | 杭州海康威视系统技术有限公司 | 目标对象追踪方法、装置、设备及计算机可读存储介质 |
KR102354585B1 (ko) * | 2019-12-18 | 2022-01-26 | 한국철도기술연구원 | 열차 자율주행 차상단말의 핸드오버 시점 결정 방법 |
CN113487651B (zh) * | 2021-06-17 | 2022-07-05 | 超节点创新科技(深圳)有限公司 | 行李跟踪方法、装置、设备及可读存储介质 |
WO2023033710A1 (en) * | 2021-09-02 | 2023-03-09 | Hitachi, Ltd. | Method and system of object tracking |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130002868A1 (en) * | 2010-03-15 | 2013-01-03 | Omron Corporation | Surveillance camera terminal |
KR101248054B1 (ko) * | 2011-05-04 | 2013-03-26 | 삼성테크윈 주식회사 | 물체의 이동 경로를 추적하는 물체 추적 시스템 및 그 방법 |
JP2013242728A (ja) * | 2012-05-21 | 2013-12-05 | Secom Co Ltd | 画像監視装置 |
KR101362630B1 (ko) * | 2007-06-21 | 2014-02-12 | 엘지전자 주식회사 | 디지털 비디오 레코더에서의 피사체 이동 경로 추적 방법 |
KR20140058192A (ko) * | 2012-11-06 | 2014-05-14 | 에스케이텔레콤 주식회사 | 관심객체 이동방향에 따른 관제 영상 재배치 방법 및 장치 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6359647B1 (en) * | 1998-08-07 | 2002-03-19 | Philips Electronics North America Corporation | Automated camera handoff system for figure tracking in a multiple camera system |
US6535817B1 (en) * | 1999-11-10 | 2003-03-18 | The Florida State Research Foundation | Methods, systems and computer program products for generating weather forecasts from a multi-model superensemble |
ATE500580T1 (de) * | 2005-03-25 | 2011-03-15 | Sensormatic Electronics Llc | Intelligente kameraauswahl und objektverfolgung |
US8432449B2 (en) * | 2007-08-13 | 2013-04-30 | Fuji Xerox Co., Ltd. | Hidden markov model for camera handoff |
TWI405457B (zh) * | 2008-12-18 | 2013-08-11 | Ind Tech Res Inst | 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點 |
US8253564B2 (en) * | 2009-02-19 | 2012-08-28 | Panasonic Corporation | Predicting a future location of a moving object observed by a surveillance device |
CN101572804B (zh) * | 2009-03-30 | 2012-03-21 | 浙江大学 | 多摄像机智能控制方法及装置 |
US8370280B1 (en) * | 2011-07-14 | 2013-02-05 | Google Inc. | Combining predictive models in predictive analytical modeling |
EP2864939A4 (en) * | 2012-06-22 | 2016-12-07 | Google Inc | CLASSIFICATION CLOSELY OBJECTIVES BASED ON LIKELY VISIBILITIES AND PREDICTED FUTURE VISITS OF PLACES OF A LOCAL STORY |
CN103581527B (zh) * | 2012-07-18 | 2017-05-03 | 中国移动通信集团公司 | 一种安防系统中的跟踪摄像方法、装置及安防主机 |
-
2014
- 2014-08-11 WO PCT/KR2014/007424 patent/WO2015178540A1/ko active Application Filing
- 2014-11-05 CN CN201410635733.2A patent/CN105100700A/zh active Pending
- 2014-11-11 US US14/538,463 patent/US20150338497A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101362630B1 (ko) * | 2007-06-21 | 2014-02-12 | 엘지전자 주식회사 | 디지털 비디오 레코더에서의 피사체 이동 경로 추적 방법 |
US20130002868A1 (en) * | 2010-03-15 | 2013-01-03 | Omron Corporation | Surveillance camera terminal |
KR101248054B1 (ko) * | 2011-05-04 | 2013-03-26 | 삼성테크윈 주식회사 | 물체의 이동 경로를 추적하는 물체 추적 시스템 및 그 방법 |
JP2013242728A (ja) * | 2012-05-21 | 2013-12-05 | Secom Co Ltd | 画像監視装置 |
KR20140058192A (ko) * | 2012-11-06 | 2014-05-14 | 에스케이텔레콤 주식회사 | 관심객체 이동방향에 따른 관제 영상 재배치 방법 및 장치 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109564595A (zh) * | 2016-08-09 | 2019-04-02 | 日本米思米株式会社 | 设计辅助装置、设计辅助系统、服务器以及设计辅助方法 |
KR20210149910A (ko) * | 2016-08-09 | 2021-12-09 | 미스미 코포레이숀 | 설계지원 장치, 설계지원 시스템, 서버 및 설계지원 방법 |
KR102435212B1 (ko) * | 2016-08-09 | 2022-08-22 | 미스미 코포레이숀 | 설계지원 장치, 설계지원 시스템, 서버 및 설계지원 방법 |
CN109564595B (zh) * | 2016-08-09 | 2023-05-02 | 日本米思米株式会社 | 设计辅助装置、设计辅助系统、服务器以及设计辅助方法 |
US11721082B2 (en) | 2016-08-09 | 2023-08-08 | Misumi Corporation | Assistance device, design assistance system, server, and design assistance method |
WO2022192836A1 (en) * | 2021-03-09 | 2022-09-15 | Motorola Solutions, Inc. | Monitoring system and method for identifying an object of interest after the object of interest has undergone a change in appearance |
US11640671B2 (en) | 2021-03-09 | 2023-05-02 | Motorola Solutions, Inc. | Monitoring system and method for identifying an object of interest after the object of interest has undergone a change in appearance |
Also Published As
Publication number | Publication date |
---|---|
CN105100700A (zh) | 2015-11-25 |
US20150338497A1 (en) | 2015-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015178540A1 (ko) | 카메라간 핸드오버를 이용한 목표물 추적 장치 및 방법 | |
WO2019240452A1 (ko) | 실 공간에서 관심지점 관련 정보를 자동으로 수집 및 업데이트하는 방법 및 시스템 | |
WO2020122456A1 (ko) | 이미지와 텍스트간 유사도 매칭 시스템 및 방법 | |
CN105389562B (zh) | 一种时空约束的监控视频行人重识别结果的二次优化方法 | |
CN106570490B (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
WO2015105239A1 (ko) | 차량 및 차선 위치 검출 시스템 및 방법 | |
WO2017142311A1 (ko) | 다중 객체 추적 시스템 및 이를 이용한 다중 객체 추적 방법 | |
EA018349B1 (ru) | Способ видеоанализа | |
CN110533700A (zh) | 对象跟踪方法和装置、存储介质及电子装置 | |
D'Orazio et al. | Color brightness transfer function evaluation for non overlapping multi camera tracking | |
CN112307868A (zh) | 图像识别方法、电子设备和计算机可读介质 | |
WO2016108327A1 (ko) | 차량검출방법, 차량검출을 위한 데이터베이스의 구조, 및 차량검출을 위한 데이터베이스 구축방법 | |
WO2012011624A1 (ko) | 위치 추정에 사용자 이동성을 활용하는 와이파이 라디오 맵 기반 실내 네비게이션 시스템 및 방법 | |
WO2014107071A1 (ko) | Gis 기반의 경로 이동에 따른 cctv 관제 시스템 및 그 방법 | |
CN114155489A (zh) | 一种多设备协同的无人机飞手检测方法、设备及存储介质 | |
WO2015108401A1 (ko) | 복수개의 카메라를 이용한 휴대 장치 및 제어방법 | |
CN112446355A (zh) | 一种公共场所行人识别方法及人流统计系统 | |
CN116524540A (zh) | 一种基于二部图的煤矿井下人数统计方法 | |
KR102482545B1 (ko) | 인공지능 기반 경로 예측 방법 | |
KR102476777B1 (ko) | 인공지능 기반 경로 예측시스템 | |
KR102325838B1 (ko) | Ar에 적용 가능한 마커리스 기반의 실내위치 측정시스템 및 그 방법 | |
KR101280348B1 (ko) | 다중 표적 추적 방법 | |
CN111898434B (zh) | 一种视频侦测分析系统 | |
WO2019199035A1 (ko) | 시선 추적 시스템 및 방법 | |
Chu et al. | Self-organized and scalable camera networks for systematic human tracking across nonoverlapping cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14892361 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 14892361 Country of ref document: EP Kind code of ref document: A1 |