KR20230155432A - Imaging device, tracking system and imaging method - Google Patents

Imaging device, tracking system and imaging method Download PDF

Info

Publication number
KR20230155432A
KR20230155432A KR1020237028412A KR20237028412A KR20230155432A KR 20230155432 A KR20230155432 A KR 20230155432A KR 1020237028412 A KR1020237028412 A KR 1020237028412A KR 20237028412 A KR20237028412 A KR 20237028412A KR 20230155432 A KR20230155432 A KR 20230155432A
Authority
KR
South Korea
Prior art keywords
unit
imaging
feature
priority
person
Prior art date
Application number
KR1020237028412A
Other languages
Korean (ko)
Inventor
마사히로 와타나베
Original Assignee
소니 세미컨덕터 솔루션즈 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 세미컨덕터 솔루션즈 가부시키가이샤 filed Critical 소니 세미컨덕터 솔루션즈 가부시키가이샤
Publication of KR20230155432A publication Critical patent/KR20230155432A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

데이터 대역을 경량화하면서 오브젝트의 검출 정밀도를 높일 수 있는 촬상 장치를 제공하는 것. 촬상 장치(12)는, 오브젝트를 촬상하는 촬상부(22)와, 촬상부(22)에서 촬상한 오브젝트의 특징량을 복수 추출하는 특징량 추출부(24)와, 특징량 추출부(24)에서 추출한 복수의 특징량의 우선도를 결정하는 우선도 결정부(27)와, 우선도의 높이 및 출력처의 허용량에 따라, 특징량을 결정하는 제어부(28)와, 제어부(28)에서 결정한 특징량을 출력하는 출력부(32)를 구비한다. 촬상 장치(12)는, 오브젝트의 이동 방향을 연산하는 이동 방향 연산부(25)를 더 구비하고, 출력부(32)는, 특징량과 이동 방향을 관련지어 출력할 수 있다.To provide an imaging device that can increase object detection accuracy while reducing the data bandwidth. The imaging device 12 includes an imaging unit 22 that captures an image of an object, a feature extraction unit 24 that extracts a plurality of feature quantities of the object imaged by the imaging unit 22, and a feature extraction unit 24. a priority determination unit 27 that determines the priority of the plurality of feature quantities extracted from the priority, a control unit 28 that determines the feature quantity according to the height of the priority and the allowable amount of the output destination, and a priority determined by the control unit 28. It is provided with an output unit 32 that outputs a characteristic quantity. The imaging device 12 further includes a movement direction calculation unit 25 that calculates the movement direction of the object, and the output unit 32 can output the feature quantity and the movement direction in relation to each other.

Description

촬상 장치, 추적 시스템 및 촬상 방법Imaging device, tracking system and imaging method

본 기술은, 촬상 장치, 추적 시스템 및 촬상 방법에 관한 것이고, 더 상세하게는, 촬상 대상을 식별하고, 그 촬상 대상의 이동을 추적하는 촬상 장치, 추적 시스템 및 촬상 방법에 관한 것이다.The present technology relates to an imaging device, a tracking system, and an imaging method, and more particularly, to an imaging device, a tracking system, and an imaging method that identify an imaged object and track the movement of the imaged object.

종래부터, 감시 카메라로 촬영된 화상으로부터 인물의 이동 궤적을 구하여 기록해 두고, 이동 궤적이 구해지는 인물에 대하여 얼굴 인식을 행함으로써, 얼굴 인식되는 다른 인물과 식별하는 것이 가능한 감시 시스템이 알려져 있다.Conventionally, a surveillance system has been known in which a person's movement trace is obtained and recorded from an image captured by a surveillance camera, and the person whose movement trace is obtained is subjected to facial recognition to identify the person from another person whose face is recognized.

예를 들어, 특허문헌 1에서는, 감시용의 촬상 수단과, 상기 촬상 수단으로 촬영되는 화상으로부터 사람을 검지하는 인체 검지 수단과, 상기 인체 검지 수단으로 검지된 사람을 상기 화상상에서 해석하여 이동 궤적을 구하는 궤적 해석 수단과, 상기 인체 검지 수단에 의해 검지됨과 함께 상기 궤적 해석 수단에 의해 상기 이동 궤적이 구해지는 사람의 상기 화상상의 얼굴로부터 다른 얼굴과 식별 가능한 얼굴 데이터를 구하여 얼굴을 인식하는 얼굴 인식 수단과, 다른 사람의 상기 얼굴 데이터를 서로 식별 가능하게 하는 식별 부호에 관련지어 상기 얼굴 데이터와 상기 얼굴 데이터에 대응하는 상기 이동 궤적을 기록하는 기록 수단과, 상기 기록 수단에 기록되어 있는 상기 얼굴 데이터에 대하여 상기 얼굴 인식 수단에 의해 구해진 상기 얼굴 데이터를 비교하여, 이들 얼굴 데이터가 소정의 조건을 충족시키는지 여부를 판정하는 얼굴 판정 수단과,For example, in Patent Document 1, an imaging means for surveillance, a human body detection means for detecting a person from an image captured by the imaging means, and a movement trace of the person detected by the human body detection means are analyzed on the image. Trajectory analysis means for obtaining a trace, and face recognition means for recognizing a face by obtaining face data that can be distinguished from another face from the face on the image of the person detected by the human body detection means and whose movement trace is obtained by the trace analysis means. and recording means for recording the face data and the movement trace corresponding to the face data by associating the face data of different people with an identification code that enables mutual identification, and in the face data recorded in the recording means. face determination means for comparing the face data obtained by the face recognition means and determining whether the face data satisfies a predetermined condition;

상기 조건을 충족시키는 경우에, 상기 얼굴 인식 수단에 의해 구해진 상기 얼굴 데이터에 대응하는 상기 이동 궤적을, 당해 얼굴 데이터와 일치하는 상기 기록 수단에 기록된 상기 얼굴 데이터에 관련지어진 상기 식별 부호와 관련지어 상기 기록 수단에 기록하고, 상기 조건을 충족시키지 않는 경우에, 상기 얼굴 인식 수단에 의해 구해진 상기 얼굴 데이터 및 당해 얼굴 데이터에 대응하는 상기 이동 궤적에, 아직 상기 얼굴 데이터에 관련지어져 있지 않은 상기 식별 부호를 관련지어 상기 기록 수단에 기록하는 얼굴 데이터 취집 수단을 구비하는 감시 정보 수집 시스템이 제안되어 있다.When the above conditions are met, the movement trace corresponding to the face data obtained by the face recognition means is associated with the identification code associated with the face data recorded in the recording means that matches the face data. The identification code that is recorded in the recording means and is not yet associated with the face data in the face data obtained by the face recognition means and the movement trace corresponding to the face data when the above conditions are not met. In connection with this, a surveillance information collection system is proposed that includes a face data collection means for recording in the recording means.

일본 특허 공개 제2018-93283호 공보Japanese Patent Publication No. 2018-93283

그러나, 특허문헌 1의 기술에서는, 촬상 수단에 기록하는 데이터양이 커져, 촬상 수단의 상호간에서의 통신 속도가 느려지거나, 데이터 교환을 할 수 없게 되거나 할 가능성이 있다. 또한, 특허문헌 1의 기술에서는, 데이터를 수신하는 측의 촬상 수단의 환경 상황 등에 따라, 데이터를 주고 받는 촬상 수단을 정하는 것은 상정되어 있지 않기 때문에, 환경 등의 상황에 따라서는, 정밀도 높게 오브젝트를 검출할 수 없는 경우가 있다.However, in the technology of Patent Document 1, the amount of data recorded in the imaging means increases, and there is a possibility that the communication speed between the imaging means may become slow or data exchange may become impossible. Additionally, in the technology of Patent Document 1, it is not assumed to determine the imaging means for transmitting and receiving data according to the environmental conditions of the imaging means on the data receiving side, so depending on the circumstances, such as the environment, objects can be captured with high precision. There are cases where it cannot be detected.

그래서, 본 기술에서는, 데이터 대역을 경량화하면서 오브젝트의 검출 정밀도를 높일 수 있는 촬상 장치를 제공하는 것을 주목적으로 한다.Therefore, the main purpose of this technology is to provide an imaging device that can increase object detection accuracy while reducing the data bandwidth.

본 기술에 관한 촬상 장치는, 오브젝트를 촬상하는 촬상부와, 촬상부에서 촬상한 오브젝트의 특징량을 복수 추출하는 특징량 추출부와, 특징량 추출부에서 추출한 복수의 특징량의 우선도를 결정하는 우선도 결정부와, 우선도의 높이 및 출력처의 허용량에 따라, 특징량을 결정하는 제어부와, 제어부에서 결정한 특징량을 출력하는 출력부를 구비한다. 상기 촬상부는, 동시에 동일 영역의 상기 오브젝트를 촬상할 수 있다.An imaging device according to the present technology includes an imaging unit for capturing an object, a feature extraction unit for extracting a plurality of feature quantities of an object imaged by the imaging unit, and determining the priority of the plurality of feature quantities extracted from the feature extraction unit. It has a priority determining unit, a control unit that determines a feature quantity according to the priority height and the allowable amount of the output destination, and an output unit that outputs the feature quantity determined by the control unit. The imaging unit may simultaneously image the object in the same area.

본 기술에 관한 촬상 장치는, 상기 오브젝트의 이동 방향을 연산하는 이동 방향 연산부를 더 구비하고, 상기 출력부는, 상기 특징량과 상기 이동 방향을 관련지어 출력할 수도 있다. 상기 우선도 결정부는, 각각의 상기 특징량의 프라이버시 레벨을 설정하는 프라이버시 레벨 설정부를 갖고, 상기 프라이버시 레벨에 따라 상기 우선도를 결정할 수도 있다. 본 기술에 관한 촬상 장치는, 상기 촬상부의 촬상 위치 및 촬상 방향을 취득하는 촬상 위치 취득부를 더 구비하고, 상기 출력부는, 상기 촬상 위치 및 상기 촬상 방향을 출력할 수도 있다. 본 기술에 관한 촬상 장치는, 상기 촬상 장치가 설치되는 주위의 환경 정보를 취득하는 환경 정보 취득부를 더 구비하고, 상기 제어부는, 상기 환경 정보에 기초하여, 상기 특징량의 출력처를 결정할 수도 있다. 본 기술에 관한 촬상 장치는, 상기 특징량의 출력처의 상태 변화 정보를 취득하는 상태 변화 정보 취득부를 더 구비하고, 상기 제어부는, 상기 상태 변화 정보에 따라, 상기 출력처를 결정할 수도 있다. 본 기술에 관한 촬상 장치는, 상기 오브젝트의 감정에 관한 감정 정보를 취득하는 감정 정보 취득부를 더 구비하고, 상기 출력부는, 상기 특징량과 상기 감정 정보를 관련지어 출력할 수도 있다. 상기 촬상부는, 상기 오브젝트를 복수 촬상하고, 상기 촬상부에서 촬상한 복수의 상기 오브젝트로부터, 주목하는 상기 오브젝트를 선택하는 대상 선택부를 더 구비하고, 상기 특징량 추출부는, 상기 대상 선택부에서 선택한 상기 오브젝트의 특징량을 복수 추출할 수도 있다.The imaging device according to the present technology further includes a movement direction calculation unit that calculates a movement direction of the object, and the output unit may output the correlation between the feature quantity and the movement direction. The priority determination unit may have a privacy level setting unit that sets a privacy level for each of the feature quantities, and may determine the priority according to the privacy level. The imaging device according to the present technology further includes an imaging position acquisition unit that acquires the imaging position and imaging direction of the imaging unit, and the output unit may output the imaging position and the imaging direction. The imaging device according to the present technology further includes an environmental information acquisition unit that acquires environmental information about the surroundings where the imaging device is installed, and the control unit may determine an output destination of the feature quantity based on the environmental information. . The imaging device according to the present technology further includes a state change information acquisition unit that acquires state change information of an output destination of the characteristic quantity, and the control unit may determine the output destination according to the state change information. The imaging device according to the present technology further includes an emotion information acquisition unit that acquires emotion information regarding the emotion of the object, and the output unit may output the emotion information in association with the feature quantity. The imaging unit further includes an object selection unit that captures a plurality of images of the objects and selects the object of interest from the plurality of objects imaged by the imaging unit, and the feature extraction unit is configured to select the object selected by the object selection unit. It is also possible to extract multiple feature quantities of an object.

또한, 본 기술에 관한 다른 촬상 장치는, 우선도의 높이 및 입력 가능한 허용량에 따라, 오브젝트의 복수의 특징량을 입력하는 입력부와, 입력부에서 입력한 특징량에 기초하여, 오브젝트를 추적하는 추적부를 구비한다.In addition, another imaging device related to the present technology includes an input unit that inputs a plurality of characteristic quantities of the object according to the priority height and the allowable amount of input, and a tracking unit that tracks the object based on the characteristic quantities input by the input unit. Equipped with

또한, 본 기술에 관한 추적 시스템은, 오브젝트를 촬상하는 촬상부와, 상기 촬상부에서 촬상한 상기 오브젝트의 특징량을 복수 추출하는 특징량 추출부와, 상기 특징량 추출부에서 추출한 복수의 상기 특징량의 우선도를 결정하는 우선도 결정부와, 상기 우선도의 높이 및 송신처의 허용량에 따라, 상기 특징량을 송신하는 송신부와, 상기 우선도의 높이 및 수신 가능한 허용량에 따라, 상기 특징량을 수신하는 수신부와, 상기 수신부에서 수신한 상기 특징량에 기초하여, 상기 오브젝트를 추적하는 추적부를 갖는 촬상 장치를 복수 구비하고, 복수의 상기 촬상 장치는, 서로 연계하여 상기 특징량을 송수신한다.In addition, the tracking system according to the present technology includes an imaging unit for capturing an object, a feature extraction unit for extracting a plurality of feature quantities of the object imaged by the imaging unit, and a plurality of the features extracted from the feature extraction unit. a priority determination unit that determines the priority of a quantity, a transmission unit that transmits the characteristic quantity according to the height of the priority and the allowance of the transmission destination, and a transmission unit that transmits the characteristic quantity according to the height of the priority and the allowance that can be received. It is provided with a plurality of imaging devices having a receiving unit for receiving and a tracking unit for tracking the object based on the characteristic quantity received by the receiving unit, and the plurality of imaging devices transmit and receive the characteristic quantity in conjunction with each other.

또한, 본 기술에 관한 촬상 방법은, 오브젝트를 촬상하는 스텝과, 촬상한 상기 오브젝트의 특징량을 복수 추출하는 스텝과, 추출한 복수의 상기 특징량의 우선도를 결정하는 스텝과, 상기 우선도의 높이 및 출력처의 허용량에 따라, 상기 특징량을 결정하는 스텝과, 결정한 상기 특징량을 출력하는 스텝을 포함한다. 또한, 본 기술에 관한 다른 촬상 방법은, 우선도의 높이 및 입력 가능한 허용량에 따라, 오브젝트의 복수의 특징량을 입력하는 스텝과, 입력한 상기 특징량에 기초하여, 상기 오브젝트를 추적하는 스텝을 포함한다.In addition, the imaging method according to the present technology includes steps of imaging an object, steps of extracting a plurality of feature quantities of the imaged object, steps of determining priorities of the plurality of extracted feature quantities, and steps of determining the priorities of the plurality of extracted feature quantities. It includes a step of determining the characteristic quantity according to the height and an allowance of the output destination, and a step of outputting the determined characteristic quantity. In addition, another imaging method related to the present technology includes steps of inputting a plurality of characteristic quantities of an object according to the priority height and input allowable amount, and tracking the object based on the inputted characteristic quantities. Includes.

본 기술에 의하면, 데이터 대역을 경량화하면서 오브젝트의 검출 정밀도를 높일 수 있는 촬상 장치를 제공할 수 있다. 또한, 상기한 효과는 반드시 한정적인 것은 아니고, 상기한 효과와 함께, 또는 상기한 효과 대신에, 본 명세서에 개시된 어느 효과 또는 본 명세서로부터 파악될 수 있는 다른 효과가 발휘되어도 된다.According to the present technology, it is possible to provide an imaging device that can increase object detection accuracy while reducing the data bandwidth. In addition, the above-described effects are not necessarily limited, and any of the effects disclosed in this specification or other effects that can be understood from this specification may be exerted together with the above-described effects or instead of the above-described effects.

도 1은 본 기술의 제1 실시 형태에 관한 추적 시스템의 구성예를 나타내는 모식도이다.
도 2는 본 기술의 제1 실시 형태에 관한 촬상 장치의 구성예를 나타내는 블록도이다.
도 3은 본 기술의 제1 실시 형태에 관한 촬상 장치의 동작예를 나타내는 흐름도이다.
도 4는 본 기술의 제1 실시 형태에 관한 추적 시스템에 의한 트래킹 방법을 설명하기 위한 화상이다.
도 5는 본 기술의 제1 실시 형태에 관한 추적 시스템에 의한 리스트 관리를 나타내는 개념도이다.
도 6은 본 기술의 제1 실시 형태에 관한 추적 시스템에 의한 리스트 배포의 예를 나타내는 시퀀스도이다.
도 7은 본 기술의 제1 실시 형태에 관한 추적 시스템에 의한 트래킹 방법을 설명하기 위한 개념도이다.
도 8은 본 기술의 제2 실시 형태에 관한 추적 시스템에 의한 리스트 배포의 예를 나타내는 시퀀스도이다.
도 9는 본 기술의 제2 실시 형태에 관한 추적 시스템에 의한 트래킹 방법을 설명하기 위한 개념도이다.
도 10은 본 기술의 제2 실시 형태에 관한 추적 시스템에 의한 트래킹 방법의 예를 나타내는 흐름도이다.
도 11은 본 기술의 제3 실시 형태에 관한 추적 시스템에 의한 리스트 관리를 나타내는 개념도이다.
도 12는 본 기술의 제3 실시 형태에 관한 추적 시스템에 의한 트래킹 방법의 예를 나타내는 시퀀스도이다.
도 13은 본 기술의 제4 실시 형태에 관한 추적 시스템에 의한 트래킹 방법을 설명하기 위한 개념도이다.
1 is a schematic diagram showing a configuration example of a tracking system according to a first embodiment of the present technology.
Fig. 2 is a block diagram showing a configuration example of an imaging device according to the first embodiment of the present technology.
Fig. 3 is a flowchart showing an example of operation of the imaging device according to the first embodiment of the present technology.
Figure 4 is an image for explaining a tracking method by a tracking system according to the first embodiment of the present technology.
Fig. 5 is a conceptual diagram showing list management by a tracking system according to the first embodiment of the present technology.
Fig. 6 is a sequence diagram showing an example of list distribution by the tracking system according to the first embodiment of the present technology.
Figure 7 is a conceptual diagram for explaining a tracking method by a tracking system according to the first embodiment of the present technology.
Fig. 8 is a sequence diagram showing an example of list distribution by the tracking system according to the second embodiment of the present technology.
Figure 9 is a conceptual diagram for explaining a tracking method by a tracking system according to the second embodiment of the present technology.
10 is a flowchart showing an example of a tracking method by a tracking system according to the second embodiment of the present technology.
Fig. 11 is a conceptual diagram showing list management by the tracking system according to the third embodiment of the present technology.
Fig. 12 is a sequence diagram showing an example of a tracking method by a tracking system according to the third embodiment of the present technology.
Figure 13 is a conceptual diagram for explaining a tracking method by a tracking system according to the fourth embodiment of the present technology.

이하, 본 기술을 실시하기 위한 적합한 형태에 대하여 도면을 참조하면서 설명한다. 이하에 설명하는 실시 형태는, 본 기술의 대표적인 실시 형태의 일례를 나타낸 것이고, 어느 실시 형태든 조합하는 것이 가능하다. 또한, 이것들에 의해 본 기술의 범위가 좁게 해석되는 일은 없다. 또한, 설명은 이하의 순서로 행한다.Hereinafter, a suitable form for implementing the present technology will be described with reference to the drawings. The embodiment described below shows an example of a representative embodiment of the present technology, and any embodiment can be combined. Additionally, the scope of this technology is not interpreted narrowly by these factors. In addition, the explanation is carried out in the following order.

1. 제1 실시 형태1. First embodiment

(1) 추적 시스템(10)의 구성예(1) Configuration example of tracking system 10

(2) 카메라(12)의 구성예(2) Configuration example of camera 12

(3) 카메라(12)의 동작예(3) Example of operation of camera 12

(4) 추적 시스템(10)에 의한 트래킹 방법(4) Tracking method by tracking system 10

2. 제2 실시 형태2. Second embodiment

3. 제3 실시 형태3. Third embodiment

4. 제4 실시 형태4. Fourth embodiment

1. 제1 실시 형태1. First embodiment

(1) 추적 시스템(10)의 구성예(1) Configuration example of tracking system 10

먼저, 도 1을 참조하여, 본 기술의 제1 실시 형태에 관한 추적 시스템(10)의 구성예에 대하여 설명한다. 도 1은, 추적 시스템(10)의 구성예를 나타내는 모식도이다. 추적 시스템(10)은, 수상한 사람의 추종, 교통량 조사, 데모 검출 등의 애플리케이션에 적용할 수 있다.First, with reference to FIG. 1, a configuration example of the tracking system 10 according to the first embodiment of the present technology will be described. Figure 1 is a schematic diagram showing an example of the configuration of the tracking system 10. The tracking system 10 can be applied to applications such as following suspicious people, traffic investigation, and demonstration detection.

도 1에 나타낸 바와 같이, 추적 시스템(10)은, 일례로서, 서버(11)와, 서버(11)에 각각 통신 접속되는 복수의 촬상 장치인 카메라(12)를 구비하고 있다. 서버(11)는, 클라우드 서버를 사용할 수 있다.As shown in FIG. 1, the tracking system 10 includes, as an example, a server 11 and a plurality of cameras 12, which are image capture devices, each of which is connected to the server 11 for communication. The server 11 can use a cloud server.

각 카메라(12)는, 일례로서, 각각 RGB 카메라 및 Depth 카메라를 구비하고, 하나 또는 복수의 오브젝트를 촬상할 수 있다. 또한, 본 실시 형태에서는, 카메라(12)를 3대(Cam1, Cam2, Cam3) 사용하는 예를 나타내고 있지만, 복수의 카메라(12)의 대수는, 이에 한정되지 않고 2대여도 되고, 4대 이상이어도 된다.As an example, each camera 12 is provided with an RGB camera and a Depth camera and can capture one or more objects. In addition, in this embodiment, an example of using three cameras 12 (Cam1, Cam2, Cam3) is shown, but the number of cameras 12 is not limited to this and may be two, or four or more. You can continue.

추적 시스템(10)은, 복수의 카메라(12)(Cam1, Cam2, Cam3)의 각각에서 추적 대상의 오브젝트를 촬상하고, 각 오브젝트의 특징량과 3차원의 이동 방향 벡터를 연산하여, 촬상한 카메라(12)로부터 서버(11)로 연산 결과 정보를 송신한다. 특징량 및 이동 방향 벡터의 연산은, 예를 들어 인공 지능(AI)을 사용하여 행할 수 있다.The tracking system 10 captures images of the object to be tracked from each of the plurality of cameras 12 (Cam1, Cam2, and Cam3), calculates the characteristic quantity and three-dimensional movement direction vector of each object, and tracks the imaged camera. Calculation result information is transmitted from (12) to the server (11). Calculation of feature quantities and movement direction vectors can be performed, for example, using artificial intelligence (AI).

연산 결과 정보를 수신한 서버(11)는, 그 연산 결과 정보에 의한 특징량과 등록 완료된 특징량을 대조하여 추적 대상을 특정하고, 추적 대상의 이동 방향을 따라 각 카메라(12)로 추적 대상의 정보를 송신한다. 각 카메라(12)는, 서로 연계하여 특징량을 송수신하여 추적 대상을 추적(트래킹)한다. 이 트래킹 방법의 상세에 대해서는, 후술한다.The server 11, which has received the calculation result information, specifies the tracking target by comparing the feature quantity based on the calculation result information with the registered feature quantity, and tracks the tracking target with each camera 12 along the moving direction of the tracking target. Send information. Each camera 12 tracks (tracks) the tracking object by transmitting and receiving characteristic quantities in conjunction with each other. Details of this tracking method will be described later.

(2) 카메라(12)의 구성예(2) Configuration example of camera 12

이어서, 도 2를 참조하여, 카메라(12)의 구성예에 대하여 설명한다. 도 2는, 카메라(12)의 구성예를 나타내는 블록도이다.Next, with reference to FIG. 2, a configuration example of the camera 12 will be described. FIG. 2 is a block diagram showing a configuration example of the camera 12.

카메라(12)에는, 일례로서, RGB 카메라, Depth 카메라(iTOF/dToF/Structured Light/Stereo/Active Stereo), 편향 카메라, DVS 카메라, 멀티스펙트럼·IR 카메라, 고속 비전 카메라, 적외선 카메라 등을 사용할 수 있다.As an example, an RGB camera, a depth camera (iTOF/dToF/Structured Light/Stereo/Active Stereo), a deflection camera, a DVS camera, a multispectral/IR camera, a high-speed vision camera, an infrared camera, etc. can be used as the camera 12. there is.

도 2에 나타낸 바와 같이, 카메라(12)는, 일례로서, 외부로부터 수신한 정보를 필요한 구성으로 입력하는 입력부(21)와, 오브젝트를 촬상하는 촬상부(22)와, 촬상부(22)의 촬상 위치 및 촬상 방향을 취득하는 촬상 위치 취득부(23)와, 촬상부(22)에서 촬상한 오브젝트의 특징량을 복수 추출하는 특징량 추출부(24)와, 오브젝트의 이동 방향을 연산하는 이동 방향 연산부(25)를 구비하고 있다.As shown in FIG. 2, the camera 12 includes, as an example, an input unit 21 that inputs information received from the outside in a required configuration, an imaging unit 22 that captures an object, and the imaging unit 22. An imaging position acquisition unit 23 that acquires the imaging position and imaging direction, a feature quantity extraction unit 24 that extracts a plurality of feature quantities of the object imaged by the imaging unit 22, and a movement unit that calculates the movement direction of the object. A direction calculation unit 25 is provided.

또한, 카메라(12)는, 특징량 추출부(24)에서 추출한 복수의 특징량의 우선도를 결정하는 우선도 결정부(27)와, 우선도의 높이 및 출력처의 허용량에 따라, 특징량을 결정하는 제어부(28)와, 카메라(12)가 설치되는 주위의 환경 정보를 취득하는 환경 정보 취득부(29)와, 특징량의 출력처 카메라(12)의 상태 변화 정보를 취득하는 상태 변화 정보 취득부(30)와, 제어부(28)에서 결정한 특징량을 출력하는 출력부(32)를 구비하고 있다.In addition, the camera 12 includes a priority determination unit 27 that determines the priority of a plurality of feature quantities extracted by the feature quantity extraction unit 24, and a priority determination unit 27 that determines the priority of the feature quantities according to the height of the priority and the allowable amount of the output destination. A control unit 28 that determines, an environmental information acquisition unit 29 that acquires environmental information about the surroundings where the camera 12 is installed, and a state change that acquires state change information of the output destination camera 12 of the characteristic quantity. It is provided with an information acquisition unit 30 and an output unit 32 that outputs the characteristic quantity determined by the control unit 28.

또한, 카메라(12)는, 입력부(21)에서 입력한 특징량에 기초하여, 오브젝트를 추적하는 추적부(33)와, 외부와 정보의 송수신을 행하는 통신부(34)를 구비하고 있다. 또한, 카메라(12)는, 오브젝트의 감정에 관한 감정 정보를 취득하는 감정 정보 취득부(31)를 구비할 수 있다.In addition, the camera 12 is provided with a tracking unit 33 that tracks the object based on the feature quantity input from the input unit 21, and a communication unit 34 that transmits and receives information to and from the outside. Additionally, the camera 12 may be provided with an emotion information acquisition unit 31 that acquires emotional information regarding the emotion of an object.

입력부(21)는, 우선도의 높이 및 입력 가능한 허용량에 따라, 오브젝트의 복수의 특징량을 입력할 수 있다.The input unit 21 can input a plurality of characteristic quantities of an object according to the priority height and the allowable input amount.

촬상부(22)는, 촬상부(22)에서 촬상한 복수의 오브젝트로부터, 주목하는 오브젝트를 선택하는 대상 선택부(41)를 구비할 수 있다. 또한, 촬상부(22)는, 동시에 동일 영역의 오브젝트를 촬상할 수 있다. 이때, 특징량 추출부(24)는, 대상 선택부(41)에서 선택한 오브젝트의 특징량을 복수 추출할 수 있다. 또한, 대상 선택부(41)는, 카메라(12) 내의 촬상부(22) 이외의 구성으로서 구비될 수도 있다.The imaging unit 22 may be provided with an object selection unit 41 that selects an object of interest from a plurality of objects imaged by the imaging unit 22. Additionally, the imaging unit 22 can simultaneously image objects in the same area. At this time, the feature quantity extraction unit 24 may extract a plurality of feature quantities of the object selected by the object selection unit 41. Additionally, the object selection unit 41 may be provided as a component other than the imaging unit 22 in the camera 12.

우선도 결정부(27)는, 각각의 특징량의 프라이버시 보호의 레벨을 설정하는 프라이버시 레벨 설정부(26)를 갖고 있다. 우선도 결정부(27)는, 프라이버시 레벨 설정부(26)에서 설정한 프라이버시 레벨에 따라 우선도를 결정할 수 있다.The priority determination unit 27 has a privacy level setting unit 26 that sets the level of privacy protection for each feature quantity. The priority determination unit 27 may determine the priority according to the privacy level set by the privacy level setting unit 26.

프라이버시 레벨 설정부(26)는, 프라이버시 우려가 있는 정보를 「취급할 수 있다」 또는 「취급할 수 없다」를 전환하는 기능을 갖고 있다. 또한, 특징량에는 프라이버시 레벨을 나타내는 정보가 부가되어 있다. 프라이버시 레벨 설정부(26)는, 특징량을 출력할 때, 프라이버시 레벨에 따라 출력 가부나 그 순서를 제어하는 기능도 갖고 있다.The privacy level setting unit 26 has a function to switch between “can handle” or “cannot handle” information with privacy concerns. Additionally, information indicating the privacy level is added to the feature quantity. When outputting feature quantities, the privacy level setting unit 26 also has a function of controlling output availability and the order according to the privacy level.

제어부(28)는, 환경 정보 취득부(29)에 의해 취득한 환경 정보에 기초하여, 특징량의 출력처를 결정하거나, 상태 변화 정보 취득부(30)에 의해 취득한 상태 변화 정보에 따라, 출력처를 결정하거나 할 수 있다.The control unit 28 determines the output destination of the characteristic quantity based on the environmental information acquired by the environmental information acquisition unit 29, or determines the output destination according to the state change information acquired by the state change information acquisition unit 30. You can decide or do it.

환경 정보 취득부(29)가 취득하는 환경 정보로서는, 위도, 경도, 시간, 방향, 천후, 온도, 습도, 기류, SO2, CO, NOx, SPM, CO2, 소음 등을 들 수 있다.Environmental information acquired by the environmental information acquisition unit 29 includes latitude, longitude, time, direction, weather, temperature, humidity, air current, SO 2 , CO, NOx, SPM, CO 2 , and noise.

상태 변화 정보 취득부(30)가 취득하는 상태 변화 정보란, 특징량 검출 알고리즘 교체 기능에 의해, 대상이 되는 카메라(12)에서 취득할 수 있는 특징량이 변화된 경우의 정보나, 그 카메라(12)의 환경 변화(고장, 명암, 악천후, 배터리 용량 저하 등)에 의해 특징량을 취득할 수 없게 된 경우의 정보 등도 포함된다.The state change information acquired by the state change information acquisition unit 30 is information when the feature quantity that can be acquired from the target camera 12 changes by the feature quantity detection algorithm replacement function, or the camera 12 Information in cases where characteristic quantities cannot be acquired due to environmental changes (failure, brightness, bad weather, battery capacity decline, etc.) is also included.

출력부(32)는, 촬상 위치 취득부(23)에 의해 취득한 촬상 위치 및 촬상 방향을 출력할 수 있다. 또한, 출력부(32)는, 특징량과 이동 방향 연산부(25)에 의해 연산한 이동 방향을 관련지어 출력하거나, 감정 정보 취득부(31)에 의해 취득한 특징량과 감정 정보를 관련지어 출력하거나 할 수 있다.The output unit 32 can output the imaging position and imaging direction acquired by the imaging position acquisition unit 23. In addition, the output unit 32 outputs the feature quantity in association with the movement direction calculated by the movement direction calculation unit 25, or outputs the feature quantity acquired by the emotion information acquisition unit 31 in association with the emotion information. can do.

통신부(34)는, 우선도의 높이 및 송신처의 허용량에 따라, 특징량을 송신하는 송신부(42)와, 우선도의 높이 및 수신 가능한 허용량에 따라, 특징량을 수신하는 수신부(43)를 갖고 있다.The communication unit 34 has a transmitting unit 42 that transmits the characteristic quantity according to the priority height and the allowable amount of the transmission destination, and a receiving unit 43 that receives the characteristic quantity according to the priority height and the allowable amount that can be received. there is.

여기서, 오브젝트의 특징량의 구체예에 대하여 설명한다. RGB 카메라에 의해 추출하는 특징량으로서는, 사람의 정적인 특징인 얼굴, 손, 발, 지문, 체격, 머리카락색, 눈빛의 키 파츠 위치나 이동량 등을 들 수 있다. 또한, 사람의 동적인 특징인 보용, 목소리, 행동, 깜박임, 이동 방향 벡터 등을 들 수 있다. 또한, 부가 정보로서, 옷 또는 물체의 형태나 색이나 무늬나 이동량, 소지품, 액세서리, 장바구니, 대차 등을 들 수 있다.Here, specific examples of characteristic quantities of objects will be described. Feature quantities extracted by an RGB camera include the static characteristics of a person, such as the position and movement amount of key parts such as face, hand, foot, fingerprint, physique, hair color, and eyes. Additionally, the dynamic characteristics of a person include gait, voice, behavior, blinking, and movement direction vector. Additionally, additional information may include the shape, color, pattern, movement amount, belongings, accessories, shopping cart, cart, etc. of clothes or objects.

또한, Depth 카메라에 의해 추출하는 특징량으로서는, 사람 또는 물체의 이동량, 형태 및 반사율(액티브 방식) 등을 들 수 있다. 또한, RGB 카메라에서도 2차원의 이동량은 취득할 수 있지만, 깊이 정보가 취득 가능한 Depth 카메라는, 3차원의 이동량을 취득할 수 있다.Additionally, feature quantities extracted by the depth camera include the movement amount, shape, and reflectance (active method) of a person or object. In addition, an RGB camera can also acquire two-dimensional movement amount, but a depth camera that can acquire depth information can acquire three-dimensional movement amount.

상기 외에, 편향 카메라에서는, RGB 카메라와 마찬가지의 특징량을 추출할 수 있고, 특히, 유리너머나 수중 등의 피사체에 사용할 수 있다. DVS 카메라에서는, 물체의 이동 물체의 외형, 고휘도 또는 저휘도 물체의 위치 변화 등의 특징량을 추출할 수 있다. 멀티스펙트럼·IR 카메라에서는, 식물의 식생 지수(NDVI) 등의 특징량을 추출할 수 있다. 고속 비전 카메라에서는, 물체의 이동량이나 벡터, 고속 이동 물체 상의 모양이나 문자 등의 특징량을 추출할 수 있다. 또한, 적외선 카메라에서는, 사람 또는 물체의 온도 등의 특징량을 추출할 수 있다.In addition to the above, a deflection camera can extract the same feature quantities as an RGB camera, and can especially be used for subjects such as behind glass or underwater. In a DVS camera, feature quantities such as the appearance of a moving object and the change in position of a high-brightness or low-brightness object can be extracted. With multispectral/IR cameras, feature quantities such as plant vegetation index (NDVI) can be extracted. High-speed vision cameras can extract feature quantities such as the movement amount or vector of an object, or shapes or characters on a high-speed moving object. Additionally, an infrared camera can extract characteristic quantities such as the temperature of a person or object.

(3) 카메라(12)의 동작예(3) Example of operation of camera 12

이어서, 도 3을 참조하여, 카메라(12)의 동작예에 대하여 설명한다. 도 3은, 카메라(12)의 동작예를 나타내는 흐름도이다. 카메라(12)의 촬상부(22)가, 오브젝트를 포함하는 화상을 촬상하면, 이하의 동작을 개시한다.Next, with reference to FIG. 3, an operation example of the camera 12 will be described. FIG. 3 is a flowchart showing an example of operation of the camera 12. When the imaging unit 22 of the camera 12 captures an image including an object, the following operations are started.

도 3에 나타낸 바와 같이, 스텝 S1에 있어서, 특징량 추출부(24)는, 촬상부(22)에서 촬상한 RGB 화상으로부터 오브젝트를 추출한다.As shown in FIG. 3, in step S1, the feature extraction unit 24 extracts an object from the RGB image captured by the imaging unit 22.

스텝 S2에 있어서, 특징량 추출부(24)는, 추출한 각 오브젝트로부터, 그 오브젝트의 특징량을 복수 추출한다.In step S2, the feature quantity extraction unit 24 extracts a plurality of feature quantities for each extracted object.

스텝 S3에 있어서, 이동 방향 연산부(25)는, Depth 정보로부터 각 대응하는 오브젝트의 이동 방향 벡터를 연산한다.In step S3, the movement direction calculation unit 25 calculates the movement direction vector of each corresponding object from depth information.

스텝 S4에 있어서, 제어부(28)는, 추출한 특징량으로부터 우선도의 높이 및 출력처의 허용량에 따라 특징량을 결정하고, 결정한 특징량 및 연산한 이동 방향 벡터의 정보를 오브젝트마다 패킹한다.In step S4, the control unit 28 determines a feature quantity from the extracted feature quantity according to the priority height and the allowable amount of the output destination, and packs the determined feature quantity and the calculated movement direction vector information for each object.

스텝 S5에 있어서, 출력부(32)는, 오브젝트의 수만큼 패킹된 데이터를 외부로 출력한다. 즉, 출력부(32)는, 제어부(28)에서 결정한 특징량을 외부로 출력할 수 있다.In step S5, the output unit 32 outputs data packed as the number of objects to the outside. That is, the output unit 32 can output the characteristic quantity determined by the control unit 28 to the outside.

(4) 추적 시스템(10)에 의한 트래킹 방법(4) Tracking method by tracking system 10

이어서, 도 4 내지 도 7을 참조하여, 본 실시 형태에 관한 추적 시스템(10)에 의한 트래킹 방법에 대하여 설명한다. 도 4는, 추적 시스템(10)에 의한 트래킹 방법을 설명하기 위한 화상이다. 도 4의 A는 카메라(12)의 Cam1로 촬상한 화상을 나타내고, 도 4의 B는 카메라(12)의 Cam2로 촬상한 화상을 나타내고, 도 4의 C는 카메라(12)의 Cam3으로 촬상한 화상을 나타내고 있다.Next, with reference to FIGS. 4 to 7 , a tracking method using the tracking system 10 according to the present embodiment will be described. FIG. 4 is an image for explaining the tracking method by the tracking system 10. A in FIG. 4 represents an image captured by Cam1 of the camera 12, B in FIG. 4 represents an image captured by Cam2 of the camera 12, and C in FIG. 4 represents an image captured by Cam3 of the camera 12. It shows a burn.

본 실시 형태에서는, 도 4의 B에 나타낸 바와 같이, 사람 1 및 사람 2가 Cam1 방향(도면의 좌측 방향)으로 이동하고, 사람 3이 Cam3 방향(도면의 우측 방향)으로 이동하는 화상을 Cam2로 촬상하고, 그 촬상한 화상에 기초하여, Cam1로 사람 1 및 사람 2를 트래킹하고, Cam3으로 사람 3을 트래킹하는 경우에 대하여 설명한다.In this embodiment, as shown in FIG. 4B, the image of Person 1 and Person 2 moving in the Cam1 direction (left direction in the drawing) and Person 3 moving in the Cam3 direction (right direction in the drawing) is displayed as Cam2. A case where an image is captured, and Person 1 and Person 2 are tracked with Cam1 and Person 3 is tracked with Cam3 based on the captured image will be described.

도 5 및 도 6을 참조하여, 추적 시스템(10)에 의한 리스트 관리에 대하여 설명한다. 도 5는, 추적 시스템(10)에 의한 리스트 관리를 나타내는 개념도이다. 도 5의 A는 호스트인 서버(11)가 관리하는 특징량의 리스트를 나타내고, 도 5의 B는 Cam1이 관리하는 특징량의 리스트를 나타내고, 도 5의 C는 Cam2가 관리하는 특징량의 리스트를 나타내고, 도 5의 D는 Cam3이 관리하는 특징량의 리스트를 나타내고 있다.With reference to FIGS. 5 and 6, list management by the tracking system 10 will be described. FIG. 5 is a conceptual diagram showing list management by the tracking system 10. A in FIG. 5 represents a list of feature quantities managed by the host server 11, B in FIG. 5 represents a list of feature quantities managed by Cam1, and C in FIG. 5 represents a list of feature quantities managed by Cam2. , and D in FIG. 5 shows a list of feature quantities managed by Cam3.

도 5의 A에 나타낸 바와 같이, 서버(11)는, 예를 들어 추적 대상의 오브젝트의 전 특징량인 특징량 1부터 특징량 8까지의 리스트를 관리하고 있다. 도 5의 B에 나타낸 바와 같이, Cam1은, 예를 들어 추적 대상의 오브젝트의 특징량을, 우선도순으로, 특징량 1, 3, 6, 2, 4, 5의 순서로 리스트를 관리하고 있다. 도 5의 C에 나타낸 바와 같이, Cam2는, 예를 들어 추적 대상의 오브젝트의 특징량을, 우선도순으로, 특징량 2, 1, 4, 5, 3, 6의 순서로 리스트를 관리하고 있다. 도 5의 D에 나타낸 바와 같이, Cam3은, 예를 들어 추적 대상의 오브젝트의 특징량을, 우선도순으로, 특징량 5 , 2, 1, 3, 4, 6의 순서로 리스트를 관리하고 있다.As shown in FIG. 5A, the server 11 manages, for example, a list of feature quantities 1 to 8, which are all feature quantities of the object to be tracked. As shown in FIG. 5B, Cam1 manages a list of feature quantities of the object to be tracked, for example, in order of priority, with feature quantities 1, 3, 6, 2, 4, and 5. As shown in FIG. 5C, Cam2, for example, manages a list of feature quantities of the object to be tracked in order of priority, with feature quantities 2, 1, 4, 5, 3, and 6. As shown in Figure 5D, Cam3, for example, manages a list of feature quantities of the object to be tracked in order of priority, with feature quantities 5, 2, 1, 3, 4, and 6.

도 6은, 추적 시스템(10)에 의한 리스트 배포의 예를 나타내는 시퀀스도이다. 도 6에 나타낸 바와 같이, 호스트인 서버(11)가 특징량을 관리하는 경우, 예를 들어 서버(11)가, Cam2에 Cam1 및 Cam3의 리스트를 배포하고, Cam1 및 Cam3에 각각 Cam2의 리스트를 배포한다.FIG. 6 is a sequence diagram showing an example of list distribution by the tracking system 10. As shown in FIG. 6, when the server 11, which is the host, manages feature quantities, for example, the server 11 distributes the lists of Cam1 and Cam3 to Cam2, and distributes the list of Cam2 to Cam1 and Cam3, respectively. Distribute.

여기서, 하나의 카메라(12)는, 특징량 추출부(24)에서 추출한 복수의 특징량을 취급할 수 있다. 그것들 복수의 특징량은, 상기한 바와 같이, 카메라(12)마다 리스트(우선도를 갖는 특징량 테이블)로 관리되어 있다. 각 카메라(12)는, 각각 독자적으로 우선도 결정부(27)에 의해 리스트 내의 복수의 특징량의 우선 순위를 결정할 수 있다.Here, one camera 12 can handle a plurality of feature quantities extracted by the feature quantity extraction unit 24. As described above, these plural feature quantities are managed in a list (feature table with priority) for each camera 12. Each camera 12 can independently determine the priority of a plurality of feature quantities in the list by the priority determination unit 27.

송신측(송부원) 카메라(12)는, 특징량을 출력할 때, 송신측과 수신측(송부처)의 리스트를 비교하여, 수신측 카메라(12)의 우선도에 따라, 송신 데이터를 재배열하여 출력할 수 있다.When outputting a characteristic quantity, the transmitting side (transmitting source) camera 12 compares the lists of the transmitting side and the receiving side (transmitting destination) and re-reads the transmitted data according to the priority of the receiving side camera 12. It can be arranged and printed.

통신 대역 등의 제약이나 그밖의 시스템적인 요청에 의해 송수신 용량이 제한되는 경우, 각 카메라(12)는, 우선도가 낮은 것부터 차례로 버리고, 제약 내에 들어가도록 오브젝트마다 출력하는 특징량의 총 용량을 조정할 수 있다.When the transmission and reception capacity is limited due to constraints such as communication bandwidth or other systematic requests, each camera 12 sequentially discards the ones with the lowest priorities and adjusts the total capacity of the feature amount output for each object to fall within the restrictions. You can.

또한, 각 카메라(12)가 관리하는 리스트는, 서버(11)와 카메라(12) 사이 또는 카메라(12)끼리 사이(P2P 사이)에서, 일정 간격 통신 또는 어떤 변화가 발생했을 때 발생하는 이벤트 통신에 의해 교환되어, 카메라(12)의 상태 변화에 동적으로 추종할 수 있는 구조를 갖고 있다.In addition, the list managed by each camera 12 is communicated between the server 11 and the camera 12 or between the cameras 12 (P2P) at regular intervals or event communication that occurs when a change occurs. It has a structure that can dynamically follow changes in the state of the camera 12.

이어서, 도 4 및 도 7을 참조하여, 추적 시스템(10)에 의한 서버(11)를 통한 트래킹 방법에 대하여 설명한다. 도 7은, 추적 시스템(10)에 의한 서버(11)를 통한 트래킹 방법을 설명하기 위한 개념도이다.Next, with reference to FIGS. 4 and 7 , a tracking method using the tracking system 10 through the server 11 will be described. FIG. 7 is a conceptual diagram for explaining a tracking method through the server 11 by the tracking system 10.

도 4 및 도 7에 나타낸 바와 같이, 추적 시스템(10)은, 예를 들어 카메라(12)의 Cam2로 추적 대상의 오브젝트인 사람 1, 사람 2 및 사람 3을 포함하는 화상을 촬상한다. 이어서, Cam2는, 촬상한 화상으로부터 사람 1, 사람 2 및 사람 3의 각각의 특징량을 추출하여, 3차원의 이동 방향 벡터를 연산하여, 특징량 및 이동 방향 벡터 정보를 사람마다 패킹한다. 그리고, Cam2는, 서버(11)로 사람마다의 패킹 정보를 송신한다. 패킹 정보를 수신한 서버(11)는, 사람마다의 패킹 정보 내의 특징량과 서버(11) 내에 등록 완료의 특징량을 대조하여, 추적 대상을 특정한다.As shown in FIGS. 4 and 7 , the tracking system 10 captures images including Person 1, Person 2, and Person 3, which are objects to be tracked, with, for example, Cam2 of the camera 12. Next, Cam2 extracts each feature quantity of person 1, person 2, and person 3 from the captured image, calculates a three-dimensional movement direction vector, and packs the feature quantity and movement direction vector information for each person. Then, Cam2 transmits each person's packing information to the server 11. The server 11, which has received the packing information, compares the characteristic quantities in the packing information for each person with the characteristic quantities already registered in the server 11, and specifies the tracking target.

도 7에 나타낸 바와 같이, 대조의 결과, 사람 1의 특징량이 서버(11) 내에 미등록의 신규의 특징량인 경우, 서버(11)는, 그 신규의 특징량을 서버(11) 내에 등록하고, 패킹 정보 내의 이동 방향 벡터 정보에 의해, 사람 1의 이동처는 Cam1 방향이라고 판정한다. 사람 2 및 사람 3의 특징량이 서버(11) 내에 등록 완료의 특징량인 경우, 서버(11)는, 그것들의 특징량이 서버(11) 내에 등록 완료라고 판정하고, 패킹 정보 내의 이동 방향 벡터 정보에 의해, 사람 2의 이동처는 Cam1 방향이고 사람 3의 이동처는 Cam3 방향이라고 판정한다.As shown in Fig. 7, when the result of the collation is that the characteristic quantity of person 1 is a new characteristic quantity that is not registered in the server 11, the server 11 registers the new characteristic quantity in the server 11, Based on the movement direction vector information in the packing information, it is determined that the movement destination of person 1 is in the Cam1 direction. When the characteristic quantities of person 2 and person 3 are characteristic quantities that have been registered in the server 11, the server 11 determines that their characteristic quantities are registered in the server 11 and adds them to the movement direction vector information in the packing information. Accordingly, it is determined that person 2's movement destination is in the Cam1 direction and person 3's movement destination is in the Cam3 direction.

그리고, 서버(11)는, 추적 대상의 이동 방향을 따라, Cam1로 사람 1 및 사람 2의 정보를 송신하고, Cam3으로 사람 3의 정보를 송신하고, Cam1이 사람 1 및 사람 2를 추적(트래킹)하고, Cam3이 사람 3을 트래킹한다.Then, the server 11 transmits the information of person 1 and person 2 to Cam1, and the information of person 3 to Cam3, according to the moving direction of the tracking object, and transmits the information of person 3 to Cam3, and Cam1 tracks person 1 and person 2 (tracking ), and Cam3 tracks person 3.

Cam2의 동작과 마찬가지로, Cam1로 사람 1 및 사람 2를 포함하는 화상을 촬상하고, Cam3으로 사람 3을 포함하는 화상을 촬상한다. 이어서, Cam1은, 촬상한 화상으로부터 사람 1 및 사람 2의 각각의 특징량을 추출하여, 3차원의 이동 방향 벡터를 연산하고, 특징량 및 이동 방향 벡터 정보를 사람마다 패킹한다. Cam3은, 촬상한 화상으로부터 사람 3의 특징량을 추출하여, 3차원의 이동 방향 벡터를 연산하고, 특징량 및 이동 방향 벡터 정보를 패킹한다.Similar to the operation of Cam2, images containing person 1 and person 2 are captured with Cam1, and images containing person 3 are captured with Cam3. Next, Cam1 extracts each feature quantity of person 1 and person 2 from the captured image, calculates a three-dimensional movement direction vector, and packs the feature quantity and movement direction vector information for each person. Cam3 extracts the characteristic quantity of person 3 from the captured image, calculates a three-dimensional movement direction vector, and packs the characteristic quantity and movement direction vector information.

그리고, Cam1은, 서버(11)로 사람마다의 패킹 정보를 송신하고, Cam3은, 서버(11)로 사람 3의 패킹 정보를 송신한다. 패킹 정보를 수신한 서버(11)는, 사람마다의 패킹 정보 내의 특징량과 서버(11) 내에 등록 완료의 특징량을 대조하여, 추적 대상을 특정한다.Then, Cam1 transmits packing information for each person to the server 11, and Cam3 transmits packing information for person 3 to the server 11. The server 11, which has received the packing information, compares the characteristic quantities in the packing information for each person with the characteristic quantities already registered in the server 11, and specifies the tracking target.

도 7에 나타낸 바와 같이, 대조의 결과, 사람 1 및 사람 2의 특징량이 서버(11) 내에 등록 완료이기 때문에, 서버(11)는, 사람 1 및 사람 2의 특징량이 서버(11) 내에 등록 완료라고 판정하고, 패킹 정보 내의 이동 방향 벡터 정보에 의해, 사람 1의 이동처는 CamX 방향이고 사람 2의 이동처는 CamY 방향이라고 판정한다.As shown in Fig. 7, as a result of the collation, the characteristic quantities of person 1 and person 2 have been registered in the server 11, so the server 11 has completed the registration of the characteristic quantities of person 1 and person 2 in the server 11 Then, based on the movement direction vector information in the packing information, it is determined that person 1's movement destination is in the CamX direction and person 2's movement destination is in the CamY direction.

마찬가지로, 대조의 결과, 사람 3의 특징량이 서버(11) 내에 등록 완료이기 때문에, 서버(11)는, 사람 3의 특징량이 서버(11) 내에 등록 완료라고 판정하고, 패킹 정보 내의 이동 방향 벡터 정보에 의해, 사람 3의 이동처는 CamZ 방향이라고 판정한다.Similarly, as a result of the collation, since the characteristic quantity of person 3 has been registered in the server 11, the server 11 determines that the characteristic quantity of person 3 has been registered in the server 11, and the movement direction vector information in the packing information Accordingly, it is determined that Person 3's moving destination is in the CamZ direction.

그리고, 서버(11)는, 추적 대상의 이동 방향에 따라, CamX, CamY 및 CamZ로, 각각 사람 1, 사람 2 및 사람 3의 정보를 송신하고, CamX가 사람 1을 트래킹하고, CamY가 사람 2를 트래킹하고, CamZ가 사람 3을 트래킹한다. 추적 시스템(10)은, 이들 동작을 반복하여, 복수의 카메라(12)의 연계에 의해, 추적 대상을 트래킹할 수 있다.Then, the server 11 transmits the information of person 1, person 2, and person 3 to CamX, CamY, and CamZ, respectively, according to the moving direction of the tracking object, with CamX tracking person 1 and CamY tracking person 2. Tracks , and CamZ tracks person 3. The tracking system 10 can repeat these operations and track the tracking target by linking the plurality of cameras 12.

이상으로부터, 본 실시 형태에 관한 복수의 카메라(12)를 구비한 추적 시스템(10)은, 특징량을 사용함으로써, 송수신의 데이터양을 삭감하여 부하를 저감시킬 수 있다. 또한, 추적 시스템(10)은, 사람이나 물체를 인식하여 적절한 복수의 특징량을 취득할 수 있는 카메라(12)로 전환하여 데이터를 취득할 수 있다. 또한, 추적 시스템(10)은, 우선도 리스트에 의해 카메라(12) 사이의 통신량을 다이내믹하게 변경하는 것이 가능해진다. 따라서, 추적 시스템(10)에 의하면, 데이터 대역을 경량화하면서 오브젝트의 검출 정밀도를 높일 수 있다.From the above, the tracking system 10 equipped with a plurality of cameras 12 according to the present embodiment can reduce the load by reducing the amount of data transmitted and received by using the characteristic quantity. Additionally, the tracking system 10 can acquire data by switching to the camera 12, which can recognize a person or object and acquire a plurality of appropriate feature quantities. Additionally, the tracking system 10 can dynamically change the amount of communication between cameras 12 based on the priority list. Therefore, according to the tracking system 10, the object detection accuracy can be increased while reducing the data bandwidth.

또한, 추적 시스템(10)은, 특징량만으로 개인의 얼굴이나 몸의 정보를 직접 출력하지 않기 때문에, 개인의 프라이버시를 보호할 수 있다. 또한, 추적 시스템(10)은, 오브젝트(사람)마다 이동 방향 벡터 정보를 갖고 있기 때문에, 복수의 카메라(12)에 찍힌 복수의 사람을 트래킹할 때, 각각의 오브젝트마다 어느 카메라(12)로 전환해야 할지의 판단 처리를 경량화할 수 있다. 이에 의해, 추적 시스템(10)은, 트래킹할 수 있는 인원수를 증가시키는 것도 가능해진다. 또한, 특징량을 바탕으로 복수의 카메라(12)로 인물을 대조하기 위해, 카메라(12)의 촬상 에어리어를 오버랩시킬 필요가 없어진다.Additionally, the tracking system 10 can protect an individual's privacy because it does not directly output information about an individual's face or body with only feature quantities. Additionally, since the tracking system 10 has movement direction vector information for each object (person), when tracking multiple people captured by multiple cameras 12, it switches to which camera 12 for each object. The judgment process of what to do can be lightened. This makes it possible for the tracking system 10 to increase the number of people that can be tracked. Additionally, in order to collate people with a plurality of cameras 12 based on characteristic quantities, there is no need to overlap the imaging areas of the cameras 12.

2. 제2 실시 형태2. Second embodiment

이어서, 도 8 내지 도 10을 참조하여, 본 기술의 제2 실시 형태에 관한 추적 시스템에 의한 트래킹 방법에 대하여 설명한다. 도 8은, 본 실시 형태에 관한 추적 시스템에 의한 리스트 배포의 예를 나타내는 시퀀스도이다. 본 실시 형태에 관한 트래킹 방법은, 카메라(12) 상호간에 특징량 등의 정보의 수수를 하는 점에서, 제1 실시 형태에 관한 트래킹 방법과 상이하다. 본 실시 형태의 그밖의 점은, 제1 실시 형태와 마찬가지이다.Next, with reference to FIGS. 8 to 10, a tracking method using a tracking system according to a second embodiment of the present technology will be described. Fig. 8 is a sequence diagram showing an example of list distribution by the tracking system according to the present embodiment. The tracking method according to the present embodiment differs from the tracking method according to the first embodiment in that information such as characteristic quantities is exchanged between the cameras 12. Other points of this embodiment are the same as those of the first embodiment.

도 8에 나타낸 바와 같이, 개개의 카메라(12)가 특징량을 관리하는 경우, 예를 들어 Cam2가, Cam1 및 Cam3에 각각 Cam1 및 Cam3의 리스트를 배포하고, Cam1 및 Cam3이, 각각 Cam2에 Cam2의 리스트를 배포한다.As shown in Figure 8, when individual cameras 12 manage feature quantities, for example, Cam2 distributes the list of Cam1 and Cam3 to Cam1 and Cam3, respectively, and Cam1 and Cam3 distribute Cam2 to Cam2, respectively. Distribute the list of

이어서, 도 9 및 도 10을 참조하여, 추적 시스템(10)에 의한 복수의 카메라(12) 상호만의 연계에 의한 자동 추종의 트래킹 방법에 대하여 설명한다. 도 9는, 본 실시 형태에 관한 추적 시스템에 의한 트래킹 방법을 설명하기 위한 개념도이다. 도 10은, 본 실시 형태에 관한 추적 시스템에 의한 트래킹 방법의 예를 나타내는 흐름도이다.Next, with reference to FIGS. 9 and 10 , a tracking method of automatic tracking by linking only the plurality of cameras 12 by the tracking system 10 will be described. Fig. 9 is a conceptual diagram for explaining a tracking method by the tracking system according to the present embodiment. Fig. 10 is a flowchart showing an example of a tracking method by the tracking system according to the present embodiment.

도 9 및 도 10에 나타낸 바와 같이, 스텝 S11에 있어서, 카메라(12)의 Cam2는, 추적 대상의 오브젝트인 사람 1, 사람 2 및 사람 3을 포함하는 화상을 촬상하여, 사람 1, 사람 2 및 사람 3을 검출한다. 이때, Cam2는, 촬상한 화상으로부터 사람 1, 사람 2 및 사람 3의 각각의 특징량을 추출하여, 3차원의 이동 방향 벡터를 연산하여, 특징량 및 이동 방향 벡터 정보를 사람마다 패킹한다. 그리고, Cam2는, 서버(11)로 사람마다의 패킹 정보를 송신한다.9 and 10, in step S11, Cam2 of the camera 12 captures images including Person 1, Person 2, and Person 3 as objects to be tracked, and captures Person 1, Person 2, and Person 3. Detect person 3. At this time, Cam2 extracts each feature quantity of person 1, person 2, and person 3 from the captured image, calculates a three-dimensional movement direction vector, and packs the feature quantity and movement direction vector information for each person. Then, Cam2 transmits each person's packing information to the server 11.

스텝 S12에 있어서, 서버(11) 또는 Cam2는, 예를 들어 주목하는 사람 1을 추적 대상으로서 선택한다. 이때, 패킹 정보를 수신한 서버(11)는, 사람마다의 패킹 정보 내의 특징량과 서버(11) 내에 등록 완료의 특징량을 대조하여, 추적 대상을 특정한다.In step S12, the server 11 or Cam2 selects, for example, person 1 of interest as a tracking target. At this time, the server 11, which has received the packing information, compares the characteristic quantity in the packing information for each person with the characteristic quantity registered in the server 11, and specifies the tracking target.

도 9에 나타낸 바와 같이, 대조의 결과, 사람 1의 특징량이 서버(11) 내에 미등록의 신규의 특징량인 경우, 서버(11)는, 그 신규의 특징량을 서버(11) 내에 등록하고, 패킹 정보 내의 이동 방향 벡터 정보에 의해, 사람 1의 이동처는 Cam1 방향이라고 판정한다. 사람 2 및 사람 3의 특징량이 서버(11) 내에 등록 완료의 특징량인 경우, 서버(11)는, 그것들의 특징량이 서버(11) 내에 등록 완료라고 판정하고, 패킹 정보 내의 이동 방향 벡터 정보에 의해, 사람 2의 이동처는 Cam1 방향이고 사람 3의 이동처는 Cam3 방향이라고 판정한다. 그리고, 서버(11)는, Cam2로 선택한 사람 1의 정보를 송신한다.As shown in Fig. 9, as a result of the collation, if the characteristic quantity of person 1 is a new characteristic quantity that is not registered in the server 11, the server 11 registers the new characteristic quantity in the server 11, Based on the movement direction vector information in the packing information, it is determined that the movement destination of person 1 is in the Cam1 direction. When the characteristic quantities of person 2 and person 3 are characteristic quantities that have been registered in the server 11, the server 11 determines that their characteristic quantities are registered in the server 11 and adds them to the movement direction vector information in the packing information. Accordingly, it is determined that person 2's movement destination is in the Cam1 direction and person 3's movement destination is in the Cam3 direction. Then, the server 11 transmits information about person 1 selected through Cam2.

스텝 S13에 있어서, Cam2는, 서버(11)로부터 수신한 사람 1의 정보에 기초하여, 사람 1을 마크하여 트래킹한다.In step S13, Cam2 marks and tracks person 1 based on information about person 1 received from the server 11.

스텝 S14에 있어서, Cam2는, 패킹 정보 내의 이동 방향 벡터 정보에 의해, 사람 1의 이동처는 Cam1 방향이라고 판정한다. 그리고, Cam2는, Cam1로 촬상 카메라를 전환하는 지시 및 사람 1의 정보를 Cam1로 전달한다.In step S14, Cam2 determines that the movement destination of person 1 is in the Cam1 direction based on the movement direction vector information in the packing information. Then, Cam2 transmits instructions to switch the imaging camera to Cam1 and information about person 1 to Cam1.

스텝 S15에 있어서, Cam1은, Cam2의 동작과 마찬가지로, 사람 1의 트래킹을 계속한다. 이때, Cam1은, 사람 1을 포함하는 화상을 촬상한다. 이어서, Cam1은, 촬상한 화상으로부터 사람 1의 특징량을 추출하여, 3차원의 이동 방향 벡터를 연산한다. Cam1은, 추출한 특징량으로부터 우선도의 높이 및 출력처의 허용량에 따라 복수의 특징량을 결정하고, 결정한 사람 1의 특징량 및 연산한 이동 방향 벡터 정보를 패킹한다. Cam1은, 패킹 정보 내의 이동 방향 벡터 정보에 의해, 사람 1의 이동처의 카메라(12)를 판정한다. 그리고, 패킹 정보 내의 특징량에 기초하여, 오브젝트인 사람 1을 추적한다. 그 후, Cam1은, 판정한 카메라(12)로 촬상 카메라를 전환하는 지시 및 사람 1의 정보를 전달한다.In step S15, Cam1 continues tracking Person 1, similar to the operation of Cam2. At this time, Cam1 captures an image including person 1. Next, Cam1 extracts the characteristic quantity of person 1 from the captured image and calculates a three-dimensional movement direction vector. Cam1 determines a plurality of feature quantities from the extracted feature quantities according to the priority height and the allowable amount of the output destination, and packs the determined feature quantities of person 1 and the calculated movement direction vector information. Cam1 determines the camera 12 where person 1 is moving based on the movement direction vector information in the packing information. Then, based on the feature quantity in the packing information, person 1, which is an object, is tracked. After that, Cam1 transmits the instruction to switch the imaging camera to the determined camera 12 and information about person 1.

이상으로부터, 본 실시 형태에 관한 트래킹 방법에 의하면, 제1 실시 형태에 관한 트래킹 방법과 마찬가지로, 데이터 대역을 경량화하면서 오브젝트의 검출 정밀도를 높일 수 있다. 또한, 본 실시 형태에 관한 트래킹 방법에 의하면, 복수의 카메라(12)가 서버(11)를 통하지 않고 서로 연계하여 특징량을 송수신할 수 있기 때문에, 더 고속도로 추적 대상을 자동 추종할 수 있다.From the above, according to the tracking method according to the present embodiment, like the tracking method according to the first embodiment, object detection accuracy can be increased while reducing the data bandwidth. In addition, according to the tracking method according to the present embodiment, since the plurality of cameras 12 can transmit and receive characteristic quantities in conjunction with each other without going through the server 11, it is possible to automatically follow the highway tracking target.

3. 제3 실시 형태3. Third embodiment

이어서, 도 11 및 도 12를 참조하여, 본 기술의 제3 실시 형태에 관한 추적 시스템(10)에 의한 트래킹 방법에 대하여 설명한다. 도 11은, 본 실시 형태에 관한 추적 시스템(10)에 의한 리스트 관리를 나타내는 개념도이다. 도 11의 A는 호스트인 서버(11)가 관리하는 특징량의 리스트를 나타내고, 도 11의 B는 Cam1이 관리하는 특징량의 리스트를 나타내고, 도 11의 C는 Cam2가 관리하는 특징량의 리스트를 나타내고, 도 11의 D는 Cam3이 관리하는 특징량의 리스트를 나타내고 있다. 본 실시 형태에 관한 트래킹 방법은, 프라이버시 레벨에 따라 특징량의 우선도를 결정하고 있는 점에서, 제1 실시 형태에 관한 트래킹 방법과 상이하다. 본 실시 형태의 그밖의 점은, 제1 실시 형태와 마찬가지이다.Next, with reference to FIGS. 11 and 12 , a tracking method using the tracking system 10 according to the third embodiment of the present technology will be described. Fig. 11 is a conceptual diagram showing list management by the tracking system 10 according to the present embodiment. A in FIG. 11 represents a list of feature quantities managed by the host server 11, B in FIG. 11 represents a list of feature quantities managed by Cam1, and C in FIG. 11 represents a list of feature quantities managed by Cam2. , and D in FIG. 11 shows a list of feature quantities managed by Cam3. The tracking method according to the present embodiment differs from the tracking method according to the first embodiment in that the priority of the feature quantity is determined according to the privacy level. Other points of this embodiment are the same as those of the first embodiment.

도 11의 A에 나타낸 바와 같이, 서버(11)는, 예를 들어 추적 대상의 오브젝트의 전 특징량인 특징량 1부터 특징량 8까지를 프라이버시 레벨과 대응시킨 리스트를 관리하고 있다. 본 실시 형태에서는, 특징량 1 내지 3, 6 내지 8은, 프라이버시 레벨 0이고, 특징량 4는 프라이버시 레벨 1, 특징량 5는 프라이버시 레벨 2이다.As shown in FIG. 11A, the server 11 manages, for example, a list in which feature quantities 1 to 8, which are all feature quantities of the object to be tracked, are associated with privacy levels. In this embodiment, feature quantities 1 to 3 and 6 to 8 are privacy level 0, feature quantity 4 is privacy level 1, and feature quantity 5 is privacy level 2.

도 11의 B에 나타낸 바와 같이, Cam1은, 예를 들어 추적 대상의 오브젝트의 특징량을, 우선도순으로, 특징량 1, 3, 6, 2, 4, 5의 순서로 리스트를 관리하고 있다. 도 11의 C에 나타낸 바와 같이, Cam2는, 예를 들어 추적 대상의 오브젝트의 특징량을, 우선도순으로, 특징량 2, 1, 4, 5, 3, 6의 순서로 리스트를 관리하고 있다. 도 11의 D에 나타낸 바와 같이, Cam3은, 예를 들어 추적 대상의 오브젝트의 특징량을, 우선도순으로, 특징량 5, 2, 1, 3, 4, 6의 순서로 리스트를 관리하고 있다. 그리고, Cam1, Cam2 및 Cam3의 각각의 특징량 4는 프라이버시 레벨 1이고, 특징량 5는 프라이버시 레벨 2이다. Cam1, Cam2 및 Cam3의 특징량 4 및 5 이외의 특징량은, 프라이버시 레벨 0이다.As shown in FIG. 11B, Cam1 manages a list of feature quantities of the object to be tracked, for example, in order of priority, with feature quantities 1, 3, 6, 2, 4, and 5. As shown in FIG. 11C, Cam2, for example, manages a list of feature quantities of the object to be tracked in order of priority, with feature quantities 2, 1, 4, 5, 3, and 6. As shown in Figure 11D, Cam3, for example, manages a list of feature quantities of the object to be tracked in order of priority, with feature quantities 5, 2, 1, 3, 4, and 6. And feature quantity 4 of each of Cam1, Cam2, and Cam3 is privacy level 1, and feature quantity 5 is privacy level 2. Feature quantities other than feature quantities 4 and 5 of Cam1, Cam2, and Cam3 are privacy level 0.

도 12는, 본 실시 형태에 관한 추적 시스템에 의한 트래킹 방법의 예를 나타내는 시퀀스도이다.Fig. 12 is a sequence diagram showing an example of a tracking method by the tracking system according to the present embodiment.

도 12에 나타낸 바와 같이, 예를 들어 카메라(12)의 Cam1로부터 Cam2로 사람 1의 정보를 송신하는 경우, Cam1이 취득한 사람 1의 정보를, Cam1의 리스트 우선도순 그대로 송신하는 것은 아니고, 수신측 Cam2의 리스트의 우선도 및 프라이버시 레벨에 따라 재배열한 리스트로 하고 나서 송신한다. 만일, 데이터의 송수신 용량에 제한이 있는 경우는, 우선도가 낮은 것 또는 프라이버시 레벨이 높은 것부터 차례로 출력하는 데이터를 삭제하고 송신한다.As shown in FIG. 12, for example, when transmitting information about person 1 from Cam1 of camera 12 to Cam2, the information about person 1 acquired by Cam1 is not transmitted in order of priority in Cam1's list, but is transmitted on the receiving side. The Cam2 list is rearranged according to the priority and privacy level and then transmitted. If there is a limit to the data transmission and reception capacity, output data is deleted and transmitted in order, starting from the lowest priority or the highest privacy level.

Cam2는, 수신한 Cam1로부터의 사람 1의 정보와 Cam2에서 취득한 사람 1의 정보를 대조하여, 일치하는지 여부를 판정한다. 일치한 경우는, 그 인물이 사람 1이라고 하고, Cam2로 사람 1의 트래킹을 행한다. 불일치의 경우는, 그 인물이 사람 1과는 다른 사람이라고 하고, Cam2에서 취득한 다른 가능성이 있는 인물과의 대조를 행한다.Cam2 compares the information about person 1 received from Cam1 with the information about person 1 acquired from Cam2, and determines whether they match. If they match, it is assumed that the person is person 1, and tracking of person 1 is performed with Cam2. In the case of a mismatch, it is assumed that the person is different from person 1, and a comparison is made with other possible people obtained from Cam2.

그 후, 사람 1이 Cam2의 촬상 범위로부터 Cam3 방향으로 이동하는 경우, Cam2는, 수신측 Cam3의 리스트의 우선도 및 프라이버시 레벨에 따라 재배열한 리스트로 하고 나서 사람 1의 정보를 송신한다.Afterwards, when Person 1 moves from the imaging range of Cam2 toward Cam3, Cam2 rearranges the list of Cam3 on the receiving side according to the priority and privacy level and then transmits Person 1's information.

Cam3은, Cam2와 마찬가지로, 수신한 Cam2로부터의 사람 1의 정보와 Cam3에서 취득한 사람 1의 정보를 대조하여, 일치하는지 여부를 판정한다. 일치한 경우는, 그 인물이 사람 1이라고 하고, Cam3으로 사람 1의 트래킹을 계속한다. 불일치의 경우는, 그 인물이 사람 1과는 다른 사람이라고 하고, Cam3에서 취득한 다른 가능성이 있는 인물과의 대조를 행한다.Cam3, like Cam2, compares the information about person 1 received from Cam2 with the information about person 1 acquired from Cam3 and determines whether they match. If there is a match, it is assumed that the person is person 1, and tracking of person 1 continues with Cam3. In the case of a mismatch, it is assumed that the person is different from person 1, and a comparison is made with other possible people obtained from Cam3.

이상으로부터, 본 실시 형태에 관한 트래킹 방법에 의하면, 제1 실시 형태에 관한 트래킹 방법과 마찬가지로, 데이터 대역을 경량화하면서 오브젝트의 검출 정밀도를 높일 수 있어, 판단 처리를 경량화할 수 있다. 또한, 본 실시 형태에 관한 트래킹 방법에 의하면, 프라이버시 레벨에 따라 송신하는 특징량을 결정하고 있기 때문에, 더 프라이버시를 보호할 수 있다.From the above, according to the tracking method according to the present embodiment, like the tracking method according to the first embodiment, object detection accuracy can be increased while reducing the data bandwidth, and judgment processing can be lightened. Additionally, according to the tracking method according to the present embodiment, since the feature amount to be transmitted is determined according to the privacy level, privacy can be further protected.

4. 제4 실시 형태4. Fourth embodiment

이어서, 도 13을 참조하여, 본 기술의 제4 실시 형태에 관한 추적 시스템(10)에 의한 트래킹 방법에 대하여 설명한다. 도 13은, 본 실시 형태에 관한 추적 시스템(10)에 의한 트래킹 방법을 설명하기 위한 개념도이다. 본 실시 형태에 관한 트래킹 방법은, 복수인의 감정 정보를 고려하여 사람 등의 오브젝트를 트래킹하고 있는 점에서, 제1 실시 형태에 관한 트래킹 방법과 상이하다. 본 실시 형태의 그밖의 점은, 제1 실시 형태와 마찬가지이다.Next, with reference to FIG. 13, a tracking method using the tracking system 10 according to the fourth embodiment of the present technology will be described. FIG. 13 is a conceptual diagram for explaining the tracking method by the tracking system 10 according to the present embodiment. The tracking method according to the present embodiment is different from the tracking method according to the first embodiment in that it tracks objects such as people by taking emotional information of multiple people into consideration. Other points of this embodiment are the same as those of the first embodiment.

도 13에 나타낸 바와 같이, 본 실시 형태에 관한 추적 시스템(10)은, 예를 들어 카메라(12)의 Cam1로 사람 1, 사람 2 및 사람 3을 포함하는 화상을 촬상하고, 촬상한 화상으로부터 사람 1, 사람 2 및 사람 3의 각각의 특징량을 추출하여, 3차원의 이동 방향 벡터를 연산하여, 감정 정보를 취득한다. 또한, Cam2로 사람 4, 사람 5 및 사람 6을 포함하는 화상을 촬상하고, 촬상한 화상으로부터 사람 4, 사람 5 및 사람 6의 각각의 특징량을 추출하여, 3차원의 이동 방향 벡터를 연산하여, 감정 정보를 취득한다. 또한, Cam3으로 사람 7, 사람 8 및 사람 9를 포함하는 화상을 촬상하고, 촬상한 화상으로부터 사람 7, 사람 8 및 사람 9의 각각의 특징량을 추출하여, 3차원의 이동 방향 벡터를 연산하여, 감정 정보를 취득한다.As shown in FIG. 13, the tracking system 10 according to the present embodiment captures images including person 1, person 2, and person 3 with, for example, Cam1 of the camera 12, and detects the person from the captured images. Each feature quantity of person 1, person 2, and person 3 is extracted, a three-dimensional movement direction vector is calculated, and emotional information is acquired. In addition, images containing Person 4, Person 5, and Person 6 are captured with Cam2, the respective feature quantities of Person 4, Person 5, and Person 6 are extracted from the captured images, and a three-dimensional movement direction vector is calculated. , acquire emotional information. In addition, images containing Person 7, Person 8, and Person 9 are captured with Cam3, the respective feature quantities of Person 7, Person 8, and Person 9 are extracted from the captured images, and a three-dimensional movement direction vector is calculated. , acquire emotional information.

이상으로부터, 본 실시 형태에 관한 트래킹 방법에 의하면, 제1 실시 형태에 관한 트래킹 방법과 마찬가지로, 데이터 대역을 경량화하면서 오브젝트의 검출 정밀도를 높일 수 있다. 또한, 본 실시 형태에 관한 트래킹 방법에 의하면, Cam1, Cam2 및 Cam3에서 취득한 사람 1 내지 사람 9의 복수인의 감정 정보로부터 그 장소 전체의 감정의 흐름을 파악할 수 있기 때문에, 그 장소 전체의 감정의 흐름에 따라, 추적 대상을 트래킹할 수 있다.From the above, according to the tracking method according to the present embodiment, like the tracking method according to the first embodiment, object detection accuracy can be increased while reducing the data bandwidth. In addition, according to the tracking method according to the present embodiment, the flow of emotions of the entire place can be grasped from the emotional information of multiple people 1 to 9 obtained from Cam1, Cam2, and Cam3, so the flow of emotions of the entire place can be identified. Depending on the flow, you can track the tracking target.

또한, 본 기술에서는, 이하의 구성을 취할 수 있다.Additionally, the present technology can have the following configuration.

(1)(One)

오브젝트를 촬상하는 촬상부와,An imaging unit that captures an image of an object,

상기 촬상부에서 촬상한 상기 오브젝트의 특징량을 복수 추출하는 특징량 추출부와,a feature quantity extraction unit that extracts a plurality of feature quantities of the object imaged by the imaging unit;

상기 특징량 추출부에서 추출한 복수의 상기 특징량의 우선도를 결정하는 우선도 결정부와,a priority determination unit that determines priorities of the plurality of feature quantities extracted by the feature quantity extraction unit;

상기 우선도의 높이 및 출력처의 허용량에 따라, 상기 특징량을 결정하는 제어부와,a control unit that determines the feature amount according to the height of the priority and the allowable amount of the output destination;

상기 제어부에서 결정한 상기 특징량을 출력하는 출력부An output unit that outputs the characteristic quantity determined by the control unit.

를 구비하는 촬상 장치.An imaging device having a.

(2)(2)

상기 촬상부는, 동시에 동일 영역의 상기 오브젝트를 촬상하는, (1)에 기재된 촬상 장치.The imaging device according to (1), wherein the imaging unit simultaneously images the object in the same area.

(3)(3)

상기 오브젝트의 이동 방향을 연산하는 이동 방향 연산부를 더 구비하고,Further comprising a movement direction calculation unit that calculates the movement direction of the object,

상기 출력부는, 상기 특징량과 상기 이동 방향을 관련지어 출력하는, (1) 또는 (2)에 기재된 촬상 장치.The imaging device according to (1) or (2), wherein the output unit outputs an output in association with the characteristic quantity and the moving direction.

(4)(4)

상기 우선도 결정부는, 각각의 상기 특징량의 프라이버시 레벨을 설정하는 프라이버시 레벨 설정부를 갖고, 상기 프라이버시 레벨에 따라 상기 우선도를 결정하는, (1) 내지 (3)의 어느 하나에 기재된 촬상 장치.The imaging device according to any one of (1) to (3), wherein the priority determination unit has a privacy level setting unit that sets a privacy level for each of the feature quantities, and determines the priority according to the privacy level.

(5)(5)

상기 촬상부의 촬상 위치 및 촬상 방향을 취득하는 촬상 위치 취득부를 더 구비하고,further comprising an imaging position acquisition unit that acquires an imaging position and an imaging direction of the imaging unit;

상기 출력부는, 상기 촬상 위치 및 상기 촬상 방향을 출력하는, (1) 내지 (4)의 어느 하나에 기재된 촬상 장치.The imaging device according to any one of (1) to (4), wherein the output unit outputs the imaging position and the imaging direction.

(6)(6)

상기 촬상 장치가 설치되는 주위의 환경 정보를 취득하는 환경 정보 취득부를 더 구비하고,further comprising an environmental information acquisition unit that acquires environmental information about the surroundings where the imaging device is installed,

상기 제어부는, 상기 환경 정보에 기초하여, 상기 특징량의 출력처를 결정하는, (1) 내지 (5)의 어느 하나에 기재된 촬상 장치.The imaging device according to any one of (1) to (5), wherein the control unit determines an output destination of the feature quantity based on the environmental information.

(7)(7)

상기 특징량의 출력처의 상태 변화 정보를 취득하는 상태 변화 정보 취득부를 더 구비하고,further comprising a state change information acquisition unit that acquires state change information of an output destination of the characteristic quantity,

상기 제어부는, 상기 상태 변화 정보에 따라, 상기 출력처를 결정하는, (1) 내지 (6)의 어느 하나에 기재된 촬상 장치.The imaging device according to any one of (1) to (6), wherein the control unit determines the output destination according to the state change information.

(8)(8)

상기 오브젝트의 감정에 관한 감정 정보를 취득하는 감정 정보 취득부를 더 구비하고,Further comprising an emotion information acquisition unit that acquires emotion information regarding the emotion of the object,

상기 출력부는, 상기 특징량과 상기 감정 정보를 관련지어 출력하는, (1) 내지 (7)의 어느 하나에 기재된 촬상 장치.The imaging device according to any one of (1) to (7), wherein the output unit outputs the feature quantity in association with the emotion information.

(9)(9)

상기 촬상부는, 상기 오브젝트를 복수 촬상하고,The imaging unit captures multiple images of the object,

상기 촬상부에서 촬상한 복수의 상기 오브젝트로부터, 주목하는 상기 오브젝트를 선택하는 대상 선택부를 더 구비하고,further comprising an object selection unit that selects the object of interest from the plurality of objects imaged by the imaging unit;

상기 특징량 추출부는, 상기 대상 선택부에서 선택한 상기 오브젝트의 특징량을 복수 추출하는, (1) 내지 (8)의 어느 하나에 기재된 촬상 장치.The imaging device according to any one of (1) to (8), wherein the feature quantity extraction unit extracts a plurality of feature quantities of the object selected by the object selection unit.

(10)(10)

우선도의 높이 및 입력 가능한 허용량에 따라, 오브젝트의 복수의 특징량을 입력하는 입력부와,an input unit for inputting a plurality of characteristic quantities of an object according to the priority height and the allowable input amount;

상기 입력부에서 입력한 상기 특징량에 기초하여, 상기 오브젝트를 추적하는 추적부를 구비하는 촬상 장치.An imaging device comprising a tracking unit that tracks the object based on the characteristic quantity input from the input unit.

(11)(11)

오브젝트를 촬상하는 촬상부와,An imaging unit that captures an image of an object,

상기 촬상부에서 촬상한 상기 오브젝트의 특징량을 복수 추출하는 특징량 추출부와,a feature quantity extraction unit that extracts a plurality of feature quantities of the object imaged by the imaging unit;

상기 특징량 추출부에서 추출한 복수의 상기 특징량의 우선도를 결정하는 우선도 결정부와,a priority determination unit that determines priorities of the plurality of feature quantities extracted by the feature quantity extraction unit;

상기 우선도의 높이 및 송신처의 허용량에 따라, 상기 특징량을 송신하는 송신부와,a transmitting unit that transmits the characteristic quantity according to the height of the priority and the allowable amount of the transmission destination;

상기 우선도의 높이 및 수신 가능한 허용량에 따라, 상기 특징량을 수신하는 수신부와,a receiving unit that receives the characteristic quantity according to the height of the priority and the allowable quantity that can be received;

상기 수신부에서 수신한 상기 특징량에 기초하여, 상기 오브젝트를 추적하는 추적부를 갖는 촬상 장치를 복수 구비하고,Provided with a plurality of imaging devices having a tracking unit that tracks the object based on the characteristic quantity received by the receiving unit,

복수의 상기 촬상 장치는, 서로 연계하여 상기 특징량을 송수신하는, 추적 시스템.A tracking system wherein the plurality of imaging devices transmit and receive the characteristic quantity in conjunction with each other.

(12)(12)

오브젝트를 촬상하는 스텝과,Steps for imaging an object,

촬상한 상기 오브젝트의 특징량을 복수 추출하는 스텝과,A step of extracting a plurality of feature quantities of the imaged object;

추출한 복수의 상기 특징량의 우선도를 결정하는 스텝과,A step of determining the priority of the plurality of extracted feature quantities;

상기 우선도의 높이 및 출력처의 허용량에 따라, 상기 특징량을 결정하는 스텝과,a step of determining the feature quantity according to the height of the priority and the allowance of an output destination;

결정한 상기 특징량을 출력하는 스텝Step for outputting the determined characteristic quantity

을 포함하는 촬상 방법.An imaging method comprising:

(13)(13)

우선도의 높이 및 입력 가능한 허용량에 따라, 오브젝트의 복수의 특징량을 입력하는 스텝과,Steps for inputting a plurality of characteristic quantities of an object according to the priority height and the allowable input amount,

입력한 상기 특징량에 기초하여, 상기 오브젝트를 추적하는 스텝A step of tracking the object based on the inputted feature quantity

을 포함하는 촬상 방법.An imaging method comprising:

10: 추적 시스템
11: 서버
12: 카메라(촬상 장치)
21: 입력부
22: 촬상부
23: 촬상 위치 취득부
24: 특징량 추출부
25: 이동 방향 연산부
26: 프라이버시 레벨 설정부
27: 우선도 결정부
28: 제어부
29: 환경 정보 취득부
30: 상태 변화 정보 취득부
31: 감정 정보 취득부
32: 출력부
33: 추적부
34: 통신부
41: 대상 선택부
42: 송신부
43: 수신부
10: Tracking system
11: Server
12: Camera (imaging device)
21: input unit
22: imaging unit
23: Imaging position acquisition unit
24: Feature extraction unit
25: Movement direction calculation unit
26: Privacy level setting section
27: Priority decision unit
28: control unit
29: Environmental Information Acquisition Department
30: State change information acquisition unit
31: Appraisal information acquisition unit
32: output unit
33: Tracking unit
34: Department of Communications
41: Target selection unit
42: Transmitting unit
43: Receiving unit

Claims (13)

오브젝트를 촬상하는 촬상부와,
상기 촬상부에서 촬상한 상기 오브젝트의 특징량을 복수 추출하는 특징량 추출부와,
상기 특징량 추출부에서 추출한 복수의 상기 특징량의 우선도를 결정하는 우선도 결정부와,
상기 우선도의 높이 및 출력처의 허용량에 따라, 상기 특징량을 결정하는 제어부와,
상기 제어부에서 결정한 상기 특징량을 출력하는 출력부
를 구비하는, 촬상 장치.
An imaging unit that captures an image of an object,
a feature quantity extraction unit that extracts a plurality of feature quantities of the object imaged by the imaging unit;
a priority determination unit that determines priorities of the plurality of feature quantities extracted by the feature quantity extraction unit;
a control unit that determines the feature amount according to the height of the priority and the allowable amount of the output destination;
An output unit that outputs the characteristic quantity determined by the control unit.
An imaging device comprising:
제1항에 있어서, 상기 촬상부는, 동시에 동일 영역의 상기 오브젝트를 촬상하는, 촬상 장치.The imaging device according to claim 1, wherein the imaging unit simultaneously images the object in the same area. 제1항에 있어서, 상기 오브젝트의 이동 방향을 연산하는 이동 방향 연산부를 더 구비하고,
상기 출력부는, 상기 특징량과 상기 이동 방향을 관련지어 출력하는, 촬상 장치.
The method of claim 1, further comprising a movement direction calculation unit that calculates a movement direction of the object,
The imaging device wherein the output unit outputs an output in association with the characteristic quantity and the moving direction.
제1항에 있어서, 상기 우선도 결정부는, 각각의 상기 특징량의 프라이버시 레벨을 설정하는 프라이버시 레벨 설정부를 갖고, 상기 프라이버시 레벨에 따라 상기 우선도를 결정하는, 촬상 장치.The imaging device according to claim 1, wherein the priority determination unit has a privacy level setting unit that sets a privacy level for each of the feature quantities, and determines the priority according to the privacy level. 제1항에 있어서, 상기 촬상부의 촬상 위치 및 촬상 방향을 취득하는 촬상 위치 취득부를 더 구비하고,
상기 출력부는, 상기 촬상 위치 및 상기 촬상 방향을 출력하는, 촬상 장치.
The method of claim 1, further comprising an imaging position acquisition unit that acquires an imaging position and an imaging direction of the imaging unit,
The imaging device wherein the output unit outputs the imaging position and the imaging direction.
제1항에 있어서, 상기 촬상 장치가 설치되는 주위의 환경 정보를 취득하는 환경 정보 취득부를 더 구비하고,
상기 제어부는, 상기 환경 정보에 기초하여, 상기 특징량의 출력처를 결정하는, 촬상 장치.
The method of claim 1, further comprising an environmental information acquisition unit that acquires environmental information about the surroundings where the imaging device is installed,
The imaging device wherein the control unit determines an output destination of the feature quantity based on the environmental information.
제1항에 있어서, 상기 특징량의 출력처의 상태 변화 정보를 취득하는 상태 변화 정보 취득부를 더 구비하고,
상기 제어부는, 상기 상태 변화 정보에 따라, 상기 출력처를 결정하는, 촬상 장치.
The method according to claim 1, further comprising a state change information acquisition unit that acquires state change information of an output destination of the characteristic quantity,
The imaging device, wherein the control unit determines the output destination according to the state change information.
제1항에 있어서, 상기 오브젝트의 감정에 관한 감정 정보를 취득하는 감정 정보 취득부를 더 구비하고,
상기 출력부는, 상기 특징량과 상기 감정 정보를 관련지어 출력하는, 촬상 장치.
The method of claim 1, further comprising an emotion information acquisition unit that acquires emotion information regarding the emotion of the object,
The imaging device wherein the output unit outputs the feature quantity and the emotional information in association with each other.
제1항에 있어서, 상기 촬상부는, 상기 오브젝트를 복수 촬상하고,
상기 촬상부에서 촬상한 복수의 상기 오브젝트로부터, 주목하는 상기 오브젝트를 선택하는 대상 선택부를 더 구비하고,
상기 특징량 추출부는, 상기 대상 선택부에서 선택한 상기 오브젝트의 특징량을 복수 추출하는, 촬상 장치.
The method of claim 1, wherein the imaging unit captures multiple images of the object,
further comprising an object selection unit that selects the object of interest from the plurality of objects imaged by the imaging unit,
The imaging device wherein the feature quantity extraction unit extracts a plurality of feature quantities of the object selected by the object selection unit.
우선도의 높이 및 입력 가능한 허용량에 따라, 오브젝트의 복수의 특징량을 입력하는 입력부와,
상기 입력부에서 입력한 상기 특징량에 기초하여, 상기 오브젝트를 추적하는 추적부를 구비하는, 촬상 장치.
an input unit for inputting a plurality of characteristic quantities of an object according to the priority height and the allowable input amount;
An imaging device comprising a tracking unit that tracks the object based on the characteristic quantity input from the input unit.
오브젝트를 촬상하는 촬상부와,
상기 촬상부에서 촬상한 상기 오브젝트의 특징량을 복수 추출하는 특징량 추출부와,
상기 특징량 추출부에서 추출한 복수의 상기 특징량의 우선도를 결정하는 우선도 결정부와,
상기 우선도의 높이 및 송신처의 허용량에 따라, 상기 특징량을 송신하는 송신부와,
상기 우선도의 높이 및 수신 가능한 허용량에 따라, 상기 특징량을 수신하는 수신부와,
상기 수신부에서 수신한 상기 특징량에 기초하여, 상기 오브젝트를 추적하는 추적부를 갖는 촬상 장치를 복수 구비하고,
복수의 상기 촬상 장치는, 서로 연계하여 상기 특징량을 송수신하는, 추적 시스템.
An imaging unit that captures an image of an object,
a feature quantity extraction unit that extracts a plurality of feature quantities of the object imaged by the imaging unit;
a priority determination unit that determines priorities of the plurality of feature quantities extracted by the feature quantity extraction unit;
a transmitting unit that transmits the characteristic quantity according to the height of the priority and the allowable amount of the transmission destination;
a receiving unit that receives the characteristic quantity according to the height of the priority and the allowable quantity that can be received;
Provided with a plurality of imaging devices having a tracking unit that tracks the object based on the characteristic quantity received by the receiving unit,
A tracking system wherein the plurality of imaging devices transmit and receive the characteristic quantity in conjunction with each other.
오브젝트를 촬상하는 스텝과,
촬상한 상기 오브젝트의 특징량을 복수 추출하는 스텝과,
추출한 복수의 상기 특징량의 우선도를 결정하는 스텝과,
상기 우선도의 높이 및 출력처의 허용량에 따라, 상기 특징량을 결정하는 스텝과,
결정한 상기 특징량을 출력하는 스텝
을 포함하는, 촬상 방법.
Steps for imaging an object,
A step of extracting a plurality of feature quantities of the imaged object;
A step of determining the priority of the plurality of extracted feature quantities;
a step of determining the feature quantity according to the height of the priority and the allowance of an output destination;
Step for outputting the determined characteristic quantity
Including an imaging method.
우선도의 높이 및 입력 가능한 허용량에 따라, 오브젝트의 복수의 특징량을 입력하는 스텝과,
입력한 상기 특징량에 기초하여, 상기 오브젝트를 추적하는 스텝
을 포함하는, 촬상 방법.
Steps for inputting a plurality of characteristic quantities of an object according to the priority height and the allowable input amount,
A step of tracking the object based on the inputted feature quantity
Including an imaging method.
KR1020237028412A 2021-03-09 2022-01-19 Imaging device, tracking system and imaging method KR20230155432A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2021-037678 2021-03-09
JP2021037678 2021-03-09
PCT/JP2022/001685 WO2022190652A1 (en) 2021-03-09 2022-01-19 Imaging device, tracking system, and imaging method

Publications (1)

Publication Number Publication Date
KR20230155432A true KR20230155432A (en) 2023-11-10

Family

ID=83226589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237028412A KR20230155432A (en) 2021-03-09 2022-01-19 Imaging device, tracking system and imaging method

Country Status (4)

Country Link
KR (1) KR20230155432A (en)
CN (1) CN116941237A (en)
TW (1) TW202238439A (en)
WO (1) WO2022190652A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093283A (en) 2016-11-30 2018-06-14 マクセル株式会社 Monitoring information gathering system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6128468B2 (en) * 2015-01-08 2017-05-17 パナソニックIpマネジメント株式会社 Person tracking system and person tracking method
JP2018005555A (en) * 2016-07-01 2018-01-11 ソニー株式会社 Image processing device, information processing device and method, as well as program
JP2019016098A (en) * 2017-07-05 2019-01-31 キヤノン株式会社 Information processing apparatus, information processing method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093283A (en) 2016-11-30 2018-06-14 マクセル株式会社 Monitoring information gathering system

Also Published As

Publication number Publication date
CN116941237A (en) 2023-10-24
TW202238439A (en) 2022-10-01
WO2022190652A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
Kong et al. Mmact: A large-scale dataset for cross modal human action understanding
CN109934176B (en) Pedestrian recognition system, recognition method, and computer-readable storage medium
EP3312762B1 (en) Method and system for tracking an object in a defined area
CN101542549B (en) Suspicious behavior detection system and method
US9697420B2 (en) Information processing system, information processing method, and computer-readable recording medium
EP4105101A1 (en) Monitoring system, monitoring method, and monitoring device for railway train
CN105279480A (en) Method of video analysis
US20090092283A1 (en) Surveillance and monitoring system
CN111679695B (en) Unmanned aerial vehicle cruising and tracking system and method based on deep learning technology
JP2006133946A (en) Moving object recognition device
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
CN106529500A (en) Information processing method and system
CN112419233A (en) Data annotation method, device, equipment and computer readable storage medium
Belkada et al. Do pedestrians pay attention? eye contact detection in the wild
CN111833380A (en) Multi-view image fusion space target tracking system and method
KR20230155432A (en) Imaging device, tracking system and imaging method
Chan et al. Autonomous person-specific following robot
Liu et al. Bio-inspired visual attention in agile sensing for target detection
KR101814040B1 (en) An integrated surveillance device using 3D depth information focus control
Angkhem et al. Night-Time Human Detection From UAV
US11126852B2 (en) Method for training a person recognition model using images from a camera, and method for recognizing persons from a trained person recognition model by means of a second camera in a camera network
Borghi Combining deep and depth: Deep learning and face depth maps for driver attention monitoring
KR102641536B1 (en) Cloud-edge platform
CN213715948U (en) Lightweight and multi-pose face detection and recognition system based on deep learning
Halder et al. Anomalous Activity Detection from Ego View Camera of Surveillance Robots