JP2022050430A - Tracking system, tracking method and tracking program - Google Patents

Tracking system, tracking method and tracking program Download PDF

Info

Publication number
JP2022050430A
JP2022050430A JP2021204825A JP2021204825A JP2022050430A JP 2022050430 A JP2022050430 A JP 2022050430A JP 2021204825 A JP2021204825 A JP 2021204825A JP 2021204825 A JP2021204825 A JP 2021204825A JP 2022050430 A JP2022050430 A JP 2022050430A
Authority
JP
Japan
Prior art keywords
tracking
camera
reliability
image
tracking process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021204825A
Other languages
Japanese (ja)
Inventor
拓也 小川
Takuya Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2021204825A priority Critical patent/JP2022050430A/en
Publication of JP2022050430A publication Critical patent/JP2022050430A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Cameras In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a tracking system capable of enhancing the tracking precision when the same target is tracked by plural cameras.
SOLUTION: A tracking system for tracking the same target with plural cameras comprises a first camera 100 for capturing a first picture, a second camera 200 for capturing a second picture which is captured at substantially the same angle of view as the first camera 100, and a processor 80. The processor 80 performs first tracking processing for tracking a target on the first picture, second tracking processing for tracking the target on the second picture, reliability degree calculation processing for calculating a first reliability degree as the reliability degree of a target obtained by the first tracking processing, and a second reliability degree as the reliability of the target obtained by the second tracking processing, and control processing for comparing the first reliability degree and the second reliability degree with each other to specify tracking processing having a higher reliability degree, and controlling one tracking processing based on the specified other tracking processing result.
SELECTED DRAWING: Figure 6
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、同一の対象物を複数のカメラで追跡する追跡システム、追跡方法および追跡プログラムに関する。 The present invention relates to a tracking system, a tracking method and a tracking program for tracking the same object with a plurality of cameras.

入力された画像列または映像において、その画像中の任意の物体をユーザが指定したときに、その物体を追跡する方法が各種提案されている。 Various methods have been proposed for tracking an arbitrary object in the input image sequence or video when the user specifies the object.

特許文献1には動画像から運動物体を検出する運動物体検出装置が記載されている。特許文献1に記載された装置は、現時刻および過去の画像フレーム中の運動物体のオプティカルフローを用いて偽のオプティカルフローを除去する。 Patent Document 1 describes a moving object detection device that detects a moving object from a moving image. The apparatus described in Patent Document 1 removes a fake optical flow using the optical flow of a moving object in the current time and past image frames.

また、複数のカメラを用いて対象物を追跡する方法も知られている。特許文献2には、複数のカメラを連携させて、移動体を追跡監視する監視システムが記載されている。特許文献2に記載された監視システムは、複数の監視カメラが相互間で追跡対象の特徴情報を受け渡し、その特徴情報を用いて各監視カメラが追跡対象を追跡する。 Also known is a method of tracking an object using a plurality of cameras. Patent Document 2 describes a monitoring system that tracks and monitors a moving object by linking a plurality of cameras. In the surveillance system described in Patent Document 2, a plurality of surveillance cameras pass feature information of a tracking target between each other, and each surveillance camera tracks the tracking target using the feature information.

特許文献3には、可視光画像を処理して対象エリアに進入したオブジェクトの検出や追跡等を行う画像処理装置が記載されている。特許文献3に記載された画像処理装置には、可視光カメラおよび遠赤外線カメラが接続され、両カメラは、略同じアングルで、且つ略同じ撮像倍率でオブジェクトの検出を行う対象エリアを撮像する。また、特許文献3に記載された画像処理装置は、オブジェクトの検出に適さない可視光画像の画像領域があった場合、遠赤外線背景画像を用いて、遠赤外線背景差分画像を生成し、撮像されているオブジェクトを検出する。 Patent Document 3 describes an image processing device that processes a visible light image to detect and track an object that has entered the target area. A visible light camera and a far-infrared camera are connected to the image processing device described in Patent Document 3, and both cameras capture an image of a target area for detecting an object at substantially the same angle and at substantially the same imaging magnification. Further, the image processing apparatus described in Patent Document 3 generates a far-infrared background subtraction image using a far-infrared background image when there is an image region of a visible light image unsuitable for detecting an object, and images the image. Detects the image that is being used.

なお、特許文献4には、目標物を高速で検出する目標検出装置が記載されている。特許文献4に記載された目標検出装置は、レンズを介して入力される遠赤外線像と近赤外線像とをそれぞれ検出する検知器を備えている。 In addition, Patent Document 4 describes a target detection device that detects a target object at high speed. The target detection device described in Patent Document 4 includes a detector that detects a far-infrared image and a near-infrared image input through a lens, respectively.

特許第3810657号公報Japanese Patent No. 381657 特開2003-324720号公報Japanese Patent Application Laid-Open No. 2003-324720 特開2014-157452号公報Japanese Unexamined Patent Publication No. 2014-157452 特開平6-174828号公報Japanese Unexamined Patent Publication No. 6-174828

特許文献1に記載された装置のように単カメラを用いて対象物を追跡する場合、カメラの特性によっては、適切に追跡できない環境も存在する。例えば、可視単カメラを用いて追跡する場合、対象物の色が追跡に有効な特徴と言える。しかし、追跡する環境が、暗闇など、色の差異が見つけにくい環境の場合、可視単カメラを用いて対象物を追跡することは困難である。また、例えば、遠赤外線単カメラを用いて追跡する場合、昼夜を問わず温度によって特徴が得られる一方、他の同温物体が存在していた場合、対象物の追跡は困難である。 When tracking an object using a single camera as in the device described in Patent Document 1, there is an environment in which tracking cannot be performed properly depending on the characteristics of the camera. For example, when tracking using a single visible camera, the color of the object can be said to be an effective feature for tracking. However, when the tracking environment is an environment where color differences are difficult to find, such as in the dark, it is difficult to track an object using a single visible camera. Further, for example, when tracking using a far-infrared single camera, characteristics can be obtained depending on the temperature day and night, but when other objects of the same temperature are present, it is difficult to track the object.

また、特許文献2に記載された監視システムは、ある監視カメラ装置が追跡目標を見失うと、抽出された特徴情報を他の監視カメラ装置に伝送し、他の監視カメラ装置が、伝送された特徴情報に一致した場合に映像の伝送を開始する。しかし、各監視カメラ装置が撮影する位置や画角は通常異なるため、他の監視カメラ装置から受信した特徴情報をその後の追跡に精度よく利用できるとは言い難い。 Further, the surveillance system described in Patent Document 2 transmits the extracted feature information to another surveillance camera device when one surveillance camera device loses track of the tracking target, and the other surveillance camera device transmits the transmitted feature. When the information matches, the video transmission is started. However, since the positions and angles of view taken by each surveillance camera device are usually different, it cannot be said that the feature information received from other surveillance camera devices can be accurately used for subsequent tracking.

一方、特許文献3に記載された画像処理装置のように、複数のカメラを用いて対象物を追跡することにより、追跡の信頼性を向上させることは可能である。しかし、複数カメラをステレオ視のように同時に用いて追跡する際には、画角の違いや、視差による見えのズレの問題が存在する。理想的には、画角が同じであれば、カメラ間で対象物の位置が変わらないため、非常に簡単に処理が可能である。しかし、カメラセンサの大きさや焦点距離、レンズ歪み等の微妙な差異によって画角は異なってしまうため、複数のカメラを用いることによる画角の違いをなくすことは困難である。 On the other hand, it is possible to improve the reliability of tracking by tracking an object using a plurality of cameras as in the image processing apparatus described in Patent Document 3. However, when tracking by using a plurality of cameras at the same time as in stereo vision, there are problems of difference in angle of view and deviation of appearance due to parallax. Ideally, if the angle of view is the same, the position of the object does not change between the cameras, so processing is very easy. However, since the angle of view differs depending on the size of the camera sensor, the focal length, the lens distortion, and the like, it is difficult to eliminate the difference in the angle of view due to the use of a plurality of cameras.

また、同じ品番のカメラを利用するなどして、画角を略同じに合わせたとしても、複数のカメラを用いる以上、視差は原理的になくすことができない。視差による見えのズレを考慮せず、かつ画角は略同じと仮定して画像処理を行うと、仮定に無理があるため、追跡対象を正確にとらえることができず、追跡精度の低下を招いてしまうという問題がある。 Further, even if the angles of view are adjusted to be substantially the same by using cameras of the same product number, parallax cannot be eliminated in principle as long as a plurality of cameras are used. If image processing is performed on the assumption that the angle of view is almost the same without considering the deviation of the appearance due to parallax, the tracking target cannot be accurately grasped because the assumption is unreasonable, resulting in a decrease in tracking accuracy. There is a problem that it will be gone.

そこで、本発明は、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる追跡システム、追跡方法および追跡プログラムを提供することを目的とする。 Therefore, it is an object of the present invention to provide a tracking system, a tracking method, and a tracking program capable of improving the tracking accuracy when tracking the same object with a plurality of cameras.

本発明による追跡システムは、同一の対象物を複数のカメラで追跡する追跡システムであって、第1の映像を撮像する第1のカメラと、第1のカメラと視差のある画角で撮影される第2の映像を撮像する第2のカメラと、処理部とを備え、処理部が、第1のカメラで撮像された第1の映像上で対象物を追跡する第1の追跡処理と、第2のカメラで撮像された第2の映像上で対象物を追跡する第2の追跡処理と、第1のカメラ及び第2のカメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に一方のカメラによって撮像された映像上で対象物を追跡する追跡処理を制御する制御処理とを実行することを特徴とする。 The tracking system according to the present invention is a tracking system that tracks the same object with a plurality of cameras, and is photographed at an angle that is different from that of the first camera that captures the first image and the first camera. A second tracking process for tracking an object on the first image captured by the first camera, which comprises a second camera for capturing the second image and a processing unit. The second tracking process of tracking the object on the second image captured by the second camera, and the object reflected in the image of the specific frame captured by each of the first camera and the second camera. It is characterized by executing a control process for controlling a tracking process for tracking an object on an image captured by one of the cameras after the time when a specific frame is imaged based on the position of.

本発明による他の追跡システムは、同一の対象物を複数のカメラで追跡する追跡システムであって、第1の映像を撮像する第1のカメラと、第1のカメラと視差のある画角で撮影される第2の映像を撮像する第2のカメラと、処理部とを備え、処理部が、第1のカメラで撮像された第1の映像上で対象物を追跡する第1の追跡処理と、第2のカメラで撮像された第2の映像上で対象物を追跡する第2の追跡処理と、第1の追跡処理及び第2の追跡処理から得られた対象物の位置に基づいて、一方の追跡処理を制御し、対象物の探索範囲を設定する制御処理とを実行することを特徴とする。 Another tracking system according to the present invention is a tracking system that tracks the same object with a plurality of cameras, and has a first camera that captures a first image and an angle of view that is different from that of the first camera. A first tracking process that includes a second camera that captures a second image to be captured and a processing unit, and the processing unit tracks an object on the first image captured by the first camera. Based on the second tracking process of tracking the object on the second image captured by the second camera, and the position of the object obtained from the first tracking process and the second tracking process. , One of the features is to control the tracking process and execute the control process of setting the search range of the object.

本発明による追跡方法は、第1のカメラで撮像された第1の映像上で対象物を追跡する第1の追跡処理と、第1のカメラと視差のある画角で撮像する第2のカメラで撮像された第2の映像上で対象物を追跡する第2の追跡処理と、第1のカメラ及び第2のカメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に一方のカメラによって撮像された映像上で対象物を追跡する追跡処理を制御する制御処理とを実行することを特徴とする。また、本発明による他の追跡方法は、第1のカメラで撮像された第1の映像上で対象物を追跡する第1の追跡処理と、第1のカメラと視差のある画角で撮像する第2のカメラで撮像された第2の映像上で対象物を追跡する第2の追跡処理と、第1の追跡処理及び第2の追跡処理から得られた対象物の位置に基づいて、一方の追跡処理を制御し、対象物の探索範囲を設定する制御処理とを実行することを特徴とする。 The tracking method according to the present invention includes a first tracking process for tracking an object on a first image captured by the first camera, and a second camera for capturing images at an angle of view different from that of the first camera. Based on the second tracking process of tracking the object on the second image captured in, and the position of the object in the image of the specific frame captured by each of the first and second cameras. It is characterized by executing a control process for controlling a tracking process for tracking an object on an image captured by one of the cameras after the time when a specific frame is imaged. In addition, other tracking methods according to the present invention include a first tracking process for tracking an object on a first image captured by the first camera, and an angle of view having a parallax with the first camera. One based on the second tracking process of tracking the object on the second image captured by the second camera, and the position of the object obtained from the first tracking process and the second tracking process. It is characterized in that it controls the tracking process of the camera and executes the control process of setting the search range of the object.

本発明による追跡プログラムは、コンピュータに、第1のカメラで撮像された第1の映像上で対象物を追跡する第1の追跡処理、第1のカメラと視差のある画角で撮像する第2のカメラで撮像された第2の映像上で対象物を追跡する第2の追跡処理、および、第1のカメラ及び第2のカメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に一方のカメラによって撮像された映像上で対象物を追跡する追跡処理を制御する制御処理を実行させることを特徴とする。また、本発明による他の追跡プログラムは、コンピュータに、第1のカメラで撮像された第1の映像上で対象物を追跡する第1の追跡処理、第1のカメラと視差のある画角で撮像する第2のカメラで撮像された第2の映像上で対象物を追跡する第2の追跡処理、および、第1の追跡処理及び第2の追跡処理から得られた対象物の位置に基づいて、一方の追跡処理を制御し、対象物の探索範囲を設定する制御処理を実行させることを特徴とする。 The tracking program according to the present invention has a first tracking process for tracking an object on a first image captured by a first camera, and a second image with an image angle different from that of the first camera. A second tracking process for tracking an object on a second image captured by the first camera, and an object appearing in an image of a specific frame captured by each of the first camera and the second camera. It is characterized in that a control process for controlling a tracking process for tracking an object on an image captured by one camera after the time when a specific frame is imaged is executed based on a position. In addition, another tracking program according to the present invention has a first tracking process for tracking an object on a first image captured by a first camera, and an angle of view different from that of the first camera. Based on the second tracking process of tracking the object on the second image captured by the second camera to be imaged, and the position of the object obtained from the first tracking process and the second tracking process. Therefore, it is characterized in that one of the tracking processes is controlled and the control process for setting the search range of the object is executed.

本発明によれば、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。 According to the present invention, it is possible to improve the tracking accuracy when tracking the same object with a plurality of cameras.

本発明による追跡システムの一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the tracking system by this invention. 2つの映像を並べて表示した例を示す説明図である。It is explanatory drawing which shows the example which displayed two images side by side. 追跡結果を表示した例を示す説明図である。It is explanatory drawing which shows the example which displayed the tracking result. 追跡システムの動作例を示す説明図である。It is explanatory drawing which shows the operation example of the tracking system. 本発明による追跡システムの変形例を示すブロック図である。It is a block diagram which shows the modification of the tracking system by this invention. 本発明による追跡システムの概要を示すブロック図である。It is a block diagram which shows the outline of the tracking system by this invention. 本発明による追跡システムの他の概要を示すブロック図である。It is a block diagram which shows the other outline of the tracking system by this invention.

以下、本発明の実施形態を図面を参照して説明する。なお、本発明において対象物とは、追跡対象である任意の人物または物体を意味する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present invention, the object means any person or object to be tracked.

図1は、本発明による追跡システムの一実施形態を示すブロック図である。本実施形態の追跡システムは、同一の対象物を複数のカメラで追跡するものであり、第1のカメラ10と、第2のカメラ20と、処理部30と、出力部40と、記憶部50とを備えている。 FIG. 1 is a block diagram showing an embodiment of a tracking system according to the present invention. The tracking system of the present embodiment tracks the same object with a plurality of cameras, and includes a first camera 10, a second camera 20, a processing unit 30, an output unit 40, and a storage unit 50. And have.

以下の説明では、追跡システムが2台のカメラ(第1のカメラ10および第2のカメラ20)を備えている場合を例示するが、追跡システムが備えるカメラの数は2台に限定されず、3台以上であってもよい。 In the following description, the case where the tracking system includes two cameras (first camera 10 and second camera 20) is illustrated, but the number of cameras included in the tracking system is not limited to two. There may be three or more.

本実施形態では、第1のカメラ10と第2のカメラ20とは、同一の対象物を追跡するために用いられる。具体的には、一方のカメラが他方のカメラと略同一の画角を範囲とする映像を撮像する。以下の説明では、第1のカメラが撮像する映像を第1の映像と記し、第2のカメラが撮像する映像を第2の映像と記す。また、第2の映像は、第1の映像と略同一の画角で撮影される。 In this embodiment, the first camera 10 and the second camera 20 are used to track the same object. Specifically, one camera captures an image having a range of substantially the same angle of view as the other camera. In the following description, the image captured by the first camera is referred to as a first image, and the image captured by the second camera is referred to as a second image. Further, the second image is shot at substantially the same angle of view as the first image.

第1のカメラ10と第2のカメラ20の位置関係は、例えば、ステレオ視によって対象物体を追跡できるように設定されてもよい。ここで、位置関係とは、上述するように略同一の画角で2つの映像が撮影されるように設定されたカメラの位置や向き、倍率のことを意味する。 The positional relationship between the first camera 10 and the second camera 20 may be set so that the target object can be tracked by, for example, stereo vision. Here, the positional relationship means the position, orientation, and magnification of the camera set so that two images are shot at substantially the same angle of view as described above.

なお、複数のカメラを用いて同一の対象物を追跡するという特性上、原理的に視差をなくすることはできない。そのため、一方のカメラの画角を基準として、他方の各カメラの画角(画像範囲や、ある距離での大きさなど)が、ほぼ同じになるように調節される。この設定は、カメラが3台以上になった場合でも同様である。 In principle, parallax cannot be eliminated due to the characteristic of tracking the same object using a plurality of cameras. Therefore, the angle of view of each camera (image range, size at a certain distance, etc.) is adjusted to be substantially the same with respect to the angle of view of one camera. This setting is the same even when there are three or more cameras.

各カメラは、相互の位置関係を固定する装置を用いて設定されてもよい。また、相互の位置関係が変化しなければ、第1のカメラ10と第2のカメラ20とは、設置場所が固定されていなくてもよい。例えば、これらのカメラが同一の移動体に取り付けられて移動し、初期の状態からの画角が変化してもよい。 Each camera may be set using a device that fixes the positional relationship with each other. Further, the installation location of the first camera 10 and the second camera 20 may not be fixed as long as the mutual positional relationship does not change. For example, these cameras may be attached to the same moving body and moved, and the angle of view from the initial state may change.

また、各カメラは、追跡開始時に画角内に対象物が存在するように設定される。ただし、追跡開始時以外、対象物が画角内に存在している必要はない。第1のカメラ10および第2のカメラ20は、撮影した映像を処理部30に入力する。 In addition, each camera is set so that the object exists within the angle of view at the start of tracking. However, the object does not have to be within the angle of view except at the start of tracking. The first camera 10 and the second camera 20 input the captured video to the processing unit 30.

本実施形態で用いられるカメラは、対象物を撮影可能なカメラであれば、その内容は任意である。具体的には、第1のカメラ10と、第2のカメラ20とは、同種のセンサを備えたカメラで実現されていてもよく、異種のセンサを備えたカメラで実現されていてもよい。例えば、第1のカメラが可視光カメラで、第2のカメラが遠赤外線カメラであってもよい。なお、第1のカメラ10および第2のカメラ20の態様は、可視光カメラや遠赤外線カメラに限られず、例えば、近赤外線カメラなどであってもよい。 The content of the camera used in the present embodiment is arbitrary as long as it is a camera capable of photographing an object. Specifically, the first camera 10 and the second camera 20 may be realized by a camera provided with the same type of sensor, or may be realized by a camera provided with different types of sensors. For example, the first camera may be a visible light camera and the second camera may be a far infrared camera. The mode of the first camera 10 and the second camera 20 is not limited to the visible light camera and the far-infrared camera, and may be, for example, a near-infrared camera.

また、第1のカメラ10と、第2のカメラ20のフレームレートは、同一であってもよく、異なっていてもよい。例えば、第1のカメラ10が、第2のカメラ20に比べて低フレームレートで高解像度の画像を撮影してもよいし、第2のカメラ20が、第1のカメラ10に比べて高フレームレートで低解像度の画像を撮影してもよい。 Further, the frame rates of the first camera 10 and the second camera 20 may be the same or different. For example, the first camera 10 may capture a high resolution image at a lower frame rate than the second camera 20, and the second camera 20 may capture a higher frame than the first camera 10. Low resolution images may be taken at a rate.

記憶部50は、後述する処理部30が、各種処理に用いる情報を記憶する。記憶部50は、例えば、磁気ディスク装置などにより実現される。 The storage unit 50 stores information used for various processes by the processing unit 30 described later. The storage unit 50 is realized by, for example, a magnetic disk device or the like.

出力部40は、処理部30に入力された映像を表示する。出力部40は、例えば、同じ時刻に撮影された2つの映像を比較できるように並べて表示してもよい。出力部40は、例えば、ディスプレイ装置やタッチパネル装置により実現される。図2は、2つの映像を並べて表示した例を示す説明図である。図2に示す例では、可視光カメラで撮影された映像が左側に表示され、遠赤外線カメラで撮影された映像が右側に表示されていることを示す。 The output unit 40 displays the video input to the processing unit 30. For example, the output unit 40 may display two images shot at the same time side by side so that they can be compared. The output unit 40 is realized by, for example, a display device or a touch panel device. FIG. 2 is an explanatory diagram showing an example in which two images are displayed side by side. In the example shown in FIG. 2, it is shown that the image taken by the visible light camera is displayed on the left side and the image taken by the far infrared camera is displayed on the right side.

処理部30は、第1のカメラ10で撮影された映像(すなわち、第1の映像)と、第2のカメラ20で撮影された映像(すなわち、第2の映像)を入力する。処理部30は、入力された映像のうち、一方の映像上の対象物の指定をユーザより受け付ける。本実施形態では、処理部30は、第1の映像上の対象物の指定を受け付けるものとする。 The processing unit 30 inputs an image taken by the first camera 10 (that is, a first image) and an image taken by the second camera 20 (that is, a second image). The processing unit 30 receives from the user the designation of an object on one of the input images. In the present embodiment, the processing unit 30 accepts the designation of the object on the first image.

対象物の指定は、第1の映像上の対象物を含む範囲選択により行われる。対象物の指定方法は任意である。例えば、出力部40がディスプレイ装置により実現されている場合、出力部40に表示された第1の映像に対するポインティングデバイスを用いた範囲選択操作により対象物が指定されてもよい。また、例えば、出力部40がタッチパネルにより実現されている場合、出力部40に表示された第1の映像に対するユーザの範囲選択操作により対象物が指定されてもよい。 The object is designated by selecting a range including the object on the first image. The method of specifying the object is arbitrary. For example, when the output unit 40 is realized by a display device, an object may be designated by a range selection operation using a pointing device for the first image displayed on the output unit 40. Further, for example, when the output unit 40 is realized by the touch panel, the object may be designated by the user's range selection operation for the first image displayed on the output unit 40.

処理部30は、第1の映像上の対象物が指定されると、その対象物を含む指定範囲を探索範囲として特定する。以下、この探索範囲を第一の探索範囲と記すこともある。併せて、処理部30は、第2の映像上で同一の対象物が存在する範囲を探索範囲として特定する。以下、この探索範囲を第二の探索範囲と記すこともある。 When an object on the first image is designated, the processing unit 30 specifies a designated range including the object as a search range. Hereinafter, this search range may be referred to as a first search range. At the same time, the processing unit 30 specifies a range in which the same object exists on the second image as a search range. Hereinafter, this search range may be referred to as a second search range.

ここで、探索範囲とは、対象物の検出処理が行われる領域である。検出処理は、学習された追跡対象と見えが同じものを探索して検出する処理であるため、探索範囲は、その探索が行われる画像上の範囲と言うこともできる。なお、探索とは、画像を所定の大きさ(例えば、5ピクセル×5ピクセルずつ、10ピクセル×10ピクセルずつ、など)に区切った全格子を候補とし、学習された追跡対象と見えが同じものをその候補の中から探して検出結果とする処理である。 Here, the search range is an area where the detection process of the object is performed. Since the detection process is a process of searching for and detecting an object having the same appearance as the learned tracking target, the search range can be said to be a range on the image on which the search is performed. In addition, the search is a candidate for all grids in which an image is divided into predetermined sizes (for example, 5 pixels × 5 pixels each, 10 pixels × 10 pixels each, etc.), and the appearance is the same as the learned tracking target. Is a process of searching from the candidates and using it as a detection result.

上述するように、第1の映像と第2の映像との間には視差が存在する。そこで、処理部30は、視差(ズレ)を考慮して第二の探索範囲を特定する。処理部30は、例えば、第1の画像で指定された矩形の範囲を対象に、指定された時刻の1フレーム前と指定された時刻のフレームとを比較し、対象物の動きの大きさ及び向きを推定する。処理部30は、動きの大きさ及び向きを、例えば、オプティカルフローを用いて推定してもよい。次に、処理部30は、第1の画像で指定された矩形と同じ位置の矩形を第2の映像上で特定する。処理部30は、特定した第2の映像上の矩形について、第1の画像と同様、指定時の1フレーム前と指定時のフレームとを比較し、対象物の動きの大きさ及び向きを推定する。そして、処理部30は、推定した対象物の大きさ及び向きが類似する箇所を、第2の映像上で指定された対象物が存在する箇所と推定して、第二の探索範囲を特定する。 As described above, there is a parallax between the first image and the second image. Therefore, the processing unit 30 specifies the second search range in consideration of the parallax (displacement). For example, the processing unit 30 compares the frame one frame before the specified time with the frame at the specified time in the range of the rectangle specified in the first image, and determines the magnitude of the movement of the object and the frame at the specified time. Estimate the orientation. The processing unit 30 may estimate the magnitude and direction of movement using, for example, optical flow. Next, the processing unit 30 identifies a rectangle at the same position as the rectangle specified in the first image on the second image. Similar to the first image, the processing unit 30 compares the rectangle one frame before the designation with the frame at the time of designation for the specified rectangle on the second image, and estimates the magnitude and direction of the movement of the object. do. Then, the processing unit 30 estimates a place where the estimated object has a similar size and direction as a place where the specified object exists on the second image, and specifies the second search range. ..

このように、一方の映像上の対象物の動きの大きさ及び向きに基づいて他の映像上の探索範囲を特定するため、両映像間に存在するズレを考慮して対象物を特定できる。また、対象物を指定していない他方の映像上の対象物を自動的に特定することで、対象物を指定する手間を軽減できる。すなわち、本実施形態では、ユーザが対象物の指定を1つの映像上でのみ行えばよく、他の映像上の対象物は自動推定されるため、複数異種カメラを用いた追跡技術にもかかわらず、入力にかかる手間が単一カメラの場合と比べて増加しないと言える。以降、処理部30は、各カメラで撮影された映像から対象物の探索範囲を並行して決定し、追跡処理を行う。 In this way, since the search range on the other image is specified based on the magnitude and direction of the movement of the object on one image, the object can be specified in consideration of the deviation existing between the two images. Further, by automatically specifying the object on the other image in which the object is not specified, it is possible to reduce the trouble of designating the object. That is, in the present embodiment, the user only has to specify the object on one image, and the object on the other image is automatically estimated. Therefore, despite the tracking technique using a plurality of different types of cameras. It can be said that the time and effort required for input does not increase compared to the case of a single camera. After that, the processing unit 30 determines the search range of the object in parallel from the images captured by each camera, and performs tracking processing.

処理部30は、各探索範囲を特定すると、それぞれの映像ごとに、一定のフレーム間隔で対象物の信頼度を算出する。この信頼度は、対象物らしさを示す類似度であり、映像ごとに追跡開始からの追跡情報を基に算出される。ここで、追跡開始からの追跡情報は、追跡の際に取得された対象物を示す各画像や、その対象物の各位置を示す情報(以下、テンプレートと記す。)を含む。テンプレートは、映像ごと(撮影するカメラごと)に作成される。 When the processing unit 30 specifies each search range, the processing unit 30 calculates the reliability of the object at a fixed frame interval for each video. This reliability is a degree of similarity indicating the likeness of an object, and is calculated based on the tracking information from the start of tracking for each video. Here, the tracking information from the start of tracking includes each image showing the object acquired at the time of tracking and information indicating each position of the object (hereinafter, referred to as a template). Templates are created for each video (for each camera that shoots).

処理部30は、テンプレートと比較したときの見た目の類似度や、移動に応じて推定される対象物の位置の近さや尤もらしさの度合いに基づいて、対象物の信頼度を算出する。このとき、処理部30は、対象物のテンプレートを随時更新しながら、各フレームにおける対象物の信頼度を算出してもよい。また、処理部30は、探索時に随時取得される画像や対象物の移動を示す情報に基づいて、対象物のモデル(見えモデル、移動モデル)を学習し、学習したモデルを用いて対象物の信頼度を算出してもよい。 The processing unit 30 calculates the reliability of the object based on the degree of similarity in appearance when compared with the template, and the degree of proximity and plausibility of the position of the object estimated according to the movement. At this time, the processing unit 30 may calculate the reliability of the object in each frame while updating the template of the object at any time. Further, the processing unit 30 learns a model of the object (visible model, moving model) based on an image acquired at any time during the search and information indicating the movement of the object, and uses the learned model to learn the object. The reliability may be calculated.

なお、処理部30は、映像ごとに算出される信頼度に基づいて対象物のテンプレートを更新してもよく、各映像で算出される信頼度を比較した時の相対的な信頼度合い(相対的信頼度)に基づいて、対象物のテンプレートを更新してもよい。処理部30は、例えば、算出した信頼度が他の映像で算出された信頼度よりも低い場合、その画像で特定された対象物の更新重みを低く(または、0に)してもよい。また、例えば、いずれの信頼度も高く、相対的信頼度が高くない場合、処理部30は、この場合も、対象物の更新重みを低く(または、0に)してもよい。 The processing unit 30 may update the template of the object based on the reliability calculated for each video, and the relative reliability (relative) when the reliability calculated for each video is compared. The template of the object may be updated based on the reliability). For example, when the calculated reliability is lower than the reliability calculated in another video, the processing unit 30 may lower (or set) the update weight of the object specified in the image. Further, for example, when the reliability is high and the relative reliability is not high, the processing unit 30 may lower (or set) the update weight of the object in this case as well.

なお、各映像上の対象物の追跡処理で取得される情報(具体的には、追跡開始からの追跡情報)に基づいて対象物の信頼度が算出できる方法であれば、その方法は任意である。すなわち、信頼度は、追跡対象らしさを示す度合いであって、値が高いほど類似度が高いと判断可能な式によって算出されればよい。 The method is arbitrary as long as the reliability of the object can be calculated based on the information acquired by the tracking process of the object on each video (specifically, the tracking information from the start of tracking). be. That is, the reliability is a degree indicating the likelihood of being tracked, and may be calculated by an equation that can be determined that the higher the value, the higher the similarity.

次に、処理部30は、信頼度が高いと判定された一方の追跡処理における対象物の位置及び大きさを、他方の追跡処理における対象物の探索範囲の設定に反映する。具体的には、処理部30は、各映像から算出される信頼度を比較し、同時刻において最も高い信頼度が算出された映像および対象物を特定する。そして、処理部30は、最も高い信頼度が算出された映像以外の他の映像の探索範囲を、特定した対象物の範囲(位置および大きさ)を示す情報を用いて決定する。すなわち、処理部30は、最も高い信頼度が算出された対象物の情報を、他の全ての映像に共有させているとも言える。以後、映像ごとに決定された探索範囲で追跡処理が引き続き行われる。 Next, the processing unit 30 reflects the position and size of the object in one tracking process determined to have high reliability in the setting of the search range of the object in the other tracking process. Specifically, the processing unit 30 compares the reliability calculated from each video, and identifies the video and the object for which the highest reliability is calculated at the same time. Then, the processing unit 30 determines the search range of the video other than the video for which the highest reliability is calculated by using the information indicating the range (position and size) of the specified object. That is, it can be said that the processing unit 30 shares the information of the object for which the highest reliability has been calculated with all the other images. After that, the tracking process is continued within the search range determined for each image.

処理部30は、算出された信頼度や前フレームの追跡結果に応じて、探索範囲の決定方法を変化させてもよい。具体的には、処理部30は、前フレームの追跡結果が存在するか否か、また、信頼度が高いか低いかによって、探索範囲の決定方法を変更してもよい。例えば、前フレームの追跡結果が存在しない場合、または、信頼度が低い場合、処理部30は、画像全体を探索範囲として追跡対象を探索する。このとき、処理部30は、各画像全体の中から、過去の最新の追跡結果で特定された対象物の大きさに近いテンプレートのみを用いて対象物を特定してもよい。 The processing unit 30 may change the method of determining the search range according to the calculated reliability and the tracking result of the previous frame. Specifically, the processing unit 30 may change the method of determining the search range depending on whether or not the tracking result of the previous frame exists and whether or not the reliability is high or low. For example, when the tracking result of the previous frame does not exist or the reliability is low, the processing unit 30 searches for the tracking target using the entire image as the search range. At this time, the processing unit 30 may specify the object from the entire image by using only a template close to the size of the object specified by the latest tracking result in the past.

このように、各カメラ映像の探索範囲を絞り、その範囲内で一定以上の信頼度かつ一番信頼度が高い候補を探索し採用することで、探索時間を短縮しつつ、追跡結果を調整できる。なお、処理部30は、被共有側のカメラ映像において、一定以上の信頼度がない場合、またはマッチするテンプレートがない場合、共有された追跡情報をそのまま採用してもよい。 In this way, by narrowing down the search range of each camera image and searching for and adopting the candidate with a certain level of reliability or the highest reliability within that range, it is possible to adjust the tracking result while shortening the search time. .. If the camera image on the shared side does not have a certain degree of reliability or there is no matching template, the processing unit 30 may adopt the shared tracking information as it is.

また、本実施形態では、複数のカメラで相補的に対象物を追跡するため、各カメラで視差が生じる。この視差を生かし、処理部30は、カメラから対象物までの深度を用いて探索範囲を決定してもよい。 Further, in the present embodiment, since the object is tracked complementarily by a plurality of cameras, parallax occurs in each camera. Taking advantage of this parallax, the processing unit 30 may determine the search range using the depth from the camera to the object.

深度を用いて探索範囲を決定する場合、まず初めに、ユーザは、対象物までの距離について、ある深度範囲ならば、この程度のずれが発生するという知識を、実際にキャリブレーションして事前に算出し、算出結果を記憶部50に記憶しておく。すなわち、記憶部50は、キャリブレーションにより算出された対象までの距離および深度範囲に応じたズレ(差異)を記憶する。処理部30は、実際の追跡時に観測したズレに基づいて対象物までの深度を算出し、前フレームの画像で算出した深度から、現フレームの画像上の対象物の移動範囲を推定して探索範囲を特定する。このように探索範囲を狭めることで、画像上の一部の範囲のみにテンプレートを適用することが可能になるため、追跡処理の速度を向上できる。 When determining the search range using depth, first of all, the user actually calibrates the knowledge that the distance to the object will deviate to this extent within a certain depth range in advance. It is calculated and the calculation result is stored in the storage unit 50. That is, the storage unit 50 stores the deviation (difference) according to the distance to the target and the depth range calculated by the calibration. The processing unit 30 calculates the depth to the object based on the deviation observed at the time of actual tracking, estimates the moving range of the object on the image of the current frame from the depth calculated in the image of the previous frame, and searches. Specify the range. By narrowing the search range in this way, it is possible to apply the template only to a part of the range on the image, so that the speed of the tracking process can be improved.

他にも、記憶部50は、深度範囲と探索範囲を対応付けて記憶していてもよい。この場合、処理部30は、実際の追跡時に観測したズレに基づいて対象物の深度範囲を算出し、記憶部50に記憶された対応関係に基づいて、算出した深度範囲から他の追跡処理に設定する探索範囲を決定してもよい。 In addition, the storage unit 50 may store the depth range and the search range in association with each other. In this case, the processing unit 30 calculates the depth range of the object based on the deviation observed at the time of actual tracking, and from the calculated depth range to another tracking process based on the correspondence stored in the storage unit 50. The search range to be set may be determined.

処理部30は、探索範囲を決定した後、再度追跡処理(対象物の検出処理)を行うとともに、出力部40に表示された映像上に、例えば、対象物を矩形で囲むなどして、追跡結果を随時表示してもよい。このような追跡結果を表示することにより、対象物を視覚的に追跡することが可能になる。 After determining the search range, the processing unit 30 performs tracking processing (object detection processing) again, and tracks the object on the image displayed on the output unit 40, for example, by surrounding the object with a rectangle. The results may be displayed at any time. By displaying such a tracking result, it becomes possible to visually track the object.

このとき、処理部30は、より信頼度の高い映像上の追跡結果を特定の態様で表示してもよい。処理部30は、例えば、信頼度の高い映像上の対象物を濃い色の太枠の矩形で囲むように表示し、信頼度の低い映像上の対象物を薄い色の細枠の矩形で囲む(または囲まず)表示してもよい。 At this time, the processing unit 30 may display the tracking result on the video with higher reliability in a specific mode. For example, the processing unit 30 displays an object on a highly reliable image so as to be surrounded by a rectangle with a thick dark frame, and encloses an object on the image with low reliability as a rectangle with a thin frame of a light color. It may be displayed (or not enclosed).

図3は、追跡結果を表示した例を示す説明図である。図3に示す例では、図2に例示する映像に対して追跡処理を行った結果、第1のカメラで撮影された映像よりも第2のカメラで撮影された映像による追跡結果の信頼度が連続して高かったことを示す。このようにすることで、どの映像の対象物の追跡結果を利用して追跡処理が行われているかを視覚的に把握することが可能になる。 FIG. 3 is an explanatory diagram showing an example of displaying the tracking result. In the example shown in FIG. 3, as a result of performing the tracking process on the image illustrated in FIG. 2, the reliability of the tracking result by the image taken by the second camera is higher than that by the image taken by the first camera. Indicates that it was continuously high. By doing so, it becomes possible to visually grasp which video object tracking result is used for the tracking process.

なお、処理部30は、プログラム(追跡プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、記憶部50に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、処理部30として動作してもよい。また、処理部30は、専用のハードウェアで実現されていてもよい。 The processing unit 30 is realized by the CPU of a computer that operates according to a program (tracking program). For example, the program may be stored in the storage unit 50, and the CPU may read the program and operate as the processing unit 30 according to the program. Further, the processing unit 30 may be realized by dedicated hardware.

次に、本実施形態の追跡システムの動作を説明する。図4は、本実施形態の追跡システムの動作例を示す説明図である。まず、予め、第1のカメラ10で撮影された映像(すなわち、第1の映像)と、第2のカメラ20で撮影された映像(すなわち、第2の映像)との間で映像調整が行われる(ステップS11)。具体的には、第1のカメラ10と第2のカメラ20とが略同一の画角を範囲とする映像を撮影できるように、両カメラの調整が行われる。 Next, the operation of the tracking system of the present embodiment will be described. FIG. 4 is an explanatory diagram showing an operation example of the tracking system of the present embodiment. First, image adjustment is performed in advance between the image captured by the first camera 10 (that is, the first image) and the image captured by the second camera 20 (that is, the second image). (Step S11). Specifically, both cameras are adjusted so that the first camera 10 and the second camera 20 can shoot an image having substantially the same angle of view.

調整後、処理部30は、ユーザによる第1の映像上の対象物に対する指定を受け付ける(ステップS12)。処理部30は、第1の映像上の対象物が指定されると、第1の映像上の探索範囲(第一の探索範囲)を特定するとともに、第2の映像上の探索範囲(第二の探索範囲)を特定する(ステップS13)。 After the adjustment, the processing unit 30 accepts the user's designation for the object on the first image (step S12). When the object on the first image is designated, the processing unit 30 specifies the search range on the first image (first search range) and the search range on the second image (second). The search range of) is specified (step S13).

各映像上の探索範囲が特定されると、処理部30は、それぞれの映像上で対象物を追跡し(ステップS14,S15)、追跡した対象物の信頼度を一定のフレーム間隔で算出する(ステップS16,S17)。処理部30は、映像ごとに算出した信頼度を比較し、最も高い信頼度が算出された映像および対象物を特定する(ステップS18)。 When the search range on each image is specified, the processing unit 30 tracks the object on each image (steps S14 and S15), and calculates the reliability of the tracked object at regular frame intervals (steps S14 and S15). Steps S16, S17). The processing unit 30 compares the reliability calculated for each video, and identifies the video and the object for which the highest reliability is calculated (step S18).

処理部30は、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する(ステップS19,S20)。具体的には、処理部30は、追跡結果を調整することにより探索範囲を決定し、次フレームの画像に対してステップS14およびステップS15以降の処理を繰り返す。 The processing unit 30 controls the tracking process of the other based on the identified tracking process result (steps S19 and S20). Specifically, the processing unit 30 determines the search range by adjusting the tracking result, and repeats the processes of steps S14 and S15 and subsequent steps for the image of the next frame.

以上のように、本実施形態では、第1のカメラ10が第1の映像を撮像し、第2のカメラ20が第1のカメラと略同一の画角で撮影される第2の映像を撮像する。そして、追跡システムに備えられた処理部30が、第1の映像上で対象物を追跡する第1の追跡処理と、第2の映像上で対象物を追跡する第2の追跡処理を実行する。また、処理部30は、第1の追跡処理で得られた対象物の信頼度(第1の信頼度)と、第2の追跡処理で得られた対象物の信頼度(第2の信頼度)とを算出する信頼度算出処理を実行する。そして、処理部30は、第1の信頼度と第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御処理を実行する。よって、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。 As described above, in the present embodiment, the first camera 10 captures the first image, and the second camera 20 captures the second image captured at substantially the same angle of view as the first camera. do. Then, the processing unit 30 provided in the tracking system executes a first tracking process for tracking the object on the first image and a second tracking process for tracking the object on the second image. .. Further, the processing unit 30 has the reliability of the object obtained in the first tracking process (first reliability) and the reliability of the object obtained in the second tracking process (second reliability). ) And the reliability calculation process is executed. Then, the processing unit 30 compares the first reliability with the second reliability to identify the tracking process having higher reliability, and based on the identified tracking process result, the other tracking process. Execute the control process that controls the process. Therefore, it is possible to improve the tracking accuracy when tracking the same object with a plurality of cameras.

また、本実施形態では、ステレオ視に代表される複数カメラを用いた場合の見えのズレ(視差)を考慮し、追跡結果を共有することにより探索範囲を微調整(補正)しているため、より頑健に対象物を追跡できる。 Further, in the present embodiment, the search range is finely adjusted (corrected) by sharing the tracking result in consideration of the visual deviation (parallax) when a plurality of cameras represented by stereoscopic vision are used. You can track the object more robustly.

また、本実施形態では、映像ごとに独立して対象物の信頼度を算出し、信頼度の高い映像から特定される対象物の追跡情報を他の映像に反映させるため、追跡に用いるカメラのセンサやフレームレートの異同を問わない。そのため、異種のカメラで相補的に対象を追跡できるため、追跡精度を向上させることが可能になる。言い換えると、本発明では、複数のカメラの中で一番信頼度の高い追跡情報を基に追跡するため、各カメラの特性的に優位な場面を自動的に選択して追跡しているといえる。 Further, in the present embodiment, the reliability of the object is calculated independently for each image, and the tracking information of the object specified from the highly reliable image is reflected in other images, so that the camera used for tracking is used. It doesn't matter if the sensor or frame rate is different. Therefore, it is possible to track the target complementarily with different types of cameras, and it is possible to improve the tracking accuracy. In other words, in the present invention, since tracking is performed based on the most reliable tracking information among a plurality of cameras, it can be said that the characteristically superior scene of each camera is automatically selected and tracked. ..

具体的には、本実施形態では、画角を略同じにした複数の異種または同種のカメラ(例えば、遠赤外線カメラと可視光カメラ)の映像を用いて、同時並行的に対象物を追跡しつつ、高信頼度側の追跡情報を低信頼度側に共有して、追跡情報を補正する。例えば、異種センサを含むカメラを組み合わせた場合、一の種類のカメラの苦手な場面を、他の種類のカメラによって補完しながら追跡することが可能になる。 Specifically, in the present embodiment, an object is tracked in parallel using images of a plurality of different or similar cameras (for example, a far-infrared camera and a visible light camera) having substantially the same angle of view. At the same time, the tracking information on the high reliability side is shared with the low reliability side to correct the tracking information. For example, when a camera including different types of sensors is combined, it becomes possible to track a scene that one type of camera is not good at while complementing it with another type of camera.

また、本実施形態では、既成の単カメラを組み合わせて各カメラの画角を略同一に合わせればよいため、特許文献4に記載されているような、特殊なレンズ機構を必要としない。また、カメラ間の位置関係(カメラの位置・向き・倍率などの関係)を変化させなければ、追跡途中にカメラを動かしたとしても対象物を追跡できる。そのため、本実施形態の追跡システムを移動カメラシステムに適用することも可能である。 Further, in the present embodiment, since it is sufficient to combine existing single cameras and adjust the angles of view of the cameras to be substantially the same, a special lens mechanism as described in Patent Document 4 is not required. In addition, if the positional relationship between the cameras (relationship of camera position, orientation, magnification, etc.) is not changed, the object can be tracked even if the camera is moved during tracking. Therefore, it is also possible to apply the tracking system of the present embodiment to a mobile camera system.

次に、本実施形態の変形例を説明する。図1に示す例では、追跡システムが処理部30を備え、処理部30が第1のカメラ10から入力される映像(第1の映像)と第2のカメラから入力される映像(第2の映像)の両方に対して追跡処理および信頼度算出処理を行っていた。 Next, a modification of the present embodiment will be described. In the example shown in FIG. 1, the tracking system includes a processing unit 30, and the image input from the first camera 10 (first image) and the image input from the second camera (second image) by the processing unit 30. Tracking processing and reliability calculation processing were performed for both of the video).

本変形例では、各カメラで撮影した映像に対する処理が別々の手段で実現される場合の構成を説明する。図5は、本発明による追跡システムの変形例を示すブロック図である。図5に例示する追跡システムは、第1のカメラ10と、第2のカメラ20と、追跡部31と、追跡部32と、信頼度算出部33と、信頼度算出部34と、制御部35と、出力部40と、記憶部50とを備えている。 In this modification, a configuration will be described in which processing for images taken by each camera is realized by different means. FIG. 5 is a block diagram showing a modified example of the tracking system according to the present invention. The tracking system exemplified in FIG. 5 includes a first camera 10, a second camera 20, a tracking unit 31, a tracking unit 32, a reliability calculation unit 33, a reliability calculation unit 34, and a control unit 35. And an output unit 40 and a storage unit 50.

第1のカメラ10、第2のカメラ20、出力部40および記憶部50の内容は、上記実施形態と同様であるため、詳細な説明は省略する。また、追跡部31、追跡部32、信頼度算出部33、信頼度算出部34および制御部35で行われる内容は、上記実施形態の処理部30で行われる内容と同様である。 Since the contents of the first camera 10, the second camera 20, the output unit 40, and the storage unit 50 are the same as those in the above embodiment, detailed description thereof will be omitted. Further, the contents performed by the tracking unit 31, the tracking unit 32, the reliability calculation unit 33, the reliability calculation unit 34, and the control unit 35 are the same as the contents performed by the processing unit 30 of the above-described embodiment.

具体的には、追跡部31および信頼度算出部33は、第1のカメラ10で撮影された映像(第1の映像)に対する処理を行う。また、追跡部32および信頼度算出部34は、第2のカメラ20で撮影された映像(第2の映像)に対する処理を行う。なお、追跡部31が行う処理と追跡部32とが行う処理、および、信頼度算出部33が行う処理と信頼度算出部34とが行う処理は、対象とする映像または画像が異なる以外は、それぞれ同一である。 Specifically, the tracking unit 31 and the reliability calculation unit 33 perform processing on the image (first image) captured by the first camera 10. Further, the tracking unit 32 and the reliability calculation unit 34 perform processing on the image (second image) taken by the second camera 20. The processing performed by the tracking unit 31 and the processing performed by the tracking unit 32, and the processing performed by the reliability calculation unit 33 and the processing performed by the reliability calculation unit 34 are different except that the target video or image is different. Each is the same.

追跡部31は、第1の映像上で対象物を追跡する(第1の追跡処理)。また、追跡部32は、第2の映像上で対象物を追跡する(第2の追跡処理)。なお、対象物の追跡方法は、上述する処理部30が行う方法と同様である。 The tracking unit 31 tracks the object on the first image (first tracking process). Further, the tracking unit 32 tracks the object on the second image (second tracking process). The method of tracking the object is the same as the method performed by the processing unit 30 described above.

信頼度算出部33は、第1の追跡処理で得られた対象物の信頼度(第1の信頼度)を算出する。また、信頼度算出部34は、第2の追跡処理で得られた対象物の信頼度(第2の信頼度)を算出する。なお、信頼度の算出方法は、上述する処理部30が行う方法と同様である。 The reliability calculation unit 33 calculates the reliability (first reliability) of the object obtained in the first tracking process. In addition, the reliability calculation unit 34 calculates the reliability (second reliability) of the object obtained in the second tracking process. The method of calculating the reliability is the same as the method performed by the processing unit 30 described above.

制御部35は、第1の信頼度と第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する。具体的には、制御部35は、信頼度が高いと判定された一方の追跡処理における対象物の位置及び大きさを、他方の追跡処理における対象物の探索範囲の設定に反映する。なお、探索範囲の設定の反映方法は、上述する処理部30が行う方法と同様である。 The control unit 35 compares the first reliability with the second reliability to identify the tracking process having higher reliability, and based on the identified tracking process result, performs the other tracking process. Control. Specifically, the control unit 35 reflects the position and size of the object in one tracking process determined to have high reliability in the setting of the search range of the object in the other tracking process. The method of reflecting the setting of the search range is the same as the method performed by the processing unit 30 described above.

追跡部31と、追跡部32と、信頼度算出部33と、信頼度算出部34と、制御部35とは、プログラム(通信情報参照プログラム)に従って動作するコンピュータのCPUによって実現される。また、また、追跡部31と、追跡部32と、信頼度算出部33と、信頼度算出部34と、制御部35とは、それぞれが専用のハードウェアで実現されていてもよい。 The tracking unit 31, the tracking unit 32, the reliability calculation unit 33, the reliability calculation unit 34, and the control unit 35 are realized by a computer CPU that operates according to a program (communication information reference program). Further, the tracking unit 31, the tracking unit 32, the reliability calculation unit 33, the reliability calculation unit 34, and the control unit 35 may be realized by dedicated hardware, respectively.

また、例えば、第1のカメラ10と、追跡部31と、信頼度算出部33とが一体の追跡装置として構成され、第2のカメラ20と、追跡部32と、信頼度算出部34とが一体の追跡装置として構成されていてもよい。そして、各追跡装置は、制御部35からの指示に応じて、各処理を実施してもよい。 Further, for example, the first camera 10, the tracking unit 31, and the reliability calculation unit 33 are configured as an integrated tracking device, and the second camera 20, the tracking unit 32, and the reliability calculation unit 34 are combined. It may be configured as an integrated tracking device. Then, each tracking device may carry out each process in response to an instruction from the control unit 35.

このような構成によっても、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。 Even with such a configuration, it is possible to improve the tracking accuracy when tracking the same object with a plurality of cameras.

次に、本発明の概要を説明する。図6は、本発明による追跡システムの概要を示すブロック図である。本発明による追跡システムは、同一の対象物(例えば、追跡対象)を複数のカメラで追跡する追跡システムであって、第1の映像を撮像する第1のカメラ100(例えば、第1のカメラ10)と、第1のカメラ100と略同一の画角で撮影される第2の映像を撮像する第2のカメラ200(例えば、第2のカメラ20)と、処理部80(例えば、処理部30)とを備えている。 Next, the outline of the present invention will be described. FIG. 6 is a block diagram showing an outline of the tracking system according to the present invention. The tracking system according to the present invention is a tracking system that tracks the same object (for example, a tracking target) with a plurality of cameras, and is a first camera 100 (for example, a first camera 10) that captures a first image. ), A second camera 200 (for example, the second camera 20) that captures a second image taken at substantially the same angle of view as the first camera 100, and a processing unit 80 (for example, the processing unit 30). ) And.

処理部80は、第1の映像上で対象物を追跡する第1の追跡処理と、第2の映像上で対象物を追跡する第2の追跡処理と、第1の追跡処理で得られた対象物の信頼度である第1の信頼度と、第2の追跡処理で得られた対象物の信頼度である第2の信頼度とを算出する信頼度算出処理と、第1の信頼度と第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御処理とを実行する。 The processing unit 80 was obtained by the first tracking process of tracking the object on the first image, the second tracking process of tracking the object on the second image, and the first tracking process. A reliability calculation process for calculating the first reliability, which is the reliability of the object, and the second reliability, which is the reliability of the object obtained in the second tracking process, and the first reliability. And the second reliability are compared to identify a tracking process having a higher reliability, and based on the identified tracking process result, a control process for controlling the other tracking process is executed.

そのような構成により、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。 With such a configuration, it is possible to improve the tracking accuracy when tracking the same object with a plurality of cameras.

ここで、第1のカメラ100と第2のカメラ200とは、異種のセンサを備えたカメラで実現されてもよい。各カメラが異種のセンサを備えたカメラで実現された場合、各カメラで撮影される映像の内容は大きく異なる。しかし、本発明では、撮影された各映像の信頼度を算出し、より高い信頼度が算出された映像の追跡処理結果(例えば、探索範囲)に基づいて、他の映像の追跡処理を制御する。そのため、一の種類のカメラの苦手な場面を、他の種類のカメラによって補完しながら追跡することが可能になる。 Here, the first camera 100 and the second camera 200 may be realized by cameras provided with different types of sensors. When each camera is realized by a camera equipped with different types of sensors, the content of the image taken by each camera is significantly different. However, in the present invention, the reliability of each captured image is calculated, and the tracking process of other images is controlled based on the tracking process result (for example, the search range) of the image for which the higher reliability is calculated. .. Therefore, it is possible to track a scene that one type of camera is not good at while complementing it with another type of camera.

具体的には、第1のカメラ100は可視光カメラであってもよく、第2のカメラ200は遠赤外線カメラであってもよい。この場合、特に相補的に対象を追跡が可能であり、各カメラの特性をより生かした追跡が可能になる。 Specifically, the first camera 100 may be a visible light camera, and the second camera 200 may be a far infrared camera. In this case, the target can be tracked in a particularly complementary manner, and tracking that makes the best use of the characteristics of each camera becomes possible.

また、第1のカメラ100は、第2のカメラ200よりも低フレームレートで高解像の映像を撮像し、第2のカメラ200は、第1のカメラ100よりも高フレームレートで低解像の映像を撮像してもよい。 Further, the first camera 100 captures a high-resolution image at a lower frame rate than the second camera 200, and the second camera 200 has a lower resolution at a higher frame rate than the first camera 100. You may take an image of.

また、処理部80は、信頼度が高いと判定された一方の追跡処理における対象物の位置及び大きさを、他方の追跡処理における対象物の探索範囲の設定に反映してもよい。すなわち、高信頼度の対象物の追跡結果から他の追跡処理の探索範囲が決定されるため、画角が完全に一致しない複数のカメラを用いた場合でも、探索範囲を補正しながら追跡できる。そのため、同一の対象物を精度よく追跡することが可能になる。すなわち、本発明では、複数のカメラを利用した際に生ずる画像上の見えのずれに対し、一方の追跡処理結果を反映することにより、他の画像の探索範囲を吸収可能に設定していると言える。 Further, the processing unit 80 may reflect the position and size of the object in one tracking process determined to have high reliability in the setting of the search range of the object in the other tracking process. That is, since the search range of other tracking processes is determined from the tracking result of the object with high reliability, tracking can be performed while correcting the search range even when a plurality of cameras whose angles of view do not completely match are used. Therefore, it becomes possible to accurately track the same object. That is, in the present invention, it is set so that the search range of the other image can be absorbed by reflecting the tracking processing result of one of them against the deviation of the appearance on the image that occurs when a plurality of cameras are used. I can say.

また、追跡システムは、深度範囲と探索範囲を対応付けて記憶する記憶部(例えば、記憶部50)を備えていてもよい。そして、処理部80は、記憶部を参照し、追跡時に観測された差異に基づいて算出される対象物の深度範囲から探索範囲を特定してもよい。 Further, the tracking system may include a storage unit (for example, a storage unit 50) that stores the depth range and the search range in association with each other. Then, the processing unit 80 may refer to the storage unit and specify the search range from the depth range of the object calculated based on the difference observed at the time of tracking.

さらに、第1のカメラ100と第2のカメラ200とは、同一の移動体に取り付けられて同一の対象物を追跡してもよい。本発明では、両カメラが略同一の画角で撮影可能に設置されていれば、厳密な画角の一致は必要ないため、両カメラが同一の移動体に取り付けて行われる追跡処理の精度も向上できる。 Further, the first camera 100 and the second camera 200 may be attached to the same moving body to track the same object. In the present invention, if both cameras are installed so that they can shoot at substantially the same angle of view, it is not necessary to match the angles of view exactly. Can be improved.

また、処理部80は、信頼度の算出に用いられる対象物のテンプレート情報を一定のフレーム間隔で更新し、更新したテンプレート情報を用いて各フレームの信頼度を算出してもよい。 Further, the processing unit 80 may update the template information of the object used for calculating the reliability at regular frame intervals, and calculate the reliability of each frame using the updated template information.

図7は、本発明による追跡システムの他の概要を示すブロック図である。図7に例示する追跡システムは、同一の対象物を複数のカメラで追跡する追跡システムであって、第1の映像を撮像する第1のカメラ100と、第1のカメラ100と略同一の画角で撮影される第2の映像を撮像する第2のカメラ200と、第1の映像上で対象物を追跡する第1の追跡部81(例えば、追跡部31、処理部30)と、第2の映像上で対象物を追跡する第2の追跡部82(例えば、追跡部32、処理部30)と、第1の追跡部81により得られた対象物の信頼度である第1の信頼度を算出する第1の信頼度算出部83(例えば、信頼度算出部33、処理部30)と、第2の追跡部82により得られた対象物の信頼度である第2の信頼度を算出する第2の信頼度算出部84(例えば、信頼度算出部34、処理部30)と、第1の信頼度と第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御部85(例えば、制御部35、処理部30)とを備えている。 FIG. 7 is a block diagram showing another outline of the tracking system according to the present invention. The tracking system illustrated in FIG. 7 is a tracking system that tracks the same object with a plurality of cameras, and has substantially the same image as the first camera 100 that captures the first image and the first camera 100. A second camera 200 that captures a second image taken at a corner, a first tracking unit 81 that tracks an object on the first image (for example, a tracking unit 31 and a processing unit 30), and a first The first reliability, which is the reliability of the object obtained by the second tracking unit 82 (for example, the tracking unit 32, the processing unit 30) for tracking the object on the image of the second image and the first tracking unit 81. The second reliability, which is the reliability of the object obtained by the first reliability calculation unit 83 (for example, the reliability calculation unit 33, the processing unit 30) for calculating the degree and the second tracking unit 82, is calculated. The second reliability calculation unit 84 (for example, the reliability calculation unit 34, the processing unit 30) to be calculated is compared with the first reliability and the second reliability, and the tracking process with higher reliability is performed. It includes a control unit 85 (for example, a control unit 35 and a processing unit 30) that controls the other tracking process based on the identified and identified tracking process result.

そのような構成によっても、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。 Such a configuration can also improve the tracking accuracy when tracking the same object with a plurality of cameras.

10 第1のカメラ
20 第2のカメラ
30 処理部
31,32 追跡部
33,34 信頼度算出部
35 制御部
40 出力部
50 記憶部
10 1st camera 20 2nd camera 30 Processing unit 31, 32 Tracking unit 33, 34 Reliability calculation unit 35 Control unit 40 Output unit 50 Storage unit

本発明による追跡システムは、同一の対象物を複数のカメラで追跡する追跡システムであって、少なくとも2台以上の可視光カメラから映像を入力する処理部を備え、処理部が、第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理と、第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で対象物を検出する第2の検出処理と、第1の可視光カメラおよび第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に第1の可視光カメラおよび第2の可視光カメラのうち少なくとも一台によって撮像された映像上で対象物を追跡する追跡処理を制御する制御処理とを実行することを特徴とする。 The tracking system according to the present invention is a tracking system that tracks the same object with a plurality of cameras, and includes a processing unit that inputs images from at least two or more visible light cameras, and the processing unit is the first visible. The first detection process for detecting an object on the first image captured by the optical camera, and the second visible light camera for capturing the image at an angle different from that of the first visible light camera. Based on the second detection process for detecting an object on the second image and the position of the object in the image of a specific frame captured by each of the first visible light camera and the second visible light camera. , A control process that controls a tracking process that tracks an object on an image captured by at least one of a first visible light camera and a second visible light camera after the time when a specific frame is imaged. It is characterized by doing.

本発明による追跡方法は、第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理と、第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で対象物を検出する第2の検出処理と、第1の可視光カメラおよび第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に第1の可視光カメラおよび第2の可視光カメラのうち少なくとも一台によって撮像された映像上で対象物を追跡する追跡処理を制御する制御処理とを実行することを特徴とする。 The tracking method according to the present invention includes a first detection process for detecting an object on a first image captured by a first visible light camera, and imaging with an angle of view different from that of the first visible light camera. A second detection process for detecting an object on the second image captured by the second visible light camera, and a specific frame captured by each of the first visible light camera and the second visible light camera. Tracks an object on an image captured by at least one of a first visible light camera and a second visible light camera after the time when a particular frame was imaged, based on the position of the object in the image. It is characterized by executing a control process for controlling the tracking process .

本発明による追跡プログラムは、コンピュータに、第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理、第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で対象物を検出する第2の検出処理、および、第1の可視光カメラおよび第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に第1の可視光カメラおよび第2の可視光カメラのうち少なくとも一台によって撮像された映像上で対象物を追跡する追跡処理を制御する制御処理を実行させることを特徴とする。 The tracking program according to the present invention has a first detection process for detecting an object on a first image captured by a first visible light camera, and an angle of view different from that of the first visible light camera. The second detection process for detecting an object on the second image captured by the second visible light camera to be imaged, and the images taken by the first visible light camera and the second visible light camera, respectively. An object on an image captured by at least one of a first visible light camera and a second visible light camera after the time when the specific frame was imaged, based on the position of the object in the image of the specific frame. It is characterized in that a control process for controlling a tracking process for tracking an object is executed .

Claims (13)

同一の対象物を複数のカメラで追跡する追跡システムであって、
第1の映像を撮像する第1のカメラと、
前記第1のカメラと略同一の画角で撮影される第2の映像を撮像する第2のカメラと、
処理部とを備え、
前記処理部は、
前記第1の映像上で前記対象物を追跡する第1の追跡処理と、
前記第2の映像上で前記対象物を追跡する第2の追跡処理と、
前記第1の追跡処理で得られた前記対象物の信頼度である第1の信頼度と、前記第2の追跡処理で得られた前記対象物の信頼度である第2の信頼度とを算出する信頼度算出処理と、
前記第1の信頼度と前記第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御処理とを実行する
ことを特徴とする追跡システム。
A tracking system that tracks the same object with multiple cameras.
The first camera that captures the first image and
A second camera that captures a second image taken at substantially the same angle of view as the first camera, and a second camera.
Equipped with a processing unit
The processing unit
The first tracking process for tracking the object on the first image, and
A second tracking process for tracking the object on the second image,
The first reliability, which is the reliability of the object obtained in the first tracking process, and the second reliability, which is the reliability of the object obtained in the second tracking process, are obtained. The reliability calculation process to be calculated and
A control that compares the first reliability with the second reliability to identify a more reliable tracking process and controls the other tracking process based on the identified tracking process result. A tracking system characterized by performing processing and performing.
第1のカメラと第2のカメラとは、異種のセンサを備えたカメラで実現される
請求項1記載の追跡システム。
The tracking system according to claim 1, wherein the first camera and the second camera are realized by a camera provided with different types of sensors.
第1のカメラは可視光カメラであり、第2のカメラは遠赤外線カメラである
請求項1または請求項2記載の追跡システム。
The tracking system according to claim 1 or 2, wherein the first camera is a visible light camera and the second camera is a far infrared camera.
第1のカメラは、第2のカメラよりも低フレームレートで高解像の映像を撮像し、
第2のカメラは、第1のカメラよりも高フレームレートで低解像の映像を撮像する
請求項1から請求項3のうちのいずれか1項に記載の追跡システム。
The first camera captures high resolution video at a lower frame rate than the second camera.
The tracking system according to any one of claims 1 to 3, wherein the second camera captures a low-resolution image at a higher frame rate than the first camera.
処理部は、信頼度が高いと判定された一方の追跡処理における対象物の位置及び大きさを、他方の追跡処理における対象物の探索範囲の設定に反映する
請求項1から請求項4のうちのいずれか1項に記載の追跡システム。
Of claims 1 to 4, the processing unit reflects the position and size of the object in one tracking process determined to be highly reliable in the setting of the search range of the object in the other tracking process. The tracking system according to any one of the above.
深度範囲と探索範囲を対応付けて記憶する記憶部を備え、
処理部は、前記記憶部を参照し、追跡時に観測された差異に基づいて算出される対象物の深度範囲から探索範囲を特定する
請求項1から請求項5のうちのいずれか1項に記載の追跡システム。
Equipped with a storage unit that stores the depth range and the search range in association with each other.
The processing unit refers to the storage unit, and according to any one of claims 1 to 5, the search range is specified from the depth range of the object calculated based on the difference observed at the time of tracking. Tracking system.
第1のカメラと第2のカメラとは、同一の移動体に取り付けられて同一の対象物を追跡する
請求項1から請求項6のうちのいずれか1項に記載の追跡システム。
The tracking system according to any one of claims 1 to 6, wherein the first camera and the second camera are attached to the same moving object and track the same object.
処理部は、信頼度の算出に用いられる対象物のテンプレート情報を一定のフレーム間隔で更新し、更新したテンプレート情報を用いて各フレームの信頼度を算出する
請求項1から請求項7のうちのいずれか1項に記載の追跡システム。
The processing unit updates the template information of the object used for calculating the reliability at regular frame intervals, and calculates the reliability of each frame using the updated template information. The tracking system according to any one of the following items.
同一の対象物を複数のカメラで追跡する追跡システムであって、
第1の映像を撮像する第1のカメラと、
前記第1のカメラと略同一の画角で撮影される第2の映像を撮像する第2のカメラと、
前記第1の映像上で前記対象物を追跡する第1の追跡部と、
前記第2の映像上で前記対象物を追跡する第2の追跡部と、
前記第1の追跡部により得られた前記対象物の信頼度である第1の信頼度を算出する第1の信頼度算出部と、
前記第2の追跡部により得られた前記対象物の信頼度である第2の信頼度を算出する第2の信頼度算出部と、
前記第1の信頼度と前記第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御部とを備えた
ことを特徴とする追跡システム。
A tracking system that tracks the same object with multiple cameras.
The first camera that captures the first image and
A second camera that captures a second image taken at substantially the same angle of view as the first camera, and a second camera.
A first tracking unit that tracks the object on the first image,
A second tracking unit that tracks the object on the second image,
A first reliability calculation unit that calculates a first reliability, which is the reliability of the object obtained by the first tracking unit, and a first reliability calculation unit.
A second reliability calculation unit that calculates a second reliability, which is the reliability of the object obtained by the second tracking unit, and a second reliability calculation unit.
A control that compares the first reliability with the second reliability to identify a more reliable tracking process and controls the other tracking process based on the identified tracking process result. A tracking system characterized by having a department.
同一の対象物を複数のカメラで追跡する追跡方法であって、
第1のカメラが、第1の映像を撮像し、
第2のカメラが、前記第1のカメラと略同一の画角で撮影される第2の映像を撮像し、
処理部が、前記第1の映像上で前記対象物を追跡する第1の追跡処理と、前記第2の映像上で前記対象物を追跡する第2の追跡処理とを行い、
前記処理部が、前記第1の追跡処理で得られた前記対象物の信頼度である第1の信頼度と、前記第2の追跡処理で得られた前記対象物の信頼度である第2の信頼度とを算出する信頼度算出処理を行い、
前記処理部が、前記第1の信頼度と前記第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御処理を行う
ことを特徴とする追跡方法。
A tracking method that tracks the same object with multiple cameras.
The first camera captures the first image,
The second camera captures a second image taken at substantially the same angle of view as the first camera.
The processing unit performs a first tracking process for tracking the object on the first image and a second tracking process for tracking the object on the second image.
The processing unit has a first reliability, which is the reliability of the object obtained in the first tracking process, and a second reliability, which is the reliability of the object obtained in the second tracking process. Performs reliability calculation processing to calculate the reliability of
The processing unit compares the first reliability with the second reliability to identify a tracking process having a higher reliability, and based on the identified tracking process result, the other tracking process is performed. A tracking method characterized by performing a control process that controls the process.
第1のカメラが映像の撮像に用いるセンサとは異なるセンサを備えた第2のカメラが、第2の映像を撮像する
請求項10記載の追跡方法。
The tracking method according to claim 10, wherein a second camera having a sensor different from the sensor used by the first camera for capturing an image captures the second image.
同一の対象物を複数のカメラで追跡するコンピュータに適用される追跡プログラムであって、
前記コンピュータに、
第1のカメラで撮像された第1の映像上で前記対象物を追跡する第1の追跡処理、
前記第1のカメラと略同一の画角で撮影する第2のカメラで撮像された第2の映像上で前記対象物を追跡する第2の追跡処理、
前記第1の追跡処理で得られた前記対象物の信頼度である第1の信頼度と、前記第2の追跡処理で得られた前記対象物の信頼度である第2の信頼度とを算出する信頼度算出処理、および、
前記第1の信頼度と前記第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御処理
を実行させるための追跡プログラム。
A tracking program that applies to computers that track the same object with multiple cameras.
To the computer
The first tracking process of tracking the object on the first image captured by the first camera,
A second tracking process for tracking the object on the second image captured by the second camera, which takes a picture at substantially the same angle of view as the first camera.
The first reliability, which is the reliability of the object obtained in the first tracking process, and the second reliability, which is the reliability of the object obtained in the second tracking process, are obtained. Reliability calculation processing to calculate, and
A control that compares the first reliability with the second reliability to identify a more reliable tracking process and controls the other tracking process based on the identified tracking process result. A tracking program to perform the process.
第1の映像と第2の映像とは、撮像に用いられるカメラのセンサが異なる
請求項12記載の追跡プログラム。
The tracking program according to claim 12, wherein the sensor of the camera used for imaging is different between the first image and the second image.
JP2021204825A 2020-06-15 2021-12-17 Tracking system, tracking method and tracking program Pending JP2022050430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021204825A JP2022050430A (en) 2020-06-15 2021-12-17 Tracking system, tracking method and tracking program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020102772A JP7001125B2 (en) 2020-06-15 2020-06-15 Tracking system, tracking method and tracking program
JP2021204825A JP2022050430A (en) 2020-06-15 2021-12-17 Tracking system, tracking method and tracking program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020102772A Division JP7001125B2 (en) 2020-06-15 2020-06-15 Tracking system, tracking method and tracking program

Publications (1)

Publication Number Publication Date
JP2022050430A true JP2022050430A (en) 2022-03-30

Family

ID=72265301

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020102772A Active JP7001125B2 (en) 2020-06-15 2020-06-15 Tracking system, tracking method and tracking program
JP2021204825A Pending JP2022050430A (en) 2020-06-15 2021-12-17 Tracking system, tracking method and tracking program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020102772A Active JP7001125B2 (en) 2020-06-15 2020-06-15 Tracking system, tracking method and tracking program

Country Status (1)

Country Link
JP (2) JP7001125B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103673A1 (en) * 2012-12-28 2014-07-03 日本電気株式会社 Information processing system, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176504A (en) 2007-01-17 2008-07-31 Toshiba Corp Object detector and method therefor
WO2013005477A1 (en) 2011-07-05 2013-01-10 富士フイルム株式会社 Imaging device, three-dimensional image capturing method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103673A1 (en) * 2012-12-28 2014-07-03 日本電気株式会社 Information processing system, information processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大池 洋史 HIROSHI OIKE: "高速追従型2眼能動カメラシステム High-Speed Binocular Active Camera System for Capturing Good Image", 電子情報通信学会論文誌 (J91−D) 第5号 THE IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS (J, vol. 第J91-D巻, JPN6022040811, 1 May 2008 (2008-05-01), JP, pages 2 - 4, ISSN: 0005104646 *

Also Published As

Publication number Publication date
JP2020141426A (en) 2020-09-03
JP7001125B2 (en) 2022-01-19

Similar Documents

Publication Publication Date Title
JP6540330B2 (en) Tracking system, tracking method and tracking program
JP4699040B2 (en) Automatic tracking control device, automatic tracking control method, program, and automatic tracking system
US9396551B2 (en) Camera apparatus and method for tracking object in the camera apparatus
JP6532217B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM
US8284257B2 (en) Image pick-up apparatus and tracking method therefor
US10659676B2 (en) Method and apparatus for tracking a moving subject image based on reliability of the tracking state
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
CN114745498B (en) Method and system for capturing subregions and notifying whether altered by camera movement
KR101627185B1 (en) Control method of image photographing apparatus
US20050084179A1 (en) Method and apparatus for performing iris recognition from an image
JP5959923B2 (en) Detection device, control method thereof, control program, imaging device and display device
JP5001930B2 (en) Motion recognition apparatus and method
JP2010086336A (en) Image control apparatus, image control program, and image control method
JP2004227160A (en) Intruding object detector
JP2006146323A (en) Face feature collating device, face feature collating method, and program
CN110944101A (en) Image pickup apparatus and image recording method
JP4578864B2 (en) Automatic tracking device and automatic tracking method
JP6833483B2 (en) Subject tracking device, its control method, control program, and imaging device
JP6725041B2 (en) Tracking system, tracking method and tracking program
JP6799325B2 (en) Image correction device, image correction method, attention point recognition device, attention point recognition method and abnormality detection system
JP7001125B2 (en) Tracking system, tracking method and tracking program
JP4812099B2 (en) Camera position detection method
JP7122916B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM AND STORAGE MEDIUM
KR20220115223A (en) Method and apparatus for multi-camera calibration
JP2580516B2 (en) Real-time three-dimensional motion measuring apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230711