JP7161981B2 - Object tracking program, device and method capable of switching object tracking means - Google Patents

Object tracking program, device and method capable of switching object tracking means Download PDF

Info

Publication number
JP7161981B2
JP7161981B2 JP2019173270A JP2019173270A JP7161981B2 JP 7161981 B2 JP7161981 B2 JP 7161981B2 JP 2019173270 A JP2019173270 A JP 2019173270A JP 2019173270 A JP2019173270 A JP 2019173270A JP 7161981 B2 JP7161981 B2 JP 7161981B2
Authority
JP
Japan
Prior art keywords
tracking
image
object tracking
camera
tracking means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019173270A
Other languages
Japanese (ja)
Other versions
JP2021051470A (en
Inventor
和之 田坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019173270A priority Critical patent/JP7161981B2/en
Publication of JP2021051470A publication Critical patent/JP2021051470A/en
Application granted granted Critical
Publication of JP7161981B2 publication Critical patent/JP7161981B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象を含み得る画像によって当該対象を追跡する技術に関する。 The present invention relates to techniques for tracking an object through an image that may contain the object.

現在、監視カメラや車載カメラ等の普及に伴い、このようなカメラで撮影され生成された映像データを収集し、そこから新たな情報を創出する技術が注目されている。例えば、監視カメラ映像データから所定対象の移動軌跡に係る情報を生成したり、車載カメラ映像データから運転支援情報や自動運転実施のための制御管理情報を生成したりする技術の開発が盛んに進められている。 At present, with the widespread use of surveillance cameras, in-vehicle cameras, and the like, attention is focused on techniques for collecting video data captured and generated by such cameras and creating new information therefrom. For example, the development of technology for generating information related to the movement trajectory of a predetermined target from surveillance camera video data, and for generating driving support information and control management information for implementing automatic driving from in-vehicle camera video data, is progressing actively. It is

ここで特に、所定対象を識別しつつ追跡する技術については、その認識精度を向上させたり、所定対象を取り違えることなく把握し続けたりするといった課題の解決が重要となる。 Here, in particular, with regard to the technology for identifying and tracking a predetermined target, it is important to solve problems such as improving the recognition accuracy and continuously grasping the predetermined target without mistaking it.

この点、例えば特許文献1には、レーダセンサやカメラ等を用いて先行車の位置情報データを取得し、このデータの誤差に基づき、先行車走行軌跡算出のために保存され利用される先行車の位置情報データの距離の範囲(バッファリング範囲D)を決定して、そのバッファリング範囲Dに基づいて決定された先行車の位置情報データの保存時期(バッファリングのタイミング)に先行車の位置情報データを保存し、保存された先行車の位置情報データのうちのバッファリング範囲D内の位置情報データを用いて、先行車の走行軌跡を算出する先行車走行軌跡算出装置が開示されている。 In this respect, for example, in Patent Document 1, positional information data of the preceding vehicle is acquired using a radar sensor, camera, etc., and based on the error of this data, the preceding vehicle is stored and used to calculate the traveling trajectory of the preceding vehicle. The distance range (buffering range D) of the position information data of the preceding vehicle is determined, and the position of the preceding vehicle is stored at the storage time (buffering timing) of the position information data of the preceding vehicle determined based on the buffering range D. A preceding vehicle travel trajectory calculation device is disclosed that stores information data and calculates the travel trajectory of a preceding vehicle using position information data within a buffering range D of the stored position information data of the preceding vehicle. .

ここで、この先行車走行軌跡算出装置によれば、先行車の位置情報データのバッファリングの範囲Dとタイミングとを適切に設定することによって、演算負荷を過大にせずに、走行軌跡の算出精度の低下を防止できるとされている。 Here, according to this preceding vehicle travel locus calculation device, by appropriately setting the buffering range D and the timing of the position information data of the preceding vehicle, the calculation load is not excessively increased, and the accuracy of the travel locus calculation is improved. It is said that it is possible to prevent the decline of

また、特許文献2には、カメラ等の車両検知用センサによる検知データより前方地点を通過しようとする車両を検知するとともに車両識別情報を付与し、車両が前方地点から後方地点を通過するまでの間、車両識別情報を付与した状態を保持して車両を追跡し、車両が前方地点に進入する際に前部カメラの画像データより取得した前部ナンバープレート情報と、車両識別情報とを対応付けて保持し、車両が後方地点に進入する際に、同様に、後部ナンバープレート情報と車両識別情報とを対応付けて保持し、車両識別情報を比較して、同一の車両識別情報が付与されている前部ナンバープレート情報および後部ナンバープレート情報を対応付けるナンバープレート情報取得装置が開示されている。 In addition, in Patent Document 2, a vehicle that is about to pass a forward point is detected from detection data by a vehicle detection sensor such as a camera, and vehicle identification information is added, and the vehicle passes from the forward point to the rear point. During this time, the vehicle is tracked while the vehicle identification information is attached, and the front license plate information acquired from the image data of the front camera when the vehicle enters a point ahead is associated with the vehicle identification information. Similarly, when the vehicle enters the rear point, the rear license plate information and the vehicle identification information are stored in association with each other, the vehicle identification information is compared, and the same vehicle identification information is assigned. A license plate information acquisition device for associating front license plate information and rear license plate information is disclosed.

さらに、特許文献3には、映像中の複数の人物の映像内における座標を決定し、映像中の人物が密集している領域として集団領域を特定し、ある人物の映像内における座標を追跡し、また、ある人物の集団領域における座標及び着衣に記載された数字に基づいて、ある人物の集団領域における座標の軌跡を決定する人物追跡装置が開示されている。ここで、この人物追跡装置は、精度良く人物を追跡するのに有効であるとされている。 Furthermore, in Patent Document 3, the coordinates within the image of a plurality of persons in the image are determined, a group area is specified as an area in which the persons in the image are densely packed, and the coordinates within the image of a certain person are tracked. Also disclosed is a person tracking device that determines the trajectory of coordinates in a certain person's group area based on the coordinates in the person's group area and the numbers written on the clothes. Here, this person tracking device is said to be effective in tracking a person with high accuracy.

特開2016-206976号公報JP 2016-206976 A 国際公開第2008/010308号WO2008/010308 国際公開第2016/139906号WO2016/139906

以上に説明したように従来、所定対象を認識し追跡する技術においては、例えば特許文献1に記載された先行車走行軌跡算出装置のように、レーダセンサやカメラ等の所定の対象検出手段を用いて得られたデータを解析することが基本となっている。 As described above, conventionally, in the technology for recognizing and tracking a predetermined target, predetermined target detection means such as a radar sensor, a camera, etc., such as the preceding vehicle travel locus calculation device described in Patent Document 1, is used. It is fundamental to analyze the data obtained by

また従来、例えば特許文献2及び3に記載された技術のように、車両に付与されたナンバープレートや人物の着衣に記載された数字(例えば背番号)を認識して、対象(自動車や人間)の追跡を行う技術も存在している。 In addition, conventionally, for example, like the technology described in Patent Documents 2 and 3, the license plate attached to the vehicle and the number (for example, uniform number) written on the clothes of the person are recognized, and the target (automobile or human) is recognized. There are also techniques for tracking

しかしながら、追跡対象の特定部分であるナンバープレートや背番号等は、追跡対象との相対的な位置関係や、追跡対象の向き・姿勢によっては、レーダセンサやカメラ等の所定手段では「見る」ことのできない状況も少なからず発生する。例えば、追い越し車線を走行しつつまさに追い越しを行っている自動車が追跡対象である場合、追跡用のカメラが例え追跡する側の車両の側方に設置されていたとしても、当該カメラによってそのナンバープレートを認識することは非常に困難となる。 However, certain parts of the tracked object, such as license plates and jersey numbers, cannot be "seen" by predetermined means such as radar sensors and cameras, depending on the relative positional relationship with the tracked object and the orientation and posture of the tracked object. There are quite a few situations where it is not possible. For example, if the target vehicle is a vehicle that is driving in the overtaking lane and is about to overtake, even if a tracking camera is installed on the side of the vehicle being tracked, the camera will detect the license plate of the vehicle. becomes very difficult to recognize.

また、追い越しを行ったこの自動車が、そのまま前方を遠ざかっていった場合、ナンバープレートの認識はやはり困難となり、追跡精度の問題が生じてしまう。 Also, if the overtaking vehicle continues to move away in front, it will be difficult to recognize the license plate, resulting in a problem of tracking accuracy.

そこで、本発明は、追跡対象の状況に応じて、より適切な追跡を実施することが可能な対象追跡プログラム、装置及び方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an object tracking program, apparatus, and method capable of performing more appropriate tracking according to the situation of the object to be tracked.

本発明によれば、移動可能な対象を含み得る画像によって当該対象を追跡するコンピュータを機能させるプログラムであって、
当該画像における当該対象の特定部分であって、文字、数字及び記号のうちの少なくとも1つを含む特定部分、当該文字、数字及び記号のうちの少なくとも1つを読み取ることによって識別可能な第1の識別器を用いて、当該対象を追跡可能な第1の対象追跡手段と、
当該画像における当該対象に係る画素情報から当該対象を識別可能な、画像認識用の機械学習アルゴリズムによって構成された第2の識別器を用いて、当該対象を追跡可能な第2の対象追跡手段と、
第1の対象追跡手段による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し当該対象の追跡を実施させる対象追跡切り替え手段と
してコンピュータを機能させる対象追跡プログラムが提供される。
According to the present invention, a program for operating a computer that tracks a movable object by means of an image that may contain the object, comprising:
A first identifiable portion of the object in the image that includes at least one of letters, numbers and symbols by reading at least one of the letters, numbers and symbols . a first object tracking means capable of tracking the object using the discriminator of
a second object tracking means capable of tracking the object using a second discriminator constituted by a machine learning algorithm for image recognition, capable of identifying the object from pixel information related to the object in the image; ,
Object tracking switching means for causing second object tracking means to track the object when tracking of the object by the first object tracking means becomes impossible or is predicted to become impossible after a predetermined short period of time An object tracking program is provided that causes a computer to function as a

さらに、本発明によれば、移動可能な対象を含み得る画像によって当該対象を追跡するコンピュータを機能させるプログラムであって、
当該画像は、撮影範囲の互いに異なる複数のカメラのいずれかによって生成され、
当該画像における当該対象の特定部分を識別可能な第1の識別器を用いて、当該対象を追跡可能な第1の対象追跡手段と、
当該画像における当該対象に係る画素情報から当該対象を識別可能な第2の識別器を用いて、当該対象を追跡可能な第2の対象追跡手段と、
第1の対象追跡手段による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し当該対象の追跡を実施させる対象追跡切り替え手段と、
つのカメラによって生成された当該画像による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、当該対象を追跡可能とする画像又は追跡するのに適した画像であって、別のカメラによって生成された当該画像を取得する画像取得手段
てコンピュータを機能させ、
対象追跡切り替え手段は、当該別のカメラによって生成された当該画像に基づく第1の対象追跡手段による当該対象の追跡が不能である又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し、当該別のカメラによって生成された当該画像に基づき当該対象の追跡を実施させる
を特徴とする対象追跡プログラムが提供される
ここで、この本発明による対象追跡プログラムの一実施形態として、対象追跡切り替え手段は、第2の対象追跡手段により、あるカメラによって生成された当該画像に基づく当該対象の追跡が実施されてきた場合に、当該あるカメラとは別のカメラによって生成された当該画像において第1の対象追跡手段による当該対象の追跡が可能となった若しくは所定の短時間後に可能になると予測された際、又は当該あるカメラによって生成された当該画像において第2の対象追跡手段による当該対象の追跡が不能となった若しくは所定の短時間後に不能になると予測された際、第1の対象追跡手段に対し、当該あるカメラとは別のカメラによって生成された当該画像に基づき当該対象の追跡を実施させることも好ましい。
Furthermore, according to the present invention, a program for operating a computer that tracks a movable object by means of an image that may contain the object, comprising:
The image is generated by one of a plurality of cameras with different shooting ranges,
a first object tracking means capable of tracking the object using a first classifier capable of identifying a specific portion of the object in the image;
a second object tracking means capable of tracking the object using a second classifier capable of identifying the object from pixel information related to the object in the image;
object tracking switching means for causing a second object tracking means to track the object when the first object tracking means becomes unable to track the object or is predicted to become impossible after a predetermined short period of time; ,
An image that enables or is suitable for tracking an object when the object cannot be tracked by the image produced by a single camera or is predicted to become incapable after a predetermined short period of time . and an image acquisition means for acquiring the image generated by another camera
to make the computer work ,
When the object tracking switching means predicts that the object tracking by the first object tracking means based on the image generated by the different camera is impossible or will be impossible after a predetermined short time, the second subject tracking means to perform tracking of the subject based on the image produced by the separate camera
There is provided an object tracking program characterized by :
Here, as an embodiment of the object tracking program according to the present invention, the object tracking switching means is configured such that when the second object tracking means has tracked the object based on the image generated by a certain camera, or when it is predicted that the first object tracking means will be able to track the object in the image generated by a camera different from the one camera, or that it will be possible after a predetermined short period of time; When the image generated by the camera indicates that the tracking of the object by the second object tracking means has become impossible or is predicted to become impossible after a predetermined short period of time, the camera for the first object tracking means It is also preferred to have the tracking of the object performed on the basis of the image produced by a camera separate from the camera.

また、上記の実施形態において、当該カメラは、それぞれ前方、右側方、左側方及び後方を撮影可能な、1つの移動体に設けられた4つのカメラであり、当該対象の特定部分は、当該対象である他の移動体に対応付けられた文字、数字、記号及び図形のうちの少なくとも1つを含む表示体であってこの他の移動体に係る情報を特定するための表示体であることも好ましい。 Further, in the above-described embodiment, the cameras are four cameras provided on one moving body that can respectively photograph the front, right side, left side, and rear, and the specific part of the target is the target A display containing at least one of letters, numbers, symbols, and graphics associated with another moving body that is a display for specifying information related to this other moving body preferable.

さらに、上記の4つのカメラを用いた実施形態において、第1の対象追跡手段は、後方を撮影可能な当該カメラによって生成された画像における他の移動体の前に設置された表示体の位置から、後方から接近するこの他の移動体を追跡し、
第2の対象追跡手段は、右側方又は左側方を撮影可能な当該カメラによって生成された画像におけるこの他の移動体に係る画素情報から、接近して右側方又は左側方から追い越しをかけるこの他の移動体を追跡し、
第1の対象追跡手段は、前方を撮影可能な当該カメラによって生成された画像におけるこの他の移動体の後ろに設置された表示体の位置から、追い越しを終えて前方に現れたこの他の移動体を追跡することも好ましい。
Furthermore, in the embodiment using the above four cameras, the first object tracking means can detect the position of the display object placed in front of the other moving object in the image generated by the camera capable of photographing the rear. , tracks this other moving object approaching from behind, and
The second object tracking means approaches and overtakes the other moving object from the right side or the left side based on the pixel information related to the other moving object in the image generated by the camera capable of photographing the right side or the left side. track the moving objects of
The first object tracking means detects the position of the display object installed behind the other moving object in the image generated by the camera capable of photographing the front, and the other moving object appearing in front after overtaking. Body tracking is also preferred.

また、本発明によれば、移動可能な対象を含み得る画像によって当該対象を追跡するコンピュータを機能させるプログラムであって、
当該画像における当該対象の特定部分を識別可能な第1の識別器を用いて、当該対象を追跡可能な第1の対象追跡手段と、
当該画像における当該対象に係る画素情報から当該対象を識別可能な第2の識別器を用いて、当該対象を追跡可能な第2の対象追跡手段と、
該画像において検出される当該対象に係るバウンディングボックスの当該画像内での位置に基づいて、当該画像における当該対象を追跡可能な第3の対象追跡手段と、
第1の対象追跡手段による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し当該対象の追跡を実施させ、第2の対象追跡手段によって当該対象の追跡が実施されてきた場合に、第2の対象追跡手段による当該対象の追跡が、当該対象の画素情報に係る領域が所定以上に小さくなったために不能となった際、第3の対象追跡手段に対し当該対象の追跡を実施させる対象追跡切り替え手段と
してコンピュータを機能させることを特徴とする対象追跡プログラムが提供される
Further , according to the present invention, a program that causes a computer to track a movable object with an image that may include the object,
a first object tracking means capable of tracking the object using a first classifier capable of identifying a specific portion of the object in the image;
a second object tracking means capable of tracking the object using a second classifier capable of identifying the object from pixel information related to the object in the image;
third object tracking means capable of tracking the object in the image based on the position in the image of the bounding box of the object detected in the image ;
When the tracking of the object by the first object tracking means becomes impossible or is predicted to become impossible after a predetermined short time, the second object tracking means is caused to track the object, and the second object is detected. When the object has been tracked by the tracking means, and the tracking of the object by the second object tracking means has become impossible because the area related to the pixel information of the object has become smaller than a predetermined size. , object tracking switching means for causing the third object tracking means to track the object;
An object tracking program is provided, characterized in that it causes a computer to function by :

ここで、上記の第3の対象追跡手段を包含する対象追跡プログラムにおいて、当該画像は、1つの移動体に設けられた前方を撮影可能なカメラによって生成され、第3の対象追跡手段は、当該画像において検出される他の移動体に係るバウンディングボックスの当該画像内での位置に基づいて、この1つの移動体を追い越した後にその前方の先へ遠ざかる他の移動体を追跡することも好ましい。
さらに、以上に述べた本発明による対象追跡プログラムにおいて、対象追跡切り替え手段は、第2の対象追跡手段によって当該対象の追跡が実施されてきた場合に、第1の対象追跡手段による当該対象の追跡が可能となった若しくは所定の短時間後に可能になると予測された際、又は第2の対象追跡手段による当該対象の追跡が不能となった若しくは所定の短時間後に不能になると予測された際、第1の対象追跡手段に対し当該対象の追跡を実施させることも好ましい。
Here, in the object tracking program including the third object tracking means, the image is generated by a camera capable of photographing the front provided on one moving body, and the third object tracking means It is also preferable to track other moving bodies moving away in front of and after passing this one moving body based on the position within the image of the bounding box associated with the other moving body detected in the image.
Further, in the object tracking program according to the present invention described above, the object tracking switching means causes the object to be tracked by the first object tracking means when the object has been tracked by the second object tracking means. has become possible or is predicted to be possible after a predetermined short time, or tracking of the object by the second object tracking means has become impossible or is predicted to be impossible after a predetermined short time, It is also preferred to cause the first object tracking means to perform the tracking of the object.

本発明によれば、また、移動可能な対象を含み得る画像によって当該対象を追跡する装置であって、
当該画像における当該対象の特定部分であって、文字、数字及び記号のうちの少なくとも1つを含む特定部分、当該文字、数字及び記号のうちの少なくとも1つを読み取ることによって識別可能な第1の識別器を用いて、当該対象を追跡可能な第1の対象追跡手段と、
当該画像における当該対象に係る画素情報から当該対象を識別可能な、画像認識用の機械学習アルゴリズムによって構成された第2の識別器を用いて、当該対象を追跡可能な第2の対象追跡手段と、
第1の対象追跡手段による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し当該対象の追跡を実施させる対象追跡切り替え手段と
を有する対象追跡装置が提供される。
According to the invention, there is also a device for tracking a movable object by means of an image, which may contain a movable object, comprising:
A first identifiable portion of the object in the image that includes at least one of letters, numbers and symbols by reading at least one of the letters, numbers and symbols . a first object tracking means capable of tracking the object using the discriminator of
a second object tracking means capable of tracking the object using a second discriminator constituted by a machine learning algorithm for image recognition, capable of identifying the object from pixel information related to the object in the image; ,
Object tracking switching means for causing second object tracking means to track the object when tracking of the object by the first object tracking means becomes impossible or is predicted to become impossible after a predetermined short period of time There is provided an object tracking device comprising:

本発明によれば、さらに、移動可能な対象を含み得る画像によって当該対象を追跡するコンピュータにおける対象追跡方法であって、
当該画像における当該対象の特定部分であって、文字、数字及び記号のうちの少なくとも1つを含む特定部分、当該文字、数字及び記号のうちの少なくとも1つを読み取ることによって識別可能な第1の識別器を用いて、当該対象を追跡するステップと、
第1の識別器による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、当該画像における当該対象に係る画素情報から当該対象を識別可能な、画像認識用の機械学習アルゴリズムによって構成された第2の識別器を用いて、当該対象を追跡するステップと
を有する対象追跡方法が提供される。
According to the present invention, there is further provided a method of object tracking in a computer for tracking an object through an image that may include a movable object, comprising:
A first identifiable portion of the object in the image that includes at least one of letters, numbers and symbols by reading at least one of the letters, numbers and symbols . tracking the object using the discriminator of
For image recognition that can identify the target from the pixel information of the target in the image when the tracking of the target by the first discriminator becomes impossible or is predicted to become impossible after a predetermined short time . and tracking the object using a second discriminator configured by the machine learning algorithm of .

本発明の対象追跡プログラム、装置及び方法によれば、追跡対象の状況に応じて、より適切な追跡を実施することができる。 According to the object tracking program, device and method of the present invention, more appropriate tracking can be performed according to the situation of the object to be tracked.

本発明による対象追跡サーバ及び画像データ提供クライアントを備えた対象追跡システムの一実施形態を説明するための模式図及び機能ブロック図である。1 is a schematic diagram and a functional block diagram for explaining an embodiment of an object tracking system provided with an object tracking server and an image data providing client according to the present invention; FIG. 本発明に係る第1の対象追跡部による対象追跡処理の一実施形態を説明するための模式図である。FIG. 4 is a schematic diagram for explaining an embodiment of object tracking processing by the first object tracking unit according to the present invention; 本発明に係る第3の対象追跡部による対象追跡処理の一実施形態を説明するための模式図である。FIG. 10 is a schematic diagram for explaining an embodiment of object tracking processing by a third object tracking unit according to the present invention; 本発明による対象追跡方法の一実施形態を説明するための模式図である。1 is a schematic diagram for explaining an embodiment of an object tracking method according to the present invention; FIG.

以下、本発明の実施形態について、図面を用いて詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[対象追跡システム]
図1は、本発明による対象追跡サーバ及び画像データ提供クライアントを備えた対象追跡システムの一実施形態を説明するための模式図及び機能ブロック図である。
[Object tracking system]
FIG. 1 is a schematic diagram and a functional block diagram for explaining an embodiment of an object tracking system provided with an object tracking server and an image data providing client according to the present invention.

図1に示した本実施形態の対象追跡システムは、
(a)移動可能なクライアントである少なくとも1つの端末20と、
(b)端末20から画像データを取得可能なサーバであるクラウドサーバ1と
を有し、このクラウドサーバ1において、取得された画像データから、所定の対象が識別され追跡されるのである。
The object tracking system of this embodiment shown in FIG.
(a) at least one terminal 20 which is a mobile client;
(b) It has a cloud server 1 which is a server capable of acquiring image data from the terminal 20, and in this cloud server 1, a predetermined target is identified and tracked from the acquired image data.

ここで上記(a)の端末20は、本実施形態において、通信機能を有するドライブレコーダであり自動車2内に設置されている。また端末20は、本実施形態においては自動車2に設置された、撮影範囲の互いに異なる4つのカメラ、すなわち、
自動車2の前方(自動車2の直進時進行方向)を撮影可能な前方カメラ202c、
自動車2の後方を撮影可能な後方カメラ202a、
自動車2の右側方を撮影可能な右側方カメラ202b、及び
自動車2の左側方を撮影可能な左側方カメラ202d
と有線又は無線で接続されており、例えば自動車2の周囲360度の状況をこれらのカメラで撮影して画像(映像)データを生成し、自身に設けられたメモリやストレージに保存することができるものとなっている。
Here, the terminal 20 of (a) above is a drive recorder having a communication function and is installed in the automobile 2 in this embodiment. In addition, the terminal 20 includes, in this embodiment, four cameras installed in the automobile 2 and having different photographing ranges.
A front camera 202c capable of photographing the front of the automobile 2 (direction of travel when the automobile 2 is traveling straight ahead),
a rear camera 202a capable of photographing the rear of the automobile 2,
A right side camera 202b capable of photographing the right side of the automobile 2, and a left side camera 202d capable of photographing the left side of the automobile 2
For example, these cameras can capture the 360-degree surroundings of the automobile 2, generate image (video) data, and store them in their own memory or storage. It is a thing.

さらに、端末20は、例えば携帯電話通信網やインターネット等を介してクラウドサーバ1と無線通信接続が可能となっており、各カメラの撮影によって生成し保存している画像(映像)データの一部又は全部を、適宜又は指示に応じてクラウドサーバ1へ送信することもできるのである。 Furthermore, the terminal 20 is capable of wireless communication connection with the cloud server 1 via, for example, a mobile phone communication network, the Internet, etc., and a part of the image (video) data generated and stored by each camera is captured. Alternatively, all of them can be transmitted to the cloud server 1 as appropriate or according to instructions.

一方、上記(b)のクラウドサーバ1は、端末20から、移動可能な追跡対象(例えば、図1の追い越しを行っている自動車3)を含み得る画像(データ)を取得し、当該画像によって追跡対象(自動車3)を追跡する装置となっており、
(A)当該画像における追跡対象(自動車3)の「特定部分」(例えばナンバープレート)を識別可能な第1の識別器を用いて、当該画像における追跡対象(自動車3)を追跡可能な第1の対象追跡部114と、
(B)当該画像における追跡対象(自動車3)に係る画素情報から追跡対象(自動車3)を識別可能な第2の識別器を用いて、当該画像における追跡対象(自動車3)を追跡可能な第2の対象追跡部115と、
(C)第1の対象追跡部114による追跡対象(自動車3)の追跡が不能又は不適となった際、第2の対象追跡部115に対し追跡対象(自動車3)の追跡を実施させる対象追跡切り替え部113と
を有することを特徴としている。
On the other hand, the cloud server 1 in (b) above acquires an image (data) that may include a movable tracked object (for example, the overtaking car 3 in FIG. 1) from the terminal 20, and uses the image to track It is a device that tracks the target (car 3),
(A) Using a first discriminator capable of identifying a "specific part" (for example, a license plate) of the tracked target (car 3) in the image, a first discriminator capable of tracking the tracked target (car 3) in the image a target tracking unit 114 of
(B) Using a second classifier capable of identifying the tracked object (vehicle 3) from pixel information related to the tracked object (vehicle 3) in the image, a second discriminator capable of tracking the tracked object (vehicle 3) in the image 2 object tracking unit 115,
(C) Object tracking that causes the second object tracking unit 115 to track the tracked object (car 3) when the first object tracking unit 114 cannot track the tracked object (car 3) or becomes inappropriate. It is characterized by having a switching unit 113 .

ここで、上記(A)の「特定部分」(例えばナンバープレート)は、追跡対象(例えば自動車3)との相対的な位置関係や、追跡対象(自動車3)の向き・姿勢によっては、追跡用としてその撮影画像を使用しているカメラでは「見る」ことのできない状況も少なからず発生する。 Here, the "specific part" (eg, license plate) in (A) above may be used for tracking depending on the relative positional relationship with the tracked target (eg, car 3) and the orientation and attitude of the tracked target (car 3). There are quite a few situations in which it is not possible to "see" a camera that uses the captured image as an image.

例えば、追い越し車線を走行しつつまさに追い越しを行っている自動車3が追跡対象であって、特定部分が車両の前後に取り付けられたナンバープレートである場合、追跡用に使用しているカメラが例え、端末20の搭載された自動車2の右側方カメラ202bであっても、当該カメラによってそのナンバープレートを認識することは非常に困難となる。さらに言えば、追い越しをかけ終わった自動車3が、そのまま自動車2の前方を遠ざかっていった場合、追跡用に使用しているカメラが例え前方カメラ202cであっても、ナンバープレートの認識はやはり困難となってしまう。 For example, if the vehicle 3 that is driving in the overtaking lane and is about to overtake is the object to be tracked, and the specific part is the license plate attached to the front and rear of the vehicle, the camera used for tracking is likened to: Even with the right side camera 202b of the automobile 2 in which the terminal 20 is mounted, it is very difficult to recognize the license plate by the camera. Furthermore, if the vehicle 3 that has finished overtaking moves away in front of the vehicle 2, even if the camera used for tracking is the front camera 202c, it is still difficult to recognize the license plate. becomes.

これに対し、クラウドサーバ1は、上記(C)にあるように、第1の対象追跡部114による追跡対象(例えば自動車3)の追跡が不能又は不適となった際、第2の対象追跡部115に対し追跡対象(自動車3)の追跡を実施させることができるのである。 On the other hand, as described in (C) above, when the first object tracking unit 114 cannot track a tracked object (for example, the car 3) or becomes unsuitable for tracking, the cloud server 1 causes the second object tracking unit 115 can be made to track the tracked object (car 3).

ここで、第2の対象追跡部115による対象追跡処理は、追跡対象(自動車3)に係る画素情報から追跡対象(自動車3)を識別可能な第2の識別器を用いるものであり、「特定部分」(例えばナンバープレート)の識別による追跡処理と比較すると通常、より処理負担の大きいものとなる。しかしながら、追跡対象(自動車3)との相対的位置関係の変化や、追跡対象(自動車3)の向き・姿勢の変化に対する処理のロバスト性はより高くなっている。 Here, the object tracking processing by the second object tracking unit 115 uses a second classifier capable of identifying the tracked object (automobile 3) from the pixel information related to the tracked object (automobile 3). This is typically more processing intensive compared to the tracking process by identification of "parts" (eg license plates). However, the robustness of the processing against changes in the relative positional relationship with the tracked object (automobile 3) and changes in the orientation/posture of the tracked object (automobile 3) is higher.

例えば、「特定部分」としてのナンバープレートは「見る」ことができない状況でも、追跡対象としての自動車3は「見る」ことができる場合は少なからず発生するのであり、この自動車3に係る画像部分(画素値データ)が所定以上取得できさえすれば、第2の対象追跡部115は、対象追跡処理を実施することが可能となっている。 For example, even in a situation where the license plate as the "specific part" cannot be "seen", there are many cases where the vehicle 3 as the tracking target can be "seen". The second object tracking unit 115 can perform object tracking processing as long as a predetermined number of pixel value data or more can be obtained.

以上説明したように、クラウドサーバ1は、追跡対象(例えば自動車3)の状況に応じて、より適切な追跡を実施することが可能となっており、例えば、追跡対象の「特定部分」(例えばナンバープレート)の識別が不能又は困難となっても、対象追跡処理を続行することができるのである。 As described above, the cloud server 1 can perform more appropriate tracking according to the situation of the tracked target (for example, the automobile 3). The object tracking process can continue even if the identification of the license plate becomes impossible or difficult.

なお、上記(C)における「追跡が不能又は不適」とは、後に詳細に説明するが、追跡対象の特定部分の識別処理が実際に不能又は困難である状況を含むものとする。 In addition, although described later in detail, "tracking is impossible or unsuitable" in the above (C) includes a situation in which identification processing of a specific part of the tracked object is actually impossible or difficult.

また、上記(A)の「特定部分」も、ナンバープレートに限定されるものではなく、例えば、追跡対象が自動車である場合、車体に付与されたエンブレムやロゴマークを特定部分とすることも可能である。さらに、追跡対象が競技者(人物)である場合、着衣に付された番号(例えば背番号)の記載部分を「特定部分」とすることもできる。この点例えば、追跡対象の「特定部分」は、文字、数字、記号及び図形のうちの少なくとも1つを含む部分であって、上記(A)の第1の識別器として、当該文字、数字、記号及び図形のうちの少なくとも1つを識別可能なものを採用することも好ましい。さらに、このような「特定部分」を備えたものならば種々のものが、追跡対象として設定可能となっているのである。 In addition, the "specific part" in (A) above is not limited to the license plate. For example, if the tracked object is a car, the emblem or logo mark attached to the vehicle body can be the specific part. is. Furthermore, when the object to be tracked is a player (person), the part where the number (for example, uniform number) attached to the clothes can be used as the "specific part". In this regard, for example, the "specific part" of the tracked object is a part containing at least one of letters, numbers, symbols and graphics, and the letters, numbers, It is also preferable to adopt at least one of symbols and graphics that can be identified. Furthermore, various objects can be set as objects to be tracked as long as they have such a "specific part".

また、端末20に接続されるカメラも当然、上述したような4つのカメラに限定されるものではなく、4つ以外の個数のカメラであってもよい。また例えば、広角レンズや魚眼レンズ等を備えた広画角のカメラを1つ又は2つ以上採用することも可能である。 Also, the cameras connected to the terminal 20 are not limited to the four cameras described above, and the number of cameras other than four may be used. Also, for example, it is possible to employ one or more wide-angle cameras equipped with wide-angle lenses, fish-eye lenses, or the like.

さらに、端末20も当然に、自動車2に設置された車載装置(ドライブレコーダ)に限定されるものではなく、例えば自転車や鉄道車両、さらにはロボットやドローン等の他の移動体に設置された又は搭乗した装置であってもよい。また、1つ以上のカメラを搭載した例えばHMD(Head Mounted Display)やグラス型端末等のウェアラブル端末とすることもできる。この場合、例えばユーザが歩きながら撮影し生成した画像データがクラウドサーバ1へ上げられることになる。さらに、移動可能でない端末、例えば通信機能を備えた固定カメラ装置、例えば道路沿いに設置された交通状況監視カメラとすることも可能である。 Furthermore, the terminal 20 is not, of course, limited to an in-vehicle device (drive recorder) installed in the automobile 2. It may be an on-board device. Also, it can be a wearable terminal such as an HMD (Head Mounted Display) or a glass type terminal equipped with one or more cameras. In this case, for example, the image data generated by the user photographing while walking is uploaded to the cloud server 1 . Furthermore, it may be a non-movable terminal, for example a fixed camera device with a communication function, for example a traffic monitoring camera installed along the road.

[対象追跡サーバの機能構成]
図1に示した機能ブロック図によれば、対象追跡サーバであるクラウドサーバ1は、通信インタフェース101と、プロセッサ・メモリとを有する。ここで、このプロセッサ・メモリは、本発明による対象追跡プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、この対象追跡プログラムを実行することによって、対象追跡処理を実施する。
[Functional configuration of target tracking server]
According to the functional block diagram shown in FIG. 1, the cloud server 1, which is an object tracking server, has a communication interface 101 and a processor memory. Here, the processor memory stores an object tracking program according to an embodiment of the present invention, and has a computer function to execute the object tracking process by executing the object tracking program. do.

またこのことから、本発明による対象追跡サーバとして、本クラウドサーバ1に代えて、本発明による対象追跡プログラムを搭載した、例えば非クラウドのサーバ装置、パーソナル・コンピュータ(PC)、ノート型若しくはタブレット型コンピュータ、又はスマートフォン等を採用することも可能となる。 Further, from this, as the object tracking server according to the present invention, instead of the cloud server 1, the object tracking program according to the present invention is installed, for example, a non-cloud server device, personal computer (PC), notebook type or tablet type It is also possible to adopt a computer, a smart phone, or the like.

また例えば、端末20に本発明による対象追跡プログラムを搭載し、当該端末20を本発明による対象追跡サーバとすることもできる。さらに、本発明による対象追跡サーバを、端末20とともに自動車2に設置する実施形態も可能となるのである。 Further, for example, the object tracking program according to the present invention can be installed in the terminal 20, and the terminal 20 can be used as the object tracking server according to the present invention. Furthermore, an embodiment in which the object tracking server according to the present invention is installed in the automobile 2 together with the terminal 20 is also possible.

また、上記のプロセッサ・メモリは、カメラ指定部111aを含む画像取得部111と、対象追跡切り替え部113と、第1の対象追跡部114と、第2の対象追跡部115と、第3の対象追跡部116と、追跡結果総合部117と、送受信制御部118とを有する。またさらに、対象検出部112を有していてもよい。なお、これらの機能構成部は、プロセッサ・メモリに保存された対象追跡プログラムの機能と捉えることができる。また、図1におけるクラウドサーバ1の機能構成部間を矢印で接続して示した処理の流れは、本発明による対象追跡方法の一実施形態としても理解される。 Further, the above processor memory includes an image acquisition unit 111 including a camera designation unit 111a, an object tracking switching unit 113, a first object tracking unit 114, a second object tracking unit 115, a third object It has a tracking unit 116 , a tracking result synthesizing unit 117 , and a transmission/reception control unit 118 . Furthermore, the object detection unit 112 may be provided. It should be noted that these functional components can be regarded as the functions of the object tracking program stored in the processor memory. Further, the flow of processing in which the functional components of the cloud server 1 are connected by arrows in FIG. 1 can also be understood as an embodiment of the object tracking method according to the present invention.

同じく図1の機能ブロック図において、画像取得部111は、端末20から通信インタフェース101及び送受信制御部118を介して受信された映像(画像)データを取得し管理する。ここで画像取得部111は、当該映像データを、MPEG等の規格に基づき圧縮符号化された映像ストリームの形で受け取ってもよい。この場合、当該映像ストリームを伸張(デコード)し、原映像ストリームを構成する画像データ群として管理することになる。 Also in the functional block diagram of FIG. 1, the image acquisition unit 111 acquires and manages video (image) data received from the terminal 20 via the communication interface 101 and the transmission/reception control unit 118 . Here, the image acquisition unit 111 may receive the video data in the form of a video stream compression-encoded based on standards such as MPEG. In this case, the video stream is decompressed (decoded) and managed as an image data group forming the original video stream.

また、画像取得部111のカメラ指定部111aは、後に詳細に説明するが、対象追跡切り替え部113から切り替え通知(追跡手段変更通知)を受け取った際、この通知に基づいて、いずれのカメラ(の画像データ)を選択すべきかを指定するカメラ指定情報を生成し、当該カメラ指定情報を端末20へ送信させる。ここで、カメラ指定部111aは、端末20に接続された各カメラ(図1では4つのカメラ202a~202dの各々)の撮影向きや、互いの位置関係に係る情報を予め知得していて、当該情報に基づいてカメラ指定情報を生成することも好ましい。 Further, when the camera designation unit 111a of the image acquisition unit 111 receives a switching notification (tracking means change notification) from the target tracking switching unit 113, which camera (or which camera) is selected based on this notification, which will be described later in detail. image data) is generated, and the camera designation information is transmitted to the terminal 20. FIG. Here, the camera designation unit 111a obtains in advance information about the shooting direction of each camera connected to the terminal 20 (each of the four cameras 202a to 202d in FIG. 1) and the mutual positional relationship. It is also preferable to generate camera designation information based on the information.

このようなカメラ指定情報を端末20へ通知することによって、画像取得部111は、1つのカメラによって生成された画像データによる追跡対象の追跡が不能又は不適となった際、当該追跡対象を追跡可能とする(又は追跡するのに適した)画像データであって、別のカメラによって生成された画像データを取得することも可能となるのである。 By notifying the terminal 20 of such camera designation information, the image acquisition unit 111 can track the tracked target when it becomes impossible or inappropriate to track the tracked target using image data generated by one camera. It is also possible to obtain image data that is (or is suitable for tracking) generated by another camera.

ここで、画像取得部111は、端末20に接続された各カメラの画像データを全て取得する形態も可能ではあるが、そうではなく、その都度カメラ指定情報で指定したカメラによって生成された画像データのみを取得することも好ましい。これにより、端末20からのデータ送信負担が軽減され、また、クラウドサーバ1側での画像データ保存・管理負担も軽減可能となる。 Here, the image acquisition unit 111 can acquire all the image data of each camera connected to the terminal 20, but instead, the image data generated by the camera specified by the camera specification information is acquired each time. It is also preferable to obtain only As a result, the data transmission load from the terminal 20 can be reduced, and the image data storage/management load on the cloud server 1 side can also be reduced.

対象検出部112は、画像取得部111から取得された画像データにおいて追跡対象を検出する。具体的には、周知の機械学習を用いた物体検出技術を用いて追跡対象検出処理を実施することができる。例えば、画像データ内の各小画像領域に対し、追跡対象検出用に学習された物体検出器を用いて「追跡対象らしさ」を示すスコアを算出し、当該スコアの最も高い小画像領域を追跡対象領域に決定してもよい。 The target detection unit 112 detects a tracked target in the image data acquired from the image acquisition unit 111 . Specifically, a tracking target detection process can be performed using a well-known object detection technique using machine learning. For example, for each small image region in the image data, an object detector trained for tracking target detection is used to calculate a score that indicates “likeness to be tracked”, and the small image region with the highest score is the tracked target. area may be determined.

また、ここで決定される追跡対象領域は、例えば、物体検出器によって検出された追跡対象の画像部分に対し各辺が外接している外接矩形の領域、すなわちバウンディングボックス(bounding box)であることも好ましい。勿論当然に、他の形状の対象領域を設定することも可能である。 Also, the tracked area determined here is, for example, a circumscribing rectangular area, that is, a bounding box, each side of which is circumscribing the image portion of the tracked object detected by the object detector. is also preferred. Of course, it is also possible to set target regions of other shapes.

また、このような物体検出器として、例えば非特許文献:Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, Alexander C. Berg, “SSD: single shot multibox detector”, European Conference on Computer Vision, Computer Vision-ECCV 2016, 2016年, 21~37頁に記載されたものを使用することができる。 Non-Patent Documents: Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, Alexander C. Berg, "SSD: single shot multibox detector", European Conference on Computer Vision, Computer Vision-ECCV 2016, 2016, pp. 21-37 can be used.

なお変更態様として、端末20が、追跡対象検出処理の機能(図1の対象検出部213)を有し、追跡対象検出結果の情報(例えば、バウンディングボックスの大きさ及び画像内位置に係る情報)を画像データとともにクラウドサーバ1へ送信することとしてもよい。この場合、クラウドサーバ1は、上記の対象検出部112を省略することができる。 As a modification, the terminal 20 has a tracking target detection processing function (the target detection unit 213 in FIG. 1), and information on the tracking target detection result (for example, information on the size of the bounding box and the position in the image) may be transmitted to the cloud server 1 together with the image data. In this case, the cloud server 1 can omit the target detection unit 112 described above.

同じく図1の機能ブロック図において、対象追跡切り替え部113は、
(ア)第1の対象追跡部114による追跡対象の追跡が不能又は不適となった際、第2の対象追跡部115に対し追跡対象の追跡を実施させたり、
(イ)第2の対象追跡部115によって追跡対象の追跡が実施されてきた場合に、第1の対象追跡部114による追跡対象の追跡が可能又は適切となった際、第1の対象追跡部114に対し追跡対象の追跡を実施させたり
することができる。
Similarly, in the functional block diagram of FIG. 1, the object tracking switching unit 113
(a) When the tracking of the tracking target by the first target tracking unit 114 becomes impossible or inappropriate, the second target tracking unit 115 is caused to track the tracking target,
(b) When the second object tracking unit 115 has tracked the object and it becomes possible or appropriate to track the object by the first object tracking unit 114, the first object tracking unit 114 may be caused to perform tracking of the tracked object.

また本実施形態において、対象追跡切り替え部113は、上記(ア)の場合に、第1の対象追跡部114による追跡対象(例えば、追い越しを行っている自動車3)の追跡が不能又は不適である画像データの生成元となるカメラ(例えば、後方カメラ202a)から、当該追跡対象を追跡可能とする画像、又は追跡するのに適した画像を生成し得る別のカメラ(例えば、右側方カメラ202b)への切り替えを指定する切り替え通知(追跡手段変更通知)を、カメラ指定部111aへ出力する。 In the present embodiment, the object tracking switching unit 113 determines that the first object tracking unit 114 is unable or unsuitable for tracking the object (for example, the overtaking car 3) in the case of (a) above. From the camera that generated the image data (e.g., the rear camera 202a), another camera (e.g., the right side camera 202b) that can generate an image that enables or is suitable for tracking the tracked object. A switch notification (tracking means change notification) designating switching to is output to the camera designation unit 111a.

これにより、対象追跡切り替え部113は、切り替えられた別のカメラ(右側方カメラ202b)によって生成された画像に基づく第1の対象追跡部114による追跡対象の追跡が不能又は不適であっても、第2の対象追跡部115に対し当該追跡対象の追跡を実施させることができるのである。 As a result, the object tracking switching unit 113 allows the first object tracking unit 114 to track the object based on the image generated by the switched camera (right side camera 202b). It is possible to cause the second object tracking unit 115 to track the object to be tracked.

さらに本実施形態において、対象追跡切り替え部113は、上記(イ)の場合に、第2の対象追跡部115による追跡対象の追跡が実施されてきた画像データの生成元となるカメラ(例えば、右側方カメラ202b)から、第1の対象追跡部114による当該対象の追跡が可能又は適切となっている画像データを生成し得る別のカメラ(例えば、前方カメラ202c)への切り替えを指定する切り替え通知(追跡手段変更通知)を、カメラ指定部111aへ出力する。 Furthermore, in the present embodiment, the object tracking switching unit 113, in the case of (b) above, uses the camera (for example, the right A switch notification that specifies switching from the front camera 202b) to another camera (e.g., the front camera 202c) that can generate image data that makes it possible or appropriate for the first object tracking unit 114 to track the object. (tracking means change notification) is output to the camera designation unit 111a.

これにより、対象追跡切り替え部113は、第2の対象追跡部115によって追跡対象の追跡が実施されてきた場合に、切り替えられた別のカメラ(前方カメラ202c)によって生成された画像において第1の対象追跡部114による当該追跡対象の追跡が可能又は適切となった際に、第1の対象追跡部114に対し当該追跡対象の追跡を実施させることができるのである。 As a result, when the second object tracking unit 115 tracks the object to be tracked, the object tracking switching unit 113 switches the image generated by the other switched camera (the front camera 202c) to the first When it becomes possible or appropriate for the object tracking unit 114 to track the tracked object, the first object tracking unit 114 can be caused to track the tracked object.

なお、上記(ア)における「追跡が不能又は不適」とは、追跡対象の特定部分の識別処理が実際に不能又は困難である状況、例えば所定以上の識別精度が得られなかったり、当該特定部分領域の所定割合以上が画像から消失したり(画像外へはみ出たり)した状況とすることもできるが、または、1つのカメラ(例えば、後方カメラ202a)に係る画像内における追跡対象(例えば、自動車3)の追跡状況(その画像内位置や移動速度・向き)から、直ちに(所定の短時間後には)別のカメラ(例えば、右側方カメラ202b)に係る画像内の方へ移動することが予測される状況としてもよい。 In addition, "tracking is impossible or unsuitable" in the above (a) refers to a situation in which the identification process of a specific part of the tracked target is actually impossible or difficult, for example, a predetermined or higher identification accuracy cannot be obtained, or It can also be a situation where more than a predetermined percentage of the area disappears from the image (protrudes outside the image), or a tracked object (for example, a car 3) From the tracking situation (the position in the image and the moving speed/direction), it is predicted that it will immediately (after a predetermined short time) move toward the image related to another camera (for example, the right side camera 202b). It may be a situation where

ちなみに、当該特定部分領域が、例えば後方カメラ202aに係る画像においてその右辺に向けて消失する(はみ出る)場合、対象追跡切り替え部113は、例えば右側方カメラ202bへの切り替えを指定する切り替え通知(追跡手段変更通知)をカメラ指定部111aへ出力することができる。一方、左辺に向けて消失する(はみ出る)場合、例えば左側方カメラ202dへの切り替えを指定する切り替え通知(追跡手段変更通知)を出力してもよい。 Incidentally, if the specific partial area disappears (protrudes) toward the right side of the image of the rear camera 202a, for example, the target tracking switching unit 113 issues a switching notification (tracking means change notification) can be output to the camera designation unit 111a. On the other hand, when it disappears (protrudes) toward the left side, for example, a switch notification (tracking means change notification) specifying switching to the left side camera 202d may be output.

さらに、上記(イ)における「追跡が可能又は適切」とは、現在追跡に用いている画像において、追跡対象の特定部分の識別処理が可能となる状況とすることもでき、または、切り替えられる新たなカメラ(例えば、前方カメラ202c)に係る画像において、追跡対象の特定部分の識別処理が可能となる(ことが見込まれる)状況とすることもできる。 Furthermore, "tracking is possible or appropriate" in the above (a) can be a situation in which identification processing of a specific part of the tracked object is possible in the image currently used for tracking, or a new state that can be switched. It is possible (or expected) to identify a specific part of the tracked object in the image captured by the camera (for example, the front camera 202c).

同じく図1の機能ブロック図において、第1の対象追跡部114は、追跡対象の特定部分を識別可能な第1の識別器を用いて当該追跡対象を追跡する対象追跡手段である。ここで、この特定部分は文字、数字、記号及び図形のうちの少なくとも1つを含む部分であり、第1の識別器は当該文字、数字、記号及び図形のうちの少なくとも1つを識別可能であるものとすることができる。 Also in the functional block diagram of FIG. 1, the first object tracking unit 114 is object tracking means for tracking the tracked object using a first discriminator capable of identifying a specific portion of the tracked object. Here, the specific portion is a portion including at least one of letters, numbers, symbols and graphics, and the first discriminator can identify at least one of the letters, numbers, symbols and graphics. It can be.

さらにより具体的に、特定部分は、(追跡元の移動体(自動車2)とは別の)追跡対象である移動体(自動車3)に対応付けられた文字、数字、記号及び図形のうちの少なくとも1つを含む表示体であって当該移動体(自動車3)に係る情報を特定するための表示体、例えばナンバープレートであることも好ましい。第1の対象追跡部114は、例えば周囲に同種の移動体が多数存在する場合であっても、個々を特定し判別可能にするこのような表示体を特定部分とすることによって、追跡対象をより確実に識別し、対象を取り違える等の追跡失敗の発生を抑制することが可能となるのである。 More specifically, the specific part is the characters, numbers, symbols, and graphics associated with the tracked moving object (automobile 3) (different from the tracking source moving object (automobile 2)). It is also preferable that the display includes at least one and is a display for specifying information related to the moving object (automobile 3), such as a license plate. The first object tracking unit 114, for example, even when there are many moving objects of the same type around, identifies and distinguishes each object by using such a display object as a specific part to identify the object to be tracked. This makes it possible to more reliably identify the target and suppress the occurrence of tracking failures such as mistaking the target.

図2は、第1の対象追跡部114による対象追跡処理の一実施形態を説明するための模式図である。 FIG. 2 is a schematic diagram for explaining an embodiment of object tracking processing by the first object tracking unit 114. As shown in FIG.

図2に示した実施形態によれば、第1の対象追跡部114は、前方を走行している自動車3の後部に設けられた後部ナンバープレート31を追跡対象の特定部分として、
(a)画像取得部111より取得された、前方カメラ202cに係る画像における自動車3相当の追跡対象領域から、後部ナンバープレート31に係る画像領域を、パターン認識手法等によって取り出し、
(b)取り出した後部ナンバープレート31に係る画像領域を第1の識別器への入力とし、第1の識別器から識別結果として、後部ナンバープレート31に記載されたナンバープレート情報を出力させて、このナンバープレート情報に対し1つの追跡対象ID(識別子)を紐づけ、
(c)以後、刻々と取得される画像において出力されるナンバープレート情報が、当初、追跡対象IDを紐づけたナンバープレート情報と一致する場合に、当該ナンバープレート情報は同一の追跡対象である(同一の追跡対象IDを有する)自動車3に係るものと判断し、刻々と取得される画像における後部ナンバープレート31に係る画像領域の画像内位置を、刻々の自動車3の位置として保存し、追跡を行う
のである。
According to the embodiment shown in FIG. 2, the first object tracking unit 114 uses the rear license plate 31 provided at the rear of the automobile 3 running in front as a specific part to be tracked,
(a) Extracting an image area related to the rear license plate 31 from the tracking target area corresponding to the vehicle 3 in the image related to the front camera 202c acquired by the image acquisition unit 111 by a pattern recognition method or the like,
(b) inputting the extracted image area related to the rear license plate 31 to the first discriminator, and causing the first discriminator to output the license plate information written on the rear license plate 31 as a discrimination result, One tracking target ID (identifier) is linked to this license plate information,
(c) After that, if the license plate information output in the images acquired moment by moment matches the license plate information linked with the tracked object ID at first, the license plate information is the same tracked object ( The position of the image area of the rear license plate 31 in the image acquired every moment is stored as the position of the car 3 every moment, and tracking is performed. Do it.

ここで、第1の識別器は、入力として受け取った画像領域に対し、OCR(Optical Character Reader)技術といった公知のテキスト(文字データ)認識技術や文字読み取り技術による処理を施し、当該画像領域に含まれるテキストに係る情報(例えば文字データ列)を出力するものとすることができる。ちなみに、第1の対象追跡部114は、特定部分(ナンバープレート)に係る画像領域の大きさやその大きさの変化の速度から、追跡対象(自動車3)と自車(自動車2)との距離や、追跡対象(自動車3)の接近/離反速度を推定する機能を有していることも好ましい。これにより、例えば急接近したり車間を詰めたりする危険走行車両を特定することも可能となるのである。 Here, the first discriminator performs processing by a known text (character data) recognition technology such as OCR (Optical Character Reader) technology and character reading technology on an image region received as an input, and the image region includes may output information (eg, a character data string) related to the text to be displayed. Incidentally, the first object tracking unit 114 calculates the distance between the object to be tracked (automobile 3) and its own vehicle (automobile 2) and the distance from the size of the image area related to the specific part (license plate) and the speed of change in the size. , the function of estimating the approach/separation speed of the tracked object (vehicle 3). As a result, it is possible to identify dangerously traveling vehicles, for example, which are rapidly approaching or close to each other.

以上に説明したような第1の対象追跡部114による対象追跡処理は、この後説明する第2の対象追跡部115での処理と比較して処理負担がより小さく、特にリアルタイムで識別・追跡を実施するのにより好適である。したがって本実施形態では、対象追跡切り替え部113(図1)は、その追跡が可能又は適切である限りにおいて、第1の対象追跡部114による対象追跡処理を採用することがデフォルトとなっている。 The object tracking processing by the first object tracking unit 114 as described above has a smaller processing load than the processing by the second object tracking unit 115, which will be described later. more suitable to implement. Therefore, in this embodiment, the object tracking switching unit 113 (FIG. 1) defaults to adopting object tracking processing by the first object tracking unit 114 as long as the tracking is possible or appropriate.

図1に示した機能ブロック図に戻って、第2の対象追跡部115は、画像取得部111より取得された画像における追跡対象(例えば、自動車3)の追跡対象領域の画素情報から追跡対象(自動車3)を識別可能な第2の識別器を用いて、取得された画像における追跡対象(自動車3)を追跡する対象追跡手段である。 Returning to the functional block diagram shown in FIG. 1, the second object tracking unit 115 converts the pixel information of the tracking object region of the tracking object (for example, the automobile 3) in the image acquired by the image acquisition unit 111 into the tracking object ( It is an object tracking means for tracking a tracking object (automobile 3) in an acquired image using a second discriminator capable of identifying the automobile 3).

ここで、第2の識別器は、画像認識用に広く使用されているディープニューラルネットワーク(DNN,Deep Neural Network)や、SVM(Support Vector machine)、さらにはランダムフォレスト(Random Forest)等、画像データが入力されて識別結果(例えば、推定される"クラス"及びそのスコア(確からしさ))が出力される様々な種別の機械学習アルゴリズムによって構成することができる。 Here, the second classifier is a deep neural network (DNN, Deep Neural Network) widely used for image recognition, SVM (Support Vector machine), random forest, etc., image data can be configured by various types of machine learning algorithms into which is input and output the identification results (e.g., an inferred "class" and its score (likelihood)).

第2の対象追跡部115は、刻々と取得される画像において、第2の識別器を用い、所定以上の確からしさをもって追跡対象(自動車3)であると推定される追跡対象領域を決定し、そのように決定された追跡対象領域の画像内位置(例えば、追跡対象領域下辺の中点位置)を、刻々の自動車3の位置として保存し、追跡を行うのである。 A second object tracking unit 115 uses a second discriminator to determine a tracked object region estimated to be a tracked object (automobile 3) with a certainty or more of a certainty in images acquired every moment, The thus-determined intra-image position of the tracking target area (for example, the midpoint position of the lower side of the tracking target area) is saved as the position of the automobile 3 every moment, and tracking is performed.

ちなみに、第2の対象追跡部115は、第2の識別器の学習機能を備えていることも好ましい。具体的には、第2の識別器を構成する学習モデルを構築するための学習データを生成・管理し、次いで管理している(十分な量の)学習データを用いて、所定の追跡対象(例えば、自動車)を識別するための学習モデルを生成するのである。なお、学習データは具体的に、入力となる追跡対象領域に対し、正解ラベル(例えば、クラス"自動車")を付与することによって生成される。 By the way, it is also preferable that the second object tracking unit 115 has a learning function of the second discriminator. Specifically, learning data for constructing a learning model that constitutes the second discriminator is generated and managed, and then a predetermined tracking target ( For example, to generate a learning model to identify a car). Note that the learning data is specifically generated by assigning a correct label (for example, class "automobile") to the tracking target area that is input.

ここで、複数の追跡対象(例えば自動車、人力移動体や人間等)に対応すべく、当該追跡対象毎の学習データが生成され、さらに、これらの学習データによって当該追跡対象毎の学習モデルが生成されることも好ましい。この場合、第2の対象追跡部115は、複数の追跡対象のそれぞれを識別可能な複数の第2の識別器を所有し、各追跡対象についての識別結果を並行して出力することも可能となるのである。 Here, learning data for each tracked target is generated in order to correspond to multiple tracked targets (e.g., automobiles, human-powered vehicles, humans, etc.), and a learning model for each tracked target is generated based on these learning data. It is also preferred that In this case, the second object tracking unit 115 has a plurality of second classifiers capable of identifying each of the plurality of tracked objects, and can output identification results for each tracked object in parallel. It becomes.

また、これらの追跡対象の各々は、第1の識別器によって識別可能な「特定部分」を有していることも好ましい。この場合、第1の対象追跡部114は、これらの追跡対象の「特定部分」のそれぞれを識別可能な複数の第1の識別器を所有し、各追跡対象についての識別結果を並行して出力してもよい。さらにこの場合、対象追跡切り替え部113は、当該追跡対象毎に、第1の対象追跡部114及び第2の対象追跡部115のうちのいずれを使用するかを適宜決定し、各追跡対象の好適な追跡処理を継続して且つ並行して実施することも好ましい。 Each of these tracked objects also preferably has a "particular portion" that is identifiable by the first discriminator. In this case, the first object tracking unit 114 possesses a plurality of first classifiers capable of identifying each of the "specific parts" of these tracked objects, and outputs the identification results for each tracked object in parallel. You may Furthermore, in this case, the object tracking switching unit 113 appropriately determines which of the first object tracking unit 114 and the second object tracking unit 115 is to be used for each of the tracking objects, and It is also preferred to perform continuous and parallel tracking processes.

いずれにしても、以上に説明したような第2の対象追跡部115による対象追跡処理は、第1の対象追跡部114での処理と比較すると、追跡対象との相対的位置関係の変化や、追跡対象の向き・姿勢の変化に対する処理のロバスト性がより高くなっている。 In any case, the object tracking processing by the second object tracking unit 115 as described above, when compared with the processing by the first object tracking unit 114, changes in the relative positional relationship with the tracked object, The processing is more robust against changes in the orientation and attitude of the tracked target.

例えば、追跡対象の特定部分としてのナンバープレートは「見る」ことができない状況でも、追跡対象としての自動車3は「見る」ことができる場合は少なからず発生するのであり、この自動車3に係る画像部分(画素値データ)が所定以上取得できさえすれば、第2の対象追跡部115は、対象追跡処理を実施することができるのである。 For example, even in a situation where it is not possible to "see" the license plate as a specific part of the tracked object, there are many cases where the vehicle 3 as the tracked object can be "seen". The second object tracking unit 115 can perform object tracking processing only if a predetermined number of (pixel value data) or more can be obtained.

同じく図1に示した機能ブロック図において、第3の対象追跡部116は、画像取得部111より取得された画像において検出される、追跡対象(例えば、自動車3)のバウンディングボックス(bounding box,追跡対象領域)の画像内位置に基づいて、当該追跡対象の追跡を行う対象追跡手段である。 Also in the functional block diagram shown in FIG. This is object tracking means for tracking the object based on the position in the image of the object area).

ここで好適な一実施形態として、対象追跡切り替え部113は、第2の対象追跡部115によって追跡対象の追跡が実施されてきた場合に、追跡対象の画素情報に係る領域(例えば、自動車3のバウンディングボックス)が所定以上に小さくなったため、第2の対象追跡部115による追跡対象(自動車3)の追跡が不能又は不適となった際、第3の対象追跡部116に対し追跡対象(自動車3)の追跡を引き続き実施させるのである。 Here, as a preferred embodiment, the object tracking switching unit 113 switches an area related to the pixel information of the tracked object (for example, the When the second object tracking unit 115 cannot track the tracked object (car 3) because the bounding box has become smaller than a predetermined size, the third object tracking unit 116 sends the tracked object (car 3) ) will continue to be tracked.

いずれにしても、この第3の対象追跡部116による対象追跡処理は、第2の対象追跡部115での処理と比較すると、追跡対象の識別精度は劣るものの、より少ない画素情報、すなわちより小さいバウンディングボックスをもって、追跡処理を実施することができるのである。 In any case, the object tracking processing by the third object tracking unit 116 is inferior to the processing by the second object tracking unit 115 in the identification accuracy of the tracked object, but has less pixel information, that is, a smaller amount of information. With the bounding box, the tracking process can be implemented.

図3は、第3の対象追跡部116による対象追跡処理の一実施形態を説明するための模式図である。 FIG. 3 is a schematic diagram for explaining an embodiment of object tracking processing by the third object tracking unit 116. As shown in FIG.

図3に示した実施形態では当初、第2の対象追跡部115が、前方カメラ202cに係る画像を用い、追い越しを終えて前方を遠ざかっていく自動車3の追跡を実施している。しかしながら、自動車3がより遠ざかっていくに従い、自動車3のバウンディングボックス(追跡対象領域)がより小さくなり、ついに、第2の識別器は、所定以上の確からしさ(スコア)をもって自動車3を識別することができなくなってしまう。 In the embodiment shown in FIG. 3, the second object tracking unit 115 initially uses the image of the front camera 202c to track the car 3 that has finished overtaking and moves away in front. However, as the car 3 moves further away, the bounding box (tracking target area) of the car 3 becomes smaller, and finally the second discriminator discriminates the car 3 with a certainty (score) higher than a predetermined level. I can't do it.

ここで、このような状態を捉えた対象追跡切り替え部113は、対象追跡処理の主体を、第2の対象追跡部115から第3の対象追跡部116に切り替え、これを受けて第3の対象追跡部116は、図3に示すように、自動車3のバウンディングボックスを用いて自動車3の追跡を引き続き実施するのである。 Here, the object tracking switching unit 113, which catches such a state, switches the subject of the object tracking processing from the second object tracking unit 115 to the third object tracking unit 116, and in response to this, the third object tracking unit 113 switches. The tracking unit 116 continues to track the vehicle 3 using the bounding box of the vehicle 3, as shown in FIG.

第3の対象追跡部116は具体的に、各時刻における自動車3のバウンディングボックスB3の画像内位置、本実施形態ではボックス下辺の中点pの画像内位置座標値(u,v)を算出して、一連の中点pが描く線分を、自動車3の軌跡として管理するのである(図3には、時刻t0での中点p0と時刻t1(>t0)での中点p1との様子が示されている)。 Specifically, the third object tracking unit 116 calculates the in-image position of the bounding box B3 of the automobile 3 at each time, in this embodiment, the in-image position coordinate values (u, v) of the midpoint p of the lower side of the box. A line segment drawn by a series of midpoints p is managed as the trajectory of the vehicle 3 (Fig. 3 shows the midpoint p0 at time t0 and the midpoint p1 at time t1 (>t0). It is shown).

このように、第3の対象追跡部116によれば、第2の対象追跡部115によっては追跡ができなくなった追跡対象をも、引き続き追跡することが可能となるのである。 In this manner, the third object tracking unit 116 can continue to track even the object that cannot be tracked by the second object tracking unit 115 .

図1に示した機能ブロック図に戻って、追跡結果総合部117は、第1~3の対象追跡部114、115及び116の各々から出力される追跡処理結果を取りまとめて、例えば追跡対象ID毎に、追跡対象のクラスと、追跡期間内の各時刻における、追跡対象の画像内位置情報(又は実空間での値に変換された位置情報)とを対応付けた情報である対象追跡結果情報を生成する。 Returning to the functional block diagram shown in FIG. 1, the tracking result synthesizing unit 117 summarizes the tracking processing results output from each of the first to third object tracking units 114, 115, and 116, for example, for each tracking object ID. In addition, target tracking result information, which is information that associates the tracked target class with the tracked target's in-image position information (or position information converted into a value in real space) at each time within the tracking period Generate.

ここで、生成された対象追跡結果情報は、送受信制御部118及び通信インタフェース101を介し、外部の情報処理装置、例えば端末20へ送信されることも好ましい。また、クラウドサーバ1内で、所定のアプリケーション・プログラムによって利用されるようにしてもよい。 Here, it is also preferable that the generated target tracking result information is transmitted to an external information processing device, for example, the terminal 20 via the transmission/reception control unit 118 and the communication interface 101 . Further, it may be used by a predetermined application program within the cloud server 1 .

[画像データ提供クライアントの機能構成]
同じく図1に示した機能ブロック図によれば、端末20は、通信インタフェース201と、後方カメラ202aと、右側方カメラ202bと、前方カメラ202cと、左側方カメラ202dと、ディスプレイ(DP)203と、プロセッサ・メモリとを有する。なお、これらのカメラは外部のデバイスであって、端末20と接続されたものであってもよい。ここで、このプロセッサ・メモリは、本発明に係る画像データ提供プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、この画像データ提供プログラムを実行することによって、画像データ提供処理を実施する。
[Functional Configuration of Image Data Providing Client]
Similarly, according to the functional block diagram shown in FIG. , and a processor memory. Note that these cameras may be external devices connected to the terminal 20 . Here, the processor memory stores an image data providing program according to an embodiment of the present invention, and has a computer function. By executing this image data providing program, the image data Execute the provision process.

またこのことから、本発明に係る画像データ提供クライアントとして、ドライブレコーダである本端末20に代えて、本発明に係る画像データ提供プログラムを搭載した他の車載情報処理装置や、さらにはカメラを備えたスマートフォン、ノート型若しくはタブレット型コンピュータ、又はパーソナル・コンピュータ(PC)等を採用することも可能となる。また、ドライブレコーダとWi-Fi(登録商標)やBluetooth(登録商標)等で通信接続された端末、例えばスマートフォンを本画像データ提供クライアントとしてもよい。 For this reason, as an image data providing client according to the present invention, in place of the terminal 20, which is a drive recorder, another in-vehicle information processing device equipped with the image data providing program according to the present invention, or a camera is provided. It is also possible to adopt a smart phone, a notebook or tablet computer, or a personal computer (PC). Also, a terminal, such as a smartphone, which is connected to the drive recorder via Wi-Fi (registered trademark), Bluetooth (registered trademark), or the like, may be used as the main image data providing client.

さらに、プロセッサ・メモリは、映像生成部211と、カメラ画像選択部212と、提示情報生成部214と、送受信制御部215とを有する。また、対象検出部213を更に有していてもよい。なお、これらの機能構成部は、プロセッサ・メモリに保存された画像データ提供プログラムの機能と捉えることができる。また、図1における端末20の機能構成部間を矢印で接続して示した処理の流れは、本発明に係る画像データ提供方法の一実施形態としても理解される。 Further, the processor memory has a video generation unit 211 , a camera image selection unit 212 , a presentation information generation unit 214 and a transmission/reception control unit 215 . Moreover, the object detection part 213 may further be included. These functional components can be regarded as functions of the image data providing program stored in the processor memory. Further, the flow of processing in which the functional components of the terminal 20 are connected by arrows in FIG. 1 can also be understood as an embodiment of the image data providing method according to the present invention.

同じく図1の機能ブロック図において、映像生成部211は、本実施形態において自動車2に設置された後方カメラ202a、右側方カメラ202b、前方カメラ202c、及び左側方カメラ202dと接続されており、これらの4つのカメラから出力された撮影データに基づいて画像(映像)データを生成し、保存・管理する。本実施形態において端末20はドライブレコーダであり、映像生成部213はデフォルトの設定として、少なくとも自動車2の走行時は常に、車外の状況を撮影した撮影データをこれらの4つのカメラから取得し、画像(映像)データを生成している。 Similarly, in the functional block diagram of FIG. 1, the video generation unit 211 is connected to a rear camera 202a, a right side camera 202b, a front camera 202c, and a left side camera 202d installed in the automobile 2 in this embodiment. Image (video) data is generated based on the shooting data output from the four cameras, and stored and managed. In this embodiment, the terminal 20 is a drive recorder, and the image generation unit 213 acquires image data of the situation outside the vehicle from these four cameras as a default setting, at least while the vehicle 2 is running, and generates an image. (Video) data is being generated.

カメラ画像選択部212は、
(a)クラウドサーバ1から通信インタフェース201及び送受信制御部215を介してカメラ指定情報を受け取り、
(b)映像生成部211で生成された画像(映像)データの中から、当該カメラ指定情報で指定されたカメラに係る画像(映像)データを選択し、
(c)選択した画像(映像)データを、送受信制御部215及び通信インタフェース201を介してクラウドサーバ1へ送信させる。
The camera image selection unit 212
(a) receiving camera designation information from the cloud server 1 via the communication interface 201 and the transmission/reception control unit 215;
(b) selecting image (video) data related to the camera specified by the camera specification information from among the image (video) data generated by the video generation unit 211;
(c) Send the selected image (video) data to the cloud server 1 via the transmission/reception control unit 215 and the communication interface 201 .

ここで、選択された画像(映像)データは、MPEG等の規格に基づき圧縮符号化された映像ストリームとして送信されてもよい。 Here, the selected image (video) data may be transmitted as a video stream compression-encoded based on standards such as MPEG.

対象検出部213は、クラウドサーバ1の対象検出部112と同様の対象検出処理を実施する機能手段であるが、クラウドサーバ1が対象検出部112を備えている場合には省略可能な手段となっている。 The target detection unit 213 is a functional unit that performs the same target detection processing as the target detection unit 112 of the cloud server 1, but can be omitted when the cloud server 1 includes the target detection unit 112. ing.

提示情報生成部214は、クラウドサーバ1から配信された対象追跡結果情報を、通信インタフェース201及び送受信制御部215を介して取得し、例えば搭載している周辺状況監視プログラムに取り込ませて提示情報を生成させ、この提示情報をディスプレイ203に表示させることができる。 The presentation information generation unit 214 acquires the object tracking result information distributed from the cloud server 1 via the communication interface 201 and the transmission/reception control unit 215, and for example, imports it into the installed peripheral situation monitoring program to generate the presentation information. This presentation information can be displayed on the display 203 .

例えば、提示情報生成部214は、ディスプレイ205に表示した道路マップ上に、後方から急接近してきた、さらには追い越しをかけてきた自動車3の軌跡を、強調表示してユーザに通知してもよい。またその際、自動車3と自車(自動車2)との距離を併せて表示することも好ましい。さらに、クラウドサーバ1が対象追跡結果情報と併せて、追跡対象に係るナンバープレート情報も配信する場合において、提示情報生成部214は、強調表示された自動車3の軌跡の位置に自動車3の自動車登録番号を表示し、また、これらの情報を記録して保存・管理してもよい。 For example, the presentation information generating unit 214 may highlight the trajectory of the vehicle 3 approaching from behind or overtaking on the road map displayed on the display 205 to notify the user. . In this case, it is also preferable to display the distance between the vehicle 3 and the own vehicle (the vehicle 2). Furthermore, when the cloud server 1 distributes the license plate information related to the tracked target together with the target tracking result information, the presentation information generation unit 214 registers the vehicle 3 at the position of the highlighted trajectory of the vehicle 3. A number may be displayed, and this information may be recorded, saved, and managed.

[対象追跡方法]
図4は、本発明による対象追跡方法の一実施形態を説明するための模式図である。ここで、本実施形態では、端末20を備えた走行中の自動車2に対し、その後方から自動車3が接近してきて追い越しを行い、さらに自動車3は、この追い越し後に自動車2と同じ車線に入って、その後、自動車2の前方を遠ざかっていくものとする。
[Object tracking method]
FIG. 4 is a schematic diagram for explaining an embodiment of the object tracking method according to the present invention. Here, in the present embodiment, the vehicle 3 approaches the running vehicle 2 equipped with the terminal 20 from behind and overtakes it, and after this overtaking, the vehicle 3 enters the same lane as the vehicle 2. , and then move away in front of the automobile 2 .

図4によれば当初、第1の対象追跡部114が、後方カメラ202aに係る画像に含まれる自動車3の前部ナンバープレートの画像部分に基づいて、自動車3の追跡処理を実施している。ここで、第1の対象追跡部114は、当該画像部分から生成されたナンバープレート情報に対し1つの追跡対象IDを紐づけた上で追跡を行っている。 According to FIG. 4, initially, the first object tracking unit 114 performs tracking processing of the vehicle 3 based on the image portion of the front license plate of the vehicle 3 included in the image of the rear camera 202a. Here, the first target tracking unit 114 performs tracking after associating one tracked target ID with license plate information generated from the image portion.

次いで、対象切り替え部113は、この第1の対象追跡部114から、「当該画像部分が当該画像からその右辺へ向けて消失した(画像外へ出た)との情報」、又は「所定の短時間後に消失する(画像外へ出る)ことが予測されるとの情報」を受け取って、これに基づき、対象追跡の実施主体を、第1の対象追跡部114から第2の対象追跡部115へ切り替える。 Next, the object switching unit 113 receives from the first object tracking unit 114 “information indicating that the image portion has disappeared from the image toward the right side (goes out of the image)” or “a predetermined short "Information that it is predicted that it will disappear (go out of the image) after a while" is received, and based on this, the execution body of object tracking is changed from the first object tracking unit 114 to the second object tracking unit 115. switch.

また、対象切り替え部113はさらに、切り替え通知(追跡手段変更通知)をカメラ指定部111aへ出力し、追跡に使用する画像に係るカメラを、後方カメラ202aから右側方カメラ202bへ切り替えさせる。その結果この後、第2の対象追跡部115が、右側方カメラ202bに係る画像に含まれた自動車3に係る画素情報に基づいて、自動車3の追跡処理を実施することになる。 The target switching unit 113 further outputs a switching notification (tracking means change notification) to the camera designating unit 111a to switch the camera related to the image used for tracking from the rear camera 202a to the right side camera 202b. As a result, after this, the second object tracking unit 115 performs tracking processing of the vehicle 3 based on the pixel information related to the vehicle 3 included in the image related to the right side camera 202b.

ここで好適な変更態様として、対象切り替え部113は、上述した「所定の短時間後に消失することが予測されるとの情報」に基づいて、第2の対象追跡部115による追跡処理を開始し、次いで、上述した「当該画像部分が当該画像からその右辺へ向けて消失したとの情報」に基づいて、第1の対象追跡部114による追跡処理を停止させることも好ましい。このように、第1の対象追跡部114と第2の対象追跡部115とを並行して動作させる期間を設けることにより、この期間において第2の対象追跡部115は当初、後方カメラ202aに係る画像の画素情報に基づいて対象追跡処理を実施して、第1の対象追跡部114の使用している追跡対象IDをそのまま引き継ぐことができる。またさらに、この後右側方カメラ202bに係る画像の画素情報に基づいた対象追跡処理を開始する際、両カメラに係る画素情報の識別結果をマッチングすることによって、当初引き継いだ追跡対象IDを、よりスムーズに継続して使用することも可能となるのである。 Here, as a preferred mode of modification, the target switching unit 113 starts tracking processing by the second target tracking unit 115 based on the above-described "information that it is predicted that the target will disappear after a predetermined short time." Next, it is also preferable to stop the tracking process by the first object tracking unit 114 based on the above-mentioned "information that the image portion has disappeared from the image toward the right side". By providing a period in which the first object tracking unit 114 and the second object tracking unit 115 are operated in parallel in this manner, the second object tracking unit 115 initially operates in this period. Object tracking processing is performed based on the pixel information of the image, and the tracking object ID used by the first object tracking unit 114 can be inherited as it is. Furthermore, when starting the object tracking process based on the pixel information of the image related to the right side camera 202b after this, by matching the identification results of the pixel information related to both cameras, the tracked object ID inherited at the beginning can be further improved. It also becomes possible to continue using it smoothly.

なお、第2の対象追跡部115は、自動車3の前部ナンバープレートの画像部分が画面から消失した(画像外へ出た)タイミング及びその画像内位置に基づき、側方カメラ202bに係る画像において自動車3が出現する(又は存在している)時点及びその画像内位置を予測し、次いで、当該時点及び位置に出現した(又は存在している)自動車3の対象画像領域(バウンディングボックス)に対し、第1の対象追跡部114から引き継いだ追跡対象IDを付与した上で、自動車3の追跡を続行することも好ましい。 Note that the second object tracking unit 115, based on the timing at which the image portion of the front license plate of the automobile 3 disappears from the screen (goes out of the image) and the position in the image, Predict the time when the car 3 appears (or exists) and its position in the image, then It is also preferable to continue tracking the automobile 3 after assigning the tracking object ID inherited from the first object tracking unit 114 .

その後、対象切り替え部113は、この第2の対象追跡部114から、自動車3に係る画像領域が当該画像からその左辺へ向けて消失した(画像外へ出た)との情報、又は所定の短時間後に消失する(画像外へ出る)ことが予測されるとの情報を受け取り、これに基づき、
(a)切り替え通知(追跡手段変更通知)をカメラ指定部111aへ出力し、追跡に使用する画像に係るカメラを、右側方カメラ202bから前方カメラ202cへ切り替えさせ、さらに、
(b)対象追跡の実施主体を、第2の対象追跡部115から第1の対象追跡部114へ切り替える。
After that, the object switching unit 113 receives information from the second object tracking unit 114 that the image area related to the automobile 3 has disappeared (goes out of the image) from the image toward the left side thereof, or a predetermined short distance. Receive information that it is predicted that it will disappear (go out of the image) after time, and based on this,
(a) Output a switch notification (tracking means change notification) to the camera designation unit 111a to switch the camera related to the image used for tracking from the right side camera 202b to the front camera 202c, and
(b) Switching the execution subject of object tracking from the second object tracking unit 115 to the first object tracking unit 114 .

その結果この後、第1の対象追跡部114が、追い越しを終えて前方に現れた自動車3の(前方カメラ202cに係る画像に含まれる)後部ナンバープレートの画像部分に基づいて、自動車3の追跡処理を実施することになる。ここで、第1の対象追跡部114は、(過去に生成して保存しておいた)1つの追跡対象IDを紐づけたナンバープレート情報と一致するナンバープレート情報が生成されたのを受け、過去に紐づけたものと同一の追跡対象IDをこのナンバープレート情報に紐づけて、自動車3の追跡を続行することも好ましい。 As a result, after this, the first object tracking unit 114 tracks the vehicle 3 based on the image portion of the rear license plate (included in the image related to the front camera 202c) of the vehicle 3 that appears in front after overtaking. processing will be carried out. Here, the first object tracking unit 114 receives the generation of license plate information that matches the license plate information linked to one tracked object ID (generated and stored in the past), It is also preferable to continue tracking the automobile 3 by associating the same tracked object ID that was previously associated with this license plate information.

次いで、自動車3が自動車2の前方において先に進行し自動車2を引き離す中で、対象切り替え部113は、この第1の対象追跡部114から、後部ナンバープレートの画像部分が小さくなって当該画像部分に基づく(所定精度以上の)対象追跡処理ができなくなった旨の情報を受け取って、これに基づき、対象追跡の実施主体を、第1の対象追跡部114から第2の対象追跡部115へ切り替える。その結果この後、第2の対象追跡部115が、前方カメラ202cに係る画像に含まれた自動車3に係る画素情報に基づいて、自動車3の追跡処理を実施することになる。 Next, while the car 3 advances in front of the car 2 and pulls away from the car 2, the object switching unit 113 changes the image portion of the rear license plate from the first object tracking unit 114 to a smaller image portion. receive information indicating that object tracking processing (with a predetermined accuracy or more) based on the above is no longer possible, and based on this, switch the execution body of object tracking from the first object tracking unit 114 to the second object tracking unit 115. . As a result, after this, the second object tracking unit 115 performs tracking processing of the vehicle 3 based on the pixel information related to the vehicle 3 included in the image related to the front camera 202c.

次いで、自動車3が自動車2の前方においてさらに遠ざかる中で、対象切り替え部113は、この第2の対象追跡部115から、自動車3のバウンディングボックスが小さくなって自動車3に係る画素情報に基づく(所定精度以上の)対象追跡処理ができなくなった旨の情報を受け取って、これに基づき、対象追跡の実施主体を、第2の対象追跡部115から第3の対象追跡部116へ切り替える。その結果この後、第3の対象追跡部116が、前方カメラ202cに係る画像に含まれた自動車3のバンディングボックスの画像内位置に係る情報に基づいて、自動車3の追跡処理を実施するのである。 Next, as the automobile 3 moves further away in front of the automobile 2, the object switching unit 113 reduces the bounding box of the automobile 3 from the second object tracking unit 115, and based on the pixel information related to the automobile 3 (predetermined After receiving information indicating that the object tracking process (with accuracy or higher) is no longer possible, the subject tracking execution body is switched from the second object tracking unit 115 to the third object tracking unit 116 based on this information. As a result, after this, the third object tracking unit 116 performs tracking processing of the vehicle 3 based on the information regarding the in-image position of the banding box of the vehicle 3 included in the image related to the front camera 202c. .

ここで、第3の対象追跡部116は、刻々に取得される画像において、バウンディングボックスの画像内位置の変化分が所定範囲内である場合に、それらのバウンディングボックスを同一の追跡対象に係るものと判断して追跡を行うことも好ましい。 Here, the third object tracking unit 116, in the image acquired every moment, if the amount of change in the in-image position of the bounding box is within a predetermined range, the third object tracking unit 116 sets those bounding boxes to the same object to be tracked. It is also preferable to perform tracking by judging that.

以上説明したように、クラウドサーバ1は、自動車2を追い越して前方へ遠ざかる自動車3を、その状況の変化に応じて適切な対象追跡手段を選択することにより、一貫して確実に追跡することができるのである。 As described above, the cloud server 1 can consistently and reliably track the vehicle 3 that is moving forward after overtaking the vehicle 2 by selecting an appropriate target tracking means according to changes in the situation. You can.

以上、詳細に説明したように、本発明によれば、追跡対象を含み得る画像によって当該追跡対象を追跡する場合において、当該追跡対象の状況に応じて、より適切な追跡を実施することが可能となっており、例えば、追跡対象の特定部分(例えばナンバープレート)の識別が不能又は困難となっても、対象追跡処理を続行することができるのである。 As described in detail above, according to the present invention, when a tracked target is tracked using an image that may include the tracked target, it is possible to perform more appropriate tracking according to the situation of the tracked target. Thus, for example, the object tracking process can be continued even if it becomes impossible or difficult to identify a specific part of the tracked object (for example, a license plate).

ちなみに、本発明の構成及び方法は、例えば、膨大な量の映像データ伝送が可能となる5G(第5世代移動通信システム)を利用して、多数の自動運転車、自律ドローンや、自律ロボット等からの高解像度映像データをサーバへアップロードさせ、各々の周囲の状況をより確実且つ的確に把握することによって、それらの自動/自律運転を高い精度でサポートしたり、さらには周囲の状況に係る新サービスを創出して配信したりすることにも大いに貢献するものと考えられる。 By the way, the configuration and method of the present invention, for example, uses 5G (fifth generation mobile communication system), which enables transmission of a huge amount of video data, and a large number of self-driving cars, autonomous drones, autonomous robots, etc. By uploading high-resolution video data from the camera to the server and grasping each surrounding situation more reliably and accurately, it is possible to support those automatic/autonomous driving It is thought that it will greatly contribute to the creation and distribution of services.

以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲内での種々の変更、修正及び省略は、当業者によれば容易に行うことができる。以上に述べた説明はあくまで例示であって、何ら制約を意図するものではない。本発明は、特許請求の範囲及びその均等物によってのみ制約される。 A person skilled in the art can easily make various changes, modifications and omissions within the scope of the technical idea and aspect of the present invention for the various embodiments of the present invention described above. The above description is merely an example and is not intended to be limiting in any way. The invention is limited only by the claims and the equivalents thereof.

1 クラウドサーバ(画像データ取得サーバ)
101、201 通信インタフェース
111 画像取得部
111a カメラ指定部
112、213 対象検出部
113 対象追跡切り替え部
114 第1の対象追跡部
115 第2の対象追跡部
116 第3の対象追跡部
117 追跡結果総合部
118、215 送受信制御部
2、3 自動車
20 端末
202a 後方カメラ
202b 右側方カメラ
202c 前方カメラ
202d 左側方カメラ
203 ディスプレイ(DP)
211 映像生成部
212 カメラ画像選択部
214 提示情報生成部
1 Cloud server (image data acquisition server)
101, 201 communication interface 111 image acquisition unit 111a camera designation unit 112, 213 object detection unit 113 object tracking switching unit 114 first object tracking unit 115 second object tracking unit 116 third object tracking unit 117 tracking result synthesis unit 118, 215 transmission/reception control unit 2, 3 automobile 20 terminal 202a rear camera 202b right side camera 202c front camera 202d left side camera 203 display (DP)
211 video generation unit 212 camera image selection unit 214 presentation information generation unit

Claims (10)

移動可能な対象を含み得る画像によって当該対象を追跡するコンピュータを機能させるプログラムであって、
当該画像における当該対象の特定部分であって、文字、数字及び記号のうちの少なくとも1つを含む特定部分、当該文字、数字及び記号のうちの少なくとも1つを読み取ることによって識別可能な第1の識別器を用いて、当該対象を追跡可能な第1の対象追跡手段と、
当該画像における当該対象に係る画素情報から当該対象を識別可能な、画像認識用の機械学習アルゴリズムによって構成された第2の識別器を用いて、当該対象を追跡可能な第2の対象追跡手段と、
第1の対象追跡手段による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し当該対象の追跡を実施させる対象追跡切り替え手段と
してコンピュータを機能させることを特徴とする対象追跡プログラム。
A program that operates a computer that tracks a movable object through an image that may include the object,
A first identifiable portion of the object in the image that includes at least one of letters, numbers and symbols by reading at least one of the letters, numbers and symbols . a first object tracking means capable of tracking the object using the discriminator of
a second object tracking means capable of tracking the object using a second discriminator constituted by a machine learning algorithm for image recognition, capable of identifying the object from pixel information related to the object in the image; ,
Object tracking switching means for causing second object tracking means to track the object when tracking of the object by the first object tracking means becomes impossible or is predicted to become impossible after a predetermined short period of time An object tracking program characterized by causing a computer to function as a
移動可能な対象を含み得る画像によって当該対象を追跡するコンピュータを機能させるプログラムであって、
当該画像は、撮影範囲の互いに異なる複数のカメラのいずれかによって生成され、
当該画像における当該対象の特定部分を識別可能な第1の識別器を用いて、当該対象を追跡可能な第1の対象追跡手段と、
当該画像における当該対象に係る画素情報から当該対象を識別可能な第2の識別器を用いて、当該対象を追跡可能な第2の対象追跡手段と、
第1の対象追跡手段による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し当該対象の追跡を実施させる対象追跡切り替え手段と、
つのカメラによって生成された当該画像による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、当該対象を追跡可能とする画像又は追跡するのに適した画像であって、別のカメラによって生成された当該画像を取得する画像取得手段
てコンピュータを機能させ、
前記対象追跡切り替え手段は、当該別のカメラによって生成された当該画像に基づく第1の対象追跡手段による当該対象の追跡が不能である又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し、当該別のカメラによって生成された当該画像に基づき当該対象の追跡を実施させる
ことを特徴とする対象追跡プログラム。
A program that operates a computer that tracks a movable object through an image that may include the object,
The image is generated by one of a plurality of cameras with different shooting ranges,
a first object tracking means capable of tracking the object using a first classifier capable of identifying a specific portion of the object in the image;
a second object tracking means capable of tracking the object using a second classifier capable of identifying the object from pixel information related to the object in the image;
object tracking switching means for causing a second object tracking means to track the object when the first object tracking means becomes unable to track the object or is predicted to become impossible after a predetermined short period of time; ,
An image that enables or is suitable for tracking an object when the object cannot be tracked by the image produced by a single camera or is predicted to become incapable after a predetermined short period of time . and an image acquisition means for acquiring the image generated by another camera
to make the computer work ,
When the object tracking switching means predicts that the first object tracking means can not track the object based on the image generated by the other camera or will become impossible after a predetermined short time, the second cause the object tracking means of 2 to perform tracking of the object based on the image produced by the other camera ;
An object tracking program characterized by:
前記対象追跡切り替え手段は、第2の対象追跡手段により、あるカメラによって生成された当該画像に基づく当該対象の追跡が実施されてきた場合に、当該あるカメラとは別のカメラによって生成された当該画像において第1の対象追跡手段による当該対象の追跡が可能となった若しくは所定の短時間後に可能になると予測された際、又は当該あるカメラによって生成された当該画像において第2の対象追跡手段による当該対象の追跡が不能となった若しくは所定の短時間後に不能になると予測された際、第1の対象追跡手段に対し、当該あるカメラとは別のカメラによって生成された当該画像に基づき当該対象の追跡を実施させることを特徴とする請求項2に記載の対象追跡プログラム。 When the second object tracking means has tracked the object based on the image generated by a certain camera, the object tracking switching means changes the image generated by a camera other than the certain camera. when tracking of the object by the first object tracking means in the image becomes possible or is predicted to become possible after a predetermined short period of time, or by the second object tracking means in the image produced by the certain camera When the tracking of the object becomes impossible or is predicted to become impossible after a predetermined short period of time, to the first object tracking means, the object based on the image generated by the camera other than the one camera. 3. The object tracking program according to claim 2, wherein the tracking of the object is performed. 当該カメラは、それぞれ前方、右側方、左側方及び後方を撮影可能な、1つの移動体に設けられた4つのカメラであり、当該対象の特定部分は、当該対象である他の移動体に対応付けられた文字、数字、記号及び図形のうちの少なくとも1つを含む表示体であって前記他の移動体に係る情報を特定するための表示体であることを特徴とする請求項に記載の対象追跡プログラム。 The cameras are four cameras provided on one moving object, each of which can photograph the front, right side, left side, and rear, and the specific part of the target corresponds to another moving body that is the target. 4. The display body according to claim 3 , wherein the display body includes at least one of attached letters, numbers, symbols, and graphics, and is a display body for specifying information related to the other moving body. subject tracking program. 第1の対象追跡手段は、後方を撮影可能な当該カメラによって生成された当該画像における当該他の移動体の前に設置された表示体の位置から、後方から接近する前記他の移動体を追跡し、
第2の対象追跡手段は、右側方又は左側方を撮影可能な当該カメラによって生成された当該画像における前記他の移動体に係る画素情報から、接近して右側方又は左側方から追い越しをかける前記他の移動体を追跡し、
第1の対象追跡手段は、前方を撮影可能な当該カメラによって生成された当該画像における前記他の移動体の後ろに設置された表示体の位置から、追い越しを終えて前方に現れた前記他の移動体を追跡する
ことを特徴とする請求項に記載の対象追跡プログラム。
The first object tracking means tracks the other moving object approaching from behind from the position of the display object installed in front of the other moving object in the image generated by the camera capable of photographing the rear. death,
The second object tracking means approaches and overtakes the moving object from the right side or the left side based on the pixel information of the other moving object in the image generated by the camera capable of photographing the right side or the left side. track other moving objects,
The first object tracking means moves from the position of the display body installed behind the other moving body in the image generated by the camera capable of photographing the front to the other moving body that appears in front after overtaking. 5. The object tracking program according to claim 4 , which tracks a moving object.
移動可能な対象を含み得る画像によって当該対象を追跡するコンピュータを機能させるプログラムであって、
当該画像における当該対象の特定部分を識別可能な第1の識別器を用いて、当該対象を追跡可能な第1の対象追跡手段と、
当該画像における当該対象に係る画素情報から当該対象を識別可能な第2の識別器を用いて、当該対象を追跡可能な第2の対象追跡手段と、
該画像において検出される当該対象に係るバウンディングボックスの当該画像内での位置に基づいて、当該画像における当該対象を追跡可能な第3の対象追跡手段と、
第1の対象追跡手段による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し当該対象の追跡を実施させ、第2の対象追跡手段によって当該対象の追跡が実施されてきた場合に、第2の対象追跡手段による当該対象の追跡が、当該対象の画素情報に係る領域が所定以上に小さくなったために不能となった際、第3の対象追跡手段に対し当該対象の追跡を実施させる対象追跡切り替え手段と
してコンピュータを機能させることを特徴とする対象追跡プログラム。
A program that operates a computer that tracks a movable object through an image that may include the object,
a first object tracking means capable of tracking the object using a first classifier capable of identifying a specific portion of the object in the image;
a second object tracking means capable of tracking the object using a second classifier capable of identifying the object from pixel information related to the object in the image;
third object tracking means capable of tracking the object in the image based on the position in the image of the bounding box of the object detected in the image ;
When the tracking of the object by the first object tracking means becomes impossible or is predicted to become impossible after a predetermined short time, the second object tracking means is caused to track the object, and the second object is detected. When the object has been tracked by the tracking means, and the tracking of the object by the second object tracking means has become impossible because the area related to the pixel information of the object has become smaller than a predetermined size. , object tracking switching means for causing the third object tracking means to track the object;
An object tracking program characterized in that it causes a computer to function by
当該画像は、1つの移動体に設けられた前方を撮影可能なカメラによって生成され、
第3の対象追跡手段は、当該画像において検出される他の移動体に係るバウンディングボックスの当該画像内での位置に基づいて、前記1つの移動体を追い越した後にその前方の先へ遠ざかる前記他の移動体を追跡する
ことを特徴とする請求項に記載の対象追跡プログラム。
The image is generated by a camera capable of photographing the front provided in one moving body,
The third object tracking means moves away in front of the one moving body after passing the one moving body based on the position within the image of the bounding box associated with the other moving body detected in the image. 7. The object tracking program according to claim 6 , which tracks a moving object of .
前記対象追跡切り替え手段は、第2の対象追跡手段によって当該対象の追跡が実施されてきた場合に、第1の対象追跡手段による当該対象の追跡が可能となった若しくは所定の短時間後に可能になると予測された際、又は第2の対象追跡手段による当該対象の追跡が不能となった若しくは所定の短時間後に不能になると予測された際、第1の対象追跡手段に対し当該対象の追跡を実施させることを特徴とする請求項1から7のいずれか1項に記載の対象追跡プログラム。 The object tracking switching means is configured such that when the object has been tracked by the second object tracking means, the object can be tracked by the first object tracking means or after a predetermined short period of time. or when it is predicted that the tracking of the object by the second object tracking means will become impossible or will become impossible after a predetermined short period of time, the tracking of the object will be directed to the first object tracking means 8. The object tracking program according to any one of claims 1 to 7, characterized in that it causes the execution of 移動可能な対象を含み得る画像によって当該対象を追跡する装置であって、
当該画像における当該対象の特定部分であって、文字、数字及び記号のうちの少なくとも1つを含む特定部分、当該文字、数字及び記号のうちの少なくとも1つを読み取ることによって識別可能な第1の識別器を用いて、当該対象を追跡可能な第1の対象追跡手段と、
当該画像における当該対象に係る画素情報から当該対象を識別可能な、画像認識用の機械学習アルゴリズムによって構成された第2の識別器を用いて、当該対象を追跡可能な第2の対象追跡手段と、
第1の対象追跡手段による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、第2の対象追跡手段に対し当該対象の追跡を実施させる対象追跡切り替え手段と
を有することを特徴とする対象追跡装置。
An apparatus for tracking a movable object with an image that may include the object, comprising:
A first identifiable portion of the object in the image that includes at least one of letters, numbers and symbols by reading at least one of the letters, numbers and symbols . a first object tracking means capable of tracking the object using the discriminator of
a second object tracking means capable of tracking the object using a second discriminator constituted by a machine learning algorithm for image recognition, capable of identifying the object from pixel information related to the object in the image; ,
Object tracking switching means for causing second object tracking means to track the object when tracking of the object by the first object tracking means becomes impossible or is predicted to become impossible after a predetermined short period of time and an object tracking device.
移動可能な対象を含み得る画像によって当該対象を追跡するコンピュータにおける対象追跡方法であって、
当該画像における当該対象の特定部分であって、文字、数字及び記号のうちの少なくとも1つを含む特定部分、当該文字、数字及び記号のうちの少なくとも1つを読み取ることによって識別可能な第1の識別器を用いて、当該対象を追跡するステップと、
第1の識別器による当該対象の追跡が不能となった又は所定の短時間後に不能になると予測された際、当該画像における当該対象に係る画素情報から当該対象を識別可能な、画像認識用の機械学習アルゴリズムによって構成された第2の識別器を用いて、当該対象を追跡するステップと
を有することを特徴とする対象追跡方法。
A method of object tracking in a computer for tracking an object through an image that may include a movable object, the method comprising:
A first identifiable portion of the object in the image that includes at least one of letters, numbers and symbols by reading at least one of the letters, numbers and symbols . tracking the object using the discriminator of
For image recognition that can identify the target from the pixel information of the target in the image when the tracking of the target by the first discriminator becomes impossible or is predicted to become impossible after a predetermined short time . and tracking the object using a second discriminator configured by the machine learning algorithm of .
JP2019173270A 2019-09-24 2019-09-24 Object tracking program, device and method capable of switching object tracking means Active JP7161981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019173270A JP7161981B2 (en) 2019-09-24 2019-09-24 Object tracking program, device and method capable of switching object tracking means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173270A JP7161981B2 (en) 2019-09-24 2019-09-24 Object tracking program, device and method capable of switching object tracking means

Publications (2)

Publication Number Publication Date
JP2021051470A JP2021051470A (en) 2021-04-01
JP7161981B2 true JP7161981B2 (en) 2022-10-27

Family

ID=75157933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173270A Active JP7161981B2 (en) 2019-09-24 2019-09-24 Object tracking program, device and method capable of switching object tracking means

Country Status (1)

Country Link
JP (1) JP7161981B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117099239A (en) 2021-03-25 2023-11-21 Tdk株式会社 All-solid secondary battery
CN113917942A (en) * 2021-09-26 2022-01-11 深圳市道通智能航空技术股份有限公司 Unmanned aerial vehicle real-time target tracking method, device, equipment and storage medium
CN114756053B (en) * 2022-03-30 2022-10-04 中科融信科技有限公司 Police service inspection method and system based on unmanned aerial vehicle and storage medium
CN117714884A (en) * 2023-08-31 2024-03-15 荣耀终端有限公司 Target tracking method and electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004506908A (en) 2000-08-16 2004-03-04 レイセオン・カンパニー Proximity object detection system
JP2013061919A (en) 2011-09-15 2013-04-04 Clarion Co Ltd External environment recognition method and device, and vehicle system
JP2017041132A (en) 2015-08-20 2017-02-23 株式会社Jvcケンウッド Vehicle detection device, vehicle detection system, vehicle detection method, and vehicle detection program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004506908A (en) 2000-08-16 2004-03-04 レイセオン・カンパニー Proximity object detection system
JP2013061919A (en) 2011-09-15 2013-04-04 Clarion Co Ltd External environment recognition method and device, and vehicle system
JP2017041132A (en) 2015-08-20 2017-02-23 株式会社Jvcケンウッド Vehicle detection device, vehicle detection system, vehicle detection method, and vehicle detection program

Also Published As

Publication number Publication date
JP2021051470A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
JP7161981B2 (en) Object tracking program, device and method capable of switching object tracking means
Nidamanuri et al. A progressive review: Emerging technologies for ADAS driven solutions
JP7130895B2 (en) HELMET WEARING DETERMINATION METHOD, HELMET WEARING DETERMINATION DEVICE AND PROGRAM
US11042999B2 (en) Advanced driver assist systems and methods of detecting objects in the same
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US9067537B2 (en) Vehicle periphery monitoring device
JP6453490B2 (en) Method and apparatus for recognizing and evaluating road surface reflections
KR101382873B1 (en) Forward Collision Warning System and Forward Collision Warning Method
JP2010198552A (en) Driving state monitoring device
US20210042542A1 (en) Using captured video data to identify active turn signals on a vehicle
JP2007249841A (en) Image recognition device
JP2013225295A5 (en)
JP2014137815A (en) System and method for correcting camera image with distortion
JP2012185540A (en) Image processing device, image processing method, and image processing program
JP2018516799A5 (en)
US20200145623A1 (en) Method and System for Initiating a Video Stream
WO2018215861A1 (en) System and method for pedestrian detection
JP2015185138A (en) Moving object detection device, moving object detection method, and program
US20120155711A1 (en) Apparatus and method for analyzing video
WO2019193928A1 (en) Vehicle system, spatial spot estimation method, and spatial spot estimation device
WO2017208601A1 (en) Image processing device and external recognition device
US20220189038A1 (en) Object tracking apparatus, control method, and program
CN107430821B (en) Image processing apparatus
KR20180047149A (en) Apparatus and method for risk alarming of collision
JP2006027481A (en) Object warning device and its method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7161981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150