JP7474662B2 - Image tracking device, image tracking system, image tracking method and program - Google Patents

Image tracking device, image tracking system, image tracking method and program Download PDF

Info

Publication number
JP7474662B2
JP7474662B2 JP2020150070A JP2020150070A JP7474662B2 JP 7474662 B2 JP7474662 B2 JP 7474662B2 JP 2020150070 A JP2020150070 A JP 2020150070A JP 2020150070 A JP2020150070 A JP 2020150070A JP 7474662 B2 JP7474662 B2 JP 7474662B2
Authority
JP
Japan
Prior art keywords
image
target
image tracking
information
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020150070A
Other languages
Japanese (ja)
Other versions
JP2022044445A (en
Inventor
宜宏 砂田
広太 平野
知浩 松本
幸大 栗本
淳 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2020150070A priority Critical patent/JP7474662B2/en
Publication of JP2022044445A publication Critical patent/JP2022044445A/en
Application granted granted Critical
Publication of JP7474662B2 publication Critical patent/JP7474662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像追跡装置、画像追跡システム、画像追跡方法及びプログラムに関する。 The present disclosure relates to an image tracking device, an image tracking system, an image tracking method, and a program.

特許文献1には、複数の視点から撮像することにより得られた複数視点画像データを用いて合成画像データを生成する画像処理装置であって、被写体までの距離を示す距離情報に基づいて、前記複数視点画像データに対してフィルタ処理を行うフィルタ処理手段と、前記フィルタ処理がなされた複数視点画像データを合成して、合成画像データを生成する生成手段とを備えることを特徴とする発明が記載されている。 Patent document 1 describes an invention that is an image processing device that generates composite image data using multiple viewpoint image data obtained by capturing images from multiple viewpoints, and is characterized by comprising a filter processing means that performs a filter process on the multiple viewpoint image data based on distance information that indicates the distance to the subject, and a generation means that generates composite image data by synthesizing the multiple viewpoint image data that has been subjected to the filter process.

特開2013-065280号公報JP 2013-065280 A

画像による物体追跡技術としては、例えばテンプレートマッチングが知られている。これは、入力された全体画像(動画を構成するフレーム)から目標物体のテンプレート画像と類似する箇所(部分画像)を探索する処理である。 One example of a known image-based object tracking technique is template matching. This is a process of searching for areas (partial images) that are similar to a template image of the target object from an input overall image (a frame that makes up a video).

カメラの映像の取り込み周期が十分に早く、隣り合う時刻のフレーム間で見かけ上の変化が十分に小さい場合、直前時刻のフレームにおける検出結果を参照しながらテンプレートマッチングを実行することで、高速かつ高精度に目標物体を画像上で追跡(トラッキング)することが可能となる。 If the camera's image capture cycle is sufficiently fast and the apparent change between adjacent frames is sufficiently small, it is possible to track a target object in the image quickly and with high accuracy by performing template matching while referring to the detection results in the immediately preceding frame.

しかしながら、物体の一部分の“隠れ”の発生により物体の見た目が大きく変化した場合、従来の物体追跡技術では、直前時刻のフレームにおける検出結果を利用した検出処理が困難となり、物体を見失ってしまうことがある。 However, when the appearance of an object changes significantly due to a part of the object being "occluded," conventional object tracking technology has difficulty detecting the object using the detection results from the previous frame, and the object may be lost.

本開示の目的は、物体の一部分の“隠れ”の発生により物体の見た目が大きく変化した場合であっても、画像上での追跡を継続可能な画像追跡装置、画像追跡システム、画像追跡方法及びプログラムを提供することにある。 The objective of the present disclosure is to provide an image tracking device, an image tracking system, an image tracking method, and a program that can continue tracking an object on an image even when the appearance of the object changes significantly due to a part of the object being "hidden."

本開示の一態様によれば、画像追跡装置は、撮影装置から逐次画像を取得する画像取得部と、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶する目標情報記憶部と、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得する形状推定部と、前記目標情報および前記推定形状情報を用いて画像追跡を行う画像追跡部と、を備える。 According to one aspect of the present disclosure, an image tracking device includes an image acquisition unit that sequentially acquires images from a photographing device, a target information storage unit that extracts a target object captured in the image and stores target information indicating the characteristics of the target object in the image, a shape estimation unit that estimates the three-dimensional shape of the target object from the target object captured in the image and acquires estimated shape information indicating the three-dimensional shape, and an image tracking unit that performs image tracking using the target information and the estimated shape information.

本開示の一態様によれば、画像追跡方法は、撮影装置から逐次画像を取得するステップと、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、を有する。 According to one aspect of the present disclosure, an image tracking method includes the steps of: sequentially acquiring images from a photographing device; extracting a target object shown in the image and storing target information indicating the characteristics of the target object in the image; estimating a three-dimensional shape of the target object from the target object shown in the image and acquiring estimated shape information indicating the three-dimensional shape; and performing image tracking using the target information and the estimated shape information.

本開示の一態様によれば、プログラムは、コンピュータに、撮影装置から逐次画像を取得するステップと、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、を実行させる。 According to one aspect of the present disclosure, the program causes a computer to execute the steps of sequentially acquiring images from a photographing device, extracting a target object shown in the image and storing target information indicating the characteristics of the target object in the image, estimating a three-dimensional shape of the target object from the target object shown in the image and acquiring estimated shape information indicating the three-dimensional shape, and performing image tracking using the target information and the estimated shape information.

上述の各態様によれば、物体の一部分の“隠れ”の発生により物体の見た目が大きく変化した場合であっても、画像上での追跡を継続できる。 According to each of the above-mentioned aspects, tracking on the image can be continued even if the appearance of the object changes significantly due to a part of the object being "occluded."

本開示の少なくとも一実施形態に係る画像追跡装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image tracking device according to at least one embodiment of the present disclosure. 本開示の少なくとも一実施形態に係る画像追跡装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image tracking device according to at least one embodiment of the present disclosure. 本開示の少なくとも一実施形態に係る形状推定部の機能の説明図である。FIG. 2 is an explanatory diagram of a function of a shape estimation unit according to at least one embodiment of the present disclosure. 本開示の少なくとも一実施形態に係る画像追跡装置の処理フローを示す図である。FIG. 2 is a diagram illustrating a process flow of an image tracking device according to at least one embodiment of the present disclosure. 本開示の少なくとも一実施形態に係る画像追跡装置より得られる作用、効果についての説明図である。1 is an explanatory diagram of the actions and effects obtained by an image tracking device according to at least one embodiment of the present disclosure. 本開示の他の一実施形態に係る画像追跡装置の処理フローを示す図である。FIG. 11 is a diagram showing a processing flow of an image tracking device according to another embodiment of the present disclosure. 本開示の少なくとも一実施形態に係る画像追跡システムの構成を示す図である。FIG. 1 illustrates a configuration of an image tracking system in accordance with at least one embodiment of the present disclosure.

<第1の実施形態>
以下、第1の実施形態に係る画像追跡装置について、図1~図5を参照しながら説明する。本実施形態では、ある物体(ドローン)を画像上で検出しながら追跡し、物体の強制停止を目的として、追跡する物体中のある特定位置にレーザを照射し続けるシステムを考える。
First Embodiment
An image tracking device according to a first embodiment will be described below with reference to Figures 1 to 5. In this embodiment, a system is considered in which an object (drone) is detected on an image while being tracked, and a laser is continuously irradiated at a specific position on the object to be tracked in order to forcibly stop the object.

(画像追跡装置の構成)
図1は、第1の実施形態に係る画像追跡装置の構成を示す図である。
図2は、第1の実施形態に係る画像追跡装置のCPUの機能構成を示す図である。
図1に示すように、検証処理装置1は、CPU10と、メモリ11と、ディスプレイ12と、入力デバイス13と、ストレージ14とを備え、通常のコンピュータとして構成されている。
(Configuration of Image Tracking Device)
FIG. 1 is a diagram showing the configuration of an image tracking device according to the first embodiment.
FIG. 2 is a diagram showing the functional configuration of the CPU of the image tracking device according to the first embodiment.
As shown in FIG. 1, the verification processing device 1 includes a CPU 10, a memory 11, a display 12, an input device 13, and a storage 14, and is configured as a normal computer.

メモリ11は、いわゆる主記憶装置であって、CPU10がプログラムに基づいて動作するための命令及びデータが展開される。 The memory 11 is a so-called main storage device, and is where the instructions and data for the CPU 10 to operate based on the program are stored.

ディスプレイ12は、情報を視認可能に表示する表示デバイスであって、例えば、液晶ディスプレイや有機ELディスプレイなどであってよい。 The display 12 is a display device that displays information in a visible manner, and may be, for example, a liquid crystal display or an organic electroluminescence display.

入力デバイス13は、検証処理装置1の使用者の操作を受け付ける入力デバイスであって、例えば、一般的なマウス、キーボード、タッチセンサなどであってよい。 The input device 13 is an input device that accepts operations by a user of the verification processing device 1, and may be, for example, a general mouse, keyboard, touch sensor, etc.

通信インタフェース14は、画像追跡装置1と外部機器との通信接続用のインタフェースである。本実施形態においては、図示しないカメラ(撮影装置)やレーザ照射装置(後述)と通信可能に接続されている。 The communication interface 14 is an interface for communication connection between the image tracking device 1 and an external device. In this embodiment, it is communicatively connected to a camera (imaging device) and a laser irradiation device (described later) (not shown).

ストレージ15は、いわゆる補助記憶装置であって、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等であってよい。 Storage 15 is a so-called auxiliary storage device, and may be, for example, a hard disk drive (HDD) or a solid state drive (SSD).

図2を参照しながら、CPU10の機能について説明する。
CPU10は、検証処理装置1の動作全体の制御を司るプロセッサである。本実施形態に係るCPU10は、図2に示すように、画像取得部100、目標情報記憶部101、形状推定部102、画像追跡部103及び照射点決定部104としての機能を発揮する。
The function of the CPU 10 will be described with reference to FIG.
The CPU 10 is a processor that controls the overall operation of the verification processing device 1. As shown in Fig. 2, the CPU 10 according to this embodiment performs the functions of an image acquisition unit 100, a target information storage unit 101, a shape estimation unit 102, an image tracking unit 103, and an irradiation point determination unit 104.

画像取得部100は、カメラにて撮影された動画像をフレーム(静止画像)ごとに逐次取得する。 The image acquisition unit 100 sequentially acquires the moving images captured by the camera frame by frame (still image).

目標情報記憶部101は、画像取得部100が取得した画像から目標情報を取得し、記憶する。ここで、目標情報とは、画像上に映る目標物の、その画像1枚から計測される見た目上の特徴(位置、サイズ、色、形状など)を示す情報である。 The target information storage unit 101 acquires and stores target information from the images acquired by the image acquisition unit 100. Here, target information is information that indicates the visual characteristics (position, size, color, shape, etc.) of a target shown in an image, as measured from that single image.

形状推定部102は、画像取得部100が取得した画像から推定形状情報を取得し、記憶する。ここで、推定形状情報とは、画像上に映る目標物の像から推定される当該目標物の立体的形状である。形状推定部102の機能については後述する。 The shape estimation unit 102 acquires and stores estimated shape information from the image acquired by the image acquisition unit 100. Here, the estimated shape information is the three-dimensional shape of the target object estimated from the image of the target object shown in the image. The function of the shape estimation unit 102 will be described later.

画像追跡部103は、目標情報取得部101によって取得された目標情報、および、形状推定部102によって取得された推定形状情報を用いて画像追跡(画像上での物体追跡処理(トラッキング))を行う。 The image tracking unit 103 performs image tracking (object tracking processing (tracking) on an image) using the target information acquired by the target information acquisition unit 101 and the estimated shape information acquired by the shape estimation unit 102.

照射点決定部104は、目標情報及び推定形状情報を用いて、レーザ照射装置によるレーザ照射点を決定する。 The irradiation point determination unit 104 uses the target information and estimated shape information to determine the laser irradiation point by the laser irradiation device.

(形状推定部の機能)
図3は、第1の実施形態に係る形状推定部の機能の説明図である。
図3に示すように、形状推定部102の機能は、事前に、多数の学習用画像データGを用いて機械学習を行うことで得られる。ここで、学習用画像データGは、飛来が想定される目標物の立体的形状(図3に示す例では、4枚羽のドローン)を模した形状モデルM(CGモデル)を元に、当該形状モデルMを様々な位置、角度から描画したものとして複数作成される。このように作成された学習用画像データGを用いて学習することで、形状推定部102は、入力された画像から、当該画像に映る目標物の立体的形状(即ち、形状モデルMに相当する立体的形状)を推定することができる。
(Functions of the shape estimation unit)
FIG. 3 is an explanatory diagram of the function of the shape estimation unit according to the first embodiment.
As shown in Fig. 3, the function of the shape estimation unit 102 is obtained in advance by performing machine learning using a large number of training image data G. Here, multiple training image data G are created based on a shape model M (CG model) that imitates the three-dimensional shape of a target that is expected to fly (in the example shown in Fig. 3, a four-winged drone), and the shape model M is drawn from various positions and angles. By learning using the training image data G created in this way, the shape estimation unit 102 can estimate the three-dimensional shape of the target reflected in the input image (i.e., the three-dimensional shape corresponding to the shape model M) from the input image.

なお、学習用画像データGは、図3に示す4枚羽のドローンの他、6枚羽のドローンや飛行機型のドローンなど、目標物の種類別に複数用意される。そして、目標物の種類ごとに、その目標物の立体的形状が学習される。 Note that multiple learning image data G are prepared for different types of targets, such as a four-blade drone as shown in FIG. 3, a six-blade drone, and an airplane-type drone. Then, the three-dimensional shape of each type of target is learned.

(画像追跡装置の処理フロー)
図4は、第1の実施形態に係る画像追跡装置の処理フローを示す図である。
図4に示す処理フローは、カメラから次々に入力されるフレームの1枚に対して実行される処理フローであり、各フレームが入力される度に繰り返し実行される。
(Processing flow of the image tracking device)
FIG. 4 is a diagram showing a processing flow of the image tracking device according to the first embodiment.
The processing flow shown in FIG. 4 is executed for each of the frames successively input from the camera, and is repeatedly executed each time a frame is input.

まず、画像取得部100は、カメラから1枚の画像(フレーム)を取得する(ステップS001)。 First, the image acquisition unit 100 acquires one image (frame) from the camera (step S001).

次に、目標情報取得部101は、前回取得した画像から目標情報を既に抽出しており、記憶済みか否かを判定する(ステップS002)。 Next, the target information acquisition unit 101 determines whether target information has already been extracted and stored from the previously acquired image (step S002).

目標情報が記憶されていない場合(ステップS002;NO)、入力された画像に対して新たに目標とすべき物体(ドローン等)が映っているか否かの判定(目標入力判定)を行う(ステップS003)。 If the target information is not stored (step S002; NO), a determination is made as to whether or not a new target object (e.g., a drone) is captured in the input image (target input determination) (step S003).

入力された画像に、新たに目標とすべき物体が映っていない場合(ステップS003;NO)、今回入力された画像に対する処理を終了する。 If the input image does not show a new target object (step S003; NO), processing of the currently input image ends.

一方、入力された画像に、新たに目標とすべき物体が映っていた場合(ステップS003;YES)、その画像から計測される目標物の特徴(位置、サイズ、色、形状など)を取得し、メモリ11等に記憶する(ステップS004)。 On the other hand, if the input image shows a new target object (step S003; YES), the characteristics of the target object measured from the image (position, size, color, shape, etc.) are obtained and stored in memory 11 etc. (step S004).

続いて、形状推定部102は、入力された画像からその画像に映っている目標物の立体的形状を推定し、推定形状情報を記憶する(ステップS005)。 Next, the shape estimation unit 102 estimates the three-dimensional shape of the target object shown in the input image from the image and stores the estimated shape information (step S005).

また、ステップS002の判定処理で、目標情報が既に記憶されていた場合(ステップS002;YES)、既に記憶されている目標情報と推定形状情報とを用いて追跡(トラッキング)を行う(ステップS006)。ここで、画像追跡部103は、従来の物体追跡技術(例えば、目標情報を用いたテンプレートマッチング等)を用いて目標物の追跡を行う。また、画像追跡部103は、画像に映る目標物に対し、推定形状情報に示される立体的形状をフィッティングすることで、目標物の位置、姿勢を取得する。 If the determination process in step S002 finds that the target information has already been stored (step S002; YES), tracking is performed using the already stored target information and estimated shape information (step S006). Here, the image tracking unit 103 tracks the target using a conventional object tracking technique (e.g., template matching using the target information). The image tracking unit 103 also obtains the position and orientation of the target by fitting the three-dimensional shape indicated in the estimated shape information to the target shown in the image.

続いて、画像追跡部103は、ステップS006の追跡処理の結果、目標を消失したか否か(つまり、追跡に成功したか否か)を判定する(ステップS007)。 Next, the image tracking unit 103 determines whether the target has disappeared (i.e., whether tracking was successful) as a result of the tracking process in step S006 (step S007).

ステップS007の追跡処理で目標を消失した場合(ステップS007;YES)、記憶していた目標情報および推定形状情報を削除し(ステップS008)、このフレーム対する処理を終了する。 If the target is lost during the tracking process in step S007 (step S007; YES), the stored target information and estimated shape information are deleted (step S008), and processing for this frame is terminated.

目標を消失しなかった場合(ステップS007;NO)、画像追跡部103は、画像上にマーカ等を表示させて、目標物の位置、姿勢などを出力する(ステップS009)。 If the target has not disappeared (step S007; NO), the image tracking unit 103 displays a marker or the like on the image and outputs the target's position, orientation, etc. (step S009).

照射点決定部104は、ステップS009で得られた目標物の位置、姿勢に基づいて、目標物に対するレーザ照射点を決定する(ステップS010)。ここで、照射点決定部104は、推定形状情報から、飛来する目標物がどのような形状で、現在どのような姿勢にあるのかを把握することができる。照射点決定部104は、目標物の形状、位置および姿勢を参照して、その目標物へのレーザ照射の効果(ドローンの強制停止)を最も得やすい特定位置(例えば、ドローンの中心位置)を特定し、その特定位置を照射点として決定する。 The irradiation point determination unit 104 determines the laser irradiation point for the target based on the position and attitude of the target obtained in step S009 (step S010). Here, the irradiation point determination unit 104 can determine the shape and current attitude of the approaching target from the estimated shape information. The irradiation point determination unit 104 refers to the shape, position, and attitude of the target to identify a specific position (e.g., the center position of the drone) that is most likely to have the effect of laser irradiation on the target (forced stopping of the drone), and determines that specific position as the irradiation point.

(作用、効果)
図5は、第1の実施形態に係る画像追跡装置より得られる作用、効果についての説明図である。
以上のとおり、第1の実施形態に係る画像追跡装置1は、特に、入力された画像から目標物の推定形状情報を取得する形状推定部102と、目標情報および推定形状情報を用いて画像追跡を行う画像追跡部103とを有することを特徴とする。
このような特徴を有することで得られる作用、効果について、図5を参照しながら詳しく説明する。
(Action, Effect)
FIG. 5 is an explanatory diagram of the actions and effects obtained by the image tracking device according to the first embodiment.
As described above, the image tracking device 1 of the first embodiment is characterized in that it has, in particular, a shape estimation unit 102 that acquires estimated shape information of a target from an input image, and an image tracking unit 103 that performs image tracking using the target information and the estimated shape information.
The actions and effects obtained by having such characteristics will be described in detail with reference to FIG.

図5は、ある時刻で取得されたフレームF1と、その次に取得されたフレームF2とを示している。
フレームF1にはレーザ照射前における目標物の像が映っており、従来の物体追跡技術により目標情報に基づいて追跡できている段階にある。
FIG. 5 shows a frame F1 acquired at a certain time and a frame F2 acquired next thereafter.
Frame F1 shows an image of the target before laser irradiation, and is at a stage where it can be tracked based on target information using conventional object tracking technology.

フレームF1が取得された直後に、目標物に対するレーザ照射がなされたとする。この場合、図5に示すように、次に取得されるフレームF2には、レーザ照射が行われたことに起因して発光および発煙が生じる。 Assume that immediately after frame F1 is acquired, a laser is irradiated onto the target. In this case, as shown in FIG. 5, light is emitted and smoke is generated in the next acquired frame F2 due to the laser irradiation.

ここで、従来の物体追跡技術(例えば、テンプレートマッチング)では、ある画像から抽出した見た目上の特徴(目標情報)をテンプレートとして、次のフレームでの物体追跡を行う。しかし、図5に示す例のように、発光や発煙により目標物の一部に“隠れ”が生じてフレームの前後で見た目が大きく変化した場合、従来の物体追跡技術では目標情報に基づいたマッチングが困難となり目標物を見失ってしまう。したがって、目標情報のみで追跡を行おうとすると、画像上で追跡中の物体に対しレーザ照射を行った瞬間に追跡が途切れてしまい、物体にレーザを照射し続けることができない。 Here, in conventional object tracking technology (e.g., template matching), visual features (target information) extracted from an image are used as a template to track the object in the next frame. However, as in the example shown in Figure 5, if part of the target is "hidden" by emitting light or smoke and its appearance changes significantly between frames, conventional object tracking technology has difficulty matching based on the target information and ends up losing sight of the target. Therefore, if tracking is attempted using only the target information, the moment a laser is irradiated onto the object being tracked in the image, tracking is interrupted, and it is not possible to continue irradiating the object with the laser.

しかし、本実施形態によれば、照射点決定部104は、目標情報に加えて推定形状情報に基づく追跡を行う。即ち、照射点決定部104は、形状推定部102によって得られた推定形状情報(立体的形状)を入力画像にフィッティングすることで、画像上に映された目標物の位置、形状、姿勢などを取得する。この場合、フレームF2のように、画像上で目標物の一部が隠れてしまっている場合であっても、画像追跡部103は、見えている部分を元に、全体として推定形状情報のフィッティングを試行する。これにより、画像追跡部103は、フレームの前後で見た目が大きく変化した場合であっても、追跡を継続することができる。 However, according to this embodiment, the irradiation point determination unit 104 performs tracking based on estimated shape information in addition to target information. That is, the irradiation point determination unit 104 acquires the position, shape, posture, and the like of the target object shown in the image by fitting the estimated shape information (three-dimensional shape) obtained by the shape estimation unit 102 to the input image. In this case, even if part of the target object is hidden in the image, as in frame F2, the image tracking unit 103 attempts to fit the estimated shape information as a whole based on the visible part. This allows the image tracking unit 103 to continue tracking even if the appearance changes significantly between frames.

このように、本実施形態に係る画像追跡装置1によれば、推定形状情報によるフィッティングに基づいて物体追跡が行われるので、瞬間的な“隠れ”の発生に対し、ロバストな物体追跡を実現することができる。 In this way, the image tracking device 1 according to this embodiment performs object tracking based on fitting using estimated shape information, making it possible to achieve robust object tracking even in the event of momentary "occlusion."

以上より、物体の一部分の“隠れ”の発生により物体の見た目が大きく変化した場合であっても、画像上での追跡を継続可能となる。 As a result, it is possible to continue tracking an object on the image even if the object's appearance changes significantly due to part of it being "occluded."

これにより、飛来する物体(目標物)に対し、継続的にレーザを照射することができ、より効果的に物体の航行を停止させることができる。 This allows the laser to be continuously aimed at an approaching object (target), more effectively stopping the object's movement.

<第2の実施形態>
以下、第2の実施形態に係る画像追跡装置について、図6を参照しながら説明する。
Second Embodiment
The image tracking device according to the second embodiment will be described below with reference to FIG.

(画像追跡装置の処理フロー)
図6は、第2の実施形態に係る画像追跡装置の処理フローを示す図である。
第2の実施形態に係る画像追跡装置1が実行する処理フローは、第1の実施形態の処理フロー(図4)に対し、ステップS100、S101、S102が追加された点で相違する。以下、当該ステップS100、S101、S102の処理について詳しく説明する。
(Processing flow of the image tracking device)
FIG. 6 is a diagram showing a processing flow of the image tracking device according to the second embodiment.
The process flow executed by the image tracking device 1 according to the second embodiment differs from the process flow of the first embodiment (FIG. 4) in that steps S100, S101, and S102 are added. The processes of steps S100, S101, and S102 will be described in detail below.

図6に示すように、第2の実施形態に係る画像追跡装置1は、ステップS002;YESの処理の後、レーザ照射装置によるレーザ照射が行われている最中か否かを判定する(ステップS100)。ここで、画像追跡装置1は、レーザ照射装置から、レーザ照射が現在行われているか否かを示す信号を受信することで、ステップS002の判定を行うものとしてよい。 As shown in FIG. 6, after processing step S002; YES, the image tracking device 1 according to the second embodiment determines whether or not laser irradiation by the laser irradiation device is currently being performed (step S100). Here, the image tracking device 1 may perform the determination of step S002 by receiving a signal indicating whether or not laser irradiation is currently being performed from the laser irradiation device.

レーザ照射が行われていない場合(ステップS100;NO)、形状推定部102は、新たに入力された画像に対し形状推定処理(ステップS005と同様の処理)を継続する(ステップS101)。 If laser irradiation is not being performed (step S100; NO), the shape estimation unit 102 continues the shape estimation process (similar to step S005) on the newly input image (step S101).

続いて、画像追跡部103は、目標情報のみに基づいて(つまり、形状推定情報を用いずに、)追跡処理を行う(ステップS102)。 Next, the image tracking unit 103 performs tracking processing based only on the target information (i.e., without using shape estimation information) (step S102).

一方、レーザ照射が行われている最中の場合(ステップS100;YES)、第1の実施形態と同様に、画像追跡部103は、目標情報と形状推定情報とに基づいて追跡処理を行う(ステップS006)。 On the other hand, if laser irradiation is in progress (step S100; YES), similar to the first embodiment, the image tracking unit 103 performs tracking processing based on the target information and shape estimation information (step S006).

(作用、効果)
以上の処理を換言すると、第2の実施形態に係る画像追跡部103は、目標物へのレーザ照射がなされてない場合には目標情報のみを用いて画像追跡を行い、目標物へのレーザ照射がなされている場合には目標情報および推定形状情報を用いて画像追跡を行う。
(Action, Effect)
In other words, the image tracking unit 103 according to the second embodiment performs image tracking using only the target information when the target is not irradiated with a laser, and performs image tracking using the target information and estimated shape information when the target is irradiated with a laser.

レーザ照射がなされていない場合には、前後のフレームで大きな変化が発生しないことが見込まれるため、目標情報のみを用いて従来の物体追跡技術にて追跡処理を行う。これにより、常に目標情報と推定形状情報の両方で追跡処理を行う場合よりも計算負荷を低減することができる。 When laser irradiation is not performed, it is expected that there will be no significant changes between previous and subsequent frames, so tracking processing is performed using conventional object tracking technology using only target information. This reduces the computational load compared to when tracking processing is always performed using both target information and estimated shape information.

なお、第2の実施形態では、レーザ照射中ではない場合(ステップS100;NO)においては、形状推定処理(ステップS101)を繰り返し行うこととしている。このようにすることで、形状推定部102は、複数の入力画像に基づいて形状推定を行うことができるため、形状推定の精度を高めることができる。これにより、ステップS009にて行われるレーザ照射の精度も向上させることができる。 In the second embodiment, when laser irradiation is not in progress (step S100; NO), the shape estimation process (step S101) is repeated. In this manner, the shape estimation unit 102 can perform shape estimation based on multiple input images, thereby improving the accuracy of the shape estimation. This can also improve the accuracy of the laser irradiation performed in step S009.

<変形例>
図7は、第1、第2の実施形態の変形例に係る画像追跡システムの構成を示す図である。
<Modification>
FIG. 7 is a diagram showing the configuration of an image tracking system according to a modified example of the first and second embodiments.

図7に示すように、レーザ照射システム9は、第1、第2の実施形態で説明した画像追跡装置1と、カメラ2(撮影装置)とを含んでなる画像追跡システム9Aと、レーザ照射装置3とを備えている。
カメラ2は、逐次、動画像を構成するフレーム(静止画像)を画像追跡装置1に送信する。
レーザ照射装置3は、画像追跡装置1からレーザ照射点を示す情報を取得し、当該レーザ照射点に向けてレーザを照射する。
As shown in Figure 7, the laser irradiation system 9 includes an image tracking system 9A including the image tracking device 1 described in the first and second embodiments and a camera 2 (imaging device), and a laser irradiation device 3.
The camera 2 sequentially transmits frames (still images) constituting a moving image to the image tracking device 1 .
The laser irradiation device 3 acquires information indicating a laser irradiation point from the image tracking device 1, and irradiates a laser toward the laser irradiation point.

本変形例においては、画像照射システム9Aは、更に、カメラ2がフィルタ20を有し、かつ、イルミネータ4を備えていることを特徴とする。 In this modified example, the image projection system 9A is further characterized in that the camera 2 has a filter 20 and is equipped with an illuminator 4.

カメラ2のフィルタ20は、光学フィルタであって、所望の周波数帯域の光を減衰させるフィルタである。フィルタ20は、ローパスフィルタ、ハイパスフィルタ、バンドパスフィルタ、NDフィルタ等であってよい。これにより、フィルタ20を通した画像入力により、レーザ照射により生じる目標物の発光を低減するとともに、その発光による目標物の隠れ量を減らすことができる。
本変形例において、フィルタ20は、後述のイルミネータ4が放射する光を透過可能に構成されているのが好ましい。
The filter 20 of the camera 2 is an optical filter that attenuates light in a desired frequency band. The filter 20 may be a low-pass filter, a high-pass filter, a band-pass filter, an ND filter, etc. As a result, by inputting an image through the filter 20, it is possible to reduce the light emission of the target caused by the laser irradiation and to reduce the amount of obscuration of the target by the light emission.
In this modified example, the filter 20 is preferably configured to be able to transmit light emitted by an illuminator 4, which will be described later.

また、イルミネータ4は、カメラ2の側から目標物に向けて光を放射するものである。ここで、このイルミネータ4が放射する光の周波数を、目標物がよく反射する帯域のものとすることで、フィルタ20を通したカメラ2で目標物を一層はっきりと認識することができる。なお、イルミネータ4は、白色光を照射するものであってもよい。 The illuminator 4 emits light from the camera 2 side toward the target. By setting the frequency of the light emitted by the illuminator 4 to a band that is well reflected by the target, the target can be more clearly recognized by the camera 2 through the filter 20. The illuminator 4 may also emit white light.

なお、上述の変形例においては、画像追跡システム9Aは、カメラ2に取り付けられたフィルタ20と、イルミネータ4との両方を有するものとして説明したが、他の実施形態においてはこの態様に限定されない。
即ち、他の実施形態に係る画像追跡システム9Aは、フィルタ20と、イルミネータ4とのいずれか一方のみを有する態様とされてもよい。
In the above-described modified example, the image tracking system 9A has been described as having both the filter 20 attached to the camera 2 and the illuminator 4, but other embodiments are not limited to this aspect.
That is, the image tracking system 9A according to another embodiment may have only one of the filter 20 and the illuminator 4.

上述の実施形態においては、画像追跡装置1の各種処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。また、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。 In the above-described embodiment, the various processing steps of the image tracking device 1 are stored in the form of a program on a computer-readable recording medium, and the above-described various processing steps are performed by the computer reading and executing this program. In addition, computer-readable recording media refers to magnetic disks, magneto-optical disks, CD-ROMs, DVD-ROMs, semiconductor memories, etc. In addition, this computer program may be distributed to a computer via a communication line, and the computer that receives this distribution may execute the program.

上記プログラムは、上述した機能の一部を実現するためのものであってもよい。更に、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The above program may be for realizing some of the functions described above. Furthermore, it may be a so-called differential file (differential program) that can realize the functions described above in combination with a program already recorded in the computer system.

以上のとおり、本開示に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態及びその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As described above, several embodiments of the present disclosure have been described, but all of these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope of the invention and its equivalents as described in the claims, as well as in the scope and gist of the invention.

<付記>
各実施形態に記載の検証装置、検証処理方法およびプログラムは、例えば以下のように把握される。
<Additional Notes>
The verification device, the verification processing method, and the program described in each embodiment can be understood, for example, as follows.

(1)第1の態様において、画像追跡装置1は、撮影装置(カメラ)から逐次画像を取得する画像取得部100と、画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶する目標情報記憶部101と、画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得する形状推定部102と、目標情報および推定形状情報を用いて画像追跡を行う画像追跡部103と、を備える。 (1) In a first aspect, the image tracking device 1 includes an image acquisition unit 100 that sequentially acquires images from an image capture device (camera), a target information storage unit 101 that extracts a target object shown in the image and stores target information indicating the characteristics of the target object in the image, a shape estimation unit 102 that estimates the three-dimensional shape of the target object from the target object shown in the image and acquires estimated shape information indicating the three-dimensional shape, and an image tracking unit 103 that performs image tracking using the target information and the estimated shape information.

(2)第2の態様において、(1)に記載の画像追跡部103は、目標物へのレーザ照射がなされてない場合に、目標情報のみを用いて画像追跡を行い、目標物へのレーザ照射がなされている場合に、目標情報および前記推定形状情報を用いて画像追跡を行う。 (2) In the second aspect, the image tracking unit 103 described in (1) performs image tracking using only the target information when the target is not irradiated with a laser, and performs image tracking using the target information and the estimated shape information when the target is irradiated with a laser.

(3)第3の態様において、(1)または(2)に記載の画像追跡装置1は、目標情報および推定形状情報を用いてレーザ照射点を決定するレーザ照射点決定部104をさらに備える。 (3) In a third aspect, the image tracking device 1 described in (1) or (2) further includes a laser irradiation point determination unit 104 that determines a laser irradiation point using the target information and the estimated shape information.

(4)第4の態様において、画像追跡システム9Aは、(1)から(3)のいずれかに記載の画像追跡装置1と、撮影装置2と、を備え、撮影装置2は、フィルタ20を備える。 (4) In a fourth aspect, the image tracking system 9A includes an image tracking device 1 described in any one of (1) to (3) and an image capturing device 2, and the image capturing device 2 includes a filter 20.

(5)第5の態様において、画像追跡システム9は、(1)から(3)のいずれかに記載の画像追跡装置1と、撮影装置2と、イルミネータ4と、を備える。 (5) In a fifth aspect, the image tracking system 9 includes an image tracking device 1 described in any one of (1) to (3), an image capture device 2, and an illuminator 4.

(6)第6の態様において、画像追跡方法は、撮影装置から逐次画像を取得するステップと、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、を有する。 (6) In a sixth aspect, the image tracking method includes the steps of: sequentially acquiring images from a photographing device; extracting a target object shown in the image and storing target information indicating the characteristics of the target object in the image; estimating a three-dimensional shape of the target object from the target object shown in the image and acquiring estimated shape information indicating the three-dimensional shape; and performing image tracking using the target information and the estimated shape information.

(7)第7の態様において、プログラムは、コンピュータに、撮影装置から逐次画像を取得するステップと、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、を実行させる。 (7) In the seventh aspect, the program causes a computer to execute the steps of sequentially acquiring images from a photographing device, extracting a target object shown in the image and storing target information indicating the characteristics of the target object in the image, estimating a three-dimensional shape of the target object from the target object shown in the image and acquiring estimated shape information indicating the three-dimensional shape, and performing image tracking using the target information and the estimated shape information.

1 画像追跡装置
10 CPU
11 メモリ
12 ディスプレイ
13 入力デバイス
14 ストレージ
100 画像取得部
101 目標情報記憶部
102 形状推定部
103 画像追跡部
104 照射点決定部
2 カメラ
20 フィルタ
3 レーザ照射装置
4 イルミネータ
9A 画像追跡システム
9 レーザ照射システム
1 Image tracking device 10 CPU
11 Memory 12 Display 13 Input device 14 Storage 100 Image acquisition unit 101 Target information storage unit 102 Shape estimation unit 103 Image tracking unit 104 Irradiation point determination unit 2 Camera 20 Filter 3 Laser irradiation device 4 Illuminator 9A Image tracking system 9 Laser irradiation system

Claims (6)

撮影装置から逐次画像を取得する画像取得部と、
前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶する目標情報記憶部と、
前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得する形状推定部と、
前記目標情報および前記推定形状情報を用いて画像追跡を行う画像追跡部と、
を備え
前記画像追跡部は、前記目標物へのレーザ照射がなされてない場合に、前記目標情報のみを用いて画像追跡を行い、前記目標物へのレーザ照射がなされている場合に、前記目標情報および前記推定形状情報を用いて画像追跡を行う、
画像追跡装置。
an image acquisition unit that sequentially acquires images from an imaging device;
a target information storage unit that extracts a target object shown on the image and stores target information indicating characteristics of the target object on the image;
a shape estimation unit that estimates a three-dimensional shape of a target object from the target object shown on the image and acquires estimated shape information indicating the three-dimensional shape;
an image tracking unit that performs image tracking using the target information and the estimated shape information;
Equipped with
the image tracking unit performs image tracking using only the target information when the target is not irradiated with a laser, and performs image tracking using the target information and the estimated shape information when the target is irradiated with a laser.
Image tracking device.
前記目標情報および前記推定形状情報を用いてレーザ照射点を決定するレーザ照射点決定部をさらに備える、
請求項に記載の画像追跡装置。
A laser irradiation point determination unit that determines a laser irradiation point using the target information and the estimated shape information,
The image tracking device of claim 1 .
請求項1または2に記載の画像追跡装置と、
前記撮影装置と、を備え、
前記撮影装置は、フィルタを備える、
画像追跡システム。
An image tracking device according to claim 1 or 2 ;
The imaging device,
The imaging device includes a filter.
Image tracking system.
請求項1または2に記載の画像追跡装置と、
前記撮影装置と、
イルミネータと、
を備える画像追跡システム。
An image tracking device according to claim 1 or 2 ;
The imaging device;
The illuminator and
An image tracking system comprising:
撮影装置から逐次画像を取得するステップと、
前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、
前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、
前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、
を有し、
前記画像追跡を行うステップにおいて、前記目標物へのレーザ照射がなされてない場合に、前記目標情報のみを用いて画像追跡を行い、前記目標物へのレーザ照射がなされている場合に、前記目標情報および前記推定形状情報を用いて画像追跡を行う、
画像追跡方法。
acquiring sequential images from an imaging device;
A step of extracting a target object shown on the image and storing target information indicating characteristics of the target object on the image;
a step of estimating a three-dimensional shape of a target object from the target object shown on the image and acquiring estimated shape information indicating the three-dimensional shape;
performing image tracking using the target information and the estimated shape information;
having
in the step of performing image tracking, when the target is not irradiated with a laser, image tracking is performed using only the target information, and when the target is irradiated with a laser, image tracking is performed using the target information and the estimated shape information.
Image tracking methods.
コンピュータに、
撮影装置から逐次画像を取得するステップと、
前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、
前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、
前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、
を実行させるプログラムであって、
前記画像追跡を行うステップにおいて、前記目標物へのレーザ照射がなされてない場合に、前記目標情報のみを用いて画像追跡を行い、前記目標物へのレーザ照射がなされている場合に、前記目標情報および前記推定形状情報を用いて画像追跡を行う、
プログラム
On the computer,
acquiring sequential images from an imaging device;
A step of extracting a target object shown on the image and storing target information indicating characteristics of the target object on the image;
a step of estimating a three-dimensional shape of a target object from the target object shown on the image and acquiring estimated shape information indicating the three-dimensional shape;
performing image tracking using the target information and the estimated shape information;
A program for executing
in the step of performing image tracking, when the target is not irradiated with a laser, image tracking is performed using only the target information, and when the target is irradiated with a laser, image tracking is performed using the target information and the estimated shape information.
program .
JP2020150070A 2020-09-07 2020-09-07 Image tracking device, image tracking system, image tracking method and program Active JP7474662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020150070A JP7474662B2 (en) 2020-09-07 2020-09-07 Image tracking device, image tracking system, image tracking method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020150070A JP7474662B2 (en) 2020-09-07 2020-09-07 Image tracking device, image tracking system, image tracking method and program

Publications (2)

Publication Number Publication Date
JP2022044445A JP2022044445A (en) 2022-03-17
JP7474662B2 true JP7474662B2 (en) 2024-04-25

Family

ID=80679125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020150070A Active JP7474662B2 (en) 2020-09-07 2020-09-07 Image tracking device, image tracking system, image tracking method and program

Country Status (1)

Country Link
JP (1) JP7474662B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348186A (en) 1999-06-03 2000-12-15 Fujitsu Ltd Device and method for object tracking
JP2018106282A (en) 2016-12-22 2018-07-05 セコム株式会社 Object detection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348186A (en) 1999-06-03 2000-12-15 Fujitsu Ltd Device and method for object tracking
JP2018106282A (en) 2016-12-22 2018-07-05 セコム株式会社 Object detection device

Also Published As

Publication number Publication date
JP2022044445A (en) 2022-03-17

Similar Documents

Publication Publication Date Title
US10210382B2 (en) Human body pose estimation
US8660310B2 (en) Systems and methods for tracking a model
US9824260B2 (en) Depth image processing
CN103608844B (en) The full-automatic model calibration that dynamically joint connects
JP6448223B2 (en) Image recognition system, image recognition apparatus, image recognition method, and computer program
US9361730B2 (en) Interactions of tangible and augmented reality objects
JP6001562B2 (en) Use of 3D environmental models in game play
JP4991595B2 (en) Tracking system using particle filter
US20150038230A1 (en) Visual based identity tracking
US8638985B2 (en) Human body pose estimation
CN109891189B (en) Planned photogrammetry
US8428306B2 (en) Information processor and information processing method for performing process adapted to user motion
WO2009091029A1 (en) Face posture estimating device, face posture estimating method, and face posture estimating program
JP2010176380A (en) Information processing device and method, program, and recording medium
US20100303302A1 (en) Systems And Methods For Estimating An Occluded Body Part
JP2012113622A (en) Image processing apparatus, method, and program
JP6850751B2 (en) Object tracking device, object tracking method, and computer program
KR102443551B1 (en) Point cloud fusion method, apparatus, electronic device and computer storage medium
JP2015079502A (en) Object tracking method, object tracking device, and tracking feature selection method
US11823394B2 (en) Information processing apparatus and method for aligning captured image and object
JP7474662B2 (en) Image tracking device, image tracking system, image tracking method and program
EP3209398B1 (en) Silhouette-based limb finding
US11054903B2 (en) Method, eyetracker and computer program for determining eye positions in digital image data
JP5111321B2 (en) 瞼 Likelihood calculation device and program
JP4559375B2 (en) Object position tracking method, apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415