JP7474662B2 - Image tracking device, image tracking system, image tracking method and program - Google Patents
Image tracking device, image tracking system, image tracking method and program Download PDFInfo
- Publication number
- JP7474662B2 JP7474662B2 JP2020150070A JP2020150070A JP7474662B2 JP 7474662 B2 JP7474662 B2 JP 7474662B2 JP 2020150070 A JP2020150070 A JP 2020150070A JP 2020150070 A JP2020150070 A JP 2020150070A JP 7474662 B2 JP7474662 B2 JP 7474662B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- image tracking
- information
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000003384 imaging method Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本開示は、画像追跡装置、画像追跡システム、画像追跡方法及びプログラムに関する。 The present disclosure relates to an image tracking device, an image tracking system, an image tracking method, and a program.
特許文献1には、複数の視点から撮像することにより得られた複数視点画像データを用いて合成画像データを生成する画像処理装置であって、被写体までの距離を示す距離情報に基づいて、前記複数視点画像データに対してフィルタ処理を行うフィルタ処理手段と、前記フィルタ処理がなされた複数視点画像データを合成して、合成画像データを生成する生成手段とを備えることを特徴とする発明が記載されている。
画像による物体追跡技術としては、例えばテンプレートマッチングが知られている。これは、入力された全体画像(動画を構成するフレーム)から目標物体のテンプレート画像と類似する箇所(部分画像)を探索する処理である。 One example of a known image-based object tracking technique is template matching. This is a process of searching for areas (partial images) that are similar to a template image of the target object from an input overall image (a frame that makes up a video).
カメラの映像の取り込み周期が十分に早く、隣り合う時刻のフレーム間で見かけ上の変化が十分に小さい場合、直前時刻のフレームにおける検出結果を参照しながらテンプレートマッチングを実行することで、高速かつ高精度に目標物体を画像上で追跡(トラッキング)することが可能となる。 If the camera's image capture cycle is sufficiently fast and the apparent change between adjacent frames is sufficiently small, it is possible to track a target object in the image quickly and with high accuracy by performing template matching while referring to the detection results in the immediately preceding frame.
しかしながら、物体の一部分の“隠れ”の発生により物体の見た目が大きく変化した場合、従来の物体追跡技術では、直前時刻のフレームにおける検出結果を利用した検出処理が困難となり、物体を見失ってしまうことがある。 However, when the appearance of an object changes significantly due to a part of the object being "occluded," conventional object tracking technology has difficulty detecting the object using the detection results from the previous frame, and the object may be lost.
本開示の目的は、物体の一部分の“隠れ”の発生により物体の見た目が大きく変化した場合であっても、画像上での追跡を継続可能な画像追跡装置、画像追跡システム、画像追跡方法及びプログラムを提供することにある。 The objective of the present disclosure is to provide an image tracking device, an image tracking system, an image tracking method, and a program that can continue tracking an object on an image even when the appearance of the object changes significantly due to a part of the object being "hidden."
本開示の一態様によれば、画像追跡装置は、撮影装置から逐次画像を取得する画像取得部と、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶する目標情報記憶部と、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得する形状推定部と、前記目標情報および前記推定形状情報を用いて画像追跡を行う画像追跡部と、を備える。 According to one aspect of the present disclosure, an image tracking device includes an image acquisition unit that sequentially acquires images from a photographing device, a target information storage unit that extracts a target object captured in the image and stores target information indicating the characteristics of the target object in the image, a shape estimation unit that estimates the three-dimensional shape of the target object from the target object captured in the image and acquires estimated shape information indicating the three-dimensional shape, and an image tracking unit that performs image tracking using the target information and the estimated shape information.
本開示の一態様によれば、画像追跡方法は、撮影装置から逐次画像を取得するステップと、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、を有する。 According to one aspect of the present disclosure, an image tracking method includes the steps of: sequentially acquiring images from a photographing device; extracting a target object shown in the image and storing target information indicating the characteristics of the target object in the image; estimating a three-dimensional shape of the target object from the target object shown in the image and acquiring estimated shape information indicating the three-dimensional shape; and performing image tracking using the target information and the estimated shape information.
本開示の一態様によれば、プログラムは、コンピュータに、撮影装置から逐次画像を取得するステップと、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、を実行させる。 According to one aspect of the present disclosure, the program causes a computer to execute the steps of sequentially acquiring images from a photographing device, extracting a target object shown in the image and storing target information indicating the characteristics of the target object in the image, estimating a three-dimensional shape of the target object from the target object shown in the image and acquiring estimated shape information indicating the three-dimensional shape, and performing image tracking using the target information and the estimated shape information.
上述の各態様によれば、物体の一部分の“隠れ”の発生により物体の見た目が大きく変化した場合であっても、画像上での追跡を継続できる。 According to each of the above-mentioned aspects, tracking on the image can be continued even if the appearance of the object changes significantly due to a part of the object being "occluded."
<第1の実施形態>
以下、第1の実施形態に係る画像追跡装置について、図1~図5を参照しながら説明する。本実施形態では、ある物体(ドローン)を画像上で検出しながら追跡し、物体の強制停止を目的として、追跡する物体中のある特定位置にレーザを照射し続けるシステムを考える。
First Embodiment
An image tracking device according to a first embodiment will be described below with reference to Figures 1 to 5. In this embodiment, a system is considered in which an object (drone) is detected on an image while being tracked, and a laser is continuously irradiated at a specific position on the object to be tracked in order to forcibly stop the object.
(画像追跡装置の構成)
図1は、第1の実施形態に係る画像追跡装置の構成を示す図である。
図2は、第1の実施形態に係る画像追跡装置のCPUの機能構成を示す図である。
図1に示すように、検証処理装置1は、CPU10と、メモリ11と、ディスプレイ12と、入力デバイス13と、ストレージ14とを備え、通常のコンピュータとして構成されている。
(Configuration of Image Tracking Device)
FIG. 1 is a diagram showing the configuration of an image tracking device according to the first embodiment.
FIG. 2 is a diagram showing the functional configuration of the CPU of the image tracking device according to the first embodiment.
As shown in FIG. 1, the
メモリ11は、いわゆる主記憶装置であって、CPU10がプログラムに基づいて動作するための命令及びデータが展開される。
The
ディスプレイ12は、情報を視認可能に表示する表示デバイスであって、例えば、液晶ディスプレイや有機ELディスプレイなどであってよい。
The
入力デバイス13は、検証処理装置1の使用者の操作を受け付ける入力デバイスであって、例えば、一般的なマウス、キーボード、タッチセンサなどであってよい。
The
通信インタフェース14は、画像追跡装置1と外部機器との通信接続用のインタフェースである。本実施形態においては、図示しないカメラ(撮影装置)やレーザ照射装置(後述)と通信可能に接続されている。
The
ストレージ15は、いわゆる補助記憶装置であって、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等であってよい。
図2を参照しながら、CPU10の機能について説明する。
CPU10は、検証処理装置1の動作全体の制御を司るプロセッサである。本実施形態に係るCPU10は、図2に示すように、画像取得部100、目標情報記憶部101、形状推定部102、画像追跡部103及び照射点決定部104としての機能を発揮する。
The function of the
The
画像取得部100は、カメラにて撮影された動画像をフレーム(静止画像)ごとに逐次取得する。
The
目標情報記憶部101は、画像取得部100が取得した画像から目標情報を取得し、記憶する。ここで、目標情報とは、画像上に映る目標物の、その画像1枚から計測される見た目上の特徴(位置、サイズ、色、形状など)を示す情報である。
The target
形状推定部102は、画像取得部100が取得した画像から推定形状情報を取得し、記憶する。ここで、推定形状情報とは、画像上に映る目標物の像から推定される当該目標物の立体的形状である。形状推定部102の機能については後述する。
The
画像追跡部103は、目標情報取得部101によって取得された目標情報、および、形状推定部102によって取得された推定形状情報を用いて画像追跡(画像上での物体追跡処理(トラッキング))を行う。
The
照射点決定部104は、目標情報及び推定形状情報を用いて、レーザ照射装置によるレーザ照射点を決定する。
The irradiation
(形状推定部の機能)
図3は、第1の実施形態に係る形状推定部の機能の説明図である。
図3に示すように、形状推定部102の機能は、事前に、多数の学習用画像データGを用いて機械学習を行うことで得られる。ここで、学習用画像データGは、飛来が想定される目標物の立体的形状(図3に示す例では、4枚羽のドローン)を模した形状モデルM(CGモデル)を元に、当該形状モデルMを様々な位置、角度から描画したものとして複数作成される。このように作成された学習用画像データGを用いて学習することで、形状推定部102は、入力された画像から、当該画像に映る目標物の立体的形状(即ち、形状モデルMに相当する立体的形状)を推定することができる。
(Functions of the shape estimation unit)
FIG. 3 is an explanatory diagram of the function of the shape estimation unit according to the first embodiment.
As shown in Fig. 3, the function of the
なお、学習用画像データGは、図3に示す4枚羽のドローンの他、6枚羽のドローンや飛行機型のドローンなど、目標物の種類別に複数用意される。そして、目標物の種類ごとに、その目標物の立体的形状が学習される。 Note that multiple learning image data G are prepared for different types of targets, such as a four-blade drone as shown in FIG. 3, a six-blade drone, and an airplane-type drone. Then, the three-dimensional shape of each type of target is learned.
(画像追跡装置の処理フロー)
図4は、第1の実施形態に係る画像追跡装置の処理フローを示す図である。
図4に示す処理フローは、カメラから次々に入力されるフレームの1枚に対して実行される処理フローであり、各フレームが入力される度に繰り返し実行される。
(Processing flow of the image tracking device)
FIG. 4 is a diagram showing a processing flow of the image tracking device according to the first embodiment.
The processing flow shown in FIG. 4 is executed for each of the frames successively input from the camera, and is repeatedly executed each time a frame is input.
まず、画像取得部100は、カメラから1枚の画像(フレーム)を取得する(ステップS001)。
First, the
次に、目標情報取得部101は、前回取得した画像から目標情報を既に抽出しており、記憶済みか否かを判定する(ステップS002)。
Next, the target
目標情報が記憶されていない場合(ステップS002;NO)、入力された画像に対して新たに目標とすべき物体(ドローン等)が映っているか否かの判定(目標入力判定)を行う(ステップS003)。 If the target information is not stored (step S002; NO), a determination is made as to whether or not a new target object (e.g., a drone) is captured in the input image (target input determination) (step S003).
入力された画像に、新たに目標とすべき物体が映っていない場合(ステップS003;NO)、今回入力された画像に対する処理を終了する。 If the input image does not show a new target object (step S003; NO), processing of the currently input image ends.
一方、入力された画像に、新たに目標とすべき物体が映っていた場合(ステップS003;YES)、その画像から計測される目標物の特徴(位置、サイズ、色、形状など)を取得し、メモリ11等に記憶する(ステップS004)。
On the other hand, if the input image shows a new target object (step S003; YES), the characteristics of the target object measured from the image (position, size, color, shape, etc.) are obtained and stored in
続いて、形状推定部102は、入力された画像からその画像に映っている目標物の立体的形状を推定し、推定形状情報を記憶する(ステップS005)。
Next, the
また、ステップS002の判定処理で、目標情報が既に記憶されていた場合(ステップS002;YES)、既に記憶されている目標情報と推定形状情報とを用いて追跡(トラッキング)を行う(ステップS006)。ここで、画像追跡部103は、従来の物体追跡技術(例えば、目標情報を用いたテンプレートマッチング等)を用いて目標物の追跡を行う。また、画像追跡部103は、画像に映る目標物に対し、推定形状情報に示される立体的形状をフィッティングすることで、目標物の位置、姿勢を取得する。
If the determination process in step S002 finds that the target information has already been stored (step S002; YES), tracking is performed using the already stored target information and estimated shape information (step S006). Here, the
続いて、画像追跡部103は、ステップS006の追跡処理の結果、目標を消失したか否か(つまり、追跡に成功したか否か)を判定する(ステップS007)。
Next, the
ステップS007の追跡処理で目標を消失した場合(ステップS007;YES)、記憶していた目標情報および推定形状情報を削除し(ステップS008)、このフレーム対する処理を終了する。 If the target is lost during the tracking process in step S007 (step S007; YES), the stored target information and estimated shape information are deleted (step S008), and processing for this frame is terminated.
目標を消失しなかった場合(ステップS007;NO)、画像追跡部103は、画像上にマーカ等を表示させて、目標物の位置、姿勢などを出力する(ステップS009)。
If the target has not disappeared (step S007; NO), the
照射点決定部104は、ステップS009で得られた目標物の位置、姿勢に基づいて、目標物に対するレーザ照射点を決定する(ステップS010)。ここで、照射点決定部104は、推定形状情報から、飛来する目標物がどのような形状で、現在どのような姿勢にあるのかを把握することができる。照射点決定部104は、目標物の形状、位置および姿勢を参照して、その目標物へのレーザ照射の効果(ドローンの強制停止)を最も得やすい特定位置(例えば、ドローンの中心位置)を特定し、その特定位置を照射点として決定する。
The irradiation
(作用、効果)
図5は、第1の実施形態に係る画像追跡装置より得られる作用、効果についての説明図である。
以上のとおり、第1の実施形態に係る画像追跡装置1は、特に、入力された画像から目標物の推定形状情報を取得する形状推定部102と、目標情報および推定形状情報を用いて画像追跡を行う画像追跡部103とを有することを特徴とする。
このような特徴を有することで得られる作用、効果について、図5を参照しながら詳しく説明する。
(Action, Effect)
FIG. 5 is an explanatory diagram of the actions and effects obtained by the image tracking device according to the first embodiment.
As described above, the
The actions and effects obtained by having such characteristics will be described in detail with reference to FIG.
図5は、ある時刻で取得されたフレームF1と、その次に取得されたフレームF2とを示している。
フレームF1にはレーザ照射前における目標物の像が映っており、従来の物体追跡技術により目標情報に基づいて追跡できている段階にある。
FIG. 5 shows a frame F1 acquired at a certain time and a frame F2 acquired next thereafter.
Frame F1 shows an image of the target before laser irradiation, and is at a stage where it can be tracked based on target information using conventional object tracking technology.
フレームF1が取得された直後に、目標物に対するレーザ照射がなされたとする。この場合、図5に示すように、次に取得されるフレームF2には、レーザ照射が行われたことに起因して発光および発煙が生じる。 Assume that immediately after frame F1 is acquired, a laser is irradiated onto the target. In this case, as shown in FIG. 5, light is emitted and smoke is generated in the next acquired frame F2 due to the laser irradiation.
ここで、従来の物体追跡技術(例えば、テンプレートマッチング)では、ある画像から抽出した見た目上の特徴(目標情報)をテンプレートとして、次のフレームでの物体追跡を行う。しかし、図5に示す例のように、発光や発煙により目標物の一部に“隠れ”が生じてフレームの前後で見た目が大きく変化した場合、従来の物体追跡技術では目標情報に基づいたマッチングが困難となり目標物を見失ってしまう。したがって、目標情報のみで追跡を行おうとすると、画像上で追跡中の物体に対しレーザ照射を行った瞬間に追跡が途切れてしまい、物体にレーザを照射し続けることができない。 Here, in conventional object tracking technology (e.g., template matching), visual features (target information) extracted from an image are used as a template to track the object in the next frame. However, as in the example shown in Figure 5, if part of the target is "hidden" by emitting light or smoke and its appearance changes significantly between frames, conventional object tracking technology has difficulty matching based on the target information and ends up losing sight of the target. Therefore, if tracking is attempted using only the target information, the moment a laser is irradiated onto the object being tracked in the image, tracking is interrupted, and it is not possible to continue irradiating the object with the laser.
しかし、本実施形態によれば、照射点決定部104は、目標情報に加えて推定形状情報に基づく追跡を行う。即ち、照射点決定部104は、形状推定部102によって得られた推定形状情報(立体的形状)を入力画像にフィッティングすることで、画像上に映された目標物の位置、形状、姿勢などを取得する。この場合、フレームF2のように、画像上で目標物の一部が隠れてしまっている場合であっても、画像追跡部103は、見えている部分を元に、全体として推定形状情報のフィッティングを試行する。これにより、画像追跡部103は、フレームの前後で見た目が大きく変化した場合であっても、追跡を継続することができる。
However, according to this embodiment, the irradiation
このように、本実施形態に係る画像追跡装置1によれば、推定形状情報によるフィッティングに基づいて物体追跡が行われるので、瞬間的な“隠れ”の発生に対し、ロバストな物体追跡を実現することができる。
In this way, the
以上より、物体の一部分の“隠れ”の発生により物体の見た目が大きく変化した場合であっても、画像上での追跡を継続可能となる。 As a result, it is possible to continue tracking an object on the image even if the object's appearance changes significantly due to part of it being "occluded."
これにより、飛来する物体(目標物)に対し、継続的にレーザを照射することができ、より効果的に物体の航行を停止させることができる。 This allows the laser to be continuously aimed at an approaching object (target), more effectively stopping the object's movement.
<第2の実施形態>
以下、第2の実施形態に係る画像追跡装置について、図6を参照しながら説明する。
Second Embodiment
The image tracking device according to the second embodiment will be described below with reference to FIG.
(画像追跡装置の処理フロー)
図6は、第2の実施形態に係る画像追跡装置の処理フローを示す図である。
第2の実施形態に係る画像追跡装置1が実行する処理フローは、第1の実施形態の処理フロー(図4)に対し、ステップS100、S101、S102が追加された点で相違する。以下、当該ステップS100、S101、S102の処理について詳しく説明する。
(Processing flow of the image tracking device)
FIG. 6 is a diagram showing a processing flow of the image tracking device according to the second embodiment.
The process flow executed by the
図6に示すように、第2の実施形態に係る画像追跡装置1は、ステップS002;YESの処理の後、レーザ照射装置によるレーザ照射が行われている最中か否かを判定する(ステップS100)。ここで、画像追跡装置1は、レーザ照射装置から、レーザ照射が現在行われているか否かを示す信号を受信することで、ステップS002の判定を行うものとしてよい。
As shown in FIG. 6, after processing step S002; YES, the
レーザ照射が行われていない場合(ステップS100;NO)、形状推定部102は、新たに入力された画像に対し形状推定処理(ステップS005と同様の処理)を継続する(ステップS101)。
If laser irradiation is not being performed (step S100; NO), the
続いて、画像追跡部103は、目標情報のみに基づいて(つまり、形状推定情報を用いずに、)追跡処理を行う(ステップS102)。
Next, the
一方、レーザ照射が行われている最中の場合(ステップS100;YES)、第1の実施形態と同様に、画像追跡部103は、目標情報と形状推定情報とに基づいて追跡処理を行う(ステップS006)。
On the other hand, if laser irradiation is in progress (step S100; YES), similar to the first embodiment, the
(作用、効果)
以上の処理を換言すると、第2の実施形態に係る画像追跡部103は、目標物へのレーザ照射がなされてない場合には目標情報のみを用いて画像追跡を行い、目標物へのレーザ照射がなされている場合には目標情報および推定形状情報を用いて画像追跡を行う。
(Action, Effect)
In other words, the
レーザ照射がなされていない場合には、前後のフレームで大きな変化が発生しないことが見込まれるため、目標情報のみを用いて従来の物体追跡技術にて追跡処理を行う。これにより、常に目標情報と推定形状情報の両方で追跡処理を行う場合よりも計算負荷を低減することができる。 When laser irradiation is not performed, it is expected that there will be no significant changes between previous and subsequent frames, so tracking processing is performed using conventional object tracking technology using only target information. This reduces the computational load compared to when tracking processing is always performed using both target information and estimated shape information.
なお、第2の実施形態では、レーザ照射中ではない場合(ステップS100;NO)においては、形状推定処理(ステップS101)を繰り返し行うこととしている。このようにすることで、形状推定部102は、複数の入力画像に基づいて形状推定を行うことができるため、形状推定の精度を高めることができる。これにより、ステップS009にて行われるレーザ照射の精度も向上させることができる。
In the second embodiment, when laser irradiation is not in progress (step S100; NO), the shape estimation process (step S101) is repeated. In this manner, the
<変形例>
図7は、第1、第2の実施形態の変形例に係る画像追跡システムの構成を示す図である。
<Modification>
FIG. 7 is a diagram showing the configuration of an image tracking system according to a modified example of the first and second embodiments.
図7に示すように、レーザ照射システム9は、第1、第2の実施形態で説明した画像追跡装置1と、カメラ2(撮影装置)とを含んでなる画像追跡システム9Aと、レーザ照射装置3とを備えている。
カメラ2は、逐次、動画像を構成するフレーム(静止画像)を画像追跡装置1に送信する。
レーザ照射装置3は、画像追跡装置1からレーザ照射点を示す情報を取得し、当該レーザ照射点に向けてレーザを照射する。
As shown in Figure 7, the
The
The
本変形例においては、画像照射システム9Aは、更に、カメラ2がフィルタ20を有し、かつ、イルミネータ4を備えていることを特徴とする。
In this modified example, the
カメラ2のフィルタ20は、光学フィルタであって、所望の周波数帯域の光を減衰させるフィルタである。フィルタ20は、ローパスフィルタ、ハイパスフィルタ、バンドパスフィルタ、NDフィルタ等であってよい。これにより、フィルタ20を通した画像入力により、レーザ照射により生じる目標物の発光を低減するとともに、その発光による目標物の隠れ量を減らすことができる。
本変形例において、フィルタ20は、後述のイルミネータ4が放射する光を透過可能に構成されているのが好ましい。
The
In this modified example, the
また、イルミネータ4は、カメラ2の側から目標物に向けて光を放射するものである。ここで、このイルミネータ4が放射する光の周波数を、目標物がよく反射する帯域のものとすることで、フィルタ20を通したカメラ2で目標物を一層はっきりと認識することができる。なお、イルミネータ4は、白色光を照射するものであってもよい。
The
なお、上述の変形例においては、画像追跡システム9Aは、カメラ2に取り付けられたフィルタ20と、イルミネータ4との両方を有するものとして説明したが、他の実施形態においてはこの態様に限定されない。
即ち、他の実施形態に係る画像追跡システム9Aは、フィルタ20と、イルミネータ4とのいずれか一方のみを有する態様とされてもよい。
In the above-described modified example, the
That is, the
上述の実施形態においては、画像追跡装置1の各種処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。また、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
In the above-described embodiment, the various processing steps of the
上記プログラムは、上述した機能の一部を実現するためのものであってもよい。更に、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The above program may be for realizing some of the functions described above. Furthermore, it may be a so-called differential file (differential program) that can realize the functions described above in combination with a program already recorded in the computer system.
以上のとおり、本開示に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態及びその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As described above, several embodiments of the present disclosure have been described, but all of these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope of the invention and its equivalents as described in the claims, as well as in the scope and gist of the invention.
<付記>
各実施形態に記載の検証装置、検証処理方法およびプログラムは、例えば以下のように把握される。
<Additional Notes>
The verification device, the verification processing method, and the program described in each embodiment can be understood, for example, as follows.
(1)第1の態様において、画像追跡装置1は、撮影装置(カメラ)から逐次画像を取得する画像取得部100と、画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶する目標情報記憶部101と、画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得する形状推定部102と、目標情報および推定形状情報を用いて画像追跡を行う画像追跡部103と、を備える。
(1) In a first aspect, the
(2)第2の態様において、(1)に記載の画像追跡部103は、目標物へのレーザ照射がなされてない場合に、目標情報のみを用いて画像追跡を行い、目標物へのレーザ照射がなされている場合に、目標情報および前記推定形状情報を用いて画像追跡を行う。
(2) In the second aspect, the
(3)第3の態様において、(1)または(2)に記載の画像追跡装置1は、目標情報および推定形状情報を用いてレーザ照射点を決定するレーザ照射点決定部104をさらに備える。
(3) In a third aspect, the
(4)第4の態様において、画像追跡システム9Aは、(1)から(3)のいずれかに記載の画像追跡装置1と、撮影装置2と、を備え、撮影装置2は、フィルタ20を備える。
(4) In a fourth aspect, the
(5)第5の態様において、画像追跡システム9は、(1)から(3)のいずれかに記載の画像追跡装置1と、撮影装置2と、イルミネータ4と、を備える。
(5) In a fifth aspect, the
(6)第6の態様において、画像追跡方法は、撮影装置から逐次画像を取得するステップと、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、を有する。 (6) In a sixth aspect, the image tracking method includes the steps of: sequentially acquiring images from a photographing device; extracting a target object shown in the image and storing target information indicating the characteristics of the target object in the image; estimating a three-dimensional shape of the target object from the target object shown in the image and acquiring estimated shape information indicating the three-dimensional shape; and performing image tracking using the target information and the estimated shape information.
(7)第7の態様において、プログラムは、コンピュータに、撮影装置から逐次画像を取得するステップと、前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、を実行させる。 (7) In the seventh aspect, the program causes a computer to execute the steps of sequentially acquiring images from a photographing device, extracting a target object shown in the image and storing target information indicating the characteristics of the target object in the image, estimating a three-dimensional shape of the target object from the target object shown in the image and acquiring estimated shape information indicating the three-dimensional shape, and performing image tracking using the target information and the estimated shape information.
1 画像追跡装置
10 CPU
11 メモリ
12 ディスプレイ
13 入力デバイス
14 ストレージ
100 画像取得部
101 目標情報記憶部
102 形状推定部
103 画像追跡部
104 照射点決定部
2 カメラ
20 フィルタ
3 レーザ照射装置
4 イルミネータ
9A 画像追跡システム
9 レーザ照射システム
1
11
Claims (6)
前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶する目標情報記憶部と、
前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得する形状推定部と、
前記目標情報および前記推定形状情報を用いて画像追跡を行う画像追跡部と、
を備え、
前記画像追跡部は、前記目標物へのレーザ照射がなされてない場合に、前記目標情報のみを用いて画像追跡を行い、前記目標物へのレーザ照射がなされている場合に、前記目標情報および前記推定形状情報を用いて画像追跡を行う、
画像追跡装置。 an image acquisition unit that sequentially acquires images from an imaging device;
a target information storage unit that extracts a target object shown on the image and stores target information indicating characteristics of the target object on the image;
a shape estimation unit that estimates a three-dimensional shape of a target object from the target object shown on the image and acquires estimated shape information indicating the three-dimensional shape;
an image tracking unit that performs image tracking using the target information and the estimated shape information;
Equipped with
the image tracking unit performs image tracking using only the target information when the target is not irradiated with a laser, and performs image tracking using the target information and the estimated shape information when the target is irradiated with a laser.
Image tracking device.
請求項1に記載の画像追跡装置。 A laser irradiation point determination unit that determines a laser irradiation point using the target information and the estimated shape information,
The image tracking device of claim 1 .
前記撮影装置と、を備え、
前記撮影装置は、フィルタを備える、
画像追跡システム。 An image tracking device according to claim 1 or 2 ;
The imaging device,
The imaging device includes a filter.
Image tracking system.
前記撮影装置と、
イルミネータと、
を備える画像追跡システム。 An image tracking device according to claim 1 or 2 ;
The imaging device;
The illuminator and
An image tracking system comprising:
前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、
前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、
前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、
を有し、
前記画像追跡を行うステップにおいて、前記目標物へのレーザ照射がなされてない場合に、前記目標情報のみを用いて画像追跡を行い、前記目標物へのレーザ照射がなされている場合に、前記目標情報および前記推定形状情報を用いて画像追跡を行う、
画像追跡方法。 acquiring sequential images from an imaging device;
A step of extracting a target object shown on the image and storing target information indicating characteristics of the target object on the image;
a step of estimating a three-dimensional shape of a target object from the target object shown on the image and acquiring estimated shape information indicating the three-dimensional shape;
performing image tracking using the target information and the estimated shape information;
having
in the step of performing image tracking, when the target is not irradiated with a laser, image tracking is performed using only the target information, and when the target is irradiated with a laser, image tracking is performed using the target information and the estimated shape information.
Image tracking methods.
撮影装置から逐次画像を取得するステップと、
前記画像上に映る目標物を抽出し、当該目標物の画像上での特徴を示す目標情報を記憶するステップと、
前記画像上に映る目標物から当該目標物の立体的形状を推定し、当該立体的形状を示す推定形状情報を取得するステップと、
前記目標情報および前記推定形状情報を用いて画像追跡を行うステップと、
を実行させるプログラムであって、
前記画像追跡を行うステップにおいて、前記目標物へのレーザ照射がなされてない場合に、前記目標情報のみを用いて画像追跡を行い、前記目標物へのレーザ照射がなされている場合に、前記目標情報および前記推定形状情報を用いて画像追跡を行う、
プログラム。 On the computer,
acquiring sequential images from an imaging device;
A step of extracting a target object shown on the image and storing target information indicating characteristics of the target object on the image;
a step of estimating a three-dimensional shape of a target object from the target object shown on the image and acquiring estimated shape information indicating the three-dimensional shape;
performing image tracking using the target information and the estimated shape information;
A program for executing
in the step of performing image tracking, when the target is not irradiated with a laser, image tracking is performed using only the target information, and when the target is irradiated with a laser, image tracking is performed using the target information and the estimated shape information.
program .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020150070A JP7474662B2 (en) | 2020-09-07 | 2020-09-07 | Image tracking device, image tracking system, image tracking method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020150070A JP7474662B2 (en) | 2020-09-07 | 2020-09-07 | Image tracking device, image tracking system, image tracking method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022044445A JP2022044445A (en) | 2022-03-17 |
JP7474662B2 true JP7474662B2 (en) | 2024-04-25 |
Family
ID=80679125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020150070A Active JP7474662B2 (en) | 2020-09-07 | 2020-09-07 | Image tracking device, image tracking system, image tracking method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7474662B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348186A (en) | 1999-06-03 | 2000-12-15 | Fujitsu Ltd | Device and method for object tracking |
JP2018106282A (en) | 2016-12-22 | 2018-07-05 | セコム株式会社 | Object detection device |
-
2020
- 2020-09-07 JP JP2020150070A patent/JP7474662B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348186A (en) | 1999-06-03 | 2000-12-15 | Fujitsu Ltd | Device and method for object tracking |
JP2018106282A (en) | 2016-12-22 | 2018-07-05 | セコム株式会社 | Object detection device |
Also Published As
Publication number | Publication date |
---|---|
JP2022044445A (en) | 2022-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10210382B2 (en) | Human body pose estimation | |
US8660310B2 (en) | Systems and methods for tracking a model | |
US9824260B2 (en) | Depth image processing | |
CN103608844B (en) | The full-automatic model calibration that dynamically joint connects | |
JP6448223B2 (en) | Image recognition system, image recognition apparatus, image recognition method, and computer program | |
US9361730B2 (en) | Interactions of tangible and augmented reality objects | |
JP6001562B2 (en) | Use of 3D environmental models in game play | |
JP4991595B2 (en) | Tracking system using particle filter | |
US20150038230A1 (en) | Visual based identity tracking | |
US8638985B2 (en) | Human body pose estimation | |
CN109891189B (en) | Planned photogrammetry | |
US8428306B2 (en) | Information processor and information processing method for performing process adapted to user motion | |
WO2009091029A1 (en) | Face posture estimating device, face posture estimating method, and face posture estimating program | |
JP2010176380A (en) | Information processing device and method, program, and recording medium | |
US20100303302A1 (en) | Systems And Methods For Estimating An Occluded Body Part | |
JP2012113622A (en) | Image processing apparatus, method, and program | |
JP6850751B2 (en) | Object tracking device, object tracking method, and computer program | |
KR102443551B1 (en) | Point cloud fusion method, apparatus, electronic device and computer storage medium | |
JP2015079502A (en) | Object tracking method, object tracking device, and tracking feature selection method | |
US11823394B2 (en) | Information processing apparatus and method for aligning captured image and object | |
JP7474662B2 (en) | Image tracking device, image tracking system, image tracking method and program | |
EP3209398B1 (en) | Silhouette-based limb finding | |
US11054903B2 (en) | Method, eyetracker and computer program for determining eye positions in digital image data | |
JP5111321B2 (en) | 瞼 Likelihood calculation device and program | |
JP4559375B2 (en) | Object position tracking method, apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240415 |