JP2008107857A - 動体認識方法及び動体認識装置 - Google Patents
動体認識方法及び動体認識装置 Download PDFInfo
- Publication number
- JP2008107857A JP2008107857A JP2005176987A JP2005176987A JP2008107857A JP 2008107857 A JP2008107857 A JP 2008107857A JP 2005176987 A JP2005176987 A JP 2005176987A JP 2005176987 A JP2005176987 A JP 2005176987A JP 2008107857 A JP2008107857 A JP 2008107857A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- images
- matching
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】 所定の時間間隔で連続して撮影された連続画像を取り込むステップと、3枚の連続画像に遠景背景をモデルとしてテンプレートマッチング処理を行うステップと、テンプレートマッチング処理により得られたモデルの移動量や回転角度をフィードバックさせて3枚の連続画像の位置合わせを行うステップと、1枚目と2枚目、及び2枚目と3枚目の画像の組み合わせによりフレーム間差分処理を行い、得られた2つの差分画像の論理和を取り、動体を検出するステップと、検出された移動体に対してラベリング処理を行って、移動体個々を個別に認識するステップとからなる。
【選択図】図1
Description
(1)観測カメラの動揺:観測カメラは船舶へ搭載されるため船体運動により上下・左右方向移動と回転・傾きなど、常に動揺条件にある。
(2)背景の変動:背景画像の大半を占めるものは海水面であり、波による変動が常に存在する。また太陽光反射による雑音条件を持つ。
従って海上観測画像を使った動体抽出・認識処理の実現のためには、これらの障害条件を充分に考慮した処理システムの構築が重要な要件となる。
時系列連続画像である動画映像に対する動体抽出技術としては、フレーム間差分を利用した動体抽出技術は最も基本的な手法(非特許文献4、非特許文献5)であり、アルゴリズムとして計算負荷が軽いため、リアルタイム処理を指向する場合に有効な手段となるものである。概念的に言うならば、差分画像d(x,y)とは、2枚の連続画像f(x,y)とg(x,y)の差分によって得られるものであり、基本的には次式によって定義される。
(1)対象動体の無い背景画像をベース画像として保持し、それに対して侵入物のある最新画像を差分処理する。
(2)2枚、あるいは3枚の連続画像を使ってフレーム間差分を実行する。
(1)、(2)いずれにしても計算手順は単純であることから、リアルタイム処理を指向する場合に使い勝手が良い手法である。
フレーム間差分を利用した動体抽出は、対象画像内で移動した部分を認識するが、どの部分がどの方向にどのような速度で移動しているかを直接求めるものではない。
オプティカルフローを求める代表的な方法としては、勾配法やブロックマッチングによるフレーム間での対応点決定などがある。例えば勾配法は、対応点の明るさは移動後も変化しないとする仮定を基にして、時空間微分とオプティカルフローとの関係を導き出して対応点の動きを推定するものである。すなわち時刻tにおけるフレーム内で位置(x,y)を持つ画素の明るさをf(x,y,t)とするならば、微少時間dtの過ぎた移動後も明るさが変化しないとして、数2の式が成立する関係を持つ。
f(x,y,t)=f(x+dx,y+dy,t+dt)
動体抽出技術として、これらの手法は最も基本的で広く認知されているが、リアルタイム処理を指向する観点からはフレーム間差分手法が適している。
また、その動体認識方法を実施するための装置は、所定の時間間隔で撮影された連続する3フレームの画像を取り込む入力手段と、取り込まれた2枚目のフレームの画像It内の遠景背景部分の一部領域をマッチングモデルとして記録するマッチングモデル設定手段と、時点t-1の1枚目のフレームの画像It-1に前記マッチングモデルを用いてテンプレート・マッチング処理を実行し、マッチングがとれた際のマッチングモデル位置及び回転角度Pxt-1、Pyt-1、Rt-1から、2枚目のフレームの画像It内の前記マッチングモデルの位置及び回転角度Pxt、Pyt、Rtに対する偏差ΔPxt-1、ΔPyt-1、ΔRt-1を求めると共に、時点t+1の3枚目のフレームの画像に前記マッチングモデルを用いてテンプレート・マッチング処理を実行し、マッチングがとれた際のマッチングモデル位置及び回転角度Pxt+1、Pyt+1、Rt+1から、2枚目のフレームの画像It内の前記マッチングモデルの位置及び回転角度Pxt、Pyt、Rtに対する偏差ΔPxt+1、ΔPyt+1、ΔRt+1を求めるテンプレート・マッチング処理手段と、前記偏差ΔPxt-1、ΔPyt-1、ΔRt-1を用いて前記1枚目のフレームの画像It-1に2次元アフィン変換を施し、記録すると共に、前記偏差ΔPxt+1、ΔPyt+1、ΔRt+1を用いて前記3枚目のフレームの画像It+1に2次元アフィン変換を施し、記録する位置合わせ手段と、2枚目のフレームの画像Itと前記2次元アフィン変換を施された1枚目のフレームの画像I’t-1を対象としてフレーム間差分処理を施すと共に、2枚目のフレームの画像Itと前記2次元アフィン変換を施された3枚目のフレームの画像I’t+1を対象としてフレーム間差分処理を施すフレーム間差分処理手段と、前記2つのフレーム間差分処理により得られた2つの差分画像の論理和を取り、動体の形状を抽出する動体抽出手段と、前記抽出された動体にラベリング処理を施して動体個々を個別に識別する認識手段とを有する。
即ち、従来、船体運動による画像の動揺や海面反射による雑音、不確定な対象物の形状など様々な要素に起因して、フレーム間差分手法を適用することができず、リアルタイムの処理が達成されていなかったが、本発明によりリアルタイムの処理が可能となった。
(ステップ1:連続画像の取り込み)
動揺を伴う海上の船舶に搭載した観測カメラにより所定時間間隔Δt(500msec)で海上を撮影し、時間t-1,t,t+1の画像の取り込みを行う。昼間観測には可視カラービデオ映像を取り込み、夜間観測には赤外線ビデオ映像を取り込む。カラーはRGBの3バンドとし、赤外はモノクロ1バンドとする。
時間t-1,t,t+1の3枚の連続画像の位置合わせを行う。遠景背景をモデルとしてテンプレート・マッチングの処理を行い、得られたモデルの移動量や回転角度をフィードバックさせて3枚の画像の位置合わせを行う。遠景背景とは遠方に存在する人工物、自然物、雲などを意味し、移動体(動体)に比べて動きの少ない静止していると見なせる領域であるので、3枚の画像の位置合わせに利用できる。詳細な手順は、図3により後で説明する。カラー画像の場合は、RGB分解による検定を行って、最も整合の良いバンドを採用する。
連続画像の1枚目と2枚目、及び2枚目と3枚目の画像の組み合わせによりフレーム間差分処理により、変動量を持つ画素を得る。フレーム間差分処理は一般的な手法であるが、その詳細手順は図11により後で説明する。
更に、2つの差分画像の論理和を取ることによって、動体の形状を検出する。小さな雑音やレベルの低い雑音要素は平滑化と閾値処理により除去する。
検出された動体個々をラベリング処理により個別に認識する。雑音処理として近傍の小さな認識動体は除去する。また、以前の処理によってラベル付けされた動体との同定を行って,動体個々の認証、位置、方位、移動量を認識する。
ステップ1〜4の動体の認識処理を連続的に行うためステップ1へ戻る。
前記図1のステップ1及びステップ2の処理について、詳細に説明する。前述したようにフレーム間差分処理によってリアルタイムでの航行他船の認識を実行する前に、観測用のカメラを搭載した船舶の揺動による影響を除去するために画像フレーム相互間の幾何補正をしておく必要がある。
本実施例においては、遠景背景をモデルとしたテンプレート・マッチングによる画像動揺の評価と2次元アフィン変換による位置合わせ幾何補正のリアルタイム処理実施の手法を採用した。
マッチングに供するバンド選択の検証を目的として実施したマッチング処理とその結果を図6及び図7に示した。空間上に3ヶ所(左右、中央)の検証用のマッチングモデルを設定し、図6の観測時点より5秒後の観測画像に対して、3つのモデル毎にRGBそれぞれのバンドに対してのマッチング処理を実行した結果が図7である。ここでXY方向の変位量や回転角度に注目するならば、時間経過に対するモデル領域の移動量が画素レベルで充分に評価されており、マッチング結果を手掛かりとした動揺補正が、曇天空間に対するモデル領域設定でも有効であることが明らかである。また、図7に示したマッチング確率からも高い確度でマッチングが実現されており、空間上に設置したモデルの変動を手かがりとして画面全体の動揺状態を推定することが充分に可能である。
バンドの選択としては、図5及び図7の状況、特にマッチング確率から、この場合ではRバンドによる単バンド画像をマッチングモデル画像として採用することが有効である。マッチング対象画像としては、他のGバンドやBバンドによる単バンド画像、あるいはバンド間演算画像の採用も考えられるが、大気透過特性やリアルタイム処理を指向する視点から、単バンドの選択が優先される。
そして、本実施例では、RGBのバンド毎にマッチング確率を求め、最も高いマッチング確率を持つ色バンドの画像をマッチング対象画像とする。
(ステップ1-1)
ステップ1ではビデオ映像から時点t-1におけるカラー画像It-1を取り込む。そのカラー画像からR(red)、G(green)、B(blue)の色分解処理を施して赤Rのモノクロ画像Irt-1、緑Gのモノクロ画像Igt-1、及び青Bのモノクロ画像Ibt-1を得て、メモリに記録する。なお、図8はカラー画像のRGB分解の例を示す図である。
ステップ2-1ではビデオ映像から時点tにおけるカラー画像(It)を取り込む。そのカラー画像からR、G、Bの色分解処理を施して赤Rのモノクロ画像Irt、緑Gのモノクロ画像Igt、及び青Bのモノクロ画像Ibtを得て、メモリに記録する。
RGBの分解画像のそれぞれに遠景背景部分に当たる部分領域を初期設定し、RGB各バンドのマッチングモデルMrt、Mgt、Mbtを生成し、記録する。マッチングモデルの位置はPxt、Pyt、回転角度Rtは0となるよう設定する。
ステップ1-1で記録されたTime=t-1のRGB分解された画像Irt-1、Igt-1、Ibt-1のそれぞれに、マッチングモデルMrt、Mgt、Mbtでテンプレート・マッチングを実行する。テンプレート・マッチング処理の結果として得られる情報は、図7に示した上下左右方向の移動量(※1、※2)と回転角(※3)である。
同時に、各バンドのマッチング率Prt-1、Pgt-1、Pbt-1をも計算し、最もマッチング率の良いバンドを選択する。選択した最もマッチング率の良いバンドの画像を以降の処理対象に決定する。仮にPrt-1が最もマッチング率が良かった場合には、Rバンドの画像を以降の処理対象に決定する。以下の説明では、Rバンドの画像を以降の処理対象に決定した場合についての処理を例示している。
なお、マッチング確率とは、マッチング処理実行の段階で行われる相関計算から得られる類似度のスコアを0〜1の指標値とした値である。
マッチング確率Prt-1の計算で求められた画像Irt-1におけるRバンドのマッチングモデルMrtのxy位置Pxt-1、Pyt-1と回転角度Rt-1から、位置Pxt-1、Pyt-1に対する偏差ΔPxt-1、ΔPyt-1、ΔRt-1を求め、これらの偏差を用いて画像Irt-1に2次元アフィン変換を施して、幾何補正を施した画像I’rt-1を得る。これをメモリに記録しておく。
ステップ3-1ではビデオ映像から時点t+1におけるカラー画像(It+1)を取り込む。そのカラー画像からR、G、Bの色分解処理を施して赤Rのモノクロ画像Irt+1、緑Gのモノクロ画像Igt+1、及び青Bのモノクロ画像Ibt+1を得て、メモリに記録する。
R画像Irt+1に対してマッチングモデルMrtによるテンプレート・マッチング処理を実行する。画像Irt+1におけるRバンドのマッチングモデルMrtのxy位置Pxt+1、Pyt+1と回転角度Rt+1から、位置Pxt+1、Pyt+1に対する偏差ΔPxt+1、ΔPyt+1、ΔRt+1を求め、これらの偏差を用いて画像Irt+1に2次元アフィン変換を施して、幾何補正を施した画像I’rt+1を得る。これはメモリに記録しておく。
幾何補正により位置合わせ処理済みの連続画像I’rt-1、Irt、I’rt+1を対象としてフレーム間差分処理を実行し、動体抽出処理を行う。
図10は、本実施例に採用した3フレーム画像による動体抽出手法のアルゴリズムの概念を示すものである。すなわち時間間隔△tをもって連続観測された画像から1枚目の画像It-1と2枚目の画像Itによる差分画像dl2を計算する。更に2枚目の画像Itと3枚目の画像It+1による差分画像d23の計算を実施する。
図11は幾何補正、位置合わせをした1枚目と2枚目のフレーム間差分処理の実行結果の一例を示すものであり、差分画素として変動画素が抽出される。
図14は、動体抽出・認識が実現されたマスク画像の一例を示すものであり、雑音要素となる海上波の反射の除去も達成されたものである。しかし雑音除去の効果は充分でなく、画像右下に未だ小さな輝点を残した状況が見られる。動体抽出のアルゴリズムとして、残されたこのような輝点は探索目標である航行船舶と同等の認識となるが、動体の個別認識を実行しているラベリング処理の段階で、距離(画角位置)と大きさによって目標物から除外される処理が機能する。
遠景背景を手掛かりとしたマッチング処理において、モデル画像の管理は動的に処理されており、常に最新の画像との入れ替えが行われるため、船体運動によるカメラの動揺によって制限を受けることはない。また初期起動時やフレ一ムアウトなどによりモデルが喪失したような場合には、デフォルト設定による新規モデルの自動生成が実行されるものとなっている。
具体的に説明すると、ラベリング処理は動体抽出の結果で得られる動体の反射反応個々に固有の番号などを与えて、それぞれを個別のものとして区別する処理である。
12…マッチングモデル設定手段
13…テンプレート・マッチング処理手段
14…位置合わせ手段(2次元アフィン変換手段)
15…フレーム間差分処理手段
16…動体抽出手段
17…動体認識手段
18…出力手段
Claims (7)
- 所定の時間間隔で連続して撮影された連続画像を取り込むステップと、
3枚の連続画像に遠景背景をモデルとしてテンプレート・マッチング処理を行うステップと、
テンプレート・マッチング処理により得られたモデルの移動量や回転角度をフィードバックさせて3枚の連続画像の位置合わせを行うステップと、
1枚目と2枚目、及び2枚目と3枚目の画像の組み合わせによりフレーム間差分処理を行い、得られた2つの差分画像の論理和を取り、動体を検出するステップと、
検出された動体に対してラベリング処理を行って、動体個々を個別に認識するステップと
を備えたことを特徴とする動体認識方法。 - 所定の時間間隔で撮影された連続する3フレームの画像を取り込むステップと、
取り込まれた2枚目のフレームの画像It内の遠景背景部分の一部領域をマッチングモデルとして記録するステップと、
時点t-1の1枚目のフレームの画像It-1に前記マッチングモデルを用いてテンプレート・マッチング処理を実行し、マッチングがとれた際のマッチングモデル位置及び回転角度Pxt-1、Pyt-1、Rt-1から、2枚目のフレームの画像It内の前記マッチングモデルの位置及び回転角度Pxt、Pyt、Rtに対する偏差ΔPxt-1、ΔPyt-1、ΔRt-1を求めるステップと、
前記偏差ΔPxt-1、ΔPyt-1、ΔRt-1を用いて前記1枚目のフレームの画像It-1に2次元アフィン変換を施し、記録するステップと、
時点t+1の3枚目のフレームの画像に前記マッチングモデルを用いてテンプレート・マッチング処理を実行し、マッチングがとれた際のマッチングモデル位置及び回転角度Pxt+1、Pyt+1、Rt+1から、2枚目のフレームの画像It内の前記マッチングモデルの位置及び回転角度Pxt、Pyt、Rtに対する偏差ΔPxt+1、ΔPyt+1、ΔRt+1を求めるステップと、
前記偏差ΔPxt+1、ΔPyt+1、ΔRt+1を用いて前記3枚目のフレームの画像It+1に2次元アフィン変換を施し、記録するステップと、
2枚目のフレームの画像Itと前記2次元アフィン変換を施された1枚目のフレームの画像I’t-1を対象としてフレーム間差分処理を施すステップと、
2枚目のフレームの画像Itと前記2次元アフィン変換を施された3枚目のフレームの画像I’t+1を対象としてフレーム間差分処理を施すステップと、
前記2つのフレーム間差分処理により得られた2つの差分画像の論理和を取り、動体の形状を検出するステップと、
前記検出された動体にラベリング処理を施して動体個々を個別に識別するステップと
を有することを特徴とする動体認識方法。 - 請求項1又は請求項2記載の動体認識方法において、
前記所定の時間間隔で撮影された複数フレームの画像はカラー画像であり、
各画像はRGBの色バンドに分解され、
前記テンプレート・マッチング処理は、RGB3色の各色バンド毎に実行し、
前記テンプレート・マッチング処理で得られたマッチング率の最も高い色バンドの画像を以後のアフィン変換処理、フレーム間差分処理の処理対象として決定する
ことを特徴とする動体認識方法。 - 前記所定の時間間隔で撮影された複数フレームの画像は赤外線映像であることを特徴とする請求項2記載の動体認識方法。
- 前記差分画像の論理和を取った画像に対して、ノイズを除去するためのフィルタリング処理を施すことを特徴とする請求項3記載の動体認識方法。
- 所定の時間間隔で連続して撮影された連続画像を取り込む手段と、
3枚の連続画像に遠景背景をモデルとしてテンプレート・マッチング処理を行う手段と、
テンプレート・マッチング処理により得られたモデルの移動量や回転角度をフィードバックさせて3枚の連続画像の位置合わせを行う手段と、
1枚目と2枚目、及び2枚目と3枚目の画像の組み合わせによりフレーム間差分処理を行い、得られた2つの差分画像の論理和を取り、動体を検出する手段と、
検出された動体に対してラベリング処理を行って、動体個々を個別に認識する手段と
を備えたことを特徴とする動体認識装置。 - 所定の時間間隔で撮影された連続する3フレームの画像を取り込む入力手段と、
取り込まれた2枚目のフレームの画像It内の遠景背景部分の一部領域をマッチングモデルとして記録するマッチングモデル設定手段と、
時点t-1の1枚目のフレームの画像It-1に前記マッチングモデルを用いてテンプレート・マッチング処理を実行し、マッチングがとれた際のマッチングモデル位置及び回転角度Pxt-1、Pyt-1、Rt-1から、2枚目のフレームの画像It内の前記マッチングモデルの位置及び回転角度Pxt、Pyt、Rtに対する偏差ΔPxt-1、ΔPyt-1、ΔRt-1を求めると共に、時点t+1の3枚目のフレームの画像に前記マッチングモデルを用いてテンプレート・マッチング処理を実行し、マッチングがとれた際のマッチングモデル位置及び回転角度Pxt+1、Pyt+1、Rt+1から、2枚目のフレームの画像It内の前記マッチングモデルの位置及び回転角度Pxt、Pyt、Rtに対する偏差ΔPxt+1、ΔPyt+1、ΔRt+1を求めるテンプレート・マッチング処理手段と、
前記偏差ΔPxt-1、ΔPyt-1、ΔRt-1を用いて前記1枚目のフレームの画像It-1に2次元アフィン変換を施し、記録すると共に、前記偏差ΔPxt+1、ΔPyt+1、ΔRt+1を用いて前記3枚目のフレームの画像It+1に2次元アフィン変換を施し、記録する位置合わせ手段と、
2枚目のフレームの画像Itと前記2次元アフィン変換を施された1枚目のフレームの画像I’t-1を対象としてフレーム間差分処理を施すと共に、2枚目のフレームの画像Itと前記2次元アフィン変換を施された3枚目のフレームの画像I’t+1を対象としてフレーム間差分処理を施すフレーム間差分処理手段と、
前記2つのフレーム間差分処理により得られた2つの差分画像の論理和を取り、動体の形状を抽出する動体抽出手段と、
前記抽出された動体にラベリング処理を施して動体個々を個別に識別する認識手段と
を有することを特徴とする動体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005176987A JP4686773B2 (ja) | 2005-06-16 | 2005-06-16 | 動体認識方法および動体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005176987A JP4686773B2 (ja) | 2005-06-16 | 2005-06-16 | 動体認識方法および動体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008107857A true JP2008107857A (ja) | 2008-05-08 |
JP4686773B2 JP4686773B2 (ja) | 2011-05-25 |
Family
ID=39441191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005176987A Expired - Fee Related JP4686773B2 (ja) | 2005-06-16 | 2005-06-16 | 動体認識方法および動体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4686773B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102682450A (zh) * | 2012-04-25 | 2012-09-19 | 北京航空航天大学 | 一种高光谱图像Keystone效应自动检测方法 |
JP2019527404A (ja) * | 2016-06-30 | 2019-09-26 | ユニバーシティー オブ ソウル インダストリー コーポレーション ファンデーション | 衛星映像を用いた油流出探知装置及び方法 |
CN116704372A (zh) * | 2023-06-21 | 2023-09-05 | 中国科学院空天信息创新研究院 | 船舶精细化识别方法及装置 |
CN116883913A (zh) * | 2023-09-05 | 2023-10-13 | 长江信达软件技术(武汉)有限责任公司 | 一种基于视频流相邻帧的船只识别方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03502018A (ja) * | 1988-08-08 | 1991-05-09 | ヒユーズ・エアクラフト・カンパニー | 散乱物が存在する背景内にある目標物を自動獲得するための装置及び方法 |
-
2005
- 2005-06-16 JP JP2005176987A patent/JP4686773B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03502018A (ja) * | 1988-08-08 | 1991-05-09 | ヒユーズ・エアクラフト・カンパニー | 散乱物が存在する背景内にある目標物を自動獲得するための装置及び方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102682450A (zh) * | 2012-04-25 | 2012-09-19 | 北京航空航天大学 | 一种高光谱图像Keystone效应自动检测方法 |
JP2019527404A (ja) * | 2016-06-30 | 2019-09-26 | ユニバーシティー オブ ソウル インダストリー コーポレーション ファンデーション | 衛星映像を用いた油流出探知装置及び方法 |
CN116704372A (zh) * | 2023-06-21 | 2023-09-05 | 中国科学院空天信息创新研究院 | 船舶精细化识别方法及装置 |
CN116883913A (zh) * | 2023-09-05 | 2023-10-13 | 长江信达软件技术(武汉)有限责任公司 | 一种基于视频流相邻帧的船只识别方法及系统 |
CN116883913B (zh) * | 2023-09-05 | 2023-11-21 | 长江信达软件技术(武汉)有限责任公司 | 一种基于视频流相邻帧的船只识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP4686773B2 (ja) | 2011-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11410002B2 (en) | Ship identity recognition method based on fusion of AIS data and video data | |
Aghaei et al. | PV power plant inspection by image mosaicing techniques for IR real-time images | |
US20170294027A1 (en) | Remote determination of quantity stored in containers in geographical region | |
KR101589814B1 (ko) | 연안에서의 객체 인식 장치 및 그 방법 | |
US9031285B2 (en) | Detection of floating objects in maritime video using a mobile camera | |
KR101200974B1 (ko) | 영상 표적 추출 시스템, 장치 및 방법 | |
CN109146833A (zh) | 一种视频图像的拼接方法、装置、终端设备及存储介质 | |
Zhang et al. | Robust visual odometry in underwater environment | |
CN106530313A (zh) | 一种基于区域分割的海天线实时检测方法 | |
KR20140133713A (ko) | 객체 인식 장치 및 그 방법 | |
CN109063669B (zh) | 一种基于图像识别的桥区船舶航行态势分析方法及装置 | |
Petraglia et al. | Pipeline tracking and event classification for an automatic inspection vision system | |
CN115346155A (zh) | 一种面向视觉特征非连续性干扰的船舶图像航迹提取方法 | |
JP4686773B2 (ja) | 動体認識方法および動体認識装置 | |
CN111105390B (zh) | 一种改进的海天线检测和评估方法 | |
Mou et al. | Image-based maritime obstacle detection using global sparsity potentials | |
JP2008269218A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN110706251B (zh) | 一种行人跨镜头跟踪方法 | |
CN106991682B (zh) | 自动港口货船的提取方法及装置 | |
CN104104911A (zh) | 全景图像生成过程中的时间戳消除和重置方法及系统 | |
JP6831396B2 (ja) | 映像監視装置 | |
CN114972140B (zh) | 一种基于目标分割的海面红外和可见光图像融合方法 | |
CN114332682B (zh) | 一种海上全景去雾目标识别方法 | |
CN115082811A (zh) | 一种依据图像数据的海上航行船舶识别与距离测量的方法 | |
CN111583341B (zh) | 云台像机移位检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101220 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20101220 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20101220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110127 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140225 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |