JP2019145174A - 画像処理システム、画像処理方法及びプログラム記憶媒体 - Google Patents
画像処理システム、画像処理方法及びプログラム記憶媒体 Download PDFInfo
- Publication number
- JP2019145174A JP2019145174A JP2019105217A JP2019105217A JP2019145174A JP 2019145174 A JP2019145174 A JP 2019145174A JP 2019105217 A JP2019105217 A JP 2019105217A JP 2019105217 A JP2019105217 A JP 2019105217A JP 2019145174 A JP2019145174 A JP 2019145174A
- Authority
- JP
- Japan
- Prior art keywords
- background model
- image
- input
- moving object
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
(1.1 概要)
図1乃至図7は、実施形態を説明するための図である。以下、これらの図を参照しながら説明する。
f(x)に含まれるパラメータaは、上記の場合と同様に、15種類のフィルタで得られる画像の画素毎に定められるパラメータであり、上記教師付き学習により決定される。生成された1画素×1画素×15枚の画像は、ニューラルネットワークのノードに相当する。
以下、図4及び図5を用いて、本実施形態に係る画像処理システムのシステム構成を説明する。図4は移動体検出のための移動体検出モデル(パラメータ)の生成に係る学習を行う画像処理システム100のシステム構成を示す。また図5は生成された移動体検出モデルを用いて移動体を検出する画像処理システム200のシステム構成を示す。なお、図4及び図5に係る画像処理システム100及び200は、同一の装置上で実現してもよいし、異なる装置上で実現しても良い。
まず、図4を参照しながら、移動体検出のためのCNNの移動体検出モデルを生成するための画像処理システム100のシステム構成について説明する。画像処理システム100は、画像入力部110、領域指定部120、背景モデル取得部130、背景モデル更新部140、背景モデルデータベース(DB)150、背景モデル間距離計算部160、移動体検出モデル構築部170、及び移動体検出パラメータ辞書180を含む。
画像入力部110は、図示しないカメラなどの撮影装置から映像を構成する画像フレーム、すなわちそれぞれ撮影時刻の異なる画像フレームの入力を受ける。ここで、画像フレームはモノクロ画像であっても良いし、カラー画像であっても良い。モノクロ画像であれば、画像フレームには各画素に1つの値が含まれる。カラー画像であれば、画像フレームには各画素に3つの値(例えばRGB、YCbCr等の色表現)を有する。或いは画像フレームには、TOF(Time of Flight)カメラなどにより得られる距離情報など、画素毎に4以上の値を有してもよい。
領域指定部120は、画像フレームに対して、正解データを入力するためのGUIをユーザに提供し、ユーザからの入力に応じて、画像フレーム内に含まれる画素に対して、移動体領域と背景領域との指定を行う。領域指定部120が表示装置に表示する表示画面の具体例は、図2に示した通りである。
背景モデル取得部130は、画像入力部110から入力された画像フレーム、及び、背景モデルDB150に格納されている短期背景モデル、中期背景モデル、及び長期背景モデルの3つの背景モデルを読み込む。
背景モデルDB150は、解析元となる画像フレームの撮影時刻の時間幅の異なる短期背景モデル、中期背景モデル、及び長期背景モデルを含む複数の背景モデルを格納する。
ここで、各背景モデルの形式は種々考えられるが、例えば画像入力部110から入力される画像フレームと同様の画像形式とすることができる。例えば背景モデルをモノクロ画像とするのであれば、各画素毎に1つの値が、カラー画像とするのであれば各画素毎に3つの値が含まれる。
背景モデル更新部140は、背景モデル取得部130が取得した処理時刻の画像フレーム、及び背景モデルDB150に記憶された背景モデルから、処理時刻の画像フレーム(最も新しい時刻の画像フレーム)を考慮した短期背景モデル、中期背景モデル、及び長期背景モデルを生成する。生成された背景モデルは、背景モデルDB150に格納される。
背景モデル間距離計算部160は、背景モデル取得部130が取得した3つの背景モデル間の差異を数値で示す距離値を、各画素毎に計算する。具体的には、各画素毎に、短期背景モデルと中期背景モデルとの距離、短期背景モデルと長期背景モデルとの距離、中期背景モデルと長期背景モデルとの距離を、背景モデル間距離計算部160はそれぞれ算出する。
また、RGBカラー画像で近傍5×5画像により距離を算出する場合には、75次元(5×5×3)ベクトル同士の距離を算出することになる。
移動体検出モデル構築部170は、領域指定部120により与えられた正解データを用いて、CNNを用いて移動体を検出するための移動体検出モデル(CNNに対応するパラメータ)を生成する。より具体的には、移動体検出モデル構築部170は、与えられた正解データに最も近くなるように設定される。具体的には、N個の画素xi(iは1≦i≦Nの整数)に対してそれぞれ正解データyiが与えられるとする。ここで、例えば画素xiが背景領域であればyi=0、移動体領域であればyi=1とする。
次に、上記画像処理システム100が生成した移動体検出モデルを用いて移動体を検出する画像処理システム200のシステム構成について説明する。画像処理システム200は、画像入力部210、背景モデル取得部220、背景モデル更新部230、背景モデルDB240、背景モデル間距離計算部250、移動体検出部260、移動体検出パラメータ辞書270、及び結果出力部280を含む。
以下、画像処理システム100及び画像処理システム200の処理の流れを、図6及び図7を参照しながら説明する。図6は画像処理システム100の処理の流れを示すフローチャート、図7は画像処理システム200の処理の流れを示すフローチャートである。
まず、移動体検出のためのパラメータを学習する画像処理システム100の処理の流れを、図6を参照しながら説明する。
続いて、画像処理システム100により生成されたCNNのパラメータを用いた移動体検出に係る処理の流れを、図7を参照しながら説明する。
以下、図8を参照しながら、上述してきた画像処理システム100及び200をコンピュータ800により実現する場合のハードウェア構成の一例を説明する。なお、前述のとおり、画像処理システム100及び200は同一のコンピュータ上に実装してもよいし、画像処理システム100及び200の機能を、それぞれ複数台のコンピュータ上に実装してもよい。
入力I/F部807の具体例としては、キーボードやマウス、タッチパネル等が挙げられる。入力I/F部807は、例えばUSB(Universal Serial Bus)等のインタフェースを介してコンピュータ800に接続されても良い。
以上説明したように、本実施形態に係る画像処理システム100及び200は、短期背景モデル、中期背景モデル、及び長期背景モデル間のそれぞれの差異を用いてCNNにより移動体を検出する。特に、学習を用いることにより、例えば風による木の揺れなどで動きを検出しやすい時間幅の背景モデルをあまり利用せずに、人や車などの移動体を検出しやすい時間幅の背景モデルの寄与度を大きくすることにより、特定の移動体を誤検出を抑制しつつ検知することが可能である。また、照明変動のような外部ノイズによる背景変化の影響を受ける環境下においても、安定的に移動体を検出することができる。
以下、第2実施形態を、図9及び図10を参照しながら説明する。図9は、本実施形態に係る画像処理システム900の機能構成を示すブロック図である。画像処理システム900は、入力部910、及び学習部920とを含む。
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
映像を構成する複数の画像フレームのうちのいくつかの異なる時刻の画像フレームに対する入力であって、処理時刻の画像フレームのうち、選択された任意の1以上の画素に対し、移動体の映る画素であるか移動体の映らない画素であるかの入力を受ける入力手段と、前記入力に基づき、移動体を検出するためのパラメータを学習する学習手段とを備える画像処理システム。
前記処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する算出手段、を更に備え、前記学習手段は、前記入力に基づき、前記第1の背景モデル、前記第2の背景モデル、及び前記第3の背景モデルを用いて移動体を検出するためのパラメータを学習する付記1に記載の画像処理システム。
前記学習手段は、前記1以上の画素の近傍領域の背景モデルの値を用いて畳み込み計算を1以上行うことにより移動体を検出するための検出モデルに用いられる前記パラメータを学習する、付記1又は付記2記載の画像処理システム。
前記学習手段は、前記畳み込み計算、及び、前記畳み込み計算の結果得られる値と比較される閾値とを前記パラメータとして学習する付記1乃至付記3のいずれか1項記載の画像処理システム。
撮影時刻の異なる複数の画像フレームの入力を受ける入力手段と、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとを用いて、対象画素の近傍領域の背景モデルの値を用いて畳み込み計算を1回以上行うことにより移動体を検出する検出手段とを備える画像処理システム。
前記第1の背景モデルと、前記第2の背景モデルと、前記第3の背景モデルとは、考慮される画像フレームの撮影時刻の時間幅が異なる付記5記載の画像処理システム。
前記第1の背景モデルとして、前記処理時刻の画像フレームを用いる、付記5又は付記6記載の画像処理システム。
映像を構成する複数の画像フレームのうちのいくつかの異なる時刻の画像フレームに対する入力であって、処理時刻の画像フレームのうち、選択された任意の1以上の画素に対し、移動体の映る画素であるか移動体の映らない画素であるかの入力を受けるステップと、前記入力に基づき、移動体を検出するためのパラメータを学習するステップとをコンピュータが行う画像処理方法。
前記処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する算出手段、を更に備え、前記学習手段は、前記入力に基づき、前記第1の背景モデル、前記第2の背景モデル、及び前記第3の背景モデルを用いて移動体を検出するためのパラメータを学習する付記8に記載の画像処理方法。
前記1以上の画素の近傍領域の背景モデルの値を用いて畳み込み計算を1以上行うことにより移動体を検出するための検出モデルに用いられる前記パラメータを学習する、付記8又は付記9記載の画像処理方法。
前記畳み込み計算、及び、前記畳み込み計算の結果得られる値と比較される閾値とを前記パラメータとして学習する付記8乃至付記10のいずれか1項記載の画像処理方法。
撮影時刻の異なる複数の画像フレームの入力を受けるステップと、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとを用いて、対象画素の近傍領域の背景モデルの値を用いて畳み込み計算を1回以上行うことにより移動体を検出するステップとをコンピュータが行う画像処理方法。
前記第1の背景モデルと、前記第2の背景モデルと、前記第3の背景モデルとは、考慮される画像フレームの撮影時刻の時間幅が異なる付記12記載の画像処理方法。
前記第1の背景モデルとして、前記処理時刻の画像フレームを用いる、付記12又は付記13記載の画像処理方法。
映像を構成する複数の画像フレームのうちのいくつかの異なる時刻の画像フレームに対する入力であって、処理時刻の画像フレームのうち、選択された任意の1以上の画素に対し、移動体の映る画素であるか移動体の映らない画素であるかの入力を受ける処理と、
前記入力に基づき、移動体を検出するためのパラメータを学習する処理とをコンピュータに実行させるプログラム。
前記処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する算出手段、を更に備え、前記学習手段は、前記入力に基づき、前記第1の背景モデル、前記第2の背景モデル、及び前記第3の背景モデルを用いて移動体を検出するためのパラメータを学習する付記15に記載のプログラム。
前記1以上の画素の近傍領域の背景モデルの値を用いて畳み込み計算を1以上行うことにより移動体を検出するための検出モデルに用いられる前記パラメータを学習する、付記15又は付記16記載のプログラム。
前記畳み込み計算、及び、前記畳み込み計算の結果得られる値と比較される閾値とを前記パラメータとして学習する付記15乃至付記17のいずれか1項記載のプログラム。
撮影時刻の異なる複数の画像フレームの入力を受ける処理と、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとを用いて、対象画素の近傍領域の背景モデルの値を用いて畳み込み計算を1回以上行うことにより移動体を検出する処理とをコンピュータに実行させるプログラム。
前記第1の背景モデルと、前記第2の背景モデルと、前記第3の背景モデルとは、考慮される画像フレームの撮影時刻の時間幅が異なる付記19記載のプログラム。
前記第1の背景モデルとして、前記処理時刻の画像フレームを用いる、付記19又は付記20記載のプログラム。
21 :カーソル
23、25 :アイコン
100 :画像処理システム
110 :画像入力部
120 :領域指定部
130 :背景モデル取得部
140 :背景モデル更新部
150 :背景モデルデータベース
160 :背景モデル間距離計算部
170 :移動体検出モデル構築部
180 :移動体検出パラメータ辞書
200 :画像処理システム
210 :画像入力部
220 :背景モデル取得部
230 :背景モデル更新部
240 :背景モデルデータベース
250 :背景モデル間距離計算部
260 :移動体検出部
270 :移動体検出パラメータ辞書
280 :結果出力部
800 :コンピュータ
801 :プロセッサ
803 :メモリ
805 :記憶装置
807 :入力インタフェース部
809 :データインタフェース部
811 :通信インタフェース部
813 :表示装置
900 :画像処理システム
910 :入力部
920 :学習部
1000 :画像処理システム
1010 :入力部
1020 :検出部
Claims (6)
- 映像を構成する複数の画像フレームのうちのいくつかの異なる時刻の画像フレームに対する入力であって、処理時刻の画像フレームのうち、選択された任意の1以上の画素に対し、移動体の映る画素であるか移動体の映らない画素であるかの入力を受け、前記入力に基づき、移動体を検出するためのパラメータを学習する学習手段に、前記入力された情報を出力する画像処理システム。
- 前記画像フレームに対して、移動体の映る画素を含む移動体領域に第1のアイコンを配置し、移動体の映らない画素を含む背景領域に第2のアイコンを配置する操作によって、前記入力を受ける請求項1に記載の画像処理システム。
- 前記学習手段は、前記入力に基づき、前記処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとを用いて移動体を検出するためのパラメータを学習する請求項1又は請求項2に記載の画像処理システム。
- コンピュータが
映像を構成する複数の画像フレームのうちのいくつかの異なる時刻の画像フレームに対する入力であって、処理時刻の画像フレームのうち、選択された任意の1以上の画素に対し、移動体の映る画素であるか移動体の映らない画素であるかの入力を受け、前記入力に基づき、移動体を検出するためのパラメータを学習する学習手段に、前記入力された情報を出力する画像処理方法。 - 前記画像フレームに対して、移動体の映る画素を含む移動体領域に第1のアイコンを配置し、移動体の映らない画素を含む背景領域に第2のアイコンを配置する操作によって、前記入力を受ける請求項4に記載の画像処理方法。
- 映像を構成する複数の画像フレームのうちのいくつかの異なる時刻の画像フレームに対する入力であって、処理時刻の画像フレームのうち、選択された任意の1以上の画素に対し、移動体の映る画素であるか移動体の映らない画素であるかの入力を受け、前記入力に基づき、移動体を検出するためのパラメータを学習する学習手段に、前記入力された情報を出力する処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014115205 | 2014-06-03 | ||
JP2014115205 | 2014-06-03 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016525694A Division JP6547744B2 (ja) | 2014-06-03 | 2015-06-02 | 画像処理システム、画像処理方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020209692A Division JP7252188B2 (ja) | 2014-06-03 | 2020-12-17 | 画像処理システム、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019145174A true JP2019145174A (ja) | 2019-08-29 |
JP6813055B2 JP6813055B2 (ja) | 2021-01-13 |
Family
ID=54766424
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016525694A Active JP6547744B2 (ja) | 2014-06-03 | 2015-06-02 | 画像処理システム、画像処理方法及びプログラム |
JP2019105217A Active JP6813055B2 (ja) | 2014-06-03 | 2019-06-05 | 画像処理システム、画像処理方法及びプログラム記憶媒体 |
JP2020209692A Active JP7252188B2 (ja) | 2014-06-03 | 2020-12-17 | 画像処理システム、画像処理方法及びプログラム |
JP2022091955A Active JP7447932B2 (ja) | 2014-06-03 | 2022-06-07 | 画像処理システム、画像処理方法及びプログラム |
JP2023217630A Pending JP2024042703A (ja) | 2014-06-03 | 2023-12-25 | 画像処理システム、画像処理方法及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016525694A Active JP6547744B2 (ja) | 2014-06-03 | 2015-06-02 | 画像処理システム、画像処理方法及びプログラム |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020209692A Active JP7252188B2 (ja) | 2014-06-03 | 2020-12-17 | 画像処理システム、画像処理方法及びプログラム |
JP2022091955A Active JP7447932B2 (ja) | 2014-06-03 | 2022-06-07 | 画像処理システム、画像処理方法及びプログラム |
JP2023217630A Pending JP2024042703A (ja) | 2014-06-03 | 2023-12-25 | 画像処理システム、画像処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (5) | US11003961B2 (ja) |
JP (5) | JP6547744B2 (ja) |
WO (1) | WO2015186341A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201601660D0 (en) * | 2016-01-29 | 2016-03-16 | Global Surface Intelligence Ltd | System and method for earth observation and analysis |
WO2018123801A1 (ja) * | 2016-12-28 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置 |
US10579908B2 (en) * | 2017-12-15 | 2020-03-03 | Google Llc | Machine-learning based technique for fast image enhancement |
JP2019109709A (ja) * | 2017-12-18 | 2019-07-04 | 株式会社東芝 | 画像処理装置、画像処理方法およびプログラム |
JP7208713B2 (ja) * | 2018-02-13 | 2023-01-19 | キヤノン株式会社 | 画像解析装置および画像解析方法 |
CN108709494B (zh) * | 2018-03-26 | 2019-12-13 | 中国民航大学 | 一种白光干涉信号背景光强实时分离方法 |
KR20200054367A (ko) * | 2018-11-05 | 2020-05-20 | 현대자동차주식회사 | 객체 검출 장치 및 그 방법 |
KR20200116728A (ko) * | 2019-04-02 | 2020-10-13 | 삼성전자주식회사 | 자체 운동 정보 추정 장치 및 방법 |
CN110232359B (zh) * | 2019-06-17 | 2021-10-01 | 中国移动通信集团江苏有限公司 | 滞留物检测方法、装置、设备及计算机存储介质 |
JP7453668B2 (ja) * | 2020-02-05 | 2024-03-21 | 電制コムテック株式会社 | 学習処理装置および学習処理方法、物体検出装置および物体検出方法、ならびに、プログラム |
CN116721235A (zh) | 2020-02-26 | 2023-09-08 | 奇跃公司 | 利用缓冲的交叉现实系统用于定位精度 |
US20220201295A1 (en) * | 2020-12-21 | 2022-06-23 | Electronics And Telecommunications Research Institute | Method, apparatus and storage medium for image encoding/decoding using prediction |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180259A (ja) * | 2002-09-30 | 2004-06-24 | Toshiba Corp | 画像合成方法、画像合成装置、画像合成プログラム |
JP2008092471A (ja) * | 2006-10-04 | 2008-04-17 | Central Res Inst Of Electric Power Ind | 対話型動画像監視方法、対話型動画像監視装置および対話型動画像監視プログラム |
JP2008257693A (ja) * | 2007-04-05 | 2008-10-23 | Mitsubishi Electric Research Laboratories Inc | シーン中に置き去りにされた物体を検出する方法 |
JP2011059898A (ja) * | 2009-09-08 | 2011-03-24 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
JP2011145791A (ja) * | 2010-01-13 | 2011-07-28 | Hitachi Ltd | 識別器学習画像生成プログラム、方法、及びシステム |
JP2012517647A (ja) * | 2009-02-10 | 2012-08-02 | トムソン ライセンシング | 前景−背景制約伝播に基づくビデオマッティング |
JP2014059691A (ja) * | 2012-09-18 | 2014-04-03 | Sony Corp | 画像処理装置および方法、並びにプログラム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3812985B2 (ja) | 1997-04-04 | 2006-08-23 | 富士通株式会社 | 自動監視装置 |
US7295700B2 (en) * | 2003-10-24 | 2007-11-13 | Adobe Systems Incorporated | Object extraction based on color and visual texture |
JP4970557B2 (ja) | 2007-03-05 | 2012-07-11 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | デジタル画像取込装置における顔検索及び検出 |
JP5127390B2 (ja) * | 2007-10-12 | 2013-01-23 | キヤノン株式会社 | 信号処理装置、信号処理方法、プログラム |
WO2011102416A1 (ja) | 2010-02-19 | 2011-08-25 | 株式会社 東芝 | 移動物体追跡システムおよび移動物体追跡方法 |
JP5459674B2 (ja) * | 2010-09-13 | 2014-04-02 | 株式会社東芝 | 移動物体追跡システムおよび移動物体追跡方法 |
JP5505936B2 (ja) * | 2010-11-05 | 2014-05-28 | オムロン株式会社 | 画像処理ユニット、および画像処理プログラム |
US8891864B2 (en) | 2011-02-16 | 2014-11-18 | Apple Inc. | User-aided image segmentation |
JP5713790B2 (ja) * | 2011-05-09 | 2015-05-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP2012257173A (ja) * | 2011-06-10 | 2012-12-27 | Canon Inc | 追尾装置、追尾方法及びプログラム |
JP2013058063A (ja) * | 2011-09-08 | 2013-03-28 | Chuo Electronics Co Ltd | 画像処理装置、方法、プログラム、および監視システム |
JP2013065151A (ja) * | 2011-09-16 | 2013-04-11 | Sony Corp | 画像処理装置、画像処理方法、および、プログラム |
US8873852B2 (en) * | 2011-09-29 | 2014-10-28 | Mediatek Singapore Pte. Ltd | Method and apparatus for foreground object detection |
US9111147B2 (en) * | 2011-11-14 | 2015-08-18 | Massachusetts Institute Of Technology | Assisted video surveillance of persons-of-interest |
JP5840940B2 (ja) | 2011-12-16 | 2016-01-06 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 画像領域抽出装置、画像領域抽出方法、および画像領域抽出プログラム |
US8917934B2 (en) | 2012-06-14 | 2014-12-23 | International Business Machines Corporation | Multi-cue object detection and analysis |
US9852511B2 (en) | 2013-01-22 | 2017-12-26 | Qualcomm Incoporated | Systems and methods for tracking and detecting a target object |
KR102026717B1 (ko) | 2013-02-08 | 2019-10-04 | 삼성전자 주식회사 | 사진 촬영 가이드 방법 및 이를 구현하는 휴대 단말 |
WO2015037273A1 (ja) * | 2013-09-12 | 2015-03-19 | 三菱電機株式会社 | 操作入力装置及び方法、並びにプログラム及び記録媒体 |
CN107430771B (zh) | 2015-03-20 | 2021-07-02 | 文塔纳医疗系统公司 | 用于图像分段的系统和方法 |
US9542751B2 (en) | 2015-05-08 | 2017-01-10 | Qualcomm Incorporated | Systems and methods for reducing a plurality of bounding regions |
US10586102B2 (en) | 2015-08-18 | 2020-03-10 | Qualcomm Incorporated | Systems and methods for object tracking |
US10192129B2 (en) | 2015-11-18 | 2019-01-29 | Adobe Systems Incorporated | Utilizing interactive deep learning to select objects in digital visual media |
US11132533B2 (en) * | 2017-06-07 | 2021-09-28 | David Scott Dreessen | Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion |
US11282208B2 (en) | 2018-12-24 | 2022-03-22 | Adobe Inc. | Identifying target objects using scale-diverse segmentation neural networks |
-
2015
- 2015-06-02 WO PCT/JP2015/002768 patent/WO2015186341A1/ja active Application Filing
- 2015-06-02 JP JP2016525694A patent/JP6547744B2/ja active Active
- 2015-06-02 US US15/314,572 patent/US11003961B2/en active Active
-
2019
- 2019-03-01 US US16/289,745 patent/US20190236418A1/en not_active Abandoned
- 2019-06-05 JP JP2019105217A patent/JP6813055B2/ja active Active
-
2020
- 2020-12-17 JP JP2020209692A patent/JP7252188B2/ja active Active
-
2022
- 2022-06-07 JP JP2022091955A patent/JP7447932B2/ja active Active
-
2023
- 2023-04-25 US US18/139,111 patent/US20230410493A1/en active Pending
- 2023-08-22 US US18/236,772 patent/US20230394809A1/en active Pending
- 2023-08-22 US US18/236,747 patent/US20230394808A1/en active Pending
- 2023-12-25 JP JP2023217630A patent/JP2024042703A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180259A (ja) * | 2002-09-30 | 2004-06-24 | Toshiba Corp | 画像合成方法、画像合成装置、画像合成プログラム |
JP2008092471A (ja) * | 2006-10-04 | 2008-04-17 | Central Res Inst Of Electric Power Ind | 対話型動画像監視方法、対話型動画像監視装置および対話型動画像監視プログラム |
JP2008257693A (ja) * | 2007-04-05 | 2008-10-23 | Mitsubishi Electric Research Laboratories Inc | シーン中に置き去りにされた物体を検出する方法 |
JP2012517647A (ja) * | 2009-02-10 | 2012-08-02 | トムソン ライセンシング | 前景−背景制約伝播に基づくビデオマッティング |
JP2011059898A (ja) * | 2009-09-08 | 2011-03-24 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
JP2011145791A (ja) * | 2010-01-13 | 2011-07-28 | Hitachi Ltd | 識別器学習画像生成プログラム、方法、及びシステム |
JP2014059691A (ja) * | 2012-09-18 | 2014-04-03 | Sony Corp | 画像処理装置および方法、並びにプログラム |
Non-Patent Citations (1)
Title |
---|
JIANI WANG、外5名: ""ジオタグ付き写真を用いた風景カテゴリマップ作成手法の検討"", 電子情報通信学会技術研究報告, vol. 110, no. 238, JPN6020044089, 14 October 2010 (2010-10-14), JP, pages 79 - 84, ISSN: 0004388636 * |
Also Published As
Publication number | Publication date |
---|---|
US20230394808A1 (en) | 2023-12-07 |
JPWO2015186341A1 (ja) | 2017-05-25 |
JP2024042703A (ja) | 2024-03-28 |
US11003961B2 (en) | 2021-05-11 |
JP7252188B2 (ja) | 2023-04-04 |
US20190236418A1 (en) | 2019-08-01 |
JP2022122984A (ja) | 2022-08-23 |
US20230394809A1 (en) | 2023-12-07 |
US20230410493A1 (en) | 2023-12-21 |
US20170206441A1 (en) | 2017-07-20 |
JP6813055B2 (ja) | 2021-01-13 |
JP7447932B2 (ja) | 2024-03-12 |
JP2021051783A (ja) | 2021-04-01 |
WO2015186341A1 (ja) | 2015-12-10 |
JP6547744B2 (ja) | 2019-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7252188B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
US20180285656A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects | |
JP6088792B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
US9460349B2 (en) | Background understanding in video data | |
JP6482195B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
JP6652051B2 (ja) | 検出システム、検出方法及びプログラム | |
JP2020519989A (ja) | ターゲット識別方法、装置、記憶媒体および電子機器 | |
US20130162867A1 (en) | Method and system for robust scene modelling in an image sequence | |
CN110033481A (zh) | 用于进行图像处理的方法和设备 | |
JP6361775B2 (ja) | 対象姿勢特定の方法および装置 | |
JP4999794B2 (ja) | 静止領域検出方法とその装置、プログラム及び記録媒体 | |
CN110910445A (zh) | 一种物件尺寸检测方法、装置、检测设备及存储介质 | |
CN114511661A (zh) | 图像渲染方法、装置、电子设备及存储介质 | |
JP2010097507A (ja) | 移動対象抽出装置、移動対象抽出方法及び移動対象抽出プログラム | |
JP2014203133A (ja) | 画像処理装置、画像処理方法 | |
KR20210134252A (ko) | 이미지 안정화 방법, 장치, 노변 기기 및 클라우드 제어 플랫폼 | |
CN110300253B (zh) | 图像处理装置和方法及存储指令的存储介质 | |
US20230196752A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
CN107886522B (zh) | 尺度自适应的目标模型更新方法及装置 | |
JP6362939B2 (ja) | 検出装置、検出方法及び制御プログラム | |
JP6162492B2 (ja) | 動体検出装置、動体検出方法及び制御プログラム | |
CN115620236A (zh) | 图像处理、图像处理模型训练方法、装置及设备 | |
JP2021026311A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2017097554A (ja) | 特徴点追跡装置、特徴点追跡方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6813055 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |