JPWO2016143067A1 - 映像解析装置 - Google Patents

映像解析装置 Download PDF

Info

Publication number
JPWO2016143067A1
JPWO2016143067A1 JP2017504482A JP2017504482A JPWO2016143067A1 JP WO2016143067 A1 JPWO2016143067 A1 JP WO2016143067A1 JP 2017504482 A JP2017504482 A JP 2017504482A JP 2017504482 A JP2017504482 A JP 2017504482A JP WO2016143067 A1 JPWO2016143067 A1 JP WO2016143067A1
Authority
JP
Japan
Prior art keywords
moving object
video
block
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017504482A
Other languages
English (en)
Other versions
JP6415689B2 (ja
Inventor
洋平 板谷
洋平 板谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2016143067A1 publication Critical patent/JPWO2016143067A1/ja
Application granted granted Critical
Publication of JP6415689B2 publication Critical patent/JP6415689B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

動体領域検出部(330)は、映像データ(119)が表す映像を分割した複数のブロックのブロック毎に、周波数成分別の離散コサイン変換係数を取得する。動体領域検出部は、複数のブロックから、周波数閾値より大きい高周波数の周波数成分のうちの少なくともいずれかの周波数成分の離散コサイン変換係数がゼロでないブロックを、動体が映っている動体ブロックとして特定する。動体領域検出部は、動体ブロックを含んだ動体領域を映像から検出する。

Description

本発明は、映像に映った動体を検出する技術に関するものである。
監視カメラから得られる映像データは、非圧縮の状態ではデータサイズが非常に大きい。そのため、映像データの蓄積に必要なハードディスク容量が増加する。
そこで、MPEG−4およびH.264等に代表される符号化アルゴリズムによって映像データは符号化される。そして、符号化によってデータサイズが削減された映像データがハードディスクに蓄積される。
しかし、符号化された状態の映像データから符号化前の情報を参照することはできない。そのため、符号化された映像データを復号する必要がある。例えば、コンピュータで映像を再生する際に、画像再生ツールによって復号処理が実施される。
監視者は、再生された映像を目視することよって、映像に映った動体を検出する。人物、動物および自動車は動体の一例である。
しかし、長期間に渡って映像データが蓄積された場合、動体を目視によって検出することは効率が悪く、現実的でない。
特許文献1は、符号化された映像データを復号する復号処理、および、監視対象を検索するための画像解析処理を演算装置で行う技術を開示している。
しかし、監視対象の検索に至るまでの効率が悪い。また、画像解析処理の処理量が非常に多いため、高機能な演算装置が必要になる。
特開2003−204541号公報
本発明は、動体が映っている動体ブロックを映像データから特定できるようにすることを目的とする。
本発明の映像解析装置は、
映像データが表す映像を分割した複数のブロックのブロック毎に、周波数成分別の離散コサイン変換係数を取得するパラメータ取得部と、
前記複数のブロックから、周波数閾値より大きい高周波数の周波数成分のうちの少なくともいずれかの周波数成分の離散コサイン変換係数がゼロでないブロックを、動体が映っている動体ブロックとして特定する動体ブロック特定部とを備える。
本発明によれば、動体が映っている動体ブロックを映像データから特定することができる。
実施の形態1における監視システム100の構成図。 実施の形態1における蓄積サーバ120の機能構成図。 実施の形態1における監視カメラ110の機能構成図。 実施の形態1における映像符号化装置200の機能構成図。 実施の形態1における映像解析装置300の機能構成図。 実施の形態1における解析実施判定部320の機能構成図。 実施の形態1における動体領域検出部330の機能構成図。 実施の形態1における対象体検出部340の機能構成図。 実施の形態1における符号化パラメータ133の構成図。 実施の形態1における監視カメラ110と被写体102との関係図。 実施の形態1における映像103の領域と被写体領域104との関係図。 実施の形態1におけるモデルデータベース400の構成図。 実施の形態1における映像解析装置300および映像符号化装置200のハードウェア構成図。 実施の形態1における映像符号化方法のフローチャート。 実施の形態1における映像解析方法のフローチャート。 実施の形態1における解析実施判定処理(S230)のフローチャート。 実施の形態1における動体領域検出処理(S240)のフローチャート。 実施の形態1における動体領域特定処理(S247)のフローチャート。 実施の形態1における対象体検出処理(S250)のフローチャート。 実施の形態1における対象体検出処理(S250)のフローチャート。 実施の形態2における監視システム100の構成図。 実施の形態2における監視カメラ110およびモデルサーバ150の機能構成図。
実施の形態1.
動体を監視する監視システム100について、図1から図20に基づいて説明する。
***構成の説明***
図1に基づいて、監視システム100の構成について説明する。
監視システム100は、監視空間101を監視するためのシステムである。
監視システム100は、監視カメラ110と、蓄積サーバ120とを備える。
監視カメラ110は、監視空間101の斜め上方に設置されており、監視空間101を連続して撮影し、撮影毎に映像データを生成する。そして、監視カメラ110は、撮影毎に、映像データを用いて、符号化データ130と解析結果データ140とを生成する。
蓄積サーバ120は、撮影毎に、符号化データ130と解析結果データ140とを蓄積する。
映像データは監視空間101を映した映像を表す。映像は複数の画素を備え、それぞれの画素は色情報を有する。映像は連続した画像から成り、画像はフレームともいう。映像データは画像データまたはフレームデータともいう。色情報はRGB(Red、Green、Blue)形式で表される。
符号化データ130は符号化した映像を表す。
解析結果データ140は、監視空間101の映像に映った対象体に関する情報を含む。対象体は、検出する対象の動体である。
図2に基づいて、蓄積サーバ120の機能構成について説明する。
蓄積サーバ120は、データ受信部121と、符号化データ管理部122と、解析結果データ管理部123と、サーバ記憶部129とを備える。
データ受信部121は、監視カメラ110から送信される符号化データ130と解析結果データ140とを受信する。
符号化データ管理部122は、符号化データ130を時系列にサーバ記憶部129に蓄積する。
解析結果データ管理部123は、解析結果データ140を時系列にサーバ記憶部129に蓄積する。
サーバ記憶部129は、符号化データ130と解析結果データ140とを時系列に蓄積する。
解析結果データ管理部123は、解析結果データ140を符号化データ130に対応付けた解析結果テーブルを生成し、解析結果テーブルをサーバ記憶部129に記憶してもよい。
監視者は、解析結果データを参照することによって、符号化データ130が表す映像の解析結果データ140を検索することができる。
図3に基づいて、監視カメラ110の機能構成について説明する。
監視カメラ110は、データ受信部111と、映像符号化装置200と、映像解析装置300と、データ送信部112と、符号化データ記憶部113と、モデル記憶部114とを備える。なお、監視カメラ110は、ハードウェアである撮像素子を備える。撮像素子はイメージセンサともいう。
データ受信部111は、撮像素子から出力される映像データ119を受信する。
映像符号化装置200は、映像データ119を用いて、符号化データ130と、DCT係数データ131と、動きベクトルデータ132とを生成する。DCTは離散コサイン変換の略称である。DCT係数データ131と動きベクトルデータ132とについては後述する。
映像解析装置300は、映像データ119と、DCT係数データ131と、動きベクトルデータ132と、モデルデータベース400とを用いて、解析結果データ140を生成する。モデルデータベース400については後述する。
符号化データ記憶部113は、符号化データ130と、DCT係数データ131と、動きベクトルデータ132とを記憶する。
DCT係数データ131は、映像データ119が表す映像を分割した複数のブロックのブロック毎に、周波数成分別の離散コサイン変換係数を含む。ブロックはマクロブロックともいう。周波数成分は空間周波数成分ともいう。
動きベクトルデータ132は、映像データ119が表す映像を分割した複数のブロックのブロック毎に、動きベクトルを含む。動きベクトルは、ブロックに映っている被写体の動きを表す。
モデル記憶部114は、モデルデータベース400を記憶する。
モデルデータベース400は、映像データ119が表す映像を垂直方向に分割して得られる複数の分割領域のそれぞれに、異なる対象体モデルを対応付ける。対象体モデルは対象体の特徴を表すデータである。垂直方向は映像の縦方向を意味する。
モデルデータベース400に含まれるそれぞれの対象体モデルは、サイズの範囲を示すサイズ情報を含む。
モデルデータベース400に含まれるそれぞれの対象体モデルは、サイズ以外の特徴を表す特徴情報を含む。
図4に基づいて、映像符号化装置200の機能構成について説明する。
映像符号化装置200は、映像データ受付部210と、動きベクトル算出部220と、動き補償予測部230と、差分算出部231と、重ね合わせ部232と、前回データ記憶部290とを備える。
映像符号化装置200は、DCT部240と、量子化部241と、エントロピー符号化部242と、逆量子化部243と、逆DCT部244とを備える。
映像符号化装置200は、符号化データ管理部250を備える。
映像データ受付部210は映像データ119を受け付ける。
動きベクトル算出部220は、映像データ119と前回データ291とを用いて、動きベクトルデータ132を生成する。前回データ291は前回の映像を表す。
動き補償予測部230は、動きベクトルデータ132と前回データ291とを用いて、予測データ239を生成する。予測データ239は予測により生成される映像データである。
差分算出部231は、映像データ119と予測データ239とを用いて、差分データ238を生成する。差分データ238は、映像データ119が表す今回の映像と予測データ239が表す予測の映像との差分を表す。
重ね合わせ部232は、予測データ239と差分データ247とを用いて、今回の映像を表す映像データを生成する。生成された映像データは、次の映像データ119が受け付けられた際に、前回データ291として用いられる。
前回データ記憶部290は、前回データ291を記憶する。
DCT部240は、差分データ238に対して離散コサイン変換(DCT)を行い、DCT係数データ131を生成する。
量子化部241は、DCT係数データ131に対して量子化を行い、量子化係数データ249を生成する。量子化係数データ249は、映像のブロック毎に、周波数成分別の量子化係数を含む。量子化係数は量子化したDCT係数である。
エントロピー符号化部242は、量子化係数データ249に対してエントロピー符号化を行い、符号化データ130を生成する。
逆量子化部243は、量子化係数データ249に対して逆量子化を行い、DCT係数データ248を生成する。DCT係数データ248は周波数成分別のDCT係数を含む。
逆DCT部244は、DCT係数データ248に対して逆DCT行い、差分データ247を生成する。差分データ247は今回の映像と予測の映像との差分を表す。
符号化データ管理部250は、符号化データ130と、DCT係数データ131と、動きベクトルデータ132とを、監視カメラ110の符号化データ記憶部113に記憶する。これらのデータを符号化データ記憶部113に記憶した後、符号化データ管理部250は完了通知を出力する。
図5に基づいて、映像解析装置300の機能構成について説明する。
映像解析装置300は、映像データ受付部310と、完了通知受付部311と、解析実施判定部320と、映像データ記憶部390とを備える。
映像解析装置300は、動体領域検出部330と、対象体検出部340と、色情報生成部350と、解析結果生成部360とを備える。
映像データ受付部310は映像データ119を受け付ける。
第1の映像を表す映像データを第1の映像データといい、第2の映像を表す映像データを第2の映像データという。第2の映像は、第1の映像が撮影された時刻とは異なる時刻に撮影された映像である。
実施の形態1において、第1の映像データは映像データ119であり、第2の映像データは前回データ118である。前回データ118は、前回受け付けられた映像データ119である。
映像データ記憶部390は、映像データ119と、前回データ118とを記憶する。
完了通知受付部311は、映像符号化装置200から出力される完了通知を受け付ける。
解析実施判定部320は、映像データ119と前回データ118とに基づいて、映像解析を実施するか判定する。
映像解析を実施すると判定された場合、動体領域検出部330、対象体検出部340、色情報生成部350および解析結果生成部360が動作する。
動体領域検出部330は、映像データ119を用いて、動体領域を表す動体領域データ339を生成する。動体領域は、映像データ119が表す映像の中で動体が映っている領域である。
対象体検出部340は、動体領域データ339を用いて、対象体検出データ349を生成する。
対象体検出データ349は、対象体領域の範囲を示す領域情報を含む。対象体領域は、対象体が映っている動体領域である。
色情報生成部350は、対象体検出データ349を用いて、色情報データ359を生成する。
色情報データ359は、対象体の特徴を表す色情報を含む。動体領域に映っている動体が対象体であると判定された場合、動体領域を構成する各画素の色情報に基づいて、色情報が生成される。
解析結果生成部360は、対象体検出データ349と色情報データ359とを用いて、解析結果データ140を生成する。
解析結果データ140は、対象体領域の範囲を示す領域情報と、対象体の色の特徴を表す色情報とを含む。
図6に基づいて、解析実施判定部320の機能構成について説明する。
解析実施判定部320は、変化量算出部321と、変化量判定部322と、解析指示部323とを備える。
変化量算出部321は、第1の映像を構成する各画素の画素値と、第2の映像を構成する各画素の画素値とに基づいて、第1の映像と第2の映像との変化量329を算出する。
変化量判定部322は、変化量329が変化量閾値より大きいか判定する。変化量閾値は利用者によって設定される。
解析指示部323は、変化量329が変化量閾値より大きい場合、動体領域検出部330に映像解析の開始を指示する。
図7に基づいて、動体領域検出部330の機能構成について説明する。
動体領域検出部330は、パラメータ取得部331と、動体ブロック特定部332と、動体領域特定部333とを備える。
パラメータ取得部331は、DCT係数データ131と、動きベクトルデータ132とを取得する。
動体ブロック特定部332は、DCT係数データ131と動きベクトルデータ132とを用いて、動体ブロックデータ338を生成する。
動体ブロックデータ338は、動体が映っている動体ブロックの位置を示す。
動体ブロックは、今回の映像を分割した複数のブロックから特定されるブロックである。実施の形態1において、1つ以上の動体ブロックが特定される。
動体ブロックとして特定されるブロックは、高周波数の周波数成分のうちの少なくともいずれかの周波数成分の離散コサイン変換係数がゼロでないブロックである。高周波数は周波数閾値よりも高い周波数である。周波数閾値は利用者によって設定される。
実施の形態1において、動体ブロックとして特定されるブロックは、高周波の周波数成分のうちの少なくともいずれかの周波数成分の離散コサイン変換係数がゼロでないブロックのうち、動きベクトルの大きさが動き閾値以上であるブロックである。動き閾値は利用者によって設定される。
動体領域特定部333は、動体ブロックデータ338を用いて、動体領域を示す動体領域データ339を生成する。
動体領域は、1つ以上の動体ブロックそれぞれのブロック位置に基づいて、今回の映像から特定される領域である。
動体領域として特定される領域は、少なくとも1つの動体ブロックを含んだ領域である。
1つ以上の動体ブロックのうちの第1の動体ブロックに隣接するいずれのブロックも動体ブロックでない場合、第1の動体ブロックを含んだ第1の動体領域は、第1の動体ブロックである。
第1の動体ブロックに隣接するブロックのいずれかが1つ以上の動体ブロックのうちの第2の動体ブロックである場合、第1の動体領域は、第1の動体ブロックと第2の動体ブロックとを含んだ矩形領域である。
第2の動体ブロックに隣接するブロックのいずれかが1つ以上の動体ブロックのうちの第3の動体ブロックである場合、第1の動体領域は、第1の動体ブロックと第2の動体ブロックと第3の動体ブロックとを含んだ矩形領域である。
図8に基づいて、対象体検出部340の機能構成について説明する。
対象体検出部340は、モデル取得部341と、動体判定部342とを備える。
モデル取得部341は、動体領域データ339に基づいて、モデルデータベース400から照合モデル348を取得する。
照合モデル348は、モデルデータベース400に含まれる対象体モデルのうち、動体領域が属する分割領域に対応付いた対象体モデルである。
動体判定部342は、動体領域データ339と照合モデル348とに基づいて、動体領域に映っている動体が対象体であるか判定する。
動体判定部342は、照合モデル348に含まれるサイズ情報が示す範囲に動体領域のサイズが含まれることを条件として、動体領域に映っている動体が対象体であると判定する。
動体判定部342は、照合モデル348に含まれる特徴情報が表す特徴と動体領域の特徴との類似度が類似度閾値よりも高いことを条件として、動体領域に映っている動体が対象体であると判定する。類似度閾値は利用者によって設定される。
図9に基づいて、符号化パラメータ133の構成について説明する。
符号化パラメータ133は、動きベクトルデータ132と、符号化パラメータ133とを含む。
動きベクトルデータ132は、映像を分割したマクロブロックそれぞれの動きベクトルを含んでいる。1つのマクロブロックはn×n画素の領域である。例えば、1つのマクロブロックは16×16画素の領域である。
DCT係数データ131は、マクロブロック毎に、8×8個の周波数成分それぞれのDCT係数を含んでいる。
図10に基づいて、監視カメラ110と被写体102との関係について説明する。
被写体102A〜102Dは、監視カメラ110に近いほど大きく映り、監視カメラ110から遠いほど小さく映る。
図において、被写体102A、被写体102B、被写体102C、被写体102Dの順に大きく映る。
図11に基づいて、映像103の領域について説明する。
映像103を垂直方向に分割した場合、監視カメラ110に近い被写体は下段の分割領域に大きく映り、監視カメラ110から遠い被写体は上段の分割領域に小さく映る。垂直方向は縦方向を意味する。
実施の形態1において、映像103は3つの分割領域に分割される。3つの分割領域のうち、下段の分割領域は第1領域であり、中段の分割領域は第2領域であり、上段の分割領域は第3領域である。下段の分割領域ほど縦方向のサイズが大きい。
図において、各被写体領域104A〜104Eは被写体が映っている矩形領域である。第1領域にある被写体領域104Aおよび被写体領域104Bは大きく、第3領域にある被写体領域104Eは小さい。被写体領域104Cは第1領域と第2領域とにまたがっている。
図12に基づいて、モデルデータベース400の構成について説明する。
モデルデータベース400は、第1領域データベース410と、第2領域データベース420と、第3領域データベース430とを備える。第1領域データベース410は第1領域用のモデルデータベースであり、第2領域データベース420は第2領域用のデータベースであり、第3領域データベース430は第3領域用のデータベースである。
各データベースは、複数の対象体それぞれの対象体モデルを備える。第1領域データベース410は第1の対象体モデル411と第2の対象体モデル412とを備え、第2領域データベース420は第1の対象体モデル421と第2の対象体モデル422とを備える。第3領域データベース430も同様である。対象体モデルは機械学習によって構築される学習モデルである。
各対象体モデルは、サイズ情報と特徴情報と対象体識別子とを含む。対象体識別子は対象体を識別する。対象体の種別および名称は対象体識別子の一例である。第1の対象体モデル411は、サイズ情報411Aと特徴情報411Bと対象体識別子411Cとを含んでいる。他の対象体モデルも同様である。
サイズ情報は、対象体が映る矩形領域の大きさ(幅、高さ)の範囲を示す。
特徴情報は、対象体の大きさを除いて、対象体の特徴を表す特徴量を示す。形状及び明暗は対象体の特徴の一例である。
人物、動物および自動車は対象体の一例である。
図13に基づいて、映像解析装置300のハードウェア構成例について説明する。
映像解析装置300は、プロセッサ901、補助記憶装置902、メモリ903、通信装置904、入力インタフェース905、出力インタフェース906といったハードウェアを備えるコンピュータである。
プロセッサ901は信号線910を介して他のハードウェアと接続されている。入力インタフェース905はケーブル911を介して入力装置907に接続されている。出力インタフェース906はケーブル912を介して出力装置908に接続されている。
プロセッサ901は、プロセッシングを行うICであり、他のハードウェアを制御する。プロセッサ901の一例は、CPU、DSP、GPUである。ICはIntegrated Circuitの略称である。CPUはCentral Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、GPUはGraphics Processing Unitの略称である。
補助記憶装置902はデータを記憶する。補助記憶装置902の一例は、ROM、フラッシュメモリ、HDDである。ROMはRead Only Memoryの略称であり、HDDはHard Disk Driveの略称である。
メモリ903はデータを記憶する。メモリ903の一例はRAMである。RAMはRandom Access Memoryの略称である。
通信装置904は、データを受信するレシーバ9041と、データを送信するトランスミッタ9042とを備える。通信装置904の一例は、通信チップ、NICである。NICはNetwork Interface Cardの略称である。
入力インタフェース905はケーブル911が接続されるポートであり、ポートの一例はUSB端子である。USBはUniversal Serial Busの略称である。
出力インタフェース906はケーブル912が接続されるポートであり、USB端子およびHDMI端子はポートの一例である。HDMI(登録商標)はHigh Definition Multimedia Interfaceの略称である。
入力装置907はデータ、命令および要求を入力する。入力装置907の一例は、マウス、キーボード、タッチパネルである。
出力装置908はデータ、結果および応答を出力する。出力装置908の一例は、ディスプレイ、プリンタである。ディスプレイの一例はLCDである。LCDはLiquid
Crystal Displayの略称である。
補助記憶装置902にはOSが記憶されている。OSはOperating Systemの略称である。
また、補助記憶装置902には、映像解析装置300に備わる「記憶部」を除いて、映像解析装置300に備わる「部」の機能を実現するプログラムが記憶されている。
OSの少なくとも一部はメモリ903にロードされ、プロセッサ901はOSを実行しながら「部」の機能を実現するプログラムを実行する。「部」の機能を実現するプログラムは、メモリ903にロードされ、プロセッサ901に読み込まれ、プロセッサ901によって実行される。
なお、映像解析装置300が複数のプロセッサ901を備えて、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
「部」の処理の結果を示すデータ、情報、信号値および変数値などは、メモリ903、補助記憶装置902、プロセッサ901内のレジスタ、または、プロセッサ901内のキャッシュメモリに記憶される。
「部」は「サーキットリ」で実装してもよい。「部」は「回路」、「工程」、「手順」または「処理」に読み替えてもよい。
「回路」及び「サーキットリ」は、プロセッサ901、ロジックIC、GA、ASIC、FPGAといった処理回路を包含する概念である。GAはGate Arrayの略称であり、ASICはApplication Specific Integrated
Circuitの略称であり、FPGAはField−Programmable Gate Arrayの略称である。
映像符号化装置200のハードウェア構成は、映像解析装置300のハードウェア構成と同様である。
***動作の説明***
映像解析装置300の動作は映像解析方法に相当する。また、映像解析方法は映像解析プログラムの処理手順に相当する。
映像符号化装置200の動作は映像符号化方法に相当する。また、映像符号化方法は映像符号化プログラムの処理手順に相当する。
図14に基づいて、映像符号化方法について説明する。
S110は映像データ受付処理である。
S110において、映像データ受付部210は映像データ119を受け付ける。
S120は動きベクトル算出処理である。
S120において、動きベクトル算出部220は、映像データ119と前回データ291とを用いて、以下のように動きベクトルデータ132を生成する。
動きベクトル算出部220は、映像データ119が表す今回の映像を複数のマクロブロックに分割する。
動きベクトル算出部220は、マクロブロック毎に、今回の映像を前回データ291が表す前回の映像と比較する。
動きベクトル算出部220は、マクロブロック毎に、比較結果に基づいて、動きベクトルを算出する。
動きベクトル算出部220は、マクロブロック毎の動きベクトルを含んだ動きベクトルデータ132を生成する。
S130は動き補償予測処理である。
S130において、動き補償予測部230は、動きベクトルデータ132と前回データ291とを用いて、以下のように予測データ239を生成する。
動き補償予測部230は、前回データ291が表す前回の映像を複数のマクロブロックに分割する。
動き補償予測部230は、マクロブロック毎に、動きベクトルデータ132に含まれる動きベクトルに従って、前回の映像を動かす。これにより、予測の映像が生成される。
動き補償予測部230は、予測の映像を表す予測データ239を生成する。
S131は差分算出処理である。
S131において、差分算出部231は、映像データ119と予測データ239とを用いて、以下のように差分データ238を生成する。
差分算出部231は、映像データ119が表す今回の映像と予測データ239が表す予測の映像との差分を算出する。
差分算出部231は、差分の映像を表す差分データ238を生成する。
S140は離散コサイン変換処理である。
S140において、DCT部240は、以下のようにDCT係数データ131を生成する。
DCT部240は、差分データ238が表す差分の映像を複数のマクロブロックに分割する。
DCT部240は、マクロブロック毎に、離散コサイン変換(DCT)を行うことによって、周波数成分別のDCT係数を算出する。
DCT部240は、マクロブロック毎に周波数成分別のDCT係数を含んだDCT係数データ131を生成する。
S141は量子化処理である。
S141において、量子化部241は、以下のように量子化係数データ249を生成する。 量子化部241は、マクロブロック毎に、DCT係数データ131に含まれる周波数成分別のDCT係数を量子化することによって、周波数成分別の量子化係数を算出する。
量子化部241は、マクロブロック毎に周波数成分別の量子化係数を含んだ量子化係数データ249を生成する。
S142はエントロピー符号化処理である。
S142において、エントロピー符号化部242は、以下のように符号化データ130を生成する。
エントロピー符号化部242は、マクロブロック毎に、量子化係数データ249に含まれる周波数成分別の量子化係数をエントロピー符号化することによって、周波数成分別のエントロピー符号を算出する。
エントロピー符号化部242は、マクロブロック毎に周波数成分別のエントロピー符号を含んだ符号化データ130を生成する。
S150は符号化データ管理処理である。
S150において、符号化データ管理部250は、符号化データ130と、DCT係数データ131と、動きベクトルデータ132とを監視カメラ110の符号化データ記憶部113に記憶する。
S160は逆量子化処理および逆離散コサイン変換処理である。
S160において、逆量子化部243および逆DCT部244は、以下のように差分データ247を生成する。
逆量子化部243は、マクロブロック毎に、量子化係数データ249に含まれる周波数成分別の量子化係数を逆量子化することによって、周波数成分別のDCT係数を算出する。
逆量子化部243は、マクロブロック毎に周波数成分別のDCT係数を含んだDCT係数データ248を生成する。
逆DCT部244は、マクロブロック毎に、DCT係数データ248に含まれる周波数成分別のDCT係数に対して逆離散コサイン変換(逆DCT)を行う。これにより、差分の映像が生成される。
逆DCT部244は、差分の映像を表す差分データ247を生成する。
S170は重ね合わせ処理である。
S170において、重ね合わせ部232は、以下のように生成した映像データを次回の映像データ119に対する前回データ291として前回データ記憶部290に記憶する。
重ね合わせ部232は、予測により生成された映像データである予測データ239が表す映像に、差分データ247が表す差分の映像を重ね合わせる。これにより、符号化後の今回の映像が生成される。
重ね合わせ部232は、符号化後の今回の映像を表す映像データを生成する。
図15に基づいて、映像解析方法について説明する。
S210は映像データ受付処理である。
S210において、映像データ受付部310は映像データ119を受け付けて、映像データ119を映像データ記憶部390に記憶する。
S220は完了通知受付処理である。
S220において、完了通知受付部311は完了通知を受け付ける。
S230は解析実施判定処理である。
映像解析の指示があった場合、処理はS240に進む。
映像解析の指示がない場合、映像解析方法の処理は終了する。
図16に基づいて、解析実施判定処理(S230)について説明する。
S231において、変化量算出部321は、映像データ119と前回データ118とを映像データ記憶部390から取得する。
映像データ119は今回の映像を表し、前回データ118は前回の映像を表す。
S232は変化量算出処理である。
S232において、変化量算出部321は、以下のように変化量329を算出する。
変化量算出部321は、今回の映像と前回の映像とを画素毎に比較し、画素毎に画素値の差を算出する。
変化量算出部321は、算出した画素値の差を合計した値を変化量329として算出する。
S233は変化量判定処理である。
S233において、変化量判定部322は、変化量329が変化量閾値より大きいか判定する。変化量329が大きい場合、動体が映像に映っている可能性が高い。
変化量329が変化量閾値より大きい場合、処理はS234に進む。
変化量329が変化量閾値より大きくない場合、解析実施判定処理(S230)は終了する。
S234は解析指示処理である。
S234において、解析指示部323は、映像解析の開始を動体領域検出部330に指示する。
図15に戻り、S240から説明を続ける。
S240は動体領域検出処理である。
S240において、動体領域検出部330は動体領域データ339を生成する。
図17に基づいて、動体領域検出処理(S240)について説明する。
S241はパラメータ取得処理である。
S241において、パラメータ取得部331は、DCT係数データ131と動きベクトルデータ132とを監視カメラ110の符号化データ記憶部113から取得する。
S242からS246は、動体ブロック特定処理である。
S242において、動体ブロック特定部332は、ブロック位置の順番に、マクロブロックを一つ選択する。
S243において、動体ブロック特定部332は以下のように動作する。
動体ブロック特定部332は、選択されたマクロブロックの周波数成分別のDCT係数をDCT係数データ131から取得する。
動体ブロック特定部332は、周波数成分別のDCT係数から高周波成分のDCT係数を選択する。高周波成分は周波数閾値よりも高い周波数の周波数成分である。
動体ブロック特定部332は、高周波成分のDCT係数の少なくともいずれかがゼロでないか判定する。
動体が映っているマクロブロックでは、低周波数成分から高周波数成分まで、ゼロでないDCT係数が存在するためである。一方、動体が映っていないマクロブロックでは、ゼロでないDCT係数は低周波数成分には存在するが、高周波数成分には存在しない。
高周波成分のDCT係数の少なくともいずれかがゼロでない場合、処理はS244に進む。
高周波成分のDCT係数のいずれもゼロである場合、処理はS246に進む。
S244において、動体ブロック特定部332は以下のように動作する。
動体ブロック特定部332は、選択されたマクロブロックの動きベクトルを動きベクトルデータ132から取得する。
動体ブロック特定部332は、動きベクトルが動き閾値より大きいか判定する。動体が映っているマクロブロックでは、動きベクトルが大きいためである。
動きベクトルが動き閾値より大きい場合、処理はS245に進む。
動きベクトルが動き閾値より小さい場合、処理はS246に進む。
S245において、動体ブロック特定部332は、選択されたマクロブロックのブロック位置を動体ブロックのブロック位置として動体ブロックデータ338に登録する。
S246において、動体ブロック特定部332は、S242で選択していない未選択のマクロブロックがあるか判定する。
未選択のマクロブロックがある場合、処理はS242に戻る。
未選択のマクロブロックがない場合、処理はS247に進む。
S247は動体領域特定処理である。
S247において、動体領域特定部333は動体領域データ339を生成する。
図18に基づいて、動体領域特定処理(S247)について説明する。
S2471において、動体領域特定部333は、動体ブロックデータ338に基づいて、ブロック位置の順番に、動体ブロックを1つ選択する。
選択された動体ブロックを含んだ動体領域が動体領域データ339に登録されていない場合、動体領域特定部333は、選択された動体ブロックを動体領域として動体領域データ339に登録する。動体領域の登録は、動体領域を識別する領域識別子と動体領域の範囲を示す領域情報との登録を意味する。。
S2472において、動体領域特定部333は、動体ブロックデータ338に基づいて、選択された動体ブロックに隣接する隣接ブロックの少なくともいずれかが動体ブロックであるか判定する。選択された動体ブロックが映像の縁部分に位置するマクロブロックでない場合、選択された動体ブロックの周囲に位置する8つのマクロブロックが隣接するマクロブロックである。
少なくともいずれかの隣接ブロックが動体ブロックである場合、処理はS2473に進む。
いずれの隣接ブロックも動体ブロックでない場合、処理はS2474に進む。
S2473において、動体領域特定部333は、選択された動体ブロックを含んだ動体領域を隣接ブロックを含んだ矩形領域に更新する。隣接ブロックは更新された動体領域の縁部分に位置する。
S2474において、動体領域特定部333は、S2471で選択していない未選択の動体ブロックがあるか判定する。
未選択の動体ブロックがある場合、処理はS2471に戻る。
未選択の動体ブロックがない場合、動体領域特定処理(S247)は終了する。
図15に戻り、S250から説明を続ける。
S250は対象体検出処理である。
S250において、対象体検出部340は対象体検出データ349を生成する。
図19および図20に基づいて、対象体検出処理(S340)について説明する。
S251、S252およびS258はモデル取得処理である。
S251において、モデル取得部341は、動体領域データ339から未選択の動体領域を1つ選択する。
S252からS256は、選択された動体領域別に実行される。
S252において、モデル取得部341は、動体領域が属する分割領域用のデータベースをモデルデータベース400から取得する。選択された動体領域が複数の分割領域にまたがる場合、その複数の分割領域のそれぞれの分割領域用のデータベースが取得される。
S253からS257は動体判定処理である。
S253において、動体判定部342は、取得されたデータベースから未選択の対象体モデルを一つ選択する。選択された対象体モデルを照合モデルという。
S254−1において、動体判定部342は、照合モデルに含まれるサイズ情報が示す範囲に動体領域のサイズが含まれるか判定する。動体領域のサイズは、動体領域の領域情報に基づいて算出される。
照合モデルに含まれるサイズ情報が示す範囲に動体領域のサイズが含まれる場合、処理はS254−2に進む。
照合モデルに含まれるサイズ情報が示す範囲に動体領域のサイズが含まれない場合、処理はS255に進む。
S254−2において、動体判定部342は、動体領域と照合モデルとの類似度を以下のように算出する。
動体判定部342は、動体領域を構成する各画素の画素値に基づいて、動体領域の特徴量を算出する。
動体判定部342は、動体領域の特徴量と照合モデルに含まれる特徴情報が示す特徴量との差を類似度として算出する。
S254−3において、動体判定部342は、動体領域と照合モデルとの類似度が最大類似度より大きいか判定する。最大類似度の初期値はゼロである。
類似度が最大類似度より大きい場合、処理はS254−4に進む。
類似度が最大類似度より大きくない場合、処理はS254−4に進む。
S254−4において、動体判定部342は、最大類似度を動体領域と照合モデルとの類似度に更新し、照合モデルのモデル識別子を記憶する。
S255において、動体判定部342は、S253で選択していない未選択の対象体モデルがあるか判定する。
未選択の対象体モデルがある場合、処理はS253に戻る。
未選択の対象体モデルがない場合、処理はS256に進む。
S256において、動体判定部342は、最大類似度が類似度閾値より大きいか判定する。
最大類似度が類似度閾値より大きい場合、処理はS257に進む。
最大類似度が類似度閾値より大きくない場合、処理はS258に進む。
S257において、動体判定部342は、以下のように対象体領域を対象体検出データ349に登録する。対象体領域の登録は、対象体領域の領域識別子と対象体領域の領域情報との登録を意味する。
動体判定部342は、最大類似度の照合モデルから対象体識別子を取得する。
動体判定部342は、動体領域を対象体領域として、対象体領域と対象体識別子とを互いに対応付けて対象体検出データ349に登録する。
S258において、モデル取得部341は、S251で選択していない未選択の動体領域があるか判定する。
未選択の動体領域がある場合、処理はS251に戻る。
未選択の動体領域がない場合、対象体検出処理(S250)は終了する。
図15に戻り、S260から説明を続ける。
S260は色情報生成処理である。
S260において、色情報生成部350は以下のように色情報データ359を生成する。
色情報生成部350は、対象体検出データ349に登録された対象体領域毎に、対象体領域を構成する各画素の色情報に基づいて、対象体領域の色情報を生成する。
色情報生成部350は、対象体領域毎の色情報を色情報データ359に登録する。
対象体の色が赤である場合、赤を表すRGB値を有する画素が対象体領域に多く含まれる。したがって、赤を表すRGB値を有する画素が対象体領域に多く含まれる場合、対象体領域の色情報は赤を示す。
対象体領域の色情報を生成するために、R値とG値とB値と比較する色閾値、画素の数と比較する画素数閾値、RGB値に各色を対応付けたカラーパレットテーブルなどが用いられてもよい。例えば、同じ色を表す画素の数が画素数閾値より多い場合、その色を示す色情報が対象体領域の色情報である。
S270は解析結果生成処理である。
S270において、解析結果生成部360は、対象体検出データ349と色情報データ359とを用いて、解析結果データ140を生成する。
解析結果データ140は、映像データ119が表す映像の撮影日時、映像を識別するフレーム番号、対象体が映っている動体領域の範囲、対象体を識別する対象体識別子、対象体の色の特徴を示す色情報などを含む。
***効果の説明***
符号化された映像データ119を復号せずに、映像に映っている対象体を検出することができる。
映像解析の対象になる映像データ119が表す映像のうちの対象領域を判定することによって、映像解析の処理量を削減することができる。但し、全ての映像データ119に対して映像解析が行われてもよいし、利用者によって選択された映像データ119に対して映像解析が行われてもよい。
実施の形態2.
監視カメラ110がモデル記憶部114を備えない形態について、図21および図22に基づいて説明する。但し、実施の形態1と重複する説明は省略する。
***構成の説明***
図21に基づいて、監視システム100の構成について説明する。
監視システム100は、モデルデータベース400を記憶するモデルサーバ150を備える。
監視カメラ110は、モデルサーバ150のモデルデータベース400にアクセスすることによって、必要な対象体モデルを取得する。
図22に基づいて、監視カメラ110およびモデルサーバ150の機能構成について説明する。
モデルデータベース400を記憶するモデル記憶部114は、監視カメラ110の代わりに、モデルサーバ150に備わる。
映像解析装置300は、モデルサーバ150のモデルデータベース400にアクセスすることによって、必要な対象体モデルを取得する。
***動作の説明***
監視カメラ110、映像符号化装置200および映像解析装置300の動作は、実施の形態1と同じである。
但し、必要な対象体モデルは、モデルサーバ150のモデルデータベース400にアクセスすることによって取得される。
***効果の説明***
モデルデータベース400を記憶するためのハードディスクを監視カメラ110に備える必要がない。これにより、監視カメラ110の構成コストを削減することができる。
モデルサーバ150を設けることにより、大量の対象体モデルを備えるモデルデータベース400を用意することができる。これにより、対象体を検出する精度が向上する。
各実施の形態は、好ましい形態の例示であり、本発明の技術的範囲を制限することを意図するものではない。各実施の形態は部分的に実施してもよい。
フローチャート等を用いて説明した処理手順は、映像解析装置、映像解析方法、映像解析プログラム、映像符号化装置、映像符号化方法および映像符号化プログラムの処理手順の一例である。
100 監視システム、101 監視空間、102 被写体、103 映像、104 被写体領域、110 監視カメラ、111 データ受信部、112 データ送信部、113 符号化データ記憶部、114 モデル記憶部、119 映像データ、120 蓄積サーバ、121 データ受信部、122 符号化データ管理部、123 解析結果データ管理部、129 サーバ記憶部、130 符号化データ、131 DCT係数データ、132 動きベクトルデータ、133 符号化パラメータ、140 解析結果データ、150
モデルサーバ、200 映像符号化装置、210 映像データ受付部、220 動きベクトル算出部、230 動き補償予測部、231 差分算出部、232 重ね合わせ部、239 予測データ、240 DCT部、241 量子化部、242 エントロピー符号化部、243 逆量子化部、244 逆DCT部、247 差分データ、248 DCT係数データ、249 量子化係数データ、250 符号化データ管理部、290 前回データ記憶部、300 映像解析装置、310 映像データ受付部、311 完了通知受付部、320 解析実施判定部、321 変化量算出部、322 変化量判定部、323 解析指示部、330 動体領域検出部、331 パラメータ取得部、332 動体ブロック特定部、333 動体領域特定部、338 動体ブロックデータ、339 動体領域データ、340 対象体検出部、341 モデル取得部、342 動体判定部、348 照合モデル、349 対象体検出データ、350 色情報生成部、359 色情報データ、360 解析結果生成部、390 映像データ記憶部、400 モデルデータベース、410 第1領域データベース、411 第1の対象体モデル、411A サイズ情報、411B 特徴情報、411C 対象体識別子、412 第2の対象体モデル、420 第2領域データベース、421 第1の対象体モデル、422 第2の対象体モデル、430 第3領域データベース、901 プロセッサ、902 補助記憶装置、903 メモリ、904 通信装置、9041 レシーバ、9042 トランスミッタ、905 入力インタフェース、906 出力インタフェース、907 入力装置、908 出力装置、910 信号線、911 ケーブル、912 ケーブル。

Claims (11)

  1. 映像データが表す映像を分割した複数のブロックのブロック毎に、周波数成分別の離散コサイン変換係数を取得するパラメータ取得部と、
    前記複数のブロックから、周波数閾値より大きい高周波数の周波数成分のうちの少なくともいずれかの周波数成分の離散コサイン変換係数がゼロでないブロックを、動体が映っている動体ブロックとして特定する動体ブロック特定部と
    を備える映像解析装置。
  2. 前記パラメータ取得部は、前記複数のブロックのそれぞれに映っている被写体の動きを表す動きベクトルを取得し、
    前記動体ブロック特定部は、前記高周波の周波数成分のうちの少なくともいずれかの周波数成分の離散コサイン変換係数がゼロでないブロックのうち、動きベクトルの大きさが動き閾値以上であるブロックを、前記動体ブロックとして特定する
    請求項1に記載の映像解析装置。
  3. 前記動体ブロック特定部は、1つ以上の動体ブロックを特定し、
    前記映像解析装置は、
    前記1つ以上の動体ブロックのそれぞれのブロック位置に基づいて、前記映像から、少なくとも1つの動体ブロックを含んだ領域を動体領域として特定する動体領域特定部を備える
    請求項1に記載の映像解析装置。
  4. 前記1つ以上の動体ブロックのうちの第1の動体ブロックに隣接するいずれのブロックも動体ブロックでない場合、前記第1の動体ブロックを含んだ第1の動体領域は、前記第1の動体ブロックであり、
    前記第1の動体ブロックに隣接するブロックのいずれかが前記1つ以上の動体ブロックのうちの第2の動体ブロックである場合、前記第1の動体領域は、前記第1の動体ブロックと前記第2の動体ブロックとを含んだ矩形領域であり、
    前記第2の動体ブロックに隣接するブロックのいずれかが前記1つ以上の動体ブロックのうちの第3の動体ブロックである場合、前記第1の動体領域は、前記第1の動体ブロックと前記第2の動体ブロックと前記第3の動体ブロックとを含んだ矩形領域である
    請求項3に記載の映像解析装置。
  5. 検出する対象の動体である対象体の特徴を表す対象体モデルを照合モデルとして取得するモデル取得部と、
    前記照合モデルに基づいて、前記動体領域に映っている動体が前記対象体であるか判定する動体判定部と
    を備える請求項3に記載の映像解析装置。
  6. 前記モデル取得部は、前記照合モデルをモデルデータベースから取得し、
    前記モデルデータベースは、前記映像を垂直方向に分割して得られる複数の分割領域のそれぞれに、異なる対象体モデルを対応付けたファイルであり、
    前記照合モデルは、前記モデルデータベースに含まれる対象体モデルのうち、前記動体領域が属する分割領域に対応付いた対象体モデルである
    請求項5に記載の映像解析装置。
  7. 前記モデルデータベースに含まれるそれぞれの対象体モデルは、領域のサイズの範囲を示すサイズ情報を含み、
    前記動体判定部は、前記照合モデルに含まれるサイズ情報が示す範囲に前記動体領域のサイズが含まれることを条件として、前記動体領域に映っている動体が前記対象体であると判定する
    請求項6に記載の映像解析装置。
  8. 前記モデルデータベースに含まれるそれぞれの対象体モデルは、サイズ以外の特徴を表す特徴情報を含み、
    前記動体判定部は、前記照合モデルに含まれる特徴情報が表す特徴と前記動体領域の特徴との類似度が類似度閾値よりも高いことを条件として、前記動体領域に映っている動体が前記対象体であると判定する
    請求項7に記載の映像解析装置。
  9. 前記動体領域に映っている動体が前記対象体であると判定された場合、前記動体領域を構成する各画素の色情報に基づいて、前記対象体の色の特徴を表す色情報を生成する色情報生成部を備える
    請求項5に記載の映像解析装置。
  10. 前記動体領域の範囲を示す領域情報と、前記対象体の色の特徴を表す前記色情報と、を含んだ解析結果データを生成する解析結果生成部
    を備える請求項9に記載の映像解析装置。
  11. 前記映像解析装置は、
    第1の映像を表す第1の映像データと、前記第1の映像が撮影された時刻とは異なる時刻に撮影された第2の映像を表す第2の映像データと、を受け付ける映像データ受付部と、
    前記第1の映像を構成する各画素の画素値と、前記第2の映像を構成する各画素の画素値とに基づいて、前記第1の映像と前記第2の映像との変化量を算出する変化量算出部とを備え、
    前記動体ブロック特定部は、前記変化量が変化量閾値より大きい場合、前記第1の映像について前記動体ブロックを特定する
    請求項1に記載の映像解析装置。
JP2017504482A 2015-03-10 2015-03-10 映像解析装置 Active JP6415689B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/056984 WO2016143067A1 (ja) 2015-03-10 2015-03-10 映像解析装置

Publications (2)

Publication Number Publication Date
JPWO2016143067A1 true JPWO2016143067A1 (ja) 2017-06-29
JP6415689B2 JP6415689B2 (ja) 2018-10-31

Family

ID=56878568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017504482A Active JP6415689B2 (ja) 2015-03-10 2015-03-10 映像解析装置

Country Status (2)

Country Link
JP (1) JP6415689B2 (ja)
WO (1) WO2016143067A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111279388A (zh) * 2017-10-25 2020-06-12 株式会社索思未来 动态图像处理装置、动态图像处理系统、以及动态图像处理方法
US20230013468A1 (en) * 2019-12-06 2023-01-19 Kyocera Corporation Information processing system, information processing device, and information processing method
JP7316203B2 (ja) * 2019-12-06 2023-07-27 京セラ株式会社 情報処理システム、情報処理装置、および情報処理方法
JP7381330B2 (ja) * 2019-12-24 2023-11-15 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法
JP2021099629A (ja) * 2019-12-20 2021-07-01 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10247247A (ja) * 1997-03-04 1998-09-14 Oki Electric Ind Co Ltd 移動体抽出装置
JP2001250118A (ja) * 2000-03-06 2001-09-14 Kddi Corp 動画像内の移動物体検出追跡装置
JP2001339693A (ja) * 2000-05-26 2001-12-07 Toshiba Corp 動画像再生表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10247247A (ja) * 1997-03-04 1998-09-14 Oki Electric Ind Co Ltd 移動体抽出装置
JP2001250118A (ja) * 2000-03-06 2001-09-14 Kddi Corp 動画像内の移動物体検出追跡装置
JP2001339693A (ja) * 2000-05-26 2001-12-07 Toshiba Corp 動画像再生表示装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
米山暁夫、中島泰之、柳原広昌、菅野勝: "MPEGビデオストリームからの移動物体の検出", 電子情報通信学会論文誌 D-II, vol. 81, no. 8, JPN6015021424, 25 August 1998 (1998-08-25), JP, pages 1776 - 1786, ISSN: 0003872697 *
米山暁夫、中島泰之、氏原清乃: "MPEG動画像データからの移動物体の検出", 電子情報通信学会技術研究報告 IEICE TECHNICAL REPORT, vol. 96, no. 385, JPN6015021423, 22 November 1996 (1996-11-22), JP, pages 63 - 70, ISSN: 0003872696 *

Also Published As

Publication number Publication date
WO2016143067A1 (ja) 2016-09-15
JP6415689B2 (ja) 2018-10-31

Similar Documents

Publication Publication Date Title
JP6415689B2 (ja) 映像解析装置
US20200329233A1 (en) Hyperdata Compression: Accelerating Encoding for Improved Communication, Distribution & Delivery of Personalized Content
KR102500265B1 (ko) 블록의 모션 벡터에 기초한 이미지의 블록의 분산 결정
US20120275524A1 (en) Systems and methods for processing shadows in compressed video images
JP2007142521A (ja) 動きベクトル算出装置および動きベクトル算出方法
JP2008109632A (ja) 動きベクトル検出装置及びその方法
KR102261669B1 (ko) 인공신경망 기반 객체영역 검출방법, 장치 및 이에 대한 컴퓨터 프로그램
US10034016B2 (en) Coding apparatus, computer system, coding method, and computer product
WO2016189404A1 (en) Foreground motion detection in compressed video data
JP2009212605A (ja) 情報処理方法、情報処理装置及びプログラム
EP1480170A1 (en) Method and apparatus for processing images
US9736477B2 (en) Performing video encoding mode decision based on motion activity
US11164328B2 (en) Object region detection method, object region detection apparatus, and non-transitory computer-readable medium thereof
US20220132137A1 (en) Image encoding/decoding method and device using symmetric motion vector difference (smvd), and method for transmitting bitstream
CN113810654A (zh) 图像视频的上传方法、装置、存储介质以及电子设备
US20160057429A1 (en) Coding apparatus, method, computer product, and computer system
JP2007158855A (ja) 動きベクトル検出装置および動きベクトル検出方法
US10397566B2 (en) Image coding apparatus, image coding method, and program
JP2009267726A (ja) 動画像符号化装置、録画装置、動画像符号化方法、動画像符号化プログラム
JP2005302059A (ja) デジタル映像処理方法及びその装置
US10063880B2 (en) Motion detecting apparatus, motion detecting method and program
US11956441B2 (en) Identifying long term reference frame using scene detection and perceptual hashing
US9471992B2 (en) Moving image processing apparatus, moving image processing method, and computer product
JP2006014183A (ja) 画像符号化装置、画像符号化方法及びそのプログラム
JP6598943B2 (ja) 画像処理装置および方法並びに監視システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181002

R150 Certificate of patent or registration of utility model

Ref document number: 6415689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250