JP6368149B2 - 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法 - Google Patents

画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法 Download PDF

Info

Publication number
JP6368149B2
JP6368149B2 JP2014116200A JP2014116200A JP6368149B2 JP 6368149 B2 JP6368149 B2 JP 6368149B2 JP 2014116200 A JP2014116200 A JP 2014116200A JP 2014116200 A JP2014116200 A JP 2014116200A JP 6368149 B2 JP6368149 B2 JP 6368149B2
Authority
JP
Japan
Prior art keywords
label
region
image data
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014116200A
Other languages
English (en)
Other versions
JP2015231125A (ja
JP2015231125A5 (ja
Inventor
欣也 大佐
欣也 大佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014116200A priority Critical patent/JP6368149B2/ja
Priority to US14/729,199 priority patent/US9595113B2/en
Publication of JP2015231125A publication Critical patent/JP2015231125A/ja
Publication of JP2015231125A5 publication Critical patent/JP2015231125A5/ja
Application granted granted Critical
Publication of JP6368149B2 publication Critical patent/JP6368149B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions

Description

本発明は、画像や画像内の領域に関する情報を取り扱う技術に関するものである。
画像の領域分割処理は、画像内の類似した画素をまとめて領域として分割することで画像の構造的特徴を捉える事ができるため、物体検出やシーン分析、領域毎の画像処理(ノイズ削減処理など)の前処理として広く用いられている。なお、画像の領域分割処理は、セグメンテーション、スーパーピクセル分割とも呼ばれることがある。画像の領域分割の手法としては、クラスタリング手法による方法、平均値シフト、領域成長法、分割統合法、グラフベースの手法など様々な手法が提案されている。中でも特許文献1に述べられているk平均クラスタリングによる手法は、処理負荷が軽く、高速実行に向いている。k平均クラスタリングによる手法に関しては、これをさらに高速化するために、非特許文献1、非特許文献2に述べられているSLICや非特許文献3に述べられているgSLICという手法がある。
一方、領域分割処理結果の表現方法としては、図1(a)に示すラベルマップがある。ラベルマップは、画素毎にその画素の属する領域を識別するための領域ラベル(通常、番号)を格納したもので、画素数分のデータ格納領域を必要とする。このラベルマップを格納するためのデータ領域の削減には、特許文献2に示されたようにラベルマップをビットプレーン単位にJBIG圧縮する方式や、特許文献3に示されたように縮小と2値画像符号化を組み合わせて圧縮する方式がある。
特開平8-30787号公報 特開平9-98295号公報 特開平10-4549号公報
Radhakrishna Achanta, Appu Shaji, Kevin Smith, Aurelien Lucchi,Pascal Fua, Sabine Susstrunk, "SLIC Superpixels", EPFL Technical Report, 2010 Radhakrishna Achanta, Appu Shaji, Kevin Smith, Aurelien Lucchi,Pascal Fua, Sabine Susstrunk, "SLIC Superpixels Compared to State-of-the-Art Superpixel Methods", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 34, num. 11, p.2274-2282, 2012 Carl Yuheng Ren, Ian Reid, "gSLIC: a real-time implementation of SLIC superpixel segmentation", Technical report, Dept of Engineering Science, University of Oxford, 2011
ネットワークカメラとサーバから成る画像伝送システムにおいて、ネットワークカメラ内で実行した領域分割処理の結果をサーバに伝送して利用しようとする場合、領域分割処理結果をどういう形式で伝送するかが課題となる。もし、図1(a)のラベルマップの形式でデータを伝送すると、画像サイズ分のデータ転送が必要となり、伝送帯域を非常に多く使ってしまう。特許文献2、特許文献3に記載されたラベルマップの圧縮技術を用いれば、伝送データ量を数10分の1に抑えることができるが、伝送帯域はさらに減らせる限り減らすことが望ましい。
また、カメラ内部で領域分割を行い、その結果を用いて処理を行う場合にも、領域分割結果を保持して置くためのメモリサイズ、および、領域分割結果を読み出して使う際のメモリ転送帯域が同様に課題となる。また、画像データを蓄積する装置において、画像と共に領域分割結果をメタデータとして蓄積しておく場合、蓄積のための記憶領域サイズが同様に課題となる。
本発明は、このような問題に鑑みてなされたものであり、より少ない情報量で画像伝送を可能にする技術を提供する。
本発明の一様態は、画像伝送システムであって、
画像データと前記画像データに対応する領域分割の領域代表点を送信する送信装置と、
前記送信装置の送信した前記画像データと前記領域代表点を受信する受信装置を有し、
前記送信装置は、リサイズされた画像データとリサイズ前の画像データに対する領域代表点を送信し、
前記受信装置は、前記リサイズされた画像データと前記リサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成することを特徴とする。
本発明の構成によれば、より少ない情報量で画像伝送を可能にすることができる。
ラベルマップとシードとを示す図。 システムの構成例を示すブロック図。 Superpixel生成部204が行う処理を説明する図。 Superpixel生成部204が行う処理のフローチャート。 ラベル生成部210が行う処理を説明する図。 ラベル生成部210が行う処理のフローチャート。 システムの構成例を示すブロック図。 ラベルマップを示す図。 シード計算部703が行う処理のフローチャート。 システムの構成例を示すブロック図。 カメラ1101の構成例を示すブロック図。 カメラ1201の構成例を示すブロック図。 カメラ1301の構成例を示すブロック図。 画像蓄積装置1401の構成例を示すブロック図。 画像蓄積装置1501の構成例を示すブロック図。 画像蓄積装置1601の構成例を示すブロック図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
先ず、本実施形態に係るシステム(画像伝送システム)の構成例について、図2のブロック図を用いて説明する。図2に示す如く、本実施形態に係るシステムは、送信装置としてのネットワークカメラ201と受信装置としてのサーバ装置207とを有し、ネットワークカメラ201とサーバ装置207との間は、LANやインターネットなどの伝送路206を介して接続されている。
先ず、ネットワークカメラ201について説明する。
撮影部202は現実空間の動画像若しくは静止画像を撮像するものであり、撮像した画像(動画像の場合は各フレームの画像、静止画像の場合は該静止画像そのもの)は、後段の符号化部203及びSuperpixel生成部204に送出される。
符号化部203は、撮影部202から送出された画像に対して符号化処理を行って符号化画像を生成し、該符号化画像を後段の送信部205に対して送出する。なお、符号化部203が採用する符号化方式は特定の符号化方式に限るものではない。なお、この符号化処理は必須の処理ではなく、符号化部203は、撮影部202から送出された画像を符号化せずにそのまま出力しても良い。
Superpixel生成部204は、撮影部202から送出された画像に対してSuperpixel生成処理(領域分割処理)を行って該画像を複数の領域に分割し、領域毎に該領域の代表点(シード)と該領域とを関連づける情報(シードデータ)を生成して後段の送信部205に送出する。
送信部205は、符号化部203から送出された符号化画像と、Superpixel生成部204から送出された領域毎のシードデータと、を伝送路206を介してサーバ装置207に対して送信する。
次に、サーバ装置207について説明する。
受信部208は、伝送路206を介してネットワークカメラ201から送信された符号化画像及び領域毎のシードデータを受信し、符号化画像は復号化部209に対して送出し、領域毎のシードデータはラベル生成部210に対して送出する。
復号化部209は、符号化画像を復号して復号画像を生成し、該復号画像を後段のラベル生成部210に対して送出する。もちろん、ネットワークカメラ201側で撮像画像に対して符号化処理を行っていない場合には、符号化画像ではなく撮像画像そのものがネットワークカメラ201から送信されるので、この場合、復号化部209はこの撮像画像をそのまま復号画像として後段のラベル生成部210に対して送出する。
ラベル生成部210は、復号化部209から送出された復号画像に対して、受信部208から受信したシードデータを用いてラベリング処理を行い、該復号画像と該ラベリング処理の結果と、を後段の領域処理部215に対して送出する。
領域処理部215は、ラベル生成部210から送出された復号画像及びラベリング処理の結果を用いて、該復号画像内のラベル毎の領域に対してカテゴリ(例えば、人物、山、など)の認識を行い、その結果を出力する。
ここで、ラベル生成部210についてより詳細に説明する。
シード管理部213は、受信部208から送出された領域毎のシードデータをシードバッファ212に格納する。
距離計算部211は、復号化部209から送出された復号画像を構成する画素毎に、シードバッファ212に格納されているシードデータに対応するシードとの間の距離を計算する。
ラベル決定部214は、距離計算部211による計算結果に基づいて、復号画像を構成する画素毎に、該画素に対応するシードを特定し、該シードに対応するラベルを該画素に対応づけて出力する。
次に、領域処理部215についてより詳細に説明する。
領域別ヒストグラム計算部216は、ラベル決定部214から送出された復号画像とラベルとを用いて、ラベル毎に、該ラベルに対応する画素群のヒストグラム(画素値のヒストグラム)を、ヒストグラムメモリ217を利用しながら作成する。そして領域別ヒストグラム計算部216は、ヒストグラムを作成するたびに、該ヒストグラムを後段の領域カテゴリ認識部218に対して送出する。
領域カテゴリ認識部218は、領域別ヒストグラム計算部216から送出された領域毎のヒストグラムを用いて、該領域に対するカテゴリ判別を行う。カテゴリ判別の方法としては、ルールベースの手法、ニューラルネットを用いた方法、SVMなどの判別器を用いた方法など種々の手法が適用可能である。
次に、上記のSuperpixel生成部204が行う処理について、同処理のフローチャートを示す図4を用いて説明する。なお、Superpixel生成部204は、図4のフローチャートに従った処理を開始する前に、撮像画像を構成する各画素について、以下の式(1)に示すような5次元ベクトルを生成する。
Figure 0006368149
式(1)に示したpiは、撮像画像においてi(i=1、…、M:Mは撮像画像の総画素数)番目の画素(画素i)に対するベクトルを表しており、画素iの座標位置(xi、yi)と、該座標位置(xi、yi)のCIELAB色空間における画素値li、ai、biと、を要素として含むベクトルである。
然るに、Superpixel生成部204は、ベクトルpiを生成する場合、(xi、yi)にはそれぞれ画素iのx座標値、y座標値を設定し、画素値li、ai、biにはそれぞれ、該座標位置(xi、yi)におけるL値、a値、b値を設定する。
<ステップS401>
先ず、撮影部202から送出された画像(以下、撮像画像)を、複数の矩形領域に分割し、各矩形領域内に1つの代表点、即ちシードを設定する。例えば、図3(a)に示す如く、撮像画像301を縦4個×横6個の計24個の矩形領域302に分割し、且つそれぞれの矩形領域302内に1つのシード303を設定する。
そして、撮像画像内のj(j=1、…、N:Nは矩形領域数で、図3(a)の場合はN=24)番目の矩形領域(矩形領域j)内に設定されたシード(シードj)に対するベクトルCjを初期化する。ベクトルCjは、以下の式(2)に示すような5次元のベクトルである。
Figure 0006368149
具体的には、ベクトルCjは、撮像画像内におけるシードjの座標位置(xj、yj)と、該座標位置(xj、yj)のCIELAB色空間における画素値lj、aj、bjと、を要素として含むベクトルである。然るにこのベクトルCjの初期化では、(xj、yj)にはそれぞれ、撮像画像内におけるシードjのx座標値、y座標値を設定し、画素値lj、aj、bjにはそれぞれ、該座標位置(xj、yj)におけるL値、a値、b値を設定する。このようなベクトルCjの初期化を、j=1〜Nについて行うことで、各シードに対するベクトルを初期化することができる。また、各シードのベクトルには、該シードが属する矩形領域を示す情報を割り当てる。例えば、図3(a)の場合、左上隅の矩形領域中のシードのベクトルC1には、左上隅の矩形領域の識別情報(例えば領域ID=1)を割り当てる。
なお、ここでは、非特許文献1、2、3に合わせてCIELAB色空間を用いて説明しているが、Superpixel生成に使用する色空間として、RGB色空間やYCC色空間など他の色空間を使用してもよい。
また、本ステップでは、以下の処理で用いる変数iを1に初期化する。
<ステップS402>
撮像画像からi番目の画素を選択画素(画素i)として選択する。撮像画像からの画素の選択順については特定の選択順に限るものではないが、例えば図3(b)の点線304で示す如く、ラスタスキャン順で選択しても良い。
<ステップS403>
ステップS401において生成されたそれぞれの矩形領域のうち、画素iが属する矩形領域を特定すると共に、該特定した矩形領域に隣接する8個の矩形領域を特定する。そしてこの特定した9個の矩形領域のそれぞれに対応するシード(候補代表点)のうち未選択のシードを選択する。図3(b)の場合、選択画素305を含む矩形領域及び該矩形領域に隣接する8個の矩形領域から成る3×3の矩形領域(太い破線306で囲った矩形領域群)中のシードは黒丸307〜315で示しており、そのうちの未選択のシードを取得する。
<ステップS404>
ステップS402で選択した画素iのベクトルpiと、ステップS403で選択したシードのベクトルと、を用いて以下の式(3)〜(6)を計算する(式(3)〜(6)では、ステップS403で選択したシードのベクトルをCjとしている)。
Figure 0006368149
Figure 0006368149
Figure 0006368149
Figure 0006368149
この計算により、画素iと、ステップS403で選択したシードと、の間の特徴空間における距離測度Dを計算する。距離測度Dは、式(3)に示す色空間上のユークリッド距離dc、式(4)に示す座標空間上のユークリッド距離dsを用いて、式(5)により計算できる。ここで、グリッド間隔Sは画素数Nと領域数Kから、式(6)により決まり、mはdcとdsの重みづけを行うパラメータである。なお、ここでは、非特許文献2に示された距離測度Dを示したが、距離測度の式はこの式に限定されるものではなく、他の式による計算であってもよい。
<ステップS405>
画素iについてこれまでに求めた距離測度Dのうち、今回ステップS404で求めた距離測度Dが最小である場合には、ステップS403で選択したシードを画素iに割り当てる。
<ステップS406>
画素iを含む矩形領域及び該矩形領域に隣接する8個の矩形領域のそれぞれに対応するシードを全て選択したか否かを判断する。この判断の結果、全て選択した場合には、処理はステップS407に進み、未選択のシードが残っている場合には、処理はステップS403に戻る。
<ステップS407>
撮像画像を構成する全ての画素を選択画素として選択したか否かを判断する。すなわち、変数iの値がMに達したか否かを判断する。この判断の結果、全ての画素を選択した場合には、処理はステップS408に進み、未選択の画素が残っている場合には、変数iの値を1つインクリメントして処理はステップS402に戻る。
<ステップS408>
ステップS408に処理が進んだ時点で、撮像画像を構成する各画素には、何れかのシードが割り当てられていることになる。然るに本ステップでは、シード毎に、該シードが割り当てられているそれぞれの画素のベクトル中の座標位置を用いて平均座標位置を求め、該シードのベクトル中の座標位置を該平均座標位置で更新する。更に本ステップでは、シード毎に、該シードが割り当てられているそれぞれの画素のベクトル中の画素値を用いて平均画素値を求め、該シードのベクトル中の画素値を該平均画素値で更新する(l、a、bのそれぞれについて)。
これにより、図3(c)に示す如く、それぞれのシードの座標位置は更新され、場合によっては、シードは、元々属していた矩形領域の外に移動する。しかし、非特許文献3に述べられたgSLICでは、各シードとそのシードが属するブロックの対応関係は固定されており、選択画素の座標位置が与えられた場合に、図3(b)のように対応づけられる9個のシードの対応関係は決まっている。
本実施形態の場合、それぞれのシードのベクトルは、該シードが元々属していた矩形領域と関連づけられているので、シードの位置がどのように変更されようとも、該シードが元々属していた矩形領域との関連づけは変化しない。図3(c)では、シードと該シードが元々属していた矩形領域との間に点線を付している。
<ステップS409>
ステップS408によるそれぞれのシードの座標位置の変更量が規定量以下となったか、あるいはクラスタリングのディストーション値が一定以下になったか、ステップS402〜S408の処理を規定回数以上実行したか、等の収束条件が満たされたか否かを判断する。この判断の結果、収束条件が満たされた場合には、処理はステップS410に進み、収束条件が満たされていない場合には、変数iの値を1に初期化した後、処理はステップS402に戻る。
<ステップS410>
シード毎に、該シードのベクトルと、該シードが属する矩形領域の識別情報と、を含むシードデータを生成し、該生成したシードデータを、後段の送信部205に対して送出する。
次に、ラベル生成部210が行う処理について、同処理のフローチャートを示す図6を用いて説明する。なお、ラベル生成部210は、図6のフローチャートに従った処理の開始前に、復号化部209から送出された復号画像を構成する各画素について、上記のベクトルpiを生成する。
<ステップS601>
シード管理部213は、受信部208が受信したシードデータをシードバッファ212に格納する。なお、ネットワークカメラ201からサーバ装置207へのシードデータの転送単位やシードバッファ212への格納単位は特定の格納単位に限るものではない。すなわち、画像全体のシードデータをネットワークカメラ201から受け取ってシードバッファ212に格納しても良いし、シードバッファ212の容量単位でシードデータをネットワークカメラ201から受信してシードバッファ212に格納するようにしても構わない。以下ではネットワークカメラ201側で1枚の撮像画像に対して生成したシードデータを一度に取得してシードバッファ212に格納した場合について説明する。例えば、図5(a)に示す如く、撮像画像501内の4×6の矩形領域503のそれぞれに対するシード502のシードデータがシードバッファ212に格納されたものとする。上記の通り、シードによっては、例えば右下のいくつかの矩形領域のようにシードは対応づけられた矩形領域の内部にあるとは限らない。
本ステップでは更に、距離計算部211は、以下の処理で用いる変数iの値を1に初期化する。
<ステップS602>
距離計算部211は、復号化部209から送出された復号画像からi番目の画素を選択画素(画素i)として選択する。復号画像からの画素の選択順については特定の選択順に限るものではないが、例えば図5(b)の点線で示す如く、ラスタスキャン順で選択しても良い。
<ステップS603>
距離計算部211は先ず、復号画像を複数の矩形領域に分割する。この分割処理は上記のステップS401における分割と同様の処理である。なお、撮像画像上の各矩形領域と復号画像上の各矩形領域とで、同位置にある矩形領域には同じ識別情報が割り当てられるものとする。しかし、一方の画像と他方の画像とで同じ位置にある矩形領域を特定することができるのであれば、同じ識別情報でなくても良い。
そして距離計算部211は、それぞれの矩形領域のうち、画素iが属する矩形領域を特定すると共に、該特定した矩形領域に隣接する8個の矩形領域を特定する。そして距離計算部211は、この特定した9個の矩形領域のそれぞれの識別情報を含むシードデータのうち未選択のシードデータをシードバッファ212から取得する。図5(b)の場合、選択画素504を含む矩形領域及び該矩形領域に隣接する8個の矩形領域から成る3×3の矩形領域(太い破線505で囲った矩形領域群)中のシードは白丸506〜514で示しており、そのうちの未選択のシードのシードデータを取得する。
なお、黒丸515が示すシードは上記の9個の矩形領域から成る領域内に位置しているものの、このシードはこの9個の矩形領域以外の矩形領域内のシードが移動してきたものであるため、このシードのシードデータは選択されない。
<ステップS604>
距離計算部211は、画素iのベクトルpiと、ステップS603で選択したシードデータ内のベクトルと、を用いて上記の式(3)〜(6)を計算する(式(3)〜(6)では、ステップS603で選択したシードデータ内のベクトルをCjとしている)。この計算により、画素iと、ステップS603で選択したシードデータに対応するシードと、の間の距離測度Dを計算する。なお、ここでは、非特許文献2に示された距離測度Dを示したが、距離測度の式はこの式に限定されるものではなく、他の式による計算であってもよい。
<ステップS605>
ラベル決定部214は、画素iについてこれまでに求めた距離測度Dのうち、今回ステップS604で求めた距離測度Dが最小である場合には、ステップS603で選択したシードデータを画素iに割り当てる(図5(c))。
<ステップS606>
距離計算部211は、画素iを含む矩形領域及び該矩形領域に隣接する8個の矩形領域のそれぞれの識別情報を含むシードデータを全て選択したか否かを判断する。この判断の結果、全て選択した場合には、処理はステップS607に進み、未選択のシードデータが残っている場合には、処理はステップS603に戻る。
<ステップS607>
ラベル決定部214は、復号画像と、画素iに割り当てられているシードデータに対応するラベル値と、を出力する。
<ステップS608>
距離計算部211は、撮像画像を構成する全ての画素を選択画素として選択したか否かを判断する。すなわち、変数iの値がMに達したか否かを判断する。この判断の結果、全ての画素を選択した場合には、図6のフローチャートに従った処理は終了し、未選択の画素が残っている場合には、変数iの値を1つインクリメントして処理はステップS602に戻る。
このように、本実施形態では、ネットワークカメラ201からサーバ装置207へは、図1(a)に示したような、画素毎のラベルを記したラベルマップではなく、画素数よりも少ない数のシード(図1(b))のベクトルと該シードが属する分割領域の情報とを含むシードデータを送信する。そして、サーバ装置207は、このシードデータを用いて、ネットワークカメラ201から送信された画像に対する領域分割処理を実施することができる。すなわち、本実施形態によれば、図1(a)に示したようなラベルマップよりも少ないデータ量で領域分割処理を実現することができる。そのため、伝送路206における伝送帯域も削減することができる。
なお、本実施形態では、Superpixel生成部204が取り扱う画像は符号化前(圧縮前)の画像(撮像画像)で、サーバ装置207へはこの撮像画像を符号化して送信している。ここで、この符号化に非可逆符号化を適用した場合、サーバ装置207側で復号した復号画像とSuperpixel生成部204が取り扱っている画像とは必ずしも一致せず、サーバ装置207のラベル生成部210で得られるラベルは、Superpixel生成部204における領域分割結果と厳密には一致しない。ただ、極端に画質が劣化するような圧縮がかかっていなければ、ラベル生成部210において実用的に使用可能なレベルの領域分割結果が得られる。
あるいは、符号化部203は符号化した画像を復号したローカル復号画像を生成し、Superpixel生成部204はこのローカル復号画像を用いてシードデータを生成しても構わない。これにより、符号化部203において非可逆符号化を行っても、Superpixel生成部204の領域分割結果とラベル生成部210の領域分割結果を一致させることができる。
ネットワークカメラ201とサーバ装置207とが同じ方法で画像分割を行うために、ネットワークカメラ201側で画像分割に利用したパラメータ(K, S, m等)を、符号化画像及びシードデータに加えてサーバ装置207に対して送信しても良い。然るに距離計算部211は、このパラメータを用いることで、Superpixel生成部204が行った画像分割と同じ方法で画像分割を行うことができる。
また、距離測度Dとして非特許文献2とは異なる式を用いる場合には、その式に固有のパラメータをネットワークカメラ201からサーバ装置207に送信し、サーバ装置207側でこのパラメータを用いても構わない。
また、本実施形態では、領域処理部215は同じラベルの領域毎にカテゴリ認識を行うものとして説明したが、該領域に対する処理はこれに限るものではなく、領域情報を用いた物体検出、シーン判別、領域別画像処理など他の処理を行うようにしても構わない。
[第2の実施形態]
本実施形態に係るシステムの構成例について、図7のブロック図を用いて説明する。なお、図7において、図2に示した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
第1の実施形態では、ネットワークカメラ201側(Superpixel生成部204)とサーバ装置207側(ラベル生成部210)とで同じ領域分割アルゴリズムを採用していた。本実施形態では、ネットワークカメラ701側とサーバ装置207側とでそれぞれ異なる領域分割アルゴリズムを採用する点が第1の実施形態と異なる。
ネットワークカメラ701においてSuperpixel生成部702は、撮影部202から送出された撮影画像に対して、例えば、平均値シフト、領域成長法、分割統合法、グラフベースの手法などの手法を用いて領域分割を行い、分割した領域毎に異なるラベルを割り当てることで、図8(a)に示すようなラベルマップを生成する。
シード計算部703は、Superpixel生成部702が生成したラベルマップと、撮影部202による撮像画像と、を用いて、ラベル毎の領域のベクトルCjを生成する。
シード計算部703が行う処理について、同処理のフローチャートを示す図9を用いて説明する。
<ステップS901>
先ず、以下の処理で、ラベル毎に座標位置の合計値及び色要素の合計値を求めるために用いる変数配列SUM[label][element]を全て0に初期化する。「label」は、Superpixel生成部702において使用したラベルを表し、図8(a)の場合はlabel=1〜12となる。一方、「element」は、画素数を表すN、x座標値を表すX、y座標値を表すY、L値を表すl、a値を表すa、b値を表すb、である。また、本ステップでは、以下の処理で用いる変数iを1に初期化する。
<ステップS902>
撮像画像からi番目の画素を選択画素(画素i)として選択する。撮像画像からの画素の選択順については特定の選択順に限るものではないが、例えば、ラスタスキャン順で選択しても良い。
<ステップS903>
画素iのラベル値Lをラベルマップから読み出す。
<ステップS904>
SUM[L][N]の値を1つインクリメントして、ラベルLの画素数を計数する。また、SUM[L][X]に格納されている値(x座標値)に画素iのx座標値を加算した結果を再度SUM[L][X]に格納することで、ラベルLの画素のx座標値を累積する。また、SUM[L][Y]に格納されている値(y座標値)に画素iのy座標値を加算した結果を再度SUM[L][Y]に格納することで、ラベルLの画素のy座標値を累積する。
<ステップS905>
撮像画像から画素iのL値、a値、b値を読み出す。なお、撮像画像の色空間がLab色空間以外である場合には、撮像画像から読み出した画素iの画素値をL値、a値、b値に変換する。
<ステップS906>
SUM[L][l]に格納されている値(L値)に画素iのL値を加算した結果を再度SUM[L][l]に格納することで、ラベルLの画素のL値を累積する。また、SUM[L][a]に格納されている値(a値)に画素iのa値を加算した結果を再度SUM[L][a]に格納することで、ラベルLの画素のa値を累積する。また、SUM[L][b]に格納されている値(b値)に画素iのb値を加算した結果を再度SUM[L][b]に格納することで、ラベルLの画素のb値を累積する。
<ステップS907>
撮像画像を構成する全ての画素を選択画素として選択したか否かを判断する。すなわち、変数iの値がMに達したか否かを判断する。この判断の結果、全ての画素を選択した場合には、処理はステップS908に進み、未選択の画素が残っている場合には、変数iの値を1つインクリメントして処理はステップS902に戻る。
<ステップS908>
変数Lの値を1に初期化する。
<ステップS909>
変数配列SEED[L][X]に、SUM[L][X]/SUM[L][N]の値、即ち、ラベルLを有する画素の平均x座標値を格納する。また、変数配列SEED[L][Y]に、SUM[L][Y]/SUM[L][N]の値、即ち、ラベルLを有する画素の平均y座標値を格納する。また、変数配列SEED[L][l]に、SUM[L][l]/SUM[L][N]の値、即ち、ラベルLを有する画素の平均L値を格納する。また、変数配列SEED[L][a]に、SUM[L][a]/SUM[L][N]の値、即ち、ラベルLを有する画素の平均a値を格納する。また、変数配列SEED[L][b]に、SUM[L][b]/SUM[L][N]の値、即ち、ラベルLを有する画素の平均b値を格納する。
<ステップS910>
変数Lの値を1つインクリメントする。
<ステップS911>
変数Lの値が、ラベルマップにおいて使用されている最大ラベル値(図8(a)の場合は最大ラベル値は12)を超えているか否かを判断する。この判断の結果、超えている場合には、処理はステップS912に進み、超えていない場合には、処理はステップS909に戻る。
<ステップS912>
処理がステップS912に進んだ時点で、ラベル毎に、該ラベルを有する画素の平均画素位置(x座標値、y座標値)、平均色(L値、a値、b値)が求まったことになる。図8(b)に領域分割結果とシード(分割領域の重心点)を示す。
以上の処理により、ラベルLごとに、SEED[L][X]、SEED[L][Y]、SEED[L][l]、SEED[L][a]、SEED[L][b]、を要素とするベクトルを規定することができるため、以降は第1の実施形態と同様となる。
なお、図9のフローチャートで計算されたシードに関しては、図3(c)の破線で示したような矩形領域との対応関係が無い。しかし、シードを平均座標位置により並べて、適宜分割領域と対応付けることにより、ラベル生成部210で第1の実施形態と同様に、gSLICと同様の方式による領域分割が可能となる。あるいは、シードと分割領域の対応づけをせず、ラベル生成部210で、非特許文献1、非特許文献2記載のSLICのように現画素の近傍位置にあるシードを求めて、距離比較を行い、領域分割を行ってもよい。
なお、本実施形態では、ラベル生成部210で用いる色空間としてCIELAB色空間を用いて説明しているが、RGB色空間やYCC色空間など他の色空間を使用しても構わない。
[第3の実施形態]
本実施形態に係るシステムの構成例について、図10のブロック図を用いて説明する。なお、図10において上記の実施形態で説明した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
第1の実施形態では、ネットワークカメラ201側のSuperpixel生成部204が取り扱う画像のサイズと、送信部205が送信する画像のサイズと、は同じであった。本実施形態では、両者の画像サイズが異なっている点が違いである。
リサイズ部1002は、撮影部202による撮像画像に対して拡大処理若しくは縮小処理を行ってそのサイズが変倍された撮像画像を生成する。然るに符号化部1003は、このリサイズ部1002により変倍された撮像画像に対して符号化処理を行って符号化画像を生成する。
送信部1004は、Superpixel生成部204によるシードデータに加えて、符号化部203による符号化画像及び/又は符号化部1003による符号化画像を、伝送路206を介してサーバ装置1005に対して送信する。
サーバ装置1005が第1の実施形態のサーバ装置207と異なる点は、ラベル生成部1006は、ネットワークカメラ1001から変倍された撮像画像を受信した場合には、この変倍に対応したラベル生成を行うことにある。
変倍率r倍でリサイズされた画像(復号化部209による復号画像)から選択した選択画素(画素i)と、該画像を第1の実施形態と同様にして分割したそれぞれの矩形領域のうち画素iが属する矩形領域及び該矩形領域に隣接する8個の矩形領域のそれぞれに対応するシードから選択した選択シードと、の間のリサイズされた座標空間におけるユークリッド距離d’sは以下の式(7)で表される。さらに、このとき、リサイズ前の画像に対する距離測度に換算した値が得られるような距離測度Dは以下の式(8)で表される。
Figure 0006368149
Figure 0006368149
変倍対応距離計算部1007は、上記の式(3)、(6)、(7)、(8)を計算することで、リサイズ前の画像の領域分割と同様の領域分割をリサイズ後の画像に対して行うことが可能となる(式(3)、(6)、(7)、(8)では、選択シードのベクトルをCjとしている)。
このように、本実施形態によれば、ネットワークカメラ1001からリサイズされた画像を送る場合であっても、元画像サイズに対応するシードデータを送ることで、該リサイズされた画像とシードデータとからラベル生成部1006により領域分割結果が得られるので、本実施形態においても、第1の実施形態と同様に、伝送路206における伝送帯域を削減することができる。
なお、本実施形態では、原画像から1種類の変倍画像を生成する例を説明したが、それぞれ異なる変倍率で変倍した変倍画像を生成してサーバ装置1005に送信するようにしても構わない。その場合であっても、元画像サイズに対応するシードデータと変倍率があれば、ラベル生成部1006によりリサイズ前の画像と同様の領域分割結果を得ることができる。なお、この変倍率は、サーバ装置1005側で改めて入力しても構わないし、ネットワークカメラ1001からサーバ装置1005に対して送信しても構わない。
[第4の実施形態]
本実施形態に係るカメラ1101の構成例について、図11のブロック図を用いて説明する。係るカメラは、画像データに対して領域分割を行い領域分割の領域代表点を出力する領域分割機能と、領域代表点を保持するデータ保持機能と、領域代表点に対する画像データを保持する画像データ保持機能と、画像データ保持機能により保持する画像データとデータ保持機能により保持する領域代表点を読み出して領域ラベルを生成するラベル生成機能と、領域ラベルを用いた処理を行う領域処理機能を有し、領域処理機能は、ラベル生成機能により生成した領域ラベルを用いて処理を行う。
センサ部1102は、CMOSセンサなど外界の光を画像信号に変換して出力するものであり、現像部1103はこの画像信号をディジタルデータとしての撮像画像に変換し、該変換した撮像画像を画像データ1115としてメモリ部1114に格納する。
メモリ部1114は、様々なデータを格納するための領域を提供するものであり、データの読み書きが適宜可能なメモリである。
Superpixel生成部1104は、第1の実施形態におけるSuperpixel生成部204と同様の動作を行うものであり、メモリ部1114に画像データ1115として格納された撮像画像を読み出し、該撮像画像から領域毎のシードデータ1116を生成し、該生成したシードデータ1116をメモリ部1114に格納する。すなわちSuperpixel生成部1104は、図4のフローチャートに従った処理を行うことになる。
ラベル生成部1105は、第1の実施形態におけるラベル生成部210と同様の動作を行うものであり、メモリ部1114から画像データ1115とシードデータ1116とを読み出してラベリング処理を行い、該画像データ1115とラベリング処理の結果とを領域処理部1110に対して送出する。すなわちラベル生成部1105は、図6のフローチャートに従った処理を行うことになる。
領域処理部1110は、画像データ1115とラベリング処理の結果とを用いて、画像データ1115が表す撮像画像内のラベル毎の領域に対してカテゴリ(例えば、人物、山、など)の認識を行い、その結果を領域カテゴリ認識結果1117としてメモリ部1114に格納する。
次に、ラベル生成部1105についてより詳細に説明する。
シード管理部1108は、メモリ部1114から読み出した領域毎のシードデータをシードバッファ1107に格納する。
距離計算部1106は、メモリ部1114から読み出した画像データ1115が表す撮像画像を構成する画素(画像データ中の各画素)毎に、シードバッファ1107に格納されているシードデータに対応するシードとの間の距離を計算する。
ラベル決定部1109は、距離計算部1106による計算結果に基づいて、撮像画像を構成する画素毎に、該画素に対応するシードを特定し、該シードに対応するラベルを該画素に対応づけて出力する。
次に、領域処理部1110についてより詳細に説明する。
領域別ヒストグラム計算部1111は、ラベル決定部1109から送出された撮像画像とラベルとを用いて、ラベル毎に、該ラベルに対応する画素群のヒストグラム(画素値のヒストグラム)を、ヒストグラムメモリ1112を利用しながら作成する。そして領域別ヒストグラム計算部1111は、ヒストグラムを作成するたびに、該ヒストグラムを後段の領域カテゴリ認識部1113に対して送出する。
領域カテゴリ認識部1113は、領域別ヒストグラム計算部1111から送出された領域毎のヒストグラムを用いて、該領域に対するカテゴリ判別を行う。カテゴリ判別の方法としては、ルールベースの手法、ニューラルネットを用いた方法、SVMなどの判別器を用いた方法など種々の手法が適用可能である。
このように、本実施形態によれば、ラベル生成部1105の生成したラベルはメモリ部1114にラベルマップとして格納されること無く、領域処理部1110で使用される。このため、メモリ部1114にラベルマップ(あるいは圧縮ラベルマップ)を置く場合と比べてメモリの使用量を削減でき、また、メモリ部1114へのアクセス帯域を低減することができる。
なお、Superpixel生成部1104で用いた領域分割のためのパラメータ(K, S, m等)をメモリ部1114にパラメータとして保持しておき、ラベル生成部1105でこのパラメータをメモリ部1114から読み込んで使用してもよい。距離測度Dとして非特許文献2とは異なる式を用いる場合には、その式に固有のパラメータをメモリ部に格納して、ラベル生成処理に使用してもよい。
また、本実施形態においては、領域処理部1110の処理として領域毎のカテゴリ認識を行っているが、領域処理の内容はこれに限定されるものではなく、領域情報を用いた物体検出、シーン判別、領域別画像処理など他の処理であってもよい。また、図11においては、領域処理部1110は一つだけ示されているが複数あっても良く、また、一つの領域処理部1110を複数回動作させてもよい。
また、図11においては、Superpixel生成部1104とラベル生成部1105は別々に示されているが、図4、図6のフローチャートを比較してわかるように両者は共通の処理を含む。従って、Superpixel生成部1104が行う処理とラベル生成部1105が行う処理とで共通の処理については新たに設けた機能部に実行させるようにしても構わない。この場合、Superpixel生成部1104及びラベル生成部1105は、この機能部による結果を用いて、上記共通の処理以外の処理を実行することになる。あるいは、Superpixel生成部1104とラベル生成部1105の両方の処理ができる一つの処理部を設けてもよい。
[第5の実施形態]
本実施形態に係るカメラ1201の構成例について、図12のブロック図を用いて説明する。図12において上記の実施形態で説明した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。第4の実施形態では、Superpixel生成部1104とラベル生成部1105とで同じ領域分割アルゴリズムを使用していたが、本実施形態では、両者のアルゴリズムが異なっている。
Superpixel生成部1202は、ラベル生成部1105とは異なる領域分割アルゴリズムを用いて画像データ1115に対する領域分割処理を行う。例えば、平均値シフト、領域成長法、分割統合法、グラフベースの手法などの手法を用いて画像の領域分割を行う。
シード計算部1203は、第2の実施形態におけるシード計算部703と同様の動作を行うものであり、Superpixel生成部1202が生成したラベルマップと、画像データ1115が表す撮像画像と、を用いて、ラベル毎の領域のベクトルCjを生成する。すなわち、シード計算部1203は、図9のフローチャートに従った処理を行うことになる。
なお、図9のフローチャートで計算されたシードに関しては、図3(c)の破線で示したような矩形領域との対応関係が無い。しかし、シードを平均座標位置により並べて、適宜、矩形領域と対応付けることにより、ラベル生成部1105で第1の実施形態と同様に、gSLICと同様の方式による領域分割が可能となる。あるいは、シードと矩形領域の対応づけをせず、ラベル生成部1105で、非特許文献1、非特許文献2記載のSLICのように現画素の近傍位置にあるシードを求めて、距離比較を行い、領域分割を行ってもよい。
以降は第4の実施形態と同様であり、ラベル生成部1105において、シード計算部1203が求めたシードデータを用いてラベルが決定され、そのラベルを用いて領域処理部1110が領域カテゴリ認識を行う。
このように、本実施形態によれば、ラベル生成部1105の生成したラベルはメモリ部1114にラベルマップとして格納されること無く、領域処理部1110で使用される。このため、メモリ部1114にラベルマップ(あるいは圧縮ラベルマップ)を置く場合と比べてメモリの使用量を削減でき、また、メモリ部1114へのアクセス帯域を低減することができる。
[第6の実施形態]
本実施形態に係るカメラ1301の構成例について、図13のブロック図を用いて説明する。図13において上記の実施形態で説明した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
第4の実施形態では、Superpixel生成部1104が取り扱う画像のサイズとラベル生成部1105が取り扱う画像のサイズとは同じであった。本実施形態では、両者の画像サイズが異なっている点が違いである。
リサイズ部1302は、現像部1103によってメモリ部1114に格納された画像データ1115を読み出し、該読み出した画像データ1115が表す撮像画像に対して拡大処理若しくは縮小処理を行ってそのサイズが変倍された撮像画像をリサイズ画像1305として生成する。そしてリサイズ部1302は、このリサイズ画像1305をメモリ部1114に格納する。
変倍対応距離計算部1304は、リサイズ画像1305をメモリ部1114から読み出し、該読み出したリサイズ画像1305を用いて、変倍対応距離計算部1007と同様の動作を行う。
このように、本実施形態によれば、カメラ内部においてリサイズされた画像を処理する場合であっても、元画像サイズに対応するシードデータを保持しておけば、ラベル生成部1303によりリサイズされた画像に対する領域分割結果が得られる。このため、メモリの使用量を削減でき、また、メモリ部1114へのアクセス帯域を低減することができる。
なお、本実施形態では、原画像から1種類の変倍画像を生成する例を説明したが、それぞれ異なる変倍率で変倍した変倍画像を生成しても構わない。その場合であっても、元画像サイズに対応するシードデータと変倍率があれば、ラベル生成部1303によりリサイズ前の画像と同様の領域分割結果を得ることができる。なお、この変倍率は、改めて入力しても構わないし、メモリ部1114に格納しておいてラベル生成部1303が必要時に適宜読み出して使用しても構わない。
[第7の実施形態]
本実施形態に係る画像蓄積装置1401の構成例について、図14のブロック図を用いて説明する。図14において上記の実施形態で説明した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。画像蓄積装置1401は、ビデオデータと対応するメタデータを蓄積し、ユーザからの指示に従ってデータの検索、分析、再生する機能を持つ装置である。
蓄積部1402は、ビデオデータ1403−1〜1403−Nおよび各ビデオデータに対応するメタデータ1405−1〜1405−Nを蓄積しており、これらの蓄積されているデータはユーザからの要求に応じて適宜読み出される。各ビデオデータには、1枚以上の画像(フレームまたはフィールド)に対応するデータ1404が圧縮または非圧縮の形式で格納されている。各メタデータ内において、画像1枚(フレームまたはフィールド)に対応づけられるデータは、画像との対応付けを行うためのタイムスタンプやフレーム番号等の情報1406とその対応づけられた画像に関するメタデータ情報1407からなっている。図14の例では、メタデータ1405−1に含まれる最初のメタデータはフレーム番号1、次のメタデータはフレーム番号3、その次のメタデータはフレーム番号5に対応するメタデータ情報を含んでいる。本実施形態においては、Superpixel生成部1410で生成したシードデータが対応するメタデータ情報1407の中に格納されている。なお、メタデータ情報は、ビデオデータ中の全ての画像(フレームまたはフィールド)に対して格納してもよいし、あるいは一部の画像に対してだけ格納してもよい。
制御部1408は、画像蓄積装置1401全体の動作制御を行うものであり、例えば、ユーザからの設定指示や実行指示に応じた処理を実行若しくは制御する。
蓄積部1402へのビデオデータの蓄積に関しては、ユーザからの設定あるいは指示に従って、受信部1409が外部からビデオデータを受け取り、該ビデオデータ内の各画像のデータは記録部1411により蓄積部1402に蓄積される。また、受信部1409は該ビデオデータ内の各画像のデータを復号化部1421にも送り、復号化部1421は受けたそれぞれの画像を復号して復号画像を生成する。Superpixel生成部1410は復号化部1421により復号された復号画像から領域毎のシードデータを生成する。記録部1411はこの領域毎のシードデータをメタデータとして蓄積部1402に蓄積する。
なお、本実施形態では、外部からビデオデータだけを受け取り、Superpixel生成部1410でシードデータを生成して蓄積部1402に蓄積する例を示しているが、外部で既にシードデータが計算されている場合には、そのシードデータをそのまま蓄積してもよい。
ビデオデータの再生に関しては、再生部1416が蓄積部1402から直接ビデオデータを読み出して再生することも可能であるが、ビデオデータの領域毎にカテゴリに応じたフィルタをかけて画質を改善して再生する場合について説明する。
まず、ビデオデータの領域毎のカテゴリを決定するために、シード抽出部1412は蓄積部1402からシードデータを読み出してラベル生成部210及び領域処理部215に供給し、ラベル生成部210及び領域処理部215により領域毎のカテゴリを認識する。そして、外部から再生するビデオデータを指定する指示が入力されると、制御部1408は以下に説明する各機能部を動作させる。これにより復号化部1422は指定されたビデオデータを蓄積部1402から読み出して復号し、復号した各フレームの復号画像をラベル生成部210に送出する。また、シード抽出部1412は蓄積部1402から対応するメタデータを読み出し、該読み出したメタデータの中からシードデータを抽出してラベル生成部210に送出する。ラベル生成部210は復号画像に対してシードデータを用いてラベリング処理を行い、該復号画像と該ラベリング処理の結果と、を後段の領域処理部215に対して送出する。領域処理部215は、ラベル生成部210から送出された復号画像と及びラベリング処理の結果を用いて、該復号画像内のラベル毎の領域に対してカテゴリ(例えば、人物、山、など)の認識を行い、その結果を出力する。
フィルタ部1413は、ラベル生成部210から復号画像とラベル、領域処理部215から領域(ラベル)に対応するカテゴリを受け取り、カテゴリ別に適したフィルタ係数を選択して画像にフィルタをかけ、出力する。
カテゴリ別フィルタ計算部1414は、現在処理中の画素のラベルから対応するカテゴリを求めて、フィルタ係数セット格納部1415に格納された複数のフィルタ係数の中から対応するフィルタ係数を選択し、該選択したフィルタ係数を用いてフィルタ処理を実行する。
再生部1416は、フィルタ部1413でフィルタ処理された画像を再生する。
ビデオデータの分析に関しては、ユーザからの設定または指示に従い、分析対象となるビデオデータに対して、再生時と同様に復号化部1422、シード抽出部1412、ラベル生成部210、領域処理部215が動作して、領域毎のカテゴリ認識を行う。シーン分析部1417は領域毎のカテゴリ認識結果を使ってさらに画像全体、あるいはビデオ全体でみたときの分析を行い、分析結果を分析結果通知部1418に送る。分析結果通知部1418は、ユーザに対して分析結果を通知する。
ビデオデータの検索に関しては、ユーザからの設定または指示に従い、検索対象となるビデオデータに対して、領域毎のカテゴリ認識、シーン分析を行う。このとき、再生時と同様に復号化部1422、シード抽出部1412、ラベル生成部210、領域処理部215、シーン分析部1417が動作する。検索部1419は、蓄積部1402に格納された元々のメタデータ、領域カテゴリ認識結果、シーン分析結果から検索条件に従って検索を行い、結果を検索結果通知部1420に送る。検索結果通知部1420は、ユーザに対して検索結果を通知する。
このように、本実施形態によれば、メタデータとしてラベルマップを蓄積しなくても領域分割結果を利用した再生・分析・検索が可能となり、蓄積部1402においてメタデータを蓄積するための容量を低減することができる。
なお、本実施形態では、ビデオデータとは別にメタデータの中にシードデータを格納して蓄積する例を示したが、シードデータを格納する場所は、ビデオデータの中であってもよい。例えば、ビデオデータ中の各画像(フレームまたはフィールド)のヘッダ情報の一部としてシードデータを格納してもよい。
また、Superpixel生成部1410で用いた領域分割のためのパラメータ(K, S, m等)について、これをメタデータの一部として蓄積しておき、ラベル生成部210の実行時に読み出して利用してもよい。距離測度Dとして非特許文献2とは異なる式を用いる場合には、その式に固有のパラメータを蓄積しておき、ラベル生成処理に使用してもよい。
また、本実施形態においては、領域処理部215の処理として領域毎のカテゴリ認識を行っているが、領域処理の内容はこれに限定されるものではなく、領域情報を用いた物体検出、シーン判別、領域別画像処理など他の処理であってもよい。また、本実施形態においては、ビデオデータを蓄積する場合を例にとって説明したが、多量の静止画データをメタデータに関連付けて蓄積する場合であっても構わない。
[第8の実施形態]
本実施形態に係る画像蓄積装置1501の構成例について、図15を用いて説明する。なお、図15において上記の実施形態で説明した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。第7の実施形態では、Superpixel生成部1410とラベル生成部210とで同じ領域分割アルゴリズムを使用していたが、本実施形態では、両者のアルゴリズムが異なっている。
画像蓄積装置1501において、Superpixel生成部1502は、ラベル生成部210とは異なる領域分割アルゴリズムを用いている。例えば、平均値シフト、領域成長法、分割統合法、グラフベースの手法などの手法を用いて画像の領域分割を行う。次に、シード計算部1503は、Superpixel生成部1502の領域分割処理結果であるラベルと復号化部1421による復号画像からシードデータを計算する。以降は第7の実施形態と同様であり、ラベル生成部210において、シード計算部1503が求めたシードデータを用いてラベルが決定され、そのラベルを用いて領域処理部215が領域カテゴリ認識を行う。なお、シード計算部1503は、第2の実施形態におけるシード計算部703と同様の動作を行い、図9のフローチャートに従った処理を実行する。
なお、図9のフローチャートで計算されたシードに関しては、図3(c)の破線で示したような矩形領域との対応関係が無い。しかし、シードを平均座標位置により並べて、適宜、矩形領域と対応付けることにより、ラベル生成部210で第1の実施形態と同様に、gSLICと同様の方式による領域分割が可能となる。あるいは、シードと矩形領域の対応づけをせず、ラベル生成部210で、非特許文献1、非特許文献2記載のSLICのように現画素の近傍位置にあるシードを求めて、距離比較を行い、領域分割を行ってもよい。
このように、本実施形態によれば、Superpixel生成部1502とラベル生成部210が異なる領域分割アルゴリズムを使う場合であっても、メタデータとしてラベルマップを蓄積する必要が無くなる。このため、蓄積部1402においてメタデータを蓄積するための容量を低減することができる。
なお、本実施形態では、外部からビデオデータだけを受け取り、Superpixel生成部1502でシードデータを生成して蓄積部1402に蓄積する例を示している。しかし、外部で既にシードデータが計算されている場合には、そのシードデータをシード計算部1503に与えてもよい。
[第9の実施形態]
本実施形態に係る画像蓄積装置1601の構成例について、図16のブロック図を用いて説明する。なお、図16において上記の実施形態で説明した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
第7の実施形態では、Superpixel生成部1410が取り扱う画像のサイズとラベル生成部210が取り扱う画像のサイズとは同じであった。本実施形態では、両者の画像サイズが異なっている点が違いである。
本実施形態に係る画像蓄積装置1601のリサイズ部1602は、復号化部1422による復号画像に対して拡大処理若しくは縮小処理を行ってそのサイズが変倍された復号画像を生成し、該生成した変倍後の復号画像をラベル生成部1006に供給する。
このように、本実施形態によれば、ビデオデータがリサイズされて利用される場合であっても、メタデータとしてラベルマップを蓄積する必要が無くなり、蓄積部1402においてメタデータを蓄積するための容量を低減することができる。特に、複数の変倍率でリサイズを行う可能性がある場合であっても、元画像のシードだけを蓄積しておけばよいという利点がある。
[第10の実施形態]
第7〜9の実施形態における蓄積部1402は、装置内に固定されたハードディスク、メモリなどであってもよい。あるいは、蓄積部1402の代わりに取り外し可能なハードディスク、光ディスク、光磁気ディスク、メモリカード、テープなどのメディアにアクセス可能な蓄積メディアアクセス部であってもよい。蓄積メディアアクセス部を有する場合、データの記録に用いられる受信部1409、Superpixel生成部1410/1502、記録部1411、シード計算部1503を持たず、再生・分析・検索のための装置であってもよい。
[第11の実施形態]
図2,7,10〜16に示した各装置の機能部は何れもハードウェアで構成しても良いが、1以上をソフトウェア(コンピュータプログラム)で構成しても良い。この場合、このコンピュータプログラムを保持するメモリと、該コンピュータプログラムを実行するプロセッサと、を有するコンピュータであれば、該装置に適用することができる。
<まとめ>
上記の実施形態によれば、画像と分割領域の領域代表点を用いて領域ラベルを生成するため、領域分割の結果を表現するのに、領域あたりの画素数分の1(例えば、10×10画素につき1領域であれば100分の1)オーダーの情報で済ませることができる。ラベルマップそのものを送る場合や、既存技術でラベルマップを圧縮する場合と比べて、ネットワークカメラとサーバから成るシステムでは領域分割結果の伝送帯域を減らすことができる。
また、カメラ内部で領域分割を行い、その結果を用いて処理を行う場合においては、領域分割結果を格納するメモリサイズとメモリ転送帯域を減らすことができる。また、画像データを蓄積する装置において、画像と共に領域分割結果をメタデータとして蓄積しておく場合、メタデータを蓄積するための記憶領域のサイズを減らすことができる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
201:ネットワークカメラ 207:サーバ装置

Claims (26)

  1. 画像伝送システムであって、
    画像データと前記画像データに対応する領域分割の領域代表点を送信する送信装置と、
    前記送信装置の送信した前記画像データと前記領域代表点を受信する受信装置を有し、
    前記送信装置は、リサイズされた画像データとリサイズ前の画像データに対する領域代表点を送信し、
    前記受信装置は、前記リサイズされた画像データと前記リサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成することを特徴とする画像伝送システム。
  2. 前記受信装置における領域ラベルの生成では、
    前記画像データ中の各画素に対し、前記領域代表点と複数の候補代表点との特徴空間における距離を計算し、距離が最小となる候補代表点の代表する領域のラベルを割り当てることを特徴とする請求項1に記載の画像伝送システム。
  3. 前記送信装置は前記領域代表点を求めるために用いたパラメータを送信し、
    前記受信装置は、前記画像データと前記領域代表点を用いて領域ラベルを生成する際に受信した前記パラメータを使用することを特徴とする請求項1又は2に記載の画像伝送システム。
  4. 前記送信装置は、画像の領域分割を行った結果に対し、分割された領域の特徴空間における代表の値を計算することで前記領域代表点を求め、送信することを特徴とする請求項2又は3に記載の画像伝送システム。
  5. 前記受信装置における領域ラベルの生成では、
    前記画像データ中の各画素に対し、前記領域代表点と複数の候補代表点との特徴空間における距離を計算し、距離が最小となる候補代表点の代表する領域のラベルを割り当て、リサイズされた画像データに対してはリサイズの変倍率に応じた距離を計算することを特徴とする請求項に記載の画像伝送システム。
  6. 前記送信装置は、画像データの圧縮手段を有し、
    前記画像データは前記圧縮手段により圧縮した上で送信を行い、前記領域代表点は圧縮前の画像データを用いて計算された値を送信し、
    前記受信装置は、圧縮された画像データの復号手段を有し、
    前記復号手段により復号された画像データと前記送信装置より送信された前記領域代表点を用いて領域ラベルを生成することを特徴とする請求項1乃至の何れか1項に記載の画像伝送システム。
  7. 画像処理装置であって、
    画像データに対して領域分割を行い領域分割の領域代表点を出力する領域分割手段と、
    前記領域代表点を保持するデータ保持手段と、
    前記領域代表点に対する画像データを保持する画像データ保持手段と、
    前記画像データ保持手段の保持する前記画像データと前記データ保持手段の保持する前記領域代表点を読み出して領域ラベルを生成するラベル生成手段と、
    前記画像データの変倍を行うリサイズ手段と、
    領域ラベルを用いた処理を行う領域処理手段を有し、
    前記ラベル生成手段は、前記リサイズ手段によりリサイズされた画像データと前記データ保持手段に保持されたリサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成し、
    前記領域処理手段は前記ラベル生成手段の生成した領域ラベルを用いて処理を行うことを特徴とする画像処理装置。
  8. 前記ラベル生成手段における領域ラベルの生成は、
    前記画像データ中の各画素に対し、前記領域代表点と複数の候補代表点との特徴空間における距離を計算し、距離が最小となる候補代表点の代表する領域のラベルを割り当てることを特徴とする請求項に記載の画像処理装置。
  9. 前記画像処理装置は、
    前記領域代表点を求めるために用いたパラメータを保持するための保持手段を有し、
    前記領域分割手段が領域分割を行った際のパラメータを前記保持手段に保持し、前記ラベル生成手段が領域ラベルを生成する際に前記保持手段から前記パラメータを読み出して使用することを特徴とする請求項又はに記載の画像処理装置。
  10. 前記画像処理装置は、
    前記領域分割手段の出力する領域分割処理結果から領域代表点を計算する計算手段を有し、
    前記計算手段は、分割された領域の特徴空間における代表の値を計算することで前記領域代表点を求めることを特徴とする請求項乃至の何れか1項に記載の画像処理装置。
  11. 前記ラベル生成手段における領域ラベルの生成は、
    前記画像データ中の各画素に対し、前記領域代表点と複数の候補代表点との特徴空間における距離を計算し、距離が最小となる候補代表点の代表する領域のラベルを割り当て、リサイズされた画像データに対してはリサイズの変倍率に応じた距離を計算することを特徴とする請求項に記載の画像処理装置。
  12. 画像蓄積装置であって、
    画像データと前記画像データに対して領域分割を行った結果の領域代表点を蓄積する蓄積手段と、
    前記画像データの変倍を行うリサイズ手段と、
    前記蓄積手段の蓄積する前記画像データと前記領域代表点を読み出して領域ラベルを生成するラベル生成手段を有し、
    前記ラベル生成手段は、前記リサイズ手段によりリサイズされた画像データと前記蓄積手段に保持されたリサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成し、
    領域ラベルまたは領域ラベルを用いた処理が必要な場合に、前記蓄積手段から画像データと対応する領域代表点を読み出し、前記ラベル生成手段により領域ラベルを生成して用いることを特徴とする画像蓄積装置。
  13. 前記ラベル生成手段における領域ラベルの生成は、
    前記画像データ中の各画素に対し、前記領域代表点と複数の候補代表点との特徴空間における距離を計算し、距離が最小となる候補代表点の代表する領域のラベルを割り当てることを特徴とする請求項12に記載の画像蓄積装置。
  14. 前記蓄積手段は前記領域代表点を求めるために用いられたパラメータを蓄積し、
    前記ラベル生成手段は、前記蓄積手段に蓄積された前記画像データと前記領域代表点を用いて領域ラベルを生成する際に前記蓄積手段に蓄積された前記パラメータを使用することを特徴とする請求項12又は13に記載の画像蓄積装置。
  15. 前記画像蓄積装置は、
    画像に対して領域分割を行う領域分割手段と、
    前記領域分割手段の出力する領域分割処理結果から領域代表点を計算する計算手段を有し、
    前記計算手段は、分割された領域の特徴空間における代表の値を計算することで前記領域代表点を求め、求められた前記領域代表点を前記蓄積手段に蓄積することを特徴とする請求項12乃至14の何れか1項に記載の画像蓄積装置。
  16. 前記ラベル生成手段における領域ラベルの生成は、
    前記画像データ中の各画素に対し、前記領域代表点と複数の候補代表点との特徴空間における距離を計算し、距離が最小となる候補代表点の代表する領域のラベルを割り当て、リサイズされた画像データに対してはリサイズの変倍率に応じた距離を計算することを特徴とする請求項12に記載の画像蓄積装置。
  17. 画像処理装置であって、
    画像データと前記画像データに対して領域分割を行った結果の領域代表点が蓄積されたメディアにアクセスする蓄積メディアアクセス手段と、
    前記画像データの変倍を行うリサイズ手段と、
    前記蓄積メディアアクセス手段の読み出した前記画像データと前記領域代表点から領域ラベルを生成するラベル生成手段を有し、
    前記ラベル生成手段は、前記リサイズ手段によりリサイズされた画像データと前記蓄積メディアアクセス手段により読みだされたリサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成し、
    領域ラベルまたは領域ラベルを用いた処理が必要な場合に、前記蓄積メディアアクセス手段から画像データと対応する領域代表点を読み出し、前記ラベル生成手段により領域ラベルを生成して用いることを特徴とする画像処理装置。
  18. 前記ラベル生成手段における領域ラベルの生成は、
    前記画像データ中の各画素に対し、前記領域代表点と複数の候補代表点との特徴空間における距離を計算し、距離が最小となる候補代表点の代表する領域のラベルを割り当てることを特徴とする請求項17に記載の画像処理装置。
  19. 前記蓄積メディアアクセス手段のアクセスする前記メディアには前記領域代表点を求めるために用いられたパラメータが蓄積されており、
    前記ラベル生成手段は、前記蓄積メディアアクセス手段により読みだされた前記画像データと前記領域代表点を用いて領域ラベルを生成する際に前記蓄積メディアアクセス手段により前記メディアに蓄積された前記パラメータを読み出して使用することを特徴とする請求項17又は18に記載の画像処理装置。
  20. 前記ラベル生成手段における領域ラベルの生成は、
    前記画像データ中の各画素に対し、前記領域代表点と複数の候補代表点との特徴空間における距離を計算し、距離が最小となる候補代表点の代表する領域のラベルを割り当て、リサイズされた画像データに対してはリサイズの変倍率に応じた距離を計算することを特徴とする請求項17に記載の画像処理装置。
  21. 画像伝送システムの制御方法であって、
    送信装置が、画像データと前記画像データに対応する領域分割の領域代表点を送信し、
    受信装置が、前記送信装置の送信した前記画像データと前記領域代表点を受信し、
    前記送信装置は、リサイズされた画像データとリサイズ前の画像データに対する領域代表点を送信し、
    前記受信装置は、前記リサイズされた画像データと前記リサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成することを特徴とする画像伝送システムの制御方法。
  22. 画像処理装置の制御方法であって、
    前記画像処理装置の領域分割手段が、画像データに対して領域分割を行い領域分割の領域代表点を出力する領域分割工程と、
    前記画像処理装置のラベル生成手段が、前記領域代表点に対する画像データと前記領域代表点を読み出して領域ラベルを生成するラベル生成工程と、
    前記画像処理装置のリサイズ手段が、前記画像データの変倍を行うリサイズ工程と、
    前記画像処理装置の領域処理手段が、領域ラベルを用いた処理を行う領域処理工程を有し、
    前記ラベル生成工程では、前記リサイズ工程でリサイズされた画像データとリサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成し、
    前記領域処理工程では前記ラベル生成工程で生成した領域ラベルを用いて処理を行うことを特徴とする画像処理装置の制御方法。
  23. 画像蓄積装置の制御方法であって、
    前記画像蓄積装置の蓄積手段が、画像データと前記画像データに対して領域分割を行った結果の領域代表点を蓄積する蓄積工程と、
    前記画像蓄積装置のリサイズ手段が、前記画像データの変倍を行うリサイズ工程と、
    前記画像蓄積装置のラベル生成手段が、前記蓄積工程で蓄積する前記画像データと前記領域代表点を読み出して領域ラベルを生成するラベル生成工程を有し、
    前記ラベル生成工程では、前記リサイズ工程でリサイズされた画像データと前記蓄積手段に保持されたリサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成し、
    領域ラベルまたは領域ラベルを用いた処理が必要な場合に、前記蓄積工程で蓄積した画像データと対応する領域代表点を読み出し、前記ラベル生成工程で領域ラベルを生成して用いることを特徴とする画像蓄積装置の制御方法。
  24. 画像処理装置の制御方法であって、
    前記画像処理装置の蓄積メディアアクセス手段が、画像データと前記画像データに対して領域分割を行った結果の領域代表点が蓄積されたメディアにアクセスする蓄積メディアアクセス工程と、
    前記画像処理装置のリサイズ手段が、前記画像データの変倍を行うリサイズ工程と、
    前記画像処理装置のラベル生成手段が、前記蓄積メディアアクセス工程で読み出した前記画像データと前記領域代表点から領域ラベルを生成するラベル生成工程を有し、
    前記ラベル生成工程では、前記リサイズ工程でリサイズされた画像データと前記蓄積メディアアクセス工程で読みだされたリサイズ前の画像データに対する領域代表点を用いて領域ラベルを生成し、
    領域ラベルまたは領域ラベルを用いた処理が必要な場合に、前記画像データと対応する領域代表点を読み出し、前記ラベル生成工程で領域ラベルを生成して用いることを特徴とする画像処理装置の制御方法。
  25. コンピュータを、請求項乃至1117乃至20の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
  26. コンピュータを請求項12乃至16の何れか1項に記載の画像蓄積装置の各手段として機能させるためのコンピュータプログラム。
JP2014116200A 2014-06-04 2014-06-04 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法 Active JP6368149B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014116200A JP6368149B2 (ja) 2014-06-04 2014-06-04 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法
US14/729,199 US9595113B2 (en) 2014-06-04 2015-06-03 Image transmission system, image processing apparatus, image storage apparatus, and control methods thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014116200A JP6368149B2 (ja) 2014-06-04 2014-06-04 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法

Publications (3)

Publication Number Publication Date
JP2015231125A JP2015231125A (ja) 2015-12-21
JP2015231125A5 JP2015231125A5 (ja) 2017-07-20
JP6368149B2 true JP6368149B2 (ja) 2018-08-01

Family

ID=54769999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116200A Active JP6368149B2 (ja) 2014-06-04 2014-06-04 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法

Country Status (2)

Country Link
US (1) US9595113B2 (ja)
JP (1) JP6368149B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2016179830A1 (en) * 2015-05-14 2016-11-17 Intel Corporation Fast mrf energy optimization for solving scene labeling problems
CN108171712B (zh) * 2016-12-07 2022-02-11 富士通株式会社 确定图像相似度的方法和装置
KR20200029785A (ko) * 2018-09-11 2020-03-19 삼성전자주식회사 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5321520A (en) * 1992-07-20 1994-06-14 Automated Medical Access Corporation Automated high definition/resolution image storage, retrieval and transmission system
JPH0830787A (ja) 1994-05-10 1996-02-02 Fuji Xerox Co Ltd 画像領域分割方法及び画像領域統合方法
JPH104549A (ja) 1995-09-29 1998-01-06 Toshiba Corp 画像符号化装置および画像復号化装置
JPH0998295A (ja) 1995-09-29 1997-04-08 Dainippon Printing Co Ltd カラー画像のデータ圧縮方法
JP2005079965A (ja) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd 代表点情報符号化方法および代表点情報復号化方法
WO2009047366A2 (en) * 2007-10-12 2009-04-16 Toyota Motor Europe Nv Methods and systems for processing of video data
US8472718B2 (en) * 2011-04-27 2013-06-25 Sony Corporation Superpixel segmentation methods and systems
US8958630B1 (en) * 2011-10-24 2015-02-17 Google Inc. System and method for generating a classifier for semantically segmenting an image
KR101348904B1 (ko) * 2012-01-20 2014-01-09 한국과학기술원 고차 상관 클러스터링을 이용한 이미지 분할 방법, 이를 처리하는 시스템 및 기록매체
US9171108B2 (en) * 2012-08-31 2015-10-27 Fujitsu Limited Solar panel deployment configuration and management
US9342754B2 (en) * 2014-04-08 2016-05-17 Nokia Technologies Oy Image segmentation using blur and color

Also Published As

Publication number Publication date
US20150356741A1 (en) 2015-12-10
US9595113B2 (en) 2017-03-14
JP2015231125A (ja) 2015-12-21

Similar Documents

Publication Publication Date Title
US20200151210A1 (en) System, Apparatus, Method, Program And Recording Medium For Processing Image
US20210160556A1 (en) Method for enhancing resolution of streaming file
CN107529098B (zh) 用于视频摘要的方法和系统
EP3147817A1 (en) Method and apparatus for video and image match searching
JP6368149B2 (ja) 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法
CN108182421A (zh) 视频分割方法和装置
KR20070079330A (ko) 표시 제어장치 및 방법, 컴퓨터 프로그램, 및 기록 매체
CN106897295B (zh) 一种基于Hadoop的输电线路监控视频分布式检索方法
CN107197370A (zh) 一种直播视频的场景检测方法和装置
US20200285859A1 (en) Video summary generation method and apparatus, electronic device, and computer storage medium
Diana Andrushia et al. Saliency-based image compression using Walsh–Hadamard transform (WHT)
WO2021175040A1 (zh) 视频处理方法及相关装置
CN115115856A (zh) 图像编码器的训练方法、装置、设备及介质
CN109360191B (zh) 一种基于变分自编码器的图像显著性检测方法
WO2023221713A1 (zh) 图像编码器的训练方法、装置、设备及介质
CN111079864A (zh) 一种基于优化视频关键帧提取的短视频分类方法及系统
CN104243886B (zh) 一种基于插件技术的高速图像解析及视频生成方法
KR101812103B1 (ko) 썸네일이미지 설정방법 및 설정프로그램
Parekh et al. A survey of image enhancement and object detection methods
CN110633630B (zh) 一种行为识别方法、装置及终端设备
JP2007164301A (ja) 情報処理装置、データ解析方法、プログラム及び情報記憶媒体
CN114519689A (zh) 图像篡改检测方法、装置、设备及计算机可读存储介质
JP2018097490A (ja) 情報処理装置、方法およびプログラム
CN115115968A (zh) 视频质量评价方法、装置及计算机可读存储介质
CN111243046B (zh) 图像质量检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180706

R151 Written notification of patent or utility model registration

Ref document number: 6368149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151