JP6016332B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP6016332B2
JP6016332B2 JP2011107636A JP2011107636A JP6016332B2 JP 6016332 B2 JP6016332 B2 JP 6016332B2 JP 2011107636 A JP2011107636 A JP 2011107636A JP 2011107636 A JP2011107636 A JP 2011107636A JP 6016332 B2 JP6016332 B2 JP 6016332B2
Authority
JP
Japan
Prior art keywords
frame
specific area
interest
image processing
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011107636A
Other languages
English (en)
Other versions
JP2012239085A5 (ja
JP2012239085A (ja
Inventor
五十嵐 進
進 五十嵐
大川 浩司
浩司 大川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011107636A priority Critical patent/JP6016332B2/ja
Priority to US13/456,889 priority patent/US9066101B2/en
Priority to CN201210149476.2A priority patent/CN102780882B/zh
Publication of JP2012239085A publication Critical patent/JP2012239085A/ja
Publication of JP2012239085A5 publication Critical patent/JP2012239085A5/ja
Application granted granted Critical
Publication of JP6016332B2 publication Critical patent/JP6016332B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、符号化技術に関するものである。
動画像の伝送や蓄積再生を行うために、画像信号の符号化技術が用いられる。そのような技術として、動画像の符号化技術としてはIso/IEC International Standard 14496-2(MPEG‐4 Visual)などの国際標準化符号化方式が知られている。また、他の国際標準符号化方式としてITU-TとISO/IECによる、H.264等が知られている。本明細書においては、ITU-T Rec. H.264 Advanced Video Coding | ISO/IEC International Standard 14496-10 (MPEG-4 AVC)を単にH.264と呼ぶ。
これらの技術はビデオカメラやレコーダ等の分野にも用いられており、特に近年では監視用ビデオカメラ(以下、監視カメラと呼ぶ)への適用が積極的に行われている。監視カメラ用途においては、長時間の録画を行う必要性から比較的低ビットレートで符号化して符号化データのサイズを抑えるケースが多い。しかし、低ビットレートで符号化することにより多くの情報が失われて画質が劣化するために、人物の顔の特定等、本来の用途として機能しないという問題があった。
そこで、画面全体を一様に符号化するのではなく、人物の顔等重要な領域を特定領域として検出し、画面を特定領域と非特定領域とに分け、非特定領域は符号量を抑えるように、特定領域は画質を落とさないように符号化する技術が一般的に用いられている。
しかし、この技術には、画面内に特定領域が複数存在する場合に、全ての特定領域に多くの符号量を割り当てると、画面全体としての符号量が増加して目標値をオーバーしてしまうという課題があった。またその一方で、全ての特定領域に画面全体の符号量目標値をオーバーしない範囲で平均的に符号量を割り当てると、特定領域に対して人物の特定等意図した画質を得ることができないという課題があった。
こうした課題に対し、それぞれの特定領域毎に符号量の割り当てを制御することでこのような課題を解決する技術が提案されてきている。このような従来技術の例として、特許文献1が挙げられる。特許文献1では、入力画像全体に対する特定領域の面積比が相対的に大きい場合、特定領域に対して符号量を多く割り当てる度合いを小さくする。他方、入力画像全体に対する特定領域の面積比が相対的に小さい場合には、特定領域に対して符号量を多く割り当てる度合いを大きくする。このようにすれば、小さく映った顔を鮮明に映しだすことができる圧縮データを確実に作成することができ、大きく映った顔については、圧縮率が殆ど下がらなかったとしても、顔を十分に認識できる画質を維持できるとしている。
特開2010−193441号公報
しかしながら、上記の従来技術では、特定領域の入力画像全体に対する面積比が小さい場合でも、特定領域が多数存在する場合においては、意図した画質を得ることができないケースが存在する。また、入力画像全体に対する特定領域の面積比に応じて割り当てる符号量を制御しているため、顔の向きが横向きであった場合などには小さく映った顔を判別できないという問題がある。
本発明は、このような問題に鑑み、画像中に特定領域が多数存在する場合でも、画像全体の符号量を増加させることなく、特定領域に対して意図した画質を得ることができる符号化技術を提供する。
本発明の目的を達成するために、例えば、本発明の画像処理装置は、動画を取得する取得手段と、
前記動画を構成するフレームから検出された被写体について、該被写体の位置に基づいて特定領域を抽出する抽出手段と、
前記特定領域の評価値を算出する評価手段と、
前記動画を構成するフレームのうち着目フレームよりもN(Nは自然数)フレーム前のフレームから該着目フレームまでの各フレームにおける評価値が何れも予め定められた閾値を超えている特定領域を着目特定領域として特定する特定手段と、
前記特定手段が前記着目フレームにおいて前記着目特定領域を特定した場合であって、該着目特定領域と、前記着目特定領域ではない特定領域である非着目特定領域と、が該着目フレームに含まれる場合には、前記着目フレームにおける前記着目特定領域の符号量を、前記着目フレームの前のフレームにおける該着目特定領域の符号量よりも小さくさせる符号化パラメータを、前記着目フレームにおける該着目特定領域に対して設定すると共に、前記着目フレームにおける前記非着目特定領域の符号量を、前記着目フレームの前のフレームにおける該非着目特定領域の符号量よりも大きくさせる符号化パラメータを、前記着目フレームにおける該非着目特定領域に対して設定する設定手段と、
前記設定手段により設定された符号化パラメータに基づいて前記着目特定領域及び前記非着目特定領域を含む前記着目フレームの符号化を実行する符号化手段と、
前記符号化手段による符号化結果を、前記着目フレームの画像の符号化結果として出力する手段と
を備えることを特徴とする。
本発明の構成によれば、画像中に特定領域が多数存在する場合でも、画像全体の符号量を増加させることなく、特定領域に対して意図した画質を得ることができる。
画像処理装置の機能構成例を示すブロック図。 画像処理装置が行う処理のフローチャート。 画像処理装置が行う処理のフローチャート。 画像処理装置の機能構成例を示すブロック図。 画像処理装置が行う処理のフローチャート。 画像処理装置が行う処理のフローチャート。 符号化処理の一例を示す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の一つである。
[第1の実施形態]
本実施形態では、動画像を構成する各フレームを符号化する画像処理装置について説明する。先ず、本実施形態に係る画像処理装置の機能構成例について、図1のブロック図を用いて説明する。
動画像を構成する各フレームの画像は順次、検出部101及び符号化部105に入力される。
検出部101は、入力されたフレームの画像(着目フレームの画像)から、特定の被写体が映っている領域を特定領域として検出(抽出)する。そして検出部101は、検出した特定領域について、画像内における位置、そのサイズ、識別子、を特定領域情報として生成する。例えば、画像から特定領域1、特定領域2、…、特定領域Pを検出した場合、特定領域1の特定領域情報としては(画像内における特定領域1の位置、特定領域1のサイズ、識別子=1)を出力する。また、特定領域Pの特定領域情報としては(画像内における特定領域Pの位置、特定領域Pのサイズ、識別子=P)を出力する。このようにして、画像から検出したそれぞれの特定領域について特定領域情報を生成する。そしてこのような処理をフレーム毎に行う。なお、特定領域情報は、画像中のそれぞれの特定領域を一意に特定することができる情報であれば、如何なる情報であってもよい。
評価部102は、着目フレームの画像から検出された特定領域の評価値を、予め定められた評価式を用いて計算する。然るに画像から複数の特定領域が検出された場合、評価部102はそれぞれの特定領域について評価値を計算する。
判定部103は、着目フレームよりもN(Nは自然数)フレーム前のフレームから着目フレームまでの全てのフレームで評価値が閾値を超えている特定領域が存在するか否かを判定する。然るに画像から複数の特定領域が検出された場合、判定部103はそれぞれの特定領域を対象に、このような判定を行う。
制御部104は、着目フレームの画像における特定領域、非特定領域、のそれぞれに対する符号化パラメータを設定する。特に、着目フレームよりもNフレーム前のフレームから着目フレームまでの各フレームに渡って評価値が何れも閾値を超えていると判断された特定領域に対する符号化パラメータは次のようにして設定する。即ち、着目フレームの画像における特定領域の符号量を、着目フレームよりも過去のフレームの画像における該特定領域の符号量よりも小さくさせる符号化パラメータを、着目フレームの画像における特定領域に対して設定する。本実施形態では符号化パラメータの一例として量子化ステップを取り扱う。また、制御部104は、符号化パラメータの設定以外にも、画像処理装置全体の動作制御も行う。
符号化部105は着目フレームの画像内の特定領域及び非特定領域を、それぞれに対して制御部104が設定した量子化ステップを用いて符号化する。そして符号化部105は、この符号化結果を、着目フレームの画像の符号化結果として出力する。
次に、図1に示した各部の動作について、図2,3のフローチャートに従って説明する。先ず、ステップS100では制御部104は、以下の処理で用いる変数F()を0に初期化する。F()は配列変数で、この場合、F(1)=F(2)=…=F(Q)=0(Qは充分に大きい規定値)として初期化する。
次に、ステップS101では検出部101及び符号化部105は、画像処理装置に入力された着目フレームの画像を取得する。
次にステップS102では検出部101は、着目フレームの画像から、特定の被写体が映っている領域を特定領域として検出する。そして検出部101は、検出した特定領域について、画像内における位置、そのサイズ、識別子、を特定領域情報として生成する。なお、検出部101は、一度検出して識別子を発行した特定領域についてはそれ以降、フレームをまたいで追尾し続け、同一の識別子を発行するものとする。なお、「特定の被写体」については別段限定を設けるものではなく、人の顔でも良いし、人体そのものや動物の顔、車のナンバープレート等、ユースケースによって重要な被写体として予め設定されたものであれば、如何なる対象を採用しても良い。
次にステップS103では制御部104は、以下で用いる変数Mに、検出部101が着目フレームの画像から検出した特定領域の個数を設定する。特定領域の個数は、検出部101が着目フレームの画像から検出したそれぞれの特定領域について発行した識別子のうち最大値と同じである。
次に、ステップS104では制御部104は、以下の処理で用いる変数iを1に初期化する。
次にステップS105では評価部102は、識別子=iの特定領域(以下、特定領域iと呼称する)の評価値Ve(i)を、予め定められた評価式を用いて計算する。ステップS105における処理の詳細を、図3のフローチャートに従って説明する。
ステップS1051では評価部102は、特定領域iの特定領域情報に含まれている、特定領域iのサイズを変数Aに設定する。ここで、符号化部105は、画像を複数の画素ブロックに分割して符号化するため、特定領域iのサイズとは、特定領域iに含まれる画素ブロックの数を指すものとする。なお、ここで用いる特定領域iの特定領域情報は、着目フレームの画像から生成したものであっても良いし、着目フレームよりも過去のフレームの画像から生成したものであっても良い。
ステップS1052では評価部102は、着目フレーム(着目フレームよりも過去のフレームでも良い)の画像内の特定領域i内に映っている被写体の向きに応じた値を変数Dに設定する。例えば、被写体が正面を向いている場合は変数Dに10を設定し、真横を向いている場合は変数Dに5を設定し、真後ろを向いている場合は変数Dに0を設定し、その他は、向きの程度に応じてこれらの中間値を変数Dに設定する。画像中の被写体の向きを求める方法は、周知の画像認識技術により可能であるため、これについての詳細な説明は省略する。
ステップS1053では評価部102は、着目フレームよりも過去のフレームにおける特定領域iの符号化結果から得られる該特定領域iのブロック歪みに応じた値を変数BDに設定する。例えば、ブロック歪みが無い場合は変数BDに0を設定し、歪みが大きいほど大きい値を変数BDに設定する。ブロック歪みは、例えば、着目フレームの画像を現在設定されている符号化パラメータを用いて符号化した後にこれを復号し、符号化前の画素ブロックと復号後の画素ブロックとから求めるようにしても良いし、その方法については特に限定するものではない。
ステップS1054では評価部102は、ステップS1051〜ステップS1053の処理で値が確定した変数A、D、BDを用いて以下の式を計算することで、特定領域iに対する評価値Ve(i)を求める。
Ve=Ca・A × Cd・D / Cbd・(BD+1)
ここで、Ca、Cd、Cbd、はそれぞれ予め定めた重み付け係数であり、それぞれの重み係数には0以上の任意の値が予め設定されている。このような計算処理を行うことで、特定領域iに対する評価値Ve(i)を求めることができる。なお、評価値の計算方法や評価値の計算に用いるパラメータについては上記の説明に限るものではない。
図2に戻って、次に、ステップS106では、判定部103は、着目フレームよりもN(Nは自然数)フレーム前のフレームから着目フレームまでの各フレームについて、評価値Ve(i)が何れも予め定められた閾値を超えているか否かを判断する。Nは、予め定められた値である。
この判断の結果、超えていると判断した場合には処理はステップS107に進み、超えていないと判断した場合には、処理はステップS108に進む。ステップS107では、特定領域iに対する変数F(i)に1を設定する。
ステップS108では制御部104は、ステップS102で検出した全ての特定領域についてステップS105,S106,S107の処理を行ったか否か、即ち、変数iの値が、変数Mの値に等しいか否かを判断する。この判断の結果、i=Mの場合には処理はステップS110に進み、i<Mの場合には処理はステップS109に進む。
ステップS109では制御部104は、変数iの値を1つインクリメントする。その後、処理はステップS105に戻り、未だ処理対象となっていない特定領域について以降の処理を行う。
一方、ステップS110では、制御部104は、着目フレームの画像における特定領域、非特定領域、のそれぞれに対する符号化パラメータを設定する。特定領域に対して設定する符号化パラメータは、この特定領域の変数F()の値が1であるのか、それとも0であるのかに応じて異なる。
特定領域iに対して符号化パラメータを設定する場合、先ず、変数F(i)の値を参照する。そして、F(i)=1の場合、着目フレームにおける特定領域iの符号量を、着目フレームよりも過去のフレームの画像における特定領域iの符号量よりも小さくさせる符号化パラメータを設定する。本実施形態では符号化パラメータとして量子化ステップを用いる。然るにこの場合、量子化ステップを、F(i)=0のときに特定領域iに設定していた量子化ステップよりも大きい量子化ステップに変更しても良いし、特定領域iの従前の量子化ステップよりも大きい量子化ステップに変更しても良い。これにより一度F()が1となった特定領域の符号量は、それ以降、F()が0に初期化されない限り抑えられることとなる。
一方、F(i)=0の場合、着目フレームにおける特定領域iの符号量を、着目フレームよりも過去のフレームの画像における特定領域iの符号量よりも大きくさせる符号化パラメータを設定する。本実施形態では符号化パラメータとして量子化ステップを用いる。然るにこの場合、量子化ステップを、特定領域iについて初期設定された量子化ステップよりも小さい量子化ステップに変更しても良いし、特定領域iの従前の量子化ステップよりも小さい量子化ステップに変更しても良い。なお、F(i)=0の場合、全体の符号量を削減させる目的であえて符号化パラメータは変えずにそのままとしてもよい。
一方、非特定領域については、少なくともF(i)=0の場合に設定した量子化ステップよりも大きい量子化ステップを設定する。
次にステップS111では、符号化部105は、着目フレームの画像内における特定領域及び非特定領域を、それぞれに対して制御部104が設定した符号化パラメータを用いて符号化することで、この着目フレームの画像を符号化する。そして符号化した結果は符号化ストリームとして出力する。出力先については特に限定するものではなく、本装置若しくは外部装置が管理するメモリに対して出力しても良いし、ネットワークを介して外部装置に対して送信しても良い。
次にステップS112では制御部104は、本装置に入力された全てのフレームについてステップS101〜ステップS111の処理を行ったか否かを判断する。この判断の結果、全てのフレームについて処理を行った場合には、本処理は終了し、まだステップS101〜ステップS111の処理を行っていないフレームがあれば、処理はステップS101に進み、そのフレームについて以降の処理を行う。
以上説明した符号化処理の一例について、着目フレームの画像から2つの特定領域(特定領域1、特定領域2)を検出した場合を例に取り、図7を用いて説明する。なお、図7では、閾値を10に設定している。
時刻T0〜T1の期間(期間01)に入力された各フレームからは特定領域1及び特定領域2が検出され、何れの特定領域のサイズも5で維持されているため、期間01においてはそれぞれの特定領域に対する変数Aには5が設定される。また、期間01においては、それぞれの特定領域内における被写体の向きは横で維持されているため、期間01においては対応する値5がそれぞれの特定領域に対する変数Dに設定される。また、期間01においては特定領域1、特定領域2のそれぞれのブロック歪みは7,8であるため、期間01においてはそれぞれの特定領域に対する変数BDには7,8が設定される。
ここで、上記の重み付け係数Ca、Cd、Cbdを何れも1に予め設定しておくと、特定領域1に対する評価値Ve(1)、特定領域2に対する評価値Ve(2)は以下の式に従って計算される。
Ve(1)=Ca・A × Cd・D / Cbd・(BD+1)
=1・5 × 1・5 / 1・(7+1)
=3.13
Ve(2)=Ca・A × Cd・D / Cbd・(BD+1)
=1・5 × 1・5 / 1・(8+1)
=2.78
このように、期間01においては特定領域1及び特定領域2の何れの評価値も閾値を超えない値に維持されたままであるので、期間01においては量子化ステップには変化がない。
次に、時刻T1では特定領域1のサイズが5から10に変化する。これによって相対的に非特定領域の面積が小さくなるため、非特定領域の占める符号量が減少する。また、特定領域1のサイズが変化したことにより、評価値Ve(1)は3.13から6.25へと変化する。一方、Ve(2)は2.78から変化しない。それ以降、時刻T1〜T2の期間(期間12)においては特定領域1及び特定領域2の何れの評価値も変わらず、閾値を超えないので、期間12においては量子化ステップには変化がない。
次に、時刻T2では、特定領域1内における被写体が正面を向くため、変数Dの値が5から10に変化する。これによって評価値Ve(1)は6.25から12.5へと変化し、閾値を超える。一方、Ve(2)は2.78から変化しない。それ以降、時刻T2〜T3の期間(期間23)においては、評価値Ve(1)は閾値を超えているものの、この期間23の長さは上記のNを超えない。また、特定領域2の評価値は変わらず、閾値を超えない。そのため、期間23においては量子化ステップには変化がない。
ここで、時刻T3の時点で、特定領域1の評価値Ve(1)が連続Nフレームに渡って閾値を超えたことになる。然るにこの場合、特定領域1に対する変数F(1)に1が設定される。この時点でF(2)=0である。これにより、特定領域1に対する量子化ステップを、それまでより大きく設定する。それ以降、時刻T3〜T4の期間(期間34)においては、特定領域1に対する量子化ステップがこれまでより大きく設定されたことにより、特定領域1に対するブロック歪みが7から17に変化する。これによって評価値Ve(1)は12.5から5.56へと変化する。なお、特定領域1に対する量子化ステップを大きくした分、特定領域1の占める符号量の減少が見込まれるため、制御部104では特定領域2の量子化ステップをこれまでより小さくするよう制御している。このような制御により、特定領域2に対するブロック歪みが8から2に変化する。これによって評価値Ve(2)は2.78から8.33へと変化する。また、特定領域1及び特定領域2の量子化ステップが変えられたことにより、特定領域1の占める符号量は減少し、特定領域2の占める符号量は増加する。それ以降、時刻T4までの期間では、評価値Ve(2)は閾値を超えないので、量子化ステップには変化がない。
次に、時刻T4において特定領域1内における被写体の向きが正面向きから横向きに変化するため、変数Dの値が10から5に変化する。これによって評価値Ve(1)は5.56から2.78へと変化する。一方、評価値Ve(2)は8.33から変化しない。それ以降、時刻T4〜T5の期間(期間45)では、評価値Ve(2)は閾値を超えないので、量子化ステップには変化がない。
[第2の実施形態]
先ず、本実施形態に係る画像処理装置の機能構成例について、図4のブロック図を用いて説明する。なお、図4における検出部201、判定部203、制御部204、符号化部205はそれぞれ、図1に示した検出部101、判定部103、制御部104、符号化部105と同様の動作を行うものであるため、これら各部に係る説明は省略する。然るに以下では、図1とは異なる構成用件について重点的に説明する。
評価部202は、着目フレームの画像から検出された特定領域の評価値を、予め定められた評価式と、重要度決定部206から得られる該特定領域の重要度と、を用いて計算する。然るに画像から複数の特定領域が検出された場合、評価部202はそれぞれの特定領域について評価値を計算する。
重要度決定部206は、着目フレームの画像から検出された特定領域の重要度を、該特定領域内の被写体と、データベース210内に保持されている多数の被写体に係る情報と、を照合することで決定する。然るに画像から複数の特定領域が検出された場合、重要度決定部206はそれぞれの特定領域について重要度を計算する。
次に、図4に示した各部の動作について、図5,6のフローチャートに従って説明する。なお、図5に示したステップS200〜S204、ステップS207〜ステップS213はそれぞれ、図2に示したステップS100〜S104、ステップS106〜ステップS112と同様の処理ステップであるため、これらのステップに係る説明は省略する。
ステップS205では重要度決定部206は、特定領域i内の被写体を示す被写体情報と、データベース210内に登録されている様々な被写体の被写体情報と、を照合することで、特定領域i内の被写体に対する重要度P(i)を求める。
例えば、データベース210内には被写体の画像毎に、該被写体に対する重要度を示す重要度情報を関連付けて予め登録しておく。そして重要度決定部206は、データベース210内に登録されている様々な被写体の画像のうち、特定領域i内の被写体の画像と最も類似する画像を特定し、特定した画像と関連付けてデータベース210内に登録されている重要度情報を読み出す。そして重要度決定部206は、この読み出した重要度情報が示す重要度をP(i)に設定する。もちろん、重要度P(i)を決定する方法はこれに限るものではない。
次にステップS206では評価部202は、特定領域iの評価値Ve(i)を、予め定められた評価式と、ステップS205で得た重要度P(i)と、を用いて計算する。ステップS206における処理の詳細を、図6のフローチャートに従って説明する。なお、図6に示したステップS2061〜S2063はそれぞれ、図3のステップS1051〜S1053と同様の処理ステップであるため、これらのステップに係る説明は省略する。
ステップS2064では評価部202は、ステップS205で得た重要度P(i)を変数Cpに設定する。
ステップS2065では評価部202は、ステップS2061〜ステップS2064の処理で値が確定した変数A、D、BD、Cpを用いて以下の式を計算することで、特定領域iに対する評価値Ve(i)を求める。
Ve=Ca・A × Cd・D / Cbd・(BD+1)・Cp
ここで、Ca、Cd、Cbd、はそれぞれ予め定めた重み付け係数であり、それぞれの重み係数には0以上の任意の値が予め設定されている。評価値Ve(i)は重要度P(i)が高いほど低く算出されるため、重要な特定領域ほど符号量が多く割り当てられやすくなる。このような計算処理を行うことで、特定領域iに対する評価値Ve(i)を求めることができる。なお、評価値の計算方法や評価値の計算に用いるパラメータについては上記の説明に限るものではない。
以上説明したように、一旦評価値として高い値(例:人物特定ができるレベル)で符号化した特定領域は量子化ステップの割り当てをそれまでより大きくし、他の領域には符号量を多く割り当てる。これにより、結果として他の領域の評価値が高くなるように符号化することができる。
なお、第1,2の実施形態では、変数F()はあるフレームで「1」に設定されると、それ以降もずっと「1」のままであるが、適宜「0」に初期化しても良い。例えば、検出部101(201)における特定領域の追尾機能の性能に応じてL(Lは自然数)フレーム毎に初期化する、というように、定期的に初期化しても良い。つまり、この追尾機能の性能があまり高くないことがわかっている場合にはLを小さめに設定することによって、特定領域の追尾結果が誤っていた場合のリスクを低減できる。
また、変数F()が一旦「1」となった特定領域でも、変数F()が「1」となったときの大きさAや顔の向きDの値を保持しておき、それらの値より高いA、Dが発生した場合に変数F()を0に初期化するようにしても良い。これにより、より評価値の高い結果を残すことが可能となる。
また、第1,2の実施形態では、符号化パラメータの一例として量子化ステップを用いているが、例えば量子化スケーリング値や量子化テーブルの選択番号等、符号量を制御可能なパラメータであれば如何なるパラメータを符号化パラメータに適用しても良い。
また、第1,2の実施形態では、採用する符号化技術については特に言及していないが、例えばH.264やMPEG-2方式等のように、画面内の位置に応じて符号量を制御するための符号化パラメータを有する符号化方式に従ったものを用いる。
また、第1,2の実施形態で説明した画像処理装置は、リアルタイム・エンコーダとしての用途ばかりでなく、一旦高画質で符号化したデータを復号化し、適宜再符号化を行う際のリエンコーダとしての用途にも適用できる。
[第3の実施形態]
図1,4に示した各部は何れもハードウェアで実装しても良いが、データベース210はデータファイル、データベース210以外の各部はソフトウェア(コンピュータプログラム)で実装しても良い。この場合、このデータベース210及びこのソフトウェアを保持する記憶装置(ハードディスク等)を有するコンピュータは第1,2の実施形態に係る画像処理装置として機能することができる。即ち、このコンピュータが有するCPUがこのソフトウェアを読み出して(必要に応じてデータベース210も読み出して)処理を実行することで、このコンピュータは、図1,4に示した各部の機能を実現することになる。もちろん、このコンピュータは、1台の装置から構成しても良いし、2台以上の装置で構成しても良い。
<産業上の利用可能性>
以上の各実施形態によれば、フレーム内に人物の顔等の重要な領域が多数存在する場合であってもフレーム全体の符号量を抑えることができ、かつそれぞれの領域内にある人物の顔等の重要な対象物の識別が容易になるように符号化することが可能となる。従って、特に監視用途のビデオカメラ等に有利に適用可能である。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 動画を取得する取得手段と、
    前記動画を構成するフレームから検出された被写体について、該被写体の位置に基づいて特定領域を抽出する抽出手段と、
    前記特定領域の評価値を算出する評価手段と、
    前記動画を構成するフレームのうち着目フレームよりもN(Nは自然数)フレーム前のフレームから該着目フレームまでの各フレームにおける評価値が何れも予め定められた閾値を超えている特定領域を着目特定領域として特定する特定手段と、
    前記特定手段が前記着目フレームにおいて前記着目特定領域を特定した場合であって、該着目特定領域と、前記着目特定領域ではない特定領域である非着目特定領域と、が該着目フレームに含まれる場合には、前記着目フレームにおける前記着目特定領域の符号量を、前記着目フレームの前のフレームにおける該着目特定領域の符号量よりも小さくさせる符号化パラメータを、前記着目フレームにおける該着目特定領域に対して設定すると共に、前記着目フレームにおける前記非着目特定領域の符号量を、前記着目フレームの前のフレームにおける該非着目特定領域の符号量よりも大きくさせる符号化パラメータを、前記着目フレームにおける該非着目特定領域に対して設定する設定手段と、
    前記設定手段により設定された符号化パラメータに基づいて前記着目特定領域及び前記非着目特定領域を含む前記着目フレームの符号化を実行する符号化手段と、
    前記符号化手段による符号化結果を、前記着目フレームの画像の符号化結果として出力する手段と
    を備えることを特徴とする画像処理装置。
  2. 前記評価手段は、前記特定領域のサイズが第1のサイズである場合よりも、前記特定領域のサイズが前記第1のサイズより大きい第2のサイズである場合のほうが、より高い評価値となるように特定領域の評価値を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記評価手段は、前記特定領域で検出される顔が第1の方向を向いている場合よりも、前記特定領域で検出される顔が前記第1の方向より正面に近い第2の方向を向いている場合のほうが、より高い評価値となるように特定領域の評価値を算出することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記評価手段は、前記特定領域の符号化によるブロック歪み量が第1の歪み量の場合よりも、前記特定領域の符号化によるブロック歪み量が前記第1の歪み量より少ない第2の歪み量の場合のほうが、より高い評価値となるように特定領域の評価値を算出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記評価手段は、前記特定領域から検出されるオブジェクトの重要度が第1の重要度である場合よりも、前記重要度が前記第1の重要度より重要度が低い第2の重要度である場合のほうが、より高い評価値となるように特定領域の評価値を算出することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記評価手段は、前記オブジェクトと重要度とを対応付けて記憶するデータベースにアクセスすることで、前記オブジェクトの重要度を取得することを特徴とする請求項5に記載の画像処理装置。
  7. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、動画を取得する取得工程と、
    前記画像処理装置の抽出手段が、前記動画を構成するフレームから検出された被写体について、該被写体の位置に基づいて特定領域を抽出する抽出工程と、
    前記画像処理装置の評価手段が、前記特定領域の評価値を算出する評価工程と、
    前記画像処理装置の特定手段が、前記動画を構成するフレームのうち着目フレームよりもN(Nは自然数)フレーム前のフレームから該着目フレームまでの各フレームにおける評価値が何れも予め定められた閾値を超えている特定領域を着目特定領域として特定する特定工程と、
    前記画像処理装置の設定手段が、前記特定工程で前記着目フレームにおいて前記着目特定領域を特定した場合であって、該着目特定領域と、前記着目特定領域ではない特定領域である非着目特定領域と、が該着目フレームに含まれる場合には、前記着目フレームにおける前記着目特定領域の符号量を、前記着目フレームの前のフレームにおける該着目特定領域の符号量よりも小さくさせる符号化パラメータを、前記着目フレームにおける該着目特定領域に対して設定すると共に、前記着目フレームにおける前記非着目特定領域の符号量を、前記着目フレームの前のフレームにおける該非着目特定領域の符号量よりも大きくさせる符号化パラメータを、前記着目フレームにおける該非着目特定領域に対して設定する設定工程と、
    前記画像処理装置の符号化手段が、前記設定工程で設定された符号化パラメータに基づいて前記着目特定領域及び前記非着目特定領域を含む前記着目フレームの符号化を実行する符号化工程と、
    前記画像処理装置の出力手段が、前記符号化工程による符号化結果を、前記着目フレームの画像の符号化結果として出力する工程と
    を備えることを特徴とする画像処理方法。
  8. コンピュータを、請求項1乃至6の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2011107636A 2011-05-12 2011-05-12 画像処理装置、画像処理方法 Active JP6016332B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011107636A JP6016332B2 (ja) 2011-05-12 2011-05-12 画像処理装置、画像処理方法
US13/456,889 US9066101B2 (en) 2011-05-12 2012-04-26 Image processing apparatus and image processing method
CN201210149476.2A CN102780882B (zh) 2011-05-12 2012-05-14 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011107636A JP6016332B2 (ja) 2011-05-12 2011-05-12 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2012239085A JP2012239085A (ja) 2012-12-06
JP2012239085A5 JP2012239085A5 (ja) 2014-06-19
JP6016332B2 true JP6016332B2 (ja) 2016-10-26

Family

ID=47125626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011107636A Active JP6016332B2 (ja) 2011-05-12 2011-05-12 画像処理装置、画像処理方法

Country Status (3)

Country Link
US (1) US9066101B2 (ja)
JP (1) JP6016332B2 (ja)
CN (1) CN102780882B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150334314A1 (en) * 2012-12-27 2015-11-19 Mission Infrared Electro Optics Technology Co., Ltd Device and method for detecting thermal images
WO2014101805A1 (zh) * 2012-12-27 2014-07-03 Wang Hao 红外挑选装置和红外挑选方法
WO2014101804A1 (zh) * 2012-12-27 2014-07-03 Wang Hao 热像选择装置和热像选择方法
US20160005156A1 (en) * 2012-12-27 2016-01-07 Hao Wang Infrared selecting device and method
CN103900710A (zh) * 2012-12-27 2014-07-02 杭州美盛红外光电技术有限公司 热像挑选装置和热像挑选方法
CN107770528B (zh) * 2016-08-19 2023-08-25 中兴通讯股份有限公司 视频播放方法及装置
JP6942959B2 (ja) * 2016-12-01 2021-09-29 沖電気工業株式会社 画像処理システム
JP6606530B2 (ja) * 2017-06-20 2019-11-13 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、監視システム
US20190002234A1 (en) 2017-06-29 2019-01-03 Canon Kabushiki Kaisha Elevator control apparatus and elevator control method
CN109698957B (zh) * 2017-10-24 2022-03-29 腾讯科技(深圳)有限公司 图像编码方法、装置、计算设备及存储介质
WO2023053394A1 (ja) * 2021-09-30 2023-04-06 日本電気株式会社 情報処理システム、情報処理方法、及び情報処理装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3187097B2 (ja) * 1991-10-17 2001-07-11 株式会社東芝 動画像符号化における符号量配分方法とこれを用いた動画像符号化方法及び装置
JPH06153180A (ja) * 1992-09-16 1994-05-31 Fujitsu Ltd 画像データ符号化方法及び装置
DE69521191T2 (de) 1994-12-16 2001-10-31 Canon K.K., Tokio/Tokyo Kodier- und Dekodiervorrichtung und -verfahren
JP4453175B2 (ja) * 2000-08-25 2010-04-21 ソニー株式会社 受信装置、及び、受信方法
JP4449206B2 (ja) * 2000-11-14 2010-04-14 ソニー株式会社 階層変調放送受信装置及び階層変調放送受信方法
EP1217843B1 (en) 2000-12-19 2012-11-28 Canon Kabushiki Kaisha Image processing method, apparatus, and storage medium
US6603413B2 (en) 2001-02-07 2003-08-05 Canon Kabushiki Kaisha Variable-length decoding apparatus and method
JP3977087B2 (ja) 2001-02-13 2007-09-19 キヤノン株式会社 画像符号化装置、方法及びプログラム
JP2002261623A (ja) 2001-02-28 2002-09-13 Canon Inc 復号装置、復号方法、記憶媒体及びプログラムソフトウェア
JP3984877B2 (ja) 2001-10-05 2007-10-03 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP2005109606A (ja) * 2003-09-29 2005-04-21 Sony Corp 信号処理方法、信号処理装置、記録装置、再生装置
JP4375143B2 (ja) * 2004-07-06 2009-12-02 株式会社日立製作所 動画像符号化装置
JP4241562B2 (ja) * 2004-09-29 2009-03-18 三洋電機株式会社 画像圧縮装置
JP2006332882A (ja) * 2005-05-24 2006-12-07 Mitsubishi Electric Corp 動画像符号化装置
JP2007036615A (ja) * 2005-07-26 2007-02-08 Matsushita Electric Ind Co Ltd カメラ制御装置及び監視システム
JP4993676B2 (ja) * 2006-09-01 2012-08-08 キヤノン株式会社 画像符号化装置及び画像符号化方法
JP4804378B2 (ja) * 2007-02-19 2011-11-02 パナソニック株式会社 映像表示装置及び映像表示方法
JP2008245237A (ja) * 2007-02-28 2008-10-09 Sanyo Electric Co Ltd 画像処理方法、画像処理装置およびそれを用いた撮像装置
JP2008243095A (ja) * 2007-03-29 2008-10-09 Toshiba Corp 顔検出システム、および顔検出方法
JP2009049979A (ja) * 2007-07-20 2009-03-05 Fujifilm Corp 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP4981571B2 (ja) * 2007-07-27 2012-07-25 パナソニック株式会社 画像センシング装置および画像センシングシステム
JP4958713B2 (ja) * 2007-10-04 2012-06-20 キヤノン株式会社 動画像符号化装置及びその制御方法
JP4970239B2 (ja) * 2007-12-27 2012-07-04 セコム株式会社 複合型侵入検知装置
JP5285632B2 (ja) * 2009-01-26 2013-09-11 パナソニック株式会社 動画像処理装置、動画像処理方法および撮像装置
JP2010200056A (ja) * 2009-02-26 2010-09-09 Hitachi Ltd 記録再生装置
JP5178662B2 (ja) * 2009-07-31 2013-04-10 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
JP2011087090A (ja) * 2009-10-14 2011-04-28 Panasonic Corp 画像処理方法、画像処理装置、及び撮像システム

Also Published As

Publication number Publication date
CN102780882B (zh) 2015-10-21
CN102780882A (zh) 2012-11-14
JP2012239085A (ja) 2012-12-06
US9066101B2 (en) 2015-06-23
US20120288204A1 (en) 2012-11-15

Similar Documents

Publication Publication Date Title
JP6016332B2 (ja) 画像処理装置、画像処理方法
US8558903B2 (en) Accelerometer / gyro-facilitated video stabilization
JP5478047B2 (ja) 映像データ圧縮前処理方法およびこれを用いた映像データ圧縮方法と映像データ圧縮システム
US20130279598A1 (en) Method and Apparatus For Video Compression of Stationary Scenes
JP2004350283A (ja) 圧縮ビデオから3次元オブジェクトをセグメント化する方法
JP2008505562A (ja) Mpegビデオストリーム内の動きを検出する方法及び装置
EP3175621B1 (en) Video-segment identification systems and methods
JP5190968B2 (ja) 動画像の圧縮方法及び圧縮装置
KR101281850B1 (ko) 영상 디스크립터 생성 장치
US20210160516A1 (en) Data rate control method, computer system, and device
US9183446B2 (en) Image processing apparatus and image processing method
US10630991B2 (en) Image difference detection device, method for detecting image difference, and computer program
JPWO2010084738A1 (ja) 照合加重情報抽出装置
Sun et al. A motion location based video watermarking scheme using ICA to extract dynamic frames
CN116129316A (zh) 图像处理方法、装置、计算机设备和存储介质
CN113191210B (zh) 一种图像处理方法、装置及设备
US20150288973A1 (en) Method and device for searching for image
JP2008016903A (ja) 動きベクトル信頼度測定方法,動フレーム判定方法,動画像符号化方法,およびそれらの装置,並びにそれらのプログラムおよびその記録媒体
De Praeter et al. Moving object detection in the HEVC compressed domain for ultra-high-resolution interactive video
CN101902631A (zh) 压缩视频中静态场景的快速定位方法
KR101780444B1 (ko) 영상 신호의 노이즈 제거 방법
Beniwal et al. Assessing the impact of video compression on background subtraction
CN112887718B (zh) 使用凸凹分布函数对多个图像帧进行帧内刷新编码的方法
Kong Modeling of Video Quality for Automatic Video Analysis and Its Applications in Wireless Camera Networks
JP2008072608A (ja) 画像符号化装置及び画像符号化方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150703

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160927

R151 Written notification of patent or utility model registration

Ref document number: 6016332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151