JP5839848B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP5839848B2
JP5839848B2 JP2011131636A JP2011131636A JP5839848B2 JP 5839848 B2 JP5839848 B2 JP 5839848B2 JP 2011131636 A JP2011131636 A JP 2011131636A JP 2011131636 A JP2011131636 A JP 2011131636A JP 5839848 B2 JP5839848 B2 JP 5839848B2
Authority
JP
Japan
Prior art keywords
frame
specific area
image
image processing
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011131636A
Other languages
English (en)
Other versions
JP2013005062A (ja
JP2013005062A5 (ja
Inventor
勇司 大森
勇司 大森
大川 浩司
浩司 大川
修 河口
修 河口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011131636A priority Critical patent/JP5839848B2/ja
Priority to US13/478,767 priority patent/US9210433B2/en
Publication of JP2013005062A publication Critical patent/JP2013005062A/ja
Publication of JP2013005062A5 publication Critical patent/JP2013005062A5/ja
Application granted granted Critical
Publication of JP5839848B2 publication Critical patent/JP5839848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object

Description

本発明は、画像内の特定の領域を他の領域よりも高画質に符号化するための技術に関するものである。
動画像の伝送や蓄積再生を行うために画像信号の符号化技術が用いられる。動画像の符号化技術としてはInternational Standard 13818 (MPEG-2)などの国際標準符号化方式が知られている。また、他の国際標準符号化方式としてISO/IEC International Standard 14496-2 (MPEG-4 Visual)、ITU-T Rec. H.264 Advanced Video Coding | ISO/IEC International Standard 14496-10(MPEG-4 AVC/H.264、以下H.264と呼ぶ)などが知られている。
これらの技術はビデオカメラやレコーダ等の分野にも用いられており、特に近年では監視用ビデオカメラ(以下、監視カメラと呼ぶ)への適用が積極的に行われている。監視カメラへの用途においては、長時間の録画を行う必要性から、比較的低ビットレートで符号化して符号化データのサイズを抑えるケースが多い。しかし、低ビットレートで符号化することにより多くの情報が失われて画質が劣化するために、人物の顔の特定等、本来の用途として機能しない問題があった。
そこで画面全体を一様に符号化するのではなく、人物の顔等、使用用途上重要と思われる領域を特定領域、そうでない領域を非特定領域として検出し、特定領域は画質を向上させ、非特定領域のみ符号量を抑えるように符号化する技術が一般的に用いられている。
しかし、この技術では、カメラの性能が低かったり、検出したい物体の動きが速すぎたりするなどして、実際に検出したい領域ではない領域を特定領域として誤検出してしまうという問題があった。こうした問題を解決するために、たとえば特許文献1では、特定領域の位置や顔の大きさに応じて、特定領域の妥当性を検証し、特定領域に対する量子化値を制御する画像符号化方法が開示されている。また、特許文献2では、検出した特定領域をトラッキングし、実際に符号化するフレームの特定領域を補正する画像符号化方法が開示されている。
特開2009−005238号公報 特開2009−005239号公報
しかしながら、高い精度で特定領域を検出する場合、特定領域検出処理の負荷が大きくなり、符号化処理に対して、特定領域が検出されるまでに数フレームの遅延が発生する。従来技術では、特定領域検出に遅延が発生したケースに対応する技術は特に言及されていない。遅延した特定領域は実際に符号化されるフレームにおける特定領域と異なる場合があり、遅延した特定領域に対して符号化パラメータを変更しても適切に画質向上されない。また、遅延した特定領域から符号化するフレームの特定領域を予測し、予測した特定領域に対して符号化パラメータを変更する方法も考えられるが、特定領域の予測が外れる場合があり、適切に画質向上されない課題があった。
本発明はこのような問題に鑑みてなされたものであり、画面全体の符号量を増加させることなく、意図した特定領域を他の領域よりも高画質に符号化することが可能な技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は、動画像を構成するフレーム内のオブジェクトに応じた特定領域を検出する検出手段と、
前記動画像を構成するフレームにおける特定領域を、該フレームよりも過去の2つの異なるフレームのそれぞれから検出された特定領域の情報を用いて推定する推定手段と、
前記推定手段により推定された着目フレームの特定領域と、該着目フレームから前記検出手段により検出された特定領域と、の差が所定範囲内である場合、前記着目フレームよりも後の後続フレームに対して前記推定手段が推定した特定領域が非特定領域よりも高い画質で符号化されるように、前記推定手段が推定した特定領域の情報に応じて前記後続フレームの符号化のための符号化パラメータを制御し、前記差が前記所定範囲内でない場合、前記制御を実行しない制御手段と
を有することを特徴とする。
本発明の画像符号化方式は、符号化工程に対して特定領域が遅延して検出される場合でも、特定領域の予測を行い、予測特定領域の妥当性を検証することにより、画面内に符号量を適切に割り当て、特定領域を高画質にすることができる。
画像処理装置の機能構成例を示すブロック図。 画像処理装置が行う符号化処理のフローチャート。 画像処理装置の機能構成例を示すブロック図。 画像処理装置が行う符号化処理のフローチャート。 符号化処理の具体例を示す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の一つである。
[第1の実施形態]
本実施形態に係る画像処理装置は、動画像を構成する各フレームの画像を入力し、入力した画像を、設定された符号化パラメータを用いて順次符号化して出力する画像処理装置である。先ず、本実施形態に係る画像処理装置の機能構成例について、図1のブロック図を用いて説明する。
動画像を構成する各フレームの画像は符号化部101及び特定領域検出部102に入力される。
符号化部101は、入力された各フレームの画像を、制御部105から供給される符号化パラメータを用いて符号化する。本実施形態ではこの符号化パラメータは量子化ステップであるものとして説明する。しかし、符号化パラメータには量子化ステップ以外を適用してもよく、量子化テーブルや符号化方式によって存在するフィルタ係数等、符号量や画質を調整出来るパラメータであればよい。また、本実施形態では、符号化部101の符号化方式としてH.264を用いるが、これに限るものではなく、例えば、MPEG-2方式を用いてもよい。そして符号化部101は、符号化した結果を適当な出力先に出力する。出力先については特に限定するものではなく、適当なメモリであってもよいし、ネットワークを介して外部装置に対して送信してもよい。
特定領域検出部102は、入力された画像から、特定の被写体が写っている領域を特定領域として検出する。特定領域の定義については特に限定するものではなく、人の顔や人体などの高画質化したい領域であればよく、動物の顔や車のナンバープレート等、ユースケースによって重要と位置付けられる領域であればよい。そして特定領域検出部102は、画像中における特定領域を特定するための情報(特定領域の左上隅及び右下隅の座標位置、特定領域の左上隅の座標位置及び縦横サイズなど)を、領域情報として予測部103及び誤差測定部104に対して送出する。
なお、特定領域検出部102は、本装置への画像入力と並行して動作するものであって、上記の特定領域の検出処理には数フレーム分の時間を要するものとする。然るに特定領域検出部102は、あるフレームの画像からの検出処理が完了すると、該完了の時点で本装置に入力されたフレームの画像に対して改めて検出処理を実行する。その結果、特定領域検出部102による特定領域の検出は、数フレームに1回だけ行われることになる。この特定領域検出部102による処理を一般化すれば次の通りである。即ち、着目フレームの画像から特定領域を検出する検出処理が第n(n≧1)回目の検出処理である場合、該第n回目の検出処理が完了すると、該完了の時点で本装置に入力されたフレームの画像に対して第(n+1)回目の検出処理を実行する。
予測部103は、特定領域検出部102が規定回数以上の検出処理を完了した後に本装置に入力された各フレームの画像中における特定領域を、該フレームよりも過去のフレームから検出された特定領域から予測(推定)する。以下では、この推定された特定領域を推定特定領域と呼称する。そして予測部103は、画像中の推定特定領域を特定するための情報(推定特定領域の左上隅及び右下隅の座標位置、推定特定領域の左上隅の座標位置及び縦横サイズなど)を、領域情報として制御部105及び誤差測定部104に対して送出する。
誤差測定部104は、規定回数以上の検出処理の完了後に本装置に入力された画像(第1フレームの画像)から特定領域検出部102が検出した特定領域と、該第1フレームの画像に対して予測部103が予測した推定特定領域との誤差(ずれ)を計算する。そして誤差測定部104は、計算した誤差を制御部105に対して送出する。
制御部105は、誤差測定部104からの誤差に基づいて符号化パラメータを決定し、決定した符号化パラメータを符号化部101に設定する。ここで、第1フレームの画像に対する特定領域検出部102による検出処理が完了した時点で本装置に入力された画像が第2フレームの画像であり、第1フレームについて計算した上記の誤差が規定範囲内であるとする。この場合、第2フレームの画像について予測部103が予測した推定特定領域を該推定特定領域以外の領域より高画質に符号化する符号化パラメータを、第2フレームの画像に対する符号化パラメータとして符号化部101に設定する。
本実施形態では上記の通り、符号化パラメータとして量子化ステップを用いるため、制御部105は、第2フレームの画像の推定特定領域に対する量子化ステップを、該推定特定領域以外の領域に対する量子化ステップよりも小さく設定する。この処理により、人の顔や人体など、重要と考えられる領域の画質を向上させつつ、ビットレートを所望の値に抑えることができる。
なお、制御部105は、上記の動作以外に、画像処理装置を構成する各部の動作制御も行っている。
次に、本実施形態に係る画像処理装置が行う符号化処理について、図2のフローチャートを用いて説明する。
ステップS201では制御部105は、現在処理対象となっているフレームの番号を示す変数Nを1に初期化し、特定領域の検出処理が完了した回数(特定領域が検出されたフレーム数)を示す変数iを0に初期化し、後述する変数readyを1に初期化する。
ステップS202では制御部105は、特定領域検出部102が特定領域を出力したか否かを示す変数detect_flagを0に初期化する。
ステップS203では制御部105は、変数readyの値が1であるか否かを判断する。この判断の処理は、特定領域検出部102が現在特定領域の検出処理を行う準備ができているか否かを判断する処理である。特定領域検出部102は複数フレームを同時に処理することはできず、検出処理は1つのフレームに対してのみ行い、この1つのフレームに対する検出処理が完了して初めて、その時点で本装置に入力されたフレームに対して次の検出処理を開始する。readyの値が1であれば、特定領域検出部102は現在特定領域の検出処理を実行しておらず、特定領域検出部102は現在特定領域の検出処理を行う準備ができている状態であることを示す。一方、readyの値が0であれば、特定領域検出部102は現在特定領域の検出処理を実行中であり、現在特定領域の検出処理を行う準備ができていないことを示す。
この判断の結果、readyの値が1であれば処理はステップS204に進み、readyの値が0であれば処理はステップS207に進む。ステップS204では、制御部105は、特定領域検出部102がこれから特定領域を検出しようとするフレームの番号を示す変数detect_frame_numに、現在処理対象となっているフレームの番号を示す変数Nの値を設定する。
ステップS205では特定領域検出部102は、detect_frame_numフレーム目の画像から特定領域を検出する処理(検出処理)を開始する。上記の通り、この検出処理は数フレームの時間を要し、その間にも本装置には後続する各フレームが順次入力されている。
ステップS206では制御部105は、変数readyに0を設定する。ステップS207では特定領域検出部102は、ステップS205で開始した検出処理が完了したか否かを判断する。この判断の結果、完了している場合には処理はステップS208に進み、完了していない場合には処理はステップS213に進む。
ステップS208では制御部105は、変数readyに1を設定する。即ち、detect_frame_numフレーム目の画像からの特定領域の検出処理が完了したのであるから、特定領域検出部102は現在、特定領域の検出処理を行う準備ができていることになる。
ステップS209では特定領域検出部102は、検出した特定領域の領域情報を予測部103及び誤差測定部104に対して送出する。ステップS210では予測部103は、配列P[i]に変数detect_frame_numの値を設定する。この配列は、特定領域が検出されたフレームの番号を格納するためのもので、P[i]=jとは、i回目の検出処理が行われたフレームがj番目のフレームである、ことを示している。
ステップS211では制御部105は、変数iの値を1つインクリメントする。ステップS212では制御部105は変数detect_flagに1を設定する。ステップS213では制御部105は、変数iの値が2以上、即ち、Nフレーム目よりも過去のフレームのうち2以上のフレームから特定領域が検出されているか否かを判断する。この判断の結果、i≧2である場合には処理はステップS214に進み、i<2の場合には処理はステップS224に進む。
ステップS214で予測部103は、P[i−2]フレーム目の画像及びP[i−1]フレーム目の画像のそれぞれから特定領域検出部102が検出した特定領域の領域情報を用いて、Nフレーム目の画像中における特定領域を予測(推定)する。なお、本実施形態では、過去2フレーム分の検出結果を用いて現フレームにおける特定領域を予測しているが、過去M(M>2)フレーム分の検出結果を用いて現フレームにおける特定領域を予測するようにしてもよい。この場合、ステップS213では制御部105は、変数iの値がM以上であるか否かを判断し、i≧Mである場合には処理はステップS214に進み、i<Mの場合には処理はステップS224に進むことになる。
ステップS215では制御部105は、ステップS214における予測が、図2のフローチャートの処理を開始してから初めて行ったか予測であるか否かを判断する。この判断の結果、ステップS214における予測が初めて行った予測であれば、処理はステップS216に進み、2回目以降の予測であれば、処理はステップS217に進む。
ステップS216では制御部105は、変数Rに現在のフレーム番号を示す変数Nの値を設定する。ステップS217では予測部103は、ステップS214で予測した結果、即ち、Nフレーム目の画像中における推定特定領域の領域情報を誤差測定部104及び制御部105に対して送出する。
ステップS218では誤差測定部104は、予測部103から受けた領域情報を本装置のメモリに格納する。ステップS219では制御部105は、P[i−1]≧R且つ変数detect_flag=1という条件が満たされているか否かを判断する。この判断の結果、この条件が満たされている場合には処理はステップS220に進み、この条件が満たされていない場合には処理はステップS224に進む。
ステップS220では、誤差測定部104は、P[i−1]フレーム目の画像について特定領域検出部102が検出した特定領域の領域情報と、P[i−1]フレーム目の画像について予測部103が予測した推定特定領域の領域情報と、の誤差を計算する。例えば、画像中の特定領域と推定特定領域との位置ずれやサイズのずれなどを誤差として求める。なお、推定特定領域の領域情報は誤差測定部104が保持しておき、特定領域検出部102から出力される特定領域の領域情報との誤差を測定してもよいし、もちろん予測部103が推定特定領域の領域情報を保持してもよい。必要に応じて予測部103が誤差測定部104に推定特定領域の領域情報を出力してもよい。
ステップS221では誤差測定部104は、ステップS220で求めた誤差を制御部105に対して送出する。ステップS222では制御部105は、誤差測定部104から受けた誤差が規定範囲内であるか否かを判断する。この判断の結果、誤差が規定範囲内であれば処理はステップS223に進み、規定範囲外であれば処理はステップS224に進む。この規定範囲は固定の範囲であってもよいし、適応的に変化する範囲であってもよい。
ステップS223では制御部105は、ステップS217でNフレーム目の画像について推定した推定特定領域を該推定特定領域以外の領域より高画質に符号化する為の符号化パラメータを、Nフレーム目の画像に対する符号化パラメータとして生成する。そして制御部105は、この生成した符号化パラメータを符号化部101に設定する。本実施形態では符号化パラメータは量子化ステップであるので、Nフレーム目の画像について推定された推定特定領域に対する量子化ステップを、該推定特定領域以外の領域に対する量子化ステップよりも小さく設定する。なお、誤差が規定範囲内であるか否かに関係なく、推定特定領域に対する符号化パラメータを制御してもよい。
ステップS224では制御部105は、Nフレーム目の画像中の何れの領域に対しても同じ画質で符号化するための符号化パラメータを生成し、生成した符号化パラメータを符号化部101に設定する。本実施形態では、Nフレーム目の画像に対して同じ量子化ステップを設定する。
ステップS225では符号化部101は、制御部105から設定された符号化パラメータを用いてNフレーム目の画像を符号化して符号化データを生成し、生成した符号化データを適当な出力先に出力する。
ステップS226では制御部105は、次のフレームについて処理を行うべく、変数Nの値を1つインクリメントする。
ステップS227では制御部105は、変数Nの値が、動画像を構成する総フレーム数NumOfFrameの値以下であるか否かを判断する。この判断の結果、N≦NumOfFrameであれば処理はステップS202に戻り、次のフレームの画像について以降の処理を行う。一方、N>NumOfFrameであれば、図2のフローチャートの処理は終了する。
次に、図5に示す具体例を挙げて、図2のフローチャートの処理を説明する。図5に示す具体例では、特定領域検出部102及び符号化部101にはフレーム番号=1,2,…、11,…の画像が順次入力されている。
先ず、時刻t1における符号化動作について説明する。時刻t1では特定領域検出部102及び符号化部101にはフレーム番号=1の画像が入力される。ステップS201ではN=1、i=0、ready=1と初期化され、ステップS202ではdetect_flag=0と初期化される。この時点でready=1であるため、処理はステップS203を介してステップS204に進む。ステップS204ではdetect_frame_numにN(=1)が設定され、ステップS205ではdetect_frame_num(=1)フレーム目の画像に対する特定領域の検出処理を開始し、ステップS206ではready=0に設定される。図5に示す如く、特定領域検出部102は1フレーム目の画像を受け、この画像に対する特定領域の検出処理を開始すると、この検出処理は時刻t3にて完了する。然るに時刻t1におけるステップS207の段階ではまだ1フレーム目の画像に対する特定領域の検出処理は完了していないため、処理はステップS207を介してステップS213に進む。この時点でまだどのフレームからも特定領域は検出されていない(i=0<2)ため、処理はステップS213を介してステップS224に進む。ステップS224では、1フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定し、ステップS225ではこの符号化パラメータを用いて1フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=2)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt2となる)。そしてステップS202以降では、N(=2)フレーム目の画像について以降の処理を行う。
次に、時刻t2における符号化動作について説明する。時刻t2では特定領域検出部102及び符号化部101にはフレーム番号=2の画像が入力される。ステップS202ではdetect_flag=0と初期化される。ここまでの処理ではreadyの値は0のまま変化していないため、処理はステップS203を介してステップS207に進む。上記の通り、時刻t2におけるステップS207の段階ではまだ1フレーム目の画像に対する特定領域の検出処理は完了していないため、処理はステップS207を介してステップS213に進む。この時点でまだどのフレームからも特定領域は検出されていない(i=0<2)ため、処理はステップS213を介してステップS224に進む。ステップS224では、2フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定し、ステップS225ではこの符号化パラメータを用いて2フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=3)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt3となる)。そしてステップS202以降では、N(=3)フレーム目の画像について以降の処理を行う。
次に、時刻t3における符号化動作について説明する。時刻t3では特定領域検出部102及び符号化部101にはフレーム番号=3の画像が入力される。ステップS202ではdetect_flag=0と初期化される。ここまでの処理ではreadyの値は0のまま変化していないため、処理はステップS203を介してステップS207に進む。上記の通り、1フレーム目の画像に対する特定領域の検出処理は時刻t3で完了するため、処理はステップS207を介してステップS208に進む。ステップS208ではready=1に設定し、ステップS209では、1フレーム目の画像から検出した特定領域の領域情報を予測部103及び誤差測定部104に対して送出する。ステップS210ではi=0,detect_frame_num=1であるため、P[0]=1と設定する。ステップS211ではiの値を1つインクリメントしi=1となる。また、ステップS212ではdetect_flag=1と設定する。この時点ではまだ1つのフレームからしか特定領域は検出されていない(i=1<2)ため、処理はステップS213を介してステップS224に進む。ステップS224では、3フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定し、ステップS225ではこの符号化パラメータを用いて3フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=4)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt4となる)。そしてステップS202以降では、N(=4)フレーム目の画像について以降の処理を行う。
次に、時刻t4における符号化動作について説明する。時刻t4では特定領域検出部102及び符号化部101にはフレーム番号=4の画像が入力される。ステップS202ではdetect_flag=0と初期化される。この時点でready=1であるため、処理はステップS203を介してステップS204に進む。ステップS204ではdetect_frame_numにN(=4)が設定され、ステップS205ではdetect_frame_num(=4)フレーム目の画像に対する特定領域の検出処理を開始し、ステップS206ではready=0に設定される。図5に示す如く、特定領域検出部102は4フレーム目の画像を受け、この画像に対する特定領域の検出処理を開始すると、この検出処理は時刻t6にて完了する。然るに時刻t4におけるステップS207の段階ではまだ4フレーム目の画像に対する特定領域の検出処理は完了していないため、処理はステップS207を介してステップS213に進む。この時点ではまだ1フレーム目のからしか特定領域は検出されていない(i=1<2)ため、処理はステップS213を介してステップS224に進む。ステップS224では、4フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定し、ステップS225ではこの符号化パラメータを用いて4フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=5)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt5となる)。そしてステップS202以降では、N(=5)フレーム目の画像について以降の処理を行う。
次に、時刻t5における符号化動作について説明する。時刻t5では特定領域検出部102及び符号化部101にはフレーム番号=5の画像が入力される。ステップS202ではdetect_flag=0と初期化される。ここまでの処理ではreadyの値は0のまま変化していないため、処理はステップS203を介してステップS207に進む。上記の通り、時刻t5におけるステップS207の段階ではまだ4フレーム目の画像に対する特定領域の検出処理は完了していないため、処理はステップS207を介してステップS213に進む。この時点ではまだ1フレーム目の画像からしか特定領域は検出されていない(i=1<2)ため、処理はステップS213を介してステップS224に進む。ステップS224では、5フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定し、ステップS225ではこの符号化パラメータを用いて5フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=6)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt6となる)。そしてステップS202以降では、N(=6)フレーム目の画像について以降の処理を行う。
次に、時刻t6における符号化動作について説明する。時刻t6では特定領域検出部102及び符号化部101にはフレーム番号=6の画像が入力される。ステップS202ではdetect_flag=0と初期化される。ここまでの処理ではreadyの値は0のまま変化していないため、処理はステップS203を介してステップS207に進む。4フレーム目の画像に対する特定領域の検出処理は時刻t6で完了するため、処理はステップS207を介してステップS208に進む。ステップS208ではready=1に設定し、ステップS209では、4フレーム目の画像から検出した特定領域の領域情報を予測部103及び誤差測定部104に対して送出する。ステップS210ではi=1,detect_frame_num=4であるため、P[1]=4と設定する。ステップS211ではiの値を1つインクリメントしi=2となる。また、ステップS212ではdetect_flag=1と設定する。この時点で、1フレーム目及び4フレーム目の2つのフレームの画像から特定領域を検出したので(i=2≧2)、処理はステップS213を介してステップS214に進む。ステップS214では、P[i−2](=1)フレーム目の画像及びP[i−1](=4)フレーム目の画像のそれぞれから検出した特定領域の領域情報を用いて、N(=6)フレーム目の画像中における特定領域を予測(推定)する。そして、この予測が最初の予測であるので、処理はステップS215を介してステップS216に進む。ステップS216では、変数RにN(=6)を設定し、ステップS217では、ステップS214で予測した結果、即ち、6フレーム目の画像中における推定特定領域の領域情報を誤差測定部104及び制御部105に対して送出する。ステップS218では、この領域情報を本装置のメモリに格納する。ステップS219では、P[i−1]≧R且つ変数detect_flag=1という条件が満たされているか否かを判断するのであるが、P[i−1]=4、R=6であるため、この条件は満たされないことになる。然るに処理はステップS224に進む。ステップS224では、6フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定し、ステップS225ではこの符号化パラメータを用いて6フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=7)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt7となる)。そしてステップS202以降では、N(=7)フレーム目の画像について以降の処理を行う。
次に、時刻t7における符号化動作について説明する。時刻t7では特定領域検出部102及び符号化部101にはフレーム番号=7の画像が入力される。ステップS202ではdetect_flag=0と初期化される。この時点でready=1であるため、処理はステップS203を介してステップS204に進む。ステップS204ではdetect_frame_numにN(=7)が設定され、ステップS205ではdetect_frame_num(=7)フレーム目の画像に対する特定領域の検出処理を開始し、ステップS206ではready=0に設定される。図5に示す如く、特定領域検出部102は7フレーム目の画像を受け、この画像に対する特定領域の検出処理を開始すると、この検出処理は時刻t9にて完了する。然るに時刻t7におけるステップS207の段階ではまだ7フレーム目の画像に対する特定領域の検出処理は完了していないため、処理はステップS207を介してステップS213に進む。この時点で、1フレーム目及び4フレーム目の2つのフレームの画像から特定領域を検出したので(i=2≧2)、処理はステップS213を介してステップS214に進む。ステップS214では、P[i−2](=1)フレーム目の画像及びP[i−1](=4)フレーム目の画像のそれぞれから検出した特定領域の領域情報を用いて、N(=7)フレーム目の画像中における特定領域を予測(推定)する。そして、この予測は最初の予測ではないので、処理はステップS215を介してステップS217に進む。ステップS217では、ステップS214で予測した結果、即ち、7フレーム目の画像中における推定特定領域の領域情報を誤差測定部104及び制御部105に対して送出する。ステップS218では、この領域情報を本装置のメモリに格納する。ステップS219では、P[i−1]≧R且つ変数detect_flag=1という条件が満たされているか否かを判断するのであるが、P[i−1]=4、R=6であるため、この条件は満たされないことになる。然るに処理はステップS224に進む。ステップS224では、7フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定し、ステップS225ではこの符号化パラメータを用いて7フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=8)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt8となる)。そしてステップS202以降では、N(=8)フレーム目の画像について以降の処理を行う。
次に、時刻t8における符号化動作について説明する。時刻t8では特定領域検出部102及び符号化部101にはフレーム番号=8の画像が入力される。ステップS202ではdetect_flag=0と初期化される。ここまでの処理ではreadyの値は0のまま変化していないため、処理はステップS203を介してステップS207に進む。上記の通り、時刻t8におけるステップS207の段階ではまだ7フレーム目の画像に対する特定領域の検出処理は完了していないため、処理はステップS207を介してステップS213に進む。この時点で、1フレーム目及び4フレーム目の2つのフレームの画像から特定領域を検出したので(i=2≧2)、処理はステップS213を介してステップS214に進む。ステップS214では、P[i−2](=1)フレーム目の画像及びP[i−1](=4)フレーム目の画像のそれぞれから検出した特定領域の領域情報を用いて、N(=8)フレーム目の画像中における特定領域を予測(推定)する。そして、この予測は最初の予測ではないので、処理はステップS215を介してステップS217に進む。ステップS217では、ステップS214で予測した結果、即ち、8フレーム目の画像中における推定特定領域の領域情報を誤差測定部104及び制御部105に対して送出する。ステップS218では、この領域情報を本装置のメモリに格納する。ステップS219では、P[i−1]≧R且つ変数detect_flag=1という条件が満たされているか否かを判断するのであるが、P[i−1]=4、R=6であるため、この条件は満たされないことになる。然るに処理はステップS224に進む。ステップS224では、8フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定し、ステップS225ではこの符号化パラメータを用いて8フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=9)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt9となる)。そしてステップS202以降では、N(=9)フレーム目の画像について以降の処理を行う。
次に、時刻t9における符号化動作について説明する。時刻t9では特定領域検出部102及び符号化部101にはフレーム番号=9の画像が入力される。ステップS202ではdetect_flag=0と初期化される。ここまでの処理ではreadyの値は0のまま変化していないため、処理はステップS203を介してステップS207に進む。7フレーム目の画像に対する特定領域の検出処理は時刻t9で完了するため、処理はステップS207を介してステップS208に進む。ステップS208ではready=1に設定し、ステップS209では、7フレーム目の画像から検出した特定領域の領域情報を予測部103及び誤差測定部104に対して送出する。ステップS210ではi=2,detect_frame_num=7であるため、P[2]=7と設定する。ステップS211ではiの値を1つインクリメントし、i=3となる。また、ステップS212ではdetect_flag=1と設定する。この時点で、1フレーム目、4フレーム目、7フレーム目の2以上のフレームの画像から特定領域を検出したので(i=3≧2)、処理はステップS213を介してステップS214に進む。ステップS214では、P[i−2](=4)フレーム目の画像及びP[i−1](=7)フレーム目の画像のそれぞれから検出した特定領域の領域情報を用いて、N(=9)フレーム目の画像中における特定領域を予測(推定)する。この予測は最初の予測ではないので、処理はステップS215を介してステップS217に進む。ステップS217では、ステップS214で予測した結果、即ち、9フレーム目の画像中における推定特定領域の領域情報を誤差測定部104及び制御部105に対して送出する。ステップS218では、この領域情報を本装置のメモリに格納する。ステップS219では、P[i−1]≧R且つ変数detect_flag=1という条件が満たされているか否かを判断するのであるが、P[i−1]=7、R=6、detect_flag=1であるため、この条件は満たされていることになる。然るに処理はステップS220に進む。ステップS220では、P[i−1](=7)フレーム目の画像について検出した特定領域の領域情報と、P[i−1](=7)フレーム目の画像について予測した推定特定領域の領域情報と、の誤差を計算する。ステップS221では、ステップS220で求めた誤差を制御部105に対して送出する。ステップS222では、この誤差が規定範囲内であるか否かを判断する。この判断の結果、誤差が規定範囲内であれば処理はステップS223に進み、規定範囲外であれば処理はステップS224に進む。ステップS223では、ステップS217でN(=9)フレーム目の画像について推定した推定特定領域を該推定特定領域以外の領域より高画質に符号化する為の符号化パラメータを、N(=9)フレーム目の画像に対する符号化パラメータとして生成する。そして、この生成した符号化パラメータを符号化部101に設定する。ステップS224では、9フレーム目の画像に対する符号化パラメータとして、画像全体均一な画質となる符号化パラメータを設定する。ステップS225では、ステップS223もしくはステップS224で設定した符号化パラメータを用いて9フレーム目の画像を符号化する。そしてステップS226では変数Nの値を1つインクリメントする。この時点でN(=10)はNumOfFrame(図5では少なくとも11よりも大きい)以下であるため、処理はステップS227を介してステップS202に戻る(この時点で時刻はt10となる)。そしてステップS202以降では、N(=10)フレーム目の画像について同様の処理を行う。
このように、本実施形態によれば、特定領域の予測の正確さに応じて符号化パラメータを制御することができ、これにより、特定領域に対する高画質化をより正確に行うことができる。
[第2の実施形態]
本実施形態に係る画像処理装置の機能構成例について、図3のブロック図を用いて説明する。なお、図3において、図1と同じ構成要件については同じ参照番号を付しており、その説明は省略する。
予測部303は、予測部103が行うものとして説明した予測処理を行い、誤差測定部304が求めた誤差を用いて、この予測した特定領域を補正する。この補正は、例えば、予測した特定領域の位置を誤差の分だけずらしたり、誤差の分だけ変形させたりする補正処理である。誤差測定部304は、求めた上記の誤差を制御部105だけでなく、予測部03にも送出する。
次に、本実施形態に係る画像処理装置が行う符号化処理について、図4のフローチャートを用いて説明する。なお、ステップS401〜S420はそれぞれ、図2のステップS201〜S220と同じ処理を行うステップであるため、これらのステップに係る説明は省略する。
ステップS421では、誤差測定部304は、ステップS420で求めた誤差を制御部105に加え、予測部303にも送出する。ステップS422では、制御部105は、誤差測定部304から受けた誤差が規定範囲内であるか否かを判断する。この判断の結果、誤差が規定範囲内であれば処理はステップS423に進み、規定範囲外であれば処理はステップS424に進む。この規定範囲は固定の範囲であってもよいし、適応的に変化する範囲であってもよい。
ステップS423では制御部105は、Nフレーム目の画像中の何れの領域に対しても同じ画質で符号化するための符号化パラメータを生成し、生成した符号化パラメータを符号化部101に設定する。本実施形態でも、Nフレーム目の画像に対して同じ量子化ステップを設定する。
一方、ステップS424では予測部303は、誤差測定部304が求めた上記の誤差を用いて、Nフレーム目の画像における推定特定領域を補正する。この補正処理では、予測部303が誤差の履歴を保持し、該フレームにおける誤差が前回予測時の誤差より大きくなった場合に推定特定領域を検出された特定領域に近づけるように補正するなどの方法が挙げられるが、これに限定されるものではない。また、補正処理は、推定特定領域に対して行うことに限定されるものではない。例えば、予測部303の予測処理の補正を行い、誤差に応じて予測の範囲や探索方法を適応的に変化させてもよい。
そしてステップS425では予測部303は、補正した推定特定領域の領域情報を制御部105に対して送出する。これにより制御部105は、この補正した推定特定領域を該推定特定領域以外の領域より高画質に符号化する為の符号化パラメータを、Nフレーム目の画像に対する符号化パラメータとして生成する。そして制御部105は、この生成した符号化パラメータを符号化部101に設定する。
ステップS426では符号化部101は、制御部105から設定された符号化パラメータを用いてNフレーム目の画像を符号化して符号化データを生成し、生成した符号化データを適当な出力先に出力する。ステップS427では制御部105は、次のフレームについて処理を行うべく、変数Nの値を1つインクリメントする。
ステップS428では制御部105は、変数Nの値が、動画像を構成する総フレーム数NumOfFrameの値以下であるか否かを判断する。この判断の結果、N≦NumOfFrameであれば処理はステップS402に戻り、次のフレームの画像について以降の処理を行う。一方、N>NumOfFrameであれば、図4のフローチャートの処理は終了する。
以上の説明により、本実施形態によれば、特定領域の予測が外れた場合であっても、誤った予測特定領域を補正するので、これにより、特定領域に対する高画質化をより正確に行うことができる。
[第3の実施形態]
図1,3に示した各部はハードウェアで構成してもよいが、コンピュータプログラムで実装してもよい。この場合、このコンピュータプログラムをコンピュータが有するメモリに格納し、このコンピュータが有するCPUがこのコンピュータプログラムを実行することで、このコンピュータは、第1,2の実施形態に係る画像処理装置として機能することになる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 動画像を構成するフレーム内のオブジェクトに応じた特定領域を検出する検出手段と、
    前記動画像を構成するフレームにおける特定領域を、該フレームよりも過去の2つの異なるフレームのそれぞれから検出された特定領域の情報を用いて推定する推定手段と、
    前記推定手段により推定された着目フレームの特定領域と、該着目フレームから前記検出手段により検出された特定領域と、の差が所定範囲内である場合、前記着目フレームよりも後の後続フレームに対して前記推定手段が推定した特定領域が非特定領域よりも高い画質で符号化されるように、前記推定手段が推定した特定領域の情報に応じて前記後続フレームの符号化のための符号化パラメータを制御し、前記差が前記所定範囲内でない場合、前記制御を実行しない制御手段と
    を有することを特徴とする画像処理装置。
  2. 前記差は、前記推定手段により推定された前記着目フレームにおける特定領域のサイズと、前記着目フレームから前記検出手段により検出された特定領域のサイズと、の差であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記差は、前記推定手段により推定された前記着目フレームにおける特定領域の位置と、前記着目フレームから前記検出手段により検出された特定領域の位置と、の差であることを特徴とする請求項1に記載の画像処理装置。
  4. 更に、
    前記推定手段により推定された前記後続フレームの特定領域を、前記差の情報を用いて変更する変更手段を有し、
    前記制御手段は、前記変更手段による変更後の特定領域が、非特定領域よりも高い画質で符号化されるように前記後続フレームの符号化のための符号化パラメータを制御することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記制御手段は、前記符号化パラメータとして量子化ステップを制御することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の検出手段が、動画像を構成するフレーム内のオブジェクトに応じた特定領域を検出する検出工程と、
    前記画像処理装置の推定手段が、前記動画像を構成するフレームにおける特定領域を、該フレームよりも過去の2つの異なるフレームのそれぞれから検出された特定領域の情報を用いて推定する推定工程と、
    前記画像処理装置の制御手段が、前記推定工程で推定された着目フレームの特定領域と、該着目フレームから前記検出工程で検出された特定領域と、の差が所定範囲内である場合、前記着目フレームよりも後の後続フレームに対して前記推定工程で推定した特定領域が非特定領域よりも高い画質で符号化されるように、前記推定工程で推定した特定領域の情報に応じて前記後続フレームの符号化のための符号化パラメータを制御し、前記差が前記所定範囲内でない場合、前記制御を実行しない制御工程と
    を有することを特徴とする画像処理方法。
  7. 前記差は、前記推定工程で推定された前記着目フレームにおける特定領域のサイズと、前記着目フレームから前記検出工程で検出された特定領域のサイズと、の差であることを特徴とする請求項6に記載の画像処理方法。
  8. コンピュータを、請求項1乃至5の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2011131636A 2011-06-13 2011-06-13 画像処理装置、画像処理方法 Active JP5839848B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011131636A JP5839848B2 (ja) 2011-06-13 2011-06-13 画像処理装置、画像処理方法
US13/478,767 US9210433B2 (en) 2011-06-13 2012-05-23 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011131636A JP5839848B2 (ja) 2011-06-13 2011-06-13 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2013005062A JP2013005062A (ja) 2013-01-07
JP2013005062A5 JP2013005062A5 (ja) 2014-07-24
JP5839848B2 true JP5839848B2 (ja) 2016-01-06

Family

ID=47293184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011131636A Active JP5839848B2 (ja) 2011-06-13 2011-06-13 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US9210433B2 (ja)
JP (1) JP5839848B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000670B2 (ja) 2012-06-11 2016-10-05 キヤノン株式会社 画像処理装置、画像処理方法
JP6758977B2 (ja) * 2016-07-22 2020-09-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6871727B2 (ja) * 2016-11-29 2021-05-12 キヤノン株式会社 撮像装置、画像処理方法、及び、プログラム
US10957068B2 (en) * 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4951140A (en) 1988-02-22 1990-08-21 Kabushiki Kaisha Toshiba Image encoding apparatus
JP3258840B2 (ja) 1994-12-27 2002-02-18 シャープ株式会社 動画像符号化装置および領域抽出装置
US6023301A (en) 1995-07-14 2000-02-08 Sharp Kabushiki Kaisha Video coding device and video decoding device
TW321810B (ja) 1995-10-26 1997-12-01 Sony Co Ltd
EP0905976A4 (en) 1997-03-17 2010-09-29 Panasonic Corp METHOD FOR PROCESSING, TRANSMITTING AND RECEIVING DATA OF DYNAMIC IMAGES AND RELATED DEVICE
US6895051B2 (en) 1998-10-15 2005-05-17 Nokia Mobile Phones Limited Video data encoder and decoder
JP3623679B2 (ja) 1999-01-06 2005-02-23 日本電気株式会社 動画像符号化装置
JP2001128144A (ja) 1999-10-26 2001-05-11 Fujitsu Ltd オンデマンドによる画像送信装置及びその方法
JP4153202B2 (ja) * 2001-12-25 2008-09-24 松下電器産業株式会社 映像符号化装置
JP4245123B2 (ja) 2002-02-28 2009-03-25 株式会社メガチップス ウエーブレット処理装置及びウエーブレット処理方法
JP4130780B2 (ja) 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
JP4556124B2 (ja) 2005-02-04 2010-10-06 ソニー株式会社 符号化装置および方法、復号装置および方法、画像処理システム、記録媒体、並びにプログラム
JP4661413B2 (ja) 2005-07-11 2011-03-30 富士フイルム株式会社 撮像装置、撮影枚数管理方法及び撮影枚数管理プログラム
JP4964595B2 (ja) 2005-09-20 2012-07-04 三菱電機株式会社 画像復号装置及び方法
US8254707B2 (en) 2005-12-07 2012-08-28 Sony Corporation Encoding device, encoding method, encoding program, decoding device, decoding method, and decoding program in interlace scanning
US8130828B2 (en) 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
JP4785678B2 (ja) 2006-09-01 2011-10-05 キヤノン株式会社 画像符号化装置および画像符号化方法
JP2008263529A (ja) 2007-04-13 2008-10-30 Sony Corp 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体
JP4863937B2 (ja) 2007-06-25 2012-01-25 株式会社ソニー・コンピュータエンタテインメント 符号化処理装置および符号化処理方法
JP4863936B2 (ja) 2007-06-25 2012-01-25 株式会社ソニー・コンピュータエンタテインメント 符号化処理装置および符号化処理方法
JP2009048620A (ja) * 2007-07-20 2009-03-05 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
JP2009200713A (ja) * 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
JP2009218742A (ja) 2008-03-07 2009-09-24 Canon Inc 画像符号化装置
JP2009246935A (ja) * 2008-03-14 2009-10-22 Sanyo Electric Co Ltd 画像処理装置およびそれを搭載した撮像装置
JP5167944B2 (ja) 2008-05-15 2013-03-21 株式会社リコー 情報処理装置、情報処理方法、プログラム及び記録媒体
US8363720B2 (en) 2009-01-26 2013-01-29 Panasonic Corporation Moving image processing device, moving image processing method and imaging apparatus
JP5004986B2 (ja) 2009-03-19 2012-08-22 キヤノン株式会社 スキャン変換装置及び画像符号化装置、並びにそれらの制御方法
KR101780921B1 (ko) 2010-04-01 2017-09-21 소니 주식회사 화상 처리 장치, 방법 및 기록매체

Also Published As

Publication number Publication date
US20120314765A1 (en) 2012-12-13
US9210433B2 (en) 2015-12-08
JP2013005062A (ja) 2013-01-07

Similar Documents

Publication Publication Date Title
US20160080764A1 (en) Encoding system using motion estimation and encoding method using motion estimation
US8274602B2 (en) Image processing apparatus and image processing method with redundant frame detection
US9924097B2 (en) Apparatus, method and recording medium for image stabilization
KR101756842B1 (ko) 영상 프레임의 보간 방법 및 장치
JP5839848B2 (ja) 画像処理装置、画像処理方法
JP4523886B2 (ja) 動画像復号装置、動画像復号方法および動画像復号プログラム
JP2012239085A (ja) 画像処理装置、画像処理方法
KR101167645B1 (ko) 장면 전환 검출 방법 및 장치
US20140126639A1 (en) Motion Estimation Method
US7852939B2 (en) Motion vector detection method and device of the same
US20080170617A1 (en) Apparatus for and method of estimating motion vector
JP2009303108A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2012227791A (ja) 画像処理装置および方法、プログラム、並びに記録媒体
KR101777776B1 (ko) 표본 프로파일 정보 기반 움직임 추정장치 및 방법
US20100021079A1 (en) Error concealment method and device
JP2005229166A (ja) 映像信号のノイズ量測定装置および測定方法
JP2002290977A (ja) 動きベクトル検出装置
KR101620928B1 (ko) 우선순위 주소 배분과 이동창 기법을 이용한 얼굴검출 시스템
JP4763241B2 (ja) 動き予測情報検出装置
JP4484910B2 (ja) 動き補償付きテンポラルフィルタ処理装置,処理方法,処理プログラムおよびコンピュータ読み取り可能な記録媒体
US7580458B2 (en) Method and apparatus for video coding
KR101781560B1 (ko) 표본 프로파일 정보 기반 움직임 추정장치 및 방법
WO1999044369A1 (en) Device and method for coding image
US20100111424A1 (en) Image processing apparatus, filter device, methods of controlling same and computer programs therefor
JP2005354478A (ja) 動き検出装置および動き検出方法、画像処理装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151110

R151 Written notification of patent or utility model registration

Ref document number: 5839848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151