JP5801614B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP5801614B2
JP5801614B2 JP2011129544A JP2011129544A JP5801614B2 JP 5801614 B2 JP5801614 B2 JP 5801614B2 JP 2011129544 A JP2011129544 A JP 2011129544A JP 2011129544 A JP2011129544 A JP 2011129544A JP 5801614 B2 JP5801614 B2 JP 5801614B2
Authority
JP
Japan
Prior art keywords
area
frame
selection
specific
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011129544A
Other languages
English (en)
Other versions
JP2012257125A5 (ja
JP2012257125A (ja
Inventor
大川 浩司
浩司 大川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011129544A priority Critical patent/JP5801614B2/ja
Priority to US13/485,315 priority patent/US9183446B2/en
Publication of JP2012257125A publication Critical patent/JP2012257125A/ja
Publication of JP2012257125A5 publication Critical patent/JP2012257125A5/ja
Application granted granted Critical
Publication of JP5801614B2 publication Critical patent/JP5801614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Description

本発明は、画像内の特定の領域をその他の領域よりも高画質に符号化するための技術に関するものである。
動画像の伝送や蓄積再生を行うために、画像信号の符号化技術が用いられる。そのような技術としての動画像の符号化技術には、ISO/IEC International Standard 14496−2(MPEG−4 Visual)などの国際標準化符号化方式が知られている。また、他の国際標準符号化方式として ITU-T と ISO/IECによる、H.264等が知られている。本明細書においては、ITU-T Rec. H.264 Advanced Video Coding | ISO/IEC International Standard 14496-10 (MPEG-4 AVC)を単にH.264と呼ぶ。これらの技術はビデオカメラやレコーダ等の分野にも用いられており、特に近年では監視用ビデオカメラ(以下、監視カメラと呼ぶ)への適用が積極的に行われている。
監視カメラ用途においては、長時間の録画を行う必要性から比較的低ビットレートで符号化して符号化データのサイズを抑えるケースが多い。しかし、低ビットレートで符号化することにより多くの情報が失われて画質が劣化するために、人物の顔の特定等本来の用途として機能しないという問題があった。そこで、フレーム全体を一様に符号化するのではなく、人物の顔等、使用用途上重要と思われる領域を特定領域として検出し、フレームを特定領域とそうでない領域(非特定領域)とに分け、領域毎に符号量の割り当てを変える技術が一般的に用いられている。具体的には、特定領域には多くの符号量を割り当てて画質を落とさないようにし、非特定領域のみ符号量を抑えるように符号化する。
この技術には、フレーム内に特定領域が複数存在する場合に、全ての特定領域に多くの符号量を割り当てると、目標ビットレートを超えてしまうという課題があった。またその一方で、全ての特定領域に目標ビットレートを超えない範囲で平均的に符号量を割り当てると、特定領域に対して、例えば人物の顔の特定等の用途に適した画質を得ることができないという課題があった。こうした課題に対し、それぞれの特定領域への符号量の割り当てを制御することで解決する技術が提案されてきている。
このような従来技術として、特許文献1が挙げられる。特許文献1では、フレームに占める面積が大きい特定領域よりも、フレームに占める面積が小さい特定領域に対して符号量を多く割り当てる。このようにすれば、小さく映った顔を鮮明に映しだすことができる圧縮データを確実に作成でき、大きく映った顔については、圧縮率が殆ど下がらなかったとしても、顔を十分に認識できる画質を維持できるとしている。
特開2010−193441号公報
しかしながら、上記の従来技術では、フレームに対する特定領域の面積比が小さい場合でも、特定領域が多数存在する場合においては、意図した画質を得ることができないケースが存在する。
本発明は以上の問題に鑑みてなされたものであり、特定領域が多数存在する場合においても、ビットレートを増加させることなく、特定領域に対して人物の特定等の用途に適した画質を得ることができる符号化技術を提供することを目的とする。
本発明の目的を達成するために、たとえば本発明の画像処理装置は、動画像を構成するフレーム内のオブジェクトに応じた特定領域を抽出する抽出手段と、
前記抽出手段が抽出した特定領域から、他の領域よりも高い画質で符号化されるべき特定領域を選択領域として選択する選択手段と、
前記選択手段により選択された選択領域を前記他の領域よりも高い画質で符号化する為の符号化パラメータを用いて、前記フレームに対応する画像データを符号化する符号化手段とを備え、
前記選択手段は、第1フレームから抽出された特定領域から1つ以上の選択領域を第1の選択領域として選択した場合、前記第1フレームから第2フレームまでの選択領域として、前記第1の選択領域に対応する特定領域を選択すると共に、前記第2フレームの次の第3フレームの選択領域として、前記第1の選択領域に対応する特定領域とは異なる特定領域を選択する
ことを特徴とする。
本発明の構成によれば、特定領域が多数存在する場合においても、ビットレートを増加させることなく、特定領域に対して人物の特定等の用途に適した画質を得ることができる。
画像処理装置の機能構成例を示すブロック図。 特定領域選択部102が行う選択領域の選択処理のフローチャート。 特定領域選択部102が行う選択領域の選択処理のフローチャート。 図2のフローチャートの処理の具体例を示す図。 図2のフローチャートの処理の具体例を示す図。 図3のフローチャートの処理の具体例を示す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の一つである。
[第1の実施形態]
本実施形態では、動画像を構成する各フレームの画像を符号化する画像処理装置について説明する。まず、本実施形態に係る画像処理装置の機能構成例について、図1のブロック図を用いて説明する。
動画像を構成する各フレームは、特定領域検出部101および符号化部103に入力される。
特定領域検出部101は、フレーム毎に、該フレームの画像中に写っているそれぞれの被写体の領域(特定領域)を抽出(検出)し、該領域内に写っている被写体に固有の識別情報を該領域に割り当てる。なお、特定領域検出部101は、一度検出して識別情報を割り当てた領域についてはそれ以降、フレームをまたいで追尾し続け、同一の識別情報を割り当てるものとする。
この「被写体」については特に限定するものではなく、ユースケースによって重要と位置付けられるものであればよく、たとえば人の顔であってもよいし、人体や動体、侵入者、置き去りにされたオブジェクトであってもよい。また、被写体の領域はユーザが操作部などを用いて指定した領域であってもよい。
また、被写体の領域の形状は矩形であってもよいし、円形や楕円形などの形状であってもよい。また、識別情報は、本実施形態ではIDとするが、これに限るものではない。
そして特定領域検出部101は、フレーム毎に、該フレームの画像から検出した被写体の領域毎の特徴情報、被写体の領域の総数、を含む領域情報を生成する。特徴情報は、{領域のID、領域の面積、画像内における領域の位置(たとえば左上隅の位置と右下隅の位置)}のセットを含む。そして特定領域検出部101は、生成したこの領域情報を特定領域選択部102に対して送出する。なお、特徴情報は、画像中のそれぞれの被写体の領域を一意に特定することができる情報であれば、如何なる情報であってもよい。また、この特徴情報は上述のものに限定されない。例えば被写体の領域の検出の精度、人の顔の向き等といった情報を出力してもよいし、領域の座標だけ出力してもよい。
特定領域選択部102は、フレーム毎に、該フレームの画像から特定領域検出部101が抽出したそれぞれの領域のうち規定個数の領域を、より高画質で符号化するための領域(選択領域)として選択する。特定領域選択部102による選択領域の選択方法については、図2を用いて後述する。
符号化部103は、入力された各フレームの画像を、制御部104により設定された符号化パラメータを用いて符号化する。制御部104は、符号化部103が符号化しようとするフレームの画像における選択領域を該選択領域以外の領域よりも高い画質で符号化する為の符号化パラメータを設定し、設定した符号化パラメータを符号化部103に供給する。たとえば符号化パラメータとして量子化ステップを採用する場合、制御部104は、選択領域に対して設定する量子化ステップを、選択領域以外の領域に対して設定する量子化ステップよりも小さく設定する。もちろん、符号化パラメータは量子化ステップに限るものではなく、ほかにも例えば量子化テーブルの値を採用してもよい。制御部104は更に、画像処理装置を構成する各部の動作制御も行う。
次に、特定領域選択部102が行う選択領域の選択処理について、同処理のフローチャートを示す図2を用いて説明する。なお、特定領域選択部102は、図2のフローチャートに従った処理をフレーム毎に行う。然るに以下の説明では、着目フレームの画像から選択領域を選択する処理を例にとり説明する。
ステップS201では、特定領域検出部101から送出された領域情報を受ける。そしてステップS202では、この領域情報中のそれぞれの特徴情報に含まれているIDを配列ID[]に格納すると共に、この領域情報に含まれている「被写体の領域の総数」を変数Mに設定する。すなわち、配列ID[]は、ID[0]〜ID[M−1]から成り、ID[0]〜ID[M−1]のそれぞれにはM個の領域のそれぞれのIDが格納されている。
ステップS203では、着目フレームよりも1フレーム過去のフレームから特定領域検出部101が検出したそれぞれの領域のIDが格納されている配列IDprev[]を参照する。そして配列ID[]に格納されているIDのうち配列IDprev[]には格納されていないIDを特定する。これはすなわち、着目フレームよりも1フレーム過去のフレームでは検出されなかったが、着目フレームで新たに検出された被写体のIDを特定する処理である。たとえば、ID=nがID[]には格納されているもののIDprev[]には格納されていないとする。この場合、ID=nの領域が選択された連続フレーム数(連続選択回数)を示す変数f[n]を0に初期化すると共に、ID=nの領域が選択されなかった連続フレーム数(連続非選択回数)を示す変数t[n]を十分に大きい規定値に初期化する。このように、連続非選択回数を示す変数t[n]に十分に大きい規定値を設定することで、後述するステップS212〜S215における処理で優先的に選択領域として選択されるようになる。
ステップS204では、変数sel_num、max_idxを0に初期化すると共に、配列sel_list[]の各要素をNULLなどの規定値に初期化する。
そしてステップS205〜ステップS209の各ステップを、i=0〜M−1について行う。まず、ステップS206では0<f[ID[i]]<Tconを満たすか否かを判断する。すなわち、着目フレームの画像から検出された「ID=ID[i]の領域」の連続選択回数が0より大きく且つ規定回数Tconよりも少ないか否かを判断する。この判断の結果、満たしていると判断した場合は処理はステップS208に進み、満たしていないと判断した場合は処理はステップS207に進む。
ステップS208では、着目フレームの画像における選択領域のIDを登録するための配列sel_list[]のsel_num番目の要素(sel_list[sel_num])にID[i]を格納する。更に本ステップでは、着目フレームの画像から検出された各領域が選択領域、非選択領域の何れであるのかを示すフラグ値を登録するための配列sel_flag_list[]のi番目の要素に、選択領域であることを示すフラグ値=1を格納する。すなわち、sel_flag_list[i]=1とする。更に本ステップでは、変数sel_numの値を1つインクリメントする。
一方、ステップS207では、sel_flag_list[]のi番目の要素(sel_flag_list[i])に、非選択領域であることを示すフラグ値=0を格納する。
このように、ステップS205〜S209の上記の各処理をi=0〜(M−1)について行うことで、着目フレームの画像から検出したそれぞれの領域のうち、連続選択回数が0より大きく且つ規定回数Tconよりも少ない領域を選択領域として選択する。なお、この時点で選択領域(第1の選択領域)として選択した領域の数はsel_num個である。
次に、ステップS210〜ステップS218の各ステップにおける処理を、j=sel_num〜(Tsel−1)について行う。ここでTselは、1フレームの画像から選択する選択領域の最大数を示す規定値であり、予め設定されている。本実施形態ではTsel=22として説明するが、これに限るものではない。例えば現在のフレームから検出された領域の数に対してある割合の数となるようにTselを設定してもよい。
まず、ステップS211では変数max_tを0に初期化する。次に、ステップS212〜ステップS215の各ステップにおける処理を、k=0〜(M−1)について行う。ステップS213では、sel_flag_list[k]=0且つmax_t<t[ID[k]]という条件が満たされているか否かを判断する。すなわち、本ステップでは、着目フレームの画像から検出された「ID=ID[k]の領域」が非選択領域であり且つこの非選択領域の連続非選択回数がmax_tよりも多い、という条件が満たされているか否かを判断する。
この判断の結果、この条件が満たされていると判断した場合には、処理はステップS214に進み、この条件が満たされていないと判断した場合には、処理はステップS215に進む。ステップS214では、変数max_tにt[ID[k]]を設定すると共に、変数max_idxに変数kの値を設定する。
このようにk=0〜M−1についてステップS212〜S215を実行することで、着目フレームの画像における全ての非選択領域のうち連続非選択回数が最も多い非選択領域を特定する。そして、配列ID[]においてこの特定した非選択領域のIDを格納している要素のインデックスを変数max_idxに設定する。
ステップS216では、sel_list[]のsel_num番目の要素(sel_list[sel_num])に、ID[max_idx]の値を設定する。すなわち、着目フレームの画像における全ての非選択領域のうち連続非選択回数が最も多い非選択領域を選択領域(第2の選択領域)として選択する。更に本ステップでは、配列sel_flag_list[]におけるmax_idx番目の要素(sel_flag_list[max_idx])に、選択領域であることを示すフラグ値=1を格納する。更に本ステップでは、変数sel_numの値を1つインクリメントする。
ステップS217では、sel_numの値がMに達したか否かを判断する。この判断の結果、達したと判断した場合、処理はステップS219に進む。一方、達していないと判断した場合、処理はステップS218に進み、変数jの値を1つインクリメントしてステップS211以降の処理を繰り返す。
次に、ステップS219〜S223の各ステップにおける処理を、l=0〜(M−1)について行う。ステップS220では、sel_flag_list[l]=1であるか否かを判断する。この判断の結果、sel_flag_list[l]=1である場合は処理はステップS222に進み、sel_flag_list[l]=0である場合は処理はステップS221に進む。
ステップS222では、f[ID[l]]の値を1つインクリメントすると共に、t[ID[l]]の値を0に初期化する。一方、ステップS221では、t[ID[l]]の値を1つインクリメントすると共に、f[ID[l]]の値を0に初期化する。
このように、t[]、f[]により、ID毎(識別情報毎)に、該IDを割り当てた領域を選択した連続フレーム数を連続選択回数として、選択しなかった連続フレーム数を連続非選択回数として、管理する。
このように、第1の選択領域としての領域を選択すると、該領域のIDについて管理している連続選択回数を1つインクリメントすると共に、該領域のIDについて管理している連続非選択回数を0に初期化する。
更に、第2の選択領域としての領域を選択すると、該領域のIDについて管理している連続選択回数を1つインクリメントすると共に、該領域のIDについて管理している連続非選択回数を0に初期化する。
更に、第1の選択領域にも第2の選択領域にも該当しない領域を非選択領域とすると、該非選択領域のIDについて管理している連続非選択回数を1つインクリメントすると共に、該非選択領域のIDについて管理している連続選択回数を0に初期化する。
更に、連続選択回数が規定回数Tconに達した領域のIDについて管理している連続非選択回数を1つインクリメントすると共に、該領域のIDについて管理している連続選択回数を0に初期化する。
ステップS224に処理が移行した時点で、配列sel_list[0]〜sel_list[Tsel−1]には、選択領域として選択された各領域のIDが登録されている。然るにステップS224では、配列sel_list[0]〜sel_list[Tsel−1]のそれぞれに登録されているIDが割り当てられた領域を選択領域として選択し、選択した選択領域を制御部104に通知する。これにより制御部104は、着目フレームの画像中におけるそれぞれの選択領域に対しては、それ以外の領域よりも小さい量子化ステップを設定することができる。
ステップS225では、変数Mprevに変数Mの値を設定すると共に、配列IDprev[]に配列ID[]をコピーする。変数Mprevは、配列IDprev[]の要素数を表す変数であり、たとえば、ステップS203において配列IDprev[]内を検索する場合の検索上限値として使用される。
フレームの画像から抽出したそれぞれの領域のうち、該フレームよりも1フレーム過去のフレームにおいて選択されなかった領域と同じIDが割り当てられた領域を非選択領域とする。この場合、以上の処理により、該非選択領域のうち規定個数以下の非選択領域を、規定個数の領域の一部もしくは全部として選択することとなる。
図2のフローチャートに従って説明した処理を、具体例を挙げて図4を用いて説明する。図4では、1フレーム目から40フレーム目までの各フレームについて、特定領域検出部101が検出した領域、それぞれの領域のt[]の値、特定領域選択部102により選択された選択領域、を示している。図4では説明を簡単にする為に特定領域検出部101は、各フレームから6つの領域を検出し、それぞれの領域にID=1〜6を割り当てており、1フレーム目におけるsel_flag_list[1]〜sel_flag_list[6]は全て0としている。また、図4では、Tcon=10、Tsel=2としている。
1フレーム目におけるt[1]〜t[6]の値から、値が大きい順に上位から2個の領域はID=1,ID=2の領域となるので、特定領域選択部102は、ID=1の領域、ID=2の領域を選択領域として選択する。そして特定領域選択部102は、t[1]、t[2]のそれぞれを0に初期化する。
その後、10フレームに到達するまで、t[1]、t[2]は0のままで、t[3]〜t[6]はフレーム毎にインクリメントされる。
10フレーム目に到達すると、この時点でt[1]〜t[6]のうち値が大きい順に上位から2個の領域はID=3,ID=4の領域となる。然るに特定領域選択部102は、ID=3の領域、ID=4の領域を選択領域として選択する。そして特定領域選択部102は、t[3]、t[4]のそれぞれを0に初期化する。
その後、20フレーム目に到達するまで、t[3]、t[4]は0のままで、t[1]、t[2]、t[5]、t[6]はフレーム毎にインクリメントされる。
20フレーム目に到達すると、この時点でt[1]〜t[6]のうち値が大きい順に上位から2個の領域はID=5,ID=6の領域となる。然るに特定領域選択部102は、ID=5の領域、ID=6の領域を選択領域として選択する。そして特定領域選択部102は、t[5]、t[6]のそれぞれを0に初期化する。
その後、30フレーム目に到達するまで、t[5]、t[6]は0のままで、t[1]〜t[4]はフレーム毎にインクリメントされる。
30フレーム目に到達すると、この時点でt[1]〜t[6]のうち値が大きい順に上位から2個の領域はID=1,ID=2の領域となる。然るに特定領域選択部102は、ID=1の領域、ID=2の領域を選択領域として選択する。そして特定領域選択部102は、t[1]、t[2]のそれぞれを0に初期化する。
もし、図4のように被写体の領域がフレーム内の大部分を占めている時、領域全てをそのまま高画質化対象として符号化すると、目標ビットレートを大きく超えてしまうであろう事は自明である。しかし本実施形態においては特定領域選択部102において被写体の領域の取捨選択を行うため、実際のビットレートが目標ビットレートを大きく超えることはない。そして選択領域を切り替えながら符号化する事で、全ての特定領域を一定時間内に一度は高画質に符号化する事が可能となる。
次に、被写体の領域がフレームインしたりフレームアウトしたりするケースにおける特定領域選択部102の動作について、図5を用いて説明する。図5では、1フレーム目から40フレーム目までの各フレームについて、特定領域検出部101が検出した領域、それぞれの領域のt[]の値、特定領域選択部102により選択された選択領域、を示している。1フレーム目ではsel_flag_list[1]〜sel_flag_list[6]は全て0としている。また、図5では、Tcon=30、Tsel=2としている。
特定領域検出部101は、1フレーム目〜9フレーム目まではID=1〜5の5つの領域を検出している。それぞれの領域に対するt[1]〜t[5]の値から、値が大きい順に上位から2個の領域はID=1,ID=2の領域となるので、特定領域選択部102は、ID=1の領域、ID=2の領域を選択領域として選択する。そして特定領域選択部102は、t[1]、t[2]のそれぞれを0に初期化する。その後、t[1]、t[2]は0のままで、t[3]〜t[5]はフレーム毎にインクリメントされる。
10フレーム目に到達すると、ID=6の領域が新たに検出されたため、この領域に対するt[6]に十分に大きい規定値である99を設定する。この時点でt[1]〜t[6]のうち値が大きい順に上位から2個の領域はID=3,ID=6の領域となるが、この時点でf[1]、f[2]の連続選択回数はまだTconには到達していないし、現在選択中の選択領域の数は2(=Tsel)である。そのため、選択領域の追加は行わない。然るに特定領域選択部102は、現在選択領域として選択しているID=1の領域、ID=2の領域をそのまま選択領域として選択する。そして特定領域選択部102は、t[1]、t[2]のそれぞれを0に初期化する。その後、t[1]、t[2]は0のままで、t[3]〜t[6]はフレーム毎にインクリメントされる。
20フレーム目に到達すると、ID=1の領域がフレームアウトして検出されなくなり、その結果、この時点で選択領域の数は1となる。そのため、この時点でt[3]〜t[6]のうち値が大きい順に上位から1個の領域であるID=6の領域を新たに選択領域として追加選択する。そして特定領域選択部102は、t[2]、t[6]のそれぞれを0に初期化する。その後、t[2]、t[6]は0のままで、t[3]〜t[5]はフレーム毎にインクリメントされる。
30フレーム目に到達すると、ID=2の領域の連続選択回数が30に到達したため、この領域の代わりとなる選択領域を選択する必要がある。一方、ID=6の領域についてはまだ連続選択回数が30には到達していないので、この領域の代わりとなる選択領域を選択する必要はない。そこで、この時点でt[3]〜t[5]のうち値が大きい順に上位から1個の領域はID=3の領域となる。然るに特定領域選択部102は、ID=3の領域、ID=6の領域を選択領域として選択する。そして特定領域選択部102は、t[3]、t[6]のそれぞれを0に初期化する。
なお、図2のフローチャートでは、連続非選択回数の多い順に選択領域を選択しているが、選択基準はこれに限るものではない。たとえば、領域の座標に応じて選択してもよい。具体的には、各非選択領域の座標から各々の重心を計算し、重心とフレームの端部からの距離が小さい順に上位から(Tsel−sel_num−1)個(N個)の非選択領域を選択領域として選択してもよい。フレーム端部に位置する領域はフレームインやフレームアウト発生の確率が高いため、優先的に選択する事で高画質化しないままこの領域がフレームアウトする事を防ぐ効果がある。他にも、フレームを複数の領域に分割して、分割された複数の領域の中から一つの領域を選択分割領域として決定し、その領域の内部に重心が存在する領域のみを選択領域としてもよい。そのように選択領域を決定する場合は、選択分割領域を順次切り替える事でフレーム内の全ての領域を高画質化する事ができる。
また、移動速度の大きい領域はフレームアウトする確率が高いと考えられる。そのため、フレーム間での各非選択領域の重心の座標の変化量を基に各非選択領域の移動速度を算出し、移動速度が大きい順に上位から(Tsel−sel_num−1)個の非選択領域を選択領域として選択してもよい。
また、連続選択回数の累積値が小さい順に上位から(Tsel−sel_num−1)個の非選択領域を、選択領域として選択してもよい。連続選択回数が小さい領域は、高画質に符号化された時間が短い事を意味する。例えば監視カメラにおける人物の識別等のユースケースにおいて、高画質化された時間が短いと人物を識別できる可能性が下がる。連続選択回数の累積値が少ない領域を優先的に選択する事で、撮影された人物を識別できる可能性を高くする事ができる。
また、選択領域として選択しない条件を定めてもよい。例えば、一定フレーム数以上連続して検出され続ける領域を選択対象から外してもよいし、一定フレーム数以上選択した領域を選択対象から外す等の選択方法を実施してもよい。これらの領域は既に高画質に符号化されている可能性が高いため、予め選択対象から外す事は、撮影された人物を識別できる可能性を高くする効果がある。また、特定の条件を満たす領域は常に選択領域としてもよい。例えば、最も選択されたフレーム数が少ない領域は常に選択領域とする、等の処理を行ってもよい。更にこれらの選択方法は必ずしも単独で用いる必要はなく、個々の選択方法を組み合わせて選択領域を決定してもよい。
[第2の実施形態]
本実施形態では、図1の構成を有する画像処理装置が行う、第1の実施形態とは異なる符号化処理について説明する。以下では、第1の実施形態との差分のみについて説明し、以下に説明する点以外については第1の実施形態と同様である。
本実施形態に係る特定領域選択部102が行う処理について、同処理のフローチャートを示す図3を用いて説明する。図3は、フレーム間で選択する領域の総面積が一定となるように特定領域選択部102が選択領域を決定する処理例を示している。選択領域の面積が一定となる事は、高画質に符号化される領域の面積が一定となる事を意味しており、フレーム間でのビットレートのばらつきを抑制する効果がある。図3のフローチャートに従った処理は、図2のフローチャートに従った処理と同様、フレーム毎に行われる。また、引き継ぎ情報は第1の実施形態と同一である。
ここで、「領域の面積」とは、画像を符号化用に複数の画素ブロックに分割した場合に、この領域に含まれる画素ブロックの数を指す。しかし、面積の定義はこれに限定されるものではなく、例えば領域を構成する画素の数をこの領域の面積としてもよい。
なお、ステップS301〜ステップS309のそれぞれは、ステップS302,S304,S308を除いて図2のステップS201〜ステップS209と同じであるため、同じ部分については説明は省略する。
ステップS302では、ステップS202の処理に加え、各領域の特徴情報から、各領域の面積を取得し、配列AREA[]に格納する。すなわち、ID=ID[0]〜ID[M−1]のそれぞれの領域の面積は、AREA[0]〜AREA[M−1]に格納される。
ステップS304では、ステップS204の処理に加え、変数total_areaを0に初期化する。
ステップS308では、ステップS208の処理に加え、変数total_areaの値を、AREA[i]の値だけインクリメントする。これにより、ステップS310に処理が移行した時点で、この変数total_areaには、着目フレームの画像から検出された領域群のうち、連続選択回数が0より大きく且つ規定回数Tconよりも少ない領域の総面積が格納されることになる。
そしてステップS310〜S318の各ステップの処理を、変数total_areaの値が、規定の値Tareaを超えるまで繰り返し行う。たとえば、変数total_areaの値がTareaを超えた時点で、最後に選択した領域をキャンセルすることで、選択領域の総面積がTareaを超えないようにしてもよい。また、Tareaは固定の値でもよいし、全ての検出領域の総面積のうちある割合になるような可変の値でもよいし、フレームのサイズに応じて決まる値であってもよい。
ステップS311〜ステップS315のそれぞれは、図2のステップS211〜ステップS215と同じであるため、説明は省略する。
ステップS316では、ステップS216の処理に加え、変数total_areaの値を、AREA[max_idx]の値だけインクリメントする。すなわち、非選択領域であった領域を選択領域として選択した場合には、この選択領域の面積が変数total_areaの値に加算される。
ステップS317ではsel_numの値がMに達したか否かを判断する。そして達したと判断した場合、処理はステップS319に進み、達していないと判断した場合、処理はステップS318に進み、total_area<Tareaが満たされている限りステップS311以降の処理を繰り返す。以降の処理は、第1の実施形態と同様である。
図3のフローチャートに従って説明した処理を、具体例を挙げて図6を用いて説明する。図6では、1フレーム目から40フレーム目までの各フレームについて、特定領域検出部101が検出した領域、それぞれの領域のt[]およびAREA[]の値、特定領域選択部102により選択された選択領域、を示している。図6では説明を簡単にする為に特定領域検出部101は、各フレームから6つの領域を検出し、それぞれの領域にID=1〜6を割り当てており、1フレーム目におけるsel_flag_list[1]〜sel_flag_list[6]は全て0としている。また、図6では、Tcon=10、Tarea=15としている。
1フレーム目におけるt[1]〜t[6]のうち値がもっとも大きいものはt[1]であるので、まずID=1の領域を選択領域として選択することになる。ここで、ID=1の領域の面積はAREA[1]=20であり、この領域を選択した時点でTareaを超えているため、これ以上の領域選択は行われない。そして特定領域選択部102は、t[1]を0に初期化する。その後、t[1]は0のままで、t[2]〜t[6]はフレーム毎にインクリメントされる。
10フレーム目に到達すると、この時点でt[2]>t[3]>t[4]>t[5]>t[6]であるため、ID=2,3,4,5,6の順に領域を選択する。ここで、ID=2,3,4の領域を選択した時点で、選択した領域の総面積が16となり、Tareaを超えている。然るに特定領域選択部102は、t[2]、t[3]、t[4]のそれぞれを0に初期化する。その後、t[2]、t[3]、t[4]は0のままで、t[1]、t[5]、t[6]はフレーム毎にインクリメントされる。
20フレーム目に到達すると、この時点でt[5]>t[6]>t[1]であるため、ID=5,6,1の順に領域を選択する。ここで、ID=5,6の領域を選択した時点で、選択した領域の総面積が18となり、Tareaを超えている。然るに特定領域選択部102は、t[5]、t[6]のそれぞれを0に初期化する。その後、t[5]、t[6]は0のままで、t[1]〜t[4]はフレーム毎にインクリメントされる。
30フレーム目に到達すると、この時点でt[1]>t[2]≧t[3]≧t[4]であるため、ID=1,2,3,4の順に領域を選択する(ID=2,3,4の面積は同じであるためこれらの順序は問わない)。ここで、ID=1の領域を選択した時点で、選択した領域の総面積が20となり、Tareaを超えている。然るに特定領域選択部102は、t[1]を0に初期化する。その後、t[1]は0のままで、t[2]〜t[6]はフレーム毎にインクリメントされる。
もし、図6のように被写体の領域がフレーム内の大部分を占めている時、領域全てをそのまま高画質化対象として符号化すると、フレームのビットレートが非常に高くなる。しかし本実施形態においては特定領域選択部102において領域の取捨選択を行うため、フレーム全体としてのビットレートはそこまで増大しない。そして選択領域を切り替えながら符号化する事で、全ての領域を一定時間内に一度は高画質に符号化する事が可能となる。更に、フレーム間で選択領域の面積が一定となるように領域を選択する事で、フレーム間でのビットレートの変動を抑える事が可能となる。
なお、図3のフローチャートでは、連続非選択回数の多い順に選択領域を選択しているが、選択基準はこれに限るものではない。たとえば、面積が小さい順に上位から選択してもよい。小さく映っている顔は大きく映っている顔よりも人物の識別が困難である。そのため、面積が小さい領域を優先的に選択する事は、映っている人物を識別できる可能性が高くなる効果を持つ。
[第3の実施形態]
図1に示した各部は何れもハードウェアで実装しても良いが、ソフトウェア(コンピュータプログラム)で実装しても良い。この場合、このソフトウェアを保持する記憶装置(ハードディスク等)を有するコンピュータは第1,2の実施形態に係る画像処理装置として機能することができる。即ち、このコンピュータが有するCPUがこのソフトウェアを読み出して処理を実行することで、このコンピュータは、図1に示した各部の機能を実現することになる。もちろん、このコンピュータは、1台の装置から構成しても良いし、2台以上の装置で構成しても良い。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (13)

  1. 動画像を構成するフレーム内のオブジェクトに応じた特定領域を抽出する抽出手段と、
    前記抽出手段が抽出した特定領域から、他の領域よりも高い画質で符号化されるべき特定領域を選択領域として選択する選択手段と、
    前記選択手段により選択された選択領域を前記他の領域よりも高い画質で符号化する為の符号化パラメータを用いて、前記フレームに対応する画像データを符号化する符号化手段とを備え、
    前記選択手段は、第1フレームから抽出された特定領域から1つ以上の選択領域を第1の選択領域として選択した場合、前記第1フレームから第2フレームまでの選択領域として、前記第1の選択領域に対応する特定領域を選択すると共に、前記第2フレームの次の第3フレームの選択領域として、前記第1の選択領域に対応する特定領域とは異なる特定領域を選択する
    ことを特徴とする画像処理装置。
  2. 更に、
    前記動画像において、フレーム間で同じオブジェクトであると判定されるオブジェクトの特定領域を対応付ける手段と、
    前記第3フレームより過去のフレームにおいて前記第3フレームから抽出された特定領域と対応付けられる特定領域、を前記選択手段が連続して選択しなかったフレーム数を示す連続非選択フレーム数を特定する特定手段を備え、
    前記選択手段は、前記第3フレームから所定数より多くの特定領域が抽出された場合、前記第3フレームの前記所定数の選択領域を前記連続非選択フレーム数に基づいて選択することを特徴とする請求項1に記載に画像処理装置。
  3. 前記選択手段は、前記第3フレームから所定数より多くの特定領域が抽出された場合、前記連続非選択フレーム数が最も多い特定領域から前記所定数の特定領域を前記第3フレームの選択領域として選択することを特徴とする請求項2に記載の画像処理装置。
  4. 前記選択手段は、前記第1フレームの次のフレームから前記第3フレームまでのフレームにおいて新たに検出されたオブジェクトに応じた特定領域に対応する前記第3フレームの特定領域を、前記第3フレームの選択領域として選択することを特徴とする請求項1に記載の画像処理装置。
  5. 前記選択手段は、前記第3フレームから所定数より多くの特定領域が抽出された場合、該特定領域の前記第3フレーム内の位置に基づいて前記第3フレームの前記所定数の選択領域を選択することを特徴とする請求項1に記載の画像処理装置。
  6. 前記選択手段は、前記第3フレームから所定数より多くの特定領域が抽出された場合、該特定領域に対応するオブジェクトの動きの速度に基づいて前記第3フレームの前記所定数の選択領域を選択することを特徴とする請求項1に記載の画像処理装置。
  7. 前記選択手段は、前記第3フレームから所定数より多くの特定領域が抽出された場合、該特定領域に対応する他のフレームの特定領域が選択領域として選択された回数に基づいて前記第3フレームの前記所定数の選択領域を選択することを特徴とする請求項1に記載の画像処理装置。
  8. 更に、
    前記抽出手段により抽出された特定領域の面積に関する情報を取得する取得手段を備え、
    前記選択手段は、前記フレームの選択領域として選択された1つ以上の特定領域の面積の合計が所定面積よりも小さくなるように選択領域を選択することを特徴とする請求項1に記載の画像処理装置。
  9. 前記符号化手段は、前記符号化パラメータの制御として、前記選択手段により選択された選択領域を量子化するための量子化ステップを前記他の領域の量子化ステップよりも小さくする制御を行うことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
  10. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の抽出手段が、動画像を構成するフレーム内のオブジェクトに応じた特定領域を抽出する抽出工程と、
    前記画像処理装置の選択手段が、前記抽出工程で抽出した特定領域から、他の領域よりも高い画質で符号化されるべき特定領域を選択領域として選択する選択工程と、
    前記画像処理装置の符号化手段が、前記選択工程で選択された選択領域を前記他の領域よりも高い画質で符号化する為の符号化パラメータを用いて、前記フレームに対応する画像データを符号化する符号化工程とを備え、
    前記選択工程では、第1フレームから抽出された特定領域から1つ以上の選択領域を第1の選択領域として選択した場合、前記第1フレームから第2フレームまでの選択領域として、前記第1の選択領域に対応する特定領域を選択すると共に、前記第2フレームの次の第3フレームの選択領域として、前記第1の選択領域に対応する特定領域とは異なる特定領域を選択する
    ことを特徴とする画像処理方法。
  11. 更に、
    前記画像処理装置の対応付け手段が、前記動画像において、フレーム間で同じオブジェクトであると判定されるオブジェクトの特定領域を対応付ける工程と、
    前記画像処理装置の特定手段が、前記第3フレームより過去のフレームにおいて前記第3フレームから抽出された特定領域と対応付けられる特定領域、を前記選択工程で連続して選択しなかったフレーム数を示す連続非選択フレーム数を特定する特定工程を備え、
    前記選択工程では、前記第3フレームから所定数より多くの特定領域が抽出された場合、前記第3フレームの前記所定数の選択領域を前記連続非選択フレーム数に基づいて選択することを特徴とする請求項10に記載に画像処理方法。
  12. 前記選択工程では、前記第3フレームから所定数より多くの特定領域が抽出された場合、前記連続非選択フレーム数が最も多い特定領域から前記所定数の特定領域を前記第3フレームの選択領域として選択することを特徴とする請求項11に記載の画像処理方法。
  13. コンピュータを、請求項1乃至9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2011129544A 2011-06-09 2011-06-09 画像処理装置、画像処理方法 Active JP5801614B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011129544A JP5801614B2 (ja) 2011-06-09 2011-06-09 画像処理装置、画像処理方法
US13/485,315 US9183446B2 (en) 2011-06-09 2012-05-31 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011129544A JP5801614B2 (ja) 2011-06-09 2011-06-09 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2012257125A JP2012257125A (ja) 2012-12-27
JP2012257125A5 JP2012257125A5 (ja) 2014-07-24
JP5801614B2 true JP5801614B2 (ja) 2015-10-28

Family

ID=47293261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011129544A Active JP5801614B2 (ja) 2011-06-09 2011-06-09 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US9183446B2 (ja)
JP (1) JP5801614B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155670A1 (ja) * 2017-02-27 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
JP6606530B2 (ja) * 2017-06-20 2019-11-13 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、監視システム
JP7007249B2 (ja) * 2018-09-28 2022-01-24 富士フイルム株式会社 画像処理装置,画像処理方法および画像処理プログラム
US20230121046A1 (en) * 2020-03-31 2023-04-20 Sony Interactive Entertainment Inc. Transmission device, transmission method, and program

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0330455A3 (en) * 1988-02-22 1990-07-04 Kabushiki Kaisha Toshiba Image encoding apparatus
JP3258840B2 (ja) * 1994-12-27 2002-02-18 シャープ株式会社 動画像符号化装置および領域抽出装置
JPH08340534A (ja) * 1995-06-12 1996-12-24 Canon Inc 映像信号処理装置
US6023301A (en) * 1995-07-14 2000-02-08 Sharp Kabushiki Kaisha Video coding device and video decoding device
TW321810B (ja) * 1995-10-26 1997-12-01 Sony Co Ltd
CN100334880C (zh) * 1997-03-17 2007-08-29 松下电器产业株式会社 发送和接收动态图像数据的方法及其设备
US6895051B2 (en) * 1998-10-15 2005-05-17 Nokia Mobile Phones Limited Video data encoder and decoder
JP3623679B2 (ja) * 1999-01-06 2005-02-23 日本電気株式会社 動画像符号化装置
JP2001128144A (ja) * 1999-10-26 2001-05-11 Fujitsu Ltd オンデマンドによる画像送信装置及びその方法
JP4153202B2 (ja) 2001-12-25 2008-09-24 松下電器産業株式会社 映像符号化装置
JP4245123B2 (ja) * 2002-02-28 2009-03-25 株式会社メガチップス ウエーブレット処理装置及びウエーブレット処理方法
JP4130780B2 (ja) * 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
JP4514464B2 (ja) * 2004-02-09 2010-07-28 三洋電機株式会社 画像符号化装置および画像復号装置、ならびにそれらを利用可能な画像表示装置および方法
JP4556124B2 (ja) * 2005-02-04 2010-10-06 ソニー株式会社 符号化装置および方法、復号装置および方法、画像処理システム、記録媒体、並びにプログラム
JP4661413B2 (ja) * 2005-07-11 2011-03-30 富士フイルム株式会社 撮像装置、撮影枚数管理方法及び撮影枚数管理プログラム
CN101218831B (zh) * 2005-09-20 2010-07-21 三菱电机株式会社 图像解码方法以及图像解码装置
US8254707B2 (en) * 2005-12-07 2012-08-28 Sony Corporation Encoding device, encoding method, encoding program, decoding device, decoding method, and decoding program in interlace scanning
US8130828B2 (en) * 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
JP2007329788A (ja) * 2006-06-09 2007-12-20 Matsushita Electric Ind Co Ltd 画像符号化装置
JP4785678B2 (ja) 2006-09-01 2011-10-05 キヤノン株式会社 画像符号化装置および画像符号化方法
US9165372B2 (en) 2006-10-16 2015-10-20 Bae Systems Plc Improvements relating to event detection
JP2008263529A (ja) * 2007-04-13 2008-10-30 Sony Corp 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体
JP4841504B2 (ja) * 2007-05-31 2011-12-21 三洋電機株式会社 画像符号化装置および方法
JP4863936B2 (ja) 2007-06-25 2012-01-25 株式会社ソニー・コンピュータエンタテインメント 符号化処理装置および符号化処理方法
JP4863937B2 (ja) * 2007-06-25 2012-01-25 株式会社ソニー・コンピュータエンタテインメント 符号化処理装置および符号化処理方法
JP2009048620A (ja) 2007-07-20 2009-03-05 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
JP2009171023A (ja) * 2008-01-11 2009-07-30 Nec Corp 画質評価装置、画質評価方法、画質評価用プログラム、及び映像受信端末
JP2009200713A (ja) 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
JP2009218742A (ja) 2008-03-07 2009-09-24 Canon Inc 画像符号化装置
JP2009246935A (ja) 2008-03-14 2009-10-22 Sanyo Electric Co Ltd 画像処理装置およびそれを搭載した撮像装置
JP5167944B2 (ja) * 2008-05-15 2013-03-21 株式会社リコー 情報処理装置、情報処理方法、プログラム及び記録媒体
JP5285632B2 (ja) 2009-01-26 2013-09-11 パナソニック株式会社 動画像処理装置、動画像処理方法および撮像装置
JP5004986B2 (ja) 2009-03-19 2012-08-22 キヤノン株式会社 スキャン変換装置及び画像符号化装置、並びにそれらの制御方法
WO2010129907A2 (en) 2009-05-08 2010-11-11 Scientific Systems Company Inc. Method and system for visual collision detection and estimation
JP5421727B2 (ja) * 2009-10-20 2014-02-19 キヤノン株式会社 画像処理装置およびその制御方法
JP5321439B2 (ja) 2009-12-15 2013-10-23 株式会社Jvcケンウッド 画像符号化装置、画像復号化装置、画像符号化方法、及び、画像復号化方法
MX2012010863A (es) * 2010-04-01 2012-10-15 Sony Corp Dispositivo y metodo de procesamiento de imagenes.

Also Published As

Publication number Publication date
US9183446B2 (en) 2015-11-10
JP2012257125A (ja) 2012-12-27
US20120314956A1 (en) 2012-12-13

Similar Documents

Publication Publication Date Title
JP6016332B2 (ja) 画像処理装置、画像処理方法
US9179071B2 (en) Electronic device and image selection method thereof
EP2224357A1 (en) Video segmentation
CN110637460A (zh) 利用深层神经网络的视觉质量保持量化参数预测
JP6664819B2 (ja) デジタル画像のブロックのマスクベースの処理のためのシステムおよび方法
JP7389028B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
KR20210018254A (ko) 삼차원 데이터 부호화 방법, 삼차원 데이터 복호 방법, 삼차원 데이터 부호화 장치, 및 삼차원 데이터 복호 장치
JP5801614B2 (ja) 画像処理装置、画像処理方法
US11838519B2 (en) Image encoding/decoding method and apparatus for signaling image feature information, and method for transmitting bitstream
US20140369617A1 (en) Image encoding apparatus, image encoding method, and program
JP5950605B2 (ja) 画像処理システム、及び、画像処理方法
CN106664404A (zh) 视频编码中的块分割方式处理方法和相关装置
JP2009212605A (ja) 情報処理方法、情報処理装置及びプログラム
WO2022266033A1 (en) Video conferencing based on adaptive face re-enactment and face restoration
CN108965873B (zh) 一种脉冲阵列编码的自适应划分方法
US11710226B2 (en) Image evaluation device, image evaluation method, and image evaluation program
CN114157870A (zh) 编码方法、介质及电子设备
JP5729825B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
Moriyama et al. Moving object detection in HEVC video by frame sub-sampling
WO2023005740A1 (zh) 图像编码、解码、重建、分析方法、系统及电子设备
CN113313635A (zh) 图像处理方法、模型训练方法、装置及设备
CA3057924A1 (en) System and method to optimize the size of a video recording or video transmission by identifying and recording a region of interest in a higher definition than the rest of the image that is saved or transmitted in a lower definition format
KR101343554B1 (ko) 영상 검색방법 및 장치
US10630991B2 (en) Image difference detection device, method for detecting image difference, and computer program
Ma et al. A fast background model based surveillance video coding in HEVC

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150827

R151 Written notification of patent or utility model registration

Ref document number: 5801614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151