JP5303399B2 - 動画像ビット深度削減装置及びプログラム - Google Patents

動画像ビット深度削減装置及びプログラム Download PDF

Info

Publication number
JP5303399B2
JP5303399B2 JP2009189220A JP2009189220A JP5303399B2 JP 5303399 B2 JP5303399 B2 JP 5303399B2 JP 2009189220 A JP2009189220 A JP 2009189220A JP 2009189220 A JP2009189220 A JP 2009189220A JP 5303399 B2 JP5303399 B2 JP 5303399B2
Authority
JP
Japan
Prior art keywords
bit depth
area
image frame
gaze
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009189220A
Other languages
English (en)
Other versions
JP2011041190A (ja
Inventor
康孝 松尾
善明 鹿喰
和久 井口
俊枝 三須
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2009189220A priority Critical patent/JP5303399B2/ja
Publication of JP2011041190A publication Critical patent/JP2011041190A/ja
Application granted granted Critical
Publication of JP5303399B2 publication Critical patent/JP5303399B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像の注視領域及び注視外領域を判別して動画像のコンポーネント信号のビット深度を削減する動画像ビット深度削減装置及びプログラムに関する。
近年、デジタル撮像カメラや表示装置の高ダイナミックレンジ化のため、10ビット深度や12ビット深度のコンポーネント信号を利用する機会が多くなっている。特に業務用カメラは、通常10ビット深度や12ビット深度の動画像を出力することができる。更に、デジタルシネマでは、12ビット深度の動画像まで扱えるように規格(コンテナ)が定められている(例えば、非特許文献1参照)。
10ビット深度や12ビット深度などの高ビット深度の動画像は情報量の増大を招くことになる。そこで、輝度信号Yと色差信号U,V(U信号=青色信号B−輝度信号Y,V信号=赤色信号R−輝度信号Y)に関して、実際のカラー映像信号には色として存在し得ない無駄な量子化ビットの組み合せを除去する技術が知られている(例えば、特許文献1参照)。
一方、人間の視覚特性において、空間周波数の弁別能力は、1.0の標準視力において1画素1分(1分という単位は、視野角1度の1/60という意味)である。1画素1分となるような視野角(Field of View)となる視聴距離を標準視聴距離と云う。スーパーハイビジョンは標準視聴距離0.75H(Hは画面高)、水平視野角が100度である。
いわゆる8Kと呼ばれるスーパーハイビジョン(SHV)のようなハイビジョンの16倍の解像度を有する超高精細動画像を提供する、従来のハイビジョンよりも大画面を目的とした動画像システムがある(例えば、特許文献2参照)。スーパーハイビジョンの動画像システムでは、標準視距離における水平視野角が広視野となるため、まるで画像に包み込まれるような臨場感ある動画像を楽しむことができる。しかしながら、フレームレートが従来の標準画質やハイビジョン用の画面と異なるため、同様の画角で動画像を撮像した場合、フレーム間の動き速度に差が生じることになる。
例えば、図14(a)に示すように、ハイビジョン画面は1920画素×1080ラインであり、画面高さ(H)に対して3Hの距離に視点があるとすると、水平視野角が30度であるのに対し、図14(b)に示すように、スーパーハイビジョン画面は、7680画素×4320ラインであり、画面高さ(H)に対して0.75Hの距離に視点があるとすると、水平視野角が100度である。このような広視野動画像について、スーパーハイビジョン画面用の超高精細動画像とハイビジョン画面用の動画像とを比較すると、超高精細動画像は、水平・垂直解像度ともに4倍となるため、両者が同じフレームレートの場合はフレーム間の動き速度も4倍となる。
また、人間の視覚特性における注視や色視野の弁別能力は、動視野によって変化することも知られている(例えば、非特許文献2,3参照)。
特開平8−289318号公報 特開2008−131321号公報
H.264/MPEG-4AVC, ISO/IEC 14496-10, "Information technology-Coding of audio-visual objects-Part 10: Advanced Video Coding", second edition, 2004年10月 Ferree, C.E. & Rand, G., "Effect of size of stimulus on size and shape of color fields", Amer. J. Ophthal., 10, 1927, pp. 399-411 Moreland, J.D. & Cruz, A., "Colour perception with the peripheral retina", Optica Acta, Vol. 6, 1959, pp. 117-151
従来の動画像は、多くの場合8ビットの色信号を扱ってきた。H.264/MPEG−4AVCなどの動画像符号化やモニタ表示でも、主に8ビットの赤・緑・青信号、及び輝度信号・色差信号を用いる。色差信号は、水平及び垂直方向、及び時間軸方向に間引かれることがある(4:2:2や4:2:0と呼ばれる画像フォーマット)。色差信号の間引きは、色情報が輝度情報よりも空間周波数に対する感度が低いことを利用している。
更に、近年では、デジタル撮像カメラや表示装置の高ダイナミックレンジ化により、10ビット深度や12ビット深度のコンポーネント信号を利用する機会が多くなってきている。ほとんどの業務用カメラは、10ビット深度や12ビット深度の動画像を出力可能である。高ビット深度の動画像は、例えば圧縮符号化においても情報量の増大を招く。
一方で、現在、動画像では8ビット深度の画像を扱う符号化装置や表示装置も多い。このような装置では、仮に10ビット深度のカメラで撮像した信号に対しては、10ビットから8ビットへの変換を行うことになる。この変換は画面全体に対して一様に線形変換により行われるため、中間調が失われる。後で8ビットから10ビットの逆変換を施す場合も画面全体に対して一様に線形変換を行うため、中間調は元に戻らない。
また、10ビット深度以上の高ダイナミックレンジ・高ビット深度カメラで動画像を撮像した場合は、暗い領域や非常に明るい領域において微小な階調表現を行うことが可能となり、画像内の黒ツブレや白トビを防止することができるが、通常の絵柄では、全ての領域において高ビット深度が必要ではないことが多い。
尚、視覚特性として、輝度や色の見え方は、中心視野と周辺視野で異なることも知られている(例えば、大山 正・今井省吾・和氣典二・菊地 正編、“新編 感覚・知覚心理学ハンドブック Part 2”、誠信書房、2007年9月15日発行、pp.918−921参照)。また、一般に中心視野では、刺激の低下、480nmから550nmにかけての色の見えの混同(二色性色覚異常)があることも知られている。
特に、最も視力が高い範囲は、中心からわずか2〜3度の領域である。従って、通常画像を見る際は、眼球を細かくサッカード(saccade:眼球跳躍運動)させて画面全体を見ている。画面中央付近で大きく動く動オブジェクトや、周りより高輝度(低輝度)な動オブジェクトは、注視される傾向がある。特に、スーパーハイビジョンなどの広視野動画像では、画面全体を中心視野でくまなく注視することは困難であることも視覚特性の一つと云える。
本発明の目的は、このような視覚特性を考慮して、所定のビット深度の動画像フレーム列のコンポーネント信号を順次入力して、該コンポーネント信号における輝度信号及び/又は色差信号の各ビット深度を削減する動画像ビット深度削減装置及びプログラムを提供することにある。
本発明による動画像ビット深度削減装置は、所定のビット深度の動画像フレーム列のコンポーネント信号を順次入力して、該コンポーネント信号における輝度信号及び/又は色差信号の各ビット深度を削減する動画像ビット深度削減装置であって、予め規定した視覚特性に基づいて注視される領域を、或る画像フレームにおける注視領域として抽出する注視領域抽出手段と、前記画像フレームにて抽出した注視領域から注視外領域を決定する注視外領域決定手段と、前記画像フレームにおける注視外領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減し、前記画像フレームの画像のダイナミックレンジが所定値未満である場合には、更に前記画像フレームの注視領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減する信号ビット削減手段と、を備え、前記注視領域抽出手段は、前記画像フレームにおける動きベクトルを所定数のクラスタ数となるようにクラスタリングを施して、クラスタ中心の大きさが最も大きいクラスタであって、且つ各クラスタに属する動きベクトル数が最も大きいクラスタに属する動きベクトルの画素ブロックからなる領域を注視領域として抽出する第1注視領域抽出手段、前記画像フレームにおける時間軸方向の1次元1階ウェーブレット分解によって、動領域となる画素からなる領域を注視領域として抽出する第2注視領域抽出手段、及び前記画像フレームにおける画面内の輝度分布又は前記所定のビット深度の輝度値についての所定数のクラスタ数となるようにクラスタリングを施して、最も輝度値が小さいクラスタに属する画素からなる領域以外の領域を注視領域として抽出する第3注視領域抽出手段を備えることを特徴とする。
また、本発明による動画像ビット深度削減装置において、前記注視外領域決定手段は、前記第1注視領域抽出手段、前記第2注視領域抽出手段、及び前記第3注視領域抽出手段のうちの2つ以上から得られた注視領域の重複領域を処理対象の注視領域として決定するとともに、決定した注視領域以外の領域を前記注視外領域として決定することを特徴とする。
また、本発明による動画像ビット深度削減装置において、前記信号ビット削減手段は、前記画像フレームにおける注視外領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減するとともに、前記画像フレームにおけるビット深度の削減した画素位置を示す1ビットプレーンを生成することを特徴とする。
また、本発明による動画像ビット深度削減装置において、前記信号ビット削減手段は、輝度信号のビット深度の削減量を決定する際に、抽出された注視領域内の平均輝度と、決定された注視外領域内の平均輝度とをそれぞれ算出し、算出した注視領域の平均輝度が注視外領域の平均輝度よりも低い場合は、注視領域の平均輝度が注視外領域の平均輝度よりも高い場合よりもビット深度の削減量を大きくするように、削減するビット数を決定することを特徴とする。
また、本発明による動画像ビット深度削減装置において、前記信号ビット削減手段は、色差信号のビット深度の削減量を決定する際に、U信号のビット深度の削減量をV信号のビット深度の削減量よりも大きくするように、削減するビット数を決定することを特徴とする。
更に、本発明は、所定のビット深度の動画像フレーム列のコンポーネント信号を順次入力して、該コンポーネント信号における輝度信号及び/又は色差信号の各ビット深度を削減する動画像ビット深度削減装置として構成するコンピュータに、予め規定した視覚特性に基づいて注視される領域を、或る画像フレームにおける注視領域として抽出するステップと、前記画像フレームにて抽出した注視領域から注視外領域を決定するステップと、前記画像フレームにおける注視外領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減し、前記画像フレームの画像のダイナミックレンジが所定値未満である場合には、更に前記画像フレームの注視領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減するステップと、を実行させるためのプログラムであって、前記抽出するステップは、前記画像フレームにおける動きベクトルを所定数のクラスタ数となるようにクラスタリングを施して、クラスタ中心の大きさが最も大きいクラスタであって、且つ各クラスタに属する動きベクトル数が最も大きいクラスタに属する動きベクトルの画素ブロックからなる領域を注視領域として抽出するステップ、前記画像フレームにおける時間軸方向の1次元1階ウェーブレット分解によって、動領域となる画素からなる領域を注視領域として抽出するステップ、及び前記画像フレームにおける画面内の輝度分布又は前記所定のビット深度の輝度値についての所定数のクラスタ数となるようにクラスタリングを施して、最も輝度値が小さいクラスタに属する画素からなる領域以外の領域を注視領域として抽出するステップを有するプログラムとしても特徴付けられる。
本発明によれば、動画像にて注視される領域の階調感を損なうことなく、動画像フレーム列のコンポーネント信号のビット深度(情報量)を削減することが可能となる。
本発明による一実施例の動画像ビット深度削減装置の概略図である。 本発明による一実施例の動画像ビット深度削減装置で処理する動画像フレーム列を例示する図である。 本発明による一実施例の動画像ビット深度削減装置の動作フロー図である。 (a)は、本発明による一実施例の動画像ビット深度削減装置に入力される画像フレームについて画面内の輝度分布を生成し分類する例を示す図であり、(b)は、本発明による一実施例の動画像ビット深度削減装置に入力される画像フレームの各画素位置について、予め規定した視覚特性を利用して輝度値により分類する例を示す図である。 (a)は、本発明による一実施例の動画像ビット深度削減装置における輝度によるクラスタリングを行う前の原画像例を示す図であり、(b)は、本発明による一実施例の動画像ビット深度削減装置における輝度によるクラスタリングを行った後の画像例を示す図である。 (a)は、動画像における視覚と眼球運動を説明するための動画像例を示す図であり、(b)は、動画像における視覚と眼球運動を説明する図である。 視覚者の中心視野における視力と視覚者の周辺視力について例示する図である。 本発明による一実施例の動画像ビット深度削減装置に係る動きベクトル検出の説明図である。 本発明による一実施例の動画像ビット深度削減装置に係る動きベクトル検出の説明図である。 (a)は、3つのクラスタリングが可能な動画像例を示す図であり、(b)は、動きベクトルの3つのクラスタリングを例示する図である。 本発明による一実施例の動画像ビット深度削減装置の動領域検出処理部における時間軸方向に1次元1階離散ウェーブレット分解の説明図である。 本発明による一実施例の動画像ビット深度削減装置の動領域検出処理部における時間軸方向の動領域を抽出する説明図である。 本発明による一実施例の動画像ビット深度削減装置における1ビットプレーンを例示する図である。 (a)は、ハイビジョン画面の一例を示す図であり、(b)は、スーパーハイビジョン画面の一例を示す図である。
以下、本発明による一実施例の動画像ビット深度削減装置について説明する。
[装置構成]
図1は、本発明による一実施例の動画像ビット深度削減装置の概略図である。本実施例の動画像ビット深度削減装置1は、所定のビット深度(例えば、10ビットの量子化深度)の動画像フレーム列F(x,y,t−1),F(x,y,t),F(x,y,t+1)のコンポーネント信号を順次入力して、該コンポーネント信号における輝度信号及び/又は色差信号の各ビット深度を削減するための装置である。
本実施例の動画像ビット深度削減装置1は、包括的には、予め規定した視覚特性(視覚における注視と色視野であり、例えば輝度に対する視覚感度や色視野、又は動領域に対する視覚感度)に基づいて注視される領域を、或る画像フレームにおける注視領域として抽出する注視領域抽出部1aと、画像フレームにて抽出した注視領域から注視外領域を決定する注視外領域決定部1bと、画像フレームにおける注視外領域における輝度信号及び/又は色差信号の各ビット深度を、当該所定のビット深度よりも低くなるように規定ビット数分(例えば、1〜5ビット)だけ削減する信号ビット削減部9とからなる。ここに、(x,y)は、各画像フレームの画素位置を表し、tは連続する画像フレームの時間軸を表し、動画像ビット深度削減装置1には画像フレームのYUV信号が入力されるものとする(図2参照)。
より具体的には、注視領域抽出部1aは、動きベクトル検出処理部3と、動きベクトルクラスタリング処理部4と、輝度注視領域検出処理部5と、動領域検出処理部6とを有する。
注視外領域決定部1bは、選択スイッチ7と、注視外領域決定部8とを有する。
尚、動画像ビット深度削減装置1に入力される動画像フレーム列F(x,y,t−1),F(x,y,t),F(x,y,t+1)の輝度信号がモニタガンマ補正用のガンマ補正処理が施されている場合を想定する。従って、動画像ビット深度削減装置1の入力側には、モニタガンマ補正された輝度信号を線形の輝度信号に戻すための輝度逆ガンマ補正処理部2−1,2−2,2−3が設けられ、動画像ビット深度削減装置1の出力側には、当該モニタガンマ補正用のガンマ値を再度施すための輝度ガンマ補正処理部10が設けられる。
動きベクトル検出処理部3は、入力される動画像フレーム列F(x,y,t),F(x,y,t+1)を用いて、画像フレームF(x,y,t)における動きベクトルを検出し、動きベクトルクラスタリング処理部4に送出する。
動きベクトルクラスタリング処理部4は、動きベクトル検出処理部3によって検出した画像フレームF(x,y,t)における動きベクトルに対して所定数のクラスタ数となるように、例えばK−means法などのクラスタリングを施して、クラスタ中心の大きさが最も大きいクラスタであって、且つ各クラスタに属する動きベクトル数が最も大きいクラスタに属する動きベクトルの画素ブロックからなる領域を注視領域として抽出する。この抽出結果は、選択スイッチ7を介して注視外領域決定部8に送出可能である。
輝度注視領域検出処理部5は、画像フレームF(x,y,t)における画面内の輝度分布又は入力される輝度信号のビット深度の輝度値に対して、所定数のクラスタ数となるようにクラスタリングを施して、最も輝度値が小さいクラスタに属する画素からなる領域以外の領域を注視領域として抽出する。この抽出結果は、選択スイッチ7を介して注視外領域決定部8に送出可能である。
動領域検出処理部6は、画像フレームF(x,y,t)における時間軸方向の1次元1階ウェーブレット分解によって、動領域となる画素からなる領域を注視領域として抽出する。この抽出結果は、選択スイッチ7を介して注視外領域決定部8に送出可能である。
選択スイッチ7は、動きベクトルクラスタリング処理部4、輝度注視領域検出処理部5、及び動領域検出処理部6のうちの少なくとも1つ以上を予め選択するようにOn/Offの設定が可能である。
注視外領域決定部8は、動きベクトルクラスタリング処理部4、輝度注視領域検出処理部5、及び動領域検出処理部6のうちの少なくとも1つ以上から得られる各抽出結果の注視領域を処理対象の注視領域として決定するとともに、決定した注視領域以外の領域を注視外領域として決定する。尚、動きベクトルクラスタリング処理部4、輝度注視領域検出処理部5、及び動領域検出処理部6のうちの少なくとも2つ以上から得られる各抽出結果の注視領域の重複領域を処理対象の注視領域として決定するとともに、決定した注視領域以外の領域を注視外領域として決定することもできる。
信号ビット削減部9は、画像フレームF(x,y,t)における注視外領域における輝度信号のビット深度を、入力される輝度信号のビット深度よりも低くなるように規定ビット数分だけ削減する輝度信号ビット削減処理部91と、画像フレームF(x,y,t)における注視外領域における色差信号の各ビット深度を、入力される色差信号のビット深度よりも低くなるように規定ビット数分だけ削減する色差信号ビット削減処理部92と、画像フレームF(x,y,t)におけるビット深度の削減した画素位置を示す1ビットプレーン(後述する図13)を生成する1ビットプレーン生成部93とを有する。
尚、信号ビット削減部9は、当該所定のビット深度が、ノイズ成分に対するS/N比を基準にして規定される所定値未満のダイナミックレンジを有する場合に、画像フレームF(x,y,t)における注視領域における輝度信号及び/又は色差信号の各ビット深度を、所定のビット深度よりも低くなるように、それぞれ規定されたビット数分だけ削減するように構成することもできる。
従って、本実施例の動画像ビット深度削減装置1は、ビット削減した動画像フレーム列と1ビットプレーンの付加情報とを生成して外部に送出することができる。このビット削減した動画像フレーム列を例えば圧縮符号化、記録、又は表示した場合に、この1ビットプレーンの付加情報を用いてビット削減した画像フレームF(x,y,t)における画素位置(x,y)を特定して復元することができる。
以下、図3〜図13を参照して、本実施例の動画像ビット深度削減装置1の動作について詳細に説明する。図3は、本発明による一実施例の動画像ビット深度削減装置の動作フロー図である。
[装置動作]
まず、所定のビット深度(例えば、10ビット深度)の動画像フレーム列F(x,y,t−1),F(x,y,t),F(x,y,t+1)がフレームメモリ(図示せず)に格納されており、動画像ビット深度削減装置1によって順次読み出されるものとする(ステップS1)。また、動画像ビット深度削減装置1に入力される動画像フレーム列F(x,y,t−1),F(x,y,t),F(x,y,t+1)の輝度信号がモニタガンマ補正用のガンマ補正処理が施されている場合を想定する。例えば、輝度逆ガンマ補正処理2−1,2−2,2−3は、テレビ系におけるカメラ撮像にかかる表示装置(CRT)の特性によるガンマ補正(例えば、ガンマ値=2.2)を前処理としての逆ガンマ補正(例えば、ガンマ値=0.45)により取り除く処理を行う。
以下の説明では、本発明の理解を高めるために、動画像ビット深度削減装置1は、予め規定した視覚特性に基づいて注視される注視領域が画像前景領域である“動領域”及び/又は “他の領域と輝度値が異なる領域”からなると仮定してこれらの検出処理を行うものとする。
ステップS2にて、輝度注視領域検出処理部5は、画像フレームF(x,y,t)における画面内の輝度分布又は入力される輝度信号のビット深度の輝度値に対して、所定数のクラスタ数となるようにクラスタリングを施して、最も輝度値が小さいクラスタに属する画素からなる領域以外の領域を注視領域として抽出する。
まず、輝度注視領域検出処理部5によって“輝度値が異なる領域”を検出する方法として2つの例を説明する。
第1の例は、図4(a)に示すように、入力される画像フレームF(x,y,t)について画面内の輝度分布(ヒストグラム)を生成し、n段階に分ける。例えば、3段階に分けるとすれば、1段階目(D1)は2−1以下、2段階目(D2)は2〜2−1、3段階目(D3)は2〜210とすることができる。第1の例では、1段階目(D1)以外に属する画素位置(x,y)を“輝度値が異なる領域”(即ち、輝度による注視領域)として抽出する。尚、D1〜D3の値は、ウェーバー・フェヒナーの法則(Waber-Fechner law)による視覚特性(暗い方が小さな輝度変化に対して敏感)を利用して適宜選定することができる。
第2の例は、図4(b)に示すように、ウェーバー・フェヒナーの法則(Waber-Fechner law)による視覚特性(暗い方が小さな輝度変化に対して敏感)を利用して、入力される画像フレームF(x,y,t)の画素位置(x,y)について、輝度値によるn段階のクラスタに分ける。例えば、3段階とすれば、1段階目(D1)は2−1〜2−1、2段階目(D2)は2〜2−1、3段階目(D3)は2〜210とすることができる。第2の例でも、1段階目(D1)以外の画素位置(x,y)を“輝度値が異なる領域”(即ち、輝度による注視領域)として抽出する。尚、D1〜D3の値及び輝度レベルの分類のための曲線は、ウェーバー・フェヒナーの法則(Waber-Fechner law)による視覚特性(暗い方が小さな輝度変化に対して敏感)を利用して適宜選定することができる。
また、第2の例において、暗い輝度値の1段階目(D1)を細かい幅となるように分割したのは、ウェーバー・フェヒナーの法則(Waber-Fechner law)による視覚特性(暗いほうが小さな輝度変化に対して敏感)を利用して輝度信号ビット削減処理部91によって輝度信号のビット深度の間引きを行うためである。
このようにして、輝度注視領域検出処理部5は、画像フレームF(x,y,t)の画素位置(x,y)の輝度値について、3段階に分類し、最も暗い段階の1段階目(D1)を除き、その他の領域(D2,D3)を輝度による注視領域Observ_Lumとして抽出する。
仮に、図5(a)に示すように、3段階目(D3)の輝度値のクラスタに属する太陽11bと、画像フレーム中心における2段階目(D2)の輝度値のクラスタに属する人物11c(ここでは、後述する“動領域”を意味する)と、最も暗い輝度値の1段階目(D1)を表す背景11dとからなる画像フレームF(x,y,t)を原画像としたとき、輝度注視領域検出処理部5は、3段階目(D3)の輝度値のクラスタに属する太陽11b、及び画像フレーム中心における2段階目(D2)の輝度値のクラスタに属する人物11cを含む領域を輝度による注視領域Observ_Lumとして抽出することができる。
一方、後述する“動領域”の注視領域Observ(ObserveBM及び/又はObservPM)を抽出すれば、注視領域Observ(即ち、2段階目(D2)の人物11c)を得ることができる(図5(b)参照)。
この“動領域”の注視領域Observ(ObserveBM及び/又はObservPM)は、以下の手順によって得ることができる。
ステップS3にて、動きベクトルクラスタリング処理部4は、動きベクトル検出処理部3によって検出した画像フレームF(x,y,t)における動きベクトルに対して所定数のクラスタ数となるように、例えばK−means法などのクラスタリングを施して、クラスタ中心の大きさが最も大きいクラスタであって、且つ各クラスタに属する動きベクトル数が最も大きいクラスタに属する動きベクトルの画素ブロックからなる領域を注視領域として抽出する。動きベクトルクラスタリング処理部4による注視領域の抽出は、ブロックベースの圧縮符号化への利用に適する。
ここで、視覚特性としての動領域を対象にする動画像における視覚と眼球運動について説明する。
(動画像における視覚と眼球運動)
人間が画像を見るときに高視力である領域は、中心視野であるわずか数度の範囲のみである。周辺視野の部分は、動きの視覚力は高いが、視力は低い。眼球は画面を見る際、細かくサッカード(saccade)して画面全体をくまなく探索する。例えば、表示装置11内の画面内で飛行機11aが移動する様子を視覚者12が追随する場合など(図6(a)参照)、視覚者12は、動物体の飛行機11aが存在する場合に、その動き速度に応じてスムーズパシュート(smooth pursuit)やサッカード(saccade)運動によりこの動物体を追随視する(図6(b)参照)。また、図7に、視覚者12の中心視野における視力と視覚者12の周辺視力について例示する。このように、人間が画像を見るときに高視力である領域は、中心視野であるわずか数度の範囲のみであることが知られている(例えば、大山 正・今井省吾・和氣典二・菊地 正編、“新編 感覚・知覚心理学ハンドブック Part 2”、誠信書房、2007年9月15日発行、pp.918−921参照)。
そこで、動きベクトルクラスタリング処理部4は、人間が大きな動きがある領域(“動領域”)を注視することに着目して、この動領域を注視領域として検出する。
動領域を注視領域として検出するにあたって、動きベクトルクラスタリング処理部4は、画素ブロック精度の動領域検出を行う。
図8を参照するに、動きベクトル検出処理部3は、画像フレームF(x,y,t),F(x,y,t+1)についてフレーム間動きベクトルを求める。動きベクトル検出法は、ブロックマッチング法を用いる。はじめに、画像フレームF(x,y,t)をBx×Byサイズのブロックに分割する。これにより、画像フレームF(x,y,t)上に水平i_max個、垂直j_max個のブロック(i,j)が得られる。ここで、0≦i<i_max, 0≦j<j_maxである。
次に、画像フレームF(x,y,t)上の全てのブロック(i,j)において、画像フレームF(x,y,t+1)上の同じ位置を中心とした水平±Sx、垂直±Syの範囲をSAD(Sum of Absolute Difference:画素差分絶対値の総和)法で探索し、SAD値が最小となる位置を求める。上記処理で求めたSAD値が最小となる位置が、ブロック(i,j)の動きベクトル値MV(i,j)となる(図9参照)。
動きベクトルクラスタリング処理部4は、動きベクトル検出処理部3で検出したMV(i,j)についてクラスタリングを行う。ここでは、K−means法によるクラスタリングを用いる。Kは、2〜3程度に設定する。Kの個数の理由は、画面内の動きはカメラのパンニングなどによるグローバルな動き、人間などの動オブジェクトが動く局所的な動きに大別され、複数の人間が動くような場合でも背景群の動きと1〜2個程度の前景群動オブジェクトの動きに大別できれば十分であることによる。主に、本実施例では、注視領域を抽出して注視外領域を決定し、注視外領域のビット削減を行うが、注視外領域は背景群動オブジェクトとなる場合が多い。背景群オブジェクトは、カメラのパンニング等でほぼ一様の動きを持つため、任意の1つのクラスタの要素となる可能性が高い。以上からもKは、2〜3程度にすれば、十分に注視外領域を決定できることが分かる。
K−means法によるクラスタリングでは、はじめに各動きベクトルMV(i,j)を、原点(0,0)を中心としたベクトルとみなし、K−means法を用いてK=3でクラスタ中心Ck(k=1・・・K)を計算する。つまり、初期値として予め定めたK個のクラスタ中心を設定し、動きベクトルの360度方向に探索(例えば45度毎の探索)して、大きい値を持つクラスタ中心の位置を初期候補として設定する。次に、クラスタ毎に、クラスタ中心を計算し直す。全てのクラスタ中心の変化値が、或る閾値Th以下であれば終了とし、それ以外は、再度、大きい値を持つクラスタ中心の位置を割り当てて収束するまで繰り返す。
このようにして、動きベクトルのクラスタリングは、原点を中心として各動きベクトルMV(i,j)の大きさ及び向きでクラスタリングを行う。例えば、図10(a)に示すように、フレーム画像F(x,y,t)について、右方向に移動する「人」と、「人」よりも少し遅い速度で同じく右方向に移動する「背景」と、「人」及び「背景」以外の「その他」の3つのオブジェクトがあるとして3つのクラスタリングを計算する際には、各動きベクトルMV(i,j)の大きさ及び向きでクラスタリングを行うことにより、図10(b)に示すように、「人」を表すクラスタをMVset1、「背景」を表すクラスタをMVset2、「その他」を表すクラスタをMVset3として分類することができる。
以上の処理によりK個のクラスタの決定処理を収束させることができるので、全ての動きベクトルMV(i,j)がK個のクラスタへと割り付けることができ、各動きベクトルMV(i,j)の最も大きなクラスタ中心Ckmaxを求めることができる。求めたクラスタ中心Ckmaxから、クラスタ中心Ckmaxに属する動きベクトル値MV(i,j)のブロック(i,j)が、画像フレームF(x,y,t)における“動きによる注視領域”の画素ブロックObserv_Block(x,y,t)となる。そして、動きベクトルクラスタリング処理部4は、この画素ブロックObserv_Block(x,y,t)からなる領域を、画素ブロック精度の注視領域ObservBMとする。
尚、画素ブロック精度の注視領域ObservBMの否定演算(NOT)を行うことで、画素ブロック精度の注視外領域Not_ ObservBMを得ることができる。
更に、動領域を注視領域として検出するにあたって、動領域検出処理部6は、画素精度の動領域検出を行う。
ステップS4にて、動領域検出処理部6は、画像フレームF(x,y,t)における時間軸方向の1次元1階ウェーブレット分解によって、動領域となる画素からなる領域を注視領域として抽出する。動領域検出処理部6による注視領域の抽出は、画素精度の検出処理に適する。
以下では、線形位相性を持つHaarによる1次元1階ウェーブレット分解を利用する例を図11及び図12を参照して説明する。
図11は、本発明による一実施例の動画像ビット深度削減装置の動領域検出処理部における時間軸方向に1次元1階離散ウェーブレット分解の説明図である。図12は、本発明による一実施例の動画像ビット深度削減装置の動領域検出処理部における時間軸方向の動領域を抽出する説明図である。
まず、動領域検出処理部6は、画像フレームF(x,y,t)と次の時間位置の画像フレームF(x,y,t+1)を用い、画像フレームF(x,y,t)上の全ての画素位置(x,y)において、時間軸方向に1次元1階離散ウェーブレット分解を求める。これにより、時間軸方向の高周波成分Ht(x,y,t)と時間軸方向の低周波成分Lt(x,y,t)が得られる(図11(a)及び図11(b)参照)。
次に、動領域検出処理部6は、時間軸方向の高周波成分Ht(x,y,t)上の画素位置(x,y)において閾値thで画像フレームF(x,y,t)の2値化を行い、動領域Bi(Ht(x,y,t))を得る(図11(c)参照)。例えば、動領域Bi(Ht(x,y,t))が持つ値は、1(動領域)と0(静領域)である。更に、動領域の判定におけるノイズ成分の影響を抑制するために、縮退処理として動領域Bi(Ht(x,y,t))の画素位置(x,y)について周辺3×3画素の値の加算処理を行い、その値が閾値θ以下であれば動領域Bi(Ht(x,y,t))=0とするのが好適である。例えば、図12に示すように、動領域Bi(Ht(x,y,t))の画素位置(x,y)について周辺3×3画素の構成がHt(1,1)〜Ht(3,3)で与えられる場合に、Ht(2,2)以外の画素値の総和が閾値θ(例えば、θ=2)以下の時には、Ht(2,2)=0とする。
上記処理により、画像フレームF(x,y,t)から時間軸方向にウェーブレット長(haarによる時間軸方向のウェーブレット変換では、2フレーム長)にわたる動領域Bi(Ht(x,y,t))を得ることができる。
尚、上記の動領域Bi(Ht(x,y,t))は2フレームにわたる動領域を含む。そこで、画像フレームF(x,y,t−1)と画像フレームF(x,y,t)の全ての画素位置(x,y)について時間軸方向に行う(図11(a)及び図11(b)参照)。これにより、別の動領域Bi(Ht(x,y,t−1))が得られる(図11(c)参照)。最後に、動領域Bi(Ht(x,y,t−1))と動領域Bi(Ht(x,y,t))の論理積(AND)を計算することにより、画像フレームF(x,y,t)の1フレームのみにおける動領域Mov_Area(x,y,t)を算出する(図11(d)参照)。
これにより、動画像フレーム列の全ての時間位置フレームで、フレーム間動き領域画像列Mov_Area(x,y,t)を得ることができる。フレーム間動き領域画像列Mov_Area(x,y,t)は、画素精度の注視領域ObservPMとして抽出される。尚、画素精度の注視領域ObservPMの否定演算(NOT)を計算すると画素精度の注視外領域Not_ObservPMが得られる。
Haarウェーブレット以外にも、ウェーブレット長4のドビュッシー(Daubechies)ウェーブレット法を使用して1次元1階離散ウェーブレット変換を施すように構成することもできる。
このようにして、動きベクトルクラスタリング処理部4及び/又は動領域検出処理部6により、“動領域”の注視領域Observ(ObserveBM及び/又はObservPM)を抽出することができる。
ステップS5にて、注視外領域決定部8は、動きベクトルクラスタリング処理部4、輝度注視領域検出処理部5、及び動領域検出処理部6のうちの少なくとも1つ以上から得られる各抽出結果の注視領域(2つ以上の注視領域を用いるときは、これらの注視領域の重複領域)を処理対象の注視領域として決定するとともに、決定した注視領域以外の領域を注視外領域として決定する。本実施例で説明する注視外領域決定部8は、動きベクトルクラスタリング処理部4、動領域検出処理部6及び注視外領域決定部8のうちのいずれか1つ以上を利用することで注視領域の検出が可能であるが、注視領域の検出確度を向上させるのに抽出した3つの注視領域の全てを利用するのが好適である。
注視外領域決定部8は、画素ブロック精度の動きベクトルクラスタリング処理部4と、画素精度の動領域検出処理部6と、輝度による輝度注視領域検出処理部5の各処理結果の注視領域を、画像や本実施例の利用目的に応じて選択スイッチ7により注視領域及び注視外領域を決定する。例えば、H.264/MPEG−4AVCなどのブロックベース符号化に応用する場合は、ブロックベースで処理するために、画素ブロック精度の動領域検出部の処理結果を用いるのが好適である。
また、注視外領域決定部8は、画素ブロック精度の動きベクトルクラスタリング処理部4と画素精度の動領域検出処理部6の処理結果を組み合わせることで、より確度の高い注視領域及び注視外領域の抽出が可能となる。
例えば、注視外領域決定部8は、画素ブロック精度の動きベクトルクラスタリング処理部4で検出した注視領域の画素ブロックObserv_Block(x,y,t)の所定数以上(例えば、半分以上)が、画素精度の動領域検出処理部6で検出した動領域Mov_Area(x,y,t)に属する場合は、この注視領域の画素ブロックObserv_Block(x,y,t)の全ての画素ブロックを、最終的な動領域の注視領域の画素ブロックObserv(x,y,t)として決定し、この画素ブロックObserv(x,y,t)に属する全ての画素位置を、最終的な動領域の注視領域Observ (x,y,t)として決定し、この最終的な動領域の注視領域Observ (x,y,t)以外の領域を“注視外領域”として決定することもできる。
また、通常は低輝度画像などの特殊な画像は稀であり、注視外領域決定部8によって、輝度による輝度注視領域検出処理部5の処理結果を組み合わせて注視外領域を決定するのがビット削減効果に有効である。
上記3種類の注視領域の選択は、選択スイッチ7によるOn/Offで切り替え可能に構成することができる。このような選択スイッチ7は、注視外領域決定部8内に組み入れて、注視外領域決定部8が外部からの指示に従って選択するように構成することもできる。
ステップS6にて、輝度信号ビット削減処理部91は、画像フレームF(x,y,t)における注視外領域における輝度信号の各ビット深度を、入力される輝度信号のビット深度よりも低くなるように規定ビット数分だけ削減するとともに、色差信号ビット削減処理部92は、画像フレームF(x,y,t)における注視外領域における色差信号の各ビット深度を、入力される各色差信号のビット深度よりも低くなるように規定ビット数分だけ削減する。輝度信号ビット削減処理部91は、輝度信号のビット削減については、周辺視における輝度感度の低下を利用し、色信号のビット削減については、周辺視における色感度低下、並びに周辺視における480nm〜550nmにかけての色の見えの混同(二色性色覚異常)を利用するのが好適である。
輝度信号ビット削減処理部91の動作について、YUV色空間における10ビット深度輝度(Y)信号及び色差(U,V)信号が入力された場合について説明する。
輝度信号ビット削減処理部91は、注視外領域で輝度の弁別力が低下することを利用して輝度ビット削減を行う。第1の削減例として、輝度信号ビット削減処理部91は、注視外領域の10ビットの輝度信号を9〜7ビット程度まで圧縮するものとする。これは、人間の輝度感度は非直線性を持つが、ビット深度を半分以下まで落とすと極端に画質が低下するように知覚されるからである。またウェーバー・フェヒナーの法則(Waber-Fechner law)によると輝度の低いところでは微小な変化として敏感になるので暗い場所で無用にビットを間引いてよいものではない。
そこで、第2の削減例として、輝度信号ビット削減処理部91は、輝度信号のビット深度の削減量を決定する際に、決定された注視領域内の平均輝度と、決定された注視外領域内の平均輝度とをそれぞれ算出し、算出した注視領域の平均輝度が注視外領域の平均輝度よりも低い場合は、注視領域の平均輝度が注視外領域の平均輝度よりも高い場合よりもビット深度の削減量を大きくするように、削減するビット数を決定する。
例えば、輝度信号ビット削減処理部91は、動領域による注視領域Observ(又は輝度による注視領域Observ_Lumを考慮した注視領域)内の平均輝度と、動領域による注視外領域Not_Observ(又は輝度による注視外領域Not_Observ_Lumを考慮した注視外領域)内の平均輝度をそれぞれ計算し、注視領域の平均輝度が注視外領域の平均輝度よりも高い場合は、注視外領域のビット深度を10ビットから8ビットに低減し、注視領域の平均輝度が注視外領域の平均輝度よりも低い場合は、注視外領域のビット深度を10ビットから7ビットに低減する。
色差信号ビット削減処理部92は、一般に周辺視では480nmから550nmにかけての色の見えの混同(二色性色覚異常)が見られることを利用して色ビット削減を行うことができる。
例えば、色の見えの混同により、注視外領域の色差信号については、U信号(青色信号B−輝度信号Y)のビット深度をより多く間引くことが可能である。
従って、色差信号ビット削減処理部92は、色差信号のビット深度の削減量を決定する際に、U信号のビット深度の削減量をV信号のビット深度の削減量よりも大きくするように、削減するビット数を決定するのが好適である。
つまり、一例として、色差信号ビット削減処理部92は、V信号(赤色信号R−輝度信号Y)のビット深度を10ビットから6ビットに低減し、U信号(青色信号B−輝度信号Y)のビット深度を10ビットから5ビットに低減することが可能である。
上記の例では、注視外領域について輝度ビット及び色ビットを削減する例について説明したが、注視領域について輝度ビット及び色ビットを削減することも可能である。ただし、この場合、画像が持つダイナミックレンジが狭い場合(例えば、60dB未満)に有効である。換言すれば、ダイナミックレンジが60dB以上の場合、注視外領域についてのみ輝度ビット及び色ビットを削減する。仮に、全体が暗い画像でも、ダイナミックレンジが広いカメラで撮像した場合は、暗部の微小な階調が表現されており、これをビット深度削減すると視覚上大きな劣化となりうる。これは、ウェーバー・フェヒナーの法則(Waber-Fechner law)における暗い領域での微小変化の感度が高いためである。尚、60dB未満における注視領域について輝度ビット及び色ビットの削減効果は実際に確かめることができる。
ビット削減後の画像フレームF(x,y,t)における輝度ガンマ補正処理部10は、前処理で逆ガンマ補正を行っている場合に元に戻す。例えば、逆ガンマ補正でガンマ値0.45の逆ガンマ補正を行っていた場合、ガンマ値2.2のガンマ補正を行う。
ステップS7にて、1ビットプレーン生成部93は、画像フレームF(x,y,t)におけるビット深度の削減した画素位置を示す1ビットプレーンを生成する。例えば、図13に示すように、画像フレームF(x,y,t)に対応する1ビットプレーンBP(x,y,t)は、ビット深度を削減した画素位置(注視外領域)には0を、ビット深度を削減しなかった画素位置(注視領域)には1を割り当てる。
これにより、本実施例の動画像ビット深度削減装置1は、ビット削減した動画像フレーム列と1ビットプレーンの付加情報とを生成して外部に送出することができる。このビット削減した動画像フレーム列は、例えば圧縮符号化、記録、又は表示する際に1ビットプレーンの付加情報を用いて元の画像フレームF(x,y,t)における画素位置(x,y)を特定することができる。
H.264/MPEG−4AVCでは、画像をブロック分割し、直交変換処理(例えば、DCT(離散コサイン変換))や量子化処理を行う。本実施例の動画像ビット深度削減装置1は、画素ブロック精度の動領域検出部でブロック領域毎の注視領域Observと注視外領域Not_Observを決定することができる。そこで、ブロック領域毎の注視外領域Not_Observについて信号ビット削減部9の処理により輝度信号のビット深度の間引き、及び色差信号のビット深度の間引きを行うことができる。
例えば、1ビットプレーン生成部93は、画像フレームF(x,y,t)の各画素位置(x,y)において、1ビットプレーンBP(x,y,t)内では、注視領域Observとなる領域を1、注視外領域Not_Observとなる領域を0とする1ビットプレーンBP(x,y,t)を生成する。例えば、本実施例の動画像ビット深度削減装置1の出力を符号化する場合に、この1ビットプレーンBP(x,y,t)の情報は、ランレングス符号化等で符号化を行い、符号化情報に付加する付加情報とすることができる。この付加情報は復号側で利用して、ビット削減した画像フレームF(x,y,t)を復元することができる。尚、1ビットプレーンBP(x,y,t)におけるビット削減の深度情報は、符号化及び復号間で予め規定しておくようにする。
ここで、画像フォーマット4:2:2のコンポーネント信号では、色差信号は輝度信号に対して水平1/2、画像フォーマット4:2:0のコンポーネント信号では水平1/2及び垂直1/2の標本化信号しかない。そこで、画像フォーマット4:2:2のコンポーネント信号及び4:2:0のコンポーネント信号では、色差信号の注視領域Observや注視外領域Not_Observ信号を水平及び垂直方向に間引いて使用する。
以上のように、本実施例の動画像ビット深度削減装置1によれば、視覚特性(視覚における注視と色視野)に着目し、注視領域と注視外領域を判別して適切に輝度信号及び色差信号のビット深度を削減することができるようになる。
更に、本発明の一態様として、本実施例の動画像ビット深度削減装置1をコンピュータとして構成させることができる。コンピュータに、前述した各構成要素を実現させるためのプログラムは、コンピュータの内部又は外部に備えられる記憶部に記憶される。そのような記憶部は、外付けハードディスクなどの外部記憶装置、或いはROM又はRAMなどの内部記憶装置で実現することができる。コンピュータに備えられる制御部は、中央演算処理装置(CPU)などの制御で実現することができる。即ち、CPUが、各構成要素の機能を実現するための処理内容が記述されたプログラムを、適宜、記憶部から読み込んで、各構成要素の機能をコンピュータ上で実現させることができる。ここで、各構成要素の機能をハードウェアの全部又は一部で実現しても良い。
また、この処理内容を記述したプログラムを、例えばDVD又はCD−ROMなどの可搬型記録媒体の販売、譲渡、貸与等により流通させることができるほか、そのようなプログラムを、例えばIPなどのネットワーク上にあるサーバの記憶部に記憶しておき、ネットワークを介してサーバから他のコンピュータにそのプログラムを転送することにより、流通させることができる。
また、そのようなプログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラム又はサーバから転送されたプログラムを、一旦、自己の記憶部に記憶することができる。また、このプログラムの別の実施態様として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、更に、このコンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。
以上、具体例を挙げて本発明の実施例を詳細に説明したが、本発明の特許請求の範囲から逸脱しない限りにおいて、あらゆる変形や変更が可能であることは当業者に明らかである。
本発明によれば、視覚特性に応じて動画像のビット深度を画質の劣化感を防止しながら低減させることができるので、動画像のビット深度の低減を目的とする任意の用途に有用である。
1 動画像ビット深度削減装置
1a 注視領域抽出部
1b 注視外領域決定部
2−1,2−2,2−3 輝度逆ガンマ補正処理部
3 動きベクトル検出処理部
4 動きベクトルクラスタリング処理部
5 輝度注視領域検出処理部
6 動領域検出処理部
7 選択スイッチ
8 注視外領域決定部
9 信号ビット削減部
10 輝度ガンマ補正処理部
11 表示装置
11b 画像フレーム内の太陽
11c 画像フレーム内の人物
11d 画像フレーム内の背景

Claims (6)

  1. 所定のビット深度の動画像フレーム列のコンポーネント信号を順次入力して、該コンポーネント信号における輝度信号及び/又は色差信号の各ビット深度を削減する動画像ビット深度削減装置であって、
    予め規定した視覚特性に基づいて注視される領域を、或る画像フレームにおける注視領域として抽出する注視領域抽出手段と、
    前記画像フレームにて抽出した注視領域から注視外領域を決定する注視外領域決定手段と、
    前記画像フレームにおける注視外領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減し、前記画像フレームの画像のダイナミックレンジが所定値未満である場合には、更に前記画像フレームの注視領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減する信号ビット削減手段と、を備え
    前記注視領域抽出手段は、
    前記画像フレームにおける動きベクトルを所定数のクラスタ数となるようにクラスタリングを施して、クラスタ中心の大きさが最も大きいクラスタであって、且つ各クラスタに属する動きベクトル数が最も大きいクラスタに属する動きベクトルの画素ブロックからなる領域を注視領域として抽出する第1注視領域抽出手段、
    前記画像フレームにおける時間軸方向の1次元1階ウェーブレット分解によって、動領域となる画素からなる領域を注視領域として抽出する第2注視領域抽出手段、及び
    前記画像フレームにおける画面内の輝度分布又は前記所定のビット深度の輝度値についての所定数のクラスタ数となるようにクラスタリングを施して、最も輝度値が小さいクラスタに属する画素からなる領域以外の領域を注視領域として抽出する第3注視領域抽出手段を備えることを特徴とする動画像ビット深度削減装置。
  2. 前記注視外領域決定手段は、
    記第1注視領域抽出手段、前記第2注視領域抽出手段、及び前記第3注視領域抽出手段のうちの2つ以上から得られた注視領域の重複領域を処理対象の注視領域として決定するとともに、決定した注視領域以外の領域を前記注視外領域として決定することを特徴とする、請求項に記載の動画像ビット深度削減装置。
  3. 前記信号ビット削減手段は、
    前記画像フレームにおける注視外領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減するとともに、前記画像フレームにおけるビット深度の削減した画素位置を示す1ビットプレーンを生成することを特徴とする、請求項1又は2に記載の動画像ビット深度削減装置。
  4. 前記信号ビット削減手段は、輝度信号のビット深度の削減量を決定する際に、抽出された注視領域内の平均輝度と、決定された注視外領域内の平均輝度とをそれぞれ算出し、算出した注視領域の平均輝度が注視外領域の平均輝度よりも低い場合は、注視領域の平均輝度が注視外領域の平均輝度よりも高い場合よりもビット深度の削減量を大きくするように、削減するビット数を決定することを特徴とする、請求項に記載の動画像ビット深度削減装置。
  5. 前記信号ビット削減手段は、色差信号のビット深度の削減量を決定する際に、U信号のビット深度の削減量をV信号のビット深度の削減量よりも大きくするように、削減するビット数を決定することを特徴とする、請求項又はに記載の動画像ビット深度削減装置。
  6. 所定のビット深度の動画像フレーム列のコンポーネント信号を順次入力して、該コンポーネント信号における輝度信号及び/又は色差信号の各ビット深度を削減する動画像ビット深度削減装置として構成するコンピュータに、
    予め規定した視覚特性に基づいて注視される領域を、或る画像フレームにおける注視領域として抽出するステップと、
    前記画像フレームにて抽出した注視領域から注視外領域を決定するステップと、
    前記画像フレームにおける注視外領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減し、前記画像フレームの画像のダイナミックレンジが所定値未満である場合には、更に前記画像フレームの注視領域における輝度信号及び/又は色差信号の各ビット深度を、前記所定のビット深度よりも低くなるようにそれぞれ規定されたビット数分だけ削減するステップと、
    を実行させるためのプログラムであって、
    前記抽出するステップは、
    前記画像フレームにおける動きベクトルを所定数のクラスタ数となるようにクラスタリングを施して、クラスタ中心の大きさが最も大きいクラスタであって、且つ各クラスタに属する動きベクトル数が最も大きいクラスタに属する動きベクトルの画素ブロックからなる領域を注視領域として抽出するステップ、
    前記画像フレームにおける時間軸方向の1次元1階ウェーブレット分解によって、動領域となる画素からなる領域を注視領域として抽出するステップ、及び
    前記画像フレームにおける画面内の輝度分布又は前記所定のビット深度の輝度値についての所定数のクラスタ数となるようにクラスタリングを施して、最も輝度値が小さいクラスタに属する画素からなる領域以外の領域を注視領域として抽出するステップを有するプログラム。
JP2009189220A 2009-08-18 2009-08-18 動画像ビット深度削減装置及びプログラム Expired - Fee Related JP5303399B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009189220A JP5303399B2 (ja) 2009-08-18 2009-08-18 動画像ビット深度削減装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009189220A JP5303399B2 (ja) 2009-08-18 2009-08-18 動画像ビット深度削減装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2011041190A JP2011041190A (ja) 2011-02-24
JP5303399B2 true JP5303399B2 (ja) 2013-10-02

Family

ID=43768455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009189220A Expired - Fee Related JP5303399B2 (ja) 2009-08-18 2009-08-18 動画像ビット深度削減装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5303399B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101305093B1 (ko) 2012-05-29 2013-09-12 한양대학교 산학협력단 변환 단위의 크기 결정 방법 및 그 부호화 장치
GB2544476B (en) * 2015-11-16 2018-08-08 Displaylink Uk Ltd Data compression method and apparatus
CN116076081A (zh) * 2021-08-09 2023-05-05 北京小米移动软件有限公司 一种图像的处理方法及其装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0813145B2 (ja) * 1988-03-09 1996-02-07 国際電信電話株式会社 領域分割を用いた動画像符号化方式
JPH07135651A (ja) * 1993-11-10 1995-05-23 Matsushita Electric Ind Co Ltd 映像通信システム
JP3197420B2 (ja) * 1994-01-31 2001-08-13 三菱電機株式会社 画像符号化装置
JPH1023432A (ja) * 1996-07-09 1998-01-23 Hitachi Ltd 画像の圧縮符号化装置
JP2000013795A (ja) * 1998-06-18 2000-01-14 Matsushita Electric Ind Co Ltd 映像信号処理装置
GB2377333A (en) * 2001-07-07 2003-01-08 Sharp Kk Segmenting a pixellated image into foreground and background regions
DE10300048B4 (de) * 2002-01-05 2005-05-12 Samsung Electronics Co., Ltd., Suwon Verfahren und Vorrichtung zur Bildcodierung und -decodierung
US20080279285A1 (en) * 2004-07-02 2008-11-13 Koninklijke Philips Electronics, N.V. Video Processing
JP4687216B2 (ja) * 2005-04-18 2011-05-25 ソニー株式会社 画像信号処理装置、カメラシステム、および画像信号処理方法
JP2007036888A (ja) * 2005-07-28 2007-02-08 Sanyo Electric Co Ltd 符号化方法
JP2007122101A (ja) * 2005-10-24 2007-05-17 Matsushita Electric Ind Co Ltd 画像処理装置及び画像処理方法
JP2009049979A (ja) * 2007-07-20 2009-03-05 Fujifilm Corp 画像処理装置、画像処理方法、画像処理システム、及びプログラム

Also Published As

Publication number Publication date
JP2011041190A (ja) 2011-02-24

Similar Documents

Publication Publication Date Title
US8290295B2 (en) Multi-modal tone-mapping of images
US8059911B2 (en) Depth-based image enhancement
Dong et al. Human visual system-based saliency detection for high dynamic range content
JP4118688B2 (ja) ビデオ画像のセグメンテーションに基づく強調を行うシステム及び方法
KR20120112709A (ko) 높은 동적 범위의 이미지 생성 및 렌더링
WO2019092463A1 (en) Video image processing
US20170094281A1 (en) Compressing high dynamic range images
CN110310231B (zh) 一种将第一动态范围视频转换为第二动态范围视频的设备及其方法
WO2021193648A1 (ja) 画像処理装置およびサーバ
Zhou et al. Projection invariant feature and visual saliency-based stereoscopic omnidirectional image quality assessment
JP2013041565A (ja) 画像処理装置、画像表示装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP5303399B2 (ja) 動画像ビット深度削減装置及びプログラム
CN107409223B (zh) 视频编解码方法和视频编解码器
CN106603885B (zh) 视频图像处理方法和装置
WO2015143619A1 (en) Video content classification
CN112565887A (zh) 一种视频处理方法、装置、终端及存储介质
WO2021071637A1 (en) System and method for motion adaptive filtering as pre-process to video encoding
WO2018157835A1 (zh) 基于运动注意力模型的360度全景视频编码方法
WO2016026650A1 (en) Methods and apparatus for mapping input image
US11233999B2 (en) Transmission of a reverse video feed
Lebowsky Optimizing color fidelity for display devices using contour phase predictive coding for text, graphics, and video content
US20240054623A1 (en) Image processing method and system, and device
US20230403446A1 (en) Image display device and image display method
WO2023096728A1 (en) Denoising for sdr-to-hdr local reshaping
JP2022015209A (ja) 画像処理方法、画像処理プログラム、及び表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130624

R150 Certificate of patent or registration of utility model

Ref document number: 5303399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees