JP4660463B2 - ステレオ画像符号化装置 - Google Patents

ステレオ画像符号化装置 Download PDF

Info

Publication number
JP4660463B2
JP4660463B2 JP2006355906A JP2006355906A JP4660463B2 JP 4660463 B2 JP4660463 B2 JP 4660463B2 JP 2006355906 A JP2006355906 A JP 2006355906A JP 2006355906 A JP2006355906 A JP 2006355906A JP 4660463 B2 JP4660463 B2 JP 4660463B2
Authority
JP
Japan
Prior art keywords
image
motion
prediction
images
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006355906A
Other languages
English (en)
Other versions
JP2008167267A (ja
Inventor
敏明 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006355906A priority Critical patent/JP4660463B2/ja
Publication of JP2008167267A publication Critical patent/JP2008167267A/ja
Application granted granted Critical
Publication of JP4660463B2 publication Critical patent/JP4660463B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

この発明は、同一時刻に撮影された複数の画像(ステレオ画像)を符号化するステレオ画像符号化装置に関するものである。
従来のステレオ画像符号化装置は、視差のない背景画像と視差のある立体部品画像を入力する。
ただし、視差のない背景画像と視差のある立体部品画像は、いずれも動画像であり、また、立体部品画像は、2台のカメラを平行に配置して撮影されたステレオ画像の中から、注視物体だけが切り出されたものであり、画像の視差は水平成分のみを有している。
ステレオ画像符号化装置は、背景画像と立体部品画像を入力すると、背景画像と立体部品画像の符号化を実施する。
背景画像の符号化は、一般的に知られている16×16画素等からなるブロックを符号化単位として、ブロックマッチングを実施する動き補償予測符号化を行うことで実施される。
立体部品画像の符号化は、左目用の部品画像については、一般的に知られているブロックマッチングを用いる動き補償予測符号化を行うことで符号化される。
右目用の部品画像については、同時刻の左目用画像を用いる視差補償を行うことで符号化される。
なお、従来のステレオ画像符号化装置における動き補償は、上述したように、ブロックマッチングを実施する動き補償予測符号化が行われるが、部品画像の特徴や特性によって動き補償予測符号化が制御されるものではない(例えば、特許文献1を参照)。
特開平09−275578号公報(段落番号[0021]から[0037]、図1)
従来のステレオ画像符号化装置は以上のように構成されているので、左目用の部品画像がブロックマッチングを用いる動き補償予測符号化を行うことで符号化されるが、部品画像の特徴や特性によって動き補償予測符号化が制御されるものではないため、部品画像の実際の動きと離れた動き補償予測符号化が行われることがあり、部品画像の符号化精度が劣化することがあるなどの課題があった。
この発明は上記のような課題を解決するためになされたもので、実際の動きに近い動き補償予測符号化を実現して、複数の画像の符号化精度を高めることができるステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラムを得ることを目的とする。
この発明に係るステレオ画像符号化装置は、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段とを設け、符号化手段が動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行う符号化手段とを備え、動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、予測参照用の画像を用いて各領域の動きを予測し、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報を入力し、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、画像の探索範囲を動き位置情報が示すカメラの動き及び位置に応じて制御し、無限遠方を基点として、基点が画像の中心に置かれている状態で回転しながらカメラの移動が行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、画像の探索範囲を視差が小さい領域ほど小さい範囲に制御するようにしたものである。
また、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行う符号化手段とを備え、動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、予測参照用の画像を用いて各領域の動きを予測し、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報を入力し、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、画像の探索範囲を動き位置情報が示すカメラの動き及び位置に応じて制御し、位置を変えずにカメラの回転が行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、画像の探索範囲を視差が大きい領域ほど小さい範囲に制御するようにしたものである。
また、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行う符号化手段とを備え、動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、予測参照用の画像を用いて各領域の動きを予測し、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報を入力し、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、画像の探索範囲を動き位置情報が示すカメラの動き及び位置に応じて制御し、カメラのズームインとズームアウトが行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、画像の探索範囲を視差が小さい領域ほど小さい範囲に制御するようにしたものである。
また、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行う符号化手段とを備え、動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、予測参照用の画像を用いて各領域の動きを予測し、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、各領域の中で基準となる領域に対応する予測参照用の画像の探索範囲を設定する基準探索範囲設定部と、その他の領域の探索範囲係数を設定する探索範囲係数設定部とを備え、基準探索範囲設定部及び探索範囲係数設定部の設定内容から、その他の領域に対応する予測参照用の画像の探索範囲を決定するようにしたものである。
また、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行う符号化手段とを備え、動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、予測参照用の画像を用いて各領域の動きを予測し、動き予測手段は、予測参照用の画像が撮影された時点のカメラの動き及び位置を示す動き位置情報と、複数の画像が撮影された時点の動き及び位置を示す動き位置情報とから、予測参照用の画像が撮影された時点から複数の画像が撮影された時点までのカメラの変化を認識し、カメラの変化と視差算出手段により算出された視差からみかけ動きベクトルを算出し、みかけ動きベクトルを考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索するようにしたものである。
この発明によれば、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段とを設け、符号化手段が動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行うように構成したので、実際の動きに近い動き補償予測符号化が実現されるようになり、その結果、複数の画像の符号化精度を高めることができる効果がある。
実施の形態1.
図1はこの発明の実施の形態1によるステレオ画像符号化装置を示す構成図であり、図において、カメラ1は三次元空間内の対象物を撮影し、その撮影結果である画像Aを出力する。
カメラ2はカメラ1と異なる位置に設置され、カメラ1と同一時刻に同一の対象物を撮影し、その撮影結果である画像Bを出力する。
視差算出部3はカメラ1から出力された画像Aとカメラ2から出力された画像Bを入力し、画像Aと画像Bにおける画面内の視差を算出する処理を実施する。なお、視差算出部3は視差算出手段を構成している。
グルーピング部4は視差算出部3により算出された視差に応じて画面内の領域をグループ分けして、グループ分けした各領域の画像(以下、「グループ領域画像」と称する)を出力するグルーピング処理と、各グループ領域画像の特性(例えば、分布状況、大きさ、形状、模様、色)を抽出して、各グループ領域画像の特性を示すグループ領域特性情報を出力する特性抽出処理とを実施する。
なお、グルーピング部4はグルーピング手段及び特性抽出手段を構成している。
識別子情報付加部5はグルーピング部4から出力されたグループ領域特性情報に対応する識別子を動き予測部7に出力する。
予測参照画像メモリ6は画像A,Bと異なる時刻に撮影された予測参照用の画像(以下、「予測参照画像」と称する)を格納しているメモリである。
動き予測部7は予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して(識別子情報付加部5から出力された識別子からグループ領域画像の特性を把握する)、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを出力する。なお、動き予測部7は動き予測手段を構成している。
符号化部8は動き予測部7から出力された動きベクトルを用いて、カメラ1,2から出力された画像A,Bの符号化を実施して、その符号化結果である符号化データを出力する一方、図示せぬエンコーダにより符号化データが復号された局部復号画像を予測参照画像として予測参照画像メモリ6に格納する。なお、符号化部8は符号化手段を構成している。
図1の例では、ステレオ画像符号化装置の構成要素である視差算出部3、グルーピング部4、識別子情報付加部5、動き予測部7及び符号化部8がそれぞれ専用のハードウェア(例えば、MPUを実装している半導体集積回路基板)で構成されているものを想定しているが、ステレオ画像符号化装置がコンピュータで構成されている場合、ステレオ画像符号化装置の構成要素である視差算出部3、グルーピング部4、識別子情報付加部5、動き予測部7及び符号化部8の処理内容を記述しているステレオ画像符号化プログラムをコンピュータのメモリに格納し、コンピュータのCPUが当該メモリに格納されているステレオ画像符号化プログラムを実行するようにしてもよい。
図2はこの発明の実施の形態1によるステレオ画像符号化方法を示すフローチャートであり、図3はカメラ1,2により撮影された画像A,Bと画面内の視差を示す説明図である。
次に動作について説明する。
カメラ1,2は、三次元空間内の同一の対象物を同一時刻に撮影すると、その撮影結果である画像A,Bを出力する。
ここで、図3(a)はカメラ1により撮影された画像Aであり、この実施の形態1では、画像Aは左目用画像として使用される。
図3(b)はカメラ2により撮影された画像Bであり、この実施の形態1では、画像Bは右目用画像として使用される。
視差算出部3は、カメラ1から画像Aを入力し、カメラ2から画像Bを入力すると、画像Aと画像Bにおける画面内の視差を算出する(ステップST1)。
図3(c)は画像A,Bにおける画面内の視差を示しており、画像Aと画像B内に存在している2つの対象物を点線で表して、便宜上、視差の画面内に合成している。
画像Aと画像Bにおける画面内の視差は、画像Aと画像Bにおける画面内の対象物のずれを表すものであり、例えば、画像Aを基準にして、画像Bの画面内の対象物のずれを各画素について算出することにより視差を求めることができる。
図3(c)では、各画素の視差について例示しており、図中の矢印は、視差を表すものである。実際には画素毎に視差を算出するが、図3(c)では、便宜上いくつかを例として表示している。
図3(c)では、背景の視差が一番小さく、楕円状の対象物の視差が一番大きく、方形状の対象物は2番目に視差が大きい。
グルーピング部4は、視差算出部3が画像Aと画像Bにおける画面内の視差を算出すると、画像Aと画像Bにおける画面内の視差に応じて画面内の領域のグループ分けを行う(ステップST2)。
即ち、グルーピング部4は、画面内の領域の中で、視差が同値の領域を同一のグループに分類し、同一グループの領域の画像をグループ領域画像として識別子情報付加部5及び動き予測部7に出力する。
図3(a)(b)の例では、楕円状の対象物の領域が同一のグループに分類され、方形状の対象物の領域が同一のグループに分類され、また、背景の領域が同一のグループに分類されるので、グルーピング部4は、図3(a)に示すように、画像Aに含まれている楕円状の対象物に係るグループ領域画像と、方形状の対象物に係るグループ領域画像と、背景に係るグループ領域画像とを出力する。また、図3(b)に示すように、画像Bに含まれている楕円状の対象物に係るグループ領域画像と、方形状の対象物に係るグループ領域画像と、背景に係るグループ領域画像とを出力する。
ここでは、グルーピング部4が、視差が同値の領域を同一のグループに分類するものについて示したが、視差がほぼ同じ領域(任意の範囲の視差を有する領域)を同一のグループに分類するようにしてもよい。
グルーピング部4は、画面内の視差に応じて画面内の領域をグループ分けすると、各グループ領域画像の特性を抽出し、各グループ領域画像の特性を示すグループ領域特性情報を識別子情報付加部5に出力する(ステップST3)。
即ち、グルーピング部4は、各グループ領域画像の特性として、例えば、分布状況、大きさ、形状、模様、色などを抽出する。
グループ領域画像の分布状況は、例えば、画像A,Bのピクチャ(図4の点線で表されている枠)が水平方向と垂直方向にそれぞれ4分割(ピクチャが2次元平面的に16分割)され、グループ領域画像が何れの分割領域に存在しているか表すものであり、4ビットの情報で表される。
グループ領域画像の大きさは、例えば、グループ領域画像が閾値(面積に関する閾値)によって4つのレベルに分類されたものであり、2ビットの情報で表される。
グループ領域画像の形状は、例えば、グループ領域画像が4種類の形状(三角形、四角形、円形、その他の形状)に分類されたものであり、2ビットの情報で表される。
グループ領域画像の模様は、例えば、グループ領域画像の分散値が閾値によって4種類に分類されたものであり、2ビットの情報で表される。
グループ領域画像の色は、例えば、グループ領域画像が8色に分類されたものであり、3ビットの情報で表される。
ここでは、グルーピング部4が各グループ領域画像の特性として、例えば、分布状況、大きさ、形状、模様、色などを抽出するものについて示したが、これに限るものではなく、例えば、輝度平均値、最大画素値、最小画素値、画素範囲などを抽出するようにしてもよい。
なお、グループ領域画像の分布状況については、例えば、10分割や20分割など、他の分割数であってもよく、対象物の2次元座標位置でもよい。
また、グループ領域画像の大きさのレベル数は他の数でもよく、形状、模様、色もその他の分類方法でもよい。
識別子情報付加部5は、グルーピング部4から各グループ領域画像の特性を示すグループ領域特性情報を受けると、そのグループ領域特性情報に対応する識別子を動き予測部7に出力する(ステップST4)。
即ち、識別子情報付加部5は、動き予測部7が楕円の対象物に係るグループ領域画像(図4(a)を参照)と、方形状の対象物に係るグループ領域画像(図4(b)を参照)と、背景に係るグループ領域画像とを識別して、グループ領域画像を同一の特性又は類似の特性を有するカテゴリーに分類することができるようにするため、例えば、背景に係るグループ領域画像の識別子として「0」、方形状の対象物に係るグループ領域画像の識別子として「10」、楕円状の対象物に係るグループ領域画像の識別子として「20」を設定し、それらの識別子を動き予測部7に出力する。
動き予測部7は、識別子情報付加部5からグループ領域特性情報に対応する識別子を受けると、その識別子を参照して、グルーピング部4から出力される各グループ領域画像の特性を把握し、予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、各グループ領域画像に対応する予測参照画像を探索する(ステップST5)。
例えば、グルーピング部4から出力されるグループ領域画像が、方形状の対象物に係るグループ領域画像であれば、識別子「10」から当該グループ領域画像の形状が方形状であると認識し、予測参照画像メモリ6の中から、方形状の予測参照画像を探索する。
動き予測部7は、各グループ領域画像に対応する予測参照画像を探索すると、その予測参照画像を用いて、各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを符号化部8に出力する(ステップST6)。
ここで、動きベクトルは、グループ領域画像と予測参照画像における同位置の画素の差分絶対値を求めて、その領域画像内の差分絶対値の総和(差分絶対値和)を算出し、その差分絶対値和が最小になるときの予測参照画像内の画像領域位置を示すベクトルに相当する。
また、動きベクトルは、画像A,B内のグループ領域画像の位置からの変位に相当し、画像A,B内のグループ領域画像の位置から動きベクトルが指す位置(例えば、領域の左上)にあるピクチャ内の画像領域(予測参照画像メモリ6に格納されているピクチャ(図4の点線枠を参照)内の画像領域)が、グループ領域画像に近い画像領域(グループ領域画像に対応する予測参照画像)に相当する。
符号化部8は、動き予測部7から動きベクトルを受けると、その動きベクトルを用いて、カメラ1,2から出力された画像A,Bの符号化を実施し、その符号化結果である符号化データを出力する(ステップST7)。
以下、符号化部8における符号化処理の一例を具体的に説明する。
符号化部8は、動き予測部7から動きベクトルを受けると、カメラ1の画像Aに含まれているグループ領域画像の位置から動きベクトルが指す位置にあるピクチャ内の画像領域(グループ領域画像に対応する予測参照画像)を特定して、そのグループ領域画像と予測参照画像の差分画像を求める。
符号化部8は、画像Aに含まれているグループ領域画像と予測参照画像の差分画像を求めると、その差分画像と動きベクトルを符号化する。
次に、符号化部8は、カメラ2の画像Bに含まれているグループ領域画像の位置から動きベクトルが指す位置にあるピクチャ内の画像領域(グループ領域画像に対応する予測参照画像)を特定して、そのグループ領域画像と予測参照画像の差分画像を求める。
符号化部8は、画像Bに含まれているグループ領域画像と予測参照画像の差分画像を求めると、その差分画像と動きベクトルを符号化する。
符号化部8は、カメラ1,2から出力された画像A,Bの符号化を実施して符号化データを出力すると、後続の画像の符号化に対処できるようにするため、図示せぬエンコーダにより符号化データが復号された局部復号画像を予測参照画像として予測参照画像メモリ6に格納する。
以上で明らかなように、この実施の形態1によれば、視差算出部3により算出された視差に応じて画面内の領域のグループ分けを実施するとともに、グループ分けした各領域の特性を抽出するグルーピング部4と、グルーピング部4により抽出された特性を考慮して、グルーピング部4によりグループ分けされた各領域の動きを予測する動き予測部7とを設け、符号化部8が動き予測部7による各領域の動き予測結果を用いて、画像A,Bの符号化を行うように構成したので、実際の動きに近い動き補償予測符号化が実現されるようになり、その結果、画像A,Bの符号化精度を高めることができる効果を奏する。
また、この実施の形態1によれば、グルーピング部4が各グループ領域画像の特性として、各領域の分布状況、大きさ、形状、模様又は色を抽出するように構成したので、各グループ領域画像を同一の特性又は類似の特性を持つカテゴリーに分けることができるようになり、その結果、動きベクトルの探索効率を高めることができる効果を奏する。
なお、この実施の形態1では、画像Aを左目用画像、画像Bを右目用画像として使用するものについて示したが、画像Aを右目用画像、画像Bを左目用画像として使用するようにしてもよく、また、画像A,Bを何目用画像として固定しなくてもよい。
また、この実施の形態1では、2台のカメラ1,2により撮影された画像A,Bを使用するものについて示したが、3台以上のカメラにより撮影された3種類以上の画像を使用するようにしてもよく、また、3種以上の画像の中から任意の2種の画像を使用するようにしてもよい。
この実施の形態1では、視差算出部3が画面内の視差として、画像Aを基準にして、画像Bの画面内の対象物のずれを各画素について算出するものについて示したが、画像A以外の画像を基準画像としてもよく、また、画面内の対象物のずれを画素毎ではなく、複数の画素から構成される画像領域毎に算出するようにしてもよい。
この実施の形態1では、識別子情報付加部5が、背景に係るグループ領域画像の識別子「0」と、方形状の対象物に係るグループ領域画像の識別子「10」と、楕円状の対象物に係るグループ領域画像の識別子「20」とを設定するものについて示したが、図5に示すように、方形状の対象物に係るグループ領域画像や、楕円状の対象物に係るグループ領域画像が複数存在する場合には、例えば、方形状の対象物に係るグループ領域画像の識別子として「10」と「11」、楕円状の対象物に係るグループ領域画像の識別子として「20」と「21」を設定するようにしてもよい。
また、図5に示すように、方形状の対象物に係るグループ領域画像や、楕円状の対象物に係るグループ領域画像が複数存在する場合でも、複数の方形状の対象物に係るグループ領域画像を同一グループとして「10」の識別子を設定し、また、複数の楕円状の対象物に係るグループ領域画像を同一グループとして「20」の識別子を設定するようにしてもよい。
実施の形態2.
上記実施の形態1では、動き予測部7が予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、各グループ領域画像に対応する予測参照画像を探索するものについて示したが、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を予め設定された指定領域と各領域が重なる範囲に制御(制限)するようにしてもよい。
即ち、上記実施の形態1では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、図4の点線の枠で表しているピクチャの全てを画像の探索範囲としているものについて示したが、この実施の形態2では、図6に示すように、予め、例えば、方形やひし形状の領域(以下、「指定領域」と称する)を設定し(図6の一点破線の枠を参照)、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を当該指定領域とグループ領域画像が重なる範囲に制御するようにしてもよい。
動き予測部7は、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御する場合、指定領域とグループ領域画像が重なる範囲の外の領域が探索領域から除外され、その重なる範囲だけが探索領域となるため、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる。
したがって、この実施の形態2の場合、例えば、グループ領域画像が点光源などの1点画素であれば、対象となる1点の画素のみについて、動きベクトルの探索を行うことになる。
この実施の形態2では、一般的に知られているブロック単位のベクトル探索に限る必要はなく、1点光源や任意形状のオブジェクト探索でもよい。
実施の形態3.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合、図7に示すように、グループ領域画像の形状や画面内位置によっては、画像ブロックがグループ領域画像の境界を跨ぐことがあり得る。
そこで、この実施の形態3では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御(制限)するようにする。
即ち、指定領域とグループ領域画像が重なる部分を一部に含む画像ブロックについても、動きベクトルの探索対象に含めるようにする。
動き予測部7は、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御し、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合、画像ブロック毎に予測評価値を求め、最小評価値に対応する動きベクトルを出力することになる。
ここでは、画像ブロック毎に予測評価値を求め、最小評価値に対応する動きベクトルを出力するものについて示したが、予測評価値は、一般的に用いられる差分絶対値和などでもよく、また、閾値以下の評価値に対応する動きベクトルを出力するようにしてもよい。
以上で明らかなように、この実施の形態3によれば、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御するように構成したので、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
実施の形態4.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、動き予測部7が各グループ領域画像の代表動きベクトルを求め、画像の探索範囲を代表動きベクトルを基準とする範囲に制御(制限)するようにしてもよい。
図8は代表動きベクトルを説明する説明図である。
動き予測部7は、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像メモリ6に格納されている予測参照画像の中で、各グループ領域画像の差分絶対値和が最小になるベクトルを代表動きベクトルとして求める。
図8の例では、方形状の対象物に係るグループ領域画像の代表動きベクトルと、楕円状の対象物に係るグループ領域画像の代表動きベクトルを求めている。
動き予測部7は、各グループ領域画像の代表動きベクトルを求めると、画像の探索範囲を代表動きベクトルを基準とする範囲に制御して(一点破線の枠を参照)、各グループ領域画像に対応する予測参照画像を探索(動きベクトルを探索)する。
即ち、動き予測部7は、各グループ領域画像を複数の領域に分割し、分割領域毎に動きベクトルの探索を行う。
このとき、0原点を基準にする代わりに、代表動きベクトルを基準(中心)にする探索範囲で動きベクトルの探索を行う。即ち、代表動きベクトルを0原点にオフセットとして加算し、その加算点を基準点とする探索範囲で動きベクトルの探索を行う。
以上で明らかなように、この実施の形態4によれば、動き予測部7が各グループ領域画像の代表動きベクトルを求め、画像の探索範囲を代表動きベクトルを基準とする範囲に制御するように構成したので、各グループ領域画像の近傍で予測参照画像の探索(動きベクトルの探索)を行うことができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、この実施の形態4では、動き予測部7が、予測参照画像メモリ6に格納されている予測参照画像の中で、各グループ領域画像の差分絶対値和が最小になるベクトルを代表動きベクトルとして求めるものについて示したが、周辺画像を含めず、グループ領域画像そのものに対して、予測参照画像内で代表動きベクトルを求めてもよい。
また、図9(a)に示すように、グループ領域画像を含む幾つかの正方ブロックからなる領域(四隅にある点線の正方ブロックの領域は含めても、含めなくてもよい)に対して、予測参照画像内で代表動きベクトルを求めてもよい。
また、図9(b)に示すように、グループ領域画像を方形領域に対して、予測参照画像内で代表動きベクトルを求めてもよく、代表動きベクトルを求める際のグループ領域画像に対するマッチング領域は任意でよい。
さらに、代表動きベクトルを求める際、グループ領域画像内の画素又はグループ領域画像の近傍まで含めた対象領域の画素を用いて、代表動きベクトルを求めるとき、対象領域の全ての画素を用いて、代表動きベクトルの探索を行ってもよい。また、対象領域内の画素をサブサンプリングし、サブサンプリングされた画素を用いて、代表動きベクトルの探索を行ってもよく、対象領域の輝度成分のみを用いて、代表動きベクトルの探索を行ってもよい。また、対象領域の輝度成分及び色差成分を用いて、代表動きベクトルの探索を行ってもよく、対象領域の画素の取扱は任意でよい。
実施の形態5.
図10はこの発明の実施の形態5によるステレオ画像符号化装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
動き位置情報設定部11はカメラ1,2の動き及び位置を示す動き位置情報を入力して、その動き位置情報を必要なピクチャ分だけ記憶し、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を出力する。
探索範囲制御部12は動き位置情報設定部11から出力されたカメラ変化情報と視差算出部3により算出された視差に基づいて予測参照画像の探索範囲を決定する処理を実施する。
動き予測部13は図1の動き予測部7と同様に、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を探索範囲制御部12により決定された探索範囲に制御(制限)する。
なお、動き位置情報設定部11、探索範囲制御部12及び動き予測部13から動き予測手段が構成されている。
次に動作について説明する。
動き位置情報設定部11、探索範囲制御部12及び動き予測部13以外は、上記実施の形態1と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を探索範囲制御部12に出力する。
探索範囲制御部12は、動き位置情報設定部11からカメラ変化情報を受けると、そのカメラ変化情報と視差算出部3により算出された視差に基づいて予測参照画像の探索範囲を決定する。
探索範囲制御部12における探索範囲の具体的な決定方法については、下記の実施の形態7以降で後述する。
動き予測部13は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索して、各グループ領域画像の動きを予測するが、予測参照画像の探索効率を高めるため、図1の動き予測部7と異なり、予測参照画像の探索範囲を探索範囲制御部12により決定された探索範囲に制御する。
以上で明らかなように、この実施の形態5によれば、カメラ1,2の動き及び位置を示す動き位置情報を入力し、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を動き位置情報が示すカメラの動き及び位置に応じて制御するように構成したので、実際の対象物の動きに対応する探索範囲で予測参照画像を探索することができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
実施の形態6.
上記実施の形態5では、動き位置情報設定部11がカメラ1,2の動き及び位置を示す動き位置情報を入力するものについて示したが、カメラ1,2の動きを示す情報として、カメラ1,2の水平回転角又は垂直回転角を含む情報を入力し、カメラ1,2の位置を示す情報として、カメラ1,2の三次元方向の移動距離(少なくとも1方向以上の移動距離)を含む情報を入力するようにしてもよい。
動き位置情報設定部11がカメラ1,2の水平回転角又は垂直回転角を含む情報や、カメラ1,2の三次元方向の移動距離を含む情報を入力すれば、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を正確に捉えることができる効果を奏する。
ここでは、動き位置情報設定部11がカメラ1,2の水平回転角又は垂直回転角を含む情報や、カメラ1,2の三次元方向の移動距離を含む情報を入力するものについて示したが、動き位置情報設定部11が焦点を原点とする水平移動角又は垂直移動角を含む情報や、カメラ1,2の撮像方向の3次元移動情報を入力するようにしてもよい。
また、焦点からの距離、相対位置を示す情報又は絶対位置を示す情報を入力するようにしてもよい。
実施の形態7.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7がグルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
図11はカメラ1,2の移動と探索範囲及びみかけ動きベクトルを示す説明図である。
図11では、無限遠方を基点として、その基点が画像の中心に置かれている状態で、回転しながらカメラ1,2が水平平面上で右から左に移動している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が回転移動したときに、カメラ1,2の移動前と移動後における各対象物の動き量を意味している。
そこで、動き予測部7は、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくする。
即ち、視差が最も大きいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が小さいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
以上で明らかなように、この実施の形態7によれば、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7がグルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するように構成したので、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、通常、カメラ1,2は入力画像の中心に基点が存在するが、撮像系によっては基点が入力画像の中心にない場合もあり得るが、この実施の形態7では、基点が入力画像の中心にない場合にも対応することができる。
また、この実施の形態7では、カメラ1,2が水平平面上で回転移動するものについて示したが、カメラ1,2が任意方向に回転移動してもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
実施の形態8.
上記実施の形態7では、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するものについて示したが、位置を変えずにカメラ1,2の回転が行われる場合、グルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
図12はカメラ1,2の定位置での回転と探索範囲及びみかけ動きベクトルを示す説明図である。
図12では、位置を変えずにカメラ1,2が水平平面上で回転している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より小さくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が固定位置で回転したときに、カメラ1,2の回転前と回転後における各対象物の動き量を意味している。
そこで、動き予測部7は、位置を変えずにカメラ1,2の回転が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくする。
即ち、視差が最も小さいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が大きいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
以上で明らかなように、この実施の形態8によれば、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御するように構成したので、位置を変えずにカメラ1,2の回転が行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、この実施の形態8では、カメラ1,2が水平平面上を回転するものについて示したが、カメラ1,2が任意方向に回転するものであってもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
実施の形態9.
上記実施の形態8では、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御するものについて示したが、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
図13はカメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合の探索範囲及びみかけ動きベクトルを示す説明図である。
図13では、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる様子を表している。
カメラ1,2のズームインとズームアウトを行うと、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われるときに、カメラ1,2のズームイン(またはズームアウト)前と、ズームイン(またはズームアウト)後における各対象物の動き量を意味している。
そこで、動き予測部7は、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくする。
即ち、視差が最も大きいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が小さいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
以上で明らかなように、この実施の形態9によれば、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するように構成したので、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
実施の形態10.
図14はこの発明の実施の形態10によるステレオ画像符号化装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
基準探索範囲設定部21はグルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画(例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像)に対応する予測参照画像の探索範囲を基準探索範囲として設定する処理を実施する。
探索範囲係数設定部22は各グループ領域画像の探索範囲係数を設定する処理を実施する。
動き予測部23は図1の動き予測部7と同様に、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、基準探索範囲設定部21及び探索範囲係数設定部22の設定内容から、各グループ領域画像に対応する予測参照画像の探索範囲を決定する。
なお、基準探索範囲設定部21、探索範囲係数設定部22及び動き予測部23から動き予測手段が構成されている。
次に動作について説明する。
基準探索範囲設定部21、探索範囲係数設定部22及び動き予測部23以外は、上記実施の形態1と同様である。
基準探索範囲設定部21は、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定する。
例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像が基準のグループ領域画像である旨の設定がなされている場合、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲(ここでは説明の便宜上、基準探索範囲を“S”とする)として設定する。
探索範囲係数設定部22は、グルーピング部4によりグループ分けされたグループ領域画像のうち、基準のグループ領域画以外のグループ領域画像の探索範囲係数を設定する。
例えば、画像A,Bに含まれている方形状の対象物に係るグループ領域画像の探索範囲係数を“1/2”に設定し、背景に係るグループ領域画像の探索範囲係数を“1/4”に設定する。
動き予測部23は、基準探索範囲設定部21が基準のグループ領域画像に対応する予測参照画像の基準探索範囲を設定し、探索範囲係数設定部22が基準のグループ領域画以外のグループ領域画像の探索範囲係数を設定すると、基準のグループ領域画以外のグループ領域画像の探索範囲を次のように決定する。
基準のグループ領域画以外のグループ領域画像の探索範囲
=基準探索範囲×当該グループ領域画像の探索範囲係数
これにより、方形状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲は“S/2”、背景に係るグループ領域画像に対応する予測参照画像の探索範囲は“S/4”に決定される。
動き予測部23における予測参照画像の探索処理や動き予測処理は、図1の動き予測部7と同様であるため説明を省略する。
以上で明らかなように、この実施の形態10によれば、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定する基準探索範囲設定部21と、各グループ領域画像の探索範囲係数を設定する探索範囲係数設定部22とを備え、動き予測部23が各グループ領域画像に対応する予測参照画像を探索する際、基準探索範囲設定部21及び探索範囲係数設定部22の設定内容から、各グループ領域画像に対応する予測参照画像の探索範囲を決定するように構成したので、適正な探索範囲を計算によって簡単に求めることができる効果を奏する。
なお、この実施の形態10では、基準探索範囲設定部21及び探索範囲係数設定部22が識別子情報付加部5から出力される識別子を参照して、基準のグループ領域画像や、基準のグループ領域画像以外のグループ領域画像を識別するものについて示したが、視差算出部3により算出された視差を考慮して、基準探索範囲や探索範囲係数を設定するようにしてもよい。
また、この実施の形態10では、探索範囲係数設定部22がグループ領域画像の探索範囲係数として、“1/2”や“1/4”を設定するものについて示したが、0以上の任意の数であればよい。
また、この実施の形態10では、基準のグループ領域画像の探索範囲係数については設定していないが、探索範囲係数設定部22が基準のグループ領域画像の探索範囲係数として“1”を設定して出力するようにしてもよい。
実施の形態11.
上記実施の形態10では、例えば、楕円状の対象物に係るグループ領域画像が基準のグループ領域画像であるものとして事前に設定されているものについて示したが、基準探索範囲設定部21が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定するようにしてもよい。
このように、基準探索範囲設定部21がカメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定する場合、焦点が合うグループ領域画像の視差が最小になるため、基準のグループ領域画像に対応する予測参照画像の基準探索範囲が最小の探索範囲になる。
したがって、焦点が合うグループ領域画像と比べて、焦点の手前側のグループ領域画像ほど視差が大きくなって探索範囲が大きくなるため、探索範囲係数設定部22は、焦点の手前側のグループ領域画像ほど大きな探索範囲係数を設定することになる。
また、焦点の奥側のグループ領域画像ほど視差が大きくなって探索範囲が大きくなるため、探索範囲係数設定部22は、焦点の奥側のグループ領域画像ほど大きな探索範囲係数を設定することになる。
以上で明らかなように、この実施の形態11によれば、基準探索範囲設定部21が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定するように構成したので、カメラ1,2が動いたり、ズームインやズームアウトをしても、適正な探索範囲を設定することができる効果を奏する。
実施の形態12.
図15はこの発明の実施の形態12によるステレオ画像符号化装置を示す構成図であり、図において、図10と同一符号は同一または相当部分を示すので説明を省略する。
みかけ動きベクトル制御部31は動き位置情報設定部11から出力されるカメラ変化情報と視差算出部3により算出される視差からみかけ動きベクトルを算出する処理を実施する。
動き予測部32はみかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測する。
なお、動き位置情報設定部11、みかけ動きベクトル制御部31及び動き予測部32から動き予測手段が構成されている。
次に動作について説明する。
みかけ動きベクトル制御部31及び動き予測部32以外は、上記実施の形態5と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、上記実施の形態5と同様に、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報をみかけ動きベクトル制御部31に出力する。
みかけ動きベクトル制御部31は、動き位置情報設定部11からカメラ変化情報を受けると、そのカメラ変化情報と視差算出部3により算出される視差からみかけ動きベクトルを算出する。
みかけ動きベクトルは、図11〜図13におけるグループ領域画像のみかけの動き量に相当する。
動き予測部32は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索して、各グループ領域画像の動きを予測するが、予測参照画像の探索効率を高めるため、図1の動き予測部7と異なり、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索する。
即ち、動き予測部32は、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを動きベクトルの探索範囲の基点(中心)において、みかけ動きベクトルを中心とする動きベクトルの探索を行う。
以上で明らかなように、この実施の形態12によれば、予測参照画像が撮影された時点から画像A,Bが撮影された時点までのカメラ1,2の変化を認識し、カメラ1,2の変化と視差算出部3により算出された視差からみかけ動きベクトルを算出し、みかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索するように構成したので、実際の対象物の動きに対応する探索範囲で予測参照画像を探索することができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、この実施の形態12では、みかけ動きベクトルを動きベクトルの探索範囲の基点(中心)におくものについて示したが、その他条件、または、符号化効率の観点等の理由から、みかけ動きベクトルを動きベクトルの探索範囲の任意の位置におくようにしてもよい。
実施の形態13.
上記実施の形態12では、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索するものについて示したが、図11に示すように、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
図11は、上述したように、無限遠方を基点として、その基点が画像の中心に置かれている状態で、回転しながらカメラ1,2が水平平面上で右から左に移動している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が回転移動したときに、カメラ1,2の移動前と移動後における各対象物の動き量を意味している。
そこで、みかけ動きベクトル制御部31は、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを大きくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを小さくする。
即ち、視差が最も大きいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が小さいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
以上で明らかなように、この実施の形態13によれば、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、通常、カメラ1,2は入力画像の中心に基点が存在するが、撮像系によっては基点が入力画像の中心にない場合もあり得るが、この実施の形態13では、基点が入力画像の中心にない場合にも対応することができる。
また、この実施の形態13では、カメラ1,2が水平平面上で回転移動するものについて示したが、カメラ1,2が任意方向に回転移動してもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
実施の形態14.
上記実施の形態13では、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするものについて示したが、図12に示すように、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が大きいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
図12は、上述したように、位置を変えずにカメラ1,2が水平平面上で回転している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より小さくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が固定位置で回転したときに、カメラ1,2の回転前と回転後における各対象物の動き量を意味している。
そこで、みかけ動きベクトル制御部31は、位置を変えずにカメラ1,2の回転が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを小さくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを大きくする。
即ち、視差が最も小さいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が大きいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
以上で明らかなように、この実施の形態14によれば、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が大きいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、位置を変えずにカメラ1,2の回転が行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、この実施の形態14では、カメラ1,2が水平平面上を回転するものについて示したが、カメラ1,2が任意方向に回転するものであってもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
実施の形態15.
上記実施の形態13では、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするものについて示したが、図13に示すように、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
図13は、上述したように、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる様子を表している。
カメラ1,2のズームインとズームアウトを行うと、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われるときに、カメラ1,2のズームイン(またはズームアウト)前と、ズームイン(またはズームアウト)後における各対象物の動き量を意味している。
そこで、みかけ動きベクトル制御部31は、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを大きくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを小さくする。
即ち、視差が最も大きいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が小さいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
以上で明らかなように、この実施の形態15によれば、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
実施の形態16.
図16はこの発明の実施の形態16によるステレオ画像符号化装置を示す構成図であり、図において、図15と同一符号は同一または相当部分を示すので説明を省略する。
基準みかけ動きベクトル設定部41はグルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画(例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像)のみかけ動きベクトルを基準みかけ動きベクトルとして設定する処理を実施する。
みかけ動きベクトル係数設定部42は各グループ領域画像のみかけ動きベクトル係数を設定する処理を実施する。
動き予測部43は図15の動き予測部32と同様に、みかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42の設定内容から、各グループ領域画像のみかけ動きベクトルを決定する。
なお、基準みかけ動きベクトル設定部41、みかけ動きベクトル係数設定部42及び動き予測部43から動き予測手段が構成されている。
次に動作について説明する。
基準みかけ動きベクトル設定部41、みかけ動きベクトル係数設定部42及び動き予測部43以外は、上記実施の形態1と同様である。
基準みかけ動きベクトル設定部41は、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定する。
例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像が基準のグループ領域画像である旨の設定がなされている場合、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトル(ここでは説明の便宜上、基準みかけ動きベクトルを“V”とする)として設定する。
みかけ動きベクトル係数設定部42は、グルーピング部4によりグループ分けされたグループ領域画像のうち、基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル係数を設定する。
例えば、画像A,Bに含まれている方形状の対象物に係るグループ領域画像のみかけ動きベクトル係数を“1/2”に設定し、背景に係るグループ領域画像のみかけ動きベクトル係数を“1/4”に設定する。
動き予測部43は、基準みかけ動きベクトル設定部41が基準のグループ領域画像の基準みかけ動きベクトルを設定し、みかけ動きベクトル係数設定部42が基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル係数を設定すると、基準のグループ領域画以外のグループ領域画像のみかけ動きベクトルを次のように決定する。
基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル
=基準みかけ動きベクトル×当該グループ領域画像のみかけ動きベクトル係数
これにより、方形状の対象物に係るグループ領域画像のみかけ動きベクトルは“V/2”、背景に係るグループ領域画像のみかけ動きベクトルは“V/4”に決定される。
動き予測部43における予測参照画像の探索処理や動き予測処理は、図15の動き予測部32と同様であるため説明を省略する。
以上で明らかなように、この実施の形態16によれば、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定する基準みかけ動きベクトル設定部41と、各グループ領域画像のみかけ動きベクトル係数を設定するみかけ動きベクトル係数設定部42とを備え、動き予測部43が各グループ領域画像に対応する予測参照画像を探索する際、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42の設定内容から、各グループ領域画像のみかけ動きベクトルを決定するように構成したので、適正なみかけ動きベクトルを計算によって簡単に求めることができる効果を奏する。
なお、この実施の形態16では、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42が識別子情報付加部5から出力される識別子を参照して、基準のグループ領域画像や、基準のグループ領域画像以外のグループ領域画像を識別するものについて示したが、視差算出部3により算出された視差を考慮して、基準みかけ動きベクトルやみかけ動きベクトル係数を設定するようにしてもよい。
また、この実施の形態16では、みかけ動きベクトル係数設定部42がグループ領域画像のみかけ動きベクトル係数として、“1/2”や“1/4”を設定するものについて示したが、0以上の任意の数であればよい。
また、この実施の形態16では、基準のグループ領域画像のみかけ動きベクトル係数については設定していないが、みかけ動きベクトル係数設定部42が基準のグループ領域画像のみかけ動きベクトル係数として“1”を設定して出力するようにしてもよい。
実施の形態17.
上記実施の形態16では、例えば、楕円状の対象物に係るグループ領域画像が基準のグループ領域画像であるものとして事前に設定されているものについて示したが、基準みかけ動きベクトル設定部41が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定するようにしてもよい。
このように、基準みかけ動きベクトル設定部41がカメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定する場合、焦点が合うグループ領域画像の視差が最小になるため、基準のグループ領域画像の基準みかけ動きベクトルが最小のみかけ動きベクトルになる。
したがって、焦点が合うグループ領域画像と比べて、焦点の手前側のグループ領域画像ほど視差が大きくなってみかけ動きベクトルが大きくなるため、みかけ動きベクトル係数設定部42は、焦点の手前側のグループ領域画像ほど大きなみかけ動きベクトル係数を設定することになる。
また、焦点の奥側のグループ領域画像ほど視差が大きくなってみかけ動きベクトルが大きくなるため、みかけ動きベクトル係数設定部42は、焦点の奥側のグループ領域画像ほど大きなみかけ動きベクトル係数を設定することになる。
以上で明らかなように、この実施の形態17によれば、基準みかけ動きベクトル設定部41が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定するように構成したので、カメラ1,2が動いたり、ズームインやズームアウトをしても、適正なみかけ動きベクトルを設定することができる効果を奏する。
実施の形態18.
図17はこの発明の実施の形態18によるステレオ画像符号化装置を示す構成図であり、図において、図15と同一符号は同一または相当部分を示すので説明を省略する。
操作情報設定部51はカメラ1,2の操作を示す操作情報を入力して、その操作情報を必要なピクチャ分だけ記憶し、予測参照画像が撮影された時刻の操作情報と、画像A,Bが撮影された時刻の操作情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の操作の変化を捉え、カメラ1,2の操作の変化を示す操作変化情報を出力する。
画像変換部52は操作情報設定部51から出力された操作変化情報と動き位置情報設定部11から出力されたカメラ変化情報とに基づいてグルーピング部4によりグループ分けされた各グループ領域画像の画像変換を実施する。
動き予測部53は予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、画像変換部52による画像変換後の各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを出力する。
なお、動き位置情報設定部11、操作情報設定部51、画像変換部52及び動き予測部53から動き予測手段が構成されている。
次に動作について説明する。
動き位置情報設定部11、操作情報設定部51、画像変換部52及び動き予測部53以外は、上記実施の形態1と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を画像変換部52に出力する。
操作情報設定部51は、カメラ1,2の操作を示す操作情報を入力すると、その操作情報を必要なピクチャ分だけ記憶する。即ち、操作情報を入力する毎に、最も古い操作情報の上に最新の操作情報を上書き記録する。
操作情報設定部51は、予測参照画像が撮影された時刻の操作情報と、画像A,Bが撮影された時刻の操作情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の操作の変化を捉え、カメラ1,2の操作の変化を示す操作変化情報を画像変換部52に出力する。
画像変換部52は、動き位置情報設定部11からカメラ変化情報を受け、操作情報設定部51から操作変化情報を受けると、そのカメラ変化情報と操作変化情報に基づいてグルーピング部4から出力される各グループ領域画像の画像変換を実施する。
なお、画像変換部52における画像変換処理の具体例は、下記の実施の形態19以降に記載している。
動き予測部53は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測する。
ただし、動き予測部53は、図1の動き予測部7と異なり、画像変換部52による画像変換後の各グループ領域画像に対応する予測参照画像を探索する。
以上で明らかなように、この実施の形態18によれば、カメラ1,2の動き及び位置を示す動き位置情報と、カメラ1,2の操作を示す操作情報とに基づいて各グループ領域画像の画像変換を実施し、画像変換後の各グループ領域画像の動きを予測するように構成したので、カメラ1,2が操作されても、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
実施の形態19.
上記実施の形態18では、操作情報設定部51がカメラ1,2の操作を示す操作情報を入力するものについて示したが、例えば、ズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するようにしてもよい。
例えば、カメラ1,2のズームインが行われた場合には、グループ領域画像が拡大されるため、グループ領域画像が対応する予測参照画像よりも大きくなってしまう。
そこで、画像変換部52は、ズームイン後のグループ領域画像を対応する予測参照画像の画像サイズと合わせるため、グルーピング部4から出力されたグループ領域画像に対して、予測参照画像からの拡大率の逆数を乗じてグループ領域画像を縮小し、縮小後のグループ領域画像を動き予測部53に出力する。
逆に、カメラ1,2のズームアウトが行われた場合には、グループ領域画像が縮小されるため、グループ領域画像が対応する予測参照画像よりも小さくなってしまう。
そこで、画像変換部52は、ズームアウト後のグループ領域画像を対応する予測参照画像の画像サイズと合わせるため、グルーピング部4から出力されたグループ領域画像に対して、予測参照画像からの縮小率の逆数を乗じてグループ領域画像を拡大し、拡大後のグループ領域画像を動き予測部53に出力する。
なお、ズームイン又はズームアウトが行われた場合、視差が変化するので、倍率に応じてグループ領域画像の識別子情報と予測参照画像の識別子情報とを関連付ける。
同じく、焦点位置を変えることにより、視差が変化するので、焦点位置に応じてグループ領域画像の識別子情報と予測参照画像の識別子情報とを関連付ける。
また、カメラ1,2が回転する場合、カメラ1,2が固定位置で回転するときと、カメラ1,2が移動しながら回転するときとでは、グループ領域画像の画像変換が異なる。
また、カメラ1,2が移動しながら回転する場合でも、焦点が対象に合っているときと、焦点が対象物と別のところにあるときとでは、グループ領域画像の画像変換が異なる。
焦点が対象物と合っている場合は、カメラ1,2の回転角の分だけ、対象物であるグループ領域画像を逆に回転させることで、グループ領域画像に対応する予測参照画像と同じ向きになる。
その他のカメラ1,2の回転については、カメラ1,2の回転角と位置情報に基づいてグループ領域画像の回転角を定める。
また、カメラ1,2のパンが行われた場合、カメラ1,2の回転が伴わなければ、画像変換は特に行わず、グループ領域画像をそのまま変換画像とみなして出力する。パンでは、カメラ1,2の移動距離と画面内の移動画素との関係からみなし動きベクトルが求められるので、動き位置情報よりみなし動きベクトルとして動き予測部53に出力することで、動き予測部53では、そのみなし動きベクトルを探索範囲の基準(中心)として、効率のよい動きベクトル探索を行うことができる。
以上で明らかなように、この実施の形態19によれば、操作情報設定部51がズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するように構成したので、カメラ1,2がズームイン、ズームアウト、パン、回転、焦点位置などの操作が行われても、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
なお、この実施の形態19では、操作情報設定部51がズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するものについて示したが、これに限るものではなく、その他の操作情報を入力するようにしてもよい。
また、この実施の形態19では、画像変換部52がグループ領域画像を回転、拡大又は縮小の画像変換を行うものについて示したが、これに限るものではなく、その他の画像変換を行うようにしてもよい。
また、この実施の形態19では、操作情報が回転である場合、画像変換部52がグループ領域画像を回転するものについて示したが、画像変換部52がグループ領域画像を回転する際、グループ領域画像の見えていない部分(例えば、グループ領域画像の側面)の画像を用いて、グループ領域画像を補間するようにしてもよい。
この場合、別のカメラにより撮像された画像(例えば、グループ領域画像の側面)を用いて、グループ領域画像を補間してもよいし、予めデータベースに記憶されている画像(例えば、グループ領域画像の側面)を用いて、グループ領域画像を補間してもよい。
実施の形態20.
上記実施の形態18,19では、画像変換部52がグループ領域画像の画像変換を実施するものについて示したが、予測参照画像メモリ6に格納されている予測参照画像(グループ領域画像に対応する予測参照画像)の画像変換を実施して、グループ領域画像と予測参照画像の画像サイズを合わせるようにしてもよく、上記実施の形態18,19と同様の効果を奏することができる。
なお、画像変換部52が予測参照画像を回転する場合、予測参照画像の見えていない部分(例えば、予測参照画像の側面)の画像を用いて、予測参照画像を補間するようにしてもよい。
この場合、別のカメラにより撮像された画像(例えば、予測参照画像の側面)を用いて、予測参照画像を補間してもよいし、予めデータベースに記憶されている画像(例えば、予測参照画像の側面)を用いて、予測参照画像を補間してもよい。
実施の形態21.
図18はこの発明の実施の形態21によるステレオ画像符号化装置を示す構成図であり、図において、図17と同一符号は同一または相当部分を示すので説明を省略する。
符号化部61は図1の符号化部8と同様の符号化処理を実施するほか、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)及び画像変換部52による画像変換を示す画像変換情報を符号化する。なお、符号化部61は符号化手段を構成している。
上記実施の形態1〜20では、符号化部8が画像A,Bに含まれているグループ領域画像と予測参照画像の差分画像を求め、その差分画像と動きベクトルを符号化するものについて示したが、この実施の形態21では、符号化部61が画像変換部52による画像変換後のグループ領域画像と予測参照画像の差分画像を求め、その差分画像と動きベクトルを符号化するようにする。
また、符号化部61は、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)、及び画像変換部52による画像変換を示す画像変換情報についても符号化する。
以上で明らかなように、この実施の形態21によれば、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)及び画像変換部52による画像変換を示す画像変換情報を符号化するように構成したので、カメラ1,2が操作されて、グループ領域画像の画像変換が行われた場合でも、実際の動きに近い動き補償予測符号化を実現することができる効果を奏する。
なお、この実施の形態21では、符号化部61が画像変換情報を符号化するものについて示したが、画像変換部52がグループ領域画像の画像変換を行わない場合には、その画像変換情報を符号化する必要はない。
実施の形態22.
上記実施の形態1〜21では、特に言及していないが、符号化部8(または符号化部61)が画像A,Bの符号化を行う際、画像A,Bに含まれているグループ領域画像をブロック単位に分割して、ブロック毎に符号化を実施するようにしてもよい。
この際、画像A,Bに含まれているグループ領域画像が複数存在しているブロックについては、複数のグループ領域画像の属性を考慮して符号化を実施するようにする。
具体的には、以下の通りである。
この実施の形態22では、画像A,Bに含まれているグループ領域画像を8×8画素のブロックに分割し、ブロック毎に符号化を実施するものとする。
上記実施の形態4では、図9(a)に示すように、グループ領域画像の境界を含むブロックも含めて代表動きベクトルを求めているが、この実施の形態22では、あるブロック内に複数のグループ領域画像が存在している場合、複数のグループ領域画像の属性を考慮して符号化を実施する。
図9(a)の例では、図中、灰色の領域と白色の領域を含むブロックについては、灰色の領域の属性と、白色の領域の属性とに基づいて符号化を制御する。
これは、ブロック内が全て灰色の領域と、ブロック内が全て白色の領域と、ブロック内が灰色と白色が混在する領域のそれぞれについて、個別に符号化制御を行わせるようにするためである。
以上で明らかなように、この実施の形態22によれば、画像A,Bに含まれているグループ領域画像が複数存在しているブロックについては、複数のグループ領域画像の属性を考慮して符号化を実施するように構成したので、属性が異なる領域について個別に符号化制御を行わせることができるようになり、その結果、目的に応じた符号化制御が可能になる効果を奏する。即ち、注目領域については、ブロック内が全て注目領域の画像の場合、多く符号化情報量を割り当て、注目領域と注目領域でない画像がブロック内に混在する場合は、全て注目領域の画像の場合と比べて割り当てる符号化情報量を減らし、全て注目領域の画像でない場合は、少なく符号化情報量を割り当てるようにすることなどが可能になる。
この実施の形態22では、画像A,Bに含まれているグループ領域画像を8×8画素のブロックに分割するものについて示したが、分割画素数は任意でよく、また、動き予測用のブロックサイズと符号化用のブロックサイズが異なっていてもよい。
また、この実施の形態22では、注目領域については、ブロック内が全て注目領域の画像の場合、多く符号化情報量を割り当て、注目領域と注目領域でない画像がブロック内に混在する場合は、全て注目領域の画像の場合と比べて割り当てる符号化情報量を減らし、全て注目領域の画像でない場合は、少なく符号化情報量を割り当てることができる旨を述べたが、符号化ブロックに対する符号化情報量の割り当ては任意でよい。
なお、グループ領域画像の属性としては、例えば、ブロック内の面積を使用することができる。また、グループ領域画像の属性は、視差、特性情報、ブロック内の識別子に対応するグループ領域画像の面積の中央値又は視差の中央値などでもよい。また、焦点が合うグループ領域画像との奥行方向の位置関係でもよい。
グループ領域画像の属性は、ブロック内の識別子に対応する各グループの面積に基づいて重み付け係数を決め、その重み付け係数の平均値又は重み付け係数の2乗平均値の平方根に最も近い重み付け係数に対応するグループ領域画像の属性でもよい。
この発明の実施の形態1によるステレオ画像符号化装置を示す構成図である。 この発明の実施の形態1によるステレオ画像符号化方法を示すフローチャートである。 カメラ1,2により撮影された画像A,Bと画面内の視差を示す説明図である。 グループ領域画像を示す説明図である。 グループ領域画像を示す説明図である。 画像の探索範囲を説明する説明図である。 画像の探索範囲を説明する説明図である。 代表動きベクトルを説明する説明図である。 代表動きベクトルの探索方法を説明する説明図である。 この発明の実施の形態5によるステレオ画像符号化装置を示す構成図である。 カメラ1,2の移動と探索範囲及びみかけ動きベクトルを示す説明図である。 カメラ1,2の定位置での回転と探索範囲及びみかけ動きベクトルを示す説明図である。 カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合の探索範囲及びみかけ動きベクトルを示す説明図である。 この発明の実施の形態10によるステレオ画像符号化装置を示す構成図である。 この発明の実施の形態12によるステレオ画像符号化装置を示す構成図である。 この発明の実施の形態16によるステレオ画像符号化装置を示す構成図である。 この発明の実施の形態18によるステレオ画像符号化装置を示す構成図である。 この発明の実施の形態21によるステレオ画像符号化装置を示す構成図である。
1,2 カメラ、3 視差算出部(視差算出手段)、4 グルーピング部(グルーピング手段、特性抽出手段)、5 識別子情報付加部、6 予測参照画像メモリ、7,13,23,32,43,53 動き予測部(動き予測手段)、8,61 符号化部(符号化手段)、11 動き位置情報設定部(動き予測手段)、12 探索範囲制御部(動き予測手段)、21 基準探索範囲設定部(動き予測手段)、22 探索範囲係数設定部(動き予測手段)、31 みかけ動きベクトル制御部(動き予測手段)、41 基準みかけ動きベクトル設定部(動き予測手段)、42 みかけ動きベクトル係数設定部(動き予測手段)、51 操作情報設定部(動き予測手段)、52 画像変換部(動き予測手段)。

Claims (11)

  1. 同一時刻に撮影された複数の画像を入力し、上記複数の画像における画面内の視差を算出する視差算出手段と、上記視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、上記グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、上記動き予測手段による各領域の動き予測結果を用いて、上記複数の画像の符号化を行う符号化手段とを備え、
    上記動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、上記予測参照用の画像を用いて各領域の動きを予測し、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報を入力し、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を上記動き位置情報が示すカメラの動き及び位置に応じて制御し、無限遠方を基点として、上記基点が画像の中心に置かれている状態で回転しながらカメラの移動が行われる場合、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を視差が小さい領域ほど小さい範囲に制御することを特徴とするステレオ画像符号化装置。
  2. 同一時刻に撮影された複数の画像を入力し、上記複数の画像における画面内の視差を算出する視差算出手段と、上記視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、上記グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、上記動き予測手段による各領域の動き予測結果を用いて、上記複数の画像の符号化を行う符号化手段とを備え、
    上記動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、上記予測参照用の画像を用いて各領域の動きを予測し、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報を入力し、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を上記動き位置情報が示すカメラの動き及び位置に応じて制御し、位置を変えずにカメラの回転が行われる場合、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を視差が大きい領域ほど小さい範囲に制御することを特徴とするステレオ画像符号化装置。
  3. 同一時刻に撮影された複数の画像を入力し、上記複数の画像における画面内の視差を算出する視差算出手段と、上記視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、上記グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、上記動き予測手段による各領域の動き予測結果を用いて、上記複数の画像の符号化を行う符号化手段とを備え、
    上記動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、上記予測参照用の画像を用いて各領域の動きを予測し、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報を入力し、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を上記動き位置情報が示すカメラの動き及び位置に応じて制御し、カメラのズームインとズームアウトが行われる場合、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を視差が小さい領域ほど小さい範囲に制御することを特徴とすステレオ画像符号化装置。
  4. 同一時刻に撮影された複数の画像を入力し、上記複数の画像における画面内の視差を算出する視差算出手段と、上記視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、上記グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、上記動き予測手段による各領域の動き予測結果を用いて、上記複数の画像の符号化を行う符号化手段とを備え、
    上記動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、上記特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、上記予測参照用の画像を用いて各領域の動きを予測し、上記グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、各領域の中で基準となる領域に対応する予測参照用の画像の探索範囲を設定する基準探索範囲設定部と、その他の領域の探索範囲係数を設定する探索範囲係数設定部とを備え、上記基準探索範囲設定部及び上記探索範囲係数設定部の設定内容から、その他の領域に対応する予測参照用の画像の探索範囲を決定することを特徴とすステレオ画像符号化装置。
  5. 基準探索範囲設定部は、グルーピング手段によりグループ分けされた各領域のうち、カメラの焦点が合う領域に対応する予測参照用の画像の探索範囲を、基準となる領域に対応する予測参照用の画像の探索範囲として設定することを特徴とする請求項記載のステレオ画像符号化装置。
  6. 同一時刻に撮影された複数の画像を入力し、上記複数の画像における画面内の視差を算出する視差算出手段と、上記視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、上記グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、上記動き予測手段による各領域の動き予測結果を用いて、上記複数の画像の符号化を行う符号化手段とを備え、
    上記動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、上記特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、上記予測参照用の画像を用いて各領域の動きを予測し、上記動き予測手段は、予測参照用の画像が撮影された時点のカメラの動き及び位置を示す動き位置情報と、複数の画像が撮影された時点の動き及び位置を示す動き位置情報とから、予測参照用の画像が撮影された時点から複数の画像が撮影された時点までのカメラの変化を認識し、上記カメラの変化と視差算出手段により算出された視差から、みかけ動きベクトルを算出し、上記みかけ動きベクトルを考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索することを特徴とすステレオ画像符号化装置。
  7. 動き予測手段は、無限遠方を基点として、上記基点が画像の中心に置かれている状態で回転しながらカメラの移動が行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、視差が小さい領域ほど、みかけ動きベクトルを小さくすることを特徴とする請求項記載のステレオ画像符号化装置。
  8. 動き予測手段は、位置を変えずにカメラの回転が行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、視差が大きい領域ほど、みかけ動きベクトルを小さくすることを特徴とする請求項記載のステレオ画像符号化装置。
  9. 動き予測手段は、カメラのズームインとズームアウトが行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、視差が小さい領域ほど、みかけ動きベクトルを小さくすることを特徴とする請求項記載のステレオ画像符号化装置。
  10. 動き予測手段は、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、各領域の中で基準となる領域のみかけ動きベクトルを設定する基準みかけ動きベクトル設定部と、その他の領域のみかけ動きベクトル係数を設定するみかけ動きベクトル係数設定部とを備え、上記基準みかけ動きベクトル設定部及び上記みかけ動きベクトル係数設定部の設定内容から、その他の領域のみかけ動きベクトルを決定することを特徴とする請求項記載のステレオ画像符号化装置。
  11. 基準みかけ動きベクトル設定部は、グルーピング手段によりグループ分けされた各領域のうち、カメラの焦点が合う領域のみかけ動きベクトルを、基準となる領域に対応するみかけ動きベクトルとして設定することを特徴とする請求項10記載のステレオ画像符号化装置。
JP2006355906A 2006-12-28 2006-12-28 ステレオ画像符号化装置 Expired - Fee Related JP4660463B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006355906A JP4660463B2 (ja) 2006-12-28 2006-12-28 ステレオ画像符号化装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006355906A JP4660463B2 (ja) 2006-12-28 2006-12-28 ステレオ画像符号化装置

Publications (2)

Publication Number Publication Date
JP2008167267A JP2008167267A (ja) 2008-07-17
JP4660463B2 true JP4660463B2 (ja) 2011-03-30

Family

ID=39696075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006355906A Expired - Fee Related JP4660463B2 (ja) 2006-12-28 2006-12-28 ステレオ画像符号化装置

Country Status (1)

Country Link
JP (1) JP4660463B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102100070A (zh) 2008-07-20 2011-06-15 杜比实验室特许公司 立体视频传送系统的编码器优化
JP5454569B2 (ja) * 2009-11-18 2014-03-26 株式会社Jvcケンウッド 立体映像データ処理装置および立体映像データ処理方法
JP2012257198A (ja) 2011-05-17 2012-12-27 Canon Inc 立体画像符号化装置、その方法、および立体画像符号化装置を有する撮像装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09275578A (ja) * 1996-04-04 1997-10-21 Sharp Corp 多視点画像符号化装置および復号装置
JP2000165909A (ja) * 1998-11-26 2000-06-16 Sanyo Electric Co Ltd 画像圧縮処理方法及び画像圧縮処理装置
JP2001285895A (ja) * 2000-03-30 2001-10-12 Sanyo Electric Co Ltd 画像データ符号化装置及びその方法
JP2003304562A (ja) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd オブジェクト符号化方法、オブジェクト符号化装置、及びオブジェクト符号化用プログラム
JP2005323021A (ja) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd 車載撮像システム、および撮像方法
JP2006053692A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 動画像における画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体
JP2006518157A (ja) * 2003-02-17 2006-08-03 エックスヴイディー コーポレイション オブジェクトベースの動き補償の方法及び装置
JP2006259847A (ja) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd 自動追尾装置及び自動追尾方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09275578A (ja) * 1996-04-04 1997-10-21 Sharp Corp 多視点画像符号化装置および復号装置
JP2000165909A (ja) * 1998-11-26 2000-06-16 Sanyo Electric Co Ltd 画像圧縮処理方法及び画像圧縮処理装置
JP2001285895A (ja) * 2000-03-30 2001-10-12 Sanyo Electric Co Ltd 画像データ符号化装置及びその方法
JP2003304562A (ja) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd オブジェクト符号化方法、オブジェクト符号化装置、及びオブジェクト符号化用プログラム
JP2006518157A (ja) * 2003-02-17 2006-08-03 エックスヴイディー コーポレイション オブジェクトベースの動き補償の方法及び装置
JP2005323021A (ja) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd 車載撮像システム、および撮像方法
JP2006053692A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 動画像における画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体
JP2006259847A (ja) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd 自動追尾装置及び自動追尾方法

Also Published As

Publication number Publication date
JP2008167267A (ja) 2008-07-17

Similar Documents

Publication Publication Date Title
JP5932666B2 (ja) 画像符号化装置とその集積回路、および画像符号化方法
US9299152B2 (en) Systems and methods for image depth map generation
JP6371553B2 (ja) 映像表示装置および映像表示システム
WO2012086120A1 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP4658223B2 (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
WO2011014419A1 (en) Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
WO2012061549A2 (en) Methods, systems, and computer program products for creating three-dimensional video sequences
JP2014056466A (ja) 画像処理装置及び方法
KR102641527B1 (ko) 이미지 합성
JP7105062B2 (ja) 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
KR20200102507A (ko) 이미지 데이터 비트스트림을 생성하기 위한 장치 및 방법
WO2019050038A1 (ja) 画像生成方法および画像生成装置
KR100726933B1 (ko) 고정된 양안 카메라의 자동 주시각 제어를 위한 영상신호처리 방법
JP6128748B2 (ja) 画像処理装置及び方法
JP2004200973A (ja) 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
JP4660463B2 (ja) ステレオ画像符号化装置
US8908012B2 (en) Electronic device and method for creating three-dimensional image
JP2013093836A (ja) 撮像装置、画像処理装置およびその方法
JP2015171097A (ja) 画像処理装置及びその制御方法
JP2008022421A (ja) 多視点画像圧縮符号化方法、装置及びプログラム
JP5889022B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
JP2014052855A (ja) 画像処理装置、その制御方法、および制御プログラム
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP2020194400A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2017094241A1 (en) Display processing apparatus, display processing method, and computer-readable medium for executing display processing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees