JP6102680B2 - 符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラム - Google Patents

符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラム Download PDF

Info

Publication number
JP6102680B2
JP6102680B2 JP2013223831A JP2013223831A JP6102680B2 JP 6102680 B2 JP6102680 B2 JP 6102680B2 JP 2013223831 A JP2013223831 A JP 2013223831A JP 2013223831 A JP2013223831 A JP 2013223831A JP 6102680 B2 JP6102680 B2 JP 6102680B2
Authority
JP
Japan
Prior art keywords
frame
nodes
reference frame
unit
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013223831A
Other languages
English (en)
Other versions
JP2015088805A (ja
Inventor
類 森本
類 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013223831A priority Critical patent/JP6102680B2/ja
Priority to US14/521,268 priority patent/US20150117540A1/en
Publication of JP2015088805A publication Critical patent/JP2015088805A/ja
Application granted granted Critical
Publication of JP6102680B2 publication Critical patent/JP6102680B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本技術は、符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラムに関する。詳しくは、動画データを圧縮する符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラムに関する。
一般に動画データはデータ量が多く、非圧縮のままでは送受信が困難であるため、動画データに対して圧縮処理が行われることが多い。この圧縮処理により動画の画質が低下するおそれがある。
例えば、現在よく用いられるH.264などの圧縮処理では一定形状のブロック単位で符号化を行っているため、圧縮率を高くするほど、ブロック境界付近においてモザイク状に見える現象、いわゆるブロックノイズが生じる可能性が高くなる。ブロックノイズが生じるのは、物体の輪郭と関係なく、ブロックの形状を一定としているためである。このブロックノイズを低減するために、パッチと呼ばれる多角形(三角形など)の領域を符号化単位として、そのパッチの頂点を物体の輪郭の形状に合わせて移動させる符号化装置が提案されている(例えば、非特許文献1参照。)。
宮本義弘他、「輪郭適応パッチを用いたワーピング予測ビデオ符号化方式」、オーディオビジュアル複合情報処理、1995年7月、p.25−31
しかしながら、上述の従来技術では、動画の画質を向上させることが困難である。すなわち、上述の符号化装置では、フレーム内のパッチの個数は固定であり、その個数が少ないと、物体の輪郭が角張ってしまうなどのノイズが発生するおそれがある。また、物体内部は、一定形状のパッチにより分割されているため、圧縮率が高いと、パッチの境界付近でブロックノイズと同様のノイズが生じてしまう。これらのノイズは、ローパスフィルタなどを通過させることにより低減することができるものの、ローパスフィルタを通過させると、物体の輪郭が不鮮明になり画質が低下するおそれがある。このため、動画の画質を向上させることが困難である。
本技術はこのような状況に鑑みて生み出されたものであり、動画の画質を向上させることを目的とする。
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、時系列順に複数のフレームを含む符号化対象の動画において上記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して上記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割部と、上記複数のフレームのうち基準になる基準フレーム上の上記複数の節点のそれぞれに対して上記基準フレーム以外の非基準フレーム上のいずれかの上記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして上記節点の対ごとに検出する動きベクトル検出部と、上記基準フレームおよび上記節点動きベクトルを含むデータを、上記動画を符号化した符号化データとして出力する符号化データ出力部とを具備する符号化装置、および、符号化方法ならびに当該方法をコンピュータに実行させるためのプログラムである。これにより、基準フレームおよび節点動きベクトルを含むデータが、動画を符号化した符号化データとして出力されるという作用をもたらす。
また、この第1の側面において、上記基準フレーム上の上記部分領域において基準になる基準座標と上記非基準フレーム上の上記部分領域において基準になる基準座標とを両端とするベクトルを上記部分領域ごとに領域動きベクトルとして取得して上記領域動きベクトルが同一で隣接する上記部分領域同士を併合する領域併合部をさらに具備し、上記符号化データ出力部は、上記併合された部分領域を物体領域として示す情報をさらに含む上記符号化データを出力してもよい。これにより、領域動きベクトルが同一で隣接する領域が併合されるという作用をもたらす。
また、この第1の側面において、上記領域分割部は、上記部分領域内のいずれかの座標を基準とする相対座標を上記節点ごとに示す節点情報をさらに生成し、上記動きベクトル検出部は、上記基準フレーム上の上記節点の相対座標と上記非基準フレーム上の上記節点の相対座標との距離を上記節点ごとに求めて当該距離が最も近い上記節点同士を対応付けてもよい。これにより、上記基準フレーム上の上記節点の相対座標と上記非基準フレーム上の上記節点の相対座標との距離が最も近い節点同士が対応付けられるという作用をもたらす。
また、この第1の側面において、上記基準フレームにおいて上記動きベクトルに従って上記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームを、上記非基準フレームを予測した予測フレームとして生成する予測フレーム生成部と、上記予測フレームと上記非基準フレームとにおいて対応する画素の画素値の差分を画素ごとに検出する差分検出部とをさらに具備し、上記圧縮データ出力部は、上記非基準フレームの予測における予測誤差として上記差分をさらに含む上記符号化データを出力してもよい。これにより、非基準フレームの予測における予測誤差として差分をさらに含む上記符号化データが出力されるという作用をもたらす。
また、本技術の第2の側面は、境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと上記複数の節点のいずれかが一端である複数の節点動きベクトルとを符号化データから上記基準フレームを取得する基準フレーム取得部と、上記基準フレームにおいて上記節点動きベクトルに従って上記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、上記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成部とを具備する復号装置、および、復号方法ならびに当該方法をコンピュータに実行させるためのプログラムである。これにより、基準フレームにおいて節点動きベクトルに従って位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームが予測フレームとして生成されるという作用をもたらす。
また、この第2の側面において、設定された拡大率に応じて上記基準フレームおよび上記予測フレームのいずれか少なくとも一部における上記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームを拡大フレームとして生成する拡大部をさらに具備してもよい。これにより、設定された拡大率に応じて位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームが拡大フレームとして生成されるという作用をもたらす。
また、この第2の側面において、上記基準フレームおよび上記予測フレームのいずれかにおいてマスク対象に指定された上記部分領域をマスクしたフレームを生成するマスク処理を行うマスク処理部と、上記マスクされたフレームに合成対象のフレームを合成する合成部とをさらに具備してもよい。これにより、マスク対象に指定された領域をマスクしたマスクフレームに合成対象のフレームが合成されるという作用をもたらす。
また、この第2の側面において、認識対象の物体の特徴量が指定されると上記基準フレームおよび上記予測フレームにおいて上記指定された特徴量に基づいて上記認識対象の物体を認識する物体認識部をさらに具備してもよい。これにより、特徴量に基づいて認識対象の物体が認識されるという作用をもたらす。
また、本技術の第3の側面は、境界線上に複数の節点が設けられた複数の領域に分割された基準フレームと上記複数の節点のいずれかが一端である複数の節点動きベクトルとを含む符号化データである。これにより、基準フレームにおいて節点動きベクトルに従って位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームが予測フレームとして生成されるという作用をもたらす。
本技術によれば、動画の画質が向上するという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
第1の実施の形態における撮像装置の一構成例を示すブロック図である。 第1の実施の形態における符号化部の一構成例を示すブロック図である。 第1の実施の形態における領域分割部の一構成例を示すブロック図である。 第1の実施の形態における符号化データのデータ構造の一例を示す図である。 第1の実施の形態における復号部の一構成例を示すブロック図である。 第1の実施の形態における符号化前の動画データと符号化データとの一例を示す図である。 第1の実施の形態における基準フレームおよび非基準フレームと節点と節点ごとの節点動きベクトルとの一例を示す図である。 第1の実施の形態における符号化処理の一例を示すフローチャートである。 第1の実施の形態における領域分割処理の一例を示すフローチャートである。 第1の実施の形態における復号処理の一例を示すフローチャートである。 変形例における画像処理システムの一例を示す斜視図である。 変形例における画像処理システムの一例を示すブロック図である。 変形例における符号化データを含むファイルのヘッダのデータ構成の一例を示す図である。 変形例における符号化データを含むファイルのヘッダの項目および概要の一例を示す図である。 第2の実施の形態における撮像装置の一構成例を示すブロック図である。 第2の実施の形態における解像度変換部の一構成例を示すブロック図である。 第2の実施の形態における拡大前後のフレームの一例を示す図である。 第2の実施の形態における解像度変換処理の一例を示すフローチャートである。 第3の実施の形態における領域結合部の一構成例を示すブロック図である。 第3の実施の形態における移動体を検出したフレームの一例を示す図である。 第3の実施の形態における符号化データのデータ構造の一例を示す図である。 第3の実施の形態における入力フレームの階層構造の一例を示す図である。 第3の実施の形態における画像処理装置の一構成例を示すブロック図である。 第3の実施の形態における合成前後のフレームの一例を示す図である。 第3の実施の形態における合成処理の一例を示すフローチャートである。 第4の実施の形態における画像処理装置の一構成例を示すブロック図である。 第4の実施の形態における検索処理を説明するための図である。 第4の実施の形態における検索処理の一例を示すフローチャートである。
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(基準フレームおよび節点動きベクトルを含む符号化データを生成する例)
2.第2の実施の形態(基準フレームおよび節点動きベクトルを含む符号化データを復号して拡大する例)
3.第3の実施の形態(基準フレームおよび節点動きベクトルを含む符号化データを復号して合成する例)
4.第4の実施の形態(基準フレームおよび節点動きベクトルを含む符号化データを復号して物体認識する例)
<1.第1の実施の形態>
[撮像装置の構成例]
図1は、第1の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、複数の画像を時系列順に含む動画を撮像する装置である。撮像装置100は、プロセッサ111、バス112およびビデオメモリ113、撮像素子114、RAM(Random Access Memory)115、ROM(Read Only Memory)116およびアナログフロントエンド117を備える。また、撮像装置100は、フレームメモリ118、記録媒体119、表示部120、インターフェース121、符号化部200および復号部300を備える。
プロセッサ111は、撮像装置100全体を制御するものである。バス112は、プロセッサ111、ビデオメモリ113、RAM115、ROM116、フレームメモリ118、記録媒体119、インターフェース121、符号化部200および復号部300が互いにデータをやりとりする共通の経路である。
ビデオメモリ113は、表示部120に表示されるデータを保持するものである。表示部120は、ビデオメモリ113に保持されたデータを表示するものである。RAM115は、プロセッサ111により実行されるプログラムや、処理に必要になるデータを一時的に記憶するための作業領域として用いられる。ROM116は、プロセッサ111により実行されるプログラムなどを記録するものである。
撮像素子114は、撮影対象を撮像して、アナログの画像信号を生成するものである。この撮像素子114は、生成した画像信号をアナログフロントエンド117に供給する。アナログフロントエンド117は、アナログの画像信号をデジタルの画像データ(以下、「フレーム」と称する。)に変換するものである。ここで、フレームは、二次元格子状に配列された複数の画素を含む。また、このアナログフロントエンド117は、フレームに対してCDS(Correlated Double Sampling)などのノイズ除去処理やデモザイク処理を行い、フレームメモリ118に保持させる。フレームメモリ118は、アナログフロントエンド117から供給されたフレームを保持するものである。
符号化部200は、複数のフレームを時系列に含む動画データを符号化するものである。ここで「符号化」とは、動画データを圧縮することを意味する。この符号化部200は、フレームメモリ118からバス112を介して順にフレームを読み出して、それらのフレームを含む動画データを取得する。符号化部200は、その動画データに対して符号化を行い、符号化データを生成する。そして、符号化部200は、符号化データを記録媒体119またはインターフェース121にバス112を介して供給する。なお、符号化部200は、フレームメモリ118から動画データを取得しているが、フレームメモリ118の代わりに記録媒体119またはインターフェース121から動画データを取得してもよい。
復号部300は、符号化データを復号するものである。この復号部300は、記録媒体119またはインターフェース121からバス112を介して符号化データを取得する。そして復号部300は、符号化データを、符号化前の元の動画データに復号する。復号部300は、復号した動画データをビデオメモリ113、記録媒体119およびインターフェース121のいずれかに供給する。
記録媒体119は、符号化データまたは動画データを記録するものである。例えば、SDカード(登録商標)、メモリースティック(登録商標)またはHDD(Hard Disk Drive)などが記録媒体119として用いられる。インターフェース121は、撮像装置100の外部の装置との間で、符号化データや動画データなどのデータを送受信するものである。例えば、HDMI(登録商標)(High-Definition Multimedia Interface)、USB(Universal Serial Bus)などのインターフェースがインターフェース121として用いられる。
なお、インターフェース121は、外部の装置との間で、データを送受信することができるものであれば、有線通信規格および無線通信規格のいずれのインターフェースであってもよい。例えば、IEEE(Institute of Electrical and Electronics Engineers)1394のインターフェースであってもよい。また、シリアルATA(Advanced Technology Attachment)、Thunderbolt(登録商標)やイーサネット(登録商標)のインターフェースであってもよい。また、ワイヤレスHDMI(登録商標)やIEEE802.11a/b/g/acのインターフェースであってもよい。また、CDMA(Code Division Multiple Access)やLTE(Long Term Evolution)のインターフェースであってもよい。また、WiMAX(Worldwide Interoperability for Microwave Access)のインターフェースであってもよい。また、XGP(eXtended Global Platform)やHSPA(High Speed Packet Access)のインターフェースであってもよい。また、DC−HSDPA(Dual Cell High Speed Downlink Packet Access)のインターフェースであってもよい。
また、撮像装置100は、撮像素子114およびアナログフロントエンド117と、符号化部200とを同じ装置に設ける構成としているが、この構成に限定されない。これらが別々の装置に設けられていてもよい。例えば、撮像装置に撮像素子114およびアナログフロントエンド117を設け、情報処理装置(パーソナルコンピューターなど)に符号化部200を設けてもよい。この構成では、撮像装置が撮像を行って情報処理装置に動画データを送信し、情報処理装置が符号化を行う。また、符号化部200および復号部300を別々の装置に設けてもよい。
また、撮像装置100は、特許請求の範囲に記載の符号化装置の一例である。また、撮像装置100は、特許請求の範囲に記載の復号装置の一例である。
[符号化部の構成例]
図2は、第1の実施の形態における符号化部200の一構成例を示すブロック図である。この符号化部200は、領域分割部210、符号化データ出力部201、動きベクトル検出部208およびフレームバッファ207を備える。
符号化データ出力部201は、動画データを符号化した符号化データを出力するものである。この符号化データ出力部201は、減算器202、整数変換部203、逆整数変換部204、加算器205、予測フレーム生成部206、エントロピー符号化部209および領域結合部220を備える。
領域分割部210は、バス112から複数のフレームのそれぞれを入力フレームとして取得し、入力フレームのそれぞれを特徴量の異なる複数の領域に分割するものである。ここで、特徴量としては、例えば、色やコントラストなどが用いられる。特徴量に基づいて1つのフレームを、複数の領域に分割する技術は領域分割(region segmentation)と呼ばれる。領域分割により分割した領域のそれぞれを以下、「部分領域」と称する。
領域分割において、領域分割部210は、フレームの色空間がRGB(Red Green Blue)色空間であればHSV(Hue Saturation Value)色空間に変換(以下、「HSV変換」と称する。)する。そして、領域分割部210は、HSV変換されたフレームに対して減色処理を行う。減色処理においては、例えば、256色が16色に減色される。なお、減色処理として、2色に減色する2値化を行えば、アルゴリズムが最も単純なもので済むが、2値化では色や階調の空間変化が大きくなりすぎるため望ましくない。
そして、領域分割部210は、減色後のフレームにおいて、画素ごとに特徴量を抽出し、その特徴量に基づいて、K平均アルゴリズムを使用した画素のクラスタリングを行う。K平均アルゴリズムは、クラスタの特徴量の平均を用いて、画素をK(Kは、整数)個のクラスタに分類するアルゴリズムである。
K平均アルゴリズムにおいて、画素のそれぞれは、まず、ランダムにK個のクラスタに割り当てられる。そして、領域分割部210は、クラスタごとに、そのクラスタの中心として特徴量の平均値を求める。平均値を求めた後、領域分割部210は、画素のそれぞれについて、その画素の特徴量と、平均値のそれぞれとの間のユークリッド距離を求め、そのユークリッド距離が最も近いクラスタに画素を割り当てなおす。割り当てなおした画素の個数が閾値未満であれば、領域分割部210は、K平均アルゴリズムを終了し、そうでない場合には、平均を求める処理に戻る。
領域分割部210は、Kに初期値(例えば、「2」)を設定して上述のK平均アルゴリズムを使用して、画素をK個のクラスタに分類する。そして、領域分割部210は、一定の終了条件が満たされるまで、KをインクリメントしてK平均アルゴリズムによるクラスタリングを繰り返し実行する。ここで、終了条件は、例えば、クラスタ数が上限値(例えば、「12」)を超えたことと、画素の割り当て直しの生じたクラスタの比率(エラー率)が許容比率(例えば、5%)未満になったこととのいずれかが満たされることである。このクラスタリングにより、入力フレームは、それぞれの領域において特徴量が一様な、任意形状の複数の領域に分割される。
上述のように、領域分割部210は、HSV変換、減色処理、および、K平均アルゴリズムによるクラスタリング処理を順に実行することにより領域分割処理を行っている。このように減色処理を含む領域分割処理によれば、部分領域内の色や階調の空間変化が低周波数化するため、後述する整数変換部203の処理においてフィッティングの精度が向上する効果が得られる。この処理の詳細は、「S.Sural, et al., "Segmentation and histogram generation using the hsv color space for image retrieval", 2002 Proc. of Int'l Conf. on Image Process, 2(2002), p.589.」に記載されている。
なお、領域分割部210は、HSV変換、減色処理、および、クラスタリング処理により領域分割を行っているが、この構成に限定されない。HSV変換後、減色処理を行わずにクラスタリングを行う方法を用いてもよい。その方法の詳細は、「M.Luo et al., "A Spatial Constrained K-Means Approach to Image Segmentation", Proc. of ICICS-PCM2003, 2(2003), p.738.」に記載されている。
また、領域分割部210は、HSV変換および減色処理を行わずに、クラスタリング処理のみにより領域分割を行ってもよい。あるいは、領域分割部210は、クラスタリング処理を行わずに、HSV変換や減色処理(二値化など)のみによって領域分割を行ってもよい。上述したように領域分割の方法は様々あり、処理速度との兼ね合いから、手法が選択される必要がある。
領域分割部210は、分割した部分領域のそれぞれに、その部分領域を識別するための領域ID(IDentification code)を付与する。また、領域分割部210は、部分領域ごとに、基準となる基準座標を求める。基準座標として、例えば、部分領域の重心の座標が求められる。領域分割部210は、部分領域ごとに、領域IDおよび基準座標を含む情報を領域情報として生成し、入力フレームに付加する。
そして、領域分割部210は、部分領域のそれぞれの境界線上に複数の節点を設ける。例えば、領域分割部210は、部分領域の境界線を多角形に近似し、その多角形の頂点に節点を設ける。なお、領域分割部210は、多角形近似により節点を設けているが、この構成に限定されない。例えば、領域分割部210は、境界線を一定間隔で複数の線分に分割し、その分割した点を節点としてもよい。
領域分割部210は、節点のそれぞれに、その節点を識別するための節点IDを付与する。また、領域分割部210は、部分領域のそれぞれに、その領域の境界線上の節点を対応付ける。領域分割部210は、節点ごとに、節点IDおよび節点座標を含む情報を節点情報として生成し、入力フレームに付加する。ここで、節点座標は、部分領域の基準座標を基準とした相対座標により表される。
領域分割部210は、領域情報および節点情報を付加した入力フレームを符号化データ出力部201および動きベクトル検出部208へ供給する。
動きベクトル検出部208は、節点ごとに節点動きベクトルを検出するものである。この動きベクトル検出部208は、まず、基準フレームをフレームバッファ207から取得する。この基準フレームは、動き予測において基準とされるフレームであり、動画において複数(例えば、「15」)のフレームからなるグループごとに、その中の1つが、基準フレームとして取得される。
また、動きベクトル検出部208は、入力フレームのうち、基準フレーム以外の非基準フレームを領域分割部210から取得する。動きベクトル検出部208は、基準フレーム上の複数の部分領域のそれぞれに対して、非基準フレーム上のいずれかの部分領域を、部分領域の類似度に基づいて対応付ける。
非基準フレームにおいて各部分領域には、類似度に基づいて対応付けられた基準フレーム内の部分領域の領域IDと同一の領域IDが付与される。しかし、基準フレーム内の部分領域について、非基準フレーム内の部分領域を対応付けることができない場合もありうる。この場合に動きベクトル検出部208は、その対応付けられない部分領域の領域IDを無効にし、新たな領域IDを付与する。
部分領域の類似度は、例えば、SSD(Sum of Squared Difference)またはSAD(Sum of Absolute Difference)により求められる。前者は、対応する画素の画素値の差分の二乗和であり、後者は、対応する画素の画素値の差分絶対値の和である。
具体的には、動きベクトル検出部208は、基準フレーム内のいずれかの部分領域を対象領域とし、一定形状の探索領域を非基準フレームにおいて設定する。ここで、探索領域は、非基準フレームにおいて、対応する部分領域を探索するための領域であり、例えば、対象領域の基準座標を中心としたM(Mは2以上の整数)×M画素の範囲が探索領域として設定される。動きベクトル検出部208は、探索領域内に基準座標が含まれる部分領域のそれぞれにおいて、対象領域内の各画素と相対座標が同一の画素を対応する画素として求める。そして、動きベクトル検出部208は、対応する画素の画素値の差分の二乗和(SSD)または差分の絶対値の和(SAD)を類似度として求める。
動きベクトル検出部208は、探索領域内において類似度が最も高い部分領域を、対象領域に対応する部分領域として取得する。そして、動きベクトル検出部208は、対象領域の境界線上の複数の節点のそれぞれに対して、その対象領域に対応する部分領域の境界線上の節点のうち距離が最も近い点座標の節点を対応付ける。
非基準フレームにおいて各節点には、類似度に基づいて対応付けられた基準フレーム内の節点の節点IDと同一の節点IDが付与される。しかし、基準フレーム内の節点について、非基準フレーム内の節点を対応付けることができない場合もありうる。この場合に動きベクトル検出部208は、その対応付けられない節点の節点IDを無効にし、新たな節点IDを付与する。
動きベクトル検出部208は、対応付けた節点の対を両端とするベクトルを節点動きベクトルとして節点の対ごとに求める。動きベクトル検出部208は、求めた節点動きベクトルを追加した節点情報を予測フレーム生成部206およびエントロピー符号化部209に供給する。このように、基準フレームおよび非基準フレームから、動きベクトルを求める処理は、動き予測と呼ばれる。
ここで、基準フレームは、時系列順において非基準フレームより過去のフレームであるものとする。このように過去の基準フレームから、非基準フレームの動きベクトルを求める動き予測は、前方予測と呼ばれる。一方、非基準フレームに対して未来のフレームを基準フレームとして、未来の基準フレームから、非基準フレームの動きベクトルを求める動き予測は、後方予測と呼ばれる。動きベクトル検出部208は、前方予測の代わりに後方予測を行ってもよいし、前方予測および後方予測の両方を行ってもよい。
また、動きベクトル検出部208は、SSDやSADを求めて部分領域の対応付けを行っているが、この構成に限定されない。例えば、動きベクトル検出部208は、部分領域上の各節点の座標や、部分領域内の色情報を予め定めた(Scale-Invariant Feature Transform)SIFT特徴量や色ベクトルなどのクラスタ中心を用いて符号化してもよい。そして、動きベクトル検出部208は、これらについてK平均法によるクラスタリングを行ってもよい。その詳細は、「Lowe, D.G., "Object recognition from local scale invariant features", Proc. of IEEE International Conference on Computer Vision (1999), pp.1150-1157.」に記載されている。この場合、同じクラスタに属する部分領域が優先して対応付けられ、対応する部分領域には同じ領域IDが付与される。この手法により、同じ領域IDを付与すべき部分領域を高い確率で抽出することができる。
予測フレーム生成部206は、基準フレームおよび節点動きベクトルに基づいて、非基準フレームを予測した予測フレームを生成するものである。この予測フレーム生成部206は、フレームバッファ207から基準フレームを取得し、基準フレーム内の部分領域のそれぞれについて、その境界線上の節点を、その節点に対応する節点動きベクトルに従って移動させる。予測フレーム生成部206は、節点動きベクトルに従って移動させた節点により囲まれた領域を予測フレームにおける部分領域として生成する。節点間の線分は、例えば直線補間アルゴリズムにより補間される。なお、予測フレーム生成部206は、直線補間以外の補間アルゴリズム(スプライン補間やベジェ補間などのアルゴリズム)により、節点間の線分を補間してもよい。
予測フレーム内の部分領域内の特徴量(色など)は、基準フレーム内の対応する部分領域と同一に設定される。このように、基準フレームと節点動きベクトルから、非基準フレームを生成する処理は、動き補償処理と呼ばれる。予測フレーム生成部206は、生成した部分領域からなる予測フレームを減算器202および加算器205へ供給する。
減算器202は、入力フレームと、その入力フレームに対応する予測フレームとの差分を求めるものである。この減算器202は、入力フレーム内の画素の画素値と、その画素に対応する予測フレーム内の画素の画素値との差分を画素ごとに求め、それらの差分からなるフレームを差分フレームとして整数変換部203に供給する。この差分フレームは、非基準フレームの予測における予測誤差を示す。また、減算器202は、必要に応じて、差分フレームを領域分割部210にも供給する。具体的には、領域分割部210が予測誤差に基づいて終了条件を変更する場合に、差分フレームが領域分割部210に供給される。
整数変換部203は、部分領域のそれぞれについて整数変換を行うものである。ここで、整数変換とは、部分領域の映像信号を整数精度で、周波数成分に変換(直交変換)することである。直交変換として、例えば、DCT(Discrete Cosine Transform:離散コサイン変換)やDHT(Discrete Hadamard Transform:離散アダマール変換)が用いられる。整数変換部203は、部分領域を整数精度DCTにより直流成分に変換し、その直流成分に対して必要に応じてDHTを行う。整数変換部203は、直交変換により得られた変換係数を逆整数変換部204およびエントロピー符号化部209に供給する。
なお、符号化部200は、部分領域を整数変換しているが、この構成に限定されない。符号化部200は、例えば、部分領域を実数精度のDCTにより周波数成分に変換してもよい。また、符号化部200は、周波数成分にフィッティングするためのものであれば整数変換やDCT以外の変換方式を用いることができる。例えば、符号化部200は、冪関数やフルーエンシー関数による変換を行ってもよい。フィッティングする対象の部分領域は、ブロックなどの一定形状ではなく、自由境界を持つ領域であるが、座標追加や座標変換などを行って、部分領域の正方化などを行えば、さほど問題にはならない。
逆整数変換部204は、変換係数を、整数変換前の元の部分領域に変換するものである。逆整数変換部204は、変換した部分領域を領域結合部220に供給する。
領域結合部220は、部分領域を結合して差分フレームを生成するものである。この領域結合部220は、生成した差分フレームを加算器205に供給する。
加算器205は、予測フレームに、その予測フレームに対応する差分フレームを加算するものである。この加算器205は、予測フレーム内の画素の画素値と、その画素に対応する差分フレーム内の画素の画素値との加算値を画素ごとに求め、それらの加算値の画素からなるフレームを入力フレームとしてフレームバッファ207に保持させる。フレームバッファ207は、入力フレームを保持するものである。
エントロピー符号化部209は、基準フレームおよび変換係数をエントロピー符号化するものである。このエントロピー符号化部209は、フレームバッファ207から基準フレームを取得し、その基準フレームおよび変換係数をエントロピー符号に符号化し、符号化データを生成する。エントロピー符号として、例えば、ハフマン符号が用いられる。なお、エントロピー符号は、算術符号であってもよい。エントロピー符号化部209は、生成した符号化データをバス112に供給する。
なお、符号化データ出力部201は、基準フレームおよび節点動きベクトルに加えて、予測誤差を示す変換係数を符号化しているが、変換係数を符号化せずに基準フレームおよび節点動きベクトルのみを符号化してもよい。CG(Computer Graphics)やアニメなど、予測誤差が少ない動画データであれば、変換係数を符号化しなくても動画の品質を維持しつつ、データ量を削減することができる。
また、符号化部200は、差分フレームのデータ量に基づいて新たな基準フレームを設定してもよい。例えば、符号化部200は、非基準フレームについての差分フレームのデータ量が許容値を超えた場合、その非基準フレームを新たな基準フレームとして設定する。符号化部200は、新たな基準フレームおよび非基準フレームにおいて領域および節点を対応付け、領域IDおよび節点IDの付け直しを行う。
また、領域分割部210は、予測誤差に関わらず、領域分割におけるクラスタリングの終了条件を一定としているが、予測誤差に基づいて終了条件を変更してもよい。この場合、領域分割部210は、差分データまたは変換係数を予測誤差として取得し、その予測誤差に応じた分割数が得られるように終了条件を変更する。具体的には、領域分割部210は、予測誤差が大きいほど、終了条件におけるクラスタ数の上限値を大きくし、予測誤差が少ないほど上限値を小さくする。あるいは、領域分割部210は、予測誤差が大きいほど、終了条件におけるエラー率についての許容比率を小さくし、予測誤差が少ないほど許容比率を大きくする。もしくは、領域分割部210は、上限値および許容比率を両方とも変更する。これにより、領域分割部210は、入力フレームを適切な個数に分割することができる。
また、領域分割部210は、差分フレームのデータ量が許容値を超える場合、差分フレームに対応する非基準フレーム内の一部に対して領域分割処理を繰り返してもよい。例えば、領域分割部210は、データ量が許容値を超える差分フレームにおいて予測誤差が規定値より大きい一部の区画だけを抽出する。そして、領域分割部210は、抽出した区画だけを対象区画として、差分フレームに対応する非基準フレーム内の対象区画を再度領域分割し、新たに生成された部分領域や、また、その対象区画内の節点にIDを振り直す。この際は、非基準フレーム内の対象区画以外に存在する部分領域や、そこに含まれる節点に関しては再度のIDの振り直しは不要になるため、新たな基準フレームを設定して全領域の領域分割処理を再度行うよりは処理時間を短くすることができる。
[領域分割部の構成例]
図3は、第1の実施の形態における領域分割部の一構成例を示すブロック図である。この領域分割部210は、HSV変換部211、減色処理部212、部分領域分割部213、領域情報付加部214および節点情報付加部215を備える。
HSV変換部211は、入力フレームにおいてHSV変換を行うものである。HSV変換部211は、HSV変換した入力フレームを減色処理部212に供給する。
減色処理部212は、HSV変換部211からの入力フレームに対し、減色処理を行うものである。減色処理部212は、減色処理を行った入力フレームを部分領域分割部213に供給する。
部分領域分割部213は、減色処理後の入力フレームを、特徴量の異なる複数の領域に分割するものである。部分領域分割部213は、分割した入力フレームを領域情報付加部214および節点情報付加部215に供給する。
領域情報付加部214は、HSV変換前の入力フレームに領域情報を付加するものである。領域情報付加部214は、分割された部分領域のそれぞれに入力フレーム内において一意な領域IDを付与し、部分領域ごとに基準座標を求めて、それらを含む領域情報を生成して入力フレームに付加する。領域情報付加部214は、領域情報を付加した入力フレームを節点情報付加部215に供給する。
節点情報付加部215は、領域情報が付加された入力フレームに節点情報をさらに付加するものである。節点情報付加部215は、部分領域ごとに、その境界線上に複数の節点を設け、節点のそれぞれに入力フレーム内において一意な領域IDを付与する。節点情報付加部215は、節点IDおよび節点座標を含む節点情報を節点ごとに生成して入力フレームに付加する。節点情報付加部215は、節点情報を付加した入力フレームを符号化データ出力部201および動きベクトル検出部208に供給する。
[符号化データの構成例]
図4は、第1の実施の形態における符号化データのデータ構造の一例を示す図である。符号化データは、タイトルおよび基本情報を含む。この基本情報は、動画データに関する情報であり、元画像のサイズや、エンコードバーション情報が格納される。
基本情報に対応付けて、入力フレームのそれぞれのフレーム情報が格納される。フレーム情報のそれぞれは、フレームID、基準画像サイズ、原点座標およびズーム倍率などを含む。フレームIDは、フレームを識別するための情報であり、動画内において一意な情報が付与される。これらのタイトル、基本情報およびフレーム情報は、符号化前の元の動画データに予め含まれていたものである。
フレーム情報のそれぞれに対応付けて、そのフレーム情報の示す入力フレーム内の複数の部分領域のそれぞれの領域情報が格納される。非基準フレームにおいて領域情報のそれぞれは、領域ID、基準座標および参照先領域IDを含む。ここで、非基準フレームの参照先領域IDは、同じグループ内の基準フレームにおいて対応付けられた部分領域の領域IDである。一方、基準フレームの参照先領域IDには無効な値が設定される。それぞれの参照先領域IDには、1つの領域IDが設定される。例えば、ある非基準フレームの領域IDが「A1」である部分領域の参照先領域IDが「A2」であれば、その非基準フレームの部分領域「A1」に対応する基準フレーム上の部分領域は「A2」である。
領域情報において領域IDおよび基準座標は、領域分割部210により生成される。また、参照先領域IDは、動きベクトル検出部208により生成される。また、領域情報は、エントロピー符号化部209により符号化されるが、図4において記載の便宜上、符号化前の状態のデータが記載されている。
そして、基準フレームの領域情報に対応付けて、その領域情報の示す領域の境界線上の複数の節点のそれぞれの節点情報と色情報とが格納される。一方、非基準フレームの領域情報には節点情報のみが対応付けられる。節点情報のそれぞれは、節点ID、節点座標、節点動きベクトルおよび隣接節点IDを含む。ただし、基準フレームにおいて全ての節点の節点動きベクトルには、零ベクトルが設定される。また、非基準フレームにおいて、全ての節点座標には無効な値が設定される。
ここで、隣接節点IDは、隣接する節点の節点IDである。隣接節点IDには、複数の節点IDが設定される。例えば、節点IDが「P1」である節点の隣接節点IDが「P2」および「P3」であれば、「P1」の節点は「P2」および「P3」の節点と接続される。そして、「P1」および「P2」を接続した線分と「P1」および「P3」を接続した線分とが境界線上の線分として描画される。
節点情報において、節点ID、節点座標および隣接節点IDは、領域分割部210により生成される。また、節点動きベクトルは、動きベクトル検出部208により生成される。また、節点情報は、エントロピー符号化部209により符号化されるが、図4において記載の便宜上、符号化前の状態のデータが記載されている。
色情報は、エントロピー符号化された部分領域のデータである。この色情報は、エントロピー符号化部209により生成される。なお、非基準フレームのそれぞれに対応付けて、変換係数がさらに格納されるが、図4において変換係数は省略されている。
[復号部の構成例]
図5は、第1の実施の形態における復号部300の一構成例を示すブロック図である。この復号部300は、エントロピー復号部301、予測フレーム生成部302、逆整数変換部303、加算器304および領域結合部305を備える。
エントロピー復号部301は、エントロピー符号化アルゴリズムに対応する復号アルゴリズムを使用して符号化データを復号するものである。復号により、基準フレームと、非基準フレームの領域情報および節点情報と、変換係数とが得られる。基準フレームには、基準フレームの領域情報および節点情報が付加されている。エントロピー復号部301は、その基準フレームをバス112および予測フレーム生成部302に供給し、非基準フレームの領域情報および節点情報を予測フレーム生成部302に供給する。また、エントロピー復号部301は、変換係数を逆整数変換部303に供給する。なお、エントロピー復号部301は、特許請求の範囲に記載の基準フレーム取得部の一例である。
予測フレーム生成部302の構成は、符号化部200における予測フレーム生成部206と同様である。生成された予測フレームには、フレーム情報、領域情報および節点情報が付加されている。この節点情報における節点座標には、基準フレームの節点を、非基準フレームの節点動きベクトルに従って移動させた節点の座標が設定される。予測フレーム生成部302は、その予測フレームを加算器304に供給する。逆整数変換部303の構成は、符号化部200における逆整数変換部204の構成と同様である。逆整数変換部303は、生成した部分領域を領域結合部305に供給する。
領域結合部305の構成は、符号化部200における領域結合部220の構成と同様である。領域結合部220は、生成した差分フレームを加算器304に供給する。加算器304の構成は、符号化部200における加算器205の構成と同様である。加算器304は、生成した入力フレームをバス112に供給する。
図6は、第1の実施の形態における符号化前の動画データと符号化データとの一例を示す図である。動画データは、複数の入力フレームを時系列順に含む。そして、L(Lは整数)+1個の入力フレームからなるグループごとに、1つの基準フレームが含まれる。そのグループにおいて、基準フレーム以外のL個の入力フレームは、非基準フレームとして扱われる。
これらのフレームは領域分割部210により領域分割され、動きベクトル検出部208により節点ごとに節点動きベクトルが求められる。そして、領域分割された基準フレームと節点動きベクトルとを含むデータがエントロピー符号化部209により符号化され、符号化データが生成される。一般に、節点動きベクトルのデータ量は、非基準フレームのデータ量に対して非常に少ない。このため、非基準フレームの代わりに節点動きベクトルを符号化した符号化データのデータ量は、動画データに対して非常に少なくなる。
図7は、第1の実施の形態における基準フレームおよび非基準フレームと節点と節点ごとの節点動きベクトルとの一例を示す図である。同図におけるaは、基準フレーム701の一例を示す図である。この基準フレーム701は、HSV変換処理および減色処理の後、複数の部分領域に分割される。記載の便宜上、HSV変換処理および減色処理を行った状態のフレームは省略されている。基準フレーム701の一部を拡大した矩形領域703には、四角形の部分領域と、五角形の部分領域とが含まれる。これらの部分領域以外の部分領域は、省略されている。部分領域のそれぞれの頂点に、白丸で表現された節点が設けられる。また、矩形領域703において黒丸の座標は、部分領域の基準座標を示す。
次に同7におけるbは、非基準フレーム702の一例を示す図である。この非基準フレーム702も、HSV変換処理および減色処理の後、複数の部分領域に分割される。非基準フレーム702において一部を拡大した矩形領域704には、四角形の部分領域が2つ含まれる。部分領域のそれぞれの頂点に節点が設けられる。
図7におけるcは、節点動きベクトルの一例を示す図である。矩形領域703内の節点に対して、矩形領域704内の節点が1対1で対応付けられる。そして、対応する節点を両端とするベクトルが節点動きベクトルとして検出される。例えば、基準フレーム内の節点を始点とし、非基準フレーム内の節点を終点とする節点動きベクトルが検出される。
このように、符号化部200が部分領域の境界線上の節点ごとに節点動きベクトルを求めることにより、入力フレーム間で部分領域の形状が変化しても、復号部300は、節点動きベクトルから変化後の部分領域の形状を予測することができる。
[撮像装置の動作例]
図8は、第1の実施の形態における符号化処理の一例を示すフローチャートである。この符号化処理は、例えば、動画データが符号化部200に入力されたときに開始される。符号化部200は、入力フレームを複数の領域に分割する領域分割処理を実行する(ステップS910)。符号化部200は、基準フレームおよび非基準フレームから、節点ごとに節点動きベクトルを検出する(ステップS901)。符号化部200は、基準フレームおよび節点動きベクトルに基づいて、予測フレームを生成する(ステップS902)。そして、符号化部200は、予測フレームおよび非基準フレームの差分フレームを生成する(ステップS903)。
符号化部200は、差分フレームを部分領域ごとに整数変換し(ステップS904)、基準フレームや節点動きベクトルをエントロピー符号化する(ステップS905)。符号化部200は、整数変換したデータを逆整数変換して元の部分領域を生成する(ステップS906)。そして、符号化部200は、部分領域を結合して差分フレームを生成し、その差分フレームおよび予測フレームから入力フレームを生成する(ステップS907)。符号化部200は、次の入力フレームがあるか否かを判断する(ステップS908)。次の入力フレームがある場合には(ステップS908:Yes)、符号化部200はステップS910に戻り、そうでない場合には(ステップS908:No)、符号化処理を終了する。
図9は、第1の実施の形態における領域分割処理の一例を示すフローチャートである。符号化部200は、入力フレームをHSV変換し(ステップS911)、減色処理を行う(ステップS912)。符号化部200は、HSV変換および減色処理後の入力フレームを、特徴量の異なる複数の部分領域に分割する(ステップS913)。符号化部200は、部分領域ごとに領域情報を生成して入力フレームに付加し(ステップS914)、節点ごとに節点情報を生成して入力フレームにさらに付加する(ステップS915)。ステップS915の後、符号化部200は、領域分割処理を終了する。
図10は、第1の実施の形態における復号処理の一例を示すフローチャートである。この復号処理は、例えば、符号化データが復号部300に供給されたときに開始する。復号部300は、エントロピー符号化アルゴリズムに対応する復号アルゴリズムにより符号化データを復号する(ステップS951)。復号部300は、変換係数を逆整数変換して複数の部分領域を生成し(ステップS952)、それらの部分領域を結合して差分フレームを生成する(ステップS953)。また、復号部300は、基準フレームと節点ごとの節点動きベクトルとから予測フレームを生成する(ステップS954)。そして、復号部300は、予測フレームおよび差分フレームを加算して非基準フレームを復号する(ステップS955)。復号部300は、最後の入力フレームを復号したか否かを判断する(ステップS956)。最後の入力フレームを復号した場合には(ステップS956:Yes)、復号処理を終了し、そうでない場合に(ステップS956:No)、復号部300はステップS952に戻る。
このように、本技術の第1の実施の形態によれば、撮像装置100は、フレームを特徴量の異なる複数の部分領域に分割し、それらの境界線上の節点ごとに動きベクトルを検出するため、ブロックに分割せずに動画を符号化することができる。これにより、ブロックノイズが生じなくなり、動画の画質が向上する。
[変形例]
第1の実施の形態では、撮像装置100が符号化データの復号を行う構成としていたが、撮像装置100の外部の装置が復号を行ってもよい。変形例の画像処理システムは、撮像装置100の外部の装置が符号化データの復号を行う点において第1の実施の形態と異なる。
図11は、変形例における画像処理システムの一例を示す斜視図である。この画像処理システムは、撮像装置100および表示装置400を備える。変形例の撮像装置100の構成は、第1の実施の形態と同様である。撮像装置100は、符号化データを表示装置400に信号線109を介して供給する。例えば、HDMI(登録商標)ケーブルが、信号線109として用いられる。
HDMI(登録商標)ケーブルの転送レートは、最大3Gbps(Giga bit per second)と大変高速であり、圧縮によりデータ量が削減された符号化データの転送は容易である。
表示装置400は、符号化データを元の動画データに復号して、その動画データ内のフレームを時系列順に表示するものである。
図12は、変形例における画像処理システムの一例を示すブロック図である。表示装置400は、表示部410および復号部420を備える。復号部420の構成は、撮像装置100における復号部300と同様である。復号部420は、符号化データを撮像装置100から取得し、元の動画データに復号して表示部410に供給する。表示部410は、動画データ内の入力フレームを時系列順に表示するものである。
符号化データの送受信において、撮像装置100は、表示装置400が復号可能な符号化方式を問い合わせるリクエストを送信し、表示装置400は、そのリクエストに応答してレスポンスを返信する。撮像装置100は、表示装置400が符号化データを復号できる場合には、その符号化データを転送する。転送方式は、パケット単位で転送するPES(Packetized Elementary Stream)による転送であってもよいし、転送しながら再生を行うプログレッシブ転送方式であってもよい。
なお、撮像装置100は、符号化データを表示装置400に転送しているが、信号線109の転送レートが十分に高速である場合には、復号した動画データを転送してもよい。この場合には、撮像装置100は、表示装置400が画面サイズなどを問い合わせるリクエストを送信し、表示装置400は、そのリクエストに応答してレスポンスを返信する。撮像装置100は、レスポンスに基づいて、符号化データを動画データに復号して、表示装置400に送信する。
図13は、変形例における符号化データを含むファイルのヘッダのデータ構成の一例を示す図である。同図に示すように、ヘッダには、「ftyp」などの情報が記載される。
図14は、変形例における符号化データを含むファイルのヘッダの項目および概要の一例を示す図である。同図に示すように、「ftyp」には、互換性に関する情報が記載される。
符号化データの圧縮フォーマットは、MPEG(Moving Picture Experts Group)とは異なるものであるが、ファイルフォーマットのヘッダ部分だけはMPEGに準拠可能である。撮像装置100は、図13および図14に例示したように、MPEG形式のヘッダを用い、そのヘッダ内の「ftype」に、符号化データを識別するコードを記載する。これにより、他方式のデコーダーでの符号化データの再生禁止と符号化データの規格に準拠したデコーダーへのファイルの取り込みが円滑になる。また、近年のビデオプレーヤーでは「ftype」部分を読み込んで、自動的にデコード形式を認識してからデコードし、動画を再生する製品もあることから、ビデオプレーヤーの利便性を高めることも可能である。
このように、第1の実施の形態の変形例によれば、撮像装置100が符号化データを復号せずに送信し、表示装置400が復号を行うため、復号してから送信する構成と比較して装置間の転送データ量を削減することができる。
<2.第2の実施の形態>
[撮像装置の構成例]
第1の実施の形態では、撮像装置100は、復号したフレームを拡大せずに出力していたが、このフレームを拡大(いわゆる、アップコンバート)して出力してもよい。今日のハイビジョンデジタルテレビ放送では通常の1080i、720pおよび1080pなどの解像度の動画が放送されているが、今後、4K、8Kと呼ばれる2160pや4320pなどの動画が放送される可能性がある。また、最近になって80インチの4Kテレビが発売されるなど、既存ハイビジョン放送のアップコンバージョン技術には、一定の必要性がある。第2の実施の形態の撮像装置100は、復号したフレームを拡大する点において第1の実施の形態と異なる。
図15は、第2の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、解像度変換部310をさらに備える点において第1の実施の形態と異なる。
解像度変換部310は、解像度の変換により、復号後の動画データ内の入力フレームの一部を拡大するものである。この入力フレームには、領域情報および節点情報が復号部300により付加されているものとする。解像度変換部310は、拡大したフレームをビデオメモリ113、記録媒体119またはインターフェース121へ供給する。
[解像度変換部の構成例]
図16は、第2の実施の形態における解像度変換部310の一構成例を示すブロック図である。この解像度変換部310は、拡大部311、補間アルゴリズム変更部312および縮小部313および減算器314を備える。
拡大部311は、復号後の入力フレームの一部を拡大するものである。拡大部311には、拡大率およびズーム範囲が設定される。ここで、ズーム範囲は、入力フレームのうち拡大する対象の範囲を示す。ズーム範囲は、例えば、ユーザの操作に従って設定される。また、拡大率は、例えば、ズーム範囲のサイズと拡大前の入力フレームのサイズとの比率に設定される。拡大部311は、バス112から入力フレームを取得し、その入力フレーム内のズーム範囲を拡大する。拡大において、拡大部311は、ズーム範囲内の節点のそれぞれの位置を、拡大率に応じて変更する。具体的には、節点座標が(x,y)であり、拡大率がr(rは実数)であると拡大部311は、(r×x,r×y)の座標に節点の位置を変更する。そして、拡大部311は、領域情報および節点情報に基づいて変更後の節点間を補間アルゴリズムにより線分で補間し、その線分により囲まれる新たな部分領域内に、その部分領域に対応する元の部分領域の色情報を設定する。ここで、拡大部311は、複数の補間アルゴリズム(直線補間アルゴリズム、ベジェ補間アルゴリズムおよびスプライン補間アルゴリズムなど)を記憶しており、それらの中のいずれかのアルゴリズムを用いる。拡大部311は、ズーム範囲を拡大したフレームを拡大フレームとして縮小部313に供給する。
縮小部313は、拡大フレームを縮小するものである。縮小部313は、拡大率および拡大フレームを受け取り、その拡大率の逆数を縮小率として拡大フレームを縮小する。縮小において、縮小部313は、拡大フレーム内の節点のそれぞれの位置を、縮小率に応じて変更する。そして、縮小部313は、領域情報および節点情報に基づいて変更後の節点間を補間アルゴリズムにより線分で補間し、その線分により囲まれる新たな部分領域内に、その部分領域に対応する元の部分領域の色情報を設定する。ここで、縮小部313においては、拡大部311と同様の補間アルゴリズムが用いられる。縮小部313は、縮小したフレームを縮小フレームとして減算器314に供給する。
減算器314は、入力フレームと、その入力フレームに対応する縮小フレームとの差分を求めるものである。減算器314は、入力フレーム内の画素の画素値と、その画素に対応するフレーム内の画素の画素値との差分を画素ごとに求め、それらの差分からなるフレームを差分フレームとして整数変換部203に供給する。この差分フレームは、補間における補間誤差を含む。
補間アルゴリズム変更部312は、補間誤差に基づいて補間アルゴリズムを変更するものである。この補間アルゴリズム変更部312は、差分フレームのうち、ズーム範囲内の画素値の統計量(例えば、平均値)を補間誤差として取得する。そして、補間アルゴリズム変更部312は、補間誤差に応じて、拡大部311および縮小部313における補間アルゴリズムを変更する。例えば、補間誤差が許容値より大きければ、補間アルゴリズム変更部312は、より精度の高い補間アルゴリズムに変更する。最も補間精度の高い補間アルゴリズムによっても補間誤差が許容値未満にならなかった場合には、補間アルゴリズム変更部312は、拡大部311に、変換処理の終了を通知する。
拡大部311は、補間アルゴリズム変更部312により、補間アルゴリズムが変更されなかった場合または変換処理の終了が通知された場合には、拡大フレームをバス112へ出力する。補間アルゴリズムが変更された場合には、拡大部311は、変更後の補間アルゴリズムを使用して再度、ズーム範囲を拡大して縮小部313に供給する。
なお、拡大部311は、入力フレーム内の一部(ズーム範囲)を拡大しているが、入力フレーム全体を拡大してもよい。
図17は、第2の実施の形態における拡大前後のフレームの一例を示す図である。同図におけるaは、拡大前の入力フレームの一例を示す図である。入力フレーム710においては、ユーザ等により、ズーム範囲711が指定される。このズーム範囲711には、部分領域712などの部分領域が含まれ、その境界線上には、部分領域712の一部を拡大した矩形領域713に示すように、複数の節点が設けられている。撮像装置100は、それらの節点のそれぞれの位置を、拡大率に応じて変更する。
図17におけるbは、拡大後の拡大フレーム720の一例を示す図である。この拡大フレーム720には、部分領域712に対応する部分領域722などの部分領域が含まれ、その境界線上には、部分領域722の一部を拡大した矩形領域723に示すように、複数の節点が設けられている。
領域情報および節点情報を用いずにフレームを拡大する場合、隣接する画素間に、解像度に応じた個数の新たな画素を補間するアルゴリズムが用いられる。このような拡大アルゴリズムでは、拡大率が大きいほど、被写体の輪郭がギザギザになるおそれがある。これをなめらかにするためにローパスフィルタなどを用いると、輪郭が不鮮明になってしまう。そこで、従来の画像処理装置では、輝度信号の輪郭を強調補正する輝度トランジェント補正(Luminance Transient Improver)回路などを用いて、エッジ部を強調する必要が生じていた。
これに対して、図17に例示したように、節点の位置を拡大率に応じて変更して、それらの節点間を補間する撮像装置100によれば、輝度トランジェント補正回路などを用いずとも、拡大率を高くした状態で輪郭を鮮明に描画することができる。
図18は、第2の実施の形態における解像度変換処理の一例を示すフローチャートである。この解像度変換処理は、例えば、解像度変換部310に入力フレームが入力されたときに開始する。解像度変換部310は、補間アルゴリズムを使用してズーム範囲を拡大して拡大フレームを生成し(ステップS961)、その拡大フレームを縮小する(ステップS962)。そして、解像度変換部310は、縮小フレームと元の入力フレームとの間の差分を算出し(ステップS963)、その差分が閾値未満であるか否かを判断する(ステップS964)。差分が閾値未満でない場合には(ステップS964:No)、解像度変換部310は、補間アルゴリズムを変更して(ステップS965)、ステップS961に戻る。差分が閾値未満である場合には(ステップS964:Yes)、解像度変換部310は、拡大フレームを出力して解像度変換処理を終了する。
このように、本技術の第2の実施の形態によれば、撮像装置100は、拡大率に応じて複数の節点のそれぞれの位置を変更して、それらの節点が設けられた線を境界線とする領域から拡大フレームを生成するため、境界線を鮮明に描画することができる。これにより、拡大フレームの画質が向上する。
<3.第3の実施の形態>
[領域結合部の構成例]
第1の実施の形態では、撮像装置100は、各フレームにおいて物体を検出していなかったが、動きベクトルが同一の部分領域の集合を1つの物体として検出することもできる。第3の実施の形態の撮像装置100は、物体を検出する点において第1の実施の形態と異なる。
図19は、第3の実施の形態における領域結合部220の一構成例を示すブロック図である。この領域結合部220は、差分フレーム生成部221および物体検出部222を備える。
差分フレーム生成部221は、部分領域を結合して差分フレームを生成するものである。この差分フレーム生成部221は、生成した差分フレームを物体検出部222に供給する。
物体検出部222は、領域動きベクトルが同一で隣接する部分領域を併合し、併合した領域を物体の領域(以下、「物体領域」と称する。)として検出するものである。ここで、領域動きベクトルは、対応する部分領域の対のそれぞれの基準座標を両端とするベクトルであり、動きベクトル検出部208により部分領域ごとに求められる。物体検出部222は、各入力フレームにおいて、領域動きベクトルが同一で隣接する部分領域同士を併合する処理を、結合可能な部分領域がなくなるまで繰り返し実行する。そして、物体検出部222は、併合した領域のそれぞれを物体領域として検出する。物体検出部222は、物体領域に対して、その内部の部分領域のそれぞれを対応付け、物体領域に入力フレーム内において一意な物体IDを付与する。
また、物体検出部222は、物体領域において基準となる座標(例えば、重心座標)を設定し、物体領域内の部分領域の各基準座標を、物体領域の基準座標を基準とした相対座標に置き換える。物体検出部222は、物体領域の物体IDおよび基準座標を含む物体情報を生成し、差分フレームにさらに付加して加算器205に供給する。
第2の実施の形態の動きベクトル検出部208は、領域動きベクトルに基づいて物体種別と、物体毎の物体動きベクトルとをさらに求める。物体動きベクトルには、その物体領域内の領域動きベクトルと同一の値が設定される。また、物体種別には、物体の種別を示す情報が設定される。例えば、物体動きベクトルの長さが閾値より長い物体は、物体種別に「移動体」が設定される。そして、領域動きベクトルの長さが閾値以下の物体領域のうち、基準フレームおよび非基準フレームにおいて対応する物体領域がある場合には、その物体領域には「背景」が設定され、そうでない場合には「その他」が設定される。例えば、ノイズ等が生じた領域や、フレーム間で背景が変化した場合には、対応する物体領域がないため、その領域に「その他」が設定される。
ここで、第1の実施の形態では、フレーム間で境界の形状が大きく歪んでしまうものに対しては、その特徴量がずれるために、対応する部分領域の抽出が困難になることがある。そこで、第2の実施の形態の動きベクトル検出部208は、領域動きベクトルを用いて、対応する部分領域の抽出精度を向上させることができる。
例えば、動きベクトル検出部208は、K平均法を用いたクラスタリングで同じ動きベクトルを持つ部分領域を抽出し、隣接フレーム間ではそれらの位置関係が大きく変化しないという仮定から特定の部分領域を抽出する。具体的には、動きベクトル検出部208は、SSDやSDにより各部分領域を対応付けて、それらの部分領域の領域動きベクトルの平均を用いてK平均アルゴリズムにより部分領域をクラスタリングする。クラスタリングにおいて、動きベクトル検出部208は、隣接する部分領域の組について、その組内の領域が異なるクラスタに属するか否かを検出する。そして、異なるクラスタに属する部分領域の組が一定数より多い場合には、動きベクトル検出部208は、同じクラスタに属する部分領域を優先して、部分領域の抽出をやり直す。

このような領域動きベクトルの平均によるクラスタリングによっても対応付けが不能な部分領域の発生も起こり得ると思われる。この場合には、動きベクトル検出部208は、その部分領域について参照先領域IDを無効な値にする。例えば、回り込みトラックのように被写体に対して3次元的に回転を伴うような撮像の場合、撮像開始時に存在した部分領域が被写体の裏側に回り込んでしまうことや、若しくはカメラが回り込むことから新たに部分領域が被写体の表側に現れることが起こり得る。この場合は、動きベクトル検出部208は、その部分領域の参照先領域IDを無効な値にし、そこから、また時間追跡を行えばよい。
図20は、第3の実施の形態における移動体を検出したフレームの一例を示す図である。同図におけるaは、部分領域のそれぞれの領域動きベクトルが検出された入力フレーム730の一例である。同図のaにおいて、白色の矢印は領域動きベクトルを示す。同図のaに示すように、同一の物体(同図のaでは、電車)内の部分領域のそれぞれの領域の領域動きベクトルは同一である。
図20におけるbは、物体が検出された入力フレーム730の一例である。撮像装置100は、領域動きベクトルが同一で隣接する部分領域同士を併合し、併合された領域を物体領域731として検出する。なお、物体領域が検出されるフレームは、実際には差分フレームであるが、同図においては、説明の便宜上、その差分フレームに対応する入力フレームが例示されている。
図21は、第3の実施の形態における符号化データのデータ構造の一例を示す図である。第3の実施の形態の符号化データにおいて、フレーム情報には、物体情報801が対応付けられる。この物体情報801は、物体ID、基準座標、物体動きベクトル、参照先物体IDおよび物体種別を含む。ここで、非基準フレームにおける参照先物体IDは、基準フレームにおいて対応する物体領域の物体IDである。一方、基準フレームにおいて、参照先物体IDには無効な値が設定される。
物体情報のうち、物体IDおよび基準座標は、物体検出部222により生成される。また、物体動きベクトル、物体種別および参照先物体IDは、動きベクトル検出部208により生成される。
また、物体情報に対応付けて、その物体情報の示す物体領域内の部分領域のそれぞれの領域情報が格納される。第3の実施の形態の領域情報は、領域動きベクトルをさらに含む。この領域動きベクトルは、動きベクトル検出部208により生成される。
図22は、第3の実施の形態における入力フレームの階層構造の一例を示す図である。同図に示すように、入力フレームには、移動体や背景の物体領域が対応付けられる。そしてそれぞれの物体領域には、その物体領域内の部分領域のそれぞれが対応付けられる。
[画像処理装置の構成例]
図23は、第3の実施の形態における画像処理装置500の一構成例を示すブロック図である。この画像処理装置500は、撮像装置100から符号化データを取得して復号し、復号したデータに対して所定の画像処理を行うものである。画像処理装置500は、復号部501、記憶部502、マスク処理部503および合成部504を備える。
復号部501の構成は、第1の実施の形態における復号部300と同様である。復号部501は、記憶部502から符号化データを読み出して復号して動画データを生成し、その動画データを記憶部502に供給する。記憶部502は、符号化データ、動画データおよび背景フレームを記憶するものである。ここで、背景フレームは、入力フレームと合成するためのフレームであり、予め記憶部502に格納されている。
マスク処理部503は、入力フレームにおいて、ユーザの操作などにより指定された物体領域をマスクするものである。例えば、移動体が、マスクする物体として指定される。このマスク処理部503は、入力フレームに付加された領域情報および節点情報に基づいてマスクする領域を求め、その領域をマスクしたフレームを生成して合成部504に供給する。
合成部504は、マスクされたフレームと背景フレームとを合成するものである。この合成部504には、合成の比率を示すアルファ値が設定される。合成部504には、その合成の比率に基づいて合成を行う。このような合成処理は、アルファブレンドと呼ばれる。合成部504は、合成したフレームを合成フレームとして、外部の表示装置などに出力する。
図24は、第3の実施の形態における合成前後のフレームの一例を示す図である。同図におけるaは、入力フレームの一例である。この入力フレームには物体情報および節点情報等が付加されている。入力フレーム751の一部を拡大した矩形領域752内の実線は、物体情報および節点情報の示す物体の境界線を示す。また、矩形領域752内の白丸は、節点情報の示す節点を示す。
図24におけるbは、マスクしたフレーム753の一例である。このフレーム753では、ユーザ等により馬がマスクする対象として指定され、画像処理装置500は、物体情報および節点情報に基づいて、その馬の領域をマスクしている。
図24におけるcは、合成する背景フレーム754の一例を示す図である。同図におけるdは、背景フレーム754と、マスクしたフレーム753とを合成した合成フレーム755の一例を示す図である。同図のdに示すように、入力フレーム751内の馬の領域が、背景フレーム754に合成された合成フレーム755が生成される。
ところで、現在、動画の編集は、コンピュータを用いたノンリニア編集が一般的である。近年では、アドビシステムズのソフトウェアであるAfter Effects(登録商標)などを使用して、パーソナルコンピュータ上でも動画編集が可能になり、一般消費者でも十分な機能を利用できるようになっている。この動画編集において、背景を差し替えるクロマキ―合成を行う従来の画像処理装置は、ブルーバックもしくはグリーンバックをキーとして用いてマスク処理を行う。そして、画像処理装置は、マスクしたフレームからアルファブレンドによる移動マスクを作成し、マスクする部分に背景を表示させることで背景の差し替えを可能にしている。
しかし、ブルーバックやグリーンバックを用いる場合、反射光などの影響を除去することができないため、映画撮影などではポストプロダクションによる手作業で移動マスクを作成し背景合成している例もある。このように、物体情報および節点情報を使用しない従来の画像処理装置では、マスク処理を自動で行うことが困難である。
これに対して、画像処理装置500は、入力フレームに付加された物体情報および節点情報を使用して、図24に例示したように、マスクする領域を容易に検出することができる。これにより、クロマキ―合成や手作業による移動マスクの作成が不要になり、作成動画の画質が向上し、また、動画製作のコストが低減する。
図25は、第3の実施の形態における合成処理の一例を示すフローチャートである。この合成処理は、例えば、マスクする物体が指定されたときに開始する。画像処理装置500は、物体情報および節点情報に基づいて、指定された物体をマスクするマスク処理を実行し(ステップS971)、マスクしたフレームに背景フレームを合成する(ステップS972)。ステップS972の後、画像処理装置500は合成処理を終了する。
このように第3の実施の形態によれば、画像処理装置500は、復号において基準フレームの節点と節点動きベクトルとから非基準フレームの節点の位置を求めるため、それらの節点からマスクする物体の輪郭を正確に取得することができる。そして、画像処理装置500は、その物体をマスクし、マスクしたフレームと合成対象のフレームとを合成するため、ユーザの手作業によらずに簡易に合成処理を行うことができる。
<4.第4の実施の形態>
[画像処理装置の構成例]
第3の実施の形態では、画像処理装置500は、入力フレームにおいて合成処理を行っていたが、合成処理の代わりに物体認識を行うこともできる。第4の実施の形態の画像処理装置500は、入力フレームにおいて物体認識を行う点において第3の実施の形態と異なる。
図26は、第4の実施の形態の画像処理装置500の一構成例を示すブロック図である。この画像処理装置500は、マスク処理部503および合成部504の代わりに物体認識部505を備える点において第3の実施の形態と異なる。
物体認識部505は、入力フレームにおいて、ユーザなどにより指定された物体を認識するものである。この物体認識部505には、検索対象の物体が入力される。画像処理装置500は、タッチパネル(不図示)などを有し、物体の入力においてタッチパネル上に入力フレームを表示する。その表示された入力フレームにおいて、ユーザが物体のいずれかを指で触れる操作などにより指定すると、その物体の画像データおよび物体情報が検索対象(言い換えれば、認識対象)として物体認識部505に入力される。このように、物体認識において認識対象とされる物体の領域は、ROI(Region of Interest:関心領域)と呼ばれる。
物体認識部505は、入力された画像データの特徴量および物体種別を取得し、その特徴量および物体種別に基づいて、動画データ内の各入力フレームにおいて、検索対象の物体を検索する。この検索処理において、物体認識部505は、物体種別が同一の物体を優先して認識する。また、物体認識部505は、特徴量の類似度が高い物体領域を優先して認識する。物体認識部505は、物体を認識した入力フレームにおいて、認識した物体の境界線を強調表示するなどの処理を行い、出力フレームとして表示装置などに出力する。
第3の実施の形態において例示したように、復号した動画データにおいて物体情報が入力フレームに付加されているため、物体認識部505は、物体種別が同一の物体を優先して認識することができる。また、入力フレームに節点情報が付加されているため、ROIの抽出が容易となる。これにより、物体の認識精度が向上する。
なお、画像処理装置500に対するユーザの操作により検索対象の物体の画像データが入力される構成としているが、画像処理装置500の外部の装置から画像データを受信する構成としてもよい。例えば、画像処理装置500の機能をネットワークに接続されたサーバに搭載し、サーバは、そのネットワークを介して検索対象の画像データを移動体通信端末等から受信する。一般に、物体認識処理は負荷の大きい処理であり、移動体通信機器などの情報処理能力では対応できないこともある。この場合などに、サーバが物体認識を行う通信システムが用いられる。
この通信システムにおいて、移動体端末は、入力フレームに付加された物体情報および節点情報に基づいて、ユーザの操作に従って検索対象の物体領域を検出し、サーバに、その物体の画像データを送信する。これにより、ネットワーク上に物体認識に必要な最小限の情報だけを送ることが可能になる。転送される情報量が減ることにより、通信速度の遅い回線でも実使用上問題とならない時間で画像データを転送することが可能になる。また、情報トラフィック量が減ることによりネットワークの負荷が低減する。
図27は、第4の実施の形態における検索処理を説明するための図である。同図におけるaは、動画データ内の入力フレームの一例である。この動画データには、様々な移動体や背景が撮像された入力フレーム761、763および765等が含まれる。これらの入力フレームには、物体情報および節点情報が付加されている。入力フレーム761、763および765のそれぞれの一部を拡大した矩形領域762、764および766内の実線は、物体情報および節点情報の示す物体の境界線を示す。また、矩形領域762、764および766内の白丸は、節点情報の示す節点を示す。
図27におけるbは、検索結果として出力された出力フレーム770の一例を示す図である。検索対象として馬の画像データが入力されると、画像処理装置500は、その画像データの特徴量を取得し、入力フレームの各々において、その特徴量に基づいて、検索対象の物体を検索する。このうち入力フレーム763において、画像処理装置500は、検索対象の物体領域が認識される。画像処理装置500は、認識した物体の境界線を強調表示するなどの処理を行い、出力フレーム770として出力する。出力フレーム770において、輪郭線771は、強調表示された部分である。
図28は、第4の実施の形態における検索処理の一例を示すフローチャートである。この検索処理は、例えば、画像処理装置500において、検索処理を実行するためのアプリケーションが実行されたときに開始する。画像処理装置500は、検索対象の物体の入力を受け付ける(ステップS981)。物体が入力されると、画像処理装置500は、その物体の特徴量に基づいて、動画データ内の各入力フレームにおいて、物体を認識する(ステップS982)。画像処理装置500は、物体を認識した入力フレームを出力する(ステップS983)。ステップS983の後、画像処理装置500は、検索処理を終了する。
このように、第4の実施の形態によれば、画像処理装置500は、復号において基準フレームの節点と節点動きベクトルとから非基準フレームの節点の位置を求めるため、それらの節点から検索対象の物体の輪郭を正確に取得することができる。そして、画像処理装置500は、動画データ内の各フレームにおいて、その検索対象の物体を認識するため、検索対象の物体を含むフレームを容易に抽出することができる。
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
なお、本技術は以下のような構成もとることができる。
(1)時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割部と、
前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部と、
前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力部と
を具備する符号化装置。
(2)前記基準フレーム上の前記部分領域において基準になる基準座標と前記非基準フレーム上の前記部分領域において基準になる基準座標とを両端とするベクトルを前記部分領域ごとに領域動きベクトルとして取得して前記領域動きベクトルが同一で隣接する前記部分領域同士を併合する領域併合部をさらに具備し、
前記符号化データ出力部は、前記併合された部分領域を物体領域として示す情報をさらに含む前記符号化データを出力する
前記(1)記載の符号化装置。
(3)前記領域分割部は、前記部分領域内のいずれかの座標を基準とする相対座標を前記節点ごとに示す節点情報をさらに生成し、
前記動きベクトル検出部は、前記基準フレーム上の前記節点の相対座標と前記非基準フレーム上の前記節点の相対座標との距離を前記節点ごとに求めて当該距離が最も近い前記節点同士を対応付ける
前記(1)または(2)記載の符号化装置。
(4)前記基準フレームにおいて前記動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームを、前記非基準フレームを予測した予測フレームとして生成する予測フレーム生成部と、
前記予測フレームと前記非基準フレームとにおいて対応する画素の画素値の差分を画素ごとに検出する差分検出部と
をさらに具備し、
前記圧縮データ出力部は、前記非基準フレームの予測における予測誤差として前記差分をさらに含む前記符号化データを出力する
前記(1)から(3)のいずれかに記載の符号化装置。
(5)境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを符号化データから前記基準フレームを取得する基準フレーム取得部と、
前記基準フレームにおいて前記節点動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、前記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成部と
を具備する復号装置。
(6)設定された拡大率に応じて前記基準フレームおよび前記予測フレームのいずれか少なくとも一部における前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームを拡大フレームとして生成する拡大部をさらに具備する
前記(5)記載の復号装置。
(7)前記基準フレームおよび前記予測フレームのいずれかにおいてマスク対象に指定された前記部分領域をマスクしたフレームを生成するマスク処理を行うマスク処理部と、
前記マスクされたフレームに合成対象のフレームを合成する合成部と
をさらに具備する前記(5)または(6)に記載の復号装置。
(8)認識対象の物体の特徴量が指定されると前記基準フレームおよび前記予測フレームにおいて前記指定された特徴量に基づいて前記認識対象の物体を認識する物体認識部をさらに具備する
前記(5)から(7)のいずれかに記載の復号装置。
(9)境界線上に複数の節点が設けられた複数の領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを含む符号化データ。
(10)領域分割部が、時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割手順と、
動きベクトル検出部が、前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部手順と、
符号化データ出力部が、前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力手順と
を具備する符号化方法。
(11)符号化データ取得部が、境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを含むデータを符号化データとして取得する符号化データ取得手順と、
予測フレーム生成部が、前記基準フレームにおいて前記節点動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、前記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成手順と
を具備する復号方法。
(13)領域分割部が、時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割手順と、
動きベクトル検出部が、前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部手順と、
符号化データ出力部が、前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力手順と
をコンピュータに実行させるプログラム。
(14)符号化データ取得部が、境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを含むデータを符号化データとして取得する符号化データ取得手順と、
予測フレーム生成部が、前記基準フレームにおいて前記節点動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、前記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成手順と
をコンピュータに実行させるプログラム。
100 撮像装置
120 表示部
121 インターフェース
200 符号化部
201 符号化データ出力部
202、314 減算器
203 整数変換部
204、303 逆整数変換部
205、304 加算器
206、302 予測フレーム生成部
207 フレームバッファ
208 動きベクトル検出部
209 エントロピー符号化部
210 領域分割部
211 HSV変換部
212 減色処理部
213 部分領域分割部
214 領域情報付加部
215 節点情報付加部
220 領域結合部
221 差分フレーム生成部
222 物体検出部
300、420、501 復号部
301 エントロピー復号部
305 領域結合部
310 解像度変換部
311 拡大部
312 補間アルゴリズム変更部
313 縮小部
400 表示装置
410 表示部
500 画像処理装置
502 記憶部
503 マスク処理部
504 合成部
505 物体認識部

Claims (12)

  1. 時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割部と、
    前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部と、
    前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力部と
    前記基準フレーム上の前記部分領域において基準になる基準座標と前記非基準フレーム上の前記部分領域において基準になる基準座標とを両端とするベクトルを前記部分領域ごとに領域動きベクトルとして取得して前記領域動きベクトルが同一で隣接する前記部分領域同士を併合する領域併合部と
    を具備し、
    前記符号化データ出力部は、前記併合された部分領域を物体領域として示す情報をさらに含む前記符号化データを出力する
    符号化装置。
  2. 時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割部と、
    前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部と、
    前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力部と
    を具備し、
    前記領域分割部は、前記部分領域内のいずれかの座標を基準とする相対座標を前記節点ごとに示す節点情報をさらに生成し、
    前記動きベクトル検出部は、前記基準フレーム上の前記節点の相対座標と前記非基準フレーム上の前記節点の相対座標との距離を前記節点ごとに求めて当該距離が最も近い前記節点同士を対応付ける
    号化装置。
  3. 前記基準フレームにおいて前記動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームを、前記非基準フレームを予測した予測フレームとして生成する予測フレーム生成部と、
    前記予測フレームと前記非基準フレームとにおいて対応する画素の画素値の差分を画素ごとに検出する差分検出部と
    をさらに具備し、
    前記符号化データ出力部は、前記非基準フレームの予測における予測誤差として前記差分をさらに含む前記符号化データを出力する
    請求項記載の符号化装置。
  4. 境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを含む符号化データから前記基準フレームを取得する基準フレーム取得部と、
    前記基準フレームにおいて前記節点動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、前記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成部と
    設定された拡大率に応じて前記基準フレームおよび前記予測フレームのいずれかの少なくとも一部における前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームを拡大フレームとして生成する拡大部と
    を具備する復号装置。
  5. 境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを含む符号化データから前記基準フレームを取得する基準フレーム取得部と、
    前記基準フレームにおいて前記節点動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、前記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成部と、
    前記基準フレームおよび前記予測フレームのいずれかにおいてマスク対象に指定された前記部分領域をマスクしたフレームを生成するマスク処理を行うマスク処理部と、
    前記マスクされたフレームに合成対象のフレームを合成する合成部と
    を具備する復号装置。
  6. 境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを含む符号化データから前記基準フレームを取得する基準フレーム取得部と、
    前記基準フレームにおいて前記節点動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、前記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成部と、
    認識対象の物体の特徴量が指定されると前記基準フレームおよび前記予測フレームにおいて前記指定された特徴量に基づいて前記認識対象の物体を認識する物体認識部
    を具備する復号装置。
  7. 領域分割部が、時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割手順と、
    動きベクトル検出部が、前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部手順と、
    符号化データ出力部が、前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力手順と
    領域不併合部が、前記基準フレーム上の前記部分領域において基準になる基準座標と前記非基準フレーム上の前記部分領域において基準になる基準座標とを両端とするベクトルを前記部分領域ごとに領域動きベクトルとして取得して前記領域動きベクトルが同一で隣接する前記部分領域同士を併合する領域併合手順と
    を具備し、
    前記符号化データ出力部は、前記併合された部分領域を物体領域として示す情報をさらに含む前記符号化データを出力する
    号化方法。
  8. 領域分割部が、時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割手順と、
    動きベクトル検出部が、前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部手順と、
    符号化データ出力部が、前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力手順と
    を具備し、
    前記領域分割部は、前記部分領域内のいずれかの座標を基準とする相対座標を前記節点ごとに示す節点情報をさらに生成し、
    前記動きベクトル検出部は、前記基準フレーム上の前記節点の相対座標と前記非基準フレーム上の前記節点の相対座標との距離を前記節点ごとに求めて当該距離が最も近い前記節点同士を対応付ける
    符号化方法。
  9. 符号化データ取得部が、境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを含むデータを符号化データとして取得する符号化データ取得手順と、
    予測フレーム生成部が、前記基準フレームにおいて前記節点動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、前記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成手順と
    拡大部が、設定された拡大率に応じて前記基準フレームおよび前記予測フレームのいずれかの少なくとも一部における前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームを拡大フレームとして生成する拡大手順と
    を具備する復号方法。
  10. 領域分割部が、時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割手順と、
    動きベクトル検出部が、前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部手順と、
    符号化データ出力部が、前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力手順と
    領域不併合部が、前記基準フレーム上の前記部分領域において基準になる基準座標と前記非基準フレーム上の前記部分領域において基準になる基準座標とを両端とするベクトルを前記部分領域ごとに領域動きベクトルとして取得して前記領域動きベクトルが同一で隣接する前記部分領域同士を併合する領域併合手順と
    をコンピュータに実行させるためのプログラムであって
    前記符号化データ出力部は、前記併合された部分領域を物体領域として示す情報をさらに含む前記符号化データを出力する
    プログラム。
  11. 領域分割部が、時系列順に複数のフレームを含む符号化対象の動画において前記複数のフレームのそれぞれを特徴量の異なる複数の部分領域に分割して前記複数の部分領域のそれぞれの境界線上に複数の節点を設ける領域分割手順と、
    動きベクトル検出部が、前記複数のフレームのうち基準になる基準フレーム上の前記複数の節点のそれぞれに対して前記基準フレーム以外の非基準フレーム上のいずれかの前記節点を対応付けて当該対応付けた節点の対を両端とするベクトルを節点動きベクトルとして前記節点の対ごとに検出する動きベクトル検出部手順と、
    符号化データ出力部が、前記基準フレームおよび前記節点動きベクトルを含むデータを、前記動画を符号化した符号化データとして出力する符号化データ出力手順と
    をコンピュータに実行させるためのプログラムであって
    前記領域分割部は、前記部分領域内のいずれかの座標を基準とする相対座標を前記節点ごとに示す節点情報をさらに生成し、
    前記動きベクトル検出部は、前記基準フレーム上の前記節点の相対座標と前記非基準フレーム上の前記節点の相対座標との距離を前記節点ごとに求めて当該距離が最も近い前記節点同士を対応付ける
    プログラム。
  12. 符号化データ取得部が、境界線上に複数の節点が設けられた複数の部分領域に分割された基準フレームと前記複数の節点のいずれかが一端である複数の節点動きベクトルとを含むデータを符号化データとして取得する符号化データ取得手順と、
    予測フレーム生成部が、前記基準フレームにおいて前記節点動きベクトルに従って前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする部分領域からなるフレームを、前記非基準フレーム以外のフレームを予測した予測フレームとして生成する予測フレーム生成手順と
    拡大部が、設定された拡大率に応じて前記基準フレームおよび前記予測フレームのいずれかの少なくとも一部における前記複数の節点のそれぞれの位置を変更して当該位置を変更した複数の節点が設けられた線を境界線とする新たな部分領域からなるフレームを拡大フレームとして生成する拡大手順と
    をコンピュータに実行させるプログラム。
JP2013223831A 2013-10-29 2013-10-29 符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラム Expired - Fee Related JP6102680B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013223831A JP6102680B2 (ja) 2013-10-29 2013-10-29 符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラム
US14/521,268 US20150117540A1 (en) 2013-10-29 2014-10-22 Coding apparatus, decoding apparatus, coding data, coding method, decoding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013223831A JP6102680B2 (ja) 2013-10-29 2013-10-29 符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015088805A JP2015088805A (ja) 2015-05-07
JP6102680B2 true JP6102680B2 (ja) 2017-03-29

Family

ID=52995442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013223831A Expired - Fee Related JP6102680B2 (ja) 2013-10-29 2013-10-29 符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラム

Country Status (2)

Country Link
US (1) US20150117540A1 (ja)
JP (1) JP6102680B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10051281B2 (en) * 2014-05-22 2018-08-14 Apple Inc. Video coding system with efficient processing of zooming transitions in video
US9911061B2 (en) 2015-06-07 2018-03-06 Apple Inc. Fast histogram-based object tracking
KR102126511B1 (ko) * 2015-09-02 2020-07-08 삼성전자주식회사 보충 정보를 이용한 영상 프레임의 보간 방법 및 장치
WO2017043766A1 (ko) * 2015-09-10 2017-03-16 삼성전자 주식회사 비디오 부호화, 복호화 방법 및 장치
CN107305692B (zh) * 2016-04-14 2021-01-26 上海乐相科技有限公司 一种确定待测对象的运动信息的方法及装置
CN106658027B (zh) * 2016-11-28 2019-05-24 北京理工大学 背景帧的码率控制方法和装置
WO2019124191A1 (ja) * 2017-12-18 2019-06-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN109934881B (zh) 2017-12-19 2022-02-18 华为技术有限公司 图像编码方法、动作识别的方法及计算机设备
US10637100B2 (en) 2018-04-20 2020-04-28 Ut-Battelle, Llc Fabrication of films and coatings used to activate shear thickening, impact resistant electrolytes
CA3141303A1 (en) 2018-05-30 2019-12-05 Digitalinsights Inc. Image encoding/decoding method and device
CN108898086B (zh) * 2018-06-20 2023-05-26 腾讯科技(深圳)有限公司 视频图像处理方法及装置、计算机可读介质和电子设备
US11587208B2 (en) * 2021-05-26 2023-02-21 Qualcomm Incorporated High quality UI elements with frame extrapolation
WO2023068126A1 (ja) 2021-10-19 2023-04-27 ソニーグループ株式会社 学習装置、データ加工装置、パラメータ生成装置、学習方法、データ加工方法及びパラメータ生成方法
WO2024066123A1 (en) * 2022-09-28 2024-04-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Lossless hierarchical coding of image feature attributes

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2616552B2 (ja) * 1993-12-28 1997-06-04 日本電気株式会社 動画像の符号化・復号化装置
JP3694349B2 (ja) * 1995-09-13 2005-09-14 株式会社大宇エレクトロニクス 輪郭符号化装置
JPH10108198A (ja) * 1996-09-30 1998-04-24 Sanyo Electric Co Ltd 画像領域統合方法
JP3956431B2 (ja) * 1997-06-17 2007-08-08 富士フイルム株式会社 合成写真機能付き電子カメラ
JP2000209580A (ja) * 1999-01-13 2000-07-28 Canon Inc 画像処理装置およびその方法
JP3711022B2 (ja) * 2000-12-28 2005-10-26 株式会社東芝 動画像内の特定物体認識方法及び装置
US9438928B2 (en) * 2012-11-05 2016-09-06 Lifesize, Inc. Mechanism for video encoding based on estimates of statistically-popular motion vectors in frame

Also Published As

Publication number Publication date
JP2015088805A (ja) 2015-05-07
US20150117540A1 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
JP6102680B2 (ja) 符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラム
JP7422841B2 (ja) Mpmリストを使用するイントラ予測基盤画像コーディング方法及びその装置
US7889974B2 (en) Method and apparatus for editing images, and method and apparatus for reproducing the edited images
TW202002657A (zh) 成分依賴的子區塊分割
JP7436543B2 (ja) 画像符号化システムにおいてアフィンmvp候補リストを使用するアフィン動き予測に基づいた画像デコード方法及び装置
CN111247805B (zh) 在图像编码系统中基于以子块为单元进行的运动预测的图像解码方法和设备
WO2012147621A1 (ja) 符号化装置および符号化方法、並びに、復号装置および復号方法
JP6883219B2 (ja) 符号化装置及び符号化方法、並びに、システム
JP2013031163A (ja) 超解像処理装置及び超解像処理方法
WO2020008724A1 (ja) 画像処理装置、画像処理方法及びプログラム
KR20170091323A (ko) 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
WO2010084736A1 (ja) 映像記述子生成装置
JP2024038444A (ja) ルママッピングベースのビデオまたは映像コーディング
CN111406404B (zh) 获得视频文件的压缩方法、解压缩方法、系统及存储介质
JP6090430B2 (ja) 符号化装置、方法、プログラム、コンピュータシステム、記録媒体
JP5484132B2 (ja) 映像処理装置及びその制御方法
JP5070179B2 (ja) シーン類似判定装置、そのプログラム及びサマリ映像生成システム
JP2018147019A (ja) オブジェクト抽出装置、オブジェクト認識システム及びメタデータ作成システム
EP3541078B1 (en) Determining spatial resolution of coded video
RU2812840C2 (ru) Способ и устройство декодирования изображения для выведения информации индекса веса для генерации выборки предсказания
JP2018107683A (ja) 動画像符号化装置及び動画像復号装置
JP4881045B2 (ja) 動画生成装置、動画生成方法、及びプログラム
SHEKHAR et al. Signal transmission optimization moving-vector classification Mpeg standard video coding
EP4285363A1 (en) A method and an apparatus for editing multiple video shots
JP6316640B2 (ja) 映像記録装置、映像再生装置及び映像記録プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R151 Written notification of patent or utility model registration

Ref document number: 6102680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees