JP2015053669A - 映像処理装置及び方法 - Google Patents

映像処理装置及び方法 Download PDF

Info

Publication number
JP2015053669A
JP2015053669A JP2014083549A JP2014083549A JP2015053669A JP 2015053669 A JP2015053669 A JP 2015053669A JP 2014083549 A JP2014083549 A JP 2014083549A JP 2014083549 A JP2014083549 A JP 2014083549A JP 2015053669 A JP2015053669 A JP 2015053669A
Authority
JP
Japan
Prior art keywords
video
live
action space
matching
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014083549A
Other languages
English (en)
Inventor
洛 禹 金
Nac Woo Kim
洛 禹 金
致 得 安
Chie-Deuk Ahn
致 得 安
炳 卓 李
Byung Tak Lee
炳 卓 李
▲英▼ 善 金
Young Sun Kim
▲英▼ 善 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2015053669A publication Critical patent/JP2015053669A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】映像を圧縮し伝送する映像処理装置及び方法とシステムに関する技術が開示される。【解決手段】映像処理装置は、少なくとも1つの映像獲得装置が獲得した入力映像とデータベース(DB)にあらかじめ格納された実写空間映像データを提供され、入力映像と実写空間映像データとのマッチングを通じて重畳領域を抽出する重畳領域抽出部と、重畳領域を基盤として実写空間映像データに含まれた情報に基づく参照フレームを利用して入力映像を圧縮する映像圧縮部とを含む。【選択図】図2

Description

本発明は、映像処理装置に関し、さらに詳細には、重畳領域を基盤として多視点(multi−view point)映像を圧縮し伝送する映像処理装置及び方法に関する。
映像処理装置は、映像を圧縮し伝送する装置であって、多数のカメラから映像をリアルタイムで提供されて圧縮し、圧縮された映像をユーザ端末に提供することができる。特に、このような映像処理装置は、映像監視システムに多く使用される。
映像監視システムは、任意の場所に配置される多数のカメラから映像ストリームを提供されて、それぞれの映像ストリームごとに圧縮を行い、圧縮されたそれぞれの映像ストリームをネットワークを通じて個別ストリーミングする方式を多く利用する。
しかし、このような方式は、最近、急激に増加しているCCTVに起因して映像監視システムに多いトラフィックを発生させる。また、以後にFHD級画質のCCTVが幅広く普及され、地域別統合官制システムが活性化される場合、映像監視システムにさらに多くのトラフィックが発生することができる。
また、他の方式として、標準基盤のMVC(Multiview Video Coding)を利用することができる。MVCは、1D/2D配列形態で配置された多数のカメラで提供される映像を圧縮し伝送することができる。すなわち、MVCは、あらかじめ定められたカメラの整列位置、幾何情報及びパラメータなどを利用して多視点基盤で映像を圧縮するか、または中間映像を補間することができる。
しかし、多数のカメラから任意の視点(view point)で獲得された映像は、相互間の空間的相関関係がないため、予測構造が出ないので、標準基盤のMVCを利用して圧縮しにくいという短所がある。
前述したような問題点を解決するために、本発明の目的は、重畳領域を基盤として多視点映像を圧縮し伝送する装置を提供することにある。
本発明の他の目的は、重畳領域を基盤として多視点映像を圧縮し伝送する方法を提供することにある。
上記目的を達成するために、本発明の実施例による映像処理装置は、少なくとも1つの映像獲得装置が獲得した入力映像とデータベース(DB)にあらかじめ格納された実写空間映像データを提供されて、前記入力映像と前記実写空間映像データとのマッチングを通じて重畳領域を抽出する重畳領域抽出部と、前記重畳領域を基盤として前記実写空間映像データに含まれた情報に基づく参照フレームを利用して前記入力映像を圧縮する映像圧縮部とを含む。
ここで、前記映像圧縮部は、前記入力映像から前記重畳領域が含まれた前記参照フレームを差分した差分映像を圧縮することができる。
ここで、前記映像圧縮部は、前記重畳領域が含まれた前記参照フレームを利用した時空間予測符号化を行い、予測フレームを生成し、前記入力映像から前記予測フレームを差分した差分映像を圧縮することができる。
ここで、前記入力映像及び前記実写空間映像データそれぞれは、視点を異にして獲得された映像であることができる。
ここで、前記実写空間映像データは、あらかじめ獲得された実写空間に対する映像に対して前処理(Pre−Processing)を通じて生成される実写空間モデリングデータ及び特徴情報マップデータを含むことができる。
ここで、前記入力映像の特徴情報を抽出する特徴情報抽出部と、前記入力映像の特徴情報と前記特徴情報マップデータとのマッチングを行い、マッチング結果を算出するマッチング部と、前記マッチング結果によってマッチング誤差を算出するマッチング誤差算出部と、前記マッチング誤差とあらかじめ設定された基準値を比較し、比較結果によって前記重畳領域を抽出する比較部とを含むことができる。
ここで、前記比較部は、前記マッチング誤差と前記基準値を比較し、比較結果を算出するマッチング誤差比較サブユニットと、前記マッチング誤差が前記基準値を超過した場合、前記特徴情報マップデータを前記入力映像の特徴情報に基づいて更新し、前記更新(update)された特徴情報マップデータを前記マッチング部に提供し、前記マッチング誤差が前記基準値以下である場合、前記実写空間モデリングデータと前記入力映像との再マッチングを行い、再マッチング結果によって前記重畳領域を抽出する重畳領域抽出サブユニットとを含むことができる。
本発明の実施例による映像処理方法は、入力映像とあらかじめ格納された実写空間映像データとのマッチングを通じて重畳領域を抽出する段階と、前記重畳領域を基盤として前記実写空間映像データに含まれた情報に基づく参照フレームを利用して前記入力映像を圧縮する段階とを含む。
差分映像を最小化させることができ、映像圧縮効率を高めることができ、これにより、ネットワーク帯域幅の使用を大幅に減少させることができるという効果が提供される。
また、任意の場所に位置する映像獲得装置が移動しても、実写空間モデリングデータの遠近変形度が同時に処理されることによって、差分映像を最小化し、伝送データ量を低減することができるという効果が提供される。
さらに、あらかじめ前処理された実写空間映像データを利用することによって、入力映像を圧縮し伝送する間に、前述した過程を省略することができ、映像処理をさらに速く行うことができるという効果が提供される。
さらに、映像監視システムだけでなく、映像検索システム、交通官制システム、保安官制システムなど多様な分野に適用可能であるという効果が提供される。
本発明の一実施例による映像処理システムを示す概念図である。 本発明の一実施例による映像処理装置を示すブロック図である。 本発明の一実施例による重畳領域抽出部を示すブロック図である。 本発明の一実施例によるレーザースキャナ及びカメラ基盤映像に対して実写空間映像データが構築される過程を示す流れ図である。 本発明の一実施例によるIR(Infrared;赤外線)及びカメラ基盤映像に対する実写空間映像データが構築される過程を示す流れ図である。 本発明の一実施例による任意の視点で獲得された入力映像と実写空間モデリングデータとの間の時空間予測符号化を示す図である。 本発明の一実施例による映像処理方法を示す流れ図である。 本発明の一実施例による図7で重畳領域を抽出する過程を示す流れ図である。
本発明は、多様な変更を行うことができ、さまざまな実施例を有することができるところ、特定の実施例を図面に例示し、詳細な説明に詳細に説明する。しかし、これは、本発明を特定の実施形態に限定しようとするものではなく、本発明の思想及び技術範囲に含まれるすべての変更、均等物ないし代替物を含むものと理解しなければならない。各図面を説明しつつ、類似な参照符号を類似な構成要素に使用した。
第1、第2、A、Bなどの用語は、多様な構成要素を説明するのに使用されることができるが、前記構成要素は、前記用語によって限定されるものではない。前記用語は、1つの構成要素を他の構成要素から区別する目的だけで使用される。例えば、本発明の権利範囲を逸脱することなく、第1構成要素は、第2構成要素として命名されることができ、同様に、第2構成要素は、第1構成要素として命名されることができる。「及び/または」という用語は、複数の関連された記載された項目の組み合わせまたは複数の関連された記載された項目のうちいずれかの項目を含む。
或る構成要素が他の構成要素に「連結されて」いるか、または「接続されて」いると言及されたときには、他の構成要素に直接的に連結されているかまたは接続されていることもできるが、中間に他の構成要素が存在することもできると理解すべきである。一方、或る構成要素が他の構成要素に「直接連結されて」いるか、「直接接続されて」いると言及されたときには、中間に他の構成要素が存在しないものと理解すべきである。
本出願において使用した用語は、ただ特定の実施例を説明するために使用されたもので、本発明を限定しようとする意図ではない。単数の表現は、文脈上明白に異なって意味しない限り、複数の表現を含む。本出願において、「含む」または「有する」などの用語は、明細書上に記載した特徴、数字、段階、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとするものであって、1つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部品またはこれらを組み合わせたものの存在または付加可能性をあらかじめ排除しないものと理解しなければならない。
異なって定義されない限り、技術的または科学的な用語を含んでここで使用されるすべての用語は、本発明の属する技術分野における通常の知識を有する者によって一般的に理解されるものと同一の意味を有している。一般的に使用される辞書に定義されているもののような用語は、関連技術の文脈上有する意味と一致する意味を有するものと解釈しなければならないし、本出願において明白に定義しない限り、理想的または過度に形式的な意味として解釈されない。
また、以下に記載した「ピクチャー(picture)」という用語は、映像(image)、フレーム(frame)などのような同等な意味を有する他の用語に代替して使用されることができることを本実施例の属する技術分野における通常の知識を有する者なら理解することができる。
以下では、添付の図面を参照して本発明の一実施例による映像処理装置及び方法を説明する。
図1は、本発明の一実施例による映像処理システムを示す概念図である。
図1を参照すれば、本発明の一実施例による映像処理システムは、映像獲得装置100、遠隔地サーバー200、映像処理装置300を含む。
映像獲得装置100は、実写空間の任意の場所に位置し、少なくとも1つのカメラよりなることができる。また、映像獲得装置100は、実写空間に対する映像を獲得し、獲得された映像である入力映像を提供することができる。ここで、入力映像は、複数の映像獲得装置100から任意の視点で獲得された映像であることができる。また、入力映像は、リアルタイムで提供されることができる。
また、映像獲得装置100は、入力映像を映像処理装置300に直ちに提供することができるが、映像処理装置300を介することなく、後述する遠隔地サーバー200またはユーザ端末400に直接提供することができる。
また、映像獲得装置100は、一般的にカメラを意味するが、本発明は、これに限定されない。すなわち、映像獲得装置100は、映像獲得が可能であり、獲得された映像を提供することができたら、どんな装置を使用してもよい。
具体的に、映像獲得装置100は、IPカメラ、CCTV、全方向カメラ、レーザースキャナ、携帯端末機、PTZ(Pan Tilt Zoom)カメラ、赤外線センサー、熱感知センサーのうち少なくとも1つを含むことができる。特に、携帯端末機は、カメラが含まれていて、映像獲得が可能であり、獲得された映像をサーバーまたは他の端末機に伝送可能な端末機であって、個人情報端末機(PDA:Personal Digital Assistant)、スマートフォン(Smart Phone)3G端末機を含むことができる。
遠隔地サーバー200は、実写空間映像データをあらかじめ格納することができる。すなわち、遠隔地サーバー200に格納された実写空間映像データは、映像獲得装置100からあらかじめ実写空間に対する映像を獲得し、獲得された映像に対して前処理が行われたデータである。
また、遠隔地サーバー200は、管理サーバー210及びデータベース(DB)サーバー220を含むことができる。管理サーバー210は、映像獲得装置100から実写空間に対する映像をあらかじめ提供され、あらかじめ提供された実写空間に対する映像に対して前処理を行い、実写空間映像データを生成することができる。データベース(DB)サーバー220は、管理サーバー210で提供する実写空間映像データを格納することができる。
また、実写空間映像データは、図2及び図3を参照して以下でさらに詳細に説明する。
映像処理装置300は、入力映像を映像獲得装置100から提供され、実写空間映像データを遠隔地サーバー200から提供されることができる。また、映像処理装置300は、入力映像と実写空間映像データとのマッチングを通じて重畳領域を抽出することができる。また、映像処理装置300は、抽出された重畳領域を通じて入力映像を圧縮して多重化し、ユーザ端末400に伝送することができる。
一例で、映像処理装置300は、入力映像から重畳領域が含まれた実写空間映像データを差分した差分映像を圧縮することができる。
他の例で、映像処理装置300は、重畳領域が含まれた実写空間映像データを利用した時空間予測符号化を行い、予測フレームを生成し、入力映像から予測フレームを差分した差分映像を圧縮することができる。
また、映像処理装置300は、映像獲得装置100、遠隔地サーバー200及びユーザ端末400と連結されることができる。また、映像処理装置300は、映像獲得装置100、遠隔地サーバー200及びユーザ端末400との整合、すなわちインターフェイシングを行うインターフェース部を含むことができる。インターフェース部は、シンクノード及びゲートウェイを含むことができる。
また、映像処理装置300は、図2及び図3を参照して以下でさらに詳細に説明する。
本発明の一実施例による映像処理システムにおいて、前述した映像獲得装置100、遠隔地サーバー200及び映像処理装置300は、有線または無線通信を利用して通信する通信部(図示せず)を含むことができる。通信部(図示せず)は、アンテナが含まれた通信モジュールよりなることができる。
また、遠隔地サーバー200で説明した前処理は、遠隔地サーバー200の管理サーバー210で行われるものと説明したが、これに限定されるものではない。すなわち、本発明の一実施例による映像処理システムは、遠隔地サーバー200の管理サーバー210で前処理を行うことができると共に、映像獲得装置100及び映像処理装置300でも前処理が行われることができる。したがって、映像獲得装置100及び映像処理装置300は、前処理を行うことができる前処理部(図示せず)を含むことができる。
また、遠隔地サーバー200で説明した実写空間映像データは、遠隔地サーバー200のデータベース(DB)サーバー220に格納されるものと説明したが、これに限定されるものではない。すなわち、本発明の一実施例による映像処理システムは、遠隔地サーバー200のデータベース(DB)サーバー220に実写空間映像データが格納されることができると共に、映像獲得装置100または映像処理装置300でも実写空間映像データが格納されることができる。したがって、映像獲得装置100及び映像処理装置300は、実写空間映像データを格納することができるデータベース(DB)(図示せず)を含むことができる。
以上では、本発明の一実施例による映像処理システムの各構成について記述した。以下では、本発明の一実施例による映像処理装置について図面を参照して記述する。特に、前述した映像処理システムと重複される部分は、説明の簡明性のために省略する。
図2は、本発明の一実施例による映像処理装置を示すブロック図である。
図2を参照すれば、本発明の一実施例による映像処理装置は、重畳領域抽出部310及び映像圧縮部320を含む。また、多重化部330をさらに含むことができる。
重畳領域抽出部310は、少なくとも1つの映像獲得装置100が獲得した入力映像とデータベース(DB)にあらかじめ格納された実写空間映像データを提供されて、入力映像と実写空間映像データとのマッチングを通じて重畳領域を抽出することができる。
ここで、入力映像及び実写空間映像データそれぞれは、視点を異にして獲得された映像であることができる。
また、実写空間映像データは、映像獲得装置100からあらかじめ獲得された実写空間に対する映像に対して前処理を通じて生成されることができる。また、実写空間映像データは、実写空間モデリングデータ及び特徴情報マップデータを含むことができる。
実写空間モデリングデータは、2.5D実写空間モデリングデータ及び3D実写空間モデリングデータを含むことができるが、これに限定されるものではない。
特徴情報マップデータは、実写空間モデリングデータである位置情報、撮影情報、主要軸情報、主要特徴点情報、時間情報、天気、環境情報及び照度情報のうち少なくともいずれか1つを含むことができるが、これに限定されるものではない。
また、実写空間映像データは、映像獲得装置100で提供する入力映像に相当して異なるように構築され、データベース(DB)にあらかじめ格納されることができる。これより、実写空間映像データが入力映像に相当して異なるように構築される過程を図4及び図5を参照して説明すれば、下記の通りである。図4及び図5では、説明の簡明性のために実写空間映像データが構築される所を前処理部であると称する。
図4は、本発明の一実施例によるレーザースキャナ及びカメラ基盤映像について実写空間映像データが構築される過程を示す流れ図である。
図4を参照すれば、前処理部は、レーザースキャナ及びカメラから多数の3Dポイントクラウド(point clouds)、RGB映像、位置情報及び撮影情報など映像データを提供されることができる。
その後、前処理部は、提供された映像データに対してメッシュモデリングを行うことができる。その後、前処理部は、メッシュモデリングが行われた映像データに対してテクスチャマッピングを行い、実写空間映像データを生成することができる。ここで、生成された実写空間映像データは、3D実写空間モデリングデータと特徴情報マップデータを含むことができる。その後、前処理部は、生成された実写空間映像データをデータベース(DB)に提供することができる。
図5は、本発明の一実施例によるIR(Infrared;赤外線)及びカメラ基盤映像に対する実写空間映像データが構築される過程を示す流れ図である。
図5を参照すれば、前処理部は、IR(Infrared;赤外線)及びカメラからIR映像、RGB映像、位置情報及び撮影情報など映像データを提供されることができる。すなわち、前処理部は、IRパターン照射とカメラ映像撮影を通じて対象空間の深さ値及びテクスチャを提供されることができる。
その後、前処理部は、提供された映像データに対して特徴情報抽出及び再構成を行うことができる。その後、前処理部は、特徴情報抽出及び再構成が行われた映像データに対してテクスチャマッピングを行い、実写空間映像データを生成することができる。生成された実写空間映像データは、2.5D実写空間モデリングデータと特徴情報マップデータを含むことができる。その後、前処理部は、生成された実写空間映像データをデータベース(DB)に提供することができる。
したがって、本発明の一実施例による映像処理装置は、実写空間映像に対してあらかじめ前処理された実写空間映像データを利用することによって、入力映像を圧縮し伝送する間に、前述した過程を省略することができ、映像処理をさらに速く行うことができるという長所がある。
図3は、本発明の一実施例による重畳領域抽出部を示すブロック図である。
図2及び図3を参照すれば、重畳領域抽出部310は、特徴情報抽出部312、マッチング部314、マッチング誤差算出部316及び比較部318を含むことができる。
特徴情報抽出部312は、少なくとも1つの映像獲得装置100から入力映像を提供されることができる。また、特徴情報抽出部312は、提供された入力映像の特徴情報を抽出することができる。
マッチング部314は、入力映像の特徴情報を特徴情報抽出部312から提供され、特徴情報マップデータをデータベース(DB)から提供されることができる。また、マッチング部314は、入力映像の特徴情報と特徴情報マップデータとのマッチングを行い、マッチング結果を算出することができる。具体的に、マッチング部314は、入力映像の特徴情報と特徴情報マップデータとのマッチングを粗く行うことができる。
マッチング誤差算出部316は、マッチング部314からマッチング結果を提供されることができる。また、マッチング誤差算出部316は、提供されたマッチング部314のマッチング結果によってマッチング誤差を算出することができる。
比較部318は、マッチング誤差算出部316からマッチング誤差を提供されることができる。また、比較部318は、提供されたマッチング誤差とあらかじめ設定された基準値を比較することができる。また、比較部318は、マッチング誤差と基準値を比較した比較結果によって重畳領域を抽出することができる。また、比較部318は、マッチング誤差比較サブユニット318a及び重畳領域抽出サブユニット318bを含むことができる。
マッチング誤差比較サブユニット318aは、マッチング誤差算出部316からマッチング誤差を提供されることができる。また、マッチング誤差比較サブユニット318aは、提供されたマッチング誤差とあらかじめ設定された基準値とを比較し、比較結果を算出することができる。
重畳領域抽出サブユニット318bは、マッチング誤差比較サブユニット318aからマッチング誤差と基準値を比較した比較結果を提供されることができる。また、重畳領域抽出サブユニット318bは、比較結果によって重畳領域を抽出することができる。
すなわち、マッチング誤差が基準値を超過した場合、重畳領域抽出サブユニット318bは、データベース(DB)に格納された特徴情報マップデータを特徴情報抽出部312で抽出された入力映像の特徴情報に基づいて更新することができる。また、重畳領域抽出サブユニット318bは、更新された特徴情報マップデータを入力映像の特徴情報とのマッチングのために、さらにマッチング部314に提供することができる。
また、マッチング誤差が基準値以下である場合、重畳領域抽出サブユニット318bは、データベース(DB)に格納された実写空間モデリングデータと入力映像との再マッチングを行うことができる。具体的に、重畳領域抽出サブユニット318bは、実写空間モデリングデータと入力映像との再マッチングを精密に行うことができる。また、重畳領域抽出サブユニット318bは、実写空間モデリングデータと入力映像との再マッチング結果によって重畳領域を抽出することができる。
したがって、本発明の一実施例による映像処理装置は、入力映像をあらかじめ格納された特徴情報マップデータと粗くマッチングした後、実写空間モデリングデータとさらに精密な再マッチングを行うことによって、差分映像をさらに最小化させることができ、映像圧縮効率をさらに高めることができ、これにより、ネットワーク帯域幅の使用を大幅に減少させることができる。
続いて図2を参照すれば、映像圧縮部320は、重畳領域抽出部310で抽出された重畳領域を提供されることができる。また、映像圧縮部320は、重畳領域を基盤として実写空間映像データに含まれた情報に基づく参照フレームを利用して入力映像を圧縮することができる。
前述したように、実写空間映像データに含まれた情報は、実写空間モデリングデータと特徴情報マップデータを含むことができる。したがって、参照フレームは、実写空間モデリングデータに基づくことができる。また、実写空間映像データは、視点を異にしてあらかじめ獲得された映像であることができる。
また、映像圧縮部320は、入力映像から重畳領域が含まれた参照フレームを差分した差分映像を圧縮することができる。すなわち、映像圧縮部320は、入力映像から参照フレームと重畳される領域を除去した差分映像を圧縮することができる。
また、映像圧縮部320は、重畳領域が含まれた参照フレームを利用した時空間予測符号化を行い、予測フレームを生成し、入力映像から予測フレームを差分した差分映像を圧縮することができる。
特に、本発明の一実施例による映像処理装置は、視点を異にして時間の流れによって獲得された入力映像を圧縮することができる。すなわち、映像処理装置は、任意の視点で獲得された多視点映像を圧縮することができる。
図6は、本発明の一実施例による任意の視点で獲得された入力映像と実写空間モデリングデータとの間の時空間予測符号化を示す図である。
図6を参照すれば、データベース(DB)にあらかじめ格納された実写空間モデリングデータは、参照フレーム500であることができる。また、複数の映像獲得装置100から任意の視点で獲得された多視点入力映像は、被参照フレーム502、504、506、508であることがある。
ここで、参照フレーム500は、基本視点の映像であることができる。また、被参照フレーム502、504、506、508のうちP0、…、Pnは、単方向視点間の予測が行われることを意味することができる。また、被参照フレーム502、504、506、508のうちB1、…、Bnは、双方向視点間の予測が行われることを意味することができる。
すなわち、実写空間モデリングデータは、多視点入力映像圧縮のための参照フレーム500として活用され、多視点入力映像は、参照フレーム500から予測される被参照フレーム502、504、506、508として構造化されることができる。特に、時空間予測符号化は、互いに異なる視点のフレームを参照して予測を行うことができる。
一例で、時間による照度変化または天気変化などの環境的な変化が発生しなければ、すなわち多視点入力映像が固定的なら、図4で説明したように、マッチング誤差は、あらかじめ格納された基準値以下になる。これにより、参照フレーム500は、同じ映像フレームになる。
他の例で、時間による照度変化または天気変化などの環境的な変化が発生すれば、すなわち多視点入力映像が流動的なら、図4で説明したように、マッチング誤差は、あらかじめ格納された基準値を超過する。これにより、参照フレーム500は、特徴情報マップデータによって異なる映像フレームになる。
図2を参照すれば、多重化部330は、映像圧縮部320から入力映像が圧縮された圧縮映像を提供されることができる。また、多重化部330は、提供された圧縮映像を多重化し、多重化された圧縮映像である出力映像を提供することができる。
したがって、本発明の一実施例による映像処理装置は、任意の視点で獲得された入力映像とあらかじめ格納された実写空間モデリングデータとの間の時空間予測符号化を行うことによって、任意の場所に位置する映像獲得装置が移動しても、実写空間モデリングデータの遠近変形度が同時に処理されることによって、差分映像を最小化し、伝送データ量を低減することができるという長所がある。
また、本発明の一実施例による映像処理装置は、映像獲得装置としてIPカメラ、CCTV、全方向カメラ、レーザースキャナ、携帯端末機、IPカメラ、PTZ(Pan Tilt Zoom)カメラ、赤外線センサー、熱感知センサーなど多様な映像獲得装置を包括することによって、映像監視システムだけでなく、映像検索システム、交通官制システム、保安官制システムなど多様な分野に適用可能であるという長所がある。
以上では、本発明の一実施例による映像処理装置の各構成について記述した。以下では、本発明の一実施例による映像処理方法について図面を参照して記述する。特に、前述した映像処理システム及び映像処理装置と重複する部分は、説明の簡明性のために省略する。
図7は、本発明の一実施例による映像処理方法を示す流れ図である。
図7を参照すれば、本発明の一実施例による映像処理方法は、入力映像とあらかじめ格納された実写空間映像テータとのマッチングを通じて重畳領域を抽出する段階(S700)と、重畳領域を基盤として実写空間映像データに含まれた情報に基づく参照フレームを利用して入力映像を圧縮する段階(S800)とを含む。
まず、実写空間に対する映像である入力映像を提供されることができる(S600)。ここで、入力映像は、視点を異にして時間の流れによって獲得された多視点映像であることができる。
その後、入力映像とあらかじめ格納された実写空間映像データとのマッチングを通じて重畳領域を抽出することができる(S700)。
ここで、実写空間映像データは、あらかじめ獲得された実写空間に対する映像に対して前処理を通じて生成されることができる。したがって、実写空間映像データは、S600段階またはS700段階の前に生成され、格納されることができる。
また、実写空間映像データは、実写空間モデリングデータ及び特徴情報マップデータを含むことができる。また、実写空間映像データは、視点を異にして獲得された映像であることができる。
また、映像処理装置において前述した実写空間映像データと重複される部分は、説明の簡明性のために省略する。
図8は、本発明の一実施例による図7で重畳領域を抽出する過程を示す流れ図である。
図8を参照すれば、入力映像を提供されて、入力映像の特徴情報を抽出することができる(S701)。その後、あらかじめ格納された特徴情報マップデータを提供されることができる(S702)。その後、入力映像の特徴情報と特徴情報マップデータとのマッチングを行い、マッチング結果を算出することができる(S703)。具体的に、入力映像の特徴情報と特徴情報マップデータとのマッチングを粗く行うことができる。その後、マッチング結果によってマッチング誤差を算出することができる(S704)。その後、マッチング誤差とあらかじめ設定された基準値を比較し、比較結果によって重畳領域を抽出することができる。
すなわち、マッチング誤差と基準値を比較し、比較結果を算出することができる(S705)。
ここで、マッチング誤差が基準値を超過した場合、特徴情報マップデータを入力映像の特徴情報に基づいて更新することができる(S706)。その後、更新された特徴情報マップデータ(S702)は、S703段階で入力映像の特徴情報とさらにマッチングを行うことができる。
ここで、マッチング誤差が基準値以下である場合、実写空間モデリングデータ(S707)と入力映像との再マッチングを行うことができる(S708)。その後、再マッチング結果によって重畳領域を抽出することができる(S709)。具体的に、実写空間モデリングデータと入力映像との再マッチングを精密に行うことができる。
続いて図7を参照すれば、S700段階後に、重畳領域を基盤として実写空間映像データに含まれた情報に基づく参照フレームを利用して入力映像を圧縮することができる(S800)。
ここで、映像処理装置の映像圧縮部320で説明したように、参照フレームは、実写空間モデリングデータに基づくことができる。
ここで、S800段階は、入力映像から重畳領域が含まれた参照フレームを差分した差分映像を圧縮することができる。すなわち、S800段階は、入力映像から参照フレームと重畳される領域を除去した差分映像を圧縮することができる。
ここで、S800段階は、重畳領域が含まれた参照フレームを利用した時空間予測符号化を行い、予測フレームを生成し、入力映像から予測フレームを差分した差分映像を圧縮することができる。また、映像処理装置において前述した時空間予測符号化と重複される部分は、説明の簡明性のために省略する。
その後、圧縮された入力映像を多重化することができる(S900)。その後、多重化された圧縮映像である出力映像を提供することができる(S1000)。
以上、本発明の好適な実施例を参照して説明したが、当該技術分野の熟練された当業者は、下記の特許請求の範囲に記載された本発明の思想及び領域から逸脱しない範囲内で本発明を多様に修正及び変更させることができることを理解することができる。
100 映像獲得装置
200 遠隔地サーバー
210 管理サーバー
220 データベース(DB)サーバー
300 映像処理装置
310 重畳領域抽出部
312 特徴情報抽出部
314 マッチング部
316 マッチング誤差算出部
318 比較部
318a マッチング誤差比較サブユニット
318b 重畳領域抽出サブユニット
320 映像圧縮部
330 多重化部
400 ユーザ端末

Claims (15)

  1. 少なくとも1つの映像獲得装置が獲得した入力映像とデータベース(DB)にあらかじめ格納された実写空間映像データを提供されて、前記入力映像と前記実写空間映像データとのマッチングを通じて重畳領域を抽出する重畳領域抽出部と;
    前記重畳領域を基盤として前記実写空間映像データに含まれた情報に基づく参照フレームを利用して前記入力映像を圧縮する映像圧縮部と;を含む映像処理装置。
  2. 前記映像圧縮部は、
    前記入力映像から前記重畳領域が含まれた前記参照フレームを差分した差分映像を圧縮することを特徴とする請求項1に記載の映像処理装置。
  3. 前記映像圧縮部は、
    前記重畳領域が含まれた前記参照フレームを利用した時空間予測符号化を行い、予測フレームを生成し、前記入力映像から前記予測フレームを差分した差分映像を圧縮することを特徴とする請求項1に記載の映像処理装置。
  4. 前記入力映像及び前記実写空間映像データそれぞれは、
    視点を異にして獲得された映像であることを特徴とする請求項1に記載の映像処理装置。
  5. 前記実写空間映像データは、
    あらかじめ獲得された実写空間に対する映像に対して前処理を通じて生成される実写空間モデリングデータ及び特徴情報マップデータを含むことを特徴とする請求項1に記載の映像処理装置。
  6. 前記重畳領域抽出部は、
    前記入力映像の特徴情報を抽出する特徴情報抽出部と;
    前記入力映像の特徴情報と前記特徴情報マップデータとのマッチングを行い、マッチング結果を算出するマッチング部と;
    前記マッチング結果によってマッチング誤差を算出するマッチング誤差算出部と;
    前記マッチング誤差とあらかじめ設定された基準値を比較し、比較結果によって前記重畳領域を抽出する比較部と;を含むことを特徴とする請求項5に記載の映像処理装置。
  7. 前記比較部は、
    前記マッチング誤差と前記基準値を比較し、比較結果を算出するマッチング誤差比較サブユニットと;
    前記マッチング誤差が前記基準値を超過した場合、前記特徴情報マップデータを前記入力映像の特徴情報に基づいて更新し、前記更新された特徴情報マップデータを前記マッチング部に提供し、
    前記マッチング誤差が前記基準値以下である場合、前記実写空間モデリングデータと前記入力映像との再マッチングを行い、再マッチング結果によって前記重畳領域を抽出する重畳領域抽出サブユニットと;を含むことを特徴とする請求項6に記載の映像処理装置。
  8. 入力映像とあらかじめ格納された実写空間映像データとのマッチングを通じて重畳領域を抽出する段階と;
    前記重畳領域を基盤として前記実写空間映像データに含まれた情報に基づく参照フレームを利用して前記入力映像を圧縮する段階と;を含む映像処理方法。
  9. 前記重畳領域を基盤として前記実写空間映像データに含まれた情報に基づく参照フレームを利用して前記入力映像を圧縮する段階は、
    前記入力映像から前記重畳領域が含まれた前記参照フレームを差分した差分映像を圧縮することを特徴とする請求項8に記載の映像処理方法。
  10. 前記重畳領域を基盤として前記実写空間映像データに含まれた情報に基づく参照フレームを利用して前記入力映像を圧縮する段階は、
    前記重畳領域が含まれた前記参照フレームを利用した時空間予測符号化を行い、予測フレームを生成し、前記入力映像から前記予測フレームを差分した差分映像を圧縮することを特徴とする請求項8に記載の映像処理方法。
  11. 前記入力映像及び前記実写空間映像データそれぞれは、
    視点を異にして獲得された映像であることを特徴とする請求項8に記載の映像処理方法。
  12. 前記実写空間映像データは、
    あらかじめ獲得された実写空間に対する映像に対して前処理を通じて生成される実写空間モデリングデータ及び特徴情報マップデータを含むことを特徴とする請求項8に記載の映像処理方法。
  13. 前記入力映像とあらかじめ格納された実写空間映像データとのマッチングを通じて重畳領域を抽出する段階は、
    前記入力映像の特徴情報を抽出する段階と;
    前記入力映像の特徴情報と前記特徴情報マップデータとのマッチングを行い、マッチング結果を算出する段階と;
    前記マッチング結果によってマッチング誤差を算出する段階と;
    前記マッチング誤差とあらかじめ設定された基準値を比較し、比較結果によって前記重畳領域を抽出する段階と;を含むことを特徴とする請求項12に記載の映像処理方法。
  14. 前記マッチング誤差とあらかじめ設定された基準値を比較し、比較結果によって前記重畳領域を抽出する段階は、
    前記マッチング誤差と前記基準値を比較し、前記比較結果を算出する段階と;
    前記マッチング誤差が前記基準値を超過した場合、前記特徴情報マップデータを前記入力映像の特徴情報に基づいて更新し、更新された特徴情報マップデータは、前記入力映像の特徴情報とさらにマッチングを行い、
    前記マッチング誤差が前記基準値以下である場合、前記実写空間モデリングデータと前記入力映像との再マッチングを行い、再マッチング結果によって前記重畳領域を抽出する段階と;を含むことを特徴とする請求項13に記載の映像処理方法。
  15. 前記入力映像とあらかじめ格納された実写空間映像データとのマッチングを通じて重畳領域を抽出する段階の前に、
    あらかじめ獲得された実写空間に対する映像に対して前処理を通じて前記実写空間映像データを生成し格納する段階をさらに含むことを特徴とする請求項8に記載の映像処理方法。
JP2014083549A 2013-09-05 2014-04-15 映像処理装置及び方法 Pending JP2015053669A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0106495 2013-09-05
KR1020130106495A KR102153539B1 (ko) 2013-09-05 2013-09-05 영상 처리 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2015053669A true JP2015053669A (ja) 2015-03-19

Family

ID=52583249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014083549A Pending JP2015053669A (ja) 2013-09-05 2014-04-15 映像処理装置及び方法

Country Status (3)

Country Link
US (1) US9743106B2 (ja)
JP (1) JP2015053669A (ja)
KR (1) KR102153539B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021528917A (ja) * 2018-06-26 2021-10-21 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 点群符号化用の高レベルな構文設計

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101905580B1 (ko) 2016-02-17 2018-10-11 한국전자통신연구원 촬영 기능을 갖는 모바일 장치를 이용한 상황 재연 방법 및 시스템
GB2553315A (en) 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
KR102072576B1 (ko) * 2017-12-07 2020-02-03 울산과학기술원 데이터 인코딩 및 디코딩 장치와 방법
US11880766B2 (en) 2020-10-16 2024-01-23 Adobe Inc. Techniques for domain to domain projection using a generative model

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0222987A (ja) * 1988-07-12 1990-01-25 Mitsubishi Electric Corp 画像伝送装置
JPH0564172A (ja) * 1991-09-03 1993-03-12 Hitachi Ltd 映像通信方式および映像送信装置および映像受信装置
JP2002247585A (ja) * 2001-02-15 2002-08-30 Nippon Telegr & Teleph Corp <Ntt> 動画像送信方法と、動画像受信方法と、動画像送信処理用プログラム及びそのプログラムの記録媒体と、動画像受信処理用プログラム及びそのプログラムの記録媒体
JP2003047012A (ja) * 2001-08-01 2003-02-14 Mega Chips Corp 動画像圧縮方法、及びプログラム
JP2006115283A (ja) * 2004-10-15 2006-04-27 Mitsubishi Electric Corp データ圧縮装置およびデータ伸張装置
JP2009502084A (ja) * 2005-07-18 2009-01-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 時間及び視点間参照映像バッファを活用した予測符号化/復号化装置及びその方法
US20100033484A1 (en) * 2006-12-05 2010-02-11 Nac-Woo Kim Personal-oriented multimedia studio platform apparatus and method for authorization 3d content
WO2013031785A1 (ja) * 2011-09-01 2013-03-07 日本電気株式会社 撮影画像圧縮伝送方法及び撮影画像圧縮伝送システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6343141B1 (en) * 1996-10-08 2002-01-29 Lucent Technologies Inc. Skin area detection for video image systems
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
KR100455060B1 (ko) 2002-09-10 2004-11-06 정동회 3차원 영상 데이터 제공장치 및 방법
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
KR100603601B1 (ko) * 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
KR100698845B1 (ko) * 2005-12-28 2007-03-22 삼성전자주식회사 인물 외형 추출 알고리즘을 이용한 영상 편집 방법 및 그장치
US8290257B2 (en) * 2007-03-02 2012-10-16 The Procter & Gamble Company Method and apparatus for simulation of facial skin aging and de-aging
US20090163185A1 (en) 2007-12-24 2009-06-25 Samsung Electronics Co., Ltd. Method and system for creating, receiving and playing multiview images, and related mobile communication device
KR101620067B1 (ko) 2009-05-14 2016-05-12 삼성전자주식회사 다시점 영상 압축 장치 및 방법
US9639959B2 (en) * 2012-01-26 2017-05-02 Qualcomm Incorporated Mobile device configured to compute 3D models based on motion sensor data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0222987A (ja) * 1988-07-12 1990-01-25 Mitsubishi Electric Corp 画像伝送装置
JPH0564172A (ja) * 1991-09-03 1993-03-12 Hitachi Ltd 映像通信方式および映像送信装置および映像受信装置
JP2002247585A (ja) * 2001-02-15 2002-08-30 Nippon Telegr & Teleph Corp <Ntt> 動画像送信方法と、動画像受信方法と、動画像送信処理用プログラム及びそのプログラムの記録媒体と、動画像受信処理用プログラム及びそのプログラムの記録媒体
JP2003047012A (ja) * 2001-08-01 2003-02-14 Mega Chips Corp 動画像圧縮方法、及びプログラム
JP2006115283A (ja) * 2004-10-15 2006-04-27 Mitsubishi Electric Corp データ圧縮装置およびデータ伸張装置
JP2009502084A (ja) * 2005-07-18 2009-01-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 時間及び視点間参照映像バッファを活用した予測符号化/復号化装置及びその方法
US20100033484A1 (en) * 2006-12-05 2010-02-11 Nac-Woo Kim Personal-oriented multimedia studio platform apparatus and method for authorization 3d content
WO2013031785A1 (ja) * 2011-09-01 2013-03-07 日本電気株式会社 撮影画像圧縮伝送方法及び撮影画像圧縮伝送システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021528917A (ja) * 2018-06-26 2021-10-21 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 点群符号化用の高レベルな構文設計
US11706458B2 (en) 2018-06-26 2023-07-18 Huawei Technologies Co., Ltd. High-level syntax designs for point cloud coding
US11856230B2 (en) 2018-06-26 2023-12-26 Huawei Technologies Co., Ltd. High-level syntax designs for point cloud coding

Also Published As

Publication number Publication date
US9743106B2 (en) 2017-08-22
KR102153539B1 (ko) 2020-09-08
KR20150027985A (ko) 2015-03-13
US20150063450A1 (en) 2015-03-05

Similar Documents

Publication Publication Date Title
CN107534789B (zh) 影像同步装置及影像同步方法
EP3391639B1 (en) Generating output video from video streams
JP2015053669A (ja) 映像処理装置及び方法
US20150365545A1 (en) Picture Outputting Method and Apparatus
WO2012086120A1 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
TW201741999A (zh) 產生深度資訊的方法及其系統
CN114079779B (zh) 图像处理方法、智能终端及存储介质
JP2007036800A (ja) 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011505771A (ja) 3次元ビデオ通信の端末、システム、および方法
KR20140108828A (ko) 카메라 트래킹 장치 및 방법
CN111160295B (zh) 基于区域引导和时空注意力的视频行人重识别方法
JP2017229067A (ja) 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置
JP4851564B2 (ja) 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR20190136877A (ko) Ip 카메라를 이용한 얼굴 영상 획득 방법 및 장치
US11758101B2 (en) Restoration of the FOV of images for stereoscopic rendering
JP5864371B2 (ja) 静止画自動生成システム、静止画自動生成システムにおける作業者用情報処理端末及び指示者用情報処理端末、及び判定装置
JP4851563B2 (ja) 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2018137560A (ja) 画像処理装置、画像処理システムおよびプログラム
EP3391330B1 (en) Method and device for refocusing at least one plenoptic video
JP6242009B2 (ja) 広域画像に撮影領域枠を重畳表示する映像転送システム、端末、プログラム及び方法
JP7303930B1 (ja) 画像処理方法、装置、電子機器および読み取り可能な記憶媒体
JP7382186B2 (ja) 符号化装置、復号装置、及びプログラム
Choi et al. Low complexity image rectification for multi-view video coding
KR101919132B1 (ko) 동영상 처리 장치, 방법 및 그 방법을 실행시키기 위한 컴퓨터 프로그램
Forster et al. The effect of image compression on automotive optical flow algorithms

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181016