JP2018207356A - 画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法 - Google Patents

画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法 Download PDF

Info

Publication number
JP2018207356A
JP2018207356A JP2017112391A JP2017112391A JP2018207356A JP 2018207356 A JP2018207356 A JP 2018207356A JP 2017112391 A JP2017112391 A JP 2017112391A JP 2017112391 A JP2017112391 A JP 2017112391A JP 2018207356 A JP2018207356 A JP 2018207356A
Authority
JP
Japan
Prior art keywords
image
reference image
unit
vehicle
compression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017112391A
Other languages
English (en)
Other versions
JP6905184B2 (ja
Inventor
俊輔 小林
Toshisuke Kobayashi
俊輔 小林
隆登 大橋
Takato Ohashi
隆登 大橋
祐司 野村
Yuji Nomura
祐司 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017112391A priority Critical patent/JP6905184B2/ja
Priority to US15/997,014 priority patent/US10567790B2/en
Priority to EP18176028.1A priority patent/EP3413565B1/en
Publication of JP2018207356A publication Critical patent/JP2018207356A/ja
Application granted granted Critical
Publication of JP6905184B2 publication Critical patent/JP6905184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

【課題】参照画像と符号化対象画像との一致率を向上させるようにした画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法を提供すること。圧縮率の低下を防止するようにした画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法を提供すること。【解決手段】車両に搭載された撮像装置で撮像された画像の画像データを圧縮符号化する画像圧縮装置で実行される画像圧縮プログラムであって、圧縮符号化対象の画像に対する参照画像に対して、分割領域を設定し、前記撮像装置に入射する前記画像の光軸と前記撮像装置における撮像素子との接点を前記参照画像の中心点とし、前記分割領域において前記参照画像の前記中心点を含む領域の拡大率よりも前記参照画像の外周を含む領域の拡大率が高くなるように、前記参照画像を拡大させ、拡大された前記参照画像を用いて予測画像を生成し、生成された前記予測画像を用いて前記圧縮符号化対象の画像の画像データを圧縮符号化する、処理を画像圧縮装置に実行させる。【選択図】図6

Description

本発明は、画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法に関する。
現在、ビデオカメラやDVD(Digital Versatile Disk)レコーダなど、画像の圧縮符号化技術を用いた製品が広く流通している。また、画像の圧縮符号化に関する分野では、圧縮符号化の効率化や画質などを更に向上させるべく、次世代の圧縮符号化技術について活発な議論が行われている。
圧縮符号化技術については、例えば、ISO/IEC(International Organization for Standardization/International Electrotechnical Commission)による標準規格として、MPEG−2(Moving Picture Experts Group)や、H.264|MPEG−4 AVC(Advanced Video Coding)(以下では、「H.264」と称する場合がある。)などがある。
H.264などの圧縮符号化においては、フレーム間の符号化に際して、動き補償が行われる。動き補償は、例えば、連続する画像(又は画像フレーム。以下、「フレーム」と称する場合がある。)の前後で被写体がどのように動いたかを検出する方法である。具体的には、動き補償は、例えば、画像圧縮装置において、復号画像(又は参照画像)と符号化対象画像とに基づいて動きベクトルを探索し、参照画像を動きベクトル分ずらした予測画像を生成し、生成した予測画像と符号化対象画像との差分を圧縮符号化する技術である。動き補償による予測符号化により、フレーム間の相関を利用した圧縮符号化が行われることになり、画像データの情報量を大幅に圧縮させることが可能となる。
しかし、カメラのズームなど動作により取得した画像は、フレームの前後では、人間の目では、ある被写体などが大きくなったり小さくなったりすると認識できるものの、フレームの前後で画素ごとに差分をとると大きな差分値が生じる場合がある。この場合、動き補償による動きベクトルの探索が行われても、動きベクトルを正確に算出することができず、予測画像を生成しても、予測画像と符号化対象画像とが大きく異なり、これにより、圧縮率が低下する。
そのため、グローバル動き補償という技術がある。グローバル動き補償は、例えば、カメラのズームやパン、チルトなどに対応するための参照画像を生成する技術である。グローバル動き補償により、参照画像が加工され、動きベクトルも上記と比較して正確性は向上し、圧縮率の低下を防止することも可能である。ただし、グローバル動き補償は、MEPG−4 V2(Version 2)で採用されたものの、H.264では採用が見送られた。
圧縮符号化に関する技術としては、例えば、以下がある。すなわち、インター符号化画像に対する参照画像を拡大又は縮小し、拡大又は縮小された参照画像を用いて予測画像を生成し、生成された予測画像を用いて符号化対象の画像を符号化する符号化装置がある。
この技術によれば、符号化対象の画像が拡大や縮小する場合の符号化効率を向上させることができる、とされる。
国際公開第2015/098559号
車載カメラにより撮像した画像をドライブレコーダに記憶する際に圧縮符号化が行われる場合がある。車載カメラで撮像した画像は、車両に搭載されたカメラで取得された画像であって、その画像のフレームの前後の動きは、カメラのズームとは異なる。例えば、車両が前方に進んでいる状態において車載カメラで撮像した画像を考える。この場合、取得した画像に、車両から遠くに離れた被写体と、車両に近い被写体とが含まれる場合、前者の被写体は、時間が経過してもそれほど変化はなく、後者の被写体は、同じ時間が経過しても大きく拡大する場合がある。このように、車載カメラで撮像した画像に複数の被写体が含まれる場合、各被写体の拡大率や縮小率は、フレームの前後で一律に変化するものではなく、車両から各被写体までの距離に応じて変化する。
上述したインター符号化画像に対する参照画像を拡大又は縮小する技術は、例えば、参照画像を一律に拡大したり縮小したりする技術である。そのため、車載カメラで撮像した画像を一律に拡大させたり縮小させたりしても、車両からの距離に応じた被写体の変化に対応しておらず、車両に搭載された車載カメラで撮像した画像の変化に対応していない。したがって、一律に拡大又は縮小させた参照画像に基づいて予測画像を生成しても、参照画像と符号化対象画像との差異が大きく、参照画像と符号化対象画像との一致率は低い。この場合、参照画像に基づいて予測画像を生成しても、予測画像と符号化対象画像との差分値も大きくなり、圧縮率が低下する場合がある。
そこで、1つの側面では、参照画像と符号化対象画像との一致率を向上させるようにした画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法を提供することにある。
また、1つの側面では、圧縮率の低下を防止するようにした画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法を提供することにある。
1つの態様では、車両に搭載された撮像装置で撮像された画像の画像データを圧縮符号化する画像圧縮装置で実行される画像圧縮プログラムであって、圧縮符号化対象の画像に対する参照画像に対して、分割領域を設定し、前記撮像装置に入射する前記画像の光軸と前記撮像装置における撮像素子との接点を前記参照画像の中心点とし、前記分割領域において前記参照画像の前記中心点を含む領域の拡大率よりも前記参照画像の外周を含む領域の拡大率が高くなるように、前記参照画像を拡大させ、拡大された前記参照画像を用いて予測画像を生成し、生成された前記予測画像を用いて前記圧縮符号化対象の画像の画像データを圧縮符号化する、処理を画像圧縮装置に実行させる。
1つの側面では、参照画像と符号化対象画像との一致率を向上させることができる。また、1つの側面では、圧縮率の低下を防止することができる。
図1は動画像伝送システムの構成例を表す図である。 図2は符号化処理部の構成例を表す図である。 図3は復号化処理部の構成例を表す図である。 図4(A)と図4(B)は画像の例を表す図である。 図5(A)は拡大後の画像の例、図5(B)は木、標識、車両の関係例をそれぞれ表す図である。 図6は符号化処理の例を表すフローチャートである。 図7は符号化処理の例を表すフローチャートである。 図8は移動量算出処理の例を表すフローチャートである。 図9はハンド舵角と回転半径の関係例を表す図である。 図10(A)と図10(B)は車両の移動前後の位置関係の例を表す図である。 図11(A)と図11(B)は車両の移動前後の位置関係の例を表す図である。 図12は移動前後画像位置算出処理の例を表すフローチャートである。 図13は車両と分割領域との関係例を表す図である。 図14は分割領域の例を表す図である。 図15(A)と図15(B)は分割領域の例を表す図である。 図16は拡縮参照画像変換処理の例を表すフローチャートである。 図17(A)と図17(B)は物体の実際の大きさと撮像素子面に写る物体の大きさとの関係例を表す図である。 図18(A)と図18(B)は物体の実際の大きさと撮像素子面に写る物体の大きさとの関係例を表す図である。 図19はホモグラフィ変換前後の参照画像の例を表す図である。 図20は復号化処理の例を表すフローチャートである。 図21はサーバのハードウェア構成例を表す図である。 図22は画像圧縮装置の構成例を表す図である。
以下、本実施の形態について図面を参照して詳細に説明する。本明細書における課題及び実施例は一例であり、本願の権利範囲を限定するものではない。そして、各実施の形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、本明細書で使用している用語や記載した技術的内容は、ISO/IECなど、画像の圧縮符号化に関する規格として規格書に記載された用語や技術的内容が適宜用いられてもよい。
[第1の実施の形態]
<動画像伝送システム>
図1は、本第1の実施の形態における動画像伝送システム10の構成例を表す図である。動画像伝送システム10は、複数の車両100,100−1,100−2と、サーバ装置(又はサーバ。以下、「サーバ」と称する場合がある。)300とを備える。なお、車両100,100−1,100−2はいずれも同一構成のため、代表して車両100を用いて説明する。車両100とサーバ300は、ネットワーク200を介して接続される。
車両100は、撮像装置110、ドライブレコーダ120、センサ130、及びメモリ140を備える。
撮像装置110は、例えば、カメラであって、車両100に搭載され、車両100の周辺の画像を撮像する。撮像装置110は、撮像した画像の画像データをドライブレコーダ120へ出力する。
ドライブレコーダ120は、H.26x符号化処理部121を含む。H.26x符号化処理部121は、例えば、撮像装置110から受け取った画像データに対して、H.263やH.264の規定に従う圧縮符号化処理を行う。ドライブレコーダ120は、例えば、内部メモリを備え、圧縮符号化した画像データ(以下、「圧縮データ」と称する場合がある。)を、内部メモリに記憶したり、車両100に搭載された無線通信装置へ出力したりする。圧縮データは、圧縮ストリームとして、無線通信装置を介してネットワーク200へ送信される。
センサ130は、例えば、車両100の速度v、ハンドルの舵角θ、観測間隔時間tなどを測定する。センサ130は、測定したこれらのデータを、CAN(Controller Area Network)データとして、無線通信装置を介してネットワーク200へ送信する。
メモリ140は、車両100に関する車両データを記憶し、無線通信装置を介してネットワーク200へ送信する。車両データとしては、例えば、撮像装置110の車両100における設置位置の高さ、車両100の長さや幅などの情報がある。
サーバ300は、ネットワーク200を介して、車両100から送信された圧縮ストリーム、CANデータ(又はセンサーデータ)、車両データを受信する。サーバ300は、H.26x復号化処理部310、符号化処理部320、ストレージ340、復号化処理部350、画像解析部370を備える。
H.26x復号化処理部310は、圧縮ストリームに含まれる圧縮データに対して復号化処理を施し、復号画像データを復号する。H.26x復号化処理部310における復号化処理は、H.26x符号化処理部121における符号化処理に対応する。H.26x復号化処理部310は、復号した復号画像データを、原画データとして、符号化処理部320へ出力する。
符号化処理部320は、H.26x復号化処理部310から原画データを受け取り、車両100から送信されたCANデータと車両データとを受信し、原画データに対して圧縮符号化処理を施す。このとき、符号化処理部320は、例えば、符号化対象の画像に対する参照画像に対して分割領域を設定し、分割領域において参照画像の中心点を含む領域の拡大率よりも参照画像の外周を含む領域の拡大率が高くなるように、参照画像を拡大させる。そして、符号化処理部320は、拡大させた参照画像を用いて予測画像を生成し、生成した予測画像を用いて符号化対象画像である原画データを圧縮符号化する。符号化処理部320の構成例の動作例は後述する。符号化処理部320は、原画データに対して圧縮符号化した圧縮データを、圧縮ストリームとして、ストレージ340へ出力する。
ストレージ340は、例えば、大容量のメモリであり、符号化処理部320から出力された圧縮ストリームを記憶し、復号化処理部350により、圧縮ストリームを読み出すことが可能である。
復号化処理部350は、ストレージ340から読み出した圧縮ストリームに対して、復号化処理を施して、復号画像データを復号する。復号化処理部350における復号化処理は、符号化処理部320における符号化処理に対応する。復号化処理部350は、復号した復号画像データを、画像解析部370へ出力する。
画像解析部370は、復号画像データに基づいて、モニタ画面に復号画像を表示させ、表示させた復号画像を用いて、画像解析を行う。画像解析としては、例えば、同一場所で取得した画像において、交通事故が発生する寸前(「ヒヤリハット」と称される場合がある。)の状況を解析するなどがある。
例えば、サーバ300は符号化処理部320を含むので、サーバ300が画像圧縮装置であってもよい。
なお、図1に示す動画像伝送システム10において、符号化処理部320は、サーバ300に存在するが、車両100内に設けられても良い。この場合、例えば、車両100が画像圧縮装置であってもよい。この場合、H.26x符号化処理部121に代えて、符号化処理部320となる。サーバ300も、H.26x復号化処理部310と符号化処理部320がなくなり、車両100の符号化処理部320から出力された圧縮ストリームがストレージ340に直接記憶される。
<符号化処理部の構成例>
図2は、符号化処理部320の構成例を表す図である。符号化処理部320は、原画間引き部321、減算部322、直交変換部323、量子化部324、可変長符号化部325、逆量子化部326、逆直交変換部327、加算部328、参照画像記憶部329、動き探索部330、予測画像生成部331を備える。また、符号化処理部320は、移動量算出部332、移動前後画像位置算出部(以下、「画像位置算出部」と称する場合がある。)333、拡縮参照画像変換部(以下、「参照画像変換部」と称する場合がある。)334を備える。
原画間引き部321は、移動量算出部332から出力された移動量とCANデータとに基づいて、入力した原画データを所定のタイミングで出力する。例えば、原画間引き部321は、以下の処理を行う。すなわち、原画間引き部321は、原画データに含まれる時刻情報とCANデータに含まれる時刻情報とが一致するタイミングで、原画データを出力する。また、原画間引き部321は、例えば、CANデータに含まれる観測間隔時間tと車両100の速度v、ハンドルの舵角θに基づいて、車両100の移動距離l=vt・sinθを算出する。そして、原画間引き部321は、算出した移動距離lが指定距離と一致するまで、入力した原画データを破棄し、一致すると、入力した原画データを出力する。原画間引き部321は、間引き後の原画データを、減算部322と動き探索部330へ出力する。
減算部322は、例えば、フレーム内予測符号化モード(又はイントラモード)のときは、原画間引き部321から受け取った原画データを減算することなくそのまま直交変換部323へ出力する。また、減算部322は、例えば、フレーム間予測符号化モード(又はインターモード)のときは、原画間引き部321から出力された原画データから、予測画像生成部331から出力された予測画像の画像データを減算し、差分画像の画像データ(以下、「差分画像データ」と称する場合がある。)を算出し、算出した差分画像データを直交変換部323へ出力する。
直交変換部323は、原画データ又は差分画像データに対して直交変換を施す。例えば、直交変換部323は、原画データ又は差分画像データを、マクロブロック(例えば16×16画素単位)単位に、DCT(Discrete Cosine Transform)変換を適用することで、直交変換後の成分(又はDCT係数)を算出する。直交変換部323は、原画データ又は差分画像データの直交変換後の成分を、量子化部324へ出力する。
量子化部324は、直交変換後の成分に対して量子化値で量子化する。例えば、量子化部324は、原画データ又は差分画像データの直交変換後の成分に対して、量子化ステップ(例えば「16」)で除算した結果を整数値で丸めた量子化値を算出する。量子化部324は、算出した量子化値を、変換係数として、可変長符号化部325と逆量子化部326へ出力する。
可変長符号化部325は、量子化部324から出力された変換係数、動き探索部330から出力された動きベクトル情報、及び画像位置算出部333から出力された拡縮参照画像変換パラメータに対して、可変長符号化処理を施す。例えば、可変長符号化部325は、CABAC(Context-based Adaptive Binary Arithmetic Coding)などの符号化アルゴリズムを利用して、可変長符号化を行う。可変長符号化部325は、原画データに対応する可変長符号化後の変換係数を、例えば、I(Intra)ピクチャの圧縮ストリームとして出力する。また、可変長符号化部325は、差分画像データに対応する可変長符号化後の変換係数を、例えば、P(Predictive)ピクチャ又はB(Bi-directionally predictive)ピクチャの圧縮ストリームとして出力する。さらに、可変長符号化部325は、可変長符号化後の動きベクトルと拡縮参照画像変換パラメータとを、各ピクチャの圧縮ストリームに多重して出力する。可変長符号化部325は、圧縮ストリームをストレージ340に記憶する。なお、拡縮参照画像変換パラメータの詳細は後述する。
逆量子化部326は、量子化部324から出力された変換係数に対して、量子化部324で利用した量子化ステップを乗算することで、量子化値となる前の原画データ又は差分画像データの直交成分を算出する。逆量子化部326は、算出した直交成分を、逆直交変換部327へ出力する。
逆直交変換部327は、原画データ又は差分画像データの直交成分に対して、例えば、所定の演算方式を利用して、逆直交変換(例えば、逆DCT変換)を行い、直交変換前の原画データ又は差分画像データを算出する。逆直交変換部327は、算出した原画データ又は差分画像データを、加算部328へ出力する。
加算部328は、逆直交変換部327から出力される画像データが原画データに対応するときは、逆直交変換部327から出力される画像データを、乗算することなくそのまま、参照画像記憶部329へ記憶する。また、加算部328は、逆直交変換部327から出力される画像データが、差分画像データに対応するときは、逆直交変換部327から出力される差分画像データと、予測画像生成部331から出力される予測画像の画像データとを加算し、加算後の画像データを、参照画像記憶部329へ記憶する。加算部328は、原画データと加算後の画像データとを、参照画像の画像データとして、参照画像記憶部329へ記憶する。
参照画像記憶部329は、参照画像の画像データを記憶する。参照画像記憶部329は、加算部328により参照画像の画像データを適宜記憶することができ、動き探索部330、予測画像生成部331、参照画像変換部334により、記憶した参照画像の画像データを適宜読み出すことが可能である。
動き探索部330は、原画間引き部321から出力された原画データと、参照画像記憶部329から読み出した参照画像の画像データとに基づいて、動きベクトルを探索する。すなわち、動き探索部330は、原画間引き部321から出力された符号化対象の画像データと、参照画像記憶部329から読み出した、符号化対象画像よりも1フレーム前の復号画像の画像データとに基づいて、動きベクトルを探索する。
また、動き探索部330は、原画間引き部321から出力された原画データと、参照画像変換部334から出力された拡縮変換後の参照画像(以下、「拡縮参照画像」と称する場合がある。)の画像データとに基づいて、動きベクトルを探索する。すなわち、動き探索部330は、原画間引き部321から出力された符号化対象の画像データと、参照画像変換部334から出力された、符号化対象画像よりも1フレーム前における変形後の復号画像の画像データとに基づいて、動きベクトルを探索する。
動き探索部330では、2つの動きベクトルを算出するが、探索結果の良い動きベクトルを、予測画像生成部331と可変長符号化部325へ出力する。例えば、算出した動きベクトルの大きさが小さい方(又は大きい方)を、探索結果の良い動きベクトルとしてもよい。
予測画像生成部331は、参照画像記憶部329から読み出した参照画像の画像データに対して、動き探索部330から出力された動きベクトルの分だけずらした予測画像の画像データを生成する。予測画像生成部331は、生成した予測画像の画像データを、減算部322と加算部328へ出力する。
移動量算出部332は、例えば、CANデータに基づいて、撮像装置110で撮像された物体(又は被写体。以下、「物体」と称する場合がある。)の移動量を算出する。例えば、移動量算出部332は、CANデータに含まれる車両100の移動速度v、観測間隔時間t、ハンドルの舵角θなどに基づいて、物体の移動量を算出する。算出方法の詳細は動作例で説明する。物体の移動量は、例えば、物体の移動前の座標位置(x,y,z)と、移動後の座標位置(x’,y’,z’)とで表されもよい。移動量算出部332は、算出した物体の移動量を、画像位置算出部333へ出力する。
画像位置算出部333は、例えば、参照画像に対して、分割領域を設定し、物体の移動量に基づいて、分割領域の各頂点の座標の移動前後の座標位置を算出する。この際、画像位置算出部333は、3次元座標系の分割領域の各頂点を、画像上の座標系(又は参照画像上の2次元座標系)の座標位置に変換する。算出方法の詳細は動作例で説明する。画像位置算出部333は、分割領域の各頂点座標の移動前後の座標位置を、拡縮参照画像変換パラメータとして、参照画像変換部334と可変長符号化部325へ出力する。
参照画像変換部334は、拡縮参照画像変換パラメータを用いて、ホモグラフィ変換(又は射影変換)を表す行列式Hを分割領域毎に算出する。そして、参照画像変換部334は、参照画像記憶部329から読み出した参照画像を分割領域毎に、行列式Hを用いてホモグラフィ変換を施し、変換後の参照画像を合成して、1フレーム分の拡縮参照画像の画像データを生成する。算出方法の詳細は動作例で説明する。参照画像変換部334は、生成した拡縮参照画像の画像データを動き探索部330へ出力する。
なお、減算部322、直交変換部323、量子化部324、及び可変長符号化部325により、例えば、予測画像の画像データを用いて符号化対象の画像データを圧縮符号化する符号化部が形成されてもよい。
<復号化処理部の構成例>
図3は復号化処理部350の構成例を表す図である。復号化処理部350は、可変長復号化部351、逆量子化部352、逆直交変換部353、加算部354、参照画像記憶部355、拡縮参照画像変換部(以下、「参照画像変換部」と称する場合がある。)356、及び予測画像生成部357を備える。
可変長復号化部351は、ストレージ340から読み出した圧縮ストリームに対して、可変長復号化処理を施し、原画データ又は差分画像データの直交成分(例えばDCT係数)、動きベクトル情報、及び拡縮参照画像変換パラメータを復号する。可変長復号化部351は、復号した直交成分を逆量子化部352、復号したベクトル情報を予測画像生成部357、復号した拡縮参照画像変換パラメータを参照画像変換部356へそれぞれ出力する。
逆量子化部352は、原画データ又は差分画像データの直交成分に対して、符号化処理部320の量子化部324で利用した量子化ステップで乗算し、符号化処理部320における量子化前の原画データ又は差分画像データの直交成分を算出する。逆量子化部352は、算出した原画データ又は差分画像データの直交成分を逆直交変換部353へ出力する。
逆直交変換部353は、原画データ又は差分画像の画像データの直交成分に対して、例えば、所定の演算方式を利用して、逆直交変換(例えば、逆DCT変換)を行い、直交変換前の原画データ又は差分画像データを算出する。逆直交変換部353は、算出した原画データ又は差分画像データを加算部354へ出力する。
加算部354は、逆直交変換部353からの出力が原画データのとき、原画データを予測画像の画像データに加算することなくそのまま出力する。また、加算部354は、逆直交変換部353からの出力が差分画像データのとき、差分画像データと、予測画像生成部357から出力された予測画像の画像データとを加算して出力する。これにより、例えば、Iピクチャに対応する原画の原画データは、そのまま復号画像データとして出力され、BピクチャやPピクチャに対応する差分画像は、予測画像と加算されて加算後の画像データが復号画像データとして出力される。なお、加算部354は、原画データ又は加算後の画像データを参照画像の画像データとして、参照画像記憶部355に記憶する。
参照画像記憶部355は、加算部354から出力された参照画像の画像データを記憶する。参照画像記憶部355に記憶された画像データは、参照画像変換部356や予測画像生成部357によって、参照画像記憶部355から適宜読み出すことが可能である。
参照画像変換部356は、拡縮参照画像変換パラメータに基づいて、ホモグラフィ変換で利用する行列式Hを算出し、参照画像記憶部355から読み出した参照画像の画像データに対して行列式Hを利用してホモグラフィ変換を施す。この場合、拡縮参照画像変換パラメータには、分割領域における移動前後の各頂点座標が含まれる。そのため、参照画像変換部356は、符号化処理部320の参照画像変換部334と同様に、分割領域毎に参照画像に対してホモグラフィ変換を施して、変換後の参照画像を合成して1フレーム分の画像とすることで、拡縮参照画像の画像データを生成する。参照画像変換部356は、生成した拡縮参照画像の画像データを、予測画像生成部357へ出力する。
予測画像生成部357は、拡縮参照画像の画像データ、又は参照画像記憶部355から読み出した参照画像の画像データに対して、動きベクトル情報に含まれる動きベクトルの分だけずらした画像データを生成する。予測画像生成部357は、拡縮参照画像の画像データに対して動きベクトル分ずらした画像の画像データ、又は、参照画像の画像データに対して動きベクトル分ずらした画像の画像データのいずれか一方を加算部354へ出力する。
<動作例>
次に動作例について説明する。動作例は、以下の順番で説明する。
<1.撮像装置で撮像された画像の例>
<2.符号化処理>
<2.1 移動量算出処理>
<2.2 移動前後画像位置算出処理>
<2.3 拡縮参照画像変換処理>
<3.復号化処理>
<1.撮像装置で撮像された画像の例>
図4(A)は車両100に搭載された撮像装置110で撮像された画像の例を表し、図4(B)は、図4(A)の画像に対して観測間隔時間t経過後の画像の例を表している。
図4(A)に示す画像のうち、四角い枠内に含まれる木410と標識420に着目する。この場合、木410の車両100からの距離と、標識420の車両100からの距離とを比較すると、前者の方が後者よりも遠い距離に存在する。
従って、観測間隔時間t経過後においては、図4(B)に示すように、標識420の拡大率は、木410の拡大率よりも大きい。なお、図5(B)は、車両100の木410、及び標識420の位置関係の例を表している。
例えば、参照画像が図4(A)の場合、四角い枠に着目し、この枠内にある木410と標識420をある拡大率で一律に拡大する場合を考える。
図5(A)は、同じ拡大率で木410と標識420を拡大した場合の枠内の画像の例を表している。図5(A)に示す画像を参照画像とする場合と、図4(B)の四角い枠内で示される画像を参照画像とする場合とを比較すると、明らかに図4(B)に示す参照画像を用いた方が、実際の画像に合致する。これは、車両100から木410までの距離と、車両100から標識420までの距離の差に基づいている。すなわち、車両100から木410までの距離は、車両100から標識420までの距離よりも遠くなっており、観測間隔時間t経過しても、木410は標識420と比較してそれほど拡大していない。一方で、車両100から標識420までの距離は、木410までの距離よりも近いことから、観測間隔時間t経過後、標識420は木410よりも大きく拡大している。画像内に複数の物体(木410や標識420)が存在する場合、車両100からの距離に応じて、各物体の拡大率が異なっている。
本第1の実施例では、符号化処理部320において、このような各物体の拡大率を考慮して参照画像(例えば図4(A))に対して変形を施した拡縮参照画像(例えば図4(B))を生成する。そして、符号化処理部320では、この拡縮参照画像と符号化対象画像(例えば図4(B))とに基づいて動きベクトルを探索するようにしている。これにより、例えば、符号化処理部320において、一律に拡大した参照画像(例えば図5(A))よりも、拡縮参照画像の方が、符号化対象画像との一致率が高くなる。一致率が高くなることで、拡縮参照画像を利用して動きベクトルを探索した方が、一律に拡大した参照画像を利用して動きベクトルを探索するよりも、正確な動きベクトルを算出することも可能となる。
<2.符号化処理>
図6と図7は符号化処理の例を表すフローチャートである。
図6に示すように、符号化処理部320は、原画データを入力するなどして、処理を開始すると(S10)、初回処理開始時か否かを判別する(S11)。例えば、符号化処理部320では以下の処理を行う。すなわち、原画間引き部321は、原画データの入力タイミングを計測しており、初めて原画データを入力したときや、前回の処理から相当期間経過後に原画データを入力したときは、初回処理開始であると判別する(S11でyes)。一方、原画間引き部321は、そうでないときは初回処理開始ではない(S11でno)と判別する。
符号化処理部320は、初回処理開始のとき(S11でyes)、原画データとCANデータとの頭合わせを行う(S12)。例えば、原画間引き部321は、原画データに含まれる時刻情報とCANデータに含まれる時刻情報とが一致するタイミングで、原画データを出力する。
一方、符号化処理部320は、初回処理開始ではないとき(S11でno)、指定距離まで原画データとCANデータとを読み飛ばす(S13)。例えば、原画間引き部321は、移動量算出部332から出力された移動量に合致するように、入力した原画データを所定フレーム間引いて、出力する。或いは、原画間引き部321は、例えば、CANデータに含まれるデータに基づいて、車両100の移動距離lを算出し、算出した移動距離lが指定距離と一致するまで、入力した原画データを破棄し、一致したときに入力した原画データを出力してもよい。
符号化処理部320は、S12又はS13の処理を終了すると、入力した原画データが1フレーム目か否かを判別する(S14)。例えば、減算部322は、入力した原画データのフレーム数をカウントし、カウント値が「1」か否かにより判別する。この場合、減算部322は、フレーム数がGOP(Group of Picture)のフレーム数(例えば15フレームや30フレームなど)になるとカウント値をクリアし、再び1フレーム目から順番にカウントを開始する。
符号化処理部320は、原画データが1フレーム目のとき(S14でyes)、原画データに対して直交変換を行う(S15)。例えば、減算部322は、カウント値が「1」のとき、原画データを加算することなく直交変換部323へ出力し、直交変換部323は原画データに対して直交変換を行う。1フレームは、例えば、イントラフレームであり、符号化処理部320は、1フレーム目の原画データに対して、以下に示すフレーム内符号化処理を行うことになる。
すなわち、符号化処理部320は、直交変換後の1フレーム目の原画データの直交成分(又は変換係数)に対して、量子化処理を施す(S16)。例えば、量子化部324は、直交変換部323から出力された変換係数に対して量子化ステップで除算した結果を整数値で丸めた量子化値を生成する。
次に、符号化処理部320は、量子化値に対して可変長符号化処理を施す(図7のS17)。例えば、可変長符号化部325は、CABACなどの符号化方式を利用して、量子化値に対して可変長符号化処理を施す。
次に、符号化処理部320は、圧縮ストリームをストレージ340へ出力する(S18)。
また、符号化処理部320は、量子化値(S16)に対して、逆量子化処理を施すことで、量子化前の変換係数を算出し(S19)、算出した変換係数に対して逆直交変換を施すことで、原画の原画データを復号する(S20)。符号化処理部320は、復号画像である原画の原画データを参照画像の画像データとして参照画像記憶部329に記憶する。
符号化処理部320は、S18とS21の処理が終了すると、画像データの有無を判別し(S22)、画像データがあれば(S22でyes)、S10へ移行し、画像データが無ければ(S22でno)、符号化処理を終了する(S23)。例えば、原画間引き部321は、原画データの入力の有無により、画像データの有無を判別してもよい。
一方、符号化処理部320は、原画データが1フレーム目の原画データではないとき(S14でno)、移動量算出処理を行う(S30)。
<2.1 移動量算出処理>
図8は移動量算出処理の例を表すフローチャートである。
符号化処理部320は、移動量算出処理を開始すると(S300)、CANデータに基づいて、ハンドルの舵角θが「0」か否かを判別する(S301)。例えば、移動量算出部332は、CANデータから抽出したハンドルの舵角θが「0」か否かにより判別する。
符号化処理部320は、ハンドルの舵角θが「0」ではないとき(S301でno)、以下に示す式(3)を利用して、車両移動後の物体の位置(x’,y’,z’)を算出する(S302)。
図9は、ハンドルの舵角θと回転半径rとの関係例を表す図である。回転半径rは、例えば、ハンドルの舵角がθで車両100が走行するときに、車両100が描く円の半径を表す。ただし、車両100のタイヤは路面に完全に接地し、スリップしていない状態で、かつ、オーバステアリングやアンダーステアリングではない状態と仮定する。
図9に示すように、αとα’は対頂角の関係から、α=α’となり、θ=θ’となる。従って、α+θ=α’+θ’=π/2を得る。これを変形すると、sinθ=sinθ’=h/rとなる。従って、回転半径rは、
Figure 2018207356
となる。
図10(A)は、車両100の移動例を表す図であり、図10(B)は車両座標系における物体の移動例を表す図である。
図10(A)と図10(B)は、横軸がx軸、縦軸がy軸、紙面から上に向かう軸(又は重力が働く方向と逆方向の軸)がz軸である。ただし、図10(A)と図10(B)は、説明を考慮して、各位置を2次元の(x,y)で表しており、実際には、各位置は3次元の(x,y,z)で表される。
図10(A)に示すように、車両100は移動前に(0,0)に位置し、時間t経過後に(C,C)に移動する。この場合、車両100は、ハンドルの舵角がθとなっており、x軸、y軸、z軸の接点を中心にして、移動距離はl、移動角度はφとなる。移動角度φは、移動距離lと回転半径r、及び式(1)とを用いて、
Figure 2018207356
となる。
図10(B)は、車両座標系における物体の移動量を表す図である。図10(B)に示す車両100自体の移動は、図10(A)と同一であるが、車両100の位置を移動前後に関係なく(0,0)(3次元で表すと(0,0,0))とした場合の例である。車両100が移動しても車両100自体の位置を(0,0)とした場合において、車両100周辺の物体がどのように移動したかを表す座標系が、例えば、車両座標系となっている。図10(A)に示すように実際には、車両100が移動角度φで移動した場合、物体の位置(x,y)自体は変わらないが、車両座標系で見ると、図10(B)に示すように、物体の位置は、(x,y)から(x’,y’)へ移動する。ただし、移動角度φは、図10(A)の場合でも図10(B)の場合でも変わらない。
ここで、車両座標系において、車両100が移動する前の物体の位置を(x,y,z)とし、車両100が移動した後の物体の位置を(x’,y’,z’)とすると、(x’,y’,z’)は、
Figure 2018207356
により表される。
式(3)において、
Figure 2018207356
は、例えば、座標位置の平行移動を表している。図10(B)に示すように、車両100の座標位置を(0,0,0)とすると、x軸、y軸、z軸の接点は(−r,0,0)となり、この接点を中心にして、物体が移動している。車両100の座標位置を(r,0,0)とすれば、この接点が原点(0,0,0)となるため、車両100の座標位置を(0,0,0)から(r,0,0)へ平行移動させることで、x軸、y軸、z軸の接点を原点(0,0,0)にすることができ、原点を中心にした角度として、移動角度φを表すことができる。
また、式(3)において、
Figure 2018207356
は、例えば、座標位置の平行移動と回転とを表している。
式(5)の行列式のうち、第4列(−rを含む列)は平行移動を表す。すなわち、式(4)により、原点が「r」だけx軸方向へ平行移動しており、これを元に戻すため、原点を「−r」だけx軸方向へ平行移動させる処理を行うことを表している。これにより、例えば、車両100の位置が原点(0,0,0)に戻されることになる。
また、式(5)の行列式のうち、第1列から第3列はz軸を中心にして、−φの方向にx軸とy軸を回転させたときの回転行列を表している。式(5)は全体として、x軸、y軸、z軸の接点を原点として、z軸を中心に、移動角度φだけ回転させ、その後、原点を、接点から車両100の位置へ平行移動させることを表している。
移動量算出部332は、例えば、以下の処理を行う。すなわち、移動量算出部332は、式(2)と式(3)を内部メモリに保持する。移動量算出部332は、ハンドルの舵角θが「0」ではないことを確認すると、車両100の速度v、観測間隔時間t、ハンドルの舵角θを、式(2)に代入して、移動角度φを算出する。そして、移動量算出部332は、算出した移動角度φを、式(3)に代入して、車両100移動前の物体の座標位置(x,y,z)に対し、車両100の移動後の物体の座標位置(x’,y’,z’)を算出する。
なお、式(3)において、(x’,y’,z’,1)として4次元で表されているが、式(3)の左式の4行目の「1」は、式(3)の行列式において、1つの行列式の中で、回転行列だけではなく、平行移動を表す行列式を表すようにするために挿入されたものである。
図8に戻り、次に、符号化処理部320は、移動量を出力する(S303)。例えば、移動量算出部332は、移動量として、(x,y,z)と(x’,y’,z’)とを、画像位置算出部333と原画間引き部321へ出力する。
そして、符号化処理部320は、移動量算出処理を終了する(S304)。
一方、符号化処理部320は、ハンドルの舵角θが「0」のとき(S301でyes)、式(6)を利用して、車両移動後の物体の位置(x’,y’,z’)を算出する(S305)。
図11(A)は、ハンドルの舵角θが「0」のときの車両100の移動例を表す図である。また、図11(B)は、車両座標系においてハンドルの舵角θが「0」のときの物体の移動例を表す図である。
図11(A)に示すように、舵角θが「0」のとき、観測間隔時間t経過後の車両100の位置は、l=vtとすると、(0,0)から(0,l)へ変化する。従って、図11(B)に示すように、車両座標系では、物体の位置(x,y)から(x’,y’)へ変化する。これを3次元座標で表すと、車両移動前の物体の位置(x,y,z)に対して、車両移動後の物体の位置(x’,y’,z’)は、
Figure 2018207356
で表すことができる。
式(6)に示す行列式も、第1列から第3列により回転、第4列により平行移動をそれぞれ表している。この場合、車両100は、舵角θが「0」のため、回転運動することはなく、第1列から第3列では単位行列により回転行列が表されている。また、物体の移動は、図11(B)に示すように、y軸方向へ「−vt」だけ移動するため、式(6)の第4列では、2行目が「−vt」となっている。
移動量算出部332は、例えば、以下の処理を行う。すなわち、移動量算出部332は、CANデータからハンドルの舵角θが「0」であることを確認すると、内部メモリに記憶した式(6)を読み出して、CANデータに含まれる車両100の速度vと、観測間隔時間tとを式(6)に代入し、車両移動後の物体の座標位置(x’,y’,z’)を算出する。
図8に戻り、次に、符号化処理部320は、算出した移動量を出力する(S303)。例えば、移動量算出部332は、(x,y,z)と式(6)で算出した(x’,y’,z’)とを、画像位置算出部333へ出力する。
そして、符号化処理部320は、移動量算出処理を終了する(S304)。
図6に戻り、符号化処理部320は、移動量算出処理(S30)を終了すると、移動前後画像位置算出処理を行う(S32)。
<2.2 移動前後画像位置算出処理>
図12は、移動前後画像位置算出処理(以下、「画像位置算出処理」と称する場合がある。)の例を表すフローチャートである。
符号化処理部320は、画像位置算出処理を開始すると(S320)、車両データから分割領域における各頂点座標を決定する(S321)。画像位置算出処理においては、例えば、図14に示すように、参照画像に対して分割領域を設定する。後段の、参照画像変換部334では、分割領域毎に参照画像に対してホモグラフィ変換を施す。画像位置算出処理においては、最初に、本処理において、この分割領域を設定する処理を行っている。
図13は、車両100の設定された分割領域の例を表す図である。撮像装置110の位置を原点(0,0,0)とし、撮像装置110に近い四角形の頂点座標はA,B,C,Dにより表され、撮像装置110から遠い方の四角形の頂点座標はE,F,G,Hにより表されている。図13では、2つの四角形ABCD,EFGHは同じ大きさとなっているが、撮像装置110から見た2つの四角形ABCD,EFGHは、例えば、図14に示すように、四角形ABCDは大きく、四角形EFGHは小さく表示される。
図14において、各分割領域は、例えば、上分割領域、右分割領域、下分割領域、左分割領域、中央分割領域の5つの領域となる。
上分割領域は、頂点座標ADHEにより表された領域である。上分割領域は、例えば、建物や空などが撮像される領域となる。
右分割領域は、頂点座標CDHGにより表された領域である。また、左分割領域は、頂点座標ABFEにより表された領域である。右分割領域と左分割領域は、例えば、建物や歩道などが撮像される領域となる。
下分割領域は、頂点座標BCGFにより表された領域である。下分割領域は、例えば、道路面などが撮像される領域となる。
中央分割領域は、頂点座標EFGHにより表された領域である。中央分割領域は、例えば、車両100から所定距離離れた領域にある面となっている。中央分割領域は、例えば、参照画像の中心点が含まれる領域となる。
画像位置算出部333は、例えば、車両データに含まれるカメラの高さなどの情報から、分割領域の各頂点座標A〜Hを決定する。各頂点座標A〜Hの例としては、
A(−3,1.5,9)、B(−3,1.5,−1)、C(5,1.5,−1)、D(5,1.5,9)、E(−3,100,9)、F(−3,100,−1)、G(5,100,−1)、H(5,100,9)
となる。
また、画像位置算出部333は、車両100が移動した後の分割領域の各頂点座標A’からH’も決定する。例えば、図13の例では、車両100の移動前の各頂点座標A〜Hを表しているが、車両100が移動した後の各頂点座標A’〜H’もある。画像位置算出部333は、例えば、車両移動後の車両データに基づいて、各頂点座標A’〜H’を算出する。
なお、画像位置算出部333は、例えば、内部メモリに固定値として、各頂点座標A〜H,A’〜H’の座標位置を保持してもよく、各頂点座標A〜H,A’〜H’の座標位置を本処理の際に内部メモリから読み出すようにしてもよい。
なお、図14に示す分割領域の頂点座標A〜Hは一例であって、それ以外の数値でもよいし、頂点ABCDが参照画像の枠の4頂点と一致してもよいし、頂点ABCDが参照画像の枠内にあってもよい。
図12に戻り、次に、符号化処理部320は、移動前の頂点座標(x,y,z)を、画像上の2次元座標系(u,v)へ変換する(S322)。例えば、画像位置算出部333は、以下の式(7)を用いて、座標(u,v)への変換を行う。
Figure 2018207356
式(7)の右辺で2番目の行列式
Figure 2018207356
は、例えば、車両座標系(例えば、車両100の中心を原点)から、撮像装置110の座標系(例えば、撮像装置110の位置を原点)への変換を表している。式(8)は、この変換を、回転(第1列から第3列)と平行移動(第4列)により、行われることを表している。
また、式(7)の右辺で1番目の行列式
Figure 2018207356
は、例えば、主点(又は画像の中心点)c,cへの平行移動と、焦点距離f,fの拡大又は縮小を表している。
主点は、例えば、撮像装置110に入射する画像の光軸と、撮像装置110における撮像素子との接点を表す。主点の例を、図17(A)に示す。本第1の実施の形態では、この主点を、例えば、画像の中心点としている。主点のx座標とy座標とがそれぞれc,cとして表されている。図14に示す分割領域において、中央分割領域EFGHには、画像の中心点が含まれる。
式(9)において、焦点距離f,fは、例えば、撮像装置110の撮像素子面とレンズの中心点との最短距離を表しており、fはx軸方向、fはy軸方向の各方向における最短距離を表している。
画像位置算出部333は、例えば、以下の処理を行う。すなわち、画像位置算出部333は、内部メモリに式(7)を記憶する。画像位置算出部333は、移動量算出部332から、車両移動前の物体の位置(x,y,z)を受け取ると、式(7)を読み出して、受け取った(x,y,z)を式(7)に代入することで、(u,v)を得る。このとき、画像位置算出部333は、分割領域の各頂点座標A〜Hを、車両移動前の物体の位置(x,y,z)として、式(7)に代入する。すなわち、画像位置算出部333は、A(−3,1.5,9)を(x,y,z)として、式(7)に代入して、2次元座標a(u,v)へ変換する。画像位置算出部333は、同様にして、他の頂点座標B〜Hを、式(7)に各々代入することで、2次元座標系b〜hを得る。従って、画像位置算出部333は、分割領域の各頂点座標A〜Hを、式(7)に代入して、画像上の座標位置a〜hをそれぞれ算出する。
図12に戻り、次に、符号化処理部320は、車両移動後の各頂点座標(x’,y’,z’)を、画像上の2次元座標(u’,v’)へ変換する(S323)。
画像位置算出部333は、例えば、以下の処理を行う。すなわち、画像位置算出部333は、内部メモリに記憶した式(7)を読み出して、移動量算出部332から受け取った、車両移動後の物体の位置(x’,y’z’)を式(7)に代入することで、画像上の2次元座標(u’,v’)を得る。このとき、画像位置算出部333は、分割領域の各頂点座標A’〜H’を、車両移動前の物体の位置(x’,y’,z’)であるとして、式(7)の(x,y,z)に代入する。すなわち、画像位置算出部333は、A’の座標(x’,y’,z’)を式(7)に代入して、3次元座標A’を2次元座標a’(u’,v’)へ変換する。画像位置算出部333は、同様にして、他の頂点座標B’〜H’を、式(7)に各々代入して、2次元座標b’〜h’を得る。従って、画像位置算出部333は、分割領域の各頂点座標A’〜H’を、式(7)に代入して、画像上の座標位置a’〜h’をそれぞれ算出する。
図15(A)は車両移動前における分割領域の各頂点座標a〜hの例、図15(B)は車両移動後における分割領域の各頂点座標a’〜h’の例をそれぞれ表している。
図12に戻り、次に、符号化処理部320は、変換後の分割領域の各頂点座標a〜h,a’〜h’を出力する(S324)。例えば、画像位置算出部333は、変換後の各頂点座標a〜h,a’〜h’を、参照画像変換部334へ出力する。
そして、符号化処理部320は、移動前後画像位置算出処理を終了する(S325)。
図6に戻り、符号化処理部320は、移動前後画像位置算出処理を終了すると(S32)、拡縮参照画像変換処理(S34)を行う。
<2.3 拡縮参照画像変換処理>
図16は、拡縮参照画像変換処理の例を表すフローチャートである。
符号化処理部320は、処理を開始すると(S340)、移動前後の分割領域の各頂点座標a〜h,a’〜h’から、ホモグラフィ変換を表す行列式Hを算出する(S341)。
ホモグラフィ変換とは、例えば、射影変換を用いて、ある平面を別の平面に変換することである。本第1の実施の形態では、例えば、車両移動前における分割領域の各頂点座標a〜hを、車両移動後における分割領域の各頂点座標a’〜h’へ変換することである。例えば、図19に示すように、分割領域の頂点aを、ホモグラフィ変換により、頂点a’へ移動させ、分割領域の頂点bを、ホモグラフィ変換により、頂点b’へ移動させるなどである。
ホモグラフィ変換前の座標を(x,y)、ホモグラフィ変換後の座標を(X,Y)とする。このとき、
Figure 2018207356
とし、
Figure 2018207356
とする。ここで、
Figure 2018207356
Figure 2018207356
としたとき、
Figure 2018207356
により表された式がホモグラフィ変換である。
式(14)において、Hは、ホモグラフィ変換を表す行列式であって、
Figure 2018207356
で表される。
式(14)を変形すると、
Figure 2018207356
となる。
ここで、式(12)の「W’」について説明する。
図17(A)は、物体の実際の大きさと撮像素子面に写る物体の大きさとの関係例を表す図である。撮像装置110の撮像素子面からレンズの中心点までの距離が焦点距離Fであり、レンズの中心点から物体までの距離をZ1とする。物体の実際の大きさはOとする。撮像素子面に写る物体の大きさを、L1とする。
図17(B)は、同じ大きさの物体が、図17(A)と比較して遠い距離Z2(>Z1)に位置するときの関係例を表す図である。この場合、撮像素子面に写る物体の大きさL2は、近い距離に位置する図17(A)の場合の物体の大きさL1と比較して、小さくなる(L2<L1)。
すなわち、物体の大きさが変わらなければ、レンズの中心点からの距離が遠いほど、撮像素子面に写る物体の大きさは小さくなる。逆に、物体の大きさが変わらなければ、レンズの中心点からの距離が小さいほど、撮像素子面に写る物体の大きさは大きくなる。
図18(A)は、観測間隔時間t経過後における物体の位置の変化と、撮像素子面に写る物体の変化の関係例を表す図である。図18(A)に示すように、車両100が前方に移動すると、撮像装置110では、物体#1が手前に移動するように見える。観測間隔時間t経過後、物体#1は、レンズの中心点からの距離がZ3から、Z4となる。このとき、撮像素子面に写る物体#1の大きさは、L4からL3となる。すなわち、図18(A)の例では、観測間隔時間t経過後において、撮像素子面に写る物体の大きさは、(L4−L3)だけ大きくなる。
図18(B)も、図18(A)と同様に物体の位置の変化と撮像素子面に写る物体の変化の関係例を表す図である。図18(B)の場合、図18(A)と比較して、物体#2の実際の大きさは、物体#1と同じOとなっているが、物体#2は物体1と比較して、レンズの中心点からの処理が近い距離に位置している。
図18(B)の場合も、同じ観測間隔時間t経過後、物体#2の位置は、撮像装置110から見ると、物体#1と同じ距離Z(=Z5−Z6=Z3−Z4)だけ移動する。しかし、撮像素子面に写る物体#2の大きさの変化(=L6−L5)は、図18(A)の大きさの変化(L4−L3)と比較して、大きい。
これは、物体#2の方が、物体#1よりも撮像装置110の近くで移動するからである。或いは、撮像装置110から遠い距離で物体#1が移動した場合の方が、撮像素子面における大きさの変化はそれほど大きくはないが、近い距離で物体#2が移動した場合は、撮像素子面における大きさは大きく変化する。
式(16)などに示す「W’」は、例えば、レンズの中心点から物体#1、#2までの距離Z1〜Z6を表している(又は、距離Z1〜Z6に比例する値を表している)。
例えば、撮像装置110からの距離が遠いほど、「W’」は大きくなる。従って、式(16)においては、ホモグラフィ変換後の位置Pは、変換前の位置pに対して、「1/W’」倍していることから、変換前の位置pを小さい値で拡大したものとなっている。
一方、例えば、撮像装置110からの距離が近いほど、「W’」は小さくなる。従って、式(16)においては、ホモグラフィ変換後の位置Pは、ホモグラフィ変換前の位置pに対して、大きな値で拡大したものとなっている。
そして、本第1の実施の形態では、図13や図14などに示すように、符号化処理部320において、分割領域毎にホモグラフィ変換を施すようにしている。これにより、例えば、撮像装置110から最も遠い面にある中央分割領域EFGHに適用するホモグラフィ変換と、それ以外の分割領域に適用するホモグラフィ変換とでは、その距離が異なることから、「W’」も異なるものとなる。すなわち、符号化処理部320では、分割領域毎にホモグラフィ変換を適用することで、分割領域において参照画像の中心点を含む領域の拡大率よりも、参照画像の外周を含む領域の拡大率を高くすることが可能となる。これは、撮像装置110で撮像された、物体の移動、例えば、画像に写る物体は距離が遠いほど時間が経過することによる物体の大きさはそれほど大きく変化しないが、距離が近いほど大きく変化する、という画像に相当するものとなる。
符号化処理部320では、例えば、以下の処理を行う。すなわち、参照画像変換部334は、式(16)(又は式(12)〜式(14))を内部メモリに保持し、画像位置算出部333から受け取ったa〜hを、ホモグラフィ変換前のp、a’〜h’をホモグラフィ変換後のPとして代入する。そして、参照画像変換部334は、ホモグラフィ変換を表す行列式Hに含まれる各成分を計算する。その際、参照画像変換部334は、分割領域ごとに、ホモグラフィ変換を表す行列式Hを算出する。従って、図14に示すように分割領域が5つある場合、参照画像変換部334は5つの行列式H1〜H5の各成分を算出することになる。
図16に戻り、次に、符号化処理部320は、算出した行列式を用いて、参照画像を分割領域毎にホモグラフィ変換を施す(S342)。例えば、参照画像変換部334は、5つの行列式H1〜H5を算出できたため、式(16)を利用して、ホモグラフィ変換前の位置pに、参照画像の各位置を代入する。これにより、例えば、ホモグラフィ変換後の参照画像の各位置Pを算出することが可能となる。
図19は、ホモグラフィ変換前後の参照画像の例を表す図である。図19において、太線で表された四角形の部分に参照画像が含まれる。上述したように、参照画像の(2次元座標変換後の)中央分割領域efghは、車両移動後には中央分割領域e’f’g’h’となるが、その大きさの変化は、それ以外の分割領域と比較して小さい。逆に、それ以外の分割領域は、中央分割領域efgh,e’f’g’h’の大きさの変化と比較して大きい。
図16に戻り、次に、符号化処理部320は、ホモグラフィ変換後の参照画像を拡縮参照画像として出力する(S343)。例えば、参照画像変換部334は、ホモグラフィ変換後の参照画像を、拡縮参照画像として、動き探索部330へ出力する。
そして、符号化処理部320は、拡縮参照画像変換処理を終了する(S344)。
図6に戻り、符号化処理部320は、拡縮参照画像変換処理(S34)を終了すると、動きベクトルを探索する(S36)。例えば、動き探索部330は、拡縮参照画像と原画間引き部321から出力された符号化対象画像とに基づいて動きベクトルを探索する。この場合、動き探索部330は、参照画像記憶部329から読み出した参照画像と符号化対象画像とに基づいて動きベクトルを探索してもよく、探索した2つの動きベクトルの一方を出力してもよい。
次に、符号化処理部320は、予測画像を生成し(S37)、原画と予測画像との差分画像を生成する(S38)。
次に、符号化処理部320は、差分画像に対して直交変換を施して(S39)、差分画像の直交変換後の成分(又は変換係数)を算出し、算出した変換係数に対して量子化ステップで量子化する(S40)。
次に、符号化処理部320は、量子化した変換係数と動きベクトル情報、更に、画像位置算出部333から出力された拡縮参照画像変換パラメータ(例えば、a〜hとa’〜h’)に対して可変長符号化処理を施す(図7のS17)。なお、動き探索部330では、動きベクトルを算出した際に、例えば、拡縮参照画像を利用したのか、参照画像記憶部329から読み出した参照画像を利用したのかを表す選択情報を、可変長符号化部325へ出力してもよい。この場合、符号化された選択情報が圧縮ストリームに多重化されて、ストレージ340に記憶される。
次に、符号化処理部320は、可変長符号化された変換係数、動きベクトル、拡縮参照画像変換パラメータなどが多重化された圧縮ストリームを出力する(S18)。
一方、符号化処理部320は、量子化した変換係数(図6のS40)に対して、量子化ステップで乗算して逆量子化処理を施し(図7のS19)、逆直交変換処理により、直交変換前の差分画像の画像データを復号する(S20)。
次に、符号化処理部320は、復号画像の画像データを参照画像として参照画像記憶部329へ記憶する(S21)。
符号化処理部320は、差分画像の画像データに対して、S18とS21の処理を終了すると、画像データの有無を判別し(S22)、画像データがあればS10へ移行して上述した処理を繰り返す(S22でyes)。一方、符号化処理部320は、画像データが無ければ(S22でno)、符号化処理を終了する(S23)。
<3.復号化処理>
図20は、復号化処理の例を表すフローチャートである。
復号化処理部350は、復号化処理を開始すると(S50)、ストレージ340から読み出した圧縮ストリームに対して可変長復号化処理を施す(S51)。
次に、復号化処理部350は、可変長復号化された変換係数に対して、量子化ステップを乗算して逆量子化処理を施す(S52)。
次に、復号化処理部350は、逆量子化後の変換係数に対して、逆DCT変換などの逆直交変換処理を施して、原画データ又は差分画像データを復号する(S53)。
次に、復号化処理部350は、可変長復号化後のデータに、分割領域の各頂点座標a〜h,a’〜h’(拡縮参照画像変換パラメータ)が含まれていれば、メモリなどに記憶する(S54)。例えば、可変長復号化部351は、可変長復号化後のデータに、拡縮参照画像変換パラメータが含まれていれば、このパラメータを、参照画像変換部356へ出力し、参照画像変換部356は、内部メモリに拡縮参照画像変換パラメータを記憶する。
次に、復号化処理部350は動きベクトルの有無を判別する(S55)。例えば、可変長復号化部351は、可変長復号化したデータの中に動きベクトル情報が含まれているか否かにより判別する。
復号化処理部350は、動きベクトルがあるとき(S55でyes)、分割領域の各頂点座標と参照画像とを用いて拡縮参照画像を生成する(S56)。例えば、参照画像変換部356は、分割領域の各頂点座標a〜h,a’〜h’を利用して、ホモグラフィ変換の行列式Hを算出し、算出した行列式Hを利用して、参照画像記憶部355から読み出した参照画像の画像データに対してホモグラフィ変換を施す。参照画像変換部356は、符号化処理部320の参照画像変換部334と同様に、分割領域毎に、ホモグラフィ変換用の行列式Hを算出して、参照画像の画像データにホモグラフィ変換を適用する。
次に、復号化処理部350は、動きベクトルと拡縮参照画像とを用いて予測画像を生成し(S57)、予測画像を用いて復号画像を生成する(S58)。例えば、予測画像生成部357において予測画像を生成し、加算部354において、差分画像の画像データと、予測画像の画像データとを加算して復号画像の画像データを生成する。この場合、予測画像生成部357は、拡縮参照画像と参照画像のいずれか一方を利用して予測画像を生成してもよく、可変長復号化部351から受け取った選択情報に従っていずれか一方を選択してもよい。
次に、復号化処理部350は、生成した復号画像を参照画像として保存し、復号画像を出力する(S59,S60)。例えば、加算部354は、生成した復号画像の画像データを参照画像記憶部355に記憶し、復号画像データとして、画像解析部370へ出力する。
そして、復号化処理部350は、圧縮ストリームの有無を判別し、圧縮ストリームが無ければ(S61でno)、復号化処理を終了する(S62)。
一方、復号化処理部350は、動きベクトルが無ければ(S55でno)、S59へ移行して、上述の処理を繰り返す。この場合は、圧縮ストリームには、原画の圧縮データが含まれることになり、復号化処理部350ではフレーム内復号化処理を行う(S59〜S61)。
また、一方、復号化処理部350は、圧縮ストリームが有れば(S61でyes)、S51へ移行して上述した処理を繰り返す。
このように本第1の実施の形態においては、符号化処理部320では、参照画像に対して分割領域を設定し、分割領域において、参照画像の中心点を含む領域の拡大率よりも、参照画像の外周を含む領域の拡大率の方が高くなるように参照画像を拡大させている。
これにより、例えば、拡縮参照画像は、距離が遠い地点にいる物体の拡大率は小さく、距離が近い地点にいる物体の拡大率は大きくなり、参照画像そのものよりも、符号化対象画像と似ている画像となる。従って、拡縮参照画像の符号化対象画像の一致率は、参照画像をそのまま用いた場合と比較して高くなる。また、一致率が高くなることで、予測画像も、参照画像をそのまま用いた場合よりも、符号化対象画像と近くなり、差分画像を符号化する場合、圧縮率の低下を防止することができる。
[その他の実施の形態]
図21は、サーバ300のハードウェア構成例を表す図である。
サーバ300は、CPU(Central Processing Unit)380、HDD(Hard Disc Drive)381、メモリ382、ディスプレイ制御部383、ディスプレイ384、入力制御部385、キーボード386、マウス387、及びネットワーク制御部388を備える。
CPU380は、例えば、メモリ382に記憶されたプログラムを読み出して実行することで、H.26x復号化処理部310、符号化処理部320、復号化処理部350、及び画像解析部370の機能を実現する。CPU380は、例えば、H.26x復号化処理部310、符号化処理部320、復号化処理部350、及び画像解析部370に対応する。
また、HDD381は、例えば、ストレージ340に対応する。さらに、ネットワーク制御部388は、例えば、H.26x復号化処理部310、符号化処理部320に対応する。
なお、CPU380に代えて、MPU(Micro Processing Unit)やDSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)などのコントローラやプロセッサであってもよい。
図22は、画像圧縮装置320の構成例を表す図である。画像圧縮装置320は、例えば、第1の実施の形態における符号化処理部320に対応する。
画像圧縮装置320は、移動前後画像位置算出部333、拡縮参照画像変換部334、予測画像生成部331、及び符号化部335を備える。なお、符号化部335は、例えば、第1の実施の形態における減算部322、直交変換部323、量子化部324、可変長符号化部325に対応する。
移動前後画像位置算出部333は、符号化対象の画像に対する参照画像に対して分割領域を設定する。
拡縮参照画像変換部334は、分割領域において参照画像の中心点を含む領域の拡大率よりも参照画像の外周を含む領域の拡大率が高くなるように、参照画像を拡大させる。画像の中心点は、撮像装置110に入射する画像の光軸と撮像装置110における撮像素子との接点である。
予測画像生成部331は、拡大された参照画像を用いて予測画像を生成する。
符号化部335は、生成された予測画像を用いて符号化対象の画像の画像データを圧縮符号化する。
このように、画像圧縮装置320では、参照画像の分割領域において参照画像の中心点を含む領域の拡大率よりも参照画像の外周を含む領域の拡大率が高くなるように、参照画像を拡大している。
これにより、例えば、撮像装置110で撮像された、物体の移動、例えば、画像に写る物体は距離が遠いほど時間が経過することによる物体の大きさはそれほど大きく変化しないが、距離が近いほど大きく変化する、という参照画像を生成することができる。
従って、生成した参照画像は、参照画像をそのまま用いた場合と比較して、撮像装置110で撮像された撮像対象の画像に似た画像となっており、このような画像を用いて生成した予測画像も、撮像対象の画像と似た画像となる。よって、画像圧縮装置320では、参照画像と符号化対象画像の一致率を向上させることが可能となる。
また、画像圧縮装置320において、予測画像を用いて符号化対象の画像を圧縮しても、参照画像をそのまま用いた場合よりも、拡大された参照画像を用いた方が、符号化対象画像と似ているため、圧縮率の低下を防止させることも可能となる。
以上まとめると付記のようになる。
(付記1)
車両に搭載された撮像装置で撮像された画像の画像データを圧縮符号化する画像圧縮装置で実行される画像圧縮プログラムであって、
圧縮符号化対象の画像に対する参照画像に対して、分割領域を設定し、
前記撮像装置に入射する前記画像の光軸と前記撮像装置における撮像素子との接点を前記参照画像の中心点とし、前記分割領域において前記参照画像の前記中心点を含む領域の拡大率よりも前記参照画像の外周を含む領域の拡大率が高くなるように、前記参照画像を拡大させ、
拡大された前記参照画像を用いて予測画像を生成し、
生成された前記予測画像を用いて前記圧縮符号化対象の画像の画像データを圧縮符号化する、
処理を画像圧縮装置に実行させる画像圧縮プログラム。
(付記2)
更に、前記車両から受信した前記車両の速度、観測間隔時間、及び前記車両におけるハンドルの舵角に基づいて、前記車両の移動量を算出し、
算出された前記車両の移動量に基づいて、前記分割領域を設定する
処理を画像圧縮装置に実行させる付記1記載の画像圧縮プログラム。
(付記3)
前記車両の移動前後で前記車両の座標位置を(0,0,0)とした場合において、前記車両が移動する前の物体の座標位置を(x,y,z)、前記車両が移動した後の物体の座標位置を(x’,y’,z’)とし、前記車両の速度、前記観測間隔時間、及び前記ハンドルの舵角に基づいて、前記車両が移動した後の物体の座標位置(x’,y’,z’)を算出し、算出した座標位置(x’,y’,z’)と移動前の座標位置(x,y,z)とを、前記車両の移動量として算出する処理を画像圧縮装置に実行させる付記2記載の画像圧縮プログラム。
(付記4)
前記ハンドルの舵角が「0」でないとき、前記車両の速度をv、前記観測時間をt、前記ハンドルの舵角をθとし、前記車両の移動角度φを、前記画像圧縮装置のメモリから読み出した以下の式(17)
Figure 2018207356
に代入して算出し、前記車両の移動角度φと、前記車両が移動する前の物体の座標位置(x,y,z)とを、前記画像圧縮装置のメモリから読み出した、以下の式(18)
Figure 2018207356
に代入することで、前記車両が移動した後の物体の座標位置(x’,y’,z’)を算出する処理を画像圧縮装置に実行させる付記3記載の画像圧縮プログラム。
(付記5)
前記ハンドルの舵角が「0」のとき、前記車両の速度v、前記観測時間tを、前記画像圧縮装置のメモリから読み出した以下の式(19)
Figure 2018207356
に代入することで、前記車両が移動した後の物体の座標位置(x’,y’,z’)を算出する処理を画像圧縮装置に実行させる付記4記載の画像圧縮プログラム。
(付記6)
前記参照画像に対して、前記車両が移動する前の第1の分割領域と前記車両が移動した後の第2の分割領域とを設定する処理を画像圧縮装置に実行させる付記1記載の画像圧縮プログラム。
(付記7)
3次元座標で表された、前記第1及び第2の分割領域の各頂点座標を、前記参照画像上の2次元座標に変換する処理を画像圧縮装置に実行させる付記6記載の画像圧縮プログラム。
(付記8)
前記第1の分割領域の頂点座標を(x,y,z)とし、前記第1の分割領域の頂点座標(x,y,z)に対する2次元座標を(u,v)とすると、前記画像圧縮装置のメモリから読み出した以下の式(20)
Figure 2018207356
に(x,y,z)を代入することで、前記2次元座標(u,v)へ変換し、
前記第2の分割領域の頂点座標を(x’,y’,z’)とし、前記第2の分割領域の頂点座標(x’,y’,z’)に対する2次元座標を(u’,v’)とすると、前記画像圧縮装置のメモリから読み出した前記式(20)の(x,y,z)に前記第2の分割領域の頂点座標(x’,y’,z’)に代入することで、前記2次元座標(u’,v’)へ変換する
ことを特徴とする付記7記載の画像圧縮プログラム。
(付記9)
2次元座標に変換された前記第1及び第2の分割領域の頂点座標を圧縮符号化し、圧縮符号化された画像データと多重化する処理を画像圧縮装置に実行させる付記7記載の画像圧縮プログラム。
(付記10)
前記第1及び第2の分割領域は、前記参照画像の中心点を含む中央分割領域と、前記中央分割領域の上下方向に上分割領域と下分割領域、前記中央分割領域の左右方向に右分割領域と左分割領域とを含むことを特徴とする付記6記載の画像圧縮プログラム。
(付記11)
前記参照画像に対して、前記撮像装置から、前記撮像装置で撮像された物体までの距離に比例した値W’を用いたホモグラフィ変換を前記参照画像に施して、前記参照画像を拡大させる処理を画像圧縮装置に実行させる付記1記載の画像圧縮プログラム。
(付記12)
ホモグラフィ変換前における前記参照画像の画像上の座標位置を(x,y)、ホモグラフィ変換後における前記参照画像の画像上の座標位置を(X,Y)とすると、前記画像圧縮装置のメモリから読み出した以下の式(21)
Figure 2018207356
に、前記座標位置(x,y)を代入することで、前記座標位置(X,Y)を算出することでホモグラフィ変換を行うことを特徴とする付記11記載の画像圧縮プログラム。
(付記13)
前記第1の分割領域の頂点座標の2次元座標(u,v)を式(21)の(x,y)、前記第2の分割領域の頂点座標の2次元座標(u’,v’)を式(21)の(X,Y)に代入して、式(21)に含まれる行列の各成分h11〜h33を算出することを特徴とする付記8及び付記12記載の画像圧縮プログラム。
(付記14)
車両に搭載された撮像装置で撮像された画像の画像データを圧縮符号化する画像圧縮装置において、
圧縮符号化対象の画像に対する参照画像に対して、分割領域を設定する移動前後画像位置算出部と、
前記撮像装置に入射する前記画像の光軸と前記撮像装置における撮像素子との接点を前記参照画像の中心点とし、前記分割領域において前記参照画像の前記中心点を含む領域の拡大率よりも前記参照画像の外周を含む領域の拡大率が高くなるように、前記参照画像を拡大させる拡縮参照画像変換部と、
拡大された前記参照画像を用いて予測画像を生成する予測画像生成部と、
生成された前記予測画像を用いて前記圧縮符号化対象の画像の画像データを圧縮符号化する符号化部と
を備えることを特徴とする画像圧縮装置。
(付記15)
移動前後画像位置算出部と、拡縮参照画像変換部と、予測画像生成部と、符号化部とを有し、車両に搭載された撮像装置で撮像された画像の画像データを圧縮符号化する画像圧縮装置における画像圧縮方法であって、
前記移動前後画像位置算出部により、圧縮符号化対象の画像に対する参照画像に対して、分割領域を設定し、
前記拡縮参照画像変換部により、前記撮像装置に入射する前記画像の光軸と前記撮像装置における撮像素子との接点を前記参照画像の中心点とし、前記分割領域において前記参照画像の前記中心点を含む領域の拡大率よりも前記参照画像の外周を含む領域の拡大率が高くなるように、前記参照画像を拡大させ、
前記予測画像生成部により、拡大された前記参照画像を用いて予測画像を生成し、
前記符号化部により、生成された前記予測画像を用いて前記圧縮符号化対象の画像の画像データを圧縮符号化する
ことを特徴とする画像圧縮方法。
10:動画像伝送システム 100(100−1,100−2):車両
110:撮像装置 120:ドライブレコーダ
121:H.26x符号化処理部 130:センサ
140:メモリ 200:ネットワーク
300:サーバ 310:H.26x復号化処理部
320:符号化処理部 321:原画間引き部
322:減算部 323:直交変換部
324:量子化部 325:可変長符号化部
326:逆量子化部 327:逆直交変換部
328:加算部 329:参照画像記憶部
330:動き探索部 331:予測画像生成部
332:移動量算出部
333:移動前後画像位置算出部(画像位置算出部)
334:拡縮参照画像変換部(画像変換部)
340:ストレージ 350:復号化処理部
351:可変長復号化部 352:逆量子化部
353:逆直交変換部 354:加算部
355:参照画像記憶部 356:拡縮参照画像変換部(画像変換部)
357:予測画像生成部 380:CPU

Claims (5)

  1. 車両に搭載された撮像装置で撮像された画像の画像データを圧縮符号化する画像圧縮装置で実行される画像圧縮プログラムであって、
    圧縮符号化対象の画像に対する参照画像に対して、分割領域を設定し、
    前記撮像装置に入射する前記画像の光軸と前記撮像装置における撮像素子との接点を前記参照画像の中心点とし、前記分割領域において前記参照画像の前記中心点を含む領域の拡大率よりも前記参照画像の外周を含む領域の拡大率が高くなるように、前記参照画像を拡大させ、
    拡大された前記参照画像を用いて予測画像を生成し、
    生成された前記予測画像を用いて前記圧縮符号化対象の画像の画像データを圧縮符号化する、
    処理を画像圧縮装置に実行させる画像圧縮プログラム。
  2. 更に、前記車両から受信した前記車両の速度、観測間隔時間、及び前記車両におけるハンドルの舵角に基づいて、前記車両の移動量を算出し、
    算出された前記車両の移動量に基づいて、前記分割領域を設定する
    処理を画像圧縮装置に実行させる請求項1記載の画像圧縮プログラム。
  3. 前記参照画像に対して、前記撮像装置から、前記撮像装置で撮像された物体までの距離に比例した値W’を用いたホモグラフィ変換を前記参照画像に施して、前記参照画像を拡大させる処理を画像圧縮装置に実行させる請求項1記載の画像圧縮プログラム。
  4. 車両に搭載された撮像装置で撮像された画像の画像データを圧縮符号化する画像圧縮装置において、
    圧縮符号化対象の画像に対する参照画像に対して、分割領域を設定する移動前後画像位置算出部と、
    前記撮像装置に入射する前記画像の光軸と前記撮像装置における撮像素子との接点を前記参照画像の中心点とし、前記分割領域において前記参照画像の前記中心点を含む領域の拡大率よりも前記参照画像の外周を含む領域の拡大率が高くなるように、前記参照画像を拡大させる拡縮参照画像変換部と、
    拡大された前記参照画像を用いて予測画像を生成する予測画像生成部と、
    生成された前記予測画像を用いて前記圧縮符号化対象の画像の画像データを圧縮符号化する符号化部と
    を備えることを特徴とする画像圧縮装置。
  5. 移動前後画像位置算出部と、拡縮参照画像変換部と、予測画像生成部と、符号化部とを有し、車両に搭載された撮像装置で撮像された画像の画像データを圧縮符号化する画像圧縮装置における画像圧縮方法であって、
    前記移動前後画像位置算出部により、圧縮符号化対象の画像に対する参照画像に対して、分割領域を設定し、
    前記拡縮参照画像変換部により、前記撮像装置に入射する前記画像の光軸と前記撮像装置における撮像素子との接点を前記参照画像の中心点とし、前記分割領域において前記参照画像の前記中心点を含む領域の拡大率よりも前記参照画像の外周を含む領域の拡大率が高くなるように、前記参照画像を拡大させ、
    前記予測画像生成部により、拡大された前記参照画像を用いて予測画像を生成し、
    前記符号化部により、生成された前記予測画像を用いて前記圧縮符号化対象の画像の画像データを圧縮符号化する
    ことを特徴とする画像圧縮方法。
JP2017112391A 2017-06-07 2017-06-07 画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法 Active JP6905184B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017112391A JP6905184B2 (ja) 2017-06-07 2017-06-07 画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法
US15/997,014 US10567790B2 (en) 2017-06-07 2018-06-04 Non-transitory computer-readable storage medium for storing image compression program, image compression device, and image compression method
EP18176028.1A EP3413565B1 (en) 2017-06-07 2018-06-05 Image compression method using homography transformation of a reference picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112391A JP6905184B2 (ja) 2017-06-07 2017-06-07 画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法

Publications (2)

Publication Number Publication Date
JP2018207356A true JP2018207356A (ja) 2018-12-27
JP6905184B2 JP6905184B2 (ja) 2021-07-21

Family

ID=62567342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112391A Active JP6905184B2 (ja) 2017-06-07 2017-06-07 画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法

Country Status (3)

Country Link
US (1) US10567790B2 (ja)
EP (1) EP3413565B1 (ja)
JP (1) JP6905184B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7371691B2 (ja) 2019-01-18 2023-10-31 ソニーグループ株式会社 ホモグラフィ変換を使用した点群符号化

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7359653B2 (ja) * 2019-11-06 2023-10-11 ルネサスエレクトロニクス株式会社 動画像符号化装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086267A (ja) * 2008-09-30 2010-04-15 Mazda Motor Corp 車両用画像処理装置
JP2012151711A (ja) * 2011-01-20 2012-08-09 Renesas Electronics Corp 記録装置に搭載可能な半導体集積回路およびその動作方法
JP2014106703A (ja) * 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004288100A (ja) * 2003-03-25 2004-10-14 Minolta Co Ltd 撮像装置及び移動体カメラ
WO2008123753A1 (en) 2007-04-09 2008-10-16 Lg Electronics Inc. A method and an apparatus for processing a video signal
JP2015128205A (ja) 2013-12-27 2015-07-09 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
JP6582642B2 (ja) * 2014-08-11 2019-10-02 セイコーエプソン株式会社 車両用撮像装置、車両用撮像表示システム、及び車両

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086267A (ja) * 2008-09-30 2010-04-15 Mazda Motor Corp 車両用画像処理装置
JP2012151711A (ja) * 2011-01-20 2012-08-09 Renesas Electronics Corp 記録装置に搭載可能な半導体集積回路およびその動作方法
JP2014106703A (ja) * 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7371691B2 (ja) 2019-01-18 2023-10-31 ソニーグループ株式会社 ホモグラフィ変換を使用した点群符号化

Also Published As

Publication number Publication date
JP6905184B2 (ja) 2021-07-21
EP3413565B1 (en) 2020-05-27
US10567790B2 (en) 2020-02-18
EP3413565A1 (en) 2018-12-12
US20180359482A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
US10349060B2 (en) Encoding video frames using generated region of interest maps
US10582196B2 (en) Generating heat maps using dynamic vision sensor events
JP4846719B2 (ja) パノラマ映像の動き推定及び補償
US11902577B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US8374444B2 (en) Method and apparatus for providing higher resolution images in an embedded device
KR20090023977A (ko) 스테레오 비전 시스템 및 그 처리 방법
JP2008510358A (ja) パノマラ映像の動き推定及び補償
JP7105062B2 (ja) 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
JP3823767B2 (ja) 動画像の前景背景領域分離方法、及びその方法を用いた条件付画素補填による動画像符号化方法
WO2020188401A1 (en) Quantization step parameter for point cloud compression
CN109688413B (zh) 以支持辅助帧的视频编码格式编码视频流的方法和编码器
KR100951637B1 (ko) 스테레오 비전 시스템 및 이의 영상 처리 방법
JP6905184B2 (ja) 画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法
WO2020128652A1 (en) Point cloud auxiliary information coding
JP2011023885A (ja) 映像符号化装置及び映像符号化方法
WO2015056712A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
JP4944046B2 (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
Yoo et al. Enhanced compression of integral images by combined use of residual images and MPEG-4 algorithm in three-dimensional integral imaging
JP4258879B2 (ja) 画像符号化方法とその装置、画像復号化方法とその装置、コンピュータに画像符号化方法および画像復号化方法を実現させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20210112275A1 (en) Methods and apparatus for determining adjustment parameter during encoding of spherical multimedia content
JP2009268065A (ja) 画像処理システム、画像処理方法、およびプログラム
JP7348549B2 (ja) 符号化方法、符号化装置及びプログラム
US20240137561A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP2001275103A (ja) 監視システム及びその動き検出方法
CN118077203A (en) Warped motion compensation with well-defined extended rotation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R150 Certificate of patent or registration of utility model

Ref document number: 6905184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150