JP2024036943A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2024036943A
JP2024036943A JP2022141517A JP2022141517A JP2024036943A JP 2024036943 A JP2024036943 A JP 2024036943A JP 2022141517 A JP2022141517 A JP 2022141517A JP 2022141517 A JP2022141517 A JP 2022141517A JP 2024036943 A JP2024036943 A JP 2024036943A
Authority
JP
Japan
Prior art keywords
data
image processing
encoding
frame
texture information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022141517A
Other languages
English (en)
Inventor
陽介 江口
Yosuke Eguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022141517A priority Critical patent/JP2024036943A/ja
Priority to PCT/JP2023/031637 priority patent/WO2024053522A1/ja
Publication of JP2024036943A publication Critical patent/JP2024036943A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】フレーム間の相関を利用して3次元動画のデータ量を適切に削減可能な画像処理装置および画像処理方法を提供すること。【解決手段】画像処理装置は、フレームごとに3次元データとテクスチャ情報とを有する3次元動画データを取得する取得手段と、3次元動画データを、フレーム間予測を用いて符号化する符号化手段と、を有する。符号化手段は、3次元データとテクスチャ情報とを別個に符号化し、3次元データを符号化するためのキーフレームと、テクスチャ情報を符号化するためのキーフレームとを別個に選択する。【選択図】図1

Description

本発明は画像処理装置および画像処理方法に関し、特にはデータ量の削減技術に関する。
2次元(2D)動画と3次元(3D)動画を撮影可能な撮影装置が知られている(特許文献1)。特許文献1では、3D動画をMPEG2規格に準拠した方法で符号化することにより、データ量を削減している。
特開2008-187385号公報
MPEG規格のような、フレーム間の相関を利用した符号化を用いて3D動画のデータ量を効率よく削減しつつ、画質劣化を抑制するには、参照フレーム(キーフレーム)を適切に設定することが必要である。特許文献1では、露出制御をIフレームのタイミングで実行することの開示はあるが、Iフレームをどのように設定するかについては言及されていない。
本発明はその一態様において、フレーム間の相関を利用して3D動画のデータ量を適切に削減可能な画像処理装置および画像処理方法を提供する。
本発明の一態様による画像処理装置は、フレームごとに3次元データとテクスチャ情報とを有する3次元動画データを取得する取得手段と、3次元動画データを、フレーム間予測を用いて符号化する符号化手段と、を有し、符号化手段は、3次元データとテクスチャ情報とを別個に符号化し、3次元データを符号化するためのキーフレームと、テクスチャ情報を符号化するためのキーフレームとを別個に選択する、ことを特徴とする。
本発明によれば、フレーム間の相関を利用して3D動画のデータ量を適切に削減可能な画像処理装置および画像処理方法を提供することができる。
実施形態に係る画像処理装置の一例としてのデジタルカメラの機能構成例を示すブロック図 撮像素子の構成例を示す図 撮像面位相差AFを説明するための図 実施形態におけるデフォーカスマップ生成処理に関するフローチャート デフォーカス量から距離情報を求める方法を説明するための図 実施形態において生成する、3次元物体に関するデータを説明するための図 第1実施形態における3次元動画データの圧縮処理に関するフローチャート 第1実施形態におけるキーフレーム評価方法を説明するための図 第2実施形態における3次元動画データの圧縮処理に関するフローチャート 第2実施形態におけるキーフレーム評価方法を説明するための図
●(第1実施形態)
以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、その全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
なお、以下の実施形態では、本発明をデジタルカメラで実施する場合に関して説明する。しかし、本発明に撮像機能は必須でなく、本発明は画像データを取り扱い可能な任意の電子機器で実施可能である。このような電子機器には、ビデオカメラ、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、ドローンなど含まれる。これらは例示であり、本発明は他の電子機器でも実施可能である。
<撮影画像情報>
図1は、実施形態に係る画像処理装置としてのデジタルカメラ100の機能構成例を示すブロック図である。
撮像光学系10は、被写体の光学像を撮像素子11の撮像面に形成する。撮像光学系10は、光軸103に沿って配列された複数のレンズを有する。複数のレンズには、撮像光学系10の合焦距離を調整するためのフォーカスレンズ102が含まれる。フォーカスレンズ102は光軸に沿って移動可能である。フォーカスレンズ102は、画像処理部14が生成するデフォーカス量に従って制御部12が駆動する。
撮像光学系10はまた、絞り値(開口量)を調整可能な絞り104を有する。絞り104の絞り値は制御部12が例えば自動露出制御(AE)によって決定された撮影条件に基づいて制御する。絞り104はメカニカルシャッタの機能を有してもよい。射出瞳101は撮像光学系10を撮像素子11側から見た開放絞りの像であり、図では射出瞳101の位置を示している。
撮像素子11は例えば原色ベイヤ配列のカラーフィルタを有する公知のCCDもしくはCMOSカラーイメージセンサであってよい。撮像素子11は複数の画素が2次元配列された画素アレイと、各画素から信号を読み出すための周辺回路とを有する。各画素は光電変換によって入射光量に応じた電荷を蓄積する。露光期間に蓄積された電荷量に応じた電圧を有する信号を各画素から読み出すことにより、撮像光学系10が撮像面に形成した被写体像を表す画素信号群(アナログ画像信号)が得られる。
後述するように、撮像素子11が有する画素は複数の光電変換領域または光電変換素子を有し、1回の撮影で視差画像対を生成可能である。そして、この視差画像対に基づいて位相差検出方式の自動焦点検出(位相差AF)を実行したり、距離情報を生成したりすることができる。詳細については後述する。
制御部12は、プログラムを実行可能な1つ以上のプロセッサ(以下、CPUという)を有する。制御部12は、例えばROM21に記憶されたプログラムをRAM20に読み込んでCPUで実行する。制御部12は、プログラムを実行しながら各機能ブロックの動作を制御することにより、デジタルカメラ100の各種機能を実現する。
ROM21は例えば書き換え可能な不揮発性メモリであり、制御部12のCPUが実行可能なプログラム、設定値、GUIデータなどを記憶する。RAM20は、制御部12のCPUが実行するプログラムを読み込んだり、プログラムの実行中に必要な値を保存したりするために用いられる。また、RAM20は画像処理部14の作業用メモリ、撮像によよって得られた画像を一時的に記憶するためのバッファメモリ、表示部17のビデオメモリなどとしても用いられる。
画像処理部14は、撮像素子11から読み出されたアナログ画像信号に対して予め定められた画像処理を適用し、用途に応じた信号や画像データを生成したり、各種の情報を取得および/または生成したりする。画像処理部14は例えば特定の機能を実現するように設計されたASIC(Application Specific Integrated Circuit)のような専用のハードウェア回路であってよい。あるいは画像処理部14はDSP(Digital Signal Processor)やGPU(Graphics Processing Unit)のようなプロセッサがソフトウェアを実行することで特定の機能を実現する構成であってもよい。画像処理部14は、取得もしくは生成した情報やデータを、用途に応じて制御部12やRAM20などに出力する。
画像処理部14が適用する画像処理には、例えば、前処理、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理、特殊効果処理などが含まれうる。
前処理には、A/D変換、信号増幅、基準レベル調整、欠陥画素補正などが含まれうる。
色補間処理は、撮像素子にカラーフィルタが設けられている場合に行われ、画像データを構成する個々の画素データに含まれていない色成分の値を補間する処理である。色補間処理はデモザイク処理とも呼ばれる。
補正処理には、ホワイトバランス調整、階調補正、撮像光学系10の光学収差に起因する画像劣化の補正(画像回復)、撮像光学系10の周辺減光の影響の補正、色補正などの処理が含まれうる。
検出処理には、特徴領域(たとえば顔領域や人体領域)やその動きの検出、人物の認識処理などが含まれうる。
評価値算出処理には、自動焦点検出(AF)に用いる信号や評価値の生成、自動露出制御(AE)に用いる評価値の生成などの処理が含まれうる。図1では、AF用の評価値であるデフォーカス量を生成する画像処理部14の機能を、便宜上、機能ブロック(デフォーカス生成部141)として示している。
データ加工処理には、領域の切り出し(トリミング)、合成、スケーリング、符号化および復号、ヘッダ情報生成(データファイル生成)などの処理が含まれうる。表示用画像データや記録用画像データの生成もデータ加工処理に含まれる。また、デフォーカス量に基づく距離情報の生成もデータ加工処理として実行される。
特殊効果処理には、ボケ効果の付加、色調の変更、リライティングなどの処理などが含まれうる。
なお、これらは画像処理部14が適用可能な処理の例示であり、画像処理部14が適用する処理を限定するものではない。
記憶部15は撮像により得られた画像データを格納したデータファイルを記録するための記録媒体である。記憶部15は例えばメモリカードとそのリーダライタとの組み合わせであってよい。記憶部15は複数の記録媒体を取り扱い可能であってもよい。
入力部16は、例えば、ダイヤル、ボタン、スイッチ、タッチパネルなど、デジタルカメラ100に設けられた、ユーザが操作可能な入力デバイスの総称である。入力部16に対する操作は制御部12が監視する。入力部16に対する操作が検出されると、制御部12は、操作された入力デバイスに割り当てられている機能および操作内容に応じた動作を実行する。
表示部17は、例えば、液晶ディスプレイや有機EL等の表示装置である。動画の撮像と、撮像された動画の表示部17への表示とを継続的に実行することにより、表示部17を電子ビューファインダ(EVF)として機能させることができる。表示部17を電子ビューファインダ(EVF)として機能させる動作をライブビュー表示またはスルー表示と呼ぶことがある。また、ライブビュー表示またはスルー表示によって表示部17に表示される画像をライブビュー画像またはスルー画像と呼ぶことがある。
表示部17はタッチディスプレイであってよい。表示部17がタッチディスプレイの場合、表示部17に表示するGUIパーツとタッチパネルとの組み合わせによってソフトウェアキーを実現してもよい。制御部12はソフトウェアキーを入力部16が有する入力デバイスと同様に取り扱う。
通信部18は外部装置との通信インターフェースである。制御部12は、通信部18を通じて外部機器と1つ以上の有線または無線通信規格に準拠した通信を行うことができる。
動きセンサ19は、デジタルカメラ100の動きに応じた信号を生成する。動きセンサ19は、例えばXYZの各軸方向の動きに応じた信号を出力する加速度センサと各軸周りの動きに応じた信号を出力するジャイロセンサとの組み合わせであってよい。
<撮像素子の構成例>
撮像素子11の構成例について、図2を参照して説明する。図2(a)は、撮像素子11の画素アレイを撮像面側から見た平面図である。画素アレイには原色ベイヤ配列のカラーフィルタが設けられている。したがって、各画素には、赤(R)、緑(G)、青(B)のいずれか1つのカラーフィルタが、2行×2列の画素群210を繰り返し単位として規則的に配置されている。なお、原色ベイヤ配列以外の配列のカラーフィルタが設けられてもよい。
図2(b)は、1つの画素の垂直断面図である。図2(a)のI-I’断面の構成に相当する。各画素は、導光層213および受光層214とを有する。導光層213は、1つのマイクロレンズ211とカラーフィルタ212とを有する。また、受光層214は第1の光電変換部215と第2の光電変換部216とを有する。
マイクロレンズ211は、画素へ入射した光束を第1の光電変換部215および第2の光電変換部216に効率よく導くよう構成されている。またカラーフィルタ212は、Rフィルタ、Gフィルタ、Bフィルタのいずれかである。
第1の光電変換部215および第2の光電変換部216はいずれも入射光量に応じた電荷を発生する。撮像素子11は、個々の画素から、第1の光電変換部215および第2の光電変換部216の1つまたは両方から選択的に信号を読み出すことができる。本明細書では、第1の光電変換部215から得られる信号をA信号、第2の光電変換部216得られる信号をB信号、第1の光電変換部215および第2の光電変換部216の両方から得られる信号をA+B信号と呼ぶことがある。
第1の光電変換部215と第2の光電変換部216とは、射出瞳101を異なる視点から見ている。そのため、同一の画素領域から読み出された、A信号からなる画像とB信号からなる画像とは視差画像対を形成する。そのため、A信号とB信号を用いることにより、位相差AFの原理に従ってデフォーカス量を求めることができる。したがって、A信号およびB信号はそれぞれ焦点検出用信号と言える。
一方、A+B信号は画素が1つの光電変換部を有する場合に得られる信号に相当するため、各画素からA+B信号を取得することにより、アナログ画像信号を取得することができる。
なお、A信号はA+B信号からB信号を減算することでも得られる。同様に、B信号はA+B信号からA信号を減算することでも得られる。したがって、各画素からA+B信号と、A信号またはB信号とを読み出すことにより、A信号、B信号、A+B信号を得ることができる。画素から読み出す信号の種類は、制御部12が制御する。
なお、図2では、各画素が水平方向に並んだ2つの光電変換部215および216を有する構成を示した。しかし、水平方向に2つ、垂直方向に2つの4つの光電変換部が並んだ構成であってもよい。また、A信号を生成する専用の画素と、B信号を生成する専用の画素とが画素アレイに分散して複数対配置された構成であってもよい。撮像素子11は、撮像面位相差AFに対応した公知の任意の構成を有しうる。
<撮像面位相差AFの原理>
A信号とB信号とを用いてデフォーカス量が算出できる原理について、図3(a)~(e)を参照して説明する。
図3(a)は、撮像光学系10の射出瞳101と、ある1つの画素の第1の光電変換部215に入射する光束との関係を示す模式図である。図3(b)は、同じ画素の第2の光電変換部216に入射する光束と射出瞳101との関係を示す模式図である。
なお、本明細書では、撮像光学系の光軸に平行な方向をz方向またはデフォーカス方向、光軸と直交し、撮像面の水平方向と平行な方向をx方向、光軸と直交し、撮像面の垂直方向と平行な方向をy方向とする。
マイクロレンズ211は、射出瞳101と受光層214とが光学的に共役関係になるように配置されている。撮像光学系10の射出瞳101を通過した光束は、マイクロレンズ211により集光されて第1の光電変換部215または第2の光電変換部216に入射する。この際、第1の光電変換部215と第2の光電変換部216にはそれぞれ図3(a)および図3(b)に示すように、射出瞳101の異なる領域を通過した光束が主に入射する。具体的には、第1の光電変換部215には第1の瞳領域510を通過した光束が入射し、第2の光電変換部216には第2の瞳領域520を通過した光束が入射する。
着目画素を中心として水平方向にならんだ複数の画素のそれぞれからA信号とB信号とを取得する。この場合、A信号列に基づく像信号(A像)と、B信号列に基づく像信号(B像)との相対的な位置ずれ量(位相差または視差量)は、着目画素のデフォーカス量に応じた大きさを有する。
図3(c)~図3(e)において、511は第1の瞳領域510を通過する第1の光束を示し、521は第2の瞳領域520を通過する第2の光束を示している。
図3(c)は合焦状態を示しており、第1の光束511と第2の光束521が撮像面上で収束している。このとき、A像とB像との位相差または視差量は0となる。
図3(d)は第1の光束511と第2の光束521が撮像面よりも物体側(z軸の負方向側)で収束している。このとき、A像とB像との位相差または視差量は負の値(<0)を有する。
図3(e)は第1の光束511と第2の光束521が物体側から見て撮像面よりも奥(z軸の正方向側)で収束している。このとき、A像とB像との位相差または視差量は正の値(>0)を有する。
このように、A像とB像との位相差または視差量は、第1の光束511と第2の光束521が収束している位置と撮像面との関係に応じた符号を有し、デフォーカス量の大きさに応じた大きさを有する。A像とB像とを相対的にずらしながら相関量を算出し、相関量が最大となるずらし量として、A像とB像との位相差または視差量を得ることができる。
<デフォーカス画像生成処理>
次に、画像処理部14のデフォーカス生成部141がデフォーカスマップを生成する処理の一例について、図4に示すフローチャートを用いて説明する。デフォーカスマップとは、撮像画像の各画素位置におけるデフォーカス量を表す2次元データである。
ここでは、撮像素子11の各画素についてのA信号とB信号とがRAM20に格納されているものとする。
S1401で、デフォーカス生成部141は、A信号およびB信号の光量を補正する。特に像高の大きな画素では撮像光学系10の口径食によって第1の瞳領域510と第2の瞳領域520の形状の差が大きくなり、A信号とB信号との大きさに差が生じる。デフォーカス生成部141は、画素位置に応じた補正値をA信号およびB信号に適用して、A信号とB信号との大きさの違いを補正する。補正値は予め例えばROM21に保存しておくことができる。
S1402で、デフォーカス生成部141は、A信号およびB信号にノイズ低減処理を適用する。一般に、空間周波数が高いほど相対的にノイズ成分が多くなるため、デフォーカス生成部141は、空間周波数が高いほど通過率が低減するローパスフィルタをA信号およびB信号に適用する。なお、撮像光学系10の製造誤差等によってS1401における光量補正で良好な結果が得られない場合がある。そのため、S1402でデフォーカス生成部141は、直流成分を遮断し、かつ、高周波成分の通過率が低いバンドパスフィルタを適用することができる。
S1403で、デフォーカス生成部141は、A信号とB信号との位相差または視差量を検出する。デフォーカス生成部141は、例えば着目画素を含む水平方向に連続した画素列からA信号列およびB信号列を生成する。そして、デフォーカス生成部141はA信号列とB信号列とを相対的にずらしながら相関量を算出する。相関量は例えばNCC(Normalized Cross-Correlation)、SSD(Sum of Squared Difference)、またはSAD(Sum of Absolute Difference)であってよい。
デフォーカス生成部141は、A信号列およびB信号列の相関が最大となるずらし量を画素未満の単位で求め、注目画素における位相差または視差量とする。デフォーカス生成部141は、注目画素の位置を変えながら個々の画素位置における位相差または視差量を検出する。なお、A信号とB信号との位相差または視差量は他の任意の公知の方法で検出してもよい。位相差または視差量を求める解像度は撮像画像の解像度より低くてもよい。
S1404で、デフォーカス生成部141は、検出された位相差または視差量をデフォーカス量に変換する。検出された位相差または視差量はデフォーカス量に応じた大きさを有するため、所定の変換係数を適用することによりデフォーカス量に変換することができる。位相差または視差量をd、変換係数をKとすると、デフォーカス量ΔLは以下の式(1)によって得ることができる。
ΔL = K × d (1)
デフォーカス生成部141は、検出した位相差または視差量をデフォーカス量に変換することにより、画素位置に応じたデフォーカス量を表す2次元情報(デフォーカスマップ)を生成する。
<距離情報の取得>
次に、デフォーカス量に基づいて奥行き(距離)情報を取得する方法を、図5を用いて説明する。図5において、OBJは物体面、IMGは像面、Hは前側主点、H’は後側主点、fは撮像光学系(レンズ)の焦点距離、Sは物体面から前側主点までの距離、S’は後側主点から像面までの距離を表す。また、ΔS’はデフォーカス量、ΔSはデフォーカス量に応じた物体側の相対距離である。一点鎖線が光軸、点線が結像光束、破線がデフォーカス光束である。
レンズの結像では、以下の式(2)が成り立つことが知られている。
1/S + 1/S’ = 1/f (2)
また、デフォーカス時は式(2)を変形した式(3)が成り立つ。
1/(S+ΔS) + 1/(S’+ΔS’) = 1/f (3)
合焦時のSとfは撮影条件の情報(撮影情報)から取得可能である。したがって、式(1)からS’を求めることができる。また、デフォーカス量ΔS’は例えば位相差検出方式の自動焦点検出(AF)などによって取得可能である。これにより、式(3)からΔSを求めることができ、物体面OBJまでの距離Sを求めることができる。
画像処理部14は、生成したデフォーカスマップと撮影情報とを用いて被写体の距離情報を生成することができる。距離情報は例えば各画素位置に対応した被写体距離を表す2次元データであってよく、デプスマップ、距離画像、奥行き画像などと呼ばれることもある。
なお、ここではデフォーカス量を用いて距離情報を取得したが、他の公知の方法を用いて距離情報を取得してもよい。例えばコントラスト評価値が極大となるフォーカスレンズ位置を画素ごとに求めることで、画素ごとに被写体距離を取得することができる。また、合焦距離を変えて同一シーンを複数回撮影して得られる画像データと光学系の点像分布関数(PSF)とから、ぼけ量と距離との相関関係に基づいて画素ごとの距離情報を求めることもできる。これらの技術に関しては例えば特開2010-177741号公報や米国特許第4,965,840号公報などに記載されている。また、視差画像対を取得可能な場合には、ステレオマッチング等の手法で画素ごとに被写体距離を取得することができる。
<3次元データの生成>
次に、距離情報を用いた3次元(3D)データの生成方法の例について説明する。
まず、距離情報(デプスマップ)を、撮影情報から得られる焦点距離、フォーカス位置を用いて世界座標系の座標値へ変換することにより、3Dデータを生成する。得られた3Dデータは、3Dモデルとして扱いやすいようにポリゴン化する。ポリゴン化は任意の公知の方法を用いて実施することができる。
例えば、3Dデータの隣接する任意の三点の座標情報を用いて面を規定することで、3Dデータをポリゴンメッシュに変換することができる。また、ポリゴン化に用いた三点に対応する撮影画像の情報から、そのポリゴンのテクスチャ情報を算出することができる。また、世界座標系の座標値に変換する前のデプスマップや、ポリゴン化前の3Dデータにフィルタ処理を適用してもよい。例えば、メディアンフィルタなどを適用するなどして小さな形状変化を平滑化してもよい。
ポリゴン化を行った場合、2次元画像の予測符号化技術を用いてデータ量を削減できるよう、画像処理部14は公知の任意の方法によってポリゴンデータを2次元の構造化データに変換する。なお、ポリゴン化は必須ではなく、3Dデータを点群形式で取り扱ってもよい。公知の2次元画像の予測符号化技術を適用可能なデータ形式を有しさえすれば、物体の3次元形状を表現する方法は任意である。
図6(A)~(C)に3D物体とそのデプスマップおよび3Dデータの例を示す。
図6(A)に示すような3D物体として円柱を側面から撮影して距離情報を取得すると、図6(B)に示すようなデプスマップが得られる。ここで、図6(B)のデプスマップにおける濃淡は、色が淡くなるほど距離が大きい(遠い)ことを表している。つまり、撮影画像において円柱の中心部分が最も近くに存在し、中心から左右に離れるほど距離が増加している。図6(C)はデプスマップを変換した3Dデータを世界座標系にプロットした状態を模式的に示している。3D物体の撮影されていない部分についてはデプスマップが生成されないため、3Dデータもデプスマップに対応した部分だけが生成される。図示していないが、3Dデータにはテクスチャ情報(RGBデータ)がマッピングされる。
<撮影条件と距離情報の精度およびテクスチャ情報の品質との関係>
撮影画像から距離情報を取得する場合、撮影条件が距離情報の精度に影響を与えうる。例えば、撮像面位相差検出AFに対応した撮像素子を用いて撮影した視差画像対に基づいて距離情報を取得する場合、絞り値が大きくなると、視差画像対の基線長が短くなるため、距離の分解能が低下する。
また、撮像素子の構成にかかわらず、撮影感度(ISO感度)が高くなると、画像のノイズが増幅されることにより、デフォーカス量の検出精度が低下することにより、距離情報の精度が低下する。また、画像に占める物体領域の割合が小さい(撮影倍率が低い)場合、1画素が対応する物体の表面積が大きくなるため、物体形状の再現性が低下する。
このように、撮影画像から距離情報を取得する場合、距離情報の精度は撮影条件に応じて変化しうる。例えば撮像面位相差検出AFに対応した撮像素子を用いる場合、絞り値が開放値に近いほど視差画像対の基線長は長くなるため、距離情報の精度は高くなる。
一方で、撮影画像の画質は、一般に絞り値が開放値より大きい場合の方が開放値の場合よりも高くなる。これは、絞り値が開放値のとき、周辺減光や光学収差が画像に与える影響が最も大きく、絞り値を増加させるとこれらの影響が低減するためである。撮影画像の画質がよいほど高品質のテクスチャ情報が得られるため、テクスチャ情報の品質の観点からは絞り値は開放値でない方がよい。このように、距離情報および距離情報に基づく3Dデータの精度という観点と、テクスチャ情報の品質という観点とでは、最適な撮影条件が異なる。
これは、フレームごとに生成される3Dデータとテクスチャ情報(フレーム画像データ)とのデータ量をフレーム間予測を用いて削減しようとした場合、3Dデータに最適なキーフレームと、テクスチャ情報に最適なキーフレームとが異なることを意味する。したがって、同じタイミングのフレームをキーフレームとした場合、3Dデータとテクスチャ情報の少なくとも一方においては最適でないデータ量の削減が行われうる。
<3次元動画ファイルの生成>
デジタルカメラ100は、例えば3D動画を記録する撮影モードが設定されている場合に、3D動画データを生成し、記憶部15に保存する。具体的には、制御部12は所定のフレームレートで動画撮影を行い、各フレームについてA+B信号と、A信号とを読み出すように撮像素子11の動作を制御する。A信号の代わりにB信号を読み出すこともできる。なお、露出条件や焦点調節は画像処理部14が生成する評価値に基づいて制御部12が例えばフレームごとに実行する。
画像処理部14は、各フレームについて、A+B信号から記録用のフレーム画像データを生成する。記録用のフレーム画像データは一般的な動画記録時に生成するものと同じであってよい。撮影時に用いられた露出条件などもフレーム画像データと関連付けて記録される。3D動画を記録する場合、記録用の2次元動画のフレーム画像データは3Dデータのテクスチャ情報として用いられる。
また、画像処理部14は、各フレームについて、A+B信号からA信号を減じてB信号を生成する。そして、画像処理部14(デフォーカス生成部141)は、A信号とB信号とからデフォーカスマップを生成し、さらに、デフォーカスマップをデプスマップに変換する。3Dデータをポリゴンデータとする場合、画像処理部14はデプスマップをポリゴンデータに変換したのち、2次元構造化データにさらに変換する。
制御部12は、同じフレームについて生成されたテクスチャ情報(フレーム画像データ)と、3Dデータ(2次元構造化データまたはデプスマップ)とを関連付けて、3D動画のフレームデータとしてRAM20に一旦格納する。そして、制御部12は3D動画のフレームデータに後述するデータ量削減処理(圧縮処理)を適用したのち、記憶部15に保存する。なお、3D動画のフレームデータに圧縮処理を適用せずに記憶部15に保存し、3D動画の撮影が終了してから圧縮処理を適用してもよい。また、3D動画のフレームデータは通信部18を通じて外部装置に保存してもよい。
<3D動画のデータ削減処理>
図7に示すフローチャートを用いて、本実施形態における3D動画のデータ削減(圧縮)処理について説明する。ここでは、3D動画の撮影時にデジタルカメラ100の画像処理部14が実行するものとする。しかし、通信部18を通じて接続された外部装置で実行されてもよい。また、3D動画の撮影が終了してから、画像処理部14あるいは外部装置で実行してもよい。ここでは3D動画データのデータ量を、MPEG4などの、フレーム間予測を用いた画像符号化技術を用いて削減するものとする。
S101で画像処理部14は、圧縮する3次元動画データを記憶部15からRAM20に読み出す。ここでは少なくとも1GOP(Group Of Pictures)以上のフレームを読み出すものとする。すでにRAM20に3D動画データが存在する場合には記憶部15から読み出さなくてもよい。
S102で画像処理部14は、3D動画データに付随して撮影情報が記録されているか判定し、記録されていると判定されればS103を実行し、判定されなければS104を実行する。デジタルカメラ100のような撮像装置によって撮影された場合、撮影情報が例えばメタデータとして記録されている。
S103で画像処理部14は、S101で読み出した各フレームの撮影情報を読み出してRAM20に格納する。ここで読み出す撮影情報は例えば撮像光学系10の焦点距離、合焦距離、絞り値、ISO感度、シャッタースピードなどであってよい。
S104で画像処理部14は、キーフレーム評価処理を行う。
キーフレーム評価処理で画像処理部14は、RAM20に読み込んだ3D動画のフレーム画像データについて、1フレームごとに3Dデータとテクスチャ情報とを評価し、キーフレーム(Iフレーム)として適切か否か判定する。
このとき画像処理部14は、テクスチャ情報と3Dデータとを別個の条件に基づいて評価することにより、テクスチャ情報の圧縮に最適なキーフレームと、3Dデータの圧縮に最適なキーフレームとを別個に判定する。
図8は、対応するフレームにおけるテクスチャ情報と3Dデータを模式的に示した図である。左列がフレームN、右列がフレームN+α(α≧1)である。フレームNは絞り値aで撮影され、フレームN+αは絞り値b(b>a)で撮影されている。フレームNの方が開放に近い絞り値で撮影されているため、テクスチャ情報(フレーム画像データ)の画質はフレームN+αの方が高い。一方、基線長はフレームNの方が大きくなるため、3Dデータの距離分解能はフレームNの方が高い。
キーフレーム評価処理において画像処理部14は、例えばGOPに含まれる全てのフレームの撮影時の絞り値に基づいて判定を行うことができる。画像処理部14は、例えば、撮影時の絞り値が最も大きいフレームをテクスチャ情報に最適なキーフレームと判定し、撮影時の絞り値が最も小さなフレームを3Dデータに最適なキーフレームと判定することができる。
なお、撮影条件の複数の項目の1つ以上に基づく評価値をフレームごとに算出し、評価値が最も高いフレームを最適なキーフレームと判定してもよい。この場合、撮影条件の項目と評価値との関係は例えば以下のようにすることができる。
・絞り値
上述の通り、絞り値が小さくなると3Dデータの距離分解能は高くなり、テクスチャ情報の解像度は低下する。そのため、絞り値が小さいほど3Dデータに関する評価値は高く、テクスチャ情報に関する評価値は低くすることができる。しかし、絞り値が閾値を超えると回折の影響で画像のコントラストが低下する。したがって、テクスチャ情報に関する評価値は、第1の絞り値<第2の絞り値<第3の絞り値(閾値)とすると、第1の絞り値から第3の絞り値に達するまでは絞り値の増加に応じて高くなり、第3の絞り値を超えると低くなる。第3の絞り値を超える場合の評価値は、固定値であっても、段階的に低くしてもよい。
・シャッタースピード
シャッタースピードが遅いと手ブレや動体ブレが発生しやすくなる。そのため、シャッタースピードが閾値より遅い場合には、閾値より速い場合よりも3Dデータおよびテクスチャ情報に関する評価値をいずれも低くする。撮像光学系10の焦点距離が可変の場合、焦点距離が長くなるほど閾値を短くしてもよい。
・ISO感度
ISO感度が高いと画像のノイズが多くなる。その結果、3Dデータの信頼性が低下する。そのため、ISO感度が閾値以上の場合には、閾値より速い場合よりも3Dデータおよびテクスチャ情報に関する評価値をいずれも低くする。
・撮影倍率(焦点距離と合焦距離との組み合わせ)
撮影倍率が小さいと、3Dデータの距離分解能が低下する。またテクスチャ情報の解像度も低下する。そのため、撮影倍率が閾値以下の場合には、閾値より大きい場合よりも3Dデータおよびテクスチャ情報に関する評価値をいずれも低くする。撮影倍率は例えば撮像光学系10の焦点距離と合焦距離との組み合わせに応じて予め容易しておくことができる。あるいは、主被写体の領域が画面に占める割合と撮影場率とを対応付けてもよい。
例えば主被写体がデジタルカメラ100に近づくシーン、もしくは遠ざかるシーンの3D動画の場合、撮影倍率が大きいほど、また合焦距離が短いほど、3Dデータおよびテクスチャ情報に関する評価値をいずれも高くする。
なお、撮影情報以外の条件に基づいてキーフレームとして適切か否かの評価を行ってもよい。例えば、テクスチャ情報(フレーム画像データ)について、適正露出の領域と暗部とでキーフレームとしての評価を個別に行ってもよい。具体的には、評価の対象となる複数のフレームのうち、暗部の露出が最も適正露出に近いフレームを、暗部に対する評価値が最も高いフレームとする。明部についても同様に別個に評価することができる。
評価値はOK/NG(または1/0)のように2値としてもよいし、3値以上であってもよい。あるいは、評価対象のフレームにおける順位に応じた値としてもよい。画像処理部14は、評価を行ったフレームに関連付けて、評価値をRAM20に保存する。
S105で画像処理部14は、S104の評価処理の結果に基づいて、3Dデータのキーフレームと、テクスチャ情報のキーフレームとを選択する。画像処理部14は、例えば評価値が最も高いフレームをキーフレームとして選択することができる。フレームごとに複数の評価値が存在する場合には、評価値の合計が最も高いフレームをキーフレームとして選択することができる。なお、他の条件に基づいてキーフレームを選択してもよい。また、キーフレームはNGの評価値がないフレームから選択するようにしてもよい。テクスチャ情報のキーフレームを領域ごとに選択する場合も同様である。
S106で画像処理部14は、S105で選択したキーフレームをIフレームとしたMPEG符号化により、GOP単位で3Dデータとテクスチャ情報とを別個に符号化する。GOP単位でIフレーム、Pフレーム、Bフレームを割り当て、PフレームおよびBフレームについてはフレーム間予測符号化するMPEG符号化方式は公知であるため、その詳細については説明を省略する。
画像処理部14は、S101からS106の処理を必要に応じて繰り返して実行することにより、3D動画データを符号化する。
S107で画像処理部14は、符号化後の3Dデータおよびテクスチャ情報を含む3D動画データを格納した3D動画データファイルを記憶部15に順次記録する。
なお、S101で記憶部15から3D動画データを読み出した場合、符号化後の3D動画データで置き換えてもよいし、符号化前の3D動画データを残しておいてもよい。また、符号化後の3D動画データを格納した3D動画データファイルを通信部18を通じて外部装置に送信してもよい。
ここで、外部装置は、S106において3Dデータとテクスチャ情報の符号化に用いられた符号化方式と対応する復号器を備える。復号器は、3D動画データファイルに格納された3D動画データの3Dデータおよびテクスチャ情報とを、それぞれに設定されたキーフレームを参照し、別個に復号する。そして、外部装置は、復号された3Dデータとテクスチャ情報の組み合わせをフレーム毎に生成し、各フレームをメモリに展開し、フレームの時系列に沿って読み出して表示再生を行う。これにより、画像に被写体として含まれる3D物体に立体感を与えながら動画を再生表示することができる。なお、3Dデータとテクスチャ情報が復号された後に、3Dデータとテクスチャ情報の組み合わせをフレーム毎に生成し、ファイルとして外部装置の記憶装置に記憶するようにしてもよい。
本実施形態によれば、フレームごとに3Dデータとテクスチャ情報とを有する3D動画データをフレーム間予測を用いて符号化する際、3Dデータ用のキーフレームとテクスチャ情報用のキーフレームとを別個に決定するようにした。これにより、3Dデータとテクスチャ情報とを最適なキーフレームを用いて符号化することができ、符号化による品質の低下を抑制しつつ、効率よくデータ量を削減することができる。
●(第2実施形態)
次に、本発明の第2実施形態について説明する。本実施形態は3D動画データの圧縮処理以外は第1実施形態と同様であってよい。そのため、以下では圧縮処理について説明する。
図9は、本実施形態における3D動画データの圧縮処理に関するフローチャートである。第1実施形態と同様の処理を行うステップには図7と同じ参照数字を付してある。本実施形態ではS104のキーフレーム評価処理の前に、3Dデータ分析処理を行うステップS201を有する。
3Dデータ分析処理は、キーフレームの評価、選択をより適切に実行するために行う。 3Dデータを視差画像から生成する場合、視差画像の全体が被写界深度に含まれることはまれであり、一般的にはボケた領域が含まれている。合焦度が高い領域は低い領域よりもコントラストが高いため、得られる3Dデータの距離分解能も高くなる。
動画撮影中には合焦距離も経時的に変化しうるため、視差画像において合焦度が高い領域もまた経時的に変化しうる。そのため、3Dデータについても、領域ごとに距離分解能が高い3Dデータをキーフレームとして選択することができる。3Dデータは距離方向に分割してもよいし、距離および垂直方向に分割してもよい。分割前の3Dデータは1つの連続したオブジェクトでもよいし、複数のオブジェクトでもよい。
図10は、対応するフレームにおけるテクスチャ情報と3Dデータを模式的に示した図である。左列がフレームN、中列がフレームN+α(α≧1)、右列がフレームN+β(β>α)である。
フレームNおよびN+αは絞り値aで撮影され、フレームN+βは絞り値b(b>a)で撮影されている。また、フレームNでは物体の手前側に合焦しており、フレームN+αでは物体の奥側に合焦している。また、フレームN+βでは、フレームN+αの状態から絞り値が大きくなったことにより、テクスチャ情報全体が合焦するようになった状態を示している。
3Dデータは距離分解能が高い部分を格子状のパターンで示している。フレームNでは物体の手前側の距離分解能が高く、フレームN+αでは物体の奥側の距離分解能が高い。フレームN+βでは絞り値が大きくなったことにより、物体の奥側の距離分解能が低下し、距離分解能の高い部分がなくなっている。
3Dデータ分析処理において画像処理部14は、3Dデータを手前側と奥側に分割し、手前側についてはフレームN、奥側についてはフレームN+αの評価値を高くする。また、テクスチャ情報についてはフレームN+βの評価値を高くする。
画像処理部14は、3Dデータをどのように分割したかの情報と、3Dデータの分割領域ごとの評価値と、テクスチャ情報についての評価値をRAM20に保存する。これらの情報および評価値は、S104におけるキーフレーム評価処理で決定された評価値とともに、S105のキーフレーム選択処理で考慮される。
なお、S104でのキーフレーム評価処理において、3Dデータに対する評価値は求めなくてもよい。あるいは、3Dデータ分析処理で考慮されていない項目に関する評価値だけを求めるようにしてもよい。テクスチャ情報の評価値についても同様である。
S105で画像処理部14は、3Dデータについてのキーフレームを、分割した領域ごとに選択する。テクスチャ情報についてのキーフレームは、第1実施形態と同様に選択することができる。
S106において画像処理部14は、3Dデータを分割した領域ごとに符号化することをのぞき、第1実施形態と同様に処理する。
本実施形態によれば、3Dデータに対してよりきめ細かくキーフレームを選択することができ、3Dデータの品質低下をさらに抑制しつつ、効果的にデータ量を削減することができる。
なお、第1および第2実施形態で生成される符号化3D動画データは、公知の方法で復号することができる。復号された3Dデータはポリゴンメッシュに変換される。また、復号されたテクスチャ情報に基づいて、ポリゴンメッシュに基づく3Dモデルにテクスチャをマッピングすることができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本実施形態の開示は、以下の画像処理装置、撮像装置、画像処理方法、およびプログラムを含む。
(項目1)
フレームごとに3次元データとテクスチャ情報とを有する3次元動画データを取得する取得手段と、
前記3次元動画データを、フレーム間予測を用いて符号化する符号化手段と、を有し、
前記符号化手段は、
前記3次元データと前記テクスチャ情報とを別個に符号化し、
前記3次元データを符号化するためのキーフレームと、前記テクスチャ情報を符号化するためのキーフレームとを別個に選択する、
ことを特徴とする画像処理装置。
(項目2)
前記符号化手段は、フレームの撮影情報に基づく、前記3次元データと前記テクスチャ情報とについての評価値に基づいて、前記キーフレームを選択することを特徴とする項目1に記載の画像処理装置。
(項目3)
前記符号化手段は、フレームごとに、前記3次元データと前記テクスチャ情報とについての前記評価値を求め、前記評価値が最も高いフレームを前記キーフレームとして選択することを特徴とする項目2に記載の画像処理装置。
(項目4)
前記撮影情報は撮影時のシャッタースピード、絞り値、ISO感度、合焦距離、撮像光学系の焦点距離の1つ以上を含むことを特徴とする項目2または3に記載の画像処理装置。
(項目5)
前記撮影情報は撮影時の絞り値を含み、
前記3次元データについての前記評価値は、前記撮影情報が第1の絞り値のとき、前記第1の絞り値より大きい第2の絞り値のときより高くなり、
前記テクスチャ情報についての前記評価値は、前記撮影情報が前記第1の絞り値のときよりも、前記第2の絞り値のときに高くなる、
ことを特徴とする項目2から4のいずれか1項に記載の画像処理装置。
(項目6)
前記テクスチャ情報についての前記評価値は、前記撮影情報が前記第2の絞り値より大きな第3の絞り値を超えると低くなることを特徴とする項目5に記載の画像処理装置。
(項目7)
前記テクスチャ情報は2次元動画のフレーム画像であり、
前記符号化手段は、前記テクスチャ情報を符号化するためのキーフレームを、前記フレーム画像の領域ごとに選択する、
ことを特徴とする項目1から6のいずれか1項に記載の画像処理装置。
(項目8)
前記符号化手段は、前記3次元データを複数の領域に分割し、前記3次元データを符号化するためのキーフレームを、前記3次元データの領域ごとに選択する、
ことを特徴とする項目1から7のいずれか1項に記載の画像処理装置。
(項目9)
前記符号化手段は、前記3次元データを、奥行き方向、水平方向、垂直方向の1つ以上に分割することを特徴とする項目8に記載の画像処理装置。
(項目10)
前記3次元データはポリゴンデータであり、
前記符号化手段は、前記ポリゴンデータを2次元構造化データに変換してから符号化する、
ことを特徴とする項目1から9のいずれか1項に記載の画像処理装置。
(項目11)
1回の撮影で視差画像対を生成可能な撮像手段と、
前記撮像手段で撮影された動画に基づいて、フレームごとに3次元データとテクスチャ情報とを有する3次元動画データを生成する生成手段と、
前記生成手段が生成した前記3次元動画データを処理する、項目1から10のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。
(項目12)
画像処理装置が実行する画像処理方法であって、
フレームごとに3次元データとテクスチャ情報とを有する3次元動画データを取得する取得工程と、
前記3次元動画データを、フレーム間予測を用いて符号化する符号化工程と、を有し、
前記符号化工程では、
前記3次元データと前記テクスチャ情報とを別個に符号化し、
前記3次元データを符号化するためのキーフレームと、前記テクスチャ情報を符号化するためのキーフレームとを別個に選択する、
ことを特徴とする画像処理方法。
(項目13)
コンピュータを、項目1から10のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。
本発明は上述した実施形態の内容に制限されず、発明の精神および範囲から離脱することなく様々な変更及び変形が可能である。したがって、発明の範囲を公にするために請求項を添付する。
100…デジタルカメラ、10…撮像光学系、11…撮像素子、12…制御部、14…画像処理部、15…記憶部

Claims (13)

  1. フレームごとに3次元データとテクスチャ情報とを有する3次元動画データを取得する取得手段と、
    前記3次元動画データを、フレーム間予測を用いて符号化する符号化手段と、を有し、
    前記符号化手段は、
    前記3次元データと前記テクスチャ情報とを別個に符号化し、
    前記3次元データを符号化するためのキーフレームと、前記テクスチャ情報を符号化するためのキーフレームとを別個に選択する、
    ことを特徴とする画像処理装置。
  2. 前記符号化手段は、フレームの撮影情報に基づく、前記3次元データと前記テクスチャ情報とについての評価値に基づいて、前記キーフレームを選択することを特徴とする請求項1に記載の画像処理装置。
  3. 前記符号化手段は、フレームごとに、前記3次元データと前記テクスチャ情報とについての前記評価値を求め、前記評価値が最も高いフレームを前記キーフレームとして選択することを特徴とする請求項2に記載の画像処理装置。
  4. 前記撮影情報は撮影時のシャッタースピード、絞り値、ISO感度、合焦距離、撮像光学系の焦点距離の1つ以上を含むことを特徴とする請求項2に記載の画像処理装置。
  5. 前記撮影情報は撮影時の絞り値を含み、
    前記3次元データについての前記評価値は、前記撮影情報が第1の絞り値のとき、前記第1の絞り値より大きい第2の絞り値のときより高くなり、
    前記テクスチャ情報についての前記評価値は、前記撮影情報が前記第1の絞り値のときよりも、前記第2の絞り値のときに高くなる、
    ことを特徴とする請求項2に記載の画像処理装置。
  6. 前記テクスチャ情報についての前記評価値は、前記撮影情報が前記第2の絞り値より大きな第3の絞り値を超えると低くなることを特徴とする請求項5に記載の画像処理装置。
  7. 前記テクスチャ情報は2次元動画のフレーム画像であり、
    前記符号化手段は、前記テクスチャ情報を符号化するためのキーフレームを、前記フレーム画像の領域ごとに選択する、
    ことを特徴とする請求項1に記載の画像処理装置。
  8. 前記符号化手段は、前記3次元データを複数の領域に分割し、前記3次元データを符号化するためのキーフレームを、前記3次元データの領域ごとに選択する、
    ことを特徴とする請求項1に記載の画像処理装置。
  9. 前記符号化手段は、前記3次元データを、奥行き方向、水平方向、垂直方向の1つ以上に分割することを特徴とする請求項8に記載の画像処理装置。
  10. 前記3次元データはポリゴンデータであり、
    前記符号化手段は、前記ポリゴンデータを2次元構造化データに変換してから符号化する、
    ことを特徴とする請求項1に記載の画像処理装置。
  11. 1回の撮影で視差画像対を生成可能な撮像手段と、
    前記撮像手段で撮影された動画に基づいて、フレームごとに3次元データとテクスチャ情報とを有する3次元動画データを生成する生成手段と、
    前記生成手段が生成した前記3次元動画データを処理する、請求項1から10のいずれか1項に記載の画像処理装置と、
    を有することを特徴とする撮像装置。
  12. 画像処理装置が実行する画像処理方法であって、
    フレームごとに3次元データとテクスチャ情報とを有する3次元動画データを取得する取得工程と、
    前記3次元動画データを、フレーム間予測を用いて符号化する符号化工程と、を有し、
    前記符号化工程では、
    前記3次元データと前記テクスチャ情報とを別個に符号化し、
    前記3次元データを符号化するためのキーフレームと、前記テクスチャ情報を符号化するためのキーフレームとを別個に選択する、
    ことを特徴とする画像処理方法。
  13. コンピュータを、請求項1から10のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。
JP2022141517A 2022-09-06 2022-09-06 画像処理装置および画像処理方法 Pending JP2024036943A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022141517A JP2024036943A (ja) 2022-09-06 2022-09-06 画像処理装置および画像処理方法
PCT/JP2023/031637 WO2024053522A1 (ja) 2022-09-06 2023-08-30 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022141517A JP2024036943A (ja) 2022-09-06 2022-09-06 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2024036943A true JP2024036943A (ja) 2024-03-18

Family

ID=90191083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022141517A Pending JP2024036943A (ja) 2022-09-06 2022-09-06 画像処理装置および画像処理方法

Country Status (2)

Country Link
JP (1) JP2024036943A (ja)
WO (1) WO2024053522A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6622575B2 (ja) * 2015-11-30 2019-12-18 キヤノン株式会社 制御装置、制御方法、およびプログラム
CN111406405A (zh) * 2017-12-01 2020-07-10 索尼公司 发送装置、发送方法和接收装置
US11120623B2 (en) * 2019-06-25 2021-09-14 HypeVR Optimized volumetric video playback

Also Published As

Publication number Publication date
WO2024053522A1 (ja) 2024-03-14

Similar Documents

Publication Publication Date Title
JP5854984B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JP6288952B2 (ja) 撮像装置およびその制御方法
JP5640143B2 (ja) 撮像装置及び撮像方法
JP5469258B2 (ja) 撮像装置および撮像方法
JP5517746B2 (ja) 画像処理装置およびその方法
JP5725953B2 (ja) 撮像装置及びその制御方法、並びに情報処理装置
JP6800797B2 (ja) 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム
JP2013201752A5 (ja)
KR102621115B1 (ko) 촬영 장치 및 촬영 장치를 이용한 초점 검출 방법
JP6095266B2 (ja) 画像処理装置及びその制御方法
CN107637067B (zh) 图像处理设备和图像处理方法
JP6323022B2 (ja) 画像処理装置
JP7142507B2 (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP2023033355A (ja) 画像処理装置およびその制御方法
JP5869839B2 (ja) 画像処理装置およびその制御方法
WO2024053522A1 (ja) 画像処理装置および画像処理方法
JP2015233270A (ja) 撮像装置およびその制御方法
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP2013175805A (ja) 表示装置および撮像装置
JP2012124650A (ja) 撮像装置および撮像方法
JP6074201B2 (ja) 画像処理装置、制御方法、及びプログラム
JP7134601B2 (ja) 画像処理装置、画像処理方法、撮像装置及び撮像装置の制御方法
JP6138222B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JP6961423B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、プログラムおよび記録媒体
JP6757245B2 (ja) 動画再生装置、撮像装置、動画再生方法及びプログラム