JP6743893B2 - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP6743893B2 JP6743893B2 JP2018532930A JP2018532930A JP6743893B2 JP 6743893 B2 JP6743893 B2 JP 6743893B2 JP 2018532930 A JP2018532930 A JP 2018532930A JP 2018532930 A JP2018532930 A JP 2018532930A JP 6743893 B2 JP6743893 B2 JP 6743893B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- polygon
- depth
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 79
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims description 211
- 238000013139 quantization Methods 0.000 claims description 208
- 230000005540 biological transmission Effects 0.000 claims description 24
- 238000004891 communication Methods 0.000 description 48
- 238000001514 detection method Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 26
- 238000003384 imaging method Methods 0.000 description 24
- 230000008859 change Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 238000005070 sampling Methods 0.000 description 19
- 239000013598 vector Substances 0.000 description 16
- 238000000605 extraction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/529—Depth or shape recovery from texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
本開示は、画像処理装置および画像処理方法に関し、特に、2視点のテクスチャ画像とデプス画像を用いて、より多くの領域の3次元構造を表現することができるようにした画像処理装置および画像処理方法に関する。
物体の3次元構造を表現する手法としては、主に、物体のポリゴン(3Dメッシュ)と、そのポリゴンに貼り付けるテクスチャとを用いて表現する手法と、複数の視点に対して物体を透視投影することにより得られるテクスチャ画像とデプス画像を用いて表現する手法が挙げられる。前者の手法は、一般的なCG(Computer Graphics)技術で用いられる手法である。後者の手法(以下、2Dデプス手法という)は、被写体を透視投影することにより得られる画像である撮影画像との親和性が高い。
2Dデプス手法で物体の3次元構造が表現される場合、3次元構造を表現するデータは、MPEG MVD(Moving Picture Experts Group phase Multi-view+depth)等の符号化方式を用いて符号化される(例えば、非特許文献1参照)。
妹尾孝憲、山本健詞、大井隆太朗、栗田泰市郎「MPEG多視点映像符号化の標準化活動」情報通信研究機構季報Vol.56 Nos.1/2、2010年3月発行
以上のように、2Dデプス手法は、複数の視点に対して物体を透視投影することにより得られるテクスチャ画像(2次元画像)と、そのテクスチャ画像に対応するデプス画像とを用いて、物体の3次元構造を表現する手法である。従って、物体の透視投影されない領域の3次元構造については表現することができない。
よって、透視投影する視点の数を増加させ、透視投影される領域を増加させることにより、より多くの領域の3次元構造を表現することができる。しかしながら、透視投影する視点の数が多いほど、3次元構造を表現するために必要なデータ量は増加する。
本開示は、このような状況に鑑みてなされたものであり、2視点のテクスチャ画像とデプス画像を用いて、より多くの領域の3次元構造を表現することができるようにするものである。
本開示の第1の側面の画像処理装置は、ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することにより得られるテクスチャ画像と、各視点の前記テクスチャ画像に対応するデプス画像とを用いて、所定の視点のテクスチャ画像を生成する画像生成部と、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化部とを備える画像処理装置である。
本開示の第1の側面の画像処理方法は、本開示の第1の側面の画像処理装置に対応する。
本開示の第1の側面においては、ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することにより得られるテクスチャ画像と、各視点の前記テクスチャ画像に対応するデプス画像とを用いて、所定の視点のテクスチャ画像が生成される。なお、各視点の前記デプス画像の量子化方法は、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法とされる。
本開示の第2の側面の画像処理装置は、ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することによりテクスチャ画像を生成するテクスチャ画像生成部と、各視点の前記テクスチャ画像に対応するデプス画像を、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法で量子化された量子化値を画素値とすることにより生成するデプス画像生成部とを備える画像処理装置である。
本開示の第2の側面の画像処理方法は、本開示の第2の側面の画像処理装置に対応する。
本開示の第2の側面においては、ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することによりテクスチャ画像が生成され、各視点の前記テクスチャ画像に対応するデプス画像が、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法で量子化された量子化値を画素値とすることにより生成される。
なお、本開示の第1の側面および第2の側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、本開示の第1の側面および第2の側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本開示の第1の側面によれば、画像を生成することができる。本開示の第1の側面によれば、より多くの領域の3次元構造を表現する2視点のテクスチャ画像とデプス画像を用いて画像を生成することができる。
また、本開示の第2の側面によれば、画像を生成することができる。本開示の第2の側面によれば、2視点のテクスチャ画像とデプス画像を用いて、より多くの領域の3次元構造を表現することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態:生成装置および表示装置(図1乃至図22)
2.テクスチャ画像の他の例(図23)
3.第2実施の形態:tan軸投影(図24,25)
4.第3実施の形態:コンピュータ(図26)
5.応用例(図27および図28)
1.第1実施の形態:生成装置および表示装置(図1乃至図22)
2.テクスチャ画像の他の例(図23)
3.第2実施の形態:tan軸投影(図24,25)
4.第3実施の形態:コンピュータ(図26)
5.応用例(図27および図28)
<第1実施の形態>
(生成装置の構成例)
図1は、本開示を適用した画像処理装置としての生成装置の第1実施の形態の構成例を示すブロック図である。
(生成装置の構成例)
図1は、本開示を適用した画像処理装置としての生成装置の第1実施の形態の構成例を示すブロック図である。
図1の生成装置12は、撮影装置11−1乃至11−N(Nは2以上)により取得された撮影画像とデプス画像とを用いて、撮影画像内の主要な被写体のテクスチャ画像およびデプス画像、並びに、全天球画像のテクスチャ画像およびデプス画像を生成する。
具体的には、撮影装置11−1乃至11−Nは、主要な被写体の周囲に配置され、主要な被写体の少なくとも一部を撮影範囲に含む。撮影装置11−1乃至11−Nは、それぞれ、撮影画像カメラ21とデプス画像カメラ22により構成される。撮影画像カメラ21は、被写体を撮影してフレーム単位で撮影画像を取得し、生成装置12に供給する。デプス画像カメラ22は、撮影画像の各画素における被写体の奥行き方向の位置をフレーム単位で取得して、その位置を表す情報を画素値とするデプス画像を生成し、生成装置12に供給する。なお、以下では、撮影装置11−1乃至11−Nを特に区別する必要がない場合、それらをまとめて撮影装置11という。
生成装置12は、領域抽出部31、位置情報生成部32、カラー情報生成部33、ポリゴン生成部34、描画部35、全天球画像生成部36、低解像度化部37、エンコーダ38、記憶部39、および送信部40により構成される。
生成装置12の領域抽出部31は、N個の撮影装置11から供給されるN個の撮影画像とデプス画像から、主要な被写体の領域を抽出し、位置情報生成部32に供給する。また、領域抽出部31は、N個の撮影画像とデプス画像から、主要な被写体の領域以外の領域を背景領域として抽出し、全天球画像生成部36に供給する。
位置情報生成部32は、領域抽出部31から供給される主要な被写体の領域のN個のデプス画像を用いて、主要な被写体に対応する1以上のポリゴンの位置情報を生成する。ポリゴンの位置情報とは、主要な被写体の中心を原点とする3次元座標系である3Dモデル座標系のポリゴンの各頂点の3次元座標である。位置情報生成部32は、各ポリゴンの位置情報をカラー情報生成部33とポリゴン生成部34に供給する。また、位置情報生成部32は、主要な被写体の領域のN個の撮影画像をカラー情報生成部33に供給する。
カラー情報生成部33は、位置情報生成部32から供給される各ポリゴンの位置情報と主要な被写体のN個の撮影画像を用いて、各ポリゴンの表面と裏面のRGB値などのカラー情報を生成する。具体的には、カラー情報生成部33は、各ポリゴンに対応する撮影画像の画素値を用いて、そのポリゴンの表面のカラー情報を生成する。また、カラー情報生成部33は、各ポリゴンの表面のカラー情報を、そのポリゴンの裏面のカラー情報としても生成する。カラー情報生成部33は、各ポリゴンの表面と裏面のカラー情報をポリゴン生成部34に供給する。
なお、ポリゴンの表面のカラー情報は、ポリゴンの各頂点の3Dモデル座標系における3次元座標を、表面の法線ベクトルを軸として時計周りで記述し、その3次元座標に対応してカラー情報を記述することにより表現される。ポリゴンの裏面のカラー情報も、表面のカラー情報と同様に表現される。
ポリゴン生成部34は、位置情報生成部32から供給される各ポリゴンの位置情報に基づいて各ポリゴンを生成し、カラー情報生成部33から供給される各ポリゴンの表面と裏面のカラー情報に基づいて、各ポリゴンの表面および裏面に対してテクスチャを貼り付ける。ポリゴン生成部34は、表面および裏面に対してテクスチャが貼り付けられた各ポリゴンを描画部35に供給する。
描画部35(画像生成部)は、主要な被写体の1以上のポリゴンの中心である3Dモデル座標系の原点に対して対向する予め決められた2視点のそれぞれについて、各ポリゴンの裏面を透視投影面に透視投影することにより、2視点のテクスチャ画像を生成する。具体的には、描画部35は、2視点のそれぞれについて、各ポリゴンの裏面を、各視点から原点に向かう視線方向の直線が中心を通る法線である透視投影面に透視投影することにより、2視点のテクスチャ画像を生成する。本明細書において、「対向する位置」とは、対向する位置そのものだけでなく、本開示の技術的効果を奏する範囲で、対向する位置の付近も含むものである。同様に、「法線」とは、法線そのものだけでなく、面に対する角度が垂直付近である線も含むものである。
なお、テクスチャ画像のフォーマットは、特に限定されないが、例えばYCbCr420フォーマットを採用することができる。描画部35は、ポリゴンに基づいて、第1乃至第3の量子化方法で、2視点のテクスチャ画像それぞれに対応するデプス画像を生成する。描画部35は、2視点のテクスチャ画像と第1乃至第3の量子化方法で生成されたデプス画像をエンコーダ38に供給する。
全天球画像生成部36は、領域抽出部31から供給される背景領域のN個の撮影画像を3Dモデル座標系の原点を中心とする正八面体に透視投影することにより、水平方向の周囲360度および垂直方向の周囲180度の全天球画像のテクスチャ画像を生成する。なお、全天球画像は、水平方向の周囲360度および垂直方向の周囲180度の球体の全空間の画像ではなく、本開示の技術的効果を奏すれば部分空間の画像であってもよい。全天球画像生成部36は、領域抽出部31から供給される背景領域のN個のデプス画像を、撮影画像と同様に正八面体に透視投影することにより、全天球画像のデプス画像を生成する。全天球画像生成部36は、全天球画像のテクスチャ画像とデプス画像を低解像度化部37に供給する。
低解像度化部37は、全天球画像生成部36から供給される全天球画像のテクスチャ画像とデプス画像を低解像度化し、エンコーダ38に供給する。
エンコーダ38は、描画部35から供給される2視点のテクスチャ画像と第1乃至第3の量子化方法で生成されたデプス画像を符号化し、低解像度化部37から供給される全天球画像のテクスチャ画像とデプス画像を符号化する。これらの符号化の符号化方式としては、AVC(Advanced Video Coding)方式、HEVC方式、MVD方式等を用いることができるが、ここでは、AVC方式を用いるものとする。
従って、エンコーダ38は、符号化により、各視点のテクスチャ画像の符号化ストリーム(以下、視点テクスチャストリームという)と各量子化方法で生成されたデプス画像の符号化ストリーム(以下、視点デプスストリームという)を生成する。また、エンコーダ38は、符号化により、低解像度化された全天球画像のテクスチャ画像の符号化ストリーム(以下、全天球テクスチャストリームという)とデプス画像の符号化ストリーム(以下、全天球デプスストリームという)を生成する。エンコーダ38は、2視点の視点テクスチャストリームおよび第1乃至第3の量子化方法の視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを記憶部39に供給する。
記憶部39は、エンコーダ38から供給される2視点の視点テクスチャストリームおよび第1乃至第3の量子化方法の視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを記憶する。
送信部40は、視点ごとに、記憶部39に記憶されている第1乃至第3の量子化方法の視点デプスストリームのうちの、受信部41から供給される量子化方法情報が示す量子化方法の視点デプスストリームを読み出し、送信する。また、送信部40は、記憶部39に記憶されている2視点の視点テクスチャストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを読み出し、送信する。
受信部41は、後述する表示装置から送信されてくる、第1乃至第3の量子化方法のうちの表示画像に対応する量子化方法を示す量子化方法情報を視点ごとに受信し、送信部40に供給する。
以上のように、生成装置12は、主要な被写体の3次元構造を表現するポリゴンとカラー情報を、2視点のテクスチャ画像とデプス画像に変換する。従って、生成装置12は、2視点のテクスチャ画像とデプス画像を、一般的な画像の符号化方式を用いて符号化し、データ量を削減することができる。その結果、主要な被写体の3次元構造を表現するデータの伝送帯域を削減することができる。
なお、図1の生成装置12は、ポリゴンとカラー情報を生成したが、CG技術において用いられる3次元構造を表現する情報であれば、ポイントクラウドなどの他の情報を生成するようにしてもよい。
また、図1の例では、デプス画像カメラ22が、撮影画像と同一の画素数のデプス画像を取得するが、撮影画像より少ない画素数のデプス画像を取得する場合には、領域抽出部31と位置情報生成部32の間に、デプス画像の画素値を補間するデプス画像補間部が設けられる。この場合、デプス画像補間部は、デプス画像の画素値を補間し、デプス画像の画素数を撮影画像の画素数と同一にする。
さらに、図1の例では、各撮影装置11がデプス画像を取得するようにしたが、デプス画像は、そのデプス画像に対応する撮影装置11と他の撮影装置11により取得された撮影画像から生成されるようにしてもよい。
また、図1の例では、描画部35が第1乃至第3の全ての量子化方法でデプス画像を生成したが、受信部41により受信された量子化方法情報が示す量子化方法でのみデプス画像を生成するようにしてもよい。
(撮影装置の配置例)
図2は、図1の撮影装置11の配置例を示す図である。
図2は、図1の撮影装置11の配置例を示す図である。
図2の例では、Nは9である。
図2に示すように、9個の撮影装置11−1乃至11−9は、主要な被写体61の周囲に取り囲むように配置される。
(描画部の構成例)
図3は、図1の描画部35の構成例を示すブロック図である。
図3は、図1の描画部35の構成例を示すブロック図である。
図3の描画部35は、テクスチャ画像生成部71、r値取得部72、逆r値取得部73、1/r量子化部74、等間隔量子化部75、および逆1/r量子化部76により構成される。
描画部35のテクスチャ画像生成部71は、2視点のそれぞれに対して、図1のポリゴン生成部34から供給される各ポリゴンの裏面を透視投影面に透視投影することにより、2視点のテクスチャ画像を生成し、図1のエンコーダ38に供給する。
r値取得部72は、2視点のそれぞれについて、ポリゴン生成部34から供給される各ポリゴンに基づいて、その視点とテクスチャ画像の各画素におけるポリゴンとを結ぶ直線の距離rを求める。r値取得部72は、各視点の各画素の距離rを1/r量子化部74と等間隔量子化部75に供給する。
逆r値取得部73は、2視点のそれぞれについて、ポリゴン生成部34から供給される各ポリゴンに基づいて、その視点と2視点を構成する他の視点とテクスチャ画像の各画素におけるポリゴンとを結ぶ直線の距離r´を求める。距離r´と距離rの関係は、以下の式(1)で表される。
r´=rmax+rmin-r ・・・(1)
なお、rmax,rminは、それぞれ、テクスチャ画像の全画素における距離rの最大値、最小値である。逆r値取得部73は、各視点の各画素の距離r´を逆1/r量子化部76に供給する。
1/r量子化部74(デプス画像生成部)は、視点ごとに、距離rの逆数を量子化する第1の量子化方法で、以下の式(2)により、r値取得部72から供給される各画素の距離rの逆数を量子化し、量子化後の値Id1(r)を求める。
1/r量子化部74は、視点ごとに、各画素の量子化後の値Id1(r)を画素値とするデプス画像を生成し、図1のエンコーダ38に供給する。
等間隔量子化部75(デプス画像生成部)は、視点ごとに、距離rを量子化する第2の量子化方法で、以下の式(3)により、r値取得部72から供給される各画素の距離rを量子化し、量子化後の値Id2(r)を求める。
等間隔量子化部75は、視点ごとに、各画素の量子化後の値Id2(r)を画素値とするデプス画像を生成し、エンコーダ38に供給する。
逆1/r量子化部76(デプス画像生成部)は、視点ごとに、距離r´の逆数を量子化する第3の量子化方法で、以下の式(4)により、逆r値取得部73から供給される各画素の距離r´の逆数を量子化し、量子化後の値Id3(r´)を求める。
逆1/r量子化部76は、視点ごとに、各画素の量子化後の値Id3(r´)を画素値とするデプス画像を生成し、エンコーダ38に供給する。
(距離rの説明)
図4は、距離rを説明する図である。
図4は、距離rを説明する図である。
図4の例では、ポリゴン生成部34により生成されるポリゴンが、視点O1のテクスチャ画像の奥行き方向zの視点O1との距離がzabである位置に、奥行き方向zに垂直な面80を形成している。
この場合、視点O1のテクスチャ画像におけるポリゴンが、奥行き方向zと交差する面80上の点aである画素の距離rである距離raは、視点O1と点aを結ぶ奥行き方向zの直線の距離であり、距離zabである。
また、視点O1のテクスチャ画像におけるポリゴンが、面80上の点aとは異なる点bである画素の距離rである距離rbは、視点O1と点bを結ぶ奥行き方向zとは異なる方向の直線の距離であり、距離zabではない。
(本開示の効果の説明)
図5乃至図7は、3Dモデル座標系の原点に対して対向する2視点のそれぞれについて、各ポリゴンの表面を透視投影面に透視投影することにより生成されるテクスチャ画像と、そのテクスチャ画像に対応するデプス画像とを説明する図である。
図5乃至図7は、3Dモデル座標系の原点に対して対向する2視点のそれぞれについて、各ポリゴンの表面を透視投影面に透視投影することにより生成されるテクスチャ画像と、そのテクスチャ画像に対応するデプス画像とを説明する図である。
図5乃至図7の例では、主要な被写体のポリゴンが球81を形成する。この場合、図5のAに示すように、2視点のうちの一方の視点O1に対して、球81の表面を視線方向V1の透視投影面に透視投影することにより生成されるテクスチャ画像には、各投影方向82と最初に交差する球81上の表面の領域81Aに貼られたテクスチャが描画される。投影方向とは、視点から延びる、視線方向とのなす角の絶対値が画角の半分の角度(図3の例ではθ)の範囲内である方向である。また、このテクスチャ画像に対応するデプス画像は、視点O1に対する領域81Aの奥行き方向(視線方向V1)の位置を表す画像である。
また、図5のBに示すように、2視点のうちの他方の視点O2に対して、球81の表面を視線方向V2の透視投影面に透視投影することにより生成されるテクスチャ画像には、各投影方向83と最初に交差する球81上の表面の領域81Bに貼られたテクスチャが描画される。また、このテクスチャ画像に対応するデプス画像は、視点O2に対する領域81Bの奥行き方向(視線方向V2)の位置を表す画像である。
従って、図5のCに示すように、視点O1のテクスチャ画像およびデプス画像、並びに、視点O2のテクスチャ画像およびデプス画像により、球81の中心に対して互いに対向する2つの領域81Aと領域81Bの3次元構造を表現することができる。しかしながら、球の表面には、領域81Aと領域81B以外の領域が存在する。即ち、視点O1のテクスチャ画像およびデプス画像、並びに、視点O2のテクスチャ画像およびデプス画像では3次元構造を表現できない球81の表面の領域が存在する。
例えば、球81の表面および裏面に世界地図がテクスチャとして貼られており、アフリカ沖大西洋上空が視点O1である場合、図6のAの左側に示すように、視点O1のテクスチャ画像101には、領域81Aの表面にテクスチャとして貼られたアフリカ大陸と南アメリカ大陸の一部が描画される。
また、この場合、視点O2は太平洋上空であり、図6のBの左側に示すように、視点O2のテクスチャ画像102には、領域81Bの表面にテクスチャとして貼られたオーストラリア大陸の一部が描画される。しかしながら、南極大陸等は、テクスチャ画像101とテクスチャ画像102のいずれにも描画されない。
また、図6のAの右側および図6のBの右側に示すように、テクスチャ画像101に対応するデプス画像111と、テクスチャ画像102に対応するデプス画像112は、同一である。なお、デプス画像は、各画素における被写体の奥行き方向の位置が遠いほど、画素値(輝度値)が小さい。従って、デプス画像111とデプス画像112は、中心の画素値が最も大きく、中心から離れるほど小さくなっている。
以上のように、テクスチャ画像101とテクスチャ画像102のいずれにも、南極大陸等は描画されない。従って、図7に示すように、テクスチャ画像101およびデプス画像111並びにテクスチャ画像102およびデプス画像112を用いて再構成された3次元構造121は、表面および裏面に世界地図がテクスチャとして貼られた球81の一部分のみである。
図5乃至図7の例では、ポリゴンの形状が比較的単純な球81であったが、ポリゴンの形状が複雑である場合、2視点のテクスチャ画像では3次元構造を表現できないポリゴンの領域が増加する。
図8および図9は、視点O1に対して球81の裏面を視線方向V1の透視投影面に透視投影することにより生成されるテクスチャ画像と、そのテクスチャ画像に対応するデプス画像とを説明する図である。
上述したように、視点O1に対して球81の表面を視線方向V1の透視投影面に透視投影することによりテクスチャ画像を生成する場合、テクスチャ画像には、図8に示すように、各投影方向82と最初に交差する球81上の表面の各点c1に貼られたテクスチャが描画される。また、このテクスチャ画像に対応するデプス画像は、視点O1に対する各点c1の奥行き方向(視線方向V1)の位置を表す画像である。
一方、視点O1に対して球81の裏面を視線方向V1の透視投影面に透視投影することによりテクスチャ画像を生成する場合、テクスチャ画像には、図8に示すように、各投影方向82と最初に交差する球81上の裏面の各点c2に貼られたテクスチャが描画される。また、このテクスチャ画像に対応するデプス画像は、視点O2に対する各点c2の奥行き方向(視線方向V1)の位置を表す画像である。
例えば、球81の表面および裏面に世界地図がテクスチャとして貼られており、アフリカ沖大西洋上空が視点O1である場合、図9に示すように、視点O1のテクスチャ画像131には、各点c2の裏面にテクスチャとして貼られた北アメリカ大陸、南アメリカ大陸の一部、南極大陸、ヨーロッパ大陸の一部、アジア大陸、およびオーストラリア大陸が描画される。また、テクスチャ画像131に対応するデプス画像132は、中心の画素値が最も小さく、中心から離れるほど小さくなる。
図10乃至図12は、3Dモデル座標系の原点に対して対向する2視点のそれぞれについて、各ポリゴンの裏面を透視投影面に透視投影することにより生成されるテクスチャ画像と、そのテクスチャ画像に対応するデプス画像とを説明する図である。
図10乃至図12の例では、主要な被写体のポリゴンが球81である。この場合、図10のAに示すように、視点O1に対して、球81の裏面を視線方向V1の透視投影面に透視投影することにより生成されるテクスチャ画像には、各投影方向82と最初に交差する球81上の裏面の領域153Aに貼られたテクスチャが描画される。また、このテクスチャ画像に対応するデプス画像は、視点O1に対する領域81Aの奥行き方向(視線方向V1)の位置を表す画像である。
また、図10のBに示すように、2視点のうちの他方の視点O2に対して、球81の裏面を視線方向V2の透視投影面に透視投影することにより生成されるテクスチャ画像には、各投影方向83と最初に交差する球81上の裏面の領域153Bに貼られたテクスチャが描画される。また、このテクスチャ画像に対応するデプス画像は、視点O2に対する領域81Bの奥行き方向(視線方向V2)の位置を表す画像である。
従って、図8Cに示すように、視点O1のテクスチャ画像およびデプス画像、並びに、視点O2のテクスチャ画像およびデプス画像により、球81の中心に対して互いに対向する2つの領域153Aおよび領域153Bの3次元構造を表現することができる。
なお、図10のCに示すように、領域153Aおよび領域153Bは重複する。従って、視点O1のテクスチャ画像およびデプス画像、並びに、視点O2のテクスチャ画像およびデプス画像により、球81の全ての3次元構造を表現することができることになる。
例えば、球81の表面および面に世界地図がテクスチャとして貼られており、アフリカ沖大西洋上空が視点O1である場合、図11のAの左側に示すように、視点O1のテクスチャ画像161には、領域153Aの裏面にテクスチャとして貼られた北アメリカ大陸、南アメリカ大陸の一部、南極大陸、ヨーロッパ大陸の一部、アジア大陸、オーストラリア大陸が描画される。
また、この場合、視点O2は太平洋上空であり、図11のBの左側に示すように、視点O2のテクスチャ画像162には、領域153Bの裏面にテクスチャとして貼られたアフリカ大陸、北アメリカ大陸、南アメリカ大陸、南極大陸、ヨーロッパ大陸の一部が描画される。従って、7大陸の全てが、テクスチャ画像161とテクスチャ画像162の少なくとも一方に描画される。
また、図11のAおよび図11のBの右側に示すように、テクスチャ画像161に対応するデプス画像163と、テクスチャ画像162に対応するデプス画像164は、同一である。デプス画像163とデプス画像164は、中心の画素値が最も小さく、中心から離れるほど大きくなっている。
以上のように、7大陸の全てが、テクスチャ画像161とテクスチャ画像162の少なくとも一方に描画される。従って、図12のAに示すように、テクスチャ画像161とデプス画像163を用いて再構成された3次元構造171は、球81の視点O2側の半分(図中右半分)より大きい部分である。また、図12のBに示すように、テクスチャ画像162とデプス画像164を用いて再構成された3次元構造172は、球81の視点O1側の半分(図中左半分)より大きい部分である。よって、テクスチャ画像161およびデプス画像163並びにテクスチャ画像162およびデプス画像164を用いて3次元構造を再構成することにより、球81全体を生成することができる。
なお、領域153Aと領域153Bの重複領域は、テクスチャ画像161およびデプス画像163と、テクスチャ画像162およびデプス画像164のいずれか一方を用いて生成される。
例えば、図10のAに示すように、領域153Aと領域153Bの重複領域のうちの領域153Aの端部の領域154は、視点O1に対して透視投影される場合、投影方向82との角度が小さい。従って、テクスチャ画像161とデプス画像163では、領域154の3次元構造を高精度で表現することはできない。
しかしながら、図10のBに示すように、領域154は、視点O2に対して透視投影される場合、投影方向83との角度が、視点O1に対して透視投影される場合に比べて大きくなる。従って、テクスチャ画像162とデプス画像164では、テクスチャ画像161とデプス画像163に比べて、領域154の3次元構造を高精度で表現することができる。よって、領域154は、テクスチャ画像162とデプス画像164を用いて生成される。
以上のように、領域153Aと領域153Bの重複領域を、テクスチャ画像161およびデプス画像163と、テクスチャ画像162およびデプス画像164のうちの、重複領域との角度が大きい投影方向に対応する方を用いて生成することにより、球81の再構成の精度を向上させることができる。
(生成装置の処理の説明)
図13は、図1の生成装置12の生成処理を説明するフローチャートである。この生成処理は、N個の撮影装置11により取得されるN個の撮影画像とデプス画像のフレームごとに行われる。
図13は、図1の生成装置12の生成処理を説明するフローチャートである。この生成処理は、N個の撮影装置11により取得されるN個の撮影画像とデプス画像のフレームごとに行われる。
図13のステップS11において、生成装置12の領域抽出部31は、撮影装置11から供給されるN個の撮影画像とデプス画像から、主要な被写体の領域と背景領域を抽出する。領域抽出部31は、主要な被写体の領域のN個の撮影画像とデプス画像を位置情報生成部32に供給し、背景領域のN個の撮影画像とデプス画像を全天球画像生成部36に供給する。
ステップS12において、位置情報生成部32は、領域抽出部31から供給される主要な被写体の領域のN個のデプス画像を用いて、主要な被写体の各ポリゴンの位置情報を生成し、カラー情報生成部33と描画部35に供給する。また、位置情報生成部32は、主要な被写体の領域のN個の撮影画像をカラー情報生成部33に供給する。
ステップS13において、カラー情報生成部33は、位置情報生成部32から供給される各ポリゴンの位置情報と主要な被写体の領域のN個の撮影画像を用いて、各ポリゴンの表面と裏面のカラー情報を生成する。カラー情報生成部33は、各ポリゴンの表面と裏面のカラー情報を描画部35に供給する。
ステップS14において、描画部35は、位置情報生成部32から供給される各ポリゴンの位置情報に基づいて各ポリゴンを生成し、カラー情報生成部33から供給される各ポリゴンの表面と裏面のカラー情報に基づいて、各ポリゴンの表面および裏面に対してテクスチャを貼り付ける。
ステップS15において、描画部35のテクスチャ画像生成部71(図3)は、予め決められた2視点のそれぞれに対して、各ポリゴンの裏面を視線方向の透視投影面に透視投影することにより2視点のテクスチャ画像を生成する。描画部35は、2視点のテクスチャ画像をエンコーダ38に供給する。
ステップS16において、r値取得部72は、ポリゴン生成部34から供給されるポリゴンに基づいて、各視点の各画素の距離rを求め、1/r量子化部74と等間隔量子化部75に供給する。
ステップS17において、逆r値取得部73は、ポリゴン生成部34から供給されるポリゴンに基づいて、各視点の各画素の距離r´を求め、逆1/r量子化部76に供給する。
ステップS18において、1/r量子化部74は、視点ごとに、第1の量子化方法で量子化後の値Id1(r)を求めることによりデプス画像を生成し、エンコーダ38に供給する。また、等間隔量子化部75は、視点ごとに、第2の量子化方法で量子化後の値Id2(r)を求めることによりデプス画像を生成し、エンコーダ38に供給する。さらに、逆1/r量子化部76は、第3の量子化方法で量子化後の値Id3(r´)を求めることによりデプス画像を生成し、エンコーダ38に供給する。
ステップS19において、全天球画像生成部36は、領域抽出部31から供給される背景領域のN個の撮影画像を3Dモデル座標系の原点を中心とする正八面体に透視投影することにより、全天球画像のテクスチャ画像を生成し、低解像度化部37に供給する。
ステップS20において、全天球画像生成部36は、領域抽出部31から供給される背景領域のN個のデプス画像を、撮影画像と同様に正八面体に透視投影することにより、全天球画像のデプス画像を生成し、低解像度化部37に供給する。
ステップS21において、低解像度化部37は、全天球画像生成部36から供給される全天球画像のテクスチャ画像とデプス画像を低解像度化し、エンコーダ38に供給する。
ステップS22において、エンコーダ38は、2視点のテクスチャ画像および第1乃至第3の量子化方法のデプス画像、並びに、全天球画像のテクスチャ画像およびデプス画像を符号化して記憶部39に供給し、記憶させる。
ステップS23において、受信部41は、後述する表示装置から各視点の量子化情報が送信されてきたかどうかを判定する。ステップS23で各視点の量子化情報が送信されてきたと判定された場合、受信部41は、各視点の量子化情報を受信し、送信部40に供給する。
そして、ステップS24において、送信部40は、視点ごとに、送信対象の視点デプスストリームの量子化方法を、受信部41から供給される量子化情報が示す量子化方法に設定し、処理をステップS25に進める。
一方、ステップS23で量子化情報が送信されてきていないと判定された場合、送信部40は、現在の処理対象のフレームより前のフレームを処理対象としたときに設定された量子化方法を、現在の処理対象のフレームの量子化方法とする。そして、処理はステップS25に進む。
ステップS25において、送信部40は、記憶部39に記憶されている2視点の視点テクスチャストリームおよび設定された量子化方法の視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを読み出し、送信する。そして、処理は終了する。
以上のように、生成装置12は、3Dモデル座標系の原点に対して対向する2視点のそれぞれについて各視点の視線方向の透視投影面にポリゴンの裏面を透視投影することにより、2視点のテクスチャ画像とデプス画像を生成する。従って、生成された2視点のテクスチャ画像とデプス画像は、ポリゴンの表面を透視投影することにより生成される場合に比べて、より多くの領域の主要な被写体のポリゴンの3次元構造を表現することができる。
また、生成装置12は、第1乃至第3の量子化方法でデプス画像を生成する。従って、後述する表示装置は、第1乃至第3の量子化方法の視点デプスストリームから、表示画像に適した量子化方法の視点デプスストリームを選択的に用いて表示画像を生成することができる。
(表示装置の構成例)
図14は、本開示を適用した画像処置装置としての表示装置の第1実施の形態の構成例を示すブロック図である。
図14は、本開示を適用した画像処置装置としての表示装置の第1実施の形態の構成例を示すブロック図である。
図14の表示装置200は、図1の生成装置12から送信されてくる2視点の視点テクスチャストリームおよび所定の量子化方法の視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを受信し、所定の視点のテクスチャ画像を表示画像として生成する。
具体的には、表示装置200は、受信部201、記憶部202、デコーダ203、逆量子化部204、再構成部205、描画部206、表示部207、選択部208、および送信部209により構成される。
表示装置200の受信部201は、生成装置12から送信されてくる2視点の視点テクスチャストリームおよび視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを受信し、記憶部202に供給する。
記憶部202は、受信部201から供給される2視点の視点テクスチャストリームおよび視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを記憶する。
デコーダ203は、記憶部202から2視点の視点テクスチャストリームおよび視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを読み出し、復号する。デコーダ203は、復号の結果得られる2視点のテクスチャ画像およびデプス画像、並びに、全天球画像のテクスチャ画像およびデプス画像を再構成部205に供給する。また、デコーダ203は、復号の結果得られる2視点のデプス画像を逆量子化部204に供給する。
逆量子化部204は、視点ごとに、選択部208から供給される量子化情報が示す量子化方法に対応する逆量子化方法で、デコーダ203から供給される2視点のデプス画像を逆量子化し、各画素の距離情報を生成する。距離情報は、量子化情報が第1の量子化方法を示す場合距離rの逆数1/rであり、量子化情報が第2の量子化方法を示す場合距離rであり、量子化情報が第3の量子化方法を示す場合距離r´の逆数1/r´である。逆量子化部204は、2視点のデプス画像の各画素の距離情報を再構成部205に供給する。
再構成部205は、2視点のテクスチャ画像およびデプス画像の各画素の距離情報を用いて、3Dモデル座標系に主要な被写体の3次元構造を再構成する。上述したように、生成装置12で生成される2視点のテクスチャ画像およびデプス画像は、ポリゴンの表面を透視投影することにより生成される場合に比べて、より多くの領域の主要な被写体のポリゴンの3次元構造を表現することができる。従って、復号された2視点のテクスチャ画像およびデプス画像を用いて3次元構造が再構成される主要な被写体の領域は、2視点のテクスチャ画像とデプス画像がポリゴンの表面を透視投影することにより生成される場合に比べて多い。
また、再構成部205は、デコーダ203から供給される全天球画像のテクスチャ画像とデプス画像を用いて、3Dモデル座標系に背景領域の3次元構造を再構成する。再構成部205は、主要な被写体と背景領域の3次元構造の位置情報とカラー情報を描画部206に供給する。
描画部206(画像生成部)は、再構成部205から供給される主要な被写体と背景領域の3次元構造の位置情報とカラー情報に基づいて、視聴者等により指定された3Dモデル座標系における視点、視線方向、および画角のテクスチャ画像を表示画像として生成する。描画部206は、生成された表示画像を表示部207に供給する。
表示部207は、描画部206から供給される表示画像を表示する。これにより、視聴者は、例えば、主要な被写体の周囲の任意の位置から主要な被写体を見ることができる。
選択部208には、視聴者等により指定された3Dモデル座標系における視点および視線方向に基づいて、視点ごとに、テクスチャ画像の奥行き方向(視線方向)と表示画像の奥行き方向のなす角度を表示変更角度として求める。選択部208は、視点ごとに、表示変更角度に基づいて、デプス画像の量子化方法を第1乃至第3の量子化方法から選択する。選択部208は、選択された量子化方法の量子化情報を生成し、逆量子化部204と送信部209に供給する。
なお、ここでは、選択部208において、第1乃至第3の量子化方法から、デプス画像の量子化方法を選択し、量子化が行われるとして説明を続けるが、第1乃至第3の量子化方法のうちのいずれかの量子化方法が設定されており、その設定されている量子化方法で量子化を行う量子化部とした構成とすることも可能である。
また、ここでは、視点ごとに、表示変更角度に基づいて、第1乃至第3の量子化方法から量子化方法が選択されるとして説明を続けるが、表示変更角度以外の所定の条件に基づき、量子化方法が選択されるようにしても良い。
送信部209は、選択部208から供給される量子化情報を図1の生成装置12に送信する。
(量子化方法の選択の説明)
図15乃至図18は、図14の選択部208による量子化方法の選択を説明する図である。
図15乃至図18は、図14の選択部208による量子化方法の選択を説明する図である。
視点O1のデプス画像が第1の量子化方法で生成される場合、図15の点線で示すように、デプス画像の画素値としてとり得る値のうちの所定の間隔の値に対応する画角内の位置を示す等画素値線は、視点O1を中心とした円の円弧である。また、第1の量子化方法では、距離rの逆数1/rが量子化されるため、等画素値線の間隔は、視点O1に近いほど狭い。
従って、視点VO1の表示画像の奥行き方向Vzと、視点O1のテクスチャ画像の奥行き方向zのなす表示変更角度が、図15に示すように0度付近(図15の例では0度)である場合、即ち奥行き方向Vzと奥行き方向zが近い場合、視点VO1に近いほど等画素値線の間隔は狭くなる。即ち、表示画像において、視点VO1に近く目立つ被写体ほど、デプス画像の量子化ステップが細かくなる。その結果、表示画像の画質を向上させることができる。
表示変更角度が360度付近である場合も、0度付近である場合と同様に、奥行き方向Vzと奥行き方向zが近いため、第1の量子化方法でデプス画像を生成することにより、表示画像の画質を向上させることができる。よって、選択部208は、図18に示すように、表示変更角度が0度以上φ1(0<φ1<90)(第1の閾値)度未満であるか、または、φ4(270<φ4<360)(第2の閾値)度以上360度未満である場合、第1の量子化方法を選択する。
これに対して、視点O1のデプス画像が第3の量子化方法で生成される場合、図16の点線で示すように、等画素値線は、視点O1と原点Oに対して対向する視点O2を中心とした円の円弧である。また、第3の量子化方法では、距離r´の逆数1/r´が量子化されるため、等画素値線の間隔は、視点O2に近いほど、即ち視点O1から遠いほど狭い。
従って、視点VO1の表示画像の奥行き方向Vzと、視点O1のデプス画像の奥行き方向zのなす表示変更角度が、図16に示すように180度付近(図15の例では180度)である場合、即ち奥行き方向Vzと奥行き方向zの逆方向が近い場合、視点VO1に近いほど等画素値線の間隔は狭くなる。即ち、表示画像において、視点VO1に近く目立つ被写体ほど、デプス画像の量子化ステップが細かくなる。その結果、表示画像の画質を向上させることができる。
従って、選択部208は、図18に示すように、表示変更角度がφ2(90<φ2<180)(第3の閾値)度以上φ3(180<φ3<270)(第4の閾値)度未満である場合、第3の量子化方法を選択する。
視点O1のデプス画像が第2の量子化方法で生成される場合、図17の点線で示すように、等画素値線は、視点O1を中心とした円の円弧である。また、第2の量子化方法では、距離rが量子化されるため、等画素値線の間隔は等間隔である。
従って、視点VO1の表示画像の奥行き方向Vzと、視点O1のデプス画像の奥行き方向zのなす表示変更角度が、図17に示すように270度付近である場合、または、90度付近である場合、即ち奥行き方向Vzが奥行き方向zの順方向および逆方向のいずれにも近くない場合、選択部208は第2の量子化方法を選択する。即ち、第1または第3の量子化方法の優位性がない場合、選択部208は、第2の量子化方法を選択する。具体的には、図18に示すように、選択部208は、表示変更角度がφ1度以上φ2度未満であるか、または、φ3度以上φ4度未満である場合、第2の量子化方法を選択する。
以上のようにして選択部208が第1乃至第3の量子化方法を選択することにより、表示画像において、視点VO1に近いほど量子化ステップが荒くなることを防止することができる。
(第1の再構成方法の説明)
図19は、第1の再構成方法を説明する図である。
図19は、第1の再構成方法を説明する図である。
なお、図19の例では、説明の便宜上、2視点のテクスチャ画像およびデプス画像の解像度が、4(横)×4(縦)画素であるものとする。また、図19では、2視点のうちの1つの視点O1のテクスチャ画像とデプス画像を用いて主要な被写体の3次元構造を再構成する場合について説明する。
第1の再構成方法は、ポイントクラウドを用いて3次元構造を再構成する方法である。具体的には、図19に示すように、第1の再構成方法では、再構成部205は、視点O1、視線方向V1、画角2θ、視点O1のテクスチャ画像220の各画素221に対応するサンプリング点231のテクスチャ画像220上の位置(u,v)、および、テクスチャ画像220に対応するデプス画像の各画素221の画素値に基づいて、サンプリング点231の3Dモデル座標系における3次元座標(X,Y,Z)を生成する。
また、再構成部205は、テクスチャ画像220の各画素221の画素値であるYCbCr値をRGB値に変換し、各画素221に対応するサンプリング点231のRGB値とする。再構成部205は、各サンプリング点231の3次元座標(X,Y,Z)に、そのサンプリング点231のRGB値の点を描画することにより、主要な被写体の3次元構造を再構成する。再構成部205は、各サンプリング点231の3次元座標(X,Y,Z)を主要な被写体の3次元構造の位置情報として描画部206に供給するとともに、各サンプリング点231のRGB値を主要な被写体の3次元構造のカラー情報として描画部206に供給する。
(第2の再構成方法の説明)
図20は、第2の再構成方法を説明する図である。
図20は、第2の再構成方法を説明する図である。
なお、図20の例では、説明の便宜上、2視点のテクスチャ画像およびデプス画像の解像度が、4(横)×3(縦)画素であるものとする。また、図20では、2視点のうちの1つの視点O1のテクスチャ画像とデプス画像を用いて主要な被写体の3次元構造を再構成する場合について説明する。
第2の再構成方法は、三角形パッチを用いて3次元構造を再構成する方法である。具体的には、図20の左側に示すように、第2の再構成方法では、再構成部205は、視点O1のテクスチャ画像240上に各画素241に対応するサンプリング点251を生成する。再構成部205は、テクスチャ画像240の全ての画素に対応するサンプリング点251のうちの、隣接する3つのサンプリング点251どうしを接続することにより、隣接する3つのサンプリング点251を頂点とする三角形パッチ252を生成する。
そして、再構成部205は、視点O1、視線方向V1、画角2θ、各サンプリング点251のテクスチャ画像240上の位置(u,v)、および、テクスチャ画像240に対応するデプス画像の各画素241の画素値に基づいて、各サンプリング点251に対応する3Dモデル座標系の3次元座標(X,Y,Z)を生成する。
そして、再構成部205は、図20の右側に示すように、各サンプリング点251の3次元座標(X,Y,Z)に基づいて、各サンプリング点251に対応する各サンプリング点261を3Dモデル座標系に配置する。また、再構成部205は、三角形パッチ252の頂点を構成する3つのサンプリング点251に対応するサンプリング点261を接続することにより、三角形パッチ262を生成する。
また、再構成部205は、三角形パッチ262ごとに、三角形パッチ262に対応する三角形パッチ252を構成する画素241のYCbCr値をRGB値に変換し、そのRGB値を用いて三角形パッチ262のRGB値を生成する。再構成部205は、三角形パッチ262ごとに、三角形パッチ262のRGB値のテクスチャを三角形パッチ262に貼り付ける。これにより、再構成部205は、主要な被写体の3次元構造を再構成する。再構成部205は、各三角形パッチ262の頂点となるサンプリング点261の3次元座標(X,Y,Z)を主要な被写体の3次元構造の位置情報として描画部206に供給する。また、再構成部205は、各三角形パッチ262のRGB値を主要な被写体の3次元構造のカラー情報として描画部206に供給する。
図19および図20では、視点O1のテクスチャ画像とデプス画像から主要な被写体の3次元構造を再構成する方法について説明したが、視点O2のテクスチャ画像とデプス画像から主要な被写体の3次元構造を再構成する方法および全天球画像のテクスチャ画像とデプス画像から背景領域の3次元構造を再構成する方法についても同様である。
(表示装置の処理の説明)
図21は、図14の表示装置200の表示処理を説明するフローチャートである。この表示処理は、例えば、視聴者により表示画像の表示が要求されたとき、開始される。
図21は、図14の表示装置200の表示処理を説明するフローチャートである。この表示処理は、例えば、視聴者により表示画像の表示が要求されたとき、開始される。
図21のステップS30において、表示装置200の選択部208は、量子化情報を生成し、送信する量子化情報生成処理を行う。この量子化情報生成処理の詳細は、後述する図22を参照して説明する。
ステップS31において、受信部201は、量子化情報に応じて図1の生成装置12から送信されてくる2視点の視点テクスチャストリームおよび視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを受信し、記憶部202に供給して記憶させる。
ステップS32において、デコーダ203は、記憶部202から2視点の視点テクスチャストリームおよび視点デプスストリーム、並びに、全天球テクスチャストリームおよび全天球デプスストリームを読み出し、復号する。デコーダ203は、復号の結果得られる2視点のテクスチャ画像およびデプス画像、並びに、全天球画像のテクスチャ画像およびデプス画像を再構成部205に供給する。また、デコーダ203は、復号の結果得られる2視点のデプス画像を逆量子化部204に供給する。
ステップS33において、逆量子化部204は、視点ごとに、選択部208から供給される量子化情報が示す量子化方法に対応する逆量子化方法で、デコーダ203から供給されるデプス画像を逆量子化し、各画素の距離情報を生成する。逆量子化部204は、各視点のデプス画像の各画素の距離情報を再構成部205に供給する。
ステップS34において、再構成部205は、2視点のテクスチャ画像およびデプス画像の各画素の距離情報を用いて、3Dモデル座標系に主要な被写体の3次元構造を再構成する。再構成部205は、主要な被写体の3次元構造の位置情報とカラー情報を描画部206に供給する。
ステップS35において、再構成部205は、デコーダ203から供給される全天球画像のテクスチャ画像とデプス画像を用いて、3Dモデル座標系に背景領域の3次元構造を再構成する。再構成部205は、背景領域の3次元構造の位置情報とカラー情報を描画部206に供給する。
ステップS36において、描画部206は、再構成部205から供給される主要な被写体と背景領域の3次元構造の位置情報とカラー情報に基づいて、視聴者等により指定された3Dモデル座標系における視点、視線方向、および画角のテクスチャ画像を表示画像として生成する。描画部206は、生成された表示画像を表示部207に供給する。
ステップS37において、表示部207は、描画部206から供給される表示画像を表示し、処理を終了する。
図22は、図21のステップS30の量子化情報生成処理を説明するフローチャートである。この量子化情報生成処理は、視点ごとに行われる。
図22のステップS51において、選択部208には、視聴者等により指定された3Dモデル座標系における視点および視線方向に基づいて、表示変更角度を求める。
ステップS52において、選択部208は、表示変更角度が、0度以上φ1度未満であるか、または、φ4度以上360度未満であるかどうかを判定する。ステップS52で、表示変更角度が、0度以上φ1度未満であるか、または、φ4度以上360度未満であると判定された場合、処理はステップS53に進む。
ステップS53において、選択部208は、第1の量子化方法を選択し、第1の量子化方法の量子化情報を生成して、送信部209に供給する。そして、処理はステップS57に進む。
一方、ステップS52で、表示変更角度が、0度以上φ1度未満ではなく、かつ、φ4度以上360度未満ではないと判定された場合、処理は、ステップS54に進む。
ステップS54において、選択部208は、表示変更角度が、φ1度以上φ2度未満であるか、または、φ3度以上φ4度未満であるかどうかを判定する。ステップS54で表示変更角度が、φ1度以上φ2度未満であるか、または、φ3度以上φ4度未満であると判定された場合、処理はステップS55に進む。
ステップS55において、選択部208は、第2の量子化方法を選択し、第2の量子化方法の量子化情報を生成して、送信部209に供給する。そして、処理はステップS57に進む。
一方、ステップS54で、表示変更角度が、φ1度以上φ2度未満ではなく、かつ、φ3度以上φ4度未満ではないと判定された場合、即ち、表示変更角度がφ2度以上φ3度未満である場合、処理はステップS56に進む。
ステップS56において、選択部208は、第3の量子化方法を選択し、第3の量子化方法の量子化情報を生成して、送信部209に供給する。そして、処理はステップS57に進む。
ステップS57において、送信部209は、選択部208から供給される量子化情報を図1の生成装置12に送信する。そして、処理は図21のステップS30に戻り、ステップS31に進む。
以上のように、表示装置200は、生成装置12により生成された2視点のテクスチャ画像とデプス画像を用いて表示画像を生成する。従って、2視点のそれぞれに対してポリゴンの表面を透視投影することにより生成された2視点のテクスチャ画像とデプス画像を用いる場合に比べて、より多くの領域の主要な被写体の3次元構造を再構成し、その3次元構造から表示画像を生成することができる。その結果、表示画像の画質が向上する。
また、表示装置200は、第1乃至第3の量子化方法から、各視点のデプス画像の量子化方法を選択する。従って、表示装置200は、例えば、第1乃至第3の量子化方法のうちの表示画像の生成に適した量子化方法で生成されたデプス画像を用いて表示画像を生成することができる。その結果、表示画像の画質が向上する。
<テクスチャ画像の他の例>
図23は、テクスチャ画像の他の例を示す図である。
図23は、テクスチャ画像の他の例を示す図である。
上述した説明では、テクスチャ画像は、1つの視点のテクスチャ画像であったが、その視点に対応する左目用の視点と右目用の視点のテクスチャ画像が合成されたものであってもよい。
具体的には、図23のAに示すように、テクスチャ画像は、例えば、1つの視点に対応する左目用の視点のテクスチャ画像421と右目用の視点のテクスチャ画像422が、横方向(水平方向)にパッキングされたパッキング画像420であってもよい。
また、図23のBに示すように、テクスチャ画像は、例えば、テクスチャ画像421とテクスチャ画像422が、縦方向(垂直方向)にパッキングされたパッキング画像440であってもよい。
以上のように、テクスチャ画像が左目用の視点と右目用の視点の画像をパッキングしたテクスチャ画像である場合、復号の結果得られるテクスチャ画像が、左目用の視点のテクスチャ画像と右目用の視点のテクスチャ画像に分離される。そして、目ごとに3次元構造が生成される。
そして、視聴者等により指定された視点に対応する左目の視点、視線方向、および画角に基づいて、左目用の3次元構造から左目用の表示画像が生成される。また、視聴者等により指定された視点に対応する右目の視点、視線方向、および画角に基づいて、右目用の3次元構造から右目用の表示画像が生成される。
表示部207が3D表示可能である場合、表示部207は、左目用の表示画像を左目用の画像として表示し、右目用の表示画像を右目用の画像として表示することにより、表示画像を3D表示する。一方、表示部207が3D表示可能ではない場合、表示部207は、左目用の表示画像または右目用の表示画像を2D表示する。
なお、第1実施の形態では、視点の数は2個であったが、視点の数は2個に限定されない。また、2視点は互いに対向していなくてもよい。視線方向は、視点から原点以外の位置に向かう方向であってもよい。
また、表示装置200は、生成装置12に量子化情報を送信せず、第1乃至第3の量子化方法の視点デプスストリームを生成装置12から受信して記憶部202に記憶させるようにしてもよい。この場合、表示装置200は、量子化情報に基づいて、記憶部202に記憶されている第1乃至第3の量子化方法の視点デプスストリームのうちの、量子化情報が示す量子化方法の視点デプスストリームのみを読み出し、復号する。
さらに、上述した説明では、表示装置200は、表示変更角度に基づいて量子化方法を選択したが、表示装置200の処理負荷を抑制する場合には、表示変更角度によらず、第2の量子化方法を選択するようにしてもよい。また、量子化方法の選択は、表示変更角度以外の情報に基づいて行われるようにしてもよい。例えば、主要な被写体の動きの有無に基づいて、量子化方法を選択するようにしてもよい。
また、第1および第2の量子化方法において、距離rの代わりに、視点と各画素におけるポリゴンの奥行き方向の距離を用い、第3の量子化方法において、距離r´の代わりに、視点と2視点を構成する他の視点と各画素におけるポリゴンの奥行き方向の距離を用いるようにしてもよい。
<第2実施の形態>
本開示を適用した配信システムの第2実施の形態の構成は、透視投影の代わりにtan軸投影(詳細は後述する)が行われる点を除いて、上記した例えば、図1の生成装置12の構成や、図14に示した表示装置200と同一である。従って、以下では、tan軸投影についてのみ説明する。
本開示を適用した配信システムの第2実施の形態の構成は、透視投影の代わりにtan軸投影(詳細は後述する)が行われる点を除いて、上記した例えば、図1の生成装置12の構成や、図14に示した表示装置200と同一である。従って、以下では、tan軸投影についてのみ説明する。
(投影面の座標系の説明)
図24は、投影面の座標系を説明する図である。
図24は、投影面の座標系を説明する図である。
なお、第3実施の形態では、投影面は、生成装置12が、高解像度画像を生成する際、球にマッピングされた全天球画像をtan軸投影する2次元平面、または、表示装置200が、表示画像を生成する際、3Dモデル画像をtan軸投影する視野範囲である。
図24の例では、3Dモデルの3次元のxyz座標系において、zが-1.0である投影面451が設定されている。この場合、投影面451の中心O´を原点とし、投影面451の水平方向をs方向とし、垂直方向をt方向とする2次元のst座標系が、投影面451の座標系となる。
なお、以下では、xyz座標系の原点Oからst座標系の座標(s,t)に向かうベクトル452を、座標(s,t)と、原点Oから投影面451までの距離である-1.0とを用いて、ベクトル(s,t,-1.0)という。
(tan軸投影の説明)
図25は、tan軸投影(正接軸投影)を説明する図である。
図25は、tan軸投影(正接軸投影)を説明する図である。
図25は、投影面451をzの負方向に見た図である。図25の例では、st座標系において、投影面451のs値およびt値の最小値は-1.0であり、最大値は1.0である。
この場合、透視投影では、原点Oから投影面451上の投影点に向かう投影ベクトルがベクトル(s´,t´-1.0)となるように、投影面451上に投影点が設定される。なお、s´は、-1.0から1.0までのs値の範囲に設けられた所定の間隔ごとの値であり、t´は-1.0から1.0までのt値の範囲に設けられた所定の間隔ごとの値である。従って、透視投影における投影点は、投影面451上で均一である。
これに対して、投影面451の画角をθw(図25の例ではπ/2)とすると、tan軸投影では、投影ベクトルがベクトル(tan(s´*θw/2), tan(t´*θw/2), -1.0)となるように、投影面451上に投影点が設定される。
具体的には、ベクトル(tan(s´*θw/2), tan(t´*θw/2), -1.0)は、s´*θw/2をθとし、t´*θw/2をφとすると、ベクトル(tanθ,tanφ,-1.0)になる。このとき、画角θwがπに近付くと、tanθやtanφは無限大に発散する。従って、tanθやtanφが無限大に発散しないように、ベクトル(tanθ,tanφ,-1.0)が、ベクトル(sinθ*cosφ, cosθ*sinφ, -cosθ*cosφ)に補正され、投影ベクトルがベクトル(sinθ*cosφ, cosθ*sinφ, -cosθ*cosφ)となるように、投影面451上に投影点が設定される。従って、tan軸投影では、隣り合う投影点に対応する投影ベクトルどうしがなす角が同一になる。
なお、対数軸(ログスケール)と同様に、tan(s´*θw/2), tan(t´*θw/2)は、tan軸のs´,t´であると捉えられる。従って、本明細書では、投影ベクトルがベクトル(tan(s´*θw/2), tan(t´*θw/2), -1.0)となる投影を、tan軸投影と称している。
<第3実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロフォンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるコンピュータ500では、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ500(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ500では、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータ500が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
<応用例>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図27は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図27に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図27では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図28は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図28には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920〜7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図27に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図27の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図27に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
なお、図1乃至図25を用いて説明した本実施形態に係る生成装置12および表示装置200の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
以上説明した車両制御システム7000において、図1乃至図25を用いて説明した本実施形態に係る生成装置12および表示装置200を適用することができる。この場合、例えば、生成装置12および表示装置200は一体化され、マイクロコンピュータ7610、記憶部7690、および表示部7720に相当する。また、撮影装置11は、撮像部7410に相当する。この場合、例えば、車両制御システム7000は、2視点のテクスチャ画像とデプス画像を用いて、より多くの領域の3次元構造を表現することができる。
また、図1乃至図25を用いて説明した生成装置12および表示装置200の少なくとも一部の構成要素は、図27に示した車両制御システム7000のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図1乃至図25を用いて説明した生成装置12および表示装置200は、図27に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本開示は、以下のような構成もとることができる。
(1)
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することにより得られるテクスチャ画像と、各視点の前記テクスチャ画像に対応するデプス画像とを用いて、所定の視点のテクスチャ画像を生成する画像生成部と、
前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化部と
を備える画像処理装置。
(2)
前記量子化部は、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法以外の量子化方法も備えており、所定の条件に基づいて量子化方法を切り換える、
前記(1)に記載の画像処理装置。
(3)
前記量子化部は、各視点の前記デプス画像の量子化方法を、前記デプス画像に対応する視点と各画素における前記ポリゴンとの距離の逆数を量子化する第1の量子化方法、前記距離を量子化する第2の量子化方法、および、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する第3の量子化方法を備える
前記(1)に記載の画像処理装置。
(4)
前記第1および第2の量子化方法に対応する距離は、前記デプス画像に対応する視点と各画素における前記ポリゴンを結ぶ直線の距離であり、
前記第3の量子化方法に対応する距離は、前記他の視点と各画素における前記ポリゴンとを結ぶ直線の距離である
ように構成された
前記(3)に記載の画像処理装置。
(5)
前記量子化部は、前記視点ごとに、その視点のテクスチャ画像の奥行き方向と前記所定の視点のテクスチャ画像の奥行き方向のなす角度に基づいて、前記デプス画像の量子化方法を選択する
ように構成された
前記(3)または(4)に記載の画像処理装置。
(6)
前記量子化部は、前記角度が、0度以上第1の閾値未満であるか、または、第2の閾値以上360度未満である場合、前記デプス画像の量子化方法として前記第1の量子化方法を選択し、
前記第1の閾値は、90度より小さく、
前記第2の閾値は、270度より大きい
ように構成された
前記(5)に記載の画像処理装置。
(7)
前記量子化部は、前記角度が、前記第1の閾値以上第3の閾値未満であるか、または、第4の閾値以上前記第2の閾値未満である場合、前記デプス画像の量子化方法として前記第2の量子化方法を選択し、
前記第3の閾値は、90度より大きく180度より小さい
前記第4の閾値は、180度より大きく270度より小さい
ように構成された
前記(6)に記載の画像処理装置。
(8)
前記量子化部は、前記角度が前記第3の閾値以上前記第4の閾値未満である場合、前記デプス画像の量子化方法として前記第3の量子化方法を選択する
ように構成された
前記(7)に記載の画像処理装置。
(9)
前記ポリゴンは、前記ポリゴンに対応する被写体の周囲に配置され、前記被写体の少なくとも一部を撮影範囲に含む複数の撮影装置により取得された撮影画像と前記撮影画像に対応するデプス画像とを用いて生成される
ように構成された
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記画像生成部は、前記複数の撮影装置により取得された前記撮影画像を用いて生成された全天球画像のテクスチャ画像と、前記複数の撮影装置により取得された前記撮影画像に対応するデプス画像を用いて生成された前記全天球画像のデプス画像とを用いて、前記所定の視点のテクスチャ画像を生成する
ように構成された
前記(9)に記載の画像処理装置。
(11)
画像処理装置が、
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することにより得られるテクスチャ画像と、各視点の前記テクスチャ画像に対応するデプス画像とを用いて、所定の視点のテクスチャ画像を生成する画像生成ステップと、
前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化ステップと
を含む画像処理方法。
(12)
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することによりテクスチャ画像を生成するテクスチャ画像生成部と、
各視点の前記テクスチャ画像に対応するデプス画像を、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法で量子化された量子化値を画素値とすることにより生成するデプス画像生成部と
を備える画像処理装置。
(13)
前記デプス画像生成部は、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法以外の量子化方法も備えており、所定の条件に基づいて量子化方法を切り換える、
前記(12)に記載の画像処理装置。
(14)
前記デプス画像生成部は、各視点の前記デプス画像の量子化方法を、前記デプス画像に対応する視点と各画素における前記ポリゴンとの距離の逆数を量子化する第1の量子化方法、前記距離を量子化する第2の量子化方法、および、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する第3の量子化方法を備える
前記(12)に記載の画像処理装置。
(15)
前記第1および第2の量子化方法に対応する距離は、前記デプス画像に対応する視点と各画素における前記ポリゴンを結ぶ直線の距離であり、
前記第3の量子化方法に対応する距離は、前記他の視点と各画素における前記ポリゴンとを結ぶ直線の距離である
ように構成された
前記(14)に記載の画像処理装置。
(16)
前記テクスチャ画像生成部により生成された前記2視点のテクスチャ画像と、前記デプス画像生成部により生成された前記2視点のデプス画像とを送信する送信部
をさらに備える
前記(14)または(15)に記載の画像処理装置。
(17)
前記デプス画像生成部は、前記第1乃至第3の量子化方法のそれぞれで前記2視点のデプス画像を生成し、
前記送信部は、前記デプス画像生成部により前記第1乃至第3の量子化方法のいずれかで生成された前記2視点のデプス画像を送信する
ように構成された
前記(16)に記載の画像処理装置。
(18)
前記ポリゴンに対応する被写体の周囲に配置され、前記被写体の少なくとも一部を撮影範囲に含む複数の撮影装置により取得された撮影画像と、前記撮影画像に対応するデプス画像とを用いて、前記ポリゴンを生成するポリゴン生成部
をさらに備える
前記(12)乃至(17)のいずれかに記載の画像処理装置。
(19)
前記複数の撮影装置により取得された前記撮影画像を用いて、全天球画像のテクスチャ画像を生成し、前記複数の撮影装置により取得された前記撮影画像に対応するデプス画像を用いて、前記全天球画像のデプス画像を生成する全天球画像生成部
をさらに備える
前記(18)に記載の画像処理装置。
(20)
画像処理装置が、
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することによりテクスチャ画像を生成するテクスチャ画像生成ステップと、
各視点の前記テクスチャ画像に対応するデプス画像を、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法で量子化された量子化値を画素値とすることにより生成するデプス画像生成ステップと
を含む画像処理方法。
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することにより得られるテクスチャ画像と、各視点の前記テクスチャ画像に対応するデプス画像とを用いて、所定の視点のテクスチャ画像を生成する画像生成部と、
前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化部と
を備える画像処理装置。
(2)
前記量子化部は、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法以外の量子化方法も備えており、所定の条件に基づいて量子化方法を切り換える、
前記(1)に記載の画像処理装置。
(3)
前記量子化部は、各視点の前記デプス画像の量子化方法を、前記デプス画像に対応する視点と各画素における前記ポリゴンとの距離の逆数を量子化する第1の量子化方法、前記距離を量子化する第2の量子化方法、および、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する第3の量子化方法を備える
前記(1)に記載の画像処理装置。
(4)
前記第1および第2の量子化方法に対応する距離は、前記デプス画像に対応する視点と各画素における前記ポリゴンを結ぶ直線の距離であり、
前記第3の量子化方法に対応する距離は、前記他の視点と各画素における前記ポリゴンとを結ぶ直線の距離である
ように構成された
前記(3)に記載の画像処理装置。
(5)
前記量子化部は、前記視点ごとに、その視点のテクスチャ画像の奥行き方向と前記所定の視点のテクスチャ画像の奥行き方向のなす角度に基づいて、前記デプス画像の量子化方法を選択する
ように構成された
前記(3)または(4)に記載の画像処理装置。
(6)
前記量子化部は、前記角度が、0度以上第1の閾値未満であるか、または、第2の閾値以上360度未満である場合、前記デプス画像の量子化方法として前記第1の量子化方法を選択し、
前記第1の閾値は、90度より小さく、
前記第2の閾値は、270度より大きい
ように構成された
前記(5)に記載の画像処理装置。
(7)
前記量子化部は、前記角度が、前記第1の閾値以上第3の閾値未満であるか、または、第4の閾値以上前記第2の閾値未満である場合、前記デプス画像の量子化方法として前記第2の量子化方法を選択し、
前記第3の閾値は、90度より大きく180度より小さい
前記第4の閾値は、180度より大きく270度より小さい
ように構成された
前記(6)に記載の画像処理装置。
(8)
前記量子化部は、前記角度が前記第3の閾値以上前記第4の閾値未満である場合、前記デプス画像の量子化方法として前記第3の量子化方法を選択する
ように構成された
前記(7)に記載の画像処理装置。
(9)
前記ポリゴンは、前記ポリゴンに対応する被写体の周囲に配置され、前記被写体の少なくとも一部を撮影範囲に含む複数の撮影装置により取得された撮影画像と前記撮影画像に対応するデプス画像とを用いて生成される
ように構成された
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記画像生成部は、前記複数の撮影装置により取得された前記撮影画像を用いて生成された全天球画像のテクスチャ画像と、前記複数の撮影装置により取得された前記撮影画像に対応するデプス画像を用いて生成された前記全天球画像のデプス画像とを用いて、前記所定の視点のテクスチャ画像を生成する
ように構成された
前記(9)に記載の画像処理装置。
(11)
画像処理装置が、
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することにより得られるテクスチャ画像と、各視点の前記テクスチャ画像に対応するデプス画像とを用いて、所定の視点のテクスチャ画像を生成する画像生成ステップと、
前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化ステップと
を含む画像処理方法。
(12)
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することによりテクスチャ画像を生成するテクスチャ画像生成部と、
各視点の前記テクスチャ画像に対応するデプス画像を、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法で量子化された量子化値を画素値とすることにより生成するデプス画像生成部と
を備える画像処理装置。
(13)
前記デプス画像生成部は、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法以外の量子化方法も備えており、所定の条件に基づいて量子化方法を切り換える、
前記(12)に記載の画像処理装置。
(14)
前記デプス画像生成部は、各視点の前記デプス画像の量子化方法を、前記デプス画像に対応する視点と各画素における前記ポリゴンとの距離の逆数を量子化する第1の量子化方法、前記距離を量子化する第2の量子化方法、および、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する第3の量子化方法を備える
前記(12)に記載の画像処理装置。
(15)
前記第1および第2の量子化方法に対応する距離は、前記デプス画像に対応する視点と各画素における前記ポリゴンを結ぶ直線の距離であり、
前記第3の量子化方法に対応する距離は、前記他の視点と各画素における前記ポリゴンとを結ぶ直線の距離である
ように構成された
前記(14)に記載の画像処理装置。
(16)
前記テクスチャ画像生成部により生成された前記2視点のテクスチャ画像と、前記デプス画像生成部により生成された前記2視点のデプス画像とを送信する送信部
をさらに備える
前記(14)または(15)に記載の画像処理装置。
(17)
前記デプス画像生成部は、前記第1乃至第3の量子化方法のそれぞれで前記2視点のデプス画像を生成し、
前記送信部は、前記デプス画像生成部により前記第1乃至第3の量子化方法のいずれかで生成された前記2視点のデプス画像を送信する
ように構成された
前記(16)に記載の画像処理装置。
(18)
前記ポリゴンに対応する被写体の周囲に配置され、前記被写体の少なくとも一部を撮影範囲に含む複数の撮影装置により取得された撮影画像と、前記撮影画像に対応するデプス画像とを用いて、前記ポリゴンを生成するポリゴン生成部
をさらに備える
前記(12)乃至(17)のいずれかに記載の画像処理装置。
(19)
前記複数の撮影装置により取得された前記撮影画像を用いて、全天球画像のテクスチャ画像を生成し、前記複数の撮影装置により取得された前記撮影画像に対応するデプス画像を用いて、前記全天球画像のデプス画像を生成する全天球画像生成部
をさらに備える
前記(18)に記載の画像処理装置。
(20)
画像処理装置が、
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することによりテクスチャ画像を生成するテクスチャ画像生成ステップと、
各視点の前記テクスチャ画像に対応するデプス画像を、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法で量子化された量子化値を画素値とすることにより生成するデプス画像生成ステップと
を含む画像処理方法。
11−1乃至11−N 撮影装置, 12 生成装置, 34 ポリゴン生成部, 36 全天球画像生成部, 40 送信部, 61 被写体, 71 テクスチャ画像生成部, 74 1/r量子化部, 75 等間隔量子化部, 76 逆1/r量子化部, 81 球, 200 表示装置, 206 描画部, 208 選択部
Claims (20)
- ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することにより得られるテクスチャ画像と、各視点の前記テクスチャ画像に対応するデプス画像とを用いて、所定の視点のテクスチャ画像を生成する画像生成部と、
前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化部と
を備える画像処理装置。 - 前記量子化部は、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法以外の量子化方法も備えており、所定の条件に基づいて量子化方法を切り換える、
請求項1に記載の画像処理装置。 - 前記量子化部は、各視点の前記デプス画像の量子化方法を、前記デプス画像に対応する視点と各画素における前記ポリゴンとの距離の逆数を量子化する第1の量子化方法、前記距離を量子化する第2の量子化方法、および、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する第3の量子化方法を備える
請求項1に記載の画像処理装置。 - 前記第1および第2の量子化方法に対応する距離は、前記デプス画像に対応する視点と各画素における前記ポリゴンを結ぶ直線の距離であり、
前記第3の量子化方法に対応する距離は、前記他の視点と各画素における前記ポリゴンとを結ぶ直線の距離である
ように構成された
請求項3に記載の画像処理装置。 - 前記量子化部は、前記視点ごとに、その視点のテクスチャ画像の奥行き方向と前記所定の視点のテクスチャ画像の奥行き方向のなす角度に基づいて、前記デプス画像の量子化方法を選択する
ように構成された
請求項3に記載の画像処理装置。 - 前記量子化部は、前記角度が、0度以上第1の閾値未満であるか、または、第2の閾値以上360度未満である場合、前記デプス画像の量子化方法として前記第1の量子化方法を選択し、
前記第1の閾値は、90度より小さく、
前記第2の閾値は、270度より大きい
ように構成された
請求項5に記載の画像処理装置。 - 前記量子化部は、前記角度が、前記第1の閾値以上第3の閾値未満であるか、または、第4の閾値以上前記第2の閾値未満である場合、前記デプス画像の量子化方法として前記第2の量子化方法を選択し、
前記第3の閾値は、90度より大きく180度より小さい
前記第4の閾値は、180度より大きく270度より小さい
ように構成された
請求項6に記載の画像処理装置。 - 前記量子化部は、前記角度が前記第3の閾値以上前記第4の閾値未満である場合、前記デプス画像の量子化方法として前記第3の量子化方法を選択する
ように構成された
請求項7に記載の画像処理装置。 - 前記ポリゴンは、前記ポリゴンに対応する被写体の周囲に配置され、前記被写体の少なくとも一部を撮影範囲に含む複数の撮影装置により取得された撮影画像と前記撮影画像に対応するデプス画像とを用いて生成される
ように構成された
請求項1に記載の画像処理装置。 - 前記画像生成部は、前記複数の撮影装置により取得された前記撮影画像を用いて生成された全天球画像のテクスチャ画像と、前記複数の撮影装置により取得された前記撮影画像に対応するデプス画像を用いて生成された前記全天球画像のデプス画像とを用いて、前記所定の視点のテクスチャ画像を生成する
ように構成された
請求項9に記載の画像処理装置。 - 画像処理装置が、
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することにより得られるテクスチャ画像と、各視点の前記テクスチャ画像に対応するデプス画像とを用いて、所定の視点のテクスチャ画像を生成する画像生成ステップと、
前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化ステップと
を含む画像処理方法。 - ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することによりテクスチャ画像を生成するテクスチャ画像生成部と、
各視点の前記テクスチャ画像に対応するデプス画像を、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法で量子化された量子化値を画素値とすることにより生成するデプス画像生成部と
を備える画像処理装置。 - 前記デプス画像生成部は、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法以外の量子化方法も備えており、所定の条件に基づいて量子化方法を切り換える、
請求項12に記載の画像処理装置。 - 前記デプス画像生成部は、各視点の前記デプス画像の量子化方法を、前記デプス画像に対応する視点と各画素における前記ポリゴンとの距離の逆数を量子化する第1の量子化方法、前記距離を量子化する第2の量子化方法、および、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する第3の量子化方法を備える
請求項12に記載の画像処理装置。 - 前記第1および第2の量子化方法に対応する距離は、前記デプス画像に対応する視点と各画素における前記ポリゴンを結ぶ直線の距離であり、
前記第3の量子化方法に対応する距離は、前記他の視点と各画素における前記ポリゴンとを結ぶ直線の距離である
ように構成された
請求項14に記載の画像処理装置。 - 前記テクスチャ画像生成部により生成された前記2視点のテクスチャ画像と、前記デプス画像生成部により生成された前記2視点のデプス画像とを送信する送信部
をさらに備える
請求項14に記載の画像処理装置。 - 前記デプス画像生成部は、前記第1乃至第3の量子化方法のそれぞれで前記2視点のデプス画像を生成し、
前記送信部は、前記デプス画像生成部により前記第1乃至第3の量子化方法のいずれかで生成された前記2視点のデプス画像を送信する
ように構成された
請求項16に記載の画像処理装置。 - 前記ポリゴンに対応する被写体の周囲に配置され、前記被写体の少なくとも一部を撮影範囲に含む複数の撮影装置により取得された撮影画像と、前記撮影画像に対応するデプス画像とを用いて、前記ポリゴンを生成するポリゴン生成部
をさらに備える
請求項12に記載の画像処理装置。 - 前記複数の撮影装置により取得された前記撮影画像を用いて、全天球画像のテクスチャ画像を生成し、前記複数の撮影装置により取得された前記撮影画像に対応するデプス画像を用いて、前記全天球画像のデプス画像を生成する全天球画像生成部
をさらに備える
請求項18に記載の画像処理装置。 - 画像処理装置が、
ポリゴンの中心に対して対向する2視点のそれぞれについて各視点から前記ポリゴンの中心に向かう視線方向に垂直な投影面に前記ポリゴンの裏面を投影することによりテクスチャ画像を生成するテクスチャ画像生成ステップと、
各視点の前記テクスチャ画像に対応するデプス画像を、前記デプス画像に対応する視点と前記2視点を構成する他の視点と各画素における前記ポリゴンとの距離の逆数を量子化する量子化方法で量子化された量子化値を画素値とすることにより生成するデプス画像生成ステップと
を含む画像処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016157197 | 2016-08-10 | ||
JP2016157197 | 2016-08-10 | ||
PCT/JP2017/027263 WO2018030168A1 (ja) | 2016-08-10 | 2017-07-27 | 画像処理装置および画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018030168A1 JPWO2018030168A1 (ja) | 2019-06-06 |
JP6743893B2 true JP6743893B2 (ja) | 2020-08-19 |
Family
ID=61162983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018532930A Active JP6743893B2 (ja) | 2016-08-10 | 2017-07-27 | 画像処理装置および画像処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11069120B2 (ja) |
JP (1) | JP6743893B2 (ja) |
CN (1) | CN109564696B (ja) |
WO (1) | WO2018030168A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180051288A (ko) * | 2016-11-08 | 2018-05-16 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
WO2019021302A1 (en) * | 2017-07-24 | 2019-01-31 | Karthikeyan THANGARAJ | METHOD FOR REPRESENTING SHAPE DATA AND COLOR OF 3D OBJECTS |
CN109697688B (zh) | 2017-10-20 | 2023-08-04 | 虹软科技股份有限公司 | 一种用于图像处理的方法和装置 |
US11166080B2 (en) | 2017-12-21 | 2021-11-02 | Facebook, Inc. | Systems and methods for presenting content |
US10965928B2 (en) * | 2018-07-31 | 2021-03-30 | Lg Electronics Inc. | Method for 360 video processing based on multiple viewpoints and apparatus therefor |
US10818071B1 (en) * | 2019-07-26 | 2020-10-27 | Google Llc | Image-based geometric fusion of multiple depth images using ray casting |
CN113963094A (zh) * | 2020-07-03 | 2022-01-21 | 阿里巴巴集团控股有限公司 | 深度图及视频处理、重建方法、装置、设备及存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5798762A (en) * | 1995-05-10 | 1998-08-25 | Cagent Technologies, Inc. | Controlling a real-time rendering engine using a list-based control mechanism |
CN100573595C (zh) * | 2003-06-20 | 2009-12-23 | 日本电信电话株式会社 | 虚拟视点图像生成方法和三维图像显示方法及装置 |
CN100520829C (zh) * | 2007-06-22 | 2009-07-29 | 腾讯科技(深圳)有限公司 | 水刻蚀的实现方法及渲染装置 |
CN102055982B (zh) * | 2011-01-13 | 2012-06-27 | 浙江大学 | 三维视频编解码方法及装置 |
JP2014140089A (ja) * | 2011-05-10 | 2014-07-31 | Sharp Corp | 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム |
US9208571B2 (en) * | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
JP5807569B2 (ja) * | 2012-01-31 | 2015-11-10 | 株式会社Jvcケンウッド | 画像処理装置、画像処理方法及び画像処理プログラム |
JP6016061B2 (ja) | 2012-04-20 | 2016-10-26 | Nltテクノロジー株式会社 | 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム |
US20140085415A1 (en) * | 2012-09-27 | 2014-03-27 | Nokia Corporation | Method and apparatus for video coding |
-
2017
- 2017-07-27 JP JP2018532930A patent/JP6743893B2/ja active Active
- 2017-07-27 US US16/319,411 patent/US11069120B2/en active Active
- 2017-07-27 CN CN201780048142.7A patent/CN109564696B/zh active Active
- 2017-07-27 WO PCT/JP2017/027263 patent/WO2018030168A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN109564696B (zh) | 2022-11-29 |
JPWO2018030168A1 (ja) | 2019-06-06 |
CN109564696A (zh) | 2019-04-02 |
WO2018030168A1 (ja) | 2018-02-15 |
US20190236795A1 (en) | 2019-08-01 |
US11069120B2 (en) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6977720B2 (ja) | 生成装置および生成方法、並びに、再生装置および再生方法 | |
JP7127539B2 (ja) | 画像処理装置および画像処理方法 | |
JP6743893B2 (ja) | 画像処理装置および画像処理方法 | |
WO2018150933A1 (ja) | 画像処理装置および画像処理方法 | |
WO2018021067A1 (ja) | 画像処理装置および画像処理方法 | |
WO2018021069A1 (ja) | 画像処理装置および画像処理方法 | |
WO2018147123A1 (ja) | 画像処理装置および画像処理方法 | |
WO2018074252A1 (ja) | 画像処理装置および画像処理方法 | |
JP6944138B2 (ja) | 画像処理装置および画像処理方法 | |
WO2018021070A1 (ja) | 画像処理装置および画像処理方法 | |
WO2018079260A1 (ja) | 画像処理装置および画像処理方法 | |
JP7095697B2 (ja) | 生成装置および生成方法、並びに、再生装置および再生方法 | |
WO2018021064A1 (ja) | 画像処理装置および画像処理方法 | |
JP6930541B2 (ja) | 画像処理装置および画像処理方法 | |
JP6743894B2 (ja) | 画像処理装置および画像処理方法 | |
JP6977725B2 (ja) | 画像処理装置および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200713 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6743893 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |