JP2023172202A - 画像処理装置、移動体、画像処理方法及びコンピュータプログラム - Google Patents

画像処理装置、移動体、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2023172202A
JP2023172202A JP2022083849A JP2022083849A JP2023172202A JP 2023172202 A JP2023172202 A JP 2023172202A JP 2022083849 A JP2022083849 A JP 2022083849A JP 2022083849 A JP2022083849 A JP 2022083849A JP 2023172202 A JP2023172202 A JP 2023172202A
Authority
JP
Japan
Prior art keywords
image
imaging
distance data
data
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022083849A
Other languages
English (en)
Inventor
伸洋 岡
Nobuhiro Oka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022083849A priority Critical patent/JP2023172202A/ja
Priority to US18/312,618 priority patent/US20230379445A1/en
Publication of JP2023172202A publication Critical patent/JP2023172202A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】物体形状の再現性が高い仮想視点映像を生成可能な画像処理装置、移動体、画像処理方法及びコンピュータプログラムを提供する。【解決手段】画像処理装置200は、撮像光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子とを夫々備えた複数の撮像部と、複数の撮像部の出力に基づき複数の画像データを生成する現像部及び複数の撮像部が夫々生成する第1画像信号及び第2画像信号に基づき複数の画像データの各画素に対する距離データを生成する距離データ生成部を備えたデータ生成部と、複数の画像データと、複数の画像データの各画素に対する距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成部と、を有する。【選択図】図2

Description

本発明は、画像処理装置、移動体、画像処理方法及びコンピュータプログラム等に関する。
カメラで撮影した映像を、カメラの撮影方向とは異なる任意の視点(以下、仮想視点と呼ぶ)から見た映像に変換する技術が知られている。本技術を使用して、車両に設置した複数台のカメラの撮像した映像を車両周囲の仮想視点から見た映像に変換した映像(以下、仮想視点映像と呼ぶ)は、車両の運転・駐車支援等の目的で広く利用されている。
このような仮想視点映像作成技術に関し、特許文献1には、以下の技術が開示されている。先ず、車両の周囲環境を表現する空間モデルとして、平面モデルや曲面モデルとを組み合わせた3Dモデルを生成し、その空間モデルに対して撮像映像をマッピングすることで空間データを生成する。次に空間データを参照し、任意の視点から見た画像を生成することで、仮想視点映像を作成する。又、特許文献1には、車両から所定の距離内に存在する立体物の位置に応じて、路面に垂直な面を空間モデルとして生成することで、障害物の歪みを低減した仮想視点映像を作成する技術が開示されている。
特許第3286306号公報
しかしながら、特許文献1に記載の技術には、設定した空間モデルと本来の車両周辺の立体物等の形状との違いにより、仮想視点映像上で立体物の歪みや倒れが残存するという課題がある。
本発明は上記の課題を解決し、物体形状の再現性が高い仮想視点映像を生成可能な画像処理装置を提供することを1つの目的とする。
本発明の1側面の画像処理装置は、
光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成するセンサとを夫々備えた複数の撮像手段と、
複数の前記撮像手段の出力に基づき複数の画像データを生成する現像手段と、
複数の前記撮像手段が夫々生成する前記第1画像信号及び前記第2画像信号に基づき複数の前記画像データの各画素に対する距離データを生成する距離データ生成手段と、
複数の前記画像データと、複数の前記画像データの各画素に対する前記距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成手段と、を有することを特徴とする。
本発明によれば、物体形状の再現性が高い仮想視点映像を生成可能な画像処理装置を実現することが可能となる
本発明の実施形態の撮像部と車両の位置関係を説明する図である。 実施形態に係る仮想視点映像生成装置の構成を示す機能ブロック図である。 (A)、(B)は、実施形態に係る撮像素子102の構成を示す模式図である。 (A)~(D)は、撮像面位相差方式における被写体距離と入射光との関係を示す模式図である。 (A)、(B)は、実施形態に係るデータ生成部の動作を示すフローチャートである。 実施形態に係る仮想視点映像生成装置の動作を示すフローチャートである。 (A)、(B)は、撮像部と車両の周辺の立体物の位置関係を示す図である。 (A)~(C)は、3Dモデル生成部による距離データの補正処理の1例を示す図である。 3Dモデル生成部が生成する3Dモデルの1例を示す図である。
[実施形態1]
以下、図面を参照して本発明の実施形態を説明する。ただし、本発明は以下の実施形態に限定されるものではない。なお、各図において、同一の部材または要素については同一の参照番号を付し、重複する説明は省略または簡略化する。
図1は、本発明の実施形態の撮像部と車両の位置関係を説明する図である。本実施形態では、図1に示すように、移動体としての車両100の前方、左側方、後方、右側方に夫々撮像手段としての撮像部100A~100Dが互いに離間して設置され車両100の周辺を撮像する。本実施形態における撮像部100A~100Dが有する光学系は、周囲を広く撮影することが可能な魚眼レンズや広角レンズを備えているものとし、撮像部100A~100D夫々の画角(撮影範囲)を図1中に点線で示してある。尚、本実施形態では撮像部100A~100Dは前述の通り4つ設けられているが、複数であれば良い。尚、撮像部100A~100Dの構成については後述する。
次に、図2を用いて本実施形態に係る画像処理装置としての仮想視点映像生成装置200の構成を説明する。図2は、実施形態に係る仮想視点映像生成装置の構成を示す機能ブロック図である。
尚、図2に示される機能ブロックの一部は、仮想視点映像生成装置200に含まれる不図示のコンピュータに、不図示の記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
又、図2に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。尚、本実施形態では撮像部100A~100Dは同じ構成を有するが、同じ構成でなくても良い。
撮像部100A~100Dは、夫々撮像光学系101及び撮像素子102を有し、撮像光学系101は、被写体の像(光学像)を撮像素子102上に形成することができ、撮像素子102から所定距離離れた位置に射出瞳を有する。
撮像素子102は、例えばCMOSイメージセンサであり、光電変換機能を有する画素を2次元状に配置した画素領域を備える。各画素領域は2つの光電変換部(第1の光電変換部、第2の光電変換部)を有し、撮像素子102上に結像した被写体像を光電変換して被写体像に基づく画像信号を生成する。
撮像部100A~100Dの撮像素子102は、第1の光電変換部から出力された信号に基づく第1の画像信号と、第2の光電変換部から出力された信号に基づく第2の画像信号を、夫々データ生成部210A~200Dに出力する。ここで、撮像部100A~100Dは、光学系、及び光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子を夫々有する複数の撮像手段として機能している。尚、本実施形態では、データ生成部210A~200Dの構成は同じものとするが、同じでなくても良い。
以上のように撮像素子102が第1の画像信号及び第2の画像信号を出力する構成であるため、本実施形態における仮想視点映像生成装置200は、後述する撮像面位相差方式によって車両100の周辺環境を測距することができる。
データ生成部210A~210Dは、第1の画像信号及び第2の画像信号に基づいて、画素毎に赤、緑、青の各色信号と輝度信号を含む画像データを生成する現像部211を夫々有する。各現像部211は、複数の撮像手段の出力に基づき複数の画像データを生成する現像手段として機能している。
又、データ生成部210A~210Dは、画素毎の距離情報を示す距離データを生成する距離データ生成部212を夫々有する。距離データ生成部212は、複数の撮像手段が夫々生成する第1画像信号及び第2画像信号に基づき複数の画像データの各画素に対する距離データを生成する距離データ生成手段として機能している。
画像データと距離データは同一の画像信号から生成されるため、画像データと距離データは時間的に同じタイミングで得られる。即ち、同期されている。データ生成部210は、画像データと距離データとを表示映像生成部220及び信頼度算出部260に送信する。
尚、このデータ生成部210A~210Dは、撮像部100A~100Dと同数(本例では4つ)設けられる。データ生成部210A~210Dは、夫々、撮像部100A~100Dの画像信号に基づき、撮像部100A~100Dに対応した複数の画像データ及び複数の距離データを生成し、表示映像生成部220及び信頼度算出部260に出力する。但し、簡単のため、図2には撮像部100Aとデータ生成部210Aの配線のみを記載している。
尚、データ生成部210A~210Dは夫々、撮像部100A~100D内に備えられていてもよく、仮想視点映像生成装置200の構成は本実施形態で説明したものに限定されない。
表示映像生成部220は、データ生成部210A~210Dから受信する複数の画像データ及び複数の距離データを利用して、任意の視点位置である仮想視点からみた仮想視点映像を生成する。本実施形態における表示映像生成部220は、3Dモデル生成部221、テクスチャマッピング部222及びレンダリング部223等で構成される。
3Dモデル生成部221は距離データに基づいて3Dモデルを生成する3Dモデル生成手段として機能している。テクスチャマッピング部222は、3Dモデルに対して画像データをマッピングしたテクスチャ付き3Dモデルを生成するテクスチャマッピング手段として機能している。
レンダリング部223は、テクスチャ付き3Dモデルを任意視点位置である仮想視点から見た画像である仮想視点画像を生成するレンダリング手段として機能しており、移動体の周辺の仮想視点映像を作成する。これらの3Dモデル生成部221、テクスチャマッピング部222及びレンダリング部223の動作の詳細は後述する。
尚、仮想視点は、仮想視点決定部231で決定された仮想視点に関する情報(以下、仮想視点情報と呼ぶ)に基づいて決定される。仮想視点情報の詳細は後述する。表示映像生成部220は、複数の画像データと複数の画像データの各画素に対する距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成手段として機能している。表示映像生成部220で生成された仮想視点映像は、映像送信部240及び表示部250に送信される。
映像送信部240は、例えば無線通信部で構成され、仮想視点映像を車両100の外部に送信する機能を有する。車両100の外部とは、例えば車両100の遠隔操縦室等であり、遠隔操縦室にいる操縦者は、この仮想視点映像を視聴しながら遠隔操縦を行うことができる。
本実施形態の表示部250は表示手段として機能しており、例えば液晶ディスプレイで構成され、表示映像生成部220より受信した仮想視点映像を移動体としての車両100の乗員向けに表示する。通信部230は、仮想視点情報を生成するための情報を例えば遠隔操縦室等の外部から受信する機能を有する。
仮想視点決定部231は、通信部230から受信した情報に基づいて仮想視点情報を生成する。尚、通信部230から受信する情報は、前述のように遠隔操縦室等の外部からの情報でも良いし、例えば、車両の乗員が不図示の操作部を操作することで生成された、視点を指示する情報であっても良い。或いは、車両の制御情報に連動するものであっても良く、例えば、車両のウインカーが出された方向を向いた視点情報であっても良い。
信頼度算出部260は、距離データ生成部212が生成する距離データの信頼度を算出する信頼度判定手段として機能している。信頼度の算出方法は後述する。以上が、本実施形態に係る仮想視点映像生成装置200の構成である。
尚、本実施形態の仮想視点映像生成装置200は、車両100に搭載されているが、仮想視点映像生成装置200の一部は、車両100から離れた外部装置に搭載されていても良い。例えば、データ生成部210、表示映像生成部220、仮想視点決定部231、表示部250、信頼度算出部260等の一部又は全部が外部装置に搭載されていても良い。
次に、図3(A)、(B)及び図4(A)~(D)を用いて、撮像素子102を利用した撮像面位相差方式(撮像面位相差測距方式又は像面位相差検出方式)による測距原理について説明する。図3(A)、(B)は、実施形態に係る撮像素子102の構成を示す模式図であり、図3(A)は、撮像素子102を光の入射方向からみた上面図である。
撮像素子102は、2行×2列の画素群310をマトリクス状に複数配列することで構成される。画素群310は、緑色の光を検出する緑画素G1、緑画素G2、赤色の光を検出する赤画素R及び青色の光を検出する青画素Bを有する。画素群310において、緑画素G1及び緑画素G2は対角に配置される。又、各画素は、第1の光電変換部311と、第2の光電変換部312とを有する。
図3(B)は、図3(A)における画素群310のI-I’断面における断面図である。各画素は導光層314、及び受光層315等から構成される。導光層314は、画素へ入射した光束を受光層315へ効率良く導くための、マイクロレンズ313、各画素が検出する光の色に対応する波長帯域の光を通過させるカラーフィルタ、及び画像読み出し用及び画素駆動用の配線等を有する導光部材である。
受光層315は、導光層314を介して入射した光を光電変換して電気信号として出力する光電変換部である。受光層315は、撮像素子の水平ライン方向に並んで配置された第1の光電変換部311、及び第2の光電変換部312を有する。
図4(A)~(D)は、撮像面位相差方式における被写体距離と入射光との関係を示す模式図である。図4(A)は、撮像光学系101の射出瞳401と、撮像素子102の緑画素G1と、緑画素G1の第1の光電変換部311、第2の光電変換部312に入射する光を示す模式図である。撮像素子102は、複数の画素を有するが、簡単のため、1つの緑画素G1について説明する。
緑画素G1のマイクロレンズ313は、射出瞳401と受光層315とが光学的に共役関係になるように配置されている。その結果、射出瞳401内の部分瞳領域である第1の瞳領域410を通過した光束は第1の光電変換部311に入射する。同様に部分瞳領域である第2の瞳領域420を通過した光束は第2の光電変換部312に入射する。
各画素の第1の光電変換部311は、受光した光束を光電変換して信号を出力する。撮像素子102に含まれる複数の第1の光電変換部311から出力された信号から、第1の画像信号が生成される。第1の画像信号は、第1の瞳領域410を主に通過した光束が撮像素子102上に形成する像の強度分布を示す。
同様に、各画素の第2の光電変換部312は、受光した光束を光電変換して信号を出力する。撮像素子102に含まれる複数の第2の光電変換部312から出力された信号から、第2の画像信号が生成される。第2の画像信号は、第2の瞳領域420を主に通過した光束が撮像素子102上に形成する像の強度分布を示す。
第1の画像信号と第2の画像信号間の相対的な位置ズレ量(以下、視差量と呼ぶ)は、デフォーカス量に応じた量となる。視差量とデフォーカス量の関係について、図4(B)、(C)、(D)を用いて説明する。
図4(B)、(C)、(D)は撮像素子102と撮像光学系101の相対的な位置関係について説明するための概略図である。図中の411は第1の瞳領域410を通過する第1の光束を示し、421は第2の瞳領域420を通過する光束を示す。
図4(B)は、合焦時の状態を示しており、第1の光束411と第2の光束421が撮像素子102上で収束している。この時、第1の光束411により形成される第1の画像信号と第2の光束421により形成される第2の画像信号間の視差量は0となる。
図4(C)は、像側においてw軸の負方向にデフォーカスした状態を示している。この時、第1の光束411により形成される第1の画像信号と第2の光束421により形成される第2の画像信号間の視差量は0とはならず、負の値を有する。
図4(D)は像側においてw軸の正方向にデフォーカスした状態を示している。この時、第1の光束411により形成される第1の画像信号と第2の光束421により形成される第2の画像信号間の視差量は0とはならず、正の値を有する。
図4(C)と(D)の比較から、デフォーカス量の正負に応じて、視差が生じる方向が入れ替わることが分かる。又、幾何関係から、デフォーカス量に応じた視差量が生じることが分かる。従って、後述するように、第1の画像信号と第2の画像信号との間の視差量を、領域ベースのマッチング手法により検出し、視差量を所定の変換係数を介してデフォーカス量に変換することができる。更に、後述する撮像光学系101の結像公式を用いることで、像側のデフォーカス量を、物体までの距離に変換することができる。
以上が、撮像面位相差方式による測距原理の説明である。本実施形態では、距離データ生成部212が、撮像面位相差方式により第1の画像信号と第2の画像信号から距離データを生成する。
次に、データ生成部210の詳細な動作について、図5を用いて説明する。図5(A)、(B)は実施形態に係るデータ生成部の動作を示すフローチャートである。尚、仮想視点映像生成装置200内のコンピュータとしての不図示のCPUが不図示のメモリに記憶されたコンピュータプログラムを実行することによって図5(A)、(B)のフローチャートの各ステップの動作が行われる。
先ず、データ生成部210の現像部211が行う画像信号から画像データを生成する現像処理について、図5(A)を用いて説明する。尚、この現像処理は、現像部211が撮像素子102から画像信号を受信すると実行される。
ステップS501で、CPUは、現像部211により、撮像素子102から入力された第1の画像信号と第2の画像信号とを合成した合成画像信号を生成する処理を実行させる。第1の画像信号と第2の画像信号を合成することで、射出瞳401全域を通過した光束により形成された像に基づく画像信号を得ることができる。
撮像素子102の水平方向の画素座標をu、垂直方向の画素座標をvとしたとき、画素(u,v)の合成画像信号Im(u,v)は、第1の画像信号Im1(u,v)と、第2の画像信号Im2(u,v)とを用いて、数式1で表すことができる。
Figure 2023172202000002
ステップS502で、CPUは、現像部211により、合成画像信号の欠陥画素の補正処理を実行させる。欠陥画素は、撮像素子102において正常な信号出力ができない画素である。先ず、現像部211は、不図示の記録部に予め記録された撮像素子102の欠陥画素の座標を示す情報を取得する。次に、現像部211は、欠陥画素の合成画像信号を、欠陥画素の周りの画素の合成画像信号の中央値で置き換えるメディアンフィルタを用いて生成する。
以上が、現像部211による欠陥画素の補正処理の1例である。尚、欠陥画素の別の補正処理方法として、予め用意した欠陥画素の座標情報を用い、欠陥画素の周りの画素の信号値を用いて内挿することで、欠陥画素の信号値を生成する方法を用いても構わない。
ステップS503で、CPUは、現像部211により、撮像光学系101によって生じる画角周辺の光量低減を補正する光量補正処理を合成画像信号に適用させる。光量の補正方法としては、予め用意した画角間の相対的な光量比が一定になるようなゲイン値を、合成画像信号に乗じて補正することができる。例えば、現像部211は、撮像素子102の中央の画素から周辺の画素に向けて増加する特性を有するゲインを、各画素の合成画像信号に乗じて、光量補正を行う。
ステップS504で、CPUは、現像部211により、合成画像信号のノイズ低減処理を行わせる。ノイズを低減する方法として、例えばガウシアンフィルタ処理を用いて良い。
ステップS505で、CPUは、現像部211により、合成画像信号に対してデモザイク処理を行わせ、画素ごとに赤(R)、緑(G)、青(B)の各色信号と輝度信号を有する画像データを生成させる。デモザイク処理の1例としては、色チャンネル毎に、線形補間を用いて画素ごとの色情報を生成する手法を用いて良い。
ステップS506で、CPUは、現像部211により、所定のガンマ値を用いて階調補正(ガンマ補正処理)を行わせる。階調補正後の画素(u,v)の画像データIdc(u,v)は、階調補正前の画素(u,v)の画像データId(u,v)とガンマ値γを用いて数式2で表される。
Figure 2023172202000003
ガンマ値γは、予め用意した値を用いることができる。ガンマ値γは、画素の位置に応じて決定しても良い。例えば、撮像素子102の有効領域を所定の分割数で分割した領域ごとにガンマ値γを変えても良い。
以上が、現像部211が実行する現像処理である。尚、現像処理は、本例に限るものではない。例えば、現像部211は、ステップS501~ステップS506で説明した処理の一部だけを実行しても良い。もしくは、現像部211は、カラーマトリクスを用いた色変換処理等を実行してもよく、撮像素子102から出力される画像情報を視認するために必要となる処理であればその内容を限定するものではない。
次に、データ生成部210の距離データ生成部212が行う距離データの生成処理について、図5(B)を用いて説明する。尚、距離データとは、各画素に対して撮像部100A~100Dから被写体までの距離に対応する情報を関連付けたデータである。
ステップS511で、CPUは、距離データ生成部212により、第1の画像信号を用いて第1の輝度画像信号を生成し、第2の画像信号を用いて第2の輝度画像信号を生成する。その際、距離データ生成部212は、各画素群310の赤画素、緑画素、青画素の画像信号の値を、所定の係数を用いて合成することで輝度画像信号を生成する。尚、距離データ生成部212は、線形内挿を用いたデモザイク処理を行った後に、赤・緑・青のチャンネル毎に所定の係数を乗じて合成することで輝度画像信号を生成しても良い。
ステップS512で、CPUは、距離データ生成部212により、第1の輝度画像信号と第2の輝度画像信号との間の、光量バランスの補正を行わせる。光量バランスの補正は、第1の輝度画像信号と第2の輝度画像信号との少なくとも一方に補正係数を乗算して実行される。
補正係数は、撮像光学系101と撮像素子102の位置調整後に、均一照明を撮像して得られた第1の輝度画像信号と第2の輝度画像信号との輝度比が一定になるように予め算出され記憶されているものとする。距離データ生成部212は、第1の輝度画像信号と第2の輝度画像信号との少なくとも一方に補正係数を乗算して、光量バランス補正がなされた第1の画像信号及び第2の画像信号を生成する。
ステップS513で、CPUは、距離データ生成部212により、光量バランス補正が適用された第1の輝度画像信号と第2の輝度画像信号とに対して、ノイズ低減処理を行わせる。ノイズ低減処理の具体例としては、距離データ生成部212は、空間周波数の高い帯域を抑制するローパスフィルタを各輝度画像信号に適用する処理を行って良い。
もしくは、距離データ生成部212は、所定の空間周波数帯域を透過するバンドパスフィルタを各輝度画像信号に適用する処理を行っても良い。この場合、ステップS512で行う光量バランス補正の補正誤差の影響を低減する効果も得られる。
ステップS514で、CPUは、距離データ生成部212により、第1の輝度画像信号と第2の輝度画像信号との間の相対的な位置ズレ量である視差量を算出させる。距離データ生成部212は、第1の輝度画像信号に対応する第1の輝度画像内に注目点を設定し、注目点を中心とする照合領域を設定する。
次に、距離データ生成部212は、第2の輝度画像信号に対応する第2の輝度画像内に参照点を設定し、参照点を中心とする参照領域を設定する。
距離データ生成部212は、参照点を順次移動させながら照合領域内に含まれる第1の輝度画像と、参照領域内に含まれる第2の輝度画像間の相関度を算出し、最も相関が高い参照点を対応点とする。距離データ生成部212は、注目点と対応点間の相対的な位置のズレ量を、注目点における視差量とする。
距離データ生成部212は、注目点を順次移動させながら視差量を算出することで、複数の画素位置における視差量を算出することができる。距離データ生成部212は、画素ごとに視差値を示す値を特定し、視差分布を示すデータである視差画像データを生成する。
尚、距離データ生成部212が視差量を求めるために用いる相関度の算出方法としては公知の手法を用いることができる。距離データ生成部212は、例えば、輝度画像間の正規化相互相関を評価するNCC(Normalized Cross-Correlation)と呼ばれる手法を用いることができる。又、距離データ生成部212は、相関度として相違度を評価する手法を用いても良い。
距離データ生成部212は、例えば、輝度画像間の差の絶対値和を評価するSAD(Sum Of Absolute Difference)を用いることができる。或いは差の二乗和を評価するSSD(Sum of Squared Difference)を用いることができる。
ステップS515で、CPUは、距離データ生成部212により、視差画像データにおける各画素の視差量をデフォーカス量に変換して、各画素のデフォーカス量を取得させる。距離データ生成部212は、視差画像データにおける各画素の視差量に基づいて、各画素におけるデフォーカス量を示すデフォーカス画像データを生成する。
距離データ生成部212は、視差画像データにおける画素(u,v)の視差量d(u,v)と変換係数K(u,v)とを用いて、画素(u,v)のデフォーカス量ΔL(u,v)を数式3から算出する。
Figure 2023172202000004
撮像光学系101は、ヴィネッティング(けられ)により、周辺画角において第1の光束411と第2の光束421の一部が削られる。そのため、変換係数K(u,v)は画角(画素の位置)に依存した値となる。
尚、中心画角と周辺画角とで焦点位置が変化する像面湾曲を有する特性を撮像光学系101が有する場合、像面湾曲量をCf(u,v)とすると、数式4を用いて視差量d(u,v)をデフォーカス量ΔL(u,v)に変換することができる。尚、像面湾曲量Cf(u,v)は、画角に依存した値となる。
Figure 2023172202000005
変換係数K(u,v)と像面湾曲量Cf(u,v)は、撮像光学系101と撮像素子102の位置合わせ後に、所定のチャートを撮影して解析するなどして、視差量と物体までの距離値の関係を得ることで算出できる。
ステップS516で、CPUは、距離データ生成部212により、画素(u,v)のデフォーカス量ΔL(u,v)を画素(u,v)における物体までの距離値D(u,v)への変換し、距離データを生成させる。デフォーカス量ΔLは、撮像光学系101の結像関係を用いて変換することにより、物体までの距離値Dを算出することができる。
即ち、撮像光学系101の焦点距離をf、像側主点から撮像素子102までの距離をIppとしたとき、数式5の結像公式を用いて、デフォーカス量ΔL(u,v)を物体までの距離値D(u,v)に変換することができる。本実施形態では、この画素(u,v)ごとの距離値D(u,v)を距離データと呼ぶ。
Figure 2023172202000006
尚、ここまでの説明では、焦点距離fと像側主点から撮像素子102までの距離Ippは画角に寄らず一定値としているが、これに限らない。撮像光学系101の結像倍率が画角ごとに大きく変化する場合には、焦点距離fや像側主点から撮像素子102までの距離Ippの少なくとも1つを画角ごとに変わる値としても良い。以上が、距離データ生成部212が実行する距離データの生成処理の例である。
次に、信頼度算出部260の信頼度算出処理に関して説明する。図5(B)のステップS514で説明した視差量の算出処理において、距離データ生成部212は、第1の輝度画像信号と第2の輝度画像信号との相関を用いて対応点を探索している。
従って第1の輝度画像信号に含まれるノイズ(例えば、光ショットノイズに起因するノイズ)が多い場合や、照合領域内に含まれる輝度画像信号の信号値の変化が小さい場合、相関度を正しく評価することができない場合がある。このような場合、正しい視差量に対して誤差の大きい視差量を算出してしまう場合がある。視差量の誤差が大きい場合、図5(B)のステップS516で生成される距離データの誤差も大きくなる。
信頼度算出部260は、視差量の信頼度(視差信頼度)を算出する信頼度算出処理を行う。視差信頼度は、算出された視差量がどの程度誤差を含んでいるかを示す指標である。例えば、照合領域に含まれる信号値の平均値(以下、平均値と呼ぶ)に対する標準偏差の比を、視差信頼度として評価することができる。標準偏差は、照合領域内の信号値の変化(いわゆるコントラスト)が大きい場合に大きくなる。平均値は、画素に入射した光量が多い場合に大きくなる。
尚、画素に入射する光量が多い場合は、光ショットノイズが多くなる。即ち平均値は、ノイズ量と正の相関を有する。以上より、標準偏差に対する平均値の比(標準偏差/平均値)は、コントラストの大きさとノイズ量との比に対応する。即ち、ノイズ量に対してコントラストが十分大きければ、視差量の算出における誤差が小さいと推定できる。
本実施形態では、標準偏差に対する平均値の比を視差信頼度と定義する。視差信頼度が大きいほど、算出された視差量における誤差は小さく、より正確な視差量であるといえる。視差信頼度と距離データは正の相関関係を持つため、距離データの信頼度もこの視差信頼度で表すことができる。
又、信頼度算出部260は、複数の撮像部100A~100D夫々の撮像光学系101の特性に基づいて視差量の信頼度を算出しても良い。本実施形態における撮像光学系101の特性とは、焦点距離であり、信頼度算出部260は、焦点距離や長いほど信頼度が高いと判断する。以上が、信頼度算出部260による信頼度算出処理の1例である。
次に、図6を用いて仮想視点映像生成装置200の動作シーケンスについて説明する。図6は、実施形態に係る仮想視点映像生成装置の動作を示すフローチャートである。尚、仮想視点映像生成装置200内のコンピュータとしての不図示のCPUが不図示のメモリに記憶されたコンピュータプログラムを実行することによって図6のフローチャートの各ステップの動作が行われる。
ステップS601において、CPUは、車両100に設置された複数の撮像部100A~100Dにより、車両周囲の映像を撮像する。撮像部100A~100Dの撮像素子102は、第1の光電変換部から出力された信号に基づく第1の画像信号と、第2の光電変換部から出力された信号に基づく第2の画像信号を夫々データ生成部210A~210Dに出力する。ここで、ステップS601は、複数の撮像手段から撮像出力を取得する撮像ステップとして機能している。
尚、第1の光電変換部から第1の画像信号を出力し、その後で第2の光電変換部から画像信号を出力する際に第1の画像信号と第2の画像信号の加算出力(合成出力)を出力させても良い。そして後で上記の合成出力から第1の画像信号を減算することによって第2の画像信号を取得するようにしても良い。
ステップS602において、CPUは、データ生成部210A~210Dの現像部211により、夫々、撮像部100A~100Dから出力される第1の画像信号及び第2の画像信号に対して現像処理を行い、夫々の画像データを生成する。ここで、ステップS602は、複数の撮像手段の撮像出力に基づき複数の画像データを生成する現像ステップとして機能している。現像部211は、夫々の画像データをテクスチャマッピング部222及び信頼度算出部260に出力する。
ステップS603において、CPUは、データ生成部210A~210Dの距離データ生成部212により、夫々、撮像部100A~100Dから出力された第1の画像信号及び第2の画像信号を用いて、距離データ生成処理を行う。
ここでステップS603は、複数の撮像手段が夫々生成する第1画像信号及び第2画像信号に基づき複数の画像データの各画素に対する距離データを生成する距離データ生成ステップとして機能している。距離データ生成部212は、この距離データを3Dモデル生成部221及び信頼度算出部260に出力する。
ステップS604において、CPUは、3Dモデル生成部221及びテクスチャマッピング部222により、複数の撮像部100A~100Dの位置及び姿勢に関する情報(以下、撮像視点情報と呼ぶ)を夫々取得する。
本実施形態において、撮像視点情報には、所定の座標系内での撮像部100A~100Dの位置姿勢情報が含まれ、例えば、撮像装置の位置情報及び光軸方向を示す姿勢情報を含む。又、撮像視点情報には、撮像装置の焦点距離又は主点位置など、撮像装置の画角情報を含めることもできる。これらの撮像視点情報をもとに、公知の手法を用いて、撮像データの各画素と、撮像データ内に存在する被写体の位置とを対応付けることができる。
尚、本実施形態における座標系は、図1に示すように、車両100の縦方向をx軸、横方向をy軸、高さ方向をz軸と定義し、座標系の原点はz軸に沿って見たときの車の中央かつ地表面である点とする。又、座標系は右手座標系とし、車両901の進行方向がx軸の正方向、車両901の左側がy軸の正方向、空に向かう方向がz軸の正方向とする。以降では、上述した座標系を世界座標系と呼ぶ。しかしながら、座標系や原点の位置はこれに限らず、任意の座標系を設定しても良い。
ステップS605において、CPUは、3Dモデル生成部221により、距離データ生成部212から出力される、撮像部100A~100D夫々の画角に対応した複数の距離データを統合して、車両100周辺の3Dモデルを生成する。ここで、複数の距離データ夫々は、各撮像部100A~100Dからの被写体までの距離を表している。
3Dモデル生成部221は、ステップS604で取得した撮像部100A~100Dの撮像視点情報を利用して、複数の距離データを世界座標系の原点からの距離に変換した距離データ(以下、世界座標系距離データと呼ぶ)を3Dモデル生成に使用する。
又、3Dモデル生成部221は、複数の撮像部100A~100Dの重複撮像領域(本例では隣り合う2つの撮像部による重複撮像領域)において、複数の撮像部100A~100Dの夫々のオクルージョンを考慮して3Dモデルを生成することができる。本処理について図7を用いて説明する。
図7(A)、(B)は、撮像部と車両の周辺の立体物の位置関係を示す図であり、図7(A)は車両100に設置された撮像部100A~100Dと、車両の周辺の立体物(本例では球体700及び球体701)の位置関係を示す図である。図7(B)は、この際の撮像部100Aの画角710Aと、撮像部100Bの画角710Bを表す図である。
撮像部100A及び100Bは互いに重複撮像領域を持つが、重複撮像領域における立体物(球体700及び球体701)は、撮像部100Aの画角710A及び撮像部100Bの画角710B両方に等しく含まれない。本例では、球体701は、撮像部100Aの画角710Aには含まれるが、撮像部100Bから見ると球体700に遮蔽されたオクルージョン領域となり画角710Bには含まれない。
そのため、3Dモデル生成部221は、球体701を表す3Dモデルを撮像部100Aの画角に対応する世界座標系距離データに基づいて作成する。同様に、球体700の黒点領域702は、撮像部100Bの画角710Bには含まれるものの、撮像部100Aから見ると、球体700よって遮蔽されたオクルージョン領域となり画角710Aには含まれない。
従って、球体700を表す3Dモデルのうち撮像部100Aのオクルージョン領域の3Dモデルは、3Dモデル生成部221が撮像部100Bに対応する世界座標系距離データに基づいて作成する。同様に、撮像部100Bのオクルージョン領域の3Dモデルは、3Dモデル生成部221が撮像部100Aに対応する世界座標系距離データに基づいて生成する。
このように、3Dモデル生成部221は、複数の撮像手段の重複撮像領域における距離データをもとに、複数の撮像手段のオクルージョン領域を判定し、その結果に基づいて、3Dモデルを生成するための距離データを決定する。
尚、複数の撮像部100A~100D夫々の画角にオクルージョンが発生しているか否かの判定は、例えば、重複撮像領域における撮像部100A及び100Bに夫々対応した世界座標系距離データの差が所定以上か否かで判定しても良い。距離データが一定以上であれば、オクルージョンが発生していると判定する。
若しくは、更に撮像部100A及び100Bの画像データの画素値の差が一定以上か否かで判定しても良い。画素値の差が一定以上である場合は、互いに異なる被写体を撮影していると判定できるためオクルージョンが発生していると判定する。
以上が、3Dモデル生成部221による、ステップS605における、オクルージョンを考慮した3Dモデルの生成方法である。
尚、3Dモデル生成部221は、重複撮像領域において、各撮像部100A~100Dの画角に上記で説明したオクルージョンが発生していない。従って、複数の撮像部100A~100Dが撮像できている領域には、信頼度算出部260が算出する信頼度を利用して3Dモデルを作成しても良い。
その場合の具体例を、撮像部100A及び100Bの重複撮像領域における3Dモデル生成方法について説明する。3Dモデル生成部221は、重複撮像領域における撮像部100A及び100Bに対応した2つの世界座標系距離データのうち、信頼度算出部260が算出する信頼度が高い世界座標系距離データを選択して3Dモデルを作成する。即ち、3Dモデル生成部221は、信頼度に基づいて3Dモデル生成に利用する距離データを決定する。
この信頼度は、前述の通り撮像光学系101の特性から求められる値であって良い。即ち、撮像手段の光学系の特性に基づいて距離データの信頼度を判断しても良い。例えば、撮像部100A及び100Bの撮像光学系101の焦点距離fは異なるものとする。この場合、信頼度算出部260は、焦点距離fが長い方の撮像光学系で撮像したデータの方が、信頼度が高いと判定する。即ち、信頼度の判定に用いる光学系の特性は焦点距離を含む。そのため、3Dモデル生成部221は、重複撮像領域においては焦点距離fが長い方の撮像部に対応した世界座標系距離データに基づいて3Dモデルを生成する。
又、別の例として、撮像部100A及び100Bの撮像光学系101は、いずれも結像倍率が画角に応じて大きく変化する特性を持ち、焦点距離fが画角ごとに変化する特性を有する場合について説明する。この撮像光学系101の特性とは、例えば、画角中心は高倍率であり画角周辺になるに従い低倍率になるような光学特性であり、画角周辺になるに従い焦点距離が短くなる光学特性である。
この場合、画角中心に近いほど信頼度算出部260が算出する信頼度は高くなる。そのため、3Dモデル生成部221は、2つの世界座標系距離データのうち、同一被写体が、より画角中心に映っている世界座標系距離データを利用して3Dモデルを生成しても良い。
尚、3Dモデル生成部221は、距離データの信頼度が低い領域の距離値を、画像データの解析結果に基づいて補正しても良い。そのような補正処理の例について図8を用いて説明する。
図8(A)~(C)は、3Dモデル生成部による距離データの補正処理の1例を示す図であり、図8(A)は、3Dモデル生成部221が画像データに対してインスタンスセグメンテーション等の領域分割処理を実施した結果の画像である。
図8(A)中の模様が同一である領域は、領域分割処理により同一の物体領域であると判断された領域であることを表している。このような領域分割処理により、画像データ中の領域800が同一物体(本例では人物)の領域であるという解析結果を得ることができる。以下では、この領域800に焦点を当てて説明する。
図8(B)は、信頼度算出部260が算出する距離データの信頼度を説明するための図である。本例では、図中の模様の付いた領域は、信頼度が所定値以上である領域を表しており、模様の無い領域は信頼度が所定値未満である領域を表している。
つまり、図8(B)は、人物の領域800の距離データのうち輪郭部に対応した領域800Aの距離データの信頼度が所定値以上であり、輪郭でない領域800Bは距離データの信頼度が所定値未満であることを示している。これは輪郭がない領域やコントラストの低い領域は、図5(B)における視差量算出時の誤差が大きくなるからである。このように、図8(B)の例では、距離データに対応する画像データのコントラストに基づいて信頼度を判定している。
尚、図8(B)中には、図8(A)で示した人物の領域800の輪郭を実線で示している。3Dモデル生成部221は、信頼度が所定値未満である、領域800Bの距離データを、同一物体の領域800のうち信頼度が所定値以上である、領域800Aの距離データに基づいて補正する。この補正例を、図8(C)を用いて説明する。
図8(C)は、図8(B)の人物の領域800の距離データの一部を拡大して表示したものであり、D(u1,v1)及びD(u4、v1)は、領域800Aに属する距離データであり、信頼度が所定値以上である。又、D(u2、v1)、D(u3、v1)は領域800Bに属する距離データであり、信頼度が所定値未満である。
ここで、3Dモデル生成部221の、信頼度が所定値未満の距離値D(u2、v1)、D(u3、v1)の補正処理について説明する。
先ず、領域分割処理結果を参照して、3Dモデル生成部221は、D(u2、v1)、D(u3、v1)が、何の領域に含まれているかを判断する。本例では、D(u2、v1)、D(u3、v1)は、人物の領域800に含まれると判断される。
次に、3Dモデル生成部221は、人物の領域に含まれる距離データのうち、D(u2、v1)、D(u3、v1)の近傍に存在する、距離データの信頼度が所定値以上の距離データを特定する。本例では、D(u1,v1)及びD(u4、v1)が特定される。
次に、3Dモデル生成部221は、D(u2、v1)、D(u3、v1)の距離データを、同じ人物の領域800のうち、信頼度所定値以上である、領域800Aに存在する距離値D(u1,v1)及びD(u4、v1)で線形内挿し、その結果に置換する。即ち、3Dモデル生成部221は、信頼度が所定値未満であると判定された物体の所定領域の距離データを、同じ物体中の信頼度が所定値以上である領域の距離データに基づいて補正する。
以上が、3Dモデル生成部221により、画像データの解析結果に基づいて、距離データの信頼度が低い所定の物体領域の距離データを、距離データの信頼度が高い同じ物体領域の距離データで補正する例である。3Dモデル生成部221は、この補正した距離データを用いて3Dモデル生成処理を行う。尚、補正処理の方法はこれに限らない。
他の例としては、3Dモデル生成部221は、所定の物体領域の、信頼度の低い距離データが、その周辺の同一物体領域の、信頼度の高い距離データの下限値以上かつ上限値以下の範囲内であるか否かを判定する。この範囲外である場合は、3Dモデル生成部221は、信頼度の低い距離データを前記範囲内の値に置換しても良い。
尚、一般的に、視差画像を用いた測距では、測距対象が遠方になると視差がほぼなくなるため、測距精度がばらつく。そのため、3Dモデル生成部221は、車両100から所定距離以上離れたエリア関しては、予め不図示の記録部に記録されている別の3Dモデルを利用して3Dモデルを作成しても良い。
本処理について図9を用いて説明する。図9は3Dモデル生成部221が生成する3Dモデルの1例を表す図である。立体物モデル902は、車両100の周辺に存在する立体物(本例では人物)を表す3Dモデルである。接地面モデル903は、車両100の接地面を表す3Dモデルである。曲面モデル904は、接地面モデル903の平面から世界座標系のz軸の正方向に伸び、かつ車両100の周囲を取り囲む3Dモデルである。3Dモデル生成部221は、図9に示すような、車両周辺の立体物モデル902及び車両が存在する路面を表す接地面モデル903と、曲面モデル904とで構成される3Dモデルを生成する。
車両100から所定の距離905以内に存在する立体物モデル902及び接地面モデル903は、いずれも3Dモデル生成部221が世界座標系距離データに基づいて作成する。一方、曲面モデル904は予め不図示の記録部に記録されているモデルである。
車両100から曲面モデル904の開始点までの距離905は、撮像部100A~100Dの撮像光学系101の特性に基づいて予め決定して良い。或いは、3Dモデル生成部221が、世界座標系距離データ中で、ある所定以上の距離を表すデータの信頼度の平均値が所定値より低いと判断した場合に、その距離を曲面モデル904の開始点までの距離905と設定しても良い。
尚、曲面モデル904は上述したモデルに限らず、世界座標系のz軸方向に長さを持つ、つまり、高さが存在する3Dモデルであれば良い。高さが存在する3Dモデルを定義する理由は、車両100から距離905より遠方に存在する人や建築物などの立体物に対して、仮想視点映像上での歪みや倒れを抑制するためである。尚、他の3Dモデルの例としては、お椀状の球面モデルであっても良い。
以上が、3Dモデル生成部221による、車両から一定距離以上離れたエリア関する3Dモデルの生成処理の1例の説明である。本実施形態のような処理により、3Dモデルのうち、世界座標系距離データの精度がばらつく可能性のある車両100から所定距離以上離れたエリアの形状が不自然に歪むことを抑制できる。
以上が、本実施形態における、3Dモデル生成部221による3Dモデル生成処理の具体例である。3Dモデル生成部221は、生成した3Dモデルをテクスチャマッピング部222に出力する。
図6に戻り、ステップS606において、CPUは、テクスチャマッピング部222により、現像部211から取得した画像データと撮像視点情報、及び3Dモデル生成部221から取得した3Dモデルとに基づき、テクスチャマッピング処理を行う。テクスチャマッピング処理とは、3Dモデルと画像データの位置的な対応付けを行うことによりテクスチャ付き3Dモデルを生成する処理である。以下では、テクスチャマッピング処理について説明する。
テクスチャマッピング部222は、現像部211から受信した画像データをテクスチャマッピングに使用するテクスチャ画像として使用する。具体例には、テクスチャマッピング部222は、3Dモデルの生成に利用された距離データに対応する画像データの画素値を、3Dモデルの該当箇所のテクスチャとして決定する。
尚、撮像部100A~100Dの重複撮像領域において、3Dモデルを、複数の距離データの平均などにより生成した場合は、それに対応する複数の画像データの画素値をブレンドしてテクスチャとして決定しても良い。
又、テクスチャマッピング部222は、撮像部101A~101Dのすべての画角に含まれないオクルージョン領域に張り付けるテクスチャの画素値を予め決定しておく。本実施形態では、オクルージョン領域のテクスチャを黒(r,g,b)=(0,0,0)、即ちR、G,B信号がゼロのテクスチャと定める。尚、オクルージョン領域用に用意する画素は黒以外でも良く、その場合は設定する画素値を所望の色の画素値とすれば良い。
以上の処理を全ての3Dモデルの画素に対して行うことで、テクスチャをマッピングした3Dモデルが生成される。但し、上述したテクスチャのマッピング処理は1例にすぎず、多視点画像データから3Dモデルにテクスチャをマッピング可能な任意の方法を用いて良い。
例えば、前述の曲面モデル904が三角形ポリゴンの集合体で構成されている場合、テクスチャマッピング部222は、公知の方法を用いて、各ポリゴンの頂点とテクスチャの対応付けをとることでテクスチャマッピングを行うようにすれば良い。
テクスチャマッピング部222は、テクスチャをマッピングした3Dモデルをレンダリング部223に出力する。
ステップS607において、CPUは、仮想視点決定部231により、通信部230から受信した情報に基づいて仮想視点情報を決定し、レンダリング部223に出力する。
仮想視点情報には、撮像視点情報と同様、所定の座標系内での仮想視点の位置情報が含まれ、例えば、仮想視点の位置情報及び光軸方向を示す姿勢情報を含む。又、仮想視点情報には、仮想視点からの画角情報、仮想視点画像の解像度情報等を含む。更に、仮想視点情報は、歪曲パラメータ及び撮像パラメータ等を含むこともできる。本実施形態では、所定の座標系とは前述した世界座標系と同一とする。
又、通信部230から受信する情報は、例えば、車両100の乗員が不図示のリモコンやタッチパネル式ディスプレイ等の操作部を介して入力した、仮想視点を指示する情報であっても良い。この場合、仮想視点決定部231は、指示に従って仮想視点情報を決定する。
又、通信部230から受信する情報の別の例としては、車両100のウインカーの制御情報などの、車両100の進行方向の変更に関する情報であっても良い。この場合、仮想視点決定部231は、進行方向に応じた仮想視点情報を決定する。
ステップS608において、CPUは、レンダリング部223により、仮想視点決定部231から取得した仮想視点情報に基づいて、テクスチャマッピング部222から取得したテクスチャ付き3Dモデルにレンダリング処理を行い、仮想視点映像を生成する。本レンダリング処理によって、テクスチャ付き3Dモデルを仮想視点位置から見た映像が生成される。
尚、テクスチャ付き3Dモデルを仮想視点位置から見た映像をレンダリングする方法は公知であり、任意の手法を用いて良いので説明は省略する。レンダリング部223は、レンダリングした仮想視点画像を映像送信部240及び表示部250に出力する。
ステップS609において、CPUは、表示部250により、受信した仮想視点映像を表示し、ステップS610にて、CPUは、映像送信部240により、受信した仮想視点映像を車両100の外部に送信する。ここでステップS605~ステップS609は複数の画像データと複数の画像データの各画素に対する距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成ステップとして機能している。
尚、本実施形態では、ステップS605において、3Dモデル生成部221は、自身に入力される全ての距離データを使用して3Dモデルを利用している。本実施形態における全ての距離データとは、距離データ生成部212から得られる撮像部100A~100Dの撮像データであり、車両100の全周囲の距離データである。
本実施形態では、このように生成された車両100の全周囲の3Dモデルを記録しておくことで、いつでも仮想視点を変更して車両100の周囲を確認することができる。従って、車両100を運転していない場合でも、車両100周辺の仮想視点映像を確認することができ、ドライブレコーダー等の機能を向上することができる。
但し、3Dモデル生成部221は、3Dモデル生成時に、仮想視点決定部231から得られる仮想視点情報を利用して、仮想視点映像生成に必要な距離データのみを利用して3Dモデルを生成しても良い。例えば、仮想視点情報が車両100の左前方の領域を示している場合、3Dモデル生成部221は、仮想視点生成に撮像部100A及び100Bの画像情報をもとに得られる距離データのみを利用して3Dモデルを生成しても良い。
即ち、3Dモデル生成部221は、仮想視点の位置に基づいて、複数の距離データのうち3Dモデル生成に利用する距離データを選択しても良い。それにより、表示映像生成部220による仮想視点映像の処理負荷を軽減することができ、駐車支援や遠隔操縦など、リアルタイムに車両100周辺の仮想視点映像を視聴する場合に好適である。
以上説明したように、本実施形態における仮想視点映像生成装置200によれば、3Dモデルとテクスチャの位置的及び時間的なずれを軽減することができる。更に物体形状の再現性が高い仮想視点映像を、従来よりも小型の装置構成にて実現することが可能である。
尚、上述の実施形態においては車両100などの移動体に画像処理装置としての仮想視点映像生成装置200を搭載した例について説明した。しかし、本実施形態の移動体は、自動車などの車両に限らず、列車、船舶、飛行機、ロボット、ドローンなどの移動をする移動体であればどのようなものであってもよい。また、本実施形態の画像処理装置はそれらの移動体に搭載されるものを含む。尚、本実施形態の画像処理装置としての仮想視点映像生成装置200は、移動体とは離れた位置に配置されて移動体をリモートでコントロールするための外部装置を含む。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
例えば上記の実施形態では撮像面位相差方式(撮像面位相差測距方式又は像面位相差検出方式)の1つのイメージセンサからなる撮像素子を用いた例について説明したが、撮像素子は2つのイメージセンサからなるステレオカメラとしても良い。即ち、光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子は1つ又は2つのイメージセンサを含むものであれば良い。
本実施形態の開示は、以下の構成、方法、及びコンピュータプログラムを含む。
(構成1)光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子を夫々有する複数の撮像手段と、複数の前記撮像手段の出力に基づき複数の画像データを生成する現像手段と、複数の前記撮像手段が夫々生成する前記第1画像信号及び前記第2画像信号に基づき複数の前記画像データの各画素に対する距離データを生成する距離データ生成手段と、複数の前記画像データと、複数の前記画像データの各画素に対する前記距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成手段と、を有することを特徴とする画像処理装置。
(構成2)前記映像生成手段は、前記距離データに基づいて3Dモデルを生成する3Dモデル生成手段と、前記3Dモデルに対して前記画像データをマッピングしたテクスチャ付き3Dモデルを生成するテクスチャマッピング手段と、前記テクスチャ付き3Dモデルを任意視点位置である前記仮想視点から見た画像である仮想視点画像を生成するレンダリング手段を有することを特徴とする構成1に記載の画像処理装置。
(構成3)複数の前記撮像手段は、移動体の周辺を撮像するように互いに離間して配置され、前記レンダリング手段は、前記移動体の前記周辺の前記仮想視点映像を作成することを特徴とする構成2に記載の画像処理装置。
(構成4)前記3Dモデル生成手段は、複数の前記撮像手段の重複撮像領域における前記距離データをもとに、複数の前記撮像手段のオクルージョン領域を判定した結果に基づいて、前記3Dモデルを生成するための前記距離データを決定することを特徴とする構成2又は3に記載の画像処理装置。
(構成5)前記距離データの信頼度を判定する信頼度判定手段を更に備え、前記3Dモデル生成手段は、前記信頼度に基づいて3Dモデル生成に利用する前記距離データを決定することを特徴とする構成2~4の何れか1つに記載の画像処理装置。
(構成6)前記信頼度判定手段は、前記撮像手段の前記光学系の特性に基づいて前記距離データの前記信頼度を判断することを特徴とする構成5に記載の画像処理装置。
(構成7)前記光学系の特性は、焦点距離を含むことを特徴とする構成6に記載の画像処理装置。
(構成8)前記信頼度判定手段は、前記距離データに対応する前記画像データのコントラストに基づいて前記信頼度を判定することを特徴とする構成5に記載の画像処理装置。
(構成9)前記3Dモデル生成手段は、前記信頼度判定手段により前記信頼度が所定値未満であると判定された物体の所定領域の前記距離データを、同じ物体中の前記信頼度が前記所定値以上である領域の前記距離データに基づいて補正することを特徴とする構成5~8のいずれか1つに記載の画像処理装置。
(構成10)前記3Dモデル生成手段は、前記仮想視点の位置に基づいて、複数の前記距離データのうち3Dモデル生成に利用する前記距離データを選択することを特徴とする構成2~9の何れか1つに記載の画像処理装置。
(構成11)光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子を夫々有する複数の撮像手段と、複数の前記撮像手段の出力に基づき複数の画像データを生成する現像手段と、複数の前記撮像手段が夫々生成する前記第1画像信号及び前記第2画像信号に基づき複数の前記画像データの各画素に対する距離データを生成する距離データ生成手段と、複数の前記画像データと、複数の前記画像データの各画素に対する前記距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成手段と、前記映像生成手段により生成された前記仮想視点映像を表示する表示手段と、を有することを特徴とする移動体。
(構成12)前記撮像素子は、1つ又は2つのイメージセンサを含むことを特徴とする構成1~11のいずれか1つに記載の画像処理装置。
(方法1)光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子を夫々備えた複数の撮像手段から撮像出力を取得する撮像ステップと、複数の前記撮像手段の前記撮像出力に基づき複数の画像データを生成する現像ステップと、複数の前記撮像手段が夫々生成する前記第1画像信号及び前記第2画像信号に基づき複数の前記画像データの各画素に対する距離データを生成する距離データ生成ステップと、複数の前記画像データと、複数の前記画像データの各画素に対する前記距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成ステップと、を有することを特徴とする画像処理方法。
(プログラム1)構成1~11のいずれか1つに記載の画像処理装置又は構成12に記載の移動体の各手段をコンピュータで制御するためのコンピュータプログラム。
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコード(制御プログラム)を記録した記憶媒体を、システムあるいは装置に供給することによって実現してもよい。そして、そのシステムあるいは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたコンピュータ読取可能なプログラムコードを読み出し実行することによっても達成される。
その場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
100:車両
100:撮像部
101:撮像光学系
102:撮像素子
210:データ生成部
211:現像部
212:距離データ生成部
220:表示映像生成部
221:3Dモデル生成部
222:テクスチャマッピング部
223:レンダリング部
230:通信部
231:仮想視点決定部
240:映像送信部
250:表示部
260:信頼度算出部
200:仮想視点映像生成装置

Claims (14)

  1. 光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子を夫々有する複数の撮像手段と、
    複数の前記撮像手段の出力に基づき複数の画像データを生成する現像手段と、
    複数の前記撮像手段が夫々生成する前記第1画像信号及び前記第2画像信号に基づき複数の前記画像データの各画素に対する距離データを生成する距離データ生成手段と、
    複数の前記画像データと、複数の前記画像データの各画素に対する前記距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成手段と、を有することを特徴とする画像処理装置。
  2. 前記映像生成手段は、
    前記距離データに基づいて3Dモデルを生成する3Dモデル生成手段と、
    前記3Dモデルに対して前記画像データをマッピングしたテクスチャ付き3Dモデルを生成するテクスチャマッピング手段と、
    前記テクスチャ付き3Dモデルを任意視点位置である前記仮想視点から見た画像である仮想視点画像を生成するレンダリング手段を有することを特徴とする請求項1に記載の画像処理装置。
  3. 複数の前記撮像手段は、移動体の周辺を撮像するように互いに離間して配置され、
    前記レンダリング手段は、前記移動体の前記周辺の前記仮想視点映像を作成することを特徴とする請求項2に記載の画像処理装置。
  4. 前記3Dモデル生成手段は、複数の前記撮像手段の重複撮像領域における前記距離データをもとに、複数の前記撮像手段のオクルージョン領域を判定した結果に基づいて、前記3Dモデルを生成するための前記距離データを決定することを特徴とする請求項2に記載の画像処理装置。
  5. 前記距離データの信頼度を判定する信頼度判定手段を更に備え、
    前記3Dモデル生成手段は、前記信頼度に基づいて3Dモデル生成に利用する前記距離データを決定することを特徴とする請求項2に記載の画像処理装置。
  6. 前記信頼度判定手段は、
    前記撮像手段の前記光学系の特性に基づいて前記距離データの前記信頼度を判断することを特徴とする請求項5に記載の画像処理装置。
  7. 前記光学系の特性は、焦点距離を含むことを特徴とする請求項6に記載の画像処理装置。
  8. 前記信頼度判定手段は、
    前記距離データに対応する前記画像データのコントラストに基づいて前記信頼度を判定することを特徴とする請求項5に記載の画像処理装置。
  9. 前記3Dモデル生成手段は、
    前記信頼度判定手段により前記信頼度が所定値未満であると判定された物体の所定領域の前記距離データを、同じ物体中の前記信頼度が前記所定値以上である領域の前記距離データに基づいて補正することを特徴とする請求項8に記載の画像処理装置。
  10. 前記3Dモデル生成手段は、
    前記仮想視点の位置に基づいて、複数の前記距離データのうち3Dモデル生成に利用する前記距離データを選択することを特徴とする請求項2に記載の画像処理装置。
  11. 前記撮像素子は、1つ又は2つのイメージセンサを含むことを特徴とする請求項1に記載の画像処理装置。
  12. 光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子を夫々有する複数の撮像手段と、
    複数の前記撮像手段の出力に基づき複数の画像データを生成する現像手段と、
    複数の前記撮像手段が夫々生成する前記第1画像信号及び前記第2画像信号に基づき複数の前記画像データの各画素に対する距離データを生成する距離データ生成手段と、
    複数の前記画像データと、複数の前記画像データの各画素に対する前記距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成手段と、
    前記映像生成手段により生成された前記仮想視点映像を表示する表示手段と、を有することを特徴とする移動体。
  13. 光学系及び前記光学系を介して入射された光学像から所定の視差を有する第1画像信号と第2画像信号とを生成する撮像素子を夫々備えた複数の撮像手段から撮像出力を取得する撮像ステップと、
    複数の前記撮像手段の前記撮像出力に基づき複数の画像データを生成する現像ステップと、
    複数の前記撮像手段が夫々生成する前記第1画像信号及び前記第2画像信号に基づき複数の前記画像データの各画素に対する距離データを生成する距離データ生成ステップと、
    複数の前記画像データと、複数の前記画像データの各画素に対する前記距離データとに基づいて所定の仮想視点から見た仮想視点映像を生成する映像生成ステップと、を有することを特徴とする画像処理方法。
  14. 請求項1~11のいずれか1項に記載の画像処理装置又は請求項12に記載の移動体の各手段をコンピュータで制御するためのコンピュータプログラム。
JP2022083849A 2022-05-23 2022-05-23 画像処理装置、移動体、画像処理方法及びコンピュータプログラム Pending JP2023172202A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022083849A JP2023172202A (ja) 2022-05-23 2022-05-23 画像処理装置、移動体、画像処理方法及びコンピュータプログラム
US18/312,618 US20230379445A1 (en) 2022-05-23 2023-05-05 Image processing device, moving apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022083849A JP2023172202A (ja) 2022-05-23 2022-05-23 画像処理装置、移動体、画像処理方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2023172202A true JP2023172202A (ja) 2023-12-06

Family

ID=88791175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022083849A Pending JP2023172202A (ja) 2022-05-23 2022-05-23 画像処理装置、移動体、画像処理方法及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US20230379445A1 (ja)
JP (1) JP2023172202A (ja)

Also Published As

Publication number Publication date
US20230379445A1 (en) 2023-11-23

Similar Documents

Publication Publication Date Title
JP4790086B2 (ja) 多眼撮像装置および多眼撮像方法
JP5739584B2 (ja) 車両周辺視角化のための3次元映像合成装置およびその方法
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP4886716B2 (ja) 画像処理装置および方法並びにプログラム
US20040061774A1 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
JP6436783B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP2006033570A (ja) 画像生成装置
WO2012057623A1 (en) System and method for imaging and image processing
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
US20210377432A1 (en) Information processing apparatus, information processing method, program, and interchangeable lens
JP2014010783A (ja) 画像処理装置、画像処理方法およびプログラム
JP2023115356A (ja) 計測装置、撮像装置、制御方法及びプログラム
JP2006119843A (ja) 画像生成方法およびその装置
JP2000112019A (ja) 電子3眼カメラ装置
JP7300895B2 (ja) 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
JP6257260B2 (ja) 撮像装置及びその制御方法
JP2023172202A (ja) 画像処理装置、移動体、画像処理方法及びコンピュータプログラム
KR101857977B1 (ko) 플래놉틱 카메라와 깊이 카메라를 결합한 영상 장치 및 영상 처리 방법
JP2013120435A (ja) 画像処理装置および画像処理方法、プログラム
KR101293263B1 (ko) 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
JP5992351B2 (ja) 放射線可視化装置および放射線可視化方法
JP4339749B2 (ja) 画像生成方法および画像生成装置
JPH09229648A (ja) 画像情報入出力装置及び画像情報入出力方法