JP2019185520A - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP2019185520A
JP2019185520A JP2018077449A JP2018077449A JP2019185520A JP 2019185520 A JP2019185520 A JP 2019185520A JP 2018077449 A JP2018077449 A JP 2018077449A JP 2018077449 A JP2018077449 A JP 2018077449A JP 2019185520 A JP2019185520 A JP 2019185520A
Authority
JP
Japan
Prior art keywords
image
distance
dimensional object
conversion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018077449A
Other languages
English (en)
Other versions
JP2019185520A5 (ja
JP7074546B2 (ja
Inventor
樋口 晴彦
Haruhiko Higuchi
樋口  晴彦
田中 和彦
Kazuhiko Tanaka
和彦 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018077449A priority Critical patent/JP7074546B2/ja
Priority to PCT/JP2019/009588 priority patent/WO2019198399A1/ja
Publication of JP2019185520A publication Critical patent/JP2019185520A/ja
Publication of JP2019185520A5 publication Critical patent/JP2019185520A5/ja
Application granted granted Critical
Publication of JP7074546B2 publication Critical patent/JP7074546B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】より精度の高い視点変換画像を得ることができるようにした画像処理装置および方法を提供すること。【解決手段】画像処理装置10は、平面画像を取得する平面画像取得部20と、奥行き情報を有する距離画像を取得する距離画像取得部30と、平面画像から立体物の範囲に相当する立体物領域Ob1,Ob2を抽出する画像認識部と、立体物領域の奥行き情報を距離画像に基づいて算出する距離修正部と、平面画像を所定の視点から見える視点変換画像に座標変換する座標変換情報を、算出された立体物領域の奥行き情報に基づいて補正するテーブル補正部と、補正された座標変換情報を用いて平面画像を座標変換することにより、視点変換画像PG1,PG2を生成する画像変換部と、を備える。【選択図】図1

Description

本発明は、画像処理装置および方法に関する。
車両に設置されたカメラで車両の周囲を撮影し、撮影された画像を変形合成して視点変換画像を生成し、車内に表示する画像表示システムが知られている。このような画像表示システムを利用することにより、運転者は、車両周辺の様子を視認性高く確認することができる。
特許文献1には、第1射影変換を用いて撮影画像から周辺俯瞰画像を生成する周辺俯瞰画像生成部と、車載カメラの視野内に存在する立体物を検知して、当該立体物の位置を含む立体物情報を出力する立体物検知部と、立体物情報に基づいて撮影画像から立体物が写っている画像領域である立体物画像を抽出する立体物抽出部と、周辺俯瞰画像における立体物の歪みを低減する第2射影変換を用いて立体物画像から立体物俯瞰画像を生成する立体物俯瞰画像生成部と、立体物情報に基づき周辺俯瞰画像に立体物俯瞰画像を画像合成する画像合成部を備えた画像生成装置が開示されている。
特開2012−147149号公報
特許文献1に記載の発明では、カメラと立体物を検出するモジュールとで測定する範囲が異なる場合、視点変換画像において立体物の形状に歪みが発生する。距離センサを併用することにより立体形状を再現する手法も考えられるが、歪みの少ない視点変換画像を生成することは困難である。
本発明は上記の課題に鑑みてなされたもので、その目的は、より精度の高い視点変換画像を得ることができるようにした画像処理装置および方法を提供することにある。
上記課題を解決すべく、本発明の一つの観点に従う画像処理装置は、平面画像取得部から取得する平面画像から立体物の範囲に相当する立体物領域を抽出する画像認識部と、前記立体物領域の奥行き情報を、距離画像取得部から取得する奥行き情報を有する距離画像に基づいて算出する距離修正部と、前記平面画像中の一部領域に該当する奥行き情報を前記距離画像中の一部領域から特定する対応付け部と、前記平面画像を所定の視点から見える視点変換画像に座標変換する座標変換情報を、前記算出された前記立体物領域の奥行き情報に基づいて補正するテーブル補正部と、前記補正された座標変換情報を用いて前記平面画像を座標変換することにより、前記視点変換画像を生成する画像変換部と、を備える。
本発明によれば、平面画像から抽出される立体物領域の奥行き情報を距離画像に基づいて算出し、算出された奥行き情報に基づいて座標変換情報を補正することができるため、歪みの発生を抑制した視点変換画像を得ることができる。
画像処理装置のハードウェア構成と処理の概要を示す説明図。 カメラの撮影範囲と距離検出部の測定範囲との関係を模式的に示す説明図であって、図2(1)はカメラの撮影範囲の概念図、図2(2)はカメラの撮影範囲と比較して十分に広い理想的な距離検出部の測定範囲の概念図、図2(3)はカメラの撮影範囲と比較して狭い距離検出部の測定範囲の概念図である。 画像処理装置の機能ブロック図。 画像処理装置を搭載する車両を上方から見下ろした説明図。 車両を側面から見た説明図。 カメラ座標系と仮想視点座標系とワールド座標系の定義を示す説明図。 テーブルデータの例を示す説明図。 テーブルデータの補正の例を示す説明図。 カメラの撮影した平面画像と距離修正部の測定した距離画像との関係を示す説明図であって、図9(1)はカメラの撮影画像を示す図、図9(2)は距離検出部が取得した距離画像を示す図、図9(3)は理想的な距離検出部で取得した距離画像を示す図である。 平面画像内の立体物の奥行き情報(距離情報)を距離検出部で測定した距離画像を利用して補正する様子を示す説明図であって、図10(1)は距離画像中の立体物の輪郭を示す図、図10(2)は立体物に対する距離検出部の測定範囲の境界を示す図、図10(3)はテーブルデータの座標対応画素を重畳した図、図10(4)は距離情報を補正した図である。 画像セグメントの例を示す説明図であって、図11(1)はセグメント分割の例を示す図、図11(2)は各セグメントに識別子を付した図である。 画像処理装置の動作を示すフローチャート。 変形例に係るテーブルデータの例を示す図。
以下、図面に基づいて、本発明の実施の形態を説明する。本実施形態に係る画像処理装置は、例えば、乗用車、バス、トラックなどの自動車、ホイールローダや油圧ショベルなどの建設機械、鉄道車両、飛行ロボット(いわゆるドローン)、人型ロボットなどに用いることができる。さらに、本実施形態に係る画像処理装置は、例えば、住宅、商業施設、工場、倉庫などの建築物の周辺を監視するセキュリティシステムにも適用することができる。以下の説明では、自動車に適用する場合を例に挙げるが、本実施形態は上述のように、自動車以外の製品にも適用可能である。
図1〜図12を用いて第1実施例を説明する。図1は、車両1に搭載される画像処理装置10のハードウェア構成と画像処理の概要とを示す説明図である。
車両1は、例えば、車体、駆動機構、制御機構などを有する。本実施例に係る画像処理装置10は、制御機構の一部として車両1に搭載される。
車両1は、例えば、画像処理装置10と、車両1の前方に設けられる前カメラ20aと、車両1の左側面に設けられる左カメラ20bと、車両1の右側面に設けられる右カメラ20cと、車両1の後方に設けられる後カメラ20dと、距離検出部30と、ユーザインターフェース部(UI部)40とを備える。距離検出部30は、例えば、車両1の前後方および側方の物体を検出できるように、車両1の前後の四隅に配置される。
以下、前カメラ20aと左カメラ20bと右カメラ20cと後カメラ20dとを区別しない場合、カメラ20と呼ぶ。カメラ20は、「画像取得部」の例である。カメラ20は、例えば、CCD(Charge Coupled Device)カメラまたはCMOS(Complementary Metal Oxide Semiconductor)カメラなどの主に可視域を検出する撮像素子と、撮像素子で検出した信号を記録する画像メモリと、検出信号を増幅等する処理回路(いずれも不図示)とを含むことができる。車両1は、さらに、赤外線を検出可能な撮像素子を有するカメラを搭載することもできる。画像処理装置10は、赤外線カメラからの信号を取り込んで画像として処理してもよい。
カメラ20により撮影して得られた画像を撮影画像と呼ぶ。撮影画像は「平面画像」の例である。撮影画像の解像度は、例えばカメラ20に内蔵される撮像素子の数により決定される。カメラ20は、例えば1920×1080の解像度を有する。以下、解像度を空間解像度とも呼ぶ。
カメラの撮影範囲は、例えば、カメラ20に内蔵される撮像素子の大きさとレンズの焦点距離とにより決定される。本実施例では、例えば水平方向に180度の角度で撮影可能であるとする。以下、撮影可能な角度を測定範囲とも呼ぶ。
カメラ20と距離検出部30とは同期して動作しており、同一タイミングで周囲の情報を取得する。画像処理装置10は、カメラ20の撮影画像を用いて、仮想視点53(図5参照)から車両1の周囲を見渡した場合の画像(以下、視点変換画像)を生成する。仮想視点53は、カメラ20の設置位置とは異なる場所(例えば、車両1の上方など)に設定される。
画像処理装置10の生成した視点変換画像は、ユーザインターフェース部40に送られて表示される。ユーザ(ドライバ)は、ユーザインターフェース部40に表示された視点変換画像を見ることにより、車両1の周囲の状況を一目で把握することができる。
カメラ20の車両1への取付位置、および取付姿勢は既知であり、記憶部14に格納されている。
「距離画像取得部」の例である距離検出部30は、車両1の周囲の物体の奥行き情報を、水平方向および垂直方向に(すなわち2次元に)分解能を持った情報として検出する装置である。距離検出部30は、例えば、LiDAR(Light Detection and Ranging)である。LiDAR以外に距離情報を測定可能な装置を用いてもよい。以下、距離検出部30が取得する2次元に分解能を有する距離情報を「距離画像」と呼ぶ。
距離検出部30の測定範囲は、カメラ20の撮影範囲の少なくとも一部と重複する。ただし距離検出部30が取得する距離画像の測定範囲(距離画像取得範囲)は、カメラ20の測定範囲(平面画像取得範囲)よりも狭い。例えば、カメラ20は水平方向x垂直方向が180度x160度の測定範囲を有するのに対して、距離検出部30は120度x120の測定範囲を有する。すなわちカメラ20の測定範囲を第1の測定範囲、距離検出部30の測定範囲を第2の測定範囲と呼ぶと、第2の測定範囲は第1の測定範囲よりも低い。距離検出部30の車両1への取付位置および取付姿勢は既知であり、記憶部14に格納される。
ユーザインターフェース部40は、ユーザとの間で情報を交換する装置である。ユーザインターフェース部40は、ユーザが画像処理装置10へ指示する情報入力部と、画像処理装置10がユーザへ情報を提供する情報出力部とを有することができる。
情報入力部としては、例えば、タッチパネル、キーボード、音声入力装置、手動スイッチ、ブレイン・マシン・インターフェース(Brain-machine Interface:BMI)などを用いることができる。情報出力部としては、例えば、LCD(Liquid Crystal Display)ディスプレイ、プロジェクタ、車両1に搭載されたカーナビゲーション装置の表示部、ヘッドマウントディスプレイなどを用いることができる。
ユーザインターフェース部40は、画像処理装置10と有線または無線で接続されることができる。ユーザインターフェース部40が無線で画像処理装置10と接続される場合には、携帯電話(いわゆるスマートフォンを含む)、ノート型またはタブレット型、ブレスレット型、眼鏡型などの携帯情報端末をユーザインターフェース部40として用いることもできる。
画像処理装置10は、例えば、マイクロプロセッサ(CPU:Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random access memory)13、記憶部14、通信インターフェース15、ユーザインターフェース(UI-IF)16を備えることができる。図示は省略するが、GPU(Graphics Processing Unit)、特定の処理に特化した専用回路、FPGA(Field-Programmable Gate Array)などを備えてもよい。
ROM12には、後述の画像処理動作を実行するコンピュータプログラムなどが記憶されている。記憶部14は、例えば、フラッシュメモリデバイスやハードディスクドライブのように、不揮発性の記憶装置として構成される。記憶部14には、画像変換に使用するテーブルや、カメラ20の取付位置および角度、距離検出部30の取付位置および角度などが記憶されている。
通信インターフェース15は、画像処理装置10と他の装置が情報を交換するための出入り口である。カメラ20および距離検出部30からのデータは、通信インターフェース15を介して、画像処理装置10へ入力される。通信インターフェース15は、例えば、シリアルポートとして構成してもよいし、A/D(Analog / Digital)コンバータなどを含んでもよい。
図1の下側に画像処理装置10による画像処理の概要を示す。車両1の前方に、例えば信号機や樹木などのオブジェクト(三次元対象物)Ob1,Ob2が存在するものとして説明する。
画像処理装置10は、カメラ20から平面画像(撮影画像)21を取得するとともに(S1)、距離検出部30から距離画像31を取得する(S2)。画像処理装置10は、平面画像から立体物であるオブジェクトOb1,Ob2の範囲に相当するセグメントSG1,SG2を抽出する(S3)。平面画像21を複数のセグメントに分割する場合、立体的なオブジェクトOb1,Ob2以外の部分もセグメントとして分割されるが、図1ではその過程を省略して示す。
画像処理装置10は、「立体物領域」としてのセグメントSG1,SG2と距離画像31とを比較することにより、距離画像31のうちセグメントSG1,SG2に対応する領域の距離を求める(S4)。
画像処理装置10は、セグメントSG1,SG2内の未知の距離を、距離画像31の対応部分から得られる既知の距離に基づいて補正(補間)する(S5)。
最後に、画像処理装置10は、平面画像21を仮想視点53から見た場合の視点変換画像に変換する(S6)。オブジェクトOb1,Ob2の輪郭を示すセグメントSG1,SG2は、所定の曲面上に広がるオブジェクトPG1,PG2に変換されて、ユーザインターフェース部40に表示される。
図1では、1つの平面画像から視点変換画像を生成するかのように説明したが、実際には、前後左右の各カメラ20a〜20dで撮影した平面画像のそれぞれについて、距離を検知できなかった領域の距離情報を補正し、補正後の各平面画像を合成して変換することにより視点変換画像を得る。以下、さらに詳細に説明する。
図2(1)は、カメラ20により撮影される測定範囲A20の概念図である。図2(2)は、理想的な距離検出部30rの測定範囲A30rの概念図である。測定範囲A30rは、カメラ20の測定範囲A20と比較して十分に広い。十分に広い測定範囲を持つ距離検出部30rは、説明のために示しており、実際の車両1には搭載されない。図2(3)は、実際に車両1に搭載されている距離検出部30の測定範囲A30の概念図である。測定範囲A30は、カメラ20の測定範囲A20と比較して狭い。
図2(4)は、カメラ20の測定範囲A20と理想的な距離検出部30rの測定範囲A30rとを比較する平面図である。同様に、図2(5)は、カメラ20の測定範囲A20と実際の距離検出部30の測定範囲A30とを比較する平面図である。図2では、視認性向上のために、図2(1)のカメラ20と図2(5)の測定範囲A20とを結ぶ線を省略している。
図2(1)〜(3)は、カメラ20もしくは距離検出部30を水平方向に向けて設置したときの測定範囲を上面図として示した例である。図中のθx_cam、θx_range1、θx_range2はそれぞれ、カメラ20もしくは距離検出部30の水平方向の測定範囲を示す。
ここで、図2(4),(5)では、カメラ20の水平方向の測定範囲は、いずれもθx_camである。しかし、図2(4)では、カメラ20の測定範囲A20よりも理想的な距離検出部30rの測定範囲A30rの方が十分に広い。これに対し、図2(5)では、実際の距離検出部30の測定範囲A30は、カメラ20の測定範囲A20よりも小さい。このため、図2(5)では、カメラ20の測定範囲A20の一部が距離検出部30で網羅できていない。つまり、距離検出部30は、カメラ20の測定範囲A20のうち一部の距離情報のみ取得することができ、残りの部分については距離情報を取得できない。
図2(5)の場合、カメラ20で撮影される立体物の一部は、距離検出部30により距離画像を取得することができないため、その立体形状を検出することができない。本実施例では、カメラ20と比較して測定範囲の狭い距離検出部30を使用するが、後述する手法により、図2(2)に示す測定範囲の広い距離検出部30rを使用する場合と近い結果を得ることができる。
図3は、画像処理装置10の有する機能を示す機能ブロック図である。画像処理装置10は、その機能として、例えば、画像認識部101と、距離修正部102と、テーブル補正部103と、対応付け部104と、画像変換部105と、ユーザインターフェース制御部106とを備える。
「座標変換情報」の例であるテーブルデータ107は、記憶部14に格納される情報である。テーブルデータ107は、俯瞰画像や鳥瞰画像などの視点変換画像を生成する際に用いられるルックアップテーブルである。テーブルデータ107は、画像処理装置10を含むシステムの設計段階において、車両1に設置するカメラ20の位置および角度と、仮想視点53の位置および角度と、撮像条件とにより予め作成される。テーブルデータ107は、カメラ20のそれぞれについて視点変換を行う仮想視点ごとに存在する。以下では、主に一つのカメラ(例えば前カメラ20a)についての、或る1つの仮想視点53を例に挙げて説明する。
画像認識部101は、カメラ20の撮影した画像(平面画像)を処理対象とし、撮影画像に含まれる被写体ごとの輪郭(立体物領域)を抽出して、撮影画像を複数の領域に分割するセグメント分割処理を行う。
以下の説明では、画像認識部101が行うセグメント分割処理によって撮影画像内に設定される各領域を「セグメント」と称する。本処理における被写体の輪郭抽出は、既知の輪郭検出法に基づいてもよい。あるいは、撮影画像の色情報を解析し、輝度、色相、彩度、および明度の類似性から撮影画像を複数の領域に分割して各領域の輪郭を抽出する方法を採用することもできる。
距離画像認識部108は、距離検出部30の検出した距離画像を処理対象とし、距離画像から距離情報の変化を抽出することにより、距離画像を複数の領域に分割するセグメント分割処理を行う。以下の説明では、距離画像認識部108が行うセグメント分割処理によって距離画像内に設定される各領域を「距離画像セグメント」と称する。距離画像セグメントの分割方法としては、例えば、距離情報から得られる3次元情報を解析して平面、立体形状を推測し、形状から各領域を抽出する方法を採用することができる。
距離修正部102は、画像認識部101の認識結果に含まれる立体物に対応するセグメント、すなわち被写体が立体物である領域が存在する場合に、当該セグメントについて、距離を補正する。距離修正部102は、後述するそれぞれの座標対応点を対象として、距離検出部30の測定値である距離を補正する。距離修正部102により補正された距離を、以後は「立体物距離」と呼ぶ。
テーブル補正部103は、距離修正部102が算出した立体物距離を用いて、テーブルデータ107を書き換える。
対応付け部104は、カメラ20および距離検出部30の、それぞれの車両1への取付位置および取付姿勢に基づいて、撮影画像と距離画像とを対応付ける。例えば、対応付け部104は、撮影画像上の或る領域に対応する距離画像上の領域を算出し、あるいは、距離画像上の或る領域に対応する撮影画像上の領域を算出する。
画像変換部105は、テーブル補正部103により書き換えられたテーブルデータ107を用いてカメラ20の撮影画像を変換することにより、カメラ20の撮影画像を組み合わせて仮想視点53における視点変換画像を生成する。
ユーザインターフェース制御部106は、画像変換部105により生成された視点変換画像をユーザインターフェース部40に出力して表示させる。
(動作環境)
図4および図5は、画像処理装置10の動作環境を説明する。図4は、画像処理装置10を搭載する車両1を上部から見下ろした図である。図5は、車両1を側面から見た図である。
車両1は、車両通行帯を示す白線である直線LL,LRに挟まれた領域に存在する。車両1の前方正面の地面にはマーカ52が設置されている。車両1の前方左には、樹木のような立体物51がある。
車両1の前部には前カメラ20aが設置されている。前カメラ20aの光軸は、車両1の前方の路面に向けられており、立体物51およびマーカ52をその撮影範囲内に捉えている。
同様に、車両1の左部、右部および後部には、それぞれ左カメラ20b、右カメラ20c、および後カメラ20dが設置されている。各カメラ20b,20c,20dの光軸は、それぞれ車両1の左方、右方、後方の路面に向けられている。
本実施例のカメラ20は、広角レンズを備えており、約180度の画角を有する。カメラ20および距離検出部30の、設置位置および設置角度は、車両1の設計段階において予め定められており、既知である。その値は記憶部14に格納されている。
図5に示す仮想視点53は、車両1の前方上部から真下を撮像することにより、車両1の前方を俯瞰する視点である。以下、図5に示す状況において、仮想視点53から得られる画像の作成方法を説明する。図1でも述べたように、画像処理装置10は車両1の前後左右にそれぞれカメラ20a〜20dを備えるが、ここでは、主に前カメラ20aの撮影画像を変換する場合を代表して説明する。
(座標変換)
図6は、カメラ座標系、仮想視点座標系、およびワールド座標系の定義を示す説明図である。
カメラ座標系とは、画像を撮影するカメラ20を基準とする座標系である。図6には、前カメラ20aを基準とするカメラ座標系Rの3軸、すなわちXr,Yr,Zrが示されている。
仮想視点座標系とは、予め定められた仮想視点53を基準とする座標系である。図6には、仮想視点53を基準とする仮想視点座標系Vの3軸、すなわちXv,Yv,Zvが示されている。
ワールド座標系とは、車両1が走行する路面を基準に設定された座標系である。図6には、ワールド座標系Wの3軸、すなわちXw,Yw,Zwが示されている。XwおよびYwは路面に平行であり、Zw=0の基準高さ平面501に路面が含まれる。
カメラ座標系Rの1つの軸Zrは、前カメラ20aの光軸と一致しており、すなわち撮像素子と直交する。他の軸Xrおよび軸Yrは、前カメラ20aの撮像素子の長辺および短辺と平行である。カメラの焦点距離zrを用いて表すと、撮影画像502を構成する各画素の位置は、Zr=zrに位置するXrYr平面上の座標データで表現される。すなわち、カメラ座標系Rは、撮影画像502の座標系と等しい。
仮想視点座標系の軸Zvは、仮想視点53に置かれた仮想的なカメラの光軸と一致しており、すなわち仮想的な撮像素子と直交する。他の軸Xvおよび軸Yvは、仮想的な撮像素子の長辺および短辺と平行である。仮想視点53に置かれるカメラの焦点距離zvを用いて表すと、視点変換画像503を構成する各画素の位置は、Zv=zvに位置するXvYv平面上の座標データで表現される。すなわち、仮想視点座標系Vは、視点変換画像503の座標系と等しい。
ここで、或る点Pをワールド座標系Wでは点Pwと呼び、その座標を(xw、yw、zw)と表す。前カメラ20aにより点Pwを撮影した際の撮影画像における点を点Prと呼び、点Prの座標を(xr、yr、zr)と表す。仮想視点53から得られる画像における点を点Pvと呼び、Pvの座標を(xv、yv、zv)と表す。
ワールド座標系Wにおける点Pwの座標(xw、yw、zw)をカメラ座標系Rの点Prの座標(xr、yr、zr)に座標変換するには、例えば、数1に示すようなアフィン変換が用いられる。
Figure 2019185520
ここで、Mrは、数2に示されるような4×4の透視投影変換行列である。
Figure 2019185520
数2において、Rrは3×3の回転行列、Trは1×3の平行移動行列、0は3×1の零行列である。回転行列Rrおよび平行移動行列Trは、ワールド座標系上でのカメラ20aの設置位置および設置角度、カメラ20aの内部パラメータである焦点距離および撮像素子の有効画素サイズなどに基づいて、周知な方法で算出される。
ワールド座標系Wの点Pwの座標(xw、yw、zw)を仮想視点座標系Vの点Pvの座標(xv、yv、zv)に座標変換するには、例えば、数3に示すようなアフィン変換が用いられる。
Figure 2019185520
ここで、Mvは、数4に示されるような4×4の透視投影変換行列である。
Figure 2019185520
数4において、Rvは3×3の回転行列、Tvは1×3の平行移動行列、0は3×1の零行列である。回転行列Rvおよび平行移動行列Tvは、ワールド座標系上での仮想視点53の位置および角度、仮想視点53の仮想的な焦点距離および撮像素子の有効画素サイズなどに基づいて周知な方法で算出される。
上述した数1と数3とを組み合わせると、カメラ座標系Rの点Prの座標を仮想視点座標系Vの点Pvの座標に座標変換するための式(数5)が得られる。
Figure 2019185520
数5では、透視投影変換行列Mrの逆行列によりカメラ座標系Rの点Prの座標をワールド座標系の点Pwの座標に座標変換し、その点Pwの座標を透視投影変換行列Mvにより仮想視点座標系Vの点Pvの座標(xv,yv,zv)に座標変換している。数5による座標変換結果を用いて、視点変換画像503の点Pvの画素値を、対応する撮影画像502の点Prの画素値から算出することができる。
ただしカメラ20の撮影画像からは、被写体までの距離情報が得られないので、例えば点Pwが路面上、すなわちzw=0の平面上にあると仮定することで視点変換画像503の点Pvの画素値を算出することができる。そして路面上にない被写体が撮影された領域のみ視点変換画像503の点Pvの画素値を改めて計算する。
例えば撮影画像502における点Prが路面上の点Pwではなく、Zw=zw1(≠0)の平面上に存在する点Pw1であった場合は、視点変換画像503における対応点は点Pvではなく点Pv1となる。カメラ20の撮影画像の被写体が路面上に存在するか否かは、被写体までの距離により判断可能である。また被写体が路面上に存在しない場合は、その距離情報を用いることで視点変換画像503における対応点を算出可能である。
図6を参照して対応点の算出の例を説明する。まず画像処理装置10は、ワールド座標系におけるカメラ座標系Rの原点位置と、点Prの座標の幾何的な関係と、距離修正部102が算出した被写体までの距離情報とを用いて、被写体の基準高さ平面501からの高さ、すなわち点Pw1のZ座標であるzw1の値を算出する。
画像処理装置10は、点Pw1の基準高さ平面上の位置、すなわち点Pw1のX座標およびY座標を算出する。そして、画像処理装置10は、カメラ53の位置と、算出した点Pw1の位置から視点変換画像503における対応点Pv1の座標とを算出して、テーブルデータ107を補正する。
(テーブルデータ)
記憶部14に格納される各テーブルデータ107は、予め被写体がすべて路面上に存在するとの仮定の下で計算された、撮影画像上の点Prと視点変換画像上の点Pvとの対応関係を複数組について記述したものである。換言すると、テーブルデータ107は、被写体が基準高さ平面501内に存在することを前提に算出されている。
すなわち、カメラ座標系Rの所定の点Pr1の座標(xr1,yr1)、Pr2の座標(xr2,yr2)、・・・をそれぞれ上述の数5で仮想視点座標系Vの対応点への座標に変換して得られたものである。
ここで、2つの座標系で対応する点同士、すなわち画素同士の対応関係を座標対応情報と呼び、この座標対応情報がテーブルデータ107として作成されている。なお、テーブルデータ107においては、カメラ20aの焦点距離等が固定されているものとして、Zr座標の情報は省略されている。
以降の説明では、撮影画像502および視点変換画像503の画素のうち、テーブルデータ107に座標対応情報が記憶されている画素を座標対応画素、あるいは座標対応点と呼ぶ。すなわち、撮影画像502および視点変換画像503には、複数の座標対応点が予め設定されている。
テーブルデータ107を予め記憶部14に記憶しておき、視点変換画像503を作成する際に参照することで、上述した数5の演算回数を低減することができ、座標変換に要する処理時間を短縮することができる。
なお、テーブルデータ107に予め記憶しておく座標対応情報が増加するほど、テーブルデータ107のデータ量が増加する。そこで、テーブルデータ107のデータ量を削減するため、撮影画像502の一部の画素についてのみ座標対応情報を予め記憶し、他の画素については補間処理により点Pvの画素値を算出してもよい。テーブルデータ107は、カメラ20のレンズの歪みなどを考慮して作成されてもよい。
上述の通り、テーブルデータ107は、予め被写体がすべて路面上に存在するとの仮定の下で計算されている。そのため、被写体が路面上に存在しない場合、すなわち高さを有する立体物である場合は、距離情報に基づき計算を行いテーブルデータ107を書き換える必要がある。以下では、このテーブルデータ107の書き換えを、テーブルデータ107の補正とも呼ぶ。
本実施例では、テーブル補正部103がテーブルデータ107を補正する。すなわちテーブル補正部103は、テーブルデータ107における立体物51の領域に含まれる座標対応点を補正する。以下、補正対象の座標対応点を「補正対象座標対応点」と呼ぶ。
図7は、テーブルデータ107の一例を示す。テーブルデータ107は、撮影画像502の離散的な画素の座標と、その座標に対応する視点変換画像503の画素の座標との対応関係を定義する座標対応テーブルである。図7では、「対応関係番号」で示す各画素の座標対応情報が示されている。画像処理装置10は、撮影画像502の各画素の座標ごとにテーブルデータ107を参照することにより、対応する視点変換画像503の画素の座標を演算する。
図8は、テーブルデータ107から補正対象座標対応点を抽出し、補正前後の座標を示したテーブル107aである。テーブル107aでは、テーブルデータ107の補正に必要な立体物距離も併記している。図8に示すテーブル107aは、説明のために例示したにすぎず、RAM13や記憶部14に格納される必要はない。
本実施例では、テーブル補正部103がテーブルデータ107の各座標対応点に関する座標対応情報のうち、上記の補正対象座標対応点に関する座標対応情報を補正することで、テーブルデータ107を補正する。
具体的には、補正対象座標対応点o1、o2、o3、・・・、oiについて、これらの視点変換画像上の座標、すなわち仮想視点座標系Vにおける座標である、(xv_o1,yv_o1)、(xv_o2,yv_o2)、(xv_o3,yv_o3)、・・・、(xv_oi,yv_oi)を、(xv_o1’,yv_o1’)、(xv_o2’,yv_o2’)、(xv_o3’,yv_o3’)、・・・、(xv_oi’,yv_oi’)にそれぞれ補正する。前述の通り、テーブル補正部103は、立体物距離を用いて補正する。
仮に、カメラ20aの撮影画像の全領域に立体物が撮影されていた場合は、テーブルデータ107の全ての座標対応点について、視点変換画像上の座標が書き換えられることとなる。しかしこの場合でも、テーブルデータ107における撮影画像上の座標は書き換えられない。
(距離画像と補正の必要性)
図9(1)は、前カメラ20aの撮影画像505を示す。図9(2)は、距離検出部30が取得した距離画像506を示す図、図9(3)は理想的な距離検出部で取得した距離画像507を示す図である。図9(2),(3)では、距離を濃淡で表している。
図9(1)に示すように、撮影画像505には、左手に位置する立体物51と、中央の下から上へ延びる白線LL,LRとが含まれている。図9(1)の下部には、マーカ52があり、図9(1)の上部には地平線54がある。
図9(2)に示すように、距離検出部30が取得した距離画像506では、図2にて示したように撮影画像505のうちの一部が測定されている。立体物51は、符号510で示すようにその一部が欠けて示されている。これは、距離検出部30の測定範囲が前カメラ20aの測定範囲(撮影範囲、平面画像取得範囲)よりも狭いためである。
もしも仮に、図2(2)で述べた理想的な距離検出部30rを用いることができるならば、図9(3)に示す距離画像507が得られる。理想的な距離画像507では、符号511で示すように、立体物51の全体形状が測定される。
図10(1)は、図9(2)の符号510付近を拡大し、立体物51の輪郭を重畳した図である。図10(2)は、図10(1)において測定範囲の境界を示す図である。図10(3)は、図10(2)の図に対して、テーブルデータ107の座標対応画素を重畳した図である。
図10(3)における座標対応画素は、バツ印(×)、丸印(○)、三角印(△)の3種類で示している。バツ印は、距離情報が得られている点を示す。丸印は、立体物51に該当する箇所であって、距離情報が得られていない点を示す。三角印は、地面に該当する箇所であって、距離情報が得られていない点を示す。
例えば符号512で示す丸印は、立体物51の一部なので、立体物51の他の部位と略同一の距離に認識されるべきである。符号513で示す三角印の点は、地面に含まれる点であるため、符号55で示す地面部分と略同一の距離に認識されるべきである。
そこで、距離修正部102は、後述する処理により、図10(4)に示すように、距離情報を補正する。すなわち、距離修正部102により、図8に示した立体物距離が算出される。テーブル補正部103は、算出された立体物距離を用いて、テーブルデータ107を補正する。これにより、テーブルデータ107の全ての座標対応画素において、適切な変換が行われる。
(画像認識部の動作例)
図9(1)および図11を参照して、画像認識部101の動作例を説明する。画像認識部101は、図9(1)に示すカメラ20aの撮影画像505を処理対象として、前述の色情報を用いた手法等によるセグメント分割処理により、撮影画像を複数の領域、すなわちセグメントに分割する。
図11(1)では、立体物51が符号601で示す1つの領域と認識されており、マーカ52が符号603で示すように4つの領域に認識されている。符号602,604は、道路の白線に対応する。符号600は地平線に対応する。
図11(2)は、図11(1)に示すそれぞれのセグメントに便宜的に記号を付した図である。図11(2)に示すように、画像認識部101により撮影画像はSG11〜SG19の9セグメントに分割されている。ただし、このセグメント分割では、各セグメントが立体物と路面のどちらであるかは区別されていない。
(距離修正部の動作)
距離修正部102は、セグメントごとに、そのセグメント内の座標対応点の距離を、次の3つのいずれかの方法で修正する。
第1の方法は、単純平均である。距離修正部102は、セグメント内の全ての座標対応点の距離情報の平均値を算出し、この平均値を処理対象セグメント内の全ての座標対応点の立体物距離とする。すなわち第1の方法によれば、セグメント内の全ての座標対応点は同一の立体物距離を有する。第1の方法を用いると、図10(3)のバツ印のうち立体物51に該当する距離情報がdn(nは立体物51に含まれるバツ印の個数)であるとき、図10(3)の丸印512には距離情報の平均値であるΣdn/nを与えることとなる。
第2の方法は、1次近似である。距離修正部102は、セグメント内の座標対応点について、それぞれの座標値と距離情報の相関を一次関数で近似する。距離修正部102は、その近似式に基づき、それぞれの座標対応点の立体物距離を決定する。すなわち第2の方法によれば、例えば、車両1に対して斜めに正対する壁の距離などを正確に算出することができる。第2の方法を用いると、図10(3)のバツ印のうち立体物51に該当する距離情報dn(nは立体物51に含まれるバツ印の個数)に対し最小二乗法を用いて、座標値(x,y)に対する距離情報dをd=f(x,y)として近似できるとき、図10(3)の丸印512の距離情報もf(x,y)を用いてから求めることとなる。
第3の方法は、多次元近似である。第3の方法は、第2の方法における近似を2次以上の多次元関数とするものである。第3の方法によれば、複雑な形状を有する物体の距離も正確に算出できる。
たとえば、図6に示すワールド座標系において距離検出部30を点S(xs,ys,zs)に設置したとき、撮影画像502中の点Prに対応する距離情報を示す点Pw1の座標は次のように求めることができる。点Sから点Pw1に引く線分がなす方位角をθa(Yx軸と平行のときα=0)、仰角をθeとすると、線分の長さである距離情報dを用いてxw1=d・cosθe・sinθa+xs、yw1=d・cosθe・cosθa+ys、zw1=R・sinθe+zsとして得ることができる。このとき、数1、数3に示すアフィン変換は、図6に示す各座標値を用いて、それぞれ数6、数7のように表すことができる。
Figure 2019185520
Figure 2019185520
数6と数7を組み合わせて、撮影画像502の点Prを視点変換画像503の点に座標変換する式(数8)が得られる。
Figure 2019185520
以上より、距離情報を用いることにより、撮影画像502中の点Prは視点変換画像503において、点Pvから点Pv1に補正されることとなる。
(画像処理装置の動作)
図12を参照して、視点変換画像をユーザインターフェース部40に表示する際の画像処理装置10の動作を説明する。以下に説明する画像処理装置10の動作は、所定の時間ごとに実行される。以下に説明する各ステップの実行主体は、CPU11である。但し、図12に示すステップ図は一例であり、以下に記載する処理が実現できるのであれば例えばS11とS12の順番が逆であってもよい。
まず始めに、CPU11は、距離検出部30から距離画像を取得する(S11)。CPU11は、カメラ20から撮影画像を取得する(S12)。CPU11は、ステップS12で取得した距離画像を画像認識部101に処理させることにより、セグメント分割を実行させる(S13)。ステップS13の例は、図11で説明したとおりである。
CPU11は、以下に説明するステップS15〜S18を、ステップS13で算出された各セグメントに対して順番に実行する(S14)。全てのセグメントについて、平行してS15〜S18の処理を実行してもよい。ここでは、処理対象を変化させて1つずつ順番にセグメントを処理する例を説明する。処理対象のセグメントを処理対象セグメントと呼ぶ。
CPU11は、処理対象セグメント内の距離情報に基づいて、その処理対象セグメントが立体物に対応する領域であるか、それとも路面に対応する領域であるかを判断する(S15)。
処理対象セグメントが立体物であるか否かの判断は、例えば以下のように行うことができる。すなわち、カメラ20の取付位置および取付姿勢は既知なので、対応付け部104は、撮影対象を路面と仮定することにより、撮影画像内の位置と距離との関係を予め算出できる。したがって、セグメント内の距離情報と、そのセグメントの撮影画像内の位置から算出される前述の距離との差を比較することにより、そのセグメントにおける被写体が路面であるか否か判断できる。
CPU11は、処理対象セグメントにおける被写体が立体物であると判断する場合はステップS16に進み、そのセグメントにおける被写体が路面であると判断する場合はステップS18に進む。距離が無限大または測定不能であると判定された場合および処理対象セグメントの被写体が空であると判断する場合は、ステップS18に進む。
ステップS16において、CPU11は、距離修正部102を用いて処理対象セグメント内の全ての座標対応点の距離情報を修正する。すなわちCPU11は、立体物距離を算出する。
続いてCPU11は、テーブル補正部103に対し、テーブルデータ107における処理対象セグメント内の全ての座標対応点について書き換えさせ(S17)、その後ステップS19へ進む。
ただしステップS17において補正されたテーブルデータ107は、後述するステップS19の実行完了後に破棄されるものである。すなわち、ステップS17の処理は、テーブルデータ107の一時的なコピーに対する補正である。
ステップS15において、処理対象セグメントが路面であると判断されると、ステップS18が実行される。この場合、CPU11は、テーブル補正部103にテーブルデータ107を補正させることなく、ステップS19へ進む。すなわちステップS18では、特段の処理を行わないので、ステップS15において路面であると判断された場合(S15:NO)、そのままステップS19へ進んでもよい。
ステップS18では、CPU11は、全てのセグメントを処理対象としたか否かを判断する。CPU11は、未処理のセグメントが存在すると判断すると、そのセグメントを処理対象に設定してステップS15へ戻る。CPU11は、全てのセグメントを処理対象にしたと判断すると、ステップS19へ進む。
ステップS19において、CPU11は、ステップS17で画像変換部105により補正されたテーブルデータ107を用いることにより、カメラ20の撮影画像を仮想視点53から見た視点変換画像に変換する。そして、ステップS19では、ユーザインターフェース制御部106が視点変換画像をユーザインターフェース部40に出力し、本処理を終了する。
このように構成される本実施例によれば、以下の作用効果を奏する。
本実施例に係る画像処理装置10は、撮影画像を取得するカメラ20と、距離画像を取得する距離検出部30と、撮影画像において立体物に対応する立体物領域を含む領域を抽出する画像認識部101と、距離画像に基づき立体物領域の奥行き情報を算出する距離修正部102と、撮影画像を座標変換するための座標変換情報であるテーブルデータ107を距離修正部102が算出した立体物領域の奥行き情報に基づき補正するテーブル補正部103と、テーブル補正部103により補正されたテーブルデータ107を用いて撮影画像を座標変換した視点変換画像を生成する画像変換部105と、を備える。したがって、本実施例によれば、距離画像の値を利用して平面画像中の立体物領域を立体的に処理し、視点変換画像を得ることができる。
本実施例に係る画像処理装置10では、距離検出部30が距離画像を取得する距離画像取得範囲A30は、カメラ20が平面画像を取得する平面画像取得範囲A20よりも小さく、かつ、平面画像取得範囲A20の一部に重なるように設定されている。したがって、本実施例の画像処理装置10によれば、カメラ20と比較して測定範囲が狭い距離画像を用いる場合でも、距離画像の測定範囲を超えた広範囲の立体物について高精度な視点変換画像を生成することができる。
本実施例に係る画像認識部101は、撮影画像の輝度、明度、彩度、および明度の少なくとも1つに基づき立体物領域を含む複数のセグメントの輪郭を抽出する。そのため画像認識部101は撮影画像を容易に立体物領域を含む複数のセグメントに分割することができる。
本実施例では、テーブルデータ107は、撮影画像上の変換元座標と視点変換画像上の変換先座標との組み合わせを複数含む。テーブル補正部103は、距離画像における立体物領域の距離情報に基づき、図8に示すように変換先座標、すなわち視点変換画像上の座標を補正する。これにより本実施例では、距離画像を取得していない測定範囲外についても距離情報を与えることができる。
本実施例では、テーブルデータ107は、撮影画像における被写体が路面上の領域であることを前提として予め作成される。画像認識部101は、撮影画像に含まれる被写体ごとに撮影画像を複数のセグメントに分割する。テーブル補正部103は、距離画像に基づき複数のセグメントが立体物領域であるか否かをそれぞれ判断し(図12のS15)、立体物領域であると判断したセグメント内の変換元座標に対応する変換先座標をテーブルデータ107において補正する(S17)。これにより本実施例では、立体物ではない領域についてはテーブルデータ107の補正を行う必要がなく、処理時間を短縮することができる。
本実施例では、テーブルデータ107は、撮影画像の被写体が基準高さ平面内に存在することを前提に算出される。テーブル補正部103は、距離修正部102が算出した立体物領域の奥行き情報を用いて被写体の基準高さ平面501からの高さ、および被写体の基準高さ平面上の位置を算出する。さらにテーブル補正部103は、視点変換の基準位置、算出した被写体の基準高さ平面からの高さ、および算出した被写体の基準高さ平面上の位置を用いてテーブルデータ107を補正する。
(変形例1)
第1実施例の変形例を説明する。以下、第1実施例との相違を中心に述べる。第1実施例におけるテーブルデータ107は、上述した数5により表される撮影画像上の点Prと視点変換画像上の点Pvとの対応関係を示すものであった。
しかし、テーブルデータ107は、数1により表される撮影画像上の点Prと三次元空間上の点Pwとの対応関係を示すものであってもよい。本変形例におけるテーブルデータを第1実施例におけるテーブルデータ107と区別するために、以下ではテーブルデータ107bと呼ぶ。
本変形例においては、テーブルデータ107bを補正することにより、3次元区間上に投影される撮影画像が変形される。画像変換部105は、3次元空間上に投影された撮影画像を仮想視点から撮影した画像、すなわち視点変換画像を作成する。
図13は、テーブルデータ107bの一例を示す。テーブルデータ107bは、数1により表される撮影画像502上の点Prと三次元空間上の点Pwとの対応関係を示すものである。ただし本変形例では、補正前のテーブルデータ107bにおいて、3次元空間上の点PwのZw座標の値は全てゼロである。すなわち補正前のテーブルデータ107bは、撮影画像502上の点Prと三次元空間上のZw=0の平面上の点Pwとの対応関係を示す。
このように構成される本変形例によれば、事前に想定していない仮想視点がユーザにより設定された場合であっても、テーブルデータ107bを用いて視点変換画像を作成することができる。
(変形例2)
第2の変形例を説明する。第1実施例のテーブルデータ107は、被写体がすべて路面上に存在するとの仮定の下で予め作成されていた。しかし、テーブルデータ107を予め作成せず随時作成してもよい。この場合、図12に示す処理において、テーブルデータ107が作成される。すなわちステップS17において、テーブルデータ107のうち該当する箇所が作成される。テーブルデータ107を随時作成することにより、記憶領域の使用量を低減することができる。
(変形例3)
第3変形例を説明する。第1実施例では、車両1は前カメラ20a、左カメラ20b、右カメラ20c、および後カメラ20dの4つのカメラを備えた。しかし車両1は少なくとも1つのカメラを備えればよい。車両1は、5つ以上のカメラを備えてもよい。
(変形例4)
第4変形例を説明する。第1実施例では、画像認識部101がセグメント分割処理を行うことで撮影画像を複数の領域に分割する。そして、第1実施例では、立体物に対応する領域の座標対応点を処理対象として、テーブル補正部103がテーブルデータ107の補正を行う。
これに代えて、画像認識部101は、撮影画像内で立体物に対応する領域のみを特定してもよい。例えば、距離画像において奥行き情報が段階的に変化していない部分を抽出し、その部分に対応する同一被写体の領域を撮影画像において特定することで、立体物に対応する領域を撮影画像内で特定することが可能である。
(変形例5)
第5変形例を説明する。第1実施例では、テーブルデータ107は、被写体がすべて路面上に存在するとの仮定の下で予め作成されていた。しかし、一定の立体形状に沿って存在するとの仮定の下でテーブルデータ107を予め作成してもよい。例えば、車両中心を原点とした球を設定して、テーブルデータ107を作成しても良い。
なお、本発明は上記各実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記各実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
上記の各構成、機能、処理部、および処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。
上記の各構成、および機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれる。さらに特許請求の範囲に記載された構成は、特許請求の範囲で明示している組合せ以外にも組み合わせることができる。
1:車両、10:画像処理装置、20a〜20d,20:カメラ、30:距離検出部、40:ユーザインターフェース部、101:画像認識部、102:距離修正部、103:テーブル補正部、104:対応付け部、105:画像変換部、106:ユーザインターフェース制御部、107:テーブルデータ、108:距離画像認識部

Claims (13)

  1. 平面画像取得部から取得する平面画像から立体物の範囲に相当する立体物領域を抽出する画像認識部と、
    前記立体物領域の奥行き情報を、距離画像取得部から取得する奥行き情報を有する距離画像に基づいて算出する距離修正部と、
    前記平面画像中の一部領域に該当する奥行き情報を前記距離画像中の一部領域から特定する対応付け部と、
    前記平面画像を所定の視点から見える視点変換画像に座標変換する座標変換情報を、前記算出された前記立体物領域の奥行き情報に基づいて補正するテーブル補正部と、
    前記補正された座標変換情報を用いて前記平面画像を座標変換することにより、前記視点変換画像を生成する画像変換部と、
    を備える画像処理装置。
  2. 前記距離画像取得部が前記距離画像を取得する距離画像取得範囲は、前記平面画像取得部が前記平面画像を取得する平面画像取得範囲よりも小さく、かつ、前記平面画像取得範囲の一部に重なるように設定されている、
    請求項1に記載の画像処理装置。
  3. 前記画像認識部は、前記平面画像の輝度、明度、彩度、または明度のうち少なくとも1つに基づいて、前記立体物領域を含む複数の領域の輪郭を抽出する、
    請求項1または2のいずれか一項に記載の画像処理装置。
  4. 前記座標変換情報は、前記平面画像上の変換元座標と前記視点変換画像上の変換先座標との組み合わせを複数含み、
    前記テーブル補正部は、前記算出された立体物領域の奥行き情報に基づいて、前記変換先座標を補正する、
    請求項1または2のいずれか一項に記載の画像処理装置。
  5. 前記座標変換情報は、前記平面画像が地面の被写体を写した画像であるとして予め作成されており、
    前記画像認識部は、前記平面画像に含まれる前記被写体ごとに、前記平面画像を複数の領域に分割し、
    前記テーブル補正部は、前記距離画像に基づいて、前記分割された複数の領域が前記立体物領域であるか否かを判断し、前記立体物領域であると判断した領域について、当該領域内の前記変換元座標に対応する前記変換先座標を補正する、
    請求項4に記載の画像処理装置。
  6. 前記座標変換情報は、前記平面画像上の変換元座標と前記視点変換画像上の変換先座標との組み合わせを複数含み、
    前記テーブル補正部は、前記変換元座標を前記立体物領域の輪郭の所定範囲内に位置するように補正する、
    請求項1または2のいずれか一項に記載の画像処理装置。
  7. 前記テーブル補正部は、前記立体物領域の輪郭の前記所定範囲内であって、前記立体物領域の外部または内部の少なくともいずれかに前記変換元座標を配置する、
    請求項6に記載の画像処理装置。
  8. 前記座標変換情報は、前記平面画像内の被写体が予め設定される基準高さを持つ基準高さ平面内に存在することを前提に算出されており、
    前記テーブル補正部は、
    前記距離修正部が算出した前記立体物領域の奥行き情報を用いることにより、前記被写体の前記基準高さ平面からの高さ、および前記被写体の前記基準高さ平面上での位置を算出し、
    視点変換の基準位置と、算出した前記被写体の前記基準高さ平面からの高さと、算出した前記被写体の前記基準高さ平面上での位置とを用いることにより、前記座標変換情報を補正する、
    請求項1または2のいずれか一項に記載の画像処理装置。
  9. 前記所定の視点は、前記平面画像取得部の視点と異なるように設定される仮想的な視点である、
    請求項1または2のいずれか一項に記載の画像処理装置。
  10. 前記平面画像取得部が前記平面画像を取得する際の解像度は、前記距離画像取得部が前記距離画像を取得する際の解像度よりも大きく設定されており、
    前記距離修正部は、前記立体物領域の奥行き情報を前記距離画像に基づいて補間して算出する、
    請求項1または2のいずれか一項に記載の画像処理装置。
  11. 前記視点変換画像を表示部に表示させる表示制御部をさらに備える、
    請求項1または2のいずれか一項に記載の画像処理装置。
  12. 画像を処理する画像処理方法であって、
    カメラを用いて平面画像を取得し、
    距離検出部を用いて奥行き情報を有する距離画像を取得し、
    前記平面画像から立体物の範囲に相当する立体物領域を抽出し、
    前記立体物領域の奥行き情報を前記距離画像に基づいて算出し、
    前記算出された前記立体物領域の奥行き情報に基づいて前記平面画像を座標変換することにより、所定の視点から見える視点変換画像を生成する、
    画像処理方法。
  13. 前記距離画像を取得する距離画像取得範囲は、前記平面画像を取得する平面画像取得範囲よりも小さく、かつ、前記平面画像取得範囲の一部に重なるように設定される、
    請求項12に記載の画像処理方法。
JP2018077449A 2018-04-13 2018-04-13 画像処理装置および方法 Active JP7074546B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018077449A JP7074546B2 (ja) 2018-04-13 2018-04-13 画像処理装置および方法
PCT/JP2019/009588 WO2019198399A1 (ja) 2018-04-13 2019-03-11 画像処理装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077449A JP7074546B2 (ja) 2018-04-13 2018-04-13 画像処理装置および方法

Publications (3)

Publication Number Publication Date
JP2019185520A true JP2019185520A (ja) 2019-10-24
JP2019185520A5 JP2019185520A5 (ja) 2021-04-15
JP7074546B2 JP7074546B2 (ja) 2022-05-24

Family

ID=68163565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077449A Active JP7074546B2 (ja) 2018-04-13 2018-04-13 画像処理装置および方法

Country Status (2)

Country Link
JP (1) JP7074546B2 (ja)
WO (1) WO2019198399A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436241B (zh) * 2021-06-25 2023-08-01 兰剑智能科技股份有限公司 一种采用深度信息的干涉校验方法及系统
CN115434519B (zh) * 2022-09-29 2023-08-22 中铁八局集团第一工程有限公司 电动式钢筋预绑扎台车

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118415A (ja) * 2007-11-09 2009-05-28 Alpine Electronics Inc 鳥瞰画像生成装置および方法
JP2011188335A (ja) * 2010-03-10 2011-09-22 Clarion Co Ltd 車両用周囲監視装置
JP2012147149A (ja) * 2011-01-11 2012-08-02 Aisin Seiki Co Ltd 画像生成装置
JP2018014583A (ja) * 2016-07-20 2018-01-25 クラリオン株式会社 画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118415A (ja) * 2007-11-09 2009-05-28 Alpine Electronics Inc 鳥瞰画像生成装置および方法
JP2011188335A (ja) * 2010-03-10 2011-09-22 Clarion Co Ltd 車両用周囲監視装置
JP2012147149A (ja) * 2011-01-11 2012-08-02 Aisin Seiki Co Ltd 画像生成装置
JP2018014583A (ja) * 2016-07-20 2018-01-25 クラリオン株式会社 画像処理装置

Also Published As

Publication number Publication date
JP7074546B2 (ja) 2022-05-24
WO2019198399A1 (ja) 2019-10-17

Similar Documents

Publication Publication Date Title
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP5491235B2 (ja) カメラキャリブレーション装置
JP5944687B2 (ja) 外因パラメータのみのサラウンドビューカメラ自動較正
JP5208203B2 (ja) 死角表示装置
US20100246901A1 (en) Operation Support System, Vehicle, And Method For Estimating Three-Dimensional Object Area
US9633266B2 (en) Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings
JP5455124B2 (ja) カメラ姿勢パラメータ推定装置
US20080181488A1 (en) Camera calibration device, camera calibration method, and vehicle having the calibration device
KR102516326B1 (ko) 이미지 라인들로부터의 카메라 외부 파라미터들 추정
JP7247173B2 (ja) 画像処理方法及び装置
JP2004198212A (ja) 移動体周辺監視装置
JP2002359838A (ja) 運転支援装置
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
JP2013001366A (ja) 駐車支援装置および駐車支援方法
JP5178454B2 (ja) 車両周囲監視装置及び車両周囲監視方法
KR20220113781A (ko) 환경의 지형을 측정하는 방법
WO2019198399A1 (ja) 画像処理装置および方法
CN110832851B (zh) 图像处理装置、图像变换方法
WO2018016274A1 (ja) 画像処理装置
TWM591940U (zh) 全景停車輔助系統及其裝置
JP2009077022A (ja) 運転支援システム及び車両
JP7196920B2 (ja) 運転支援装置および運転支援方法、プログラム
JP2013200840A (ja) 映像処理装置、映像処理方法、映像処理プログラム、及び映像表示装置
KR20110082873A (ko) 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법
JP6855254B2 (ja) 画像処理装置、画像処理システム、及び、画像処理方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220512

R150 Certificate of patent or registration of utility model

Ref document number: 7074546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150