JPWO2017077650A1 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JPWO2017077650A1
JPWO2017077650A1 JP2017543843A JP2017543843A JPWO2017077650A1 JP WO2017077650 A1 JPWO2017077650 A1 JP WO2017077650A1 JP 2017543843 A JP2017543843 A JP 2017543843A JP 2017543843 A JP2017543843 A JP 2017543843A JP WO2017077650 A1 JPWO2017077650 A1 JP WO2017077650A1
Authority
JP
Japan
Prior art keywords
image
dimensional object
imaging device
overhead
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017543843A
Other languages
English (en)
Other versions
JP6239205B2 (ja
Inventor
古木 一朗
一朗 古木
司 深澤
司 深澤
浩平 岡原
浩平 岡原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6239205B2 publication Critical patent/JP6239205B2/ja
Publication of JPWO2017077650A1 publication Critical patent/JPWO2017077650A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Abstract

共通領域を第1撮像装置(210)の側と第2撮像装置(220)の側とに分ける基準となる境界位置(180)を算出する境界算出部(110)と、境界位置(180)と立体物の位置とに基づいて、第1俯瞰画像(311)と第2俯瞰画像(321)とのうち、立体物の画像の歪みが小さい俯瞰画像を選択画像(330)として選択する選択部(130)と、第1俯瞰画像(311)における共通領域以外の画像と、第2俯瞰画像(321)における共通領域以外の画像と、選択画像(330)に含まれる共通領域の画像とに基づいて、領域画像(340)を生成する画像生成部(140)とを備える。

Description

本発明は、視点変換により得られる複数の俯瞰画像を合成する画像処理装置、画像処理方法及び画像処理プログラムに関する。
従来、複数のカメラ画像を各々視点変換して上から見下ろすような俯瞰画像を生成し、生成した複数の俯瞰画像を合成して合成俯瞰画像を生成する技術がある。視点変換により生成される俯瞰画像では、画像中の全ての被写体が同一平面上に存在するものとして表示される。また、通常、俯瞰画像は地面を基準に生成されるため、地面よりも高い位置にある物体は地面に倒れ込むように伸びた状態となり、歪んで表示される。また、合成俯瞰画像を生成する際には、通常、隣り合うカメラ画像の撮像範囲が一部重なるようにカメラが設置される。重なった撮像範囲に位置する物体の画像は、カメラ視差の影響により、消失したり2重に見えたりする場合がある。
特許文献1には、撮像範囲が一部重なる2つのカメラ画像から生成された2つの俯瞰画像において、立体物がより大きく現れている方の俯瞰画像を重なり部の画像として優先的に表示する技術が開示されている。
特許第5053043号公報
特許文献1の技術では、2つの俯瞰画像のうち一方を表示するので物体が消失したり2重に見えたりすることはないが、立体物がより大きく現れている方の俯瞰画像を採用するため、立体物の歪みが大きい画像が表示されてしまう虞があるという課題がある。
この発明は、2つのカメラ画像から生成された2つの俯瞰画像間の重なり部の画像として、立体物の歪みが小さい画像を得ることを目的とする。
本発明に係る画像処理装置は、
立体物が位置する共通領域を含む第1領域を撮像する第1撮像装置の位置情報を含む第1装置情報と、前記共通領域を含む第2領域を撮像する第2撮像装置の位置情報を含む第2装置情報とを用いて、前記共通領域を前記第1撮像装置の側と前記第2撮像装置の側とに分ける基準となる境界位置を算出する境界算出部と、
前記境界位置と前記立体物の位置とに基づいて、前記第1撮像装置が前記第1領域を撮像した画像が視点変換された第1俯瞰画像であって前記立体物の画像が歪んでいる第1俯瞰画像と、前記第2撮像装置が前記第2領域を撮像した画像が視点変換された第2俯瞰画像であって前記立体物の画像が歪んでいる第2俯瞰画像とのうち、前記立体物の画像の歪みが小さい俯瞰画像を選択画像として選択する選択部と、
前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像と、前記選択画像に含まれる前記共通領域の画像とを用いて、前記第1領域と前記第2領域とからなる領域の画像を生成する画像生成部とを備える。
本発明に係る画像処理装置は、共通領域を第1撮像装置の側と第2撮像装置の側とに分ける基準となる境界位置を算出する境界算出部と、境界位置と立体物の位置とに基づいて、立体物の画像が歪んでいる第1俯瞰画像と第2俯瞰画像とのうち、立体物の画像の歪みが小さい俯瞰画像を選択画像として選択する選択部とを備えるので、共通領域の俯瞰画像として立体物の歪みが小さい画像を得ることができるという効果を奏する。
実施の形態1に係る画像処理装置100の構成を示す図。 実施の形態1に係る第1撮像装置210と第2撮像装置220との位置関係を示す図。 実施の形態1に係る画像処理方法510及び画像処理プログラム520の画像処理S100を示すフロー図。 実施の形態1に係る境界算出処理S110を示すフロー図。 実施の形態1に係る撮像空間800における境界位置xcの算出方法を示す図。 実施の形態1に係る俯瞰生成処理S120を示すフロー図。 実施の形態1に係る選択処理S130を示すフロー図。 実施の形態1に係る立体物600の立体物位置xpの検出方法を示す図。 実施の形態1に係る画像生成処理S140を示すフロー図。 実施の形態1に係る領域画像340の生成方法を示す図。 実施の形態1に係る領域画像340の生成方法を示す図。 実施の形態1の変形例に係る画像処理装置100の構成を示す図。 実施の形態1に係る画像処理装置100の応用例を示す図。 実施の形態2に係る画像処理装置100aの構成を示す図。 実施の形態2に係る画像処理装置100aの画像処理S100aを示すフロー図。 実施の形態2に係る領域画像生成処理S150aを示すフロー図。 実施の形態2に係る領域画像生成処理S150aを示す図。
実施の形態1.
***構成の説明***
図1を用いて、本実施の形態に係る画像処理装置100の構成について説明する。
本実施の形態において、画像処理装置100は、コンピュータである。画像処理装置100は、プロセッサ910、記憶装置920、入力インタフェース930、出力インタフェース940といったハードウェアを備える。
また、画像処理装置100は、機能構成として、境界算出部110と、俯瞰生成部120と、選択部130と、画像生成部140と、記憶部150とを備える。選択部130は、位置検出部131と、画像選択部132とを備える。以下の説明では、画像処理装置100における境界算出部110と、俯瞰生成部120と、位置検出部131と、画像選択部132と、画像生成部140との機能を、画像処理装置100の「部」の機能という。画像処理装置100の「部」の機能は、ソフトウェアで実現される。
また、記憶部150は、記憶装置920で実現される。記憶部150には、撮像装置情報160と、被写体情報170と、境界位置180と、比較画像190とが記憶される。撮像装置情報160は、第1装置情報161と第2装置情報162とを含む。また、被写体情報170は、高さ情報171を含む。
プロセッサ910は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ910は、プロセッシングを行うIC(Integrated・Circuit)である。プロセッサ910は、具体的には、CPU(Central・Processing・Unit)である。
記憶装置920は、補助記憶装置921及びメモリ922を含む。補助記憶装置921は、具体的には、ROM(Read・Only・Memory)、フラッシュメモリ、又は、HDD(Hard・Disk・Drive)である。メモリ922は、具体的には、RAM(Random・Access・Memory)である。記憶部150は、補助記憶装置921により実現される。なお、記憶部150が補助記憶装置921とメモリ922とにより実現されていてもよい。
入力インタフェース930は、第1撮像装置210と第2撮像装置220とに接続されるポートである。入力インタフェース930は、第1撮像装置210により撮像された第1画像310と、第2撮像装置220により撮像された第2画像320とを画像処理装置100に取り込む画像入力インタフェースである。入力インタフェース930により取り込まれた第1画像310及び第2画像320はメモリ922に記憶される。また、入力インタフェース930は、マウス、キーボード、タッチパネルといった入力装置と接続されるポートであってもよい。入力インタフェース930は、具体的には、USB(Universal・Serial・Bus)端子である。なお、入力インタフェース930は、LAN(Local・Area・Network)と接続されるポートであってもよい。SDI(Serial・Digital・Interface)、HDMI(登録商標)(High・Definition・Multimedia・Interface)、VGA(Video・Graphics・Array)、DVI(Digital・Video・Interface)、コンポーネント等の映像信号を画像処理装置100に取り込むことのできる、キャプチャボードであってもよい。
出力インタフェース940は、ディスプレイといった表示機器のケーブルが接続されるポートである。出力インタフェース940は、例えば、USB端子又はHDMI(登録商標)(High・Definition・Multimedia・Interface)端子である。ディスプレイは、具体的には、LCD(Liquid・Crystal・Display)である。
補助記憶装置921には、「部」の機能を実現するプログラムが記憶されている。このプログラムは、メモリ922にロードされ、プロセッサ910に読み込まれ、プロセッサ910によって実行される。補助記憶装置921には、OS(Operating・System)も記憶されている。OSの少なくとも一部がメモリ922にロードされ、プロセッサ910はOSを実行しながら、「部」の機能を実現するプログラムを実行する。
画像処理装置100は、1つのプロセッサ910のみを備えていてもよいし、複数のプロセッサ910を備えていてもよい。複数のプロセッサ910が「部」の機能を実現するプログラムを連携して実行してもよい。
「部」の機能による処理の結果を示す情報、データ、信号値、及び、変数値は、補助記憶装置921、メモリ922、又は、プロセッサ910内のレジスタ又はキャッシュメモリに記憶される。なお、図1において、各部と記憶部150とを結ぶ矢印は、各部が処理の結果を記憶部150に記憶すること、あるいは、各部が記憶部150から情報を読み出すことを表している。また、各部を結ぶ矢印は、制御の流れを表している。また、第1俯瞰画像311、第2俯瞰画像321あるいは選択画像330といった情報が各部間でメモリ922を介して授受されることを表すメモリ922と各部間の矢印については省略する。
「部」の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital・Versatile・Disc)といった可搬記録媒体に記憶されてもよい。
なお、「部」の機能を実現するプログラムを画像処理プログラムともいう。画像処理プログラムは、「部」として説明している機能を実現するプログラムである。また、画像処理プログラムプロダクトと称されるものは、画像処理プログラムが記録された記憶媒体及び記憶装置であり、見た目の形式に関わらず、コンピュータ読み取り可能なプログラムをロードしているものである。
***動作の説明***
本実施の形態に係る画像処理装置100の動作について説明する。
まず、図2を用いて、第1撮像装置210と第2撮像装置220との位置関係について説明する。以下の説明では、第1撮像装置210と第2撮像装置220との両方あるいは一方を単に撮像装置と称して説明する場合がある。
図2は、撮像空間800における第1撮像装置210と第2撮像装置220との位置関係を模式的に示している。撮像空間800は、第1撮像装置210と第2撮像装置220との撮像対象となる空間である。
第1撮像装置210と第2撮像装置220とは、CCD(Charged−Coupled・Devices)あるいはCMOS(Complementary・Metal−oxide−Semiconductor)といった撮像素子とレンズとを備えるカメラ機器である。第1撮像装置210と第2撮像装置220とは、互いに同一種類の撮像素子及び同一種類のレンズとを備える。
第1撮像装置210と第2撮像装置220との各々は、具体的には、監視カメラのような固定カメラである。
第1撮像装置210の撮像素子の中心を撮像素子中心3aとする。第2撮像装置220の撮像素子の中心を撮像素子中心3bとする。撮像素子中心はレンズ焦点ともいう。
図2では、撮像空間800を2次元のX軸とZ軸とのXZ平面で表したXZ平面図と、撮像空間800を2次元のX軸とY軸とのXY平面で表したXY平面図とを示している。
X軸は、地表500上であり、かつ、第1撮像装置210から第2撮像装置220に向かう方向を表す。つまり、第1撮像装置210の撮像素子中心3aと第2撮像装置220の撮像素子中心3bとはXZ平面に含まれる。
Y軸は、地表500上にあり、XZ平面図において図2の後面に向かう方向を表す。
Z軸は、地表500からの高さ方向を表す。また、Z軸は、第1撮像装置210の撮像素子中心3aを含む。第1撮像装置210の撮像素子中心3aからX軸に下した垂線とX軸との交点が、撮像空間800を表すXYZ空間の原点となる。
第1撮像装置210と第2撮像装置220とは、撮像空間800において、図2に示す以下の設置条件で設置されている。
第1撮像装置210の設置条件は、撮像素子中心3aの地表500からの高さはHa、撮像素子中心3aを含む水平面から下方を見下ろす角である俯角はθa、レンズ画角はψaである。また、第2撮像装置220の設置条件は、撮像素子中心3bの地表500からの高さがHb、撮像素子中心3bを含む水平面から下方を見下ろす角である俯角がθb、レンズ画角がψbである。なお、図2では、俯角については模式的に表している。
また、第1撮像装置210の撮像素子中心3aと第2撮像装置220の撮像素子中心3bとの装置間距離はXabである。なお、Xabは、第1撮像装置210の撮像素子中心3aと第2撮像装置220の撮像素子中心3bとの最短距離のX軸成分である。
第1領域Raは、第1撮像装置210による地表500に対する撮像範囲である。つまり、第1撮像装置210により撮像される地表500の範囲である。第2領域Rbは、第2撮像装置220による地表500に対する撮像範囲である。つまり、第2撮像装置220により撮像される地表500の範囲である。共通領域Rabは、第1撮像装置210と第2撮像装置220との撮像領域が重なる範囲である。第1撮像装置210と第2撮像装置220とは、一部の撮像領域が重なるように設置されている。
共通領域Rabには立体物600が位置する。立体物600は、具体的には、人、車、あるいは建築物といった高さのある被写体である。
全体領域Rは、第1領域Raと第2領域Rbとからなる領域である。すなわち、全体領域Rは、第1撮像装置210と第2撮像装置220とにより撮像される撮像領域の全てである。なお、第1撮像装置210により撮像される共通領域Rabの画像の撮像スケールと、第2撮像装置220により撮像される共通領域Rabの画像の撮像スケールとが同等となるように、設置条件が設定されることが望ましい。撮像スケールとは、画像のサイズ及び画像の解像度である。
また、仮想視点Pは、画像処理装置100において生成される俯瞰画像の視点を表す。本実施の形態において俯瞰画像と称する場合は、仮想視点Pから見た画像を意味するものとする。
次に、記憶部150に記憶されている撮像装置情報160と被写体情報170とについて説明する。
撮像装置情報160は、予め記憶部150に設定される撮像装置の設置条件に関する情報である。撮像装置の設置条件に関する情報には、撮像装置の位置に関する位置情報、撮像装置の姿勢に関する姿勢情報、撮像装置の解像度といった情報が含まれる。位置情報は、撮像装置の撮像空間800における座標を含む。姿勢情報は、撮像装置のヨー、ロール、ピッチを含む。
撮像装置情報160は、第1装置情報161と第2装置情報162とを含む。
第1装置情報161は、共通領域Rabを含む第1領域Raを撮像する第1撮像装置210の位置情報、姿勢情報及び解像度を含む情報である。第1装置情報161には、地表500からの高さHa、俯角θa及びレンズ画角ψaといった設置条件を満たす第1撮像装置210の位置情報、姿勢情報及び解像度が設定されている。
第2装置情報162は、共通領域Rabを含む第2領域Rbを撮像する第2撮像装置220の位置情報、姿勢情報及び解像度を含む情報である。第2装置情報162には、地表500からの高さHb、俯角θb及びレンズ画角ψbといった設置条件を満たす第2撮像装置220の位置情報、姿勢情報及び解像度が設定されている。
なお、第1領域Ra、第2領域Rb、共通領域Rab及び装置間距離Xabは、第1装置情報161と第2装置情報162とから予め定まる情報である。第1領域Ra、第2領域Rb、共通領域Rab及び装置間距離Xabは、予め計算されて撮像装置情報160に記憶されていてもよい。あるいは、第1領域Ra、第2領域Rb、共通領域Rab及び装置間距離Xabは、画像処理装置100が実行する画像処理において都度計算され、メモリ922に記憶するとしてもよい。
被写体情報170は、撮像領域における主な撮像対象である被写体に関する情報である。被写体は立体物である。被写体である立体物の種類は、撮像領域の撮像対象として予め定められおり、被写体情報170の1つとして記憶されている。立体物の種類とは、撮像領域における主な撮像対象として予め定められた種類である。
被写体情報170は、高さ情報171を含む。高さ情報171は、立体物の種類に基づいて定められた地表500からの高さを表す情報である。高さ情報171は、記憶部150に記憶されている。
高さ情報171についてさらに説明する。
具体例として、撮像装置が人を監視するためのカメラである場合、立体物の種類は人である。被写体情報170には、撮像対象である立体物の種類、すなわち人に関する情報が設定されている。また、高さ情報171には、立体物の種類、すなわち人に基づいて定められた地表からの高さを表す情報が設定される。具体的には、人の身長の平均値に基づいて、予め設定された方式により定められた地表からの高さを表す情報が設定される。
また、別の具体例として、撮像装置が車を監視するためのカメラである場合、立体物の種類は車である。被写体情報170には、車に関する情報が設定されている。また、高さ情報171には、車に基づいて定められた地表からの高さを表す情報が設定される。具体的には、車の高さの平均値に基づいて、予め設定された方式により定められた地表からの高さを表す情報が設定される。
高さ情報171には、撮像対象である立体物の地表からの高さより若干高い値であり、第1撮像装置210のレンズ画角ψa内かつ第2撮像装置220のレンズ画角ψb内に納まる値が設定される。具体的には、被写体である何らかの種類の立体物の地表からの高さの平均値を算出し、平均値の1.2倍を高さ情報171とする。このとき、被写体である立体物の高さの平均値の1.2倍がレンズ画角ψa内かつレンズ画角ψb内に納まるように、撮像装置の設置条件が設定されている必要がある。なお、1.2倍は、一例であり、適切に高さ情報171が設定される方法であれば、高さ情報171の設定方法は問わない。
次に、図3を用いて、本実施の形態に係る画像処理方法510及び画像処理プログラム520の画像処理S100の概要について説明する。
画像処理S100は、境界算出処理S110と、俯瞰生成処理S120と、領域画像生成処理S150とを有する。
まず、境界算出処理S110において、境界算出部110は、第1撮像装置210の第1装置情報161と、第2撮像装置220の第2装置情報162と、高さ情報171とを用いて、共通領域Rabを第1撮像装置210の側と第2撮像装置220の側とに分ける基準となる境界位置180を算出する。境界算出部110は、算出した境界位置180を記憶部150に記憶する。
次に、俯瞰生成処理S120において、俯瞰生成部120は、メモリ922から、第1撮像装置210が第1領域Raを撮像した第1画像310と、第2撮像装置220が第2領域Rbを撮像した第2画像320とを読み出す。第1画像310と第2画像320とは、入力インタフェース930により、メモリ922に記憶されている。俯瞰生成部120は、第1画像310と第2画像320との各々を視点変換し、第1俯瞰画像311と第2俯瞰画像321とを生成する。第1俯瞰画像311は、視点変換の影響により、共通領域Rabの立体物600は歪んでいる。また、第2俯瞰画像321では、視点変換の影響により、共通領域Rabの立体物600は歪んでいる。
次に、領域画像生成処理S150において、画像処理装置100は、全体領域Rを仮想視点Pから見た俯瞰画像である領域画像340を生成する。領域画像生成処理S150では、選択部130により選択処理S130が実行され、画像生成部140により画像生成処理S140が実行される。
領域画像生成処理S150は、選択処理S130と、画像生成処理S140とからなる。
選択処理S130において、選択部130は、境界位置180と、共通領域Rabに位置する立体物600の位置とに基づいて、第1俯瞰画像311と第2俯瞰画像321とのうち、立体物600の画像の歪みが小さい俯瞰画像を選択画像330として選択する。すなわち、境界位置180は、全体領域Rの俯瞰画像を生成する際に、共通領域Rabの俯瞰画像として第1俯瞰画像311と第2俯瞰画像321とのどちらの俯瞰画像を採用するかを判定するために用いられる。
画像生成処理S140において、画像生成部140は、第1俯瞰画像311における共通領域Rab以外の第1領域Raの画像と、第2俯瞰画像321における共通領域Rab以外の第2領域Rbの画像と、選択画像330に含まれる共通領域Rabの画像とを用いて、第1領域Raと第2領域Rbとからなる全体領域Rの画像を領域画像340として生成する。画像生成部140は、出力インタフェース940を介して、領域画像340をディスプレイなどの表示機器へ出力する。
<境界算出処理S110の説明>
図4は、本実施の形態に係る境界算出処理S110を示すフロー図である。図5は、図2で説明した撮像空間800における境界位置180の算出方法について説明するための図である。
図4及び図5を用いて、境界算出処理S110について詳しく説明する。
ステップS111において、境界算出部110は、記憶部150から、第1装置情報161と第2装置情報162と高さ情報171とを読み出す。第1装置情報161には第1撮像装置210の高さHaが含まれる。第2装置情報162には第2撮像装置220の高さHbが含まれる。また、高さ情報171に設定されている値がTである。
ステップS112において、境界算出部110は、第1装置情報161と第2装置情報162と高さ情報171とを用いて幾何的計算を実行し、境界位置180を算出する。具体的には、境界算出部110は、第1俯瞰画像311における歪みの度合いを表す第1歪み度と、第2俯瞰画像321における歪みの度合いを表す第2歪み度とを用いて、境界位置180としてX軸上の位置であるxcを算出する。
以下において、境界位置180として算出される値を境界位置xcと表記する場合がある。
第1歪み度は、第1装置情報161と高さ情報171とを用いて求められる。第2歪み度は、第2装置情報162と高さ情報171とを用いて求められる。境界算出部110は、第1歪み度と第2歪み度との差分の絶対値が最小となる共通領域RabのX軸上の座標を境界位置xcとして算出する。
以下の式1は第1歪み度Eaを求める式である。以下の式2は第2歪み度Ebを求める式である。X軸上の座標をxとする。
式1:Ea=x・T/(Ha−T)
式2:Eb=(Xab−x)・T/(Hb−T)
境界算出部110は、式1と式2との差分の絶対値が最小となるX軸上の座標xを境界位置xcとして算出する。境界算出部110は、算出した境界位置180を記憶部150に記憶する。
ここで、図5を用いて、境界位置180の算出方法についてさらに説明する。
図5は、図2で説明した撮像装置の設置条件において、共通領域Rabに立体物600が位置する場合の、第1撮像装置210と第2撮像装置220と立体物600との位置関係を示すXZ平面図である。
共通領域Rabの高さTにおいて交わるように設定されたラインaとラインbとの交点を交点T1とする。ラインaは、撮像素子中心3aから共通領域Rab上に下された直線であり、ラインbは撮像素子中心3bから共通領域Rab上に下された直線である。交点T1から共通領域Rab上に下された垂線と地表500、すなわちX軸との交点を境界位置xcとする。
ラインaと地表500との交点と境界位置xcとの間のX軸方向の距離が第1歪み度Eaである。
ラインbと地表500との交点と、境界位置xcとの間のX軸方向の距離が第2歪み度Ebである。
共通領域RabのX軸方向の両端部を端部ra、端部rbとする。直線3a−raとZ=Tとの交点から地表500に対して下ろした垂線との交点をx2、直線3b−rbとZ=Tとの交点から地表500に対して下ろした垂線との交点をx1とすると、境界位置xcは、x1とx2との間に存在する。
第1歪み度Eaと第2歪み度Ebとの各々は、撮像装置による立体物600の地表500への投影像の歪み程度を表す。すなわち、第1歪み度Eaは第1俯瞰画像311における歪みの度合いを表し、第2歪み度Ebは第2俯瞰画像321における歪みの度合いを表す。また、図5に基づく幾何的計算により、第1歪み度Eaと第2歪み度Ebとは、それぞれ式1と式2とで表される。第1歪み度Eaと第2歪み度Ebとの差分を△eとすると、境界位置xcは△eが最小となるようにxを決定することにより求められる。すなわち、境界位置xcは第1歪み度Eaと第2歪み度Ebとの大きさが逆転する位置である。つまり、境界位置xcは第1歪み度Eaと第2歪み度Ebとが等しくなる位置である。
<俯瞰生成処理S120の説明>
図6を用いて、本実施の形態に係る俯瞰生成処理S120について詳しく説明する。
ステップS121において、俯瞰生成部120は、メモリ922から第1画像310と第2画像320とを読み出す。
ステップS122において、俯瞰生成部120は、第1画像310と第2画像320との各々について、撮像装置のレンズの影響による画像歪みを補正するレンズ歪み補正処理を実行する。具体的には、俯瞰生成部120は、第1撮像装置210と第2撮像装置220との各々のレンズが持つ歪みを補正するための計算パラメータを用いて、第1画像310と第2画像320との各々についてレンズ歪み補正処理を実行する。この計算パラメータは第1撮像装置210と第2撮像装置220との各々について予め採取され、記憶部150の撮像装置情報160に記憶されている。俯瞰生成部120は、記憶部150から計算パラメータを読み出し、読み出した計算パラメータを用いて第1画像310と第2画像320との各々についてレンズ歪み補正処理を実行する。
ステップS123において、俯瞰生成部120は、ステップS122においてレンズの影響による歪みが補正がされた第1画像310と第2画像320とを、第1俯瞰画像311と第2俯瞰画像321とに視点変換する。第1俯瞰画像311と第2俯瞰画像321とは、仮想視点Pから地表500を見下ろした俯瞰画像である。具体的には、俯瞰生成部120は、仮想視点Pから地表500を見下ろした俯瞰画像を生成するための適切な演算パラメータを備えた変換行列式を用いて、第1画像310と第2画像320との各々について視点変換処理を実行し、第1俯瞰画像311と第2俯瞰画像321とを生成する。この変換行列式は予め記憶部150の撮像装置情報160に記憶される。俯瞰生成部120は、記憶部150から変換行列式を読み出し、読み出した変換行列式を用いて第1画像310と第2画像320との各々について視点変換処理を実行する。
なお、第1俯瞰画像311と第2俯瞰画像321との各々は、視点変換処理の影響により、共通領域Rabの立体物600が歪んでいる。
<選択処理S130の説明>
図7を用いて、本実施の形態に係る選択処理S130について詳しく説明する。
ステップS131において、位置検出部131は、記憶部150から比較画像190を読み出し、第1俯瞰画像311と第2俯瞰画像321と比較画像190とに基づいて、共通領域Rabに位置する立体物600の位置を立体物位置xpとして算出する。具体的には、位置検出部131は、比較画像190と、第1俯瞰画像311に含まれる共通領域Rabの俯瞰画像と、第2俯瞰画像321に含まれる共通領域Rabの俯瞰画像とに基づいて、立体物位置xpを検出する。
比較画像190とは、第1俯瞰画像311と第2俯瞰画像321とが重なっている範囲である共通領域Rabにおいて、立体物が無い状態を仮想視点Pから見た俯瞰画像である。すなわち、比較画像190は、共通領域Rabにおいて立体物が存在しない状態、すなわち立体物が削除された状態を仮想視点Pから見た俯瞰画像である。比較画像190は、予め生成され、記憶部150に記憶される。
図8を用いて、立体物位置xpの検出方法について説明する。
位置検出部131は、第1俯瞰画像311に含まれる共通領域Rabの俯瞰画像である共通俯瞰画像30aと、第2俯瞰画像321に含まれる共通領域Rabの俯瞰画像である共通俯瞰画像30bとを取得する。
図8の(a)は、第1俯瞰画像311の共通俯瞰画像30aである。共通俯瞰画像30aに表される立体物600の画像を立体物画像60aとする。立体物画像60aは、第1画像310が視点変換された立体物600の画像であり、立体物600が右側、すなわち第1撮像装置210から離れる方向に倒れこむような画像となる。
図8の(b)は、第2俯瞰画像321の共通俯瞰画像30bである。共通俯瞰画像30bに表される立体物600の画像を立体物画像60bとする。立体物画像60bは、第2画像320が視点変換された立体物600の画像であり、立体物600が左側、すなわち第2撮像装置220から離れる方向に倒れこむような画像となる。
図8の(c)は、記憶部150に記憶されている比較画像190である。比較画像190は、立体物が無い状態の共通領域Rabを仮想視点Pから見た俯瞰画像である。
位置検出部131は、共通俯瞰画像30aと比較画像190との差分をとり、立体物画像60aが抽出された差分画像31aを算出する。図8の(d)は差分画像31aを示す。また、位置検出部131は、共通俯瞰画像30bと比較画像190との差分をとり、立体物画像60bが抽出された差分画像31bを算出する。図8の(e)は差分画像31bを示す。
位置検出部131は、差分画像31aと差分画像31bとに対し、ブレンディング、すなわち半透明画像の重ね合わせ処理を実行し、差分画像31aと差分画像31bとが合成された合成画像33を生成する。図8の(f)は、立体物画像60aと立体物画像60bとが重畳された合成画像33を示している。合成画像33において、立体物画像60aと立体物画像60bとが重畳する部分の立体物重畳部分60abは、立体物600が地表500に接する領域を示している。位置検出部131は、立体物重畳部分60abの中心位置のX座標を立体物600の位置である立体物位置xpとして検出する。
次に、ステップS132において、画像選択部132は、記憶部150から境界位置xcを読み出す。
ステップS133において、画像選択部132は、読み出した境界位置xcと、共通領域Rabに位置する立体物600の立体物位置xpとに基づいて、第1俯瞰画像311と第2俯瞰画像321とのうち、立体物600の画像の歪みが小さい俯瞰画像を選択画像330として選択する。
具体的には、画像選択部132は、境界位置xcに基づいて、立体物位置xpが第1撮像装置210の側にあるか第2撮像装置220の側にあるかを判定する。そして、画像選択部132は、立体物位置xpが境界位置xcより第1撮像装置210の側にある場合に第1俯瞰画像311を選択画像330として選択する。また、画像選択部132は、立体物位置xpが境界位置xcより第2撮像装置220の側にある場合に第2俯瞰画像321を選択画像330として選択する。
立体物位置xpが境界位置xcより第1撮像装置210の側にあるということは、立体物600のX座標である立体物位置xpが境界位置xcより第1撮像装置210の側にあることである。すなわち、立体物600が境界位置xcをX座標とする共通領域Rab上の直線より第1撮像装置210の側に位置することを意味する。
また、立体物位置xpが境界位置xcより第2撮像装置220の側にあるということは、立体物600のX座標である立体物位置xpが境界位置xcより第2撮像装置220の側にあることである。すなわち、立体物600が境界位置xcをX座標とする共通領域Rab上の直線より第2撮像装置220の側にあることを意味する。
ステップS133において、立体物位置xpが境界位置xc以上の場合、ステップ134に進む。立体物位置xpが境界位置xc以上であるということは、立体物位置xpが境界位置xcより第2撮像装置220の側にあることを意味する。よって、ステップS134において、画像選択部132は、第2俯瞰画像321を選択画像330として選択する。
ステップS133において、立体物位置xpが境界位置xcより小さい場合、ステップ135に進む。立体物位置xpが境界位置xcより小さいということは、立体物位置xpが境界位置xcより第1撮像装置210の側にあることを意味する。よって、ステップS135において、画像選択部132は、第1俯瞰画像311を選択画像330として選択する。
<画像生成処理S140について>
図9を用いて、本実施の形態に係る画像生成処理S140について詳しく説明する。
ステップS141において、画像生成部140は、第1俯瞰画像311における共通領域Rab以外の第1領域Raの画像と、第2俯瞰画像321における共通領域Rab以外の第2領域Rbの画像と、選択画像330に含まれる共通領域Rabの画像とを用いて、第1領域Raと第2領域Rbとからなる全体領域Rの画像を領域画像340として生成する。すなわち、画像生成部140は、選択画像330と、選択処理S130において選択されなかった方の俯瞰画像の共通領域Rab以外の画像とを合成し、全体領域Rを仮想視点Pから見た領域画像340を生成する。
ステップS142において、画像生成部140は、出力インタフェース940を介して、領域画像340をディスプレイなどの表示機器へ出力する。
図10及び図11を用いて、領域画像340の生成方法について説明する。
図10では、立体物位置xpが境界位置xcより第1撮像装置210の側にあるため、画像選択部132は第1俯瞰画像311を選択画像330として選択する。よって、画像選択部132は、第1俯瞰画像311と、第2俯瞰画像321において共通領域Rabを除いた第2領域Rbの画像とを合成し、全体領域Rの領域画像340を生成する。すなわち、領域画像340は、第1俯瞰画像311における共通領域Rab以外の画像と、第2俯瞰画像321における共通領域Rab以外の画像と、選択画像330である第1俯瞰画像311に含まれる共通領域Rabの画像とにより生成されている。
図11では、立体物位置xpが境界位置xcより第2撮像装置220の側にあるため、画像選択部132は、第2俯瞰画像321を選択画像330として選択する。よって、画像選択部132は、第2俯瞰画像321と、第1俯瞰画像311において共通領域Rabを除いた第1領域Raの画像とを合成し、全体領域Rの領域画像340を生成する。すなわち、領域画像340は、第1俯瞰画像311における共通領域Rab以外の画像と、第2俯瞰画像321における共通領域Rab以外の画像と、選択画像330である第2俯瞰画像321に含まれる共通領域Rabの画像とにより生成されている。
以上で、本実施の形態に係る画像処理装置100の動作についての説明を終わる。
***他の構成***
本実施の形態では、画像処理装置100は、入力インタフェース930を介して第1画像310及び第2画像320を取得し、出力インタフェース940を介して領域画像340を出力する構成であった。しかし、画像処理装置100が通信装置を備え、通信装置を介して第1画像310及び第2画像320を受信してもよい。また、画像処理装置100は、通信装置を介して領域画像340を送信してもよい。この場合、通信装置はレシーバとトランスミッタとを備える。具体的には、通信装置は通信チップまたはNIC(Network・Interface・Card)である。通信装置はデータを通信する通信部として機能する。レシーバはデータを受信する受信部として機能し、トランスミッタはデータを送信する送信部として機能する。
また、本実施の形態では、画像処理装置100の「部」の機能がソフトウェアで実現されるが、変形例として、画像処理装置100の「部」の機能がハードウェアで実現されてもよい。
図12を用いて、本実施の形態の変形例に係る画像処理装置100の構成について説明する。
図12に示すように、画像処理装置100は、処理回路909、入力インタフェース930、出力インタフェース940といったハードウェアを備える。
処理回路909は、前述した「部」の機能及び記憶部150を実現する専用の電子回路である。処理回路909は、具体的には、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate・Array)、ASIC(Application・Specific・Integrated・Circuit)、又は、FPGA(Field−Programmable・Gate・Array)である。
「部」の機能は、1つの処理回路909で実現されてもよいし、複数の処理回路909に分散して実現されてもよい。
別の変形例として、画像処理装置100の機能がソフトウェアとハードウェアとの組合せで実現されてもよい。即ち、画像処理装置100の一部の機能が専用のハードウェアで実現され、残りの機能がソフトウェアで実現されてもよい。
プロセッサ910、記憶装置920、及び、処理回路909を、総称して「プロセッシングサーキットリ」という。つまり、画像処理装置100の構成が図1及び図10のいずれに示した構成であっても、「部」の機能及び記憶部150は、プロセッシングサーキットリにより実現される。
「部」を「工程」又は「手順」又は「処理」に読み替えてもよい。また、「部」の機能をファームウェアで実現してもよい。
また、本実施の形態に係る画像処理装置100において複数の領域画像を次々に生成する場合、図3の境界算出処理S110は1枚目の領域画像を生成する場合のみ実行すればよい。境界算出処理S110により算出された境界位置180は記憶部150に記憶されるので、2枚目以降の領域画像を生成する場合は記憶部150に記憶された境界位置180を読み出して俯瞰生成処理S120から画像生成処理S140を実行すればよい。
また、記憶部150が補助記憶装置921で実現されている場合は、1枚目の領域画像を生成する処理の際に記憶部150から読み出された情報をメモリ922に記憶しておく。これにより、2枚目以降の領域画像を生成する処理では補助記憶装置921から読み出す必要はなくなる。
次に、図13を用いて、本実施の形態に係る画像処理装置100の応用例について説明する。図13に示すように、撮像領域の全体領域Rに、被写体である立体物の移動方向が一定の領域が複数存在する場合がある。具体的には、道路を対面通行する自動車を被写体とした場合である。
このような場合には、立体物の移動方向が一定の領域ごとに全体領域Rを分割して、分割したそれぞれの領域で上述した画像処理S100を実行すればよい。具体的には、図13に示すように、全体領域Rには、立体物600bがB方向に移動する車線である領域R1と、立体物600aがA方向に移動する車線である領域R2とが存在する。画像処理装置は、全体領域Rが領域R1と領域R2とに分割されて定義された撮像装置情報を予め記憶部に記憶しておく。そして、画像処理装置は、領域R1と領域R2との各々の領域において画像処理S100を実行し、領域R1の俯瞰画像と領域R2の俯瞰画像とを生成する。そして、画像処理装置は、領域R1の俯瞰画像と領域R2の俯瞰画像とを合成して全体領域Rの領域画像を生成する。
***本実施の形態の効果の説明***
以上のように、本実施の形態に係る画像処理装置では、立体物の歪み度の差分が最も小さくなる境界位置を境界として、立体物位置が境界位置に対していずれの側に位置するのかを判定する。そして、この判定結果に基づいて共通領域の画像として表示する俯瞰画像の選択処理を行うことにより、立体物の歪み度が小さい方の俯瞰画像が選択される。よって、本実施の形態に係る画像処理装置によれば、立体物画像が2重に表示されるといった不自然な画像になることはなく、立体物の歪みが小さい合成俯瞰画像が得られる。
また、本実施の形態に係る画像処理装置では、撮像装置の設置条件に関する撮像装置情報と被写体の種類から定まる高さ情報とを予め記憶部に記憶しておく。すなわち、本実施の形態に係る画像処理装置では、使用状況に合わせて最適な撮像装置情報と高さ情報とを設定することができる。よって、本実施の形態に係る画像処理装置によれば、共通領域の俯瞰画像として表示される選択画像を適切な撮像装置情報と高さ情報とから選択することができるので、画像品質の高い合成俯瞰画像を提供することができる。
また、本実施の形態に係る画像処理装置では、共通領域に被写体が存在しない状態の比較画像を予め記憶部に用意しているので、この比較画像と生成された俯瞰画像とにより立体物位置を検出することができる。よって、本実施の形態に係る画像処理装置によれば、立体物の位置を検出するためのセンサといった機器を使用する必要がなく、コストの低減を図ることができる。
実施の形態2.
本実施の形態では、主に、実施の形態1と異なる点について説明する。
実施の形態1では、共通領域Rab内に1つの立体物がある場合の画像処理について説明した。また、実施の形態1では、視点変換された立体物の画像が歪んだままで領域画像が生成されていた。本実施の形態では、共通領域Rab内にn個(nは1以上の自然数)の立体物がある場合に、各々の立体物の視点変換後の画像を圧縮変形させることにより立体物の画像の歪みを低減して表示する画像処理装置100aについて説明する。
***構成の説明***
図14を用いて、本実施の形態に係る画像処理装置100aの構成について説明する。
なお、本実施の形態において、実施の形態1で説明した構成と同様の構成については同一の符号を付し、その説明を省略する。
画像処理装置100aでは、実施の形態1における選択部130と画像生成部140とに代わり、選択部130aと画像生成部140aとを機能構成として備える。すなわち、画像処理装置100aでは、位置検出部131と画像選択部132とに代わり、位置検出部131aと画像選択部132aとを機能構成として備える。本実施の形態では、画像処理装置100aの「部」の機能は、境界算出部110と、俯瞰生成部120と、位置検出部131aと、画像選択部132aと、画像生成部140aとの機能である。
***動作の説明***
図15を用いて、本実施の形態に係る画像処理装置100aの画像処理S100aについて説明する。本実施の形態では、領域画像生成処理S150aが実施の形態1の領域画像生成処理S150とは異なる。すなわち、選択処理S130a及び画像生成処理S140aが、実施の形態1の選択処理S130及び画像生成処理S140とは異なる。
領域画像生成処理S150aでは、画像処理装置100aは、共通領域Rab内のn個の立体物の視点変換後の立体物画像601,602,・・・,60nについて、それぞれの画像の歪みを圧縮変形により補正する。
図16を用いて、本実施の形態に係る領域画像生成処理S150aについて詳しく説明する。
ステップS151において、位置検出部131aは、記憶部150から比較画像190を読み出す。位置検出部131aは、第1俯瞰画像311と第2俯瞰画像321と比較画像190とに基づいて、共通領域Rabに位置するn個の立体物の各々の立体物位置xpi(iはn以下の自然数)を算出する。すなわち、位置検出部131aは、立体物位置xp1,xp2,・・・,xpnを検出する。ステップS151の各立体物位置xpiの検出方法は実施の形態1で説明したステップS131と同様である。
ステップS152において、画像選択部132aは、記憶部150から境界位置xcを読み出す。ステップS152の処理は実施の形態1で説明したステップS132と同様である。
ステップS153において、画像選択部132aは、境界位置xcと、共通領域Rabに位置する立体物位置xpiとに基づいて、第1俯瞰画像311と第2俯瞰画像321とのうち、立体物画像60iの歪みが小さい俯瞰画像を選択画像330として選択する。立体物画像60iは処理対象の立体物画像である。画像選択部132aは、立体物位置xpiが境界位置xcより第1撮像装置210の側にある場合に第1俯瞰画像311を選択画像330として選択する(ステップS155)。また、画像選択部132aは、立体物位置xpiが境界位置xcより第2撮像装置220の側にある場合に第2俯瞰画像321を選択画像330として選択する(ステップS154)。ステップS153からステップS155の処理は実施の形態1で説明したステップS133からステップS135と同様である。
図17は、本実施の形態に係る領域画像生成処理S150aを説明するための図である。
具体例として、共通領域Rabに3つの立体物が位置するものとする。また、3つの立体物の各々の立体物位置xp1,xp2,xp3が検出されたものとする。図17の(a)に示すように、立体物位置xp1,xp2は境界位置xcより第1撮像装置210の側にある。また、図17の(b)に示すように、立体物位置xp3は境界位置xcより第2撮像装置220の側にある。
よって、立体物位置xp1,xp2にある各々の立体物の俯瞰画像としては、第1俯瞰画像311が選択される。立体物位置xp1,xp2にある各々の立体物の俯瞰画像を、立体物画像601,602とする。立体物位置xp3にある立体物の俯瞰画像としては、第2俯瞰画像321が選択される。立体物位置xp3にある立体物の俯瞰画像を、立体物画像603とする。
また、図17の(a)の35aは、第1撮像装置210の撮像素子中心3aの座標位置を俯瞰画像変換後のXY平面上にマッピングさせた位置を表す。図17の(b)の35bは、第2撮像装置220の撮像素子中心3bの座標位置を俯瞰画像変換後のXY平面上にマッピングさせた位置を表す。
ステップS156において、画像生成部140aは、立体物位置xpiに基づいて、立体物画像60iを圧縮変形させる際の変形度合いを決める画像変形係数Qiを決定する。画像変形係数は変形率ともいう。画像生成部140aは、画像変形係数Qiを、撮像装置の撮像素子中心と立体物位置xpi間の距離の長さに基づいて決定する。撮像装置の撮像素子中心と立体物位置xpiとの間の距離が長いほど、画像変形係数Qiは大きくなる。
図17の(a)(b)の例では、撮像素子中心である35aと立体物位置xp1との距離L1よりも、35aと立体物位置xp2との距離L2の方が長い。よって、立体物画像602の画像変形係数Q2は、立体物画像601の画像変形係数Q1よりも大きな値に決定される。具体的には、立体物位置xpを変数とする演算式が予め記憶部150に記憶されており、画像生成部140aは記憶部150に記憶された演算式と立体物位置xpiとを用いて画像変形係数Qiを算出する。または、立体物位置xpをパラメータとした画像変形係数テーブルが予め記憶部150に記憶されており、画像生成部140aは記憶部150に記憶された画像変形係数テーブルからxpiに対応する値を画像変形係数Qiとして読み込むようにしてもよい。
ステップS157において、画像生成部140aは、選択画像330から立体物画像60iを抽出する。具体的には、画像生成部140aは、選択画像330の共通領域Rab部分と比較画像190とを用いて、立体物画像60iを抽出する。図17の(c)(d)は、画像生成部140aにより抽出された立体物画像601,602,603である。立体物画像601,602は選択画像330である第1俯瞰画像311から抽出される。また、立体物画像603は選択画像330である第2俯瞰画像321から抽出される。
ステップS158において、画像生成部140aは、抽出された立体物画像60iに対し、画像変形係数Qiを用いて圧縮変形処理を行う。圧縮変形処理とは、立体物画像60iに対し、画像変形係数Qiを用いて圧縮変形を施すことにより立体物画像60iの歪みを低減する補正を行う処理である。図17の(e)の立体物補正画像601p,602pは、図17の(c)の立体物画像601,602の各々に対して圧縮変形処理を行った結果を表している。上述したように、立体物画像601に対する画像変形係数Q1より、立体物画像602に対する画像変形係数Q2の方が大きく決定される。
また、図17の(f)の立体物補正画像603pは、図17の(d)の立体物画像603に対して圧縮変形処理を行った結果を表している。
なお、立体物画像に対する圧縮変形は、撮像素子中心と俯瞰画像における立体物画像の中心とを結ぶ直線方向に行われることが望ましい。
ステップS159において、画像生成部140aは、n個の立体物のうち圧縮変形処理をしていない立体物が残っているかどうかを判定する。すなわち、画像生成部140aは、共通領域Rabの全ての立体物について圧縮変形による補正が完了したか否かを判定する。
ステップS159において全ての立体物について補正が完了した場合、ステップS160進む。
ステップS159において補正が完了していない立体物が残っている場合、ステップS153に戻り、立体物画像60iの次の立体物画像について処理を行う。
ステップS160において、画像生成部140aは、圧縮変形処理を行った立体物補正画像601p,602p,・・・,60npの各々を、比較画像190上の各立体物位置xp1,xp2,・・・,xpnに貼り付け、補正共通画像36を生成する。図17の(g)は、比較画像190の立体物位置xp1,xp2,xp3に、立体物補正画像601p,602p,603pをそれぞれ張り付けた状態の補正共通画像36を示している。
ステップS161において、画像生成部140aは、第1俯瞰画像311における共通領域Rab以外の画像と、第2俯瞰画像321における共通領域Rab以外の画像と、補正共通画像36とを用いて、全体領域Rの領域画像340を生成する。
ステップS162において、画像生成部140は、出力インタフェース940を介して、領域画像340をディスプレイなどの表示機器へ出力する。
以上で、本実施の形態に係る領域画像生成処理S150aについての説明を終わる。
***本実施の形態に係る効果の説明***
以上のように、本実施の形態に係る画像処理装置によれば、共通領域に複数存在する立体物について、立体物位置と境界位置とに基づいて圧縮変形する立体物画像を選択し、選択した立体物画像を圧縮変形することができる。よって、本実施の形態に係る画像処理装置によれば、共通領域における立体物画像の歪みをさらに小さくすることができ、合成俯瞰画像の画像品質を向上させることができる。
また、本実施の形態に係る画像処理装置によれば、立体物画像を抽出し、抽出した立体物画像のみを圧縮変形させることにより、立体物ごとに個別に歪みを小さくできる。よって、本実施の形態に係る画像処理装置によれば、圧縮させる必要のない領域に補正による歪みが生じないため、合成俯瞰画像の品質をより向上させることができる。
以上、本発明の実施の形態1及び2について説明したが、これらの実施の形態の説明において「部」として説明するもののうち、いずれか1つのみを採用してもよいし、いくつかの任意の組合せを採用してもよい。つまり、画像処理装置の機能ブロックは、上記の実施の形態で説明した機能を実現することができれば、任意である。これらの機能ブロックを、どのような組合せ、あるいは任意のブロック構成で画像処理装置を構成しても構わない。また、画像処理装置は、1つの装置でなく、複数の装置から構成された画像処理システムでもよい。
また、実施の形態1及び2について説明したが、これらの2つの実施の形態のうち、複数を部分的に組合せて実施しても構わない。あるいは、これらの2つの実施の形態のうち、1つの実施の形態を部分的に実施しても構わない。その他、これらの2つの実施の形態を、全体としてあるいは部分的に、どのように組合せて実施しても構わない。
なお、上記の実施の形態は、本質的に好ましい例示であって、本発明、その適用物や用途の範囲を制限することを意図するものではなく、必要に応じて種々の変更が可能である。
3a,3b 撮像素子中心、100,100a 画像処理装置、110 境界算出部、120 俯瞰生成部、130,130a 選択部、131,131a 位置検出部、132,132a 画像選択部、140,140a 画像生成部、150 記憶部、160 撮像装置情報、161 第1装置情報、162 第2装置情報、170 被写体情報、171 高さ情報、180 境界位置、190 比較画像、210 第1撮像装置、220 第2撮像装置、310 第1画像、320 第2画像、311 第1俯瞰画像、321 第2俯瞰画像、330 選択画像、340 領域画像、30a,30b 共通俯瞰画像、31a,31b 差分画像、33 合成画像、36 補正共通画像、500 地表、510 画像処理方法、520 画像処理プログラム、600,600a,600b 立体物、60a,60b,601,602,603,60i 立体物画像、60ab 立体物重畳部分、601p,602p,603p,60ip 立体物補正画像、800 撮像空間、909 処理回路、910 プロセッサ、920 記憶装置、921 補助記憶装置、922 メモリ、930 入力インタフェース、940 出力インタフェース、Ea 第1歪み度、Eb 第2歪み度、R 全体領域、R1,R2 領域、Ra 第1領域、Rb 第2領域、Rab 共通領域、P 仮想視点、xc 境界位置、xp,xpi,xp1,xp2,xp3 立体物位置、Q,Qi,Q1,Q2,Q3 画像変形係数、S100 画像処理、S110 境界算出処理、S120 俯瞰生成処理、S130 選択処理、S140 画像生成処理、S150,S150a 領域画像生成処理、T1 交点。

Claims (9)

  1. 立体物が位置する共通領域を含む第1領域を撮像する第1撮像装置の位置情報を含む第1装置情報と、前記共通領域を含む第2領域を撮像する第2撮像装置の位置情報を含む第2装置情報とを用いて、前記共通領域を前記第1撮像装置の側と前記第2撮像装置の側とに分ける基準となる境界位置を算出する境界算出部と、
    前記境界位置と前記立体物の位置とに基づいて、前記第1撮像装置が前記第1領域を撮像した画像が視点変換された第1俯瞰画像であって前記立体物の画像が歪んでいる第1俯瞰画像と、前記第2撮像装置が前記第2領域を撮像した画像が視点変換された第2俯瞰画像であって前記立体物の画像が歪んでいる第2俯瞰画像とのうち、前記立体物の画像の歪みが小さい俯瞰画像を選択画像として選択する選択部と、
    前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像と、前記選択画像に含まれる前記共通領域の画像とに基づいて、前記第1領域と前記第2領域とからなる領域の領域画像を生成する画像生成部と
    を備える画像処理装置。
  2. 前記選択部は、
    前記立体物の位置が前記境界位置より前記第1撮像装置の側にある場合に前記第1俯瞰画像を前記選択画像として選択し、前記立体物が前記境界位置より前記第2撮像装置の側にある場合に前記第2俯瞰画像を前記選択画像として選択する請求項1に記載の画像処理装置。
  3. 前記境界算出部は、
    前記第1俯瞰画像における歪みの度合いを表す第1歪み度であって前記第1装置情報と前記立体物の種類に基づいて定められた地表からの高さを表す高さ情報とを用いて求められる第1歪み度と、前記第2俯瞰画像における歪みの度合いを表す第2歪み度であって前記第2装置情報と前記高さ情報とを用いて求められる第2歪み度とを用いて、前記境界位置を算出する請求項1または2に記載の画像処理装置。
  4. 前記境界算出部は、
    前記第1歪み度と前記第2歪み度との差分の絶対値が最小となる前記共通領域の位置を前記境界位置として算出する請求項3に記載の画像処理装置。
  5. 前記選択部は、
    前記共通領域において立体物が存在しない比較画像と前記第1俯瞰画像に含まれる前記共通領域の画像と前記第2俯瞰画像に含まれる前記共通領域の画像とに基づいて、前記立体物の位置を検出する請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記画像生成部は、
    前記選択画像に含まれる前記共通領域の画像の前記立体物の画像の歪みを補正し、歪みが補正された前記立体物の画像と前記比較画像とを合成し、合成して得られる合成画像と、前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像とを用いて、前記領域画像を生成する請求項5に記載の画像処理装置。
  7. 前記画像生成部は、
    前記選択部により検出された前記立体物の位置に基づいて画像変形係数を決定し、前記画像変形係数を用いて前記立体物の画像の歪みを補正する請求項6に記載の画像処理装置。
  8. 境界算出部が、立体物が位置する共通領域を含む第1領域を撮像する第1撮像装置の位置情報を含む第1装置情報と、前記共通領域を含む第2領域を撮像する第2撮像装置の位置情報を含む第2装置情報とを用いて、前記共通領域を前記第1撮像装置の側と前記第2撮像装置の側とに分ける基準となる境界位置を算出し、
    選択部が、前記境界位置と前記立体物の位置とに基づいて、前記第1撮像装置が前記第1領域を撮像した画像が視点変換された第1俯瞰画像であって前記立体物の画像が歪んでいる第1俯瞰画像と、前記第2撮像装置が前記第2領域を撮像した画像が視点変換された第2俯瞰画像であって前記立体物の画像が歪んでいる第2俯瞰画像とのうち、前記立体物の画像の歪みが小さい俯瞰画像を選択画像として選択し、
    画像生成部が、前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像と、前記選択画像に含まれる前記共通領域の画像とに基づいて、前記第1領域と前記第2領域とからなる領域の領域画像を生成する画像処理方法。
  9. 立体物が位置する共通領域を含む第1領域を撮像する第1撮像装置の位置情報を含む第1装置情報と、前記共通領域を含む第2領域を撮像する第2撮像装置の位置情報を含む第2装置情報とを用いて、前記共通領域を前記第1撮像装置の側と前記第2撮像装置の側とに分ける基準となる境界位置を算出する境界算出処理と、
    前記境界位置と前記立体物の位置とに基づいて、前記第1撮像装置が前記第1領域を撮像した画像が視点変換された第1俯瞰画像であって前記立体物の画像が歪んでいる第1俯瞰画像と、前記第2撮像装置が前記第2領域を撮像した画像が視点変換された第2俯瞰画像であって前記立体物の画像が歪んでいる第2俯瞰画像とのうち、前記立体物の画像の歪みが小さい俯瞰画像を選択画像として選択する選択処理と、
    前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像と、前記選択画像に含まれる前記共通領域の画像とに基づいて、前記第1領域と前記第2領域とからなる領域の領域画像を生成する画像生成処理とをコンピュータに実行させる画像処理プログラム。
JP2017543843A 2015-11-06 2015-11-06 画像処理装置、画像処理方法及び画像処理プログラム Active JP6239205B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/081358 WO2017077650A1 (ja) 2015-11-06 2015-11-06 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP6239205B2 JP6239205B2 (ja) 2017-11-29
JPWO2017077650A1 true JPWO2017077650A1 (ja) 2017-12-07

Family

ID=58661799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017543843A Active JP6239205B2 (ja) 2015-11-06 2015-11-06 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (4)

Country Link
US (1) US10417743B2 (ja)
JP (1) JP6239205B2 (ja)
GB (1) GB2556797B (ja)
WO (1) WO2017077650A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110178365B (zh) * 2017-02-15 2021-10-08 松下知识产权经营株式会社 图像处理装置和图像处理方法
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
WO2019186787A1 (ja) 2018-03-28 2019-10-03 三菱電機株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US11115623B2 (en) * 2018-05-07 2021-09-07 Maxim Integrated Products, Inc. Systems and methods for asymmetric image splitter with line mark memory
US10380440B1 (en) 2018-10-23 2019-08-13 Capital One Services, Llc Method for determining correct scanning distance using augmented reality and machine learning models

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333565A (ja) * 2004-05-21 2005-12-02 Auto Network Gijutsu Kenkyusho:Kk 監視装置
JP2008048317A (ja) * 2006-08-21 2008-02-28 Sanyo Electric Co Ltd 画像処理装置並びに視界支援装置及び方法
WO2010070920A1 (ja) * 2008-12-19 2010-06-24 パナソニック株式会社 車両周囲画像生成装置
WO2010137265A1 (ja) * 2009-05-25 2010-12-02 パナソニック株式会社 車両周囲監視装置
WO2012096058A1 (ja) * 2011-01-11 2012-07-19 アイシン精機株式会社 画像生成装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
JP4830380B2 (ja) 2005-07-13 2011-12-07 日産自動車株式会社 車両周辺監視装置及び車両周辺監視方法
JP4674900B2 (ja) 2005-10-14 2011-04-20 アルパイン株式会社 車載画像表示装置
JP4934308B2 (ja) 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
US7728879B2 (en) 2006-08-21 2010-06-01 Sanyo Electric Co., Ltd. Image processor and visual field support device
JP4248570B2 (ja) 2006-08-21 2009-04-02 三洋電機株式会社 画像処理装置並びに視界支援装置及び方法
JP5053043B2 (ja) 2007-11-09 2012-10-17 アルパイン株式会社 車両周辺画像生成装置および車両周辺画像の歪み補正方法
JP5222597B2 (ja) * 2008-03-19 2013-06-26 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
JP4214291B1 (ja) 2008-03-26 2009-01-28 株式会社ザイナス 接地点推定装置、接地点推定方法、動線表示システムおよびサーバ
JP5067632B2 (ja) 2008-11-28 2012-11-07 アイシン精機株式会社 鳥瞰画像生成装置
JP2010147523A (ja) 2008-12-16 2010-07-01 Panasonic Corp 車両周囲の俯瞰画像生成装置
JP5091882B2 (ja) 2009-01-21 2012-12-05 三洋電機株式会社 画像処理装置並びに視界支援装置及び方法
JP5035284B2 (ja) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 車両周辺表示装置
WO2011106578A2 (en) * 2010-02-26 2011-09-01 Gentex Corporation Automatic vehicle equipment monitoring, warning, and control system
JP5699679B2 (ja) 2011-02-24 2015-04-15 富士通セミコンダクター株式会社 画像処理装置、画像処理システム、及び画像処理方法
JP5483120B2 (ja) * 2011-07-26 2014-05-07 アイシン精機株式会社 車両周辺監視システム
WO2013046593A1 (ja) * 2011-09-30 2013-04-04 パナソニック株式会社 俯瞰画像生成装置、俯瞰画像生成方法、および俯瞰画像生成プログラム
JP5906696B2 (ja) 2011-11-30 2016-04-20 アイシン精機株式会社 車両周辺撮影装置および車両周辺画像の処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333565A (ja) * 2004-05-21 2005-12-02 Auto Network Gijutsu Kenkyusho:Kk 監視装置
JP2008048317A (ja) * 2006-08-21 2008-02-28 Sanyo Electric Co Ltd 画像処理装置並びに視界支援装置及び方法
WO2010070920A1 (ja) * 2008-12-19 2010-06-24 パナソニック株式会社 車両周囲画像生成装置
WO2010137265A1 (ja) * 2009-05-25 2010-12-02 パナソニック株式会社 車両周囲監視装置
WO2012096058A1 (ja) * 2011-01-11 2012-07-19 アイシン精機株式会社 画像生成装置

Also Published As

Publication number Publication date
WO2017077650A1 (ja) 2017-05-11
GB201803427D0 (en) 2018-04-18
GB2556797A (en) 2018-06-06
US10417743B2 (en) 2019-09-17
GB2556797B (en) 2018-10-24
US20180253823A1 (en) 2018-09-06
JP6239205B2 (ja) 2017-11-29

Similar Documents

Publication Publication Date Title
JP6239205B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
KR101697512B1 (ko) 영상 정합 장치 및 방법
US11589023B2 (en) Image processing apparatus, image processing method, and storage medium
US9013559B2 (en) System, method and program for capturing images from a virtual viewpoint
JP5694300B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6570296B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
CN102714695A (zh) 图像处理装置、图像处理方法及程序
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US11488354B2 (en) Information processing apparatus and information processing method
JP2019083402A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009093332A (ja) 車両周辺画像処理装置及び車両周辺状況提示方法
US20170142384A1 (en) Image processing apparatus, image processing method, image projection system, and storage medium
JP5906696B2 (ja) 車両周辺撮影装置および車両周辺画像の処理方法
JP6205755B2 (ja) プロジェクタ装置、プロジェクタシステム、プロジェクタ制御方法及びプロジェクタ制御プログラム
JP7032532B2 (ja) 撮像装置、画像補正方法および画像補正プログラム
JP2019504414A (ja) 車両の周囲の正面の光景を表示する方法及びデバイス並びにそれぞれの車両
JP2006302195A (ja) 画像処理方法及び画像処理装置
JP5955003B2 (ja) 画像処理装置および画像処理方法、プログラム
JP5891751B2 (ja) 画像間差分装置および画像間差分方法
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6762779B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US20230325969A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170817

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170817

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171031

R150 Certificate of patent or registration of utility model

Ref document number: 6239205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250