JPWO2017077650A1 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- JPWO2017077650A1 JPWO2017077650A1 JP2017543843A JP2017543843A JPWO2017077650A1 JP WO2017077650 A1 JPWO2017077650 A1 JP WO2017077650A1 JP 2017543843 A JP2017543843 A JP 2017543843A JP 2017543843 A JP2017543843 A JP 2017543843A JP WO2017077650 A1 JPWO2017077650 A1 JP WO2017077650A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional object
- imaging device
- overhead
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 119
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims abstract description 199
- 240000004050 Pentaglottis sempervirens Species 0.000 claims abstract description 55
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims abstract description 55
- 238000004364 calculation method Methods 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 49
- 239000007787 solid Substances 0.000 claims description 9
- 230000006870 function Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 15
- 238000009434 installation Methods 0.000 description 11
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 239000002131 composite material Substances 0.000 description 7
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 240000001307 Myosotis scorpioides Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/303—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
Abstract
Description
立体物が位置する共通領域を含む第1領域を撮像する第1撮像装置の位置情報を含む第1装置情報と、前記共通領域を含む第2領域を撮像する第2撮像装置の位置情報を含む第2装置情報とを用いて、前記共通領域を前記第1撮像装置の側と前記第2撮像装置の側とに分ける基準となる境界位置を算出する境界算出部と、
前記境界位置と前記立体物の位置とに基づいて、前記第1撮像装置が前記第1領域を撮像した画像が視点変換された第1俯瞰画像であって前記立体物の画像が歪んでいる第1俯瞰画像と、前記第2撮像装置が前記第2領域を撮像した画像が視点変換された第2俯瞰画像であって前記立体物の画像が歪んでいる第2俯瞰画像とのうち、前記立体物の画像の歪みが小さい俯瞰画像を選択画像として選択する選択部と、
前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像と、前記選択画像に含まれる前記共通領域の画像とを用いて、前記第1領域と前記第2領域とからなる領域の画像を生成する画像生成部とを備える。
***構成の説明***
図1を用いて、本実施の形態に係る画像処理装置100の構成について説明する。
本実施の形態において、画像処理装置100は、コンピュータである。画像処理装置100は、プロセッサ910、記憶装置920、入力インタフェース930、出力インタフェース940といったハードウェアを備える。
また、画像処理装置100は、機能構成として、境界算出部110と、俯瞰生成部120と、選択部130と、画像生成部140と、記憶部150とを備える。選択部130は、位置検出部131と、画像選択部132とを備える。以下の説明では、画像処理装置100における境界算出部110と、俯瞰生成部120と、位置検出部131と、画像選択部132と、画像生成部140との機能を、画像処理装置100の「部」の機能という。画像処理装置100の「部」の機能は、ソフトウェアで実現される。
また、記憶部150は、記憶装置920で実現される。記憶部150には、撮像装置情報160と、被写体情報170と、境界位置180と、比較画像190とが記憶される。撮像装置情報160は、第1装置情報161と第2装置情報162とを含む。また、被写体情報170は、高さ情報171を含む。
プロセッサ910は、プロセッシングを行うIC(Integrated・Circuit)である。プロセッサ910は、具体的には、CPU(Central・Processing・Unit)である。
なお、「部」の機能を実現するプログラムを画像処理プログラムともいう。画像処理プログラムは、「部」として説明している機能を実現するプログラムである。また、画像処理プログラムプロダクトと称されるものは、画像処理プログラムが記録された記憶媒体及び記憶装置であり、見た目の形式に関わらず、コンピュータ読み取り可能なプログラムをロードしているものである。
本実施の形態に係る画像処理装置100の動作について説明する。
まず、図2を用いて、第1撮像装置210と第2撮像装置220との位置関係について説明する。以下の説明では、第1撮像装置210と第2撮像装置220との両方あるいは一方を単に撮像装置と称して説明する場合がある。
図2は、撮像空間800における第1撮像装置210と第2撮像装置220との位置関係を模式的に示している。撮像空間800は、第1撮像装置210と第2撮像装置220との撮像対象となる空間である。
第1撮像装置210と第2撮像装置220との各々は、具体的には、監視カメラのような固定カメラである。
第1撮像装置210の撮像素子の中心を撮像素子中心3aとする。第2撮像装置220の撮像素子の中心を撮像素子中心3bとする。撮像素子中心はレンズ焦点ともいう。
X軸は、地表500上であり、かつ、第1撮像装置210から第2撮像装置220に向かう方向を表す。つまり、第1撮像装置210の撮像素子中心3aと第2撮像装置220の撮像素子中心3bとはXZ平面に含まれる。
Y軸は、地表500上にあり、XZ平面図において図2の後面に向かう方向を表す。
Z軸は、地表500からの高さ方向を表す。また、Z軸は、第1撮像装置210の撮像素子中心3aを含む。第1撮像装置210の撮像素子中心3aからX軸に下した垂線とX軸との交点が、撮像空間800を表すXYZ空間の原点となる。
第1撮像装置210の設置条件は、撮像素子中心3aの地表500からの高さはHa、撮像素子中心3aを含む水平面から下方を見下ろす角である俯角はθa、レンズ画角はψaである。また、第2撮像装置220の設置条件は、撮像素子中心3bの地表500からの高さがHb、撮像素子中心3bを含む水平面から下方を見下ろす角である俯角がθb、レンズ画角がψbである。なお、図2では、俯角については模式的に表している。
また、第1撮像装置210の撮像素子中心3aと第2撮像装置220の撮像素子中心3bとの装置間距離はXabである。なお、Xabは、第1撮像装置210の撮像素子中心3aと第2撮像装置220の撮像素子中心3bとの最短距離のX軸成分である。
共通領域Rabには立体物600が位置する。立体物600は、具体的には、人、車、あるいは建築物といった高さのある被写体である。
全体領域Rは、第1領域Raと第2領域Rbとからなる領域である。すなわち、全体領域Rは、第1撮像装置210と第2撮像装置220とにより撮像される撮像領域の全てである。なお、第1撮像装置210により撮像される共通領域Rabの画像の撮像スケールと、第2撮像装置220により撮像される共通領域Rabの画像の撮像スケールとが同等となるように、設置条件が設定されることが望ましい。撮像スケールとは、画像のサイズ及び画像の解像度である。
また、仮想視点Pは、画像処理装置100において生成される俯瞰画像の視点を表す。本実施の形態において俯瞰画像と称する場合は、仮想視点Pから見た画像を意味するものとする。
撮像装置情報160は、予め記憶部150に設定される撮像装置の設置条件に関する情報である。撮像装置の設置条件に関する情報には、撮像装置の位置に関する位置情報、撮像装置の姿勢に関する姿勢情報、撮像装置の解像度といった情報が含まれる。位置情報は、撮像装置の撮像空間800における座標を含む。姿勢情報は、撮像装置のヨー、ロール、ピッチを含む。
第1装置情報161は、共通領域Rabを含む第1領域Raを撮像する第1撮像装置210の位置情報、姿勢情報及び解像度を含む情報である。第1装置情報161には、地表500からの高さHa、俯角θa及びレンズ画角ψaといった設置条件を満たす第1撮像装置210の位置情報、姿勢情報及び解像度が設定されている。
第2装置情報162は、共通領域Rabを含む第2領域Rbを撮像する第2撮像装置220の位置情報、姿勢情報及び解像度を含む情報である。第2装置情報162には、地表500からの高さHb、俯角θb及びレンズ画角ψbといった設置条件を満たす第2撮像装置220の位置情報、姿勢情報及び解像度が設定されている。
なお、第1領域Ra、第2領域Rb、共通領域Rab及び装置間距離Xabは、第1装置情報161と第2装置情報162とから予め定まる情報である。第1領域Ra、第2領域Rb、共通領域Rab及び装置間距離Xabは、予め計算されて撮像装置情報160に記憶されていてもよい。あるいは、第1領域Ra、第2領域Rb、共通領域Rab及び装置間距離Xabは、画像処理装置100が実行する画像処理において都度計算され、メモリ922に記憶するとしてもよい。
被写体情報170は、高さ情報171を含む。高さ情報171は、立体物の種類に基づいて定められた地表500からの高さを表す情報である。高さ情報171は、記憶部150に記憶されている。
具体例として、撮像装置が人を監視するためのカメラである場合、立体物の種類は人である。被写体情報170には、撮像対象である立体物の種類、すなわち人に関する情報が設定されている。また、高さ情報171には、立体物の種類、すなわち人に基づいて定められた地表からの高さを表す情報が設定される。具体的には、人の身長の平均値に基づいて、予め設定された方式により定められた地表からの高さを表す情報が設定される。
また、別の具体例として、撮像装置が車を監視するためのカメラである場合、立体物の種類は車である。被写体情報170には、車に関する情報が設定されている。また、高さ情報171には、車に基づいて定められた地表からの高さを表す情報が設定される。具体的には、車の高さの平均値に基づいて、予め設定された方式により定められた地表からの高さを表す情報が設定される。
画像処理S100は、境界算出処理S110と、俯瞰生成処理S120と、領域画像生成処理S150とを有する。
まず、境界算出処理S110において、境界算出部110は、第1撮像装置210の第1装置情報161と、第2撮像装置220の第2装置情報162と、高さ情報171とを用いて、共通領域Rabを第1撮像装置210の側と第2撮像装置220の側とに分ける基準となる境界位置180を算出する。境界算出部110は、算出した境界位置180を記憶部150に記憶する。
領域画像生成処理S150は、選択処理S130と、画像生成処理S140とからなる。
選択処理S130において、選択部130は、境界位置180と、共通領域Rabに位置する立体物600の位置とに基づいて、第1俯瞰画像311と第2俯瞰画像321とのうち、立体物600の画像の歪みが小さい俯瞰画像を選択画像330として選択する。すなわち、境界位置180は、全体領域Rの俯瞰画像を生成する際に、共通領域Rabの俯瞰画像として第1俯瞰画像311と第2俯瞰画像321とのどちらの俯瞰画像を採用するかを判定するために用いられる。
画像生成処理S140において、画像生成部140は、第1俯瞰画像311における共通領域Rab以外の第1領域Raの画像と、第2俯瞰画像321における共通領域Rab以外の第2領域Rbの画像と、選択画像330に含まれる共通領域Rabの画像とを用いて、第1領域Raと第2領域Rbとからなる全体領域Rの画像を領域画像340として生成する。画像生成部140は、出力インタフェース940を介して、領域画像340をディスプレイなどの表示機器へ出力する。
図4は、本実施の形態に係る境界算出処理S110を示すフロー図である。図5は、図2で説明した撮像空間800における境界位置180の算出方法について説明するための図である。
図4及び図5を用いて、境界算出処理S110について詳しく説明する。
以下において、境界位置180として算出される値を境界位置xcと表記する場合がある。
式1:Ea=x・T/(Ha−T)
式2:Eb=(Xab−x)・T/(Hb−T)
境界算出部110は、式1と式2との差分の絶対値が最小となるX軸上の座標xを境界位置xcとして算出する。境界算出部110は、算出した境界位置180を記憶部150に記憶する。
図5は、図2で説明した撮像装置の設置条件において、共通領域Rabに立体物600が位置する場合の、第1撮像装置210と第2撮像装置220と立体物600との位置関係を示すXZ平面図である。
共通領域Rabの高さTにおいて交わるように設定されたラインaとラインbとの交点を交点T1とする。ラインaは、撮像素子中心3aから共通領域Rab上に下された直線であり、ラインbは撮像素子中心3bから共通領域Rab上に下された直線である。交点T1から共通領域Rab上に下された垂線と地表500、すなわちX軸との交点を境界位置xcとする。
ラインaと地表500との交点と境界位置xcとの間のX軸方向の距離が第1歪み度Eaである。
ラインbと地表500との交点と、境界位置xcとの間のX軸方向の距離が第2歪み度Ebである。
図6を用いて、本実施の形態に係る俯瞰生成処理S120について詳しく説明する。
ステップS122において、俯瞰生成部120は、第1画像310と第2画像320との各々について、撮像装置のレンズの影響による画像歪みを補正するレンズ歪み補正処理を実行する。具体的には、俯瞰生成部120は、第1撮像装置210と第2撮像装置220との各々のレンズが持つ歪みを補正するための計算パラメータを用いて、第1画像310と第2画像320との各々についてレンズ歪み補正処理を実行する。この計算パラメータは第1撮像装置210と第2撮像装置220との各々について予め採取され、記憶部150の撮像装置情報160に記憶されている。俯瞰生成部120は、記憶部150から計算パラメータを読み出し、読み出した計算パラメータを用いて第1画像310と第2画像320との各々についてレンズ歪み補正処理を実行する。
なお、第1俯瞰画像311と第2俯瞰画像321との各々は、視点変換処理の影響により、共通領域Rabの立体物600が歪んでいる。
図7を用いて、本実施の形態に係る選択処理S130について詳しく説明する。
比較画像190とは、第1俯瞰画像311と第2俯瞰画像321とが重なっている範囲である共通領域Rabにおいて、立体物が無い状態を仮想視点Pから見た俯瞰画像である。すなわち、比較画像190は、共通領域Rabにおいて立体物が存在しない状態、すなわち立体物が削除された状態を仮想視点Pから見た俯瞰画像である。比較画像190は、予め生成され、記憶部150に記憶される。
位置検出部131は、第1俯瞰画像311に含まれる共通領域Rabの俯瞰画像である共通俯瞰画像30aと、第2俯瞰画像321に含まれる共通領域Rabの俯瞰画像である共通俯瞰画像30bとを取得する。
図8の(a)は、第1俯瞰画像311の共通俯瞰画像30aである。共通俯瞰画像30aに表される立体物600の画像を立体物画像60aとする。立体物画像60aは、第1画像310が視点変換された立体物600の画像であり、立体物600が右側、すなわち第1撮像装置210から離れる方向に倒れこむような画像となる。
図8の(b)は、第2俯瞰画像321の共通俯瞰画像30bである。共通俯瞰画像30bに表される立体物600の画像を立体物画像60bとする。立体物画像60bは、第2画像320が視点変換された立体物600の画像であり、立体物600が左側、すなわち第2撮像装置220から離れる方向に倒れこむような画像となる。
図8の(c)は、記憶部150に記憶されている比較画像190である。比較画像190は、立体物が無い状態の共通領域Rabを仮想視点Pから見た俯瞰画像である。
位置検出部131は、差分画像31aと差分画像31bとに対し、ブレンディング、すなわち半透明画像の重ね合わせ処理を実行し、差分画像31aと差分画像31bとが合成された合成画像33を生成する。図8の(f)は、立体物画像60aと立体物画像60bとが重畳された合成画像33を示している。合成画像33において、立体物画像60aと立体物画像60bとが重畳する部分の立体物重畳部分60abは、立体物600が地表500に接する領域を示している。位置検出部131は、立体物重畳部分60abの中心位置のX座標を立体物600の位置である立体物位置xpとして検出する。
ステップS133において、画像選択部132は、読み出した境界位置xcと、共通領域Rabに位置する立体物600の立体物位置xpとに基づいて、第1俯瞰画像311と第2俯瞰画像321とのうち、立体物600の画像の歪みが小さい俯瞰画像を選択画像330として選択する。
具体的には、画像選択部132は、境界位置xcに基づいて、立体物位置xpが第1撮像装置210の側にあるか第2撮像装置220の側にあるかを判定する。そして、画像選択部132は、立体物位置xpが境界位置xcより第1撮像装置210の側にある場合に第1俯瞰画像311を選択画像330として選択する。また、画像選択部132は、立体物位置xpが境界位置xcより第2撮像装置220の側にある場合に第2俯瞰画像321を選択画像330として選択する。
また、立体物位置xpが境界位置xcより第2撮像装置220の側にあるということは、立体物600のX座標である立体物位置xpが境界位置xcより第2撮像装置220の側にあることである。すなわち、立体物600が境界位置xcをX座標とする共通領域Rab上の直線より第2撮像装置220の側にあることを意味する。
ステップS133において、立体物位置xpが境界位置xcより小さい場合、ステップ135に進む。立体物位置xpが境界位置xcより小さいということは、立体物位置xpが境界位置xcより第1撮像装置210の側にあることを意味する。よって、ステップS135において、画像選択部132は、第1俯瞰画像311を選択画像330として選択する。
図9を用いて、本実施の形態に係る画像生成処理S140について詳しく説明する。
ステップS142において、画像生成部140は、出力インタフェース940を介して、領域画像340をディスプレイなどの表示機器へ出力する。
図10では、立体物位置xpが境界位置xcより第1撮像装置210の側にあるため、画像選択部132は第1俯瞰画像311を選択画像330として選択する。よって、画像選択部132は、第1俯瞰画像311と、第2俯瞰画像321において共通領域Rabを除いた第2領域Rbの画像とを合成し、全体領域Rの領域画像340を生成する。すなわち、領域画像340は、第1俯瞰画像311における共通領域Rab以外の画像と、第2俯瞰画像321における共通領域Rab以外の画像と、選択画像330である第1俯瞰画像311に含まれる共通領域Rabの画像とにより生成されている。
図11では、立体物位置xpが境界位置xcより第2撮像装置220の側にあるため、画像選択部132は、第2俯瞰画像321を選択画像330として選択する。よって、画像選択部132は、第2俯瞰画像321と、第1俯瞰画像311において共通領域Rabを除いた第1領域Raの画像とを合成し、全体領域Rの領域画像340を生成する。すなわち、領域画像340は、第1俯瞰画像311における共通領域Rab以外の画像と、第2俯瞰画像321における共通領域Rab以外の画像と、選択画像330である第2俯瞰画像321に含まれる共通領域Rabの画像とにより生成されている。
本実施の形態では、画像処理装置100は、入力インタフェース930を介して第1画像310及び第2画像320を取得し、出力インタフェース940を介して領域画像340を出力する構成であった。しかし、画像処理装置100が通信装置を備え、通信装置を介して第1画像310及び第2画像320を受信してもよい。また、画像処理装置100は、通信装置を介して領域画像340を送信してもよい。この場合、通信装置はレシーバとトランスミッタとを備える。具体的には、通信装置は通信チップまたはNIC(Network・Interface・Card)である。通信装置はデータを通信する通信部として機能する。レシーバはデータを受信する受信部として機能し、トランスミッタはデータを送信する送信部として機能する。
図12を用いて、本実施の形態の変形例に係る画像処理装置100の構成について説明する。
図12に示すように、画像処理装置100は、処理回路909、入力インタフェース930、出力インタフェース940といったハードウェアを備える。
また、記憶部150が補助記憶装置921で実現されている場合は、1枚目の領域画像を生成する処理の際に記憶部150から読み出された情報をメモリ922に記憶しておく。これにより、2枚目以降の領域画像を生成する処理では補助記憶装置921から読み出す必要はなくなる。
このような場合には、立体物の移動方向が一定の領域ごとに全体領域Rを分割して、分割したそれぞれの領域で上述した画像処理S100を実行すればよい。具体的には、図13に示すように、全体領域Rには、立体物600bがB方向に移動する車線である領域R1と、立体物600aがA方向に移動する車線である領域R2とが存在する。画像処理装置は、全体領域Rが領域R1と領域R2とに分割されて定義された撮像装置情報を予め記憶部に記憶しておく。そして、画像処理装置は、領域R1と領域R2との各々の領域において画像処理S100を実行し、領域R1の俯瞰画像と領域R2の俯瞰画像とを生成する。そして、画像処理装置は、領域R1の俯瞰画像と領域R2の俯瞰画像とを合成して全体領域Rの領域画像を生成する。
以上のように、本実施の形態に係る画像処理装置では、立体物の歪み度の差分が最も小さくなる境界位置を境界として、立体物位置が境界位置に対していずれの側に位置するのかを判定する。そして、この判定結果に基づいて共通領域の画像として表示する俯瞰画像の選択処理を行うことにより、立体物の歪み度が小さい方の俯瞰画像が選択される。よって、本実施の形態に係る画像処理装置によれば、立体物画像が2重に表示されるといった不自然な画像になることはなく、立体物の歪みが小さい合成俯瞰画像が得られる。
本実施の形態では、主に、実施の形態1と異なる点について説明する。
実施の形態1では、共通領域Rab内に1つの立体物がある場合の画像処理について説明した。また、実施の形態1では、視点変換された立体物の画像が歪んだままで領域画像が生成されていた。本実施の形態では、共通領域Rab内にn個(nは1以上の自然数)の立体物がある場合に、各々の立体物の視点変換後の画像を圧縮変形させることにより立体物の画像の歪みを低減して表示する画像処理装置100aについて説明する。
図14を用いて、本実施の形態に係る画像処理装置100aの構成について説明する。
なお、本実施の形態において、実施の形態1で説明した構成と同様の構成については同一の符号を付し、その説明を省略する。
図15を用いて、本実施の形態に係る画像処理装置100aの画像処理S100aについて説明する。本実施の形態では、領域画像生成処理S150aが実施の形態1の領域画像生成処理S150とは異なる。すなわち、選択処理S130a及び画像生成処理S140aが、実施の形態1の選択処理S130及び画像生成処理S140とは異なる。
領域画像生成処理S150aでは、画像処理装置100aは、共通領域Rab内のn個の立体物の視点変換後の立体物画像601,602,・・・,60nについて、それぞれの画像の歪みを圧縮変形により補正する。
ステップS151において、位置検出部131aは、記憶部150から比較画像190を読み出す。位置検出部131aは、第1俯瞰画像311と第2俯瞰画像321と比較画像190とに基づいて、共通領域Rabに位置するn個の立体物の各々の立体物位置xpi(iはn以下の自然数)を算出する。すなわち、位置検出部131aは、立体物位置xp1,xp2,・・・,xpnを検出する。ステップS151の各立体物位置xpiの検出方法は実施の形態1で説明したステップS131と同様である。
ステップS152において、画像選択部132aは、記憶部150から境界位置xcを読み出す。ステップS152の処理は実施の形態1で説明したステップS132と同様である。
ステップS153において、画像選択部132aは、境界位置xcと、共通領域Rabに位置する立体物位置xpiとに基づいて、第1俯瞰画像311と第2俯瞰画像321とのうち、立体物画像60iの歪みが小さい俯瞰画像を選択画像330として選択する。立体物画像60iは処理対象の立体物画像である。画像選択部132aは、立体物位置xpiが境界位置xcより第1撮像装置210の側にある場合に第1俯瞰画像311を選択画像330として選択する(ステップS155)。また、画像選択部132aは、立体物位置xpiが境界位置xcより第2撮像装置220の側にある場合に第2俯瞰画像321を選択画像330として選択する(ステップS154)。ステップS153からステップS155の処理は実施の形態1で説明したステップS133からステップS135と同様である。
具体例として、共通領域Rabに3つの立体物が位置するものとする。また、3つの立体物の各々の立体物位置xp1,xp2,xp3が検出されたものとする。図17の(a)に示すように、立体物位置xp1,xp2は境界位置xcより第1撮像装置210の側にある。また、図17の(b)に示すように、立体物位置xp3は境界位置xcより第2撮像装置220の側にある。
よって、立体物位置xp1,xp2にある各々の立体物の俯瞰画像としては、第1俯瞰画像311が選択される。立体物位置xp1,xp2にある各々の立体物の俯瞰画像を、立体物画像601,602とする。立体物位置xp3にある立体物の俯瞰画像としては、第2俯瞰画像321が選択される。立体物位置xp3にある立体物の俯瞰画像を、立体物画像603とする。
図17の(a)(b)の例では、撮像素子中心である35aと立体物位置xp1との距離L1よりも、35aと立体物位置xp2との距離L2の方が長い。よって、立体物画像602の画像変形係数Q2は、立体物画像601の画像変形係数Q1よりも大きな値に決定される。具体的には、立体物位置xpを変数とする演算式が予め記憶部150に記憶されており、画像生成部140aは記憶部150に記憶された演算式と立体物位置xpiとを用いて画像変形係数Qiを算出する。または、立体物位置xpをパラメータとした画像変形係数テーブルが予め記憶部150に記憶されており、画像生成部140aは記憶部150に記憶された画像変形係数テーブルからxpiに対応する値を画像変形係数Qiとして読み込むようにしてもよい。
また、図17の(f)の立体物補正画像603pは、図17の(d)の立体物画像603に対して圧縮変形処理を行った結果を表している。
なお、立体物画像に対する圧縮変形は、撮像素子中心と俯瞰画像における立体物画像の中心とを結ぶ直線方向に行われることが望ましい。
ステップS159において全ての立体物について補正が完了した場合、ステップS160進む。
ステップS159において補正が完了していない立体物が残っている場合、ステップS153に戻り、立体物画像60iの次の立体物画像について処理を行う。
ステップS161において、画像生成部140aは、第1俯瞰画像311における共通領域Rab以外の画像と、第2俯瞰画像321における共通領域Rab以外の画像と、補正共通画像36とを用いて、全体領域Rの領域画像340を生成する。
ステップS162において、画像生成部140は、出力インタフェース940を介して、領域画像340をディスプレイなどの表示機器へ出力する。
以上のように、本実施の形態に係る画像処理装置によれば、共通領域に複数存在する立体物について、立体物位置と境界位置とに基づいて圧縮変形する立体物画像を選択し、選択した立体物画像を圧縮変形することができる。よって、本実施の形態に係る画像処理装置によれば、共通領域における立体物画像の歪みをさらに小さくすることができ、合成俯瞰画像の画像品質を向上させることができる。
なお、上記の実施の形態は、本質的に好ましい例示であって、本発明、その適用物や用途の範囲を制限することを意図するものではなく、必要に応じて種々の変更が可能である。
Claims (9)
- 立体物が位置する共通領域を含む第1領域を撮像する第1撮像装置の位置情報を含む第1装置情報と、前記共通領域を含む第2領域を撮像する第2撮像装置の位置情報を含む第2装置情報とを用いて、前記共通領域を前記第1撮像装置の側と前記第2撮像装置の側とに分ける基準となる境界位置を算出する境界算出部と、
前記境界位置と前記立体物の位置とに基づいて、前記第1撮像装置が前記第1領域を撮像した画像が視点変換された第1俯瞰画像であって前記立体物の画像が歪んでいる第1俯瞰画像と、前記第2撮像装置が前記第2領域を撮像した画像が視点変換された第2俯瞰画像であって前記立体物の画像が歪んでいる第2俯瞰画像とのうち、前記立体物の画像の歪みが小さい俯瞰画像を選択画像として選択する選択部と、
前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像と、前記選択画像に含まれる前記共通領域の画像とに基づいて、前記第1領域と前記第2領域とからなる領域の領域画像を生成する画像生成部と
を備える画像処理装置。 - 前記選択部は、
前記立体物の位置が前記境界位置より前記第1撮像装置の側にある場合に前記第1俯瞰画像を前記選択画像として選択し、前記立体物が前記境界位置より前記第2撮像装置の側にある場合に前記第2俯瞰画像を前記選択画像として選択する請求項1に記載の画像処理装置。 - 前記境界算出部は、
前記第1俯瞰画像における歪みの度合いを表す第1歪み度であって前記第1装置情報と前記立体物の種類に基づいて定められた地表からの高さを表す高さ情報とを用いて求められる第1歪み度と、前記第2俯瞰画像における歪みの度合いを表す第2歪み度であって前記第2装置情報と前記高さ情報とを用いて求められる第2歪み度とを用いて、前記境界位置を算出する請求項1または2に記載の画像処理装置。 - 前記境界算出部は、
前記第1歪み度と前記第2歪み度との差分の絶対値が最小となる前記共通領域の位置を前記境界位置として算出する請求項3に記載の画像処理装置。 - 前記選択部は、
前記共通領域において立体物が存在しない比較画像と前記第1俯瞰画像に含まれる前記共通領域の画像と前記第2俯瞰画像に含まれる前記共通領域の画像とに基づいて、前記立体物の位置を検出する請求項1から4のいずれか1項に記載の画像処理装置。 - 前記画像生成部は、
前記選択画像に含まれる前記共通領域の画像の前記立体物の画像の歪みを補正し、歪みが補正された前記立体物の画像と前記比較画像とを合成し、合成して得られる合成画像と、前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像とを用いて、前記領域画像を生成する請求項5に記載の画像処理装置。 - 前記画像生成部は、
前記選択部により検出された前記立体物の位置に基づいて画像変形係数を決定し、前記画像変形係数を用いて前記立体物の画像の歪みを補正する請求項6に記載の画像処理装置。 - 境界算出部が、立体物が位置する共通領域を含む第1領域を撮像する第1撮像装置の位置情報を含む第1装置情報と、前記共通領域を含む第2領域を撮像する第2撮像装置の位置情報を含む第2装置情報とを用いて、前記共通領域を前記第1撮像装置の側と前記第2撮像装置の側とに分ける基準となる境界位置を算出し、
選択部が、前記境界位置と前記立体物の位置とに基づいて、前記第1撮像装置が前記第1領域を撮像した画像が視点変換された第1俯瞰画像であって前記立体物の画像が歪んでいる第1俯瞰画像と、前記第2撮像装置が前記第2領域を撮像した画像が視点変換された第2俯瞰画像であって前記立体物の画像が歪んでいる第2俯瞰画像とのうち、前記立体物の画像の歪みが小さい俯瞰画像を選択画像として選択し、
画像生成部が、前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像と、前記選択画像に含まれる前記共通領域の画像とに基づいて、前記第1領域と前記第2領域とからなる領域の領域画像を生成する画像処理方法。 - 立体物が位置する共通領域を含む第1領域を撮像する第1撮像装置の位置情報を含む第1装置情報と、前記共通領域を含む第2領域を撮像する第2撮像装置の位置情報を含む第2装置情報とを用いて、前記共通領域を前記第1撮像装置の側と前記第2撮像装置の側とに分ける基準となる境界位置を算出する境界算出処理と、
前記境界位置と前記立体物の位置とに基づいて、前記第1撮像装置が前記第1領域を撮像した画像が視点変換された第1俯瞰画像であって前記立体物の画像が歪んでいる第1俯瞰画像と、前記第2撮像装置が前記第2領域を撮像した画像が視点変換された第2俯瞰画像であって前記立体物の画像が歪んでいる第2俯瞰画像とのうち、前記立体物の画像の歪みが小さい俯瞰画像を選択画像として選択する選択処理と、
前記第1俯瞰画像における前記共通領域以外の前記第1領域の画像と、前記第2俯瞰画像における前記共通領域以外の前記第2領域の画像と、前記選択画像に含まれる前記共通領域の画像とに基づいて、前記第1領域と前記第2領域とからなる領域の領域画像を生成する画像生成処理とをコンピュータに実行させる画像処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/081358 WO2017077650A1 (ja) | 2015-11-06 | 2015-11-06 | 画像処理装置、画像処理方法及び画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6239205B2 JP6239205B2 (ja) | 2017-11-29 |
JPWO2017077650A1 true JPWO2017077650A1 (ja) | 2017-12-07 |
Family
ID=58661799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017543843A Active JP6239205B2 (ja) | 2015-11-06 | 2015-11-06 | 画像処理装置、画像処理方法及び画像処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10417743B2 (ja) |
JP (1) | JP6239205B2 (ja) |
GB (1) | GB2556797B (ja) |
WO (1) | WO2017077650A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110178365B (zh) * | 2017-02-15 | 2021-10-08 | 松下知识产权经营株式会社 | 图像处理装置和图像处理方法 |
US10579067B2 (en) * | 2017-07-20 | 2020-03-03 | Huawei Technologies Co., Ltd. | Method and system for vehicle localization |
WO2019186787A1 (ja) | 2018-03-28 | 2019-10-03 | 三菱電機株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
US11115623B2 (en) * | 2018-05-07 | 2021-09-07 | Maxim Integrated Products, Inc. | Systems and methods for asymmetric image splitter with line mark memory |
US10380440B1 (en) | 2018-10-23 | 2019-08-13 | Capital One Services, Llc | Method for determining correct scanning distance using augmented reality and machine learning models |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005333565A (ja) * | 2004-05-21 | 2005-12-02 | Auto Network Gijutsu Kenkyusho:Kk | 監視装置 |
JP2008048317A (ja) * | 2006-08-21 | 2008-02-28 | Sanyo Electric Co Ltd | 画像処理装置並びに視界支援装置及び方法 |
WO2010070920A1 (ja) * | 2008-12-19 | 2010-06-24 | パナソニック株式会社 | 車両周囲画像生成装置 |
WO2010137265A1 (ja) * | 2009-05-25 | 2010-12-02 | パナソニック株式会社 | 車両周囲監視装置 |
WO2012096058A1 (ja) * | 2011-01-11 | 2012-07-19 | アイシン精機株式会社 | 画像生成装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050031169A1 (en) * | 2003-08-09 | 2005-02-10 | Alan Shulman | Birds eye view virtual imaging for real time composited wide field of view |
JP4830380B2 (ja) | 2005-07-13 | 2011-12-07 | 日産自動車株式会社 | 車両周辺監視装置及び車両周辺監視方法 |
JP4674900B2 (ja) | 2005-10-14 | 2011-04-20 | アルパイン株式会社 | 車載画像表示装置 |
JP4934308B2 (ja) | 2005-10-17 | 2012-05-16 | 三洋電機株式会社 | 運転支援システム |
US7728879B2 (en) | 2006-08-21 | 2010-06-01 | Sanyo Electric Co., Ltd. | Image processor and visual field support device |
JP4248570B2 (ja) | 2006-08-21 | 2009-04-02 | 三洋電機株式会社 | 画像処理装置並びに視界支援装置及び方法 |
JP5053043B2 (ja) | 2007-11-09 | 2012-10-17 | アルパイン株式会社 | 車両周辺画像生成装置および車両周辺画像の歪み補正方法 |
JP5222597B2 (ja) * | 2008-03-19 | 2013-06-26 | 三洋電機株式会社 | 画像処理装置及び方法、運転支援システム、車両 |
JP4214291B1 (ja) | 2008-03-26 | 2009-01-28 | 株式会社ザイナス | 接地点推定装置、接地点推定方法、動線表示システムおよびサーバ |
JP5067632B2 (ja) | 2008-11-28 | 2012-11-07 | アイシン精機株式会社 | 鳥瞰画像生成装置 |
JP2010147523A (ja) | 2008-12-16 | 2010-07-01 | Panasonic Corp | 車両周囲の俯瞰画像生成装置 |
JP5091882B2 (ja) | 2009-01-21 | 2012-12-05 | 三洋電機株式会社 | 画像処理装置並びに視界支援装置及び方法 |
JP5035284B2 (ja) * | 2009-03-25 | 2012-09-26 | 株式会社日本自動車部品総合研究所 | 車両周辺表示装置 |
WO2011106578A2 (en) * | 2010-02-26 | 2011-09-01 | Gentex Corporation | Automatic vehicle equipment monitoring, warning, and control system |
JP5699679B2 (ja) | 2011-02-24 | 2015-04-15 | 富士通セミコンダクター株式会社 | 画像処理装置、画像処理システム、及び画像処理方法 |
JP5483120B2 (ja) * | 2011-07-26 | 2014-05-07 | アイシン精機株式会社 | 車両周辺監視システム |
WO2013046593A1 (ja) * | 2011-09-30 | 2013-04-04 | パナソニック株式会社 | 俯瞰画像生成装置、俯瞰画像生成方法、および俯瞰画像生成プログラム |
JP5906696B2 (ja) | 2011-11-30 | 2016-04-20 | アイシン精機株式会社 | 車両周辺撮影装置および車両周辺画像の処理方法 |
-
2015
- 2015-11-06 GB GB1803427.2A patent/GB2556797B/en active Active
- 2015-11-06 WO PCT/JP2015/081358 patent/WO2017077650A1/ja active Application Filing
- 2015-11-06 JP JP2017543843A patent/JP6239205B2/ja active Active
- 2015-11-06 US US15/756,455 patent/US10417743B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005333565A (ja) * | 2004-05-21 | 2005-12-02 | Auto Network Gijutsu Kenkyusho:Kk | 監視装置 |
JP2008048317A (ja) * | 2006-08-21 | 2008-02-28 | Sanyo Electric Co Ltd | 画像処理装置並びに視界支援装置及び方法 |
WO2010070920A1 (ja) * | 2008-12-19 | 2010-06-24 | パナソニック株式会社 | 車両周囲画像生成装置 |
WO2010137265A1 (ja) * | 2009-05-25 | 2010-12-02 | パナソニック株式会社 | 車両周囲監視装置 |
WO2012096058A1 (ja) * | 2011-01-11 | 2012-07-19 | アイシン精機株式会社 | 画像生成装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2017077650A1 (ja) | 2017-05-11 |
GB201803427D0 (en) | 2018-04-18 |
GB2556797A (en) | 2018-06-06 |
US10417743B2 (en) | 2019-09-17 |
GB2556797B (en) | 2018-10-24 |
US20180253823A1 (en) | 2018-09-06 |
JP6239205B2 (ja) | 2017-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6239205B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP5954668B2 (ja) | 画像処理装置、撮像装置および画像処理方法 | |
KR101697512B1 (ko) | 영상 정합 장치 및 방법 | |
US11589023B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US9013559B2 (en) | System, method and program for capturing images from a virtual viewpoint | |
JP5694300B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6570296B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6882868B2 (ja) | 画像処理装置、画像処理方法、システム | |
CN102714695A (zh) | 图像处理装置、图像处理方法及程序 | |
JP2015197745A (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
US11488354B2 (en) | Information processing apparatus and information processing method | |
JP2019083402A (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
JP7159384B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2009093332A (ja) | 車両周辺画像処理装置及び車両周辺状況提示方法 | |
US20170142384A1 (en) | Image processing apparatus, image processing method, image projection system, and storage medium | |
JP5906696B2 (ja) | 車両周辺撮影装置および車両周辺画像の処理方法 | |
JP6205755B2 (ja) | プロジェクタ装置、プロジェクタシステム、プロジェクタ制御方法及びプロジェクタ制御プログラム | |
JP7032532B2 (ja) | 撮像装置、画像補正方法および画像補正プログラム | |
JP2019504414A (ja) | 車両の周囲の正面の光景を表示する方法及びデバイス並びにそれぞれの車両 | |
JP2006302195A (ja) | 画像処理方法及び画像処理装置 | |
JP5955003B2 (ja) | 画像処理装置および画像処理方法、プログラム | |
JP5891751B2 (ja) | 画像間差分装置および画像間差分方法 | |
JP6320165B2 (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
JP6762779B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
US20230325969A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170817 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170817 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6239205 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |