JP6740867B2 - 画像処理方法 - Google Patents

画像処理方法 Download PDF

Info

Publication number
JP6740867B2
JP6740867B2 JP2016219028A JP2016219028A JP6740867B2 JP 6740867 B2 JP6740867 B2 JP 6740867B2 JP 2016219028 A JP2016219028 A JP 2016219028A JP 2016219028 A JP2016219028 A JP 2016219028A JP 6740867 B2 JP6740867 B2 JP 6740867B2
Authority
JP
Japan
Prior art keywords
image
frame
overlapping portion
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016219028A
Other languages
English (en)
Other versions
JP2018078449A (ja
Inventor
渡辺 功
功 渡辺
後藤 英樹
英樹 後藤
拓也 松田
拓也 松田
孝 安田
孝 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016219028A priority Critical patent/JP6740867B2/ja
Publication of JP2018078449A publication Critical patent/JP2018078449A/ja
Application granted granted Critical
Publication of JP6740867B2 publication Critical patent/JP6740867B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理方法に関する。
従来より、車両の周辺の画像を所定の時間間隔で撮影し、データベースに記録するシステムがある。車速が高い場合には風景の変化が大きくなるため、撮影及び記録の頻度を高くし、車速が低い場合には風景の変化が少ないため、撮影及び記録の頻度を低くすることにより、車両の周辺の画像を車速に応じて撮影し、記録している(例えば、特許文献1参照)。
特開2009−099033号公報
ところで、従来のシステムは、撮影によって得られる画像のフレームデータをすべてデータベースに記録するため、データ量が膨大になる。また、時系列的に隣り合うフレームの画像には、重複した画像が含まれる場合があるため、本来必要としていない部分の画像まで重複的に記録している可能性がある。また、データベースの容量には限りがあるため、記録できる画像のデータ量にも限りがある。
そこで、重複部分を削除することにより、データベースに記録できる撮影時間を長くした、画像処理方法を提供することを目的とする。
本発明の実施の形態の画像処理方法は、車両の側方の画像を取得する画像取得部に接続されるコンピュータが実行する画像処理方法であって、
前記画像取得部によって取得される第1フレームの画像と、前記第1フレームよりも後に取得される第2フレームの画像との重複部分があるかを判定する対象領域を、前記車両の車速に基づいて求める導出ステップと、
前記対象領域に含まれる画像情報に基づいて前記重複部分があるかを判定する判定ステップと、
前記重複部分がある場合に、前記重複部分を前記第1フレームの画像と、前記第2フレームの画像のいずれか一方から削除する削除ステップと、
前記第1フレームの画像と、前記第2フレームの画像のうちの前記重複部分が削除されたいずれか一方と、前記重複部分が削除されていないいずれか他方とをデータ格納部に格納する格納ステップと、
を備える画像処理方法。
このため、データ格納部に画像の重複部分を格納することを抑制し、データ格納部のデータ容量を有効的に利用し、より多くの場面で取得した画像を格納することができる。
従って、重複部分を削除することにより、データベースに記録できる撮影時間を長くした、画像処理方法を提供することができる。
重複部分を削除することにより、データベースに記録できる撮影時間を長くした、画像処理方法を提供することができる。
実施の形態1の画像処理装置100を示す図である。 制御部110が行う画像処理を説明する図である。 車速に基づいて画像に設定する判定対象領域を説明する図である。 実施の形態1の画像処理方法を実現するフローチャートを示す図である。 実施の形態2の画像処理装置200を示す図である。 制御部210が行う画像処理を説明する図である。 画像情報を示す図である。 ベース画像としての画像70と、差分画像71A1、71Bと、画像情報とから画像71を復元する方法を示す図である。 実施の形態2の画像処理方法を実現するフローチャートを示す図である。 画像を復元する処理を示すフローチャートである。
以下、本発明の画像処理方法を適用した実施の形態について説明する。
<実施の形態1>
図1は、実施の形態1の画像処理装置100を示す図である。画像処理装置100は、車両に搭載される。車両は、内燃機関(例えば、ガソリンエンジン又はディーゼルエンジン等)、HV(Hybrid Vehicle)、EV(Electric Vehicle)、又は燃料電池車(FCV:Fuel Cell Vehicle)等である。
画像処理装置100は、ゲートウェイECU(Electronic Control Unit)であり、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、クロック生成部、入出力インターフェース、通信インターフェース、送受信部、及び内部バス等を含むコンピュータによって実現される。画像処理装置100は、一例として、通信プロトコルとしてEthernetプロトコルを用いている。
図1には、画像処理装置100の構成要素として、制御部110、メモリ120、HDD130を示す。画像処理装置100には、カメラ50と車速センサ60が配線50A及び60Aを介して接続される。配線50A及び60Aは、VLAN(Virtual Local Area Network)ではなく、物理的なケーブルである。
カメラ50は、車両の側方を向けて設置され、カメラ50の撮影処理等の制御を行う画像撮影部51を有する。画像撮影部51は、例えば、CPUチップ又はマイクロコンピュータである。カメラ50は、一例として、フレームレートが30フレーム/秒の画像を撮影することができるデジタルビデオカメラである。カメラ50は、実際には、車両の進行方向に対する左側方及び右側方を撮影できるように、左右に1つずつ設置される。車速センサ60は、車軸の回転数等に基づいて車両の速度を検出する。このようなカメラ50は、画像取得部の一例である。
制御部110は、主制御部111、画像取得部112、車速取得部113、重複部分導出部114、削除処理部115、及びパノラマ処理部116を有する。
主制御部111は、制御部110の処理を統括する制御部である。主制御部111は、画像取得部112、車速取得部113、重複部分導出部114、削除処理部115、及びパノラマ処理部116が行う処理以外の制御部110の処理を行う。
画像取得部112は、カメラ50の画像撮影部51によって撮影(取得)される画像のデータを配線50Aを介して取得する。また、車速取得部113は、車速センサ60によって検出される車速を表すデータを配線60Aを介して取得する。
重複部分導出部114は、カメラ50から画像取得部112が取得する最新のフレームの画像と、1つ前のフレームの画像とについて、重複部分があるかどうかの判定を行う判定対象領域を設定し、判定対象領域の画像同士が重複するかどうかを判定する。重複部分導出部114は、車速センサ60から車速取得部113が取得する車速に基づいて、判定対象領域を設定する。
重複部分導出部114は、重複部分があると判定すると、最新のフレームの画像と、1つ前のフレームの画像との重複部分を導出する。車両が走行している際に車両の側方に向けられたカメラ50から取得される最新のフレームの画像と、1つ前のフレームの画像とに重複部分がある場合と、重複部分がない場合とがある。
重複部分があるとは、最新のフレームの画像と、1つ前のフレームの画像とが重複する部分を有することであり、2つの画像の判定対象領域に含まれる部分の画像同士が互いに等しいことである。判定対象領域に含まれる部分の画像同士が画像が互いに等しいとは、ここでは、パターンマッチングによる画像処理において、最新のフレームの画像のうちの判定対象領域に含まれる部分の画像と、1つ前のフレームの画像のうちの判定対象領域に含まれる部分の画像とが互いに一致すると判定されることをいう。このようにして、重複部分導出部114は、重複部分を導出する。
削除処理部115は、重複部分導出部114によって重複部分があると判定されると、1つ前のフレームの画像から、重複部分を削除する画像処理を行う。
パノラマ処理部116は、最新のフレームの画像と、重複部分が削除された1つ前のフレームの画像とを合成し、車両の走行方向に延ばされたパノラマ画像を作成する。パノラマ画像を作成する際には、最新のフレームの画像が、重複部分が削除された1つ前のフレームの画像の前面に配置される。
メモリ120は、制御部110が画像処理に用いる画像を一時的に保持する格納部(第1格納部)の一例であり、制御部110のRAMによって構成される。HDD130は、制御部110が画像処理を行って得るパノラマ画像等を格納するデータ格納部(第2格納部)の一例である。
図2は、制御部110が行う画像処理を説明する図である。図2では、横軸方向に時間軸(右が正)を取る。車両は、時間の経過とともに走行し、車両の左側方の画像を取得するカメラ50から得られる画像を処理する場合について説明する。
車両の左側方の画像では、車両の走行に従って、画像の右側から左側に向けて被写体が移動する。このため、1フレーム目の画像11には白い壁が写っていても、2フレーム目の画像12の右端にはグレーの模様12Aが現れ、3フレーム目の画像13にはグレーの模様12Aのさらに右に黒い模様13Aが現れる。
このような場合に、車速に基づいて、1フレーム目の画像11の右端から所定幅の判定対象領域と、2フレーム目の画像12の左端から所定幅の判定対象領域とに重複部分があるかどうかを判定する。車両の走行方向が画像の横方向に対応するため、判定対象領域は、縦方向については画像の下端から上端まで延在しており、横方向の幅は、車速によって決まる。
そして、重複部分があれば、1フレーム目の画像11から重複部分を削除した画像と、2フレーム目の画像12とを合成してパノラマ画像21を生成する。この結果、パノラマ画像21の右端には、グレーの模様12Aが含まれる。
また、パノラマ画像21の右端から所定幅の判定対象領域と、3フレーム目の画像13の左端から所定幅の判定対象領域とが一致するかどうか(パノラマ画像21と、3フレーム目の画像13とが重複部分を有するかどうか)を判定する。そして、重複部分があれば、パノラマ画像21から重複部分を削除した画像と、3フレーム目の画像13とを合成してパノラマ画像22を生成する。パノラマ画像22の右端には、グレーの模様12Aと黒い模様13Aが含まれる。
実施の形態1の画像処理方法では、このようにして生成したパノラマ画像21、22を順次HDD130に格納することにより、HDD130に画像の重複部分を格納することを抑制し、HDD130のデータ容量を有効的に利用し、より多くの場面で取得した画像を格納できるようにする。
図3は、車速に基づいて画像に設定する判定対象領域を説明する図である。ピクセルはXY座標で表され、画像の左上を原点として、右方向にX軸の正方向を取り、下方向にY軸の正方向を取る。
最新のフレーム31の画像と、1つ前のフレームの画像に基づくパノラマ画像41とがあるとする。最新のフレーム31の画像とは、カメラ50によって取得された最新のフレームの画像であり、現在の画像である。
1つ前のフレームの画像に基づくパノラマ画像41は、図2に示す3フレーム目の画像13を最新のフレームの画像とした場合に、3フレーム目の画像13に対するパノラマ画像22のように、2フレーム目の画像12に基づいて生成されるパノラマ画像である。
カメラ50のフレームレートと、車速とを用いると、フレーム間に車両が走行する距離Aを求めることができる。さらに、カメラ50の水平方向(横方向)の視野角と、1つのフレームの画像に写る横方向の範囲(長さ)と、1つのフレームの画像に含まれる横方向のピクセル数Wとに基づいて、距離Aを画像の中の距離Xに換算することができる。距離Xはピクセル数で表される。
ここで、最新のフレーム31の画像の車両の走行方向(図3における横方向)の幅はピクセル数Wであるため、最新のフレーム31の画像のうち、フレーム間の走行分の新たな部分は、右端から距離Xの範囲である。
このため、1つ前のフレームの画像に基づくパノラマ画像41と最新のフレーム31とについて、一致する部分があるかどうかの判定処理を行う判定対象領域は、最新のフレーム31については右端側の距離Xの範囲を除いた残りのW−Xの範囲であり、パノラマ画像41については右端からW−Xの範囲である。なお、判定対象領域は、縦方向については画像の下端から上端まで延在する。車両の走行方向が画像の横方向に対応するからである。
実施の形態1の画像処理方法では、最新のフレーム31の画像の右端側の距離Xの範囲を除いた残りのW−Xの範囲と、1つ前のフレームの画像に基づくパノラマ画像41の右端からW−Xの範囲とが一致するかどうか(最新のフレーム31と、1つ前のフレームの画像に基づくパノラマ画像41とが重複部分を有するかどうか)を判定する。
なお、距離Xが1フレームの画像の横方向のピクセル数Wよりも大きいと、判定対象領域が存在しないことになり、重複部分も存在しないことになる。また、距離Xが1フレームの画像の横方向のピクセル数W以下であって判定対象領域が存在しても、1つ前のフレームの撮影をしてから最新のフレームの撮影を行うまでの間の期間に、判定対象領域内に、例えば、人間が突然出現したような場合には、重複部分が存在しないことになる。
図4は、実施の形態1の画像処理方法を実現するフローチャートを示す図である。図4に示すフローは、制御部110によって実行される。
主制御部111は、処理をスタートする(スタート)。主制御部111は、例えば、車両のイグニッションスイッチがオンにされたときに、処理をスタートする。主制御部111は、ループ処理を行う(ステップS1)。ループ処理は、ステップS1からS19までであり、車両のイグニッションスイッチがオフにされるまで繰り返し実行される。
画像取得部112は、カメラ50に撮影を行わせる(ステップS2)。主制御部111は、HDD130のデータ領域が一杯であるかどうかを判定する(ステップS3)。主制御部111は、データ領域が一杯である(S2:YES)と判定すると、最も古い1フレームの画像をHDD130から削除する(ステップS4)。主制御部111は、ステップS4を終えるとフローをステップS5に進行させる。なお、主制御部111は、ステップS2においてデータ領域が一杯ではない(S2:NO)と判定した場合にもフローをステップS5に進行させる。
主制御部111は、カメラ50によって取得された画像をメモリ120に一時的に格納する(ステップS5)。主制御部111は、撮影開始から1フレーム目であるかどうかを判定する(ステップS6)。主制御部111は、撮影開始から1フレーム目である(S6:YES)と判定すると、フローをステップS19に進行させる(ステップS19)。この場合は、ループ処理の1週分が終了し、再びステップS1から処理が行われる。
ステップS6において、主制御部111が撮影開始から1フレーム目ではない(S6:NO)と判定すると、車速取得部113は、車速センサ60から車速データを取得する(ステップS7)。
重複部分導出部114は、車速を用いて、フレーム間に車両が走行する距離Aを算出する(ステップS8)。重複部分導出部114は、カメラ50の水平方向の視野角と、1つのフレームの画像に写る横方向の範囲(長さ)と、1つのフレームの画像に含まれる横方向のピクセル数Wとを取得する(ステップS9)。なお、これらのデータは、カメラ50から取得してもよく、HDD130に格納されているデータを取得してもよい。
重複部分導出部114は、水平方向の視野角と、1つのフレームの画像に写る横方向の範囲(長さ)と、ピクセル数Wとに基づいて、距離Aを画像の中の距離Xに換算する(ステップS10)。
重複部分導出部114は、1つ前のフレームの画像に基づくパノラマ画像、又は、1つ前のフレームの画像の右端からW−Xの範囲を判定対象領域に設定する(ステップS11)。ステップS11では、1つ前のフレームの画像に基づくパノラマ画像がHDD130に格納されていれば、1つ前のフレームの画像に基づくパノラマ画像に判定対象領域を設定し、1つ前のフレームの画像に基づくパノラマ画像がHDD130に格納されていなければ、HDD130に格納されている1つ前のフレームの画像に判定対象領域を設定する。なお、1つ前のフレームの画像に基づくパノラマ画像がHDD130に格納されていない場合とは、1つ前のフレームの画像に基づくパノラマ画像が生成されなかった場合である。
次いで、重複部分導出部114は、最新のフレームの画像の右端側の距離Xの範囲を除いた残りのW−Xの範囲を判定対象領域に設定する(ステップS12)。
重複部分導出部114は、ステップS11とS12で設定した2つの判定対象領域についてパターンマッチング処理を行う(ステップS13)。重複部分があるかどうかを判定する(ステップS14)。
重複部分導出部114は、重複部分がある(S14:YES)と判定すると、1つ前のフレームの画像に基づくパノラマ画像から重複部分を削除した画像と、最新のフレームの画像とを合成してパノラマ画像を生成する(ステップS15)。
重複部分導出部114は、生成したパノラマ画像をHDD130に格納する(ステップS16)。
重複部分導出部114は、重複部分がない(S14:NO)と判定すると、1つ前のフレームの画像に基づくパノラマ画像、又は、1つ前のフレームの画像をHDD130に格納する(ステップS17)。1つ前のフレームの画像を格納する場合は、1つ前のフレームの画像に基づくパノラマ画像が生成されなかった場合である。
主制御部111は、最新のフレームの画像をメモリ120に一時的に格納する(ステップS18)。次いで、主制御部111は、ステップS19において、車両のイグニッションスイッチがオフにされていなければ、フローをステップS1にリターンしてループ処理を再び実行する(ステップS19)。車両のイグニッションスイッチがオフにされていれば、ループ処理を終えてステップS20に進行する。
主制御部111は、最新のフレームの画像をHDD130に格納する(ステップS20)。以上により、一連の処理が終了する(エンド)。
以上、実施の形態1によれば、車速に基づいて、最新のフレームの画像と、1つ前のフレームの画像に基づくパノラマ画像、又は、1つ前のフレームの画像とに判定対象領域を設定し、2つの判定対象領域の画像が一致すると、1つ前のフレームの画像に基づくパノラマ画像、又は、1つ前のフレームの画像の判定対象領域(最新のフレームの画像との重複部分)を削除して、パノラマ画像を生成する。
このため、HDD130に画像の重複部分を格納することを抑制し、HDD130のデータ容量を有効的に利用し、より多くの場面で取得した画像を格納することができる。
従って、重複部分を削除することにより、データベースに記録できる撮影時間を長くした、画像処理方法を提供することができる。
なお、ここでは、画像処理装置100に配線50A及び60Aを介してカメラ50及び車速センサ60が接続される形態を示すが、画像処理装置100には、VLANによって実現される回線を介してECU(Electronic Control Unit)が接続されていてもよく、カメラ50及び車速センサ60はECUに接続されていてもよい。
また、以上では、1つ前のフレームの画像に基づくパノラマ画像、又は、1つ前のフレームの画像の判定対象領域(最新のフレームの画像との重複部分)を削除して、パノラマ画像を生成する形態について説明した。
しかしながら、最新のフレームの画像から判定対象領域(重複部分)を削除して、1つ前のフレームの画像に基づくパノラマ画像、又は、1つ前のフレームの画像の判定対象領域(重複部分)を残してもよい。
<実施の形態2>
図5は、実施の形態2の画像処理装置200を示す図である。画像処理装置200の制御部210は、実施の形態1の制御部110の削除処理部115、パノラマ処理部116の代わりに、差分処理部215、カメラ情報取得部216を含む。その他の構成要素は同様であるため、同様の構成要素には同一符号を付し、その説明を省略する。
重複部分導出部114は、ベースになる画像(ベース画像)と、処理対象になる画像(最新のフレームの画像)との重複部分を導出する。処理対象になる画像は、ベース画像のフレームよりも時系列的に1フレーム又は複数フレームだけ後のフレームの画像である。
差分処理部215は、重複部分導出部114によってベース画像と処理対象になる画像とに重複部分があると判定されると、処理対象になる画像の重複部分を幅方向に複数に短冊状に分解し、短冊画像のうちベース画像と一致する短冊画像を削除し、一致しない短冊画像をHDD130に格納する画像処理を行う。
図6は、制御部210が行う画像処理を説明する図である。図6では、横軸方向に時間軸(右が正)を取る。車両は、時間の経過とともに走行し、車両の左側方の画像を取得するカメラ50から得られる画像を処理する場合について説明する。
まず、カメラ50が取得する画像70(撮影画像)を記録画像としてHDD130に格納する。記録画像としての画像70は、画像70よりも後のフレームの画像と重複部分の有無を判断するベースになる画像(ベース画像)である。
次に、次のフレームの画像71について、画像70と重複する重複部分71Aを求める。重複部分71Aは、図3の画像31の幅W−Xに相当する部分であり、重複していない部分71Bは、図3の画像31の幅Xに相当する部分である。
そして、重複部分71Aを所定幅の短冊状の画像(図6では、7つの短冊画像)に分解し、短冊画像毎に、記録画像としての画像70と一致する短冊画像(○で示す)と、一致しない短冊画像(×で示す)とに分ける。そして、一致しない短冊画像71A1と、重複していない部分71Bとを画像情報とともにHDD130に格納する。一致しない短冊画像71A1と、重複していない部分71Bとは、ベース画像としての画像70との差分を表す(以下、差分画像71A1、71Bとも称す)。
実施の形態2の画像処理方法では、このようにして生成した差分画像71A1、71Bを順次画像情報とともにHDD130に格納することにより、HDD130に画像の重複部分を格納することを抑制し、HDD130のデータ容量を有効的に利用し、より多くの場面で取得した画像を格納できるようにする。
図7は、画像情報を示す図である。画像情報は、ファイル名、タイムスタンプ、車速、ベース画像のポインタ、画像の右端のX座標を含む。ファイル名は、フレーム毎に付与する。また、1つのフレームから差分画像が複数得られた場合は連番にする。タイムスタンプは、ゲートウェイECU200が用いているタイムスタンプであり、ベース画像については絶対値(UTC日付+UTC時間)を用い、差分画像についてはベース画像との時間差(相対値)を用いる。ベース画像のポインタは、HDD130に格納するアドレスを示す。画像の右端のX座標は、ピクセル値で表される。なお、ピクセルはXY座標で表され、画像の左上を原点として、右方向にX軸の正方向を取り、下方向にY軸の正方向を取る。
図8は、ベース画像としての画像70と、差分画像71A1、71Bと、画像情報とから画像71を復元する方法を示す図である。
まず、図8(A)に示すように、ベース画像としての画像70と、差分画像71A1、71Bと、画像情報とから画像71をHDD130から読み出す。なお、差分画像71A1と71Bの位置関係は、元の画像71に含まれていたときの位置関係を保持している。
次に、図8(B)に示すように、画像情報(図7参照)を用いて、ベース画像としての画像70と、差分画像71A1、71Bとの位置を合わせる。位置合わせに際しては、画像情報に含まれる、画像70と差分画像71A1、71Bの時間差と、車速とに基づいて、進んだ距離Xを求める。時間差は、画像情報に含まれるタイムスタンプに基づいて求めることができる。このような距離Xの幅を有する領域70Aを画像70の右端よりも右側に画定する。また、画像70の左端から右側にも距離Xの幅を有する領域70Bを画定する。
そして、領域70Aに差分画像71Bを当て嵌め、このときに差分画像71A1と71Bの位置関係を保ったまま、差分画像71A1を画像70の上に合成する。さらに、画像70の領域70Bの部分を削除する。
この結果、図8(C)に示すように画像71が復元される。以上のような処理を行えば、HDD130に画像70と、差分画像71A1、71Bと、画像情報とを格納しておけば、画像71を復元することができる。
図9は、実施の形態2の画像処理方法を実現するフローチャートを示す図である。図9に示すフローは、制御部210によって実行される。図4に示す処理と同一のステップには、同一のステップ数を付し、その説明を省略する。
主制御部111は、ステップS5の処理を終えると、ベース画像がメモリ120に格納されているかどうかを判定する(ステップS36)。主制御部111は、ベース画像がメモリ120に格納されていない(S36:NO)と判定すると、最新のフレームの画像(処理対象の画像)をベース画像に設定する(ステップS37)。ステップS37では、ベース画像に設定された画像がメモリ120に格納される。主制御部111は、ステップS37の処理を終えると、フローをステップS51に進行させる。この場合は、ループ処理の1週分が終了し、再びステップS1から処理が行われる。
ステップS36において、主制御部111がベース画像がメモリ120に格納されている(S36:YES)と判定すると、車速取得部113は、車速センサ60から車速データを取得する(ステップS7)。
重複部分導出部114は、1つのフレームの画像に含まれる横方向のピクセル数Wと、タイムスタンプとを取得する(ステップS38)。なお、ピクセル数Wは、カメラ50から取得してもよく、HDD130に格納されているデータを取得してもよい。重複部分導出部114は、車速とタイムスタンプを用いて、ベース画像の撮影時よりも車両が走行した距離Xを算出する(ステップS39)。
重複部分導出部114は、ピクセル数Wと距離Xとから、ベース画像と処理対象の画像との重複部分を求める(ステップS40)。重複部分は、W−Xの幅を有し、実施の形態1の図3に示すグレーのW−Xの幅の部分と同様である。
重複部分導出部114は、処理対象の画像について、重複部分を所定幅の短冊画像に分解する(ステップS41)。所定幅は、予め設定しておけばよい。
差分処理部215は、短冊画像の比較処理を行う(ステップS42)。ステップS42からステップS46は、ループ処理である。まず、差分処理部215は、ベース画像との一致があるかどうかを判定する(ステップS43)。ステップS43の処理は、各短冊画像とベース画像をパターンマッチングで比較し、一致する部分があるかどうかを判定する。
差分処理部215は、ベース画像との一致がない(S43:NO)と判定すると、一致がない部分を有する短冊画像にタイムスタンプを付与してメモリ120に格納する(ステップS44)。差分処理部215は、ステップS44の処理を終えると、未判定の短冊画像があれば、ループ処理を行うべくフローをステップS43にリターンする(ステップS46)。
また、差分処理部215は、ベース画像との一致がある(S43:YES)と判定すると、ベース画像と一致がある短冊画像を削除する(ステップS45)。一致がある短冊画像は不要だからである。
差分処理部215は、未判定の短冊画像がなくなると、フローをステップS47に進行させ、ベース画像との一致がある短冊画像の中に含まれる一致する部分が短冊画像の半分未満であるかどうかを判定する(ステップS47)。ベース画像との一致がある短冊画像の中に含まれる一致部分が短冊画像の半分未満であるとは、ベース画像とパターンが一致するピクセルが短冊画像のすべてのピクセルのうちの半分未満であるかどうかという意味である。
差分処理部215は、一致部分が短冊画像の半分未満である(S46:YES)と判定すると、メモリ120に格納されているベース画像と短冊画像をHDD130に格納する(ステップS48)。一致部分が少ないため、ベース画像を新たなベース画像に入れ替えるために、現在メモリ120に格納して使っているベース画像をHDD130に格納することにしたものである。これにより、メモリ120にはベース画像が格納されていない状態になる。なお、ステップS48の処理が終了すると、主制御部111は、フローをステップS49に進行させる。
一方、差分処理部215によって一致部分が短冊画像の半分未満ではない(S46:NO)と判定されると、主制御部111は、フローをステップS49に進行させる。
主制御部111は、ステップS49において、車両のイグニッションスイッチがオフにされていなければ、フローをステップS1にリターンしてループ処理を再び実行する(ステップS49)。車両のイグニッションスイッチがオフにされていれば、ループ処理を終えてステップS50に進行する。
主制御部111は、メモリ120に残っている画像があればHDD130に格納する(ステップS50)。以上により、一連の処理が終了する(エンド)。
図10は、画像を復元する処理を示すフローチャートである。ここでは、画像処理装置200の利用者の操作入力によって、復元したい差分画像が特定されているものとする。
主制御部111は、復元する差分画像の画像情報に記録されているベース画像のポインタを参照する(ステップS61)。
主制御部111は、ポインタによって特定される参照先に画像があるかどうかを判定する(ステップS62)。主制御部111によって参照先に画像がある(S62:YES)と判定されると、重複部分導出部114は、差分画像に関連付けられている車速とタイムスタンプを用いて、進んだ距離Xを計算する(ステップS63)。
差分処理部215は、ベース画像に距離Xによって画定される領域を足し合わせる(ステップS64)。この処理は、図8(B)に示す画像70に領域70Aを足し合わせる処理に相当する。距離Xによって画定される領域は、ベース画像の車両の進行方向側に足し合わされる。このような処理は、すべてピクセル値を用いて行われる。
差分処理部215は、距離Xによって画定される領域の車両の進行方向側の端部から、画像70の幅Wだけ車両の走行方向における後方側に取った領域を差分画像の撮影範囲とする(ステップS65)。この処理は、図8(B)に示す画像70に領域70Aを足し合わせ、領域70Bを差し引いた領域を差分画像の撮影範囲とする処理に相当する。
差分処理部215は、ループ処理による復元処理を行う(ステップS66)。復元処理は、差分画像毎に行う。
差分処理部215は、差分画像の撮影範囲のX座標と、差分画像の車両の走行方向側の端部のX座標の位置を合わせる(ステップS67)。この処理は、図8(B)に示す領域70Aの右端(1920ピクセル)と、差分画像71A1、71Bの右端(1920ピクセル)を合わせる処理に相当する。
差分処理部215は、差分画像を前面に配置して、ベース画像と差分画像を合成する(ステップS68)。
差分処理部215は、すべての差分画像について合成処理を終えると、ループ処理を終える(ステップS69)。
以上、実施の形態2によれば、車速に基づいて、最新のフレームの画像と、ベース画像との重複部分を求め、重複部分を短冊状に分割し、一致しない部分の短冊画像をベース画像と関連付けてHDD130に格納する。すなわち、重複部分のうち、一致する短冊画像は重複的に格納せずに削除する。
このため、HDD130に画像の重複部分を格納することを抑制し、HDD130のデータ容量を有効的に利用し、より多くの場面で取得した画像を格納することができる。
従って、重複部分を削除することにより、データベースに記録できる撮影時間を長くした、画像処理方法を提供することができる。
以上、本発明の例示的な実施の形態の画像処理方法について説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
50 カメラ(画像取得部)
60 車速センサ
100 画像処理装置
110 制御部
111 主制御部
112 画像取得部
113 車速取得部
114 重複部分導出部
115 削除処理部
116 パノラマ処理部
120 メモリ
130 HDD
200 画像処理装置
210 制御部
215 差分処理部
216 カメラ情報取得部

Claims (1)

  1. 車両の側方の画像を取得する画像取得部に接続されるコンピュータが実行する画像処理方法であって、
    前記画像取得部によって取得される第1フレームの画像と、前記第1フレームよりも後に取得される第2フレームの画像との重複部分があるかを判定する対象領域を、前記車両の車速に基づいて求める導出ステップと、
    前記対象領域に含まれる画像情報に基づいて前記重複部分があるかを判定する判定ステップと、
    前記重複部分がある場合に、前記重複部分を前記第1フレームの画像と、前記第2フレームの画像のいずれか一方から削除する削除ステップと、
    前記第1フレームの画像と、前記第2フレームの画像のうちの前記重複部分が削除されたいずれか一方と、前記重複部分が削除されていないいずれか他方とをデータ格納部に格納する格納ステップと、
    を備える画像処理方法。
JP2016219028A 2016-11-09 2016-11-09 画像処理方法 Expired - Fee Related JP6740867B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016219028A JP6740867B2 (ja) 2016-11-09 2016-11-09 画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016219028A JP6740867B2 (ja) 2016-11-09 2016-11-09 画像処理方法

Publications (2)

Publication Number Publication Date
JP2018078449A JP2018078449A (ja) 2018-05-17
JP6740867B2 true JP6740867B2 (ja) 2020-08-19

Family

ID=62150732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016219028A Expired - Fee Related JP6740867B2 (ja) 2016-11-09 2016-11-09 画像処理方法

Country Status (1)

Country Link
JP (1) JP6740867B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7382632B2 (ja) * 2019-11-27 2023-11-17 国立研究開発法人宇宙航空研究開発機構 動画像送信装置、動画像伝送システム、動画像送信方法、およびプログラム
CN111091591B (zh) 2019-12-23 2023-09-26 阿波罗智联(北京)科技有限公司 一种碰撞检测方法、装置、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155839A (ja) * 1998-11-18 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 標識領域画像抽出方法、装置、標識領域画像抽出プログラムを記録した記録媒体
JP2000287114A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 画像撮像記録装置
JP4009173B2 (ja) * 2002-09-30 2007-11-14 富士フイルム株式会社 デジタルカメラ
JP2009253921A (ja) * 2008-04-10 2009-10-29 Sony Corp 撮像装置、撮像画像記録方法およびプログラム
JP2010237797A (ja) * 2009-03-30 2010-10-21 Equos Research Co Ltd 画像処理装置および画像処理プログラム

Also Published As

Publication number Publication date
JP2018078449A (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
EP2862356B1 (en) Method and apparatus for fusion of images
JP4658223B2 (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
US10080007B2 (en) Hybrid tiling strategy for semi-global matching stereo hardware acceleration
CN108463994B (zh) 图像处理装置、图像处理方法和存储介质
KR20150093972A (ko) 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
US20090185056A1 (en) Electronic camera
JPH10126731A (ja) 旅行アルバム作成システム
JP6740867B2 (ja) 画像処理方法
JP2005045328A (ja) 3次元画像撮像装置
US7522189B2 (en) Automatic stabilization control apparatus, automatic stabilization control method, and computer readable recording medium having automatic stabilization control program recorded thereon
JP4578653B2 (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
KR101920159B1 (ko) 지원점 보간법을 이용한 스테레오 매칭 방법 및 장치
JP4934992B2 (ja) 画像処理装置、電子カメラおよび画像処理プログラム
KR102339339B1 (ko) 월파의 부피 산정 방법
JP3915664B2 (ja) 画像処理装置及びそれに用いる画像処理方法並びにそのプログラム
CN109313808A (zh) 图像处理系统
WO2019000427A1 (zh) 一种图像处理方法、装置及电子设备
CN113538269A (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
WO2020137583A1 (ja) 画像生成装置及び画像表示システム
JP3518465B2 (ja) 被写体抽出装置、被写体抽出方法、及び被写体抽出プログラムを記録した記録媒体
JP2931709B2 (ja) 走行車両検知装置
JPH11150741A (ja) ステレオ写真撮影による3次元画像表示方法および装置
JP4560441B2 (ja) 画像合成装置、画像合成方法、及び画像合成プログラム
JP2021002783A (ja) 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置
JP6335668B2 (ja) 撮影装置、その制御方法、撮影システム、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R151 Written notification of patent or utility model registration

Ref document number: 6740867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees