JP5040831B2 - 車両用撮影装置および撮影方法 - Google Patents

車両用撮影装置および撮影方法 Download PDF

Info

Publication number
JP5040831B2
JP5040831B2 JP2008170713A JP2008170713A JP5040831B2 JP 5040831 B2 JP5040831 B2 JP 5040831B2 JP 2008170713 A JP2008170713 A JP 2008170713A JP 2008170713 A JP2008170713 A JP 2008170713A JP 5040831 B2 JP5040831 B2 JP 5040831B2
Authority
JP
Japan
Prior art keywords
photographing
vehicle
shielding object
timing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008170713A
Other languages
English (en)
Other versions
JP2010011311A (ja
Inventor
泰永 丸山
大泉  謙
達雄 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008170713A priority Critical patent/JP5040831B2/ja
Publication of JP2010011311A publication Critical patent/JP2010011311A/ja
Application granted granted Critical
Publication of JP5040831B2 publication Critical patent/JP5040831B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、車両用撮影装置および撮影方法に関する。
従来より、車両に搭載されたカメラから車外の風景を撮影することにより、撮影画像を取得する手法が知られている。例えば、特許文献1には、カーナビゲーションシステムから車両の現在の走行環境情報を取得し、その取得した走行環境に応じてカメラの撮影映像の出力制御を行う、具体的には、撮影映像の明るさを制御する手法が開示されている。
特開2004−123061号公報
しかしながら、特許文献1に開示された手法によれば、車両走行中に撮影を行うため、走行環境や周辺環境の変化にともない、撮影者(乗員)が意図する撮影対象を遮蔽する遮蔽物が映り込んでしまう可能性がある。そのため、乗員の意図した撮影画像を得ることができないという問題である。
本発明はかかる事情に鑑みてなされたものであり、その目的は、遮蔽物の影響を低減させて、乗員が意図した撮影対象を撮影した撮影画像を得ることである。
かかる課題を解決するために、本発明は、撮影範囲において撮影対象と車両との間に存在することにより、撮影画像において撮影対象を遮蔽する遮蔽物が存在するか否かを判定する遮蔽物判定処理を行う。乗員から指示された撮影タイミングにおいて遮蔽物が存在すると判定した場合、この判定以降に遮蔽物が存在しないと判定したことを条件に再撮影タイミングを指示する。そして、指示された再撮影タイミングと対応する撮影画像を取得する。
本発明によれば、遮蔽物判定処理により、撮影タイミングに遮蔽物が存在することを判断することができる。これにより、撮影画像が乗員の意図する撮影対象を遮蔽する遮蔽物が存在することを判断することができる。また、遮蔽物判定処理により、この遮蔽物が存在しなくなったことを判定することができるので、撮影対象の再撮影を行うタイミング(再撮影タイミング)を指示することができる。これにより、遮蔽物の影響が低減させて、乗員が意図した撮影対象を撮影した撮影画像を得ることができる。
(第1の実施形態)
図1は、本発明の第1の実施形態にかかる車両用撮影装置のシステム構成を模式的に示すブロック図である。車両用撮影装置は、車両に搭載されており、乗員による操作に対応して車外の景色を撮影する装置である。本実施形態において、車両用撮影装置は、撮影部1、画像処理部2、遮蔽物検出部3、タイミング入力部4、車両情報検出部5、画像格納部6および表示部7で構成されている。
撮影部(撮影手段)1は、車両を基点として、撮影範囲に含まれる景色を撮影する。撮影部1は、イメージセンサ(例えば、CCDまたはCMOSセンサ等)を内蔵している。撮影部1は、ドアミラーやフロントピラー(Aピラー)などに取り付けられており、例えば、車両前方(具体的には、右前方)の景色を撮影する。撮影部1は、画像処理部2によって制御されており、画像処理部2による撮影画像の取得周期に対応して、撮影範囲内の景色を連続して時系列的に撮影し、撮影画像を画像処理部2に順次出力する。また、撮影部1は、画像処理部2からの撮影指示に対応して、撮影画像を画像処理部2に出力することもできる。
画像処理部2は、撮影部1から所定の周期で撮影画像を取得(撮影)し、この撮影画像を処理対象として各種の処理を実行する。画像処理部2としては、後述する遮蔽物検出部3とともに、CPU、ROM、RAM、I/Oインターフェースを主体に構成されたマイクロコンピュータで構成することができる。
画像処理部(処理手段)2は、取得した撮影画像を表示部7に出力することにより、撮影部1によって撮影される景色を表示部7を介して動画表示させる。また、画像処理部2は、タイミング入力部4から指示される撮影タイミングと対応する撮影画像、または、遮蔽物検出部3から指示される再撮影タイミングと対応する撮影画像を取得する。これらの撮影画像は、乗員の撮影タイミングと対応する撮影画像であることを示す撮影対象フレーム、または、再撮影タイミングと対応する撮影画像であることを示す再撮影対象フレームとして、画像格納部6に格納したり、表示部7に表示させたりすることができる。また、本実施形態において、画像処理部2は、タイミング入力部4からの撮影タイミングが指示された場合、この撮影タイミングを遮蔽物検出部3へと指示する。
また、画像処理部2は、撮影画像を取得すると、この取得した撮影画像と、当該撮影画像よりも撮影されたタイミングが前の撮影画像とに基づいて、オプティカルフロー(実オプティカルフロー)を算出する。ここで、オプティカルフローは、一対の撮影画像において対応するピクセルの流れ(移動)をベクトルで表現したものである。画像処理部2において算出されたオプティカルフローは、遮蔽物検出部3に対して出力される。
遮蔽物検出部(判定手段)3は、撮影対象に対する遮蔽物が存在するか否かを判断する(遮蔽物判定処理)。ここで、撮影対象は、乗員が撮影の対象とする被写体(景色)であり、本実施形態では、近くの景色よりも遠くの景色がこれに該当する。車両用撮影装置は、車両に搭載されている。高速で移動する車両から捉えた場合、遠くの景色と比較して、近くの景色は移動速度が相対的に速くなる。そのため、近くの景色は撮影のタイミングを図ることが難しく、乗員は遠くの景色を撮影対象として選択することが一般的と考えられる。一方、遮蔽物は、撮影部1による撮影範囲に含まれる景色において撮影対象と車両(自車両)との間に存在することにより、撮影画像において撮影対象を遮蔽する物体である。
本実施形態において、遮蔽物検出部3は、画像処理部2において算出されたオプティカルフローに基づいて、遮蔽物が存在するか否かを判定する。具体的には、遮蔽物検出部3は、撮影画像ベースに算出されたオプティカルフローと、基準オプティカルフローとを比較することにより、遮蔽物が存在するか否かを判定する。ここで、基準オプティカルフローは、車速といった車両の状態量(車両情報検出部5によって検出される車両情報)を条件として、撮影部1によって撮影される撮影画像に関して算出され得るオプティカルフローの基準値である。
また、遮蔽物検出部3は、タイミング入力部4による撮影タイミングにおいて遮蔽物が存在すると判定した場合には、以下の処理を行う。具体的には、遮蔽物検出部3は、この判定以降に、遮蔽物が存在しないと判定したことを条件に、画像処理部2に対して再撮影タイミングを指示する。
タイミング入力部4は、乗員からの撮影タイミングを画像処理部2に指示するための機能を担っている。タイミング入力部4としては、押し込み式のボタンスイッチや、2段動作の押し込み式のボタンスイッチなどを用いることができる。タイミング入力部4は、ステアリングホイールの近傍、または、インストルメントパネルの周辺に配置されており、乗員によって操作することができる。
車両情報検出部5は、車両の状態量を車両情報として検出し、この検出された車両情報は、遮蔽物検出部3に出力される。車両情報検出部5が検出する車両情報は、時系列的に撮影される撮影画像において、フレーム間でオプティカルフローの変化要因となる車両の状態量の変化である。この車両の状態量としては、少なくとも車速が挙げられ、これに加え操舵角、操舵角速度、加速度(前後方向および横方向)などを挙げることができる。また、車両の状態量としては、これらのパラメータ以外にも、車体の軸方向に関する傾斜角の変化、例えば、ヨー角やヨーレイト、ロール角やロール角速度、ピッチング角やピッチング角速度などを挙げることができる。
画像格納部6は、画像処理部2から出力される撮影画像を格納(保存)する。画像格納部6として、ハードディスク装置、あるいは、車両用撮影装置に対して着脱可能なカード型の不揮発性メモリ、例えば、フラッシュメモリタイプのメモリカードを用いる。そのため、この車両用撮影装置には、メモリカードに対してデータ(撮影画像)の保存および読み込みが可能なドライブ或いはソケット(以下、これらを総称して単に「ドライブ」という)が設けられている。本明細書では、実質的なデータの格納動作を考慮した上で、ドライブによってアクセスされるメモリカードを、狭義において、画像格納部6という。画像格納部6として機能する不揮発性メモリは、必ずしも着脱可能である必要はなく、車両用撮影装置と一体的に取付けられていてもよい。なお、メモリカードにアクセス可能なドライブも、このメモリカードと組合わされて画像格納部6の一部として機能するため、広義において、メモリカードが取り外された状態であっても、このドライブが単独で画像格納部6を構成する。また、フラッシュメモリタイプのメモリカードに限定されず、磁気式、光学式等といった各種の記録媒体を広く用いることもできる。
また、画像格納部6に撮影画像を格納する場合には、メタデータとして撮影条件を撮影画像を関連付けて保存することができる。撮影条件としては、撮影対象フレームであるのかそれとも再撮影対象フレームであるのかといった点、撮影時の速度、操舵角、操舵角速度、車体の傾斜角および加速度などが挙げられる。
表示部7は、撮影部1によって撮影される撮影画像を表示する機能を担っている。表示部7としては、液晶型の表示装置のように周知の表示手段を用いることができる。表示部7は、画像処理部2から時系列的に出力される1フレーム相当の撮影画像を順次表示させることにより、撮影範囲内の景色を動画として表示することができる。これにより、乗員に対して、撮影範囲を認識させることができるとともに、撮影タイミングを決定させることができる。さらに、表示部7は、画像処理部2からの指示に応じて、撮影対象フレームが設定された撮影画像、あるいは、再撮影対象フレームが設定された撮影画像をそれぞれ表示することができる。例えば、撮影画像について、個々の撮影のタイミングから数秒間だけその撮影画像を表示するといった如くである。また、表示部7は、乗員による操作デバイス(図示せず)の操作に対応して画像格納部6に格納された撮影画像の表示指示がなされた場合には、画像格納部6から表示指示と対応する撮影画像を読み込み、これを表示することができる。
図2は、本発明の第1の実施形態にかかる車両用撮影装置の処理手順(撮影方法)を示すフローチャートである。このフローチャートに示す処理は、所定の周期(例えば、100msec)で呼び出され、マイクロコンピュータ(画像処理部2および遮蔽物検出部3)によって実行される。
まず、ステップ1(S1)において、画像処理部2は撮影部1によって撮影される撮影画像を取得する。取得された撮影画像は、ステップ2(S2)以降の処理に供されるとともに、動画の1フレームを構成すべく表示部7に出力される。
ステップ2において、画像処理部2は、オプティカルフロー(実オプティカルフロー)Onを算出する。具体的には、遮蔽物検出部3は、撮影フレーム間、すなわち、従前の処理サイクル(例えば、前回の処理サイクル)における撮影画像(以下「前撮影画像」という)と、本処理サイクルにおいて取得された撮影画像との間のピクセル移動量に基づいて演算を行う。オプティカルフローOnの算出手法としては、勾配法など周知の手法を用いることができる。撮影画像において、オプティカルフローOn(具体的には、その移動速度)は、遠くの景色ほど小さくなり、近くの景色ほど大きくなる傾向を有している。
ステップ3(S3)において、画像処理部2は、遮蔽物判定フラグFhoが「1」にセットされているか否かを判断する。この遮蔽物判定フラグFhoは、遮蔽物検出部3において遮蔽物が存在していると判定されているか、それとも遮蔽物が存在していないと判定されているかを示すフラグである。遮蔽物検出部3において遮蔽物が存在していると判定されている場合には、遮蔽物判定フラグFhoは「1」にセットされ、一方、遮蔽物が存在していないと判定されている場合には、遮蔽物判定フラグFhoは「0」にセットされる。
ステップ3において否定判定された場合、すなわち、遮蔽物判定フラグFhoが「0」の場合には、ステップ4(S4)に進む。一方、ステップ3において肯定判定された場合、すなわち、遮蔽物判定フラグFhoが「1」の場合には、ステップ6(S6)の処理にスキップする。
ステップ4において、画像処理部2は、乗員による撮影指示があったか否か、すなわち、タイミング入力部4から撮影タイミングが指示されたか否かを判定する。このステップ4において肯定判定された場合、すなわち、撮影タイミングが指示されている場合には、ステップ5(S5)に進む。一方、ステップ4において否定判定された場合、すなわち、撮影タイミングが指示されていない場合には、本ルーチンを抜ける。
ステップ5において、画像処理部2は、本処理サイクルのステップ1において取得した撮影画像を、撮影対象フレームとして設定する。画像処理部2は、撮影対象フレームに設定された撮影画像を、メタデータとともに画像格納部6に格納する。
ステップ6において、遮蔽物検出部3は、車両情報検出部5によって検出される車両情報Vsを読み込む。ステップ7(S7)において、遮蔽物検出部3は、読み込まれた車両情報Vsに基づいて、基準オプティカルフローObを算出する。具体的には、遮蔽物検出部3は、車両情報の各パラメータの組み合わせに関する複数の条件毎に、基準オプティカルフローObの値が関連付けられた対応関係をマップまたは演算式として保持している。そして、遮蔽物検出部3は、読み込まれた車両情報Vsに基づいて、マップまたは演算式から基準オプティカルフローObを算出する。この基準オプティカルフローObは、後述するステップ8(S8)の処理に示すように、基準オプティカルフローObとオプティカルフローOnとの比較において、遮蔽物に対応するオプティカルフローの基準値が、実験やシミュレーションを通じて予め設定されている。
図3は、車両と遮蔽物との位置関係を示す説明図であり、図4は、撮影画像におけるオプティカルフローの説明図である。タイミングt0(図3参照)において車両から撮影を行った場合、車両前方の撮影範囲内に遮蔽物hoが存在する。図4(b)に示すように、撮影画像では、車両と遮蔽物hoとの位置関係により、撮影対象の大半が遮蔽物hoによって遮蔽された状態となる。このシーンの撮影画像では、近くの景色の割合が多いため、オプティカルフローOnの大きい領域が多くの割合を占めることとなる。
また、タイミングt0よりも車両が進行した状態で撮影を行った場合、図4(b)に示すように、撮影画像では、車両と遮蔽物hoとの位置関係により、撮影対象の半分程度が遮蔽物hoによって遮蔽された状態となる。このシーンの撮影画像では、近くの景色と遠くの景色との割合が同程度となり、オプティカルフローOnの移動速度が大きな領域が半分程度の割合を占めることとなる。
また、さらに時間が経過したタイミングt1(図3参照)において車両から撮影を行った場合、車両前方の撮影範囲内に遮蔽物hoが存在する。図4(c)に示すように、撮影画像では、車両と遮蔽物hoとの位置関係により、撮影対象の僅かな領域が遮蔽物hoによって遮蔽された状態となる。このシーンの撮影画像では、遠くの景色の割合が多いため、オプティカルフローOnの小さい領域が多くの割合を占めることとなる。
このようなオプティカルフローOnの傾向を考慮して、ステップ8(S8)において、遮蔽物検出部3は、基準オプティカルフローObと、画像ベースのオプティカルフローOnとを比較することにより、遮蔽物が存在するか否かを判定する。具体的には、遮蔽物検出部3は、撮影画像を構成する各ピクセル(あるいは、ドット)毎に、基準オプティカルフローObと画像ベースのオプティカルフローOnとの差を算出する。そして、遮蔽物検出部3は、規定ピクセル数以上において、画像ベースのオプティカルフローOnが基準オプティカルフローOb以上である場合には、遮蔽物が存在すると判断する。ここで、規定ピクセル数は、撮影画像において遮蔽物が存在すると認められる程度のピクセル数の規定値であり、実験やシミュレーションを通じて、全ピクセルに対する割合((例えば、3分の1)等として設定されている。あるいは、遮蔽物検出部3は、予め登録してある代表点におけるオプティカルフローOnが基準オプティカルフローOb以上である場合には、遮蔽物が存在すると判断する。
このステップ8において肯定判定された場合、すなわち、遮蔽物が存在する場合には、ステップ9(S9)に進む。一方、ステップ8において否定判定された場合、すなわち、遮蔽物が存在しない場合には、ステップ10(S10)に進む。
ステップ9において、遮蔽物検出部3は、遮蔽物判定フラグFhoを「1」にセットする。すなわち、次回以降の処理サイクルでは、遮蔽物判定フラグFhoが再度「0」にセットされるまで、ステップ3の判断において肯定判定される。
ステップ10において、画像処理部2は、遮蔽物判定フラグFhoが「1」にセットされているか否かを判断する。このステップ10において否定判定された場合、すなわち、遮蔽物判定フラグFhoが「0」の場合には、本ルーチンを抜ける。一方、ステップ10において肯定判定された場合、すなわち、遮蔽物判定フラグFhoが「1」の場合には、ステップ11(S11)に進む。
ステップ11において、画像処理部2は、本処理サイクルにおいて取得した撮影画像を、再撮影対象フレームとして設定する。そして、画像処理部2は、メタデータとともに撮影画像を画像格納部6に格納する。
ステップ12(S12)において、遮蔽物判定フラグFhoが「0」にセットされ、本ルーチンを抜ける。
このように本実施形態において、遮蔽物検出部3は、撮影範囲において撮影対象と車両との間に存在することにより、撮影画像において撮影対象を遮蔽する遮蔽物が存在するか否かを判定する(遮蔽物判定処理)。ここで、画像処理部2は、撮影部1を制御することにより、タイミング入力部4から指示された撮影タイミングと対応する撮影画像を取得する。遮蔽物検出部3は、タイミング入力部4から指示された撮影タイミングにおいて遮蔽物が存在すると判定した場合、この判定以降に遮蔽物が存在しないと判定したことを条件に画像処理部2に再撮影タイミングを指示する。そして、画像処理部2は、遮蔽物検出部3から指示された再撮影タイミングと対応する撮影画像を取得する。
かかる構成によれば、遮蔽物判定処理により、図5(b)に示すように、撮影タイミングに遮蔽物が存在することを判断することができる。これにより、この撮影画像が乗員の意図する撮影画像と相違するものであることを判断することができる。また、遮蔽物判定処理により、この遮蔽物が存在しなくなったことを判定することができるので、撮影対象の再撮影を行うタイミング(再撮影タイミング)を指示することができる。これにより、図5(a)に示すように、遮蔽物の影響が低減させて、乗員が意図した撮影対象を撮影した撮影画像を得ることができる。
また、本実施形態によれば、遮蔽物が存在する場合には、再撮影が自動的に行われるため、ドライバーが運転操作中に撮影操作を行う場合であっても、周辺の遮蔽物に気を取られる心配がなくなる。そのため、より運転操作に集中することが可能となる。
また、本実施形態において、画像格納部6に格納される撮影画像には、撮影対象フレームであるか、または再撮影対象フレームであるかを示すメタデータが関連付けられている。そのため、撮影画像を整理する場合に、遮蔽物の映り込みの有無を容易に識別することができる。
また、本実施形態において、画像処理部2は、撮影部1において時系列的に撮影される撮影画像を順次取得する。また、画像処理部2は、撮影されたタイミングが前後する一対の撮影画像に基づいて、この一対の撮影画像においてオプティカルフロー(実オプティカルフロー)Onを算出する。遮蔽物検出部3は、画像処理部2において算出されたオプティカルフローOnに基づいて、遮蔽物が存在するか否かを判定する。
かかる構成によれば、撮影部1が取得する撮影画像をベースに遮蔽物の有無を判定することができる。
また、本実施形態において、車両用撮影装置は、車両の状態量を車両情報として検出する車両情報検出部5をさらに有している。この場合、遮蔽物検出部3は、車両情報検出部5によって検出される車両情報を条件として撮影部1によって撮影される撮影画像に関して算出され得るオプティカルフロー(基準オプティカルフローOb)算出する。そして、遮蔽物検出部3は、基準オプティカルフローObと、オプティカルフローOnとを比較することにより、遮蔽物が存在するか否かを判定する。
かかる構成によれば、遮蔽物の有無を有効に判定することができる。また、基準オプティカルフローObを算出する場合、車速以外にも、操舵等といった種々の車両の状態量を示すパラメータを用いることができる。これにより、ステアリング操作などに伴って遮蔽物の検出精度を低下させる要因を抑制することができる。そのため、再撮影タイミングを精度よく判定することができる。
(第2の実施形態)
図6は、本発明の第2の実施形態にかかる車両用撮影装置のシステム構成を模式的に示すブロック図である。本実施形態にかかる車両用撮影装置が、第1の実施形態のそれと相違する点は、車両周囲の立体物を地図情報から検出することにより、遮蔽物が存在するか否か判定することにある。なお、第1の実施形態と対応する構成については、同一の符号を引用するとともに、その詳細な説明は省略することとする。以下、第1の実施形態との相違点を中心に説明を行う。
本実施形態において、車両用撮影装置は、撮影部1、画像処理部2、遮蔽物検出部3、タイミング入力部4、車両情報検出部5、画像格納部6および表示部7に加え、位置検出部8、地図情報記憶部9および立体物検出部10を有している。
位置検出部(位置検出手段)8は、現在の車両の位置を検出する。具体的には、位置検出部8は、GPS受信器(図示せず)から出力される情報に基づいて、車両位置を検出する。なお、車両位置を検出する手法は、GPSを用いた手法に限らず、例えば、複数の基地局から発信される電波を同時に受信し、電波の到達時間から割り出した基地局までの距離に基づいて三角測量により検出するといった手法でもよい。位置検出部8によって検出された車両位置は、立体物検出部10に出力される。
地図情報記憶部(記憶手段)9は、地図情報を格納している。この地図情報としては、ナビゲーションシステムなどで利用されるナビゲーション用の情報を利用することができる。地図情報は、自車両が走行する経路(道路)に関する情報である道路情報と、道路周辺の立体物(典型的には、建物)に関する立体物情報とを含む。道路情報は、点データ(ノードまたは補完点)と、各点データを結ぶリンクデータで構成される。立体物情報は、立体物の端点を示す点、点を結ぶリンクデータ、各点から構成される面情報から構成される。各点データには位置情報(緯度、経度、高度)が記録されている。地図情報記憶部9に格納された地図情報は、必要に応じて立体物検出部10によって読み込まれる。
立体物検出部(立体物検出手段)10は、車両周辺の立体物を検出する。立体物検出部10としては、画像処理部2および遮蔽物検出部3とともに、CPU、ROM、RAM、I/Oインターフェースを主体に構成されたマイクロコンピュータで構成することができる。立体物検出部10は、位置検出部8から車両位置を取得するとともに、この車両位置周辺の立体物情報を地図情報記憶部9から読み込む。立体物検出部10は、読み込まれた立体物情報と、予め設定されている撮影部1の撮影範囲の情報とに基づいて、撮影範囲において車両から所定距離以内に立体物があるか否かを判断する。所定距離以内に立体物があると判断した場合、立体物検出部10は、立体物情報から得られる立体物の形状に基づいて、この立体物が撮影範囲において占有する割合を遮蔽物割合(撮影画像における遮蔽物の占有割合)として算出する。この算出結果は、遮蔽物検出部3に対して出力される。
なお、本実施形態において、画像処理部2は、オプティカルフローOnの算出を行わない点以外については、第1の実施形態と同様である。また、遮蔽物検出部3は、オプティカルフローをベースとして遮蔽物判定処理を行うのではなく、立体物検出部10から読み込んだ遮蔽物割合と、予め保持する遮蔽部部割合の基準値(以下「基準遮蔽物割合」という)とを比較して、撮影対象に対する遮蔽物が存在するか否かを判断する。
図7は、本発明の第2の実施形態にかかる車両用撮影装置の処理手順(撮影方法)を示すフローチャートである。このフローチャートに示す処理は、所定の周期(例えば、100msec)で呼び出され、マイクロコンピュータ(画像処理部2、遮蔽物検出部3および立体物検出部10)によって実行される。
まず、ステップ20(S20)において、画像処理部2は撮影部1によって撮影される撮影画像を取得する。取得された撮影画像は、ステップ21(S21)以降の処理に供されるとともに、動画の1フレームを構成すべく表示部7に出力される。
ステップ21において、画像処理部2は、遮蔽物判定フラグFhoが「1」にセットされているか否かを判断する。このステップ21において否定判定された場合、すなわち、遮蔽物判定フラグFhoが「0」の場合には、ステップ22(S22)に進む。一方、ステップ32において肯定判定された場合、すなわち、遮蔽物判定フラグFhoが「1」の場合には、ステップ24(S24)の処理にスキップする。
ステップ22において、画像処理部2は、撮影指示があったか否か、すなわち、タイミング入力部4から撮影タイミングが指示されたか否かを判定する。このステップ22において肯定判定された場合、すなわち、撮影タイミングが指示されている場合には、ステップ23(S23)に進む。一方、ステップ22において否定判定された場合、すなわち、撮影タイミングの指示が入力されていない場合には、本ルーチンを抜ける。
ステップ23において、画像処理部2は、本処理サイクルにおいて取得した撮影画像を、撮影対象フレームとして設定する。そして、画像処理部2は、メタデータとともに撮影画像を画像格納部6に格納する。
ステップ6において、遮蔽物の推定が行われる。具体的には、立体物検出部10は、位置検出部8から現在の車両位置を取得するとともに、この取得した車両位置周辺の立体物情報を地図情報記憶部9から読み込む。図8に示すように、立体物検出部10は、予め設定されている撮影範囲Apと、自車位置、立体物情報を重ね合わせる。そして、立体物検出部10は、所定距離L以内に立体物hoがあるか否かを判断する。立体物検出部10は、立体物hoがある場合、この立体物hoが撮影範囲に対して何%占有するかを演算し、この演算結果を遮蔽物割合として、遮蔽物検出部3に出力する。
ステップ25(S25)において、遮蔽物検出部3は、立体物検出部10から出力された遮蔽物割合と、基準遮蔽物割合とを比較することにより、遮蔽物が存在するか否かを判断する。ここで、基準遮蔽物割合は、遮蔽物の有無を判定するための値であり、実験やシミュレーションを通じて、撮影範囲に対する割合(例えば、3分の1)として設定されている。このステップ25において肯定判定された場合、すなわち、遮蔽物が存在する場合には、ステップ26(S26)に進む。一方、ステップ25において否定判定された場合、すなわち、遮蔽物が存在しない場合には、ステップ27(S27)に進む。
ステップ26において、遮蔽物検出部3は、遮蔽物判定フラグFhoを「1」にセットする。すなわち、次回以降の処理サイクルでは、遮蔽物判定フラグFhoが再度「0」にセットされるまで、ステップ21の判断において肯定判定される。
ステップ27において、画像処理部2は、遮蔽物判定フラグFhoが「1」にセットされているか否かを判断する。このステップ27において否定判定された場合、すなわち、遮蔽物判定フラグFhoが「0」の場合には、本ルーチンを抜ける。一方、ステップ27において肯定判定された場合、すなわち、遮蔽物判定フラグFhoが「1」の場合には、ステップ28(S28)に進む。
ステップ28において、画像処理部2は、本処理サイクルにおいて取得した撮影画像を、再撮影タイミングと対応する撮影画像であることを示す再撮影対象フレームとして設定する。そして、画像処理部2は、メタデータとともに、この撮影画像を画像格納部6に格納する。
ステップ29(S29)において、遮蔽物判定フラグFhoが「0」にセットされ、本ルーチンを抜ける。
このように本実施形態によれば、第1の実施形態と同様に、遮蔽物の影響が低減させて、乗員が意図した撮影対象を撮影した撮影画像を得ることができる。
また、本実施形態において、立体物検出部10は、位置検出部8によって検出された車両位置に基づいて、地図情報記憶部9より車両周辺の地図情報を読み込むとともに、この読み込んだ地図情報に基づいて、立体物を検出する。遮蔽物検出部3は、立体物検出部10によって検出された立体物に基づいて、遮蔽物が存在するか否かを判定する。
かかる構成によれば、画像処理などの手法を用いずに、遮蔽物の存在を判定することができる。
(第3の実施形態)
図9は、本発明の第3の実施形態にかかる車両用撮影装置のシステム構成を模式的に示すブロック図である。本実施形態にかかる車両用撮影装置が、第1の実施形態または第2の実施形態のそれと相違する点は、撮影範囲と対応する実空間内をセンシングすることにより、立体物を検出することにある。なお、第1の実施形態または第2の実施形態と対応する構成については、同一の符号を引用するとともに、その詳細な説明は省略することとする。以下、第1の実施形態または第2の実施形態との相違点を中心に説明を行う。
本実施形態において、車両用撮影装置は、撮影部1、画像処理部2、遮蔽物検出部3、タイミング入力部4、車両情報検出部5、画像格納部6および表示部7に加え、周辺情報検出部11を有している。
周辺情報検出部(周辺情報検出手段)11は、レーザーレーダ、ミリ波レーダあるいはソナーといった外界センサを備えており、撮影範囲と対応する実空間内をセンシングすることにより、立体物を検出する。具体的には、周辺情報検出部11は、撮影範囲において車両から所定距離以内に立体物があるか否かを判断する。所定距離以内に立体物があると判断した場合、周辺情報検出部11は、センシングすることにより得られる立体物の形状に基づいて、この立体物が撮影範囲において占有する割合を遮蔽物割合として算出する。この算出結果は、遮蔽物検出部3に対して出力される。
なお、本実施形態において、画像処理部2は、オプティカルフローOnの算出を行わない点以外については、第1の実施形態と同様である。また、遮蔽物検出部3は、オプティカルフローをベースとして遮蔽物判定処理を行うのではなく、周辺情報検出部11から読み込んだ遮蔽物割合と、予め保持する遮蔽割合の基準値(以下「基準遮蔽割合」という)とを比較して、撮影対象に対する遮蔽物が存在するか否かを判断する。
また、第3の実施形態にかかる車両用撮影装置の処理手順(撮影方法)は、上述した第2の実施形態と基本的に同一の手順で進行する。この場合、ステップ24における遮蔽物の推定処理は、周辺情報検出部11によって実行されることとなる。
このように本実施形態によれば、第1の実施形態と同様に、遮蔽物の影響が低減させて、乗員が意図した撮影対象を撮影した撮影画像を得ることができる。
また、本実施形態において、周辺情報検出部11は、撮影範囲と対応する実空間内をセンシングすることにより、立体物を検出する。遮蔽物検出部3は、周辺情報検出部11によって検出される立体物に基づいて、遮蔽物が存在するか否かを判定する。
かかる構成によれば、画像処理などの手法を用いずに、遮蔽物の存在を判定することができる。
なお、上述した各実施形態は、それぞれ組み合わせて利用することができる。例えば、第1の実施形態と第2の実施形態とを組み合わせてもよいし、第1の実施形態と第3の実施形態とを組み合わせてもよい。また、第1の実施形態から第3の実施形態までの全てを組み合わせてもよい。このような複合的な手法では、いずれか一つの条件において遮蔽物が存在すると判定されたことを条件として、再撮影タイミングを決定するといった手法を用いることができる。
本実施形態では、自動車に適用されているが、二輪車などの各種の車両に対して適用可能である。また、本発明では、広義において、車両という用語を、列車や船舶、飛行機などの移動体を含む意味で用いることとする。
また、本実施形態では、撮影タイミングと、撮影部1によって実際に撮影されたタイミングとは対応していればよく、厳密な一致を要求しない。すなわち、本実施形態に示すように、撮影画像の取得周期と、対応するタイミング(撮影タイミングまたは再撮影タイミング)とで、これを対象フレームに対応づけてもよい。また、撮影タイミングまたは再撮影タイミングに応じて、撮影部1から撮影画像を割り込み的に取得し、これを対象フレームに設定してもよい。
第1の実施形態にかかる車両用撮影装置のシステム構成を模式的に示すブロック図 第1の実施形態にかかる車両用撮影装置の処理手順(撮影方法)を示すフローチャート 車両と遮蔽物との位置関係を示す説明図 撮影画像におけるオプティカルフローの説明図 撮影対象フレームおよび再撮影対象フレームが設定された撮影画像の説明図 第2の実施形態にかかる車両用撮影装置のシステム構成を模式的に示すブロック図 第2の実施形態にかかる車両用撮影装置の処理手順(撮影方法)を示すフローチャート 遮蔽物の推定処理を示す説明図 第3の実施形態にかかる車両用撮影装置のシステム構成を模式的に示すブロック図
符号の説明
1 撮影部
2 画像処理部
3 遮蔽物検出部
4 タイミング入力部
5 車両情報検出部
6 画像格納部
7 表示部
8 位置検出部
9 地図情報記憶部
10 立体物検出部
11 周辺情報検出部

Claims (6)

  1. 撮影範囲に含まれる撮影対象を撮影し、撮影画像を出力する撮影手段と、
    乗員によって操作され、撮影タイミングを指示する入力手段と、
    前記撮影範囲において撮影対象と車両との間に存在することにより、前記撮影画像において前記撮影対象を遮蔽する遮蔽物が存在するか否かを判定する遮蔽物判定処理を行う判定手段と、
    前記撮影手段を制御することにより、前記入力手段から指示された撮影タイミングと対応する前記撮影画像を取得する処理手段とを有し、
    前記判定手段は、前記入力手段から指示された撮影タイミングにおいて前記遮蔽物が存在すると判定した場合、当該判定以降に前記遮蔽物が存在しないと判定したことを条件に前記処理手段に再撮影タイミングを指示し、
    前記処理手段は、前記判定手段から指示された再撮影タイミングと対応する前記撮影画像を取得することを特徴とする車両用撮影装置。
  2. 前記処理手段は、前記撮影手段において連続して撮影される前記撮影画像を順次取得するとともに、撮影されたタイミングが前後する一対の撮影画像に基づいて、当該一対の撮影画像において対応する画素の流れをベクトルで表現したオプティカルフローを実オプティカルフローとして算出し、
    前記判定手段は、前記処理手段において算出された実オプティカルフローに基づいて、前記遮蔽物が存在するか否かを判定する請求項1に記載された車両用撮影装置。
  3. 車両の状態量を車両情報として検出する車両情報検出手段をさらに有し、
    前記判定手段は、前記車両情報検出手段によって検出される車両情報を条件として、前記撮影手段によって撮影される撮影画像に関して算出され得るオプティカルフローを基準オプティカルフローとして算出しており、当該算出された基準オプティカルフローと、前記実オプティカルフローとを比較することにより、前記遮蔽物が存在するか否かを判定する請求項2に記載された車両用撮影装置。
  4. 車両の位置を検出する位置検出手段と、
    立体物に関する情報を含む地図情報を格納する記憶手段と、
    前記位置検出手段によって検出された車両の位置に基づいて、前記記憶手段より車両周辺の地図情報を読み込むとともに、当該車両周辺の地図情報に基づいて、立体物を検出する立体物検出手段とをさらに有し、
    前記判断手段は、前記立体物検出手段によって検出された立体物に基づいて、前記遮蔽物が存在するか否かを判定する請求項1に記載された車両用撮影装置。
  5. 前記撮影範囲と対応する実空間内をセンシングすることにより、立体物を検出する周辺情報検出手段と、
    前記判定手段は、前記周辺情報検出手段によって検出される立体物に基づいて、前記遮蔽物が存在するか否かを判定する請求項1に記載された車両用撮影装置。
  6. 撮影方法において、
    車両の乗員から指示される撮影タイミングを取得する第1のステップと、
    前記撮影タイミングと対応する、車両を基点として撮影範囲に含まれる景色が撮影された撮影画像を取得する第2のステップと、
    前記撮影タイミングにおいて、前記撮影範囲において撮影対象と車両との間に存在することにより、前記撮影画像において前記撮影対象を遮蔽する遮蔽物が存在するか否かを判定する遮蔽物判定処理を行う第3のステップと、
    前記第3のステップにおいて前記遮蔽物が存在すると判定された場合、当該判定以降に前記遮蔽物が存在しないと判定したことを条件に再撮影タイミングを指示する第4のステップと、
    前記再撮影タイミングと対応する前記撮影画像を取得する第5のステップと
    を有することを特徴とする撮影方法。
JP2008170713A 2008-06-30 2008-06-30 車両用撮影装置および撮影方法 Expired - Fee Related JP5040831B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008170713A JP5040831B2 (ja) 2008-06-30 2008-06-30 車両用撮影装置および撮影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008170713A JP5040831B2 (ja) 2008-06-30 2008-06-30 車両用撮影装置および撮影方法

Publications (2)

Publication Number Publication Date
JP2010011311A JP2010011311A (ja) 2010-01-14
JP5040831B2 true JP5040831B2 (ja) 2012-10-03

Family

ID=41591214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008170713A Expired - Fee Related JP5040831B2 (ja) 2008-06-30 2008-06-30 車両用撮影装置および撮影方法

Country Status (1)

Country Link
JP (1) JP5040831B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6662401B2 (ja) 2018-03-13 2020-03-11 オムロン株式会社 乗員監視装置
CN112950988B (zh) * 2021-02-25 2022-07-29 杭州立方控股股份有限公司 具有存证功能的停车管理系统

Also Published As

Publication number Publication date
JP2010011311A (ja) 2010-01-14

Similar Documents

Publication Publication Date Title
EP2485203B1 (en) Vehicle-surroundings monitoring device
JP4863791B2 (ja) 車両周辺画像生成装置および画像切替方法
US10325339B2 (en) Method and device for capturing image of traffic sign
WO2017069191A1 (ja) キャリブレーション装置、キャリブレーション方法、及び、キャリブレーションプログラム
EP3107069A1 (en) Object detection apparatus, object detection method, and mobile robot
US20120219183A1 (en) 3D Object Detecting Apparatus and 3D Object Detecting Method
JP2010068069A (ja) 車両周辺撮影システム
US20190197730A1 (en) Semiconductor device, imaging system, and program
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
US20200342761A1 (en) Notification apparatus and in-vehicle device
JP2018189463A (ja) 車両位置推定装置及びプログラム
JP2006054662A (ja) 運転支援装置
JP7183729B2 (ja) 撮影異常診断装置
JP2007181129A (ja) 車載用移動体検出装置
JP4475015B2 (ja) 車両周辺監視装置及び車両周辺監視方法
US11431907B2 (en) Imaging device capable of correcting image blur of a captured image and control method therefor
JP5040831B2 (ja) 車両用撮影装置および撮影方法
JP4857159B2 (ja) 車両運転支援装置
JP2016139233A (ja) 運行記録装置、運行記録システム、及び運行管理システム
JP6407596B2 (ja) 画像処理装置、及び、運転支援システム
CN116448128A (zh) 行驶路径制作装置、行驶路径制作方法及非临时性计算机可读介质
JP2020010123A (ja) 車載撮影装置、撮影システム及び撮影方法
CN110995981B (zh) 图像处理装置及其控制方法、非暂时性可读记录介质、信息处理系统
JP2022018428A (ja) 露出制御装置、露出制御方法、および露出制御プログラム
JP5132796B2 (ja) 車両周辺画像生成装置および画像切替方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120625

R150 Certificate of patent or registration of utility model

Ref document number: 5040831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees