JP2019145021A - 情報処理装置、撮像装置、及び撮像システム - Google Patents

情報処理装置、撮像装置、及び撮像システム Download PDF

Info

Publication number
JP2019145021A
JP2019145021A JP2018031013A JP2018031013A JP2019145021A JP 2019145021 A JP2019145021 A JP 2019145021A JP 2018031013 A JP2018031013 A JP 2018031013A JP 2018031013 A JP2018031013 A JP 2018031013A JP 2019145021 A JP2019145021 A JP 2019145021A
Authority
JP
Japan
Prior art keywords
vehicle
brightness
image
luminance
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018031013A
Other languages
English (en)
Inventor
山本 英明
Hideaki Yamamoto
英明 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2018031013A priority Critical patent/JP2019145021A/ja
Priority to PCT/JP2019/000364 priority patent/WO2019163315A1/ja
Publication of JP2019145021A publication Critical patent/JP2019145021A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)

Abstract

【課題】車内から撮影される画像によるセンシングの精度を向上することができる情報処理装置、撮像装置、及び撮像システムを提供する。【解決手段】情報処理装置は、取得部61と、検出部62と、補正部63とを具備する。取得部は、車両の窓ガラスを介して撮影された車両の外部画像を取得する。検出部は、車両の内部に存在し窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する。補正部は、検出された明るさ情報に基づいて、車両の外部画像を補正する。【選択図】図2

Description

本技術は、車載カメラ等に適用可能な情報処理装置、撮像装置、及び撮像システムに関する。
従来、車内に配置された車載カメラ等を用いて車両の外部を撮影する技術が開発されている。車両の外部が撮影された画像を用いることで、例えば車両周辺の障害物や歩行者等をセンシングすることが可能となる。
例えば特許文献1には、フロントウィンドを通して車両前方を撮影するステレオカメラを用いた障害物検出装置が記載されている。ステレオカメラは、基準画像及び比較画像をそれぞれ撮影する2台のカメラにより構成される。例えば基準画像から特徴点が検出され、特徴点に対応する比較画像内の対応点が探索される。対応点の探索範囲は、フロントウィンドやそこに映り込むダッシュボード等についての各カメラの視差量をもとに設定される。対応点を持つ特徴点の集合がフロントウィンドへの映り込み画像として基準画像から抽出される。これにより、障害物の検出精度を向上することが可能となっている。(特許文献1の明細書段落[0028][0029][0067][0068][0085]図6、8等)。
特許第5267101号公報
今後、車内に配置された車載カメラ等を用いて車両の外部に存在する障害物等をセンシングする技術が普及していくものと考えられる。このような、車内から撮影される画像によるセンシングの精度を向上することが可能な技術が求められている。
以上のような事情に鑑み、本技術の目的は、車内から撮影される画像によるセンシングの精度を向上することが可能な情報処理装置、撮像装置、及び撮像システムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、取得部と、検出部と、補正部とを具備する。
前記取得部は、車両の窓ガラスを介して撮影された前記車両の外部画像を取得する。
前記検出部は、前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する。
前記補正部は、前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する。
この情報処理装置では、車両の窓ガラスを介して撮影された外部画像が取得される。また窓ガラスに映り込む車両内部の対象物についての明るさに関する明るさ情報が検出される。そして対象物の明るさ情報に基づいて、外部画像が補正される。補正された外部画像を用いることで、車内から撮影される画像によるセンシングの精度を向上することが可能となる。
前記明るさ情報は、前記対象物の照度、輝度、及び反射率の少なくとも1つに関する情報を含んでもよい。
これにより、対象物の明るさ等を精度よく検出することが可能となり、外部画像の補正精度が向上する。この結果、センシングの精度を十分に向上することが可能となる。
前記対象物は、ダッシュボード、内装部品、及び前記車両の内部に載置された載置物の少なくとも1つを含んでもよい。
これにより、例えば車両の内部に存在する様々な物体の窓ガラスに対する映り込みの影響を軽減することが可能となる。
前記窓ガラスは、フロントウィンドガラス、サイドウィンドガラス、及びリアウィンドガラスの少なくとも1つを含んでもよい。
これにより、車両の内部から撮影された車両の前方、側方、及び後方の外部画像等を補正することが可能となり、様々な方位を精度よくセンシングすることが可能となる。
前記補正部は、前記対象物の前記明るさ情報に基づいて、前記外部画像の輝度を補正してもよい。
これにより、例えば外部画像に対する対象物の映り込み等を容易に除去することが可能となり、例えば映り込みに伴うセンシングエラー等を容易に回避することが可能となる。
前記補正部は、前記明るさ情報に基づいて、前記窓ガラスを介した前記対象物の映り込みによる前記外部画像の輝度変化量を算出してもよい。
例えば輝度変化量を用いることで、外部画像の映り込み等を高精度に除去することが可能となる。これにより、センシングエラー等を十分に回避することが可能となる。
前記検出部は、前記対象物の明るさに関するパラメータを測定するセンサ部の出力に基づいて前記明るさ情報を検出してもよい。
これにより、例えば対象物の明るさを詳細に検出することが可能となる。
前記センサ部は、前記対象物の照度を測定する照度センサを含んでもよい。
これにより、外光等が照射された対象物の明るさを容易に測定することが可能となる。
前記補正部は、前記外部画像内の前記対象物が映り込む領域を判定し、前記対象物の照度に基づいて前記対象物が映り込むと判定された領域の輝度を補正してもよい。
これにより、対象物の映り込み等を精度よく補正することが可能となる。これにより、センシングエラー等を十分に回避することが可能となる。
前記センサ部は、前記対象物により前記窓ガラスに向けて反射される光の強度に応じて前記車両の内部に配置される複数の前記照度センサを含んでもよい。
これにより、例えば外光等の入射角が異なる場合であっても、対象物の明るさを適正に検出することが可能となり、対象物の映り込み等を十分高精度に補正することが可能となる。
前記情報処理装置は、さらに、前記照度センサの出力に基づいて、前記車両に搭載されたライト及び表示機器の少なくとも一方の発光強度を制御する発光制御部を具備してもよい。
照度センサにより、対象物の照度検出に加え、ライトや表示機器等の制御が可能となる。これにより、部品点数を削減することが可能となり製造コスト等を抑制可能である。
前記センサ部は、前記対象物上の複数の測定点ごとの前記明るさに関するパラメータと、前記複数の測定点の位置とを測定可能な位置センサを含んでもよい。この場合、前記検出部は、前記位置センサの出力に基づいて、前記対象物上の前記複数の測定点ごとの輝度を検出してもよい。
これにより、対象物の各測定点ごとの輝度等を検出することが可能である。この結果、例えば外部画像を詳細に補正することが可能となり、センシング精度が十分に向上する。
前記位置センサは、前記複数の測定点ごとの反射率を測定する測域センサであってもよい。
これにより、対象物の各測定点の位置と、各測定点での反射率を高精度に測定することが可能となる。
前記センサ部は、前記対象物の照度を測定する照度センサを含んでもよい。この場合、前記検出部は、前記対象物の照度と前記複数の測定点ごとの反射率とに基づいて、前記複数の測定点ごとの輝度を検出してもよい。
これにより、例えば外光の強度に応じた対象物の輝度等を測定点ごとに検出することが可能となり、外部画像を詳細に補正することが可能となる。
前記位置センサは、前記複数の測定点ごとの輝度を測定する距離画像センサであってもよい。
これにより、対象物の各測定点の位置と、各測定点での輝度を高精度に測定することが可能となる。
前記補正部は、前記位置センサにより測定された前記対象物の前記複数の測定点の位置を、前記外部画像内の位置に変換してもよい。
これにより、例えば測定点ごとの輝度に基づいて、外部画像を高精度に補正することが可能となる。この結果、外部画像を用いた高精度なセンシングを実現することが可能となる。
前記情報処理装置は、さらに、前記位置センサの出力に基づいて、前記車両の外部の状態及び前記車両の内部の状態の少なくとも一方を検出する状態検出部を具備してもよい。
位置センサにより、対象物の照度検出に加え、車両の内外の状態を検出することが可能となる。これにより、部品点数を削減することが可能となり製造コスト等を抑制可能である。
前記外部画像は、前記車両の内部に搭載された撮像部により撮影されてもよい。この場合、前記対象物は、前記窓ガラスを介して前記撮像部に向かう第1の光路に沿って光を反射する第1の領域と、前記第1の光路とは異なる第2の光路に沿って光を反射する第2の領域とを有してもよい。また、前記検出部は、前記外部画像における前記第1及び前記第2の領域の輝度差を検出してもよい。
これにより、対象物の映り込みにより生じる外部画像の輝度変化量等を容易に検出することが可能となる。この結果、外部画像を容易に補正することが可能となる。
本技術の一形態に係る撮像装置は、撮像部と、取得部と、検出部と、補正部とを具備する。
前記撮像部は、車両の内部に搭載される。
前記取得部は、前記撮像部により前記車両の窓ガラスを介して撮影された前記車両の外部画像を取得する。
前記検出部は、前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する。
前記補正部は、前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する。
本技術の一形態に係る撮像システムは、撮像部と、取得部と、検出部と、補正部とを具備する。
前記撮像部は、車両の内部に搭載される。
前記取得部は、前記撮像部により前記車両の窓ガラスを介して撮影された前記車両の外部画像を取得する。
前記検出部は、前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する。
前記補正部は、前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する。
以上のように、本技術によれば、車内から撮影される画像によるセンシングの精度を向上することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の第1の実施形態に係る制御ユニットを搭載する車両の構成例を示す模式図である。 制御ユニットの構成例を示すブロック図である。 フロントガラスによる映り込みを説明するための模式図である。 映り込み領域で検出される輝度を表すグラフである。 外部画像の補正処理の一例を示す模式図である。 外部画像の補正処理の一例を示すフローチャートである。 映り込み領域の輝度の補正処理の一例を示すフローチャートである。 本技術の第2の実施形態に係る制御ユニットを搭載する車両の構成例を示す模式図である。 制御ユニットの構成例を示すブロック図である。 TOFカメラの構成例を示す模式図である。 外部画像の補正処理の一例を示す模式図である。 TOFカメラを搭載する車両の他の構成例を示す模式図である。 本技術の第3の実施形態に係る制御ユニットを搭載する車両の構成例を示す模式図である。 制御ユニットの構成例を示すブロック図である。 外部画像の補正処理の一例を示す模式図である。 本技術の第4の実施形態に係る制御ユニットを搭載する車両の構成例を示す模式図である。 制御ユニットの構成例を示すブロック図である。 外部画像の補正処理の一例を示す模式図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
図1は、本技術の第1の実施形態に係る制御ユニットを搭載する車両の構成例を示す模式図である。図1には、車両100の前方側を車両100の側面から見た場合の模式図が示されている。なお、点線で区切られた領域には、車両100の内部の車内空間11が模式的に図示されている。車両100は、例えば運転を補助する運転補助機能や、目的地までの自動走行が可能な自動運転機能等を備えている。
図1に示すように、車両100は、フロントガラス20、ダッシュボード30、カメラ40、明るさセンサ50、及びライト12を有する。また車両100は、図示しない表示機器13及び制御ユニット60を有する(図2参照)。
フロントガラス20は、車両100の前方に設けられた窓(フロントウィンド)に配置される窓ガラスである。フロントガラス20は、車両100の内部(車内空間11)に向けられる内面21と、車両100の外部に向けられる外面22とを有する。図1に示すように、フロントガラス20は、内面21が車両100の下方を向くように傾斜して配置される。
フロントガラス20は、透明性のある材質で構成される。例えば、車内空間11にいる搭乗者は、フロントガラス20を介して車両100の前方等を視認することが可能である。フロントガラス20の具体的な構成は限定されない。例えば車両100の窓ガラスとして利用可能な任意の透明部材等が、フロントガラス20として用いられてよい。本実施形態では、フロントガラス20は、フロントウィンドガラスに相当する。
ダッシュボード30は、フロントガラス20の下端に接続され、車内空間11の前方に配置される。ダッシュボード30は、例えば車両100のエンジン室と運転席(車内空間11)との間の仕切り板として機能する。ダッシュボード30には、例えば速度計・燃料計等の計器類や収納部等が適宜設けられる。ダッシュボード30の具体的な構成は限定されず、例えば車両100のデザインや用途等に応じて適宜設計されてよい。本実施形態では、ダッシュボード30は、内装部品の一例である。
本実施形態では、ダッシュボード30は、第1の面31aと第2の面31bとを有する。第1の面31aは、フロントガラス20の下端に接続され、車両100の前後方向及び左右方向に略平行に配置される。従って第1の面31aは、例えば搭乗者から見てダッシュボード30の奥側に配置される略水平な面となる。
第2の面31bは、第1の面31aのフロントガラス20に接続する側とは反対側の下方に、第2の面31bが車両100の後ろ上方に向くように傾斜して配置される。従って第2の面31bは、例えば搭乗者から見てダッシュボード30の手前側に配置される傾いた面となる。
ダッシュボード30(第1の面31a及び第2の面31b)に照射された光(以下照射光23と記載)は、ダッシュボード30により反射される。ダッシュボード30により反射された光の一部は、フロントガラス20に向けて進行する。以下ではダッシュボード30によりフロントガラス20に向けて反射される光を、第1の反射光32と記載する。
図1に示す例では、照射光23の一例として、フロントガラス20を透過してダッシュボード30に照射される太陽光24が白抜きの矢印を用いて模式的に図示されている。なおダッシュボード30に照射される照射光23は太陽光24に限定されない。例えば外灯の光、トンネル内のランプの光、及び車内灯の光等が照射光23となる場合であっても、本技術は適用可能である。
図1には、ダッシュボード30の第1の面31aの各点で反射される第1の反射光32が実線の矢印を用いて模式的に図示されている。なお図1では、第2の面31bにより反射される第1の反射光32の図示が省略されている。実際には、第2の面31bからもフロントガラス20に向けて第1の反射光32が反射される。
図1に示すように、第1の面31a及び第2の面31bは、フロントガラス20に対する配置角度(傾斜)が互いに異なる。従って第1の面31a及び第2の面31bには、照射光23(太陽光24)が互いに異なる入射角度で入射することになる。このため、各面からフロントガラス20に向けて反射される光(第1の反射光32)の強度は互いに異なる強度となる場合がある。
フロントガラス20に向けて反射された第1の反射光32のうち、一部はフロントガラス20により反射され、他の一部はフロントガラス20を透過する。このように、フロントガラス20により、ダッシュボード30からの光(第1の反射光32)が反射されるため、フロントガラス20には、ダッシュボード30の像が映り込むことになる。本実施形態では、ダッシュボード30は、車両の内部に存在し窓ガラスに映り込む対象物の一例である。
カメラ40は、車両100の内部に搭載され、車両100のフロントガラス20を介して車両100の外部画像を撮影する。図1に示すように、カメラ40は、車内空間11の上部に車両100の前方に向けて配置される。カメラ40を車内空間11の上部に配置することで、車両100前方の視界を十分に確保することが可能である。なおカメラ40を配置する位置や姿勢等は限定されない。
カメラ40としては、例えばCMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサを備えるデジタルカメラが用いられる。カメラ40の具体的な構成は限定されず、例えば、カラー画像を撮影するRGBカメラやモノクロ画像を撮影するモノクロカメラ等が適宜用いられてよい。また、単眼のカメラに限定されず、例えばステレオカメラ等が用いられる場合にも本技術は適用可能である。本実施形態では、カメラ40は、車両の内部に搭載された撮像部に相当する。
カメラ40には、例えば車両100の前方からフロントガラス20に入射し、フロントガラスを透過した透過光41が入射する。このカメラ40に入射した透過光41は、イメージセンサ等により受光される。これにより、車両100の外部画像(前方画像)を撮影することが可能である。
またカメラ40には、フロントガラス20により反射された光が入射する場合があり得る。例えば図1に示すように、ダッシュボード30によりフロントガラス20に向けて反射された第1の反射光32の一部は、フロントガラス20によりカメラ40に向けて反射される。以下では、フロントガラス20によりカメラ40に向けて反射される光を、第2の反射光33と記載する。
第2の反射光33がカメラ40に入射することで、カメラ40により撮影される画像には、フロントガラス20に映り込んだダッシュボード30の像が含まれる。この場合、車両100の前方の景色に加え、ダッシュボード30が映り込んだ画像が撮影されることになる。このように、カメラ40により撮影される画像は、フロントガラス20を介してダッシュボード30等が映り込んだ画像となる場合があり得る(図5A参照)。
明るさセンサ50は、ダッシュボード30の明るさに関するパラメータを測定する。本実施形態では、明るさに関するパラメータとして、ダッシュボード30の照度が測定される。具体的には、ダッシュボード30の照度を測定する照度センサ51が用いられる。なお照度とは、例えば物体の表面を照らす光の明るさを表す値である。従って、照度を測定することで、例えばダッシュボード30に入射する太陽光24の明るさが測定されるとも言える。これにより、ダッシュボード30の明るさを容易に評価することが可能である。
明るさセンサ50は、第1の照度センサ51aと第2の照度センサ51bとを有する。第1の照度センサ51aは、ダッシュボード30の第1の面31aに配置され、第1の面31aの照度を測定する。第2の照度センサ51bは、ダッシュボード30の第2の面31bに配置され、第2の面31bの照度を測定する。各照度センサ51は、例えば各面の左右の端等の任意の位置に配置される。
上記したように第1の面31a及び第2の面31bによりフロントガラス20に向けて反射される第1の反射光32の強度は、それぞれ異なる値となる。第1の照度センサ51a及び第2の照度センサ51bを用いることで、各面の照度を適正に測定することが可能となる。これにより、例えば各面から反射される第1の反射光32による映り込みの度合いを適正に評価することが可能となる。
このように、明るさセンサ50には、ダッシュボード30によりフロントガラス20に向けて反射される第1の反射光32の強度に応じて車両100の内部に配置される複数の照度センサ51が含まれる。なお、照度センサ51の数や配置位置等は限定されず、例えばダッシュボード30の形状等に応じて、2以上の照度センサ51が適宜配置されてよい。もちろん単一の照度センサ51が用いられてもよい。本実施形態では、明るさセンサ50は、センサ部に相当する。
ライト12は、例えば車両100の前方及び後方の左右両側にそれぞれ配置される。ライト12は、車両100の前方を照らす前照灯(ヘッドランプ)や補助前照灯(フォグランプ)、車幅等を示す車幅灯(スモールランプ)、及び車両100の後方に配置される尾灯(テールランプ)等を含む。図1では、ライト12の一例として、車両100の前方に配置されたヘッドランプが図示されている。
表示機器13は、例えば車内空間11に配置され、搭乗者に対して視覚情報等を出力することが可能な機器である。表示機器としては、例えば、インストルメントパネル(計器板及び計器類)、車内灯、ディスプレイ等の表示装置、スイッチ類のバックライト等が含まれる。なお、表示機器13の種類等は限定されず、例えば表示の明るさ等を変更可能な任意の素子や装置等が表示機器13として用いられてよい。
図2は、制御ユニット60の構成例を示すブロック図である。制御ユニット60は、例えば車両100内部の所定の位置に配置され、車両100に備えられた各ブロックと適宜接続される。
制御ユニット60は、本実施形態に係る情報処理装置に相当し、例えばCPU、RAM、及びROM等のコンピュータに必要なハードウェアを有する。CPUがROMに予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
制御ユニット60の具体的な構成は限定されず、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。
図2に示すように、制御ユニット60は、画像取得部61、明るさ検出部62、補正部63、記憶部64、及び、発光制御部65を備える。例えば、制御ユニット60のCPUが所定のプログラムを実行することで、各機能ブロックが構成される。
画像取得部61は、車両100のフロントガラス20を介して撮影された車両100の外部画像を取得する。具体的には、カメラ40によりフロントガラス20越しに撮影された車両100の外部画像が読み込まれる。読み込まれた外部画像は、補正部63に出力される。本実施形態では、画像取得部61は、取得部に相当する。
明るさ検出部62は、ダッシュボード30の明るさに関する明るさ情報を検出する。具体的には、明るさ検出部62は、明るさセンサ50により測定された出力結果を読み込み、読み込まれた明るさセンサ50の出力に基づいて明るさ情報を検出する。
本実施形態では、明るさ情報として、第1の照度センサ51aにより測定された第1の面31aの照度と、第2の照度センサ51bにより測定された第2の面31bの照度とが用いられる。すなわち、ダッシュボード30の水平な面(第1の面31a)の照度と、傾いた面(第2の面31b)の照度とが、ダッシュボード30の明るさを表すデータとして検出される。検出された各面の照度は、補正部63に出力される。本実施形態では、明るさ検出部62は、検出部に相当する。
補正部63は、検出された明るさ情報に基づいて、車両100の外部画像を補正する。本実施形態では、ダッシュボード30の明るさ情報に基づいて、外部画像の輝度が補正される。例えば外部画像に映り込んだダッシュボード30の像(映り込み画像)が除去されるように、外部画像の輝度が補正される。
なお、外部画像の輝度を補正する処理は、例えば各画素ごとに実行される。例えば、外部画像を構成する各画素について、RGBの各色の画素値等を適宜補正することで、各画素の輝度(明るさ)を補正することが可能である。これにより、ダッシュボード30の映り込み画像を高精度に除去することが可能である。外部画像の輝度を補正する処理については、後に詳しく説明する。
記憶部64は、制御ユニット60が供えるHDD(Hard Disk Drive)やSSD(Solid State Drive)等により構成される。記憶部64は、外部画像の補正処理に用いられる各種のデータを記憶する。
記憶部64には、ダッシュボード30の映り込みが生じる映り込み領域を表すエリアマップM(u,v)が記憶される(図5B参照)。ここでu及びvは、カメラ40により撮影される画像(外部画像)の横方向及び縦方向の画素の座標を表す値である。エリアマップM(u,v)では、例えば座標(u,v)で指定された画素が映り込み領域に含まる場合には1、含まれない場合には0が記憶される。これにより映り込み領域を容易に判定することが可能となる。エリアマップM(u,v)の具体的な構成は限定されない。
なお、ダッシュボード30により反射される光は、例えば様々な方向に向けて出射される拡散光である。従ってダッシュボード30の映り込み領域は、太陽光24等が照射される方向が変化した場合であっても、略同様の領域となる。すなわち、ダッシュボード30の映り込み領域は、ダッシュボード30と、フロントガラス20と、カメラ40との配置関係により定まる領域であるとも言える。
例えば工場出荷時やメンテナンス時等のタイミングで、ダッシュボード30が映り込んだ画像がカメラ40により撮影される。この画像に基づいて、映り込み領域を表すエリアマップM(u,v)を生成することが可能である。これに限定されず、映り込み領域等をデータ化することが可能な任意の方法によりエリアマップM(u,v)が生成されてよい。
また記憶部64には、ダッシュボード30の照度に基づいて、輝度を補正するために必要となる各種のパラメータが記憶される。これらのパラメータは、補正部63により外部画像の補正が行われる際に、適宜読み込まれる。この点については、後に詳しく説明する。この他、記憶部64には、制御ユニット60の各部の動作に必要となるデータ等が記憶される。
発光制御部65は、照度センサ51の出力に基づいて、車両100に搭載されたライト12及び表示機器13の発光強度を制御する。なお発光強度の制御には、発光のON・OFFの切り替えや、発光強度の段階的な強弱の制御等が含まれる。照度センサ51としては、例えば第1及び第2の照度センサ51a及び51bの片方及び両方が適宜用いられる。
例えば発光制御部65により、照度に応じて、スモールランプ、ヘッドランプ、及びテールランプ等のライト12の点灯・消灯が適宜制御される。また例えば、照度に応じて、ディスプレイの表示輝度や、計器類、スイッチ類等のバックライトの明るさが適宜制御される。これにより、夕方や夜間等の暗い時間帯や、雨天や曇り等の天候により暗くなった場合、あるいはトンネル等により明るさが変化する場合等に、ライト12や表示機器13の明るさを自動的に制御することが可能である。
このように、照度センサ51は、外部画像の補正のみならず、ライト12や表示機器13の制御に用いられる。これにより、部品点数を抑えることが可能となり、車両100の製造コスト等を抑制することが可能となる。なお制御ユニット60には、発光制御部65に加え、車両100の各部を制御する機能ブロック等が適宜設けられてもよい。
本実施形態では、車両100に搭載されたカメラ40及び制御ユニット60により、本技術に係る撮像装置が構成される。また車両100に搭載されたカメラ40及び制御ユニット60は、本技術に係る撮像システムとして機能する。
図3は、フロントガラス20による映り込みを説明するための模式図である。例えば図3に示すように、フロントガラス20の外面22には、車両100の外部の被写体1から発せられた入射光2が入射する。被写体1からの入射光2の一部は、フロントガラス20により反射される。また他の一部は、フロントガラス20を透過する透過光41として車内空間11に進入し、カメラ40に入射する。以下では透過光41の輝度をLtrnと記載する。
ダッシュボード30では、太陽光24等の照射光23が反射され、一部の光が第1の反射光32としてフロントガラス20に入射する。そして第1の反射光32の一部が、フロントガラス20により反射され、第2の反射光33としてカメラ40に入射する。以下では第2の反射光33の輝度をLrefと記載する。なお第2の反射光33の輝度をLrefは、カメラ40のイメージセンサからみた映り込みの明るさを表しているとも言える。
このように、カメラ40には、フロントガラス20を透過した透過光41と、フロントガラス20により反射された第2の反射光33とが入射することになる。従って例えば、イメージセンサ(カメラ40)において、第2の反射光33が入射する領域では、透過光41の輝度Ltrnと第2の反射光33の輝度Lrefとの和が検出される。
この第2の反射光33が入射する領域が、ダッシュボード30が映り込む領域(映り込み領域)となる。映り込み領域では、カメラ40により実際に検出される輝度Lcamは、Lcam=Ltrn+Lrefと表される。言い換えれば、カメラ40により検出される輝度Lcamから、第2の反射光33の輝度Lrefを差し引くことで、透過光41の輝度Ltrn=Lcam−Lrefを算出することが可能である。なお、映り込みが生じていない領域で検出される輝度Lcamは、Lcam=Ltrnと表される。
図4は、映り込み領域で検出される輝度を表すグラフである。グラフの横軸は透過光41の輝度をLtrnであり、縦軸は映り込み領域で検出される輝度Lcamである。各軸では、8bit(0〜255)の階調で輝度が表されている。
例えば、フロントガラス20による映り込みが生じず、第2の反射光33がカメラに入射しない場合には、カメラ40により検出される輝度は、原点(0,0)を通る傾きが1の直線となる(図中の点線42)。別の観点では、点線42で表される特性は、フロントガラス20による映り込みのない理想的なカメラ特性であるとも言える。
一方で、映り込みにより第2の反射光33が入射する場合には、第2の反射光33の輝度Lrefの値だけ、カメラ40により検出される輝度Lcamが明るくシフトする(図中の実線43)。この結果、例えば実線43のグラフは、傾きが1で切片が第2の反射光33の輝度Lrefで表される直線となる。すなわち、フロントガラス20による映り込みにより、カメラ40により検出される輝度が明るくなる。
なお、輝度のシフトにより、カメラ40により検出される輝度Lcamが飽和する飽和領域44が生じる場合があり得る。飽和領域44では、画像の輝度が最大値255となり白とびにより透過光41のデータが失われることが考えられる。この場合、例えば飽和領域44に被写体1(透過光41)の明るさが到達しないように、シフト量(Lref)の分だけカメラ40の露出(露光時間や感度等)を下げるといった処理が実行される。これにより、飽和領域44が発生することを抑制し、透過光41のデータが失われることを回避することが可能である。
第2の反射光33の輝度Lrefは、ダッシュボード30の明るさに応じた値となる。例えば第2の反射光33の輝度Lrefは、ダッシュボード30の明るさを表す照度Eを用いて、以下の式で表される。
ref=αE+β (1)
ここで、α及びβは、フロントガラス20に映り込む対象物(ダッシュボード30)の材質や形状、及びフロントガラス20の反射率に応じて定まる係数である。
従って例えば、ダッシュボード30の第1の面31aが映り込む領域、及び第2の面31bが映り込む領域には、それぞれ異なる係数α及びβが設定される。以下では、第1の面31aに関する(1)式の係数をαa及びβaと記載し、第2の面31bに関する(1)式の係数をαb及びβbと記載する。なお、これらの係数は、記憶部64に記憶される。
図5は、外部画像の補正処理の一例を示す模式図である。図6は、外部画像の補正処理の一例を示すフローチャートである。図6に示す処理は、例えば車両100の動作中に継続して実行されるループ処理である。
カメラ40により、フロントガラス20を介して車両100の前方の外部画像が撮影される(ステップ101)。撮影された外部画像は、画像取得部61により読み込まれる。以下では、外部画像の輝度値を輝度データX(u,v)と記載する。ここで輝度データX(u,v)とは、例えば外部画像内の座標(u,v)に存在する画素の輝度値を表すデータである。
図5Aは、カメラ40により撮影される外部画像の一例を示す模式図である。図5Aに示すように、外部画像45には、フロントガラス20を透過した透過光41を検出して撮影された車両100の前方の風景が含まれる。
また外部画像45において、フロントガラス20で反射された第2の反射光33が検出される領域は、ダッシュボード30(第1の面31a及び第2の面31b)の像が撮影される映り込み領域46となる。図5Aでは、ダッシュボード30の第1の面31aが映り込む第1の映り込み領域46aと、第2の面31bが映り込む第2の映り込み領域46bとが模式的に図示されている。
各映り込み領域46では、車両100の前方からの透過光41に加え第2の反射光33が検出される。従って、映り込み領域46は、映り込みのない他の領域と比べ、明るさ(輝度)が増加した領域となる。なお、第1の映り込み領域46a及び第2の映り込み領域46bでの輝度のシフト量は、第1の面31a及び第2の面31bのそれぞれの材質や配置等に応じた値となる。
図6に戻り、ダッシュボード30に配置された照度センサ51により、ダッシュボード30の照度が測定される(ステップ102)。本実施形態では、第1の面31aに配置された第1の照度センサ51aにより第1の面31aの照度Eaが測定される。また、第2の面31bに配置された第2の照度センサ51bにより第2の面31bの照度Ebが測定される。測定された各面の照度(Ea及びEb)は、明るさ検出部62により読み込まれる。
補正部63により、ダッシュボード30の照度Eに基づいて、フロントガラス20を介したダッシュボード30の映り込みによる外部画像45の輝度のシフト量が算出される(ステップ103)。すなわち、外部画像45におけるダッシュボード30の映り込みの輝度が算出される。本実施形態では、外部画像45の輝度のシフト量は、外部画像の輝度変化量に相当する。
本実施形態では、(1)式を用いて、各映り込み領域46での外部画像45の輝度のシフト量、すなわち第2の反射光33の輝度Lrefが算出される。この処理は、ダッシュボード30の照度Eを第2の反射光33の輝度Lrefに変換する照度輝度変換を実行する処理であるとも言える。従って(1)式の係数α及びβは、照度輝度変換のキャリブレーション値となる。なお係数α及びβは、記憶部64から適宜読み込まれる。
例えば、第1の映り込み領域46aでの輝度のシフト量が算出される場合、係数α及びβとしてαa及びβa読み込まれる。そして、第1の照度センサ51aにより測定された第1の面31aの照度Eaから、第1の映り込み領域46aでの第2の反射光33の輝度Lref_a=αaa+βaが算出される。また例えば、第2の映り込み領域46bでの輝度のシフト量が算出される場合、係数α及びβとしてαb及びβb読み込まれる。そして、第2の照度センサ51bにより測定された第2の面31bの照度Ebから、第2映り込み領域46bでの第2の反射光33の輝度Lref_b=αbb+βbが算出される。
各映り込み領域46での輝度のシフト量(Lref_a及びLref_b)が算出されると、各映り込み領域46での輝度の補正処理が実行される(ステップ104)。図7は、映り込み領域46の輝度の補正処理の一例を示すフローチャートである。図7には、図6に示すステップ104の内部処理の一例が示されている。
補正部63により、外部画像45(輝度データX(u,v))と、エリアマップM(u,v)と、映り込み領域46での輝度のシフト量Lrefとが読み込まれる(ステップ201)。例えば輝度のシフト量Lrefとして、第1の映り込み領域46aでの輝度のシフト量Lref_aと、第2の映り込み領域46bでの輝度のシフト量Lref_bとがそれぞれ読み込まれる。
図5Bは、エリアマップM(u,v)の一例を示す模式図である。図5Bには、第1の映り込み領域46aを表す第1のエリア47aと、第2の映り込み領域46bを表す第2のエリア47bとが模式的に図示されている。エリアマップM(u,v)は、例えば第1及び第2のエリア47a及び47bをそれぞれ区別可能なように適宜構成される。
図5Bでは、各映り込み領域46(第1及び第2のエリア47a及び47b)での輝度のシフト量(Lref_a及びLref_b)がグレースケールを用いて示されている。従って、図5Bに示す図は、外部画像45におけるダッシュボード30(第1の面31a及び第2の面31b)の映り込み輝度を表す図であるとも言える。例えば図5Bに示す輝度が、車両100の前方の景色に重畳されることで、外部画像45における映り込みが発生することになる。
図7に戻り、外部画像45の補正用データY(u,v)と、外部画像45の各画素を指定する変数nとが準備される(ステップ202)。補正用データY(u,v)は、輝度データX(u,v)に対応して設定されるデータであり、補正処理の結果が収められるデータとなる。また変数nは、例えば外部画像45の各座標(u,v)に位置する画素をそれぞれ指定する変数であり、n=0に設定される。
以下では、外部画像45の横方向の画素数をW、縦方向の画素数をHとする。この場合、座標uは1≦u≦Wの整数であり、座標vは1≦v≦Hの整数となる。例えばW×H個の各画素に対して各画素を表す1からW×Hまでの整数インデックスがそれぞれ設定される。変数nは、各画素の整数インデックスを指定する変数として用いられる。
変数nに1を追加するインクリメント処理(n++)が実行される(ステップ203)。例えば、最初のインクリメント処理では、n=1が設定され、整数インデックスが1である画素の輝度データが読み込まれる。
変数nで指定される画素が、映り込み領域46に含まれているか否かが判定される(ステップ204)。本実施形態では、エリアマップM(u,v)に基づいて判定が実行される。例えば、変数nで指定される画素の座標(u,v)が参照され、その座標で表される位置が、エリアマップM(u,v)の映り込み領域46に含まれているか否かが判定される。
なおステップ204では、変数nで指定される画素が、エリアマップM(u,v)の第1の映り込み領域46a(第1のエリア47a)及び第2の映り込み領域46b(第2のエリア47b)のどちらに含まれているかを判定すること可能である。
変数nで指定される画素が映り込み領域46に含まれていると判定された場合(ステップ204のYes)、外部画像45の輝度が補正される(ステップ205)。具体的には、輝度データX(u,v)から対象となる映り込み領域46での輝度のシフト量(Lref)を引いた値が補正用データY(u,v)として算出される。
例えば第1の映り込み領域46aに含まれると判定された画素について、Y(u,v)=X(u,v)−Lref_aとする処理が実行される。また例えば第2の映り込み領域46bに含まれると判定された画素について、Y(u,v)=X(u,v)−Lref_bとする処理が実行される。これにより、映り込み領域46での輝度の増加成分が除去されたデータを生成すること可能となる。
変数nで指定される画素が映り込み領域46に含まれていないと判定された場合(ステップ204のNo)、外部画像45の輝度がそのまま補正用データYに代入される(ステップ206)。すなわち、映り込みがない領域に含まれると判定された画素について、Y(u,v)=X(u,v)とする処理が実行される。これにより、映り込みがない領域での透過光41の輝度Ltrnをそのまま抽出することが可能である。
ステップ205または、ステップ206の処理が終了すると、外部画像45の全ての画素について処理が実行されたか否かが判定される(ステップ207)。具体的には、画素を指定する変数nが、n≧W×Hを満たしているか否かが判定される。変数nがW×Hよりも小さいと判定された場合(ステップ207のNo)、未処理の画素が残っているとして、ステップ203に戻り次の画素についての処理が実行される。
このように、ステップ203〜ステップ207のループ処理では、外部画像45内のダッシュボード30が映り込む領域が判定され、ダッシュボード30の照度に基づいてダッシュボード30が映り込むと判定された領域の輝度が補正される。この処理は、例えば図5Aに示す外部画像45から、図5Bに示す映り込みによる輝度のシフト量を除去する処理であるとも言える。これにより、ダッシュボード30の映り込み等を精度よく補正することが可能となる。
変数nがW×H以上と判定された場合(ステップ207のYes)、全ての画素について処理が完了したとして、補正用データY(u,v)に基づいて補正画像が構成される(ステップ208)。例えば補正用データY(u,v)に記録された輝度データを用いて、所定の型式の補正画像が生成される。
図5Cは、補正画像の一例を示す模式図である。図5Cには、図5Aに示す外部画像45から図5Bに示す映り込み領域46ごとの輝度Lrefが除去された補正画像48が図示されている。補正画像48では、ダッシュボード30の映り込みにより明るくなった領域(第1及び第2の映り込み領域46a及び46b)の輝度が補正されており、本来の透過光41の輝度Ltrnが再現された画像となる。これにより、車両100の前方の景色を適正に表すことが可能となる。
図6に戻り、補正画像48(補正用データY(u,v))が、認識器等に出力される(ステップ105)。認識器は、例えば入力された画像データから車両100周辺の物体を検出する画像センシング等を実行する処理ブロックあるいは処理装置である。
認識器では、例えば歩行者、自転車、他車両等の他の移動体を検知する処理や、信号や標識を認識する処理等が実行される。また例えば、ステレオ視差を用いて物体までの距離を検知するといった処理が実行されてもよい。認識器の具体的な構成は限定されず、画像センシング等を行う任意の認識器に対して本技術は適用可能である。
例えば、補正画像48を用いた画像センシングを行うことで、映り込みによるセンシングエラーを軽減することが可能である。センシングエラーとは、例えばダッシュボード30が映り込むことで、画像内の物体を誤って検知する、あるいは検知できないといったエラーである。また映り込みに伴うステレオ視差の誤検知等が抑制される。この結果、画像センシングの精度を十分に向上することが可能となる。
なお図7のステップ205では、外部画像45の輝度から、映り込みによる輝度のシフト量Lrefが一律に減算された。これに限定されず、例えば映り込み領域46に含まれる各画素ごとに、重み付けされたシフト量Lrefを減算するといった処理が実行されてもよい。
例えば、ダッシュボード30に複数の材質が含まれている場合や、表面の形状にくぼみや傾斜等が含まれる場合には、ダッシュボード30の場所ごとに映り込みの明るさが異なるといった場合があり得る。このような材質(反射率等)や形状(反射角等)の違いによる明るさの分布は、予め測定することが可能である。また明るさの分布に応じて、例えばダッシュボード30の各点での重み付けパラメータ等を算出可能である。
例えば、エリアマップM(u,v)の各画素ごとに重み付けパラメータが設定され、各画素ごとに、重み付けされたシフト量Lrefが減算される。すなわち、映り込みが強い部分では、シフト量Lrefが大きくなるように重み付けを行うパラメータが設定される。また映り込みが弱い部分では、シフト量Lrefが小さくなるように重み付けを行うパラメータが設定される。これにより、映り込みに伴う外部画像45の輝度のシフトを、画素単位で高精度に除去することが可能となり、画像センシングの精度を大幅に向上することが可能となる。
以上、本実施形態に係る制御ユニット60では、車両100のフロントガラス20を介して撮影された外部画像45が取得される。またフロントガラス20に映り込む車両100内部のダッシュボード30についての明るさに関する明るさ情報が検出される。そしてダッシュボード30の明るさ情報に基づいて、外部画像45が補正される。補正された外部画像45を用いることで、車内から撮影される画像によるセンシングの精度を向上することが可能となる。
画像の映り込みを補正する方法として、ステレオカメラで撮影された2つの画像を比較する方法が考えられる。例えば映り込みによる特徴点を各画像の視差に基づいて探索することで、映り込みが生じているピクセル等が特定される。この方法では、例えば映り込みが生じているピクセルの輝度値等を正しく補正することが難しい場合があり得る。また2台のカメラが必要であり、例えば単体のカメラに対して適用することは難しい。
本実施形態では、映り込みの対象となるダッシュボード30の照度Eを測定する照度センサ51が用いられる。これにより、フロントガラス20により反射されるダッシュボード30の明るさ(第2の反射光33の輝度Lref)を精度よく算出することが可能である。この結果、映り込みによりシフトした外部画像45の輝度が適正に補正された補正画像を生成することが可能となる。
また照度センサ51による照度Eの測定は、外部画像45が撮影されるタイミングに合わせて実行される。これにより、映り込みが生じた際のダッシュボード30の明るさ(照度E)に基づいて、補正画像を生成することが可能となる。この結果、時間帯、天候、走行環境等が変化した場合であっても、適正に映り込みを補正することが可能となり、装置の信頼性を向上することが可能となる。
また外部画像45の映り込み領域46は、エリアマップM(u,v)を用いて判定される。これにより、例えば単一のカメラ40が用いられる場合であっても、ダッシュボード30等が映り込んでいる領域を容易に判定することが可能である。またこの方法は、カメラ40が複数ある場合にも適用可能である。例えばステレオカメラとして構成された2台のカメラについて、カメラごとのエリアマップ等を構成することで、各カメラで撮影される画像での映り込みをそれぞれ除去することが可能である。この結果、ステレオマッチングの精度を大幅に向上するといったことが可能である。
本実施形態では照度センサ51の測定結果を用いることで、映り込みの補正のみならず、車両100に搭載されたライト12や表示機器13等の制御が実行される。これにより、認識器のセンシング精度を向上するとともに、運転者等の負担を十分に軽減することが可能となる。また近年、照度センサ等を用いたオートライトの機能を搭載した車両が普及しており、照度センサの設置率は高くなると予想される。例えば、このような照度センサ51を利用することで、映り込みの補正が可能な装置を低コストで提供することが可能となる。
<第2の実施形態>
本技術に係る第2の実施形態の情報処理装置について説明する。これ以降の説明では、上記の実施形態で説明した車両100における構成及び作用と同様な部分については、その説明を省略又は簡略化する。
図8は、本技術の第2の実施形態に係る制御ユニットを搭載する車両の構成例を示す模式図である。図9は、制御ユニット260の構成例を示すブロック図である。
図8に示すように、車両200は、フロントガラス20と、ダッシュボード30とを有する。フロントガラス20及びダッシュボード30は、例えば図1に示すフロントガラス20及びダッシュボード30と同様に構成される。なお図8では、図1に示すダッシュボード30の第2の面31bの図示が省略されている。
また図8ではダッシュボード30の上に載置された載置物34が図示されている。例えばフロントガラス20を介して太陽光24等の照射光23が入射することで、フロントガラス20にはダッシュボード30及び載置物34の映り込みが生じる。本実施形態では、ダッシュボード30及び載置物34は、車両の内部に存在し窓ガラスに映り込む対象物の一例である。
また車両200は、カメラ40と、明るさセンサ250と、制御ユニット260とを有する。カメラ40は、例えば図1及び図2に示すカメラ40と同様の構成を有する。
明るさセンサ250は、ダッシュボード30及び載置物34の明るさに関するパラメータを測定する。明るさセンサ250は、飛行時間(TOF:Time of Flight)を検出可能なTOFカメラ251を有する。本実施形態では、TOFカメラ251により、明るさに関するパラメータとして、ダッシュボード30の輝度が測定される。TOFカメラ251は、カメラ40の近傍にダッシュボード30に向けて配置される。図8には、TOFカメラ251の撮影範囲が点線を用いて模式的に図示されている。
図10は、TOFカメラ251の構成例を示す模式図である。TOFカメラ251は、画像センサ252とTOFセンサ253とを有する。画像センサ252及びTOFセンサ253は、互いに近接して配置される。本実施形態では、TOFカメラ251は、距離画像センサに相当する。
画像センサ252は、対象の輝度画像を撮影する。ここで輝度画像とは、例えば対象の各点の輝度値が検出された画像であり、カラー画像(RGB画像)やモノクロ画像等が含まれる。画像センサ252としては、例えばCCDやCMOS等を用いたイメージセンサを搭載したデジタルカメラ等が用いられる。
TOFセンサ253は、対象までの距離を測定する。TOFセンサ253は、例えば画像センサ252と同様の画素数を持つ受光素子(イメージセンサ)を備える。TOFセンサ253では、図示しない発光素子を用いて対象に光を照射し、対象の各点で反射された光が受光素子により受光されるまでの時間が測定される。これにより、対象の各点までの距離が記録された距離画像を測定することが可能である。
例えば画像センサ252により、映り込みの対象となる物体(ダッシュボード30及び載置物34)上の複数の測定点35ごとの輝度(輝度画像)が測定される。図10では、測定点35の一例として、載置物34上の測定点35が黒丸で図示されている。例えば太陽光24等が照射されて測定点35で反射された反射光25が画像センサ252により検出される。
また例えば、TOFセンサ253により、映り込みの対象となる物体(ダッシュボード30及び載置物34)上の複数の測定点35までの距離(距離画像)が測定される。図10では、TOFセンサ253により測定される載置物34上の測定点35までの距離が模式的に図示されている。これにより、各測定点35の位置を測定することが可能である。ここで測定点35の位置とは、例えば所定の3次元座標系における測定点35の座標値で表される3次元上の位置である。
例えば、TOFセンサ253により測定された測定点35の位置は、TOFセンサ253のセンサ座標系での位置となる。この位置(TOFセンサ253のセンサ座標系での座標値)は、例えば画像センサ252のセンサ座標系での位置に適宜変換することが可能である。従って、TOFカメラ251を用いることで、各画素(測定点35)ごとの輝度と3次元位置とを含むデータを測定することが可能である。
TOFセンサ253と画像センサ252とを個別に備えることで、例えば測定点35の輝度及び位置を同時に測定するといったことが可能である。これにより、ダッシュボード30及び載置物34の位置や輝度を高精度に測定することが可能である。なおTOFカメラ251の具体的な構成は限定されず、例えば輝度画像と距離画像とをそれぞれ撮影可能なTOFセンサ253を備えるTOFカメラ251が用いられてもよい。
このように、TOFカメラ251は、ダッシュボード30及び載置物34上の複数の測定点ごとの輝度と、複数の測定点35の位置とを測定可能である。本実施形態では、TOFカメラ251は、位置センサとして機能する。
図9に示すように、制御ユニット260は、画像取得部261、明るさ検出部262、補正部263、記憶部264、及び、状態検出部266を備える。画像取得部261は、車両200のフロントガラス20を介して撮影された車両200の外部画像45を取得する。
明るさ検出部262は、ダッシュボード30及び載置物34の明るさに関する明るさ情報を検出する。本実施形態では、明るさ情報として、TOFカメラ251の出力に基づいて、ダッシュボード30及び載置物34上の複数の測定点35ごとの輝度が検出される。
補正部263は、検出された測定点35ごとの輝度に基づいて、車両200の外部画像45の輝度を補正する。記憶部264には、測定点35ごとの輝度に基づいて、外部画像45の輝度を補正するために必要となる各種のパラメータが記憶される。補正部263の動作については、後に詳しく説明する。
状態検出部266は、TOFカメラ251の出力に基づいて、車両200の内部の状態を検出する。ここで車両200の内部の状態とは、例えば車両200に搭乗している運転者や他の搭乗者の状態、シートの状態、あるいは載置物34の状態等を含む車内空間11での各種の状態である。検出対象となる運転者や搭乗者の状態には、例えば、位置、姿勢、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。
例えば、TOFカメラ251から出力される運転者等の位置データを用いることで、運転者の状態等をモニタリングすることが可能である。これにより、例えば覚醒度や疲労度等を運転者に報知するといった処理や、緊急の場合に車両200を安全に停止するといった処理を実行することが可能である。なおTOFカメラ251の出力に基づいて、車両200の外部の状態を検出するといった処理が実行されてもよい。この他、TOFカメラ251の出力を用いた任意の検出処理が実行されてよい。
図11は、外部画像45の補正処理の一例を示す模式図である。以下では図11を参照して、制御ユニット260による外部画像45の補正処理について説明する。
まずカメラ40により車両200の外部画像45が撮影され、画像取得部261により撮影された外部画像45が読み込まれる。図11Aは、カメラ40により撮影される外部画像45の一例を示す模式図である。図11Aに示すように、外部画像45では、フロントガラス20を介してダッシュボード30及び載置物34の映り込みが生じる。
なお、載置物34の位置は車両200に対して固定されていない場合がある。このため、外部画像45内の載置物34の映り込む範囲は、撮影のたびに変化する場合があり得る。すなわち、載置物34等が映り込む場合には、外部画像45において映り込みが生じる映り込み領域46が変化することがあり得る。
以下では、外部画像45に映り込むダッシュボード30及び載置物34の像を映り込み画像49と記載する。映り込み画像49は、例えばフロントガラス20で反射される第2の反射光33が検出されることで生じる像である(図9参照)。従って、外部画像45は、フロントガラス20を透過した透過光41により構成される車両200の前方の風景に、映り込み画像49が重畳された画像であるとも言える。
外部画像45が撮影されるタイミングに合わせて、TOFカメラ251によりダッシュボード30及び載置物34が撮影される。そして明るさ検出部262により、TOFカメラ251の出力が読み込まれる。例えば、画像センサ252及びTOFセンサ253により撮影された輝度画像及び距離画像がそれぞれ読み込まれる。
図11Bは、TOFカメラ251の画像センサ252により撮影される輝度画像254の一例を示す模式図である。輝度画像254は、ダッシュボード30及び載置物34を直接撮影した画像である。例えば輝度画像254内のある画素には、その画素と対応する測定点35の輝度が記録される。
従って、輝度画像254は、外部画像45に映り込む対象となる物体(ダッシュボード30及び載置物34)の輝度分布を表す輝度マップE(u',v')であるとも言える。ここでu'及びv'は、画像センサ252(TOFカメラ251)により撮影される画像(輝度画像)の横方向及び縦方向の画素の座標を表す値である。
補正部263により、ダッシュボード30及び載置物34の輝度から、映り込み画像49の輝度が算出される。映り込み画像49の輝度とは、ダッシュボード30及び載置物34から出射され、フロントガラス20により反射された第2の反射光33の輝度Lrefである(図8参照)。
第2の反射光33の輝度Lrefは、例えばダッシュボード30及び載置物34の輝度を表す輝度マップE(u',v')を用いて以下の式で表される。
ref(u',v')=γE(u',v')+δ (2)
ここで、γ及びδは、フロントガラス20の特性(反射率等に)応じて定まる係数である。係数γ及びδは、例えば予め算出され、記憶部264に記憶される。
なお輝度マップE(u',v')は、ダッシュボード30及び載置物34の各測定点35での反射率等の特性に応じた輝度を表している。従って例えばダッシュボード30や載置物34の特性が変化した場合であっても、記憶部264に記憶された係数γ及びδを用いて、Lref(u',v')を算出可能である。
(2)式に示すように、Lref(u',v')は、図11Bに示す輝度画像254の座標系(u',v')での、第2の反射光33の輝度分布を表している。補正部263では、輝度画像254の座標系(u',v')から、外部画像45の座標系(u,v)への座標変換が実行される。
本実施形態では、透視投影変換を用いた座標変換が実行される。透視投影変換を用いることで、例えば3次元座標を2次元座標に変換する、あるいは2次元座標を3次元座標に変換するといった処理を実行可能である。
透視投影変換では、例えば物体の撮影に用いられるレンズの中心座標やレンズの光軸方向等を含む外部パラメータと、焦点距離、画像中心の位置、画像サイズ、及び歪収差係数等を含む内部パラメータとを補正するためのキャリブレーション値が用いられる。これらのキャリブレーション値は、例えばカメラ40とTOFカメラ251とのそれぞれの特性及び配置関係等に基づいて定まる係数である。キャリブレーション値は、例えば所定のキャリブレーションパターン(市松模様等)を用いて予め算出され記憶部264に記憶される。
例えば補正部263により、(2)式で算出された第2の反射光33の輝度分布が、以下の式を用いて座標変換される。
ref(u,v)=W(Lref(u',v'),c) (3)
ここでWは、輝度画像254の座標系(u',v')から、外部画像45の座標系(u,v)に変換する関数(変換行列等)である。またcは、関数Wによる座標変換を行うためのキャリブレーション値である。
Wによる座標変換は、例えばTOFカメラ251(輝度画像254)上の2次元座標を、3次元空間での3次元座標に変換し、変換された3次元座標をカメラ40(外部画像45)上の2次元座標に変換する処理である。なお、Wによる座標変換では、TOFカメラ251により測定された距離画像の値が用いられる。これにより、例えば3次元座標を介した座標変換を適正に実行することが可能である。なお、座標変換を行う関数Wの具体的な構成は限定されず、例えば座標を変換可能な任意の方法が適宜用いられてよい。
例えば図11Bに示す輝度画像254上の測定点35の座標(u',v')は、図11Aに示す外部画像45上の測定点35の座標(u,v)に変換される。もちろん、他の測定点35(画素)についても、外部画像45上の座標に変換される。このように、本実施形態では、補正部263により、TOFカメラ251により測定されたダッシュボード30及び載置物34の複数の測定点35の位置が、外部画像45内の位置に変換される。
(3)式を用いて算出された第2の反射光33の輝度分布Lref(u,v)は、図11Aに示す外部画像45での映り込み画像49の輝度分布となる。すなわち、(2)式及び(3)式を用いることで、ダッシュボード30及び載置物34の実際の輝度を、映り込み画像49の輝度に変換することが可能である。
算出された第2の反射光33の輝度分布Lref(u,v)に基づいて、外部画像45(輝度データX(u,v))が補正され、補正画像48(補正用データY(u,v))が算出される。具体的には、輝度データX(u,v)から、第2の反射光33の輝度分布Lref(u,v)を差し引いた、補正用データY(u,v)=X(u,v)−Lref(u,v)が算出される。そして算出された補正用データY(u,v)に基づいて、補正画像48が生成される。
図11Cは、補正画像48の一例を示す模式図である。図11Cには、図11Aに示す外部画像45から第2の反射光33の輝度分布Lref(u,v)が除去された補正画像48が図示されている。例えば補正画像48では、外部画像45に映り込んでいるダッシュボード30の像のみならず、載置物34の像も除去される。これにより、前方の景色が鮮明に撮影された補正画像48を生成することが可能となる。生成された補正画像48は、認識器等に出力され、補正画像48を用いた画像センシング等が実行される。
このように、本実施形態では、TOFカメラ251を用いて輝度マップE(u',v')を直接撮影することで、ダッシュボード30等に物体(載置物34)等が置かれた場合であっても、外部画像45を適正に補正することが可能である。これにより、載置物34の映り込みに係らず、画像センシング等の精度を十分に向上することが可能となり、高い信頼性を発揮することが可能となる。
図12は、TOFカメラ251を搭載する車両の他の構成例を示す模式図である。図12A及び図12Bは、車両201の車内空間11を車両201の側方及び上方から見た場合の模式図である。図12に示す例では、複数のTOFカメラ251が車内空間11に配置される。
車両201は、全周カメラ240と、複数のTOFカメラ251とを有する。全周カメラ240は、例えば360°の範囲にわたって画像を撮影可能なカメラである。全周カメラ240は、例えば車内空間11の上部中央に配置される。図12に示す例では、前列シートと後列シートとの間の天井に配置された全周カメラ240が模式的に図示されている。
全周カメラ240を用いることで、例えばフロントガラス220を介して車両201の前方画像を撮影可能である。またサイドガラス221及びリアガラス222を介して車両201の側方画像及び後方画像が撮影可能である。前方画像、側方画像、及び後方画像は、車両201の外部画像45として用いられる。なお、全周カメラ240の具体的な構成は限定されない。本実施形態では、サイドガラス221は、サイドウィンドガラスに相当し、リアガラス222は、リアウィンドガラスに相当する。
複数のTOFカメラ251は、各窓ガラス(フロントガラス220、サイドガラス221、リアガラス222等)に映り込む車内空間11に存在する物体を撮影可能なように配置される。より詳しくは、各窓ガラスに映り込む物体の映り込み対象面が撮影できるように、車内空間11の各部に配置される。ここで映り込み対象面とは、例えば実際に窓ガラスに映り込む物体の面であり、典型的には、各物体の窓ガラスに向けられた面(領域)である。
図12に示す例では、4つのTOFカメラ251が設けられる。各TOFカメラ251は、前列左側、前列右側、後列左側、及び後列右側の4つシートに対応して、車内空間11の側壁に近い天井にそれぞれ配置される。このように、車内空間11のすみに各シートに対応してTOFカメラ251を配置することで、各シート5やそこに座る搭乗者4の窓ガラスに対する映り込み対象面を撮影することが可能である。この場合、シート5及び搭乗者4が、車両の内部に存在し窓ガラスに映り込む対象物となる。またシート5は、内装部品の一例である。
例えば全周カメラ240を用いて、車両201周辺の他車両、歩行者、障害物等のセンシング(検出処理等)が実行される。図12では、車両201の外部の右側方に存在する障害物3が模式的に図示されている。このように、全周カメラ240を用いることで、車両201周辺のセンシングを容易に実現することが可能である。
例えば全周カメラ240の撮影タイミングに合わせて、各TOFカメラ251により、サイドガラス221等の窓ガラスに映り込む物体(搭乗者4やシート5等)の位置及び明るさが測定される。そしてTOFカメラ251の測定結果に基づいて、全周カメラ240により撮影される外部画像45に映り込む、各物体の映り込み画像49の輝度が算出される。なお、全周カメラ240及び各TOFカメラ251の特性や配置関係に基づいて、TOFカメラ251の出力から映り込み画像49の輝度を適宜算出することが可能である。
これにより、映り込みの影響が低減した補正画像48を生成することが可能となり、全周カメラを用いた車両201周辺のセンシングエラーを十分に軽減することが可能となる。このように、フロントウィンド(フロントガラス220)のみならず、サイドウィンド(サイドガラス221)やリアウィンド(リアガラス222)越しにセンシングが行われる場合であっても、本技術を適用することが可能である。これにより、車両201の周辺を360°の範囲にわたって高精度にセンシングすることが可能となる。
<第3の実施形態>
図13は、本技術の第3の実施形態に係る制御ユニットを搭載する車両の構成例を示す模式図である。図14は、制御ユニット360の構成例を示すブロック図である。車両300は、カメラ40と、明るさセンサ350と、制御ユニット360とを有する。
明るさセンサ350は、照度センサ351及びLiDARセンサ352を有する。照度センサ351は、ダッシュボード30に配置され、ダッシュボード30の照度Eを測定する。なお図13では、ダッシュボード30には載置物34が載置される。照度センサ351は、例えば載置物34等により太陽光24等の照射光23が遮られないように、ダッシュボード30の前方(フロントガラス20側)に配置される。
なお、照度センサ351により検出される照度Eは、例えばフロントガラス20を透過して入射する太陽光24の明るさを表す値であるとも言える。従って照度Eは、ダッシュボード30の明るさのみならず、太陽光24に照らされた載置物34の明るさを表すパラメータとして用いることが可能である。
LiDARセンサ352は、レーザ光等を用いた対象までの距離検出(Light Detection and Ranging/Laser Imaging Detection and Ranging)を行うセンサである。LiDARセンサ352は、カメラ40の近傍にダッシュボード30に向けて配置される。図13には、LiDARセンサ352から出射されたレーザ光353が模式的に図示されている。
LiDARセンサ352としては、レーザ光353を走査して、対象までの距離を表す3次元の点群データ(3D Point Cloud data)を測定する走査型の3Dスキャナが用いられる。例えば走査したレーザ光353が入射する対象によりレーザ光353が反射さる。反射されたレーザ光353の一部はセンサが備える検出器に入射する。検出器に入射した光の位相等を検出することで、対象までの距離、すなわち対象の3次元位置を測定することが可能である。
例えば図13に示すように、LiDARセンサ352から出射されたレーザ光353は、車両300の内部のダッシュボード30及び載置物34等に照射される。照射されたポイントで反射された光が検出され、そのポイントの位置が測定される。この場合、レーザ光353が照射されるポイントが測定点35となる。図13には、測定点35の一例として載置物34上の測定点35が黒丸で図示されている。このように、LiDARセンサ352では、レーザ光353の走査に応じて、ダッシュボード30及び載置物34上の複数の測定点35の位置が測定される。
またレーザ光353は、フロントガラス20等を透過して、車両300の外部の物体にも照射される。従って、LiDARセンサ352は、車内空間11に存在する対象のみならず、車両300の外部の対象の位置等を測定することが可能である。すなわちLiDARセンサ352は、車両300の内部及び外部の物体の位置を測定することが可能である
なお、対象により反射される反射光の強度等は、対象の反射率等の特性に応じて変化する。このため、LiDARセンサ352では、対象からの反射光の検出強度(Li:LiDAR Intensity)等を測定することで、対象の反射率に関する情報(Reflective value等)を測定することが可能である。例えば検出強度Liに基づいて、各測定点35ごとのおおよその反射率が測定される。本実施形態では、LiDARセンサ352は、複数の測定点35ごとの反射率を測定する測域センサに相当する。
LiDARセンサ352の具体的な構成は限定されない。例えば点群データを数fps〜数十fpsのフレームレートで検出可能なセンサが用いられてよい。また例えば、紫外線、可視光線、近赤外線等の任意の波長のレーザ光を用いたLiDARセンサが用いられてよい。またレーザ光353の走査範囲や測定レンジ等は車両300のサイズ等に応じて適宜設定されてよい。
このように、LiDARセンサ352は、ダッシュボード30及び載置物34上の複数の測定点35ごとの反射率と、複数の測定点35の位置とを測定可能である。本実施形態では、LiDARセンサ352は、位置センサとして機能する。また本実施形態では、照度センサ351により測定される照度E及びLiDARセンサ352により測定される反射率(検出強度Li)は、対象物の明るさに関するパラメータに相当する。
図14に示すように、制御ユニット360は、画像取得部361、明るさ検出部362、補正部363、記憶部364、発光制御部365、及び状態検出部366を備える。画像取得部361は、車両300のフロントガラス20を介して撮影された車両300の外部画像45を取得する。
明るさ検出部362は、ダッシュボード30及び載置物34の明るさに関する明るさ情報を検出する。本実施形態では、明るさ情報として、照度センサ351の出力に基づいて、ダッシュボード30の照度Eが検出される。また明るさ情報として、LiDARセンサ352の出力に基づいて、ダッシュボード30及び載置物34上の複数の測定点35ごとの反射率が検出される。
また明るさ検出部362は、ダッシュボード30の照度Eと、複数の測定点35ごとの反射率に基づいて、複数の測定点35ごとの輝度を検出する。例えば照度Eと反射率との積を用いて各測定点35の輝度を適宜算出することが可能である。複数の測定点35ごとの輝度を算出する方法は限定されず、例えばLiDARセンサ352の特性等に応じたキャリブレーション値等の係数が適宜用いられてよい。
補正部363は、検出された測定点35ごとの輝度に基づいて、車両300の外部画像45の輝度を補正する。記憶部364には、測定点35ごとの輝度に基づいて、外部画像45の輝度を補正するために必要となる各種のパラメータが記憶される。補正部363の動作については、後に詳しく説明する。
発光制御部365は、照度センサ351の出力に基づいて、車両300に搭載されたライト12及び表示機器13の発光強度を制御する。従って、照度センサ351は、外部画像の補正のみならず、ライト12や表示機器13の制御に用いられる。これにより、部品点数を抑えることが可能となり、車両300の製造コスト等を抑制することが可能となる。
状態検出部366は、LiDARセンサ352の出力に基づいて、車両300の内部の状態を検出する。例えばLiDARセンサ352により測定された対象の位置情報をもとに、搭乗者の位置、姿勢、体調、覚醒度、集中度、疲労度、視線方向(頭部の向き)等が検出される。
また状態検出部366は、車両300の外部の状態を検出する。例えば、LiDARセンサ352の出力に基づいて、車両300の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理等が行われる。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。
このように、LiDARセンサ352の出力は、外部画像の補正のみならず、車両300の内外の各種の状態を検出する処理に用いられる。もちろんこれに限定されず、LiDARセンサ352の出力を用いた任意の検出処理が実行されてよい。これにより、部品点数を抑えることが可能となり、車両300の製造コスト等を抑制することが可能となる。
図15は、外部画像45の補正処理の一例を示す模式図である。以下では図15を参照して、制御ユニット360による外部画像45の補正処理について説明する。
図15Aは、カメラ40により撮影される外部画像45の一例を示す模式図である。図15Bは、LiDARセンサ352により測定される点群データの一例を示す模式図である。例えば外部画像45が撮影されるタイミングに合わせて、LiDARセンサ352による点群データ354の測定と、照度センサ351による照度Eの測定とが実行される。
図15Bには、ダッシュボード30及び載置物34上の複数の測定点35が黒丸を用いて模式的に図示されている。点群データ354には、各測定点35の3次元位置(x,y,z)と、各測定点35の反射率(検出強度Li)とが含まれる。以下では、点群データ354をLi(x,y,z)と記載する。なお3次元位置(x,y,z)は、例えばLiDARセンサ352のセンサ座標系を基準とした位置座標である。
明るさ検出部362により、ダッシュボード30の照度Eに基づいて、点群データLi(x,y,z)から各測定点35の輝度データE(x,y,z)が算出される。そして補正部363により、輝度データE(x,y,z)から、図15Aに示す外部画像45での映り込み画像49の輝度が算出される。すなわち、ダッシュボード30及び載置物34から出射され、フロントガラス20により反射された第2の反射光33の輝度Lrefが算出される(図13参照)。
第2の反射光33の輝度Lrefは、例えばダッシュボード30及び載置物34の輝度を表す輝度データE(x,y,z)を用いて以下の式で表される。
ref(x,y,z)=γ'E(x,y,z)+δ' (4)
ここで、γ'及びδ'は、フロントガラス20の特性(反射率等に)応じて定まる係数である。係数γ'及びδ'は、例えば予め算出され、記憶部364に記憶される。
(4)式に示すように、Lref(x,y,z)は、図15Bに示すようにLiDARセンサ352のセンサ座標系(x,y,z)での、第2の反射光33の輝度分布を表している。本実施形態では、LiDARセンサ352により測定されたダッシュボード30及び載置物34の複数の測定点35の位置が、外部画像45内の位置に変換される。具体的には、補正部363により、LiDARセンサ352のセンサ座標系(x,y,z)から、外部画像45の座標系(u,v)への座標変換が実行される。
例えば補正部363により、(4)式で算出された第2の反射光33の輝度分布が、以下の式を用いて座標変換される。
ref(u,v)=W'(Lref(x,y,z),c') (5)
ここでW'は、LiDARセンサ352のセンサ座標系(x,y,z)から、外部画像45の座標系(u,v)に変換する関数(変換行列等)である。W'は例えば透視投影変換等を用いて適宜設定される。またc'は、関数W'による座標変換を行うためのキャリブレーション値である。
(5)式を用いて算出された第2の反射光33の輝度分布Lref(u,v)は、図15Aに示す外部画像45での映り込み画像49の輝度分布となる。すなわち、(4)式及び(5)式を用いることで、照度Eと反射率(検出強度Li)とから、映り込み画像49の輝度を算出することが可能である。
算出された第2の反射光33の輝度分布Lref(u,v)を、図15Aに示す外部画像45の輝度から適宜減算することで、図15Cに示す、補正画像48を生成することが可能である。このように、照度センサ351及びLiDARセンサ352を用いた場合であっても、ダッシュボード30の映り込みや、ダッシュボード30上の載置物34の映り込み等を適正に除去することが可能である。これにより、画像センシング等の精度を十分に向上することが可能となる。
なおLiDARセンサ352の点群データLi(x,y,z)には、車両300の外部に存在する物体の反射率等の情報が含まれる。従って、照度センサ351により測定された照度Eと点群データLi(x,y,z)とを用いることで、例えば外部画像45に映る車外の被写体(他車両、歩行者、障害物等)の輝度を推定することが可能である。
例えば被写体の輝度の推定結果を、外部画像45の輝度と比較することで、被写体の明るさの分布(明るい場所や暗い場所の分布)や、明るさの強度(極端に白くなる白とびや極端に黒くなる黒つぶれ)等を検出することが可能である。また例えば被写体の明るさの分布や強度等の検出結果を用いることで、カメラ40による全体の露出や領域ごとの露出等を制御するといった処理が可能である。これにより、カメラ40の撮影範囲において、エリアごとあるいは画素ごとに自動露光を実現することが可能である。この結果、外部画像45を高精度に撮影することが可能となり、画像センシング等の精度を大幅に向上することが可能となる。
<第4の実施形態>
図16は、本技術の第4の実施形態に係る制御ユニットを搭載する車両の構成例を示す模式図である。図17は、制御ユニット460の構成例を示すブロック図である。車両400は、フロントガラス20と、ダッシュボード30と、カメラ40と、制御ユニット460とを有する。
フロントガラス20の下端にはダッシュボード30が接続される。またダッシュボード30の前方(フロントガラス20に接続される側)には開口部431が設けられる。開口部431は、例えばエアコン等から出力される温風/冷風や外気等が通過する穴であり、ダッシュボード30の下方に配置された空気ダクト432等に接続される。図16には、開口部431及び空気ダクト432が模式的に図示されている。
例えば、フロントガラス20を通過して開口部431に入射した太陽光24は、開口部431に接続された空気ダクト432の内部で反射あるいは吸収される。従って空気ダクト432の内部で反射された光は、フロントガラス20にはほとんど反射しない。従って開口部431はダッシュボード30上の映り込みが起きにくい穴であるとも言える。
一方で、ダッシュボード30の開口部431とは異なる領域では、照射された太陽光24の一部が第1の反射光32としてフロントガラス20に入射する。また第1の反射光32の一部はフロントガラス20により反射され、第2の反射光33としてカメラ40に入射する。以下では、ダッシュボード30上の開口部431とは異なる領域を反射部433と記載する。
このように、ダッシュボード30は、フロントガラス20を介してカメラ40に向かう第1の光路434に沿って光を反射する反射部433と、第1の光路とは異なる第2の光路435に沿って光を反射する開口部431とを有する。なお第1の光路434とは、例えば図16に示す第1の反射光32及び第2の反射光33が通過する光路であり、外部画像45に映り込む光が通過する光路である。また第2の光路435とは、例えば空気ダクト432内で反射・吸収される光が通る光路である。本実施形態では、反射部433は、第1の領域に相当し、開口部431は、第2の領域に相当する。
カメラ40は、例えば図1及び図2に示すカメラ40と同様の構成を有する。なお、カメラ40の撮影範囲は、例えば開口部431の周辺すなわちフロントガラス20の下端周辺の映り込みが撮影されるように設定される(図18A参照)。
制御ユニット460は、画像取得部461、明るさ検出部462、補正部463、及び記憶部464を備える。画像取得部461は、車両400のフロントガラス20を介して撮影された車両400の外部画像45を取得する。
明るさ検出部462は、ダッシュボード30の明るさに関する明るさ情報を検出する。本実施形態では、カメラ40により撮影された外部画像45に基づいてダッシュボード30の明るさ情報が検出される。明るさ検出部462の動作については後に詳しく説明する。
補正部463は、検出された明るさ情報に基づいて、車両400の外部画像45の輝度を補正する。記憶部464には、外部画像45の輝度を補正するために必要となる各種のパラメータが記憶される。また記憶部464には、ダッシュボード30の映り込みが生じる映り込み領域を表すエリアマップM(u,v)が記憶される。
図18は、外部画像45の補正処理の一例を示す模式図である。以下では図18を参照して、制御ユニット360による外部画像45の補正処理について説明する。
図18Aは、カメラ40により撮影される外部画像45の一例を示す模式図である。図18Aに示すように、外部画像45の下側の映り込み領域46には、開口部431の周辺の反射部433の像が模式的に図示されている。なお映り込み領域46内の白色の領域が反射部433の映り込みが生じている領域であり、白色の領域で囲まれたグレーの領域が開口部431に対応する。
図18Bは、図18Aに示す点線の範囲6で囲まれた領域の拡大図であり、外部画像45において開口部431の周辺の像が映り込む範囲が拡大された図である。上記したように、開口部431では、フロントガラス20への反射等がほとんど無く、映り込みが起きにくい。従って、図中のグレーの領域では、映り込みに伴う輝度のシフト(例えば第2の反射光33による輝度Lrefの増加)等がほとんど生じない。
このため、グレーの領域で検出される輝度(以下Lhole記載する)は、フロントガラス20を透過した透過光41の輝度Ltrnと略同様の値となる。すなわち、グレーの領域の輝度Lholeは、Lhole=Ltrnと表される。例えば図18Aに示すように、グレーの領域が撮影される位置には、車両400の前方の道路が存在する。従って、グレーの領域で検出される輝度Lholeは、道路の輝度を表すことになる。
一方で、グレーの領域(開口部431)の周辺では、反射部433により太陽光24等がフロントガラス20に反射され、映り込みに伴う輝度のシフトが生じる。従って、グレーの領域の周辺の輝度Lnearは、透過光41の輝度Ltrnと第2の反射光33の輝度Lrefとの和となる。すなわち、グレーの領域の周辺の輝度Lnearは、Lnear=Ltrn+Lrefと表される。
明るさ検出部462は、外部画像45における反射部433及び開口部431の輝度差を検出する。これにより、映り込みに伴う輝度のシフト量、すなわち第2の反射光33の輝度Lrefを算出することが可能である。第2の反射光33の輝度Lrefは、例えば以下の式を用いて算出される。
ref=Lnear−Lhole (7)
例えば映り込み領域46を表すエリアマップM(u,v)には、開口部431に対応するグレーの領域が撮影される範囲等が記録される。明るさ検出部462は、グレーの領域に含まれる画素の輝度値(Lhole)と、グレーの領域の周辺の明るい領域に含まれる画素の輝度値(Lnear)とをそれぞれ算出する。そして算出されたLhole及びLnearに基づいて、(7)式を用いてLrefが算出される。なお、第2の反射光33の輝度Lrefを算出する方法等は限定されず、例えばグレーの領域及びその周辺の領域の各々の輝度の平均値等を用いてLrefが算出されてもよい。
第2の反射光33の輝度Lrefが算出されると、補正部463により、エリアマップM(u,v)に基づいて映り込み領域46に含まれる各画素の輝度が補正される。すなわち、処理対象となる各画素の輝度Lcamから、透過光41の輝度Ltrn=Lcam−Lrefが算出される。なお、各画素の輝度の補正処理は、開口部431(グレーの領域)については実行されない。これにより例えば図18Cに示す、補正画像48を生成することが可能である。
このように、ダッシュボード30等に備えられた穴(開口部431)等を用いることで、外部画像45を容易に補正することが可能である。これにより、画像センシング等の精度を十分に向上することが可能となる。またこの方法では、外部画像45を使ってダッシュボード30等の輝度を補正可能であることから、他のセンサ等を用いる必要がない。このため部品点数等を削減することが可能となり、装置の製造コスト等を大幅に低減することが可能である。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
上記の実施形態では、主にフロントガラス20を介して撮影される外部画像45(前方画像)を補正する方法について説明した。これに限定されず、例えば車両のサイドガラスやリアガラスを介して側方画像や後方画像が撮影される場合にも本技術は適用可能である。例えば各窓ガラスを介して車両の外部を撮影するカメラが適宜配置され、そのカメラでの映り込みを除去可能なように、照度センサ、TOFカメラ、LiDARセンサ等が適宜配置される。これにより、車両の内部から任意の方向が撮影された画像を適正に補正可能である。
上記では、単一のカメラ40が用いられたが、複数のカメラ(例えばステレオカメラ等)が用いられる場合にも、本技術は適用可能である。例えば各カメラごとに、エリアマップや補正用のパラメータ、あるいは座標変換用の変換行列等が記憶される。これにより、複数のカメラの各々により撮影される外部画像等を適正に補正することが可能となる。
上記では、制御ユニットにより、外部画像の補正等を含む、本技術に係る情報処理方法が実行された。これに限定されず、クラウドサーバにより、本技術に係る情報処理方法が実行されてもよい。すなわち制御ユニットの機能が、クラウドサーバに搭載されてもよい。この場合、当該クラウドサーバは、本技術に係る情報処理装置として動作することになる。
また車両に搭載されたコンピュータ(制御ユニット)と、ネットワーク等を介して通信可能な他のコンピュータ(クラウドサーバ)とが連動することで、本技術に係る情報処理方法、及びプログラムが実行され、本技術に係る情報処理装置が構築されてもよい。
すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば車両の外部画像の取得、窓ガラスに映り込む対象物の明るさ情報の検出、及び外部画像の補正が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
すなわち本技術に係る情報処理方法、及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
<応用例>
上記では、移動体である車両を一例として説明を行った。本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図19では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図20は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図20には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920〜7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図19に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図19に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
なお、図2、図9、図14、及び図17、を用いて説明した第1〜第4の実施形態に係る制御ユニット60、260、360、及び460の各機能を実現するためのコンピュータプログラムを、図19に示すいずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
以上説明した車両制御システム7000において、第1〜第4の実施形態に係る制御ユニット60、260、360、及び460、図19に示した応用例の統合制御ユニット7600に適用することができる。例えば、第1の実施形態に係る制御ユニット60の画像取得部61及び明るさ検出部62は、車外情報検出ユニット7400及び車内情報検出ユニット7500に相当し、補正部63及び記憶部64は、統合制御ユニット7600のマイクロコンピュータ7610及び記憶部7690に相当し、発光制御部65は、ボディ系制御ユニット7200に相当する。
また、第1〜第4の実施形態に係る制御ユニット60、260、360、及び460の少なくとも一部の構成要素は、図19に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、第1〜第4の実施形態に係る制御ユニット60、260、360、及び460が、図20に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
なお、本技術は以下のような構成も採ることができる。
(1)車両の窓ガラスを介して撮影された前記車両の外部画像を取得する取得部と、
前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する検出部と、
前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する補正部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記明るさ情報は、前記対象物の照度、輝度、及び反射率の少なくとも1つに関する情報を含む
情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
前記対象物は、ダッシュボード、内装部品、及び前記車両の内部に載置された載置物の少なくとも1つを含む
情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
前記窓ガラスは、フロントウィンドガラス、サイドウィンドガラス、及びリアウィンドガラスの少なくとも1つを含む
情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記補正部は、前記対象物の前記明るさ情報に基づいて、前記外部画像の輝度を補正する
情報処理装置。
(6)(1)から(5)のうちいずれか1つに記載の情報処理装置であって、
前記補正部は、前記明るさ情報に基づいて、前記窓ガラスを介した前記対象物の映り込みによる前記外部画像の輝度変化量を算出する
情報処理装置。
(7)(1)から(6)のうちいずれか1つに記載の情報処理装置であって、
前記検出部は、前記対象物の明るさに関するパラメータを測定するセンサ部の出力に基づいて前記明るさ情報を検出する
情報処理装置。
(8)(7)に記載の情報処理装置であって、
前記センサ部は、前記対象物の照度を測定する照度センサを含む
情報処理装置。
(9)(8)に記載の情報処理装置であって、
前記補正部は、前記外部画像内の前記対象物が映り込む領域を判定し、前記対象物の照度に基づいて前記対象物が映り込むと判定された領域の輝度を補正する
情報処理装置。
(10)(8)又は(9)に記載の情報処理装置であって、
前記センサ部は、前記対象物により前記窓ガラスに向けて反射される光の強度に応じて前記車両の内部に配置される複数の前記照度センサを含む
情報処理装置。
(11)(8)から(10)のうちいずれか1つに記載の情報処理装置であって、さらに
前記照度センサの出力に基づいて、前記車両に搭載されたライト及び表示機器の少なくとも一方の発光強度を制御する発光制御部を具備する
情報処理装置。
(12)(7)から(11)のうちいずれか1つに記載の情報処理装置であって、
前記センサ部は、前記対象物上の複数の測定点ごとの前記明るさに関するパラメータと、前記複数の測定点の位置とを測定可能な位置センサを含み、
前記検出部は、前記位置センサの出力に基づいて、前記対象物上の前記複数の測定点ごとの輝度を検出する
情報処理装置。
(13)(12)に記載の情報処理装置であって、
前記位置センサは、前記複数の測定点ごとの反射率を測定する測域センサである
情報処理装置。
(14)(13)に記載の情報処理装置であって、
前記センサ部は、前記対象物の照度を測定する照度センサを含み、
前記検出部は、前記対象物の照度と前記複数の測定点ごとの反射率とに基づいて、前記複数の測定点ごとの輝度を検出する
情報処理装置。
(15)(12)から(14)のうちいずれか1つに記載の情報処理装置であって、
前記位置センサは、前記複数の測定点ごとの輝度を測定する距離画像センサである
情報処理装置。
(16)(12)から(15)のうちいずれか1つに記載の情報処理装置であって、
前記補正部は、前記位置センサにより測定された前記対象物の前記複数の測定点の位置を、前記外部画像内の位置に変換する
情報処理装置。
(17)(12)から(16)のうちいずれか1つに記載の情報処理装置であって、さらに
前記位置センサの出力に基づいて、前記車両の外部の状態及び前記車両の内部の状態の少なくとも一方を検出する状態検出部を具備する
情報処理装置。
(18)(1)から(17)のうちいずれか1つに記載の情報処理装置であって、
前記外部画像は、前記車両の内部に搭載された撮像部により撮影され、
前記対象物は、前記窓ガラスを介して前記撮像部に向かう第1の光路に沿って光を反射する第1の領域と、前記第1の光路とは異なる第2の光路に沿って光を反射する第2の領域とを有し、
前記検出部は、前記外部画像における前記第1及び前記第2の領域の輝度差を検出する
情報処理装置。
(19)車両の内部に搭載された撮像部と、
前記撮像部により前記車両の窓ガラスを介して撮影された前記車両の外部画像を取得する取得部と、
前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する検出部と、
前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する補正部と
を具備する撮像装置。
(20)車両の内部に搭載された撮像部と、
前記撮像部により前記車両の窓ガラスを介して撮影された前記車両の外部画像を取得する取得部と、
前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する検出部と、
前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する補正部と
を具備する撮像システム。
11…車内空間
12…ライト
13…表示機器
20、220…フロントガラス
30…ダッシュボード
34…載置物
35…測定点
40…カメラ
45…外部画像
46、46a、46b…映り込み領域
48…補正画像
50、250、350…明るさセンサ
51、351…照度センサ
60、260、360、460…制御ユニット
61、261、361、461…画像取得部
62、262、362、462…明るさ検出部
63、263、363、463…補正部
64、264、364、464…記憶部
65、365…発光制御部
266、366…状態検出部
100、200、201、300、400…車両
251…TOFカメラ
352…LiDARセンサ
434…第1の光路
435…第2の光路

Claims (20)

  1. 車両の窓ガラスを介して撮影された前記車両の外部画像を取得する取得部と、
    前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する検出部と、
    前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する補正部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記明るさ情報は、前記対象物の照度、輝度、及び反射率の少なくとも1つに関する情報を含む
    情報処理装置。
  3. 請求項1に記載の情報処理装置であって、
    前記対象物は、ダッシュボード、内装部品、及び前記車両の内部に載置された載置物の少なくとも1つを含む
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記窓ガラスは、フロントウィンドガラス、サイドウィンドガラス、及びリアウィンドガラスの少なくとも1つを含む
    情報処理装置。
  5. 請求項1に記載の情報処理装置であって、
    前記補正部は、前記対象物の前記明るさ情報に基づいて、前記外部画像の輝度を補正する
    情報処理装置。
  6. 請求項1に記載の情報処理装置であって、
    前記補正部は、前記明るさ情報に基づいて、前記窓ガラスを介した前記対象物の映り込みによる前記外部画像の輝度変化量を算出する
    情報処理装置。
  7. 請求項1に記載の情報処理装置であって、
    前記検出部は、前記対象物の明るさに関するパラメータを測定するセンサ部の出力に基づいて前記明るさ情報を検出する
    情報処理装置。
  8. 請求項7に記載の情報処理装置であって、
    前記センサ部は、前記対象物の照度を測定する照度センサを含む
    情報処理装置。
  9. 請求項8に記載の情報処理装置であって、
    前記補正部は、前記外部画像内の前記対象物が映り込む領域を判定し、前記対象物の照度に基づいて前記対象物が映り込むと判定された領域の輝度を補正する
    情報処理装置。
  10. 請求項8に記載の情報処理装置であって、
    前記センサ部は、前記対象物により前記窓ガラスに向けて反射される光の強度に応じて前記車両の内部に配置される複数の前記照度センサを含む
    情報処理装置。
  11. 請求項8に記載の情報処理装置であって、さらに
    前記照度センサの出力に基づいて、前記車両に搭載されたライト及び表示機器の少なくとも一方の発光強度を制御する発光制御部を具備する
    情報処理装置。
  12. 請求項7に記載の情報処理装置であって、
    前記センサ部は、前記対象物上の複数の測定点ごとの前記明るさに関するパラメータと、前記複数の測定点の位置とを測定可能な位置センサを含み、
    前記検出部は、前記位置センサの出力に基づいて、前記対象物上の前記複数の測定点ごとの輝度を検出する
    情報処理装置。
  13. 請求項12に記載の情報処理装置であって、
    前記位置センサは、前記複数の測定点ごとの反射率を測定する測域センサである
    情報処理装置。
  14. 請求項13に記載の情報処理装置であって、
    前記センサ部は、前記対象物の照度を測定する照度センサを含み、
    前記検出部は、前記対象物の照度と前記複数の測定点ごとの反射率とに基づいて、前記複数の測定点ごとの輝度を検出する
    情報処理装置。
  15. 請求項12に記載の情報処理装置であって、
    前記位置センサは、前記複数の測定点ごとの輝度を測定する距離画像センサである
    情報処理装置。
  16. 請求項12に記載の情報処理装置であって、
    前記補正部は、前記位置センサにより測定された前記対象物の前記複数の測定点の位置を、前記外部画像内の位置に変換する
    情報処理装置。
  17. 請求項12に記載の情報処理装置であって、さらに
    前記位置センサの出力に基づいて、前記車両の外部の状態及び前記車両の内部の状態の少なくとも一方を検出する状態検出部を具備する
    情報処理装置。
  18. 請求項1に記載の情報処理装置であって、
    前記外部画像は、前記車両の内部に搭載された撮像部により撮影され、
    前記対象物は、前記窓ガラスを介して前記撮像部に向かう第1の光路に沿って光を反射する第1の領域と、前記第1の光路とは異なる第2の光路に沿って光を反射する第2の領域とを有し、
    前記検出部は、前記外部画像における前記第1及び前記第2の領域の輝度差を検出する
    情報処理装置。
  19. 車両の内部に搭載された撮像部と、
    前記撮像部により前記車両の窓ガラスを介して撮影された前記車両の外部画像を取得する取得部と、
    前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する検出部と、
    前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する補正部と
    を具備する撮像装置。
  20. 車両の内部に搭載された撮像部と、
    前記撮像部により前記車両の窓ガラスを介して撮影された前記車両の外部画像を取得する取得部と、
    前記車両の内部に存在し前記窓ガラスに映り込む対象物の明るさに関する明るさ情報を検出する検出部と、
    前記検出された明るさ情報に基づいて、前記車両の前記外部画像を補正する補正部と
    を具備する撮像システム。
JP2018031013A 2018-02-23 2018-02-23 情報処理装置、撮像装置、及び撮像システム Pending JP2019145021A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018031013A JP2019145021A (ja) 2018-02-23 2018-02-23 情報処理装置、撮像装置、及び撮像システム
PCT/JP2019/000364 WO2019163315A1 (ja) 2018-02-23 2019-01-09 情報処理装置、撮像装置、及び撮像システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018031013A JP2019145021A (ja) 2018-02-23 2018-02-23 情報処理装置、撮像装置、及び撮像システム

Publications (1)

Publication Number Publication Date
JP2019145021A true JP2019145021A (ja) 2019-08-29

Family

ID=67687661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018031013A Pending JP2019145021A (ja) 2018-02-23 2018-02-23 情報処理装置、撮像装置、及び撮像システム

Country Status (2)

Country Link
JP (1) JP2019145021A (ja)
WO (1) WO2019163315A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2769921C2 (ru) * 2019-11-21 2022-04-08 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для автоматизированного определения присутствия объектов
DE102020203780A1 (de) * 2020-03-24 2021-09-30 Siemens Mobility GmbH Automatisierte Sensorüberwachung
JP7276304B2 (ja) * 2020-10-29 2023-05-18 トヨタ自動車株式会社 物体検出装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4371076B2 (ja) * 2005-04-26 2009-11-25 株式会社デンソー レインセンサ
JP2010079706A (ja) * 2008-09-26 2010-04-08 Mazda Motor Corp 車両用対象物検出装置
JP2012220889A (ja) * 2011-04-13 2012-11-12 Fujitsu Ten Ltd ディマー制御装置および表示制御装置

Also Published As

Publication number Publication date
WO2019163315A1 (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
JP6834964B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2017159382A1 (ja) 信号処理装置および信号処理方法
US11076141B2 (en) Image processing device, image processing method, and vehicle
WO2018037678A1 (ja) 画像処理装置および情報生成装置と情報生成方法
JP6764573B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110574357B (zh) 成像控制设备、用于控制成像控制设备的方法以及移动体
JP7226440B2 (ja) 情報処理装置、情報処理方法、撮影装置、照明装置、及び、移動体
US20210218875A1 (en) Information processing apparatus and information processing method, imaging apparatus, mobile device, and computer program
WO2019163315A1 (ja) 情報処理装置、撮像装置、及び撮像システム
US11585898B2 (en) Signal processing device, signal processing method, and program
US20220057203A1 (en) Distance measurement device and distance measurement method
US20230219495A1 (en) Signal processing device, light adjusting control method, signal processing program, and light adjusting system
WO2016203989A1 (ja) 画像処理装置および画像処理方法
JP2018032986A (ja) 情報処理装置および方法、車両、並びに情報処理システム
JPWO2018042815A1 (ja) 画像処理装置と画像処理方法
CN111868778B (zh) 图像处理装置、图像处理方法以及存储介质
US20230013424A1 (en) Information processing apparatus, information processing method, program, imaging apparatus, and imaging system
JP7059185B2 (ja) 画像処理装置、画像処理方法、および撮像装置
WO2023234033A1 (ja) 測距装置
WO2023162734A1 (ja) 測距装置
JP2021180459A (ja) 撮像装置及びプログラム
CN113614777A (zh) 信息处理装置、信息处理方法和程序