WO2019035177A1 - 車載表示装置、画像処理装置および表示制御方法 - Google Patents

車載表示装置、画像処理装置および表示制御方法 Download PDF

Info

Publication number
WO2019035177A1
WO2019035177A1 PCT/JP2017/029352 JP2017029352W WO2019035177A1 WO 2019035177 A1 WO2019035177 A1 WO 2019035177A1 JP 2017029352 W JP2017029352 W JP 2017029352W WO 2019035177 A1 WO2019035177 A1 WO 2019035177A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
eye
vehicle
driver
display
Prior art date
Application number
PCT/JP2017/029352
Other languages
English (en)
French (fr)
Inventor
加藤 真
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2017/029352 priority Critical patent/WO2019035177A1/ja
Publication of WO2019035177A1 publication Critical patent/WO2019035177A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/25Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

画像生成部(4a)は、運転者(101)の右目(101R)および左目(101L)の位置を示す目位置情報を用いて、前方ピラー(102)により運転者(101)の視界が遮られることによって生じる死角領域(103R,103L)を含む車外を撮影した画像から、右目の位置から見える死角領域の右目用画像(R)および左目の位置から見える死角領域の左目用画像(L)を生成する。裸眼立体ディスプレイ(5)は、前方ピラー(102)の車室側に設置され、画像生成部(4a)により生成された右目用画像(R)と左目用画像(L)を表示する。

Description

車載表示装置、画像処理装置および表示制御方法
 この発明は、車両の前方ピラーにより運転者の視界が遮られることによって生じる死角領域の映像を表示する車載表示装置、この車載表示装置に表示させる画像を生成する画像処理装置、および車載表示装置の表示制御方法に関するものである。
 従来、前方ピラーにより運転者の視界が遮られることによって生じる死角領域の映像をカメラで撮影し、このカメラで撮影した死角領域の映像を前方ピラーに設置された液晶ディスプレイに表示することで、運転者による車両の運転操作を支援する車載表示装置が提案されている(例えば、特許文献1参照)。
特開2004-34957号公報
 上述のような従来の車載表示装置は、カメラで撮影して液晶ディスプレイに表示する死角領域の映像の内容を運転者に直感的に把握させるために、この死角領域の映像を、運転者が直接確認できる液晶ディスプレイ外の実際の風景とある程度連続した映像として液晶ディスプレイに表示する必要がある。
 しかしながら、運転者の右目で見える範囲と左目で見える範囲は異なるため、どちらかの目で見る死角領域の映像と実際の風景とに非連続な部分が発生し、運転者に違和感を与えてしまう。
 このように、従来の車載表示装置は、死角領域の映像と実際の車外風景とが連続しないことによって、運転者に違和感を与えるという課題があった。
 この発明は、上記のような課題を解決するためになされたもので、死角領域の映像と実際の車外風景とを連続させることによって、運転者に違和感を与えないようにすることを目的とする。
 この発明に係る車載表示装置は、運転者の右目および左目の位置を示す目位置情報を用いて、前方ピラーにより運転者の視界が遮られることによって生じる死角領域を含む車外を撮影した画像から、右目の位置から見える死角領域の右目用画像および左目の位置から見える死角領域の左目用画像を生成する画像生成部と、前方ピラーの車室側に設置され、画像生成部により生成された右目用画像と左目用画像を表示するディスプレイとを備えるものである。
 この発明によれば、運転者の右目の位置から見える死角領域の右目用画像および左目の位置から見える死角領域の左目用画像を生成して、前方ピラーのディスプレイに表示するようにしたので、ディスプレイが表示する死角領域の画像と実際の車外風景とを連続させることができ、運転者に違和感を与えない。
実施の形態1に係る車載表示装置の構成例を示すブロック図である。 図2Aおよび図2Bは、実施の形態1における裸眼立体ディスプレイの構成例を示す図である。 実施の形態1における裸眼立体ディスプレイの設置例を示す図である。 実施の形態1において車両の前方ピラーにより運転者の視界が遮られることによって生じる死角領域を説明する図である。 実施の形態1において裸眼立体ディスプレイに表示される右目用画像と左目用画像の例を示す図である。 実施の形態1に係る画像処理装置の動作例を示すフローチャートである。 実施の形態2に係る車載表示装置の構成例を示すブロック図である。 図8Aは車外撮影部が撮影した車外の画像例であり、図8Bは図8Aの画像に対応した深度情報の例である。 実施の形態2に係る画像処理装置の動作例を示すフローチャートである。 実施の形態3に係る車載表示装置の構成例を示すブロック図である。 実施の形態3における車外撮影部の撮影範囲を説明する図である。 実施の形態3に係る画像処理装置の動作例を示すフローチャートである。 図13Aおよび図13Bは、各実施の形態に係る画像処理装置のハードウェア構成例を示すブロック図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る車載表示装置1の構成例を示すブロック図である。車載表示装置1は、車外撮影部2、運転者監視部3、画像処理装置4、および裸眼立体ディスプレイ5を備える。車外撮影部2、運転者監視部3、画像処理装置4、および裸眼立体ディスプレイ5は車両に搭載される。なお、車載表示装置1は、専用の車外撮影部2を備える構成であってもよいし、車両に搭載された他の装置が備える車外撮影部2に相当する機能を利用する構成であってもよい。同様に、車載表示装置1は、専用の運転者監視部3を備える構成であってもよいし、車両に搭載された他の装置が備える運転者監視部3に相当する機能を利用する構成であってもよい。
 車外撮影部2は、カメラを有し、車両の前方ピラーにより運転者の視界が遮られることによって生じる死角領域を含む車外の風景を撮影する。車外撮影部2は、車外を撮影した画像を、画像処理装置4の画像生成部4aへ出力する。
 運転者監視部3は、カメラを有し、運転者を撮影する。運転者監視部3は、運転者を撮影した画像から、運転者の右目と左目の3次元位置を検出し、目位置情報として画像処理装置4の画像生成部4aへ出力する。または、運転者監視部3は、運転者を撮影した画像から、運転者の頭部の位置を検出し、検出した頭部の位置から右目と左目の3次元位置を推測し、目位置情報として出力してもよい。
 運転者監視部3のカメラとしては、例えば、ドライバモニタリングシステムのカメラを利用してもよい。また、運転者監視部3のカメラは、可視光カメラであってもよいし、赤外線カメラであってもよい。運転者監視部3のカメラが赤外線カメラである場合、運転者監視部3は赤外線LED(Light Emitting Diode)等の赤外線光源を有して運転者へ向けて赤外光を照射してもよい。さらに、運転者監視部3のカメラは、ステレオカメラであってもよい。
 画像処理装置4は、画像生成部4aを有し、裸眼立体ディスプレイ5に表示させるための画像を生成する。画像生成部4aは、運転者監視部3からの目位置情報を用いて、車外撮影部2が車外を撮影した画像から、右目の位置から見える死角領域の右目用画像および左目の位置から見える死角領域の左目用画像を生成し、裸眼立体ディスプレイ5へ出力する。
 裸眼立体ディスプレイ5は、車両の前方ピラーの車室側に設置され、画像生成部4aから受け取る死角領域の右目用画像と左目用画像を表示する。裸眼立体ディスプレイ5は、水平方向において、右目用画像と左目用画像を交互に並べた状態で表示する。裸眼立体ディスプレイ5が表示する死角領域の右目用画像は運転者の右目へ入射し、死角領域の左目用画像は運転者の左目へ入射する。
 図2Aおよび図2Bは、実施の形態1における裸眼立体ディスプレイ5の構成例を示す図である。裸眼立体ディスプレイ5は、図2Aに示されるレンチキュラレンズ方式でもよいし、図2Bに示されるパララックスバリア方式でもよい。また、裸眼立体ディスプレイ5は、レンチキュラレンズ方式およびパララックスバリア方式以外の方式のものであってもよい。
 図2Aは、レンチキュラレンズ方式の裸眼立体ディスプレイ5の構成例を示す図である。レンチキュラレンズ方式の裸眼立体ディスプレイ5は、液晶ディスプレイ等のディスプレイ5aと、垂直方向に長いシリンドリカルレンズが複数並んだレンチキュラレンズ5bとを有する。レンチキュラレンズ5bは、ディスプレイ5aの表示面側に配置される。ディスプレイ5aが表示する右目用画像Rは、レンチキュラレンズ5bのシリンドリカルレンズを透過して運転者の右目101Rへ入射し、左目用画像Lは、レンチキュラレンズ5bのシリンドリカルレンズを透過して運転者の左目101Lへ入射する。
 図2Bは、パララックスバリア方式の裸眼立体ディスプレイ5の構成例を示す図である。パララックスバリア方式の裸眼立体ディスプレイ5は、液晶ディスプレイ等のディスプレイ5aと、垂直方向に長いスリットが複数形成されたパララックスバリア5cとを有する。パララックスバリア5cは、ディスプレイ5aの表示面側に配置される。ディスプレイ5aが表示する右目用画像Rは、パララックスバリア5cのスリットを通過して運転者の右目101Rへ入射し、左目用画像Lは、パララックスバリア5cのスリットを通過して運転者の左目101Lへ入射する。
 図3は、実施の形態1における裸眼立体ディスプレイ5の設置例を示す図である。車両において運転席100より前方に前方ピラー102がある。裸眼立体ディスプレイ5は、前方ピラー102の車室側に設置され、前方ピラー102により遮られる死角領域の画像を表示する。
 裸眼立体ディスプレイ5は、図3に示されるように複数のディスプレイ5aと、複数のレンチキュラレンズ5bまたは複数のパララックスバリア5cを有してもよい。図3の例では、前方ピラー102の形状に合わせて複数のディスプレイ5aが並んでいる。また、複数のディスプレイ5aのそれぞれは、レンチキュラレンズ5bまたはパララックスバリア5cを有する。図3に示されるように、小型のディスプレイ5aを前方ピラー102の形状に合わせて並べる構成は、前方ピラー102がどのような形状であっても対応でき汎用性が高いため、低コストかつ高量産性を実現できる。
 なお、裸眼立体ディスプレイ5は、前方ピラー102と同じ形状の1つのディスプレイ5aと、このディスプレイ5aと同じ形状のレンチキュラレンズ5bまたはパララックスバリア5cを有してもよい。
 図4は、実施の形態1において車両の前方ピラー102により運転者101の視界が遮られることによって生じる死角領域を説明する図である。図5は、実施の形態1において裸眼立体ディスプレイ5に表示される右目用画像Rと左目用画像Lの例を示す図である。
 前方ピラー102により運転者101の視界が遮られることによって死角領域が生じ、運転者101は車外の物体104等を直感的に把握しにくくなる。そこで、従来は、前方ピラー102により運転者101の視界が遮られることによって生じる死角領域の映像をカメラで撮影し、このカメラで撮影した死角領域の映像を前方ピラー102の車室側に設置された液晶ディスプレイに表示していた。しかしながら、運転者101の右目で見える範囲と左目で見える範囲は異なるため、前方ピラー102により遮られる右目の死角領域103Rと左目の死角領域103Lも異なる。そのため、どちらかの目で見る死角領域の液晶ディスプレイ上の映像と実際の車外風景とに非連続な部分が発生し、運転者101に違和感を与えてしまう。また、液晶ディスプレイ上の映像と実際の車外風景とには距離があるため、映像と実際の車外風景との距離感が連続せず、運転者101に違和感を与えてしまう。
 これに対し、実施の形態1の裸眼立体ディスプレイ5は、右目の死角領域103Rに対応する右目用画像Rと左目の死角領域103Lに対応する左目用画像Lを表示する。これにより、図5に示されるように、運転者101が右目で見る右目用画像Rの物体画像104Rと車外の物体104とが連続する。同様に、運転者101が左目で見る左目用画像Lの物体画像104Lと車外の物体104とが連続する。よって、車載表示装置1は、運転者101に違和感を与えず、かつ、裸眼立体ディスプレイ5の表示内容を運転者101に直感的に把握させることができる。
 なお、距離感の非連続性については実施の形態2で説明する。
 次に、実施の形態1に係る画像処理装置4の動作例を説明する。図6は、実施の形態1に係る画像処理装置4の動作例を示すフローチャートである。
 ステップST11において、画像生成部4aは、車外を撮影した画像を、車外撮影部2から取得する。
 ステップST12において、画像生成部4aは、運転者の目位置情報を、運転者監視部3から取得する。
 ステップST13において、画像生成部4aは、運転者の目位置情報を用いて、車外を撮影した画像から前方ピラー102により運転者の視界が遮られることによって生じる死角領域の右目用画像Rと左目用画像Lを生成する。その際、画像生成部4aは、目位置情報を用いて、運転者の右目から見える死角領域を算出し、車外を撮影した画像から右目の死角領域に相当する画像を抽出して右目用画像にする。同様に、画像生成部4aは、目位置情報を用いて、運転者の左目から見える死角領域を算出し、車外を撮影した画像から左目の死角領域に相当する画像を抽出して左目用画像にする。
 ステップST14において、画像生成部4aは、死角領域の右目用画像Rと左目用画像Lを裸眼立体ディスプレイ5へ出力して表示させる。裸眼立体ディスプレイ5は、右目用画像Rと左目用画像Lを表示し、運転者の右目に右目用画像Rを、左目に左目用画像Lを視認させる。
 以上のように、実施の形態1に係る車載表示装置1は、画像生成部4aと、裸眼立体ディスプレイ5とを備える。画像生成部4aは、運転者の右目101Rと左目101Lの位置を示す目位置情報を用いて、前方ピラー102により運転者の視界が遮られることによって生じる死角領域を含む車外を撮影した画像から、右目101Rの位置から見える死角領域の右目用画像Rおよび左目101Lの位置から見える死角領域の左目用画像Lを生成する。裸眼立体ディスプレイ5は、前方ピラー102の車室側に設置され、画像生成部4aにより生成された右目用画像Rと左目用画像Lを表示する。運転者の左右それぞれの目の位置に合わせた画像を、裸眼立体ディスプレイ5がそれぞれの目に向けて表示することで右目と左目共に死角領域の画像と車外の実際の風景とが連続する。これにより、運転者に違和感を与えないようにすることができる。
 また、実施の形態1の裸眼立体ディスプレイ5は、垂直方向に長いシリンドリカルレンズが複数並んだレンチキュラレンズ5bを用いるレンチキュラレンズ方式であり、ピラー102の形状に合わせて並んだ複数のディスプレイ5aと、複数のディスプレイ5aのそれぞれに設置されたレンチキュラレンズ5bとを有する。または、裸眼立体ディスプレイ5は、垂直方向に長いスリットが複数形成されたパララックスバリア5cを用いるパララックスバリア方式であり、前方ピラー102の形状に合わせて並んだ複数のディスプレイ5aと、複数のディスプレイ5aのそれぞれに設置されたパララックスバリア5cとを有する。これらの構成により、裸眼立体ディスプレイ5は低コストかつ高量産性を実現できる。
実施の形態2.
 実施の形態1では、運転者の右目で見える範囲と左目で見える範囲が異なることにより生じる、死角領域の画像と実際の風景との非連続性を解消した。実施の形態2では、死角領域の画像と実際の風景との距離感の非連続性を解消する。
 図7は、実施の形態2に係る車載表示装置1の構成例を示すブロック図である。実施の形態2に係る車載表示装置1は、図1に示された実施の形態1の車外撮影部2に対して深度取得部2aが追加された構成である。図7において図1~図6と同一または相当する部分は、同一の符号を付し説明を省略する。
 深度取得部2aは、車両から車外の物体までの距離を示す深度情報を取得する。車外撮影部2は、車外を撮影した画像と、深度取得部2aが取得した深度情報とを、画像生成部4aへ出力する。
 例えば、車外撮影部2がステレオカメラを有する場合、深度取得部2aは、ステレオカメラが撮影した画像の視差を用いて車両から物体までの距離を算出し、深度情報を生成する。
 または、深度取得部2aは、測距センサにより検出される深度情報を取得してもよい。深度取得部2aは、専用の測距センサを備える構成であってもよいし、車両に搭載されている測距センサを利用する構成であってもよい。
 測距センサは、例えば、赤外線プロジェクタ等の赤外線光源と赤外線カメラとを有し、赤外線光源に照射された物体を赤外線カメラの撮影画像から検出し、アクティブステレオ法により物体までの距離を算出し、深度情報を生成する。または、測距センサは、LiDAR(Light Detection And Ranging)システムであり、レーザ光を送信し、物体で反射したレーザ光を受信して物体までの距離を算出し、深度情報を生成する。
 図8Aは、車外撮影部2が撮影した車外の画像例である。図8Bは、図8Aの画像に対応した深度情報の例である。図8Bの深度情報は、車両と物体との距離を濃淡で表現した画像であり、車両に近い物体ほど白く、車両から遠い物体ほど黒い。
 次に、実施の形態2に係る画像処理装置4の動作例を説明する。図9は、実施の形態2に係る画像処理装置4の動作例を示すフローチャートである。
 ステップST21において、画像生成部4aは、車外を撮影した画像および深度情報を、車外撮影部2から取得する。
 ステップST22において、画像生成部4aは、深度情報を用いて3次元空間上に車外を撮影した画像を割り当て、車外風景の3次元空間モデルを生成する。その際、画像生成部4aは、車外の物体のそれぞれについて、車両との距離に応じた3次元位置に物体画像を割り当てる。
 ステップST23において、画像生成部4aは、運転者の目位置情報を、運転者監視部3から取得する。
 ステップST24において、画像生成部4aは、目位置情報を用いて、3次元空間モデルにおける右目と左目の位置を特定する。
 ステップST25において、画像生成部4aは、3次元空間モデルを用いて、特定した右目の位置から見える死角領域の画像を生成し、右目用画像にする。同様に、画像生成部4aは、3次元空間モデルを用いて、特定した左目の位置から見える死角領域の画像を生成し、左目用画像にする。その際、画像生成部4aは、右目用画像と左目用画像における物体の視差量を、車両に近い物体ほど大きくし、車両から遠い物体ほど小さくする。
 ステップST26において、画像生成部4aは、死角領域の右目用画像と左目用画像を裸眼立体ディスプレイ5へ出力して表示させ、運転者に裸眼で死角領域の立体画像を認識させる。車両に近い物体は、右目用画像と左目用画像における視差量が大きいので、運転者はこの物体を近景側に認識する。車両から遠い物体は、右目用画像と左目用画像における視差量が小さいので、運転者はこの物体を遠景側に認識する。
 以上のように、実施の形態2の画像生成部4aは、車外の物体と車両との距離を示す深度情報を用いて右目用画像と左目用画像を生成する。深度情報をもとに死角領域に存在する車外の物体の右目用画像と左目用画像における視差量を調整することで、死角領域の画像と車外の実際の風景との間の距離感が連続する。これにより、運転者に違和感を与えないようにすることができる。
実施の形態3.
 実施の形態3では、車外撮影から画像表示までの遅延時間により生じる、死角領域の画像と実際の風景との非連続性を解消する。
 図10は、実施の形態3に係る車載表示装置1の構成例を示すブロック図である。実施の形態3に係る車載表示装置1は、図7に示された実施の形態2の車載表示装置1に対して移動量予測部4bおよび車両情報取得部6が追加された構成である。図10において図1~図9と同一または相当する部分は、同一の符号を付し説明を省略する。
 車両情報取得部6は、車両の速度情報または加速度情報の少なくとも一方を取得し、移動量予測部4bへ出力する。
 車両情報取得部6は、例えば、車両に搭載された車速センサが検出する車速パルスを取得し、速度を算出する。または、車両情報取得部6は、GPS(Global Positioning System)等により車両の位置を算出し、単位時間あたりの車両の移動量を算出し速度を算出する。また、車両情報取得部6は、例えば、ジャイロセンサまたは加速度センサが検出する加速度情報を取得する。または、車両情報取得部6は、加速度情報を用いて速度情報を生成してもよい。なお、車両情報取得部6は、専用のGPSおよびジャイロセンサ等を備える構成であってもよいし、車両に搭載されているGPSおよびジャイロセンサ等を利用する構成であってもよい。
 移動量予測部4bは、車両情報取得部6からの速度情報を用いて、車外撮影部2が車外を撮影する時点から当該時点で撮影された画像を裸眼立体ディスプレイ5に表示する時点までの遅延時間における車両の移動量を予測し、画像生成部4aへ出力する。この遅延時間は、主に画像生成部4aの処理に起因するものであり、移動量予測部4bには遅延時間の情報が予め与えられているものとする。
 また、移動量予測部4bは、車両情報取得部6からの速度情報に加えて加速度情報を用いて、上記遅延時間における車両の移動量を予測してもよい。速度情報に加えて加速度情報を用いることにより、車両の急加速または急減速等を考慮でき、移動量の予測精度が向上する。
 図11は、実施の形態3における車外撮影部2の撮影範囲を説明する図である。図11において、移動前の車両は二点鎖線で示され、遅延時間分移動した後の車両は実線で示される。車外撮影部2は、車両が遅延時間分移動したときに右目の死角領域103Rと左目の死角領域103Lになる風景を含む撮影範囲105を、移動前の時点で撮影する。
 次に、実施の形態3に係る画像処理装置4の動作例を説明する。図12は、実施の形態3に係る画像処理装置4の動作例を示すフローチャートである。図12のステップST21~ST24およびST26における動作は、図9のステップST21~ST24およびST26における動作と同じであるため、説明を省略する。
 ステップST31において、移動量予測部4bは、車両情報取得部6からの速度情報または加速度情報の少なくとも一方を用いて、撮影から表示までの遅延時間における車両の移動量を予測し、画像生成部4aへ出力する。
 ステップST32において、画像生成部4aは、ステップST24にて特定した3次元空間モデルにおける運転者の右目および左目の位置を、移動量予測部4bが予測した車両移動量だけ移動させる。そして、画像生成部4aは、3次元空間モデルを用いて、移動後の右目の位置から見える死角領域の画像を生成し、右目用画像にする。同様に、画像生成部4aは、3次元空間モデルを用いて、移動後の左目の位置から見える死角領域の画像を生成し、左目用画像にする。
 以上のように、実施の形態3に係る画像処理装置4は、車両の速度情報または加速度情報の少なくとも一方を用いて、車外の撮影から裸眼立体ディスプレイ5の表示までの遅延時間における車両の移動量を予測する移動量予測部4bを備える。画像生成部4aは、目位置情報が示す運転者の右目および左目の位置を、移動量予測部4bが予測した移動量分移動させ、移動後の右目の位置から見える死角領域の右目用画像および移動後の右目の位置から見える死角領域の左目用画像を生成する。車両移動量を予測して左右の目の位置を調整することで、車両走行中の死角領域の画像と車外の実際の風景とが連続する。これにより、運転者に違和感を与えないようにすることができる。
 なお、実施の形態3では、移動量予測部4bおよび車両情報取得部6を実施の形態2に係る車載表示装置1に適用した例を説明したが、実施の形態1に係る車載表示装置1に適用してもよい。
 最後に、各実施の形態に係る画像処理装置4のハードウェア構成を説明する。図13Aおよび図13Bは、各実施の形態に係る画像処理装置4のハードウェア構成例を示すブロック図である。画像処理装置4における画像生成部4aおよび移動量予測部4bの各機能は、処理回路により実現される。即ち、画像処理装置4は、上記各機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路200であってもよいし、メモリ202に格納されるプログラムを実行するプロセッサ201であってもよい。
 図13Aに示されるように、処理回路が専用のハードウェアである場合、処理回路200は、FPGA(Field-Programmable Gate Array)またはGPGPU(General-Purpose Computing on Graphics Processing Units)を内蔵するSoC(System-on-a-Chip)等である。画像生成部4aおよび移動量予測部4bの機能を複数の処理回路200で実現してもよいし、各部の機能をまとめて1つの処理回路200で実現してもよい。
 図13Bに示されるように、処理回路がプロセッサ201である場合、画像生成部4aおよび移動量予測部4bの各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ202に格納される。プロセッサ201は、メモリ202に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、画像処理装置4は、プロセッサ201により実行されるときに、図6等のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ202を備える。また、このプログラムは、画像生成部4aおよび移動量予測部4bの手順または方法をコンピュータに実行させるものであるとも言える。
 ここで、プロセッサ201とは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、またはマイクロコンピュータ等のことである。
 メモリ202は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、またはフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスクまたはフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)またはDVD(Digital Versatile Disc)等の光ディスクであってもよい。
 なお、画像生成部4aおよび移動量予測部4bの各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、画像処理装置4における処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
 また、各実施の形態に係る車載表示装置は、運転席側の前方ピラーで生じる死角領域の画像を表示する構成であったが、この構成に限定されるものではなく、車両の構造物で生じる死角領域の画像を表示する構成であってもよい。
 この発明に係る車載表示装置は、車両の構造物で生じる死角領域の画像を表示するようにしたので、運転者の車両の運転を支援する車載表示装置などに用いるのに適している。
 1 車載表示装置、2 車外撮影部、2a 深度取得部、3 運転者監視部、4 画像処理装置、4a 画像生成部、4b 移動量予測部、5 裸眼立体ディスプレイ、5a ディスプレイ、5b レンチキュラレンズ、5c パララックスバリア、6 車両情報取得部、100 運転席、101 運転者、101L 左目、101R 右目、102 前方ピラー、103L 左目の死角領域、103R 右目の死角領域、104 物体、104L,104R 物体画像、105 撮影範囲、200 処理回路、201 プロセッサ、202 メモリ、L 左目用画像、R 右目用画像。

Claims (12)

  1.  運転者の右目および左目の位置を示す目位置情報を用いて、前方ピラーにより前記運転者の視界が遮られることによって生じる死角領域を含む車外を撮影した画像から、前記右目の位置から見える前記死角領域の右目用画像および前記左目の位置から見える前記死角領域の左目用画像を生成する画像生成部と、
     前記前方ピラーの車室側に設置され、前記画像生成部により生成された前記右目用画像と前記左目用画像を表示するディスプレイとを備える車載表示装置。
  2.  前記ディスプレイは、垂直方向に長いシリンドリカルレンズが複数並んだレンチキュラレンズを用いるレンチキュラレンズ方式の裸眼立体ディスプレイであり、前記前方ピラーの形状に合わせて並んだ複数のディスプレイと、前記複数のディスプレイのそれぞれに設置された前記レンチキュラレンズとを有することを特徴とする請求項1記載の車載表示装置。
  3.  前記ディスプレイは、垂直方向に長いスリットが複数形成されたパララックスバリアを用いるパララックスバリア方式の裸眼立体ディスプレイであり、前記前方ピラーの形状に合わせて並んだ複数のディスプレイと、前記複数のディスプレイのそれぞれに設置された前記パララックスバリアとを有することを特徴とする請求項1記載の車載表示装置。
  4.  前記画像生成部は、車外の物体と車両との距離を示す深度情報を用いて前記右目用画像と前記左目用画像を生成することを特徴とする請求項1記載の車載表示装置。
  5.  車外を撮影する車外撮影部を備えることを特徴とする請求項4記載の車載表示装置。
  6.  前記車外撮影部は、ステレオカメラを有し、前記ステレオカメラが撮影した画像の視差を用いて前記深度情報を生成することを特徴とする請求項5記載の車載表示装置。
  7.  前記画像生成部は、測距センサにより検出される前記深度情報を用いることを特徴とする請求項4記載の車載表示装置。
  8.  前記運転者の右目および左目の位置を検出する運転者監視部を備えることを特徴とする請求項1記載の車載表示装置。
  9.  前記運転者監視部は、赤外線光源と赤外線カメラを有し、前記赤外線カメラが撮影した画像から前記運転者の右目および左目の位置を検出することを特徴とする請求項8記載の車載表示装置。
  10.  車両の速度情報または加速度情報の少なくとも一方を用いて、車外の撮影から前記ディスプレイの表示までの遅延時間における車両の移動量を予測する移動量予測部を備え、
     前記画像生成部は、前記目位置情報が示す前記運転者の右目および左目の位置を、前記移動量予測部が予測した移動量分移動させ、移動後の右目の位置から見える前記死角領域の右目用画像および移動後の右目の位置から見える前記死角領域の左目用画像を生成することを特徴とする請求項1記載の車載表示装置。
  11.  前方ピラーの車室側に設置されるディスプレイに表示させる画像を生成する画像処理装置であって、
     運転者の右目および左目の位置を示す目位置情報を用いて、前記前方ピラーにより前記運転者の視界が遮られることによって生じる死角領域を含む車外を撮影した画像から、前記右目の位置から見える前記死角領域の右目用画像および前記左目の位置から見える前記死角領域の左目用画像を生成する画像生成部を備える画像処理装置。
  12.  前方ピラーの車室側に設置されるディスプレイの表示制御方法であって、
     画像生成部が、運転者の右目および左目の位置を示す目位置情報を用いて、前記前方ピラーにより前記運転者の視界が遮られることによって生じる死角領域を含む車外を撮影した画像から、前記右目の位置から見える前記死角領域の右目用画像および前記左目の位置から見える前記死角領域の左目用画像を生成するステップと、
     前記画像生成部が、前記右目用画像と前記左目用画像を前記ディスプレイへ出力し表示させるステップとを備えることを特徴とする表示制御方法。
PCT/JP2017/029352 2017-08-15 2017-08-15 車載表示装置、画像処理装置および表示制御方法 WO2019035177A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/029352 WO2019035177A1 (ja) 2017-08-15 2017-08-15 車載表示装置、画像処理装置および表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/029352 WO2019035177A1 (ja) 2017-08-15 2017-08-15 車載表示装置、画像処理装置および表示制御方法

Publications (1)

Publication Number Publication Date
WO2019035177A1 true WO2019035177A1 (ja) 2019-02-21

Family

ID=65361792

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/029352 WO2019035177A1 (ja) 2017-08-15 2017-08-15 車載表示装置、画像処理装置および表示制御方法

Country Status (1)

Country Link
WO (1) WO2019035177A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7072317B1 (ja) 2021-06-28 2022-05-20 隆志 矢野 立体視光学系を用いたhud装置を有する操縦システム
WO2022230824A1 (ja) * 2021-04-28 2022-11-03 京セラ株式会社 映像表示装置および映像表示方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07144578A (ja) * 1993-11-19 1995-06-06 Honda Motor Co Ltd 車載用ステレオ画像表示装置
JP2005045338A (ja) * 2003-07-23 2005-02-17 Clarion Co Ltd 車載用三次元表示用モニタシステム
JP2007104537A (ja) * 2005-10-07 2007-04-19 Nissan Motor Co Ltd 車両用死角映像表示装置
JP2007201716A (ja) * 2006-01-25 2007-08-09 Epson Imaging Devices Corp ディスプレイ装置
JP2013115668A (ja) * 2011-11-29 2013-06-10 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2015012429A (ja) * 2013-06-28 2015-01-19 株式会社Jvcケンウッド 画像処理装置、画像処理方法および画像処理プログラム
WO2015045578A1 (ja) * 2013-09-27 2015-04-02 日産自動車株式会社 情報提示システム
JP2016048552A (ja) * 2014-08-27 2016-04-07 トヨタ自動車株式会社 外部情報のドライバへの提供
JP2016137817A (ja) * 2015-01-28 2016-08-04 日本精機株式会社 画像生成装置、ヘッドアップディスプレイ

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07144578A (ja) * 1993-11-19 1995-06-06 Honda Motor Co Ltd 車載用ステレオ画像表示装置
JP2005045338A (ja) * 2003-07-23 2005-02-17 Clarion Co Ltd 車載用三次元表示用モニタシステム
JP2007104537A (ja) * 2005-10-07 2007-04-19 Nissan Motor Co Ltd 車両用死角映像表示装置
JP2007201716A (ja) * 2006-01-25 2007-08-09 Epson Imaging Devices Corp ディスプレイ装置
JP2013115668A (ja) * 2011-11-29 2013-06-10 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2015012429A (ja) * 2013-06-28 2015-01-19 株式会社Jvcケンウッド 画像処理装置、画像処理方法および画像処理プログラム
WO2015045578A1 (ja) * 2013-09-27 2015-04-02 日産自動車株式会社 情報提示システム
JP2016048552A (ja) * 2014-08-27 2016-04-07 トヨタ自動車株式会社 外部情報のドライバへの提供
JP2016137817A (ja) * 2015-01-28 2016-08-04 日本精機株式会社 画像生成装置、ヘッドアップディスプレイ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022230824A1 (ja) * 2021-04-28 2022-11-03 京セラ株式会社 映像表示装置および映像表示方法
JP7072317B1 (ja) 2021-06-28 2022-05-20 隆志 矢野 立体視光学系を用いたhud装置を有する操縦システム
JP2023004615A (ja) * 2021-06-28 2023-01-17 隆志 矢野 立体視光学系を用いたhud装置を有する操縦システム

Similar Documents

Publication Publication Date Title
CN107765684B (zh) 基于立体相机的自主驾驶方法、可读存储介质和设备
US9435879B2 (en) Alert display device and alert display method
JP6304628B2 (ja) 表示装置および表示方法
US20170046880A1 (en) Display device and display method
JP5006587B2 (ja) 画像提示装置および画像提示方法
KR102034189B1 (ko) 차량 주변 환경을 시각화하는 방법과 장치
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
US20160379066A1 (en) Method and Camera System for Distance Determination of Objects from a Vehicle
JP2010198552A (ja) 運転状況監視装置
JP2009118415A (ja) 鳥瞰画像生成装置および方法
JP2008052741A (ja) 車両の周囲を画像化する方法およびそのためのシステム
WO2016136573A1 (ja) 車両用表示装置
US20130021446A1 (en) System and method for enhanced sense of depth video
TWI533694B (zh) 車用障礙物偵測顯示系統
KR102031635B1 (ko) 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법
JP5299101B2 (ja) 周辺表示装置
JP6945933B2 (ja) 表示システム
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
WO2019035177A1 (ja) 車載表示装置、画像処理装置および表示制御方法
JP6494764B2 (ja) 表示制御装置、表示装置及び表示制御方法
US20140049540A1 (en) Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device
JP2016149628A (ja) 撮影装置、制御方法、プログラム及び記憶媒体
WO2018030320A1 (ja) 車両用表示装置
CN104002730A (zh) 立体物检测装置、驾驶支援装置以及立体物检测方法
JP7475107B2 (ja) 電子ミラーシステム、画像表示方法、及び移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17921589

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17921589

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP