JP6830236B2 - 画像取得方法、画像表示システム、及びコンピュータプログラム - Google Patents

画像取得方法、画像表示システム、及びコンピュータプログラム Download PDF

Info

Publication number
JP6830236B2
JP6830236B2 JP2016210519A JP2016210519A JP6830236B2 JP 6830236 B2 JP6830236 B2 JP 6830236B2 JP 2016210519 A JP2016210519 A JP 2016210519A JP 2016210519 A JP2016210519 A JP 2016210519A JP 6830236 B2 JP6830236 B2 JP 6830236B2
Authority
JP
Japan
Prior art keywords
vehicle
image
imaging means
information
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016210519A
Other languages
English (en)
Other versions
JP2018073036A (ja
Inventor
史久 柴田
史久 柴田
田村 秀行
秀行 田村
聖 池田
聖 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2016210519A priority Critical patent/JP6830236B2/ja
Publication of JP2018073036A publication Critical patent/JP2018073036A/ja
Application granted granted Critical
Publication of JP6830236B2 publication Critical patent/JP6830236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

本発明は、遮られている視野の画像を車両の搭乗者に提示することに関する。
特許文献1は、前方車両によって生成される死角を、前方車両から取得した画像によって補完することを開示している。
特開2008−44612号公報
特許文献1は、死角の原因となる車両が特定されており、かつ、その車両が前方にある場合に限定されたものしか開示していない。しかし、例えば、車両が、駐車場から道路に出る場合、運転者は、自車両の前方の道路を、運転者からみて左右方向に走行する周辺車両へ注意を払うことが必要となる。このような場合において、特許文献1の技術は対処ができない。
例えば、運転者からみて斜め前方にいる周辺車両によって運転者の視野が遮られている場合、運転者の視野が遮られている向きは、運転者からみて斜め前方であり、周辺車両にとっての前方とは異なる。したがって、特許文献1のように周辺車両が前方を撮影した画像を取得しても、その画像は遮られた視野を補完するには不適切である。
したがって、遮られた視野を撮像した画像を適切に取得することが望まれる。
本発明の一の態様は、画像取得方法である。実施形態において、画像取得方法は、車両の搭乗者の視野が周辺車両によって遮られている範囲を撮像することができる撮像手段を選択し、選択された撮像手段によって撮像された画像を取得することを含む。撮像手段の選択により、適切な画像を取得できる。
本発明の他の態様は、画像を取得し、取得した画像を表示する画像表示システムである。本発明の他の態様は、画像表示のためのコンピュータプログラムである。コンピュータプログラムは、コンピュータ読み取り可能な記録媒体に格納され、コンピュータによって実行される。
車載システムのブロック図である。 車両のカメラ配置図である。 車室内の説明図である。 処理手順を示すフローチャートである。 車車間通信パケットのデータ構造図である。 周辺車両選択の説明図である。 周辺車両特定の説明図である。 カメラ選択の説明図である。 無線通信機のブロック図である。 画像変換の説明図である。 処理対象範囲の切替の説明図である。 探索範囲切替の説明図である。 奥行方向切替の説明図である。 奥行方向切替の説明図である。 奥行方向切替の説明図である。
[1.実施形態の概要]
(1)実施形態に係る画像取得方法は、
車両の搭乗者の視線を検出すること、
検出された前記視線に基づいて、前記搭乗者の視野が周辺車両によって遮られている範囲を撮像することができる撮像手段を選択すること、
車両が、選択された前記撮像手段によって撮像された画像を受信すること、
を含む。搭乗者の視線に基づいて撮像手段を選択することで、視線に応じた適切な画像を受信できる。
(2)方法は、車両が、前記車両の周辺車両の位置を示す車両情報及び前記車両の周辺にある撮像手段の配置を示す撮像手段情報を受信すること、を更に含むのが好ましい。
(3)前記撮像手段を選択することは、
前記搭乗者の視野を遮っている前記周辺車両を、前記車両情報に基づいて選択すること、
選択された前記周辺車両によって遮られている範囲を撮像することができる撮像手段を、前記撮像手段情報に基づいて選択すること、
を含むのが好ましい。車両情報及び撮像手段情報によって、容易に撮像手段を選択することができる。
(4)前記撮像手段は、選択された前記周辺車両に設けられた撮像手段の中から選択されるのが好ましい。この場合、選択が容易である。
(5)前記車両情報及び前記撮像手段情報は、周辺車両からブロードキャスト送信されるのが好ましい。この場合、車両は、車両情報及び撮像手段情報を容易に受信できる。
(6)前記搭乗者の視野を遮る前記周辺車両は、前記車両と同じ方向に進行する前方車両以外の周辺車両であってもよい。この場合、前方車両以外の周辺車両によって遮られた範囲の画像を受信できる。
(7)方法は、前記車両が、選択された前記撮像手段によって撮像された画像のリクエストを、選択された前記撮像手段を搭載している周辺車両に送信すること、を更に含むのが好ましい。画像のリクエストにより、周辺車両から画像を必要に応じて受信できる。
(8)前記撮像手段情報及び前記車両情報の少なくとも一部は、第1無線通信によって受信され、前記画像は、前記第1無線通信とは通信方式の異なる第2無線通信によって受信されるのが好ましい。この場合、異なる通信方式を使い分けることができる。
(9)前記第2無線通信は、前記第1無線通信よりも高速な通信方式であるのが好ましい。第2無線通信が高速であれば、大容量データである画像を高速に送信できる。
(10)実施形態に係る画像表示システムは、
車両の搭乗者の視線を検出する処理と、
検出された前記視線に基づいて、前記搭乗者の視野が周辺車両によって遮られている範囲を撮像することができる撮像手段を選択する処理と、
車両が、選択された前記撮像手段によって撮像された画像を受信する処理と、
受信した画像に基づいて前記搭乗者に提示される画像を生成し、表示装置に表示させる処理と、実行するように構成されている。
(11)実施形態に係るコンピュータプログラムは、
プロセッサに、
車両の搭乗者の視線を検出する処理と、
検出された前記視線に基づいて、前記搭乗者の視野が周辺車両によって遮られている範囲を撮像することができる撮像手段を選択する処理と、
車両が、選択された前記撮像手段によって撮像された画像を受信する処理と、
受信した画像に基づいて前記搭乗者に提示される画像を生成し、表示装置に表示させる処理と、
を実行させる。
[2.車載システム]
図1は、車両に搭載されたシステム100を示している。システム100は、画像表示等の処理を行う。システム100は、プロセッサ10を備える。実施形態において、プロセッサ10は、記憶装置20に格納されたコンピュータプログラム21を実行する。コンピュータプログラム21は、車両の搭乗者に画像を提示するための処理等をプロセッサ10に実行させるよう構成されている。なお、車両の搭乗者は、例えば、運転者であるが、同乗者であってもよい。
記憶装置20は、プログラム21のほか、自車両の車両情報22を記憶している。車両情報22は、自車両の識別子である車両ID及び車両属性情報を含む。車両属性情報は、例えば、車両サイズ種別、車幅、車長、車高を含む。車両サイズ種別は、例えば、大型、普通、二輪車といった車両種別を示す。実施形態の記憶装置20は、地図データ23も記憶している。
システム100は、無線通信機(車載無線機)30を備える。無線通信機30は、例えば、高度道路交通システム(ITS)のための無線通信規格に準拠した無線通信を行う。ITSのための無線通信規格は、例えば、700MHz高度道路交通システム標準規格(ARIB STD−T109)である。無線通信機30は、他の車両に搭載された無線通信機との間での無線通信である車車間通信を行うことができる。また、無線通信機30は、ITS無線通信用基地局との間の無線通信である路車間通信を行うこともできる。
システム100は、1又は複数の車載カメラ40を備える。カメラ40は、例えば図2に示すように、車両200の前後左右に多数設置される。多数のカメラ40によって、車両200の周囲全体を撮像可能である。また、複数のカメラ40から一つのカメラを選択することで、車両200の周囲における任意の方向の画像を撮像できる。撮像された画像は、自車両の処理部10に与えられ、処理部10によって画像処理がなされる。また、撮像された画像は、他の車両に送信され、他の車両の処理部10によって画像処理がなされる。
システム100は、画像の撮像のため、カメラ40に代えて又は加えて、レンジセンサを備えていても良い。レンジセンサは、レンジデータを生成する。レンジデータとは、レーザ光や又レーダ光等の反射時間や三角測量により画像上の各画素に観測位置からの距離が割り当てられた画像データである。
システム100は、表示装置50を備える。表示装置50は、例えば、ヘッドアップディスプレイである。図3に示すように、ヘッドアップディスプレイは、画像投影器51によって画像をガラス210に投影する。車両200の搭乗者は、車両のガラス210越しに外部を視認できるとともに、ガラス210に投影された画像を視認することができる。画像投影器51は、画像を、フロントガラス210に投影してもよいし(図3(a)参照)、サイドガラス210に投影してもよいし(図3(b)参照)、リアガラスに投影してもよい。
実施形態において、表示装置50は、周辺車両を透過した画像(透過画像)を表示する。透過表示(シースルービュー)により、周辺車両によって搭乗者の視野が遮られている範囲(死角)を補完することができる。なお、表示装置50は、画像投影型に限られず、例えば、液晶ディスプレイ又は有機ELディスプレイであってもよい。また、表示装置50は、透過型が好ましいが、透過による外部視認の必要がない場合には非透過型であってもよい。
システム100は、GPS受信機60を備える。GPS受信機60によって受信したGPS信号は、処理部10に与えられる。処理部10は、GPS信号から、車両の位置情報(位置座標)及び時刻情報を取得することができる。
システム100は、慣性計測装置(IMU)70を備える。処理部10は、慣性計測装置70の計測結果によって、車両200の姿勢情報等を取得することができる。
システム100は、車速センサ80を備える。車速センサ80は、車両200の走行速度を検出する。処理部10は、車速センサ80によって、車両200の速度情報を取得することができる。
システム100は、視線検出器90を備える。視線検出器90は、例えば、車室内に設置されたカメラによって、搭乗者の目を撮像し、目の動きを検出することによって、視線Vを検出する(図3(a)参照)。処理部10は、視線検出器90によって検出された視線Vに基づいて、処理を行う。視線に基づく処理については後述する。
システム100は、搭乗者(ユーザ)によって操作される操作器95を備える。操作器95は、例えば、ジョグダイアルである。操作器95の使用の仕方については後述する。
本実施形態においては、車両200以外の他の車両も、図1に示すシステム100を備えているものとする。他の車両のシステム100は、車両200において表示される画像を提供するための処理を行う。
[3.透過表示]
[3.1 車車間通信パケットのブロードキャスト]
図4に示すように、システム100を搭載している各車両は、ITSのための無線通信規格における車車間通信期間において、車車間通信パケットPvvを定期的にブロードキャストする(ステップS201)。車両200は、周辺車両から送信された車車間通信パケットPvvを受信することで、周辺車両の存在を把握できる。
図5は、車車間通信パケットPvvの例を示している。図5に示すパケットPvvは、車両ID301を有する。車両ID301は、パケットPvvの送信元を示す識別子である。パケットPvvは、時刻情報302を有する。時刻情報302は、パケットPvvの送信時刻を示す。
パケットPvvは、車両情報として、車両状態情報303を有する。車両状態情報303は、パケットPvvの送信側車両の位置及び挙動を示す情報である。より具体的には、車両状態情報303は、車両位置情報を含む。車両位置情報は、例えば、GPS信号に基づいて生成される。車両位置情報により、パケットPvvの受信側は、送信側の位置を把握することができる。車両状態情報303は、車両方位情報を含む。車両方位情報は、例えば、慣性計測装置70の計測結果に基づいて生成される。車両方位情報により、パケットPvvの受信側は、送信側の走行方向を把握することができる。
車両状態情報303は、速度情報を含む。速度情報は、例えば、車速センサ80の検出結果に基づいて生成される。速度情報により、パケットPvvの受信側は、送信側の速度を把握することができる。車両状態情報303は、加速度情報を含む。加速度情報は、例えば、慣性計測装置70の検出結果に基づいて生成される。加速度情報により、パケットPvvの受信側は、送信側の加速度を把握することができる。
パケットPvvは、車両情報として、車両属性情報304を有する。車両属性情報304は、パケットPvvの送信側車両の形状及び大きさを示す情報である。より具体的には、車両属性情報304は、車両サイズ種別を含む。車両サイズ種別は、例えば、大型、普通、二輪車といった車両種別を示す。車両属性情報3040は、車幅、車長、車高も含む。
車両属性情報304により、パケットPvvの受信側は、送信側の車両形状及び大きさを把握することができる。車両属性情報304は、パケットPvvの受信側において、視野が遮られている範囲を特定したり、搭乗者に提示する画像を生成したりするために用いられる。
パケットPvvは、撮像手段情報としてカメラ情報310を有する。カメラ情報310は、パケットPvvの送信側車両に搭載された1又は複数のカメラの配置及び撮像範囲を示す。n個(nは1以上の整数)のカメラが搭載されている場合、カメラ情報310は、n個のカメラ情報によって構成される。例えば、図2に示すように、車両200に14個のカメラ40が搭載されていれば、パケットPvvは、14個分のカメラ情報を有する。
各カメラのカメラ情報310は、車両200におけるカメラの位置311、カメラの光軸方向312、カメラの画角313を有する。位置311は、車両200におけるどの位置にカメラが配置されているかを示す(図2参照)。光軸方向312は、カメラ40の光軸方向Aを示す(図2参照)。画角313は、カメラ40の画角を示す。
パケットPvvの受信側は、送信側車両のカメラ情報310に加えて送信側車両の位置及び方位を考慮することで、受信側の位置を基準としたカメラの位置及び撮像範囲を把握することができる。
[3.2 カメラ選択と画像リクエスト]
車車間通信パケットPvvを受信した車両の処理部10は、自車両の搭乗者の視野が遮られている範囲を撮像することができるカメラを選択する処理を実行する。カメラ選択処理は、図4のステップS101からステップS104を含む。ステップS101では、視線の検出が行われる。視線の検出は、例えば、視線検出器90によって運転者の視線方向Vを検出することによって行われる。視線の検出は、視線検出器90によって視線を実測するものに限られず、視線を推定するための情報に基づいて視線方向を推定することによって行われても良い。
視線を推定するための情報は、例えば、車両の方向指示器の操作情報である。例えば、左折のための方向指示器の操作が行われた場合、運転者は、右方向からくる車両へ注意を払うため、処理部10は、視線が右方向に向くものと推定できる。視線を推定するための情報は、カーナビゲーションシステムによって提供される経路案内情報における左折又は右折情報であってもよい。経路案内情報に従って車両が左折又は右折する場合、処理部10は、曲がる方向とは逆方向に視線が向くものと推定できる。
視線方向Vが検出されると、ステップS102において、周辺車両のうち運転者視野に存在する車両を選択する処理が行われる。運転視野の範囲は、検出された視線方向及び自車両の位置に基づいて決定される。運転者視野に存在する車両は、運転視野の範囲と周辺車両の位置に基づいて選択される。例えば、図6に示すように、車両201は、周辺車両202,203,204,205の位置を、各周辺車両202,203,204,205からブロードキャスト通信によって得る。車両201の処理部10は、視線方向Vを中心とする所定の視野角θ(例えば、視線方向の±30°)内にある車両202,203を、各周辺車両の位置に基づいて、選択する。
ステップS103において、車両201の処理部10は、自車両201からみて最も手前で運転者視野を遮っている車両202を特定する。車両202の特定のため、例えば、図7に示すように、処理部10は、視野角θ内に疎な仮想的な光線V1,V2,V3,V4を生成する。また、処理部10は、周辺車両202,203の車両属性情報304に基づいて、車両の形状及び大きさを識別する。そして、処理部10は、各光線V1,V2,V3,V4が自車両201側からみて最初に交差する周辺車両202を特定する。なお、ステップS103において特定される周辺車両は複数でもよい。
ステップS103において特定された車両202が、運転者の視野を遮っている周辺車両(死角形成車両)である。図7において、死角形成車両202は、運転者の右斜め前方において、運転者の左側へ向かって走行している。運転者にとって、死角形成車両202によって遮られた右斜め前方が死角となっている。
ステップS104において、車両201の処理部10は、車両202に搭載されたカメラ40a,40b,40c,40dのうち、車両202によって視野が遮られている範囲(死角)を撮像するカメラ40aを選択する。例えば、図8では、車両202には、右側カメラ40a、後方カメラ40b、左側カメラ40c、前方カメラ40dの4つが搭載されている。ステップS104の選択は、例えば、視線方向Vに最も近似する光軸方向Aを持つカメラ40aを選択することによって行われる。また、ステップS104の選択は、各カメラ40a,40b,40c,40dの撮像範囲を求め、求められた撮像範囲と死角範囲との重なりが最も大きいカメラを選択することによって行われても良い。カメラの選択は、ブロードキャスト通信によって得られたカメラ情報310に基づいて行われる。
ステップS104において選択されるカメラは、死角形成車両202に搭載されたカメラ40a,40b,40c,40dであってもよいし、死角形成車両202の周辺の車両204に搭載されたカメラであってもよい。死角形成車両202の周辺の車両204に搭載されたカメラのカメラ情報310もブロードキャスト通信によって得られる。なお、ステップS104において選択されるカメラは複数であってもよい。また、ステップS104において選択されるカメラは、カメラ情報が得られるのであれば、車両に非搭載のカメラ、例えば、道路又は建物に設置されたカメラであってもよい。
ステップS105において、車両201の処理部10は、選択されたカメラを搭載した車両202に対して、画像リクエストを送信する。画像リクエストは、選択されたカメラ40aを指定するための情報を含む。画像リクエストの送信先は、選択されたカメラを有していれば、車両以外の機器であってもよい。
ステップS202において、周辺車両202は、画像送信リクエストを受信する。その周辺車両202の処理部10は、ステップS203において、画像リクエストおいて指定されたカメラ40aによって撮像された画像を、無線通信によって送信させる。
ステップS106において、車両201の処理部10は、周辺車両202から送信された画像を受信する。ステップS107において、処理部10は、受信した画像を運転者に提示するための画像変換を行う。画像変換によって、周辺車両202に遮られている視野範囲において、周辺車両202を透過したような画像が生成される。ステップS108において、処理部10は、生成された画像をヘッドアップディスプレイ50に表示させる。画像の変換の詳細については後述する。
[3.3 通信方式]
図9に示すように、無線通信機30は、第1通信方式の通信をする第1無線機31a,31b及び第1通信方式とは異なる第2通信方式の通信をする第2無線機32a,32bを備える。第1通信方式は、例えば、ITSのための無線通信規格に準拠した通信方式である。ITSのための無線通信規格に準拠した通信方式は、一般に、狭帯域であり、大容量データの伝送には適していない。第2通信方式は、例えば、携帯電話のための通信規格に準拠した通信方式である。携帯電話のための通信規格は、例えば、LTE又は第5世代移動通信システムのための通信規格などである。第2通信方式は、無線LAN規格に準拠した通信方式であってもよい。実施形態において、第2通信方式は、第1通信方式よりも高速な通信方式であり、画像などの大容量データの伝送に適している。
実施形態において、車車間通信パケットPvvの送受信は、第1無線機31a,31b間で行われ、画像リクエスト及び画像の送受信は、第2無線機32a,32b間で行われる。画像リクエスト及び画像の送受信は、第1無線機31a,31bによって行われても良いが、第2無線機32a,32bによって行われることで、大容量データである画像を高速に伝送できる。また、車両情報及びカメラ情報の一部又は全部の伝送を第2無線機32a,32bによって行っても良い。
[3.4 画像変換]
図4のステップS107の画像変換では、例えば、周辺車両202から取得した画像を、運転者視点画像に変換する。運転者視点画像への変換は、例えば、homography変換により行えるが、透視投影変換により行ってもよい。図10は、homography変換による画像変換の仕方を示している。なお、図10では、説明の簡略化のため、周辺車両202は、自車両201の前方において自車両201と同方向に走行しているものとする。
自車両201の処理部10は、周辺車両202に搭載されたカメラ40pによって撮像されたシーンまでの平均的な距離(シーン距離)を、地図データなどに基づいて求め、シーンまでの平均的な距離の位置に、第1仮想平面を設定する。第1仮想平面は、例えば、自車両の進行に直交する平面として設定される。
処理部10は、前方車両202に搭載されたカメラ40pの画像上の点pを第1仮想平面上の点pに投影させるとともに、自車両201に搭載されたカメラ40qの画像上の点pを第1仮想平面上の点に投影させる。そして、前方車両202のカメラ40pの画像を、自車両201の運転者Dの視点画像に変換する。つまり、カメラ40pの画像上の点pが、運転者視点画像上の点pに変換される。
また、処理部10は、次の方法により、homography変換を算出してもよい。まず、処理部10は、周辺車両202のカメラ40pの画像と自車両201のカメラ40qの画像との間で特徴点やオプティカルフローなどの特徴量の対応付けを行う。そして、処理部10は、その対応付けからステレオ法により特徴点の3次元位置を算出する。続いて、処理部10は、各特徴点を運転者視点でのディスプレイ投影位置となる2次元位置を算出する。処理部10は、算出した2次元位置と、周辺車両202のカメラ40pの画像上の点との対応から、homography変換が算出される。なお、自車両201のカメラ40qの画像において、周辺車両202が存在する範囲についての特徴量の対応付けは行われない。周辺車両202のカメラ40pの画像には周辺車両202は写っていないため、周辺車両202が存在する範囲についての特徴量の対応付けを行わないことで、誤対応が軽減される。なお、周辺車両202が存在する範囲は、車両状態情報303及び車両属性情報304から算出することができる。
また、周辺車両202に搭載されたレンジセンサによって取得されたレンジデータを、車両201の処理部10が取得できる場合、処理部10は、次の方法により、運転者視点画像を生成できる。まず、処理部10は、レンジデータを周辺車両202の座標系に変換し、さらに、変換されたレンジデータを自車両201の座標系に変換する。処理部10は、変換されたレンジデータを、運転者視点画像へ変換するための透視投影フラスタム(透視投影変換行列)を算出する。
周辺車両202のカメラ40pの画像から運転者視点画像が生成されると、処理部10は、運転者視点における周辺車両202の領域を算出する。周辺車両202の領域の算出にあたっては、周辺車両202の車両属性情報304を用いて得られる車両形状を用いるのが好ましい。
処理部202は、運転者視点画像から、算出された周辺車両202の領域を抽出し、抽出された画像に対して、表示のための変換を行った上で、変換後の画像を表示装置50に表示させる。画像の表示により、周辺車両202によって遮られている範囲(死角)の風景が、画像によって表示され、運転者は、周辺車両202を透過して死角を観察することができる。
[4.切替処理]
図11は、透過表示のための処理対象範囲の切替処理の例を示している。図11(a)は、搭乗者視線に応じて周辺車両を選択する第1モードS302と、前方車両だけを周辺車両とする第2モードS303との切替を示している。
第1モードでは、図4のステップS101からステップS104の処理によって、視線に応じてカメラが選択される。つまり、第1モードでは、自車両の周辺範囲のうち、視線の向く範囲が処理対象範囲となり、処理対象範囲において死角形成車両が探索される。そして、その処理対象範囲において形成された死角を補完するように、死角形成車両を透過した画像が表示装置50に表示される。
第2モードでは、視線にかかわらず、前方車両に搭載された前方を撮影するカメラが選択される。つまり、第2モードでは、自車両の前方だけが、処理対象範囲であり、自車両の前方に存在する車両が探索され、前方車両を透過した画像が表示装置50に表示される。高速道路の走行中など、車両がある程度の速度以上で走行している場合には、専ら、前方車両による死角が問題となるため、第2モードに切り替えることで、カメラ選択のための処理負荷を軽減できる。
モードの切り替え(ステップS301)は、例えば、車両の状況を示す情報に基づいて行われる。車両の状況を示す情報は、例えば、自車両の速度を示す情報、自車両が存在する場所の種別を示す情報である。例えば、処理部10は、速度を示す情報に基づき、自車両の速度が、閾値以上であれば、第2モードに切り替え、閾値未満であれば、第1モードに切り替えることができる。また、処理部10は、場所の種別を示す情報に基づき、自車両が道路上にいれば第2モードに切り替え、駐車場など道路以外の場所にいれば第1モードに切り替えることができる。場所の種別を示す情報は、例えば、地図データ23から取得できる。モードの切り替えは、例えば、操作器95へユーザ操作によって行われても良く、モード切替のためのトリガは特に限定されない。
図11(b)は、探索範囲の切替を示している。図12に示すように、複数の探索範囲C1,C2,C3,C4が設定されているものとする。探索範囲C1,C2,C3,C4は、死角を形成している周辺車両を探索するための範囲であり、ここでは、探索範囲が、処理対象範囲である。
探索範囲C1は、車両200の周囲全体に設定された範囲であるが、車両200からの距離は、小さい。探索範囲C1は、例えば、車両200が停止している(速度=0km/h)か、非常に低速である場合に適している。
探索範囲C2は、車両200の前方に設定された範囲であり、車両200からの距離は、範囲C1よりも大きくなっている。探索範囲C2は、例えば、車両が中速(例えば、40km/h)で走行している場合に適している。
探索範囲C3は、車両200の前方に設定された範囲であり、車両200からの距離はC2よりも大きくなっている。探索範囲C3は、範囲C2よりも左右幅狭くなっている。探索範囲C3は、例えば、車両が高速(例えば、80km/h)で走行している場合に適している。
探索範囲C4は、車両200の後方に設定された範囲である。探索範囲C4は、例えば、車両が後進する場合に適している。
死角が問題となり得る範囲は、車両200の走行速度や走行方向等の車両の状況に応じて異なるため、処理部10は、探索範囲を状況に応じて切り替えることで(ステップS401)、適切な探索範囲での死角形成車両の探索ができ、処理負荷の増加を抑制できる。探索範囲の切り替えは、速度、場所の種類など車両の状況を示す情報に基づいて行っても良いし、操作器95への操作によって行っても良い。
処理部10は、探索範囲内に位置する全ての車両を死角形成車両として扱っても良いし、探索範囲内において、搭乗者視線に応じた周辺車両だけを死角形成車両として扱っても良い。
図11(c)は、透過対象車両の奥行方向距離の切替を示している。ここで、透過対象車両とは、透過表示の対象となる死角形成車両である。ここでは、例えば、図13(a)に示すように、自車両201の前方に複数の車両202,203,204,205が連なって走行しているものとする。また、奥行方向の切り替えは、ダイヤル方式の操作器95の回転によって行われるものとする。
操作器95の操作量(回転量)が0である場合、透過対象車両はないものとする。例えば、図13(b)に示すように、操作量(回転量)が1となった場合、透過対象車両は、自車両201の直前の1台の車両202が透過対象車両とされる。すなわち、車両202が存在する範囲D1が、処理対象範囲となる。自車両202においては、透過対象車両202によって撮像された画像から変換された画像が運転者に提示される。
図13(c)に示すように、操作量(回転量)が増加して2となった場合、透過対象車両は、自車両201の直前の2台の車両202,203が透過対象車両とされる。すなわち、車両202,203が存在する範囲D2が、処理対象範囲となる。自車両202においては、範囲D2における先頭車両203によって撮像された画像から変換された画像が運転者に提示される。
図13において、奥行方向は、車両の進行方向(前方)であったが、車両201の搭乗者の視線方向であってもよい。図14は、視線方向Vにおいて、透過対象車両を切り替える例を示している。なお、図14は、例えば、駐車場に多数の車両が駐車されており、自車両201は、駐車場内を走行しているものとする。
例えば、図14(a)に示すように、操作量(回転量)が1となった場合、透過対象車両は、視線方向Vにおいて、自車両201の直近の1台の車両202が透過対象車両とされる。すなわち、車両202が存在する範囲E1が、処理対象範囲となる。自車両201においては、透過対象車両202又はその近傍の車両によって死角範囲を撮像した画像から変換された画像が運転者に提示される。
図14(b)に示すように、操作量(回転量)が増加して2となった場合、透過対象車両は、視線方向Vにおいて、自車両201の直近の2台の車両202,203が透過対象車両とされる。すなわち、車両202,203が存在する範囲E2が、処理対象範囲となる。自車両201においては、透過対象車両202,203又はその近傍の車両によって死角範囲を撮像した画像から変換された画像が運転者に提示される。
奥行方向の切替は、操作器95の操作に限られず、例えば、移動する物体(動物体)の検出結果に基づいて行っても良い。動物体の検出は、例えば、各車両に搭載されたカメラ40又は超音波センサ等のセンサによって行うことができる。
図15(a)に示すように、例えば、人Hが、視線方向V上の車両202の近傍を歩行している場合、その人Hの存在が、人H周辺の車両によって検出され、その検出結果が、車両201へ送信される。この場合、各車両の位置及び人Hの位置に基づき、車両201の処理部10は、車両202を透過対象車両とする。すなわち、車両202が存在する範囲E1が、処理対象範囲となる。自車両201においては、透過対象車両202又はその近傍の車両によって死角範囲を撮像した画像から変換された画像が運転者に提示される。なお、人Hの検出は、自車両201において行っても良い。
また、図15(b)に示すように、人Hが、視線方向V上の車両203の近傍を歩行している場合、その人Hの存在が、人H周辺の車両によって検出され、その検出結果が、車両201へ送信される。この場合、各車両の位置及び人Hの位置に基づき、車両201の処理部10は、車両202,203を透過対象車両とする。すなわち、車両202,203が存在する範囲E2が、処理対象範囲となる。自車両201においては、透過対象車両202,203又はその近傍の車両によって死角範囲を撮像した画像から変換された画像が運転者に提示される。
なお、本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
10 プロセッサ
20 記憶装置
30 無線通信機
40 カメラ
50 表示装置
60 GPS受信機
70 IMU
80 車速センサ
90 視線検出器
95 操作器
100 システム
200 車両
201 車両
202 車両
203 車両
204 車両
205 車両

Claims (9)

  1. 車両の搭乗者の視線を検出すること、
    検出された前記視線に基づいて、前記搭乗者の視野が周辺車両によって遮られている範囲を撮像することができる撮像手段を選択すること、
    車両が、選択された前記撮像手段によって撮像された画像を受信すること、
    車両が、前記車両の周辺車両の位置を示す車両情報及び前記車両の周辺にある撮像手段の配置を示す撮像手段情報を受信すること、を含み、
    前記撮像手段を選択することは、
    前記搭乗者の視野を遮っている前記周辺車両を、前記車両情報に基づいて選択すること、
    選択された前記周辺車両によって遮られている範囲を撮像することができる撮像手段を、前記撮像手段情報に基づいて選択すること、
    を含む画像取得方法。
  2. 前記撮像手段は、選択された前記周辺車両に設けられた撮像手段の中から選択される
    請求項に記載の画像取得方法。
  3. 前記車両情報及び前記撮像手段情報は、周辺車両からブロードキャスト送信される
    請求項1又は2に記載の画像取得方法。
  4. 前記搭乗者の視野を遮る前記周辺車両は、前記車両と同じ方向に進行する前方車両以外の周辺車両である
    請求項1〜のいずれか1項に記載の画像取得方法。
  5. 前記車両が、選択された前記撮像手段によって撮像された画像のリクエストを、選択された前記撮像手段を搭載している周辺車両に送信すること、
    を更に含む請求項1〜のいずれか1項に記載の画像取得方法。
  6. 前記撮像手段情報及び前記車両情報の少なくとも一部は、第1無線通信によって受信され、
    前記画像は、前記第1無線通信とは通信方式の異なる第2無線通信によって受信される
    請求項1〜のいずれか1項に記載の画像取得方法。
  7. 前記第2無線通信は、前記第1無線通信よりも高速な通信方式である
    請求項に記載の画像取得方法。
  8. 車両の搭乗者の視線を検出する処理と、
    検出された前記視線に基づいて、前記搭乗者の視野が周辺車両によって遮られている範囲を撮像することができる撮像手段を選択する処理と、
    車両が、選択された前記撮像手段によって撮像された画像を受信する処理と、
    受信した画像に基づいて前記搭乗者に提示される画像を生成し、表示装置に表示させる処理と、
    車両が、前記車両の周辺車両の位置を示す車両情報及び前記車両の周辺にある撮像手段の配置を示す撮像手段情報を受信する処理と、
    実行するように構成され
    前記撮像手段を選択する処理は、
    前記搭乗者の視野を遮っている前記周辺車両を、前記車両情報に基づいて選択する処理、
    選択された前記周辺車両によって遮られている範囲を撮像することができる撮像手段を、前記撮像手段情報に基づいて選択する処理、
    を含む、画像表示システム。
  9. プロセッサに、
    車両の搭乗者の視線を検出する処理と、
    検出された前記視線に基づいて、前記搭乗者の視野が周辺車両によって遮られている範囲を撮像することができる撮像手段を選択する処理と、
    車両が、選択された前記撮像手段によって撮像された画像を受信する処理と、
    受信した画像に基づいて前記搭乗者に提示される画像を生成し、表示装置に表示させる処理と、
    車両が、前記車両の周辺車両の位置を示す車両情報及び前記車両の周辺にある撮像手段の配置を示す撮像手段情報を受信する処理と、
    を実行させ
    前記撮像手段を選択する処理は、
    前記搭乗者の視野を遮っている前記周辺車両を、前記車両情報に基づいて選択する処理、
    選択された前記周辺車両によって遮られている範囲を撮像することができる撮像手段を、前記撮像手段情報に基づいて選択する処理、
    を含む、コンピュータプログラム。
JP2016210519A 2016-10-27 2016-10-27 画像取得方法、画像表示システム、及びコンピュータプログラム Active JP6830236B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016210519A JP6830236B2 (ja) 2016-10-27 2016-10-27 画像取得方法、画像表示システム、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016210519A JP6830236B2 (ja) 2016-10-27 2016-10-27 画像取得方法、画像表示システム、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2018073036A JP2018073036A (ja) 2018-05-10
JP6830236B2 true JP6830236B2 (ja) 2021-02-17

Family

ID=62114244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016210519A Active JP6830236B2 (ja) 2016-10-27 2016-10-27 画像取得方法、画像表示システム、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6830236B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6692981B1 (ja) 2019-09-13 2020-05-13 マレリ株式会社 表示装置及び表示方法
JP2022159732A (ja) 2021-04-05 2022-10-18 キヤノン株式会社 表示制御装置、表示制御方法、移動体、プログラムおよび記憶媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328389A (ja) * 2003-04-24 2004-11-18 Toyota Motor Corp 移動端末向けデータ配信システム
JP2005125828A (ja) * 2003-10-21 2005-05-19 Fujitsu Ten Ltd 車両周囲視認装置を備えた車両周囲視認システム
JP2008250503A (ja) * 2007-03-29 2008-10-16 Aisin Aw Co Ltd 運転支援装置

Also Published As

Publication number Publication date
JP2018073036A (ja) 2018-05-10

Similar Documents

Publication Publication Date Title
CN108227703B (zh) 信息处理装置和方法、被操作车辆及记录程序的记录介质
US10311618B2 (en) Virtual viewpoint position control device and virtual viewpoint position control method
JP6428876B2 (ja) 車載拡張現実システム向けの遮蔽調整システム
US8947219B2 (en) Warning system with heads up display
JP5536125B2 (ja) 画像処理装置および方法、ならびに移動体衝突防止装置
JP6257989B2 (ja) 運転支援装置
US11214248B2 (en) In-vehicle monitoring camera device
US20130191022A1 (en) Method for displaying images on a display device and driver assistance system
CN108973988B (zh) 车辆控制系统、车辆控制方法及存储介质
US20140085466A1 (en) Image generating apparatus
US11287879B2 (en) Display control device, display control method, and program for display based on travel conditions
KR20160133072A (ko) 차량 주변 영상 제공 방법 및 장치
JP2006279752A (ja) 車両直下画像表示制御装置および車両直下画像表示制御プログラム
JP2007140674A (ja) 死角情報提供装置
CN105991942B (zh) 车辆及用于控制车辆的方法
JP7006235B2 (ja) 表示制御装置、表示制御方法および車両
CN108973989B (zh) 车辆控制系统、车辆控制方法及存储介质
CN110962744A (zh) 车辆盲区检测方法和车辆盲区检测系统
JP6394440B2 (ja) 汚れ判定装置
JP2017068640A (ja) 車両間データ通信装置
JP2017162204A (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP2010134640A (ja) 情報取得装置
JP6830236B2 (ja) 画像取得方法、画像表示システム、及びコンピュータプログラム
JP2014211431A (ja) ナビゲーション装置、及び、表示制御方法
JP2019064317A (ja) 車両用表示装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210112

R150 Certificate of patent or registration of utility model

Ref document number: 6830236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250