JP7446888B2 - 画像生成装置及び画像生成方法 - Google Patents

画像生成装置及び画像生成方法 Download PDF

Info

Publication number
JP7446888B2
JP7446888B2 JP2020060391A JP2020060391A JP7446888B2 JP 7446888 B2 JP7446888 B2 JP 7446888B2 JP 2020060391 A JP2020060391 A JP 2020060391A JP 2020060391 A JP2020060391 A JP 2020060391A JP 7446888 B2 JP7446888 B2 JP 7446888B2
Authority
JP
Japan
Prior art keywords
image
image generation
contour
vehicle
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020060391A
Other languages
English (en)
Other versions
JP2021157749A (ja
Inventor
雄宇 志小田
裕史 井上
剛仁 寺口
乘 西山
翔太 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2020060391A priority Critical patent/JP7446888B2/ja
Publication of JP2021157749A publication Critical patent/JP2021157749A/ja
Application granted granted Critical
Publication of JP7446888B2 publication Critical patent/JP7446888B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、拡張現実の分野で利用される画像生成装置及び画像生成方法に関する。
表示画面における拡張現実情報の表示位置を決定し、決定した表示位置に拡張現実情報を表示させる拡張現実情報表示装置が知られている(特許文献1)。この拡張現実情報表示装置は、拡張現実情報が対応付けられた現実位置に遮蔽物による視認阻害部分があると判定した場合、視認阻害部分に対応する部分の拡張現実情報を非表示にする。
特開2017-191378号公報
この種の装置は、空間認識用のセンサやヘッドトラキング用のセンサなどのデバイスを用いて、表示位置の決定や遮蔽物の検知を行っている。特許文献1に記載された拡張現実情報表示装置では、デバイスの検出誤差により、拡張現実情報と現実空間に存在する物体との間に位置ずれが発生した場合、例えば、視認阻害部分によって本来非表示にするべき拡張現実情報が表示される等、拡張現実に対してユーザに違和感を与えるおそれがある。
本発明が解決しようとする課題は、ユーザが現実空間と仮想の対象物とを視認した際に、ユーザに違和感を与えるのを抑制できる画像生成装置及び画像生成方法を提供することである。
本発明は、ユーザが視認する現実空間又は現実空間に対応する画像に重畳して表示される表示画像を生成する画像生成装置により、現実空間に存在する物体の輪郭を認識し、仮想の対象物を示す表示画像である対象物画像、及び物体の輪郭の少なくとも一部を含む表示画像である輪郭画像を生成することで、上記課題を解決する。
本発明によれば、デバイスの検出誤差により、仮想の対象物と現実空間に存在する物体との間に位置ずれが発生した場合であっても、輪郭画像により当該位置ずれを隠蔽できるため、ユーザが現実空間と仮想の対象物とを視認した際に、ユーザに違和感を与えるのを抑制できる。
図1は、本実施形態に係る画像生成装置を含むARシステムの一例を示すブロック構成図である。 図2は、本実施形態に係る画像生成装置の制御装置により実現可能な機能を模式的に表したブロック図である。 図3Aは、本実施形態に係る画像生成装置による隠蔽処理を説明するための図である。 図3Bは、本実施形態に係る画像生成装置による隠蔽処理を説明するための図である。 図4Aは、対象物と現実物体との位置ずれの一例である。 図4Bは、対象物と現実物体との位置ずれの他の例である。 図5は、本実施形態に係る画像生成装置により生成された輪郭画像の一例である。 図6は、対象物画像及び輪郭画像をディスプレイに表示させた場合の一例である。 図7は、本実施形態に係る画像生成装置の制御装置が実行する処理を示すフローチャートである。
以下、本発明に係る画像生成装置及び画像生成方法の一実施の形態を図面に基づいて説明する。
本実施形態では、透過型表示装置に表示される画像を生成する画像生成装置を例に挙げて説明する。本実施形態の画像生成装置は、透過型表示装置を備える画像表示端末と通信可能となっている。画像生成装置により生成された画像が透過型表示装置に表示されると、ユーザは、透過型表示装置を介して、自身の目の前にある現実空間と生成された画像とを同時に視認することができる。このような技術は、情報の付加により現実空間を拡張する技術として、拡張現実(AR:Augmented Reality)と称されている。本発明に係る画像生成装置及び画像生成方法は、拡張現実の分野に利用される。また、本実施形態では、拡張現実を実現する方式として、透過型表示装置を用いて拡張現実を実現する、いわゆるシースルー方式を例に挙げて説明する。
図1は、本実施形態に係る画像生成装置1を含むARシステム100(拡張現実システム100)の一例を示すブロック構成図である。図1に示すARシステム100は、上記の透過型表示装置に所定の画像を表示させることで、ユーザに現実空間と当該画像で示される対象物を同時に視認させることが可能なシステムである。以降では、ユーザに視認させる対象物を示す画像を、対象物画像と称して説明する。対象物は、ユーザが視認する現実空間において実際には存在しない仮想の対象物である。また、対象物は、仮想対象物、仮想オブジェクト、仮想物体、アバター(ユーザの分身となるキャラクター)などを含む。
また、本実施形態では、対象物を視認するユーザとして、車両の乗員を例に挙げて説明するが、対象物を視認するユーザは車両の乗員に限定されない。例えば、ユーザは、電車、飛行機、又は船の乗員であってもよい。また、ユーザは、これらの移動体に乗っていなくてもよい。ARシステム100は、徒歩で移動しているユーザ、又は移動を停止したユーザに対しても適用することもできる。
図1に示すように、ARシステム100は、画像生成装置1、画像表示端末2、ECU3、ECU4、センサ群30、イグニッションスイッチ34、及びナビゲーションシステム40を含む。ECU3、ECU4、センサ群30、イグニッションスイッチ34、及びナビゲーションシステム40は、車両に搭載されており、各装置間は、車載ネットワークを介して、情報の授受が可能となっている。
車両に搭載されている各装置について説明する。ECU3は、電子コントロールユニット(ECU:Electronic Control Unit)などの車載コンピュータである。例えば、ECU3は、センサ群30及びイグニッションスイッチ34から、車両の走行状態に関する情報を取得し、取得した情報に基づいて車両の走行制御又は運転支援制御を行う。なお、ECU3が実行する制御は、センサ群30から取得した情報を用いた制御であればよく、車両の走行制御及び運転支援制御以外であってもよい。
図1に示すように、センサ群30としては、例えば、車速センサ31、加速度センサ32、ジャイロセンサ33などが挙げられる。車速センサ31は、ドライブシャフトなどの駆動系の回転速度を計測し、これに基づき車両の走行速度(以下、車速ともいう)を検出する。加速度センサ32は、車両の前後方向、左右方向、及び上下方向のうち少なくともいずれか一つの車両の加速度を検出する。ジャイロセンサ33は、車両のヨー方向の角速度(ヨー角速度)、車両のピッチ方向の角速度(ピッチ角速度)、及び車両のロール方向の角速度(ロール角速度)を検出する。なお、車速センサ31、加速度センサ32、及びジャイロセンサ33は一例であって、センサ群30は、車両の走行状態に関する情報を検出するその他のセンサを含んでいてもよい。
ECU3は、センサ群30から、車両の走行状態に関する情報として、車両の速度、車両の一方向又は複数方向における加速度、車両のヨー角速度、車両のピッチ角速度及び車両のロール角速度を取得する。ECU3は、車両の速度等から、例えば、車両の姿勢(車両の挙動ともいう)を予測することができる。なお、センサ群30には、車速センサ31、加速度センサ32、及びジャイロセンサ33以外のセンサが含まれていてもよい。
また、ECU3は、イグニッションスイッチ34から、車両の走行状態に関する情報として、車両のイグニッション情報を取得する。車両のイグニッション情報としては、例えば、イグニッションスイッチ34がオン又はオフしていることを示す情報が挙げられる。ECU3は、イグニッションスイッチ34のオン又はオフの状態から、例えば、車両が走行可能な状態か否かを判別することができる。
ECU4も、ECU3と同様に、電子コントロールユニット(ECU:Electronic Control Unit)などの車載コンピュータである。例えば、ECU4は、ナビゲーションシステム40から、車両の走行環境に関する情報を取得し、取得した情報に基づいて車両の走行に必要な情報の判断及び情報の取得を行う。例えば、ECU4は、ナビゲーションシステム40から取得した道路情報及び車両の現在位置情報に基づき、VICS(Vehicle Information and Communication System)(登録商標)から渋滞情報を取得するように通信機器を制御する。なお、ECU4が実行する制御は、ナビゲーションシステム40から取得した情報を用いた制御であればよく、情報取得という制御以外であってもよい。
ナビゲーションシステム40は、車両が現在走行している位置や目的地への経路案内を車両の乗員に行うシステムである。ナビゲーションシステム40は、地図情報を格納するデータベース(図示しない)と、車両の走行位置を検出する位置検出装置(図示しない)とを備えている。地図情報には、道路情報、施設情報、それらの属性を含む。道路情報及び道路の属性情報には、道路交通法における道路の種別、道路幅、曲率半径、路肩構造物、道路交通法規(制限速度、車線変更の可否)、道路の合流地点、分岐地点、車線数の増加・減少位置等の情報が含まれている。位置検出装置は、GPS(Global Positioning System)ユニットから取得した情報に基づいて車両の現在位置を検出する。位置検出装置は、GPSユニットに代えて、ジャイロセンサ及びオドメトリユニットを用いて、車両の現在位置を推定してもよい。ナビゲーションシステム40は、地図情報を参照し、位置検出装置により検出された現在位置から目的地までの走行経路を算出する。
次に、ユーザが視認する画像の生成及び表示に関する構成について説明する。図1に示すように、本実施形態では、画像生成装置1は、車載ネットワーク5により、ECU3及びECU4と接続されており、各ECUとの間で情報の授受が可能になっている。車載ネットワーク5としては、例えば、CAN(Controller Area Network)が挙げられるが、その他の車載LANであってもよい。
また、本実施形態では、画像生成装置1と画像表示端末2とは別体であり、所定のネットワークを介して互いに情報を送受信可能に構成されている。画像生成装置1と画像表示端末2とを接続するネットワークの種別は限定されない。ネットワークは、Wi-Fi(登録商標)に基づくネットワークのような、いわゆる無線のネットワークにより構成されていてもよい。また、ネットワークは、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成されていてもよい。また、ネットワークは、複数のネットワークを含んでもよく、一部又は全部が有線のネットワークで構成されていてもよい。例えば、画像生成装置1と画像表示端末2とを接続するネットワークは、車載ネットワーク5を含んでいてもよい。この場合、画像生成装置1と画像表示端末2とは、車載ネットワーク5を介して、情報を送受信可能に構成される。
画像表示端末2は、画像生成装置1により生成された画像を表示する端末である。画像表示端末2は、画像生成装置1から表示対象である画像を受信する。本実施形態では、画像表示端末2が受信する画像の対象は、上述した対象物画像だけでなく、画像生成装置1により生成された輪郭画像も含む。輪郭画像については後述する。
また本実施形態では、画像表示端末2は、ユーザが装着可能な形態を有しており、車両とは別体の端末である。ユーザが装着可能な端末は、ウェアラブル端末ともいう。画像表示端末2の形状としては、例えば、ユーザが頭部に装着可能な眼鏡形状が挙げられる。本実施形態では、眼鏡形状の画像表示端末2を例に挙げて説明する。なお、画像表示端末2の形状は眼鏡形状に限られない。例えば、画像表示端末2の形状は、ユーザの頭部を覆う帽子形状又はヘルメット形状、ユーザの両目を覆うゴーグル形状であってもよい。
図1に示すように、画像表示端末2は、カメラ群21と、センサ群22と、ディスプレイ23と、制御装置24を備えている。各装置間は、配線、ネットワーク、信号線などで接続されており、互いに情報を入出力可能に構成されている。
カメラ群21は、画像表示端末2がユーザの頭部に装着されたときに、ユーザの頭部が向く方向を撮像するカメラ(以降、第1カメラともいう)と、ユーザの眼球を撮像するカメラ(以降、第2カメラともいう)とで構成される。
第1カメラは、例えば、画像表示端末2がユーザの頭部に装着されたときに、ユーザの両目近傍となる位置に設けられる。また、第1カメラは、ユーザの左目近傍に設けられたカメラと、ユーザの右目近傍に設けられたカメラで構成される。このような構成にすることで、後述する制御装置24は、各カメラで撮像された撮像画像間の視差に基づき、画像表示端末2からユーザが視認する現実空間に存在する物体までの距離(深度ともいう)を算出することができる。なお、以降の説明では、現実空間に存在する物体を、現実物体、または単に物体ともいう。
第2カメラは、例えば、画像表示端末2がユーザの頭部に装着されたときに、撮像範囲内にユーザの眼球を含む位置に設けられる。また、第2カメラは、ユーザの左の眼球を撮像するカメラと、ユーザの右の眼球を撮像するカメラで構成される。このような構成にすることで、後述する制御装置24は、左の眼球が撮像された撮像画像と、当該撮像画像を撮像したカメラとの位置関係に基づき、ユーザの左目が向いている方向(左目の視線方向)を認識することができる。同様の方法により、制御装置24は、右の眼球が撮像された撮像画像と、当該撮像画像を撮像したカメラとの位置関係に基づき、ユーザの右目が向いている方向(右目の視線方向)を認識することができる。
なお、上記カメラ群21の構成は一例であって、カメラ群21を構成するカメラの個数、カメラの大きさ、カメラの形状、カメラの画角は特に限定されない。後述する制御装置24の機能又は拡張現実を実現する方式などに応じて、カメラ群21の構成を変更してもよい。カメラ群21により撮像された撮像画像は、制御装置24に出力されるとともに、画像生成装置1に送信される。
センサ群22は、画像表示端末2がユーザの頭部に装着されたときに、ユーザの頭部の動きを検出する。例えば、センサ群22は、ヨー方向、ピッチ方向、及びロール方向のそれぞれにおける角速度を検出する3軸ジャイロセンサと、各方向における加速度を検出する3軸加速度センサとで構成される。センサ群22は、所定の周期で各方向の角速度及び加速度を検出する。このような構成にすることで、後述する制御装置24は、画像表示端末2がユーザの頭部に装着されたときのユーザの頭部の動きとして、ユーザの頭部の位置及びユーザの姿勢のうち少なくともいずれかの変化を認識することができる。センサ群22により検出された各種情報は、制御装置24に出力される。
ディスプレイ23は、画像生成装置1により生成された画像を表示する。画像生成装置1により生成された画像は、その種別を問わずディスプレイ23に表示されるため、以降では、画像生成装置1により生成された画像を表示画像と称す。本実施形態では、ディスプレイ23として、例えば、レンズ形状を有した透過型のディスプレイが挙げられる。ディスプレイ23は、画像表示端末2がユーザの頭部に装着されたときに、ユーザの眼前に位置するように設けられている。本実施形態では、ディスプレイ23は、眼鏡形状における左右のレンズ部分それぞれに設けられる。ユーザは、ディスプレイ23を介して、ディスプレイ23に対して自身と反対側に位置する現実空間を視認することができる。また、制御装置24によってディスプレイ23に画像が表示された場合、ユーザは、当該画像が現実空間に重畳されて表示されているように感じる。これにより、ユーザは現実空間を認識するとともに、画像により示される情報(対象物など)を認識することができる。
制御装置24は、ハードウェア及びソフトウェアを備えたコンピュータにより構成され、プログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されている。
本実施形態では、制御装置24と後述する画像生成装置1の制御装置10とで拡張現実(AR)が実現されるように、各制御装置で特徴とする機能が異なっている。制御装置24は、ROMに格納されたプログラムがCPUにより実行されることで、物体認識機能と、深度認識機能と、自己位置推定機能と、空間認識機能と、頭部姿勢認識機能と、視線認識機能と、表示制御機能とを実現することができる。
制御装置24は、物体認識機能により、ユーザの周辺空間に存在する現実物体を認識する。例えば、制御装置24は、第1カメラにより撮像された撮像画像に対して、物体認識用の画像処理を実行することで、ユーザの視野に含まれる一又は複数の現実物体の存否、現実物体の種別を認識する。
制御装置24は、深度認識機能により、ユーザの周辺空間に存在する現実物体とユーザとの距離(深度)と、平面上での現実物体の位置を認識する。例えば、制御装置24は、第1カメラのうちユーザの左目近傍に設けられたカメラが撮像した撮像画像と、第1カメラのうちユーザの右目近傍に設けられたカメラが撮像した撮像画像との間の視差に基づき、ユーザから現実物体までの距離及び現実物体の平面位置を認識する。
制御装置24は、自己位置推定機能により、自己位置の推定と周辺空間の地図作成を同時に行い、周辺空間内におけるユーザの位置を推定する(SLAM:Simultaneously Localization and Mapping)。例えば、制御装置24は、第1カメラにより撮像された撮像画像を解析することで、周辺空間の地図を作成するとともに、空間内での自己位置を推定する。
制御装置24は、空間認識機能により、ユーザの周辺に存在する空間を認識する。例えば、制御装置24は、深度認識機能により得られた認識結果と、自己位置推定機能により得られた推定結果に基づき、ユーザの周辺に存在する3次元空間における画像表示端末2の位置を認識する。これにより、ユーザを基準としたときに、ユーザと現実物体との相対的な位置関係(現実物体が存在する方向及び距離を含む)を把握することができる。
制御装置24は、頭部姿勢認識機能により、ユーザの頭部の姿勢(ユーザの頭部の動き及びユーザの姿勢のうち少なくともいずれか一方)を認識する。例えば、制御装置24は、センサ群22を構成する3軸ジャイロセンサ及び3軸加速度センサの検出結果に基づき、ユーザの頭部の位置及びユーザの姿勢のうち少なくともいずれかの変化を認識する。
制御装置24は、視線認識機能により、ユーザの左右の視線をそれぞれ認識する。例えば、制御装置24は、左目の眼球を撮像する第2カメラの位置と、当該第2カメラの撮像画像との位置関係に基づき、左目の視線方向を認識する。また例えば、制御装置24は、右目の眼球を撮像する第2カメラの位置と、当該第2カメラの撮像画像との位置関係に基づき、右目の視線方向を認識する。
制御装置24は、表示制御機能により、ディスプレイ23による表示処理を制御する。例えば、制御装置24は、画像生成装置1から対象物画像を受信すると、空間認識機能により認識された空間内での表示位置を算出する。そして、制御装置24は、ディスプレイ23における表示位置に対象物画像を表示させる。
例えば、ユーザ周辺の空間内に存在する所定の現実物体よりも近くに位置するように対象物を表示させる場合、制御装置24は、認識した3次元空間内において、ユーザから対象物までの距離がユーザから当該現実物体までの距離よりも近い位置を算出する。制御装置24は、対象物を表示位置に表示させるための制御信号を、ディスプレイ23に出力する。
また例えば、ユーザ周辺の空間内に存在する所定の現実物体に対して遠くに位置するように対象物を表示させる場合、制御装置24は、認識した3次元空間内において、ユーザから対象物までの距離がユーザから当該現実物体までの距離よりも遠い位置を算出する。制御装置24は、対象物を表示位置に表示させるための制御信号を、ディスプレイ23に出力する。
なお、本実施形態では、対象物の表示位置を設定する主体は特に限定されない。表示位置の設定を行う主体は、画像表示端末2を装着するユーザであってもよいし、画像表示端末2を装着するユーザ以外の人間であってもよいし、あるいは、ソフトウェアであってもよい。例えば、対象物の表示位置は、画像表示端末2と一体又は別体として設けられた入力装置を介して、ユーザにより設定されてもよい。また例えば、対象物の表示位置は、拡張現実用のアプリケーションソフトにより設定されてもよい。
また制御装置24は、表示制御機能により、視線認識機能により認識されたユーザの視線方向及び頭部姿勢認識機能により認識されたユーザの頭部の視線に基づき、表示位置を調整する。例えば、ユーザの視線が移動した場合、制御装置24は、ユーザの視線と対象物との相対的な位置関係が視線の移動前後でも変わらないように、表示位置を調整する。また、例えば、ユーザの頭部が移動した場合又はユーザの姿勢が変化した場合、制御装置24は、ユーザの頭部と対象物との相対的な位置関係が頭部の移動前後又は姿勢の変化前後でも変わらないように、表示位置を調整する。
また制御装置24は、表示制御機能により、画像生成装置1から輪郭画像を受信すると、空間認識機能により認識された空間内での表示位置を算出する。そして、制御装置24は、ディスプレイ23における表示位置に輪郭画像を表示させる。例えば、制御装置24は、輪郭画像に基づき、どの現実物体の輪郭であるかを判別する。制御装置24は、空間認識機能により認識された空間内において、判別された現実物体の位置を特定するとともに、当該現実物体の位置を表示位置として設定する。制御装置24は、輪郭画像を表示位置に表示させるための制御信号を、ディスプレイ23に出力する。これにより、輪郭画像は対応する現実物体の位置に重畳して表示されるため、あたかも現実物体の輪郭が輪郭画像により示される輪郭であるかのように、ユーザを錯覚させることができる。
また制御装置24は、表示制御機能により、画像生成装置1から対象物画像及び輪郭画像を受信した場合、輪郭画像が対象物画像に重畳するようにディスプレイ23に表示させる。これにより、輪郭画像及び対象物画像を同時に表示させた場合に、2つの画像で重複した領域が存在しても、対象物画像が輪郭画像に重畳して表示されることを防ぐことができる。
次に、画像生成装置1について説明する。画像生成装置1は、ハードウェア及びソフトウェアを備えたコンピュータにより構成され、プログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されている。なお、動作回路としては、CPU(Central Processing Unit)に代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。図1に示す制御装置10は、CPUに相当する。また本実施形態では、画像生成装置1は、車両と別体の装置であって、車両の室内の任意の場所に設けられているが、画像生成装置1は、車両と一体的に設けられた装置であってもよい。また画像生成装置1は、車両外部のサーバに設けられた装置であってもよい。この場合、画像生成装置1と、車両に搭載されたECU3などの装置及び画像表示端末2とは、通信機器(図示しない)を介して、互いに情報を送受信可能に構成されている。
図2は、画像生成装置1の制御装置10により実現可能な機能を模式的に表したブロック図である。図2に示すように、制御装置10は、情報取得部11と、輪郭認識部12と、要否判定部13と、対象物画像生成部14と、輪郭画像生成部15と、画像出力部16を含む。なお、図2では、制御装置10が実現可能な機能が6つのブロックで構成されているが、制御装置10が実現可能な機能は、6つよりも少ないブロック、又は6つよりも多いブロックで構成されていてもよい。例えば、後述する対象物画像生成部14及び輪郭画像生成部15は、「画像生成部」として一つのブロックで構成されていてもよい。
情報取得部11は、画像生成装置1と直接的に又は間接的に接続されている機器、装置又はシステムから各種情報を取得する。本実施形態では、情報取得部11は、画像表示端末2から、カメラ群21により撮像された撮像画像、制御装置24により認識されたユーザ周辺の空間に関する情報を取得する。また情報取得部11は、ECU3を介して、センサ群30により検出された検出結果及びイグニッションスイッチ34の情報を取得する。さらに情報取得部11は、ECU4を介して、ナビゲーションシステム40で検出又は推定された車両の位置情報、及び地図情報を取得する。情報取得部11は、所定の周期ごとに、上記の機器等から情報を取得する。情報取得部11により取得された各種情報は、以降に説明するブロックで利用される。
輪郭認識部12は、ユーザが視認する現実空間に存在する一又は複数の現実物体の輪郭(現実物体のふち、現実物体の端、現実物体のエッジともいう)を認識する。例えば、輪郭認識部12は、第1カメラにより撮像された撮像画像に対して画像処理を行うことで、現実物体のうちどの部分が輪郭に相当するかを認識する。また輪郭認識部12は、制御装置24により認識された空間内において、認識した輪郭がどこに位置するかを認識する。輪郭認識部12は、本発明の「輪郭認識部」の一例に相当する。
要否判定部13は、輪郭認識部12により認識された各物体の輪郭の位置と対象物との表示位置との相対関係に応じて、後述する輪郭画像の要否を判定する。要否判定部13は、ユーザを基準としたときに、現実物体よりも遠くに位置するように対象物がディスプレイ23に表示される場合、輪郭画像の要否を判定する。別の言い方をすれば、要否判定部13は、ユーザを基準としたときに、現実物体の位置が対象物の表示位置よりも近い場合、輪郭画像の要否を判定する。
具体的な要否判定方法について説明する。要否判定部13は、対象物が遮蔽物の少なくとも一部に重畳して表示される場合、輪郭画像が必要と判定する。また要否判定部13は、対象物が遮蔽物に重畳して表示されない場合、輪郭画像が不要と判定する。遮蔽物とは、現実物体のうち、ユーザが対象物を視認するのを阻害する現実物体である。遮蔽物の数、遮蔽物の大きさは特に限定されない。例えば、遮蔽物は、対象物の一部分を阻害する現実物体であってもよいし、対象物の複数部分を阻害する現実物体でもよい。要否判定部13は、本発明の「判定部」の一例に相当する。
対象物画像生成部14は、ユーザに視認させる対象物を示す画像である対象物画像を生成する。対象物画像としては、例えば、いわゆるコンピュータグラフィックである、2次元モデル(2D、2D CG等ともいう)の画像又は3次元モデル(3Dモデル、3D CG等)の画像が挙げられる。また、対象物画像は、コンピュータグラフィックに限られず、カメラなどの撮像装置により撮像された撮像画像(静止画及び動画を含む)でもよい。本実施形態では、対象物画像生成部14による対象物画像の生成過程は特に限定されない。例えば、対象物画像生成部14は、画像生成装置1の記憶装置に記憶された複数の対象物画像から、ディスプレイ23に表示させる対象物画像を取得してもよい。また例えば、対象物画像生成部14は、車両外部に設けられたサーバから、対象物画像を取得してもよい。
また対象物画像生成部14は、要否判定部13により輪郭画像が必要と判定された場合、対象物画像として、対象物のうち遮蔽物に重畳する部分を除いた画像を生成する。上記のように、輪郭画像が必要と判定されるためには、対象物が遮蔽物の少なくとも一部に重畳された表示されるため、対象物画像生成部14は、意図的に対象物の一部又は全部を非表示にさせる処理、いわゆる隠蔽処理を行う。
図3A及び図3Bを用いて、画像生成装置1による隠蔽処理の一例を説明する。図3A及び図3Bは、画像生成装置1による隠蔽処理を説明するための図である。図3A及び図3Bは、画像表示端末2のディスプレイ23の画面を示す。このような画面が表示される場面としては、車両の乗員であるユーザが車両の室内で画像表示端末2を装着し、車両前方を視認している場面が一例として挙げられる。ユーザは、ディスプレイ23を介して、現実空間に存在するフロントウィンド6及びインストルメントパネル7などを視認する。
例えば、仮想オブジェクトである対象物8をフロントウィンド6及びインストルメントパネル7よりも遠くに位置するように表示させる場合、対象物画像生成部14は、対象物8を示す対象物画像に対して隠蔽処理を行う。図3Aに示すように、対象物8の全部がフロントウィンド6及びインストルメントパネル7に重畳して表示された場合、対象物8をフロントウィンド6及びインストルメントパネル7よりも遠くに位置するように表示させることができない。
このため、対象物画像生成部14は、図3Bに示すように、対象物8のうちインストルメントパネル7によりユーザの視認が阻害される部分を非表示となるよう隠蔽処理を行う。これにより、対象物8の一部分(図3Aの非表示部分8b)が表示されなくなるため、対象物8をフロントウィンド6及びインストルメントパネル7よりも遠くに位置するように表示させることができる。図3A及び図3Bの例では、インストルメントパネル7は、ユーザが対象物8を視認するときに、対象物8への視認を阻害する現実物体であるため、遮蔽物に相当する。
また、図3A及び図3Bを用いて説明した例では、対象物8が遮蔽物であるインストルメントパネル7の少なくとも一部に重畳して表示されるため、要否判定部13は、輪郭画像が必要と判定する。
ここで、図4A及び図4Bを用いて、センサ群22などのデバイスの検出誤差に起因する対象物と現実物体との位置ずれについて説明する。図4Aは、対象物と現実物体との位置ずれの一例であり、図4Bは、現実物体と対象物との位置ずれの他の例である。図4A及び図4Bは、それぞれ、図3Bの場面と対応している。
例えば、センサ群22による検出結果に誤差が生じた場合、制御装置24より認識されたユーザの頭部の位置及びユーザの姿勢のうち少なくともいずれかの変化にも誤差が生じる。その結果、制御装置24により認識された3次元空間における現実物体の位置と、現実空間における現実物体の位置との間にずれ(誤差)が生じる。現実物体の位置にずれが生じた状態で、対象物をディスプレイ23に表示させると、例えば、図4Aのように、対象物8のうち表示部分8aがインストルメントパネル7に重畳して表示されるおそれがある。また、例えば、図4Bのように、表示部分8aとフロントウィンド6の輪郭6aとの間に空間が生じるように表示部分8aが表示されるおそれがある。センサ群22による検出結果に誤差が生じた場合、図4A及び図4Bの例に示すように、フロントウィンド6の輪郭6aとインストルメントパネル7の輪郭7aとの境界に表示部分8aが接するように表示することができないおそれがある。この場合、対象物8と実際に存在するフロントウィンド6及びインストルメントパネル7との間に位置ずれが発生し、ユーザが対象物8を視認した際に、対象物8とフロントウィンド6及びインストルメントパネル7との位置関係により、ユーザに違和感を与えるおそれがある。
そこで、本実施形態に係る画像生成装置1では、対象物8と現実物体(フロントウィンド6、インストルメントパネル7)との間に位置ずれが生じたとしても、以降で説明する輪郭画像をディスプレイ23に表示させることで、ユーザが対象物8を視認した際に、拡張現実に対して違和感をもつのを抑制する。
輪郭画像生成部15は、輪郭認識部12により認識された現実物体の輪郭の少なくとも一部を含む画像である輪郭画像を生成する。輪郭画像生成部15は、要否判定部13により輪郭画像が必要と判定された場合、輪郭画像を生成する。輪郭画像とは、輪郭認識部12により認識された現実物体の輪郭を所定の範囲だけ拡張させた画像(輪郭拡張画像)である。
輪郭画像生成部15は、カメラ群21により撮像された撮像画像に基づき、対象物のうちディスプレイ23に表示させる表示部分とディスプレイ23に表示させない非表示部分とを区別する境界を特定する。そして、輪郭画像生成部15は、特定した境界を構成する現実物体を、輪郭の拡張対象に設定する。図3A及び図3Bの例を用いて説明すると、輪郭画像生成部15は、対象物8のうち表示部分8aと非表示部分8bとを区別する境界がフロントウィンド6の輪郭6aとインストルメントパネル7の輪郭7aとで構成されていることを特定する。本実施形態では、輪郭画像生成部15は、特定した境界を構成するフロントウィンド6及びインストルメントパネル7のうち、フロントウィンド6を輪郭拡張の対象に設定する。
図5は、画像生成装置1により生成された輪郭画像の一例である。図5において、輪郭画像9は、輪郭画像生成部15により生成された画像を示す。図5の例では、輪郭画像生成部15は、輪郭画像9として、フロントウィンド6の輪郭6a~輪郭6dのそれぞれを幅Wだけ拡張させた画像を生成している。図5において、フロントウィンド6の輪郭6a~輪郭6dは、輪郭認識部12により認識されたフロントウィンド6の輪郭である。なお、図5では、輪郭画像生成部15は、輪郭画像9として、フロントウィンド6の輪郭6a~輪郭6dのそれぞれを拡張させた画像を生成しているが、拡張対象である現実物体の全ての輪郭を拡張させなくてもよい。輪郭画像生成部15は、拡張対象である現実物体の全ての輪郭のうち、少なくとも対象物における表示部分と非表示部分とを区別する境界を構成する輪郭に対して、拡張させた画像を生成すればよい。図5の例を用いれば、輪郭画像は、少なくとも輪郭6aを拡張させた画像であればよい。言い換えると、図5の例では、輪郭画像には、輪郭6b~輪郭6dのうち少なくとも一つを拡張させた画像、及び輪郭6b~輪郭6dを拡張させない画像が含まれる。
次に、輪郭画像の生成方法の一例について説明する。例えば、輪郭画像生成部15は、画像生成装置1の記憶装置に記憶された複数の輪郭画像から、フロントウィンド6の画像を取得する。輪郭画像生成部15は、フロントウィンド6の画像に基づき、輪郭画像9を生成する。これにより、輪郭画像生成部15は、フロントウィンド6の輪郭と同じ色及び同じ質感を表現した輪郭部分を有する輪郭画像9を生成することができる。なお、輪郭画像生成部15は、車両外部に設けられたサーバから、フロントウィンド6の画像を取得してもよい。また、輪郭画像9における輪郭部分は、フロントウィンド6の輪郭と同じ色及び同じ質感でなくてもよい。また例えば、フロントウィンド6の輪郭と同じ色及び同じ質感でありつつ、非透過であってもよいし、半透過であってもよい。
また輪郭画像生成部15は、輪郭画像9を生成する前に、以下で説明する方法を用いて、フロントウィンド6の輪郭6a~輪郭6dを拡張させる範囲(以降、拡張範囲ともいう)を設定する。拡張範囲は、ベクトルで構成されており、具体的には、拡張させる大きさ(拡張値)及び拡張させる方向(拡張方向)で構成される。拡張範囲と拡張値の間には、拡張値が大きいほど拡張範囲が大きいという関係が成り立っている。図5の例では、拡張範囲は幅Wに相当する。また図5の例では、輪郭画像生成部15は、輪郭6a~輪郭6dそれぞれに対して、拡張値(幅Wの長さ)及び拡張方向(幅Wの方向)を設定することで、拡張範囲を設定している。拡張方向を例に挙げると、図5では、輪郭画像生成部15は、拡張方向として、拡張対象であるフロントウィンド6の外側及び内側を設定している。これにより、図5に示すように、輪郭画像9は、輪郭6a~輪郭6dがフロントウィンド6の内側及び外側に拡張された画像となる。
なお、拡張方向は、図5で示す拡張方向に限られない。例えば、輪郭画像生成部15は、拡張方向として、拡張対象であるフロントウィンド6の内側を設定してもよい。輪郭画像19(図示しない)は、輪郭6a~輪郭6dがフロントウィンド6の内側に拡張された画像であってもよい。また例えば、輪郭画像生成部15は、拡張方向として、拡張対象であるフロントウィンド6の外側を設定してもよい。輪郭画像29(図示しない)は、輪郭6a~輪郭6dがフロントウィンド6の外側に拡張された画像であってもよい。また、輪郭画像生成部15は、輪郭6a~輪郭6dに対して、同じ拡張方向を設定する必要はなく、輪郭ごとに拡張方向を変更してもよい。
次に、拡張値の設定方法の一例について説明する。本実施形態では、輪郭画像生成部15は、車両の速度、車両の加速度、車両の走行位置、及び車両のイグニッションスイッチの状態のうち少なくともいずれか一つに基づき、対象物と現実物体との位置ずれ量を算出する。そして、輪郭画像生成部15は、車両の速度、車両の加速度、車両の走行位置、及び車両のイグニッションスイッチの状態のうち少なくとも何れか一つに基づき、拡張値を設定する。なお、以降の説明において、「対象物と現実物体との位置ずれ量」は、「対象物と現実物体との位置誤差量」又は「対象物の表示位置の精度」と読み替えてもよい。
例えば、輪郭画像生成部15は、上記の各パラメータをそれぞれ取り入れた複数の回帰モデルを構築し、回帰モデルに基づき対象物と現実物体との位置ずれ量を算出してもよい。また例えば、輪郭画像生成部15は、対象物を表示させると、車両の室内に予め設定した基準点に対してどの程度の位置ずれ量があるかを算出し、算出した位置ずれ量を対象物の位置精度を算出してもよい。以降では、複数の例を挙げて、拡張値の設定方法を説明する。
車両の速度を例に挙げると、輪郭画像生成部15は、車両の速度が高いほど対象物と現実物体との位置ずれ量が大きくなるように算出し、車両の速度が所定の閾値速度よりも低い場合よりも対象物と現実物体との位置ずれ量が大きくなるように算出する。これは、車両の速度が高いほど、車両自体の振動が大きくなり、対象物と現実物体との位置ずれ量が大きくなるという観点に基づく。また車両の速度が所定の閾値速度以上の場合、車両の速度が所定の閾値速度よりも低い場合よりも、車両自体の振動が大きくなり、対象物と現実物体との位置ずれ量が大きくなるという観点に基づく。そして、輪郭画像生成部15は、算出した位置ずれ量に基づき、車両の速度が高いほど拡張値を大きく設定し、又は車両の速度が所定の閾値速度以上の場合、車両の速度が所定の閾値速度よりも低い場合よりも拡張値を大きく設定する。図5の例では、輪郭画像生成部15は、例えば、車両の速度が高いほど、幅Wを長く設定する。なお、所定の閾値速度は、拡張値を決めるための速度であって、予め定められた加速度である。
車両の加速度を例に挙げると、輪郭画像生成部15は、車両の加速度が高いほど対象物と現実物体との位置ずれ量が大きくなるように算出し、車両の加速度が所定の閾値加速度よりも低い場合よりも対象物と現実物体との位置ずれ量が大きくなるように算出する。これは、車両の加速度が高いほど、車両自体の振動が大きくなり、対象物と現実物体との位置ずれ量が大きくなるという観点に基づく。また車両の加速度が所定の閾値加速度以上の場合、車両の加速度が所定の閾値加速度よりも低い場合よりも、車両自体の振動が大きくなり、対象物と現実物体との位置ずれ量が大きくなるという観点に基づく。そして、輪郭画像生成部15は、算出した位置ずれ量に基づき、車両の加速度が高いほど拡張値を大きく設定し、又は車両の加速度が所定の閾値加速度以上の場合、車両の加速度が所定の閾値加速度よりも低い場合よりも拡張値を大きく設定する。図5の例では、輪郭画像生成部15は、例えば、車両の加速度が高いほど、幅Wを長く設定する。なお、所定の閾値加速度は、拡張値を決めるための加速度であって、予め定められた加速度である。
車両の走行位置を例に挙げると、輪郭画像生成部15は、車両が高速道路を走行している場合、車両が一般道路を走行している場合よりも対象物と現実物体との位置ずれ量が大きくなるように算出する。これは、車両が高速道路を走行している場合、車両が一般道路を走行している場合よりも、車両自体の振動が大きくなり、対象物と現実物体との位置ずれ量が大きくなるという観点に基づく。そして、輪郭画像生成部15は、算出した位置ずれ量に基づき、車両が高速道路を走行している場合、車両が一般道路を走行している場合よりも拡張値を大きく設定する。図5の例では、輪郭画像生成部15は、車両が高速道路を走行している場合、車両が一般道路を走行している場合よりも、幅Wを長く設定する。
車両のイグニッションスイッチの状態を例に挙げると、輪郭画像生成部15は、車両のイグニッションスイッチがオンの場合、車両のイグニッションスイッチがオフの場合よりも、対象物と現実物体との位置ずれ量が大きくなるように算出する。これは、イグニッションスイッチがオンの場合、イグニッションスイッチがオフの場合によりも、車両自体の振動が大きくなり、対象物と現実物体との位置ずれ量が大きくなるという観点に基づく。そして、輪郭画像生成部15は、算出した位置ずれ量に基づき、車両のイグニッションスイッチがオンの場合、車両のイグニッションスイッチがオフの場合よりも拡張値を大きく設定する。図5の例では、輪郭画像生成部15は、車両のイグニッションスイッチがオンの場合、車両のイグニッションスイッチがオフの場合よりも、幅Wを長く設定する。
なお、上記の拡張値の設定方法は一例であって、拡張値の設定方法を限定するものではない。例えば、現実物体の輪郭の位置に応じて対象物と現実物体との位置ずれ量は変わるため、輪郭画像生成部15は、現実物体の輪郭の位置に応じて、対象物と現実物体との位置ずれ量を算出してもよい。そして、輪郭画像生成部15は、各位置ずれ量に応じて、輪郭ごとに拡張値を設定してもよい。図5の例では、輪郭画像生成部15は、フロントウィンド6の輪郭6a~輪郭6dに対して一様に幅Wの長さだけ拡張させているが、輪郭6a~輪郭6dごとに対象物と現実物体との位置ずれ量を算出して、輪郭6a~輪郭6dごとに幅Wの長さを設定してもよい。
また、具体的な拡張値の設定方法として、車両の速度、車両の加速度、車両の走行位置、及び車両のイグニッションスイッチの状態のうち少なくとも何れか一つに基づき、拡張値を設定する方法を例に挙げたが、輪郭画像生成部15は、上記車両に関するパラメータに基づき、拡張方向を設定してもよい。例えば、対象物と現実物体との位置ずれにおいて、位置ずれの方向に車両の速度などに応じた傾向がある場合、輪郭画像生成部15は、車両の速度、車両の加速度、車両の走行位置、及び車両のイグニッションスイッチの状態のうち少なくとも何れか一つに基づき、拡張方向を設定してもよい。対象物画像生成部14及び輪郭画像生成部15は、本発明の「画像生成部」の一例に相当する。
画像出力部16は、通信装置(図示しない)を介して、対象物画像生成部14により生成された対象物画像及び輪郭画像生成部15により生成された輪郭画像を画像表示端末2に出力する。なお、画像出力部16は、要否判定部13により輪郭画像が不要と判定された場合、対象物画像のみを画像表示端末2に出力する。
図6は、対象物画像及び輪郭画像をディスプレイ23に表示させた場合の一例である。図6の例では、ディスプレイ23には、対象物8のうち表示部分8aがフロントウィンド6に重畳して表示され、さらに輪郭画像9がフロントウィンド6及び表示部分8aに重畳して表示されている。図6の例で示すような画像をディスプレイ23に表示することで、対象物8と現実物体であるフロントウィンド6及びインストルメントパネル7との間に位置ずれが生じたとしても(図4A、図4B参照)、輪郭画像9(図5参照)によって当該位置ずれを隠蔽することができる。その結果、対象物8がフロントウィンド6及びインストルメントパネル7よりも遠くに位置するように表示させることができ、ユーザが対象物8を視認した際に、ユーザに違和感を与えるのを防ぐことができる。
図7を用いて、本実施形態に係る画像生成装置1の制御装置10が実行する処理を説明する。図7は、画像生成装置1の制御装置10が実行する処理を示すフローチャートである。
ステップS1では、制御装置10は、画像表示端末2から対象物に関する情報を取得する。図3Aの例では、制御装置10は、対象物8の種別、ディスプレイ23における対象物8の表示位置(ユーザを基準としたときの表示方向及び深度を含む)を取得する。
ステップS2では、制御装置10は、ステップS1で取得した表示位置周辺に現実に存在する一又は複数の現実物体を認識する。図3Aの例では、制御装置10は、車両の室内に存在するフロントウィンド6、インストルメントパネル7、ステアリングなどを認識する。
ステップS3では、制御装置10は、対象物画像を生成する。例えば、制御装置10は、画像生成装置1の記憶装置に記憶された複数の対象物画像から、ディスプレイ23に表示させる対象物画像を取得する。
ステップS4では、制御装置10は、ステップS2で認識した現実物体よりも遠くに位置するように対象物を表示させるか否かを判定する。例えば、制御装置10は、ステップS1で取得した対象物の表示位置とステップS2で認識した現実物体の位置関係に基づき、現実物体よりも遠くに位置するように対象物を表示させるか否かを判定する。現実物体よりも遠くに位置するように対象物を表示させると判定した場合、ステップS5に進み、対象物を現実物体よりも遠くに表示させないと判定した場合、ステップS12に進む。
ステップS4で現実物体よりも遠くに位置するように対象物を表示させると判定された場合、ステップS5に進む。ステップS5では、制御装置10は、ステップS2で認識された各現実物体の輪郭の位置と対象物との表示位置との相対関係に応じて、輪郭画像の要否を判定する。例えば、制御装置10は、ユーザの視認を阻害する遮蔽物の少なくとも一部に対象物が重畳して表示される場合、輪郭画像が必要と判定する。また制御装置10は、対象物が遮蔽物に重畳して表示されない場合、輪郭画像が不要と判定する。輪郭画像が必要と判定された場合、ステップS6に進み、輪郭画像が不要と判定された場合、ステップS12に進む。
ステップS5で輪郭画像が必要と判定された場合、ステップS6に進む。ステップS6では、制御装置10は、車両に搭載された機器、装置、又はシステムから、車両に関する情報を取得する。例えば、制御装置10は、車両の速度、車両の加速度、車両の走行位置、及び車両のイグニッションスイッチの状態の情報を所得する。
ステップS7では、制御装置10は、ステップS6で取得した車両に関する情報に基づき、対象物と現実物体との位置ずれ量を算出する。例えば、制御装置10は、車両の速度が高いほど、対象物と現実物体との位置ずれ量が大きくなるように算出する。
ステップS8では、制御装置10は、輪郭の拡張範囲を設定する。例えば、制御装置10は、ステップS2で認識した一又は複数の現実物体のうち輪郭を拡張させる対象の現実物体を特定する。そして、制御装置10は、輪郭の拡張方向として、特定した現実物体の内側及び外側を設定する。また、制御装置10は、ステップS7で算出した位置ずれ量に基づき、輪郭の拡張値を設定する。車両の速度を例に挙げると、制御装置10は、車両の速度が高いほど、拡張値を大きく設定する。
ステップS9では、制御装置10は、ステップS8で設定した拡張範囲に基づき、
現実物体の輪郭を拡張させた画像である輪郭画像を生成する。輪郭画像の一例としては、図5に示すようなフロントウィンド6の輪郭6a~輪郭6dを幅Wだけ拡張させた輪郭画像9が挙げられる。
ステップS10では、制御装置10は、ステップS3で生成した対象物画像を加工する。制御装置10は、対象物画像として、対象物のうち遮蔽物に重畳する部分を除いた画像を生成する。例えば、図3Bに示すように、制御装置10は、対象物画像として、対象物8のうちインストルメントパネル7に重畳して表示される部分(図3Aの非表示部分8b)を除いた画像を生成する。
ステップS11では、制御装置10は、ステップS9で生成した輪郭画像及びステップS10で生成した対象物画像を画像表示端末2に出力する。これにより、画像表示端末2のディスプレイ23に対象物画像及び輪郭画像が表示される。ステップS11の処理が終了すると、制御装置10は、図7に示す処理を終了させる。
またステップS4で現実物体よりも遠くに位置するように対象物を表示させないと判定された場合、又はステップS5で輪郭画像が不要と判定された場合、ステップS12に進む。ステップS12では、制御装置10は、ステップS3で生成した対象物画像を画像表示端末2に出力する。これにより、画像表示端末2のディスプレイ23に対象物画像が表示される。ステップS12の処理が終了すると、制御装置10は、図7に示す処理を終了させる。
以上のように、本実施形態に係る画像生成装置1は、ユーザが視認する現実空間に重畳して表示される表示画像を生成する画像生成装置であって、現実物体の輪郭を認識する輪郭認識部12と、ユーザに視認させる対象物を示す表示画像である対象物画像、及び現実物体の輪郭の少なくとも一部を含む表示画像である輪郭画像を生成する対象物画像生成部14及び輪郭画像生成部15とを備える。これにより、センサ群22などのデバイスの検出誤差により、対象物と現実物体との間に位置ずれが発生した場合であっても、輪郭画像により位置ずれを隠蔽できる。その結果、ユーザが現実空間と仮想の対象物とを視認した際に、ユーザに違和感を与えるのを抑制できる。特に、図3A及び図3Bの例で挙げたように、現実物体よりも遠くに位置するように対象物を表示させる場面において、対象物のうち表示部分と非表示部分との境界を遮蔽物に接するように表示制御することは、デバイスの検出誤差をなくさない限り困難とされている。本実施形態に係る画像生成装置1によれば、輪郭画像によって、そのような技術的課題を簡便な方法で解決することができる。すなわち、現実物体よりも遠くに位置するように対象物を表示させる場面において、簡便な方法で、ユーザに違和感を与えずに、対象物のうち表示部分と非表示部分との境界を遮蔽物に接するように表示させることができる。
また、本実施形態では、対象物画像生成部14は、輪郭画像として、現実物体の輪郭を拡張させた画像を生成する。これにより、対象物と現実物体との位置ずれを拡張された輪郭によって隠蔽することができ、ユーザに違和感を与えるのを抑制しつつ、現実物体よりも遠くに位置するように対象物を表示させることができる。
さらに、本実施形態では、画像生成装置1は、現実物体の輪郭の位置と対象物の表示位置との相対関係に応じて、輪郭画像の要否を判定する要否判定部13を備える。これにより、輪郭画像の要否を適切に判定することができる。
加えて、本実施形態では、要否判定部13は、ユーザを基準としたときに、現実物体よりも遠くに位置するように対象物が表示される場合、輪郭画像の要否を判定する。これにより、現実物体よりも手前側に位置するように対象物が表示される場合、すなわち、対象物と現実物体との間に位置ずれが発生しても、ユーザに違和感を与えない場合、輪郭画像の要否判定が行われるのを防ぐことができる。その結果、不要な演算を削減することができ、演算負荷の軽減を図ることができる。
また、本実施形態では、要否判定部13は、対象物が遮蔽物の少なくとも一部に重畳して表示される場合、輪郭画像が必要と判定し、対象物が遮蔽物に重畳して表示されない場合、輪郭画像が不要と判定する。遮蔽物は、ユーザが対象物を視認するのを阻害する現実物体である。これにより、対象物と現実物体との間に位置ずれが発生し、ユーザに違和感を与える場合、輪郭画像が必要と判定することができる。また、対象物と現実物体との間に位置ずれが発生しても、ユーザに違和感を与えない場合、輪郭画像が不要と判定することができる。対象物と現実物体との間に位置ずれにより、ユーザに違和感を与える場合のみ、輪郭画像が必要と判定することができるため、不要な演算を削減することができ、演算負荷の軽減を図ることができる。
さらに、本実施形態では、対象物画像生成部14は、要否判定部13により輪郭画像が必要と判定された場合、対象物画像として、対象物のうち遮蔽物に重畳する部分を除いた画像を生成する。これにより、対象物のうち遮蔽物によってユーザが視認できない部分が表示されるのを防ぐことができ、遮蔽物よりも遠くに位置するように対象物を表示させることができる。
加えて、本実施形態では、ユーザは、車両に乗車しており、現実物体は、車両の室内に位置し、対象物は、車両の室外に位置するように表示される。これにより、例えば、ロケーションARにより車両の室外に対象物を表示させる場面において、車両の室内に対象物の視認を阻害する遮蔽物が存在したとしても、ユーザが対象物を視認した際に、ユーザに違和感を与えるのを抑制できる。
また、本実施形態では、輪郭画像生成部15は、輪郭画像として、現実物体の輪郭を所定の拡張範囲だけ拡張させた画像を生成する前に、車両の速度、車両の加速度、車両の走行位置、及び車両のイグニッションスイッチの状態のうち少なくとも何れか一つに基づき、拡張範囲を設定する。これにより、拡張範囲を車両に関する各パラメータに応じた範囲に設定できるため、車両に関する各パラメータが変化した場合であっても、拡張範囲を適切な範囲に設定することができる。その結果、拡張範囲が適切に設定されず、位置ずれを隠蔽不可能な輪郭画像が生成されるのを防ぐことができる。
さらに、本実施形態では、輪郭画像生成部15は、車両の速度が高いほど拡張範囲を大きく設定し、又は車両の速度が所定の閾値速度以上の場合、車両の速度が所定の閾値速度よりも低い場合よりも拡張範囲を大きく設定する。これにより、車両の速度に応じた拡張範囲を設定することができるため、車両の速度が変化した場合であっても、拡張範囲を適切な範囲に設定することができる。その結果、拡張範囲が適切に設定されず、位置ずれを隠蔽不可能な輪郭画像が生成されるのを防ぐことができる。
また、本実施形態では、輪郭画像生成部15は、車両の加速度が高いほど拡張範囲を大きく設定し、又は車両の加速度が所定の閾値加速度以上の場合、車両の加速度が所定の閾値加速度よりも低い場合よりも拡張範囲を大きく設定する。車両の加速度に応じた拡張範囲を設定することができるため、車両の加速度が変化した場合であっても、拡張範囲を適切な範囲に設定することができる。その結果、拡張範囲が適切に設定されず、位置ずれを隠蔽不可能な輪郭画像が生成されるのを防ぐことができる。
さらに、本実施形態では、輪郭画像生成部15は、車両が高速道路を走行している場合、車両が一般道路を走行している場合よりも拡張範囲を大きく設定する。これにより、車両の走行位置に応じた拡張範囲を設定することができるため、車両の走行位置が変化した場合であっても、拡張範囲を適切な範囲に設定することができる。その結果、拡張範囲が適切に設定されず、位置ずれを隠蔽不可能な輪郭画像が生成されるのを防ぐことができる。
加えて、本実施形態では、輪郭画像生成部15は、イグニッションスイッチがオンの場合、イグニッションスイッチがオフの場合よりも拡張範囲を大きく設定する。これにより、車両のイグニッションスイッチの状態に応じた拡張範囲を設定することができるため、車両のイグニッションスイッチの状態が変化した場合であっても、拡張範囲を適切な範囲に設定することができる。その結果、拡張範囲が適切に設定されず、位置ずれを隠蔽不可能な輪郭画像が生成されるのを防ぐことができる。
なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
例えば、上述した実施形態では、輪郭画像として、現実物体の輪郭を拡張した画像を例に挙げて説明したが、輪郭画像はこれに限定されない。輪郭画像生成部15は、輪郭画像として、輪郭認識部12により認識された現実物体の輪郭を所定の範囲だけぼかした画像(輪郭ぼかし画像ともいう)を生成してもよい。輪郭画像生成部15は、車両の速度、車両の加速度、車両の走行位置、及び車両のイグニッションスイッチの状態のうち少なくとも何れか一つに基づき、現実物体の輪郭をぼかす範囲(ぼかし範囲ともいう)を設定してもよい。具体的なぼかし範囲の設定方法は、上述した実施形態における具体的な拡張範囲の設定方法と同じ方法を適用できるため、拡張範囲の設定方法での説明を援用する。具体的には、拡張範囲の説明において、「拡張範囲」を「ぼかし範囲」に、「拡張方向」を「ぼかし方向」に、「拡張値」を「ぼかし値」に置き換えることで、具体的なぼかし範囲の設定方法の説明となる。対象物と現実物体との位置ずれをぼかした輪郭により隠蔽することができ、ユーザに違和感を与えるのを抑制しつつ、対象物が現実物体よりも遠くに位置するように表示させることができる。
また例えば、上述した実施形態では、表示画像を表示するディスプレイ23について、画像表示端末2が備える構成を例に挙げて説明したが、画像生成装置1がディスプレイ23に相当する表示部を備えていてもよい。画像生成装置1と画像表示端末2とが別体ではなく、画像表示端末2は画像生成装置1を含む構成でもよく、この場合、画像生成装置1は、表示画像をユーザに表示させる表示部を備えていてもよい。画像生成装置1により生成された表示画像は、所定のネットワークを介さずに、画像表示端末2に出力されるため、ネットワークの通信障害などにより表示画像が正常に表示されない可能性を低減することができる。
また例えば、上述した実施形態では、表示画像を表示する透過型表示装置として、画像表示端末2のディスプレイ23を例に挙げて説明したが、透過型表示装置はその他の機器又は装置であってもよい。例えば、透過型表示装置として、ディスプレイ23の代わりに、車両のウィンドを適用してもよい。この場合、画像表示端末2は、画像生成装置1により生成された表示画像を車両のウィンドに表示させる。車両のウィンドに表示させる表示制御の技術は、本願出願時に知られた拡張現実の分野における表示制御技術を適用することができる。このような構成であっても、車両の乗員は、車両のウィンドを介して、現実空間と対象物とを同時に視認することができる。任意の表示装置の形態において、ユーザが現実空間と仮想の対象物とを視認した際に、ユーザに違和感を与えるのを抑制できる。
また例えば、上述した実施形態では、拡張現実を実現する方式として、非透過型表示装置を用いる、いわゆるシースルー方式を例に挙げて説明したが、本発明に係る画像生成装置及び画像生成方法は、非透過型表示装置を用いて拡張現実を実現する、いわゆるビデオシースルー方式にも適用することができる。
ビデオシースルー方式の場合、変形例に係る画像表示端末2のディスプレイ23は、非透過型表示装置となる。この場合、画像表示端末2の形態としては、例えば、ヘッドマウントディスプレイが挙げられる。またビデオシースルー方式の場合、ディスプレイ23には、カメラ群21により撮像された画像であって、ユーザが視認する現実空間に対応する画像が表示される。さらにディスプレイ23には、画像生成装置1により生成された表示画像が現実空間に対応する画像に重畳して表示される。これにより、画像表示端末2を頭部に装着したユーザは、カメラ群21により撮像された画像により自身が視認する現実空間を認識するとともに、画像生成装置1により生成された表示画像を認識する。対象物と現実物体との間に発生する位置ずれは、デバイスの検出誤差に起因して発生するものであって、拡張現実の方式に起因するものではない。そのため、ビデオシースルー方式においても、対象物と現実空間との位置ずれは発生する。本発明に係る画像生成装置及び画像生成方法によれば、任意の拡張現実の実現方式において、ユーザが現実空間と仮想の対象物とを視認した際に、ユーザに違和感を与えるのを抑制できる。
また例えば、上述した実施形態では、図5を用いて、輪郭拡張の対象がフロントウィンド6の場合を例に挙げて説明したが、輪郭拡張の対象はインストルメントパネル7であってもよい。輪郭画像生成部15は、フロントウィンド6を輪郭拡張の対象とした場合と同様に、輪郭画像として、インストルメントパネル7の輪郭を拡張させた画像を生成してもよい。
輪郭画像生成部15は、対象物のうち表示部分と非表示部分をと区別する境界が複数の現実物体の輪郭で構成される場合、輪郭画像として、複数の現実物体のうちいずれか一つの現実物体の輪郭を拡張させた画像を生成する。表示部分とは、対象物のうち非表示部分以外の部分であり、非表示部分とは、対象物のうち遮蔽物によってユーザの視認が阻害される部分である。
図5を用いて説明すると、例えば、輪郭画像生成部15は、輪郭画像39(図示しない)として、フロントウィンド6の輪郭6aの代わりに、インストルメントパネル7の輪郭7aを所定範囲だけ拡張させた画像を生成してもよい。これにより、対象物8とフロントウィンド6及びインストルメントパネル7との間に位置ずれが発生した場合であっても、インストルメントパネル7の輪郭画像により位置ずれを隠蔽できる。また、インストルメントパネル7の輪郭を拡張させた輪郭画像39は、輪郭拡張画像に限られず、輪郭ぼかし画像であってもよい。輪郭画像生成部15は、フロントウィンド6を輪郭拡張の対象とした場合と同様に、輪郭画像39の拡張範囲又はぼかし範囲を設定してもよい。
また、輪郭画像生成部15は、対象物のうち表示部分と非表示部分とを区別する境界が一の現実物体の輪郭で構成される場合、輪郭画像として、一の現実物体の輪郭が拡張された画像を生成してもよい。上述の透過型表示装置として車両のウィンドを用いる変形例を例に挙げて説明する。例えば、車両の乗員が車両のウィンドを介して対象物と現実空間を同時に視認している際に、車両外側に一つの遮蔽物が出現したことで、ユーザが当該遮蔽物によって対象物の一部を視認できないとする。この場面において、対象物のうち表示部分と非表示部分を区別する境界は、出現した遮蔽物の輪郭で構成されるため、輪郭画像生成部15は、輪郭画像として、当該遮蔽物の輪郭が拡張された画像を生成する。対象物のうち表示部分と非表示部分とを区別する境界を構成する現実物体の数にかかわらず、ユーザが対象物を視認した際に、ユーザに違和感を与えるのを抑制することができる。
1…画像生成装置
10…制御装置
11…情報取得部
12…輪郭認識部
13…要否判定部
14…対象物画像生成部
15…輪郭画像生成部
16…画像出力部
2…画像表示端末
21…カメラ群
22…センサ群
23…ディスプレイ
24…制御装置
3…ECU
4…ECU
5…車載ネットワーク
30…センサ群
31…車速センサ
32…加速度センサ
33…ジャイロセンサ
34…イグニッションスイッチ
40…ナビゲーションシステム
100…ARシステム

Claims (14)

  1. ユーザが視認する現実空間又は前記現実空間に対応する画像に重畳して表示される表示画像を生成する画像生成装置であって、
    前記現実空間に存在する物体の輪郭を認識する輪郭認識部と、
    前記ユーザに視認させる対象物を示す前記表示画像である対象物画像、及び前記物体の輪郭の少なくとも一部を含む前記表示画像である輪郭画像を生成する画像生成部と、
    前記物体の輪郭の位置と前記対象物の表示位置との相対関係に応じて、前記輪郭画像の要否を判定する判定部とを備える画像生成装置。
  2. 請求項1記載の画像生成装置であって、
    前記画像生成部は、前記輪郭画像として、前記物体の輪郭を拡張した画像又は前記物体の輪郭をぼかした画像を生成する画像生成装置。
  3. 請求項記載の画像生成装置であって、
    前記判定部は、前記ユーザを基準としたときに、前記物体よりも遠くに位置するように前記対象物が表示される場合、前記輪郭画像の要否を判定する画像生成装置。
  4. 請求項記載の画像生成装置であって、
    前記判定部は、
    前記対象物が遮蔽物の少なくとも一部に重畳して表示される場合、前記輪郭画像が必要と判定し、
    前記対象物が遮蔽物に重畳して表示されない場合、前記輪郭画像が不要と判定し、
    前記遮蔽物は、前記ユーザが前記対象物を視認するのを阻害する前記物体である画像生成装置。
  5. 請求項に記載の画像生成装置であって、
    前記画像生成部は、前記判定部により前記輪郭画像が必要と判定された場合、前記対象物画像として、前記対象物のうち前記遮蔽物に重畳する部分を除いた画像を生成する画像生成装置。
  6. 請求項1~の何れかに記載の画像生成装置であって、
    前記表示画像を前記ユーザに表示させる表示部を備える画像生成装置。
  7. ユーザが視認する現実空間又は前記現実空間に対応する画像に重畳して表示される表示画像を生成する画像生成装置であって、
    前記現実空間に存在する物体の輪郭を認識する輪郭認識部と、
    前記ユーザに視認させる対象物を示す前記表示画像である対象物画像、及び前記物体の輪郭の少なくとも一部を含む前記表示画像である輪郭画像を生成する画像生成部とを備え、
    前記ユーザは、車両に乗車しており、
    前記物体は、前記車両の室内に位置し、
    前記対象物は、前記車両の室外に位置するように表示される画像生成装置。
  8. 請求項記載の画像生成装置であって、
    前記画像生成部は、前記輪郭画像として、前記物体の輪郭を所定の範囲だけ拡張させた画像又は前記物体の輪郭を所定の範囲だけぼかした画像を生成する前に、前記車両の速度、前記車両の加速度、前記車両の走行位置、及び前記車両のイグニッションスイッチの状態のうち少なくとも何れか一つに基づき、前記所定の範囲を設定する画像生成装置。
  9. 請求項記載の画像生成装置であって、
    前記画像生成部は、前記速度が高いほど前記所定の範囲を大きく設定し、又は前記速度が所定の閾値速度以上の場合、前記速度が前記閾値速度よりも低い場合よりも前記所定の範囲を大きく設定する画像生成装置。
  10. 請求項8又は9記載の画像生成装置であって、
    前記画像生成部は、前記加速度が高いほど前記所定の範囲を大きく設定し、又は前記加速度が所定の閾値加速度以上の場合、前記加速度が前記閾値加速度よりも低い場合よりも前記所定の範囲を大きく設定する画像生成装置。
  11. 請求項8~10の何れかに記載の画像生成装置であって、
    前記画像生成部は、前記車両が高速道路を走行している場合、前記車両が一般道路を走行している場合よりも前記所定の範囲を大きく設定する画像生成装置。
  12. 請求項8~11の何れかに記載の画像生成装置であって、
    前記画像生成部は、前記イグニッションスイッチがオンの場合、前記イグニッションスイッチがオフの場合よりも前記所定の範囲を大きく設定する画像生成装置。
  13. ユーザが視認する現実空間又は前記現実空間に対応する画像に重畳して表示される表示画像を生成する画像生成装置により実行される画像生成方法であって、
    前記画像生成装置は、
    前記現実空間に存在する物体の輪郭を認識し、
    仮想の対象物を示す前記表示画像である対象物画像、及び前記物体の輪郭の少なくとも一部を含む前記表示画像である輪郭画像を生成し、
    前記物体の輪郭の位置と前記対象物の表示位置との相対関係に応じて、前記輪郭画像の要否を判定する画像生成方法。
  14. ユーザが視認する現実空間又は前記現実空間に対応する画像に重畳して表示される表示画像を生成する画像生成装置により実行される画像生成方法であって、
    前記画像生成装置は、
    前記現実空間に存在する物体の輪郭を認識し、
    仮想の対象物を示す前記表示画像である対象物画像、及び前記物体の輪郭の少なくとも一部を含む前記表示画像である輪郭画像を生成し、
    前記ユーザは、車両に乗車しており、
    前記物体は、前記車両の室内に位置し、
    前記対象物は、前記車両の室外に位置するように表示される画像生成方法。
JP2020060391A 2020-03-30 2020-03-30 画像生成装置及び画像生成方法 Active JP7446888B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020060391A JP7446888B2 (ja) 2020-03-30 2020-03-30 画像生成装置及び画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020060391A JP7446888B2 (ja) 2020-03-30 2020-03-30 画像生成装置及び画像生成方法

Publications (2)

Publication Number Publication Date
JP2021157749A JP2021157749A (ja) 2021-10-07
JP7446888B2 true JP7446888B2 (ja) 2024-03-11

Family

ID=77918590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020060391A Active JP7446888B2 (ja) 2020-03-30 2020-03-30 画像生成装置及び画像生成方法

Country Status (1)

Country Link
JP (1) JP7446888B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106543A (ja) 2012-11-22 2014-06-09 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP5977909B1 (ja) 2014-10-15 2016-08-24 オリンパス株式会社 信号処理装置及び内視鏡システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106543A (ja) 2012-11-22 2014-06-09 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP5977909B1 (ja) 2014-10-15 2016-08-24 オリンパス株式会社 信号処理装置及び内視鏡システム

Also Published As

Publication number Publication date
JP2021157749A (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
JP6608146B2 (ja) ライブ映像を有する仮想透過型インストルメントクラスタ
JP6756228B2 (ja) 車載表示制御装置
WO2010113788A1 (ja) 情報表示装置
US20190143815A1 (en) Drive assist device and drive assist method
WO2014095068A1 (en) Infotainment system
KR20190052374A (ko) 컨텐츠 시각화 장치 및 방법
US9836814B2 (en) Display control apparatus and method for stepwise deforming of presentation image radially by increasing display ratio
JP2014194625A (ja) 目視確認評価装置、方法及びプログラム
JP7365594B2 (ja) 表示システム
CN111284498B (zh) 驾驶支援装置、系统、方法、可穿戴装置以及存储介质
JP2022034511A (ja) コンテンツを可視化する装置及び方法
US20190088024A1 (en) Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
KR20130059650A (ko) 헤드업 디스플레이의 컨텐츠 초점 제어 장치 및 방법
JP7446888B2 (ja) 画像生成装置及び画像生成方法
US20140049540A1 (en) Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device
WO2023048213A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
WO2017042923A1 (ja) 表示制御装置、表示装置及び表示制御方法
WO2021200914A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
CN111751993B (zh) 显示系统及显示装置
JP6972789B2 (ja) ヘッドアップディスプレイ装置
JP7379253B2 (ja) 挙動推定システム及び挙動推定方法
WO2023003045A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2020121704A (ja) 表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム
JP7322886B2 (ja) 車両用表示装置、方法、及びコンピュータ・プログラム
JP7383549B2 (ja) 画像記録システム及び画像記録方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7446888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150