JP2022184919A - 表示制御装置、表示制御方法 - Google Patents

表示制御装置、表示制御方法 Download PDF

Info

Publication number
JP2022184919A
JP2022184919A JP2022143614A JP2022143614A JP2022184919A JP 2022184919 A JP2022184919 A JP 2022184919A JP 2022143614 A JP2022143614 A JP 2022143614A JP 2022143614 A JP2022143614 A JP 2022143614A JP 2022184919 A JP2022184919 A JP 2022184919A
Authority
JP
Japan
Prior art keywords
information
vehicle
display
image
scenery
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022143614A
Other languages
English (en)
Inventor
達也 赤坂
Tatsuya Akasaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022143614A priority Critical patent/JP2022184919A/ja
Publication of JP2022184919A publication Critical patent/JP2022184919A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両の周囲の風景の映像を適切に表示すること。【解決手段】車両の現在位置情報と車両運動情報とを含む車両情報とナビゲーション情報を取得する車両情報取得部331と、車両情報取得部331が取得した車両情報に基づいて、車両の車室の内周面に風景の映像を表示するかを判断する判断部333と、風景の映像を含む風景情報を記憶した風景情報データベースから、車両から視認可能な風景の風景情報を選択して取得する選択部334と、選択部334が取得した風景情報の映像を、窓ガラスに対応するよう加工して、表示用風景映像を生成する表示用映像生成部335と、表示用映像生成部335が生成した表示用風景映像を窓ガラスに表示する表示制御部336とを備える。【選択図】図7

Description

本発明は、表示制御装置、表示制御方法に関する。
車両のナビゲーション装置において、遠方からでも位置を確認することができる特定のランドマークを走行時の目印として表示する技術が知られている(例えば、特許文献1参照)。特許文献1においては、特定のランドマークとしては、電波塔や高層ビルのように遠方から見えるものである。
特開2004-226139号公報
車両で走行時、車窓にきれいな風景を見られる地点を通過することがある。ところが、天気が悪かったり、時間帯がずれていたりすると、車窓にきれいな風景を見られる地点を通過した際に、車窓に見たい風景が見られないことがある。
本発明は、上記に鑑みてなされたものであって、車両の周囲の風景の映像を適切に表示することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る表示制御装置は、車両の現在位置情報と車両運動情報とを含む車両情報とナビゲーション情報を取得する車両情報取得部と、前記車両情報取得部が取得した前記車両情報とナビゲーション情報に基づいて、前記車両の車室の内周面に風景の映像を表示するかを判断する判断部と、風景の映像を含む風景情報を記憶した風景情報記憶部から、前記車両から視認可能な風景の前記風景情報を選択して取得する選択部と、前記選択部が取得した前記風景情報の映像を、前記車室の内周面に対応するよう加工して、表示用映像を生成する映像生成部と、前記映像生成部が生成した撮影車両による表示用映像を前記車室の内周面に表示する表示制御部とを備えることを特徴とする。
本発明に係る表示制御方法は、車両の現在位置情報と車両運動情報とを含む車両情報とナビゲーション情報を取得する車両情報取得ステップと、前記車両情報取得ステップによって取得した前記車両情報とナビゲーション情報に基づいて、前記車両の車室の内周面に風景の映像を表示するかを判断する判断ステップと、風景の映像を含む風景情報を記憶した風景情報記憶部から、前記車両から視認可能な風景の前記風景情報を選択して取得する選択ステップと、前記選択ステップによって取得した前記風景情報の映像を、前記車両の車室の内周面に対応するよう加工して、表示用映像を生成する映像生成ステップと、前記映像生成ステップによって生成した撮影車両による表示用映像を前記車室の内周面に表示する表示制御ステップと、を含む。
本発明によれば、車両の周囲の風景の映像を適切に表示することができるという効果を奏する。
図1は、第一実施形態に係る表示システムの構成例を示す概略図である。 図2は、第一実施形態に係る映像収集装置の構成例を示すブロック図である。 図3は、第一実施形態に係る映像管理サーバ装置の構成例を示すブロック図である。 図4は、第一実施形態に係る風景情報データベースのデータ構成例を示すデータ構成図である。 図5は、車両の一例を示す側面図である。 図6は、車両の一例を示す平面図である。 図7は、第一実施形態に係る表示装置の構成例を示すブロック図である。 図8は、第一実施形態に係る表示装置によって表示された表示用風景映像の一例を示す。 図9は、第一実施形態に係る表示装置によって表示された表示用風景映像と窓ガラスの大きさとを示す。 図10は、第一実施形態に係る表示装置によって表示された表示用風景映像と窓ガラスの大きさとを示す。 図11は、第一実施形態に係る映像収集装置における処理の流れを示すフローチャートである。 図12は、第一実施形態に係る表示装置における処理の流れを示すフローチャートである。 図13は、第二実施形態に係る表示装置の構成例を示すブロック図である。 図14は、第三実施形態に係る表示装置における処理の流れを示すフローチャートである。 図15は、第四実施形態に係る表示システムの構成例を示す概略図である。 図16は、第四実施形態に係る映像収集装置の構成例を示すブロック図である。
以下に添付図面を参照して、本発明に係る表示制御装置である制御部を有する表示装置、映像管理サーバ装置、表示システム、表示制御方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
図1は、第一実施形態に係る表示システムの構成例を示す概略図である。図2は、第一実施形態に係る映像収集装置の構成例を示すブロック図である。図3は、第一実施形態に係る映像管理サーバ装置の構成例を示すブロック図である。表示システム1は、クライアントである複数の車両100が収集した風景の映像(風景映像)を、サーバがデータベースで管理する。また、表示システム1は、車両100(図8参照)の窓ガラス101(図8参照)に、データベースに基づいて、車窓に視認可能な風景の映像(風景映像)である表示用風景映像190(図8参照)を表示する。例えば、表示システム1は、雨の日に、晴れの日であれば絶景を望める地点を走行する際に、晴れの日の絶景を映した表示用風景映像190を、あたかも車窓に見えているかのように車両100の車室内の内周面に表示する。
風景とは、例えば、名勝、観光地、建造物、街並み、自然の景色のように車窓に視認可能なものである。また、視認可能とは、例えば、天気、日時、時間帯、車窓を遮る障害物の有無などの条件が異なる状態において視認できることを含む。また、視認可能とは、位置が所定値以下ズレることで、視認できることを含む。
車両100の内周面とは、車両100のフロントまたは運転席の両側または後部座席の両側またはリヤの窓ガラスと、車室の内壁または天井または床または座席の少なくともいずれかである。本実施形態では、車両100の車室内の内周面を、後部座席の側方の窓ガラス101として説明する。
表示するとは、例えば、プロジェクタを介して車両100の車室内の内周面に表示すること、ヘッドアップディスプレイ装置のように、コンバイナまたは車両100の窓ガラスを介して映像の虚像を視認させること、車両100の窓ガラスに透過型有機EL(Electro‐Luminescence)シートを貼付けて映像を表示すること、を含む。本実施形態では、ヘッドアップディスプレイ装置のように、車両100の窓ガラス101を介して映像の虚像を視認させるものとして説明する。
本実施形態では、表示システム1は、窓ガラス101越しに表示用風景映像190の虚像が視認されるように、窓ガラス101に表示用風景映像190を投影する。表示システム1は、映像収集装置10と、映像管理サーバ装置20と、表示装置30とを有する。本実施形態では、映像収集装置10は、複数の車両100に搭載されている。本実施形態では、表示装置30は、複数の車両100に搭載されている。
映像収集装置10は、風景が被撮影物として含まれる映像データ(以下、「風景の映像データ」という。)を収集する。言い換えると、映像収集装置10は、風景の映像データを撮影する。映像収集装置10は、車両100に組み付けられていても、可搬型で車両100に持ち込まれたものであってもよい。映像収集装置10は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。映像収集装置10は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。映像収集装置10は、第一カメラ11と、制御部12と、通信部19とを有する。映像収集装置10には図示しない内部メモリが含まれ、内部メモリは映像収集装置10におけるデータの一時記憶などに用いられる。映像収集装置10は、通信部19を介して映像管理サーバ装置20に、収集した映像データを送信可能である。
内部メモリには、映像収集装置10が搭載される車両100の外形を規定する各種情報を記憶する。より詳しくは、内部メモリは、車体情報と、車両100の各窓ガラスの大きさと窓ガラスの位置と窓ガラスの形状と座席の位置とピラーの位置とハンドルの位置とダッシュボードの位置とを含む車両内形状情報と、カメラの位置情報と、カメラ性能情報と、撮影向き情報とを記憶する。窓ガラスの位置情報は、窓ガラスの車両100における位置を規定する。窓ガラスの位置情報は、窓ガラスの路面からの高さを規定する高さ情報を含む。窓ガラスの形状情報は、窓ガラスの形状を規定する。窓ガラスの大きさ情報は、窓ガラスの大きさを規定する。
第一カメラ11は、収集する風景の映像データを撮影するカメラである。第一カメラ11は、全方位を撮影可能な全天周型のカメラである。第一カメラ11は、車両100の前方に配置され、車両100の周囲を含む全方位を撮影する。より詳しくは、第一カメラ11は、車両100のウィンドシールド101Fの内側の中央上部に配置されている。第一カメラ11は、例えば、車両100の走行時に周囲を撮影する走行時撮影装置、いわゆるドライブレコーダと共用であってもよい。第一カメラ11は、撮影した映像データを制御部12の映像データ取得部122へ出力する。映像データは、例えば毎秒30フレームの画像から構成される動画像である。
制御部12は、例えば、CPUなどで構成された演算処理装置である。制御部12は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部12は、車両情報取得部121と、映像データ取得部122と、提供者評価情報取得部123と、付随情報生成部124と、送信制御部125とを有する。制御部12には図示しない内部メモリが含まれ、内部メモリは制御部12におけるデータの一時記憶などに用いられる。
車両情報取得部121は、車両100の現在位置情報と車両運動情報とを含む車両情報を、CAN(Controller Area Network)や車両100の状態をセンシングする各種センサなどから取得する。車両情報取得部121は、ナビゲーションシステムから、例えば、名勝、観光地、建造物、街並み、自然の景色の情報を含むナビゲーション情報を取得する。車両情報取得部121は、取得した車両情報を付随情報生成部124に出力する。
映像データ取得部122は、第一カメラ11が撮影した映像データを取得する。映像データ取得部122は、取得した映像データを付随情報生成部124に出力する。
提供者評価情報取得部123は、映像データについて、提供者が評価した提供者評価情報を取得する。例えば、提供者評価情報は、映像収集装置10が備える図示しない入力装置を介して提供者が入力する。例えば、提供者評価情報は、乗員Mが携帯する電子機器、ナビゲーションシステム、ドライブレコーダのような、通信部19を介して接続された装置における操作を検出して取得してもよい。例えば、提供者評価情報は、図示しないマイクによって、乗員Mの音声から取得してもよい。例えば、提供者評価情報は、図示しないセンサまたはカメラなどによって、乗員Mの動作を検出して取得してもよい。例えば、提供者評価情報は、映像データに画像処理を行って所定の評価基準に基づいて算出してもよい。所定の評価基準とは、例えば、風景の色彩、風景の輪郭の明瞭性、彩度などである。提供者評価情報取得部123は、取得した提供者評価情報を付随情報生成部124に出力する。
付随情報生成部124は、第一カメラ11が撮影した映像データとともに、撮影条件情報などの付随情報を生成する。付随情報生成部124は、映像データ取得部122が取得した映像データに関連づけて、映像データの名称と、分類と、提供者情報と、提供者評価情報取得部123が取得した提供者評価情報と、日時情報と、天候情報と、撮影した車両100の位置情報と、撮影向き情報と、車速情報と加速度情報と操舵角情報と車体方位情報とを含む車両運動情報と、車体情報と、車両内形状情報と、カメラの位置情報と、カメラ性能情報と、車線情報との少なくともいずれかを含む、映像データに付随する付随情報を生成する。付随情報生成部124は、付随情報を映像データに対応付けて送信制御部125に出力する。
映像データの名称と分類とは、ナビゲーション情報から取得可能である。車体情報と車両内形状情報とカメラの位置情報とカメラ性能情報とは、内部メモリから取得可能である。車両100の位置情報と車両運動情報と撮影向き情報と車線情報とは、車両情報取得部121が取得した車両情報から取得可能である。天候情報は、外部装置または映像データに画像処理を行うことによって取得可能である。
送信制御部125は、映像データ取得部122が取得した映像データと、付随情報生成部124が生成した付随情報とを通信部19の送信部191を介して、映像管理サーバ装置20に送信する。送信制御部125は、例えば、所定時間間隔で、映像データと付随情報とを映像管理サーバ装置20に送信してもよい。送信制御部125は、例えば、車両100が自宅に戻ったとき、または、目的地に着いたときなどに、映像データと付随情報とを映像管理サーバ装置20に送信してもよい。
通信部19は、通信ユニットである。通信部19は、映像管理サーバ装置20及び外部の装置とデータを送受信可能に接続する。通信部19は、送信部191と、受信部192とを有する。
映像管理サーバ装置20は、複数の車両100に搭載された映像収集装置10が収集した風景の映像データをデータベースで管理するサーバ装置である。映像管理サーバ装置20は、複数の映像収集装置10から取得した風景の映像データを付随情報とともに風景情報23として風景情報データベース(風景情報記憶部)22に格納して管理する。より詳しくは、映像管理サーバ装置20は、例えば、複数の車両100に搭載された映像収集装置10が収集した映像データを含む風景情報を収集する。映像管理サーバ装置20は、収集した風景情報23を風景情報データベース22に格納する。
映像管理サーバ装置20は、例えば、CPUなどで構成された演算処理装置である。映像管理サーバ装置20は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。映像管理サーバ装置20は、制御部21と、風景情報データベース22と、通信部29とを有する。
制御部21は、映像データ取得部211と、付随情報取得部212と、解析部213と、登録情報生成部214と、記憶制御部215とを有する。映像管理サーバ装置20には図示しない内部メモリが含まれ、内部メモリは映像管理サーバ装置20におけるデータの一時記憶などに用いられる。映像管理サーバ装置20は、通信部29を介して映像収集装置10、表示装置30及び外部の装置とデータを送受信可能である。
映像データ取得部211は、映像管理サーバ装置20が受信した、風景の映像データを取得する。例えば、映像データ取得部211は、映像収集装置10によって撮影された映像データを取得する。映像データ取得部211は、取得した映像データを登録情報生成部214に出力する。
付随情報取得部212は、映像収集装置10から、映像データ取得部211が取得した映像データに関連した付随情報を取得する。付随情報取得部212は、取得した付随情報を映像データに対応付けて登録情報生成部214に出力する。
解析部213は、映像データ取得部211が取得した映像データに画像処理を行って、表示に適していない被撮影物が撮影された部分を含むかを解析する。解析方法は、特に限定されず、公知の技術を使用すればよい。解析部213は、解析結果を登録情報生成部214に出力する。
より詳しくは、解析部213は、例えば、人物の顔または名称を示す文字のようなプライバシー情報を含む映像を、表示に適していないとして解析する。または、解析部213は、例えば、映像データにおいて、風景を遮る建造物または隣接車両を含む障害物のような風景映像に不必要なものを含む映像を、表示に適していないとして解析する。または、解析部213は、例えば、映像データにおいて、窓ガラス101に付着した汚れ、曇り、水滴を含む映像を、表示に適していないとして解析する。または、解析部213は、例えば、映像データにおいて、焦点が合っておらずに不鮮明になっている部分を含む映像を、表示に適していないとして解析する。
さらに、解析部213は、映像において表示に適していない被撮影物の占める面積が小さい場合、表示に適していると判定し、映像において表示に適していない被撮影物の占める面積が大きい場合、表示に適していないと判定してもよい。
登録情報生成部214は、解析部213が解析した解析結果に応じて、表示に適していると判定された場合、映像データに基づいて登録用情報を生成する。登録用情報とは、風景情報データベース22に格納するための風景情報23である。
登録情報生成部214は、映像データ取得部211が取得した映像データに、映像データの属性情報を付加して風景情報23を生成する。より詳しくは、登録情報生成部214は、映像データに、映像データの名称と、分類と、提供者情報と、提供者評価情報取得部123が取得した提供者評価情報と、日時情報と、天候情報と、撮影した車両100の位置情報と、撮影向き情報と、車速情報と加速度情報と操舵角情報と車体方位情報とを含む車両運動情報と、車体情報と、車両内形状情報と、カメラの位置情報と、カメラ性能情報と、車線情報との少なくともいずれかを付随情報として付加する。
記憶制御部215は、登録情報生成部214が生成した風景情報23を風景情報データベース22に記憶させる。
図4を参照して、風景情報データベース22について説明する。図4は、第一実施形態に係る風景情報データベースのデータ構成例を示すデータ構成図である。風景情報データベース22は、風景映像を含む風景情報23を記憶する。風景情報23は、映像データ24と、映像データ24の属性情報であるMETAデータ25とを含む。
映像データ24は、映像収集装置10が撮影して収集した風景映像の映像データを記憶する。本実施形態では、映像データ24は、撮影時に風景とともに映りこんだ周囲の映像は除かれているものとする。
METAデータ25は、映像データ24を識別する映像識別ID251と、名称252と、分類253と、提供者情報254と、提供者評価情報255と、表示側評価情報256と、日時情報257と、天候情報258と、撮影位置情報259と、撮影向き情報260と、車両運動情報261と、車体情報262と、車両内形状情報263と、カメラ位置情報264と、カメラ性能情報265と、車線情報266と、障害物センサ情報267と、解析情報268とを含む。
名称252は、風景の名称を記憶する。名称252は、付随情報に含まれる名称を記憶する。または、名称252は、映像管理サーバ装置20が、地図情報に基づいて、映像データ24の風景に対応して取得した名称を記憶する。
分類253は、風景の分類を記憶する。より詳しくは、分類253は、風景が、例えば、名勝、観光地、建造物、街並み、自然の景色のいずれであるかを記憶する。分類253は、付随情報に含まれる分類を記憶する。または、分類253は、映像管理サーバ装置20が、地図情報に基づいて、映像データ24の風景に対応して取得した分類を記憶する。
提供者情報254は、映像データ24の提供者の情報を記憶する。提供者情報254は、例えば、提供者を識別可能な氏名または表示名が記憶される。または、提供者情報254は、例えば、提供者が会社または団体である場合、会社名または団体名が記憶される。提供者情報254は、付随情報に含まれる提供者情報を記憶する。
提供者評価情報255は、当該映像データ24の提供者による評価を例えば数値として記憶する。より詳しくは、提供者評価情報255は、付随情報に含まれる提供者評価情報を記憶する。
表示側評価情報256は、当該映像データ24の表示側における評価を例えば数値として記憶する。より詳しくは、表示側評価情報256は、表示装置30の表示側評価情報取得部337が取得した表示側評価情報を記憶する。
日時情報257は、映像データ24の撮影日時を記憶する。日時情報257は、付随情報に含まれる日時情報を記憶する。
天候情報258は、映像データ24の撮影時の天候を記憶する。天候情報258は、付随情報に含まれる天候情報を記憶する。
撮影位置情報259は、映像データ24の撮影時のGPS(Global Positioning System)情報に含まれる位置情報を記憶する。撮影位置情報259は、付随情報に含まれる撮影位置情報を記憶する。
撮影向き情報260は、映像データ24の撮影時の向きを記憶する。撮影時の向きは、車両100の向きとカメラの向きとで規定される。撮影向き情報260は、例えば、全天周型のカメラで撮影された場合、撮影向きは基準向きを記憶する。撮影向き情報260は、例えば、全天周型以外のカメラで撮影された場合、カメラが向けられていた方角を記憶する。撮影向き情報260は、付随情報に含まれる撮影向き情報を記憶する。
撮影位置情報259と撮影向き情報260とによって、どの位置から、どの方角を向いて撮影された映像データ24であるかが特定される。
車両運動情報261は、映像データ24の撮影時の車両100の車両運動情報を記憶する。車両運動情報261は、付随情報に含まれる車両運動情報を記憶する。
車体情報262は、車体の形状と大きさと車高とを含む車体情報を記憶する。図5を参照して、車体情報に含まれる車高について説明する。図5は、車両の一例を示す側面図である。車体情報262は、車両100の高さd1を記憶する。車体情報262は、付随情報に含まれる車体情報を記憶する。
車両内形状情報263は、映像データ24を撮影した車両100が、どのような車内形状であるかを示す情報である。車両内形状情報263は、映像データ24を撮影した車両100について、窓ガラスの大きさと窓ガラスの位置と窓ガラスの形状と座席の位置とピラーの位置とハンドルの位置とダッシュボードの位置とを含む、車両100の内部の形状の情報を記憶する。このような車両内形状情報263に基づいて、各乗員Mの座席と窓ガラスとの相対的な位置関係、言い換えると、各乗員Mの座席から見た、窓ガラスの大きさと窓ガラスの位置と窓ガラスの形状とを取得可能である。車両内形状情報263は、付随情報に含まれる車両内形状情報を記憶する。
カメラ位置情報264は、映像データ24を撮影したカメラの位置情報を記憶する。カメラ位置情報264は、映像データ24を撮影したカメラの車両100における取り付け位置情報を記憶する。図5、図6を参照して、カメラ位置について説明する。図6は、車両の一例を示す平面図である。カメラ位置は、車両100における第一カメラ11の取り付け位置である。より詳しくは、カメラ位置は、上下方向視における、車両100の中心点Oに対する相対的な位置と、道路からの高さd2とで規定される。カメラ位置が規定されることで、映像データ24の視点が規定される。カメラ位置情報264は、付随情報に含まれるカメラ位置情報を記憶する。
このような車両内形状情報263とカメラ位置情報264とに基づいて、第一カメラ11と風景との間に位置する車両内の各部位、例えば、窓ガラスと座席とピラーとハンドルとダッシュボードとの相対的な位置関係を取得可能である。
カメラ性能情報265は、映像データ24を撮影したカメラの例えば、画角または絞り、シャッタスピードなどの撮影条件との少なくともいずれかを含む性能情報を記憶する。例えば、カメラ性能情報265は、全天周型のカメラの場合、全天周型であることを記憶する。カメラ性能情報265は、付随情報に含まれるカメラ性能情報を記憶する。
車線情報266は、映像データ24の撮影時に走行していた車線の車線情報を記憶する。車線情報266により、撮影位置をより正確に把握可能である。車線によって風景の見え方が異なる場合がある。例えば、車線情報266によって、同じ車線を走行していた車両100から撮影された映像データ24を取得可能になる。例えば、車線情報266によって、自車線では風景がよく見えないとき、隣接車線で撮影された映像データ24を取得可能になる。車線情報266は、付随情報に含まれる車線情報を記憶する。
障害物センサ情報267は、車両100に配置された障害物センサのセンサ情報を記憶する。障害物センサ情報267によって取得したセンサ情報を、解析部213で解析する際に使用することで、映像データ24に障害物が映っているか否かをより正確に解析可能である。
解析情報268は、映像管理サーバ装置20の解析部213の解析結果を記憶する。解析情報268によれば、風景映像として表示することに適しているかいないかを判断することが可能である。
通信部29は、通信ユニットである。通信部29は、映像収集装置10、表示装置30及び外部の装置とデータを送受信可能に接続する。通信部29は、送信部291と、受信部292とを有する。
図7を用いて、表示装置30について説明する。図7は、第一実施形態に係る表示装置の構成例を示すブロック図である。表示装置30は、車両100に搭載されている。表示装置30は、車両100に組み付けられていても、可搬型で車両100に持ち込まれたものであってもよい。表示装置30は、車両100の窓ガラス101に表示用風景映像190を表示する。本実施形態では、表示装置30は、ヘッドアップディスプレイ装置である。本実施形態では、表示装置30は、車両100の窓ガラス101越しに表示用風景映像190の虚像が視認されるように、窓ガラス101に表示用風景映像190を投影する。
表示装置30は、表示用風景映像190を表示する。表示装置30は、例えば、CPUなどで構成された演算処理装置である。表示装置30は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。表示装置30は、第二カメラ31と、投影ユニット32と、制御部(表示制御装置)33と、通信部39とを有する。表示装置30には図示しない内部メモリが含まれ、内部メモリは表示装置30におけるデータの一時記憶などに用いられる。表示装置30は、通信部39を介して映像管理サーバ装置20及び外部の装置とデータを送受信可能である。
第二カメラ31は、表示装置30における処理において車両の周囲の状況を確認するために車両の周囲の映像データを撮影するカメラである。第二カメラ31は、全方位を撮影可能な全天周型のカメラである。第二カメラ31は、車両100の前方に配置され、車両100の周囲を含む全方位を撮影する。より詳しくは、第二カメラ31は、車両100のウィンドシールド101Fの内側の中央上部に配置されている。第二カメラ31は、例えば、車両100の走行時に周囲を撮影する走行時撮影装置、いわゆるドライブレコーダと共用であってもよい。第二カメラ31は、撮影した映像データを表示装置30の車両情報取得部331へ出力する。映像データは、例えば毎秒30フレームの画像から構成される動画像である。
投影ユニット32は、図示しない投影部に投影された表示用風景映像190を、窓ガラス101で反射させ視認者に虚像として認識させる。投影部は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機ELディスプレイなどを含むディスプレイである。投影部は、制御部33の表示制御部336からの映像信号に基づいて表示面に表示用風景映像190を表示する。投影部の表示面に表示された表示用風景映像190の映像表示光は、窓ガラス101に投影される。乗員Mは、窓ガラス101を介して表示用風景映像190の虚像を視認する。
視認される虚像は、乗員Mが窓ガラス101越しに見る風景の大きさと同じ大きさとなるように表示用風景映像190が投影される。視認される虚像は、車両100が走行するにつれて、乗員Mが窓ガラス101越しに見る風景と同様に位置と大きさと形状とが変化するような表示用風景映像190が投影される。
制御部33は、投影ユニット32を制御して、窓ガラス101に表示用風景映像190を投影したり、投影を停止したりする。制御部33は、例えば、CPUなどで構成された演算処理装置である。制御部33は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部33は、車両情報取得部331と、映像データ取得部332と、判断部333と、選択部334と、表示用映像生成部(映像生成部)335と、表示制御部336と、表示側評価情報取得部337とを有する。制御部33には図示しない内部メモリが含まれ、内部メモリは制御部33におけるデータの一時記憶などに用いられる。
内部メモリには、表示装置30が搭載された車両100の外形を規定する各種情報を記憶する。より詳しくは、内部メモリは、車体情報と、車両100の各窓ガラスの大きさと窓ガラスの位置と窓ガラスの形状と座席の位置とピラーの位置とハンドルの位置とダッシュボードの位置とを含む車両内形状情報と、カメラの位置情報と、カメラ性能情報と、撮影向き情報とを記憶する。窓ガラスの位置情報は、窓ガラスの車両100における位置を規定する。窓ガラスの位置情報は、窓ガラスの路面からの高さを規定する高さ情報を含む。窓ガラスの形状情報は、窓ガラスの形状を規定する。窓ガラスの大きさ情報は、窓ガラスの大きさを規定する。
車両情報取得部331は、車両100の現在位置情報と車両運動情報とを含む車両情報を、CANや車両100の状態をセンシングする各種センサなどから取得する。車両情報取得部331は、ナビゲーションシステムから、例えば、名勝、観光地、建造物、街並み、自然の景色の情報を含むナビゲーション情報を取得する。車両情報取得部331は、取得した車両情報を判断部333に出力する。
映像データ取得部332は、第二カメラ31が撮影した映像データを取得する。映像データ取得部332は、取得した映像データを判断部333に出力する。
判断部333は、車両情報取得部331が取得した車両情報に基づいて、車両100の窓ガラス101に表示用風景映像190を表示するかを判断する。より詳しくは、判断部333は、車両100の現在位置情報とナビゲーション情報とに基づいて、窓ガラス101から名勝、観光地、建造物、街並み、自然の景色の風景が見られる地点であると判断される場合、窓ガラス101に表示用風景映像190を表示すると判断する。言い換えると、この場合、判断部333は、風景の見えるポイントに到達したと判断する。または、判断部333は、車両100の現在位置情報とナビゲーション情報と、さらに、第二カメラ31が撮影した映像データに含まれる乗員Mの動作や音声に基づいて、窓ガラス101から名勝、観光地、建造物、街並み、自然の景色の風景を見たい地点であると判断した場合、窓ガラス101に表示用風景映像190を表示すると判断してもよい。乗員Mの動作や音声は、例えば、風景が見える方向を探したり、指を指すような動作、または、「〇〇はどこかな?」、「〇〇だ」のような風景の名称を発する音声などである。さらに、判断部333は、第二カメラ31が撮影した映像データに画像処理を行って、窓ガラス101越しに視認される風景の少なくとも一部分が視認されているとき、窓ガラス101に表示用風景映像190を表示すると判断してもよい。
上記の画像処理では、例えば、風景情報データベース22の映像データ24とパターンマッチングを行って、第二カメラ31が撮影した映像データの被撮影物に風景の映像が含まれているかを判断すればよい。
また、判断部333は、風景を遮る障害物の有無、天候、または、その他の動作から、窓ガラス101越しに風景が見えるか否かを判断する。
例えば、判断部333は、車両100の周囲の障害物を検出するセンサ情報から、障害物に遮られて、窓ガラス101越しに風景が視認できないと判断してもよい。例えば、判断部333は、第二カメラ31が撮影した映像データに画像処理を行って、障害物に遮られて、窓ガラス101越しに風景が視認できないと判断してもよい。
例えば、判断部333は、通信部39を介して外部の装置から取得した天候情報に基づいて、窓ガラス101越しに風景が視認できないと判断してもよい。例えば、判断部333は、窓ガラス101の曇りを検出するセンサ情報から、窓ガラス101越しに風景が視認できないと判断してもよい。例えば、判断部333は、第二カメラ31が撮影した映像データに画像処理を行って、窓ガラス101越しに風景が視認できないと判断してもよい。例えば、判断部333は、第二カメラ31が撮影した映像データに画像処理を行って、
窓ガラス101越しに視認される風景の一部分のみが視認され他の部分が雲で覆われているとき、風景が視認できないと判断してもよい。
または、例えば、判断部333は、第二カメラ31が撮影した映像データに画像処理または音声処理を行って、乗員Mの窓ガラス101を拭く動作や、「見えない」、「残念」、「晴れていたらな」などの音声に基づいて、窓ガラス101越しに風景が視認できないと判断してもよい。
選択部334は、風景映像を含む風景情報を記憶した風景情報データベース22から、車両100の窓ガラス101から視認可能な風景の風景映像であって、適切な風景情報23を選択して取得する。より詳しくは、選択部334は、風景情報データベース22の撮影位置情報259と撮影向き情報260とから、車両100の現在位置において、窓ガラス101から視認可能な風景の風景情報23を選択して取得する。選択部334は、車両100の現在位置から所定範囲の撮影位置情報259の風景情報23を選択して取得してもよい。また、選択部334は、車両100の向きから所定範囲の撮影向き情報260の風景情報23を選択して取得してもよい。これらにより、わずかに位置や向きを変えれば視認可能な風景情報23を選択可能である。
選択部334は、風景情報データベース22の車体情報262とから、車両100の車高において、窓ガラス101から視認可能な風景の風景情報23を選択して取得してもよい。選択部334は、風景情報データベース22の車体情報262とから、車両100の車高より高い位置または低い位置において撮影された風景の風景情報23を選択して取得してもよい。
選択部334は、風景情報データベース22の車線情報266とから、車両100が走行している車線において、窓ガラス101から視認可能な風景の風景情報23を選択して取得してもよい。選択部334は、風景情報データベース22の車線情報266とから、車両100が走行している車線と異なる車線において撮影された風景の風景情報23を選択して取得してもよい。
選択部334は、風景情報データベース22の障害物センサ情報267から、周辺に障害物が存在しない風景情報23を選択して取得することが好ましい。選択部334は、風景情報データベース22の提供者評価情報255と表示側評価情報256との少なくともどちらかが高い風景情報23を選択して取得することが好ましい。
選択部334は、風景情報データベース22の日時情報257から、現在の季節、日付、時間帯と、同じまたは近い季節、日付、時間帯の風景情報23を選択して取得してもよい。言い換えると、選択部334は、現在の季節、日付、時間帯と、同じか近い条件で撮影された風景情報23が取得される。選択部334は、風景情報データベース22の日時情報257から、現在の季節、日付、時間帯と、異なる近い季節、日付、時間帯の風景情報23を選択して取得してもよい。言い換えると、選択部334は、現在の季節、日付、時間帯と、異なる条件で撮影された風景情報23が取得される。例えば、選択部334は、雨の日に、晴れた日の風景情報23を取得可能である。選択部334は、風景情報データベース22の天候情報258から、現在の天候と、異なる天候の風景情報23を選択して取得してもよい。
選択部334は、上記の処理によって、一つの風景情報23を選択してもよいし、複数の風景情報23を選択してもよい。
選択部334は、風景情報データベース22の提供者情報254から、提供者を限定して風景情報23を選択して取得することが可能である。例えば、選択部334は、ユーザの好みの風景情報23を提供する提供者に限定して風景情報23を選択して取得することが可能である。
このようにして、選択部334は、風景情報データベース22から、車両100の窓ガラス101から視認可能で適切な風景映像を選択する。また、選択部334は、複数の風景情報23が選択されたとき、例えば、乗員Mが携帯する電子機器を介した操作、ナビゲーションシステムを介した操作、ドライブレコーダを介した操作、乗員Mのジェスチャー動作による操作、または、音声操作によって表示する風景情報23を選択させてもよい。
図8を用いて、表示用映像生成部335について説明する。図8は、第一実施形態に係る表示装置によって表示された表示用風景映像の一例を示す。表示用映像生成部335は、選択部334が取得した風景情報23の映像データ24を、車両100の窓ガラス101に対応するよう加工して、窓ガラス101から視認可能な風景の表示用風景映像(表示用映像)190を生成する。より詳しくは、表示用映像生成部335は、映像データ24を、内部メモリに記憶した表示車両の車両内形状情報と乗員Mの位置と、映像データ24に対応する撮影車両の車両内形状情報263とカメラ位置情報264とに基づいて、窓ガラス101の近傍に着席している乗員Mが窓ガラス101越しに見る範囲の表示用風景映像190を生成する。
表示用映像生成部335は、映像データ24が全天周型のカメラで撮影されている場合、さらに、撮影向き情報260とカメラ性能情報265とに基づいて、適切な画角を切り出して表示用風景映像190を生成する。
図9、図10を用いて、生成された表示用風景映像190について説明する。図9は、第一実施形態に係る表示装置によって表示された表示用風景映像と窓ガラスの大きさとを示す。図10は、第一実施形態に係る表示装置によって表示された表示用風景映像と窓ガラスの大きさとを示す。図9に示すように、車両内形状情報263で規定される窓ガラスの大きさより表示車両の窓ガラス101が大きい場合、映像データ24の全範囲を表示用風景映像190にする。図10に示すように、車両内形状情報263で規定される窓ガラスの大きさより表示車両の窓ガラス101が小さい場合、映像データ24から、乗員Mが窓ガラス101越しに視認可能な範囲のみを切出した表示用風景映像190を生成する。この場合、生成された表示用風景映像190は、映像データ24の一部分を切り出した映像である。
また、表示用映像生成部335は、映像データ24を、車両情報取得部331が取得した車両運動情報に含まれる表示車両の車速情報と、車両運動情報261に含まれる撮影車両の車速情報とに基づいて、表示車両の走行速度に合わせた表示用風景映像190を生成する。
さらに、表示用映像生成部335は、複数の映像データ24を繋ぎ合わせて、一つの大きな表示用風景映像190を生成してもよい。また、表示用映像生成部335は、複数の映像データ24を連続してスライドショーとして表示する表示用風景映像190を生成してもよい。
表示用映像生成部335は、映像データ24を、表示車両の車体情報と、撮影車両の車体情報262とに基づいて、表示車両の車高から見た風景となるように視点変換処理を行って、表示用風景映像190を生成することが好ましい。表示用映像生成部335は、映像データ24を、表示車両の車両内形状情報と乗員Mの位置と、車両内形状情報263とカメラ位置情報264とから、乗員Mが窓ガラス101越しに見た風景となるように視点変換処理を行って、表示用風景映像190を生成することが好ましい。表示用映像生成部335は、映像データ24を、車両情報取得部331が取得した車両100の車線情報と、車線情報266とに基づいて、車両100の走行車線から乗員Mが見た風景となるように視点変換処理を行って、表示用風景映像190を生成することが好ましい。
表示制御部336は、表示用映像生成部335が生成した表示用風景映像190を投影ユニット32で投影するよう制御する。
表示側評価情報取得部337は、表示された表示用風景映像190に対する乗員Mの評価を表示側評価情報として取得可能である。表示側評価情報は、必須ではなく、乗員Mが評価を行いたいときに行えばよい。例えば、表示側評価情報は、表示装置30が備える図示しない入力装置を介して提供者が入力する。例えば、表示側評価情報は、乗員Mが携帯する電子機器、ナビゲーションシステム、ドライブレコーダのような、通信部39を介して接続された装置における操作を検出して取得してもよい。例えば、表示側評価情報は、図示しないマイクによって、表示用風景映像190が表示された際の乗員Mの音声から取得してもよい。例えば、表示側評価情報は、図示しないセンサまたはカメラなどによって、表示用風景映像190が表示された際の乗員Mの動作を検出して取得してもよい。
通信部39は、通信ユニットである。通信部39は、映像管理サーバ装置20及び外部の装置とデータを送受信可能に接続する。通信部39は、送信部391と、受信部392とを有する。
次に、図11を用いて、映像収集装置10の制御部12における処理の流れについて説明する。図11は、第一実施形態に係る映像収集装置における処理の流れを示すフローチャートである。
映像収集装置10が搭載された車両100が動作している間、映像収集装置10が動作する。映像収集装置10が動作している間、第一カメラ11は動作する。映像収集装置10が搭載された車両100が動作しているとは、例えば、エンジンがONされている、または、電源がONされている、など、車両100の駆動源が動作していることをいう。
制御部12は、映像データ取得部122によって、第一カメラ11が撮影した映像データを取得する(ステップS101)。制御部12は、ステップS102に進む。
制御部12は、提供者評価情報取得部123によって、映像データについて、提供者が評価した提供者評価情報を取得する(ステップS102)。制御部12は、ステップS103に進む。
制御部12は、付随情報生成部124によって、映像データ取得部122が取得した映像データに付随する付随情報を生成する(ステップS103)。制御部12は、ステップS104に進む。
制御部12は、送信制御部125によって、映像データ取得部122が取得した映像データと、付随情報生成部124が生成した付随情報とを通信部19の送信部191を介して、映像管理サーバ装置20に送信する(ステップS104)。制御部12は、ステップS105に進む。
制御部12は、撮影を終了するかを判定する(ステップS105)。制御部12は、例えば、映像収集装置10が搭載された車両100の動作が停止したとき、撮影を終了すると判定して(ステップS105でYes)、処理を終了する。または、撮影を終了する操作がユーザによって実行されると、撮影を終了すると判定して(ステップS105でYes)、処理を終了する。上記以外の場合、撮影を終了しないと判定して(ステップS105でNo)、ステップS101の処理を再度実行する。
次に、図12を用いて、表示装置30の制御部33における処理の流れについて説明する。図12は、第一実施形態に係る表示装置における処理の流れを示すフローチャートである。
表示装置30が搭載された車両100が動作している間、表示装置30が動作する。表示装置30が動作している間、第二カメラ31は動作する。
制御部33は、風景の見えるポイントに到達したか否かを判定する(ステップS111)。より詳しくは、制御部33は、判断部333によって、車両100の現在位置情報とナビゲーション情報とに基づいて、窓ガラス101から名勝、観光地、建造物、街並み、自然の景色の風景が見られる地点であると判断される場合、風景の見えるポイントに到達したと判断して(ステップS111でYes)、ステップS112に進む。制御部33は、判断部333によって、車両100の現在位置情報とナビゲーション情報とに基づいて、窓ガラス101から名勝、観光地、建造物、街並み、自然の景色の風景が見られる地点ではないと判断される場合、風景の見えるポイントに到達していないと判断して(ステップS111でNo)、ステップS111の処理を再度実行する。
制御部33は、車窓に風景が見えないか否かを判断する(ステップS112)。より詳しくは、制御部33は、判断部333によって、窓ガラス101越しに風景が見えないと判断した場合(ステップS112でYes)、ステップS113に進む。制御部33は、判断部333によって、窓ガラス101越しに風景が見えると判断した場合(ステップS112でNo)、ステップS111の処理を再度実行する。
制御部33は、風景映像を選択する(ステップS113)。より詳しくは、制御部33は、選択部334によって、風景情報データベース22から、車両100の窓ガラス101から視認可能な風景の風景映像であって、適切な風景情報23を選択して取得する。制御部33は、ステップS114に進む。
制御部33は、車両100の窓ガラス101に合わせて表示用風景映像190を生成する(ステップS114)。より詳しくは、制御部33は、表示用映像生成部335によって、選択部334が取得した風景情報23の映像データ24を、車両内形状情報263と車両100の窓ガラス101の大きさ情報とに基づいて、窓ガラス101の近傍に着席している乗員Mが窓ガラス101越しに見る範囲の表示用風景映像190を生成する。制御部33は、ステップS115に進む。
制御部33は、生成した表示用風景映像190を表示する(ステップS115)。より詳しくは、制御部33は、表示制御部336によって、生成した表示用風景映像190を投影ユニット32で投影させる。制御部33は、処理を終了する。
例えば、車両内形状情報263で規定される窓ガラスの大きさより車両100の窓ガラス101が大きい場合、図9に示すように、窓ガラス101には、映像データ24の全範囲が、窓ガラス101の一部分に投影ユニット32によって投影される。例えば、車両内形状情報263で規定される窓ガラスの大きさより車両100の窓ガラス101が小さい場合、図10に示すように、窓ガラス101には、映像データ24の一部分を切り出した表示用風景映像190が投影ユニット32によって投影される。
このようにして、表示システム1は、窓ガラス101越しに視認可能な風景の表示用風景映像190を投影ユニット32によって投影する。これにより、例えば、表示システム1は、雨の日に、晴れの日であれば絶景を望める地点を走行する際に、晴れの日の絶景を撮影した表示用風景映像190を、あたかも車窓に見えているかのように表示する。
上述したように、本実施形態は、複数の車両100に搭載された映像収集装置10が、風景の映像データを収集する。本実施形態は、映像管理サーバ装置20が、複数の映像収集装置10が収集した映像データを収集して、風景情報データベース22に風景情報23として登録する。このようにして、本実施形態によれば、複数の車両100に搭載された映像収集装置10が収集した、各地の様々な風景の映像データを、風景情報データベース22に風景情報23として登録することができる。
本実施形態は、表示装置30が、映像管理サーバ装置20によって管理される風景情報データベース22に基づいて、表示させることができる。本実施形態では、窓ガラス101越しに視認可能な風景の表示用風景映像190を投影ユニット32によって窓ガラス101に投影して、その虚像を視認させることができる。本実施形態によれば、雨の日に、晴れの日であれば絶景を望める地点を走行する際に、晴れの日の絶景を撮影した表示用風景映像190を、あたかも車窓に見えているかのように視認させることができる。本実施形態によれば、天気が悪かったり、時間帯がずれていたりしても、車窓にきれいな風景を見られる地点を通過した際に、乗員Mが見たい風景をみせることができる。このように、本実施形態は、車両100の周囲の風景の映像を適切に表示することができる。
本実施形態は、風景情報データベース22の映像データ24の車両内形状情報263と車両100の窓ガラス101の大きさ情報とに基づいて、乗員Mが窓ガラス101越しに見る範囲の表示用風景映像190を生成する。本実施形態によれば、窓ガラスの大きさが違っていても、車両100の窓ガラス101越しに見る風景と同じ大きさで、表示用風景映像190を表示することができる。
[第二実施形態]
図13を参照しながら、本実施形態に係る表示装置30Aについて説明する。図13は、第二実施形態に係る表示装置の構成例を示すブロック図である。表示装置30Aは、基本的な構成は第一実施形態の表示装置30と同様である。以下の説明においては、表示装置30と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態は、表示装置30Aが、第一実施形態における表示装置30の機能に加えて、映像収集装置10の機能を有する点で、第一実施形態と異なる。
表示装置30Aの制御部33Aは、さらに、提供者評価情報取得部340Aと、付随情報生成部341Aと、送信制御部342Aとを有する。また、第二カメラ31は、第一実施形態における第一カメラ11としても機能する。第二カメラ31は、表示装置30Aにおける処理において車両の周囲の状況を確認するために車両の周囲の映像データを撮影するとともに、風景の映像データを収集する。
提供者評価情報取得部340Aは、第一実施形態の映像収集装置10の提供者評価情報取得部123と同様の機能を有する。
付随情報生成部341Aは、第二カメラ31が撮影した映像データとともに、撮影条件情報などの付随情報を登録用情報として生成する。付随情報生成部341Aは、第一実施形態の映像収集装置10の付随情報生成部124と同様の機能を有する。
送信制御部342Aは、第一実施形態の映像収集装置10の送信制御部125と同様の機能を有する。
制御部33Aは、表示装置30Aとして、窓ガラス101越しに視認可能な風景の表示用風景映像190を投影ユニット32によって窓ガラス101に投影して、その虚像を視認させる。また、制御部33Aは、第二カメラ31が撮影した映像データと付随情報とを、送信制御部342Aによって、通信部39の送信部391を介して、映像管理サーバ装置20に送信する。
上述したように、本実施形態によれば、表示装置30Aが第一実施形態における映像収集装置10の機能を兼ねることができる。本実施形態は、1つの表示装置30Aによって、車両100の周囲の風景映像を収集すること、及び、窓ガラス101越しに視認可能な風景の表示用風景映像190を投影ユニット32によって窓ガラス101に投影することを実現することができる。
[第三実施形態]
図14を参照しながら、本実施形態に係る表示装置について説明する。図14は、第三実施形態に係る表示装置における処理の流れを示すフローチャートである。本実施形態は、表示装置が、制御部33における処理が、第一実施形態と異なる。
制御部33は、所定条件を満たす場合に、第一実施形態のフローチャートの処理を実行する。所定条件とは、例えば、同乗者がいること、ナビゲーションシステムの目的地が観光地であること、風景の見えるポイントを通過する頻度が少ないこと、である。
本実施形態では、制御部33は、同乗者がいる場合、第一実施形態のフローチャートの処理を実行するものとして説明する。判断部333は、第二カメラ31が撮影した映像データに含まれる乗員Mの動作や音声に基づいて、同乗者がいるか否かを判断してもよい。または、判断部333は、車両100の座席に配置された重量センサを含む乗員Mの着座状態を検出する各種センサの検出結果に基づいて、同乗者がいるか否かを判断してもよい。
次に、図14を用いて、制御部33における処理の流れについて説明する。ステップS122ないしステップS126の処理は、図12に示すフローチャートのステップS111ないしステップS115と同様の処理を行う。
制御部33は、同乗者がいるか否かを判断する(ステップS121)。より詳しくは、制御部33は、判断部333によって、第二カメラ31が撮影した映像データに含まれる乗員Mの動作や音声に基づいて、同乗者がいると判定された場合(ステップS121でYes)、ステップS122に進む。制御部33は、判断部333によって、第二カメラ31が撮影した映像データに含まれる乗員Mの動作や音声に基づいて、同乗者がいないと判定された場合(ステップS121でNo)、ステップS121の処理を再度実行する。
上述したように、本実施形態は、例えば、同乗者がいる場合など、所定条件を満たす場合に限って、表示用風景映像190を投影ユニット32によって窓ガラス101に表示することができる。
[第四実施形態]
図15、図16を参照しながら、本実施形態に係る表示システム1Bについて説明する。図15は、第四実施形態に係る表示システムの構成例を示す概略図である。図16は、第四実施形態に係る映像収集装置の構成例を示すブロック図である。本実施形態は、表示システム1Bが、映像収集装置10Bが、車両100以外に配置されている点で、第一実施形態と異なる。
映像収集装置10Bは、ナビゲーションシステムを提供する会社、地図情報を提供する会社、本発明のような映像表示サービスを提供する会社、または、観光協会または地方自治体を含む公的な団体の設備200に設置されている。言い換えると、ナビゲーションシステムを提供する会社、地図情報を提供する会社、本発明のような映像表示サービスを提供する会社、または、観光協会または地方自治体を含む公的な団体が映像データを収集する。映像収集装置10Bは、第一カメラ11Bと、制御部12Bと、通信部19とを有する。
内部メモリには、映像収集装置10Bが設置される場所の情報を規定する各種情報を記憶する。より詳しくは、内部メモリは、映像収集装置10Bの位置情報を含む。
第一カメラ11Bは、例えば、映像収集を目的とする専用車両に搭載された車外カメラ、映像収集を目的とする専用定点カメラ、または、現場に持ち込んだビデオカメラである。
制御部12Bは、映像データ取得部122Bと、提供者評価情報取得部123Bと、付随情報生成部124Bと、送信制御部125Bとを有する。
映像データ取得部122Bは、第一カメラ11Bが撮影した映像データを取得する。さらに、映像データ取得部122Bは、取得した映像データを加工した映像コンテンツの映像データを取得してもよい。映像コンテンツは、例えば、観光案内用のコンテンツである
提供者評価情報取得部123Bは、映像データについて、提供者が評価した提供者評価情報を取得する。例えば、提供者評価情報は、映像収集装置10Bが備える図示しない入力装置を介して提供者が入力する。例えば、提供者評価情報は、映像データに画像処理を行って所定の評価基準に基づいて算出してもよい。
付随情報生成部124Bは、映像データ取得部122Bが取得した映像データに関連づけて、撮影位置情報と、撮影向き情報と、日時情報と、天候情報と、提供者情報と、提供者評価情報取得部123Bが取得した提供者評価情報と、映像データの名称との少なくともいずれかを含む、映像データに付随する付随情報を生成する。
送信制御部125Bは、例えば、所定時間間隔で、映像データと付随情報とを映像管理サーバ装置20に送信する。
上述したように、本実施形態によれば、ナビゲーションシステムを提供する会社、地図情報を提供する会社、本発明のような映像表示サービスを提供する会社、または、観光協会または地方自治体を含む公的な団体によって映像データを収集することができる。本実施形態によれば、風景映像の品質を向上することができる。
さて、これまで本発明に係る表示装置30について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。
図示した表示装置30の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
表示装置30の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
投影ユニット32は、投影部に投影された表示映像を、コンバイナで反射させ乗員Mに虚像として認識させるものでもよい。または、投影ユニット32は、窓ガラス101に表示用風景映像190を投影するプロジェクタであってもよい。
上記では、表示映像を虚像として認識させるものとして説明したが、これに限定されず、例えば、表示映像を窓ガラスに貼付けた透過型有機ELシートに表示させてもよい。この場合は、表示制御部336は、投影ユニット32に代わって、透過型有機ELシートに表示映像を表示させるように制御する。
車両100には、映像収集装置10のみが搭載されていてもよいし、表示装置30のみが搭載されていてもよいし、映像収集装置10と表示装置30とが別体または一体として搭載されていてもよい。言い換えると、車両100は、映像収集だけを行ってもよいし、風景映像の表示のみを行ってもよいし、映像収集と風景映像の表示とを行ってもよい。
上記では、風景映像として説明したが、映像に限定されず、風景画像でもよい。車両100と風景との距離が例えば数km程度のように長い場合、車窓に見える実際の風景は走行距離に応じた変化が小さい。これにより、風景画像を表示する場合、制御部33は、車両100と風景との距離が長い場合、同じ風景画像を継続して表示してもよい。車両100と風景との距離が1km程度以下と近い場合、車窓に見える実際の風景は走行距離に応じた変化が大きい。これにより、制御部33は、車両100と風景との距離が短い場合、1枚の風景画像を表示する時間を短くしたり、複数の風景画像を連続してスライドショー
として表示したりしてもよい。
上記では、撮影した映像データは、撮影した画角のまま、風景情報データベース22に記憶されるものとして説明したが、これに限定されない。撮影した映像データは、所定の画角で切り出して風景情報データベース22に記憶してもよい。この場合、切り出し後の映像データの画角を示す画角情報を、カメラ性能情報265に記憶する。
映像収集装置10は、第一実施形態のような車両100に搭載された映像収集装置10と、第四実施形態のような会社や公的な団体に設置された映像収集装置10とが混在していてもよい。この場合、映像管理サーバ装置20の風景情報データベース22には、提供者情報254が、個人のユーザである風景情報23と、会社や公的な団体である風景情報23とが混在して登録される。表示装置30は、選択部334によって、風景情報データベース22の提供者情報254が、例えば、会社や公的な団体である情報に限定して風景情報23を取得することが可能である。これにより、会社や公的な団体のようなプロが提供する映像データを、個人のユーザが走行中に撮影した映像データより優先して選択することができる。または、提供者情報254をユーザに掲示して映像データを選択させることができる。
1 表示システム
10 映像収集装置
11 第一カメラ
12 制御部
121 車両情報取得部
122 映像データ取得部
123 提供者評価情報取得部
124 付随情報生成部
125 送信制御部
20 映像管理サーバ装置
21 制御部
211 映像データ取得部
212 付随情報取得部
213 解析部
214 登録情報生成部
215 記憶制御部
22 風景情報データベース(風景情報記憶部)
23 風景情報
30 表示装置
31 第二カメラ
32 投影ユニット
33 制御部(表示制御装置)
331 車両情報取得部
332 映像データ取得部
333 判断部
334 選択部
335 表示用映像生成部(映像生成部)
336 表示制御部
337 表示側評価情報取得部
100 車両
101 窓ガラス(車室の内周面)
190 表示用風景映像

Claims (5)

  1. 車両の現在位置情報と車両運動情報とを含む車両情報とナビゲーション情報を取得する車両情報取得部と、
    前記車両情報取得部が取得した前記車両情報とナビゲーション情報に基づいて、前記車両の車室の内周面に、前記車両から見た前記車両の周囲の風景の映像を表示するかを判断する判断部と、
    風景の映像を含む風景情報を記憶した風景情報記憶部から、前記車両から視認可能な風景の前記風景情報を選択して取得する選択部と、
    前記選択部が取得した前記風景情報の映像を、前記車室の内周面に対応するよう加工して、表示用映像を生成する映像生成部と、
    前記映像生成部が生成した撮影車両による表示用映像を前記車室の内周面に表示する表示制御部と、
    を備えることを特徴とする表示制御装置。
  2. 前記判断部は、前記車両情報取得部が取得した前記車両の現在位置情報および前記ナビゲーション情報に基づいて、前記車両から視認可能な風景の映像を表示するかを判定する、
    請求項1に記載の表示装置。
  3. 前記判断部は、前記車両情報取得部が取得した前記車両の現在位置情報および前記ナビゲーション情報と、さらに車内カメラで撮影した前記車両の乗員の映像と車内マイクで録音した前記車両の乗員の音声との少なくともどちらかとを含む乗員情報に基づいて、前記車両から視認可能な風景の映像を表示するかを判定する、
    請求項1または2に記載の表示装置。
  4. 前記映像生成部は、前記車両情報取得部が取得した前記車両運動情報に含まれる前記車両の車速情報と、前記車両運動情報に含まれる前記撮影車両の車速情報とに基づいて、前記車両の走行速度に合わせた表示用映像を生成する、
    請求項1または2に記載の表示装置。
  5. 車両の現在位置情報と車両運動情報とを含む車両情報とナビゲーション情報を取得する車両情報取得ステップと、
    前記車両情報取得ステップによって取得した前記車両情報とナビゲーション情報に基づいて、前記車両の車室の内周面に、前記車両から見た前記車両の周囲の風景の映像を表示するかを判断する判断ステップと、
    風景の映像を含む風景情報を記憶した風景情報記憶部から、前記車両から視認可能な風景の前記風景情報を選択して取得する選択ステップと、
    前記選択ステップによって取得した前記風景情報の映像を、前記車両の車室の内周面に対応するよう加工して、表示用映像を生成する映像生成ステップと、
    前記映像生成ステップによって生成した表示用映像を前記車室の内周面に表示する表示制御ステップと、
    を含む表示制御方法。
JP2022143614A 2018-09-26 2022-09-09 表示制御装置、表示制御方法 Pending JP2022184919A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022143614A JP2022184919A (ja) 2018-09-26 2022-09-09 表示制御装置、表示制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018180183A JP2020053795A (ja) 2018-09-26 2018-09-26 表示制御装置、映像管理サーバ装置、表示システム、表示制御方法およびプログラム
JP2022143614A JP2022184919A (ja) 2018-09-26 2022-09-09 表示制御装置、表示制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018180183A Division JP2020053795A (ja) 2018-09-26 2018-09-26 表示制御装置、映像管理サーバ装置、表示システム、表示制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2022184919A true JP2022184919A (ja) 2022-12-13

Family

ID=69994085

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018180183A Pending JP2020053795A (ja) 2018-09-26 2018-09-26 表示制御装置、映像管理サーバ装置、表示システム、表示制御方法およびプログラム
JP2022143614A Pending JP2022184919A (ja) 2018-09-26 2022-09-09 表示制御装置、表示制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018180183A Pending JP2020053795A (ja) 2018-09-26 2018-09-26 表示制御装置、映像管理サーバ装置、表示システム、表示制御方法およびプログラム

Country Status (1)

Country Link
JP (2) JP2020053795A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071797A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 車両及び表示方法
JP7372230B2 (ja) * 2020-12-21 2023-10-31 トヨタ自動車株式会社 表示システム及び表示装置
JP7324791B2 (ja) * 2021-03-09 2023-08-10 本田技研工業株式会社 画像収集システム、及び画像収集方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180270542A1 (en) * 2017-03-17 2018-09-20 Sony Corporation Display Control System and Method to Generate a Virtual Environment in a Vehicle

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020223A (ja) * 2002-06-12 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> 車載用画像表示装置および車載用画像表示方法
JP2004125446A (ja) * 2002-09-30 2004-04-22 Clarion Co Ltd ナビゲーション装置、およびナビゲーションプログラム。
JP4943257B2 (ja) * 2007-07-23 2012-05-30 パイオニア株式会社 情報表示装置、ナビゲーション装置、情報表示方法、情報表示プログラムおよび記録媒体
JP2009093076A (ja) * 2007-10-11 2009-04-30 Mitsubishi Electric Corp 列車内画像表示システム
JP2010164402A (ja) * 2009-01-15 2010-07-29 Panasonic Corp 情報収集装置、移動端末、情報センターおよびナビゲーションシステム
JP5059206B2 (ja) * 2010-03-30 2012-10-24 新日鉄ソリューションズ株式会社 オブジェクト表示システム及びオブジェクト表示方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180270542A1 (en) * 2017-03-17 2018-09-20 Sony Corporation Display Control System and Method to Generate a Virtual Environment in a Vehicle
JP2020515886A (ja) * 2017-03-17 2020-05-28 ソニー株式会社 車両内に仮想環境を生成する表示制御システムおよび方法

Also Published As

Publication number Publication date
JP2020053795A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
JP6988819B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR102470217B1 (ko) 로컬화 및 위치 기반 서비스를 위해 차량에서 캡처된 승객 주의 데이터의 활용
JP2022184919A (ja) 表示制御装置、表示制御方法
JP6311646B2 (ja) 画像処理装置、電子ミラーシステム、及び画像処理方法
JP6900950B2 (ja) 制振制御装置及び制振制御方法、並びに移動体
JP7486564B2 (ja) 困難な運転状態下でのランドマークによる強化されたナビゲーション指示
JPWO2019044536A1 (ja) 情報処理装置、情報処理方法、プログラム、および移動体
CN109155834A (zh) 显示控制装置、显示控制方法、显示装置以及移动体装置
KR102077575B1 (ko) 차량 운전 보조 장치 및 차량
KR20170083798A (ko) 헤드업 디스플레이 장치 및 그 제어방법
US20210158290A1 (en) System for delivery of a shipment at a vehicle
EP4372316A1 (en) Route guidance device and route guidance system based on augmented reality and mixed reality
KR101807788B1 (ko) 차량용 디스플레이 장치 및 그 제어방법
EP4191204A1 (en) Route guidance device and route guidance method thereof
KR101816570B1 (ko) 차량용 디스플레이 장치
JP2014074627A (ja) 車両用ナビゲーションシステム
WO2020008876A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2019117581A (ja) 車両
JP6566067B2 (ja) 画像処理装置
JP2018129832A (ja) 画像処理装置
CN113544757A (zh) 信息处理装置、信息处理方法,以及移动体装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231128