JP2021165766A - 情報処理装置、情報処理方法、プログラム、及び、移動体 - Google Patents

情報処理装置、情報処理方法、プログラム、及び、移動体 Download PDF

Info

Publication number
JP2021165766A
JP2021165766A JP2018126758A JP2018126758A JP2021165766A JP 2021165766 A JP2021165766 A JP 2021165766A JP 2018126758 A JP2018126758 A JP 2018126758A JP 2018126758 A JP2018126758 A JP 2018126758A JP 2021165766 A JP2021165766 A JP 2021165766A
Authority
JP
Japan
Prior art keywords
visual information
display
display method
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018126758A
Other languages
English (en)
Inventor
邦在 鳥居
Kuniari Torii
直之 佐藤
Naoyuki Sato
遼 深澤
Ryo Fukazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018126758A priority Critical patent/JP2021165766A/ja
Priority to PCT/JP2019/024212 priority patent/WO2020008876A1/ja
Publication of JP2021165766A publication Critical patent/JP2021165766A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】複数のユーザの視界に適切に視覚情報を重ね合わせて表示する。
【解決手段】情報処理装置は、複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定する表示方法設定部と、設定された前記表示方法により前記視覚情報の表示を制御する表示制御部とを備え、前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む。本技術は、例えば、ARを用いて視覚情報を表示する車両に適用することができる。
【選択図】図12

Description

本技術は、情報処理装置、情報処理方法、プログラム、及び、移動体に関し、特に、AR(Augmented Reality)を用いた情報処理装置、情報処理方法、プログラム、及び、移動体に関する。
従来、車載用のHUD(ヘッドアップディスプレイ)において、ステレオカメラで対象物までの距離を測定し、対象物と同じ位置に映像(視覚情報)の焦点を合わせることにより、運転者の視点が横にずれても、視覚情報と対象物の位置をずれにくくする技術が提案されている(例えば、非特許文献1参照)。
窪野 薫、外1名、「HUD+車載カメラでAR、安全性向上や新事業の契機に」、日経エレクトロニクス、日本、日経BP社、2017年7月号、p.40-45
しかしながら、非特許文献1では、複数のユーザが同時にHUDを使用する場合は検討されていない。
本技術は、このような状況に鑑みてなされたものであり、複数のユーザの視界に適切に視覚情報を重ね合わせて表示できるようにするものである。
本技術の第1の側面の情報処理装置は、複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定する表示方法設定部と、設定された前記表示方法により前記視覚情報の表示を制御する表示制御部とを備え、前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む。
本技術の第1の側面の情報処理方法は、複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定し、設定された前記表示方法により前記視覚情報の表示を制御し、前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む。
本技術の第1の側面のプログラムは、複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定し、設定された前記表示方法により前記視覚情報の表示を制御し、前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む処理をコンピュータに実行させる。
本技術の第2の側面の移動体は、複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定する表示方法設定部と、前記視覚情報を所定の投射面に投射することにより、現実世界又は前記現実世界の動画像に前記視覚情報を重ね合わせる表示部と、設定された前記表示方法により前記表示部による前記視覚情報の表示を制御する表示制御部とを備え、前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む。
本技術の第1の側面においては、複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法が設定され、設定された前記表示方法により前記視覚情報が表示される。
本技術の第2の側面においては、複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法が設定され、前記視覚情報を所定の投射面に投射することにより、現実世界又は前記現実世界の動画像に前記視覚情報が重ね合わせられ、設定された前記表示方法により前記視覚情報が表示される。
本技術の第1の側面又は第2の側面によれば、複数のユーザの視界に適切に視覚情報を重ね合わせて表示することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術が適用される車両の構成例を示すブロック図である。 視覚情報の視覚特性を説明するための図である。 視覚情報の視覚特性を説明するための図である。 視覚情報の視覚特性を説明するための図である。 投射面から対象物までの距離と投射面上の対象物のサイズとの関係を示す図である。 投射面からユーザまでの距離と投射面上の対象物のサイズとの関係を示す図である。 AR制御処理を説明するためのフローチャートである。 視覚情報設定処理の第1の実施の形態を説明するためのフローチャートである。 ユーザ毎の視覚情報間の距離の例を示している。 人の視野と弁別能力を説明するための図である。 視覚情報の表示例を示す図である。 視覚情報の統合表示と個別表示の切り替え例を示す図である。 視覚情報設定処理の第2の実施の形態を説明するためのフローチャートである。 視覚情報の重なり量及びその変化量に基づいて視覚情報の表示方法を設定する方法を説明するためのグラフである。 対象物の動きが速い場合の視覚情報の表示例を示す図である。 視覚情報の移動速度及びサイズに基づいて視覚情報の表示方法を設定する方法を説明するためのグラフである。 対象物までの距離が近い場合の視覚情報の表示例を示す図である。 対象物までの距離及びその変化量に基づいて視覚情報の表示方法を設定する方法を説明するためのグラフである。 ユーザ間の距離及びその変化量に基づいて視覚情報の表示方法を設定する方法を説明するためのグラフである。 ユーザの対象物の認識の有無に基づいて視覚情報を表示する例を示す図である。 コンピュータの構成例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.変形例
4.その他
<<1.実施の形態>>
まず、図1乃至図12を参照して、本技術の第1の実施の形態について説明する。
<車両11の構成例>
図1は、本技術が適用される車両11の一実施の形態を示すブロック図である。
車両11の種類は、複数のユーザ(搭乗者)が搭乗することが可能であれば、特に限定されない。車両11は、情報処理部21を備える。
情報処理部21は、車両11に搭乗しているユーザの視界に視覚情報を重ね合わせて表示するARを実現する。視覚情報は、ユーザが視認可能な情報であれば特に限定されない。例えば、視覚情報は、画像(動画像、静止画像)、車両11の外の現実世界内の物体を指し示すためのマーキング等からなる。視覚情報が重畳されるユーザの視覚内の背景は、例えば、現実世界、又は、現実世界を撮影した動画像とされる。すなわち、情報処理部21では、ユーザが見ている現実世界、又は、現実世界を撮影した動画像に視覚情報が重ね合わせて表示される。
なお、以下、現実世界と現実世界の動画像を特に区別する必要がない場合、単に現実世界と称する。
情報処理部21は、データ取得部31、車内情報取得部32、車外情報取得部33、出力情報設定部34、出力制御部35、及び、出力部36を備える。
データ取得部31は、車両11の内部及び外部の状況を検出するためのデータを取得する。データ取得部31は、撮影部101、音声検出部102、GNSS(Global Navigation Satellite System)受信機103、センサ部104、及び、通信部105を備える。
撮影部101は、例えば、複数のカメラを備え、車両11の室内及び周囲の撮影を行う。撮影部101は、撮影した画像(以下、撮影画像と称する)のデータを車内情報取得部32及び車外情報取得部33に供給する。
音声検出部102は、例えば、複数のマイクロフォンを備え、車両11の室内及び周囲の音声の検出を行う。音声検出部102は、検出した音声を示す音声データを車内情報取得部32及び車外情報取得部33に供給する。
GNSS受信機103は、GNSS衛星からのGNSS信号を受信し、車内情報取得部32及び車外情報取得部33に供給する。
センサ部104は、各種のセンサを備える。例えば、センサ部104は、車両11の状態等を検出するための各種のセンサを備える。例えば、センサ部104は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、センサ部104は、車両11の外部のデータを検出するための各種のセンサを備える。例えば、センサ部104は、天候又は気象等を検出するための環境センサ、及び、車両11の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、センサ部104は、ユーザの生体情報を検出する生体センサを備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っているユーザ(搭乗者)又はステアリングホイールを握っているユーザ(運転者)の生体情報を検出する。
センサ部104は、検出結果を示すセンサデータを車内情報取得部32及び車外情報取得部33に供給する。
通信部105は、例えば、車内外の様々な機器、サーバ、基地局等と通信を行い、各種のデータ(例えば、地図情報、地域情報等)の送受信を行う。通信部105がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部105が、複数の種類の通信プロトコルをサポートすることも可能である。
車内情報取得部32は、データ取得部31から供給されるデータに基づいて、車両11及び車両11の内部に関する車内情報を取得する。車内情報取得部32は、ユーザ情報検出部111、音声認識部112、及び、車両情報検出部113を備える。
ユーザ情報検出部111は、車内のユーザに関する情報を検出する。例えば、ユーザ情報検出部111は、車内のユーザの位置、ユーザの目の位置、ユーザの視線の方向、ユーザの行動(例えば、運転しているか、ユーザの対象物の認識の有無等)を検出する。ユーザ情報検出部111は、検出結果を示すデータを出力情報設定部34に供給する。
なお、対象物とは、視覚情報の表示対象となる物体等である。例えば、視覚情報が車両11の前方の歩行者を指し示すマーキングである場合、その歩行者が対象物となる。
音声認識部112は、車内のユーザが発した音声の認識処理を行う。音声認識部112は、認識結果を示すデータを出力情報設定部34に供給する。
車両情報検出部113は、車両11に関する情報の検出処理を行う。例えば、車両情報検出部113は、車両11の速度、進行方向、現在位置等を検出する。車両情報検出部113は、検出結果を示すデータを出力情報設定部34に供給する。
車外情報取得部33は、データ取得部31から供給されるデータに基づいて、車両11の外部に関する車外情報を取得する。車外情報取得部33は、物体認識部121及び周辺情報取得部122を備える。
物体認識部121は、車両11の周囲の物体の認識処理を行う。例えば、物体認識部121は、車両11の周囲の歩行者及び自転車等の人の位置、動き、行動等を認識する。例えば、物体認識部121は、認識した人の特定を行う。例えば、物体認識部121は、車両11の周囲の車両、障害物、建物等の物体の位置、動き、特徴(例えば、車種(車両の場合)、大きさ、形、色等)を認識する。物体認識部121は、認識結果を示すデータを出力情報設定部34に供給する。
周辺情報取得部122は、車両11の周辺の情報を取得する。例えば、周辺情報取得部122は、車両11が走行するルートの道路に関する情報、車両11の周囲の建物、施設、店舗、ランドマーク等に関する情報、車両11がいる地域に関する情報等の取得を行う。周辺情報取得部122は、取得した情報を出力情報設定部34に供給する。
出力情報設定部34は、出力部36から出力する出力情報の設定を行う。出力情報設定部34は、視覚情報生成部131、表示方法設定部132、及び、音声情報生成部133を備える。
視覚情報生成部131は、車内情報及び車外情報、並びに、表示方法設定部132により設定された表示方法に基づいて、視覚情報を生成する。視覚情報生成部131は、生成した視覚情報を出力制御部35に供給する。
表示方法設定部132は、車内情報(例えば、ユーザに関する情報)、車外情報(例えば、対象物に関する情報)、及び、視覚情報等に基づいて、視覚情報の表示方法を設定する。例えば、表示方法設定部132は、各ユーザの状態、車両11の動き(例えば、移動速度及び方向)、視覚情報の状態及び内容、視覚情報を投射する投射面、対象物の状態等のうち少なくとも1つに基づいて、視覚情報の表示方法を設定する。
音声情報生成部133は、車内情報及び車外情報に基づいて、音声情報を生成する。音声情報生成部133は、生成した音声情報を出力制御部35に供給する。
出力制御部35は、出力情報の出力を制御する。出力制御部35は、表示制御部141、及び、音声制御部142を備える。
表示制御部141は、表示方法設定部132により設定された表示方法に従って、表示装置151による視覚情報の表示を制御する。
音声制御部142は、スピーカ152による音声の出力を制御する。
出力部36は、出力情報の出力を行う。出力部36は、表示装置151、及び、スピーカ152を備える。
表示装置151は、表示制御部141の制御の下に、ARを用いて、ユーザの視界に視覚情報を重ね合わせて表示する装置である。例えば、表示装置151は、HUDにより構成され、所定の投射面(例えば、車両11のウインドシールド)に視覚情報を投射する。
スピーカ152は、音声制御部142の制御の下に、音声情報に基づく音声を出力する。
<視覚情報及び対象物の視覚特性>
次に、図2乃至図6を参照して、視覚情報及び対象物の視覚特性について簡単に説明する。
図2は、車両11内に横に並んで座っているユーザ201a及びユーザ201bに対して、車両11の前方の歩行者である対象物203に対して視覚情報204を表示する場合の例を示している。
視覚情報204は、例えば、車両11のウインドシールド等からなる投射面202に投射されることにより表示される。また、視覚情報204は、その内容にもよるが、基本的に対象物203の位置に正確に合わせて表示することが重要である。
一方、ユーザ201aとユーザ201bとは座っている位置が異なるため、対象物203に対する視点が異なる。なお、この明細書において、特に断りがない限り、視点とは、ユーザがどこを見ているかを表す視点(ユーザの視線の先となる点)ではなく、ユーザがどこから見ているかを表す視点(ユーザの視線の元となる点)であるものとする。
そのため、ユーザ201a及びユーザ201bの両方から、対象物203に対してほぼ同じ位置に視覚情報204が見えるようにするには、各ユーザに対する視覚情報204が投射面202のそれぞれ異なる位置に投射される必要がある。
例えば、図3のAに示されるように、ユーザ201aから見た投射面202上の対象物203の位置の左隣に視覚情報204aが投射される。これにより、ユーザ201aには、対象物203の左隣に視覚情報204aが見えるようになる。
一方、図3のBに示されるように、ユーザ201bから見た投射面202上の対象物203の位置は、ユーザ201aから見た投射面202上の対象物203の位置と異なる。従って、ユーザ201bには視覚情報204aが対象物203の右側の離れた位置に見え、ユーザ201bが違和感を覚えるおそれがある。
これに対して、例えば、図4のBに示されるように、ユーザ201aから見た投射面202上の対象物203の位置の左隣に、視覚情報204aと同じ内容の視覚情報204bが投射される。これにより、ユーザ201bにも、対象物203の左隣に視覚情報204bが見えるようになる。
しかし、図4のAに示されるように、ユーザ201aには、視覚情報204aに加えて、視覚情報204bが対象物203から左側に離れた位置に見える。従って、視覚情報204aと視覚情報204bとの間の水平方向の間隔が狭くなると、ユーザ201aは、視覚情報204aに加えて、視覚情報204bを不自然な位置に視認することになり、違和感を覚える。
同様に、図4のBに示されるように、ユーザ201bには、視覚情報204bに加えて、視覚情報204aが対象物203から右側に離れた位置に見える。従って、視覚情報204aと視覚情報204bの間の水平方向の間隔が狭くなると、ユーザ201bは、視覚情報204bに加えて、視覚情報204aを不自然な位置に視認することになり、違和感を覚えるおそれがある。
図5は、投射面202から対象物221までの距離と、投射面202上の対象物221のサイズとの関係を示している。例えば、図5のAでは、図5のBと比較して、投射面202から対象物221までの距離が近くなっている。また、図5のA及びBにおいて、ユーザ201aの視点Aから投射面202までの距離、及び、ユーザ201bの視点Bから投射面202までの距離は、全て等しくなっている。
この例に示されるように、投射面202から対象物221までの距離が近くなるほど、投射面202上の対象物221のサイズは大きくなる。一方、投射面202から対象物221までの距離が遠くなるほど、投射面202上の対象物221のサイズは小さくなる。
例えば、図5のAの視点Aから見た対象物221の投射面202上のサイズS1aは、図5のBの視点Aから見た対象物221の投射面202上のサイズS2aより大きくなる。また、図5のAの視点Bから見た対象物221の投射面202上のサイズS1bは、図5のBの視点Bから見た対象物221の投射面202上のサイズS2bより大きくなる。
従って、対象物221が投射面202に近づくほど、視点Aから見た投射面202上の対象物221と、視点Bから見た投射面202上の対象物221との間の水平方向の間隔は狭くなる。従って、対象物221に対する視覚情報をユーザ201aとユーザ201bに対して個別に表示した場合、2つの視覚情報の間隔が狭くなり、2つの視覚情報が投射面202上で重なる可能性が高くなる。
一方、対象物221が投射面202から遠ざかるほど、視点Aから見た投射面202上の対象物221と、視点Bから見た投射面202上の対象物221との間の水平方向の間隔は広くなる。従って、対象物221に対する視覚情報をユーザ201aとユーザ201bに対して個別に表示した場合、2つの視覚情報の間隔が広くなり、2つの視覚情報が投射面202上で重なる可能性が低くなる。
図6は、ユーザの視点から投射面202までの距離と、投射面202上の対象物221のサイズとの関係を示している。この例では、ユーザ201aの視点Aが、ユーザ201bの視点Bより、投射面202に近くなっている。
この例に示されるように、ユーザの視点が投射面202に近づくほど、ユーザから見た投射面202上の対象物221のサイズは小さくなる。一方、ユーザの視点が投射面202から遠ざかるほど、ユーザから見た投射面202上の対象物221のサイズは大きくなる。例えば、視点Aから見た対象物221の投射面202上のサイズS3aは、視点Bから見た対象物221の投射面202上のサイズS3bより小さくなる。
従って、各ユーザの視点が投射面202に近づくほど、各ユーザから見た投射面202上の対象物221のサイズが大きくなり、水平方向の間隔は狭くなる。従って、対象物221に対する視覚情報をユーザ201aとユーザ201bに対して個別に表示した場合、2つの視覚情報の間隔が狭くなり、2つの視覚情報が投射面202上で重なる可能性は高くなる。
一方、各ユーザの視点が投射面202から遠ざかるほど、各ユーザから見た投射面202上の対象物221のサイズが小さくなり、水平方向の間隔は広くなる。従って、対象物221に対する視覚情報をユーザ201aとユーザ201bに対して個別に表示した場合、2つの視覚情報の間隔が広くなり、2つの視覚情報が投射面202上で重なる可能性は低くなる。
車両11の情報処理部21は、後述するように、上記の視覚特性等を考慮して、状況に応じて複数のユーザに対して視覚情報を個別に表示したり、統合して表示したりすることにより、複数のユーザが、違和感を覚えずに視覚情報を確認することができるようにする。
<AR制御処理>
次に、図7のフローチャートを参照して、車両11の情報処理部21により実行されるAR制御処理について説明する。
この処理は、例えば、車両11を起動し、運転を開始するための操作が行われたとき、例えば、車両11のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオンされたとき開始される。また、この処理は、例えば、運転を終了するための操作が行われたとき、例えば、車両11のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオフされたとき終了する。
なお、以下、上述した図2に示されるように、ユーザ201a及びユーザ201bに対して、1種類の視覚情報を投射面202に投射して表示する場合を適宜具体例として挙げながら説明する。
ステップS1において、データ取得部31は、各種データを取得する。
例えば、撮影部101は、車両11の室内及び周囲の撮影を行い、得られた撮影画像のデータを車内情報取得部32及び車外情報取得部33に供給する。
音声検出部102は、車両11の室内及び周囲の音声の検出を行い、検出した音声を示す音声データを車内情報取得部32及び車外情報取得部33に供給する。
GNSS受信機103は、GNSS衛星からのGNSS信号を受信し、車内情報取得部32及び車外情報取得部33に供給する。
センサ部104は、車両11の内部及び外部の状況を検出し、検出結果を示すセンサデータを車内情報取得部32及び車外情報取得部33に供給する。
通信部105は、車内外の様々な機器、サーバ、基地局等と通信を行い、地図情報及び地域情報等の各種のデータを受信し、受信したデータを車内情報取得部32及び車外情報取得部33に供給する。
ステップS2において、車内情報取得部32は、車内情報を取得する。
例えば、ユーザ情報検出部111は、車内のユーザの位置、ユーザの目の位置、ユーザの視線の方向、ユーザの行動、ユーザの対象物の認識の有無等の車内のユーザに関する情報を検出する。ユーザ情報検出部111は、検出結果を示すデータを出力情報設定部34に供給する。
音声認識部112は、車内のユーザが発した音声の認識処理を行い、認識結果を示すデータを出力情報設定部34に供給する。
車両情報検出部113は、車両11の速度、進行方向、現在位置等の車両11に関する情報の検出処理を行い、検出結果を示すデータを出力情報設定部34に供給する。
ステップS3において、車外情報取得部33は、車外情報を取得する。
例えば、物体認識部121は、車両11の周囲の歩行者、自転車、車両、障害物、建物等の物体の認識処理を行い、認識結果を示すデータを出力情報設定部34に供給する。
周辺情報取得部122は、車両11が走行するルートの道路に関する情報、車両11の周囲の建物、施設、店舗、ランドマーク等に関する情報、車両11がいる地域に関する情報等の車両11の周辺の情報を取得し、取得した情報を出力情報設定部34に供給する。
ステップS4において、出力情報設定部34は、視覚情報設定処理を行う。ここで、図8のフローチャートを参照して、視覚情報設定処理の詳細について説明する。
ステップS101において、視覚情報生成部131は、視覚情報の内容を設定する。例えば、視覚情報生成部131は、車内情報及び車外情報に基づいて、ユーザの視界に重ね合わせて表示する視覚情報の内容(例えば、視覚情報の種類、表示する画像、テキスト等)を設定する。
ステップS102において、表示方法設定部132は、視覚情報の位置が重要であるか否かを判定する。例えば、表示方法設定部132は、視覚情報の表示対象となる対象物が存在する場合、例えば、視覚情報が対象物の関連情報、マーキング等である場合、視覚情報の位置が重要であると判定し、処理はステップS103に進む。
ステップS103において、表示方法設定部132は、視覚情報を個別表示する場合の表示位置を計算する。
例えば、表示方法設定部132は、車内情報及び車外情報に基づいて、各ユーザの視点から見た対象物の投射面上の位置及びサイズを計算する。そして、表示方法設定部132は、各ユーザの視点から見た対象物の投射面上の位置及びサイズ、並びに、視覚情報の内容等に基づいて、各ユーザに対して適切な視覚情報の投射面上の表示位置を計算する。
ここで、各ユーザに対して適切な表示位置とは、例えば、各ユーザが視覚情報を違和感なく視認できる表示位置である。また、視覚情報の表示位置は、例えば、投射面上において視覚情報が表示される領域の位置とされ、視覚情報の表示サイズや形の概念も含む。
ステップS104において、表示方法設定部132は、視覚情報が干渉するか否かを判定する。
例えば、表示方法設定部132は、各ユーザに対する視覚情報間の投射面上の距離を計算する。
図9は、視覚情報間の距離の例を示している。図9は、対象物301を囲むマーキングを視覚情報として表示する場合の例を示している。視覚情報302aは、ユーザ201aに対して表示される視覚情報であり、視覚情報302bは、ユーザ201bに対して表示される視覚情報である。
また、図9のAは、ユーザ201aの視点Aから見た対象物301、視覚情報302a、及び、視覚情報302bの投射面202上の位置を示している。図9のBは、ユーザ201bの視点Bから見た対象物301、視覚情報302a、及び、視覚情報302bの投射面202上の位置を示している。図9のAでは、対象物301が視覚情報302aにより囲まれ、図9のBでは、対象物301が視覚情報302bにより囲まれている。
表示方法設定部132は、例えば、投射面202上の視覚情報302aと視覚情報302bとの間の水平方向の距離(すなわち、両者の間隔)dを計算する。
なお、距離dは、視覚情報302aと視覚情報302bが投射面202上で重なる場合、負の値となる。また、視覚情報302aと視覚情報302bが重なる部分の水平方向の幅(以下、重なり量と称する)が大きくなるほど、距離dの値は小さくなる(負の値の距離dの絶対値が大きくなる)。
そして、表示方法設定部132は、距離dが所定の閾値以上である場合、視覚情報が干渉しないと判定し、処理はステップS105に進む。
ここで、図10を参照して、閾値の設定方法の一例について説明する。
図10は、人を上方から見た模式図であり、人が正面方向を見ている場合の視野と弁別能力を示している。
範囲A1は、人が文字や数字等を認識可能な範囲である。範囲A1は、例えば、人の視野の中心C1(以下、視野中心C1と称する)を中心にして左右にそれぞれ5度から10度の範囲となる。
範囲A2は、人がシンボル(例えば、マーキングやマーク等)を認識可能な範囲である。範囲A2は、例えば、視野中心C1を中心にして左右にそれぞれ5度から30度の範囲となる。
範囲A3は、色、輝度が変化する場合に人が色の弁別が可能な範囲である。範囲A3は、例えば、視野中心C1を中心にして左右にそれぞれ30度から60度の範囲となる。
これに対して、閾値は、例えば、範囲A2を基準にして設定される。例えば、ユーザが投射面から80cm離れた場所に座っている場合、範囲A2の投影面上のサイズは、視野中心C1を中心にして左右にそれぞれ約7cmから46cmの範囲となる。この場合、例えば、範囲A2を最も狭く見積もった場合、閾値は7cmに設定される。一方、例えば、範囲A2を最も広く見積もった場合、閾値は46cmに設定される。
例えば、図9の例において、距離dが閾値以上である場合、ユーザ201aは、視覚情報302aを注視した状態において、周辺視野を用いて視覚情報302bを認識することになると想定される。従って、ユーザ201aにとって視覚情報302bが邪魔になる度合いが低くなり、視覚情報302aと視覚情報302bは干渉しないと考えられる。
一方、距離dが閾値未満である場合、ユーザ201aは、視覚情報302aを注視した状態において、中心視野を用いて視覚情報302bを認識することになると想定される。従って、ユーザ201aにとって、視覚情報302bが邪魔になる度合いが高くなり、視覚情報302aと視覚情報302bが干渉すると考えられる。
これは、ユーザ201bにとっても同様である。
ステップS105において、表示方法設定部132は、視覚情報を個別表示する位置を設定する。すなわち、表示方法設定部132は、ステップS103の処理で計算した表示位置を、各ユーザに対する視覚情報の表示位置に設定する。
その後、処理はステップS108に進む。
一方、ステップS104において、表示方法設定部132は、視覚情報間の距離が所定の閾値未満である場合(投射面上で視覚情報が重なる場合も含む)、視覚情報が干渉すると判定し、処理はステップS106に進む。
ステップS106において、表示方法設定部132は、視覚情報を統合表示する位置を設定する。例えば、表示方法設定部132は、各ユーザから見た対象物の投影面上の位置及びサイズ、並びに、視覚情報の内容等に基づいて、視覚情報を1つのみ表示する場合に、各ユーザに対して可能な限り適切となる投影面上の表示位置を計算する。表示方法設定部132は、計算した表示位置を、各ユーザに対して共通に表示する視覚情報の表示位置に設定する。
その後、処理はステップS108に進む。
一方、ステップS102において、例えば、表示方法設定部132は、視覚情報の表示対象となる対象物が存在しない場合、例えば、視覚情報が対象物とは無関係の時刻表示等である場合、視覚情報の表示位置が重要でないと判定し、処理はステップS107に進む。
ステップS107において、表示方法設定部132は、視覚情報を共通表示する場合の表示位置を設定する。例えば、表示方法設定部132は、所定の位置(例えば、投影面の隅等)に視覚情報の表示位置を設定する。或いは、例えば、表示方法設定部132は、各ユーザの視界や行動を阻害しない位置を計算し、計算した位置に視覚情報の表示位置を設定する。
その後、処理はステップS108に進む。
ステップS108において、視覚情報生成部131は、視覚情報を生成する。例えば、視覚情報生成部131は、視覚情報の内容、及び、視覚情報の表示位置等に基づいて、視覚情報の表示サイズ、レイアウト、デザイン等を設定する。そして、視覚情報生成部131は、設定した内容に従って、視覚情報を生成する。このとき、個別表示を行う場合、視覚情報生成部131は、各ユーザに対する視覚情報を生成する。
視覚情報生成部131は、生成した視覚情報及び表示位置を示すデータを出力制御部35に供給する。
なお、例えば、視覚情報生成部131が、視覚情報を生成せずに、視覚情報の内容、表示サイズ、レイアウト、デザイン等を示すデータを出力制御部35に供給し、表示制御部141が、そのデータに基づいて、視覚情報を生成するようにしてもよい
その後、視覚情報設定処理は終了する。
図7に戻り、ステップS5において、表示装置151は、表示制御部141の制御の下に、視覚情報を表示する。例えば、表示制御部141は、設定された位置に表示されるようにフレームバッファ(不図示)に視覚情報を設定する(レンダリングする)。表示装置151は、フレームバッファに設定された視覚情報を投射面に投射する。これにより、表示方法設定部132により設定された投影面上の位置に視覚情報が表示される。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
以上のようにして、状況に応じて、視覚情報の個別表示、統合表示、及び、共通表示が使い分けられ、複数のユーザの視界に適切に視覚情報が重ね合わせて表示される。その結果、視覚情報の視認性が向上するとともに、ユーザが視覚情報に対して違和感を覚えるおそれが低減する。
例えば、図11は、対象物321に対するマーキングを視覚情報として表示する場合の例を示している。
図11のA1及びB1は、ユーザ201aに対する視覚情報322a及びユーザ201bに対する視覚情報322bを個別表示する場合の例を示している。図11のA1は、ユーザ201aの視点Aから見た投射面202の様子を模式的に示し、図11のB1は、ユーザ201bの視点Bから見た投射面202の様子を示模式的にしている。
この例では、視覚情報322aと視覚情報322bが重なっており、互いに干渉している。従って、例えば、視覚情報322a及び視覚情報322bの視認性の低下や、ユーザ201a及びユーザ201bの違和感が発生する。
これに対して、図11のA2及びB2に示されるように、ユーザ201a及びユーザ201bに対する視覚情報が統合され、視覚情報323が表示される。図11のA2は、ユーザ201aの視点Aから見た投射面202の様子を模式的に示し、図11のB2は、ユーザ201bの視点Bから見た投射面202の様子を模式的に示している。
視覚情報323は、視覚情報322a及び視覚情報322bと比較して、水平方向に広がっている。これにより、ユーザ201a及びユーザ201bのどちらから見ても、視覚情報323内に対象物321が含まれるようになる。また、表示される視覚情報の数が削減される。
その結果、ユーザ201a及びユーザ201bのどちらに対しても、視覚情報の視認性が向上し、ユーザ201a及びユーザ201bが対象物321を確実に認識できるようになる。
図12は、統合表示と個別表示の切り替え例を示している。この例では、対象物341に対するマーキングを視覚情報として表示する場合の例を示している。図12のA1乃至A4は、ユーザ201aの視点Aから見た投射面202の様子を模式的に示し、図12のB1乃至B4は、ユーザ201bの視点Bから見た投射面202の様子を模式的に示している。
例えば、対象物341が投射面202から遠ざかるにつれて、ユーザ201a及びユーザ201bから見た対象物341の投射面202上の位置は、図12のA1及びB1からA4及びB4のように変化する。
具体的には、図12のA1、A2、B1、及び、B2に示されるように、両者の位置の差が所定の閾値未満の場合、視覚情報342が統合表示され、両者の位置の差が広がるにつれて、視覚情報342の水平方向の幅が広げられる。これにより、ユーザ201a及びユーザ201bのいずれから見ても、対象物341が視覚情報342内に含まれるようになる。
そして、図12のA3、A4、B3、及び、B4に示されるように、両者の位置の差が所定の閾値以上になると、ユーザ201a用の視覚情報343a及びユーザ201b用の視覚情報343bが個別に表示される。また、両者の位置の差が広がるにつれて、視覚情報343aと視覚情報343bの水平方向の間隔が広げられる。これにより、ユーザ201aから見て、対象物341が視覚情報343a内に含まれ、ユーザ201bから見て、対象物341が視覚情報343b内に含まれるようになる。
一方、逆に対象物341が投射面202に近づくにつれて、ユーザ201aから見た対象物341の投射面202上の位置、及び、ユーザ201bから見た対象物341の投射面202上の位置は、図12のA4及びB4からA1及びB1のように変化する。
具体的には、図12のA3、A4、B3、及び、B4に示されるように、両者の位置の差が所定の閾値以上の場合、ユーザ201a用の視覚情報343a及びユーザ201b用の視覚情報343bが個別に表示される。また、両者の位置の差が狭まるにつれて、視覚情報343aと視覚情報343bの水平方向の間隔が狭められる。これにより、ユーザ201aから見て、対象物341が視覚情報343a内に含まれ、ユーザ201bから見て、対象物341が視覚情報343b内に含まれるようになる。
そして、図12のA1、A2、B1、及び、B2に示されるように、両者の位置の差が所定の閾値未満になると、視覚情報342が統合表示され、両者の位置の差が狭まるにつれて、視覚情報342の水平方向の幅が狭められる。これにより、ユーザ201a及びユーザ201bのいずれから見ても、対象物341が視覚情報342内に含まれるようになる。
なお、例えば、統合表示から個別表示に切り替わる際に、統合表示されている視覚情報と個別表示する視覚情報がクロスフェードされるようにしてもよい。すなわち、統合表示されている視覚情報がフェードアウトされるとともに、個別表示する視覚情報がフェードインされるようにしてもよい。逆に、例えば、個別表示から統合表示に切り替わる際に、個別表示されている視覚情報と統合表示する視覚情報がクロスフェードされるようにしてもよい。すなわち、個別表示されている視覚情報がフェードアウトされるとともに、統合表示する視覚情報がフェードインされるようにしてもよい。これにより、ユーザに違和感を与えずに、視覚情報の表示方法を切り替えることができる。
<<2.第2の実施の形態>>
次に、図13乃至図19を参照して、本技術の第2の実施の形態について説明する。
第2の実施の形態は、第1の実施の形態と比較して、図7のステップS4の視覚情報設定処理が異なる。より具体的には、個別表示と統合表示の選択方法が異なる。
ここで、図13のフローチャートを参照して、視覚情報設定処理の第2の実施の形態について説明する。
具体的には、ステップS201において、図8のステップS101の処理と同様に、視覚情報の内容が設定される。
ステップS202において、図8のステップS102の処理と同様に、視覚情報の表示位置が重要であるか否かが判定される。視覚情報の表示位置が重要であると判定された場合、処理はステップS203に進む。
ステップS203において、図8のステップS103の処理と同様に、視覚情報を個別表示する場合の表示位置が計算される。
ステップS204において、表示方法設定部132は、視覚情報の重なり量を計算する。具体的には、表示方法設定部132は、ステップS203の処理で計算した視覚情報の表示位置に基づいて、投射面における視覚情報の重なり量を計算する。
視覚情報の重なり量は、上述した、視覚情報間の水平方向の間隔と逆の概念である。例えば、視覚情報の重なり量は、2つの視覚情報が重なっている部分の水平方向の幅の最大値により表される。従って、視覚情報が重なっている部分の水平方向の幅が大きくなるほど、重なり量は大きくなり、視覚情報が重なっている部分の水平方向の幅が小さくなるほど、重なり量は小さくなる。一方、視覚情報が重なっていない場合、重なり量は負の値になる。そして、2つの視覚情報の間の水平方向の間隔が広がるほど、重なり量は小さくなる(負の値の重なり量の絶対値が大きくなる)。
ステップS205において、表示方法設定部132は、視覚情報の移動速度を計算する。例えば、表示方法設定部132は、過去の視覚情報の表示位置の履歴、及び、ステップS203の処理で計算した視覚情報の表示位置に基づいて、投射面における各視覚情報の移動速度を計算する。
ステップS206において、表示方法設定部132は、対象物までの距離を計算する。例えば、表示方法設定部132は、物体認識部121により検出された対象物の位置に基づいて、投射面から対象物までの距離を計算する。
ステップS207において、表示方法設定部132は、ユーザ間の距離を計算する。例えば、表示方法設定部132は、ユーザ情報検出部111により検出された車内の各ユーザの位置に基づいて、投射面に対して水平な方向における各ユーザ間の距離を計算する。
ステップS208において、表示方法設定部132は、視覚情報を統合表示するか否かを判定する。
ここで、図14乃至図19を参照して、ステップS208の処理の具体例について説明する。
例えば、ユーザ毎の視覚情報の重なり量に基づいて、視覚情報の表示方法が選択される。
図14は、ユーザ毎の視覚情報の重なり量に基づいて、視覚情報の表示方法を選択する場合の判定基準の例を示すグラフである。横軸は重なり量の変化量(単位はcm/sec)を示している。横軸の重なり量の変化量が0となる点より右の範囲では、右に行くほど重なり量が増加する方向(或いは、2つの視覚情報が近づく方向)への変化量が大きくなる。横軸の重なり量の変化量が0となる点より左の範囲では、左に行くほど重なり量が減少する方向(或いは、2つの視覚情報が離れる方向)への変化量が大きくなる。縦軸は重なり量(単位はcm)を示している。縦軸の重なり量が0となる点より上の範囲では、上に行くほど重なり量が大きくなり、縦軸の重なり量が0となる点より下の範囲では、下に行くほど2つの視覚情報の間の間隔が大きくなる。
そして、例えば、視覚情報の重なり量とその変化量との関係を示す曲線C11より右斜め上の範囲において、統合表示が選択され、曲線C11より左斜め下の範囲において、個別表示が選択される。
例えば、図14の矢印A11で示される領域付近では、現時点では各ユーザの視覚情報が重なるとしても、重なり量が減少する方向に大きく変化しており、すぐに視覚情報が離れると予想される。そこで、例えば、各ユーザの視覚情報が重なっても、個別表示が選択される。
逆に、例えば、図14の矢印A12で示される領域付近では、現時点では各ユーザの視覚情報が重ならなくても、視覚情報が重なる方向(視覚情報が近づく方向)に大きく変化しており、すぐに視覚情報が重なると予想される。そこで、例えば、各ユーザの視覚情報が重ならなくても、統合表示が選択される。
また、例えば、投射面における視覚情報の移動速度に基づいて、視覚情報の表示方法が選択されるようにしてもよい。
例えば、視覚情報の動きが速くなると、視覚情報の表示位置の厳密さは意味をなさなくなる。また、視覚情報を対象物に追従させて速く動かすと、残像により視覚情報は実際より大きく見えるため、視覚情報を個別表示した場合、視覚情報が干渉しやすくなる。そこで、例えば、視覚情報の移動速度が所定の閾値以上の場合、統合表示が選択され、視覚情報の移動速度が所定の閾値未満の場合、個別表示が選択される。
例えば、図15は、対象物301が自転車であり、対象物301に対するマーキングを視覚情報302として表示する場合の例を示している。図16のA1は、ユーザ201aの視点Aから見た投射面202の様子を模式的に示し、図16のBは、ユーザ201bの視点Bから見た投射面202の様子を模式的に示している。
対象物301が投射面202上を高速に移動している場合、視覚情報の表示位置の厳密性はあまり重要でなくなる。逆に、視覚情報の表示位置を厳密にすると、視覚情報が投射面202上を高速に移動するようになり、視覚情報の視認性が低下するおそれがある。従って、図15に示されるように、視点A及び視点Bのいずれからも対象物301が含まれるように、視覚情報302の位置及びサイズが設定される。
さらに、例えば、投射面における視覚情報のサイズに基づいて、視覚情報の表示方法が選択されるようにしてもよい。
例えば、視覚情報のサイズが大きくなるほど、ユーザ毎の視覚情報が重なる可能性が高くなり、視覚情報のサイズが小さくなるほど、ユーザ毎の視覚情報が重なる可能性が低くなる。そこで、例えば、視覚情報のサイズ(例えば、視覚情報の水平方向の幅)が所定の閾値以上の場合、統合表示が選択され、視覚情報のサイズが所定の閾値未満の場合、個別表示が選択される。
また、例えば、投射面における視覚情報の移動速度とサイズとの組合せに基づいて、視覚情報の表示方法が選択されるようにしてもよい。
図16は、投射面における視覚情報の移動速度とサイズとの組合せに基づいて、視覚情報の表示方法を選択する場合の判定基準の例を示すグラフである。横軸は、投射面における視覚情報の移動速度(単位はcm/sec)を示している。縦軸は、投射面における視覚情報のサイズ、より具体的には、投射面における視覚情報の水平方向の幅(単位はcm)を示している。
そして、例えば、視覚情報の移動速度と視覚情報のサイズとの関係を示す曲線C12より右斜め上の範囲において、統合表示が選択され、曲線C12より左斜め下の範囲において、個別表示が選択される。
例えば、図16の矢印A13で示される領域付近では、視覚情報の動きが速く、視覚情報の表示位置の重要性が低下するため、統合表示が選択される。また、例えば、図16の矢印A14で示される領域付近では、視覚情報が大きく、視覚情報が重なる可能性が高いため、統合表示が選択される。
一方、例えば、図16の矢印A15で示される領域付近では、視覚情報の移動速度及びサイズとも小さく、視覚情報の表示位置の重要性が上昇し、かつ、視覚情報が重なる可能性が低下するため、個別表示が選択される。
また、例えば、投射面から対象物までの距離(以下、単に対象物までの距離と称する)に基づいて、表示方法が選択されるようにしてもよい。
図5を参照して上述したように、対象物までの距離が遠くなるほど、投射面上の対象物のサイズは小さくなり、各ユーザの視点間の投射面上の対象物の位置の差が大きくなる。そのため、ユーザ毎の視覚情報が重なる可能性が低くなる。また、投射面上の対象物のサイズが小さくなると、視覚情報の表示位置の重要性が上昇し、表示位置の厳密さが要求されるようになる。
一方、対象物までの距離が近くなるほど、投射面上の対象物のサイズは大きくなり、各ユーザの視点間の投射面上の対象物の位置の差が小さくなる。そのため、ユーザ毎の視覚情報が重なる可能性が高くなる。また、投射面上の対象物のサイズが大きくなると、視覚情報の表示位置の重要性が低下し、表示位置の厳密さが要求されなくなる。
そこで、例えば、対象物までの距離が所定の閾値未満の場合、統合表示が選択され、対象部までの距離が所定の閾値以上の場合、個別表示が選択される。
例えば、図17は、対象物321が店舗であり、対象物321に関する情報(例えば、広告)を視覚情報として表示する場合の例を示している。図17のAは、ユーザ201aに対する視覚情報322a及びユーザ201aに対する視覚情報322bを個別表示した場合の例を示している。図17のBは、ユーザ201a及びユーザ201bに対する視覚情報323を統合表示した場合の例を示している。
図17に示されるように、対象物321までの距離が近く、投射面202上の対象物321のサイズが大きい場合、ユーザの視点によって視覚情報の表示位置が多少ずれても、視認性が低下したり、ユーザが他の対象物を誤認識したりする可能性は低い。そこで、図17のBのように、視覚情報323が統合表示される。
なお、例えば、対象物までの距離の代わりに、投射面上の対象物のサイズに基づいて、表示方法が選択されるようにしてもよい。例えば、対象物のサイズが所定の閾値未満の場合、統合表示が選択され、対象部のサイズが所定の閾値以上の場合、個別表示が選択される。
また、例えば、対象物までの距離とその変化量との組合せに基づいて、視覚情報の表示方法が選択されるようにしてもよい。
図18は、対象物までの距離とその変化量との組合せに基づいて、視覚情報の表示方法を選択する場合の判定基準の例を示すグラフである。横軸は、対象物までの距離の変化量(単位はm/sec)を示している。横軸の対象物までの距離の変化量が0となる点より右の範囲では、右に行くほど距離が離れる方向への変化量が大きくなる。横軸の距離の変化量が0となる点より左の範囲では、左に行くほど距離が近づく方向への変化量が大きくなる。縦軸は、対象物までの距離(単位はm)を示している。
そして、例えば、対象物までの距離と対象物までの距離の変化量との関係を示す曲線C13より右斜め上の範囲において、個別表示が選択され、曲線C13より左斜め下の範囲において、統合表示が選択される。
例えば、図18の矢印A16で示される領域付近では、現時点で対象物までの距離が遠いため各ユーザの視覚情報が重ならなくても、対象物までの距離が近づく方向に大きく変化しており、すぐに視覚情報が重なると予想される。そこで、例えば、各ユーザの視覚情報が重ならなくても、統合表示が選択される。
一方、例えば、図18の矢印A17で示される領域付近では、現時点で対象物までの距離が近いため各ユーザの視覚情報が重なるとしても、対象物までの距離が離れる方向に大きく変化しており、すぐに視覚情報が離れると予想される。そこで、例えば、各ユーザの視覚情報が重なっても、個別表示が選択される。
さらに、例えば、投射面に対して水平な方向におけるユーザ間の距離(以下、単にユーザ間の距離と称する)に基づいて、表示方法が選択されるようにしてもよい。
例えば、ユーザ間の距離が離れるほど、ユーザ間の視点が離れるため、各ユーザに対する投射面上の対象物の位置が離れる。従って、各ユーザに対して個別表示される視覚情報の位置が離れ、視覚情報が重なる可能性が低くなる。一方、ユーザ間の距離が近づくほど、ユーザ間の視点が近づくため、各ユーザに対する投射面上の対象物の位置が近づく。従って、各ユーザに対して個別表示される視覚情報の位置が近くなり、視覚情報が重なる可能性が高くなる。
そこで、例えば、ユーザ間の距離が所定の閾値未満の場合、統合表示が選択され、ユーザ間の距離が所定の閾値以上の場合、個別表示が選択される。
また、例えば、ユーザ間の距離とその変化量との組合せに基づいて、視覚情報の表示方法が選択されるようにしてもよい。
図19は、ユーザ間の距離とその変化量との組合せに基づいて、視覚情報の表示方法を選択する場合の判定基準の例を示すグラフである。横軸は、ユーザ間の距離の変化量(単位はcm/sec)を示している。横軸のユーザ間の距離の変化量が0となる点より右の範囲では、右に行くほど距離が離れる方向への変化量が大きくなる。横軸の距離の変化量が0となる点より左の範囲では、左に行くほど距離が近づく方向への変化量が大きくなる。縦軸は、ユーザ間の距離(単位はcm)を示している。
そして、例えば、ユーザ間の距離とその変化量との関係を示す曲線C14より右斜め上の範囲において、個別表示が選択され、曲線C14より左斜め下の範囲において、統合表示が選択される。
例えば、図19の矢印A18で示される領域付近では、現時点でユーザ間の距離が遠いため視覚情報が重ならなくても、ユーザ間の距離が近づく方向に大きく変化しており、すぐに視覚情報が重なると予想される。そこで、例えば、各ユーザの視覚情報が重ならなくても、統合表示が選択される。
一方、例えば、図19の矢印A19で示される領域付近では、現時点でユーザ間の距離が近いため視覚情報が重なるとしても、ユーザ間の距離が遠ざかる方向に大きく変化しており、すぐに視覚情報が離れると予想される。そこで、例えば、各ユーザの視覚情報が重なっても、個別表示が選択される。
なお、以上の判定方法は、その一例であり、他の判定方法を用いてもよい。また、複数の判定方法を組み合わせて、視覚情報の表示方法を選択するようにしてもよい。
図13に戻り、ステップS208において、表示方法設定部132が、視覚情報の表示方法を選択した結果、視覚情報を統合しないと判定した場合、処理はステップS209に進む。
ステップS209において、図8のステップS105の処理と同様に、視覚情報を個別表示する位置が設定される。
その後、処理はステップS212に進む。
一方、ステップS208において、視覚情報を統合すると判定された場合、処理はステップS210に進む。
ステップS210において、図8のステップS106の処理と同様に、視覚情報を統合表示する位置が設定される。
その後、処理はステップS212に進む。
一方、ステップS202において、視覚情報の表示位置が重要でないと判定された場合、処理はステップS211に進む。
ステップS211において、図8のステップS107の処理と同様に、視覚情報を共通表示する位置が設定される。
その後、処理はステップS212に進む。
ステップS212において、図8のステップS108の処理と同様に、視覚情報が生成される。
その後、視覚情報設定処理は終了する。
以上のようにして、各ユーザに対する視覚情報の表示位置をより適切に設定することができる。
<<3.変形例>>
以下、上述した本技術の実施の形態の変形例について説明する。
例えば、ユーザの対象物の認識の有無に基づいて、視覚情報の表示方法が変更されるようにしてもよい。また、例えば、1つの対象物に対して複数の種類の視覚情報を表示する場合に、視覚情報毎に表示方法が異なるようにしてもよい。
図20は、対象物401が有名人である場合に、マーキング及びラベルの2種類の視覚情報を対象物401に対して表示するときの例を示している。
図20のA1及びB1は、視覚情報を個別表示した場合の例を示している。図20のA1は、ユーザ201aの視点Aから見た投射面202の様子を模式的に示し、図20のB1は、ユーザ201bの視点Bから見た投射面202の様子を模式的に示している。
視覚情報402aは、ユーザ201aに対するマーキングであり、ユーザ201aから見て対象物401の周囲を囲んでいる。視覚情報403aは、ユーザ201aに対するラベルであり、ユーザ201aから見て対象物401の右上に表示されている。
視覚情報402bは、ユーザ201bに対するマーキングであり、ユーザ201bから見て対象物401の周囲を囲んでいる。視覚情報403bは、ユーザ201bに対するラベルであり、ユーザ201bから見て対象物401の右上に表示されている。
図20のA2及びB2は、ユーザ201bが対象物401を認識している場合の視覚情報の表示例を示している。図20のA2は、ユーザ201aの視点Aから見た投射面202の様子を模式的に示し、図20のB2は、ユーザ201bの視点Bから見た投射面202の様子を模式的に示している。
ユーザ201bが対象物401をすでに認識しているため、ユーザ202bに対して対象物401の位置を示す必要はない。従って、視覚情報402bが消去される。
また、マーキングの表示位置は、対象物401の正確な位置を示すため重要であるが、ラベルの表示位置は、マーキング内の対象物401が有名人であることが分かる程度でよく、それほど重要ではない。そこで、例えば、視覚情報403aと視覚情報403bの代わりに、両者の表示位置のほぼ中央に、両者と同内容の視覚情報404が統合表示される。
また、ユーザが3人以上いる場合、例えば、条件に応じて、一部のユーザに対する視覚情報が統合表示され、他のユーザに対する視覚情報が個別表示されるようにしてもよい。例えば、一部のユーザに対する視覚情報が互いに干渉する場合、その一部のユーザに対する視覚情報が統合表示され、他のユーザに対する視覚情報が個別表示される。
さらに、本技術は、投射面が複数の場合にも適用することができる。例えば、本技術は、車両11のウインドシールド以外の窓も投射面に用いる場合にも適用することができる。
また、本技術は、車両以外にも、複数のユーザが搭乗し、複数のユーザに対してARを用いて視覚情報を表示可能な移動体に適用することができる。例えば、飛行機、ヘリコプター、船舶、建設機械、農業機械(トラクター)等の移動体に本技術を適用することができる。
さらに、本技術は、例えば、移動体以外にも、複数のユーザに対して視覚情報を表示し、ユーザ及び対象物のうち少なくとも1つが投射面に対して移動可能な装置やシステムに適用することができる。例えば、観光地等において、複数のユーザに対してランドマーク等に関する視覚情報を透明なスクリーンに投射して表示する場合に、本技術を適用することができる。
<<4.その他>>
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図21は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるコンピュータ500では、CPU501が、例えば、記憶部508に記録されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ500(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ500では、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定する表示方法設定部と、
設定された前記表示方法により前記視覚情報の表示を制御する表示制御部と
を備え、
前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む
情報処理装置。
(2)
前記表示方法設定部は、前記視覚情報、前記視覚情報の対象となる対象物、及び、各ユーザのうち少なくとも1つに基づいて、前記表示方法を設定する
前記(1)に記載の情報処理装置。
(3)
前記表示方法設定部は、前記視覚情報が投射される投射面上における前記視覚情報の状態に基づいて、前記表示方法を設定する
前記(2)に記載の情報処理装置。
(4)
前記表示方法設定部は、前記投射面上においてユーザ毎の前記視覚情報が干渉する場合、前記統合表示を選択し、ユーザ毎の前記視覚情報が干渉しない場合、前記個別表示を選択する
前記(3)に記載の情報処理装置。
(5)
前記表示方法設定部は、前記投射面上において複数の前記視覚情報が重なっている量である重なり量、及び、前記重なり量の変化量に基づいて、前記表示方法を設定する
前記(3)又は(4)に記載の情報処理装置。
(6)
前記表示方法設定部は、前記投射面上における前記視覚情報のサイズ及び移動速度のうち少なくとも1つに基づいて、前記表示方法を設定する
前記(3)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記表示方法設定部は、前記対象物の状態に基づいて、前記表示方法を設定する
前記(2)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記表示方法設定部は、前記視覚情報が投射される投射面から前記対象物までの距離に基づいて、前記表示方法を設定する
前記(7)に記載の情報処理装置。
(9)
前記表示方法設定部は、さらに前記対象物までの距離の変化量に基づいて、前記表示方法を設定する
前記(8)に記載の情報処理装置。
(10)
前記表示方法設定部は、前記視覚情報が投射される投射面上の前記対象物のサイズに基づいて、前記表示方法を設定する
前記(7)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記表示方法設定部は、各ユーザの状態に基づいて、前記表示方法を設定する
前記(2)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記表示方法設定部は、前記視覚情報が投射される投射面に対して水平な方向におけるユーザ間の距離に基づいて、前記表示方法を設定する
前記(11)に記載の情報処理装置。
(13)
前記表示方法設定部は、さらに前記ユーザ間の距離の変化量に基づいて、前記表示方法を設定する
前記(12)に記載の情報処理装置。
(14)
前記表示方法設定部は、各ユーザの前記対象物の認識の有無に基づいて、前記表示方法を設定する
前記(11)に記載の情報処理装置。
(15)
前記表示方法設定部は、前記視覚情報の内容に基づいて、前記表示方法を設定する
前記(2)乃至(14)のいずれかに記載の情報処理装置。
(16)
前記表示方法は、前記対象物とは無関係に前記視覚情報を1つ表示する共通表示を含み、
前記表示方法設定部は、前記視覚情報に対して前記対象物が存在する場合、前記統合表示又は前記個別表示を選択し、前記視覚情報に対して前記対象物が存在しない場合、前記共通表示を選択する
前記(2)乃至(15)のいずれかに記載の情報処理装置。
(17)
前記視覚情報は、複数のユーザの視界内の移動体の外の現実世界又は前記現実世界の動画像に重ね合わせて表示される
前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定し、
設定された前記表示方法により前記視覚情報の表示を制御し、
前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む
情報処理方法。
(19)
複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定し、
設定された前記表示方法により前記視覚情報の表示を制御し、
前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む
処理をコンピュータに実行させるためのプログラム。
(20)
複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定する表示方法設定部と、
前記視覚情報を所定の投射面に投射することにより、現実世界又は前記現実世界の動画像に前記視覚情報を重ね合わせる表示部と、
設定された前記表示方法により前記表示部による前記視覚情報の表示を制御する表示制御部と
を備え、
前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む
移動体。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
11 車両, 21 情報処理部, 31 データ取得部, 32 車内情報取得部, 33 車外情報取得部, 34 出力情報設定部, 35 出力制御部, 36 出力部, 111 ユーザ情報取得部, 112 音声認識部, 113 車両情報検出部, 121 物体認識部, 122 周辺情報取得部, 131 視覚情報生成部, 132 表示方法設定部, 141 表示制御部, 151 表示装置, 201a,201b ユーザ, 202 投射面, 203 対象物

Claims (20)

  1. 複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定する表示方法設定部と、
    設定された前記表示方法により前記視覚情報の表示を制御する表示制御部と
    を備え、
    前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む
    情報処理装置。
  2. 前記表示方法設定部は、前記視覚情報、前記視覚情報の対象となる対象物、及び、各ユーザのうち少なくとも1つに基づいて、前記表示方法を設定する
    請求項1に記載の情報処理装置。
  3. 前記表示方法設定部は、前記視覚情報が投射される投射面上における前記視覚情報の状態に基づいて、前記表示方法を設定する
    請求項2に記載の情報処理装置。
  4. 前記表示方法設定部は、前記投射面上においてユーザ毎の前記視覚情報が干渉する場合、前記統合表示を選択し、ユーザ毎の前記視覚情報が干渉しない場合、前記個別表示を選択する
    請求項3に記載の情報処理装置。
  5. 前記表示方法設定部は、前記投射面上において複数の前記視覚情報が重なる量である重なり量、及び、前記重なり量の変化量に基づいて、前記表示方法を設定する
    請求項3に記載の情報処理装置。
  6. 前記表示方法設定部は、前記投射面上における前記視覚情報のサイズ及び移動速度のうち少なくとも1つに基づいて、前記表示方法を設定する
    請求項3に記載の情報処理装置。
  7. 前記表示方法設定部は、前記対象物の状態に基づいて、前記表示方法を設定する
    請求項2に記載の情報処理装置。
  8. 前記表示方法設定部は、前記視覚情報が投射される投射面から前記対象物までの距離に基づいて、前記表示方法を設定する
    請求項7に記載の情報処理装置。
  9. 前記表示方法設定部は、さらに前記対象物までの距離の変化量に基づいて、前記表示方法を設定する
    請求項8に記載の情報処理装置。
  10. 前記表示方法設定部は、前記視覚情報が投射される投射面上の前記対象物のサイズに基づいて、前記表示方法を設定する
    請求項7に記載の情報処理装置。
  11. 前記表示方法設定部は、各ユーザの状態に基づいて、前記表示方法を設定する
    請求項2に記載の情報処理装置。
  12. 前記表示方法設定部は、前記視覚情報が投射される投射面に対して水平な方向におけるユーザ間の距離に基づいて、前記表示方法を設定する
    請求項11に記載の情報処理装置。
  13. 前記表示方法設定部は、さらに前記ユーザ間の距離の変化量に基づいて、前記表示方法を設定する
    請求項12に記載の情報処理装置。
  14. 前記表示方法設定部は、各ユーザの前記対象物の認識の有無に基づいて、前記表示方法を設定する
    請求項11に記載の情報処理装置。
  15. 前記表示方法設定部は、前記視覚情報の内容に基づいて、前記表示方法を設定する
    請求項2に記載の情報処理装置。
  16. 前記表示方法は、前記対象物とは無関係に前記視覚情報を1つ表示する共通表示を含み、
    前記表示方法設定部は、前記視覚情報に対して前記対象物が存在する場合、前記統合表示又は前記個別表示を選択し、前記視覚情報に対して前記対象物が存在しない場合、前記共通表示を選択する
    請求項2に記載の情報処理装置。
  17. 前記視覚情報は、複数のユーザの視界内の移動体の外の現実世界又は前記現実世界の動画像に重ね合わせて表示される
    請求項1に記載の情報処理装置。
  18. 複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定し、
    設定された前記表示方法により前記視覚情報の表示を制御し、
    前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む
    情報処理方法。
  19. 複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定し、
    設定された前記表示方法により前記視覚情報の表示を制御し、
    前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む
    処理をコンピュータに実行させるためのプログラム。
  20. 複数のユーザの視界に重ね合わせて表示する視覚情報の表示方法を設定する表示方法設定部と、
    前記視覚情報を所定の投射面に投射することにより、現実世界又は前記現実世界の動画像に前記視覚情報を重ね合わせる表示部と、
    設定された前記表示方法により前記表示部による前記視覚情報の表示を制御する表示制御部と
    を備え、
    前記表示方法は、ユーザ毎に個別に前記視覚情報を表示する個別表示、及び、複数のユーザに対する前記視覚情報を統合して表示する統合表示を含む
    移動体。
JP2018126758A 2018-07-03 2018-07-03 情報処理装置、情報処理方法、プログラム、及び、移動体 Pending JP2021165766A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018126758A JP2021165766A (ja) 2018-07-03 2018-07-03 情報処理装置、情報処理方法、プログラム、及び、移動体
PCT/JP2019/024212 WO2020008876A1 (ja) 2018-07-03 2019-06-19 情報処理装置、情報処理方法、プログラム、及び、移動体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018126758A JP2021165766A (ja) 2018-07-03 2018-07-03 情報処理装置、情報処理方法、プログラム、及び、移動体

Publications (1)

Publication Number Publication Date
JP2021165766A true JP2021165766A (ja) 2021-10-14

Family

ID=69060236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018126758A Pending JP2021165766A (ja) 2018-07-03 2018-07-03 情報処理装置、情報処理方法、プログラム、及び、移動体

Country Status (2)

Country Link
JP (1) JP2021165766A (ja)
WO (1) WO2020008876A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058262A1 (ja) 2021-10-07 2023-04-13 株式会社Space Walker 高圧ガス容器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5341402B2 (ja) * 2008-06-04 2013-11-13 トヨタ自動車株式会社 車載表示システム
JP5333781B2 (ja) * 2010-02-26 2013-11-06 株式会社エクォス・リサーチ ヘッドアップディスプレイ装置
JP2012108470A (ja) * 2010-10-22 2012-06-07 Nippon Seiki Co Ltd ヘッドアップディスプレイ装置
GB201620351D0 (en) * 2016-11-30 2017-01-11 Jaguar Land Rover Ltd And Cambridge Entpr Ltd Multi-dimensional display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058262A1 (ja) 2021-10-07 2023-04-13 株式会社Space Walker 高圧ガス容器

Also Published As

Publication number Publication date
WO2020008876A1 (ja) 2020-01-09

Similar Documents

Publication Publication Date Title
US9771022B2 (en) Display apparatus
US9639968B2 (en) Generating an augmented view of a location of interest
US9639990B2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
EP3496068A1 (en) Travel assistance device and computer program
JP6528139B2 (ja) 表示制御装置及び表示制御プログラム
US10895912B2 (en) Apparatus and a method for controlling a head- up display of a vehicle
WO2019097763A1 (ja) 重畳画像表示装置及びコンピュータプログラム
US20120235805A1 (en) Information display apparatus and information display method
US11525694B2 (en) Superimposed-image display device and computer program
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
KR20170048781A (ko) 차량용 증강현실 제공 장치 및 그 제어방법
JP2017007481A (ja) 車載ヘッドアップディスプレイ装置及び車載表示システム
JP2014120111A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
JP2014120114A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
WO2020105685A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2019056884A (ja) 重畳画像表示装置
JP6136238B2 (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
JP2014120113A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
WO2020008876A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2020126478A (ja) 表示制御装置及び表示制御プログラム
JP5294756B2 (ja) 車両周囲画像提供装置および車両周囲画像提供方法
JP2020142792A (ja) Ar表示装置
JP2020121607A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020117105A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2014120110A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム