JP7371629B2 - 情報処理装置、情報処理方法、プログラム、及び、車両 - Google Patents

情報処理装置、情報処理方法、プログラム、及び、車両 Download PDF

Info

Publication number
JP7371629B2
JP7371629B2 JP2020533414A JP2020533414A JP7371629B2 JP 7371629 B2 JP7371629 B2 JP 7371629B2 JP 2020533414 A JP2020533414 A JP 2020533414A JP 2020533414 A JP2020533414 A JP 2020533414A JP 7371629 B2 JP7371629 B2 JP 7371629B2
Authority
JP
Japan
Prior art keywords
vehicle
virtual screen
display
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020533414A
Other languages
English (en)
Other versions
JPWO2020026825A1 (ja
Inventor
裕司 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020026825A1 publication Critical patent/JPWO2020026825A1/ja
Application granted granted Critical
Publication of JP7371629B2 publication Critical patent/JP7371629B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本技術は、情報処理装置、情報処理方法、プログラム、及び、車両に関し、特に、ユーザの乗り物酔いを防ぐようにした情報処理装置、情報処理方法、プログラム、及び、車両に関する。
従来、車両の後部座席や天井等に設けられた表示手段の画面に映像を表示する場合に、車両の加速、減速、右折、及び、左折の大きさに基づいて映像の形状を一定時間だけ変形し、車両内のユーザに車両の動きを知覚又は予知させることにより、ユーザの乗り物酔いを防ぐことが提案されている(例えば、特許文献1参照)。
また、今後自動運転の普及に伴い運転の必要がなくなると、例えば、HUD(Head-Up Display)等を用いて車両のウインドシールドに映像を投影し、ユーザが車両内で映画等のコンテンツを大画面で鑑賞することが想定される。
特開2006-35980号公報
しかしながら、画面が大型化すると、ユーザは、視野のほとんどを画面により覆われてしまい、車両の周囲の風景を知覚しづらくなる。そのため、ユーザが車両の動きを知覚しにくくなり、乗り物酔いが誘発されやすくなる。
これに対して、特許文献1では、表示手段を後部座席や天井に設けることを想定しており、画面の大型化に対する対策は十分検討されていない。
本技術は、このような状況に鑑みてなされたものであり、ユーザの乗り物酔いを防ぐことができるようにするものである。
本技術の第1の側面の情報処理装置は、車両の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から表示装置により表示された第1の映像を見た場合に虚像ができる領域である仮想スクリーンの位置を設定し、前記仮想スクリーンの位置に基づいて、前記表示装置における前記第1の映像の表示領域設定する表示位置設定部と、設定された表示領域前記第1の映像を表示するように前記表示装置を制御する表示制御部とを備え、前記表示位置設定部は、前記視点から見て前記車両の加速方向と逆方向に前記仮想スクリーンを加速させる。
本技術の第1の側面の情報処理方法は、情報処理装置が、車両の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から表示装置により表示された映像を見た場合に虚像ができる領域である仮想スクリーンの位置を設定し、前記仮想スクリーンの位置に基づいて、前記表示装置における前記映像の表示領域設定し、設定された表示領域前記映像を表示するように前記表示装置を制御し、前記視点から見て前記車両の加速方向と逆方向に前記仮想スクリーンを加速させる。
本技術の第1の側面のプログラムは、車両の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から表示装置により表示された映像を見た場合に虚像ができる領域である仮想スクリーンの位置を設定し、前記仮想スクリーンの位置に基づいて、前記表示装置における前記映像の表示領域設定し、設定された表示領域前記映像を表示するように前記表示装置を制御し、前記視点から見て前記車両の加速方向と逆方向に前記仮想スクリーンを加速させる。
本技術の第2の側面の車両は、表示装置と、自分の動きを検出する動き検出部と、自分の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から前記表示装置により表示された映像を見た場合に虚像ができる領域である仮想スクリーンの位置を設定し、前記仮想スクリーンの位置に基づいて、前記表示装置における前記映像の表示領域設定する表示位置設定部と、設定された表示領域前記映像を表示するように前記表示装置を制御する表示制御部とを備え、前記表示位置設定部は、前記視点から見て自分の加速方向と逆方向に前記仮想スクリーンを加速させる。
本技術の第1の側面においては、車両の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から表示装置により表示された映像を見た場合に虚像ができる領域である仮想スクリーンの位置が設定され、前記仮想スクリーンの位置に基づいて、前記表示装置における前記映像の表示領域設定され、設定された表示領域前記映像を表示するように前記表示装置を制御し、前記視点から見て前記車両の加速方向と逆方向に前記仮想スクリーンが加速される。
本技術の第2の側面においては、自分の動きが検出され、自分の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から前記表示装置により表示された映像を見た場合に虚像ができる領域である仮想スクリーンの位置が設定され、前記仮想スクリーンの位置に基づいて、前記表示装置における前記映像の表示領域設定され、設定された表示領域前記映像を表示するように前記表示装置が制御され、前記視点から見て自分の加速方向と逆方向に前記仮想スクリーンが加速される。
本技術の第1の側面又は第2の側面によれば、ユーザの乗り物酔いを防ぐことができることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術が適用され得る車両制御システムの概略的な機能の構成例を示すブロック図である。 情報処理システムの構成例を示すブロック図である。 情報処理部の第1の実施の形態を示すブロック図である。 表示制御処理の第1の実施の形態を説明するためのフローチャートである。 仮想スクリーンについて説明するための図である。 ホームポジションについて説明するための図である。 車両が旋回する場合の仮想スクリーンの動きの例を示す図である。 車両が旋回する場合の仮想スクリーンの動きの例を示す図である。 車両が旋回する場合の仮想スクリーンの動きの例を示す図である。 仮想スクリーンがウインドシールドの右端に到達するまでの時間について説明するための図である。 カーブの曲率半径と仮想スクリーンがウインドシールドの右端に到達するまでの時間との関係を示すグラフである。 仮想スクリーンがウインドシールドの右端に達した後の動きを説明するための図である。 カーブの曲率半径と仮想スクリーンがホームポジションに戻るまでの所要時間との関係を示すグラフである。 車両が加速する場合の仮想スクリーンの動きの例を示す図である。 車両の加速度と仮想スクリーンのサイズが2倍になるまでの所要時間との関係を示すグラフである。 仮想スクリーンのサイズが上限に達した後の動きを説明するための図である。 仮想スクリーンのサイズが上限に達した後に仮想スクリーンがホームポジションに戻るまでの仮想スクリーンの倍率の推移の例を示すグラフである。 車両が減速する場合の仮想スクリーンの動きの例を示す図である。 仮想スクリーンのサイズが下限に達した後の動きを説明するための図である。 仮想スクリーンのサイズが下限に達した後に仮想スクリーンがホームポジションに戻るまでの仮想スクリーンの倍率の推移の例を示すグラフである。 情報処理部の第2の実施の形態を示すブロック図である。 表示制御処理の第2の実施の形態を説明するためのフローチャートである。 仮想スクリーンの位置の設定方法の例を示す図である。 仮想スクリーンの動きの例を示す図である。 仮想スクリーンの動きの例を示す図である。 仮想スクリーンの動きの例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.車両制御システムの構成例
2.第1の実施の形態
3.第2の実施の形態
4.変形例
5.その他
<<1.車両制御システムの構成例>
図1は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
車両制御システム100は、車両10に設けられ、車両10の各種の制御を行うシステムである。なお、以下、車両10を他の車両と区別する場合、自車又は自車両と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、車両10の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、車両10の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、車両10の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、車両10の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、車両10の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両10と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、車両10に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、車両10の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、車両10の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、車両10の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、車両10の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、車両10の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両10の衝突警告、又は、車両10のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、車両10の外部の情報の検出処理を行う。例えば、車外情報検出部141は、車両10の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、車両10の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、車両10の状態の検出処理を行う。検出対象となる車両10の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、車両10及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、車両10の周囲の信号の位置及び状態、車両10の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10に関する状況の認識処理を行う。例えば、状況認識部153は、車両10の状況、車両10の周囲の状況、及び、車両10の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、車両10の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる車両10の状況には、例えば、車両10の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる車両10の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10に関する状況の予測処理を行う。例えば、状況予測部154は、車両10の状況、車両10の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる車両10の状況には、例えば、車両10の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる車両10の周囲の状況には、例えば、車両10の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための車両10の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行中車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した車両10の行動を示すデータを動作計画部163等に供給する。
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための車両10の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した車両10の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、車両10の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両10の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための車両10の動作を計画する。緊急事態回避部171は、計画した車両10の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された車両10の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された車両10の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<<2.第1の実施の形態>>
次に、図2乃至図20を参照して、本技術の第1の実施の形態について説明する。
なお、この第1の実施の形態は、図1の車両制御システム100のうち、主にデータ取得部102、通信部103、出力制御部105、出力部106、記憶部111、検出部131、及び、自己位置推定部132の処理に関連するものである。
<情報処理システム200の構成例>
図2は、図1の車両制御システム100により実現される機能の一部である情報処理システム200の構成例を示すブロック図である。
情報処理システム200は、例えば、車両10内のユーザに対して、コンテンツ等の映像を表示する処理等を行う。
情報処理システム200は、カメラ201、CPU(Central Processing Unit)202、GPU(Graphics Processing Unit)203、表示デバイス204、センサ部205、メモリ206、グラフィックメモリ207、ネットワークI/F(インタフェース)208、及び、ストレージデバイス209を備える。カメラ201、CPU202、GPU203、表示デバイス204、センサ部205、メモリ206、グラフィックメモリ207、ネットワークI/F208、及び、ストレージデバイス209は、バス221を介して相互に接続されている。
カメラ201は、例えば、図1のデータ取得部102に対応する。カメラ201は、例えば、車両10の周囲の風景を撮影し、撮影した画像を、バス221を介してCPU202等に供給する。
CPU202は、例えば、図1の出力制御部105、検出部131、及び、自己位置推定部132に対応する。CPU202は、情報処理システム200の各部の制御を行う。また、CPU202は、表示デバイス204による映像の表示位置を制御する。
GPU203は、例えば、図1の出力制御部105に対応する。GPU203は、表示デバイス204により表示される映像の3次元レンダリングを行う。
表示デバイス204は、例えば、図1の出力部106に対応する。表示デバイス204は、GPU203によりレンダリングされた映像を、車両10の周囲の風景に重畳して表示する。
なお、以下、表示デバイス204が車両10の周囲のうち車両10の前方の風景に映像を重畳して表示する場合について説明する。
表示デバイス204が車両10の前方の風景に映像を重畳して表示する方法としては、例えば、以下が考えられる。
第1の方法では、例えば、表示デバイス204が、HUD等の投影型の表示装置により構成される。そして、表示デバイス204が、車両10のウインドシールドに映像を投影することにより、ウインドシールドに映像が表示される。これにより、車両10内から見て、車両10の前方の風景に映像が重畳される。
第2の方法では、例えば、表示デバイス204が、透過ディスプレイからなるウインドシールドを備える。そして、表示デバイス204は、ウインドシールドの一部を電子的に不透明にし、不透明にした領域に映像を表示する。これにより、車両10内から見て、車両10の前方の風景に映像が重畳される。
なお、第1の方法及び第2の方法では、情報処理システム200からカメラ201を削除することが可能である。
第3の方法では、例えば、表示デバイス204が、LCD(Liquid Crystal Display)又はOLED(Organic Light Emitting Diode)等のディスプレイからなるウインドシールドを備える。そして、GPU203は、カメラ201により撮影された車両10の前方の映像内に、コンテンツ等の映像を合成し、表示デバイス204は、合成された映像を表示する。これにより、車両10の前方の風景に映像が重畳される。
この第3の方法では、車両10の前方の風景の変化をほぼリアルタイムに反映するために、車両10の前方の風景の撮影から表示までの時間をなるべく短くすることが望ましい。
なお、以下、第1の方法又は第2の方法により、車両10のウインドシールドに映像を表示する場合について説明する。
センサ部205は、例えば、図1のデータ取得部102に対応する。センサ部205は、車両10の動き、位置、向き等の検出又は予測に用いる各種のデータを検出する。例えば、センサ部205は、車両10の速度、加速度、現在位置、操舵角等を検出する。センサ部205、検出処理により得られたセンサデータを、バス221を介してCPU202等に供給する。
メモリ206は、例えば、図1の記憶部111に対応する。メモリ206は、情報処理システム200の処理に必要なデータやプログラムを記憶する。例えば、メモリ206は、CPU202及びGPU203が実行する制御プログラムを記憶する。また、例えば、メモリ206は、CPU202及びGPU203の処理に必要な各種のデータを記憶する。
グラフィックメモリ207は、例えば、図1の記憶部111に対応する。グラフィックメモリ207は、GPU203によりレンダリングされた映像のデータを記憶する。
ネットワークI/F208は、例えば、図1の通信部103に対応する。ネットワークI/F208は、外部と通信を行い、表示デバイス204に表示する映像のデータ等を取得する。ネットワークI/F208は、取得したデータを、例えば、メモリ206又はストレージデバイス209に記憶させる。
ストレージデバイス209は、例えば、図1の記憶部111に対応する。ストレージデバイス209は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は、半導体メモリなどの記憶媒体により構成される。ストレージデバイス209は、表示デバイス204に表示される映像のデータ等を記憶する。
<情報処理部251の構成例>
図3は、例えば、図2の情報処理システム200のCPU202及びGPU203が、所定の制御プログラムを実行することにより実現される情報処理部251の構成例を示している。情報処理部251は、動き検出部261、自己位置推定部262、表示位置設定部263、及び、表示制御部264を備える。
動き検出部261は、センサ部205からのセンサデータ等に基づいて、車両10の動きを検出する。例えば、動き検出部261は、車両10の速度、加速度等を検出する。
自己位置推定部262は、センサ部205からのセンサデータ等に基づいて、車両10の自己位置推定を行う。例えば、自己位置推定部262は、ワールド座標系における車両10の位置及び向きを推定する。
表示位置設定部263は、車両10の動き(例えば、車両10の加速度)に基づいて、仮想スクリーンSv(図5)の位置を設定する(動かす)。なお、仮想スクリーンSvについては、図5を参照して後述する。また、表示位置設定部263は、仮想スクリーンの位置に基づいて、表示デバイス204により映像を表示する位置を設定する。
表示制御部264は、表示位置設定部263により設定された位置に映像を表示するように、表示デバイス204を制御する。
<表示制御処理>
次に、図4のフローチャートを参照して、情報処理システム200により実行される表示制御処理について説明する。
この処理は、例えば、情報処理システム200に対してコンテンツ等の映像の表示を開始する操作が行われたとき開始され、映像の表示を停止する操作が行われたとき終了する。
ステップS1において、情報処理部251は、パラメータを初期化する。
具体的には、動き検出部261は、車両10の速度vc及び加速度αcを0に初期化する。車両10の速度vc及び加速度αcは、例えば、車両10の左右方向(x方向)及び前後方向(y方向)の2軸方向の成分により表される。y方向は、車両10の加減速方向に対応し、x方向は、車両10の旋回運動時の横Gの方向に対応する。なお、車両10の速度vc及び加速度αcの向きは、例えば、ワールド座標系により表される。
表示位置設定部263は、仮想スクリーンSvの速度vs及び加速度αsを0に初期化する。
ここで、図5を参照して、仮想スクリーンSvについて簡単に説明する。
仮想スクリーンSvとは、例えば、車両10内の所定の視点(以下、仮想視点と称する)Pvから、車両10のウインドシールド301の位置Pdに表示されている映像を見た場合に、映像が仮想的に認識される領域である。換言すれば、仮想スクリーンSvとは、仮想視点Pvからウインドシールド301の位置Pdに表示されている映像を見た場合に虚像ができる領域である。
なお、仮想視点Pvの位置は、可変でも固定でもよい。仮想視点Pvの位置が可変の場合、例えば、車両10内のユーザの頭又は目の位置が追跡され、そのユーザの頭又は目の位置に合わせて仮想視点Pvが移動する。
以下では、仮想視点Pvの位置が固定されている場合の例について説明する。また、以下、仮想視点Pvと仮想スクリーンSvとの間の距離(以下、スクリーン距離と称する)をdsとする。さらに、以下、仮想スクリーンSvにおいて仮想的に認識される映像のことを、単に仮想スクリーンSvと称する場合がある。
仮想スクリーンSvの速度vs及び加速度αsは、例えば、仮想スクリーンの面に平行な方向(左右方向)及び垂直な方向(前後方向)の2軸方向の成分により表される。なお、仮想スクリーンSvの速度vs及び加速度αsの向きは、例えば、ワールド座標系により表される。
ステップS2において、自己位置推定部262は、車両10の位置及び向きを更新する。
例えば、自己位置推定部262は、前回の車両10の位置、並びに、現在の車両10の速度vc及び加速度αcに基づいて、車両10の位置を更新する。
ここで、車両10のx軸方向の加速度αcは、車両10の旋回時の横Gに対応する。そこで、自己位置推定部262は、車両10のy軸方向の速度vcを求めた後、加速度αcに基づいて、次式(1)により、車両10の旋回運動の曲率半径Rを算出する。
R=vc /αc ・・・(1)
そして、自己位置推定部262は、前回の車両10の向き、現在の車両10の速度vc及び加速度αc、並びに、曲率半径Rに基づいて、車両10の向きを更新する。
なお、車両10の位置及び向きは、例えば、ワールド座標系により表される。
ステップS3において、表示位置設定部263は、表示位置を更新する。
例えば、表示位置設定部263は、前回の仮想スクリーンSvの位置及び向き、並びに、現在の仮想スクリーンSvの速度vs及び加速度αsに基づいて、車両10と同様の方法により、仮想スクリーンSvの位置及び向きを更新する。なお、仮想スクリーンSvの位置及び向きは、例えば、ワールド座標系により表される。
ここで、仮想スクリーンSvの位置及び向きは、車両10の速度vc及び加速度αcとは無関係に、仮想スクリーンSvの速度vs及び加速度αsに基づいて設定される。従って、車両10の速度vcと仮想スクリーンSvの速度vs、及び、車両10の加速度αcと仮想スクリーンSvの加速度αsとが一致する場合には、仮想視点Pvに対する仮想スクリーンSvの位置及び向きは変化しない。一方、車両10の速度vcと仮想スクリーンSvの速度vs、及び、車両10の加速度αcと仮想スクリーンSvの加速度αsのうち少なくとも1つが一致しない場合には、仮想視点Pvに対する仮想スクリーンSvの位置及び向きのうち少なくとも1つが変化する。
なお、最初のステップS3の処理では、仮想スクリーンSvはホームポジションに設定される。ここで、ホームポジションは、仮想スクリーンSvの所定の基準位置であり、仮想スクリーンSvは、ホームポジションを基準にして移動する。
図6は、仮想スクリーンSvがホームポジションに設定されている場合に、仮想視点Pvから見た仮想スクリーンSvの位置の例を模式的に示している。
ホームポジションは、例えば、仮想視点Pvを基準にして設定される。例えば、仮想視点Pvと仮想スクリーンSvとの間のスクリーン距離dsが、所定の初期値ds0(以下、標準距離ds0と称する)に設定される。また、仮想スクリーンSvの向き(仮想スクリーンSvの面の法線ベクトルの向き)は、車両10に対向する向き、すなわち、車両10の後方方向(前方方向と逆方向)に設定される。
また、仮想スクリーンSvは、所定のサイズに固定される。例えば、図6に示されるように、仮想スクリーンSvがホームポジションに設定されている場合に、仮想視点Pvから見た仮想スクリーンSvの高さ及び幅が、ウインドシールド301の高さ及び幅のほぼ半分になるように、仮想スクリーンSvのサイズが設定される。
これにより、例えば、図6に示されるように、仮想スクリーンSvは、仮想視点Pvから見てウインドシールド301のほぼ中央に配置される。すなわち、仮想スクリーンSvのホームポジションは、仮想視点Pvから見て車両10の略正面中央となる。
表示位置設定部263は、車両10の現在の位置及び姿勢が既知なので、車両10の現在の位置及び姿勢に基づいて、ホームポジションに設定されている仮想スクリーンSvの位置及び向きを算出する。
ここで、スクリーン距離dsが短くなるほど、仮想スクリーンSvが仮想視点Pvに近づき、仮想視点Pvから見た仮想スクリーンSvのサイズが大きくなる。一方、スクリーン距離dsが長くなるほど、仮想スクリーンSvが仮想視点Pvから遠ざかり、仮想視点Pvから見た仮想スクリーンSvのサイズが小さくなる。
また、車両10のy軸(車両10の前後方向)に対する仮想スクリーンSvの向き(以下、スクリーン角度θsと称する)の絶対値が小さくなるにつれて、仮想スクリーンSvは車両10の正面に近づく。一方、スクリーン角度θsの絶対値が大きくなるにつれて、仮想スクリーンSvは車両10の正面から左又は右方向に移動する。
なお、以下、スクリーン角度θsについて、仮想視点Pvを基準にして右回りの方向を正の方向として、左回りの方向を負の方向とする。
また、表示位置設定部263は、車両10の位置及び向き、並びに、仮想スクリーンSvの位置及び向きに基づいて、スクリーン距離ds及びスクリーン角度θsを算出する。そして、表示位置設定部263は、スクリーン距離ds及びスクリーン角度θsに基づいて、仮想スクリーンSvに対応するウインドシールド301上の映像の表示位置Pdを算出する。
ここで、映像が表示位置Pdに表示されることにより、仮想視点Pvから見て仮想スクリーンSvの位置に映像が認識されるようになる。すなわち、仮想スクリーンSvの位置に、ウインドシールド301上の映像に対する虚像が形成される。
なお、この映像の表示位置Pdには、映像を表示する位置だけでなく、映像の形状(形及びサイズ)の概念も含まれる。例えば、仮想視点Pvから見た仮想スクリーンSvは、スクリーン距離dsにより大きさが変わり、スクリーン角度θsにより形が変化する。そのため、表示位置Pdの形状は、それらを考慮した形状に設定される。
ステップS4において、表示位置設定部263は、仮想スクリーンSvが境界に達したか否かを判定する。
例えば、表示位置設定部263は、スクリーン距離dsが所定の最小値に達している場合、仮想スクリーンSvが境界に達していると判定する。これは、仮想スクリーンSvが、車両10に最も接近し、最も大きく見える場合である。
また、例えば、表示位置設定部263は、スクリーン距離dsが所定の最大値に達している場合、仮想スクリーンSvが境界に達していると判定する。これは、例えば、仮想スクリーンSvが、車両10から最も離れ、最も小さく見える場合である。
さらに、例えば、表示位置設定部263は、スクリーン角度θsの絶対値が所定の最大値に達している場合、仮想スクリーンSvが境界に達していると判定する。これは、例えば、仮想視点Pvから見て、仮想スクリーンSvが、ウインドシールド301の左端又は右端に達している場合である。
そして、ステップS4において、仮想スクリーンSvが境界に達していると判定された場合、処理はステップS5に進む。
ステップS5において、表示位置設定部263は、仮想スクリーンSvの速度及び加速度をリセットする。具体的には、表示位置設定部263は、仮想スクリーンSvの速度vsを現在の車両10の速度vcに設定し、加速度αsを現在の車両10の加速度αcに設定する。
これにより、仮想スクリーンSvが車両10と同じ動きをするようになり、仮想スクリーンSvが境界の外に出ることが防止される。
その後、処理はステップS6に進む。
一方、ステップS4において、仮想スクリーンSvが境界に達していないと判定された場合、ステップS5の処理はスキップされ、処理はステップS6に進む。すなわち、仮想スクリーンSvの速度vs及び加速度αsは、車両10の速度vc及び加速度αcとは無関係に、そのまま維持される。
ステップS6において、表示制御部264は、映像をレンダリングする。具体的には、表示制御部264は、表示位置設定部263により算出された表示位置Pdに映像を表示するためのデータをグラフィックメモリ207上に形成する。
ステップS7において、表示制御部264は、表示の更新待ちを行う。すなわち、表示制御部264は、グラフィックメモリ207に形成したデータに基づく映像がウインドシールド301に表示されるのを待つ。そして、グラフィックメモリ207に形成したデータに基づく映像がウインドシールド301に表示されると、処理はステップS8に進む。
ステップS8において、情報処理部251は、パラメータを更新する。
具体的には、動き検出部261は、例えば、センサ部205からのセンサデータに基づいて、車両10の速度vc及び加速度αcを更新する。
表示位置設定部263は、次の式(2)により、仮想スクリーンSvの速度vsを更新する。
vs=vs+αs×Δt ・・・(2)
Δtは、前回速度vsの更新を行ってからの経過時間である。
また、表示位置設定部263は、次の式(3)により、仮想スクリーンの加速度αsを更新する。
αs=αs+Kp1×Δp-Kp2×Δv ・・・(3)
Δpは、現在の仮想スクリーンSvの位置とホームポジションとの間の差、すなわち、仮想スクリーンSvのホームポジションからの変位を示している。Δvは、仮想スクリーンSvの速度vs-車両10の速度vcで求められ、仮想スクリーンSvと車両10との速度差を示している。Kp1、Kp2は、所定の係数を示している。
式(3)の第2項(Kp1×ΔP)により、仮想スクリーンSvがホームポジションに戻る方向の加速度αsの成分が増加する。その増加量は、変位Δpが大きくなるほど大きくなり、変位Δpが小さくなるほど小さくなる。すなわち、仮想スクリーンSvがホームポジションから離れるほど、仮想スクリーンSvをホームポジションに戻す方向に働く力が強くなり、仮想スクリーンSvがホームポジションに近づくほど、仮想スクリーンSvをホームポジションに戻す方向に働く力が弱くなる。
これにより、車両10の加速、減速、旋回等により、仮想スクリーンSvがホームポジションから移動しても、車両10が等速で前進(前方方向に直進)するようになると、最終的に仮想スクリーンSvがホームポジションに戻るようになる。
一方、式(3)の第3項(-Kp1×ΔP)により、仮想スクリーンSvがホームポジションに戻る方向の加速度αsの成分が減少する。その減少量は、速度差Δvが大きくなるほど大きくなり、速度差Δvが小さくなるほど小さくなる。これにより、式(3)の第2項の働きにより仮想スクリーンSvのホームポジションに戻る方向の速度が速くなりすぎることが抑制される。
なお、係数Kp1及び係数Kp2は、仮想視点Pvから見た仮想スクリーンSvの加速度をユーザにあまり感じさせないように調整される。
また、式(3)の第3項は、必要に応じて省略することが可能である。
その後、処理はステップS2に戻り、ステップS2乃至ステップS8の処理が繰り返し実行される。
ここで、図7乃至図20を参照して、以上の処理による仮想スクリーンSvの動きの具体例について説明する。
<車両10が旋回する場合>
まず、図7乃至図13を参照して、車両10が旋回する場合の仮想スクリーンSvの動きについて説明する。より具体的には、車両10が左方向に旋回する場合の仮想スクリーンSvの動きについて説明する。
図7のAは、図7のBに示されるように、車両10がカーブ311を曲がる前に等速で直進しているときの仮想スクリーンSvの位置の例を示している。このとき、仮想スクリーンSvは、ホームポジションに設定される。
図8のAは、図8のBに示されるように、車両10がカーブ311を左方向に曲がり始めたときの仮想スクリーンSvの位置の例を示している。車両10が左方向に旋回するのに対し、仮想スクリーンSvは、ほとんど速度及び方向を変えずに直進する。従って、仮想視点Pvから見て、車両10の左方向の旋回に伴い、仮想スクリーンSvが右方向への旋回を開始する。また、仮想視点Pvから見て、仮想スクリーンSvは、車両10と逆方向に加速する。さらに、仮想スクリーンSvの向きが車両10の正面に対して傾くため、仮想スクリーンSvの形が歪む。具体的には、仮想スクリーンSvは、左に行くほど低くなる略横向きの台形状となる。
図9のAは、図9のBに示されるように、車両10がカーブ311をさらに左方向に曲がったときの仮想スクリーンSvの位置の例を示している。車両10が左方向に旋回するのに対し、仮想スクリーンSvは、ほとんど速度及び方向を変えずに直進する。従って、仮想視点Pvから見て、車両10の左方向の旋回に伴い、仮想スクリーンSvはさらに右方向に旋回する。また、仮想視点Pvから見て、仮想スクリーンSvは、車両10と逆方向に加速する。これにより、仮想スクリーンSvが、ウインドシールド301の右端に達している。さらに、仮想スクリーンSvの向きが車両10の正面に対してさらに傾くため、仮想スクリーンSvの台形状の歪みが大きくなる。
ここで、図10及び図11を参照して、仮想スクリーンSvが、ホームポジションからウインドシールド301の右端に到達するまでの時間について説明する。
車両10が円弧に沿って左方向に旋回した場合、車両10が旋回する角度と、仮想スクリーンSvがホームポジションから右方向に移動する角度とは略等しくなる。その角度ωは、例えば、次の式(4)により求められる。
ω=360°×vc×t÷2πR ・・・(4)
tは、車両10が旋回を開始してからの経過時間(単位は秒)を示している。Rは、車両10が旋回するカーブの曲率半径(単位はm)を示している。
例えば、図10に示されるように、ウインドシールド301の幅が1.8m、かつ、仮想視点Pvとウインドシールド301との間の距離が0.9mであり、仮想視点Pvから見て仮想スクリーンSvがウインドシールド301の幅の1/2を占めている場合について検討する。
この場合、仮想スクリーンSvは、ホームポジションから右方向に約18°回転すると、ウインドシールド301の右端に到達する。従って、車両10の速度vc及びカーブの曲率半径Rと、仮想スクリーンSvがウインドシールド301の右端に到達するまでの時間との関係は、図11に示されるようになる。
図11の横軸はカーブの曲率半径R(単位はm)を示し、縦軸は仮想スクリーンSvがウインドシールド301の右端に到達するまでの時間(単位は秒)を示している。また、図11は、車両10の速度vcが、30km/h、60km/h、90km/h、及び、120km/hの場合のグラフを示している。
このグラフに示されるように、車両10の速度vcが速くなるほど、仮想スクリーンSvがウインドシールド301の右端に到達するまでの時間が短くなる。また、カーブの曲率半径Rが大きくなるほど、仮想スクリーンSvがウインドシールド301の右端に到達するまでの時間が長くなる。
仮想スクリーンSvが、ウインドシールド301の左端又は右端に達した後も同様の動きを維持すると、ウインドシールド301の外にはみ出していまい、ユーザから見えなくなる。また、仮想スクリーンSVをウインドシールド301の左端又は右端でそのまま停止させたとしても、仮想スクリーンSvの視認性が低下する。
そこで、上述したように、仮想スクリーンSvがウインドシールド301の左端又は右端に達した場合、仮想スクリーンSvの速度vs及び加速度αsが車両10と同じ速度及び加速度に一旦リセットされ、さらに、仮想スクリーンSvが、ホームポジションに戻る方向に加速される。
これにより、例えば、図12のA乃至Cに示されるように、仮想スクリーンSvは、ウインドシールド301の右端から左方向に回転し、最終的にホームポジションに戻る。
しかし、この仮想スクリーンSvのホームポジションに戻る動きは、車両10の動きとは異なる加速度をユーザに感じさせるため、乗り物酔いを誘発する恐れがある。従って、仮想スクリーンSvは、その加速度をあまり感じさせない程度に、徐々にホームポジションに戻される。
例えば、仮想視点Pvから見て、仮想スクリーンSvの横Gが、所定の閾値(例えば、0.1G)以下に抑制される。すなわち、仮想スクリーンSvがホームポジションに戻るときの角速度をω(単位はrad/秒)とし、閾値を0.1Gとすると、次の式(5)を満たすように、角速度ωが設定される。
Rω≦0.1×9.8 ・・・(5)
例えば、上述した図10の例において、仮想スクリーンSvがウインドシールド301の右端からホームポジションに戻るには、仮想スクリーンSvが左方向に約18°回転する必要がある。
一方、カーブ311の曲率半径Rが50mの場合、式(5)より、ω≦0.14(rad/s)となる。従って、仮想スクリーンSvの角速度ωを0.14(rad/s)に設定した場合、仮想スクリーンSvがホームポジションに戻るまでに要する時間は約2.2秒となる。
図13は、図10に示される条件において、仮想スクリーンSvの横Gを0.1Gに設定した場合に、仮想スクリーンSvがウインドシールド301の左端又は右端からホームポジションに戻るまでに要する時間の例を示している。図13の横軸は、車両10が旋回しているカーブの曲率半径(単位はm)を示し、縦軸は、仮想スクリーンSvがホームポジションに戻るまでの所用時間(単位は秒)を示している。
このように、車両10が旋回しているカーブの曲率半径が大きくなるほど、所要時間が長くなり、曲率半径が小さくなるほど所要時間が短くなる。
また、具体的な図示は省略するが、仮想スクリーンSvの左右方向の移動範囲が広く、移動角度が大きくなるほど、仮想スクリーンSvがホームポジションに戻るまでの所用時間が長くなる。一方、仮想スクリーンSvの左右方向の移動範囲が狭く、移動角度が小さくなるほど、仮想スクリーンSvがホームポジションに戻るまでの所用時間が短くなる。
<車両10が加速する場合>
次に、図14乃至図17を参照して、車両10が加速する場合の仮想スクリーンSvの動きについて説明する。より具体的には、車両10が前方に直進しながら加速する場合の仮想スクリーンSvの動きについて説明する。
図14は、車両10が加速した場合の仮想スクリーンSvの動きの例を示している。
図14のAは、車両10が加速する前の仮想スクリーンSvの状態を示している。仮想スクリーンSvは、ホームポジションに設定されている。
その後、車両10が加速を開始しても、仮想スクリーンSvは、車両10の加速前と略同じ速度で直進する。従って、図14のB及びCに示されるように、仮想スクリーンSvが仮想視点Pvに接近し、仮想視点Pvから見て、仮想スクリーンSvが徐々に大きくなる。
そして、例えば、仮想スクリーンSvのサイズが上限に達したら、仮想スクリーンSvの拡大が終了する。仮想スクリーンSvのサイズの上限は、例えば、仮想スクリーンSvの高さ及び幅の少なくとも一方が、ウインドシールド301の高さ及び幅に達するサイズとされる。例えば、仮想スクリーンSvの高さがウインドシールド301の高さに達するのが、仮想スクリーンSvの幅がウインドシールド301の幅に達するより早い場合、仮想スクリーンSvの高さがウインドシールド301の高さに達したときのサイズが、仮想スクリーンSvのサイズの上限となる。一方、例えば、仮想スクリーンSvの幅がウインドシールド301の幅に達するのが、仮想スクリーンSvの高さがウインドシールド301の高さに達するより早い場合、仮想スクリーンSvの幅がウインドシールド301の幅に達したときのサイズが、仮想スクリーンSvのサイズの上限となる。
例えば、仮想スクリーンSvがホームポジションに設定され、スクリーン距離ds=標準距離ds0である場合に車両10が加速を開始したとき、仮想スクリーンSvの各辺の倍率mは、次の式(6)で表される。
m=1/(1-(αc/2ds0)×t) ・・・(6)
tは、車両10が加速を開始してからの経過時間を示している。また、倍率mは、仮想スクリーンSvがホームポジションに設定されているときの辺の長さに対する倍率を示している。
図15は、式(6)の倍率mが2倍になるまでに要する時間の例を示している。図15の横軸は車両10の加速度αc(単位はm/s)を示し、縦軸は時間(単位は秒)を示している。また、標準距離ds0=3.6mであるとする。
この例で示されるように、加速度αcが大きくなるほど、倍率mが2倍になるまでの所用時間は短くなる。例えば、加速度αcが旅客機の離陸時の加速度とほぼ同じ1.9m/sである場合、所要時間は約1.4秒となる。例えば、加速度αcが市販車のフル加速時とほぼ同じ2.9m/sである場合、所要時間は約1.1秒となる。
仮想スクリーンSvが、サイズが上限に達した後も同様の動きを維持すると、ウインドシールド301からはみ出し、仮想スクリーンSvの視認性が低下する。また、仮想スクリーンSvのサイズを上限のまま維持したとしても、ウインドシールド301のほとんどが仮想スクリーンSvにより占められるため、ユーザが車両10の周囲の風景を知覚しづらくなる。その結果、ユーザの乗り物酔いを誘発するおそれがある。
そこで、上述したように、仮想スクリーンSvのサイズが上限に達した場合、仮想スクリーンSvの速度vs及び加速度αsが車両10と同じ速度及び加速度に一旦リセットされ、さらに、仮想スクリーンSvは、ホームポジションに戻る方向に加速される。
これにより、例えば、図16のA乃至Cに示されるように、仮想視点Pvから見て、仮想スクリーンSvが、徐々に遠ざかることにより縮小し、最終的にホームポジションに戻る。
しかし、この仮想スクリーンSvのホームポジションに戻る動きは、車両10の動きとは異なる加速度をユーザに感じさせるため、乗り物酔いを誘発する恐れがある。従って、仮想スクリーンSvは、その加速度をあまり感じさせない程度に、徐々にホームポジションに戻される。例えば、仮想視点Pvから見て、仮想スクリーンSvが車両10から遠ざかる加速度が、所定の閾値(例えば、0.1G)以下に抑制される。
図17は、仮想スクリーンSvがホームポジションに戻るまでの仮想スクリーンSvの各辺の倍率の変化を示している。横軸は、仮想スクリーンSvが縮小を開始してからの経過時間(単位は秒)を示し、縦軸は、仮想スクリーンSvの各辺のホームポジションにおける長さに対する倍率を示している。また、標準距離ds0=3.6mであり、仮想スクリーンSvが仮想視点Pvから遠ざかる方向の加速度が0.1Gであるものとする。
この場合、例えば、仮想スクリーンSvの各辺が、ホームポジション時の2倍の長さから元の長さ(倍率=1倍)に戻るまでに約1.9秒要する。
<車両10が減速する場合>
次に、図18乃至図20を参照して、車両10が減速する場合の仮想スクリーンSvの動きについて説明する。より具体的には、車両10が前方に直進しながら減速する場合の仮想スクリーンSvの動きについて説明する。
図18は、車両10が減速した場合の仮想スクリーンSvの動きの例を示している。
図18のAは、車両10が減速する前の仮想スクリーンSvの状態を示している。仮想スクリーンSvは、ホームポジションに設定されている。
その後、車両10が減速を開始しても、仮想スクリーンSvは、車両10の減速前と略同じ速度で直進する。従って、図18のB及びCに示されるように、仮想スクリーンSvが仮想視点Pvから遠ざかり、仮想視点Pvから見て、仮想スクリーンSvが徐々に小さくなる。
そして、例えば、仮想スクリーンSvのサイズが下限に達したら、仮想スクリーンSvの縮小が終了する。
なお、仮想スクリーンSvの縮小により車両10の減速をユーザに知覚させるためには、ある程度の時間を要するため、仮想スクリーンSvのサイズの下限をある程度小さくする必要がある。一方、仮想スクリーンSvを小さくし過ぎると、仮想スクリーンSvの視認性が低下する。
そこで、仮想スクリーンSvのサイズの下限は、仮想スクリーンSvの視認性と、車両10の減速を知覚させるのに必要な時間や縮小率とのトレードオフにより決定される。
仮想スクリーンSvが、サイズが下限に達した後も同様の動きを維持すると、仮想スクリーンSvがさらに小さくなり、仮想スクリーンSvの視認性が低下する。また、仮想スクリーンSvのサイズを下限のまま維持したとしても、仮想スクリーンSvのサイズが縮小されたままなので、仮想スクリーンSvの視認性が低下する。
そこで、上述したように、仮想スクリーンSvのサイズが下限に達した場合、仮想スクリーンSvの速度vs及び加速度αsが車両10と同じ速度及び加速度に一旦リセットされ、さらに、仮想スクリーンSvは、ホームポジションに戻る方向に減速される(負の方向に加速される)。
これにより、例えば、図19のA乃至Cに示されるように、仮想視点Pvから見て、仮想スクリーンSvが、徐々に近づくことにより拡大し、最終的にホームポジションに戻る。
しかし、この仮想スクリーンSvのホームポジションに戻る動きは、車両10の動きとは異なる加速度をユーザに感じさせるため、乗り物酔いを誘発する恐れがある。そこで、仮想スクリーンSvは、その加速度をあまり感じさせない程度に、徐々にホームポジションに戻される。例えば、仮想視点Pvから見て、仮想スクリーンSvが車両10に近づく加速度が、所定の閾値(例えば、0.1G)以下に抑制される。
図20は、仮想スクリーンSvがホームポジションに戻るまでの仮想スクリーンSvの各辺の倍率の変化を示している。横軸は、仮想スクリーンSvが拡大を開始してからの経過時間(単位は秒)を示し、縦軸は、仮想スクリーンSvの各辺のホームポジションにおける長さに対する倍率を示している。また、標準距離ds0=3.6mであり、仮想スクリーンSvが仮想視点Pvに近づく方向の加速度が0.1Gであるものとする。
この場合、例えば、仮想スクリーンSvの各辺が、ホームポジション時の1/2の長さから元の長さ(倍率=1倍)に戻るまでに約2.7秒要する。
以上のようにして、例えば、車両10の自動運転が行われる場合、車両10内のユーザは、車両10の運行とはあまり関係のない映画等のコンテンツを大画面で鑑賞することができる。
また、車両10が旋回、加速、又は、減速した場合、ユーザ(仮想視点Pv)から見て、仮想スクリーンSvが車両10と反対の動きをする。すなわち、ユーザから見て、仮想スクリーンSvが、車両10と逆方向に加速し、移動する。従って、ユーザは、仮想スクリーンSvのサイズが大きいため、周辺視野により車両10の周囲の景色の動きを知覚することが困難な状況においても、仮想スクリーンSvにおける映像に集中したまま、車両10の動きを知覚することができる。その結果、ユーザの乗り物酔いを防止することができる。
さらに、仮想スクリーンSvがウインドシールド301の左端又は右端に達したり、仮想スクリーンSvのサイズが上限又は下限に達したりした後、仮想スクリーンSvが、ユーザにあまり加速度を感じさせない程度に移動し、ホームポジションに戻される。これにより、ユーザの乗り物酔いを防止しつつ、映像の視認性の低下を防止することができる。
<<3.第2の実施の形態>>
次に、図21乃至図26を参照して、本技術の第2の実施の形態について説明する。
なお、この第2の実施の形態は、図1の車両制御システム100のうち、入力部101、出力制御部105、出力部106、検出部131、及び、自己位置推定部132、状況分析部133、及び、計画部134の処理に関連するものである。
具体的には、第1の実施の形態では、車両10の実際の動きに基づいて、仮想スクリーンSvの位置が制御されたが、第2の実施の形態では、予測される車両10の動きに基づいて、仮想スクリーンSvの位置が制御される。
<情報処理部401の構成例>
図21は、例えば、図2の情報処理システム200のCPU202及びGPU203が、所定の制御プログラムを実行することにより実現される情報処理部401の構成例を示している。なお、図中、図3の情報処理部251と対応する部分には同じ符号を付してあり、その説明は適宜省略する。
情報処理部401は、情報処理部251と比較して、動き検出部261、自己位置推定部262、及び、表示制御部264を備える点で一致し、動き予測部411が追加され、表示位置設定部263の代わりに表示位置設定部412が設けられている点が異なる。
動き予測部411は、図1のルート計画部161により計画された車両10のルート、及び、行動計画部162により計画された車両10の行動計画等に基づいて、車両10の動きを予測する。
なお、例えば、動き予測部411の機能を動き検出部261に設けるようにしてもよい。
表示位置設定部412は、予測される車両10の動きに基づいて、仮想スクリーンSvの位置、並びに、仮想スクリーンSvの位置に対応する表示デバイス204の映像の表示位置を設定する(動かす)。
<表示制御処理の第2の実施の形態>
次に、図22のフローチャートを参照して、情報処理システム200により実行される表示制御処理の第2の実施の形態について説明する。
ステップS101において、動き検出部261は、車両10の動きを検出する。例えば、動き検出部261は、センサ部205からのセンサデータに基づいて、車両10の速度vc、加速度αc、及び、舵角等を検出する。
ステップS102において、図4のステップS2の処理と同様に、車両10の位置及び向きが更新される。
ステップS103において、動き予測部411は、車両10の動きを予測する。
例えば、動き予測部411は、車両10の現在位置付近のルートを示すデータをルート計画部161から取得する。また、動き予測部411は、車両10の現時点から所定の時間内の行動計画を示すデータを行動計画部162から取得する。動き予測部411は、車両10のルート及び行動計画、並びに、車両10の動きに基づいて、車両10の直近の進路を予測する。
なお、車両10の動きを予測する方法は、任意であり、他の方法を採用することも可能である。
例えば、動き予測部411が、画像認識やSLAM(Simultaneous Localization and Mapping)等の三次元空間認識により、道路が続いている方向を認識し、車両10のステアリングの舵角、車速、加速度等に基づいて、車両10の進行方向を予測するようにしてもよい。
ステップS104において、表示位置設定部412は、予測される車両10の動きに基づいて、表示位置を更新する。
例えば、表示位置設定部412は、車両10の直近の進路上に仮想スクリーンSvを配置する。
ここで、図23を参照して、仮想スクリーンSvの位置の設定方法の例について説明する。
図23は、車両10を上方から見た図である。進路P1は、動き予測部411により予測された車両10の進路である。角度θ1は、仮想視点Pvからウインドシールド301を介して車外を見ることができる範囲を示している。
例えば、表示位置設定部412は、仮想視点Pvから直線距離で標準距離ds0だけ離れた予測進路P1上の位置Ps1に仮想スクリーンSvを設定する。また、表示位置設定部412は、仮想スクリーンSvの向き(法線ベクトル)を位置Ps1における予測進路P1の向きと逆方向に設定する。従って、仮想スクリーンSvの面は、予測進路P1に対して垂直になる。
さらに、表示位置設定部412は、車両10の向き、並びに、仮想スクリーンSvの向きに基づいて、スクリーン角度θsを算出する。そして、表示位置設定部412は、図4のステップS3の処理と同様に、標準距離ds0及びスクリーン角度θsに基づいて、映像の表示位置Pdを算出する。
ステップS105において、図4のステップS6の処理と同様に、映像がレンダリングされる。
ステップS106において、図4のステップS7の処理と同様に、表示の更新待ちが行われる。そして、グラフィックメモリ207に形成したデータに基づく映像がウインドシールド301に表示されると、処理はステップS101に戻り、ステップS101以降の処理が実行される。
これにより、例えば、図24に示されるように、仮想スクリーンSvが車両10より先に予測進路P1上を移動する。すなわち、仮想スクリーンSvが、車両10より先に左方向への旋回を開始する。
また、例えば、図25のA乃至C及び図26のD乃至Fに示されるように、仮想スクリーンSvは、車両10(仮想視点Pv)との間隔を略一定に保ちつつ、予測される車両10の進路上を車両10よりに先に浮遊しながら移動する。
この仮想スクリーンSvの動きは、例えば、背面にディスプレイを備えるトラックの後ろを車両10が一定の距離を保ちながらピッタリ追従している場合の車両10から見たディスプレイの動きと類似する。
これにより、ユーザは、仮想スクリーンSvの動きに基づいて、車両10の動きを予見することができ、仮想スクリーンSvにおける映像に集中したまま、車両10の動きを把握することができる。その結果、ユーザの乗り物酔いが防止される。
<<4.変形例>>
以下、上述した本技術の実施の形態の変形例について説明する。
以上の説明では、仮想スクリーンSvを車両10の前後方向及び左右方向に動かす例を示したが、例えば、車両10の上下方向にも動かすようにしてもよい。例えば、車両10が上方向に加速している場合、仮想視点Pvから見て、仮想スクリーンSvを下方向に加速させるようしてもよい。逆に、車両10が下方向に加速している場合、仮想視点Pvから見て、仮想スクリーンSvを上方向に加速させるようしてもよい。
また、以上の説明では、仮想視点Pvから見て、仮想スクリーンSvを左右方向に回転させる例を示したが、仮想スクリーンSvを左右方向に回転させずに平行移動させるようにしてもよい。この場合、仮想視点Pvから見て、仮想スクリーンSvがホームポジションから左右方向に移動しても、仮想スクリーンSvは歪まずに矩形のままとなる。
さらに、仮想スクリーンSvのサイズをユーザ毎に可変にするようにしてもよい。例えば、乗り物酔いに弱いユーザに対しては、仮想スクリーンSvを小さくし、車両10の周囲の景色を見せる量を増やし、車両10の動きをより知覚しやすくするようにしてもよい。また、例えば、車両10の加速時の仮想スクリーンSvのサイズの上限を小さくするようにしてもよい。一方、例えば、乗り物酔いに強いユーザに対しては、仮想スクリーンSvを大きくし、映像の視認性を向上させるようにしてもよい。また、例えば、車両10の加速時の仮想スクリーンSvのサイズの上限を大きくするようにしてもよい。
また、以上の説明では、表示位置設定部263が、仮想スクリーンの位置を設定する例を示したが、例えば、車両10の動きに基づいて、映像の表示位置を設定するようにしてもよい。
また、本技術を適用可能な車両の種類は特に限定されない。また、本技術は、先に例示した車両以外にも、ユーザが搭乗することが可能で、周囲の風景又は周囲の風景の映像に重畳して映像を表示することが可能な移動体全般に適用することができる。例えば、飛行機、船舶、電車等が想定される。
<<5.その他>>
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
例えば、図2の情報処理システム200では、CPU202が、例えば、メモリ206に記憶されているプログラムをRAM(不図示)にロードして実行することにより、上述した一連の処理が行われる。
また、CPU202が実行するプログラムは、例えば、パッケージメディア等としてのストレージデバイス209に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
例えば、情報処理システム200では、プログラムは、ストレージデバイス209を装着することにより、バス221を介して、メモリ206にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、ネットワークI/F208で受信し、メモリ206にインストールすることができる。その他、プログラムは、ROM(不図示)やメモリ206に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
移動体の動きに基づいて、前記移動体の所定の視点から見た第1の映像の表示位置を移動させる表示位置設定部と、
設定された表示位置に基づく表示制御を行う表示制御部と
を備える情報処理装置。
(2)
前記表示位置設定部は、前記第1の映像に対応する仮想スクリーンの位置を設定する
前記(1)に記載の情報処理装置。
(3)
前記表示位置設定部は、前記移動体の加速度に基づいて、前記仮想スクリーンの位置を移動させる
前記(2)に記載の情報処理装置。
(4)
前記表示位置設定部は、前記視点から見て前記仮想スクリーンを前記移動体と逆方向に加速させる
前記(3)に記載の情報処理装置。
(5)
前記表示位置設定部は、所定の基準位置を基準にして前記仮想スクリーンを移動させる
前記(4)に記載の情報処理装置。
(6)
前記表示位置設定部は、前記視点から見た前記仮想スクリーンの位置を前記移動体の前後方向及び左右方向に移動させるとともに、前記視点から見た前記仮想スクリーンの位置が前記移動体の前後方向又は左右方向の所定の境界に達した場合、前記仮想スクリーンを前記基準位置に徐々に戻す
前記(5)に記載の情報処理装置。
(7)
前記表示位置設定部は、前記仮想スクリーンを前記基準位置に戻すときの前記視点から見た前記仮想スクリーンの加速度を所定の閾値以下に設定する
前記(6)に記載の情報処理装置。
(8)
前記表示位置設定部は、前記移動体が等速で前進している場合、前記仮想スクリーンの位置を前記基準位置に設定する
前記(5)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記表示位置設定部は、前記仮想スクリーンの位置と前記基準位置との差が大きくなるほど、前記仮想スクリーンの前記基準位置の方向への加速度を大きくする
前記(5)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記表示位置設定部は、前記仮想スクリーンの速度と前記移動体の速度との差が大きくなるほど、前記仮想スクリーンの前記基準位置の方向への加速度を小さくする
前記(9)に記載の情報処理装置。
(11)
前記基準位置は、前記視点から見て前記移動体の略正面中央である
前記(5)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記表示位置設定部は、前記移動体の旋回方向の動きに基づいて、前記視点に対する前記仮想スクリーンの向きを変える
前記(2)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記移動体の動きを予測する動き予測部を
さらに備え、
前記表示位置設定部は、予測される前記移動体の動きに基づいて、前記仮想スクリーンの位置を移動させる
前記(2)に記載の情報処理装置。
(14)
前記表示位置設定部は、予測される前記移動体の進路上に前記仮想スクリーンを配置する
前記(13)に記載の情報処理装置。
(15)
前記表示位置設定部は、前記視点と前記仮想スクリーンとの間の距離を略一定に保つ
前記(14)に記載の情報処理装置。
(16)
前記表示位置設定部は、予測される前記移動体の進路に対して前記仮想スクリーンの面を略垂直に設定する
前記(14)又は(15)に記載の情報処理装置。
(17)
前記表示制御部は、前記移動体の周囲の風景、又は、前記移動体の周囲を撮影した第2の映像に前記第1の映像を重畳する
前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
情報処理装置が、
移動体の動きに基づいて、前記移動体の所定の視点から見た映像の表示位置を移動させ、
設定された表示位置に基づく表示制御を行う
情報処理方法。
(19)
移動体の動きに基づいて、前記移動体の所定の視点から見た映像の表示位置を移動させ、
設定された表示位置に基づく表示制御を行う
処理をコンピュータに実行させるためのプログラム。
(20)
自分の動きを検出する動き検出部と、
自分の動きに基づいて、所定の視点から見た映像の表示位置を移動させる表示位置設定部と、
設定された表示位置に基づく表示制御を行う表示制御部と
を備える移動体。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
10 車両, 100 車両制御システム, 101 入力部, 102 データ取得部, 105 出力制御部, 106 出力部, 131 検出部, 132 自己位置推定部, 133 状況分析部, 134 計画部, 200 情報処理システム, 201 カメラ, 202 CPU, 203 GPU, 204 表示デバイス, 205 センサ部, 251 情報処理部, 261 動き検出部, 262 自己位置推定部, 263 表示位置設定部, 264 表示制御部, 301 ウインドシールド, 401 情報処理部, 411 動き予測部, 412 表示位置設定部, Pv 仮想視点, Pd 表示位置, Sv 仮想スクリーン

Claims (18)

  1. 車両の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から表示装置により表示された第1の映像を見た場合に虚像ができる領域である仮想スクリーンの位置を設定し、前記仮想スクリーンの位置に基づいて、前記表示装置における前記第1の映像の表示領域設定する表示位置設定部と、
    設定された表示領域前記第1の映像を表示するように前記表示装置を制御する表示制御部と
    を備え
    前記表示位置設定部は、前記視点から見て前記車両の加速方向と逆方向に前記仮想スクリーンを加速させる
    情報処理装置。
  2. 前記表示位置設定部は、前記視点から見て前記車両の左右方向の加速方向と逆方向に前記仮想スクリーンを左右方向に加速させる
    請求項1に記載の情報処理装置。
  3. 前記表示位置設定部は、所定の基準位置を基準にして前記仮想スクリーンを移動させる
    請求項に記載の情報処理装置。
  4. 前記表示位置設定部は、前記視点から見た前記仮想スクリーンの位置が前記車両の前後方向又は左右方向の所定の境界に達した場合、前記仮想スクリーンを前記基準位置に徐々に戻す
    請求項に記載の情報処理装置。
  5. 前記表示位置設定部は、前記仮想スクリーンを前記基準位置に戻すときの前記視点から見た前記仮想スクリーンの加速度を所定の閾値以下に設定する
    請求項に記載の情報処理装置。
  6. 前記表示位置設定部は、前記車両が等速で前進している場合、前記仮想スクリーンの位置を前記基準位置に設定する
    請求項に記載の情報処理装置。
  7. 前記表示位置設定部は、前記仮想スクリーンの位置と前記基準位置との差が大きくなるほど、前記仮想スクリーンの前記基準位置の方向への加速度を大きくする
    請求項に記載の情報処理装置。
  8. 前記表示位置設定部は、前記仮想スクリーンの速度と前記車両の速度との差が大きくなるほど、前記仮想スクリーンの前記基準位置の方向への加速度を小さくする
    請求項に記載の情報処理装置。
  9. 前記基準位置は、前記視点から見て前記車両の略正面中央である
    請求項に記載の情報処理装置。
  10. 前記表示位置設定部は、前記視点から見て前記車両の旋回方向と逆方向に前記仮想スクリーンを旋回させる
    請求項に記載の情報処理装置。
  11. 前記車両の動きを予測する動き予測部を
    さらに備え、
    前記表示位置設定部は、予測される前記車両の進路上に前記仮想スクリーンを配置する
    請求項に記載の情報処理装置。
  12. 前記表示位置設定部は、前記視点と前記仮想スクリーンとの間の距離を略一定に保つ
    請求項11に記載の情報処理装置。
  13. 前記表示位置設定部は、予測される前記車両の進路に対して前記仮想スクリーンの面を略垂直に設定する
    請求項11に記載の情報処理装置。
  14. 前記表示制御部は、前記車両の周囲の風景、又は、前記車両の周囲を撮影した第2の映像に前記第1の映像を重畳する
    請求項1に記載の情報処理装置。
  15. 前記表示位置設定部は、前記表示領域のサイズを前記車両のウインドシールドの高さ及び幅以下とする
    請求項1に記載の情報処理装置。
  16. 情報処理装置が、
    車両の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から表示装置により表示された映像を見た場合に虚像ができる領域である仮想スクリーンの位置を設定し、
    前記仮想スクリーンの位置に基づいて、前記表示装置における前記映像の表示領域設定し、
    設定された表示領域前記映像を表示するように前記表示装置を制御し、
    前記視点から見て前記車両の加速方向と逆方向に前記仮想スクリーンを加速させる
    情報処理方法。
  17. 車両の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から表示装置により表示された映像を見た場合に虚像ができる領域である仮想スクリーンの位置を設定し、
    前記仮想スクリーンの位置に基づいて、前記表示装置における前記映像の表示領域設定し、
    設定された表示領域前記映像を表示するように前記表示装置を制御し、
    前記視点から見て前記車両の加速方向と逆方向に前記仮想スクリーンを加速させる
    処理をコンピュータに実行させるためのプログラム。
  18. 表示装置と、
    自分の動きを検出する動き検出部と、
    自分の動きに基づいて、車内のユーザの頭又は目の位置に対応する視点から前記表示装置により表示された映像を見た場合に虚像ができる領域である仮想スクリーンの位置を設定し、前記仮想スクリーンの位置に基づいて、前記表示装置における前記映像の表示領域設定する表示位置設定部と、
    設定された表示領域前記映像を表示するように前記表示装置を制御する表示制御部と
    を備え
    前記表示位置設定部は、前記視点から見て自分の加速方向と逆方向に前記仮想スクリーンを加速させる
    車両
JP2020533414A 2018-08-01 2019-07-18 情報処理装置、情報処理方法、プログラム、及び、車両 Active JP7371629B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018144719 2018-08-01
JP2018144719 2018-08-01
PCT/JP2019/028209 WO2020026825A1 (ja) 2018-08-01 2019-07-18 情報処理装置、情報処理方法、プログラム、及び、移動体

Publications (2)

Publication Number Publication Date
JPWO2020026825A1 JPWO2020026825A1 (ja) 2021-08-19
JP7371629B2 true JP7371629B2 (ja) 2023-10-31

Family

ID=69231763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020533414A Active JP7371629B2 (ja) 2018-08-01 2019-07-18 情報処理装置、情報処理方法、プログラム、及び、車両

Country Status (4)

Country Link
US (1) US11694408B2 (ja)
JP (1) JP7371629B2 (ja)
CN (1) CN112470212A (ja)
WO (1) WO2020026825A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
US11119314B1 (en) * 2020-07-17 2021-09-14 Synapcis Inc. Apparatus and method for mitigating motion sickness through cyclical object projection in digital space
KR20230041751A (ko) * 2020-07-23 2023-03-24 후아웨이 테크놀러지 컴퍼니 리미티드 이미지 디스플레이 방법, 지능형 차량, 저장 매체, 및 장치
JP2023026778A (ja) * 2021-08-16 2023-03-01 株式会社J-QuAD DYNAMICS 表示制御装置
GB2614296A (en) * 2021-12-23 2023-07-05 Sony Group Corp Method, apparatus and computer program product for alleviating motion sickness in a user viewing an image on a display

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006007867A (ja) 2004-06-23 2006-01-12 Matsushita Electric Ind Co Ltd 車載用映像表示装置
WO2007086431A1 (ja) 2006-01-25 2007-08-02 Matsushita Electric Industrial Co., Ltd. 映像表示装置
JP2008149878A (ja) 2006-12-18 2008-07-03 Clarion Co Ltd 運転支援装置
JP2008242251A (ja) 2007-03-28 2008-10-09 Matsushita Electric Ind Co Ltd 映像表示装置
JP2012019452A (ja) 2010-07-09 2012-01-26 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
JP2013148715A (ja) 2012-01-19 2013-08-01 Panasonic Corp 表示装置
JP2014153645A (ja) 2013-02-13 2014-08-25 Seiko Epson Corp 画像表示装置および画像表示装置の表示制御方法
JP2015141700A (ja) 2014-01-30 2015-08-03 京セラ株式会社 表示装置及び表示方法
JP2015184584A (ja) 2014-03-25 2015-10-22 株式会社豊田中央研究所 画像表示制御装置及びプログラム
WO2018042898A1 (ja) 2016-08-29 2018-03-08 マクセル株式会社 ヘッドアップディスプレイ装置
JP2018076027A (ja) 2016-11-11 2018-05-17 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1431922A3 (en) * 1999-02-16 2006-05-24 Sega Enterprises, Ltd. Image displaying device, image processing device and image displaying system
JP2006035980A (ja) 2004-07-26 2006-02-09 Matsushita Electric Ind Co Ltd 乗り心地向上装置
JP4848648B2 (ja) * 2005-03-14 2011-12-28 日産自動車株式会社 車載情報提供装置
CN103777742B (zh) * 2012-10-19 2017-08-25 广州三星通信技术研究有限公司 用于在显示装置中提供用户界面的方法和显示装置
JP6572893B2 (ja) * 2014-06-30 2019-09-11 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム
KR101796986B1 (ko) * 2015-12-14 2017-12-12 현대자동차주식회사 차량 및 그 제어방법

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006007867A (ja) 2004-06-23 2006-01-12 Matsushita Electric Ind Co Ltd 車載用映像表示装置
WO2007086431A1 (ja) 2006-01-25 2007-08-02 Matsushita Electric Industrial Co., Ltd. 映像表示装置
JP2008149878A (ja) 2006-12-18 2008-07-03 Clarion Co Ltd 運転支援装置
JP2008242251A (ja) 2007-03-28 2008-10-09 Matsushita Electric Ind Co Ltd 映像表示装置
JP2012019452A (ja) 2010-07-09 2012-01-26 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
JP2013148715A (ja) 2012-01-19 2013-08-01 Panasonic Corp 表示装置
JP2014153645A (ja) 2013-02-13 2014-08-25 Seiko Epson Corp 画像表示装置および画像表示装置の表示制御方法
JP2015141700A (ja) 2014-01-30 2015-08-03 京セラ株式会社 表示装置及び表示方法
JP2015184584A (ja) 2014-03-25 2015-10-22 株式会社豊田中央研究所 画像表示制御装置及びプログラム
WO2018042898A1 (ja) 2016-08-29 2018-03-08 マクセル株式会社 ヘッドアップディスプレイ装置
JP2018076027A (ja) 2016-11-11 2018-05-17 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Also Published As

Publication number Publication date
WO2020026825A1 (ja) 2020-02-06
JPWO2020026825A1 (ja) 2021-08-19
US11694408B2 (en) 2023-07-04
CN112470212A (zh) 2021-03-09
US20210125417A1 (en) 2021-04-29

Similar Documents

Publication Publication Date Title
JP7371629B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
US11232769B2 (en) Image display system, information processing apparatus, information processing method, program, and mobile object
US11377101B2 (en) Information processing apparatus, information processing method, and vehicle
JP7382327B2 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
JP7374098B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
US11363212B2 (en) Exposure control device, exposure control method, program, imaging device, and mobile body
JP2019045364A (ja) 情報処理装置、自己位置推定方法、及び、プログラム
JPWO2019073795A1 (ja) 情報処理装置、自己位置推定方法、プログラム、及び、移動体
WO2020183892A1 (ja) 情報処理装置及び情報処理方法、並びに移動体装置
CN112837209B (zh) 对鱼眼镜头生成具有畸变的图像的新方法
WO2021060018A1 (ja) 信号処理装置、信号処理方法、プログラム、及び、移動装置
CN112567726B (zh) 信息处理设备,信息处理方法和计算机可读记录介质
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
JP2022017612A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体
WO2024038759A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7483627B2 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
JP7487178B2 (ja) 情報処理方法、プログラム、及び、情報処理装置
WO2024062976A1 (ja) 情報処理装置及び情報処理方法
WO2022075039A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
KR20230091870A (ko) 카메라 모듈, 정보 처리 시스템, 정보 처리 방법 및 정보 처리 장치
CN117916139A (zh) 车辆控制系统、车辆控制方法和程序
CN118076986A (zh) 信息处理装置、信息处理方法和信息处理程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R151 Written notification of patent or utility model registration

Ref document number: 7371629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151