JP7247901B2 - 移動体制御装置、移動体制御方法、およびプログラム - Google Patents

移動体制御装置、移動体制御方法、およびプログラム Download PDF

Info

Publication number
JP7247901B2
JP7247901B2 JP2020001079A JP2020001079A JP7247901B2 JP 7247901 B2 JP7247901 B2 JP 7247901B2 JP 2020001079 A JP2020001079 A JP 2020001079A JP 2020001079 A JP2020001079 A JP 2020001079A JP 7247901 B2 JP7247901 B2 JP 7247901B2
Authority
JP
Japan
Prior art keywords
user
unit
moving body
information
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020001079A
Other languages
English (en)
Other versions
JP2021111029A (ja
Inventor
琴美 手島
仁 久門
和浩 伊藤
良恵 見上
佑太 間庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020001079A priority Critical patent/JP7247901B2/ja
Priority to US17/112,062 priority patent/US20210208584A1/en
Priority to CN202110013909.0A priority patent/CN113085884A/zh
Publication of JP2021111029A publication Critical patent/JP2021111029A/ja
Application granted granted Critical
Publication of JP7247901B2 publication Critical patent/JP7247901B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示は、移動体制御装置、移動体制御方法、およびプログラムに関する。
ジェスチャによって車両を操作する技術が知られている(例えば、特許文献1参照)。特許文献1に記載の技術は、アクセルペダルやステアリングホイール等の運転操作子を操作不能な状態にした上で車両の自動運転を実行する際に、制御部に撮像装置等が撮像したユーザの手のジェスチャ等が入力されると、車両における加減速や操舵が制御されて、走行経路が変更される。
特開2018-172028号公報
特許文献1に記載された技術は、ユーザが運転操作子を操作して運転する代わりに、ユーザのジェスチャに基づいて車両の加減速や操舵を制御している。そのため、車両等の移動体の運転者は運転の楽しみを得ることができるが、この移動体に搭乗する他の搭乗者は移動体に搭乗する楽しさを享受することが困難であった。また、運転者にとっても、例えば渋滞中等のように移動体の操作を断続的に停止する必要がある場合には、移動体の搭乗の楽しみを享受することは困難であった。これらの点から、移動体に搭乗するユーザが搭乗による楽しさを享受できる技術が求められていた。
本開示は、上記に鑑みてなされたものであって、その目的は、移動体に搭乗するユーザが搭乗による楽しさを享受できる移動体制御装置、移動体制御方法、およびプログラムを提供することにある。
上述した課題を解決し、上記目的を達成するために、本開示に係る移動体制御装置は、ハードウェアを有するプロセッサを備え、前記プロセッサは、移動体の外部および内部の少なくとも一方の空間情報を取得し、前記空間情報に基づいて前記移動体の外部および内部の少なくとも一方の情報を含む仮想画像を生成して前記移動体に搭乗したユーザが視認可能な表示部に出力し、前記ユーザが所定の動作を行った場合に、前記ユーザの前記動作の検出結果を取得し、前記検出結果における前記ユーザの前記動作に基づいて前記仮想画像を更新して出力し、前記検出結果に基づいた前記移動体に対する制御信号を出力する。
この構成によれば、搭乗しているユーザが、仮想画像を見ながら仮想画像に対応した動作を行うことができ、当該ユーザの動作に対応させて移動体を制御することができるので、移動体に搭乗するユーザが搭乗による楽しさを享受することが可能となる。
本開示の一態様に係る移動体制御装置において、前記プロセッサは、前記移動体の安全度を算出し、前記安全度が所定の基準を満たす場合に、前記制御信号を前記移動体に出力しても良い。
この構成によれば、移動体の走行上の安全性を確保した上で、移動体の制御を実行できるので、搭乗しているユーザに安心感を与えることができる。
本開示の一態様に係る移動体制御装置において、前記プロセッサは、前記移動体の位置情報と前記位置情報に基づく交通情報とを取得し、前記交通情報に基づいて、前記移動体が渋滞に巻き込まれていると判定した場合に、前記制御信号を前記移動体に出力しても良い。
この構成によれば、移動体が渋滞に巻き込まれている間に、移動体の制御を実行できるので、渋滞時においても移動体に搭乗しているユーザが楽しさを享受でき、渋滞に巻き込まれた状況でユーザが感じやすい退屈さやストレスを緩和できる。
本開示の一態様に係る移動体制御装置において、前記プロセッサは、前記移動体の位置情報と前記位置情報に基づく交通情報とを取得し、前記ユーザが、あらかじめ設定された動作を行った場合に、前記交通情報に基づいて前記移動体の外部の状態を前記移動体の上方の視点で見た仮想画像を生成し、前記表示部に出力しても良い。
この構成によれば、ユーザは外部の状況を視覚的に認識できるので、例えば移動体が渋滞に巻き込まれた場合等に、渋滞の状態を俯瞰的に認識できるので、渋滞によってユーザが感じやすいストレスや不安を緩和することができる。
本開示の一態様に係る移動体制御装置において、前記表示部は、前記ユーザが装着するウェアラブルデバイスに設けられていても良い。
この構成によれば、ユーザが様々な動作を行っても、ユーザは表示部に表示された仮想画像を常に視認できるので、ユーザが受ける臨場感を維持できる。
本開示の一態様に係る移動体制御方法は、ハードウェアを有するプロセッサが、第1センサから移動体の外部および内部の少なくとも一方の空間情報を取得し、前記空間情報に基づいて前記移動体の外部および内部の少なくとも一方の情報を含む仮想画像を生成して前記移動体に搭乗したユーザが視認可能な表示部に出力し、前記移動体に搭乗したユーザが、所定の動作を行った場合に、第2センサが検出した前記ユーザの前記動作の検出結果を取得し、前記検出結果における前記ユーザの前記動作に基づいて前記仮想画像を更新して出力し、前記検出結果に基づいた前記移動体に対する制御信号を出力して、前記移動体を制御する。
この移動体制御方法によれば、搭乗しているユーザが、仮想画像を見ながら仮想画像に対応した動作を行うことができ、当該ユーザの動作に対応させて移動体を制御することができるので、移動体に搭乗するユーザが搭乗による楽しさを享受することが可能となる。
本開示の一態様に係るプログラムは、ハードウェアを有するプロセッサに、移動体の外部および内部の少なくとも一方の空間情報を取得し、前記空間情報に基づいて前記移動体の外部および内部の少なくとも一方の情報を含む仮想画像を生成して表示部に出力し、前記移動体に搭乗したユーザが、所定の動作を行った場合に、前記ユーザの前記動作の検出結果を取得し、前記検出結果における前記ユーザの前記動作に基づいて前記仮想画像を更新して出力し、前記検出結果に基づいた前記移動体に対する制御信号を出力することを実行させる。
このプログラムによれば、プロセッサに、搭乗しているユーザが、仮想画像を見ながら仮想画像に対応した動作を行うことができ、当該ユーザの動作に対応させて移動体を制御することができるので、移動体に搭乗するユーザが搭乗による楽しさを享受できる処理を実行させることが可能となる。
本開示に係る移動体制御装置、移動体制御方法、およびプログラムによれば、搭乗しているユーザが、仮想画像を見ながら仮想画像に対応した動作を行うことができ、当該ユーザの動作に対応させて移動体を制御できるので、移動体に搭乗するユーザが搭乗による楽しさを享受することが可能となる。
図1は、一実施形態による移動体制御システムの概略構成を示す模式図である。 図2は、一実施形態による移動体制御装置を備えるウェアラブルデバイスを装着した乗員が搭乗した移動体の例を示す斜視透過図である。 図3は、一実施形態による車両端末装置の機能構成を示すブロック図である。 図4は、一実施形態による第1ウェアラブルデバイスの概略構成を示す図である。 図5は、一実施形態による第1ウェアラブルデバイスの機能構成を示すブロック図である。 図6は、一実施形態によるウェアラブルデバイスが実行する処理の概要を示すフローチャートである。 図7は、一実施形態による生成部が生成する仮想画像の例を模式的に示す図である。 図8は、一実施形態による生成部が生成する俯瞰した仮想画像の例を模式的に示す図である。 図9は、一実施形態の第1変形例による移動体端末装置の機能構成を示すブロック図である。 図10は、一実施形態の第2変形例による第2ウェアラブルデバイスの概略構成を示す図である。 図11は、一実施形態の第2変形例による第2ウェアラブルデバイスの機能構成を示すブロック図である。 図12Aは、一実施形態の第3変形例によるユーザの動作の例やユーザが視認している仮想画像の例を説明するための図である。 図12Bは、一実施形態の第4変形例によるユーザの動作の例やユーザが視認している仮想画像の例を説明するための図である。 図12Cは、一実施形態の第5変形例によるユーザの動作の例やユーザが視認している仮想画像の例を説明するための図である。 図12Dは、一実施形態の第6変形例によるユーザの動作の例やユーザが視認している仮想画像の例を説明するための図である。 図12Eは、一実施形態の第7変形例によるユーザの動作の例やユーザが視認している仮想画像の例を説明するための図である。 図13は、その他の実施形態によるウェアラブルデバイスの概略構成を示す図である。 図14は、その他の実施形態によるウェアラブルデバイスの概略構成を示す図である。 図15は、その他の実施形態によるウェアラブルデバイスの概略構成を示す図である。 図16は、その他の実施形態によるウェアラブルデバイスの概略構成を示す図である。
以下、本開示の一実施形態について図面を参照しつつ説明する。なお、以下の一実施形態の全図においては、同一または対応する部分には同一の符号を付す。また、本開示は以下に説明する一実施形態によって限定されるものではない。
まず、本開示の一実施形態による移動体制御装置について説明する。図1は、この一実施形態による移動体制御装置を含む移動体制御システムの概略構成を示す模式図である。
(移動体制御システムの構成)
図1に示すように、移動体制御システムは、例えば、移動体1に搭載された移動体端末装置10を備える。移動体1には、第1ウェアラブルデバイス30を装着したユーザU1が搭乗していたり、第2ウェアラブルデバイス40を装着したユーザU2に装着していたりする。移動体制御システムは、ネットワーク2を介して接続された交通情報サーバ20をさらに備えても良い。この場合、移動体端末装置10は、ネットワーク2を介して交通情報サーバ20と通信可能である。なお、本明細書において、ウェアラブルデバイスとは、ユーザが装着可能なデバイスを意味し、画像を表示する表示部を備えていても備えていなくても良い。
交通情報サーバ20は、道路上の交通情報を収集して、道路における交通等の情報を取得する。交通情報サーバ20は、制御部21、通信部22、記憶部23、および交通情報収集部24を備える。
制御部21は、具体的に、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field-Programmable Gate Array)等のプロセッサ、およびRAM(Random Access Memory)やROM(Read Only Memory)等の主記憶部を備える。
通信部22は、例えば、LAN(Local Area Network)インターフェースボードや、無線通信のための無線通信回路等であり、有線通信または無線通信可能な通信モジュールを用いて構成される。LANインターフェースボードや無線通信回路は、公衆通信網であるインターネット等のネットワーク2に接続できる。また、通信部22は、所定の通信規格、例えば、4G、5G、Wi-Fi(Wireless Fidelity)(登録商標)およびBluetooth(登録商標)等に従って、外部と通信可能としても良い。通信部22は、ネットワーク2に接続して、移動体端末装置10等と通信を行っても良い。通信部22は、ネットワーク2に接続して、交通情報を取得するビーコン等との間で通信を行っても良い。通信部22は、必要に応じて、移動体端末装置10に交通情報を送信する。なお、通信部22によって送信される情報は、これらの情報に限定されない。
記憶部23は、EPROM(Erasable Programmable ROM)、ハードディスクドライブ(HDD、Hard Disk Drive)やSSD(Solid State Drive)、およびリムーバブルメディア等から選ばれた記憶媒体から構成される。なお、リムーバブルメディアは、例えば、USB(Universal Serial Bus)メモリ、または、CD(Compact Disc)、DVD(Digital Versatile Disc)、またはBD(Blu-ray(登録商標) Disc)のようなディスク記録媒体である。記憶部23には、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル、各種データベース等が格納可能である。
制御部21は、記憶部23に格納されたプログラムを主記憶部の作業領域にロードして実行し、プログラムの実行を通じて各構成部等を制御する。これにより、制御部21は、所定の目的に合致した機能を実現できる。記憶部23には、交通情報データベース23aが格納されている。
交通情報収集部24は、通信部22を介して、例えば道路等に設置されたビーコン等の無線標識から交通情報を収集する。交通情報収集部24が収集した交通情報は、記憶部23の交通情報データベース23aに検索可能に格納される。なお、交通情報収集部24がさらに記憶部を備えていても良い。また、交通情報収集部24と、制御部21、通信部22、および記憶部23とを別体に構成しても良い。
移動体制御システムにおいて、ネットワーク2を介して、第1ウェアラブルデバイス30および第2ウェアラブルデバイス40の各々を相互に通信可能にしても良い。また、ネットワーク2を介して、移動体端末装置10、第1ウェアラブルデバイス30、および第2ウェアラブルデバイス40と通信可能な他のサーバを備えていても良い。以下の説明においては、移動体1として車両、特に自律走行可能な自動運転車両を例に説明するが、これに限定されることなく、運転者の運転により走行する車両、バイク、ドローン、飛行機、船舶、および電車等であっても良い。
(移動体)
図2は、一実施形態による移動体の例を示す斜視透過図である。図2においては、移動体制御装置を備える第1ウェアラブルデバイス30を装着したユーザU1が移動体1に搭乗している。
図2に示すように、移動体1においては、室内にユーザU1が搭乗時に着席するシートや所定の情報が表示される表示部152aが設けられている。図2においてユーザU1は第1ウェアラブルデバイス30を装着しているが、必ずしも装着する必要はない。なお、移動体1が運転者の運転によって走行する車両である場合、ステアリングホイールやアクセルペダルやブレーキペダル等の運転操作子が備えられる。
図3は、一実施形態による移動体1の機能構成を示すブロック図である。図3に示すように、例えば車両等の移動体1は、移動体端末装置10、走行部18、および室内設備19を備える。移動体端末装置10は、移動体1における他のECU(Electronic Control Unit)等を備えた走行部18と連携しながら、移動体1の走行を制御する。移動体端末装置10が自動運転の制御プログラムを備える場合、走行部18を制御することで自動運転を継続できる。移動体端末装置10は、室内設備19の各部を制御可能に構成される。
移動体端末装置10は、制御部11、撮像部12、センサ群13、入力部14、カーナビゲーション15、通信部16、および記憶部17を備える。センサ群13は、視線センサ13a、車速センサ13b、開閉センサ13c、およびシートセンサ13dを備える。
制御部11および記憶部17はそれぞれ、物理的には上述した制御部21および記憶部23と同様の構成を有する。制御部11は、移動体端末装置10の各構成要素を統括的に制御するほか、走行部18を制御することによって、移動体1に搭載される各種構成要素の動作を統括的に制御する。記憶部17には、各種の地図データからなる地図データベース17aが格納されている。
移動体1の通信端末としての通信部16は、ネットワーク2を介した無線通信によって、外部のサーバ、例えば交通情報サーバ20等と通信を行う、例えばDCM(Data Communication Module)等から構成しても良い。通信部16は、道路に設置されたアンテナ等と通信する路車間通信を行うことができる。すなわち、通信部16は、交通情報を取得するビーコン等との間で路車間通信等を行っても良い。通信部16は、他の移動体1の通信部16との間で通信を行う車車間通信を行うことができる。路車間通信や車車間通信は、ネットワーク2を介して行っても良い。通信部16は、所定の通信規格、例えば、4G、5G、Wi-Fi(Wireless Fidelity)(登録商標)およびBluetooth(登録商標)等に従って、外部の装置と通信可能に構成される。通信部16は、必要に応じて、ネットワーク2を介して交通情報サーバ20から交通情報を受信する。なお、通信部16によって送受信される情報は、これらの情報に限定されない。
通信部16は、制御部11の制御によって、上述した所定の通信規格に従って、各種のデバイスと通信する。具体的には、通信部16は、制御部11の制御のもと、移動体1に搭乗したユーザU1が装着する第1ウェアラブルデバイス30と各種の情報を送受信できる。また、通信部16は、他の移動体1や、ユーザU2が装着する第2ウェアラブルデバイス40との間で各種の情報を送受信可能である。なお、所定の通信規格は上述した規格に限定されない。
撮像部12は、移動体1の外部に複数設けられる。撮像部12は、例えば、撮影画角が360°となるように移動体1の前方、後方および両側方の4箇所に設けても良い。さらに、撮像部12は、移動体1の内部に複数設けても良い。撮像部12は、制御部11の制御のもと、移動体1の外部空間および内部空間の各々を撮像することによって外部空間および内部空間が写る画像データを生成し、生成した画像データを制御部11に出力する。撮像部12は、光学系とイメージセンサと、を用いて構成される。光学系は、1または複数のレンズを用いて構成される。イメージセンサは、光学系が結像した被写体像を受光することによって画像データを生成するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等からなる。
センサ群13は、種々のセンサを備えて構成される。例えば、視線センサ13aは、移動体1に搭乗したユーザU1の視線および網膜を含む視線情報を検出し、検出した視線情報を制御部11に出力する。視線センサ13aは、光学系と、CCDまたはCMOSと、メモリと、CPUやGPU(Graphics Processing Unit)等のハードウェアを有するプロセッサとを用いて構成される。視線センサ13aは、例えば周知のテンプレートマッチングを用いてユーザU1における、例えば目頭等の目の動かない部分を基準点として検出し、かつ、例えば虹彩等の目の動く部分を動点として検出する。視線センサ13aは、基準点と動点との位置関係に基づいてユーザU1の視線を検出し、検出結果を制御部11に出力する。視線センサ13aは、ユーザU1の網脈を検出し、検出結果を制御部11に出力しても良い。
なお、一実施形態では、視線センサ13aを可視カメラによってユーザU1の視線を検出しているが、これに限定されることなく、赤外カメラによってユーザU1の視線を検出しても良い。視線センサ13aを赤外カメラによって構成する場合、赤外LED(Light Emitting Diode)等によって赤外光をユーザU1に照射し、赤外カメラでユーザU1を撮像することによって生成された画像データから基準点(例えば角膜反射)および動点(例えば瞳孔)を検出し、この基準点と動点との位置関係に基づいてユーザU1の視線を検出する。
車速センサ13bは、移動体1の走行時における車速を検出し、検出結果を制御部11に出力する。開閉センサ13cは、ユーザが出入りするドアの開閉を検出し、検出結果を制御部11に出力する。開閉センサ13cは、例えばプッシュスイッチ等を用いて構成される。シートセンサ13dは、各席に対する着座の状態を検出し、検出結果を制御部11に出力する。シートセンサ13dは、移動体1に設けられた各席の座面の下に設置された荷重検出装置または圧力センサ等を用いて構成される。
入力部14は、例えば、キーボードや表示部152aに組み込まれて表示パネルのタッチ操作を検出するタッチパネル式キーボード、または外部との間で通話可能な音声入力デバイス等から構成される。ここで、外部との間の通話は、他の移動体端末装置10との通話のみならず、例えば外部のサーバを操作するオペレータや人工知能システムとの通話等も含む。入力部14が音声入力デバイスからなる場合、入力部14は、ユーザU1の音声の入力を受け付け、受け付けた音声に応じた音声データを制御部11に出力する。音声入力デバイスは、マイクロフォン、マイクロフォンが受け付けた音声を音声データに変換するA/D変換回路、および音声データを増幅するアンプ回路等を用いて構成される。なお、マイクロフォンの代わりに、音を出力可能なスピーカマイクロホンから構成しても良い。
カーナビゲーション15は、測位部151と報知部152とを有する。測位部151は、例えば、複数のGPS(Global Positioning System)衛星や送信アンテナからの信号を受信して、受信した信号に基づいて移動体1の位置を算出する。測位部151は、GPS受信センサ等を用いて構成される。測位部151を構成するGPS受信センサ等を複数個搭載することによって移動体1の向き精度を向上させても良い。なお、移動体1の位置を検出する方法として、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)と3次元デジタル地図とを組み合わせた方法を採用しても良い。報知部152は、画像、映像および文字情報を表示する表示部152aと、音声や警報音等の音を発生する音声出力部152bと、を有する。表示部152aは、液晶や有機EL等の表示ディスプレイを用いて構成される。音声出力部152bは、スピーカ等を用いて構成される。
カーナビゲーション15は、測位部151によって取得した現在の移動体1の位置を、記憶部17の地図データベース17aに格納された地図データと重ねる。これによって、カーナビゲーション15は、移動体1が現在走行している道路および目的地までの経路等を含む情報を、表示部173aおよび音声出力部173bの少なくとも一方によってユーザU1に報知できる。表示部173aは、制御部11の制御に従って、タッチパネルディスプレイの画面上に文字や図形等を表示したりする。なお、カーナビゲーション15が入力部14を備えても良い。この場合、表示部173a、音声出力部173b、および入力部14を、タッチパネルディスプレイやスピーカマイクロホン等から構成しても良く、表示部173aに入力部14の機能を含めて機能させても良い。音声出力部153bは、制御部11の制御に従って、スピーカマイクロホンから音声を出力したりして、所定の情報を外部に通知したりする。
なお、移動体1は、ユーザが所有するユーザ端末装置との間で、近距離無線通信技術として例えばBLE認証情報に基づく認証を行って、移動体1の施錠や解錠を実行するキーユニットを備えていても良い。
走行部18は、駆動部181および操舵部182を備える。駆動部181は、移動体1の走行に必要な駆動装置や、駆動を車輪等に伝達する駆動伝達装置を含む。具体的に移動体1は、駆動源としてモータやエンジンを備える。モータはバッテリからの電力によって駆動する。エンジンは燃料の燃焼による駆動によって電動機等を用いて発電可能に構成される。発電された電力は充電可能なバッテリに充電される。移動体1は、駆動源の駆動力を伝達する駆動伝達機構、および走行するための駆動輪等を備える。操舵部182は、操舵輪となる車輪の舵角を変更して、移動体1の走行方向や向きを決定する。
室内設備19は、例えばリクライニング機能を有するシート部191を備える。なお、室内設備19はさらに、エアコンディショナ、車内灯、およびテーブル等を備えても良い。
(第1ウェアラブルデバイス)
次に、第1ウェアラブルデバイス30の構成について説明する。図4は、第1ウェアラブルデバイス30の概略構成を示す図である。図5は、第1ウェアラブルデバイス30の機能構成を示すブロック図である。
図4および図5に示す移動体制御装置を備える第1ウェアラブルデバイス30は、いわゆるAR(Augmented Reality)を行うためのARグラスである。第1ウェアラブルデバイス30は、ユーザU1の視野領域内に画像、映像、および文字情報等を仮想的に表示する。なお、本明細書において、仮想的な画像、映像、および文字情報等を、仮想画像と総称することある。第1ウェアラブルデバイス30は、撮像装置31、挙動センサ32、視線センサ33、投影部34、GPSセンサ35、装着センサ36、通信部37、および制御部38を備える。
図4に示すように、第1センサとしての撮像装置31は、第1ウェアラブルデバイス30に複数設けられる。撮像装置31は、制御部38の制御のもと、ユーザU1の視線の先を撮像することによって画像データを生成し、この画像データを制御部38に出力する。撮像装置31は、1つまたは複数のレンズから構成される光学系と、CCDやCMOS等のイメージセンサを用いて構成される。
図5に示すように、第2センサとしての挙動センサ32は、第1ウェアラブルデバイス30を装着したユーザU1の挙動に関する挙動情報を検出し、検出結果を制御部38に出力する。具体的に、挙動センサ32は、第1ウェアラブルデバイス30に生じる角速度および加速度を挙動情報として検出し、検出結果を制御部38に出力する。さらに、挙動センサ32は、地磁気を検出することによって絶対方向を挙動情報として検出し、検出結果を制御部38に出力する。挙動センサ32は、3軸ジャイロセンサ、3軸加速度センサ、および3軸地磁気センサ(電子コンパス)等を用いて構成できる。
視線センサ33は、第1ウェアラブルデバイス30を装着したユーザU1の視線の向きを検出し、検出結果を制御部38に出力する。視線センサ33は、光学系、CCDやCMOS等のイメージセンサ、メモリ、およびCPU等のハードウェアを有するプロセッサを用いて構成される。視線センサ33は、例えば周知のテンプレートマッチングを用いて、ユーザU1の例えば目頭等の目の動かない部分を基準点として検出し、かつ、例えば虹彩等の目の動く部分を動点として検出する。視線センサ33は、これらの基準点と動点との位置関係に基づいてユーザU1の視線の向きを検出する。
表示部としての投影部34は、制御部38の制御のもと、第1ウェアラブルデバイス30を装着したユーザU1の網膜に向けて、画像、映像、および文字情報等の仮想画像を投影する。投影部34は、RGBレーザ、MEMSミラー、および反射ミラー等を用いて構成される。RGBレーザは、RGBの各々のレーザ光を出射する。MEMSミラーはレーザ光を反射する。反射ミラーは、MEMSミラーから反射されたレーザ光をユーザU1の網膜へ投影する。なお、投影部34は、制御部38の制御のもと、仮想画像を第1ウェアラブルデバイス30のレンズ39に投影することによって表示させるものでも良い。
GPSセンサ35は、複数のGPS衛星から受信した信号に基づいて第1ウェアラブルデバイス30の位置に関する位置情報を算出し、算出した位置情報を制御部38に出力する。GPSセンサ35は、GPS受信センサ等を用いて構成される。
装着センサ36は、ユーザU1の装着状態を検出し、検出結果を制御部38に出力する。装着センサ36は、ユーザU1が第1ウェアラブルデバイス30を装着した際の圧力を検出する圧力センサや、ユーザU1の体温、脈拍、脳波、血圧、および発汗状態等のバイタル情報を検出するバイタルセンサ等を用いて構成される。
通信部37は、無線通信可能な通信モジュールを用いて構成される。通信部37は、制御部38の制御のもと、上述した所定の通信規格に従って、各種情報を移動体端末装置10との間で送受信する。
制御部38は、物理的には、上述した制御部11,21等と同様の構成を有し、メモリと、CPU、GPU、FPGA、DSPおよびASIC等のいずれかのハードウェアを有するプロセッサを用いて構成される。制御部38は、第1ウェアラブルデバイス30を構成する各部の動作を制御する。制御部38は、取得部381、判定部382、生成部383、出力制御部384、および走行制御部385を備える。一実施形態においては、制御部38が移動体制御装置のプロセッサとして機能する。
取得部381は、通信部37を介して、移動体端末装置10から各種情報を取得する。取得部381は、例えば交通情報を、移動体端末装置10から取得したり、交通情報サーバ20からネットワーク2および移動体端末装置10を介して取得したりすることができる。取得部381は、ユーザU1の挙動情報、バイタル情報、およびユーザ識別情報を取得できる。なお、取得部381は、通信部37およびネットワーク2を介して、外部のサーバから各種情報を取得することも可能である。
判定部382は、取得部381が取得した各種の情報に基づいて、判定を行う。具体的に、判定部382は、例えば、走行部18の制御の可否や、ユーザU1の移動体1への搭乗の有無や、動作制御の開始の可否や、ユーザU1の身体情報に基づいた動作データの入力の有無等を判定できる。なお、ユーザU1の身体情報は、挙動を示す挙動情報、バイタル情報、ユーザ識別情報、および視線情報等を含む。また、判定部382は、移動体端末装置10の入力部14から所定の情報が入力されたか否かを判定しても良い。また、判定部382は、判定を行う入力パラメータと判定結果を示す出力パラメータとを含む、所定の入出力データセットを用いた機械学習によって生成された、学習済みモデルを有していても良い。この場合、判定部382は、入力された入力パラメータを学習済みモデルに入力して得られた出力パラメータに基づいて、判定を行うことができる。
制御部38は、視線センサ33が検出したユーザU1の視線情報および挙動情報に基づいて、ユーザU1の視野領域内に所定の仮想画像を投影部34に出力させる。すなわち、生成部383は、取得部381が取得した移動体1の空間情報を用いてユーザU1の視点で見た仮想画像を生成する。出力制御部384は、生成部383によって生成された仮想画像の投影部34への出力を制御する。なお、生成部383が生成する仮想画像の詳細については、後述する。走行制御部385は、取得部381が取得したユーザU1の動作に関する動作データに基づいて、移動体端末装置10を介して移動体1の走行部18を制御可能な、動作データに対応した制御信号を出力する。
(移動体制御処理)
次に、第1ウェアラブルデバイス30が実行する移動体制御処理について説明する。図6は、第1ウェアラブルデバイス30が実行する処理の概要を示すフローチャートである。以下の説明において、各種の情報の送受信は、移動体端末装置10の通信部16と第1ウェアラブルデバイス30の通信部37との間で、直接的に、またはネットワーク2を介して行われるが、この点についての都度の説明は省略する。なお、一実施形態において移動体1は、移動体端末装置10の制御部11により自動運転可能に制御される車両であるが、必ずしも限定されない。
図6に示すように、取得部381は、まず、第1ウェアラブルデバイス30の位置情報および移動体1の位置情報を取得する(ステップST1)。続いて、判定部382は、取得部381が取得した第1ウェアラブルデバイス30の位置情報および移動体1の位置情報に基づいて、移動体1にユーザU1が搭乗したか否かを判定する(ステップST2)。なお、判定部382は、第1ウェアラブルデバイス30の位置情報および移動体1の位置情報以外に、移動体端末装置10の開閉センサ13cの検出結果およびシートセンサ13dの検出結果に基づいて、移動体1にユーザU1が搭乗したか否かを判定しても良い。
判定部382が移動体1にユーザU1は搭乗していないと判定した場合(ステップST2:No)、移動体制御処理を終了する。これに対し、判定部382がユーザU1は移動体1に搭乗していると判定した場合(ステップST2:Yes)、処理はステップST3に移行する。
ステップST3において取得部381は、取得した位置情報に基づいて、路車間通信や車車間通信等による交通情報の取得や、交通情報サーバ20等からの交通情報の取得を開始する。なお、取得部381による位置情報および交通情報の取得は、移動体制御処理の実行中は継続して実行される。
次に、ステップST4において判定部382は、挙動センサ32により検出されたユーザU1の動作が、動作制御の開始を要求する要求信号の入力動作であるか否かを判定する。ユーザU1の動作が要求信号の入力動作である場合、動作に伴って判定部382に要求信号が入力される。なお、動作制御の開始を要求する要求信号は、移動体端末装置10の入力部14に対するユーザU1の操作に基づいて、通信部16から通信部37を介して取得部381に入力しても良い。本明細書において、動作制御とは、ユーザU1の動作や発声等に対応させて、走行部18を制御して移動体1の走行を制御したり、第1ウェアラブルデバイス30における仮想画像内でのアバター画像等の動作を制御したりすることである。
判定部382が要求信号は入力されていないと判定した場合(ステップST4:No)、要求信号が入力されるまで、ステップST4を繰り返し実行する。これに対し、判定部382が要求信号は入力されたと判定した段階(ステップST4:Yes)で、処理はステップST5に移行する。
取得部381は、移動体1の内部空間および外部空間の少なくとも一方に関する空間情報を取得する(ステップST5)。具体的に、取得部381は、通信部37を介して、移動体1の撮像部12が移動体1の内部を撮影することによって生成した画像データを内部空間に関する空間情報として取得する。取得部381は、移動体1の撮像部12が移動体1の外部空間を撮影することによって生成した画像データを外部空間に関する空間情報として取得する。さらに、取得部381は、撮像装置31が撮影することによって生成した画像データを、空間情報として取得する。なお、取得部381は、外部空間に関する空間情報として移動体1の撮像部12が生成した画像データを取得しているが、これに限定されることなく、例えば移動体1の位置情報に基づいて、地図データベース17aが記録する地図データから移動体1の現在の位置の周辺の画像データを外部空間に関する空間情報として取得しても良い。
次に、ステップST6において、生成部383が仮想画像を生成し、生成された仮想画像を出力制御部384が投影部34に出力する。具体的に生成部383は、まず、取得部381が取得した空間情報を用いてユーザU1の視点で見た仮想画像を生成する。出力制御部384は、生成部383が生成した仮想画像を投影部34に出力する。投影部34は、入力された仮想画像をユーザU1の網膜に向けて投影する。これにより、ユーザU1は、仮想画像を認識できる。
ここで、生成部383が生成する仮想画像について説明する。図7は、生成部383が生成する仮想画像の一例を模式的に示す図である。図7に示すように、生成部383は、取得部381によって取得された空間情報および交通情報に基づいて、仮想画像P1を生成する。具体的に、生成部383は、移動体1の内部空間の画像に対応させた運転席等の仮想画像を生成する。さらに、生成部383は、ユーザU1の視点から見た手や腕等の画像を取得したり、または仮想画像を生成したりする。生成部383は、移動体1が走行している外部空間の画像を取得したり、または仮想画像を生成したりする。生成部383は、取得した画像や生成した仮想画像を組み合わせて、ユーザU1の視点から見た仮想画像P1を生成する。
続いて、図6に示すように、取得部381は、ユーザU1の挙動情報およびバイタル情報等のいわゆる身体情報を取得する(ステップST7)。なお、ユーザU1を識別するためのユーザ識別情報をさらに取得しても良い。具体的に、取得部381は、挙動センサ32が検出した挙動情報、装着センサ36が検出したバイタル情報を取得する。また、取得部381は、視線センサ33が検出したユーザU1の虹彩を、ユーザU1を識別するユーザ識別情報として取得しても良い。取得部381は、移動体1の撮像部12が生成したユーザU1が写る画像データを時系列に沿って取得しても良い。この場合、制御部38は、時系列の画像データに対して、周知のオプティカルフローを用いた物体検出処理や画像処理等によってユーザU1の挙動情報を検出しても取得しても良い。また、制御部38は、画像データに対応する画像に対して、周知のテンプレートマッチングを用いてユーザU1の顔を検出し、検出した顔をユーザ識別情報として取得しても良い。
その後、判定部382は、取得部381により取得された空間情報および挙動情報に基づいて、ユーザU1の姿勢が変化したか否か、すなわちユーザU1の動作を示す動作データが取得部381に入力されたか否かを判定する(ステップST8)。判定部382が所定の動作のデータとしての動作データは入力されていないと判定した場合(ステップST8:No)、ステップST5に復帰する。これに対し、判定部382が動作データは入力されたと判定した場合(ステップST8:Yes)、処理はステップST9に移行する。
その後、生成部383は、動作データに対応した仮想画像を生成して、出力制御部384が仮想画像を出力する。具体的に生成部383は、取得部381が取得した空間情報を用いて、ユーザU1の動作に対応させて、ユーザU1の視点または俯瞰した視点で見た仮想画像を生成する。出力制御部384は、生成部383が生成した仮想画像P1や仮想画像P2を投影部34に出力し、ユーザU1の網膜に向けて投影する。
例えば、ユーザU1が、図7に示すステアリングを回す動作を行った場合、生成部383が生成する仮想画像P1は、ユーザU1の手によってステアリングが回される仮想の映像となる。また、時間の経過に伴って外部空間の情景も変化する。これにより、ユーザU1は、自身が行った動作に対して仮想画像が応答したと認識できる。これにより、ユーザU1は、移動体1を運転しているような感覚を得ることができ、移動体1を操作する楽しさを享受できる。
また、例えば、ユーザU1が、あらかじめ設定された動作として例えば鳥に類似した動作等を行った場合、生成部383が生成する仮想画像P2は、例えば図8に示すような、移動体1から鉛直上方に視点が移動する仮想の映像となる。なお、あらかじめ設定された動作は、必ずしも鳥に類似した動作に限定されず、任意の動作を設定することが可能である。図8は、生成部383が生成する道路等を俯瞰した仮想画像の例を模式的に示す図である。図8は、特に渋滞時の状況を示す仮想画像P2である。
図8に示すように、生成部383は、取得部381が取得した空間情報および交通情報に基づいて、ユーザU1が搭乗している移動体1から鉛直上方に移動させた視点から見た、道路上の車列等の仮想画像を生成する。この場合、仮想画像P2に含まれる道路や前方の他の移動体等は、例えばイラスト画像等を用いることができる。イラスト画像は、取得部381が取得した空間情報および交通情報に基づいて生成できる。ここで、図8に示す仮想画像P2においては、移動体1の走行している道路において渋滞の状態が描画されている。すなわち、渋滞情報等の交通情報に基づいて渋滞している状態の移動体の台数を算出し、算出した移動体の台数分だけ仮想的に移動体が描写される。また、ユーザU1が搭乗している移動体1の情報から、地図上に渋滞状態を表示させるような仮想画像を生成しても良く、渋滞の先頭の状態を描画した仮想画像を生成しても良い。さらに、図8に示す仮想画像P2に、文字情報を重畳させても良い。この場合、渋滞の先頭が交通事故現場であるような場合等において、事故情報を含む交通情報内容に基づいて、事故の状況を視覚的に描画したり、文字や音声で出力したりしても良い。
これにより、ユーザU1は、現在の移動体1の周囲の状況を認識できる。例えば、移動体1が渋滞に巻き込まれている場合、ユーザU1は、仮想画像P2によって、渋滞の先頭の状態等を認識できる。そのため、ユーザU1にとっては、巻き込まれている渋滞がどの程度の渋滞であるかを視覚的に認識できるので、渋滞によるストレスや不安感を緩和する効果が期待できる。
次に、図6に示すステップST10において判定部382は、動作制御により走行部18を制御可能であるか否かを判定する。例えば、判定部382は、取得部381が移動体端末装置10の撮像部12から取得した画像データ、および移動体1の位置情報と現在位置における交通情報とに基づいて、移動体1の安全度を算出する。判定部382が移動体1の安全度は所定の基準を満たしていると判定した場合(ステップST10:Yes)、処理はステップST12に移行する。ここで、判定部382が、例えば安全度を数値で導出し、かつ数値が高いほど安全である場合、導出した安全度の数値が所定値以上の場合に、安全度が所定の基準を満たしているとする。反対に、安全度を数値で導出し、かつ数値が低いほど安全である場合、導出した安全度の数値が所定値以下等の場合に、安全度が所定の基準を満たしているとする。
これに対し、判定部382が移動体1の安全度は基準を満たしていないと判定した場合(ステップST10:No)、ステップST11に移行する。制御部38の走行制御部385は、走行部18の制御を切り離す(ステップST11)。具体的には、制御部38は、走行制御部385から移動体端末装置10への走行部18を制御するための制御信号の送信を遮断したり停止したりする。この場合、移動体端末装置10は、自動運転の制御プログラムに基づいた制御信号による走行部18の制御を継続する。これにより、ユーザU1の動作や発声に対応させて走行部18を制御可能に構成しても、安全性が確保できない場合には制御不能にできるため、移動体1の安全性を確保できる。
ここで、安全度については、種々のパラメータに基づいて算出できる。具体的には、ユーザU1が搭乗している移動体1における、前後の移動体1との距離、走行経路、速度や加速度、周囲の緊急車両等の有無等を数値化した値等に基づいて、安全度を算出できる。また、走行している道路の信号や横断歩道の数、周辺の歩行者の人数、天候状態、道路状態等を数値化した値等に基づいて、安全度を算出できる。なお、移動体1の安全度の算出を、機械学習によって生成された学習済みモデルを用いて行っても良い。
また、判定部382が、動作制御による走行部18の制御が可能か否かを判定する方法としては、安全度を用いた判定以外の方法を採用しても良い。例えば、判定部382は、移動体1が渋滞に巻き込まれたか否かを判定することによって、動作制御による走行部18の制御が可能か否かを判定しても良い。この場合、判定部382は、移動体1において車速が所定速度以下となる低速の状態が所定時間以上続いた場合に、渋滞に巻き込まれたと判定できる。所定速度は例えば10km/h等と任意に設定でき、所定時間も例えば10分等と任意に設定できる。また、判定部382は、取得部381が取得した交通情報に基づいて、移動体1が現在位置において渋滞に巻き込まれたか否かを判定できる。例えば、交通情報に基づいて、停止および発進を繰り返す状態が15分以上、かつ車列が1km以上である場合に、判定部382は、移動体1が渋滞に巻き込まれたと判定できる。なお、渋滞に巻き込まれたか否かの判定は、種々の方法を採用できる。判定部382は、移動体1が渋滞に巻き込まれたと判定した場合に、動作制御による走行部18の制御が可能であると判定できるが、渋滞に巻き込まれたと判定した場合に、動作制御による走行部18の制御が不可であると判定しても良い。
判定部382が動作制御による走行部18の制御が可能であるか否かを判定する方法として、上述した安全度を用いた判定と、渋滞の有無の判定とを組み合わせても良い。例えば、判定部382は、移動体1が渋滞に巻き込まれたと判定するか、または移動体1における安全度が所定値以上であると判定した場合に、動作制御による走行部18の制御が可能であると判定しても良い。
次に、ステップST12において、走行制御部385は、取得部381が取得したユーザU1の動作データに基づいて、動作データに対応した制御信号を出力し、移動体端末装置10を介して移動体1の走行部18を制御する。以下に、第1ウェアラブルデバイス30を用いた移動体1の制御の具体例について説明する。
具体的に例えば、図7に示す仮想画像P1等においては、ユーザU1の視線から見た仮想画像である。例えば、ユーザU1がステアリングを回転させるような動作を行うと、走行部18に対して走行路の変更を行うような制御信号が送信される。制御信号を受信した走行部18は操舵部182を制御して移動体1の車輪の舵角を変更する。これにより、移動体1の走行方向が、ユーザU1のステアリングの回転に対応して変更される。
また、移動体1が自動運転している走行路に対応した文字情報を表示するようにしても良い。具体的に例えば、移動体1がこれから左に曲がるような走行路を進行する場合、仮想画像P1に「ハンドルを左に切って下さい」等の文字情報を表示することで、ユーザU1に対して動作を報知する。これに対応して、ユーザU1がハンドルを左に切る動作を行うと、動作に伴ったタイミングで走行部18の操舵部182を制御して、移動体1が左方向に曲がるように操作しても良い。
また、例えば、手こぎハンドル等の仮想画像を表示し、仮想画像に対してユーザU1が手こぎハンドルを回転させるような動作を行った場合、ユーザU1の動作の運動量を算出して、運動量に応じてバッテリに蓄電しても良い。具体的に、算出したユーザU1の運動量に基づいて、走行部18の駆動部181におけるエンジンの回転数を変更する等して、バッテリへの蓄電を行っても良い。なお、実際に回転させる手こぎハンドル等の操作子と発電機とを移動体1に備え、仮想画像に併せて実際に手こぎハンドル等の操作子を操作させて発電させ、発電機に電気を蓄えるように構成しても良い。さらに、装着センサ36により検出されたユーザU1のバイタル情報に基づいた所定の係数を設定し、算出した運動量に所定の計数を乗じて、ユーザU1の動作の駆動部181に対する制御を変更するようにしても良い。例えば、エンジンの回転数を100rpm増加させるために必要な運動量の設定を、アスリートモード等の場合には大きくし、通常モード等の場合には小さくしても良い。
また、例えば、ブレーキやアクセル等の仮想画像を表示して、ユーザU1がアクセルを踏む動作を行った場合に、走行部18の駆動部181を制御して、エンジンの回転数を増加させたり移動体1を加速させたりすることも可能である。同様に、ユーザU1がブレーキを踏む動作を行った場合に、走行部18の駆動部181を制御して、移動体1の速度を減速させることが可能である。
また、ユーザU1が動作を行っている間に、図6に示すステップST10,ST11において、走行部18への制御が切り離される場合がある。この場合、走行制御部385からの制御信号は、走行部18に入力されずに動作制御による制御が中断される。この場合であっても、仮想画像P1,P2の生成や投影を継続させても良い。その上で、走行部18への制御が切り離されている間のユーザU1の動作を制御部38に記憶させておき、走行部18への制御が可能になった段階で、走行部18の制御に反映させても良い。さらに、走行制御部385は、生成部383が生成する仮想画像やユーザU1の動作等に対応させて、シート部191のリクライニング機能等を制御して、移動体1の室内のシートの状態を変更させても良い。
続いて、図6に示すように、制御部38に終了を指示する指示信号が入力された場合(ステップST13:Yes)、処理を終了する。終了を指示する指示信号を制御部38に入力する方法としては、種々の方法が採用できる。例えば、終了を指示する指示信号は、例えば、ブレーキ等を踏む動作を行ったり、移動体1の入力部14等に所定の情報を入力したりすることで入力可能である。これに対し、制御部38に終了を指示する指示信号が入力されていない場合(ステップST13:No)、処理はステップST5に復帰する。以上により、第1ウェアラブルデバイス30による移動体1の走行制御が終了する。
移動体が自律走行可能な移動体である場合、ユーザが移動体に搭乗して移動している間は、ユーザによる運転操作が不要になる。また、ユーザが移動体に搭乗してユーザによる運転を伴う場合であっても、渋滞等に遭遇する場合がある。このような場合においても、以上説明した本開示の一実施形態によれば、移動体1に搭乗したユーザU1が、第1ウェアラブルデバイス30の投影部34に投影された仮想画像を見ながら、仮想画像に対応した動作を行って、移動体1を操作できる。これにより、ユーザU1は、移動体1に搭乗する楽しさや移動体1を操作する楽しさを享受することが可能となる。
(第1変形例)
図9は、一実施形態の変形例による移動体端末装置の機能構成を示すブロック図である。図9に示す移動体端末装置10Aは、上述した一実施形態による移動体端末装置10の制御部11に替えて、制御部11Aを備えるとともに、センサ群13が動作センサ13eを備える。制御部11Aは物理的には、制御部11と同様の構成を有する。制御部11Aは、取得部111、判定部112、生成部113、および出力制御部114を備える。取得部111、判定部112、生成部113、および出力制御部114はそれぞれ、上述した取得部381、判定部382、生成部383、および出力制御部384と同様である。第2センサとしての動作センサ13eは、移動体1内のユーザU1の動作を検出する。第1変形例においては、制御部11Aが移動体制御装置のプロセッサとして機能する。
第1変形例においては、生成部113が生成した仮想画像は、表示部152aに表示される。ユーザU1の動作は、撮像部12によって撮影されたり、動作センサ13eによって検出されたりする。これにより、制御部11の取得部111は、ユーザU1の挙動情報を取得できる。また、ユーザU1は、ユーザU1のバイタル情報等を取得可能で、通信部16と通信可能な腕時計型のウェアラブルデバイスを装着していても良い。その上で、ユーザU1が装着したウェアラブルデバイスから移動体端末装置10Aの取得部111に、通信部16を介してユーザU1のバイタル情報を送信しても良い。これにより、判定部112は、ユーザU1のバイタル情報に基づいた判定を行うことができる。以上の構成により、第1変形例においても、上述した一実施形態と同様の効果を得ることができる。
(第2変形例)
次に、一実施形態の第2変形例による第2ウェアラブルデバイス40の構成について説明する。図10は、第2ウェアラブルデバイス40の概略構成を示す図である。図11は、第2ウェアラブルデバイス40の機能構成を示すブロック図である。
図10および図11に示す移動体制御装置としての第2ウェアラブルデバイス40は、いわゆる、MR(Mixed Reality)またはVR(Virtual Reality)のためのHMD(Head Mounted Display)である。第2ウェアラブルデバイス40は、ユーザU2に仮想世界(デジタル空間)に現実世界を重ね合わせた立体視できる画像、映像、および文字情報等を表示する。第2ウェアラブルデバイス40は、撮像装置41、挙動センサ42、音声入力装置43、表示部44、視線センサ45、装着センサ46、操作部47、通信部48、および制御部49を備える。撮像装置41、挙動センサ42、視線センサ45、装着センサ46、通信部48、および制御部49はそれぞれ、第1ウェアラブルデバイス30の撮像装置31、挙動センサ32、視線センサ33、装着センサ36、通信部37、および制御部38と同様の構成を有する。第2変形例においては、制御部49が移動体制御装置のプロセッサとして機能する。
図10に示すように、第1センサとしての撮像装置41は、第2ウェアラブルデバイス40に複数設けられる。撮像装置41は、制御部49の制御のもと、ユーザU2の視線の先を撮像することによって視差を有する2つの画像データを生成し、これらの画像データを制御部49に出力する。
図11に示すように、第2センサとしての挙動センサ42は、第2ウェアラブルデバイス40を装着したユーザU2の挙動に関する挙動情報を検出し、検出結果を制御部49に出力する。音声入力装置43は、ユーザU2の音声の入力を受け付け、受け付けた音声に応じた音声データを制御部49に出力する。音声入力装置43は、マイクロフォン、マイクロフォンに入力された音声を音声データに変換するA/D変換回路、および音声データを増幅するアンプ回路を用いて構成される。
表示部44は、制御部49の制御のもと、立体視可能な画像、映像および文字情報等を表示する。表示部44は、所定の視差を有する左右一対の表示パネル等を用いて構成される。表示パネルとしては、液晶または有機EL(Electro Luminescence)等を用いて構成される。操作部47は、ユーザU2の操作の入力を受け付け、受け付けた操作に応じた信号を制御部49に出力する。操作部47は、ボタン、スイッチ、ジョグダイヤル、またはタッチパネル等を用いて構成される。
制御部49は、第2ウェアラブルデバイス40を構成する各部の動作を制御する。制御部49は、取得部491、判定部492、生成部493、出力制御部494、および走行制御部495を備える。取得部491、判定部492、生成部493、出力制御部494、および走行制御部495はそれぞれ、上述した取得部381、判定部382、生成部383、出力制御部384、および走行制御部385と同様である。
第2変形例においては、生成部493が生成した仮想画像は、表示部44に表示される。ユーザU1の動作は、撮像装置41によって撮影されたり、挙動センサ42によって検出されたりする。これにより、制御部49の取得部491は、ユーザU1の動作情報を取得できる。以上の構成により、第2変形例においても、上述した一実施形態と同様の効果を得ることができる。
(第3~第7変形例)
次に、一実施形態の第3変形例によるウェアラブルデバイス30,40によって表示される仮想画像の例および仮想画像に対応したユーザの動作について説明する。図12A~図12Eはそれぞれ、第3変形例~第7変形例によるユーザの動作の例やユーザが視認している仮想画像の例を説明するための図である。
(第3変形例)
第3変形例においては、図12Aに示すように、ウェアラブルデバイス30,40を装着したユーザU3は、例えば手回しローラなどの仮想画像P3を視認できる。なお、通常は、ウェアラブルデバイス30,40によって、ユーザU3のみが仮想画像P3の手回しローラを視認している状態であるが、手回しローラを実際に用いて、仮想画像P3などの映像に対応させて、ユーザU3が手回しローラを実際に回しても良い。ウェアラブルデバイス30,40は、ユーザU3による仮想画像P3の手回しローラを回転させる動作や動作量に対応して、移動体1の移動体端末装置10に制御信号を送信して、エンジンの回転数等を制御し、動作量に応じた電力量をバッテリに充電しても良い。また、充電量をウェアラブルデバイス30,40によって、ユーザU3に報知しても良い。
(第4変形例)
第4変形例においては、図12Bに示すように、ウェアラブルデバイス30,40を装着したユーザU4は、例えば足こぎローラなどの仮想画像P4を視認できる。なお、通常は、ウェアラブルデバイス30,40によって、ユーザU4のみが仮想画像P4の足こぎローラを視認している状態であるが、ユーザU4が足こぎローラを実際に用いて、仮想画像P4などの映像に対応させて、ユーザU4がペダルを実際に漕いでも良い。ウェアラブルデバイス30,40は、ユーザU4による仮想画像P4のペダルを漕ぐ動作や、漕いだ動作量に対応した制御信号を、移動体端末装置10に送信しても良い。この場合、ユーザU4が漕いだ動作量に対応させてエンジンの回転数等を制御し、バッテリを充電したり、ユーザU4が漕いだ動作量に対応させて移動体1を移動させたりしても良い。また、ウェアラブルデバイス30,40によって、バッテリへの充電量や移動体1の移動量をユーザU4に報知しても良い。
(第5変形例)
第5変形例においては、図12Cに示すように、ウェアラブルデバイス30,40を装着したユーザU5が例えば足踏みやもも上げなどをした場合に、ウェアラブルデバイス30,40から、足踏みやもも上げの動作や動作量に対応した制御信号を、移動体端末装置10に送信しても良い。なお、ウェアラブルデバイス30,40からユーザU5に対して、足踏みやもも上げの動作を促す表示や音声などを出力しても良い。この場合、ユーザU5は、ウェアラブルデバイス30,40からの出力に対応して足踏みやもも上げなどの動作を行う。移動体端末装置10は、ユーザU5が行った足踏みまたはもも上げやそれらの回数等に対応させて、エンジンの回転数やギヤ段等を制御して、バッテリを充電したり移動体1を移動させたりしても良い。また、ウェアラブルデバイス30,40によって、バッテリへの充電量や移動体1の移動量をユーザU5に報知しても良い。
(第6変形例)
第6変形例においては、図12Dに示すように、ウェアラブルデバイス30,40を装着したユーザU6は、例えばダンベルなどの仮想画像P5を視認できる。なお、通常は、ウェアラブルデバイス30,40によって、ユーザU6のみが仮想画像P5のダンベルを視認している状態であるが、ダンベルや棒などを実際に用いて、仮想画像P5のダンベルなどの映像に対応させて、ユーザU6がダンベルや棒などを実際に上下させても良い。ウェアラブルデバイス30,40は、ユーザU6による仮想画像P5のダンベルを上下させる動作や動作量に対応して、移動体端末装置10に制御信号を送信して、エンジンの回転数等を制御し、動作量に応じた電力量をバッテリに充電しても良い。また、充電量をウェアラブルデバイス30,40によって、ユーザU6に報知しても良い。
(第7変形例)
第7変形例においては、図12Eに示すように、ウェアラブルデバイス30,40を装着したユーザU7が例えば腕を左右に振る運動などを行った場合に、ウェアラブルデバイス30,40から、腕の動作や動作量に対応した制御信号を、移動体端末装置10に送信しても良い。なお、ウェアラブルデバイス30,40からユーザU7に対して、足踏みの動作を促す表示や音声などを出力しても良い。この場合、ユーザU5は、ウェアラブルデバイス30,40からの出力に対応して足踏みなどの動作を行う。移動体端末装置10は、ユーザU7が行った足踏みやその回数等に対応させて、エンジンの回転数やギヤ段等を制御して、バッテリを充電したり移動体1を移動させたりしても良い。また、ウェアラブルデバイス30,40によって、バッテリへの充電量や移動体1の移動量をユーザU7に報知しても良い。
上述したユーザU1は主として運転手であるが、ユーザU2~U7は、運転手であっても、移動体1に搭乗した同乗者であっても良い。これにより、運転手以外の他の搭乗者も、仮想画像に対応した自らの動作によって、移動体1の周辺領域を認識できたり、移動体1を制御したりできるので、移動体1に搭乗する楽しさを享受できる。また、上述した第3~第7変形例においては、ユーザの動作に対応して、バッテリを充電したり移動体1を移動させたりする例について説明したが、必ずしもバッテリの充電や移動体1の移動に限定されない。すなわち、ユーザの動作に対応させた移動体1に対する種々の制御は、任意に設定できる。
(記録媒体)
上述の一実施形態において、移動体端末装置、第1ウェアラブルデバイス、または第2ウェアラブルデバイスに実行させるプログラムを、コンピュータその他の機械やウェアラブルデバイス等の装置(以下、コンピュータ等、という)が読み取り可能な記録媒体に記録することができる。コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、当該コンピュータ等が移動体制御装置として機能する。ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる非一時的な記録媒体をいう。このような記録媒体のうちのコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、BD、DAT、磁気テープ、フラッシュメモリ等のメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスク、ROM等がある。さらに、SSDは、コンピュータ等から取り外し可能な記録媒体としても、コンピュータ等に固定された記録媒体としても利用可能である。
また、一実施形態による車両端末装置、第1ウェアラブルデバイス、および第2ウェアラブルデバイスおよびサーバに実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。
以上、本開示の一実施形態について具体的に説明したが、本開示は、上述の一実施形態に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。例えば、上述の一実施形態において挙げた仮想画像や動作はあくまでも例に過ぎず、これと異なる仮想画像や動作であっても良い。
(その他の実施形態)
上述した一実施形態においては、ユーザが装着可能な眼鏡型のウェアラブルデバイスや腕時計型のウェアラブルデバイスを用いた例を説明していたが、これらに限定されることなく、上述した一実施形態は、種々のウェアラブルデバイスに適用できる。例えば図13に示すように撮像機能を有するコンタクトレンズ型のウェアラブルデバイス100Aに適用できる。さらに、図14に示すウェアラブルデバイス100Bまたは図15に示す脳内チップ型のウェアラブルデバイス100CのようにユーザU100の脳へ直接的に伝達する装置にも適用できる。さらに、図16に示すウェアラブルデバイス100Dのようにバイザーを備えたヘルメット形状に構成しても良い。この場合は、ウェアラブルデバイス100Dは、バイザーに画像を投影して表示しても良い。
また、上述した一実施形態では、第1ウェアラブルデバイスがユーザU1の網膜に投影することによって画像を視認させていたが、例えば眼鏡等のレンズ39に画像を投影して表示するものであっても良い。
また、一実施形態においては、上述してきた「部」を、「回路」等に読み替えることができる。例えば、制御部は、制御回路に読み替えることができる。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本実施形態を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。本開示のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付のクレームおよびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 移動体
2 ネットワーク
10,10A 移動体端末装置
11,11A,21,38,49 制御部
12 撮像部
13 センサ群
13a,33,45 視線センサ
13b 車速センサ
13c 開閉センサ
13d シートセンサ
13e 動作センサ
15 カーナビゲーション
16,22,37,48 通信部
17,23 記憶部
17a 地図データベース
18 走行部
19 室内設備
20 交通情報サーバ
23a 交通情報データベース
24 交通情報収集部
30 第1ウェアラブルデバイス
31,41 撮像装置
32,42 挙動センサ
34 投影部
35 GPSセンサ
36,46 装着センサ
39 レンズ
40 第2ウェアラブルデバイス
43 音声入力装置
44,152a 表示部
47 操作部
100A,100B,100C,100D ウェアラブルデバイス
111,381,491 取得部
112,382,492 判定部
113,383,493 生成部
114,384,494 出力制御部
151 測位部
152 報知部
152b 音声出力部
385,495 走行制御部

Claims (8)

  1. ハードウェアを有するプロセッサを備え、
    前記プロセッサは、
    バッテリおよび所定の操作子を有し自律走行可能な移動体の内部の空間情報を取得し、
    前記空間情報に基づいて前記移動体の前記操作子の情報を含む仮想画像を生成して前記移動体に搭乗したユーザが視認可能な表示部に出力し、
    前記ユーザが前記操作子を操作する動作を行った場合に、前記ユーザの前記動作の検出結果を取得し、
    前記検出結果における前記ユーザの前記動作に基づいて、前記操作子を操作する動作の運動量に対応させて、前記バッテリへの蓄電に対する制御信号を出力して、前記バッテリに蓄電する制御を行う
    移動体制御装置。
  2. 前記操作子は、手こぎハンドル、手回しローラ、足こぎローラ、ダンベル、または棒である
    請求項1に記載の移動体制御装置。
  3. 前記プロセッサは、
    前記移動体の安全度を算出し、
    前記安全度が安全であることを示す所定の基準を満たす場合に、前記制御信号を前記移動体に出力し、
    前記安全度が前記所定の基準を満たしていない場合に、前記移動体に対する前記制御信号の出力を遮断する
    請求項1または2に記載の移動体制御装置。
  4. 前記プロセッサは、
    前記移動体の位置情報と前記位置情報に基づく交通情報とを取得し、
    前記交通情報に基づいて、前記移動体が渋滞に巻き込まれていると判定した場合に、前記制御信号を前記移動体に出力する
    請求項1~3のいずれか1項に記載の移動体制御装置。
  5. 前記プロセッサは、
    前記移動体の位置情報と前記位置情報に基づく交通情報とを取得し、
    前記ユーザが、あらかじめ設定された動作を行った場合に、前記交通情報に基づいて前記移動体の外部の状態を前記移動体の上方の視点で見た仮想画像を生成し、前記表示部に出力する
    請求項1~のいずれか1項に記載の移動体制御装置。
  6. 前記表示部は、前記ユーザが装着するウェアラブルデバイスに設けられている
    請求項1~のいずれか1項に記載の移動体制御装置。
  7. ハードウェアを有するプロセッサが、
    第1センサから、バッテリおよび所定の操作子を有し自律走行可能な移動体の内部の空間情報を取得し、
    前記空間情報に基づいて前記移動体の前記操作子の情報を含む仮想画像を生成して前記移動体に搭乗したユーザが視認可能な表示部に出力し、
    前記移動体に搭乗した前記ユーザが前記操作子を操作する動作を行った場合に、第2センサが検出した前記ユーザの前記動作の検出結果を取得し、
    前記検出結果における前記ユーザの前記動作に基づいて、前記操作子を操作する動作の運動量に対応させて、前記バッテリへの蓄電に対する制御信号を出力して、前記バッテリに蓄電する制御を行う
    移動体制御方法。
  8. ハードウェアを有するプロセッサに、
    バッテリおよび所定の操作子を有し自律走行可能な移動体の内部の空間情報を取得し、
    前記空間情報に基づいて前記移動体の前記操作しの情報を含む仮想画像を生成して表示部に出力し、
    前記移動体に搭乗したユーザが前記操作子を操作する動作を行った場合に、前記ユーザの前記動作の検出結果を取得し、
    前記検出結果における前記ユーザの前記動作に基づいて、前記操作子を操作する動作の運動量に対応させて、前記バッテリへの蓄電に対する制御信号を出力して、前記バッテリに蓄電させる制御を行う
    ことを実行させるプログラム。
JP2020001079A 2020-01-07 2020-01-07 移動体制御装置、移動体制御方法、およびプログラム Active JP7247901B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020001079A JP7247901B2 (ja) 2020-01-07 2020-01-07 移動体制御装置、移動体制御方法、およびプログラム
US17/112,062 US20210208584A1 (en) 2020-01-07 2020-12-04 Moving body control device, moving body control method, and computer readable recording medium
CN202110013909.0A CN113085884A (zh) 2020-01-07 2021-01-06 移动体控制装置、移动体控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020001079A JP7247901B2 (ja) 2020-01-07 2020-01-07 移動体制御装置、移動体制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021111029A JP2021111029A (ja) 2021-08-02
JP7247901B2 true JP7247901B2 (ja) 2023-03-29

Family

ID=76655341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001079A Active JP7247901B2 (ja) 2020-01-07 2020-01-07 移動体制御装置、移動体制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US20210208584A1 (ja)
JP (1) JP7247901B2 (ja)
CN (1) CN113085884A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007326409A (ja) 2006-06-06 2007-12-20 Toyota Motor Corp 車両用表示装置
JP2012214174A (ja) 2011-04-01 2012-11-08 Mitsubishi Ufj Research & Consulting Co Ltd 多機能車両
JP2016215838A (ja) 2015-05-20 2016-12-22 トヨタ自動車株式会社 ハイブリッド車両
JP2017146963A (ja) 2016-02-18 2017-08-24 国立大学法人名古屋大学 仮想空間表示システム
JP2017174282A (ja) 2016-03-25 2017-09-28 パイオニア株式会社 運転制御装置、運転制御方法、運転制御プログラム及び記録媒体
WO2018202757A1 (en) 2017-05-03 2018-11-08 Tomtom International B.V. Methods and systems of providing information using a navigation apparatus

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
WO2014129212A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 画像表示装置及び画像表示方法、記憶媒体、並びにモニタリング・システム
JP6316559B2 (ja) * 2013-09-11 2018-04-25 クラリオン株式会社 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
US9340155B2 (en) * 2013-09-17 2016-05-17 Toyota Motor Sales, U.S.A., Inc. Interactive vehicle window display system with user identification
GB2521665A (en) * 2013-12-30 2015-07-01 Nokia Technologies Oy Method, apparatus, computer program and system for controlling a vehicle's alert output
US9868449B1 (en) * 2014-05-30 2018-01-16 Leap Motion, Inc. Recognizing in-air gestures of a control object to control a vehicular control system
US10913463B2 (en) * 2016-09-21 2021-02-09 Apple Inc. Gesture based control of autonomous vehicles
WO2018084082A1 (ja) * 2016-11-02 2018-05-11 パナソニックIpマネジメント株式会社 ジェスチャ入力システム及びジェスチャ入力方法
KR102102761B1 (ko) * 2017-01-17 2020-04-21 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
JP6916647B2 (ja) * 2017-03-31 2021-08-11 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
DE102018208889A1 (de) * 2018-06-06 2019-12-12 Faurecia Innenraum Systeme Gmbh Steuereinrichtung für ein Fahrzeug und Verfahren zur Steuerung eines Fahrzeugs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007326409A (ja) 2006-06-06 2007-12-20 Toyota Motor Corp 車両用表示装置
JP2012214174A (ja) 2011-04-01 2012-11-08 Mitsubishi Ufj Research & Consulting Co Ltd 多機能車両
JP2016215838A (ja) 2015-05-20 2016-12-22 トヨタ自動車株式会社 ハイブリッド車両
JP2017146963A (ja) 2016-02-18 2017-08-24 国立大学法人名古屋大学 仮想空間表示システム
JP2017174282A (ja) 2016-03-25 2017-09-28 パイオニア株式会社 運転制御装置、運転制御方法、運転制御プログラム及び記録媒体
WO2018202757A1 (en) 2017-05-03 2018-11-08 Tomtom International B.V. Methods and systems of providing information using a navigation apparatus

Also Published As

Publication number Publication date
US20210208584A1 (en) 2021-07-08
CN113085884A (zh) 2021-07-09
JP2021111029A (ja) 2021-08-02

Similar Documents

Publication Publication Date Title
US10037699B1 (en) Systems and methods for motivating a driver according to behaviors of nearby vehicles
US10850744B2 (en) System and method for dynamic in-vehicle virtual reality
US9902403B2 (en) Sensory stimulation for an autonomous vehicle
JP6773040B2 (ja) 情報処理システム、および情報処理システムの情報処理方法、情報処理装置、並びにプログラム
US10585471B2 (en) Systems and methods to provide an interactive space based on predicted events
CN109636924B (zh) 基于现实路况信息三维建模的车载多模式增强现实系统
JP5228716B2 (ja) 情報提示システム
JPWO2019167457A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
JPWO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
WO2020183893A1 (ja) 情報処理装置及び情報処理方法、並びに移動体装置
US11110933B2 (en) Driving support device, wearable device, driving support system, driving support method, and computer-readable recording medium
US11151775B2 (en) Image processing apparatus, display system, computer readable recoring medium, and image processing method
CN109223346A (zh) 一种语音控制导航的盲人轮椅及其控制方法
JP2020080542A (ja) 車両の画像提供システム、サーバーシステムおよび車両の画像提供方法
JP6410162B1 (ja) 運転支援装置、運転支援方法およびプログラム
KR101620326B1 (ko) 장난감 차량 원격제어용 자전거 운동기구 시스템
CN115635890A (zh) 用于运载工具的方法和系统以及非暂时性存储介质
JP7247901B2 (ja) 移動体制御装置、移動体制御方法、およびプログラム
US20220306155A1 (en) Information processing circuitry and information processing method
US20230306693A1 (en) Augmented in-vehicle experiences
JP2022142984A (ja) 運転支援装置及びコンピュータプログラム
US20230215106A1 (en) Ar-enhanced detection and localization of a personal mobility device
WO2022124164A1 (ja) 注目対象共有装置、注目対象共有方法
JP2023073150A (ja) 表示制御方法及び表示制御装置
JP2021136584A (ja) 映像情報出力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R151 Written notification of patent or utility model registration

Ref document number: 7247901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151