JP2023093087A - 情報提供支援方法、情報提供支援装置、及び情報提供支援プログラム - Google Patents
情報提供支援方法、情報提供支援装置、及び情報提供支援プログラム Download PDFInfo
- Publication number
- JP2023093087A JP2023093087A JP2021208495A JP2021208495A JP2023093087A JP 2023093087 A JP2023093087 A JP 2023093087A JP 2021208495 A JP2021208495 A JP 2021208495A JP 2021208495 A JP2021208495 A JP 2021208495A JP 2023093087 A JP2023093087 A JP 2023093087A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- agent
- driver
- information
- information provision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、運転者に対する車両からの情報提供を支援する情報提供支援方法、情報提供支援装置、及び情報提供支援プログラムに関する。
特許文献1では、車室内のダッシュボードに擬人化されたエージェントを配置し、当該エージェントの動作を制御して運転者に実行すべき危険回避行動を模擬的に実行させる運転支援装置が提案されている。
上記のように擬人化されたエージェントが行う動作及び発する音声を通じて運転支援情報を報知することで、当該情報を機械的にテキスト表示或いは音声出力する場合に運転者による運転支援情報に対する理解度の向上が期待される。
その一方で、車両の走行状態によっては、運転者が運転操作に注力することで視野が狭くなり、エージェントに対する認識性が低下することが想定される。
このような事情に鑑み、本発明は、運転者によるエージェントに対する認識性を高めることを目的とする。
本発明のある態様によれば、所定のキャラクタをモチーフとしたエージェントのアクションによって車両の運転者に対して情報提供を行う情報提供支援方法が提供される。この情報提供支援方法では、車両の車速を含む車両状態情報を取得し、車両状態情報に基づいて車両の走行時と停車時とを判別し、判別結果に基づいてエージェント位置を調節するエージェント位置制御を実行する。そして、エージェント位置制御では、停車時にエージェント位置を所定の第1位置に調節し、走行時にエージェント位置を第1位置に対して運転者の注視点により近い第2位置に調節する。
本発明によれば、運転者によるエージェントに対する認識性を高めることができる。
以下、図面を参照しながら本発明の実施形態について説明する。
[第1実施形態]
図1は、情報提供支援システム101の概略構成を示すブロック図である。図示のように、情報提供支援システム101は、主として、車両100の運転者10の運転操作を支援するための各種構成を備える。
図1は、情報提供支援システム101の概略構成を示すブロック図である。図示のように、情報提供支援システム101は、主として、車両100の運転者10の運転操作を支援するための各種構成を備える。
特に、情報提供支援システム101は、センサ類12、ナビゲーションシステム14、エージェント制御装置18、及びエージェント16を備えている。
センサ類12は、車両100の内部または外部における各種の状態パラメータを計測する一又は複数のセンサにより構成される。特に、本実施形態のセンサ類12には、車内を撮影するための車内カメラ12a、前進時又は後進時の速度(車速V)を検出する車速センサ12b、ステアリングの操舵角θを検出する舵角センサ12c、車内の音声を収集するマイクロフォン12d、及びシフト位置(パーキングレンジ、ニュートラルレンジ、又はドライブレンジなど)を検出するシフトセンサ12eが含まれる。センサ類12は、各種の検出信号をエージェント制御装置18に出力する。
ナビゲーションシステム14は、運転者10に対して、目的地までの経路等を案内するための各種ハードウェア及びソフトウェアにより実現される装置である。特に、ナビゲーションシステム14は、運転者10を含む車両100の乗員による操作が想定される固有の入力インターフェース(タッチパネル又は操作ボタンなど)を備えている。ナビゲーションシステム14は、乗員による当該入力インターフェースを介した操作に応じて、所定の出力態様(画面表示及び/又は音声出力)により、目的地までの経路などの情報を乗員に提供する。
エージェント16は、車両100から運転者10への情報提供を支援するユーザインタフェースである。特に、本実施形態のエージェント16は、実在又は仮想の所定のキャラクタをモチーフとした実体構造体としてロボット16aと、当該キャラクタを仮想的に表示させる仮想表示体としてのAR(Augmented Reality)表示体16b及び画面表示体16cと、を含む。
ロボット16aのモチーフとなるキャラクタとしては、現実又は仮想上の人物、動物、植物、及び擬人化された物などが挙げられる。ロボット16aは、車室内において運転者10に対して前方の位置(例えばダッシュボード上)に配される。さらに、本実施形態のロボット16aには、当該ロボット16aを車室内の前後方向に沿った所定範囲(以下、「前後可動範囲Rm1」と称する)において変位させるための駆動部19が具備される。なお、駆動部19は、例えば、ロボット16aを変位させるべき方向に延在するレール、及び当該レール上でロボット16aを移動させるモータなどの所定の駆動源により構成することができる。
一方で、AR表示体16b及び画面表示体16cは、ロボット16aと同様に所定のキャラクタを模した2次元又は3次元のデジタルイメージにより構成される。特に、AR表示体16bは、車室内における所定の前方AR表示領域Rarf又は後方AR表示領域Rarr内に表示される。前方AR表示領域Rarfは、例えば、車両100のフロントウィンド上の少なくとも一部の領域として構成される。後方AR表示領域Rarrは、例えば、車両100のリアウィンド上の少なくとも一部の領域として構成される。なお、前方AR表示領域Rarf及び後方AR表示領域Rarrを、運転者10の前方及び後方の位置にそれぞれ配置されたヘッドアップディスプレイにおける表示領域として構成しても良い。また、画面表示体16cは、所定の前方画面表示領域Rdifに表示される。前方画面表示領域Rdifは、例えば、運転者10の前方に配置された車載ディスプレイにおける表示領域として構成される。
上述のように、エージェント16が所定のキャラクタをモチーフとして構成されるため、エージェント16に所定のアクション(動作及び出力音声など)を実行させることで、運転者10に対してエージェント16への一定の感情(愛着や親しみやすさ)を惹起させる効果が得られる。このため、エージェント16のアクションを介して運転者10に運転支援情報を報知することで単純なテキスト表示や音声出力を行う場合に比べて、当該運転支援情報に対する運転者10の認識度を向上させることができる。
エージェント制御装置18は、エージェント16のアクション、及び後述するエージェント位置制御を実行するための制御ユニットである。
図2は、エージェント制御装置18の構成を示すブロック図である。図2に示すように、エージェント制御装置18は、車両状態認識部21、運転者状態認識部22、エージェント位置制御部24、及びアクション制御部26を備える。
車両状態認識部21は、センサ類12で得られる各種検出値、及びナビゲーションシステム14から得られる経路情報を車両状態情報として取得し、当該車両状態情報から車両状態を判定する。特に、車両状態認識部21は、車速センサ12bで検出される車速Vを車両状態情報として取得し、これに基づいて車両100が停車時及び走行時の何れの状態であるかを判別する。また、車両状態認識部21は、シフトセンサ12eで検出されるシフト位置を車両状態情報(特に進行方向情報)として取得し、これに基づいて車両100が前進走行状態及び後進走行状態の何れかであるかを判別する。さらに、車両状態認識部21は、前進走行時の車速Vを車両状態情報として取得し、これに基づいて車両100が後述する低車速状態及び高い車速状態の何れであるかを判断する。
また、車両状態認識部21は、前方カメラの画像を車両状態情報(特に経路視界情報)として取得し、これに基づいて運転者10の視界が悪い状態(以下、「悪視界状態」と称する)を推定する。さらに、車両状態認識部21は、操舵角θを車両状態情報(特に旋回情報)として取得し、これに基づいて車両100の旋回状態を推定する。
運転者状態認識部22は、センサ類12で得られる各種検出値を運転者状態情報として取得し、当該運転者状態情報から運転者状態を判定する。特に、運転者状態認識部22は、車内カメラ12aの画像を運転者状態情報(特に視認方向情報)として取得し、これに基づいて後進走行時に運転者10が車両100における前方及び後方の何れを向いているかを推定する。
また、運転者状態認識部22は、上記運転者状態情報から、運転者10のエージェント16に対する親密度を推定する。なお、親密度は、運転者10のエージェント16に対する思い入れの強さを指標化したパラメータとして規定される。例えば、親密度は、車両100の総航続距離及びエージェント16の総稼働時間などの運転者10の思い入れの強さを示唆し得る任意の量から適宜定めることができる。
エージェント位置制御部24は、車両状態認識部21及び運転者状態認識部22でそれぞれ推定された車両状態及び運転者状態に基づいて、エージェント位置制御を実行する。エージェント位置制御では、推定された車両状態及び運転者状態に応じて、適宜、エージェント位置pが定められる。なお、エージェント位置制御の詳細は後述する。そして、エージェント位置制御部24は、定められたエージェント位置pを実現するようにエージェント16を操作する。より具体的には、駆動部19を操作してロボット16aの位置を調節するか、AR表示体16b又は画面表示体16cの位置を調節する。一方、エージェント位置制御部24は、定められたエージェント位置pをアクション制御部26に出力する。
なお、上述したエージェント制御装置18の機能は、車両100の動作を統括的に制御する車両コントローラ(図示せず)などの任意の車載コンピュータ、又は運転者10が所有するスマートフォン等の車外の所定のコンピュータにより実現することができる。特に、エージェント制御装置18の機能を実現するプログラム(情報提供支援プログラム)は、当該エージェント制御装置18の演算装置によりアクセス可能な任意の記憶領域に記憶される。
アクション制御部26は、運転者10に提供すべき運転支援情報に応じてアクション指令及びエージェント位置pに基づいて、エージェント16のアクションを制御する。なお、エージェント16のアクションとは、ロボット16a、AR表示体16b、又は画面表示体16cで表現されたキャラクタの所作を通じて所望の運転支援情報を運転者10に報知するための処理を意味する。具体的に、エージェント16のアクションには、ロボット16a、AR表示体16b、又は画面表示体16cに危険回避動作を模擬した動きを実行させるなどのキャラクタの動作による報知、及びロボット16a、AR表示体16b、又は画面表示体16cで表現されたキャラクタの口を動かしつつ支援情報を出力するなどのキャラクタの発声を模擬した音声出力による報知が含まれる。
さらに、アクション制御部26は、エージェント位置pに応じて、エージェント16のアクションの態様(動作の種類、並びに音声出力の内容及び音声レベルなど)を適宜調節する。そして、アクション制御部26は、規定したエージェント16のアクションを実現するようにエージェント16を操作する。より具体的に、アクション制御部26は、規定したアクションに応じたロボット16a、AR表示体16b、又は画面表示体16cの動作及び/又は音声出力を実現する各種アクチェータ(ロボット16aの駆動アクチェータ、AR表示処理装置、画面表示処理装置、及びスピーカー等)を操作する。
次に、本実施形態におけるエージェント位置制御のさらなる詳細について説明する。
図3は、エージェント位置制御を説明するフローチャートである。なお、図3に示す各処理は、所定の演算周期で繰り返し実行される。
図3に示すように、ステップS101において、エージェント制御装置18は、車両状態及び運転者状態を推定(認識)する。
ステップS102において、エージェント制御装置18は、車両100が走行中であるか否かを判定する。具体的に、車速Vが車両100の停車時と走行時の判別に適する所定の第1閾値Vth1以上である場合に走行中と判断し、第1閾値Vth1未満である場合に走行中ではない(すなわち、停車中である)と判断する。なお、第1閾値Vth1は車両100の実質的な停止状態と走行状態を判別するための好ましい値(例えば、5km/h)に設定される。エージェント制御装置18は、車両100が走行中であると判断するとステップS103の処理を実行し、停車中であると判断するとステップS113の処理を実行する。
ステップS103において、エージェント制御装置18は、車両100が前進走行中であるか否かを判定する。具体的に、車両100におけるシフト位置がドライブ(D)レンジである場合に前進走行中であると判断する。そして、エージェント制御装置18は、車両100が前進走行中であると判断するとステップS104の処理を実行し、車両100が前進走行中ではないと判断するとステップS107の処理を実行する。
ステップS104において、エージェント制御装置18は、車両100が低車速状態である否かを判定する。具体的に、車速Vが所定の第2車速閾値Vth2以下である場合に低車速状態であると判断し、第2車速閾値Vth2を超える場合に低車速状態ではない(すなわち、高車速状態である)と判断する。なお、第2車速閾値Vth2は、上述したロボット16aの前後可動範囲Rm1内において当該ロボット16aを最も前方位置まで移動させても、ロボット16aが認識されない程度に運転者10の視野領域VRが狭まる車速Vとして予め実験的に定められる。第2車速閾値Vth2は特定の値に限定されるものではないが、例えば100km/hなどに設定される。
また、ステップS105において、エージェント制御装置18は、車両100の運転者10の視界の良い良視界状態であるか否かを判定する。具体的に、エージェント制御装置18は、前方カメラの画像に対して所定の画像処理を施すことで運転者10の視界の良さを指標化したパラメータを設定し、当該パラメータと所定閾値の比較結果に基づいて、現在の状態が良視界状態であるか、或いは悪視界状態であるかを判断する。なお、悪視界状態と判断される具体例としては、例えば、死角のある交差点、一定以上のカーブ半径を有する曲線路、勾配路、悪天候下、又は細い路地における走行シーンなどが挙げられる。また、良視界状態と判断される具体例としては、例えば、幹線道路などの見通しの良い走行路が挙げられる。なお、運転者10の視界の良さを指標化したパラメータを求めるために、車両100の走行路の経路情報などの他の情報を参照しても良い。
そして、エージェント制御装置18は、ステップS104及びステップS105の判定結果が何れも肯定的である場合にステップS106の処理を実行し、これら判定の何れかが否定的結果である場合にステップS110の処理を実行する。
ステップS106において、エージェント制御装置18は、前進時ロボット位置調節を実行する。具体的に、前進時ロボット位置調節では、ロボット16aの位置(エージェント位置p)を前進時調節位置pfに調節する。ここで、前進時ロボット位置調節における前進時調節位置pfは、上述した前後可動範囲Rm1内において、停車時における基準ロボット位置Pbに対して車速Vの増大に応じて漸次前方にシフトさせた位置として規定される。
なお、基準ロボット位置Pbは、前後可動範囲Rm1内において最も運転者10に近い位置に設定することができる。より詳細には、基準ロボット位置Pbは、例えば、運転者10の前方に配置された車載ディスプレイの近傍位置などの運転者10の手の届く範囲に設定することができる。また、基準ロボット位置Pbを上述した親密度に基づいて調節することが好ましい。特に、基準ロボット位置Pbを、親密度が高いほど運転者10との距離が近くなるように定めることが最も好ましい。
一方、ステップS110では、エージェント制御装置18は、前方AR表示を実行する。具体的に前方AR表示では、上述した前方AR表示領域RarfにAR表示体16bを表示させる。
特に、本実施形態の前方AR表示では、前方AR表示領域Rarf上におけるAR表示体16bの表示位置を前進時調節位置pfに調節する。ここで、前方AR表示における前進時調節位置pfは、前方AR表示領域Rarf内において、車速Vの増大に応じて基準表示位置P´bから漸次上方にシフトさせた位置として規定される。なお、基準表示位置P´bは、基準ロボット位置Pbに対応させた、前方AR表示領域Rarf内で定められるAR表示体16bの移動基点として定められる。
また、前方AR表示における前進時調節位置pfの終端(すなわち、AR表示体16bの移動上限)は、前方AR表示領域Rarf内において前進走行時における運転者10の注視点Oに重なる位置に設定することが好ましい。なお、注視点Oの位置は、走行方向(前進又は後進)などに応じて運転者10が平均的に注視すると推定される位置に規定することができる。一方で、車内カメラ12aの画像などから運転者10の視線方向を検出し、検出した視線方向に基づいて注視点Oの位置を規定しても良い。
さらに、前方AR表示の実行中において、ロボット16aを前後可動範囲Rm1内における最も前方の位置のまま維持させるか、或いは図示しない収容機構によってダッシュボードの内部等に設けられる所定の空間に収容させる構成を採用しても良い。
図4には、前進走行中の前進時ロボット位置調節及び前方AR表示の一態様を示す。図示のように、低車速状態(Vth1≦V≦Vth2)では、ロボット16aの位置を規定する前進時調節位置pfが、車速Vの増大に応じて停車中(V<Vth1)における基準ロボット位置Pbから漸次前方にシフトするように定められる。さらに、高車速状態(Vth2<V)では、AR表示体16bの位置を規定する前進時調節位置pfが、車速Vの増大に応じて基準表示位置P´bから漸次上方にシフトするように定められる。
次に、ステップS103の判定結果が否定的である場合(前進走行中ではない場合)の処理について説明する。
この場合、ステップS107において、エージェント制御装置18は、車両100が後進走行中であるか否かを判定する。具体的に、シフト位置がリバース(R)レンジである場合に後進走行中と判断する。エージェント制御装置18は、車両100が後進走行中であると判断するとステップS108の処理を実行し、車両100が後進走行中ではないと判断するとステップS113の処理を実行する。
ステップS108において、エージェント制御装置18は、後進時基本位置調節を実行する。具体的に、後進時基本位置調節では、ロボット16aの位置を、前進時の基準ロボット位置Pbとは異なる基準位置(以下、「後進時基準ロボット位置Pbr」と称する)に調節する。なお、後進時基準ロボット位置Pbrは、例えば、後進走行中において、当該運転者10にロボット16aを適切に認識させる観点から好ましい位置に定めることができる。なお、後進時基準ロボット位置Pbrは、前進時の基準ロボット位置Pbと同一であっても良く、異なっていても良い。
ステップS109において、エージェント制御装置18は、運転者10が前方を向いているか否かを判定する。なお、本判定は、車両100が運転者10の前方に配置された車載ディスプレイに車両後方の画像を表示する機能を備えていることで、後進走行時において運転者10が車両前方を向いたまま運転操作を行うシーンを想定して実行される。
そして、エージェント制御装置18は、運転者10が前方を向いていると判断するとステップS111の処理を実行し、運転者10が前方を向いていない(運転者10が後方を向いている)と判断すると、ステップS112の処理を実行する。
ステップS111において、エージェント制御装置18は、前方画面表示を実行する。具体的に前方画面表示では、画面表示体16cの位置(エージェント位置p)を後進時調節位置prに調節する。ここで、前方画面表示における後進時調節位置prは、前方画面表示領域Rdif内において、車速Vの増大に応じて基準表示位置Pbr1から漸次上方にシフトした位置として規定される。なお、基準表示位置Pbr1は、後進時基準ロボット位置Pbrに対応させた、前方画面表示領域Rdif内で定められる画面表示体16cの移動基点である。
一方、運転者10が後方を向いている場合に実行されるステップS112において、エージェント制御装置18は、後方AR表示を実行する。具体的に後方AR表示では、後方AR表示領域RarrにAR表示体16bを表示させる。特に、本実施形態の後方AR表示では、後方AR表示領域Rarr上におけるAR表示体16bの表示位置を後進時調節位置prに調節する。さらに、後方AR表示における後進時調節位置prは、後方AR表示領域Rarr内において、車速Vの増大に応じて基準表示位置Pbr2から漸次上方にシフトさせた位置として規定される。なお、基準表示位置Pbr2は、後進時基準ロボット位置Pbrに対応させた、後方AR表示領域Rarr内で定められるAR表示体16bの移動基点である。
図5には、後進走行中の前方画面表示領域Rdif及び後方AR表示の一態様を示す。図示のように、後進走行中(Vth1<V)では、AR表示体16bの表示位置を規定する後進時調節位置prが、前方画面表示領域Rdif又は後方AR表示領域Rarr内において、車速Vの増大に応じて基準表示位置Pbr1又はPbr2から漸次上方にシフトするように定められる。
次に、上記ステップS102における否定的な判定結果(車両100が停車中である場合)、前進時ロボット位置調節(ステップS106)、前方AR表示(ステップS110)、前方画面表示(ステップS111)、及び後方AR表示(ステップS112)の何れかを経て実行されるステップS113の処理について説明する。
ステップS113において、エージェント制御装置18は、車両100が旋回状態であるか否かを判定する。具体的に、エージェント制御装置18は、操舵角θの絶対値が所定の操舵角閾値θth以上である場合に旋回状態であると判断し、操舵角閾値θth未満である場合に非旋回状態であると判断する。なお、操舵角閾値θthは、実質的に車両100の旋回動作に寄与しないステアリングの遊び幅を考慮した適切な値に設定される。そして、エージェント制御装置18は、車両100が旋回状態であると判断すると、ステップS114の旋回時位置制御を実行する。
ステップS114において、エージェント制御装置18は、旋回時位置制御を実行する。具体的に旋回時位置制御では、エージェント位置pであるロボット16aの位置、AR表示体16bの位置、又は画面表示体16cの位置を旋回時位置psに調節する。ここで、旋回時位置psは、ロボット16aの車両100の横方向(旋回方向)における移動範囲として定まる横方向可動範囲Rm2、前方画面表示領域Rdif、又は前方AR表示領域Rarf若しくは後方AR表示領域Rarr内において、操舵角θの絶対値の増大に応じて旋回時基準表示位置Pbsから漸次旋回方向にシフトさせた位置として規定される。なお、横方向可動範囲Rm2は、ロボット16aを旋回方向に移動させるための駆動機構を設けることを前提に、当該駆動機構により実現されるロボット16aを旋回方向における移動可能範囲として定まる。また、旋回時基準表示位置Pbsは、例えば、前方画面表示領域Rdif、前方AR表示領域Rarf、又は後方AR表示領域Rarr内において車両100の左右方向における略中央位置に定められる。
図6には、旋回時位置制御の一態様を示す。図示のように、左旋回時(操舵角θ<0)における旋回時位置psは、旋回時基準表示位置Pbsを基点としてθ≦-θthの領域において、操舵角θが小さくなるほど左方向にシフトした位置に定められる。一方、右旋回時(操舵角θ>0)における旋回時位置psは、旋回時基準表示位置Pbsを基点としてθ≧θthの領域において、操舵角θが大きくなるほど右方向にシフトした位置に定められる。
旋回時位置制御において定める旋回時位置psの左端Psma及び右端Psmiは、適宜好ましい位置に設定することができる。例えば車両100のフロントガラスの略全面を前方AR表示領域Rarfとして定めた場合には、左端Psmaを左Aピラー、及び右端Psmiをそれぞれ右Aピラーの近傍位置に設定しても良い。
次に、上述したエージェント位置制御(特に前進時処理)を実行することによる作用効果をより具体的な例を示して説明する。
図7は、本実施形態の作用効果を説明する図である。特に、図7(a)は停車時における状況を示し、図7(b)は低車速時における状況(前進時ロボット位置調節)を示し、図7(b)は高車速時における状況(前方AR表示)を示している。
図7(a)に示すように、停車時にはロボット16aの位置が、相対的に運転者10に近い基準ロボット位置Pbに調節される。すなわち、運転者10とエージェント16の間の離間距離dを比較的短くして、当該運転者10によるエージェント16に対する認識性を確保することができる。
一方、図7(b)に示すように、低車速時には前進時ロボット位置調節(ステップS106)が実行されることで、ロボット16aは前後可動範囲Rm1内において、車速Vの増大に応じて運転者10の注視点Oに近づく前進時調節位置pfまで前方に移動する。これにより、ロボット16a(エージェント16)が前進走行時に狭まった運転者10の視野領域VRに含まれる。
さらに、図7(c)に示すように、高車速時には前方AR表示が実行される。特に、AR表示体16bの位置は前方AR表示領域Rarf内において、基準表示位置P´bから車速Vの増大に応じて注視点Oに近づく前進時調節位置pfとなる。これにより、AR表示体16b(エージェント16)が、高車速時のより狭まった運転者10の視野領域VRに含まれる。
以下、本実施形態に係る情報提供支援方法の作用効果をまとめて説明する。
本実施形態によれば、所定のキャラクタをモチーフとしたエージェント16の動作によって車両100の運転者10に対して情報提供を行う情報提供支援方法が提供される。この情報提供支援方法は、車両100の車速Vを含む車両状態情報に基づいて車両100の走行時と停車時とを判別し(ステップS102)、判別結果に基づいてエージェント位置pを調節するエージェント位置制御(ステップS103~ステップS112)を実行する。
そして、エージェント位置制御では、停車時にエージェント位置pを所定の第1位置(基準ロボット位置Pb)に調節し、走行時にエージェント位置pを第1位置に対して運転者10の注視点Oにより近い第2位置(前進時調節位置pf又は後進時調節位置pr)に調節する。
これにより、車両100の停車時には運転者10に対してエージェント16を相対的に近い位置として運転者10のエージェント16に対する認識性を高めつつ、走行時にはエージェント16を運転者10から遠ざけることで視野領域VRが狭まった状況下においてもエージェント16に対する認識性を維持することができる。したがって、車両100の走行状態に応じて、運転者10によるエージェント16に対する認識性を適切に確保することができる。
また、車両状態情報は、車両100の前進状態又は後進状態を示唆する進行方向情報(シフト位置)を含む。そして、エージェント位置制御では、進行方向情報に基づいて車両100の前進を推定すると前進時処理(ステップS104~ステップS106、及びステップS110)を実行する。そして、前進時処理では、第2位置(前進時調節位置pf)を運転者10よりも前方に定める。
これにより、運転者10が前方を視認すると推定される車両100の前進走行時を適切に検知して、エージェント位置pをエージェント16が運転者10の視界に入る適切な位置に定めることができる。
特に、前進時処理では、第2位置(前進時調節位置pf)を、前進時調節位置pfを車速Vが大きいほど運転者10の注視点Oに近づくように定める(図4及び図7参照)。
これにより、車速Vの増大に伴って視野領域VRが狭まることを加味した上で、エージェント16を当該視野領域VRに含めるための具体的な制御ロジックが実現される。
さらに、本実施形態において、エージェント16は、実体構造体(ロボット16a)と、所定の仮想表示領域(前方AR表示領域Rarf)内で表示される仮想表示体(AR表示体16b)と、を含む。また、前進時処理は、車速Vが所定の車速閾値(第2車速閾値Vth2)以下である場合に実行する第1前方位置調節(前進時ロボット位置調節)と、車速Vが第2車速閾値Vth2を超える場合に実行する第2前方位置調節(前方AR表示)と、を含む。
そして、前進時ロボット位置調節では、第2位置(前進時調節位置pf)をロボット16aの可動範囲内(前後可動範囲Rm1内)に規定する。一方、前方AR表示では、第2位置(前進時調節位置pf)を前方AR表示領域Rarf内に規定する。
これにより、車速Vが相対的に低いシーンでは、エージェント16のアクションが実体構造体であるロボット16aを用いて実現されるので、運転者10に高い臨場感(リアリティ)を感じさせ、当該アクションに対する認識性を向上させることができる。一方、車速Vが相対的に低いシーンでは、AR表示体16bにより実現することで、運転者10の視野領域VRが狭まる状況下であってもエージェント16のアクションに対する認識性を維持することができる。
また、本実施形態の車両状態情報は、車両100の走行経路上における運転者10の視界の良さを示す経路視界情報をさらに含む。そして、前進時処理では、経路視界情報に基づいて運転者10の視界の良さが一定以下であると推定すると(ステップS105のNo)、第2位置(前進時調節位置pf)を運転者10の注視点Oにより近づくように定める(ステップS105のNo)。
これにより、例えば、悪天候下や死角のある交差点における走行時などの運転支援情報の重要性がより高くなる走行シーンにおいて、運転者10に対してエージェント16をより認識し易い状態とするための具体的な制御ロジックが実現される。
一方、エージェント位置制御では、進行方向情報に基づいて車両100の後進を推定すると後進時処理(ステップS108、ステップS109、ステップS111、及びステップS112)を実行する。
これにより、運転者10が後方を視認すると推定される車両100の後進走行状態を適切に検知して、エージェント位置pをエージェント16が運転者10の視界に入る適切な位置に定めることができる。
特に、後進時処理では、運転者10が向いている方向を示唆する視認方向情報(車内カメラ12aの画像)に基づいて運転者10が向いている方向を推定する(ステップS109)。そして、運転者10が前方を向いていると推定した場合には、第2位置(後進時調節位置pr)を車室内における運転者10よりも前方に定める第3前方位置調節(前方画面表示)を実行する。一方、運転者10が後方を向いていると推定した場合には、後進時調節位置prを運転者10よりも後方に定める後方位置調節(後方AR表示)を実行する。
これにより、運転者10の後進走行時において、運転者10が向いている方向に応じてエージェント位置pをより適切に定めることができる。より詳細には、車両100において、車室内前方にいわゆるバックモニターなどの当該車両100の後方領域を表示する装置が搭載されることで、後進走行時に運転者10が前方を向いているシーン、及び車両100の後方領域を直接目視で確認するべく運転者10が後方を向いているシーンの双方を想定して、それぞれに応じた好ましいエージェント位置pを設定することができる。
さらに、本実施形態において、車両状態情報は、車両100の旋回を示唆する旋回情報(操舵角θ)を含む。そして、エージェント位置制御では、操舵角θに基づいて車両100の旋回状態を推定すると(ステップS113のYes)、旋回時位置制御(ステップS114)をさらに実行する。特に、旋回時位置制御では、エージェント位置pを、第1位置又は第2位置に対して旋回方向に所定距離シフトさせる(図6参照)。
これにより、車両100の旋回方向に応じて、エージェント位置pをエージェント16が運転者10の視界に入る適切な位置に定めることができる。したがって、旋回時においても、運転者10によるエージェント16に対する認識性を適切に確保することができる。
さらに、本実施形態のエージェント位置制御では、運転者10のエージェント16に対する親密度を推定し、該親密度に基づいて第1位置(基準ロボット位置Pb)を調節する親密度補正処理をさらに実行する。特に、親密度補正処理では、親密度が高いほど運転者10との距離(離間距離d)が近くなるように定める。
これにより、運転者10のエージェント16に対する思い入れの強さを考慮した上で、離間距離dが適正化された第1位置を定めることができる。これにより、運転者10が、エージェント16に対して煩わしい或いは物足りないなどの親密度と実際の離間距離dが適合しなくなる状態を解消し、運転者10とエージェント16の間の相互コミュニケーションをより助長することができる。
また、本実施形態では、上記情報提供支援方法の実行するための情報提供支援装置(エージェント制御装置18)が提供される。このエージェント制御装置18は、車両100の車速Vを含む車両状態情報に基づいて車両100の走行時と停車時とを判別する判別部(車両状態認識部21)と、判別結果に基づいてエージェント位置pを調節するエージェント位置制御部24と、を有する。特に、エージェント位置制御部24は、停車時にエージェント位置pを所定の第1位置(基準ロボット位置Pb)に調節し、走行時にエージェント位置pを第1位置に対して運転者10の注視点Oにより近い第2位置(前進時調節位置pf又は後進時調節位置pr)に調節する。
さらに、本実施形態では、上記情報提供支援方法をコンピュータ(エージェント制御装置18)に実行させるための情報提供支援プログラムが提供される。この情報提供支援プログラムは、エージェント制御装置18に、車両100の車速Vを含む車両状態情報に基づいて車両100の走行時と停車時とを判別させ、判別結果に基づいてエージェント位置pを調節するエージェント位置制御を実行させる。特に、エージェント位置制御では、停車時にエージェント位置pを所定の第1位置(基準ロボット位置Pb)に調節し、走行時にエージェント位置pを第1位置に対して運転者10の注視点Oにより近い第2位置(前進時調節位置pf又は後進時調節位置pr)に調節する。
[第2実施形態]
以下、第2実施形態について説明する。なお、第1実施形態と同様の要素には同一の符号を付し、その説明を省略する。特に、本実施形態では、上述したエージェント位置制御に加えて、エージェント位置pと運転者10との間の離間距離dに応じて、エージェント16の反応感度を調節する反応感度制御をさらに実行する。
以下、第2実施形態について説明する。なお、第1実施形態と同様の要素には同一の符号を付し、その説明を省略する。特に、本実施形態では、上述したエージェント位置制御に加えて、エージェント位置pと運転者10との間の離間距離dに応じて、エージェント16の反応感度を調節する反応感度制御をさらに実行する。
図8には、反応感度制御の一態様を示す。本実施形態の反応感度制御では、離間距離dの大きさに応じてエージェント16の反応感度を3段階で規定する。特に、離間距離dが第1距離閾値dth1である場合には高感度応答RH、第1距離閾値dth1以上且つ第2距離閾値dth2未満である場合には中感度応答RM、及び第2距離閾値dth2である場合には低感度応答RLがそれぞれ選択される。
ここで、反応感度の高低は、エージェント16のアクションきっかけとなる運転者10の行動の種類や大きさなどにより規定することができる。例えば、低感度応答RLとしては、運転者10の発声(エージェント16に対する呼びかけなど)が規定される。また、中感度応答RMとしては、運転者10の発声に加えて視線(エージェント16の方向を見るなど)が規定される。さらに、高感度応答RHとしては、運転者10の発声及び視線に加えて手の動き(エージェント16に向けてジェスチャを行うなど)が規定される。
このように離間距離dの大きさに応じてエージェント16の反応感度を調節することで、エージェント16と運転者10の間の相互コミュニケーションをより適正化することができる。
特に、本実施形態では、離間距離dが小さいほどエージェント16の応答のきっかけとなる運転者10の行動の種類が多くなる。これにより、停車時(V<Vth1)などの運転者10とエージェント16が近い状況では、運転者10の挙動にエージェント16が敏感に応答することとなる。このため、エージェント16と運転者10の間の相互コミュニケーション(インタラクション)をより助長することができる。
また、離間距離dが大きいほどエージェント16のアクションのきっかけとなる運転者10の行動の種類が少なくなる。これにより、走行中(V≧Vth1)においては、運転者10が運転操作により注力すべき状況となるほど(車速Vが増大するほど)、エージェント16の応答のきっかけとなる運転者10の行動の種類が限定されることとなる。このため、例えば、エージェント16が、運転者10の運転操作にともなう身体の動きなどによって、意図せずエージェント16のアクションを誘発する事態を抑制することができる。特に、上記のように、離間距離dが大きい場合における低感度応答RLを運転者10による発声と規定することで、視線や手の動きを規定する場合に比べ、運転者10が真にエージェント16の応答を望む状況をより高精度に検出することができ、意図しないエージェント16のアクションの発生をより確実に防止することができる。
以上、本発明の実施形態について説明したが、上記実施形態で説明した構成は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を限定する趣旨ではない。
例えば、上記実施形態で説明した前進時処理、後進時処理、旋回時位置制御、親密度補正処理、及び反応感度制御の具体的な態様は一例であり、これら処理において想定される技術的意義が失われない範囲で適宜変更が可能である。
例えば、上記実施形態の前進時処理においては、エージェント位置pを、車速Vが第2車速閾値Vth2に到達するタイミングで、ロボット16aの位置調節からAR表示体16bの表示位置の調節に切り替える例を説明した。しかしながら、これに代えて、前進時処理をAR表示体16bの表示位置の調節のみで実現し、ロボット16aを移動させるための構造を省略する構成を採用しても良い。
また、反応感度制御の具体的な態様についても、第2実施形態(図8)において説明した例に限られず、種々の変更が可能である。例えば、反応感度を定める離間距離dの段階を図8に示す例よりも増加させることで、離間距離dに応じてエージェント16の応答の敏感さをより細かく変化させる構成を採用しても良い。また、第2実施形態では、低感度応答RLを運転者10の発声、中感度応答RMを運転者10の発声及び視線、高感度応答RHの発声、視線、及び手の動きとして規定する例を説明した。しかしながら、低感度応答RL、中感度応答RM、及び高感度応答RHに規定する運転者10の行動の具体的な態様については、適宜変更が可能である。例えば、低感度応答RL、中感度応答RM、及び
高感度応答RHをいずれも運転者10の発声として規定しつつ、発声の音量レベルに段階的に閾値を設け、高い感度応答であるほど当該閾値を小さくする構成を採用しても良い。
高感度応答RHをいずれも運転者10の発声として規定しつつ、発声の音量レベルに段階的に閾値を設け、高い感度応答であるほど当該閾値を小さくする構成を採用しても良い。
上記実施形態の情報提供支援装置(エージェント制御装置18)は、いわゆるAI(Artificial Intelligence)プログラムによって実装することができる。AIプログラムは、学習済みモデルと称される場合がある。
10 運転者、12 センサ類、14 ナビゲーションシステム、15 車両コントローラ、16 エージェント、18 エージェント制御装置、19 駆動部、21 車両状態認識部、22 運転者状態認識部、24 エージェント位置制御部、26 エージェント動作制御部、100 車両、101 情報提供支援システム
Claims (11)
- 所定のキャラクタをモチーフとしたエージェントのアクションによって車両の運転者に対して情報提供を行う情報提供支援方法であって、
前記車両の車速を含む車両状態情報に基づいて前記車両の走行時と停車時とを判別し、
判別結果に基づいてエージェント位置を調節するエージェント位置制御を実行し、
前記エージェント位置制御では、
前記停車時に前記エージェント位置を所定の第1位置に調節し、
前記走行時に前記エージェント位置を前記第1位置に対して前記運転者の注視点により近い第2位置に調節する、
情報提供支援方法。 - 請求項1に記載の情報提供支援方法であって、
前記車両状態情報は、前記車両の前進状態又は後進状態を示唆する進行方向情報を含み、
前記エージェント位置制御では、前記進行方向情報に基づいて前記車両の前進を推定すると前進時処理を実行し、
前記前進時処理では、前記第2位置を前記運転者よりも前方に定める、
情報提供支援方法。 - 請求項2に記載の情報提供支援方法であって、
前記前進時処理では、
前記第2位置を、前記車速が大きいほど前記運転者の注視点に近づくように定める、
情報提供支援方法。 - 請求項2又は3に記載の情報提供支援方法であって、
前記エージェントは、
実体構造体と、所定の仮想表示領域内で表示される仮想表示体と、を含み、
前記前進時処理は、
前記車速が所定の車速閾値以下である場合に実行する第1前方位置調節と、前記車速が前記車速閾値を超える場合に実行する第2前方位置調節と、を含み、
前記第1前方位置調節では、前記第2位置を前記実体構造体の可動範囲内に規定し、
前記第2前方位置調節では、前記第2位置を前記仮想表示領域内に規定する、
情報提供支援方法。 - 請求項2~4の何れか1項に記載の情報提供支援方法であって、
前記車両状態情報は、前記車両の走行経路上における前記運転者の視界の良さを示す経路視界情報をさらに含み、
前記前進時処理では、
前記経路視界情報に基づいて前記運転者の視界の良さが一定以下であると推定すると、前記第2位置を前記運転者の注視点により近づくように定める、
情報提供支援方法。 - 請求項2~5の何れか1項に記載の情報提供支援方法であって、
前記エージェント位置制御では、前記進行方向情報に基づいて前記車両の後進を推定すると後進時処理を実行し、
前記後進時処理では、
前記運転者が向いている方向を示唆する視認方向情報に基づいて前記運転者が向いている方向を推定し、
前記運転者が前方を向いていると推定した場合には、前記第2位置を車室内における前記運転者よりも前方に定める第3前方位置調節を実行し、
前記運転者が後方を向いていると推定した場合には、前記第2位置を前記運転者よりも後方に定める後方位置調節を実行する、
情報提供支援方法。 - 請求項1~6の何れか1項に記載の情報提供支援方法であって、
前記車両状態情報は、前記車両の旋回を示唆する旋回情報を含み、
前記旋回情報に基づいて前記車両の旋回状態を推定すると、旋回時位置制御をさらに実行し、
前記旋回時位置制御では、
前記エージェント位置を、前記第1位置又は前記第2位置に対して旋回方向にシフトさせる、
情報提供支援方法。 - 請求項1~7の何れか1項に記載の情報提供支援方法であって、
前記エージェント位置制御では、
前記運転者の前記エージェントに対する親密度を推定し、該親密度に基づいて前記第1位置を調節する親密度補正処理をさらに実行し、
前記親密度補正処理では、
前記第1位置を、前記親密度が高いほど前記運転者との距離が近くなるように定める、
情報提供支援方法。 - 請求項1~8の何れか1項に記載の情報提供支援方法であって、
前記第2位置と前記運転者との間の離間距離に応じて、前記エージェントの反応感度を調節する反応感度制御をさらに実行する、
情報提供支援方法。 - 所定のキャラクタをモチーフとしたエージェントのアクションによって車両の運転者に対して情報提供を行う情報提供支援装置であって、
前記車両の車速を含む車両状態情報に基づいて前記車両の走行時と停車時とを判別する判別部と、
判別結果に基づいてエージェント位置を調節するエージェント位置制御部と、を有し、
前記エージェント位置制御部は、
前記停車時に前記エージェント位置を所定の第1位置に調節し、
前記走行時に前記エージェント位置を前記第1位置に対して前記運転者の注視点により近い第2位置に調節する、
情報提供支援装置。 - 所定のキャラクタをモチーフとしたエージェントのアクションによって車両の運転者に対して情報提供を行う情報提供支援プログラムであって、
コンピュータに、
前記車両の車速を含む車両状態情報に基づいて前記車両の走行時と停車時とを判別させ、
判別結果に基づいてエージェント位置を調節するエージェント位置制御を実行させ、
前記エージェント位置制御では、
前記停車時に前記エージェント位置を所定の第1位置に調節し、
前記走行時に前記エージェント位置を前記第1位置に対して前記運転者の注視点により近い第2位置に調節する、
情報提供支援プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021208495A JP2023093087A (ja) | 2021-12-22 | 2021-12-22 | 情報提供支援方法、情報提供支援装置、及び情報提供支援プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021208495A JP2023093087A (ja) | 2021-12-22 | 2021-12-22 | 情報提供支援方法、情報提供支援装置、及び情報提供支援プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023093087A true JP2023093087A (ja) | 2023-07-04 |
Family
ID=87000848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021208495A Pending JP2023093087A (ja) | 2021-12-22 | 2021-12-22 | 情報提供支援方法、情報提供支援装置、及び情報提供支援プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023093087A (ja) |
-
2021
- 2021-12-22 JP JP2021208495A patent/JP2023093087A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6342856B2 (ja) | 車両制御装置 | |
JP4557817B2 (ja) | 運転支援装置 | |
KR101332932B1 (ko) | 주차지원장치 | |
JP5397697B2 (ja) | 画像制御装置 | |
CN111295699B (zh) | 辅助方法以及利用该辅助方法的辅助系统、辅助装置 | |
US10338583B2 (en) | Driving assistance device | |
JP4972913B2 (ja) | 走行支援装置 | |
JP2013132969A (ja) | ステアリング位置制御システム | |
JP2006284454A (ja) | 車載用エージェントシステム | |
JP2017182776A (ja) | 車両周辺監視装置及びコンピュータプログラム | |
JP2017007481A (ja) | 車載ヘッドアップディスプレイ装置及び車載表示システム | |
JP2020116965A (ja) | 車両用表示装置 | |
JP6702832B2 (ja) | 模擬運転装置及び模擬運転方法 | |
JP2019116244A (ja) | 車両 | |
KR20140083783A (ko) | 차량의 후진주행보조시스템 | |
JP2011255812A (ja) | 駐車支援装置 | |
JP2023093087A (ja) | 情報提供支援方法、情報提供支援装置、及び情報提供支援プログラム | |
JP6428376B2 (ja) | 情報表示装置 | |
WO2013114871A1 (ja) | 運転支援装置及び運転支援方法 | |
JP6722409B2 (ja) | 運転支援装置 | |
KR102322924B1 (ko) | 차량 및 차량의 제어방법 | |
JP6816475B2 (ja) | 車両用表示装置および表示方法 | |
JP2009002756A (ja) | 情報提供装置および情報提供方法 | |
JP2021037794A (ja) | 車両制御装置 | |
JP2021014245A (ja) | 車両周辺表示装置 |