JP6099845B1 - 情報機器、ナビゲーション装置、作業手順の案内装置、および、負荷状況判定方法 - Google Patents

情報機器、ナビゲーション装置、作業手順の案内装置、および、負荷状況判定方法 Download PDF

Info

Publication number
JP6099845B1
JP6099845B1 JP2016557094A JP2016557094A JP6099845B1 JP 6099845 B1 JP6099845 B1 JP 6099845B1 JP 2016557094 A JP2016557094 A JP 2016557094A JP 2016557094 A JP2016557094 A JP 2016557094A JP 6099845 B1 JP6099845 B1 JP 6099845B1
Authority
JP
Japan
Prior art keywords
information
user
state
load
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016557094A
Other languages
English (en)
Other versions
JPWO2017163309A1 (ja
Inventor
耕佑 細谷
耕佑 細谷
訓 古田
訓 古田
石井 純
純 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6099845B1 publication Critical patent/JP6099845B1/ja
Publication of JPWO2017163309A1 publication Critical patent/JPWO2017163309A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

1または複数の機器(4)を使用するユーザに関する情報から、当該ユーザの負荷状況を判定する負荷状況判定部(103)と、負荷状況判定部(103)が判定した負荷状況に応じて決定した学習モデル(106,107)と、ユーザに関する情報とに基づいて、ユーザの状態を推定する状態推定部(105)とを備えた。

Description

この発明は、ユーザの負荷状況を判定する情報機器、当該情報機器を備えたナビゲーション装置、当情報機器を備えた作業手順の案内装置、および、情報機器による負荷状況判定方法に関するものである。
例えば、ドライバがナビゲーション装置からの案内により運転操作を行っている場合、あるいは、点検作業者がタブレット端末からの案内により点検作業を行っている場合等、ユーザが、情報提供装置等から提供される案内に従い、機器の操作、あるいは、作業等行う場合に、ユーザは、情報提供装置等から得られる案内を把握できず、困惑した状態で操作せざるを得ないという問題が発生し得る。
このような問題に対し、機器等から得られるマルチモーダル情報を用いて、ユーザが困惑した状態である等、ユーザの意識状態を推定する推定技術がある。
例えば、特許文献1には、カーナビゲーションシステムにおいて、カメラ、マイクロホン、車速センサ等から取得されるマルチモーダル情報に基づきドライバの困惑状態を検出し、検出した困惑状態から特定された困惑原因に応じたヘルプを提示する技術が開示されている。
特開2011−232270号公報
ユーザの困惑時等にセンサ等から取得されるマルチモーダル情報の特徴は、ユーザの負荷状況によって大きく異なる。
特許文献1に開示されているような技術では、ドライバの困惑状態を検出する際に、ドライバの負荷状況を考慮していないため、ドライバの負荷が高い場合もドライバの負荷が低い場合も同様にドライバの困惑状態を推定してしまうことになり、困惑状態の推定精度に問題があるという課題があった。
この発明は上記のような課題を解決するためになされたもので、機器を使用するユーザの状態をより高精度に推定することができる情報機器、当該情報機器を備えたナビゲーション装置、当情報機器を備えた作業手順の案内装置および当該情報機器による負荷状況判定方法を提供すること目的としている。
この発明に係る情報機器は、ユーザの直視方向を検出する直視方向検出部と、直視方向算出部が算出したユーザの直視方向から、ユーザが表示画面を直視している画面直視時間を算出する直視時間算出部と、直視時間算出部が算出した画面直視時間からユーザの負荷状況を判定する負荷状況判定部と、負荷状況判定部が判定した負荷状況に基づいて決定した学習モデルと、ユーザに関する情報とに基づいて、ユーザの状態を推定する状態推定部を備えたものである。
この発明によれば、機器を使用するユーザの状態をより高精度に推定することができる。
この発明の実施の形態1に係る状態推定装置を搭載したナビゲーション制御装置の構成図である。 この発明の実施の形態1に係る状態推定装置の構成図である。 図3A,図3Bは、この発明の実施の形態1に係る状態推定装置のハードウェア構成の一例を示す図である。 この発明の実施の形態1に係る状態推定装置の動作を説明するフローチャートである。 実施の形態1において、負荷状況判定部が、ドライバの負荷を判定する動作を説明するフローチャートである。 この発明の実施の形態2に係る状態推定装置の構成図である。 この発明の実施の形態2に係る状態推定装置の動作を説明するフローチャートである。 実施の形態2において、負荷状況判定部が、ドライバの負荷を判定する動作を説明するフローチャートである。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
ここでは、一例として、この発明の実施の形態1に係る状態推定装置10は、車両等のドライバ提供する経路案内情報等を生成して、出力装置5から出力させるナビゲーション制御装置1に組み込まれたものとする。すなわち、状態推定装置10は、ナビゲーション制御装置1および出力装置5等から構成されるナビゲーション装置のユーザであるドライバの状態を推定するものとして、以下説明する。
なお、ここでは、状態推定装置10が推定するドライバの状態、あるいは、ユーザ等の状態とは、例えば、ユーザが「困惑」している状態、「不安」に感じている状態、「緊張」している状態、「興奮」している状態等、ユーザの心理的な状態をいう。実施の形態1においては、一例として、状態推定装置10は、ドライバが「困惑」している状態であるか、そうでない「通常」の状態であるかを推定するものとする。
また、ナビゲーション制御装置1および出力装置5等から構成されるナビゲーション装置は、どのような装置により実現されたものであってもよい。例えば、車両に搭載された車載情報機器により実現されたものでもよく、または、車両に持ち込まれたスマートフォン、タブレット端末等の携帯情報端末により実現されたものでもよい。また、車両と通信可能なサーバ装置でもよい。
図1は、この発明の実施の形態1に係る状態推定装置10を搭載したナビゲーション制御装置1の構成図である。
状態推定装置10は、ネットワークを介して、カメラ2から出力される映像情報、マイクロホン等の音声入力装置3から出力される音声情報、各種の機器4から出力される機器情報を取得し、取得した情報に基づきドライバの状態を推定し、案内決定部11に出力する。
案内決定部11は、例えば、タッチパネル等の入力受付部(図示省略)がドライバから受け付けた経路案内指示に基づき、地図データ、経路データ、位置情報等を取得し、目的地までの経路を案内する案内情報を作成し、出力装置5から出力させる。当該機能は、既存のナビゲーション装置が有する経路案内の機能と同様である。
また、案内決定部11は、状態推定装置10が出力したドライバの状態を示す情報を取得すると、当該情報も利用して、ドライバに提供する案内情報を作成し、出力装置5から出力させる。
出力装置5は、例えば、ディスプレイ等の表示装置、スピーカ等の音声出力装置である。ナビゲーション制御装置1の案内決定部11は、ドライバに提供する案内情報を映像情報とし、表示装置から映像によって出力させる。あるいは、案内決定部11は、ドライバに提供する案内情報を音声情報とし、音声出力装置から音声によって出力させることもできる。
機器4から出力される機器情報とは、ユーザが使用中の1つ、あるいは、複数の機器4から得られる様々な情報である。例えば、ユーザがナビゲーション装置の入力受付部を操作し、出力装置5から提供される経路案内情報に従って車両を運転している場合は、ユーザは、ドライバとして、ナビゲーション装置と車両の両方を使用しているといえる。従って、機器情報には、車速センサから出力される車速、GPSから出力される位置情報、タッチパネル等から出力されるタッチ操作情報等が含まれ得る。また、機器4が、タブレット端末である場合、当該タブレット端末に搭載されたジャイロセンサから出力された情報等も含まれ得る。なお、これらは一例にすぎず、機器情報は、ユーザが使用中の具体的な機器4の種類に応じて様々な情報を含み得る。
ここでいう機器には、単体の機械、装置もしくはシステムとしての機器、または、それら機器を構成する部分としての機器の両方の意味を有するものとする。
カメラ2は、車両内の、ドライバの顔を撮像可能な位置に設置されているものとする。
音声入力装置3は、車両内の、ドライバが発話した際の音声を収集可能な位置に設置されているものとする。
なお、ここでは、図1にも示したとおり、状態推定装置10は、ナビゲーション制御装置1に組み込まれるものとしたが、これに限らず、状態推定装置10は、ナビゲーション制御装置1の外部に設けられ、適宜の情報通信手段を介して、ナビゲーション制御装置1にドライバの状態を示す情報を出力するものとしてもよい。
図2は、この発明の実施の形態1に係る状態推定装置10の構成図である。
図2に示すように、状態推定装置10は、直視方向算出部101と、直視時間算出部102と、負荷状況判定部103と、特徴量形成部104と、状態推定部105と、負荷高時学習モデル106と、負荷低時学習モデル107を備える。
直視方向算出部101は、カメラ2から出力されるドライバの顔を撮像した映像情報を取得し、ドライバの直視方向を算出する。直視方向算出部101は、算出したドライバの直視方向の情報を、特徴量形成部104、および、直視時間算出部102に出力する。
直視時間算出部102は、直視方向算出部101からドライバの直視方向の情報を取得し、ドライバが、案内が表示される表示装置の画面を直視している時間、すなわち、ドライバの画面方向への直視時間を算出する。直視時間算出部102は、算出したドライバの画面方向への直視時間を、負荷状況判定部103に出力する。
負荷状況判定部103は、直視時間算出部102が算出した直視時間に基づき、ドライバの負荷を判定し、当該判定結果を特徴量形成部104に出力する。なお、ここでは、ドライバの負荷とは、ドライバが行っている運転操作に対して、ドライバにどれぐらいの負荷がかかっているかの状況をいい、負荷状況判定部103は、負荷が「高い」、「低い」の二値で、ドライバの負荷を判定するものとする。
特徴量形成部104は、機器4から出力される機器情報、音声入力装置3から出力される音声情報、直視方向算出部101から出力されるドライバの直視方向の情報に基づき、負荷状況判定部103から出力されるドライバの負荷状況に応じて、状態推定部105がドライバの状態を推定する際に用いられる特徴量を形成する。特徴量形成部104は、形成した特徴量を状態推定部105に出力する。
状態推定部105は、負荷状況判定部103から取得したドライバの負荷状況に応じて、特徴量形成部104から取得した特徴量と、負荷高時学習モデル106、あるいは、負荷低時学習モデル107のいずれかの学習モデルとを用いて、ドライバの状態を推定する。状態推定部105は、推定したドライバの状態の情報を、案内決定部11に出力する。
負荷高時学習モデル106は、ドライバの状態を推定するためのモデルであり、事前に、ドライバの負荷が高いときのみのデータを集めて学習したモデルである。
負荷低時学習モデル107は、ドライバの状態を推定するためのモデルであり、事前に、ドライバの負荷が低いときのみのデータを集めて学習したモデルである。
なお、ここでは、図2に示すように、負荷高時学習モデル106と負荷低時学習モデル107とは、状態推定装置10が備えるものとしたが、これに限らない。例えば、負荷高時学習モデル106と負荷低時学習モデル107とは、外部のサーバ等に格納され、状態推定装置10は、通信インタフェース装置(図示省略)を介して外部のサーバに格納された負荷高時学習モデル106あるいは負荷低時学習モデル107を参照するようにしてもよい。
図3A,図3Bは、この発明の実施の形態1に係る状態推定装置10のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、直視方向算出部101と、直視時間算出部102と、負荷状況判定部103と、特徴量形成部104と、状態推定部105の各機能は、処理回路301により実現される。すなわち、状態推定装置10は、カメラ2、音声入力装置3、機器4から受け付けた映像情報、音声情報、機器情報等に基づき、ユーザの状態を推定するための処理回路301を備える。
処理回路301は、図3Aに示すように専用のハードウェアであっても、図3Bに示すようにメモリ303に格納されるプログラムを実行するCPU(Central Processing Unit)304であってもよい。
処理回路301が専用のハードウェアである場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路301がCPU304の場合、直視方向算出部101と、直視時間算出部102と、負荷状況判定部103と、特徴量形成部104と、状態推定部105の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェとの組み合わせにより実現される。すなわち、直視方向算出部101と、直視時間算出部102と、負荷状況判定部103と、特徴量形成部104と、状態推定部105は、HDD(Hard Disk Drive)302、メモリ303等に記憶されたプログラムを実行するCPU304、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD302、メモリ303等に記憶されたプログラムは、直視方向算出部101と、直視時間算出部102と、負荷状況判定部103と、特徴量形成部104と、状態推定部105の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ303とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、直視方向算出部101と、直視時間算出部102と、負荷状況判定部103と、特徴量形成部104と、状態推定部105の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、直視方向算出部101については専用のハードウェアとしての処理回路301でその機能を実現し、直視時間算出部102と、負荷状況判定部103と、特徴量形成部104と、状態推定部105については処理回路がメモリ303に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
負荷高時学習モデル106,負荷低時学習モデル107は、HDD302を使用する。なお、これは一例にすぎず、負荷高時学習モデル106,負荷低時学習モデル107は、DVD、メモリ303等によって構成されるものであってもよい。
動作について説明する。
図4は、この発明の実施の形態1に係る状態推定装置10の動作を説明するフローチャートである。
直視方向算出部101は、カメラ2から出力される映像情報を取得し、ドライバの直視方向を算出する(ステップST401)。具体的には、直視方向算出部101は、カメラ2から取得した映像情報から、画像処理によってドライバの顔の向きと視線方向を取得し、取得したユーザの顔の向きと視線方向とから、ドライバの直視方向を算出する。直視方向算出部101は、ドライバの顔の向きと視線方向を取得する画像処理には、例えば、Active Appearance Model等、既存の技術を用いればよい。
なお、この実施の形態1において、直視方向算出部101は、カメラ2から出力される映像情報を常時取得するが、直視方向算出部101は、予め決められた処理単位時間ごとに、ドライバの直視方向を算出するものとする。ここでは、予め決められた処理単位時間をフレームというものとする。
直視方向算出部101は、算出したドライバの直視方向の情報を、フレームごとに、直視時間算出部102、および、特徴量形成部104に出力する。
なお、直視方向算出部101は、ドライバの直視方向の情報を直視時間算出部102に出力する際、ドライバの直視方向の情報と紐付けて、映像情報も出力するようにする。そして、直視時間算出部102では、直視方向算出部101からドライバの直視方向の情報と映像情報とを取得すると、当該取得した情報を、取得した時系列に蓄積しておく。直視時間算出部102が取得した情報を蓄積しておく場所は、例えば、直視時間算出部102自身の内部としてもよいし、直視時間算出部102の外部の状態推定装置10内としてもよく、直視時間算出部102が蓄積した情報を参照可能な場所であればよい。
直視時間算出部102は、直視方向算出部101からドライバの直視方向の情報を取得し、ドライバが、案内経路等が表示される表示装置の画面を直視している時間、すなわち、ドライバの画面方向への直視時間を算出する(ステップST402)。
ここでは、ドライバが画面を直視している状態とは、ドライバが、ナビゲーション制御装置1によって案内経路等の情報が出力される表示装置の画面を見ている状態であり、ドライバの直視方向が、表示装置の画面の方向である状態をいうものとする。
直視時間算出部102は、例えば、直視方向算出部101から取得したドライバの直視方向について、フレーム毎に連続して、ドライバの直視方向が、表示装置の画面の方向と一致すれば、当該一致した回数、すなわち、当該一致したフレーム数をカウントして、その値を直視時間とする。なお、直視時間算出部102は、直視方向算出部101からフレーム単位で取得したドライバの直視方向の情報を時系列で蓄積しているので、当該蓄積しておいたドライバの直視方向に基づき、直視方向算出部101から取得した最新のドライバの直視方向までで、何フレーム連続してユーザの直視方向が表示装置の画面の方向と一致するかをカウントするものとする。
連続してユーザの直視方向が表示装置の画面方向と一致した回数を直視時間とする計算方法は、例えば、1フレームを0.1秒とし、30フレーム連続でユーザの直視方向が表示装置の画面方向と一致したとすると、0.1秒×30フレーム=3秒、というように計算する。
なお、カメラ2でドライバを撮像した映像における表示画面の方向は予めわかっているものとし、直視時間算出部102は、予めわかっている表示画面の方向に関する情報と蓄積しておいた映像情報とを用いて、表示装置の画面の方向を算出するようにすればよい。
直視時間算出部102は、算出したドライバの画面方向への直視時間を負荷状況判定部103に出力する。
負荷状況判定部103は、直視時間算出部102が出力した画面方向への直視時間を取得し、取得した画面方向への直視時間に基づき、ドライバの負荷状況を判定する(ステップST403)。ここでは、負荷状況判定部103は、負荷が「高い」、「低い」の二値で、ドライバの負荷状況を判定するものとする。
ここで、図5は、実施の形態1において、負荷状況判定部103が、ドライバの負荷状況を判定する動作を説明するフローチャートである。図5に沿って、図4のステップST403の動作を説明する。
負荷状況判定部103は、直視時間算出部102から取得した画面方向への直視時間が、N秒未満かどうかを判定する(ステップST501)。なお、ここでは、ドライバの負荷状況を判定する際の画面方向への直視時間の閾値をN秒とするが、ドライバの負荷状況を判定する際の画面方向への直視時間の閾値は、予め設定された一定時間とすればよい。
ステップST501において、画面方向への直視時間が、N秒未満の場合(ステップST501の“YES”の場合)、負荷状況判定部103は、ドライバは、例えば走行中等であって、表示装置の画面を直視する余裕がないと推定し、ドライバの負荷は高いと判定する(ステップST502)。
ステップST501において、画面方向への直視時間が、N秒以上の場合(ステップST501の“NO”の場合)、負荷状況判定部103は、ドライバは、例えば停車中等であって、表示装置の画面を直視する余裕があると推定し、ドライバの負荷は低いと判定する(ステップST503)。
なお、ここでは、ステップST501において、負荷状況判定部103がドライバの負荷状況を判定する際の閾値を固定値N秒としたが、負荷状況判定部103は、閾値を、フレーム毎に切り替えてドライバの負荷状況を判定するようにしてもよい。例えば、車速に応じて利用する閾値を予め設定しておき、負荷状況判定部103は、機器4である車速センサから車速を取得し、車速が0〜20km/時の場合は閾値を1秒とし、車速が80〜100km/時の場合は閾値を0.5秒とする等、車速に応じて閾値を切り替えるようにすることもできる。
そして、負荷状況判定部103は、判断したドライバの負荷状況の情報を、特徴量形成部104、および、状態推定部105に出力する。なお、このとき、負荷状況判定部103は、ドライバの負荷状況の情報を、例えば、ユーザの負荷が高い場合は、負荷「1」、ユーザの負荷が低い場合は、負荷「0」として、特徴量形成部104、および、状態推定部105に出力する。なお、これは一例にすぎず、負荷状況判定部103は、判定したユーザの負荷状況を、例えば、「高」、「低」等、文字列の情報で出力するようにしてもよいし、負荷状況判定部103は、判定したドライバの負荷状況を判別可能なデータフォーマットで、ドライバの負荷状況の情報を出力するようにすればよい。
図4のフローチャートに戻る。
特徴量形成部104は、機器4から出力される機器情報、音声入力装置3から出力される音声情報、直視方向算出部101から出力されるドライバの直視方向の情報に基づき、負荷状況判定部103から出力されるドライバの負荷状況に応じて、特徴量を形成する(ステップST404)。
このステップST404において特徴量形成部104が形成する特徴量は、状態推定部105においてドライバの状態を推定する際に必要となる。この実施の形態1において、ドライバの状態の推定に使用する学習モデルを作成する際には、サポートベクターマシン(Support Vector Machine。以下、SVMとする。)等の機械学習の方式を用いることを想定しており、特徴量形成部104が形成する特徴量が、機械学習の際の入力として用いられる。状態推定部105によるドライバの状態を推定する動作については後述する。
特徴量形成部104が特徴量を形成する動作について、具体例をあげて説明する。
例えば、ドライバが、ナビゲーション制御装置1が提供する経路案内情報に従って運転操作を行っている場合、走行中等、ドライバの負荷が高いときと、停車中等、ドライバの負荷が低いときでは、困惑時にあらわれる特徴が異なる。
具体的には、例えば、ドライバの負荷が高い走行中は、ドライバは表示装置の入力部を操作する余裕がなく、画面をちらちら見る等、ドライバの直視方向に困惑時の特徴があらわれる。
そこで、特徴量形成部104は、負荷状況判定部103から取得した負荷状況が「1」であり、ドライバの負荷が高いことを示している場合は、ドライバの直視方向と、音声情報と、車速とに基づき、特徴量を形成する。
この場合、特徴量形成部104は、ドライバの直視方向が画面の方向であるかどうかを判定し、ドライバの直視方向が画面の方向であれば「1」、ドライバの直視方向が画面の方向でなければ「0」とする。ドライバの直視方向が画面の方向であるかどうかの判定は、直視時間算出部102が直視時間の計算を行うときに用いる方法を用いて行えばよい(ステップST402参照)。特徴量形成部104は、直視時間算出部102からドライバの直視方向が画面の方向であるかどうかの情報を取得するようにしてもよい。
また、特徴量形成部104は、音声情報から、ドライバが発話中かどうかを判定し、発話中であれば「1」、ドライバが発話中でなければ「0」とする。ドライバが発話中であるかどうかは、既存の音声認識処理を用いて判定すればよい。
そして、特徴量形成部104は、ドライバの直視方向が画面の方向であるかどうかの情報と、ドライバが発話中であるかどうかの情報と、車速の情報とを3次元のベクトルに変換し、当該ベクトルを特徴量とする。
例えば、ドライバの直視方向が画面の方向である、かつ、ドライバが発話中である、かつ、車速が50km/時であるとすると、特徴量形成部104が形成する特徴量は、(1,1,50)という3次元のベクトルとなる。当該ベクトルにおいて、1次元目が、ドライバの直視方向が画面の方向であるかどうかの情報、2次元目が、ドライバが発話中であるかどうかの情報、3次元目が、車速の情報である。
なお、特徴量形成部104は、車速を、車両に備えられた車速センサ(図示省略)から取得するようにすればよい。
一方、例えば、ドライバの負荷が低い停車中は、ドライバは画面を確認する余裕があり、次の交差点位置を確認しようと画面をタッチしたり、画面に表示されている地図の拡大、縮小を行ったりすることができるため、機器の操作情報に困惑時の特徴があらわれる。
そこで、特徴量形成部104は、負荷状況判定部103から取得した負荷状況が「0」であり、ドライバの負荷が低いことを示している場合は、画面のタッチ回数、画面遷移回数などの操作情報に基づき、特徴量を形成する。この実施の形態1では、例えば、特徴量形成部104は、ドライバの負荷が低い場合は、画面のタッチ回数、画面遷移回数、操作時間の情報から、特徴量を形成するものとする。
この場合、例えば、画面のタッチ回数が5回、画面遷移回数が3回、操作時間が3.5秒であったとすると、特徴量形成部104が形成する特徴量は、(5,3,3.5)という3次元のベクトルとなる。当該ベクトルにおいて、1次元目が、タッチ回数、2次元目が、画面遷移回数、3次元目が、操作時間である。
なお、特徴量形成部104は、画面のタッチ回数、画面遷移回数、操作時間の操作情報を、表示装置の入力部、あるいは、ナビゲーション制御装置1が備える入力受付部から取得するようにすればよい。
特徴量形成部104は、形成した特徴量を状態推定部105に出力する。
状態推定部105は、負荷状況判定部103から取得したドライバの負荷状況に応じて、特徴量形成部104から取得した特徴量と、負荷高時学習モデル106、あるいは、負荷低時学習モデル107のいずれかの学習モデルとを用いて、ドライバの状態を推定する(ステップST405)。なお、この実施の形態1では、状態推定部105が推定するドライバの状態とは、「通常」の状態であるか、あるいは、「困惑」の状態であるかの2値とする。
この実施の形態1では、上述したように、特徴量形成部104が形成した特徴量を学習モデルへの入力として用いて、ドライバの状態を推定する。
状態推定部105は、負荷状況判定部103から取得したドライバの負荷状況が「1」であり、ドライバの負荷が高いことを示している場合は、特徴量形成部104から取得した、負荷が高い場合の特徴量を入力とし、負荷高時学習モデル106を用いてドライバの状態を推定する。また、状態推定部105は、負荷状況判定部103から取得したドライバの負荷が「0」であり、ドライバの負荷が低いことを示している場合は、特徴量形成部104から取得した、負荷が低い場合の特徴量を入力とし、負荷低時学習モデル107を用いてユーザ状態を推定する。
負荷高時学習モデル106は、事前に、ユーザ、すなわち、ここではドライバの、負荷が高いときのみのデータを集めて学習したモデルであり、例えば、SVMであれば、ドライバが通常の状態である場合に入力される特徴量と、ドライバが困惑した状態である場合に入力される特徴量を分離する超平面の情報が記憶されている。
負荷低時学習モデル107は、事前に、ユーザ、すなわち、ここではドライバの、負荷が低いときのみのデータを集めて学習したモデルであり、例えば、SVMであれば、ドライバが通常の状態である場合に入力される特徴量と、ドライバが困惑した状態である場合に入力される特徴量を分離する超平面の情報が記憶されている。
負荷高時学習モデル106、および、負荷低時学習モデル107は、それぞれ、予め用意されており、一般的なアルゴリズムで学習し、作成されたものでよい。例えば、負荷高時学習モデル106、および、負荷低時学習モデル107は、線形回帰予測、ニューラルネットワーク(Neural Network)、SVM等であればよい。なお、これは一例にすぎず、負荷高時学習モデル106、および、負荷低時学習モデル107は、その他の作成方法によって作成されたものであってもよい。
ステップST405において、状態推定部105がドライバの状態を推定する動作について、以下詳細に説明する。なお、ここでは、機械学習の方式として、SVMを例にとり、状態推定部105が推定するドライバの状態は、「通常」か「困惑」かであるものとして説明する。
SVMにおけるドライバの状態の推定を式で表わすと、以下の式となる。

y=wx−b

ここで、xは、特徴量形成部104によって形成された特徴量であり、yは、「通常」か「困惑」かを示す値となる。
また、w,bは、予め、大量の訓練データ、すなわち、大量に集められた「通常」状態および「困惑」状態のデータにより学習された分離平面、すなわち、超平面の情報となる。
状態推定部105は、特徴量xを入力として、負荷高時学習モデル106、あるいは、負荷低時学習モデル107を用いてドライバの状態を推定した場合、yの値が正であれば、「困惑」の状態、yの値が負であれば、「通常」の状態として、ドライバの状態を推定する。
負荷高時学習モデル106を用いてドライバの状態を推定する場合も、負荷低時学習モデル107を用いてドライバの状態を推定する場合も、状態推定部105は、上記式でドライバの状態を推定し、ドライバの負荷が高い場合と、ドライバの負荷が低い場合とで異なるのは、上記式中のw,bの内容、すなわち、事前に大量訓練データにより学習された学習モデルである。
そこで、状態推定部105は、ドライバの負荷が高い場合は、上記式に基づき、負荷高時学習モデル106を用いてドライバの状態を推定し、ドライバの負荷が低い場合は、上記式に基づき、負荷低時学習モデル107を用いてドライバの状態を推定する。
このように、状態推定部105は、ドライバの負荷状況に応じて、負荷高時学習モデル106と負荷低時学習モデル107とを切り替えてドライバの状態を推定することで、より精度よくドライバの状態を推定することができる。
また、上記式は行列演算となるため、学習モデルを切り替えることで、特徴量が想定された次元と異なると計算ができなくなることを防ぐ。
状態推定部105は、推定したドライバの状態の情報を、案内決定部11に出力して処理を終了する。
次に、状態推定部105からドライバの状態の情報を取得した案内決定部11の動作について説明する。
案内決定部11は、状態推定部105から取得したドライバの状態の情報に基づき、ドライバの状態に応じて、出力装置5に出力させる案内の内容を決定し、決定した内容に従って経路案内情報を作成し、出力装置5に出力する。出力装置5は、経路案内情報を、音声として出力する。
例えば、ドライバが運転操作を行い、ナビゲーション制御装置1が、経路案内情報を作成し、出力装置5に出力しており、状態推定部105から取得したドライバの状態が「通常」であったとする。なお、ナビゲーション装置においては、通常時の経路案内として、予め、右折、左折の際は2つ手前の信号で右折、あるいは、左折の案内を行うという設定に基づき、案内経路の音声案内を行うものとする。
この場合、案内決定部11は、予め設定された情報量、タイミングでの通常の経路案内情報を作成するものとし、当該経路案内情報を、出力装置5に出力する。出力装置5は、通常の経路案内情報に従い、例えば、右折の2つ手前の信号で、「2つ先の信号、右折です」といった音声を出力する。
一方、例えば、状態推定部105から取得したドライバの状態が「困惑」であった場合には、案内決定部11は、通常時の経路案内に加え、さらに詳細な案内が必要と決定し、決定した内容に従って、例えば、通常の音声案内に加え、1つ手前の信号での案内も行う旨の経路案内情報を作成し、出力装置5に出力する。出力装置5は、1つ手前の信号での案内も行う経路案内情報を、音声として出力する。
例えば、ドライバが運転操作を行い、ナビゲーション制御装置1が、経路案内情報を作成し、出力装置5に出力しており、状態推定部105から取得したドライバの状態が「困惑」であったとする。なお、ナビゲーション装置においては、通常時の経路案内として、予め、右折、左折の際は2つ手前の信号で右折、あるいは、左折の案内を行うという設定に基づき、案内経路の音声案内を行うものとする。
この場合、案内決定部11は、例えば、右折の2つ手前の信号と、さらに、1つ手前の信号で案内経路情報を作成するものとし、当該経路案内情報を、出力装置5に出力する。出力装置5は、右折の2つ手前の信号で、「2つ先の信号、右折です」といった音声を出力し、さらに、右折の1つ手前の信号で、「次の信号、直進です」といった音声を出力する。
状態推定装置10は、より精度よく推定したドライバの状態を案内決定部11に出力するため、案内決定部11は、ドライバに対し、より的確に案内経路情報を作成し、出力装置5に出力させることができ、ドライバの道間違い等を軽減することができる。
なお、この実施の形態1では、案内決定部11は、出力装置5による音声情報の出力を制御するものとしたが、これに限らず、案内決定部11は、出力装置5による映像情報の出力を制御するものとしてもよいし、音声情報の出力と映像情報の出力とを同時に制御するものとしてもよい。具体的には、例えば、案内決定部11は、出力装置5である表示装置に表示させる案内経路の情報について、状態推定部105が、ユーザの状態が「困惑」状態であると推定した場合には、出力装置5に対して、より詳細な案内経路の情報を表示装置に表示させる、あるいは、縮尺を大きくして表示装置に表示させる等の出力制御を行うようにすることもできる。また、例えば、出力装置5が、ヘッドアップディスプレイに案内経路を表示させるタイプである場合、案内決定部11は、状態推定部105が、ユーザの状態が「困惑」状態であると推定した場合には、出力装置5に対して、曲がるべき地点を前方にAR(Augmented Reality:拡張現実)表示させる等の出力制御を行うようにすることもできる。
また、ここでは、案内決定部11が、状態推定装置10の外部にある例を示したが、これに限らず、案内決定部11を、状態推定装置10の内部に備える構成としてもよい。
また、この実施の形態1では、負荷状況判定部103は、負荷が「高い」、「低い」の二値で、ドライバの負荷状況を判定するものとしたが、これに限らず、例えば、負荷状況判定部103は、負荷が「高い」、「中ぐらい」、「低い」等、さらに細分化してドライバの負荷状況を判定するようにすることもできる。その場合は、状態推定部105がドライバの状態を推定する際に用いる学習モデルも、細分化された負荷状況に応じて予め作成しておくものとする。
また、この実施の形態1では、状態推定部105が推定するドライバの状態は、「通常」か「困惑」かとし、ドライバの困惑状態を推定するものとしたが、状態推定部105が推定するドライバの状態はこれに限らない。例えば、状態推定部105は、ドライバが興奮状態かどうかを推定するものであってもよいし、緊張状態かどうかを推定するものであってもよい。なお、状態推定部105が推定するドライバの状態に応じて、負荷高時学習モデル106と負荷低時学習モデル107を作成しておくようにする。
また、この実施の形態1では、図4のステップST403で説明したように、負荷状況判定部103は、直視時間算出部102が出力した画面方向への直視時間に基づき、ドライバの負荷状況を判定するようにした。すなわち、図4のステップST403では、負荷状況判定部103は、直視時間算出部102が出力した、直近の画面方向への直視時間に基づき、ドライバの負荷状況を判定するようにした。しかしながら、これに限らず、負荷状況判定部103は、例えば、1分間等、予め設定された時間分、直視時間算出部102から出力された画面方向への直視時間の情報を蓄積しておき、当該蓄積しておいた、予め設定された時間分の、画面方向への直視時間について、閾値未満であるかどうかを判定し、ユーザの負荷状況を判定するようにしてもよい。
以上のように、実施の形態1によれば、1または複数の機器4を使用するユーザに関する情報からユーザの負荷状況を判定する負荷状況判定部103と、負荷状況判定部103が判定した負荷状況に応じて決定した学習モデルとユーザに関する情報とに基づいてユーザの状態を推定する状態推定部105とを備えたので、より高精度にユーザの状態を推定することができる。
また、ユーザの顔を撮像した映像情報から算出される直視時間を負荷状況の判定に用いたので、近年、車両および携帯端末に搭載されていることが多いカメラを転用できるため、比較的簡易な構成とすることができる。
なお、この実施の形態1では、状態推定装置10は、ナビゲーション制御装置1に組み込まれるものとし、ナビゲーション装置のユーザであるドライバの状態を推定するものとしたが、これは一例にすぎず、状態推定装置10は、その他の機器を操作するユーザの状態を推定するものであってもよい。
例えば、状態推定装置10は、作業手順を案内する案内装置、具体的には、例えば、工事現場等で用いられる作業点検用のタブレット端末を操作し、当該タブレット端末から提供される作業工程の案内を取得するユーザの状態を推定するようにすることもできる。具体的には、状態推定装置10は、例えば、ユーザのタブレット端末の画面への直視時間からユーザの負荷状況を判定し、当該負荷状況に応じて、学習モデルを切り替えてユーザの状態を推定するようにする。そして、状態推定装置10は、推定したユーザの状態に応じて、タブレット端末から音声出力、あるいは、表示させる、作業工程の手順の詳細度を変更させるようにすることもできる。
実施の形態2.
実施の形態1では、負荷状況判定部103は、直視時間算出部102が算出した画面方向への直視時間に基づき、ドライバの負荷状況を判定するようにしていた。
この実施の形態2では、負荷状況判定部103が、画面方向への直視時間と、機器情報とに基づき、ドライバの負荷状況を判定する実施の形態について説明する。
なお、この実施の形態2においても、一例として、状態推定装置10は、車両等のドライバ提供する経路案内情報等を生成して、出力装置5から出力させるナビゲーション制御装置1に組み込まれたものとする。すなわち、状態推定装置10は、ナビゲーション制御装置1および出力装置5等から構成されるナビゲーション装置のユーザであるドライバの状態を推定するものとして、以下説明する。
図6は、この発明の実施の形態2に係る状態推定装置10の構成図である。
図6に示すように、この発明の実施の形態2に係る状態推定装置10は、図2を用いて説明した実施の形態1に係る状態推定装置10とは、負荷状況判定部103が、機器4からの機器情報も取得するようになった点が異なるのみである。状態推定装置10の構成要素については図2で説明した実施の形態1の状態推定装置10と同様であるため、同じ符号を付して重複した説明を省略する。
この発明の実施の形態2に係る状態推定装置10のハードウェア構成についても、実施の形態1において図3を用いて説明したハードウェア構成と同様であるため、重複した説明を省略する。
動作について説明する。
図7は、この発明の実施の形態2に係る状態推定装置10の動作を説明するフローチャートである。
図7において、ステップST401〜402,ステップST404〜405の具体的な動作は、実施の形態1において説明した図4のステップST401〜402,ステップST404〜405と同様であるため、重複した説明を省略する。
この実施の形態2では、実施の形態1において説明した図4のステップST403の具体的な動作が異なるのみである(図7のステップST703)ので、実施の形態1とは異なる、図7のステップST703の動作についてのみ説明する。
ステップST703において、負荷状況判定部103は、直視時間算出部102が出力した画面方向への直視時間と、機器4が出力した機器情報を取得し、取得した画面方向への直視時間と機器情報とに基づき、ドライバの負荷状況を判定する(ステップST703)。負荷状況判定部103が機器4から取得する機器情報とは、例えば、車速センサから取得する車速、または、舵角センサから取得するハンドルの舵角の情報等をいう。ここでは、負荷状況判定部103は、車速センサから車速を取得するものとする。
ここで、図8は、実施の形態2において、負荷状況判定部103が、ドライバの負荷状況を判定する動作を説明するフローチャートである。図8に沿って、図7のステップST703の動作を説明する。
負荷状況判定部103は、直視時間算出部102から取得した画面方向への直視時間が、N秒未満かどうかを判定する(ステップST801)。具体的な動作は、実施の形態1において説明した図5のステップST501と同様である。
ステップST801において、画面方向への直視時間が、N秒未満の場合(ステップST801の“YES”の場合)、負荷状況判定部103は、車速センサから取得した車速が、Vkm/時以上であるかどうかを判定する(ステップST802)。なお、ここでは、ドライバの負荷状況を判定する際の、車速の閾値をVkm/時とするが、ドライバの負荷状況を判定する際の車速の閾値は、予め設定された速度とすればよい。
ステップST802において、車速がVkm/時以上である場合(ステップST802の“YES”の場合)、負荷状況判定部103は、ドライバは、表示装置の画面を直視する余裕がなく、ドライバの負荷は高いと判定する(ステップST803)。
ステップST802において、車速がVkm/時未満である場合(ステップST802の“NO”の場合)、負荷状況判定部103は、ドライバは、表示装置の画面を直視する余裕があり、ドライバの負荷は低いと判定する(ステップST804)。
一方、ステップST801において、画面方向への直視時間が、N秒以上の場合(ステップST801の“NO”の場合)、負荷状況判定部103は、ドライバは、表示装置の画面を直視する余裕があり、ドライバの負荷は低いと判定する(ステップST804)。
そして、負荷状況判定部103は、判定したドライバの負荷状況の情報を、特徴量形成部104、および、状態推定部105に出力する。なお、このとき、負荷状況判定部103は、ドライバの負荷状況の情報を、例えば、ユーザの負荷が高い場合は、負荷状況「1」、ユーザの負荷が低い場合は、負荷状況「0」として、特徴量形成部104、および、状態推定部105に出力する。なお、これは一例にすぎず、負荷状況判定部103は、判断したユーザの負荷状況を、例えば、「高」、「低」等、文字列の情報で出力するようにしてもよいし、負荷状況判定部103は、判断したドライバの負荷状況が判別可能なデータフォーマットで出力するようにすればよい。
なお、この実施の形態2では、負荷状況判定部103が、ドライバの負荷状況の判定の際に、ドライバの画面直視時間に加えて用いる機器情報は、車速センサから取得する車速情報としたが、これは一例にすぎない。例えば、車両が、ドライバの生理状態を検出可能な生体センサ等を備えている場合は、負荷状況判定部103は、当該生体センサからの情報を機器情報として取得し、ドライバの画面直視時間と生体センサからの情報とに基づき、ドライバの負荷状況を判定するようにしてもよい。
また、この実施の形態2においても、実施の形態1同様、負荷状況判定部103は、負荷が「高い」、「中ぐらい」、「低い」等、さらに細分化してドライバの負荷状況を判定するようにすることもできる。その場合は、状態推定部105がドライバの状態を推定する際に用いる学習モデルも、細分化された負荷状況に応じて予め作成しておくものとする。
また、この実施の形態2においても、実施の形態1同様、案内決定部11を状態推定装置10の内部に備えるようにしてもよい。また、案内決定部11は、出力装置5による映像情報の出力を制御するものとしてもよいし、音声情報の出力と映像情報の出力とを同時に制御するものとしてもよい。
また、この実施の形態2でも、実施の形態1同様、状態推定装置10は、ナビゲーション制御装置1に組み込まれるものとし、ナビゲーション装置を操作するユーザであるドライバの状態を推定するものとしたが、これは一例にすぎず、状態推定装置10は、その他の機器を操作するユーザの状態を推定するものであってもよい。
例えば、状態推定装置10が、作業手順の案内装置に組み込まれる場合に、機器情報を、案内装置が案内中の作業の工程を示す情報として、状態推定装置10は、当該案内装置が案内中の作業の工程を示す情報と、ユーザの画面直視時間とに基づいて、ユーザの負荷状況を判定することもできる。具体的には、例えば、ユーザの画面直視時間が閾値未満であり、かつ、案内装置が案内中の作業の工程の難易度が高い、すなわち、案内装置が案内中の作業の工程が難しいという情報を機器情報として案内装置から取得した場合に、状態推定装置10は、ユーザの負荷は高いと判定するようにすることができる。
以上のように、実施の形態2によれば、ユーザの画面方向への直視時間だけでなく、機器情報も利用してユーザの負荷状況を判定するようにしたので、ユーザの負荷状況の判定の精度が向上する。その結果、より高精度にユーザの状態を推定することができる。
また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る情報機器は、機器を使用するユーザの状態をより高精度に推定することができるように構成したため、ユーザの状態を推定する情報機器、当該情報機器を備えたナビゲーション装置、および、当該情報機器を備えた作業手順の案内装置等に適用することができる。
1 ナビゲーション制御装置、2 カメラ、3 音声入力装置、4 機器、5 出力装置、10 状態推定装置、11 案内決定部、101 直視方向算出部、102 直視時間算出部、103 負荷状況判定部、104 特徴量形成部、105 状態推定部、106 負荷高時学習モデル、107 負荷低時学習モデル、301 処理回路、302 HDD、303 メモリ、304 CPU。

Claims (13)

  1. ユーザの直視方向を検出する直視方向検出部と、
    前記直視方向検出部が算出した前記ユーザの直視方向から、前記ユーザが表示画面を直視している画面直視時間を算出する直視時間算出部と、
    前記直視時間算出部が算出した画面直視時間から前記ユーザの負荷状況を判定する負荷状況判定部と、
    前記負荷状況判定部が判定した負荷状況に基づいて決定した学習モデルと、前記ユーザに関する情報とに基づいて、前記ユーザの状態を推定する状態推定部
    とを備えた情報機器。
  2. 前記直視方向検出部は、前記ユーザの顔を撮像した映像情報に基づいて前記ユーザの直視方向を検出する
    ことを特徴とする請求項1記載の情報機器。
  3. 前記負荷状況判定部は、前記画面直視時間に加え、前記ユーザが使用する1または複数の機器に関する機器情報も利用して、前記ユーザの負荷状況を判定する
    ことを特徴とする請求項1または請求項2項記載の情報機器。
  4. 前記機器は、車両および車両の経路を案内するナビゲーション装置であり、
    前記機器情報は、車両の速度を示す情報、または、車両のハンドルの舵角を示す情報であり、
    前記表示画面は、前記ナビゲーション装置に備えられた表示画面である
    ことを特徴とする請求項記載の情報機器。
  5. 前記ユーザに関する情報は、音声情報をさらに含み、
    前記状態推定部は、前記負荷状況判定部により判定された負荷状況が、負荷が高いことを示す場合、前記音声情報、および、車両の速度を示す情報またはハンドルの舵角を示す情報、ならびに、前記直視方向と、負荷高時の学習モデルとに基づいて前記ユーザの状態を推定する
    ことを特徴とする請求項1または請求項2記載の情報機器。
  6. 記機器情報は、前記ユーザが前記機器に対して行った操作の情報を含み、
    前記状態推定部は、前記負荷状況判定部により判定された負荷状況が、負荷が低いことを示す場合、前記ユーザが前記機器に対して行った操作の情報と、負荷低時の学習モデルとに基づいて前記ユーザの状態を推定する
    ことを特徴とする請求項記載の情報機器。
  7. 前記機器は、作業手順の案内装置であり、
    前記機器情報は、前記案内装置が案内中の作業の工程を示す情報である
    ことを特徴とする請求項記載の情報機器。
  8. 前記案内装置は作業点検用の携帯端末装置であり、
    前記案内装置が案内中の作業の工程とは、点検中の工程である
    ことを特徴とする請求項記載の情報機器。
  9. 前記状態推定部が推定するユーザの状態は、ユーザの困惑状態、ユーザの興奮状態、ユーザの緊張状態のうちのいずれか1つである
    ことを特徴とする請求項1または請求項2記載の情報機器。
  10. 記機器は、ユーザに移動経路を案内するナビゲーション装置であり、
    前記状態推定部が推定するユーザの状態はユーザの困惑状態であり、
    ユーザが困惑していない状態では、通常の経路案内情報を生成し、ユーザが困惑している状態では、前記通常の経路案内情報に加えて、より詳細な経路案内情報を生成する案内決定部をさらに備えた
    ことを特徴とする請求項記載の情報機器。
  11. 請求項1記載の情報機器を備えたナビゲーション装置。
  12. 請求項1記載の情報機器を備えた作業手順の案内装置。
  13. 直視方向検出部が、ユーザの直視方向を検出するステップと、
    直視時間算出部が、前記直視方向検出部が算出した前記ユーザの直視方向から、前記ユーザが表示画面を直視している画面直視時間を算出するステップと、
    負荷状況判定部が、前記直視時間算出部が算出した画面直視時間から前記ユーザの負荷状況を判定するステップと、
    状態推定部が、前記負荷状況判定部が判定した負荷状況に基づいて決定した学習モデルと、前記ユーザに関する情報とに基づいて、前記ユーザの状態を推定するステップ
    とを備えた情報機器による負荷情報判定方法。
JP2016557094A 2016-03-22 2016-03-22 情報機器、ナビゲーション装置、作業手順の案内装置、および、負荷状況判定方法 Active JP6099845B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/058971 WO2017163309A1 (ja) 2016-03-22 2016-03-22 状態推定装置、ナビゲーション装置、および、作業手順の案内装置

Publications (2)

Publication Number Publication Date
JP6099845B1 true JP6099845B1 (ja) 2017-03-22
JPWO2017163309A1 JPWO2017163309A1 (ja) 2018-03-29

Family

ID=58363125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016557094A Active JP6099845B1 (ja) 2016-03-22 2016-03-22 情報機器、ナビゲーション装置、作業手順の案内装置、および、負荷状況判定方法

Country Status (2)

Country Link
JP (1) JP6099845B1 (ja)
WO (1) WO2017163309A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095538A (ja) * 2018-12-13 2020-06-18 本田技研工業株式会社 情報処理装置及びプログラム
WO2020161854A1 (ja) * 2019-02-07 2020-08-13 三菱電機株式会社 車両用機器制御システム、車両用機器制御方法及び車両用機器制御装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323702A (ja) * 2005-05-19 2006-11-30 Fuji Xerox Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2011053798A (ja) * 2009-08-31 2011-03-17 Denso Corp 運転環境判定装置,運転状況推定装置,運転支援装置
JP2011232270A (ja) * 2010-04-30 2011-11-17 Clarion Co Ltd ナビゲーション装置およびそのヘルプ提示方法
WO2013042260A1 (ja) * 2011-09-22 2013-03-28 トヨタ自動車株式会社 運転支援装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323702A (ja) * 2005-05-19 2006-11-30 Fuji Xerox Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2011053798A (ja) * 2009-08-31 2011-03-17 Denso Corp 運転環境判定装置,運転状況推定装置,運転支援装置
JP2011232270A (ja) * 2010-04-30 2011-11-17 Clarion Co Ltd ナビゲーション装置およびそのヘルプ提示方法
WO2013042260A1 (ja) * 2011-09-22 2013-03-28 トヨタ自動車株式会社 運転支援装置

Also Published As

Publication number Publication date
JPWO2017163309A1 (ja) 2018-03-29
WO2017163309A1 (ja) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6310531B2 (ja) 自律走行車において拡張仮想現実コンテンツを提供するシステム及び方法
US7853051B2 (en) Recognizing apparatus and method, recording media, and program
US9613459B2 (en) System and method for in-vehicle interaction
CN108973990A (zh) 用于自动驾驶控制的方法、介质和系统
JP2017211359A (ja) リアルタイム交通情報に基づいて自律走行車においてコンテンツを提供するシステムおよび方法
US20160132530A1 (en) Identification of a driver's point of interest for a situated dialog system
JP2006084208A (ja) ナビゲーション装置及び進行方向案内方法
US10254123B2 (en) Navigation system with vision augmentation mechanism and method of operation thereof
JP6099845B1 (ja) 情報機器、ナビゲーション装置、作業手順の案内装置、および、負荷状況判定方法
JP6944793B2 (ja) 運転支援システムおよび運転支援方法並びに運転支援プログラム
JP2011117905A (ja) ルート選択支援装置及びルート選択支援方法
JP2010085203A (ja) ナビゲーション装置及び案内誘導方法
JP5002521B2 (ja) ナビゲーション装置、ナビゲーション方法およびプログラム
JP2007256124A (ja) ナビゲーション装置
JP5881308B2 (ja) ナビゲーション装置および交差点案内方法
JP7215184B2 (ja) 経路案内制御装置、経路案内制御方法、およびプログラム
JP2005321268A (ja) ナビゲーション装置
JP2018060248A (ja) 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
JP2017109656A (ja) 情報生成装置、情報提示システムおよび情報生成方法
JP5611103B2 (ja) ナビゲーション装置
JPWO2014207914A1 (ja) 電子機器およびプログラム
JP2014154125A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
JP2014006708A (ja) 表示情報のスクロール制御装置
JP7466433B2 (ja) 運転データ記録装置、運転支援システム、運転データ記録方法、およびプログラム
JP5968277B2 (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170221

R150 Certificate of patent or registration of utility model

Ref document number: 6099845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250