JP6499682B2 - 情報提供システム - Google Patents
情報提供システム Download PDFInfo
- Publication number
- JP6499682B2 JP6499682B2 JP2017016324A JP2017016324A JP6499682B2 JP 6499682 B2 JP6499682 B2 JP 6499682B2 JP 2017016324 A JP2017016324 A JP 2017016324A JP 2017016324 A JP2017016324 A JP 2017016324A JP 6499682 B2 JP6499682 B2 JP 6499682B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- driving
- emotion
- estimated
- physical condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/16—Control of vehicles or other craft
- G09B19/167—Control of land vehicles
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/14—Traffic procedures, e.g. traffic regulations
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/04—Electrically-operated educational appliances with audible presentation of the material to be studied
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Description
また、この種の装置には、運転者の運転技量と、運転者の主観的評価に基づく運転技量に対する自信度とを判断し、判断した運転技量と自信度とに基づいて、運転支援情報を提供する技術も開示されている(例えば、特許文献2参照)。
しかし、従来の構成では、適切な運転指導ができない場合がある。例えば、運転者が運転指導を望んでいない場合、又は体調不良の場合にも運転操作を補助したり、運転支援したりすることが考えられる。
また、前記情報提供部は、運転中の前記利用者から推定された感情、運転スキル及び体調のいずれかが変化した場合に、前記情報提供を変更する。これにより、利用者の感情、運転スキル及び体調の変化に合わせて適切な情報提供に修正し易くなる。
また、前記情報提供部は、推定された体調が不良の場合に、前記情報提供をしないようにするので、情報提供を許容する体調でない利用者に合わせた対応が可能になる。
また、前記運転スキルは、利用者の運転履歴、車両情報、及び周囲の環境情報の少なくともいずれかに基づいて推定される。これにより、より正確な運転スキルを推定することができる。
図1は本発明の実施形態に係る情報提供システムを示した図である。
情報提供システム1は、自動二輪車2の各々に搭載される端末装置10と、通信ネットワーク21を介して端末装置10と通信可能なサーバー31とを備え、自動二輪車2を運転するライダー3に、運転のスキルアップを促す情報提供を行うシステムである。
この情報提供システム1は、このシステム1の利用者となるライダー3に運転指導を行う運転指導システム、又は、ライダー3の運転をスキルアップさせる運転スキルアップ促進システム等と言うこともできる。
ここで、本実施形態における運転指導は、運転に直接的或いは間接的に関係する情報の提供を意味し、運転操作の補助、又は運転支援といったアドバイスも含んでいる。
図2は端末装置10とサーバー31のハードウェア構成を示したブロック図である。
端末装置10は、通信部11と、制御部12と、記憶部13と、表示部14と、音声入出力部15と、アクチュエータ駆動部16と、操作部17と、運転情報取得部18と、生体情報取得部19とを備えている。通信部11は、制御部12の制御の下、無線の通信プロトコルに従った通信処理を行うことにより、通信ネットワーク21を介してサーバー31と通信を行う。
これにより、表示部14、音声入出力部15、及びアクチュエータ駆動部16は、ライダー3に異なる態様で情報を出力する情報出力部として機能する。
なお、走行中にライダー3に情報を通知する場合は、ライダー3が短時間で情報を認識可能な情報出力デバイスを使用することが好ましく、例えば、表示パネルよりもLED等の方が好ましい。
本実施形態では、端末装置10の各部(制御部12、音声入出力部15、表示部14等)とサーバー31とが連動して動作することによって、ライダー3に対し、対話側のインストラクションを出力可能に構成されている。ここで、対話的なインタラクションは、会話(相手に対する自然言語を用いた発話と、相手の発話の認識)を含み、会話等を実現するための音声の入出力、文字又は画像の入出力等の相互作用を含む。なお、対話的なインタラクションを、以下「インタラクション」と略称する。
なお、スピーカー及びマイクは、端末装置10に内蔵する構成に限定されず、自動二輪車2に設ける構成、又は、ライダー3が装着するヘルメットに設ける構成等を適用可能である。また、スピーカー及びマイクと端末装置10との間の信号の送受信は、Bluetooth(登録商標)等の近距離無線通信を利用してもよい。
なお、この物理的運動をインタラクションの出力としてもよい。アクチュエータ駆動部16とアクチュエータとは有線接続した構成でもよいし、近距離無線通信を利用して情報を送受可能にした構成でもよい。
なお、自動二輪車2が操作部17、表示部14及び音声入出力部15等に利用可能な構成を有する場合、端末装置10は、それらの構成を操作部17、表示部14及び音声入出力部15等に利用してもよい。
このため、本実施形態の運転情報取得部18は、車両情報を取得する車両情報取得部18Aと、周囲情報を取得する周囲情報取得部18Bとを備えている。
第2車両情報D2は、ブレーキ操作に関する情報として、ブレーキ操作子(前輪用、後輪用の各々のブレーキ操作子)の操作情報だけなく、自動二輪車2の速度・加速度の情報を含む。第2車両情報D2により、速度及び加速度に応じたブレーキ操作を特定可能である。また、自動二輪車2がABS(Antilock Brake System)を備える場合は、ABSが作動したか否かの情報も含む。
第4車両情報D4は、コーナリング操作に関する情報として、自動二輪車2のバンク角に加え、ライダー3の姿勢等に応じて変化する自動二輪車2の重心位置の情報を含む。重心位置の情報は、例えば、自動二輪車2のロール角(バンク角に相当)、ピッチ角及びヨー角等を検出するセンサーからの値から算出する等の公知の方法を用いて特定可能である。重心位置とバンク角とによってコーナリングが安定しているか否かを評価可能である。
なお、第4車両情報D4に、ライダー3がコーナリング時に行う他の操作を検出する情報を含めてもよく、例えば、左右のペダルへの荷重変化を検出する情報を含めてもよい。第4車両情報D4により、バンク角及び重心移動に応じたコーナリング操作を特定可能である。
周囲情報取得部18Bは、周囲の情報として、走行路が直進、右カーブ、左カーブ、又は交差点か否か、信号の有無、信号の色、停止線、横断歩道の有無、制限速度、周囲に車両又は人等が存在しないか否か、車間距離、滑り易い状況(路面が濡れている、外気温が低い等)か否か等の情報を取得する。
また、この周囲情報取得部18Bは、GPSシステム等を利用して現在位置を検出する測位部18Cを有し、検出された現在位置を、通信部11によってサーバー31に通知可能である。また、周囲情報取得部18Bが、走行路、信号及び標識等の情報を記述した地図データを備え、地図データを参照することによって、現在位置が交差点か否か等の周囲の情報を取得するようにしてもよい。また、周囲情報取得部18Bは、地図データを参照することによって、現在位置が、サーキット、自動二輪車2等の車両の走行が許可されたクローズコース又は教習所か否かの情報も取得可能である。
生体情報取得部19は、ライダー3の体調に関する生体情報として、例えば、脈拍数、血圧、表情、発汗量等の情報を取得する。脈拍数は脈波センサー、血圧は圧力センサー、表情は画像認識装置、発汗量はライダー3の手の平の水分又は湿度を検出するセンサーでそれぞれ検出可能である。
図2に示すように、サーバー31は、通信部32と、演算部33と、記憶部34とを備えている。通信部32は、演算部33の制御の下、無線の通信プロトコルに従った通信処理を行うことにより、通信ネットワーク21(図1)を介して複数の端末装置10との間で通信を行う。
演算部33は、端末装置10の制御部12よりも処理能力が高いプロセッサーを有し、記憶部34に記憶されたプログラム41を実行することにより、サーバー31の各部の制御、及び各種の機能を実現する処理を行うコンピューターユニットとして機能する。
人工知能技術としては、例えば、各種フィルタリング、独立成分分析、SVM(Support Vector Machine)、及び輪郭抽出等の画像処理技術、パターン認識(例えば、音声認識、顔認識ほか)、自然言語処理、知識情報処理、強化学習、ベイジアンネットワーク、SOM(自己組織化マップ)、ニューラルネットワーク、及びDeep Learning(深層学習)等の機械学習等が利用されている。また、演算部33における推定、及び情報提供の決定(インストラクションの応答を含む)等は、機械学習等によって予め得られたアルゴリズムに基づいて行われる。
図2に示すように、アルゴリズムとしては、感情を推定するための感情推定アルゴリズム42、運転スキルを推定するための運転スキル推定アルゴリズム43、体調を推定するための体調推定アルゴリズム44、及び情報提供を行うための情報提供アルゴリズム45を有している。
つまり、自動二輪車2の運転指導を行う教官と同様の情報を用いてスキル推定を行い、高精度な推定を可能にする。また、人工知能技術を利用することによって、より人間に近い推定が可能である。
例えば、介入頻度を上げた場合、コーナー毎、交差点毎に運転指導を行い、介入頻度を下げることで、運転指導の時間間隔を延ばすことができる。また、介入頻度を最も下げた場合は、運転指導を行わないか、運転指導の重要度が高い状況の場合にだけ運転指導を行う。運転指導の重要度が高い状況は、例えば、車間距離が過度に短い状況、又はABSが作動するような状況である。
このアルゴリズム46は、自動二輪車2と対応づけてライダー3の運転習熟度を判定し、つまり、自動二輪車2とライダー3との組み合わせ毎に運転習熟度を判定する。
例えば、運転習熟度を、その自動二輪車2の運転に不慣れな初級レベルから、その自動二輪車2の運転がプロ並みのプロレベルまでの多段階で判断し、ライダー3に通知する処理を行う。これにより、ライダー3は、その自動二輪車2に対する自身の運転習熟度を認識可能になる。
この場合、サーバー31は、演算部33により、周囲情報取得部18Bの取得情報に基づいて、テストモードを実行する所定の条件を満たすか否かを判定し、その条件を満たす場合に、テストモードを実行する。所定の条件は、ライダー3が頻繁に走行する走行経路であること、例えば練習場所等のライダー3が予め指定した走行エリアであること、又は、サーキット等の特定場所であること等である。
これによって、演算部33は、自動二輪車2が特定区間を走行する間、テストモードを自動的に実行する自動実行部としても機能する。従って、特定区間における運転習熟度を測定でき、ライダー3は、同じ特定区間における運転習熟度から自身がスキルアップしたか否かを容易に知ることができる。なお、ライダー3が手動操作で、テストモードを実行可能にしてもよい。
図3は情報提供を行う場合のサーバー31の動作を示したフローチャートである。
前提として、自動二輪車2の各端末装置10は、少なくともライダー3により自動二輪車2の運転が開始されると、制御部12の制御の下、生体情報取得部19によりライダー3の生体情報の取得を開始するとともに、運転情報取得部18により車両情報(第1〜第5車両情報D1〜D5)及び周囲の情報の取得を開始する。これらの情報は、制御部12の制御の下、通信部11によってサーバー31にリアルタイムに送信される。
次に、サーバー31は、演算部33により、感情、運転スキル及び体調の推定結果の組み合わせに基づき情報提供(運転指導)を開始するか否かを判定する(ステップSA2)。
図4に示すように、ライダー3の感情が、肯定的感情(喜び、楽しい)と推定され、ライダー3の運転スキルが推定され、且つ、ライダー3の体調が良好と推定された場合に、サーバー31は情報提供を開始する。このため、感情が否定的感情(不恐れ、不安、怒り)と推定された場合、運転スキルが推定されない場合、又は、体調が不良と推定された場合の少なくともいずれかの場合は、条件を満たさず、サーバー31は情報提供を開始しない。
ステップSA3の処理に移行した場合、サーバー31は、演算部33により、教官アルゴリズム45Aを選択する。この選択は、少なくとも推定した運転スキルに対応する教官アルゴリズム45Aを選択する。例えば、推定した運転スキルに対応する複数の教官アルゴリズム45Aを抽出し、その中からランダムに、運転スキル以外の条件を考慮して教官アルゴリズム45Aを選択する。
具体的には、サーバー31は、運転指導の情報として、端末装置10の表示部14の制御情報、音声入出力部15の制御情報、及びアクチュエータ駆動部16の制御情報を出力する。
また、音声入出力部15の制御情報は、音声入出力部15に運転指導の音声を出力させる情報であり、例えば、合成音声等の音声信号を含む。この制御情報により、運転指導の音声や、ライダー3へのインストラクションとなる音声を出力することができる。
このようにして、表示、音声、及び振動により、ライダー3に運転指導が実施される。この運転指導は、端末装置10からリアルタイムに送信される運転情報取得部18の取得情報に基づいて行われるので、現在の運転状況に合わせた運転指導を実施できる。例えば、自動二輪車2が交差点に向かっている場合は、交差点の運転指導を実施でき、自動二輪車2が右折しようとしている場合は右折の運転指導を実施できる。
一方、運転が終了していない場合(ステップSA5:YES)、サーバー31は、演算部33により、感情、運転スキル及び体調のいずれかに変化があったか否かを判定する(ステップSA6)。つまり、演算部33は、感情、運転スキル及び体調の推定結果を記憶部34に蓄積しておき、過去の推定結果と比較することにより、感情、運転スキル及び体調のいずれかに変化があったか否かを判定する。
ステップSA7の処理は、感情、運転スキル及び体調のいずれかに変化に合わせて、情報提供の頻度を変更したり、情報提供を中止したり、情報提供を再開等したりすることで、ライダー3が所望する情報提供等に変更する処理である。
サーバー31は、演算部33により、感情が肯定的感情から否定的感情に変化したか否かを判定する(ステップSB1)。サーバー31は、否定的感情に変化した場合(ステップSB1:YES)、情報提供の介入頻度を下げる(ステップSB2)。情報提供の介入頻度を下げることは、運転指導の頻度の低減に相当するので、ライダー3が、情報提供の頻度が多すぎることによって否定的感情に変化した場合は、ライダー3を肯定的感情に戻すことができる。
なお、上記ステップSB1〜SB4の処理によって感情が肯定的感情に変化した場合、サーバー31は情報提供の頻度をその時点の頻度に保持する。
なお、自動二輪車2の走行場所が公道とサーキットとの間で変化した場合も、推定される運転スキルは、例えば「公道初級」から「サーキット初級」へと変更されるので、変更後の運転スキルに合わせた異なる教官アルゴリズム45Aに変更される。異なる教官アルゴリズム45Aが複数存在する場合は、ランダム処理等を利用していずれか1つの教官アルゴリズム45Aを選択すればよい。これらによって、走行場所の変更に合わせた情報提供に変更することができる。
一方、体調が不良から良好に変化した場合(ステップSB9)、サーバー31は、演算部33により、運転指導の情報提供を開始する(ステップSB10)。以上がステップSA7の処理(変化に応じた処理)である。
つまり、本構成では、ライダー3の感情、運転スキル及び体調のいずれかの変化に応じて、異なる教官を疑似した対話型のインストラクションに変更するオートモードを有し、演算部33は、このオートモードに従って、対話型のインストラクションを変更する。但し、この構成に限定されず、ライダー3の選択に応じて、異なる教官を疑似した対話型のインストラクションに変更するマニュアルモードを設け、ライダー3がオートモード又はマニュアルモードを選択可能にしてもよい。この場合、演算部33は、選択されたモードに応じた制御を行うことで、ライダー3が望むインストラクション設定が可能となる。
また、サーバー31の演算部33は、推定された体調が不良の場合に情報提供をしないので、情報提供を許容する体調でないライダー3に合わせた対応が可能になる。
また、教官アルゴリズム45Aは、対話型のインストラクションを出力するので、ライダー3は教官と対話しながら運転指導を行うのと同様の運転指導を受けることができる。
図6はテストモードの実行が選択されている場合のサーバー31の動作を示したフローチャートである。なお、この動作は、図3に示した情報提供を行う動作と並列的に行ってもよいし、情報提供を行う動作を行わない場合に行ってもよく、ライダー3が適宜に選択可能である。
また、サーバー31は、端末装置10から送信される識別情報等に基づいて、自動二輪車2とライダー3の組み合わせ、及び自動二輪車2の車種等を特定する。そして、サーバー31は、特定した自動二輪車2と対応づけて運転習熟度を判定するようになっている。
特定区間は、上記自動二輪車2及びライダー3の組み合わせで繰り返し走行される走行区間、或いは、ライダー3が予め設定した条件を満たす走行区間である。例えば、ライダー3が通勤等で毎日走行する走行区間、ライダー3が運転練習を行う練習コース、教習所内のコース、又はサーキット等である。特定区間は、サーバー31がライダー3の走行ルートを継続的に監視し、監視結果に基づいて自動的に抽出してもよいし、ライダー3が直接指定したエリアでもよい。
習熟度判定アルゴリズム46は、自動二輪車2の運転スキル及び運転習熟度を判定する専門家を疑似したアルゴリズムである。なお、運転スキルの推定には、運転スキル推定アルゴリズム43を利用してもよい。
つまり、自動二輪車2が特定区間を走行する間、アクセル操作等の操作毎の運転スキル、又は交差点等の走行状況毎の運転スキルが推定され、これら推定結果とともに、TCS及びABSが作動したか否かの情報が、記憶部34に蓄積されていく。
このように、運転習熟度の判定は、様々な情報に基づいて行うため処理が膨大になり易い。本実施形態では、人工知能技術を利用することにより、効率的に、かつ人が行うのと同様の判定が可能である。
自動二輪車2が規定の特定区間を出たと判定すると(ステップSC4:YES)、サーバー31は、演算部33により、記憶部34に蓄積された感情及び運転スキルの情報に基づいて運転習熟度を判定する(ステップSC5)。
次に、蓄積された感情が肯定的感情か否定的感情か否かをそれぞれ判定する。
ここで、否定的感情は、恐れ、不安、怒り等であり、運転に自信が無かったり、不安であったりした場合等に、このような感情が生じ易い。このため、否定的感情が存在した場合、上記判定レベルLAに相当する運転習熟度とは判定せず、上記判定レベルLAよりも低い判定レベル(以下、LB)に相当する運転習熟度と判定する。一方、否定的感情が存在しない場合に、上記判定レベルLAに相当する運転習熟度と判定する。
なお、運転習熟度に判定方法は上記方法に限定されない。例えば、感情が安定していることも運転習熟度が高いと判断する条件にしてもよい。
この場合、演算部33は、通知情報として、端末装置10の表示部14の制御情報、及び/又は音声入出力部15の制御情報を生成し、端末装置10に送信する。
表示部14の制御情報によって、表示部14に、運転習熟度を通知する情報が表示され、また、音声入出力部15の制御情報によって、音声入出力部15に、運転習熟度を通知する音声が出力される。これにより、ライダー3に運転習熟度が通知される。また、運転習熟度の情報は、端末装置10の記憶部13に記憶され、ライダー3が操作部17を操作することにより、任意のタイミングで運転習熟度を確認できる。なお、通知する処理を実行すると、サーバー31側ではテストモードを終了する。
これにより、特定区間を走行する毎に、運転習熟度が測定される。ライダー3は、端末装置10に蓄積された運転習熟度の履歴を確認することによって、自身の運転習熟度が延びているか否かを確認できる。また、運転習熟度が、運転対象の自動二輪車2を乗りこなしていることを示す客観的な評価情報でもあるので、ライダー3は、自動二輪車2を乗りこなしているか否かの客観的な評価を知ることができる。
例えば、上記の図5に示すフローチャートでは、運転スキルの変更に応じて教官アルゴリズム45Aを変更する場合を説明したが、これに限定されない。例えば、推定された感情、運転スキル及び体調のいずれかの変化に応じて、異なる教官を疑似した教官アルゴリズム45Aに変更してもよい。
図7は、その場合の動作を含むフローチャートである。なお、上記実施形態と同じ箇所は同じステップ番号を示して説明を省略し、異なる部分を詳述する。
図7に示すように、感情、運転スキル及び体調のいずれかに変化があった場合(ステップSA6:YES)、サーバー31は、演算部33により、教官アルゴリズム45Aに変更する(ステップSA17)。
このステップSA17では、運転スキルが変化した場合は、変化後の運転スキルに合わせた異なる教官アルゴリズム45Aのうちのいずれかの教官アルゴリズム45Aに変更する。また、感情及び体調のいずれかが変化した場合は、運転スキルに合わせた異なる教官アルゴリズム45Aのうちからランダム処理等を利用していずれか1つの教官アルゴリズム45Aを選択する。
そこで、サーバー31は、演算部33により、上記ステップSA18の処理を所定時間の間、継続して行い、その間に、感情が否定的感情に変化すると、ステップSA17の処理に移行し、教官アルゴリズム45Aを変更する。
そして、ライダー3の感情が否定的感情に変化しなかった場合に、ステップSA5の処理に移行する。
また、例えば、第2教官アルゴリズムは、プロライダーの運転を運転指導するための情報提供を行う。これにより、ハイレベルなサーキット走行を目指すライダー3に適切な情報提供が可能になる。
性格の推定については、例えば、アクセス操作及びブレーキ操作に基づき急加速及び急減速が多い運転をしているか否か、急加速及び急減速の周囲状況、及び車速等に基づき推定可能である。また、この性格の推定に人工知能技術を利用することによって、効率的に、かつ人が行うのと同様の性格推定が可能になる。
さらに、推定した性格及び予め取得した個人情報のいずれかを、ライダー3に提供する運転指導の内容に反映させてもよい。例えば、教官アルゴリズム45Aが、性格又は個人情報に合わせて運転指導の内容を変更する機能を有するようにすればよい。これにより、よりライダー3に合わせた運転指導が可能になる。
さらに、上記実施形態では、情報提供システム1を、端末装置10とサーバー31とで構成する場合を説明したが、これに限らない。例えば、情報提供システム1を、上記した各機能を実現する1つのハードウェア装置で構成してもよいし、また、サーバー31に相当する装置を複数のコンピューターで構成してもよい。
また、上記実施形態では、車両の一例として自動二輪車2の場合を説明したが、これに限定されず、スクータ型車両、ATV等の三輪車及び四輪車等の鞍乗り型車両、自動車、自転車等の様々な車両を本発明に適用可能である。
2、2A〜2C 自動二輪車
3、3A〜3C ライダー(利用者)
10 端末装置
11、32 通信部
12 制御部
13、34 記憶部
14 表示部(情報出力部)
15 音声入出力部(情報出力部)
16 アクチュエータ駆動部(情報出力部)
17 操作部
18 運転情報取得部(情報取得部)
19 生体情報取得部(情報取得部)
21 通信ネットワーク
31 サーバー
33 演算部(情報提供部)
D1〜D5 第1〜第5車両情報
Claims (11)
- 利用者の感情、運転スキル及び体調に関する情報を取得する情報取得部(18、19)と、
取得した情報に応じて感情、運転スキル及び体調を推定する推定部(33)と、
車両を運転中の前記利用者に対し、推定された感情、運転スキル及び体調の組み合わせに応じて情報提供を行う情報提供部(33)とを備え、
前記情報提供は、運転指導を行う教官を疑似した対話型のインストラクションを含み、
推定された感情、運転スキル及び体調のいずれかの変化に応じて、異なる教官を疑似した対話型のインストラクションに変更することを特徴とする情報提供システム。 - 推定された感情、運転スキル及び体調のいずれかの変化に応じて、異なる教官を疑似した対話型のインストラクションに変更するオートモードと、前記利用者の選択に応じて、異なる教官を疑似した対話型のインストラクションに変更するマニュアルモードとを有し、
前記情報提供部(33)は、選択されたモードに応じた制御を行うことを特徴とする請求項1に記載の情報提供システム。 - 利用者の感情、運転スキル及び体調に関する情報を取得する情報取得部(18、19)と、
取得した情報に応じて感情、運転スキル及び体調を推定する推定部(33)と、
車両を運転中の前記利用者に対し、推定された感情、運転スキル及び体調の組み合わせに応じて情報提供を行う情報提供部(33)とを備え、
前記情報提供部(33)は、運転中の前記利用者から推定された感情、運転スキル及び体調のいずれかが変化した場合に、前記情報提供を変更し、推定された感情が肯定的感情から否定的感情に変化した場合に、前記情報提供の頻度を低減することを特徴とする情報提供システム。 - 前記情報提供部(33)は、推定された体調が不良の場合に、前記情報提供をしないことを特徴とする請求項3に記載の情報提供システム。
- 利用者の感情、運転スキル及び体調に関する情報を取得する情報取得部(18、19)と、
取得した情報に応じて感情、運転スキル及び体調を推定する推定部(33)と、
車両を運転中の前記利用者に対し、推定された感情、運転スキル及び体調の組み合わせに応じて情報提供を行う情報提供部(33)とを備え、
前記情報提供部(33)は、運転中の前記利用者から推定された感情、運転スキル及び体調のいずれかが変化した場合に、前記情報提供を変更し、推定された体調が不良の場合に、前記情報提供をしないことを特徴とする情報提供システム。 - 前記情報提供は、運転指導を行う教官を疑似した対話型のインストラクションを含み、
推定された感情、運転スキル及び体調のいずれかの変化に応じて、異なる教官を疑似した対話型のインストラクションに変更することを特徴とする請求項3乃至5のいずれか一項に記載の情報提供システム。 - 利用者の感情、運転スキル及び体調に関する情報を取得する情報取得部(18、19)と、
取得した情報に応じて感情、運転スキル及び体調を推定する推定部(33)と、
車両を運転中の前記利用者に対し、推定された感情、運転スキル及び体調の組み合わせに応じて情報提供を行う情報提供部(33)とを備え、
少なくとも運転中の前記利用者から推定された感情及び運転スキルに基づいて、前記利用者の運転習熟度を判定する習熟度判定部(33)を有し、
前記習熟度判定部(33)は、推定された運転スキルが所定のレベルを満足しても、推定された感情が否定的感情に該当する場合、前記所定のレベルに達していないものとして運転習熟度を判定することを特徴とする情報提供システム。 - 前記運転スキルは、利用者の運転履歴、車両情報、及び周囲の環境情報の少なくともいずれかに基づいて推定されることを特徴とする請求項7に記載の情報提供システム。
- 利用者の感情、及び運転スキルに関する情報を取得する情報取得部(18、19)と、
取得した情報に応じて感情及び運転スキルを推定する推定部(33)と、
少なくとも運転中の前記利用者から推定された感情及び運転スキルに基づいて、前記利用者の運転習熟度を判定する習熟度判定部(33)を有し、
前記習熟度判定部(33)は、推定された運転スキルが所定のレベルを満足しても、少なくとも推定された感情が否定的感情に該当する場合、前記所定のレベルに達していないものとして運転習熟度を判定することを特徴とする情報提供システム。 - 前記習熟度判定部(33)は、前記車両と対応づけて前記利用者の運転習熟度を判定し、判定結果を前記利用者に通知する処理を実行することを特徴とする請求項9に記載の情報提供システム。
- 前記運転習熟度を測定するテストモードを有し、
前記習熟度判定部は、前記車両が特定区間を走行する間、前記テストモードを自動的に実行することを特徴とする請求項9又は10に記載の情報提供システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016324A JP6499682B2 (ja) | 2017-01-31 | 2017-01-31 | 情報提供システム |
US15/863,302 US10937334B2 (en) | 2017-01-31 | 2018-01-05 | Information providing system |
DE102018201234.2A DE102018201234A1 (de) | 2017-01-31 | 2018-01-26 | Informationsanbietungssystem |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016324A JP6499682B2 (ja) | 2017-01-31 | 2017-01-31 | 情報提供システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124791A JP2018124791A (ja) | 2018-08-09 |
JP6499682B2 true JP6499682B2 (ja) | 2019-04-10 |
Family
ID=62843363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017016324A Active JP6499682B2 (ja) | 2017-01-31 | 2017-01-31 | 情報提供システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10937334B2 (ja) |
JP (1) | JP6499682B2 (ja) |
DE (1) | DE102018201234A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10134279B1 (en) * | 2017-05-05 | 2018-11-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for visualizing potential risks |
CN110998725B (zh) * | 2018-04-19 | 2024-04-12 | 微软技术许可有限责任公司 | 在对话中生成响应 |
CN109285547B (zh) * | 2018-12-04 | 2020-05-01 | 北京蓦然认知科技有限公司 | 一种语音唤醒方法、装置及系统 |
CN109616109B (zh) * | 2018-12-04 | 2020-05-19 | 北京蓦然认知科技有限公司 | 一种语音唤醒方法、装置及系统 |
JP7457458B2 (ja) * | 2019-02-27 | 2024-03-28 | 株式会社シマノ | 出力装置、コンピュータプログラム、および記憶媒体 |
WO2020202450A1 (ja) * | 2019-04-01 | 2020-10-08 | ヤマハ発動機株式会社 | パーソナリティ分析方法、パーソナリティ分析装置、パーソナリティデータを用いる情報処理方法及びパーソナリティデータを用いる情報処理装置 |
JP7263187B2 (ja) * | 2019-09-13 | 2023-04-24 | 日産自動車株式会社 | 情報処理装置及び方法 |
JP7248615B2 (ja) * | 2020-03-19 | 2023-03-29 | ヤフー株式会社 | 出力装置、出力方法及び出力プログラム |
CN112801526B (zh) * | 2021-02-05 | 2022-06-28 | 福建慧舟信息科技有限公司 | 基于生物识别交叉认证的驾培作弊监管系统和方法 |
WO2023079658A1 (ja) * | 2021-11-04 | 2023-05-11 | 株式会社Subaru | 車両の走行制御支援システム、サーバ装置、および、車両 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4802484A (en) * | 1983-06-13 | 1989-02-07 | Ernest H. Friedman | Method and apparatus to monitor asymmetric and interhemispheric brain functions |
US4543957A (en) * | 1983-06-13 | 1985-10-01 | Ernest H. Friedman | Human response apparatus and method |
US7565230B2 (en) | 2000-10-14 | 2009-07-21 | Temic Automotive Of North America, Inc. | Method and apparatus for improving vehicle operator performance |
JP2005319872A (ja) | 2004-05-07 | 2005-11-17 | Denso Corp | 車両用運転操作補助装置 |
US20060011399A1 (en) * | 2004-07-15 | 2006-01-19 | International Business Machines Corporation | System and method for controlling vehicle operation based on a user's facial expressions and physical state |
JP4246693B2 (ja) * | 2004-12-24 | 2009-04-02 | 富士通テン株式会社 | 運転支援装置 |
JP2006232174A (ja) * | 2005-02-25 | 2006-09-07 | Nissan Motor Co Ltd | 車両用運転支援装置 |
JP4556738B2 (ja) * | 2005-03-29 | 2010-10-06 | 横浜ゴム株式会社 | 運転技量評価装置、運転負担効率報知装置、運転技量評価方法、および運転負担効率報知方法 |
US7649445B2 (en) * | 2006-06-15 | 2010-01-19 | The Yokohama Rubber Co., Ltd. | Apparatus and method for evaluating driving skill and apparatus and method for informing efficiency of driver's physical load to driving operation |
EP1882619B1 (en) * | 2006-07-24 | 2010-11-24 | The Yokohama Rubber Co., Ltd. | Apparatus and method for evaluating driving skill and apparatus and method for informing efficiency of driver's stress to driving operation |
JP2009134496A (ja) | 2007-11-30 | 2009-06-18 | Nissan Motor Co Ltd | 運転支援装置及び運転支援方法 |
JP4893611B2 (ja) * | 2007-12-17 | 2012-03-07 | 日本電気株式会社 | 警報装置 |
KR101173944B1 (ko) * | 2008-12-01 | 2012-08-20 | 한국전자통신연구원 | 차량 운전자의 감성 조절 시스템 및 방법 |
US20110091847A1 (en) * | 2009-10-15 | 2011-04-21 | Meredith Bell Carroll | Method, system, and computer software code for the adaptation of training via performance diagnosis based on (neuro)physiological metrics |
JP5581801B2 (ja) * | 2010-05-17 | 2014-09-03 | トヨタ自動車株式会社 | 情報提供装置及び情報提供方法 |
JP5640511B2 (ja) * | 2010-07-12 | 2014-12-17 | マツダ株式会社 | 車両用運転技量育成装置 |
US8364395B2 (en) * | 2010-12-14 | 2013-01-29 | International Business Machines Corporation | Human emotion metrics for navigation plans and maps |
JP5879949B2 (ja) * | 2011-11-18 | 2016-03-08 | 三菱自動車工業株式会社 | 運転支援装置 |
US20140309863A1 (en) * | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Parental control over vehicle features and child alert system |
US9638537B2 (en) * | 2012-06-21 | 2017-05-02 | Cellepathy Inc. | Interface selection in navigation guidance systems |
US8876535B2 (en) * | 2013-03-15 | 2014-11-04 | State Farm Mutual Automobile Insurance Company | Real-time driver observation and scoring for driver's education |
KR102043637B1 (ko) * | 2013-04-12 | 2019-11-12 | 한국전자통신연구원 | 감성 기반 경로 안내 장치 및 방법 |
US20150260531A1 (en) * | 2014-03-12 | 2015-09-17 | Logawi Data Analytics, LLC | Route planning system and methodology which account for safety factors |
US20160084661A1 (en) * | 2014-09-23 | 2016-03-24 | GM Global Technology Operations LLC | Performance driving system and method |
US9573600B2 (en) * | 2014-12-19 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and apparatus for generating and using driver specific vehicle controls |
US9728084B2 (en) * | 2015-02-25 | 2017-08-08 | Here Global B.V. | Method and apparatus for providing vehicle classification based on automation level |
WO2016151554A1 (en) * | 2015-03-26 | 2016-09-29 | Lightmetrics Technologies Pvt. Ltd. | Driver monitoring to determine context of event |
JP6269557B2 (ja) * | 2015-04-08 | 2018-01-31 | トヨタ自動車株式会社 | 車両の運転支援制御装置 |
JP6358212B2 (ja) * | 2015-09-17 | 2018-07-18 | トヨタ自動車株式会社 | 車両用覚醒制御システム |
JP6436030B2 (ja) * | 2015-09-17 | 2018-12-12 | トヨタ自動車株式会社 | ライフログ記録システム |
JP6365554B2 (ja) | 2016-01-14 | 2018-08-01 | マツダ株式会社 | 運転支援装置 |
US11138524B2 (en) * | 2016-03-11 | 2021-10-05 | Uber Technologies, Inc. | Cascaded boosted predictive models |
CN108885764B (zh) * | 2016-03-17 | 2023-03-24 | 瑞士再保险有限公司 | 远程信息处理系统及其相应的方法 |
US9945679B2 (en) * | 2016-06-27 | 2018-04-17 | International Business Machines Corporation | Personalized travel routes to reduce stress |
US10449968B2 (en) * | 2016-09-23 | 2019-10-22 | Ford Motor Company | Methods and apparatus for adaptively assisting developmentally disabled or cognitively impaired drivers |
DE112016007357T5 (de) * | 2016-11-23 | 2019-07-04 | Ford Global Technologies, Llc | Trainingssystem für manuellen modus |
CN109996713B (zh) * | 2016-11-28 | 2022-04-15 | 本田技研工业株式会社 | 驾驶辅助装置、驾驶辅助系统和驾驶辅助装置的控制方法 |
US10192171B2 (en) * | 2016-12-16 | 2019-01-29 | Autonomous Fusion, Inc. | Method and system using machine learning to determine an automotive driver's emotional state |
JP2018100936A (ja) * | 2016-12-21 | 2018-06-28 | トヨタ自動車株式会社 | 車載装置及び経路情報提示システム |
JP6513069B2 (ja) * | 2016-12-27 | 2019-05-15 | 本田技研工業株式会社 | 運転支援装置および運転支援方法 |
-
2017
- 2017-01-31 JP JP2017016324A patent/JP6499682B2/ja active Active
-
2018
- 2018-01-05 US US15/863,302 patent/US10937334B2/en active Active
- 2018-01-26 DE DE102018201234.2A patent/DE102018201234A1/de active Pending
Also Published As
Publication number | Publication date |
---|---|
US20180218639A1 (en) | 2018-08-02 |
DE102018201234A1 (de) | 2018-08-02 |
US10937334B2 (en) | 2021-03-02 |
JP2018124791A (ja) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6499682B2 (ja) | 情報提供システム | |
Kashevnik et al. | Driver distraction detection methods: A literature review and framework | |
JP6513069B2 (ja) | 運転支援装置および運転支援方法 | |
JP7092116B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
US7805223B2 (en) | Dialogue system | |
JP6972629B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP5353040B2 (ja) | 運転シミュレーション装置、運転シミュレーション方法、およびプログラム | |
JP6575932B2 (ja) | 車両運転支援システム | |
JP2019510677A (ja) | 運転者のルールベース型支援のための制御データ作成方法 | |
JP2018060192A (ja) | 発話装置およびコミュニケーション装置 | |
JP2018169706A (ja) | 車両運転支援システム | |
JP6575933B2 (ja) | 車両運転支援システム | |
WO2017168465A1 (ja) | 鞍乗型車両用処理装置 | |
CN108688675A (zh) | 车辆驾驶支援系统 | |
WO2018123055A1 (ja) | 情報提供システム | |
JP2010072573A (ja) | 運転評価装置 | |
JP2024041746A (ja) | 情報処理装置 | |
JP6419134B2 (ja) | 車両感情表示装置、車両感情表示方法および車両感情表示プログラム | |
WO2018123057A1 (ja) | 情報提供システム | |
CN111736701A (zh) | 基于车载数字人的辅助驾驶交互方法及装置、存储介质 | |
WO2016202450A1 (en) | A method for controlling an interface device of a motor vehicle | |
JP7116540B2 (ja) | 運転アドバイス装置及び運転アドバイス方法 | |
JP6579495B2 (ja) | 車両運転支援システム | |
JP6579493B2 (ja) | 車両運転支援システム | |
CN107888652B (zh) | 处理结果异常检测装置、存储介质、检测方法和移动体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6499682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |