JP6690649B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6690649B2
JP6690649B2 JP2017539715A JP2017539715A JP6690649B2 JP 6690649 B2 JP6690649 B2 JP 6690649B2 JP 2017539715 A JP2017539715 A JP 2017539715A JP 2017539715 A JP2017539715 A JP 2017539715A JP 6690649 B2 JP6690649 B2 JP 6690649B2
Authority
JP
Japan
Prior art keywords
vehicle
information
user
evaluation
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017539715A
Other languages
English (en)
Other versions
JPWO2017047176A1 (ja
Inventor
由幸 小林
由幸 小林
河本 献太
献太 河本
井手 直紀
直紀 井手
慎吾 高松
慎吾 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017047176A1 publication Critical patent/JPWO2017047176A1/ja
Application granted granted Critical
Publication of JP6690649B2 publication Critical patent/JP6690649B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
自動車普及率が高まり、多くの人々が日常的に自動車を利用するようになると、交通渋滞の解消や自動車事故の未然防止、運転マナーの向上等が問題となってくる。
例えば、下記特許文献1では、運転マナー向上への動機付けを高めるために、他者による自車両宛の運転マナーを評価する挙動(ハザード、クラクション等)を取得してサーバへ送信し、サーバにおいて運転評価情報に応じたポイントを算出するシステムが記載されている。
また、近年、渋滞情報やナビゲーション情報等の様々な情報をユーザに提示する車載用情報提示装置が普及している。例えば下記特許文献2では、他車の車載バッテリのエネルギー消費状態を他車の現在位置と共に地図画面上に表示する車載用情報提示装置が記載されている。
特開2012−150557号公報 特開2012−207941号公報
ここで、上記特許文献1に記載の技術では、ユーザの運転評価情報に応じたポイント情報をユーザ本人に見せることで運転マナー向上への動機付けを高めているが、自分の評価を自身で確認するだけでは良い運転を心掛ける動機付けには不十分である。また、上記特許文献2に記載の技術では、他車の車載バッテリのエネルギー消費状態を確認できるが、事故の未然防止や快適な走行のためには、周囲を走行する他車両の運転マナーに関する評価も重要となる。
そこで、本開示では、対象車両に対するユーザ評価に関する情報を効果的に利用することが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、前記認識した対象車両に対するユーザ評価を取得する取得部と、前記取得したユーザ評価を通知するための情報を生成する生成部と、を備える、情報処理装置を提案する。
本開示によれば、プロセッサが、ユーザの環境情報から対象車両の情報を自動的に認識することと、前記認識した対象車両に対するユーザ評価を取得することと、前記取得したユーザ評価を通知するための情報を生成することと、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、前記認識した対象車両に対するユーザ評価を取得する取得部と、前記取得したユーザ評価を通知するための情報を生成する生成部と、として機能させるための、プログラムを提案する。
以上説明したように本開示によれば、対象車両に対するユーザ評価に関する情報を効果的に利用することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態による情報処理装置の基本構成の一例を示す図である。 本実施形態による情報処理装置の詳細構成の一例を示す図である。 本実施形態による対象車両の認識方法の一例を説明する図である。 第1の実施形態による他車両への評価入力処理を示すフローチャートである。 第1の実施形態による対象車両においてユーザ評価の通知が行われる際の表示例を説明する図である。 第1の実施形態による他車両の評価情報の表示処理を示すフローチャートである。 第1の実施形態による周辺の他車両の評価情報が表示される場合について説明する図である。 第1の実施形態による周辺を走行する他車両の評価情報がTopView画面で表示される場合について説明する図である。 第1の実施形態による対象車両の評価情報がネガティブな場合について説明する図である。 第2の実施形態による他車両の速度情報の表示処理を示すフローチャートである。 第2の実施形態による周辺の他車両の速度情報が表示される場合について説明する図である。 第2の実施形態による周辺を走行する他車両の速度情報がTopView画面で表示される場合について説明する図である。 第2の実施形態による周辺を走行する他車両の速度情報がBird View画面で表示される場合について説明する図である。 第2の実施形態による他車両からの情報取得ルートについて説明する図である。 第2の実施形態による自車両が取得した周辺車両の速度情報の一覧を示す図である。 第3の実施形態による情報処理システムの概要について説明する図である。 第3の実施形態による他車両の加速度情報の表示処理を示すフローチャートである。 第3の実施形態による周辺の他車両の加減速情報が表示される場合について説明する図を示す。 第3の実施形態による自車両が取得した周辺車両の加減速情報の一覧を示す図である。 第4の実施形態による情報処理システムの概要について説明する図である。 第4の実施形態による他車両の認識情報の表示処理を示すフローチャートである。 第4の実施形態による対象車両の認識情報が表示される場合について説明する図である。 第4の実施形態による対象車両の認識情報がTop View画面で表示される場合について説明する図である。 第5の実施形態によるユーザ車両の走行予測結果を通知する場合について説明する図である。 第5の実施形態による周辺の他車両から取得した情報に基づく警告通知について説明する図である。 第5の実施形態による周辺の他車両から取得した情報に基づく警告通知について説明する図である。 第6の実施形態による情報処理システムの全体構成を説明する図である。 第6の実施形態による近親者の重要な運転状況を通知する場合について説明する図である。 第6の実施形態による各ユーザの運転状況がSNS等に自動的に投稿される場合について説明する図である。 第6の実施形態による各ユーザの運転状況がSNS等に自動的に投稿される場合について説明する図である。 第6の実施形態による運転内容をゲームに反映させる場合について説明する図である。 車両システムの概略的な構成の一例を示すブロック図である。 情報処理装置のハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成
2−1.基本構成
2−2.詳細構成
3.各実施形態
3−1.第1の実施形態
3−2.第2の実施形態
3−3.第3の実施形態
3−4.第4の実施形態
3−5.第5の実施形態
3−6.第6の実施形態
4.補足
5.ハードウェア構成例
5−1.車両制御システムの構成例
5−2.情報処理装置の構成例
5−3.その他
6.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
本開示の一実施形態による情報処理システムは、対象車両に対するユーザ評価に関する情報を効果的に利用することで、例えば運転マナーの向上や、事故の未然防止、快適な走行等を支援する。図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図示された例では、車両10A、車両10B、および車両10Cが、周辺に存在する他車両と信号の送受信が可能な車車間通信機能を有している。
ここで、例えば車両10Aが本線に合流する際に車両10Bが道を譲ってくれた場合、車両10Aは車両10Bに対して無理をしない程度で(すなわち走行に支障を来さない程度で)お礼を行うことがマナーであるが、通常は、手を挙げる、頭を軽く下げる、ハザードランプを1〜2回点滅させる等が行われる。このようなお礼はその場限りであるが、良い運転を維持させるために、このようなお礼を運転者(または車両)に対する評価として収集してもよい。例えば道を譲って貰った車両10Aの運転者は、ハンドル等に設けられた「Thanks」ボタンを押したり、「譲ってくれてありがとう!」と発話することで車両10Bに対して明示的な評価を行う。車両10Aは、「Thanks」ボタンの押下や、収音したユーザ音声に基づいてユーザ評価を取得し、車車間通信により、対象車両として認識した車両10Bに送信する。車両10Bは、受信した評価情報を記憶したり、運転者に視認可能な表示装置(ディスプレイまたはフロントガラスのAR(augmented reality)機能)で提示したりして、運転者のコミュニケーションを実現する。表示装置には、例えば「Thanksされました」「譲ってくれてありがとう!」といったメッセージが表示される。
上述したように車車間通信で周囲の車両から送信され、蓄積された車両10Bの他ユーザからの評価は、第三者の車両10Cにも車両10Bから送信される。車両10Cは、近くを走行する車両10Bの評価情報を車車間通信により受信し、車内の表示装置に提示する。よって、車両10Cの運転者は、車両10Bの運転マナーが良いか悪いかを、車両10Bの評価情報(例えば車両10Bが「Thanks」された回数を示す数値や直近のコメント等)により把握することができる。
このように各車両の評価情報が周囲の車両にも送信されることで、例えば車両10Cの運転者は、前を走る車両10Bの「Thanks」された回数が少なく、直近のコメントが「急な割込みされた」「蛇行運転危ない!」といったものである場合、車両10Bが運転マナーの悪い危険な車両であると認識することができる。これにより、車両10Cの運転者は、車両10Bの後ろを走ることを避けたり、車両10Bの動きに特に注意することで、事故の未然防止や、快適な走行を行うことができる。
また、車両に対するお礼や批判を一時的なものにせず、評価情報として車両に紐付けて蓄積し、周囲の車両にも公開されることで、自身の運転評価を自分だけで見るよりも、周囲に知られることで、良い運転を維持するモチベーションが十分に保たれる。
なお他車両から車車間通信により取得し得る他車両の情報は、上述した評価情報に限定されず、事故の未然防止や快適な走行、および運転マナー向上等のために有用な様々な情報が取得し得る。
また、他車両の情報は、車車間通信により通信する例に限定されず、管理サーバ4(図28参照)を介して取得されてもよい。各車両は、路車間通信により、道路に設置された路側無線装置3(図28参照)と通信接続し、路側無線装置3を介して管理サーバ4とデータの送受信を行う。各車両の情報は、車両固有の識別情報(例えば車両ナンバー)に紐付けて、現在位置情報と共に管理サーバ4で管理される。
また、図1では、車両10A、車両10B、車両10C、として自動車両を図示しているが、本実施形態はこれに限定されず、車両10は、自動二輪車両、または軽車両であってもよい。
<<2.構成>>
次に、上述した情報処理システムを実現する情報処理装置100の構成について、図2および図3を参照して説明する。情報処理装置100は、例えば車両10A、10B、10C等の移動体に搭載され得る。若しくは、情報処理装置100は、車両10に持ち込まれるスマートフォン、タブレット端末、携帯電話端末、PC(パーソナルコンピュータ)等に搭載され得る。
<2−1.基本構成>
図2は、本実施形態による情報処理装置100の基本構成の一例を示す図である。図2に示すように、情報処理装置100は、制御部110、通信部120、入力部130、出力部140、および記憶部150を含む。
制御部110は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。制御部110は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。
通信部120は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。例えば、通信部120は、他の情報処理装置100または路側無線装置3との間で通信を行う。また、通信部120は、周辺を走行する他車両に搭載された他の情報処理装置100と車車間通信を行う通信モジュール、周辺に設置された路側無線装置3との間で通信を行う通信モジュール、携帯電話通信網と通信を行う通信モジュール、およびインターネット網と通信を行う通信モジュールの少なくともいずれかを含む。
入力部130は、外部からの情報処理装置100への情報入力を受付ける。例えば入力部130は、タッチパネル、スイッチ、ボタン、マイクロホン、および各種センサにより実現され得る。
出力部140は、映像、画像、音声、または振動等によって情報を出力する。例えば出力部140は、車両の運転者に認識可能に設置された表示装置(ディスプレイやフロントガラスのAR)、またはスピーカ等により実現される。
記憶部150は、制御部110の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
<2−2.詳細構成>
図3は、本実施形態による情報処理装置100の詳細構成の一例を示す図である。図3に示すように、情報処理装置100は、車載機器1301、センサ1302、操作入力部1303、マイクロホン1304、車車間通信部1201、路車間通信部1202、ネットワークI/F(interface)部1203、認識部1101、ユーザ評価取得部1102、通知情報生成部1103、通知制御部1104、推定部1105、表示部1401、およびスピーカ1402を含む。
車載機器1301、センサ1302、操作入力部1303、およびマイクロホン1304は、入力部130の一例である。車載機器1301は、車両に設けられている機器やシステムであって、例えば速度計、燃費計、ナビゲーション装置、クルーズコントローラや自動ブレーキ等の運転アシストシステム、安全装備、および自動運転システムが想定される。車載機器1301から認識部1101や推定部1105が得られる情報は例えば以下のような情報が挙げられる。
Figure 0006690649
センサ1302は、車両内や車両周辺の様々な情報を検知する。例えばセンサ1302は、カメラ(画像センサ)、デプスセンサ、視線センサ、タッチセンサ、バイタルセンサ、および感情センサ等が想定される。センサ1302から認識部1101や推定部1105が得られる情報は例えば以下のような情報が挙げられる。
Figure 0006690649
操作入力部1303は、ユーザによる操作入力情報を検出する。例えば操作入力部1303は、タッチパネル、スイッチ、またはボタン等により実現される。また、操作入力部1303は、ハンドル、レバースイッチ、またはステアリング周辺に設けられた「Thanks」ボタン(評価ボタンの一例)を含む。操作入力部1303からユーザ評価取得部1102が得られる情報は、例えば「Thanks」ボタンの押下情報(ユーザによる他車両への評価に関する情報の一例)が挙げられる。
マイクロホン1304は、ユーザによる発話を収音する。マイクロホン1304からユーザ評価取得部1102が得られる情報は、例えば「譲ってくれてありがとう」といった、ユーザによる他車両への評価コメントが挙げられる。また、マイクロホン1304から推定部1105が得られる情報は、例えば「あの車ふらふらしてるけど危なくないかな…」「みんなどこから来たのかな」といった、ユーザによる他車両への情報要求が挙げられる。
以上説明した車載機器1301、センサ1302、操作入力部1303、またはマイクロホン1304は、車両内において情報処理装置100と別体に設けられていてもよい。
車車間通信部1201、路車間通信部1202、およびネットワークI/F(interface)部1203は、通信部120の一例である。車車間通信部1201および路車間通信部1202は、例えばWi-Fi(登録商標)、BlueTooth(登録商標)等の近距離無線通信により、車と車、車と路側無線装置とのデータ通信を行う。また、ネットワークI/F部1203は、4G(LTE;Long Term Evolution)、3G等のモバイルネットワークにより車とネットワークとのデータ通信を行う。なお車車間通信部1201は、ヘッドライト、車幅灯、ウインカー、ブレーキランプ等の高速明滅パターンを用いた可視光通信により他車両とのデータ通信を実現してもよい。
認識部1101、ユーザ評価取得部1102、通知情報生成部1103、通知制御部1104、および推定部1105は、制御部110の機能例である。認識部1101は、ユーザが注目している対象車両や、ユーザが評価を行った際の対象車両を認識する。対象車両の認識は、認識部1101が、車載機器1301、センサ1302、および通信部120から得た情報(すなわちユーザ環境情報)に基づいて自動的に行ってもよい。ユーザ環境情報は、例えばユーザ車両の走行状況、ユーザの視線情報、ユーザの集中度、ユーザの発話内容、ユーザの周辺情報、およびユーザ車両と周囲の車両との位置関係等である。認識部1101は、例えば得られた各種情報(ユーザ環境情報)を、機械学習を用いて総合的に解釈することで対象車両を自動的に認識することが可能である。また、認識部1101は、操作入力部1303、またはマイクロホン1304等から入力されたユーザ指示に従って対象車両を認識してもよい。
ここで、図4を参照して対象車両の認識方法の一例を説明する。図4は、本実施形態による対象車両の認識方法の一例を説明する図である。図4左側に示すように、例えば車両10Aが本線に合流する際に、本線を走る車両10Bが合流直前で道を譲ってくれた場合、車両10Aと車両10Bの位置関係に基づいて、車両10Aに搭載されている情報処理装置100は、車両10Bをユーザが注目する対象車両として認識する。車両10Aと車両10Bの位置関係は、例えばセンサ1302の一例であるカメラから得られた映像や、ステレオカメラから得られた距離情報、赤外線センサから得られた距離情報、車車間通信部1201により車両10Bから得た信号に基づいて取得される。また、図4右側に示すように、運転者の視線情報に基づいて、ユーザが注視している車両10Cを対象車両として認識してもよい。視線情報は、センサ1302の一例である視線センサから得られる。視線情報が示す視線方向に存在する車両10Cは、センサ1302の一例である、外向きに設けられたカメラにより撮像された映像から認識される。運転者がサイドミラーやバックミラーに視線を向けている場合、認識部1101は、運転者の視線に合わせてサイドミラーやバックミラーを撮像した撮像画像に基づいて、ミラーに映っている車両を認識する。なお認識部1101は、視線情報の他、センサ1302の一例であるバイタルセンサから得られた運転者の集中度をさらに用いて、運転者が注意を向けている対象車両をより正確に判断することが可能である。
また、認識部1101は、認識した対象車両の個体認識も行い得る。対象車両の個体識別情報(ID)は、車車間通信部1201を介して対象車両から受信した信号から抽出してもよいし、画像認識により取得した車両ナンバー、車種および色情報に基づいて、ネットワーク上のデータベースに問い合わせ、個体識別情報を取得してもよい。また、データベースに無い車両はデータベース側で自動的に新規登録されるようにしてもよい。
ユーザ評価取得部1102は、対象車両に対するユーザ(ここでは、運転者)の評価に関する情報を取得する。具体的には、例えばユーザ評価取得部1102は、操作入力部1303の一例である「Thanks」ボタンが押下された情報を操作入力部1303からユーザ評価情報として取得する。また、ユーザ評価取得部1102は、マイクロホン1304により収音されたユーザの発話音声を解析し、テキスト化したユーザコメントをユーザ評価情報として取得する。
通知情報生成部1103は、ユーザ評価取得部1102により取得したユーザ評価と、認識部1101により認識された対象車両(運転者が注目する車両であって、ここでは評価対象の車両)とに基づいて、対象車両に対するユーザ評価を通知するための情報を生成する。例えば通知情報生成部1103は、対象車両に対するユーザ評価を表示する評価表示画面を生成する。また、通知情報生成部1103は、認識された対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、ユーザ評価の理由を生成することも可能である。生成されたユーザ評価の理由は、ユーザ評価と紐付けられて記憶部150に格納されたり、通信部120から対象車両または第三者の車両に送信され得る。
通知制御部1104は、通知情報生成部1103で生成された通知情報を所定の通知先に通知するよう制御する。例えば通知制御部1104は、生成された通知情報を車車間通信部1201により対象車両に送信するよう制御する。また、通知制御部1104は、車車間通信部1201により受信した自車両への評価情報を、表示部1401またはスピーカ1402から運転者に通知するよう制御してもよい。また、通知制御部1104は、車車間通信部1201により受信した対象車両の評価情報を表示部1401またはスピーカ1402から運転者に通知するよう制御してもよい。また、評価情報の送受信は、車車間通信に限定されず、路車間通信部1202またはネットワークI/F部1203を介して行われてもよい。評価情報には、対象車両の固有識別情報や評価理由等が含まれ得る。
推定部1105は、運転者が現在欲している情報の種類や、運転者に通知すべき情報がどのような情報であるか(例えば種類)を推定する。例えば推定部1105は、視線センサから得られる運転者の視線情報、バイタルセンサから得られる運転者の集中度、車載機器1301から得られる走行状況、運転内容、およびマイクロホン1304(音声センサ)から得られる運転者の発話内容の少なくともいずれかに基づいて機械学習を用いて総合的に解釈し、運転者に現在適切な情報は何であるかを推定する。例えば推定部1105は、高速道路を巡航中には、他車両の速度や、危険な車両だけを知りたいであろうと推定し、街中において交差点を走行中には、他の車両の移動方向(直進、右折、左折)、加減速情報、死角の情報が知りたいであろうと推定し、停車中には周囲の車両の評価等を知りたいであろうと推定する。また、推定部1105は、運転者が「あの車なんかふらふらしている…」と発話した場合、対象車両の危険度が知りたいであろうと推定し、「みんなどこから来ているのだろう」と発話した場合、周囲の車両の運転者の住所(都道府県情報)が知りたいであろうと推定する。また、推定部1105は、バイタルセンサにより得られる運転者の集中度に応じて、運転者へ提示する情報の内容や量、提示方法等を調整してもよい。例えば運転者の集中度が低い場合、推定部1105は、より危機的な情報を提示するよう調整して運転者への注意喚起を実現する。推定部1105は、運転者に現在適切な情報を推定すると、通信部120から推定した情報の要求を所定の要求先に対して行う。例えば推定部1105は、周囲の車両の速度、危険な車両情報(周囲の車両の危険度)、他の車両の移動方向(直進、右折、左折)、加減速情報、死角の情報、または評価情報等が現在適切な情報であると推定した場合、車車間通信部1201により周囲の車両から該当する情報を取得する。なお危険な車両情報(周囲の車両の危険度)は、評価情報から抽出されてもよい(すなわち、評価が低く、運転マナーの悪い評価が与えられている車両は危険な車両(危険度が高い)とされる)。通信部120により得られたこれらの情報は、通知制御部1104により表示部1401やスピーカ1402から運転者へ提示される。
表示部1401、およびスピーカ1402は、出力部140の一例である。表示部1401は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置により実現される。また、表示部1401は、運転者の視野の中であって、前方から視線を逸らさずに読み取ることができる位置に設けられた透過/半透過型のヘッドアップディスプレイ、またはフロントガラスにおいて、AR表示を行ってもよい。また、表示部1401は、運転者が装着しているHMD(ヘッドマウントディスプレイ)により実現され、HMDにおいてAR表示が行われてもよい。AR表示では、実際の車両に対応するよう情報が表示される。
以上、本開示の一実施形態による情報処理装置100の詳細構成について説明した。続いて、上記情報処理システムについて、複数の実施形態を用いて具体的に説明する。
<<3.各実施形態>>
<3−1.第1の実施形態>
まず、図5〜図10を参照して第1の実施形態による情報処理システムについて説明する。第1の実施形態では、他車両への評価処理、および各車両に蓄積された評価情報の活用について説明する。
図5は、第1の実施形態による他車両への評価入力処理を示すフローチャートである。図5に示すように、まず、情報処理装置100のユーザ評価取得部1102は、操作入力部1303により検出された、ユーザ(ここでは、運転者)が「Thanks」ボタンを押下したことをユーザ評価情報として取得する(ステップS103)。
また、ユーザ評価取得部1102は、マイクロホン1304により収音された運転者の発話を音声認識(テキスト化)し、ユーザ評価情報として取得する(ステップS106)。
次いで、情報処理装置100の認識部1101は、センサ1302および車載機器1301から、評価の対象車両を認識するために用いる情報を取得する(ステップS109)。例えば認識部1101は、視線センサから運転者の視線情報、カメラから周囲の車両の撮像画像、周囲の車両との位置関係情報、および車両の運転状況等を取得する。
次に、認識部1101は、取得した情報に基づいて、運転者が注目している車両(すなわちユーザ評価の対象となる車両)を認識する(ステップS112)。例えばユーザ車両が本線に合流した際に「Thanks」ボタンが押下されたり、運転者が「ありがとう」と発話したりした場合、認識部1101は、位置関係情報や撮像画像に基づいて、本線に合流した際に後ろを走る他車両(合流の際に道を譲ってくれた他車両)が評価対象の車両であると認識する。また、ユーザ車両が急ブレーキをかけ、「危ないなぁ!」と発話した場合、認識部1101は、視線情報や撮像画像に基づいて、ユーザ車両の前に現れた(割込みをしてきた)他車両が評価対象の車両であると認識する。また認識部1101は、対象車両の個体識別情報を取得してもよい。対象車両の個体識別情報は、撮像画像を解析して得た対象車両のナンバー、車種、色等の情報に基づいて、ネットワーク上の管理サーバ4から取得してもよいし、対象車両から車車間通信により取得してもよい。
次いで、通知情報生成部1103は、ユーザ評価取得部1102により取得されたユーザ評価と、認識部1101により認識された対象車両の情報とに基づいて、対象車両に対するユーザ評価を通知するための情報を生成する(ステップS115)。かかる情報には、対象車両の個体識別情報が含まれていてもよい。
次に、通知制御部1104は、生成した通知情報を、車車間通信部1201を介し認識車両へ送信する(ステップS118)。また、通知制御部1104は、生成した通知情報を、ネットワークI/F部1203を介してネットワーク上の管理サーバ4に送信してもよい。また、通知制御部1104は、表示部1401またはスピーカ1402から、対象車両へのユーザ評価を行ったことをユーザ(ユーザ車両の運転者)に通知してもよい。このような通知情報は、評価が行われた際にリアルタイムで通知されてもよい。
対象車両に送信された通知情報は、対象車両の運転者に通知される。図6は、対象車両においてユーザ評価の通知が行われる際の表示例を説明する図である。ここでは、例えば図1に示したように車両10Aが本線に合流する際に道を譲った車両10Bに対して車両10Aの運転者が評価を行い、評価を通知するための通知情報が車両10Aから車両10Bに送信され、フロントガラスにAR表示される場合について説明する。図6に示すように、車両10Bのフロントガラス1401Bには、評価を行った車両を特定するよう車両10Aを囲むように表示される枠画像30と、「Thanks」ボタンが押されたことや車両10Aからのコメント表示といった評価情報を表示する評価情報画像31がAR表示される。なお図6には示していないが、ユーザ評価と共に、当該ユーザ評価の理由(評価理由)が併せて表示されるようにしてもよい。
以上、本実施形態による他車両への評価入力処理について説明した。なお本実施形態による評価入力処理は図5に示すフローチャートに限定されず、例えば情報処理装置100は、ユーザに対して評価を促す通知を行うよう制御してもよい。より具体的には、例えば情報処理装置100は、認識部1101により「道を譲ってもらった」と判断された場合、ユーザに対して「道を譲ってくれた車両に『Thanks』をしますか?」といった通知情報を通知情報生成部1103により生成する。そして、情報処理装置100は、生成した通知情報を通知制御部1104により、表示部1401またはスピーカ1402からユーザに通知し、プラスの評価を提案する。また、情報処理装置100は、認識部1101により「危険な割り込みをされた」と判断された場合は、マイナスの評価を行うか提案するための通知情報を生成し、ユーザに通知する。続いて、周辺を走行する車両の評価情報を表示する場合について、図7および図8を参照して説明する。
図7は、他車両の評価情報の表示処理を示すフローチャートである。図7に示すように、まず、情報処理装置100の推定部1105は、センサ1302および車載機器1301からユーザ(ここでは、運転者)が必要としている情報を推定するための情報を取得する(ステップS123)。例えば推定部1105は、センサ1302から視線情報、撮像画像、車載機器1301から現在位置、および運転状況等を取得する。
次に、推定部1105は、取得した情報に基づいて、運転者が現在必要としている情報(若しくは運転者に現在適切な情報)を推定する(ステップS126)。本実施形態では、例えばユーザ車両が街中において直進し、運転者が周囲の車両を注視している場合、運転者は現在周囲の車両の評価情報を知りたがっている、若しくは周囲の車両の評価情報が現在適切であると推定する。
次いで、車車間通信部1201は、推定部1105の推定結果に従って、周辺の車両から評価に関する情報を取得する(ステップS129)。具体的には、各車両において蓄積された他ユーザからの評価情報が取得される。
そして、通知制御部1104は、推定部1105の推定結果に従って車車間通信部1201が周辺の車両から取得した評価情報を表示部1401に表示するよう制御する(ステップS132)。ここで、図8に、周辺の他車両の評価情報が表示される場合について説明する図を示す。図8に示す例では、車両10Dに搭載された情報処理装置100が、車両10Dの周辺を走行する車両10B、10Dから各車両の評価情報を取得し、車両10Dの運転者へ通知する場合を想定している。図8に示すように、車両10Dのフロントガラス1401Dには、各車両を特定するよう車両10B、車両10Cを囲むように表示される枠画像32、34と、各車両に対して入力された直近の評価コメントを表示する評価コメント画像33、35がAR表示される。また、枠画像32、34には、各車両に対して行われた「Thanks」ボタンが押された回数を示す情報が含まれる。これにより、車両10Dの運転者は、周辺を走る車両の評価を容易に知ることができ、「Thanks」ボタンが押された回数が多かったり、評価コメントが良いものであったりすれば、マナーの良い車両であると認識でき、安心して快適な運転を行うことができる。
なお本実施形態による評価情報の表示方法は、図6や図8に示したようなフロントガラスでのAR表示に限定されず、例えばステアリング周辺に設置された表示装置(スマートフォン等を固定したものであってもよい)において、例えばCG(computer graphics)で生成したBird View画面やTop View画面を表示してもよい。Bird ViewやTop Viewで表示することで、ユーザ車両と周囲の車両との位置関係を容易に把握させることが可能となる。ここで、図9に、周辺を走行する他車両の評価情報がTop View画面で表示される場合について説明する図を示す。図9に示すように、表示装置1401dは、運転者が運転中に視線を前方からあまり逸らさずに視認できるようステアリング周辺に設置されている。表示装置1401dには、ユーザ車両(車両10D)と、周辺の車両10B、10Cが地図上に表示されている。表示装置1401dに表示される画像は、例えば通知制御部1104により生成され得る。各車両の位置関係は、各車両から受信した信号やカメラにより撮像した画像に基づいて把握される。そして、「Thanks」の数や評価コメントを表示する評価情報表示画像36、37は、車両10B、10Cに対応するよう、例えば一部が車両10B、10Cに重畳して表示される。これにより、車両10Dのユーザは、周辺の車両の評価を容易に把握することができる。
また、表示される評価はポジティブな情報に限定されず、ネガティブな情報も当然想定される。図10は、対象車両の評価情報がネガティブな場合について説明する図である。図10に示すように、例えば車両10Dのフロントガラス1401Dに、車両10Bに対応するよう「Thanks」の数を含む枠画像38と評価コメント画像39が表示され、車両10Cに対応するよう「Thanks」の数を含む枠画像40と評価コメント画像41が表示されている。これにより、車両10Dの運転者は、周辺を走る車両の評価を容易に知ることができ、「Thanks」ボタンが押された回数が少なかったり、評価コメントが悪いものであったりすれば、マナーの悪い車両であると認識でき、対象車両の動きに特に注意して運転したり、対象車両から離れたりすることで、事故を未然に防止することができる。
<3−2.第2の実施形態>
続いて、図11〜図16を参照して第2の実施形態による情報処理システムについて説明する。第2の実施形態では、他車両の速度情報の活用について説明する。
図11は、第2の実施形態による他車両の速度情報の表示処理を示すフローチャートである。図11に示すように、まず、情報処理装置100の推定部1105は、センサ1302および車載機器1301からユーザ(ここでは、運転者)が必要としている情報を推定するための情報を取得する(ステップS203)。例えば推定部1105は、センサ1302から視線情報、撮像画像、車載機器1301から現在位置、および運転状況等を取得する。
次に、推定部1105は、取得した情報に基づいて、運転者が現在必要としている情報(若しくは運転者に現在適切な情報)を推定する(ステップS206)。本実施形態では、例えばユーザ車両が高速道路を走行中の場合、運転者は現在周囲の車両の速度情報を知りたがっている、若しくは周囲の車両の速度情報が現在適切であると推定する。
次いで、車車間通信部1201は、推定部1105の推定結果に従って、周辺の車両から速度情報を取得する(ステップS209)。具体的には、各車両の車載機器から検出された速度情報が取得される。
そして、通知制御部1104は、推定部1105の推定結果に従って車車間通信部1201が周辺の車両から取得した速度情報を表示部1401に表示するよう制御する(ステップS212)。ここで、図12に、周辺の他車両の速度情報が表示される場合について説明する図を示す。図12に示す例では、車両10Dに搭載された情報処理装置100が、車両10Dの周辺を走行する車両10B、10Dから各車両の速度情報を取得し、車両10Dの運転者へ通知する場合を想定している。図12に示すように、車両10Dのフロントガラス1401Dには、各車両の速度を表示する速度表示画像45、46がAR表示される。これにより、車両10Dの運転者は、周辺を走る車両の速度を容易に知ることができ、スピードを出し過ぎている車両につられて速度オーバーしてしまうことを回避したり、特に遅い車両を追い越す判断を的確に行ったりすることができる。
なお本実施形態による速度情報の表示方法は、フロントガラスでのAR表示に限定されず、例えばステアリング周辺に設置された表示装置(スマートフォン等を固定したものであってもよい)において、例えばCG(computer graphics)で生成したBird View画面やTop View画面を表示してもよい。
図13は、周辺を走行する他車両の速度情報がTop View画面で表示される場合について説明する図である。図13に示すように、ステアリング周辺に設置された表示装置1401dには、ユーザ車両(車両10D)と、周辺の車両10B、10Cが地図上に表示されている。そして、速度情報を示す速度情報表示画像47、48は、車両10B、10Cに対応するよう、例えば一部が車両10B、10Cに重畳して表示される。これにより、車両10Dのユーザは、周辺の車両の速度を容易に把握することができる。
図14は、周辺を走行する他車両の速度情報がBird View画面で表示される場合について説明する図である。図示された例では、表示装置1401dの画面に、ユーザ車両(車両10D)と、周辺の車両10B、10Cを後方上空の視点から見た場合を想定したCG画像が表示される。各車両の位置関係は、各車両から受信した信号やカメラにより撮像した画像に基づいて把握される。そして、速度情報を示す速度情報表示画像49、50は、車両10B、10Cに対応するよう、例えば一部が車両10B、10Cに重畳して表示される。これにより、車両10Dのユーザは、周辺の車両の速度を容易に把握することができる。
以上説明した第2の実施形態では、対象車両の速度を車車間通信部1201により対象車両から受信する場合について説明したが、本実施形態はこれに限定されない。
図15は、他車両からの情報取得ルートについて説明する図である。図15に示すように、例えば車両10Dは、車両10Bの速度情報は車車間通信により取得し得るが、離れた位置を走行する車両10Aの速度情報はネットワークを介して取得し得る。また、車両10Cが通信非対応の場合、車両10Dに搭載された情報処理装置100の認識部1101は、車両10Cを撮像した撮像画像の解析結果や、ステレオカメラから得た距離情報、または赤外線センサから得た距離情報等に基づいて車両10Cの相対速度を算出し、自車両の速度に基づいて推定してもよい。
また、車両10Cの速度の推定は、他車両でも行われ、車両10Dは、車車間通信やネットワーク通信を介して、他車両が推定した車両10Cの速度情報も取得し得る。このように様々な手法で対象車両の速度を得た場合、車両10Dの情報処理装置100は、信頼度が最も高い情報を採用して表示するようにしてもよい。以下、図16を参照して具体的に説明する。
図16は、車両10D(自車両)が取得した周辺車両の速度情報の一覧を示す図である。図示された例では、車両10D(自車両)、車両10A、および車両10Bがそれぞれ推定した車両10A、10B、10Cの速度情報を示す。車両10Dは、車両10Aおよび車両10Bがそれぞれ推定した車両10A、10B、10Cの速度情報を、車車間通信またはネットワーク通信を介して取得し得る。車両10A〜10Cの位置関係は図15に示す通りであって、車両10Cは通信非対応の車両とする。
図16に示すように、各速度情報には、推定主体から推定対象までの距離に応じた速度誤差(プラスマイナスkm/h)が含まれる。例えば車両10Dが、撮像画像等に基づいて推定した車両10A〜10Cの速度情報は、図15に示すように車両10Dから離れた対象車両の速度情報程、速度誤差が大きくなっている。これは、車両10A、10Bが推定主体の場合も同様である。なお推定主体と推定対象が同一の場合、速度誤差は0km/hとなる。
車両10Dに搭載される情報処理装置100の通知制御部1104は、各他車両の速度情報のうち速度誤差の最も小さいものを採用し、表示部1401に表示するよう制御する。したがって、図16に示す例の場合、車両10Aの速度情報は車両10Aが推定した速度「95km/h(誤差0km/h)」が採用され、車両10Bの速度情報は車両10Bが推定した速度「86km/h(誤差0km/h)」が採用され、車両10Cの速度情報は車両10Cに最も近い車両10Bが推定した速度「94km/h(誤差1km/h)」が採用される。
<3−3.第3の実施形態>
次に、図17〜図20を参照して第3の実施形態による情報処理システムについて説明する。第3の実施形態では、他車両の加減速に関する情報の活用について説明する。
図17は、第3の実施形態による情報処理システムの概要について説明する図である。図17に示すように、交差点において右折待ち中の車両10Aの運転者は、対向車の車両10Bが黄色信号に応じて減速していることは分かっても、車両10Bの死角になっていた車両10E(ここでは自動二輪)の動向が目視では把握できない。この場合、車両10Aが交差点を右折しようとすると、直進してきた車両10Eと接触して事故を起こしてしまう可能性が高い。したがって、本実施形態では、例えば車両が道を曲がろうとしている際に、周囲の車両の加減速を取得して運転者へ通知することで、より安全な運転を支援することができる。図17に示す例では、車両10Bの死角に存在する車両10Eが加速しているという情報を把握することで、車両10Eが直進するのを待ってから安全に右折することができる。
図18は、第3の実施形態による他車両の加速度情報の表示処理を示すフローチャートである。図18に示すように、まず、情報処理装置100の推定部1105は、センサ1302および車載機器1301からユーザ(ここでは、運転者)が必要としている情報を推定するための情報を取得する(ステップS303)。例えば推定部1105は、センサ1302から視線情報、撮像画像、車載機器1301から現在位置、および運転状況等を取得する。
次に、推定部1105は、取得した情報に基づいて、運転者が現在必要としている情報(若しくは運転者に現在適切な情報)を推定する(ステップS306)。本実施形態では、例えばユーザ車両が交差点で右折/左折の待機中の場合、運転者は現在周囲の車両の加減速情報を知りたがっている、若しくは周囲の車両の加減速情報が現在適切であると推定する。
次いで、車車間通信部1201は、推定部1105の推定結果に従って、周辺の車両から加減速情報を取得する(ステップS309)。具体的には、各車両の車載機器から検出された加減速情報が取得される。なお図17に示すように車両10Aと車両10Eが離れており車車間通信が出来ない場合であっても、車両10Aは、車両10Bから、車両10Eで受信した周囲の車両の情報として車両10Eの情報を取得できるようにしてもよい。これにより、車両10Aは、信頼度が低い数十メートル前方の自転車や自動二輪車の情報も取得し得る。
そして、通知制御部1104は、推定部1105の推定結果に従って車車間通信部1201が周辺の車両から取得した加減速情報を表示部1401に表示するよう制御する(ステップS312)。ここで、図19に、周辺の他車両の加減速情報が表示される場合について説明する図を示す。図19に示す例では、車両10Dに搭載された情報処理装置100が、交差点周辺の車両の加速度情報を取得し、車両10Dの運転者へ通知する場合を想定している。図19に示すように、車両10Dのフロントガラス1401Dには、各車両の加減速を表示する速度表示画像51、52がAR表示される。車両10Eは車両10Bの死角にあって運転者からは視認できないが、図19に示すように、隠れている車両10Eを明示するための強調表示53が表示される。これにより、車両10Dの運転者は、対向車の車両10Bは減速しているが、死角に車両10Eが存在すること、さらには車両10Eが加速していることを容易に把握することができ、事故を未然に防止することができる。
以上説明した第3の実施形態では、車両10Bの加減速情報を車両10Bから受信しているが、本実施形態はこれに限定されず、情報処理装置100の認識部1101は、カメラにより撮像された撮像画像の解析や、ステレオカメラから得た距離情報、赤外線センサから得た距離情報に基づいて、対象車両の加減速を推定することも可能である。
または、通知制御部1104は、取得した周辺車両の加減速情報のうち、信頼度の高いものを採用して運転者に通知するよう制御してもよい。以下、図20を参照して具体的にする。
図20は、車両10A(自車両)が取得した周辺車両の加減速情報の一覧を示す図である。図示された例では、車両10A(自車両)、および車両10Bがそれぞれ推定した車両10B、10Eの加減速情報を示す。車両10Aは、車両10Bが推定した車両10Aおよび車両10Eの加減速情報を、車車間通信またはネットワーク通信を介して取得し得る。車両10A、10B、10Eの位置関係は図17に示す通りであって、車両10Eは車両10Bの死角に隠れている。また、ここでは車両10Eは通信非対応の車両とする。
図20に示すように、各速度情報には、推定主体と推定対象との位置関係に応じた信頼度(パーセンテージ)が含まれる。例えば車両10Aに搭載されている情報処理装置100の認識部1101は、カメラによる撮像画像、ステレオカメラによる距離情報、または赤外線センサによる距離情報等に基づいて、車両10Bの加減速を推定し得る。車両10Aから車両10Bが多少離れている場合、例えば加速の信頼度40%、および減速の信頼度60%となる。一方、推定主体と推定対象が同一の場合、信頼度は100%となる。また、車両10Aから車両10Eはカメラや赤外線センサ等で検知できないため、推定不能となる。また、車両10Bが主体となる車両10Eの推定結果は、車両10Eが車両10Bの近くであるため、信頼度100%となる。
車両10Aに搭載される情報処理装置100の通知制御部1104は、各他車両の加減速情報のうち信頼度の最も高いものを採用し、表示部1401に表示するよう制御する。したがって、図20に示す例の場合、車両10Bの加減速は車両10Bが推定した加減速情報「減速(信頼度100%)」が採用され、車両10Eの加減速情報は車両10Bが推定した加減速情報「加速(信頼度100%)」が採用される。
<3−4.第4の実施形態>
続いて、図21〜図24を参照して第4の実施形態による情報処理システムについて説明する。第4の実施形態では、他車両が自車両を認識しているか否か(他車両の自車両への気付き)に関する情報の活用について説明する。
図21は、第4の実施形態による情報処理システムの概要について説明する図である。図21に示すように、例えば車両Bが走行中に、前方左車線を走る車両10Aが右ウインカーを出した場合、車両10Bの運転者は、車両10Aが右後ろの死角に居る自車両に気付いているか否かが気になる。車両10Aが自車両(車両10B)に気付いていることが分れば、車両10Bの運転者は、急な車線変更は無さそうなので安心して減速し、相手の車線変更を待つことができる。車両10Aが自車両(車両10B)に気付いているか否かは、例えば車車間通信により車両10Aから通知される。このように、対象車両が自車両の存在を認識しているか否かの情報は、前方車両の車線変更時に限らず、例えば前方の車両が後退している場合や、信号が赤または渋滞のため減速中に後続車が減速せずに迫ってきた場合にも有用である。以下、本実施形態の具体的な動作処理について図22を参照して説明する。
図22は、第4の実施形態による他車両の認識情報の表示処理を示すフローチャートである。図22に示すように、まず、情報処理装置100の推定部1105は、センサ1302および車載機器1301からユーザ(ここでは、運転者)が必要としている情報を推定するための情報を取得する(ステップS403)。例えば推定部1105は、センサ1302から視線情報、撮像画像、車載機器1301から現在位置、および運転状況等を取得する。
次に、推定部1105は、取得した情報に基づいて、運転者が現在必要としている情報(若しくは運転者に現在適切な情報)を推定する(ステップS406)。本実施形態では、例えば対象車両が自車両を認識しているか否か(気付いているか否か)に関する情報(以下、認識情報とも称す)を運転者は現在知りたがっている、若しくは当該認識情報が運転手に現在適切であると推定する。
次いで、車車間通信部1201は、推定部1105の推定結果に従って、対象車両から認識情報を取得する(ステップS409)。具体的には、対象車両の車載機器や視線センサから検出された運転者の認識情報、若しくは自動運転の場合は車両の認識情報が取得される。
次に、通知制御部1104は、推定部1105の推定結果に従って車車間通信部1201が周辺の車両から取得した認識情報を表示部1401に表示するよう制御する(ステップS412)。ここで、図23に、対象車両の認識情報が表示される場合について説明する図を示す。図示された例では、車両10Bのフロントガラス1401Bに、対象車両が自車両を認識していることを示す気付き表示画像55がAR表示される。対象車両の特定は、車両10Bの運転者の視線情報やカメラの撮像画像等に基づいて認識部1101により行われる。一方、対象車両が自車両を認識していない場合、または認識しているか否か不明な場合は、クエスチョンマークが表示されるようにしてもよい。これにより、車両10Bの運転者は、例えば右ウインカーを出して車線変更しようとしている前方左車線の対象車両が自車両に気付いているか否かを容易に把握することができる。
なお本実施形態による認識情報の表示方法は、フロントガラスでのAR表示に限定されず、例えばステアリング周辺に設置された表示装置(スマートフォン等を固定したものであってもよい)において、例えばCG(computer graphics)で生成したBird View画面やTop View画面を表示してもよい。
図24は、対象車両の認識情報がTop View画面で表示される場合について説明する図である。図24に示すように、ステアリング周辺に設置された表示装置1401bには、ユーザ車両(車両10B)と、対象の車両10Aが地図上に表示され、車両10Aが車両10Bに気付いていることを示す気付き表示画像56が、車両10Aに対応するよう表示される。これにより、車両10Bのユーザは、対象車両が自車両に気付いていることを容易に把握することができる。
続いて、図22に戻り、情報処理装置100は、自車両に運転アシストシステムが搭載され、かつ情報処理装置100による制御が可能な場合、他車両の認識情報に応じて危険回避のアクションが必要であるか否かを判断する(ステップS415)。例えば情報処理装置100は、対象車両が自車両に気付いていない状態で車線変更しようとしたり、後退したりしている場合、危険回避のアクションが必要であると判断する。
危険回避のアクションが必要であると判断した場合(ステップS415/Yes)、情報処理装置100は、自車両のハザードランプを自動で点灯させる等の危険回避アクションを実行する(ステップS418)。または、情報処理装置100は、車車間通信により自車両の存在を対象車両に通知してもよい。これにより、対象車両に自車両の存在を気付かせ、危険を回避することができる。
<3−5.第5の実施形態>
次に、図25〜図27を参照して第5の実施形態による情報処理システムについて説明する。第5の実施形態では、他車両から取得した種々の情報に基づくユーザ車両の走行予測結果や警告の通知について説明する。
図25は、ユーザ車両の走行予測結果を通知する場合について説明する図である。ユーザ車両(ここでは、車両10A)に搭載されている情報処理装置100は、認識部1101により、車載機器1301から取得される自車両の運転状況を認識し、例えば前方を走る車両10Fを追い越した場合の成功確率を表示部1401に表示して運転者に通知することが可能である。追い越し成功確率は、例えば自車両の速度、運転者(ユーザ)の運転技術レベル、対象の車両10Fの速度、車両10Fのさらに前方や追い越し車線の他車両の有無等に基づいて認識部1101により算出される。
図示された例では、例えば車両10Aに設置されている表示装置1401aに、自車両(車両10A)の追い越し成功確率を示す通知画像57がTop View画面で表示されている。また、追い越しを行う場合の走行ナビゲーションが矢印で表示されている。これにより、運転者は、自分の運転状況認識結果を容易に把握することが可能であって、例えば追い越し成功確率が低い場合は追い越しを中止する等、より安全な対応を行うことができる。追い越し成功確率は、例えば運転者の目線が前方を走る車両と追い越し車線と追い越し車線後方を確認している場合や、前方を走る車両に注目しながら「この車遅いなぁ」と発話した場合等に推定部1105により、現在運転者には追い越しに関する情報が適切であると推定され、表示部1401に表示され得る。
図26および図27は、周辺の他車両から取得した情報に基づく警告通知について説明する図である。図26および図27では、いずれも車両10Aのフロントガラス1401Aにおいて警告通知がAR表示されている。これらの警告通知は、他車両から車車間通信部1201等により受信した認識結果に基づいて提示される。
図26に示す例では、右側停止中の対向車列から進入してくる車両10Gが急な割込みをする車両であることが、車両10Hに搭載された情報処理装置100から認識結果として送信され、車両10Aのフロントガラス1401Aにおいて、車両10Gに関する警告を示す通知画像58がAR表示される。車両10Gに搭載された情報処理装置100は、認識部1101により車載機器1301やセンサ1302から得た情報に基づいて運転者の行動予測認識を行い、通知制御部1104により認識結果を車車間通信等により周辺の車両に送信している。
また、前方を走る車両10Hでは、右側から急な割込みをする車両10Gとの接触を避けるために、急ブレーキや急な車線変更を行うことが予測認識され、その認識結果が周辺の車両に車車間通信等により送信される。当該認識結果を受信した車両10Aの情報処理装置100は、図26に示すように、フロントガラス1401Aに車両10Hに関する警告を示す通知画像59をAR表示する。
また、図27に示すように、車両10Aのフロントガラス1401Aには、右車線を走る車両Iが自動車保険未加入であることを警告する通知画像60がAR表示されてもよい。自動車保険の加入情報等の車両のプロファイルを表示することで、運転者に注意を促すことができる。これらの情報は、対象の車両Iから取得し得る。
また、図27に示すように、死角にある車両10Jの運転者が眠い状態にあり、交差点を直進する危険運転が車両10Jにより予測認識され、当該認識結果を受信すると、車両10Aの情報処理装置100は、死角にある車両10Jに関する警告を示す通知画像62を、フロントガラス1401AにAR表示する。
このように、本実施形態による情報処理システムでは、他車両で危険な運転(急な割込み、車線変更、急ブレーキ、制限速度オーバー、急加速、後続車の接近、煽り、または居眠り運転等)や事故発生が予測された場合、ユーザ車両において他車両の危険を警告することで、ユーザ(運転者)に注意を促すことができる。また、警告の通知方法は表示に限られず、スピーカ1402から警告音を鳴らしてもよい。
以上説明した第5の実施形態では、他車両から認識結果を受信し、警告しているが、本実施形態はこれに限定されず、自車両に設けられたカメラで撮像した他車両の撮像画像等の解析結果に基づいて認識部1101が他車両の危険運転を予測認識し、警告するようにしてもよい。
<3−6.第6の実施形態>
続いて、図28〜図32を参照して第6の実施形態による情報処理システムについて説明する。第6の実施形態では、車両の情報をネットワークを介して他者に公開して活用する場合について説明する。
図28は、第6の実施形態による情報処理システムの全体構成を説明する図である。図28に示すように、本実施形態による情報処理システムは、各車両10(具体的には、例えば車両10A〜10E)と無線通信を行う路側無線装置3と、管理サーバ4と、通信端末6とを含む。管理サーバ4は、車両10から路側無線装置3を介して取得した情報(以下、車両情報とも称す)を、ネットワーク5を介して通信端末6へ適宜送信する。通信端末6は、例えばスマートフォン6A、スマートウォッチ6B、タブレット端末6C、またはPC(パーソナルコンピュータ)6D等が想定される。以下、図29〜図32を参照して車両情報の活用方法について説明する。
図29は、近親者の重要な運転状況を通知する場合について説明する図である。図示された例では、息子が親の車で危険運転をしていることが、親のスマートウォッチ6Bに表示されている。すなわち、管理サーバ4は、車両10から取得した車両情報に含まれる運転内容に基づいて、危険運転(スピードの出し過ぎ、信号無視、蛇行等)か否かを判断し、危険運転の場合は登録された通知先(親や自動車の所有者)の通信端末へ通知する。なお車両に搭載された情報処理装置100の認識部1101は、運転者を識別することが可能であって、例えばハンドルに設けられた指紋センサ、カメラで撮像した運転者の顔画像の認識、または運転者が所有するスマートフォン等の通信端末による個人認証等に基づいて運転者を識別し、車両情報と併せて管理サーバ4に送信する。
このように、例えば親が息子や娘に車を貸した場合に、危険運転を行っていないか確認することができ、また、借りる側は危険運転を行うと親に通知されてしまうため、慎重な運転を心掛けることが期待できる。
図30および図31は、SNS(Social Networking Service)に各ユーザの運転状況が自動的に投稿される場合について説明する図である。例えば図30に示す例では、スマートフォン6Aに、登録した友人、知人の現在の運転状況が一言コメントで随時投稿される。また、運転状況を示すアイコンも併せて表示され得る。また、図31に示す例では、タブレット端末6Cに、登録した友人、知人の現在の運転状況に関するデータ(例えば出発地、目的地、急加速回数、急ハンドル回数、平均時速、および平均燃費等)が随時投稿される。いずれの場合も、管理サーバ4が、車両10から取得した車両情報に含まれる運転状況を、登録された特定のSNSに投稿することで実現される。
このように、運転状況をSNS上で公開することで、互いの運転内容を把握して楽しむことができたり、また、自身の運転状況が公開されるため、ユーザが、より慎重な運転を心掛けるようになることが期待される。
図32は、運転内容をゲームに反映させる場合について説明する図である。図32に示す例では、スマートフォン6Aに、車両から取得された車両情報に含まれる運転内容をスコア化した結果が表示される。かかるスコアが、登録した友人や知人に共有され、スコアを競い合わせることで、安全運転を促進することが可能となる。運転内容のスコア化は、例えば安全運転の継続状況(「急ブレーキ、急加速せずに10km走行する」「急ブレーキ、急加速せずに100km走行する」等)に応じてスコアを与えるものであってもよい。例えば管理サーバ4は、ゲームに参加している所定の車両から車両情報を取得すると、車両情報に含まれる運転内容をスコア化し、登録されてるグループ内で(すなわち登録した友人や知人に)共有させる。
<<4.補足>>
以上説明した各実施形態について以下補足する。
例えば、第1の実施形態における評価は、自動車や自動二輪車から自動車への評価に限定されず、自転車や歩行者から自動車/自動二輪車への評価であってもよい。また、対象車両の評価情報は、自転車や歩行者に提示されてもよい。
また、本実施形態による情報処理システムは、評価が著しく悪い(例えば複数のユーザから危険認識された)車両は自動運転モードに強制的に切り替え、駐車場等へ移動させてもよい。
また、本実施形態による情報処理システムは、蓄積された運転者の評価情報に応じて保険料のキャッシュバックが受けとれるようにしてもよい。
また、本実施形態による情報処理システムは、他車両から評価された際の自車両の運転状況や周囲の様子を撮像した撮像画像を当該評価と紐付けて記憶し、後で再生できるようにしてもよい。
また、本実施形態による情報処理システムは、不当な評価の防止のため、自車両への評価情報と、自車両の運転状況との整合性を検証し、信頼性が低い評価は運転者に通知しないようにしてもよい。また、情報処理システムは、過去の運転状況と評価実施との関係から、運転状況に応じた評価実施の確率を学習し、実施確率の低い時に行われた他車両からの評価は表示しないようにしてもよい。
また、本実施形態による情報処理システムは、表示する評価情報の種類を運転者に選択させてもよい。また、情報処理システムは、運転者が知りたがっていると推定される情報を提示した際の運転者のフィードバックを学習し、推定精度を高めることも可能である。
また、他車両の蓄積された評価情報の表示方法は上述した例に限定されず、例えば本実施形態による情報処理システムは、評価情報に基づく他車両の優良度や危険度を、星の数やドクロマーク等で表示してもよい。また、本実施形態による情報処理システムは、危険と判断した車両について、その理由(蛇行運転、眠そう、集中力が落ちている、車間距離が短い等)をテキストやアイコンで運転者に明示するようにしてもよい。また、表示される他車両の評価コメントは、直近の評価コメントに限定されず、例えば複数のコメントを順次切り替えて(例えばTicker方式)表示してもよい。
また、本実施形態による情報処理システムは、他車両の情報として、他車両のアクション(方向指示器、ハザード、クラクション、パッシング等)の種類をアイコンやアニメーションで表示してもよい。また、離れた場所でクラクションが鳴らされた場合、運転者はどの車がクラクションを鳴らしたのか分からないが、本実施形態による情報処理システムは、クラクションを鳴らした車の周囲にいる他車両の情報を統合することで、認識し、運転者にTop View画面等で提示することが可能である。
また、本実施形態による情報処理システムは、上述した各実施形態を組み合わせて、複数種類の情報を運転者に通知してもよい。例えば、周辺の車両の評価情報と速度情報が併せて表示されてもよい。また、運転状況や周囲の状況に応じて情報表示の優先度を付けて、優先度の高いものが表示されるようにしてもよい。例えば交差点では、交差点で想定される事故防止のために有用な情報が優先的に表示される。
<<5.ハードウェア構成例>>
本開示に係る技術は、様々な製品へ応用可能である。例えば、情報処理装置100は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車などのいずれかの種類の車両に搭載される装置として実現されてもよい。また、情報処理装置100の少なくとも一部の構成要素は、車両に搭載される装置のためのモジュール(例えば、1つのダイで構成される集積回路モジュール)において実現されてもよい。
<5−1.車両制御システムの構成例>
図33は、本開示に係る技術が適用され得る車両制御システム900の概略的な構成の一例を示すブロック図である。車両制御システム900は、電子制御ユニット902、ストレージ装置904、入力装置906、車外センサ908、車両状態センサ910、搭乗者センサ912、通信IF914、出力装置916、動力生成装置918、制動装置920、ステアリング922及びランプ作動装置924を備える。
電子制御ユニット902は、演算処理装置及び制御装置として機能し、各種プログラムに従って車両制御システム900内の動作全般を制御する。電子制御ユニット902は、後述するストレージ装置904と合わせて、ECU(Electronic Control Unit)として形成され得る。ECU(即ち、電子制御ユニット902及びストレージ装置904)は、車両制御システム900内に複数含まれてもよい。例えば、各種センサ類又は各種駆動系の各々に、それらを制御するためのECUが設けられ、それら複数のECUを協調的に制御するECUがさらに設けられてもよい。これら複数のECU間は、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexray等の任意の規格に準拠した車載通信ネットワークを介して接続される。電子制御ユニット902は、例えば、図2に示す制御部110を形成し得る。
ストレージ装置904は、車両制御システム900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置904は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置904は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置904は、電子制御ユニット902が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置904は、例えば、図2に示す記憶部150を形成し得る。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、搭乗者(ドライバー又は同乗者)によって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。また、入力装置906は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、電子制御ユニット902に出力する入力制御回路などを含んでいてもよい。搭乗者は、この入力装置906を操作することにより、車両制御システム900に対して各種のデータを入力したり処理動作を指示したりすることができる。入力装置906は、例えば、図2に示す入力部130を形成し得る。
車外センサ908は、車外の情報を検出するセンサによって実現される。例えば、車外センサ908は、ソナー装置、レーダ装置、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置、カメラ、ステレオカメラ、ToF(Time Of Flight)カメラ、赤外線センサ、環境センサ、マイク等を含んでいてもよい。車外センサ908は、例えば、図3に示すセンサ1302を形成し得る。
車両状態センサ910は、車両状態に関する情報を検出するセンサによって実現される。例えば、車両状態センサ910は、アクセル開度、ブレーキ踏圧力、又はステアリング操舵角等の運転者による操作を検出するセンサを含んでいてもよい。また、車両状態センサ910は、内燃機関又はモータの回転数又はトルク等の、動力源の状態を検出するセンサを含んでいてもよい。また、車両状態センサ910は、ジャイロセンサ又は加速度センサ等の車両の動きに関する情報を検出するためのセンサを含んでいてもよい。また、車両状態センサ910は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して装置の緯度、経度及び高度を含む位置情報を測定するGNSSモジュールを含んでもよい。なお、位置情報に関しては、車両状態センサ910は、Wi−Fi(登録商標)、携帯電話・PHS・スマートフォン等との送受信、又は近距離通信等により位置を検知するものであってもよい。車両状態センサ910は、例えば、図3に示す車載機器1301を形成し得る。
搭乗者センサ912は、搭乗者に関する情報を検出するセンサによって実現される。例えば、搭乗者センサ912は、車内に設けられたカメラ、マイク、環境センサを含んでいてもよい。また、搭乗者センサ912は、搭乗者の生体情報を検出する生体センサを含んでいてもよい。生体センサは、例えば座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングを握るドライバーの生体情報を検出可能である。搭乗者センサ912は、例えば、図3に示すセンサ1302を形成し得る。
なお、車外センサ908、車両状態センサ910、及び搭乗者センサ912といった各種センサは、それぞれ検出結果を示す情報を電子制御ユニット902へ出力する。これら各種センサは、電子制御ユニット902による制御に基づいて、センシング範囲又は精度等の設定を行ってもよい。また、これら各種センサは、例えば撮像された撮像画像に含まれる白線位置に基づいて、道路における自車両の走行位置を認識する処理等の、生データに基づく認識処理を行う認識モジュールを含んでいてもよい。
通信IF914は、車両制御システム900による他の装置との通信を仲介する通信インタフェースである。通信IF914は、例えばV2X通信モジュールを含み得る。なお、V2X通信とは、車車間(Vehicle to Vehicle)通信及び路車間(Vehicle to Infrastructure)通信を含む概念である。他にも、通信IF914は、無線LAN(Local Area Network)、Wi−Fi(登録商標)、3G、LTE(Long Term Evolution)、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)のための通信モジュールを含んでいてもよい。この通信IF914は、例えばインターネット又は車外の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信IF914は、例えば、図2に示す通信部120を形成し得る。
出力装置916は、取得した情報を搭乗者に対して視覚的又は聴覚的に通知することが可能な装置で実現される。このような装置として、インストルメントパネル、ヘッドアップディスプレイ、プロジェクタ又はランプ等の表示装置や、スピーカ又はヘッドホン等の音声出力装置がある。具体的には、表示装置は、車両制御システム900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。その際、AR(Augmented Reality)オブジェクト等の仮想的なオブジェクトが表示されてもよい。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。上記表示装置及び上記音声出力装置は、例えば、図2に示す出力部140を形成し得る。
動力生成装置918は、車両の駆動力を生成するための装置である。動力生成装置918は、例えば内燃機関により実現されてもよい。その場合、動力生成装置918は、電子制御ユニット902からの制御指令に基づいて、始動制御、停止制御、スロットルバルブの開度の制御、燃料噴射制御、又はEGR(Exhaust Gas Recirculation)制御等を行う。また、動力生成装置918は、例えばモータ、インバータ及びバッテリーにより実現されてもよい。その場合、動力生成装置918は、電子制御ユニット902からの制御指令に基づき、インバータを介してバッテリーからモータへ電力を供給し、正のトルクを出力させるモータ動作(いわゆる力行)と、モータにトルクを吸収させて発電し、インバータを介してバッテリーの充電を行う回生動作と、を行い得る。
制動装置920は、車両に制動力を付与し、あるいは、車両を減速又は停止させるための装置である。制動装置920は、例えば各ホイールに設置されるブレーキ、及びブレーキペダルの踏圧力をブレーキに伝達するためのブレーキパイプ又は電気回路等を含み得る。また、制動装置920は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等のブレーキ制御による滑走又は横滑り防止機構を作動させるための制御装置を含んでいてもよい。
ステアリング922は、車両の進行方向(操舵角)を制御するための装置である。ステアリング922は、例えばステアリングホイール、ステアリングシャフト、ステアリングギア、及びタイロッド等を含み得る。また、ステアリング922は、ドライバーによる操舵を支援するためのパワーステアリングを含み得る。さらに、ステアリング922は、自動的な操舵を実現するためのモータ等の動力源を含み得る。
ランプ作動装置924は、ヘッドライト、ウィンカー、車幅灯、フォグライト、又はストップランプ等の各種ランプの作動させる装置である。ランプ作動装置924は、例えばランプの明滅、光量、又は照射方向等を制御する。
なお、動力生成装置918、制動装置920、ステアリング922、及びランプ作動装置924は、ドライバーによる手動操作に基づいて動作してもよいし、電子制御ユニット902による自動操作に基づいて動作してもよい。
<5−2.情報処理装置の構成例>
図34は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図34に示す情報処理装置1000は、例えば、図28に示した管理サーバ4を実現し得る。本実施形態に係る管理サーバ28による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図34に示すように、情報処理装置1000は、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003及びホストバス1004aを備える。また、情報処理装置1000は、ブリッジ1004、外部バス1004b、インタフェース1005、入力装置1006、出力装置1007、ストレージ装置1008、ドライブ1009、接続ポート1011及び通信装置1013を備える。情報処理装置1000は、CPU1001に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
CPU1001は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータ等を記憶する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。
CPU1001、ROM1002及びRAM1003は、CPUバスなどを含むホストバス1004aにより相互に接続されている。ホストバス1004aは、ブリッジ1004を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス1004bに接続されている。なお、必ずしもホストバス1004a、ブリッジ1004および外部バス1004bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置1006は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置1006は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置1000の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置1006は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU1001に出力する入力制御回路などを含んでいてもよい。情報処理装置1000のユーザは、この入力装置1006を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置1007は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置1007は、例えば、情報処理装置1000が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置1000が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
ストレージ装置1008は、情報処理装置1000の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置1008は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置1008は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置1008は、CPU1001が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。
ドライブ1009は、記憶媒体用リーダライタであり、情報処理装置1000に内蔵、あるいは外付けされる。ドライブ1009は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM1003に出力する。また、ドライブ1009は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート1011は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置1013は、例えば、ネットワーク1020に接続するための通信デバイス等で形成された通信インタフェースである。通信装置1013は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置1013は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置1013は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。
なお、ネットワーク1020は、ネットワーク1020に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク1020は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク1020は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<5−3.その他>
以上、本実施形態に係る情報処理装置100又は管理サーバ28の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置100又は管理サーバ28の各機能を実現するためのコンピュータプログラムを作製し、ECU等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<<6.まとめ>>
以上、図1〜図34を参照して、本開示の一実施形態について詳細に説明した。上述したように、本開示の実施形態による情報処理システムでは、対象車両に対するユーザ評価に関する情報を効果的に利用することが可能となる。
すなわち、自車両の評価情報が他車両に公開されることで、自分の評価を把握するだけでは不十分であった良い運転を心掛ける動機付けに十分な効果が期待できる。また、他車両の評価情報を知ることで、事故の未然防止や快適な走行を行うことができる。
また、本開示の実施形態による情報処理システムでは、他車両の情報として、評価情報に限らず、速度情報、加減速情報、認識情報、行動予測認識結果、出発地/目的地、自動車保険加入情報等の車両プロファイル、運転者プロファイル等を取得し、ユーザに提示することも可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置100、または管理サーバ4に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置100、または管理サーバ4の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、図2に示す情報処理装置100の制御部110による機能の一部が管理サーバ4側にあってもよい。
また、図2および図3に示す情報処理装置100の構成は一例であって、本実施形態はこれに限定されない。例えば情報処理装置100がスマートフォンまたはタブレット端末等により実現されている場合、図3に示す構成のうち、車載機器1301、センサ1302、操作入力部1303、マイクロホン1304、表示部1401、スピーカ1402、および通信部120は車両側に設けられる。この場合、情報処理装置100は、車両側に設けられている車載機器1301、センサ1302、操作入力部1303、およびマイクロホン1304から、各種情報を取得して処理し、車両側に設けられている表示部1401またはスピーカ1402からのユーザへの通知や、車両側に設けられている通信部120から外部とデータの送受信を行うよう制御する。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、
前記認識した対象車両に対するユーザ評価を取得する取得部と、
前記取得したユーザ評価を通知するための情報を生成する生成部と、
を備える、情報処理装置。
(2)
前記認識部は、ユーザ車両に設けられたセンサからの情報に基づいて前記対象車両を認識し、
前記情報処理装置は、
前記認識部で認識された対象車両に関する他ユーザからの評価に関する情報を取得する他ユーザ評価取得部と、
前記取得した所定の情報をユーザ車両においてユーザに通知するよう制御する通知制御部と、をさらに備える、前記(1)に記載の情報処理装置。
(3)
前記他ユーザ評価取得部は、車車間通信により前記対象車両から受信した情報を取得する、前記(2)に記載の情報処理装置。
(4)
前記生成部により生成された情報は、評価者、被評価者、および周辺の第三者のうち少なくともいずれかに通知される、前記(2)または(3)に記載の情報処理装置。
(5)
前記認識部は、ユーザの環境情報に含まれる、視線情報、周辺情報、ユーザ車両と周囲の車両との位置関係、ユーザの集中度、ユーザ車両の走行状況、またはユーザの発話内容に基づいて、ユーザ評価対象となる対象車両を自動的に認識する、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記取得部は、ユーザによる操作入力、音声入力、または運転操作に基づくユーザ評価を取得する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記通知制御部は、車内に設けられたユーザにより視認可能な表示装置または音声出力装置から通知するよう制御する、前記(2)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記情報処理装置は、
現在運転者に前記認識された対象車両に関するどのような情報を通知すべきかを推定する推定部と、
前記推定部による推定された情報を前記対象車両から取得するよう制御する取得制御部と、をさらに備える、前記(2)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記対象車両から取得する情報は、前記対象車両に対する他ユーザからの評価に関する情報、前記対象車両の速度情報、前記対象車両の加減速情報、前記対象車両におけるユーザ車両への認識情報、および前記対象車両の走行予測認識結果、プロファイルの少なくともいずれかである、前記(8)に記載の情報処理装置。
(10)
前記通知制御部は、前記対象車両から取得した情報を、車内に設けられた、ユーザにより視認可能な表示装置において前記対象車両に対応して視認されるよう表示制御する、前記(8)に記載の情報処理装置。
(11)
前記通知制御部は、前記対象車両から取得した情報に基づいて、ユーザへの警告を行うよう制御する、前記(9)または(10)に記載の情報処理装置。
(12)
前記通知制御部は、前記対象車両から取得した情報に基づいて、ユーザ車両の走行予測結果を通知するよう制御する、前記(9)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記通知制御部は、前記対象車両へ行った評価内容、他ユーザからユーザ車両に対して行われた評価内容、または他ユーザから他車両へ行われた評価内容を、リアルタイムでユーザに通知するよう制御する、前記(2)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記情報処理装置は、ユーザ車両の運転状況をネットワーク上のサーバへ送信するよう制御する送信制御部をさらに備える、前記(2)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記取得部は、歩行者または自転車運転者による対象車両に対するユーザ評価を取得する、前記(2)に記載の情報処理装置。
(16)
前記生成部は、前記対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、前記ユーザに対して評価を求める通知を行うための情報を生成する、前記(2)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記生成部は、前記対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、前記ユーザ評価の理由を生成する、前記(2)〜(16)のいずれか1項に記載の情報処理装置。
(18)
プロセッサが、
ユーザの環境情報から対象車両の情報を自動的に認識することと、
前記認識した対象車両に対するユーザ評価を取得することと、
前記取得したユーザ評価を通知するための情報を生成することと、
を含む、情報処理方法。
(19)
コンピュータを、
ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、
前記認識した対象車両に対するユーザ評価を取得する取得部と、
前記取得したユーザ評価を通知するための情報を生成する生成部と、
として機能させるための、プログラム。
100 情報処理装置
110 制御部
1101 認識部
1102 ユーザ評価取得部
1103 通知情報生成部
1104 通知制御部
120 通信部
1201 車車間通信部
1202 路車間通信部
1203 ネットワークI/F部
130 入力部
1301 車載機器
1302 センサ
1303 操作入力部
1304 マイクロホン
140 出力部
1401 表示部
1402 スピーカ
150 記憶部
10 車両
4 管理サーバ

Claims (18)

  1. ユーザ車両に設けられたセンサから取得されたセンサ情報に基づいて対象車両を認識する認識部と、
    記対象車両に対するユーザ評価情報を取得する取得部と、
    記ユーザ評価情報を通知するための通知情報を生成する生成部と、
    前記認識部で認識された前記対象車両に関する他ユーザからの評価に関する他ユーザ評価情報を取得する他ユーザ評価取得部と、
    前記他ユーザ評価情報を、前記ユーザ車両においてユーザに通知するよう制御する通知制御部と、
    を備える、情報処理装置。
  2. 前記他ユーザ評価取得部は、車車間通信により前記対象車両から受信した情報を取得する、請求項に記載の情報処理装置。
  3. 前記通知情報は、評価者、被評価者、および周辺の第三者のうち少なくともいずれかに通知される、請求項1または2に記載の情報処理装置。
  4. 前記認識部は、視線情報、周辺情報、前記ユーザ車両と周囲の車両との位置関係、ユーザの集中度、前記ユーザ車両の走行状況、またはユーザの発話内容に基づいて、ユーザ評価対象となる前記対象車両を自動的に認識する、請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記取得部は、ユーザによる操作入力、音声入力、または運転操作に基づくユーザ評価情報を取得する、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記通知制御部は、車内に設けられた、ユーザにより視認可能な表示装置または音声出力装置から通知するよう制御する、請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 前記情報処理装置は、
    現在運転者に認識された前記対象車両に関するどのような情報を通知すべきかを推定する推定部と、
    前記推定部による推定された情報を前記対象車両から取得するよう制御する取得制御部と、
    をさらに備える、請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記対象車両から取得する情報は、前記対象車両に対する他ユーザからの評価に関する情報、前記対象車両の速度情報、前記対象車両の加減速情報、前記対象車両における前記ユーザ車両への認識情報、および前記対象車両の走行予測認識結果、プロファイルの少なくともいずれかである、請求項に記載の情報処理装置。
  9. 前記通知制御部は、前記対象車両から取得した情報を、車内に設けられた、ユーザにより視認可能な表示装置において前記対象車両に対応して視認されるよう表示制御する、請求項に記載の情報処理装置。
  10. 前記通知制御部は、前記対象車両から取得した情報に基づいて、ユーザへの警告を行うよう制御する、請求項8または9に記載の情報処理装置。
  11. 前記通知制御部は、前記対象車両から取得した情報に基づいて、前記ユーザ車両の走行予測結果を通知するよう制御する、請求項8〜10のいずれか1項に記載の情報処理装置。
  12. 前記通知制御部は、前記対象車両へ行った評価内容、前記他ユーザから前記ユーザ車両に対して行われた評価内容、または前記他ユーザから他車両へ行われた評価内容を、リアルタイムで前記ユーザに通知するよう制御する、請求項1〜11のいずれか1項に記載の情報処理装置。
  13. 前記情報処理装置は、前記ユーザ車両の運転状況をネットワーク上のサーバへ送信するよう制御する送信制御部をさらに備える、請求項1〜12のいずれか1項に記載の情報処理装置。
  14. 前記取得部は、歩行者または自転車運転者による前記対象車両に対するユーザ評価情報を取得する、請求項1〜13のいずれか1項に記載の情報処理装置。
  15. 前記生成部は、前記対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、前記ユーザに対して評価を求める通知を行うための情報を生成する、請求項1〜14のいずれか1項に記載の情報処理装置。
  16. 前記生成部は、前記対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、前記ユーザ評価情報の理由を生成する、請求項1〜15のいずれか1項に記載の情報処理装置。
  17. プロセッサが、
    ユーザ車両に設けられたセンサから取得されたセンサ情報に基づいて対象車両を認識することと、
    記対象車両に対するユーザ評価情報を取得することと、
    記ユーザ評価情報を通知するための通知情報を生成することと、
    前記対象車両に関する他ユーザからの評価に関する他ユーザ評価情報を取得することと、
    前記他ユーザ評価情報を、前記ユーザ車両においてユーザに通知するよう制御することと、
    を含む、情報処理方法。
  18. コンピュータを、
    ユーザ車両に設けられたセンサから取得されたセンサ情報に基づいて対象車両を認識する認識部と、
    記対象車両に対するユーザ評価情報を取得する取得部と、
    記ユーザ評価情報を通知するための通知情報を生成する生成部と、
    前記認識部で認識された前記対象車両に関する他ユーザからの評価に関する他ユーザ評価情報を取得する他ユーザ評価取得部と、
    前記他ユーザ評価情報を、前記ユーザ車両においてユーザに通知するよう制御する通知制御部と、
    として機能させるための、プログラム。
JP2017539715A 2015-09-18 2016-06-13 情報処理装置、情報処理方法、およびプログラム Active JP6690649B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015185362 2015-09-18
JP2015185362 2015-09-18
PCT/JP2016/067568 WO2017047176A1 (ja) 2015-09-18 2016-06-13 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017047176A1 JPWO2017047176A1 (ja) 2018-06-28
JP6690649B2 true JP6690649B2 (ja) 2020-04-28

Family

ID=58288657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017539715A Active JP6690649B2 (ja) 2015-09-18 2016-06-13 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (2) US10380888B2 (ja)
EP (1) EP3352154A4 (ja)
JP (1) JP6690649B2 (ja)
CN (1) CN108028015B (ja)
WO (1) WO2017047176A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6635428B2 (ja) * 2015-05-20 2020-01-22 修一 田山 自動車周辺情報表示システム
WO2017047176A1 (ja) * 2015-09-18 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6623657B2 (ja) * 2015-10-05 2019-12-25 日産自動車株式会社 情報提供装置、情報提供システム及び情報提供方法
US10479373B2 (en) * 2016-01-06 2019-11-19 GM Global Technology Operations LLC Determining driver intention at traffic intersections for automotive crash avoidance
JP6650635B2 (ja) * 2016-02-29 2020-02-19 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
JP6748206B2 (ja) * 2016-07-12 2020-08-26 本田技研工業株式会社 運転支援装置
US9919648B1 (en) 2016-09-27 2018-03-20 Robert D. Pedersen Motor vehicle artificial intelligence expert system dangerous driving warning and control system and method
WO2018225178A1 (ja) * 2017-06-07 2018-12-13 三菱電機株式会社 危険車両予測装置、危険車両警報システムおよび危険車両予測方法
KR101973627B1 (ko) * 2017-07-11 2019-04-29 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
JP7188389B2 (ja) * 2017-08-23 2022-12-13 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US11315415B2 (en) * 2017-09-03 2022-04-26 Innovart Design Inc. Information sharing system and information sharing method for vehicle
KR102029906B1 (ko) * 2017-11-10 2019-11-08 전자부품연구원 이동수단의 가상현실 콘텐츠 제공 장치 및 방법
US20190161007A1 (en) * 2017-11-29 2019-05-30 GM Global Technology Operations LLC Unilluminated vehicle indication based on communication
JP7043845B2 (ja) * 2018-01-17 2022-03-30 トヨタ自動車株式会社 車両用表示連携制御装置
JP6894857B2 (ja) * 2018-01-26 2021-06-30 Kddi株式会社 周辺走行中の被観測車両の運転特性を推定するプログラム、装置及び方法
JP7003689B2 (ja) * 2018-01-29 2022-01-20 トヨタ自動車株式会社 制御装置およびエージェント連携方法
USD914734S1 (en) * 2018-02-05 2021-03-30 St Engineering Land Systems Ltd Display screen or portion thereof with graphical user interface
JP7134649B2 (ja) * 2018-03-08 2022-09-12 東芝デジタルソリューションズ株式会社 隊列走行運用システムおよび隊列走行運用方法
CN108284838A (zh) * 2018-03-27 2018-07-17 杭州欧镭激光技术有限公司 一种用于检测车辆外部环境信息的检测系统及检测方法
US10957188B2 (en) * 2018-04-04 2021-03-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for determining traffic flow using observations of surrounding vehicles
JP7006527B2 (ja) 2018-07-09 2022-01-24 トヨタ自動車株式会社 車載装置および車両捜索システム
CN108924624B (zh) * 2018-08-03 2021-08-31 百度在线网络技术(北京)有限公司 信息处理方法和装置
JP7192398B2 (ja) * 2018-10-31 2022-12-20 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、および情報処理方法
CN111161554A (zh) * 2018-11-07 2020-05-15 北京宝沃汽车有限公司 信息发送的方法和装置
JP7206854B2 (ja) * 2018-11-29 2023-01-18 トヨタ自動車株式会社 情報提供システム、サーバ、携帯端末、プログラム及び情報提供方法
JP2020101869A (ja) * 2018-12-19 2020-07-02 本田技研工業株式会社 制御装置及びプログラム
WO2020148854A1 (ja) * 2019-01-17 2020-07-23 三菱電機株式会社 情報処理装置、および情報処理システム
US11423779B2 (en) 2019-02-15 2022-08-23 Ford Global Technologies, Llc Vehicle detection systems and methods
JP7088076B2 (ja) * 2019-02-25 2022-06-21 トヨタ自動車株式会社 情報処理システム、プログラム、及び制御方法
CN109801508B (zh) * 2019-02-26 2021-06-04 百度在线网络技术(北京)有限公司 路口处障碍物的运动轨迹预测方法及装置
US10933317B2 (en) 2019-03-15 2021-03-02 Sony Interactive Entertainment LLC. Near real-time augmented reality video gaming system
CN111756783B (zh) * 2019-03-29 2021-11-12 比亚迪股份有限公司 终端的信息推送方法、服务器和终端的信息推送系统
WO2020208696A1 (ja) * 2019-04-09 2020-10-15 三菱電機株式会社 情報記録制御装置および情報記録制御方法
US10839682B1 (en) * 2019-04-26 2020-11-17 Blackberry Limited Method and system for traffic behavior detection and warnings
US11403949B2 (en) * 2019-05-09 2022-08-02 Hitachi Astemo, Ltd. System for predicting vehicle behavior
CN113784861B (zh) * 2019-05-15 2023-01-17 日产自动车株式会社 显示控制方法及显示控制装置
US11001200B2 (en) * 2019-05-30 2021-05-11 Nissan North America, Inc. Vehicle occupant warning system
JP6969803B2 (ja) * 2019-05-31 2021-11-24 Necプラットフォームズ株式会社 運転マナー評価提示装置、運転マナー評価提示方法、運転マナー評価システム、および運転マナー評価提示プログラム
US20210061276A1 (en) * 2019-08-27 2021-03-04 GM Global Technology Operations LLC Systems and methods for vehicle operator intention prediction using eye-movement data
US11603098B2 (en) * 2019-08-27 2023-03-14 GM Global Technology Operations LLC Systems and methods for eye-tracking data collection and sharing
DE112019007681T5 (de) * 2019-09-02 2022-06-09 Mitsubishi Electric Corporation Automatische Fahrsteuerungsvorrichtung und automatisches Fahrsteuerungsverfahren
USD948552S1 (en) * 2019-09-06 2022-04-12 Kubota Corporation Display screen for tractor with graphical user interface
KR20220077125A (ko) * 2019-10-09 2022-06-08 소니그룹주식회사 정보 처리 장치, 및 정보 처리 시스템, 그리고 정보 처리 방법
JP7268581B2 (ja) * 2019-11-07 2023-05-08 トヨタ自動車株式会社 車両、音響制御装置、及び音響制御プログラム
WO2021111753A1 (ja) * 2019-12-05 2021-06-10 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
US20230104858A1 (en) * 2020-03-19 2023-04-06 Nec Corporation Image generation apparatus, image generation method, and non-transitory computer-readable medium
US11555711B2 (en) * 2020-04-11 2023-01-17 Harman Becker Automotive Systems Gmbh Systems and methods for augmented reality in a vehicle
JP7463896B2 (ja) 2020-07-30 2024-04-09 株式会社デンソー 運転支援装置、運転支援プログラム、運転訓練プログラム及び情報管理プログラム
DE102020210238A1 (de) 2020-08-12 2022-02-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Warnen von Verkehrsteilnehmern mit einer Umfeldüberwachung eines in Betrieb befindlichen Fahrzeugs und Vorrichtung zur Ausführung des Verfahrens
JP7170076B2 (ja) * 2020-10-28 2022-11-11 株式会社日本総合研究所 情報処理方法及び情報処理システム
JPWO2022102374A1 (ja) * 2020-11-16 2022-05-19
JP2022181692A (ja) * 2021-05-26 2022-12-08 株式会社デンソー 車両用制御装置及び車両用制御方法
US11830489B2 (en) 2021-06-30 2023-11-28 Bank Of America Corporation System and method for speech processing based on response content
CN114248806A (zh) * 2022-01-13 2022-03-29 云控智行科技有限公司 一种无人车驾驶控制方法、装置及电子设备
CN115624008B (zh) * 2022-07-08 2023-09-05 珠海科艺普检测科技有限公司 一种基于生物信息技术的大口黑鲈鱼的鱼苗智能检测方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034897A (ja) * 1999-07-21 2001-02-09 Toyota Central Res & Dev Lab Inc 運転支援システム
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
JP4655730B2 (ja) * 2005-04-07 2011-03-23 トヨタ自動車株式会社 車両用運転支援装置
JP2008126954A (ja) * 2006-11-24 2008-06-05 Tokai Rika Co Ltd 意思伝達装置
US8818725B2 (en) * 2011-11-16 2014-08-26 Flextronics Ap, Llc Location information exchange between vehicle and device
JP2012150557A (ja) 2011-01-17 2012-08-09 Toyota Central R&D Labs Inc 運転マナー啓発装置、システム、及びプログラム
JP5621682B2 (ja) 2011-03-29 2014-11-12 株式会社デンソー 車載用情報提示装置
JP2012252407A (ja) * 2011-05-31 2012-12-20 Nissan Motor Co Ltd 車両用通行支援装置及び車両用通行支援方法
JP5974498B2 (ja) 2012-01-24 2016-08-23 株式会社デンソー 車車間通信装置
JP6033838B2 (ja) * 2012-02-27 2016-11-30 ヤマハ発動機株式会社 運転状態共有装置および運転状態共有システム
US9536361B2 (en) * 2012-03-14 2017-01-03 Autoconnect Holdings Llc Universal vehicle notification system
DE102012014457A1 (de) * 2012-07-21 2014-01-23 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
US20140080098A1 (en) * 2012-09-14 2014-03-20 Hyundai Motor Company System and method of evaluating and reporting the driving acuity and performance of a test subject
CN103198685B (zh) * 2013-03-15 2016-04-13 Tcl康钛汽车信息服务(深圳)有限公司 一种实现驾驶安全预警的方法、系统
US20140322676A1 (en) * 2013-04-26 2014-10-30 Verizon Patent And Licensing Inc. Method and system for providing driving quality feedback and automotive support
US10692370B2 (en) * 2014-03-03 2020-06-23 Inrix, Inc. Traffic obstruction detection
WO2017047176A1 (ja) * 2015-09-18 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20180225963A1 (en) 2018-08-09
EP3352154A1 (en) 2018-07-25
JPWO2017047176A1 (ja) 2018-06-28
US10699569B2 (en) 2020-06-30
US10380888B2 (en) 2019-08-13
CN108028015B (zh) 2021-07-23
EP3352154A4 (en) 2019-08-07
WO2017047176A1 (ja) 2017-03-23
CN108028015A (zh) 2018-05-11
US20190333380A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
JP6690649B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7399075B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7371671B2 (ja) 車両に安全に追い付けるように運転を支援するシステムおよび方法
JP7003660B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2022009112A (ja) 情報処理装置、端末装置、情報処理方法、プログラム、および情報処理システム
US11873007B2 (en) Information processing apparatus, information processing method, and program
JP2018041328A (ja) 車両用情報提示装置
JP2019079363A (ja) 車両制御装置
JP2018097479A (ja) 運転支援装置、運転支援方法、運転支援プログラム、及び運転支援システム
CN112789205A (zh) 针对自动驾驶车辆检测队列并对队列进行响应
JP2014085900A (ja) 車載装置
JP2012256138A (ja) 携帯端末装置およびこれを備えた運転評価システム
JP2012103849A (ja) 情報提供装置
JP2019104354A (ja) 情報処理方法及び情報処理装置
CN114572219B (zh) 自动超车方法、装置、车辆、存储介质及芯片
WO2023132055A1 (ja) 評価装置、評価方法、及びプログラム
WO2022145286A1 (ja) 情報処理装置、情報処理方法、プログラム、移動装置、及び、情報処理システム
WO2024038759A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2023151659A (ja) 交通安全支援システム
JP2018097485A (ja) 運転支援装置、運転支援方法、運転支援プログラム、及び運転支援システム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R151 Written notification of patent or utility model registration

Ref document number: 6690649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151