JP2014123239A - 渋滞情報配信システム、サーバ、車載端末、及びプログラム - Google Patents

渋滞情報配信システム、サーバ、車載端末、及びプログラム Download PDF

Info

Publication number
JP2014123239A
JP2014123239A JP2012278817A JP2012278817A JP2014123239A JP 2014123239 A JP2014123239 A JP 2014123239A JP 2012278817 A JP2012278817 A JP 2012278817A JP 2012278817 A JP2012278817 A JP 2012278817A JP 2014123239 A JP2014123239 A JP 2014123239A
Authority
JP
Japan
Prior art keywords
vehicle
traffic jam
data
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012278817A
Other languages
English (en)
Inventor
Yuuki Hotta
勇樹 堀田
Keisuke Shirai
啓介 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012278817A priority Critical patent/JP2014123239A/ja
Publication of JP2014123239A publication Critical patent/JP2014123239A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】
道路ITインフラシステムによる情報に頼らず、交通渋滞の渋滞原因となる事象を早期に特定し通知することができる渋滞情報配信システム、サーバ、車載端末、および、プログラムを提供する。
【解決手段】
車載端末20は、車両の走行状態に基づき渋滞に巻き込まれていることがわかると、車内の運転者や同乗者が発した音声を録音した音声データを解析し、キーワード、感情、音声の変化等により特徴的な音声を検知したら、渋滞情報配信サーバ10に前記音声データを送信する。渋滞情報配信サーバ10は、前記音声データから渋滞原因に関連するキーワードを抽出し、関連する渋滞情報において渋滞原因の集計を取り、ある渋滞原因キーワードの集計値が閾値を超えると、渋滞原因を前記渋滞原因キーワードに決定する。
【選択図】図1

Description

本明細書で開示される主題は、自動車の運転に係る情報を生成し、関連するユーザに対して当該情報を配信するシステム、及び、それに用いるサーバ、車載端末、プログラムに関する。
道路の渋滞情報を検知及び報知するシステムの例として、道路に設置されたセンサ(カメラ、トラフィックカウンタ等)から収集されるデータや、各車両から携帯網や路側機経由の通信により収集された車両走行データ(プローブデータと一般的に呼ばれる)を活用して、道路状況を推測、渋滞情報を生成及び配信するシステムが存在する。これらは、対象とする道路上の車両の走行状態を把握することにより、渋滞情報を検知している。いろいろな原因により発生する渋滞のうち、道路形状により発生する渋滞に係る渋滞情報は、プローブデータなどの情報を参照することにより、生成することができるし、その原因も推定できる可能性が高い。
一方、道路形状に依存しない、非日常的な原因による渋滞に関しては、プローブデータなどの情報を参照するシステムでは、渋滞の状態は認識できても、渋滞の原因を知ることは難しい。ドライバは、自分が向かう方向の道路の渋滞状況を認識することができるが、渋滞の原因がわからないと、今後どのように渋滞の状態が推移していくか推測することが困難のため、渋滞に対してどのように行動を取るべきか判断に困るという問題がある。
特許文献1は、この問題を解決するため、渋滞を引き起こしそうなイベント情報(花火大会等)をあらかじめ入力しておき、交通情報センタ等からの渋滞情報と渋滞履歴情報の比較により非日常的な渋滞を検知したときに、前記イベント情報と照らし合わせて渋滞原因であるかどうかを決定し、ユーザに通知することを開示する(段落0006)。
特許文献2は、この問題を解決するため、非日常的な渋滞を検知したときに、インターネット上を時間情報や位置情報、所定の検索項目に基づき検索することにより、渋滞原因を推定することを開示する(段落0014)。
特許第4259404号公報 特開2009-75981号公報
上述した特許文献1の場合、渋滞原因を究明するためには、あらかじめ渋滞情報の提供側でイベント情報を把握し入力しておかなければならないため、把握が漏れていると渋滞原因を究明することができないという問題があった。また、事前に予定がわからない突発的なイベント(事故、天候、またはゲリラライブ等)による渋滞の場合、原因を特定することができないという問題があった。
上述した特許文献2の場合、インターネット上の情報を対象に検索しているため、無数のコンテキストの情報が入り混じっており、渋滞原因とは無関係の内容が検索結果に反映される可能性が高い。そのため、渋滞原因を誤って推測する確率が高くなるという問題があった。また、事前に予定がわからない突発的なイベントによる渋滞の場合は、検索時にインターネット上に情報が反映されていない可能性が高く、やはり原因を特定することが難しいという問題があった。
なお、従来構成においても、高速道路や主要道路等の道路ITインフラシステムが整備されている箇所では、道路表示板、ラジオ、または近距離無線システム経由で道路交通情報センタ(道路交通情報を収集し、道路利用者にメディアを通して提供する機関)から提供される道路工事、道路規制、または事故等の情報から、運転者が渋滞の理由を推測することは可能だった。
しかし、提供される情報は道路交通情報センタ側で取得可能な範囲の情報であり、かつ、交通渋滞と渋滞原因を手動で紐づけて配信される情報であるから、特定できる渋滞原因に限度がある上、渋滞原因のイベント発生後から配信されるまでの時間に遅延があった。これにより、渋滞原因がわからなかったり、渋滞原因が判明した頃には渋滞に巻き込まれていたり、するという問題があった。また、このような道路ITインフラシステムが整備されていない場所では、渋滞原因を知りえないという問題があった。
そのため、渋滞原因となる事象を早期に特定し通知することができる技術が求められている。
開示されるのは、道路ITインフラシステムに頼らず、交通渋滞の渋滞原因となる事象を早期に特定し、配信することができる渋滞情報配信システム、サーバ、車載端末、および、プログラムである。
開示される渋滞情報配信システムは、車両に搭載された車載端末と、車載端末と通信手段を持つ渋滞情報配信サーバと、を備えている。
車載端末は、車両外にあるサーバ装置と接続するための通信部と、を備え、車両内で発せられた音声から音声データを取得する音声データ取得部と、発声時点付近の、車両の状態に関する車両状態データを取得する車両状態データ取得部と、取得された車両状態データを用いて、音声が発せられたコンテキストを決定するコンテキスト決定部と、取得された音声データを用いて、音声データの取得元である音声が、コンテキスト決定部により決定されたコンテキストにおける、特徴的な音声であるかを判定する特徴的音声判定部と、特徴的と判定された音声から取得された音声データを含むメッセージを、サーバ装置に送信するデータ送信部と、を備えることを特徴とする。
サーバは、車載端末から、音声データと車両状態データとを含むメッセージを受信するデータ受信部と、メッセージに含まれる車両状態データに基づいて、車両が渋滞の中に位置しているかどうかを判定するコンテキスト判定部と、コンテキスト判定部において車両が渋滞の中に位置していると判定された場合に、同一のメッセージに含まれる音声データに基づいて渋滞原因を決定する渋滞原因決定部と、決定された渋滞原因を、当該渋滞に関連する車両へ配信する渋滞情報配信部と、を備えることを特徴とする。
上記態様によれば、交通渋滞の渋滞原因となる事象が、非日常的なものであっても、その事象を早期に特定し通知することができるため、運転者による効果的な早期渋滞回避を可能にする。特に、道路ITインフラシステムが整備されていないエリアや道路においても、渋滞原因となる事象を特定することができるため、道路ITインフラシステムの整備状況に依存せずにサービスを提供することが可能となる。
開示によれば、渋滞原因となる事象が非日常的なものであっても、その事象を早期に特定可能となる。
一実施形態における渋滞情報配信システムの構成を例示する図である。 一実施形態における渋滞情報データ群の構成例を示す説明図である。 一実施形態における渋滞原因集計データ群の構成例を示す説明図である。 一実施形態(実施例1)における渋滞情報配信システムの動作を例示するシーケンス図である。 一実施形態における車載端末での音声データ処理時の動作を例示するシーケンス図である。 一実施形態における車載端末での特徴的音声判定処理時の動作を例示するシーケンス図である。 一実施形態におけるメッセージのフォーマットを例示する説明図である。 一実施形態における渋滞情報配信サーバでの渋滞コンテキスト判定処理時の動作を例示するシーケンス図である。 一実施形態における渋滞情報配信サーバでの渋滞コンテキスト処理時の動作を例示するシーケンス図である。 一実施形態における渋滞情報配信サーバでの渋滞原因決定処理時の動作を例示するシーケンス図である。 一実施形態における渋滞情報メッセージのフォーマットを例示する説明図である。 一実施形態における車載端末での渋滞情報通知処理の一例である渋滞情報表示方法を示す説明図である。 一実施形態(実施例2)における車載端末での音声データ処理の動作を例示するシーケンス図である。
以下、図面を参照して、実施例について説明する。
図1は、本実施形態による渋滞情報配信システムの構成図の一例である。図1に示すように、本実施形態に係る渋滞情報配信システム1は、例えば、1台以上の車両2に渋滞情報を提供する渋滞情報配信システムであり、渋滞情報を提供する渋滞情報配信サーバ10と、車両2に搭載された車載端末20と、ネットワーク3と、を含んで構成される。
渋滞情報配信サーバ10は、例えば、テレマティクスサービスを提供するテレマティクスセンタのサーバ、道路交通情報センタのサーバ、等であり、処理部100と、記憶部110と、通信部120と、を有する。
処理部100は、例えば、CPU(Central Processing Unit:中央演算処理装置)やRAM(Random Access Memory)などを含んで構成され、所定の動作プログラムを実行することで、渋滞情報配信サーバ10の機能を実現する処理を行う。また、処理部100には、機能ブロックとして、車両2から受信したデータを処理するデータ受信部101、車両から受信したデータのコンテキストを判定するコンテキスト判定部102、車両から受信した音声データを解析する音声データ解析部103、渋滞原因を特定する処理を行う渋滞原因決定部104、渋滞原因決定部104で決定した渋滞原因の位置情報を特定する処理を行う渋滞原因位置決定部105、複数の車両2の車両状態データ等を用いて渋滞情報を生成する処理を行う渋滞情報生成部106、特定した渋滞原因及び渋滞原因位置を含む渋滞情報を1台以上の車載端末20に配信する渋滞情報配信部107、等が含まれる。
記憶部110は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)などの記憶装置を含んで構成され、処理部100が実行する動作プログラム(非表示)や、本システムの実現に必要なデータ群などが格納される。本実施形態では、特に、渋滞情報データ群111、渋滞原因集計データ群112、渋滞原因キーワードデータ群113、等が格納される。
通信部120は、例えば、Ethernet(登録商標)などの有線LAN規格に準拠したネットワークカードなどを含んで構成され、ネットワーク3にアクセスして、例えば、IP(Internet Protocol)系の各種プロトコルなどに基づいて生成されたデータの送受信を行う。なお、ネットワーク3との接続形態は、Ethernetのような有線接続に限定されることはなく、無線LAN(Local Area Network)などの近距離無線接続であってもよいし、携帯電話の通信システムのような長距離無線接続であってもよい。
ネットワーク3は、無線および/または有線を媒体とする回線交換網やパケット交換網の任意の組み合わせで構成される通信ネットワークであり、渋滞情報配信サーバ10と車載端末20が相互にデータを送受信可能なように構成されている。
車載端末20は、例えば、車両2に設置される、もしくは車両2内に位置し、所定の通信方法により車両外部と接続可能に構成される、テレマティクス通信装置、ナビゲーション装置、携帯電話(スマートフォンと呼ばれる高機能通信端末を含む)、またはタブレット端末、等であり、処理部200と、記憶部210と、通信部220と、入出力部230を有する。
処理部200は、例えば、渋滞情報配信サーバ10の処理部100と同様の装置で構成され、所定の動作プログラムを実行することで、車載端末20の機能を実現する処理を行う。また、処理部200には、機能ブロックとして、音声入出力部232経由でマイク253から入力された音声データを取得する音声データ取得部201と、例えば、音声認識、感情認識、発声者認識、等の音声データを解析する処理を行う音声データ解析部202と、音声データのコンテキストを決定するコンテキスト決定部203と、コンテキスト決定部203により決定されたコンテキストにおいて音声データが特徴的な音声に該当するかどうかを判定する特徴的音声判定部204と、車内LAN入出力部233経由で車内LAN254から入力された車両状態データを取得する車両状態データ取得部205と、渋滞情報配信サーバ10に音声データを送信するデータ送信部206と、渋滞情報配信サーバ10から渋滞情報を受信する渋滞情報受信部207と、受信した渋滞情報をディスプレイやスピーカに出力して運転者や同乗者に通知する渋滞情報通知部208と、等が含まれる。
記憶部210は、例えば、渋滞情報配信サーバ10の記憶部110と同様の装置で構成され、処理部200が実行する動作プログラム(非表示)や、本明細書で開示するシステムの実現に必要なデータ、例えば、車両状態データ群211、音声データ群212、音声処理パラメータデータ群213、などが格納される。
通信部220は、例えば、渋滞情報配信サーバ10の通信部120と同様の装置で構成され、ネットワーク3にアクセスして、渋滞情報配信サーバ10とデータの送受信を行う。
入出力部230は、車載端末20に接続される他の装置との入出力を実現するように構成されており、例えば、ディスプレイ251との入出力処理を行う画面入出力部231、スピーカ252やマイク253との音声入出力処理を行う音声入出力部232、CAN(Controller Area Network)等の車載ネットワークと接続し車載ネットワークに流れる車両データの受信処理を行う車内LAN入出力部233、等が含まれる。
マイク253は、例えば、車両のハンドル付近などに設置され、運転者や同乗者の会話が録音できるようになっている。あるいは、マイク253は、車両外に設置され、車両外部の音声を録音できるようになっていてもよいし、車内外に複数個設置されていてもよい。図1では、ディスプレイ251、スピーカ252、マイク253が車載端末20の外部に接続されているが、車載端末に内蔵されても良い。
渋滞情報配信サーバ10の渋滞情報データ群111は、渋滞情報生成部106により生成、管理される渋滞情報データエントリの集合であり、例えば、図2のような構成になっている。
本明細書では、一つ以上の異なるデータで構成される一つの集合をエントリという。
渋滞ID301は、渋滞を識別するための識別子(ID)である。道路情報302は、渋滞している一つ以上の道路の情報を示す。図2では、道路を表すデータ構造の一例として、地図データにおける道路リンク(ノードIDのペア)情報を用いている。
どの道路が渋滞しているかの判定は、渋滞情報生成部106により実現される。本実施例では記載していないが、渋滞情報生成部106は、道路交通情報センタ等の道路インフラ事業者が生成した渋滞情報を取得することにより道路情報302を生成しても良いし、車両2から定期的に車両状態データ(プローブデータ)を取得し車速や加速度等の情報を解析することにより生成しても良い。
渋滞原因303は、該当する渋滞が発生している原因を表している。すでに、渋滞原因決定部104により渋滞原因が決定されている場合は、「交通事故」等特定の渋滞原因を表すテキストデータが格納される。まだ決定されていない場合は「不明」等、未決定であることを表すデータが格納される。渋滞原因位置304は、渋滞原因303の位置情報が格納される。位置情報としては、例えば、道路リンク、緯度、及び経度の組み合わせで表現される。渋滞原因位置304は、渋滞原因位置決定部105により決定され、決定されている場合は特定の位置情報が、決定されていない場合は「不明」等、未決定であることを表すデータが格納される。
渋滞情報配信サーバ10の渋滞原因集計データ群112は、渋滞原因決定部104がある渋滞情報の原因を特定する過程で用いられるデータエントリの集合であり、例えば、図3のような構成になっている。
渋滞ID311は、渋滞を識別するためのIDで、渋滞情報データ群111の渋滞ID301に対応する。登録済車両ID312は、当該渋滞IDの渋滞に関する渋滞原因キーワードの集計に登録済の車両IDの集合である。渋滞原因キーワード313は、当該渋滞IDの渋滞の原因候補として登録、集計されているキーワードである。カウンタ314は、各渋滞原因キーワード313に対するその時点での集計値を表す。
渋滞情報配信サーバ10の渋滞原因キーワードデータ群113は、渋滞原因決定部104が音声データから渋滞原因に相当するキーワードを抽出するためのデータエントリの集合であり、渋滞原因に関連性のあるキーワードが登録されている。例えば、「交差点」「合流」「サグ(下り坂から上り坂にさしかかる凹部)」「対向車線横断時の待機(右折待ちなど)」等の渋滞を引き起こす道路形状に関連するキーワードや、「事故」「工事」「故障」等の車両や道路のイベントに関連するキーワードや、「祭り」「花火」または「アウトレット」等の地域イベントに関連するキーワードが含まれる。
車載端末20の車両状態データ群211は、当該車両の状態に関する車両状態データエントリの集合であり、1エントリ毎に、車内LAN入出力部233経由で取得された当該車両のセンサ、ECU(Electronic Control Unit)、アクチュエータ等の任意の一つ以上の車両の状態に係るデータが、それぞれ、取得時刻と関連付けられて記録される。好ましくは、車両状態データ取得部205が、当該センサ、ECU、アクチュエータの任意の一つ以上から情報を繰り返し(たとえば定期的に)取得し、取得時刻と関連付けて記録する。
また、例えば、1エントリは、時刻をキーとする複数種類のデータ、例えば、ある時刻での、車両位置、速度、加速度のいずれか二つ以上を含む。記録される対象としては、例えば、車両の位置、速度、加速度、角加速度、進行方向、アクセル開度、ブレーキ開度、インジケータ、シフトレバーの位置、等の任意の一つ以上が含まれる。
なお、車両状態データ群211に格納されるデータは、車内LAN254経由で取得しなくても構わない。車載端末20に搭載されているセンサ情報や、接続している他の装置から取得したデータが含まれてもよい。例えば、車内LAN254と接続している、車両の位置を測位するためのGNSS(Global Navigation Satellite System)受信装置から、車内LANと接続していて車内LAN経由で車両位置を取得しても良いし、携帯電話等の他の端末に搭載されているGNSS受信装置から取得しても良い。
車載端末20は、車両状態データ取得部205により取得した情報を、記憶部110の記憶容量が許す限り保存してもよいし、一定期間経過すると削除しても良いし、渋滞情報配信サーバ10を例とした他の装置に転送した時点で削除しても良い。
車載端末20の音声データ群212は、マイク253から入力された運転者及び同乗者の音声を録音した音声データエントリの集合であり、録音時刻と関連付けられて格納される。録音については、音声入出力部232を、無音状態のときもすべて録音して記録するように構成しても良いし、音声を認識したときだけ録音して記録するように構成しても良い。1エントリに含まれる音声データの長さに、制限を設けなくても良いし、最大長を決めて複数エントリに分割しても良い。
車載端末20の音声処理パラメータデータ群213は、パラメータデータエントリの集合であり、各エントリは、処理部200の各種音声処理に必要となる一つ以上の各種パラメータを含む。
続いて、渋滞情報配信システム1の動作について説明する。
図4は、渋滞情報配信システム1の処理フローを表している。図4の左上のフローは、車載端末20が音声データを渋滞情報配信サーバ10に送信する処理のフローを示している。図4の右のフローは、渋滞情報配信サーバ10が音声データを受信したときの処理フローを示している。図4の左下のフローは、車載端末20が渋滞情報配信サーバ10から渋滞情報を受信したときの処理フローを示している。以下、図4の左上のフローから順番に説明していく。
車両2に搭載された車載端末20では、車内の音声を録音するかどうかのモードを設定できるようになっている。これは、例えば、記憶部210に音声録音モードを判定するためのデータが格納されており、車載端末20に搭載されているディスプレイ251等を用いて運転者や同乗者が入出力部230経由で手動により設定できるようになっていてもよいし、遠隔にある他のシステムやアプリケーションから通信部220を経由して設定できるようになっていてもよい。また、音声録音モードを指定するための、手動で物理的に切替が可能なスイッチが車載端末20に搭載されていてもよい。
まず、全体フロー500では、音声データ取得部201が、ステップ501において、音声録音モードが有効になっているか確認する。もしも、音声録音モードが無効の状態だった場合(ステップ501でNo)で、音声録音を開始していた場合は、音声録音を停止し、車載端末20は処理を終了する。音声録音モードが有効になっている場合は(ステップ501でYes)、音声録音を開始していなければ音声録音を開始する。すでに音声録音が開始されていたら、そのまま音声録音を継続する。続いて、ステップ502においてマイク253からの音声入力があるかをチェックする。
ここでの音声入力のチェックとは、例えば音声データと認識できる入力があるかどうかのチェックである。もしも、雑音しか入力されておらず、音声データとして認識できない場合は(ステップ502でNo)、ステップ501に戻る。一方、認識できる音声データが入力された場合は(ステップ502でYes)、音声データ取得部201が該音声データを取得し、次の音声データ解析部202による音声データ処理503に進む。
このとき、音声データとは、音声データ取得部201が音声入力の録音データを所定の方式により区切ったものである。例えば、音声入力が一定時間以上ない(入力が雑音のみ)ことを契機に区切っても良いし、データ長が一定時間を超えないように区切っても良いし、その両方の組み合わせにより区切っても良い。あるいは、音声入力の録音データを区切ることはせず、そのままストリームデータとして、音声データ解析部202による音声データ処理503に渡しても良い。
図5を用いて、音声データ解析部202による音声データ処理503について説明する。音声データ解析部202は、まずステップ601で入力された音声データを取得し、続いてステップ602において、車両状態データ群211を検索し、音声入力があった時点(すなわち発声時点)付近(好ましくは、音声入力があった時点の前後それぞれの所定の時間内)の車両状態データを取得する。次の、コンテキスト決定処理(ステップ603)は、コンテキスト決定部203が、取得された音声データは、どのようなコンテキストで運転者もしくは同乗者が発声したものであるか、を解析する処理である。
ここでコンテキストとは、車両2もしくは運転者や同乗者が置かれている状況を意味しており、本実施例の渋滞情報配信システム1では、音声データを活用して渋滞原因を特定することを目的としているため、抽出したいのは車両2が渋滞に関与している時点の音声データとなる。そのため、渋滞というコンテキスト(以下、渋滞コンテキストという)に車両2が置かれているかどうかを判定する。
この渋滞コンテキストは、飽くまで一例であり、他の提供サービスに応じて、さまざまなコンテキスト(例えば、停車中、故障中、または電話中等)が定義され、コンテキスト決定処理の中に定義されたコンテキストを判定するための処理が含まれてもよい。
渋滞コンテキストを判定する処理としては、車両状態データを利用する。例えば、速度情報において一定時間低速状態が続いた場合は、渋滞の中にいると判定することができる。例えば、加速度情報において急減速状態が発生した付近(急減速状態の発声前後それぞれの所定の時間)でインジケータが点滅(ハザードランプが点灯)した場合は、渋滞の入口(最後尾または開始地点とも称す)付近に位置すると判定することができる。例えば、速度情報において一定時間以上低速状態が続いた後に、加速度情報において加速状態となり、一定時間速度情報がある閾値を超えたまま保持された場合は、渋滞の出口(先頭または終了地点とも称す)付近に位置すると判定することができる。また、車両状態データだけでなく、道路情報等と組み合わせてもよい。道路の制限速度情報や信号機の有無等を合わせて用いることで、当該車両が渋滞中に位置しているかどうかを、より精度良く判定することが可能となる。また、渋滞情報配信サーバ等、ネットワーク3経由で取得した渋滞情報と、当該車両の位置を比較することにより、渋滞中に位置しているかを判定してもよい。
ステップ603でコンテキストが判定されると、特徴的音声判定部204は、特徴的音声判定処理(ステップ604)を実行する。すべての音声データを渋滞情報配信サーバ10に送信してしまうと、渋滞情報配信サーバ10が不要な音声データに対しても解析することになり、大量の車両による音声データの送信が集中した際に、処理能力が追い付かなくなる可能性がある。そこで、車載端末20側で、コンテキストに応じて、不要な音声データはできる限り送信しない方が望ましい。この「音声データを送信すべきか否か」を判定する処理が、特徴的音声判定処理である。
図6を用いて、特徴的音声判定処理を説明する。
特徴的音声判定部204は、まず、判定したコンテキストに対応する音声処理パラメータを音声処理パラメータデータ群213から取得する(ステップ610)。音声処理パラメータを参照し、当該コンテキストにおける特徴的音声判定モードを決定する(ステップ611)。特徴的音声判定モードとしては、例えば、音声データの内容の特徴から判定する内容解析判定モード、音声データの音声に含まれる感情的特徴から判定する感情解析判定モード、音声データにおける音声のトーン、音量、またはタイミングそれぞれの変化の特徴、あるいは任意の一つ以上の組み合わせの変化の特徴から判定する音声変化解析判定モード等が考えられる。
内容解析判定モードの場合は(ステップ612でYes)、音声データに対して音声認識処理を施し(ステップ620)、テキスト化した音声データをキーワード分解し(ステップ621)、その中に当該コンテキストの特徴的なキーワードが含まれるかを確認する(ステップ622)。コンテキスト毎の特徴的キーワードは、音声処理パラメータデータ群213に格納されている。もしも、特徴的キーワードが含まれていた場合は、当該音声データを特徴的音声と判定し(ステップ630)。そうでなければ、非特徴的音声と判定し(ステップ631)、処理を終了する。
ステップ612に戻り、特徴的音声判定モードが、内容解析判定モードではなく、感情解析判定モードであった場合(ステップ613でYes)、まず、音声データに対して感情解析処理を実行する(ステップ625)。感情解析処理とは、音声の速度、強さ、間隔、抑揚等の各種パラメータを分析することで、音声に含まれる怒り、驚き、苛立ち、または疑問等の感情を認識する処理のことである。次に、感情解析処理625で認識された感情タイプと、当該コンテキストが対象とする感情タイプとが合致するかをチェックする(ステップ626)。もしも、合致した場合は、特徴的音声と判定し(ステップ630)、合致しなかった場合は非特徴的音声と判定し(ステップ631)、処理を終了する。例えば、運転者は渋滞の原因が判明した際、「あ、事故だ!」、「なんだ、道路工事やっていたのかよ…」、「へぇ、アウトレットがオープンしていたんだ!」などのように、驚き、怒り、または苛立ちを伴って、渋滞原因を発声する場合が多い。そのため、渋滞コンテキストにおいては、例えば、対象感情として驚き、怒り、または苛立ちなどを設定しておくと、渋滞原因を表す発声を抽出できる可能性を高めることができる。
ステップ613に戻り、特徴的音声判定モードが、内容解析判定モードでも感情解析モードでもなく、音声変化解析判定モードの場合(ステップ614でYes)、まず、音声データに対して発声者識別処理を実行する(ステップ615)。
発声者識別処理とは、声から個人を識別する処理のことであり、音声から特徴量を抽出して、照合することにより実現される。ただし、このステップでの発声者識別処理は、特定の個人を認証することが目的ではなく、車内に複数人存在する場合に発声者を識別して各個人における音声変化を抽出することが目的である。そのため、必ずしも精度の高い発声者識別処理を実行する必要はない。
例えば、過去に録音されたもしくは現在進行中の音声データを解析し、発声者の声のトーン(周波数)や音量等の特徴量パラメータを抽出しておく。通常時に発声者から発せられた音声データを取得し、解析しておけば、同一の発声者からは同様な特徴量パラメータを抽出できるため、それを統計的に解析することで、その発声者の特徴を表す統計的な特徴量パラメータを抽出することが可能となる。統計的な特徴量パラメータには、例えば、特徴量パラメータの平均値、分散、標準偏差等が含まれる。
車内に複数人が存在していた場合は、例えば、クラスタリング(クラスター分析)等の解析にかけることによって、同一の発声者から発せられた音声データ毎に分類することが可能であり、さらにそれぞれの発声者毎に統計的な特徴量パラメータを算出することが可能となる。これにより、新たに発せられた音声データの特徴量パラメータを、各個人の統計的な特徴量パラメータと比較することによって、発声者を識別することが可能となる。
発声者が識別されると、ステップ616、617、618において、音声の特徴的な変化(トーン、音量、間隔等の任意の一つ以上の変化)を確認する。もしも、声のトーンが通常よりも高かったり(ステップ616でYes)、声の音量が通常よりも大きかったり(ステップ617)、前回の発声から一定時間以上経過していたり、した場合は、特徴的音声と判定して(ステップ630)、処理を終了する。
一方、特に音声の特徴的変化が確認されなかった場合は、非特徴的音声と判定して(ステップ631)、処理を終了する。なお、声のトーンや音量が通常と異なるかどうかは、各パラメータに対する平均値、分散、標準偏差等の統計的情報を任意の一つ以上用いて判定されることが望ましい。
音声の変化には、発声者の感情が反映されていることが多い。そのため、音声の変化を検知することにより、感情が表面化された部分の発声を抽出することが可能である。その点、感情解析モードとも近いが、感情解析モードでは表面化した感情を特定してから特徴的音声かどうかを判定しているのに対し、音声変化解析判定モードでは、どのような感情かは特定せずに、感情が表面化した部分を一括りに特徴的音声と判定する点で異なる。そのため、感情解析モードの方が精度良く対象とする音声データを抽出できるという利点があるが、音声変化解析判定モードにも感情解析モードと比較して単純な処理で実現できるという利点がある。
ステップ614に戻り、特徴的音声判定モードが、いずれでもない場合、その他の判定モード処理を実行して(ステップ632)、処理を終了する。
なお、ここでは内容解析判定モード、感情解析判定モード、音声変化解析モードの3つを例として挙げたが、いずれか一つだけでも良いし、複数を組み合わせても良い。
図5の音声データ処理503の処理フローに戻る。特徴的音声判定処理604の結果、特徴的音声と判定された場合(ステップ605でYes)、特徴的音声判定部204は、該当する音声データを切り出す処理を実行する(ステップ606)。音声データは、比較的長い時間に渡り録音されたデータである場合もあり、複数の発声が混在していることもある。その場合は特徴的音声と判定された発声部分だけ切り出す処理が必要となる。
特徴的音声判定部204が該当音声データを切り出すと、続いて、データ送信部206が送信データを生成する処理を行う(ステップ607)。本実施例で対象とする渋滞コンテキストの場合、送信データには、少なくとも、音声データ、音声データが録音された時刻情報、時刻情報に関連する位置情報等の車両状態データを含む。それに加えて、渋滞情報配信サーバ10が、車両2の識別に必要となる車両ID、コンテキストの識別に必要となるコンテキストフラグも含まれる。なお、送信データに含まれる情報は、コンテキストに応じて異なってもよい。送信データ生成処理607を実行すると、音声データ処理503は終了する。
一方、ステップ605にて特徴的音声と判定されなかった場合は(ステップ605でNo)、そのまま処理を終了する。
図4の渋滞情報配信システム1の処理フロー500に戻る。音声データ処理503の結果、送信データが生成されていた場合(ステップ504でYes)、データ送信部206は、メッセージ送信処理(ステップ505)を実行する。メッセージ送信処理では、送信データ生成処理607で生成された送信データを、所定フォーマットのメッセージに変換して、渋滞情報配信サーバ10に送信する。
図7は、メッセージのフォーマット(700)の一例を示している(ただし、通信プロトコルに関係するヘッダ情報は割愛)。車両ID700は、車両2を識別するユニークな識別子が入る。これにより、渋滞情報配信サーバ10が、車両2を識別することが可能となる。コンテキストフラグ702は、コンテキスト決定処理603で決定されたコンテキストの情報を示すフラグが入る。例えば、各ビット位置によってコンテキストの種別(例えば、渋滞コンテキスト)が割り当てられており、もしもそのコンテキスト種別が有効の場合は該当ビットに1がセットされる。これにより、一つの音声データに対し、複数のコンテキストを同時に指定することが可能となる。なお、車載端末側でコンテキスト処理が実施されない場合も考えられ、コンテキストが「不明」であることを示すフラグを用意してもよい。
音声データ時刻情報703には、音声データ704が対応する音声開始時刻と音声終了時刻が含まれる。車両状態データ705には、音声データ時刻情報703で示された時刻の期間、もしくはその前後を含んだ期間の車両状態データが含まれる。車両状態データ705には、データセット数711で示された数だけ、時刻712で示された時点の車両状態データのセットが含まれる。
車両状態データとしては、車両2の位置情報713、速度情報714、等が含まれる。なお、位置情報713は、GNSSにより測位された、もしくはその値をベースに他センサ情報を用いて補正した緯度、経度の情報でも良い。また、その緯度、経度を地図データの道路リンク情報と照合することで車両2が走行している可能性が最も高い道路情報(走行道路情報)を取得し、走行道路情報(道路のリンクID等)を位置情報713がさらに含んでも良い。
車載端末20は、音声データ送信処理505を終えると、ステップ501に戻り、これまでに説明した一連の処理を繰り返す。
車載端末20の音声データ送信処理505において、送信データに含まれて送信された音声データは、渋滞情報配信サーバ10によって受信される。渋滞情報配信サーバ10のデータ受信部101は、音声データ受信処理を行い(ステップ510)、メッセージフォーマット700に従って各種情報を取得する。続いて、コンテキスト判定部102は、コンテキスト判定処理を実行し(ステップ511)、受信した音声データが渋滞に関連するものであるかを判定する。
図8を用いて、コンテキスト判定処理511を説明する。
まず、コンテキスト判定部102は、受信したメッセージのコンテキストフラグ702を参照し、コンテキストが「渋滞コンテキスト」もしくは「不明」であるかを確認する(ステップ801)。もしも、別のコンテキストが指定されていた場合は(ステップ801でNo)、車載端末20によりすでにコンテキストが解析されているため、渋滞コンテキストではないと判定し(ステップ820)、処理を終了する。
一方、ステップ801でYesの場合、メッセージに含まれる該当車両の車両状態データ705の位置情報713に基づいて渋滞情報データ群111を検索して、関連する渋滞情報があるか調べる(ステップ802)。渋滞情報が関連しているかどうかは、例えば、渋滞情報データ群111の道路情報302を参照し、自分の位置情報が渋滞の道路と一致しているか、もしくは渋滞の道路に向かっているか(例えば、位置情報が走行道路情報を含む場合は、走行道路が渋滞の道路に接続しているかどうかで判定可能)により判定する。
もしも、関連する渋滞情報があるなら(ステップ803でYes)、取得して、位置情報に基づき該当車両が渋滞の入口付近に位置するかどうかをチェックする(ステップ804)。もしも、該当車両が渋滞の入口付近に位置していると判定したら、受信した音声データは「渋滞(開始地点)」において発声されたもの(つまり発声時のコンテキストは渋滞(開始地点)、と判定する(ステップ824)。一方、該当車両が渋滞の入口付近に位置しない場合は、該当車両が渋滞の出口付近に位置しているかどうかをチェックし(ステップ805)、もしそうであればコンテキストは「渋滞(終了地点)」と判定する(ステップ823)。そうでなければ、該当車両が渋滞の中間に位置するかどうかをチェックし(ステップ806)、もしそうであればコンテキストは「渋滞(中間)」と判定(ステップ822)、そうでなければコンテキストは「渋滞(不明)」と判定し(ステップ821)、処理を終了する。
ステップ803に戻り、関連する渋滞情報が見つからなかった場合、コンテキストフラグ702を参照し、コンテキストが「渋滞」であるかを確認する(ステップ810)。もしも、「渋滞」であれば、受信した音声データに係るコンテキストを「渋滞(不明)」と判定し(ステップ821)、「渋滞」でなければ、ステップ811に進む。ここで、注意すべきは、ステップ801の条件から、ステップ810でコンテキストが「渋滞」でないということは、コンテキストは「不明」であることである。つまり、車載端末20側で、コンテキスト決定処理が実施されていないことを意味するので、コンテキスト決定処理603の上記説明と同様にして、ステップ811で車両状態データに基づいてコンテキストが渋滞であるかどうかを判定する。もしも、ステップ811で渋滞と判定された場合は、受信した音声データに係るコンテキストを「渋滞(不明)」と判定して(ステップ821)、処理を終了する。さもなければ、受信した音声データに係るコンテキストを「渋滞ではない」と判定し(ステップ820)、処理を終了する。
図4の渋滞情報配信システム1の処理フロー500に戻る。コンテキスト判定部102は、渋滞コンテキスト判定処理511の結果、「渋滞コンテキストではない」と判定した場合は(ステップ512でYes)、渋滞コンテキストと同様その他のコンテキストに関する処理を実行して(ステップ516)、処理を終了する。一方、渋滞コンテキスト判定処理511で「渋滞コンテキスト」と判定した場合は、渋滞コンテキスト処理(ステップ513)に進む。
図9を用いて、コンテキスト判定部102による渋滞コンテキスト処理513を説明する。
コンテキスト判定処理511において分類した、コンテキストを「渋滞(終了地点)」、「渋滞(開始地点)」、「渋滞(中間)」「渋滞(不明)」の4種類のコンテキストに応じて処理が分かれる。もしも、「渋滞(終了地点)」の場合は(ステップ851でYes)、渋滞原因決定処理を実行する(ステップ861)。
図10を用いて、渋滞原因決定処理861を説明する。
まず、渋滞原因決定部104は、受信したメッセージに含まれる該当車両の位置情報713に基づいて、渋滞情報データ群111を検索して関連する渋滞情報を取得する(ステップ881)。もしくは、渋滞コンテキスト判定処理511のステップ802で取得した渋滞情報を用いても良い。続いて、取得した渋滞情報の渋滞IDに基づいて渋滞原因集計データ群112を検索し、該当する渋滞原因集計情報を取得する(ステップ882)。
渋滞原因決定部104は、次に、同一車両による渋滞原因情報の二重登録を防ぐため、渋滞原因集計情報の登録済車両IDを確認する(ステップ883)。もしも、登録済だったら、渋滞原因決定処理861を終了する。一方、登録済でない場合は、ステップ884に進み、受信した音声データを音声認識処理に通す。そして、音声認識処理884により取得された音声テキストをキーワードに分解し(ステップ885)、渋滞原因キーワードデータ群113と比較することにより渋滞に関連するものを抽出する(ステップ886)。
もしも、抽出された渋滞原因キーワードが存在しなかったら(ステップ887でNo)、処理を終了する。一方、渋滞原因キーワードが抽出された場合は、渋滞原因集計情報において、抽出された渋滞原因キーワードに該当する渋滞原因キーワードのカウンタを増やす(ステップ888)。もしも、渋滞原因キーワードとして登録されていない場合は、新規に追加し、カウンタに初期値を入力する。そして、該当車両の車両IDを渋滞原因集計情報に登録する(ステップ889)。
なお、カウンタの増やし方は、一様に1加えても良いし、渋滞コンテキストの分類や特定のパラメータの差異によって重みづけしても良い。例えば、運転者や同乗者が渋滞原因を認識するのは、たいてい渋滞の終了地点付近であり、渋滞の開始地点や中間部で渋滞原因に気づくことは稀である。そのため、「渋滞コンテキスト(終了地点)」では、カウンタを多く増やし(例えば+5)、その他の渋滞コンテキストの場合はカウンタを少なく増やす(例えば+1)という方法であっても良い。もしくは、渋滞の終了地点から発声地点までの距離に反比例するように重みづけをして、カウンタを増やしても良い。
以上、一連の渋滞原因集計情報の更新が完了すると、渋滞原因を決定する処理に移行する。もしも、ある渋滞原因キーワードwのカウンタCの値が、閾値Cthを超えていた場合は(ステップ890でYes)、渋滞原因キーワードwを当該渋滞情報の渋滞原因として設定する(ステップ891)。
次に、渋滞原因位置決定部105は、渋滞原因位置を特定する処理(ステップ892)を行う。
渋滞原因位置の特定は、渋滞情報を参照することにより実施される。渋滞原因が、サグや交差点等による道路形状、事故や工事等の道路イベント、またはアウトレット等商業施設、等の場合、ある特定の地点が渋滞を引き起こす原因となる。そのため、その地点に向かう道路が渋滞するため、渋滞の終了地点しかない地点(その地点からはいずれの方向にも渋滞が存在しないような地点)が原因箇所となる。例えば、図2の渋滞IDが1の渋滞は、渋滞の道路は道路リンク(8000、8100)と(8150、8100)であり、渋滞はいずれもの道路リンクでもノード8100が終点であり、ノード8100からはいずれの方向にも渋滞が存在しないため、ノード8100付近が渋滞原因であるということがわかる。ただし、道路の容量を超過したために発生する自然渋滞や、花火大会等広範囲に渡り駐車スペースを探す車両により引き起こされる渋滞等は、渋滞原因が特定の地点によるものではないため、渋滞原因位置を指定することはできない。その場合は、上記手法でも「渋滞の終了地点しかない地点」を見つけることはできないので、渋滞原因位置は「不明」となる。
なお、自然渋滞の場合は、日常的に発生するものであるため、渋滞原因を運転手や同乗者の音声から抽出するのは難しい可能性がある。その反面、日常的に発生するものであるが故に、過去の渋滞履歴を確認することにより、それが自然渋滞によるものかを容易に判定できる。そのため、過去の渋滞履歴を解析して自然渋滞のデータベースを作成しておき、該当する渋滞が、自然渋滞データベースに登録されているケースと一致した場合は、渋滞原因が自然渋滞によるものと特定するようにしても良い。
もしも、ステップ889にて、いずれの渋滞原因キーワードも閾値Cthを超えていなかった場合は、渋滞原因は決定せず、処理を終了する。
図9の渋滞コンテキスト処理513のフローに戻る。判定されたコンテキストが「渋滞(不明)」だった場合(ステップ853でYes)、コンテキスト判定部102は、受信したメッセージに含まれる該当車両の位置情報713に基づいて、渋滞情報データ群111を検索して関連する渋滞情報を取得する(ステップ863)。もしくは、渋滞コンテキスト判定処理511のステップ802で取得した渋滞情報を用いても良い。もしも、関連する渋滞情報があった場合は(ステップ864でYes)、渋滞原因決定処理861を実行する。もしも、渋滞情報が見つからなかった場合は(ステップ864でNo)、新規に発生した渋滞を意味するため、渋滞情報データ群111に位置情報713に基づいて渋滞情報エントリを新規登録し(ステップ865)、渋滞原因決定処理861を実行して、処理を終了する。
もしも判定されたコンテキストが「渋滞(中間)」もしくは「渋滞(開始地点)」だった場合は(ステップ853でNo)、何も実行せず終了する。これは、渋滞の開始地点もしくは真っ只中にいるときは、渋滞原因を把握している可能性が低く、苛立ちによる推測の発声が多いと考えられ、渋滞原因集計の精度を下げる危険性があるためである。
図4の渋滞情報配信システム1の処理フロー500に戻る。渋滞コンテキスト処理513の結果、渋滞原因情報が更新された場合(ステップ514でYes)、渋滞情報配信部107は、渋滞情報配信処理を行う(ステップ515)。その後、その他のコンテキスト処理を実行し(ステップ516)、処理を終了する。もしも渋滞原因情報が更新されていない場合は、何も実行せずステップ516に進み、処理を終了する。
渋滞情報配信部107は、渋滞情報配信処理515では、渋滞原因が決定された渋滞情報に関係する車両2の車載端末20に、渋滞原因情報を含む渋滞情報メッセージを送信する。ここでは、渋滞原因が更新された時点で、関係車両にプッシュする方法での渋滞情報配信を想定しているが、車載端末20が定期的に渋滞情報を問い合わせて取得する方法でも良い。なお、渋滞情報に関係する車両2とは、当該渋滞につかまっている車両、当該渋滞の方向に向かっている、もしくは旅程計画を立てている車両、等を含む。これは、渋滞情報の問合せをする際に、現在地や目的地の情報を含むこと等により、渋滞情報配信サーバ10が関連性を検証することで実現できる。
渋滞情報メッセージのフォーマットの一例を図11に示す。渋滞情報メッセージは、渋滞情報を識別するための渋滞ID751、渋滞している道路の情報を示す一つ以上の道路リンク情報を含む渋滞道路情報752、渋滞原因761や渋滞原因位置情報762を含む渋滞原因情報753、を含む。渋滞原因761は、例えば、渋滞原因を表すテキストデータもしくはIDであり、渋滞原因決定処理861のステップ891で設定した渋滞原因キーワードwに相当するものである。渋滞原因位置情報762は、渋滞原因決定処理861のステップ892で特定した渋滞原因位置に相当する。
渋滞情報配信サーバ10の渋滞情報配信処理515において送信された渋滞情報メッセージは、車載端末20によって受信される。すると、車載端末20の渋滞情報受信部207は、渋滞情報受信処理を行い(ステップ520)、渋滞情報メッセージフォーマット750に従って渋滞情報を取得する。そして、渋滞情報が新規情報であった場合、渋滞情報通知部208は、必要性に応じて、運転者及び同乗者に対して、所定の方法で渋滞情報を通知する(ステップ521)。渋滞情報の通知方法としては、例えば、スピーカ252を用いた音声による読み上げによる通知でも良いし、ディスプレイ251を用いて渋滞情報を表示しても良いし、車載端末20と任意の手段により接続された他端末に渋滞情報を渡し他端末上で通知しても良いし、いずれの任意の組み合わせにより通知しても良い。
図12に、渋滞情報通知処理521の一例として、ディスプレイ251を用いて渋滞情報を表示する例を示す。
ディスプレイ251では、例えば、ナビゲーションアプリケーションが動作しており、周辺地図1010、車両2の位置と進行方向1011、ナビゲーション経路1012、等が表示されている。ここで、渋滞情報配信サーバ10から、渋滞情報メッセージを受信し、渋滞情報メッセージには、渋滞道路情報752として道路リンク1003−1006の情報が、渋滞原因761として「アウトレット駐車待ち」というテキスト情報1022が、渋滞原因位置情報762としてアウトレットの駐車情報位置を示す位置情報が、含まれていたことを想定する。すると、ディスプレイ251では、例えば、図12のようにして、渋滞道路情報、渋滞原因、及び渋滞原因位置を表示する。
渋滞道路情報は、例えば、ディスプレイ251上の道路において渋滞している箇所を所定の方式(色分け等)でハイライトすることにより、通知する。渋滞原因は、例えば、ディスプレイ251上にテキストボックス1020を一時的もしくは定常的に表示し、渋滞原因のテキスト情報1022を表記することにより通知する。渋滞原因位置は、例えば、ディスプレイ251上の地図に該当位置が含まれる場合は、地図の渋滞原因位置上に渋滞原因位置を表す印1002を表記することにより通知する。
以上のように、本実施形態によれば、渋滞に遭遇している現場の運転者や同乗者が発した音声データから、自動的に渋滞原因に関連するキーワードを抽出して解析するため、インターネットやブログ全体を検索した場合よりも、精度高く実際の渋滞原因に関連するキーワードを収集することができる。そのため、渋滞原因の推定の精度を高めると同時に、判定に至るまでの収束時間を短縮することができる。さらに、渋滞に遭遇しているすべての車両を対象とするのではなく、渋滞の終了地点付近に位置する車両を特に対象とすることにより、実際の渋滞原因に関連するキーワードの収集精度を高めることができる。
また、交通事故等の渋滞原因イベント発生直後から、現場で状況を把握している運転者や同乗者の発声を収集することができるため、まだ渋滞が表面化されていないうちから、渋滞原因を特定、関連車両に通知することができる。そのため、道路事業者が事故を認識した後に道路交通情報センタ等から配信されるよりも早い段階で、渋滞原因を通知することができ、運転者が渋滞を回避する確率を高めることが可能となる。
また、本実施形態によれば、車載端末20は、車両や車内の人が置かれている環境(コンテキスト)に応じて音声データを解析し、有用な情報が含まれる可能性のある音声データのみをサーバに送信する形態を取っている。この方式は、本実施例で記載した渋滞原因を特定する目的に拠らず、コンテキストに関連する運転者や同乗者の思考や知識を、音声データから抽出することができ、他の用途に応用することが可能である。
実施例2では、図4の左上の車載端末20が音声データを渋滞情報配信サーバ10に送信する処理フローにおいて、運転者や同乗者の音声を常時録音するのではなく、渋滞原因を運転者や同乗者に問い合わせる方法を用いた場合について説明する。
図13に、図4の左上の車載端末20による処理フローに相当する実施例2における処理フローを示す。
車載端末20のCPU(図示していない)は、記憶部(図示していない)に格納したプログラムを実行し、いかに説明する処理を行うプロセスを実現する。
まず、車載端末20 は、車両状態データを参照して、車両2が渋滞に巻き込まれたかどうかを常時確認している(ステップ1101)。渋滞に巻き込まれたかを判定する処理は、実施例1のコンテキスト決定処理603にて記載した渋滞コンテキストを判定する処理と同等のものである。
車載端末20は、もしも、渋滞を検知した場合は(ステップ1101でYes)、渋滞の終了地点に至ったかどうかを監視する(ステップ1102)。
渋滞の終了地点に至った場合の車両の挙動は二通りある。一つ目は、渋滞を引き起こしている原因の地点を通過した場合である。これは、車速データを監視しておき、それまで低速走行していた状況から急激に通常の速度の安定走行に移行したことを検知することにより、判定が可能である。二つ目は、渋滞原因が駐車待ちによるものであり、駐車スペースに停車した場合である。これは、車両のシフトレバー等の状態データを参照することにより、判定が可能である。
車載端末20は、以上の方法により、渋滞の終了地点に至ったことを検知した場合は(ステップ1102でYes)、渋滞原因質問処理に進む(ステップ1103)。この処理では、車載端末20が、音声入出力部232を用いて、運転者や同乗者に対して、例えば「渋滞の原因は何でしたか?」などの質問文にて、渋滞の原因を音声で問い合わせる。そして、運転者や同乗者の音声による回答を、音声入出力部232経由で、音声データとして取得する。もしも、有効な音声データが取得できた場合は(ステップ1104でYes)、音声データ送信処理505と同様な方法で音声データを渋滞情報配信サーバ10に送信し、ステップ1101に戻る。一方、有効な音声データが取得できなかった場合は、所定回数リトライした後に、ステップ1101に戻る。
以上のように、本実施形態によれば、渋滞原因を直接運転者や同乗者に問い合わせるため、取得できる渋滞原因の精度がさらに高くなる。また、実施例1が無意識のうちに発せられる発声を対象に受動的に知識を抽出しているのに対して、実施例2では能動的に運転者や同乗者の知識を抽出するため、車両当たりの情報の収集確率を高めることができる。
また、問い合わせるタイミングを、渋滞を通過した後にすることにより、能動的な問合せに対するストレスを軽減することができることに加え、運転者や同乗者が渋滞原因を知った直後である可能性が高いことから、問い合わせに対して回答してもらえる確率を高めることができる。
1:渋滞情報配信システム、2:車両、3:ネットワーク、10:渋滞情報配信サーバ、20:車載端末、100:渋滞情報配信サーバ10の処理部、101:データ受信部、102:コンテキスト判定部、103:音声データ解析部、104:渋滞原因決定部、105:渋滞原因位置決定部、106:渋滞情報生成部、107:渋滞情報配信部、110:渋滞情報配信サーバ10の記憶部、111:渋滞情報データ、112:渋滞原因集計データ、113:渋滞原因キーワードデータ、120:渋滞情報配信サーバ10の通信部、200:車載端末20の処理部、201:音声データ取得部、202:音声データ解析部、203:コンテキスト決定部、204:特徴的音声判定部、205:車両状態データ取得部、206:データ送信部、207:渋滞情報受信部、208:渋滞情報通知部、210:車載端末20の記憶部、211:車両状態データ、212:音声データ、213:音声処理パラメータデータ、220:車載端末20の通信部、230:車載端末20の入出力部、231:画面入出力部、232:音声入出力部、233:車内LAN入出力部、251:ディスプレイ(DP)、252:スピーカ、253:マイク、254:車内LAN。

Claims (13)

  1. 車両外にあるサーバ装置と接続するための通信部と、を備える車載端末であって、
    前記車両内で発せられた音声から音声データを取得する音声データ取得部と、
    前記発声の時点付近の、前記車両の状態に関する車両状態データを取得する車両状態データ取得部と、
    取得された前記車両状態データを用いて、前記音声が発せられたコンテキストを決定するコンテキスト決定部と、
    取得された前記音声データを用いて、前記音声データの取得元である音声が、前記コンテキスト決定部により決定されたコンテキストにおける、特徴的な音声であるかを判定する特徴的音声判定部と、
    特徴的と判定された音声から取得された前記音声データを含むメッセージを、前記サーバ装置に送信するデータ送信部と、を備える
    ことを特徴とする車載端末。
  2. 請求項1に記載の車載端末において、
    前記メッセージは、さらに一つ以上の前記車両状態データセットを含み、
    前記車両状態データセットは、時刻情報、前記時刻情報に関する前記車両の位置情報、前記時刻情報に関する前記車両の速度情報、を少なくとも一つ以上含む、
    ことを特徴とする車載端末。
  3. 請求項1または請求項2に記載の車載端末において、
    前記メッセージは、さらに前記コンテキスト決定部により決定されたコンテキストの情報を含む
    ことを特徴とする車載端末。
  4. 請求項1から3のいずれか一項に記載の車載端末において、
    コンテキスト決定部は、前記音声データが取得された際に前記車両が渋滞と関係していたかどうかを判定する
    ことを特徴とする車載端末。
  5. 請求項1から4のいずれか一項に記載の車載端末において、
    前記特徴的音声判定部は、
    前記音声データを解析することにより前記音声に含まれる感情タイプを認識し、
    前記認識した感情タイプと、あらかじめ定めた、前記コンテキストが対象とする感情タイプとが、合致するかにより、特徴的音声であるかを判定する
    ことを特徴とする車載端末。
  6. 請求項1から4のいずれか一項に記載の車載端末において、
    前記特徴的音声判定部は、
    前記音声の発声者を識別し、
    特定された発声者が発した音声データから、前記発声者の音声の統計的な特徴量パラメータを抽出し、
    抽出した前記統計的な特徴量パラメータと前記音声データの特徴量パラメータとを比較し、
    両者に変化があるかどうかを判定することにより、特徴的な音声データであるかを判定する
    ことを特徴とする車載端末。
  7. 請求項6に記載の車載端末において、
    前記特徴量パラメータは、音声のトーン、音量、発声の間隔の任意の一つ以上を含む
    ことを特徴とする車載端末。
  8. 請求項1から4のいずれか一項に記載の車載端末において、
    さらに、前記コンテキスト毎に、関連する特徴的なキーワードを一つ以上含む音声処理パラメータデータ群を備え、
    前記特徴的音声判定部は、
    前記音声データを、音声認識により文字データに変換してキーワードに分解し、
    前記キーワードが、前記音声処理パラメータデータに含まれているかどうかにより、特徴的音声であるかを判定する
    ことを特徴とする車載端末。
  9. 請求項1から8のいずれか一に記載の車載端末において、さらに、
    車両内ネットワークと接続するための車内ネットワーク入出力部を備え、
    前記車両状態データ取得部は、前記車両状態データの少なくとも一種類を、前記社内ネットワーク入出力部を介して、前記車両から取得する
    ことを特徴とする車載端末。
  10. 車両に接続された車載端末と通信するサーバにおいて、
    前記車載端末から、音声データと車両状態データとを含むメッセージを受信するデータ受信部と、
    前記メッセージに含まれる前記車両状態データに基づいて、前記車両が渋滞の中に位置しているかどうかを判定するコンテキスト判定部と、
    前記コンテキスト判定部において前記車両が渋滞の中に位置していると判定された場合に、同一の前記メッセージに含まれる音声データに基づいて渋滞原因を決定する渋滞原因決定部と、
    決定された前記渋滞原因を、当該渋滞に関連する車両へ配信する渋滞情報配信部と、
    を備えることを特徴とするサーバ。
  11. 請求項10に記載のサーバにおいて、
    前記渋滞原因決定部は、
    前記音声データを音声認識処理して対応する文字データに変換し、
    前記文字データに含まれる、渋滞原因となり得るキーワードをカウントし、
    前記カウンタ値が予め定められた数よりも大きくなった場合に、前記キーワードが当該渋滞の渋滞原因であると決定する
    ことを特徴とするサーバ。
  12. 請求項10に記載のサーバにおいて、
    前記コンテキスト判定部は、さらに、
    生成された渋滞情報を取得し、
    前記車両状態データの位置情報及び取得した前記渋滞情報に基づき、当該渋滞における前記車両の位置を判定し、
    前記渋滞原因決定部は、前記車両が当該渋滞の終点付近に位置すると判定された場合に、前記渋滞原因を決定する
    ことを特徴とするサーバ。
  13. 請求項12に記載のサーバにおいて、
    取得した前記渋滞情報は、渋滞している道路を示す道路リンクのリストを含み、
    前記サーバは、
    前記渋滞している道路を示す道路リンクの終点において、一つも前記渋滞している道路を示す道路リンクの始点となっていない終点が存在する場合に、当該終点を渋滞原因位置と決定する渋滞原因位置決定部を備える
    ことを特徴とするサーバ。
JP2012278817A 2012-12-21 2012-12-21 渋滞情報配信システム、サーバ、車載端末、及びプログラム Pending JP2014123239A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012278817A JP2014123239A (ja) 2012-12-21 2012-12-21 渋滞情報配信システム、サーバ、車載端末、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012278817A JP2014123239A (ja) 2012-12-21 2012-12-21 渋滞情報配信システム、サーバ、車載端末、及びプログラム

Publications (1)

Publication Number Publication Date
JP2014123239A true JP2014123239A (ja) 2014-07-03

Family

ID=51403671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012278817A Pending JP2014123239A (ja) 2012-12-21 2012-12-21 渋滞情報配信システム、サーバ、車載端末、及びプログラム

Country Status (1)

Country Link
JP (1) JP2014123239A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017142588A (ja) * 2016-02-09 2017-08-17 本田技研工業株式会社 渋滞箇所情報提供のための装置、方法、及びプログラム
JP2018073101A (ja) * 2016-10-28 2018-05-10 株式会社東芝 道路異状対応支援装置、道路異状対応支援方法、およびプログラム
KR101925794B1 (ko) * 2017-06-07 2018-12-06 국민대학교산학협력단 이동수단용 카메라의 영상 태깅 장치 및 방법
JP2019008113A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
CN109935077A (zh) * 2017-12-15 2019-06-25 百度(美国)有限责任公司 用于为自动驾驶车辆构建车辆与云端实时交通地图的系统
JP2020126125A (ja) * 2019-02-04 2020-08-20 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置
JP2021018718A (ja) * 2019-07-23 2021-02-15 矢崎エナジーシステム株式会社 車載器、車両用情報配信装置、車両用情報配信方法及び車両用情報配信システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000221049A (ja) * 1999-01-29 2000-08-11 Equos Research Co Ltd 車両状況把握装置、エージェント装置、および、車両制御装置
JP2003123185A (ja) * 2001-10-11 2003-04-25 Hitachi Ltd 危険情報集配信装置、警報発生装置、車両危険情報送信装置および経路探索装置
JP2003214877A (ja) * 2001-10-23 2003-07-30 Hitachi Ltd 経路交通情報サービス及び端末装置
JP2005283647A (ja) * 2004-03-26 2005-10-13 Matsushita Electric Ind Co Ltd 感情認識装置
JP2008157885A (ja) * 2006-12-26 2008-07-10 Pioneer Electronic Corp 情報案内装置、ナビゲーション装置、情報案内方法、ナビゲーション方法、情報案内プログラム、ナビゲーションプログラム、および記録媒体
JP2009075981A (ja) * 2007-09-21 2009-04-09 Toyota Infotechnology Center Co Ltd 交通情報提供システム、センタ側コンピュータ用プログラム、検索プログラム、記録媒体、交通情報提供方法
JP2009181454A (ja) * 2008-01-31 2009-08-13 Sumitomo Electric Ind Ltd 交通情報処理装置、コンピュータプログラム及び交通情報処理方法
JP2012014472A (ja) * 2010-06-30 2012-01-19 Sumitomo Electric Ind Ltd 交通情報処理装置、交通情報処理システム、プログラム、及び交通情報処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000221049A (ja) * 1999-01-29 2000-08-11 Equos Research Co Ltd 車両状況把握装置、エージェント装置、および、車両制御装置
JP2003123185A (ja) * 2001-10-11 2003-04-25 Hitachi Ltd 危険情報集配信装置、警報発生装置、車両危険情報送信装置および経路探索装置
JP2003214877A (ja) * 2001-10-23 2003-07-30 Hitachi Ltd 経路交通情報サービス及び端末装置
JP2005283647A (ja) * 2004-03-26 2005-10-13 Matsushita Electric Ind Co Ltd 感情認識装置
JP2008157885A (ja) * 2006-12-26 2008-07-10 Pioneer Electronic Corp 情報案内装置、ナビゲーション装置、情報案内方法、ナビゲーション方法、情報案内プログラム、ナビゲーションプログラム、および記録媒体
JP2009075981A (ja) * 2007-09-21 2009-04-09 Toyota Infotechnology Center Co Ltd 交通情報提供システム、センタ側コンピュータ用プログラム、検索プログラム、記録媒体、交通情報提供方法
JP2009181454A (ja) * 2008-01-31 2009-08-13 Sumitomo Electric Ind Ltd 交通情報処理装置、コンピュータプログラム及び交通情報処理方法
JP2012014472A (ja) * 2010-06-30 2012-01-19 Sumitomo Electric Ind Ltd 交通情報処理装置、交通情報処理システム、プログラム、及び交通情報処理方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017142588A (ja) * 2016-02-09 2017-08-17 本田技研工業株式会社 渋滞箇所情報提供のための装置、方法、及びプログラム
JP2018073101A (ja) * 2016-10-28 2018-05-10 株式会社東芝 道路異状対応支援装置、道路異状対応支援方法、およびプログラム
KR101925794B1 (ko) * 2017-06-07 2018-12-06 국민대학교산학협력단 이동수단용 카메라의 영상 태깅 장치 및 방법
JP2019008113A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
JP7073640B2 (ja) 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
US11269352B2 (en) 2017-12-15 2022-03-08 Baidu Usa Llc System for building a vehicle-to-cloud real-time traffic map for autonomous driving vehicles (ADVS)
JP7030044B2 (ja) 2017-12-15 2022-03-04 バイドゥ ユーエスエイ エルエルシー 自律走行車(adv)に対して車両とクラウド間のリアルタイム交通地図を構築するためのシステム
JP2019145077A (ja) * 2017-12-15 2019-08-29 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自律走行車(adv)に対して車両とクラウド間のリアルタイム交通地図を構築するためのシステム
CN109935077A (zh) * 2017-12-15 2019-06-25 百度(美国)有限责任公司 用于为自动驾驶车辆构建车辆与云端实时交通地图的系统
JP2020126125A (ja) * 2019-02-04 2020-08-20 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置
JP7230545B2 (ja) 2019-02-04 2023-03-01 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置
JP2021018718A (ja) * 2019-07-23 2021-02-15 矢崎エナジーシステム株式会社 車載器、車両用情報配信装置、車両用情報配信方法及び車両用情報配信システム
JP7260432B2 (ja) 2019-07-23 2023-04-18 矢崎エナジーシステム株式会社 車載器、車両用情報配信装置、車両用情報配信方法及び車両用情報配信システム
JP7260432B6 (ja) 2019-07-23 2023-05-10 矢崎エナジーシステム株式会社 車載器、車両用情報配信装置、車両用情報配信方法及び車両用情報配信システム

Similar Documents

Publication Publication Date Title
JP2014123239A (ja) 渋滞情報配信システム、サーバ、車載端末、及びプログラム
US20220180734A1 (en) Traffic portal enquiry and alert system
US11664043B2 (en) Real-time verbal harassment detection system
US9449507B2 (en) Traffic profiling and road conditions-based trip time computing system with localized and cooperative assessment
CN104781865B (zh) 用于借助于至少一辆机动车提供行驶路段信息的方法
KR101144388B1 (ko) 교통정보 제공 시스템 및 단말기, 이를 이용한 교통정보 제공 방법
US20190120649A1 (en) Dialogue system, vehicle including the dialogue system, and accident information processing method
US6587780B2 (en) System and method for disseminating traffic information
US10885897B2 (en) Information providing device and information providing system
US20130116919A1 (en) Navigation system, navigation apparatus, method and server
WO2009128398A1 (ja) 移動体警告装置、移動体警告方法および移動体警告プログラム
US11727451B2 (en) Implementing and optimizing safety interventions
US20210104155A1 (en) Method, apparatus, and system for detecting lane-level slowdown events
WO2009104662A1 (ja) 車載器、路側装置、制御方法及びプログラム
US20130131893A1 (en) Vehicle-use information collection system
US11308175B2 (en) Method and apparatus for enhancing a geolocation database
US9230434B2 (en) Road traffic information server and road traffic information system
CN111010668A (zh) 基于车载终端位置的信息分享方法、终端设备、及服务器
WO2023173657A1 (zh) 智能交互的方法、装置、设备以及存储介质
JP2012059005A (ja) 情報提供システム、中継装置および端末装置
KR20190011458A (ko) 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법
JP5960994B2 (ja) 情報配信システム及び情報配信サーバ
CN113438624A (zh) 一种车辆救援方法及其装置
KR101608911B1 (ko) 버스정보안내단말기에 구비되는 비콘 기반 안내 시스템
JP2004226070A (ja) 車両用情報取得装置および路車間通信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160301