JP6944793B2 - 運転支援システムおよび運転支援方法並びに運転支援プログラム - Google Patents

運転支援システムおよび運転支援方法並びに運転支援プログラム Download PDF

Info

Publication number
JP6944793B2
JP6944793B2 JP2017039092A JP2017039092A JP6944793B2 JP 6944793 B2 JP6944793 B2 JP 6944793B2 JP 2017039092 A JP2017039092 A JP 2017039092A JP 2017039092 A JP2017039092 A JP 2017039092A JP 6944793 B2 JP6944793 B2 JP 6944793B2
Authority
JP
Japan
Prior art keywords
information
voice recognition
character string
motion
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017039092A
Other languages
English (en)
Other versions
JP2018144534A (ja
Inventor
成人 阿彦
成人 阿彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2017039092A priority Critical patent/JP6944793B2/ja
Publication of JP2018144534A publication Critical patent/JP2018144534A/ja
Application granted granted Critical
Publication of JP6944793B2 publication Critical patent/JP6944793B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/16Information or communication technologies improving the operation of electric vehicles

Landscapes

  • Electric Propulsion And Braking For Vehicles (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、運転支援システムおよび運転支援方法並びに運転支援プログラムに関する。
更に詳しくは、例えば、運転操作の安全性判定機能を有するサーバ(コンピュータ)を備え、鉄道の運転士やバスの運転手(以下、総称して運転者と称する)の声、および/または周囲の音や鉄道やバスの設備の異常音などを認識して音声認識情報を出力する音声認識機能、運転者の身振り手振りなどの仕草・動作(ジェスチャ)を認識、解析してモーションパターン解析結果情報を出力するモーションジェスチャ機能、そのときの操作対象機器の状態を示す情報を含む各情報の組合せを利用し、運転者の運転操作内容、つまり、安全運転操作をしているか否か(非安全運転操作)を判定し、その結果を示す情報を出力し、当該結果を示す情報により、例えば、運転者の運転操作ミスを減少、改善し、運転操作の正確性を向上させ、安全運転を支援するシステム、方法、プログラムに関する。
車両の安全運転を支援する技術として、例えば、特開2014−92804号公報(特許文献1)に記載の技術がある。この公報には、「判定期間における車両での運転操作が理想的であるか否かを判定するための判定情報を取得し、前記判定情報に基づいて、前記判定期間中の案内タイミングにおける前記車両の運転操作が理想的であるか否かを判定し、前記案内タイミングにおける前記車両の運転操作が理想的である場合、前記案内タイミングにおいて運転操作が理想的であることを示す案内を行う」という記載がある(要約書参照)。
特開2014−92804号公報
上記従来技術は、例えば、車速の理想的な加速曲線と実速度を対比し、その結果をもって、操作者へ車速に対する運転操作の注意を促す運転支援システムである。係る技術によれば、「運転操作を継続的に理想的な状態とするための指針を提供する」ことが可能である。しかし、鉄道やバスなどの車両を運転する際に操作する操作対象機器などを含む機械の操作には直接に関わりない運転者の声や仕草・動きまで判断して、運転操作の安全性に対する注意を促すことまでは考慮されていない。故に、運転操作者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかなどの確認をすることまではできなかった。
そこで、本発明では、機械の操作には直接に関わりない運転者の掛け声や運転者の仕草・動きなども安全運転の支援に役立つことに着目し、運転者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかの確認を可能とし、よりきめ細かな安全運転支援を可能とすることを目的とする。
上記課題を解決するために、本発明は、例えば、運転者の声を含む音声情報や身振り手振りなどの仕草・動作(ジェスチャ)のモーションを含む映像情報、操作対象機器の状態を示す情報、の各情報を収集・認識・解析し、その結果と予め安全性判定用情報として、データベースなどの記録手段に登録(蓄積)された運転者の音声認識情報、モーションパターン解析結果情報、操作対象機器の状態を示す情報と比較し、当該情報の比較結果から運転者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかの安全性確認、判定し、その結果を示す情報を出力する機能を有する手段を備えたものである。
本発明の代表的な運転支援システム、方法、プログラムの一つは、
移動体の運転席側にある通信端末から運転操作対象機器の機器状態を示す情報および当該運転操作対象機器の運転者の音声情報、映像情報を、ネットワークを介して受信するサーバを備えた運転支援システムであって、
前記音声情報、前記映像情報、前記操作対象機器の状態を示す情報を取得する情報取得手段と、
前記情報取得手段にて取得した音声情報を認識し、音声認識情報を出力する音声認識手段と、
前記情報取得手段にて取得した映像情報を解析し、運転者のモーション解析結果情報を出力するモーション解析手段と、
予め比較用情報として、音声認識情報、モーションパターン解析結果情報、対象機器の状態を示す情報、判定結果を示す情報、を登録する記憶手段と、
前記音声認識手段の音声認識情報、前記モーション解析手段のモーションパターン解析結果情報、前記データ取得手段の操作対象機器の状態を示す情報を利用して、前記操作対象機器を操作する利用者の操作が安全か否かの安全性を判定し、当該判定の結果を示す情報を出力する安全性判定処理手段と、
を備え、
前記安全性判定処理手段は、
前記データ取得手段における操作対象機器の状態を示す情報と前記音声認識手段における音声認識情報、前記モーション解析手段におけるモーションパターン解析結果情報を入力情報とし、当該入力情報を前記記憶手段に予め比較用情報として登録された操作対象機器の状態を示す情報、音声認識情報、モーションパターン解析結果情報と比較し、
当該比較の比較結果から、前記記憶手段における操作対象機器の状態を示す情報、音声認識情報、前記モーションパターン解析結果情報に対応して登録された判定結果を示す情報を出力する
ことを特徴とする。
本発明によれば、運転者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかの確認が可能であり、より良い安全運転支援を可能となる。
例えば、以下に記載するような効果を期待することができる。
(1)鉄道の運転士やバスの運転手の声と動きが連動した操作内容まで判定し、安全性を判断すること、
(2)声だけ、身振り手振りだけというような基本動作の欠如により安全性が低下している状態を検知すること
などをもって、安全か非安全(発声不足、発声不明瞭、指差し認識不足、指差し過剰など)、を含むきめ細かな結果を安全運転に反映することができる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
図1は本発明における運転支援システムの全体構成図である。 図2は本発明における音声認識処理のフローチャートである。 図3は本発明におけるモーション解析ソフトのフローチャートである。 図4は本発明における安全性判定処理のフローチャートである。 図5は本発明における運転支援システムの実施形態例である。 図6は図5におけるデータベースのデータ構成例を示す図である。
以下、図面を参照しながら、本発明を実施するための形態を詳細に説明する。
図1は、本発明における運転支援システムの全体構成図である。
運転支援システムは、例えば、鉄道やバスなどの移動体の運転席に設置された音声集音器M1を含み、運転者U1(利用者)の声を集音し、音声情報を出力する機能を有する音声集音装置M、身振り手振り感知器C1を含み、運転者U1(利用者)の仕草や動きなどを感知し、運転者のモーション情報を出力する機能を有する身振り手振り感知装置C、運転操作時に操作対象となる操作対象機器A1、操作対象機器A1の機器状態を示す情報、例えば、現状が「出発時」か「走行時」を示す情報を取得する機能を有する機器状態情報取得部L1、通信機能を有する通信端末T1、安全性判定機能を有する安全性判定サーバS1、ネットワークN1、を有する。
音声集音装置Mの音声集音器M1は、例えば、鉄道の運転士やバスの運転手、同乗者(含指導者、添乗者など)が発する声(掛け声)を集音する機能を有する少なくとも1台以上のマイクなどからなる。本例では、運転士、運転手や同乗者の声のみを衆本するものであるが、声以外、例えば、パンタグラフ、線路、車両などの鉄道設備の異常音などを検出するものであっても良い。
感知装置の身振り手振り感知器C1は、例えば、運転者を撮影する1台以上のモーションセンサやビデオカメラ(以下、カメラと称する)、当該カメラにて撮影した映像(含画像)情報により、運転者の仕草・動き(直感的動作など)、例えば、口の動きや目の視線、身振り手振りなどの動作(ジェスチャ)を感知する機能を有する仕草感知部などからなる。
仕草感知部は、感知した仕草を分析する仕草分析機能を有し、例えば、既存のポスチャ・ジェスチャ認識機能や顔認識機能を有した技術により構成される。ポスチャ・ジェスチャ認識技術や顔認識機能を有した技術は既に公知である。例えば、人の仕草・動線の認識技術については特開2004−303014号公報に記載されており、その詳細説明は省略する。ポスチャ・ジェスチャ認識技術手段を利用すれば、複数の人を識別し、複数の仕草を分析できる。
操作対象機器A1は、操作者が操作する対象機器を含む機械である。例えば、運転操作に直接関係するハンドル、ブレーキや運転操作に直接関係しないが、必要とされる例えば、制御機器や計測器などである。
機器状態情報取得部L1は、操作対象機器A1に接続、または埋め込まれ、操作対象機器A1の状態を電気信号に変換(文字化)し、通信端末T1に送信する機能を有する。
操作対象機器A1の機器状態とは、例えば、操作対象機器が走行中(走行時)、停止中(出発時)、閉塞進行、中継進行、などを示す情報であり、鉄道の主管制御機器の操作状態、バスのハンドルの状態などを示す情報(データ)である。
なお、機器状態情報取得部L1と通信端末T1の間は有線接続または無線接続のどちらでも良い。また、本例では、通信端末T1から独立した機器として記載しているが、機器状態情報取得部L1は、操作対象機器A1の状態が取得できるのであれば、通信端末T1の内部に実装されていても良い。
通信端末T1は、音声集音器M1、身振り手振り感知器C1の仕草感知部、機器状態情報取得部L1の各部にて収集、感知、取得した各情報(データ)を受け、ネットワークN1を介して安全性判定サーバS1に送信し、また、安全性判定サーバS1側から送信される安全性の判定結果を示す情報、例えば、「発声不足」、「発声不明瞭」、「安全」、「指差し確認不足」、「指差し過剰」、「なし」などを示す文字列の情報を受信し、当該情報を表示部に表示する機能を有する。
安全性判定サーバS1は、例えば、コンピュータからなり、通信端末T1から送信された音声情報(音声データ)、仕草感知情報(映像データ)、対象機器の機器状態を示す情報(出発時/走行時)などの各情報(データ)を受信し、また、判定結果を示す情報を送信する機能を有する通信部を含む通信装置TR、音声認識ソフトウェアを格納した音声認識ソフトウェア部P1、モーション解析ソフトウェアを格納したモーション解析ソフトウェア部P2、安全性の判定する機能を有する安全性判定処理部P3、を含む演算装置P、予め比較用として使用される、各情報を登録するデータベース(DB)D1、含む記憶装置Dを有する。
通信装置TR、演算装置P(音声認識ソフトウェア部P1、モーション解析ソフトウェア部P2、安全性判定処理部P3)、記憶装置Dはコンピュータシステムを構成する。
データベースD1に登録される各情報とは、安全性判定処理部P3にて、安全性の判定する際に利用される比較用の音声認識情報(例えば、音声認識文字列や音素)、モーションパターン解析結果情報(例えば、モーションパターン列/モーション解析結果文字列)、対象機器の機器状態(出発時/走行時)を示す情報(データ)である。また、各情報の組合せから如何なる判定結果であるかを示す情報(例えば、安全、発声不足、など)である(図6参照)。
音声認識ソフトウェア部P1の音声認識ソフトウェアは、通信端末T1からネットワークN1を介して送信された音声データを入力値として音声認識し、そのときの音声を音声認識結果である音声認識情報として出力する。
例えば、認識した音声データを文字変換(文字化)し、音声認識文字列を生成し、音声認識文字列(音声認識情報)を音声認識結果として出力する。この音声認識結果の音声認識文字列は、安全性判定処理部P3へ入力する値とする。音声認識ソフトウェアによる処理手順は後述する。
モーション解析ソフトウェア部P2のモーション解析ソフトウェアは、通信端末T1からネットワークN1を介して送信された映像データを入力値としてモーション解析し、そのときのモーションをモーション解析結果であるモーションパターン解析結果情報として出力する。
例えば、運転者の仕草や動きを分析し、これを文字情報として変換(文字化)し、モーションパターン解析結果文字列を生成し、モーション解析結果文字列をモーション解析結果として出力する。このモーション解析結果のモーションパターン解析結果文字列は、安全性判定処理部P3へ入力する値とする。モーション解析ソフトウェアによる処理手順は後述する。
安全性判定処理部P3は、音声認識ソフトウェアにおける音声認識結果(例えば、音声認識文字列)、モーション解析ソフトウェアにおけるモーションパターン解析結果(例えば、モーション解析結果文字列)、および通信端末T1からネットワークN1を介して送信された操作対象機器A1の機器状態(例えば、文字列)、を入力値(入力情報)とし、データベースD1を検索し、当該データベースに登録された各情報と比較し、その比較結果をもって、運転者による運転操作の安全性の適否、例えば、「安全、非安全(発声不足、発声不明瞭、指差し確認不足、指差し過剰)」、などを判定し、その判定結果を示す情報(例えば、文字列)を出力する動作を行う。
すなわち、安全性判定処理部P3は、音声認識ソフトウェア部P1やモーション解析ソフトウェア部P2、などの結果を、予め記憶装置DのデータベースD1に登録した音声認識文字列、モーションパターン解析結果文字列、操作対象機器の状態を示す文字列と比較し、当該比較した結果、データベースD1に合致する文字列があれば、当該文字列に対応して登録された判定結果の文字列を抽出する機能を有する。
安全性判定処理は、演算装置Pの内部に格納されたプログラムに従って行う。安全性判定結果は、通信装置を介して通信端末T1に送信し、運転者側に通知(通報)する。安全性の判定結果は、必要なときに読出し、確認できるように記憶装置Dに登録しても良い。安全性判定処理部P3における処理手順は後述する。
記憶装置DのデータベースD1は、例えば、前記音声認識手段における音声認識結果(音声認識文字)と比較するための音声認識文字列、前記モーション解析手段におけるモーション解析結果(モーションパターン解析結果文字列)と比較するためのモーションパターン解析結果文字列、当該音声認識文字列およびモーションパターン解析結果文字列に対応する判定結果の文字列、を時系列に登録した一連のデータ(図6参照)が格納されている。そして、安全性判定処理部P3にて判定処理されるとき、安全性判定処理部P3からの要求に応じて検索され、また、その結果を出力する。例えば、音声認識文字列が「なし」で、モーション文字列が「右前腕:胴体側、右上腕:水平」で、機器の状態が「出発時」の場合は、その判定結果として、「発声不足」の結果を出力する。
図2は音声認識ソフトウェア(P1)のフローチャートである。図2のフローチャートに基づく動作は以下のとおりである。
まず、ステップS201にて、通信端末T1からネットワークN1を介して送信された音声データを入力値として取得する。
次に、ステップS201による音声認識処理により取得した音声データをステップS202にて音声認識処理する。
ステップS203にて、音声出力処理し、その音声認識結果として音声認識情報(音声認識文字列)を安全性判定処理部P3へ入力する出力値として出力する。
ステップS201〜S203の一連の処理が終わった後、ステップS204にて、後続の音声データの入力があるか判定する。
ここで、後続の音声データの入力がある場合(YES)、ステップS201の音声データを取得する処理に戻る。
後続の音声データの入力がない場合(NO)、音声認識ソフトウェア(P1)の処理を終了する。
音声認識ソフトウェア(P1)の処理内容は一般的に存在する音声認識システムの仕組みを使用して構わない。
図3はモーション解析ソフトウェア(P2)のフローチャートである。図3のフローチャートに基づく動作は以下のとおりである。
まず、ステップS301にて、通信端末T1からネットワークN1を介して送信された映像データを入力値として取得する。
次に、ステップS301のモーション解析処理により取得した映像データをステップS302にてモーション解析処理する。
ステップS303にて、モーション出力処理し、その結果をモーションパターン解析結果(モーションパターン解析結果文字列)として、安全性判定処理部(P3)へ入力する出力値として出力する。
ステップS301〜S303の一連の処理が終わった後、ステップS304にて、後続の映像データの入力があるか判定する。
ここで、後続の映像データの入力がある場合(YES)、ステップS301の映像データ取得処理に戻る。
後続の映像データの入力がない場合(NO)、モーション解析ソフトウェア(P2)の処理を終了する。
モーション解析ソフトウェア(P2)の処理内容は一般的に存在するモーション解析システムの仕組みを使用して構わない。
図4は安全性判定処理部(P3)のフローチャートである。図4のフローチャートに基づく動作は以下のとおりである。
まず、ステップS401にて、音声認識ソフトウェア(P1)からの音声認識結果である音声認識情報(音声認識文字列)を入力値として取得する。
次に、ステップS402にて、モーション解析ソフトウェア(P2)からモーションパターン解析結果であるモーションパターン解析結果情報(モーションパターン解析結果文字列)を入力値として取得する。
その後、ステップS403にて、通信端末T1からネットワークN1を介して送信された操作対象機器A1の機器状態(出発時または走行時)を示す情報を入力値として取得する。
各入力値が揃ったら、ステップS404にて、音声認識結果、モーションパターン解析結果、操作対象機器A1の機器状態、を示す情報を引数にデータベースD1のテーブル60に予め登録した比較用の登録情報と照合/比較する。
次に、ステップS405にて、データベースD1から照合/比較に対応する判定結果を取得し、当該判定結果を示す情報(発声不足、発声不明瞭、安全、指差し認識不足、指差し認識過剰、の何れか)を出力する。この安全性の判定結果は、通信装置TRを介して通信端末T1へ送信される。これにより、運転者側では、運転操作の安全性についての注意点を知ることができる。
ステップS401〜S405の一連の処理が終わった後、ステップS406にて、後続の判定処理があるか判定する。
ここで、後続の判定処理がある場合(YES)、ステップS401の音声認識結果取得処理に戻る。後続の判定処理がない場合(NO)、安全性判定処理部(P3)の処理を終了する。
図5は本発明における実施形態の一例を説明する図である。
図5では、操作対象機器A1の機器状態を示す情報が「出発時」と仮定して、入力501の値として運転者(U1〜U4)による4パターンの発声内容(「出発進行」、「発声なし」、「出発進行」、「あいうえお」)と、そのときの音声認識処理502、モーション解析処理503、安全性判定処理504、の例を示している。
音声認識ソフトウェア(P1)で処理した音声認識文字列は、
例えば、図5のように、
「出発進行」を認識、「認識音声なし」、「出発進行」を認識、「あいうえお」を認識、を示している。
モーション解析ソフトウェア(P2)で処理したモーションパターン解析結果文字列は、例えば、図5に示すように、
モーションパターン1の『右前腕:胴体側、右上腕:水平』からモーションパターン2の『右前腕:水平、右上腕:水平』に変化し、
モーションパターン1の『右前腕:胴体側、右上腕:水平』からモーションパターン2の『右前腕:水平、右上腕:水平』に変化し、
モーションパターン1の『右前腕:水平、右上腕:水平』からモーションパターン2の『右前腕:水平、右上腕:水平』に変化し、
モーションパターン1の『右前腕:胴体側、右上腕:水平』からモーションパターン2の『右前腕:水平、右上腕:水平』に変化したことを示している。
安全性判定処理部P3で処理した安全性判定結果の文字列は、
例えば、図5に示すように、
音声認識処理およびモーション解析処理に対応する「安全」、「発声不足」、「指差し確認不足」、「発声不明瞭」などを示している。
すなわち、図5における入力501に対する安全性判定サーバS1の各処理は、以下のとおりであることを示している。
入力501が「出発進行」(1パターン目)の場合における
音声認識ソフトウェア部P1は、音声データの音声データ(出発進行)を受け、その音声データが「出発進行」であるとして認識し、その結果を「出発進行」の文字列として出力し、
モーション解析ソフトウェア部P2は、運転者の映像データを受け、運転者が「右前腕:胴体側、右上腕:水平」のモーションパターン1から「右前腕:水平、右上腕:水平」のモーションパターン2に移動(変化)したことを認識し、その結果を図示の如く文字列として出力し、
安全性判定処理部P3は、音声認識ソフトウェア部P1およびモーション解析ソフトウェア部P2における各処理結果を受け、運転者による操作が安全であるか否かを判定し、その結果として「安全」である旨の文字列として出力する。
入力501が「発声なし」(2パターン目)の場合における
音声認識ソフトウェア部P1は、音声データの音声データ(発声なし)を受け、その音声データが「音声なし」であるとして認識し、その結果を「認識音声なし」の文字列として出力し、
モーション解析ソフトウェア部P2は、運転者の映像データを受け、運転者が「右前腕:胴体側、右上腕:水平」のモーションパターン1から「右前腕:水平、右上腕:水平」のモーションパターン2に移動(変化)したことを認識し、その結果を図示の如く文字列として出力し、
安全性判定処理部P3は、音声認識ソフトウェア部P1およびモーション解析ソフトウェア部P2における各処理結果を受け、運転者による操作が安全であるか否かを判定し、その結果として「発声不足」である旨の文字列として出力する。
入力501が「出発進行」(3パターン目)の場合における
音声認識ソフトウェア部P1は、音声データの音声データ(出発進行)を受け、その音声データが「出発進行」であるとして認識し、その結果を「出発進行」の文字列として出力し、
モーション解析ソフトウェア部P2は、運転者の映像データを受け、運転者が「右前腕:水平、右上腕:水平」のモーションパターン1から「右前腕:水平、右上腕:水平」のモーションパターン2に移動、つまりモーションパターンに変化がないことを認識し、その結果を図示の如く文字列として出力し、
安全性判定処理部P3は、音声認識ソフトウェア部P1およびモーション解析ソフトウェア部P2における各処理結果を受け、運転者による操作が安全であるか否かを判定し、その結果として「指差し認識不足」である旨の文字列として出力する。
入力501が「あいうえお」(4パターン目)の場合における
音声認識ソフトウェア部P1は、音声データの音声データ(あいうえお)を受け、その音声データが「あいうえお」であることを認識し、その結果を「あいうえお」の文字列として出力し、
モーション解析ソフトウェア部P2は、運転者の映像データを受け、運転者が「右前腕:胴体側、右上腕:水平」のモーションパターン1から「右前腕:水平、右上腕:水平」のモーションパターン2に移動したことを認識し、その結果を図示の如く文字列として出力し、
安全性判定処理部P3は、音声認識ソフトウェア部P1およびモーション解析ソフトウェア部P2における処理結果を受け、運転者による操作が安全であるか否かを判定し、その結果として「発声不明瞭」である旨の文字列として出力する。
図6は、図5におけるデータベースD1に登録された登録情報(データ)の構成例を示すテーブル60である。
図6では、音声認識ソフトウェア(P1)で処理した音声認識情報(音声認識文字列)と比較するための音声認識情報(音声認識文字列)601、モーション解析ソフトウェア(P2)で処理したモーションパターンを示すモーションパターン解析結果情報(モーションパターン解析結果文字列)と比較するためのモーションパターン解析結果情報(複数のモーションパターン1〜nのモーションパターン解析結果文字列)602、操作対象機器A1の機器状態の情報(文字列)と比較するための操作対象機器A1の状態を示す情報(文字列)603、判定結果を示す情報(文字列)604を格納するテーブル60の例を示している。
音声認識文字列601は、例えば、「なし」、「不明」、「出発進行」、「出発注意」、「出発警告」、「第一閉塞進行」、「中継進行」などの文字列であり、
モーションパターン1、2におけるモーションパターン解析結果文字列602は、例えば、「右前腕:胴体側、右上腕水平」、「右前腕:水平、右上腕水平」などの文字列であり、
操作対象機器の機器状態を示す文字列603は、例えば、「出発時」、「走行時」などの文字列であり、
判定結果を示す文字列604は、例えば、「発声不足」、「発声不明瞭」、「安全」、「指差し認識不足」、「なし」、「指差し過剰」などの文字列である。
なお、モーションパターン3〜nは、その後、モーションパターンに変化がないことを示している。
図6では、図5の実施形態を簡素に説明するための列構成となっている。
音声認識文字の列は1列であるが、モーションパターン列のそれぞれに対応する音声認識文字の列が含まれていても構わない。同様に、操作対象機器A1の機器状態列は1列であるが、モーションパターン列のそれぞれに属性の列が含まれていても構わない。
以上述べた実施例によれば、声と動きを連動した安全性の向上、声だけ、身振り手振りだけというような基本動作の欠如により安全性が低下している状態を検知することができる。
なお、本発明は上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現しても良い。また、上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。各機能を実現するプログラム、テーブル、情報(データ)は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、ICカード、SDカード、DVDなどの記録媒体に置くことができる。
U1〜U4・・・運転者/利用者(運転士、運転手、同乗者)
M・・・・音声集音装置(音声集音手段)
M1・・・音声集音器(マイク)
C・・・・身振り手振り感知装置(身振り手振り感知手段)
C1・・・身振り手振り感知器(モーションセンサ、カメラ)
A・・・・運転操作に関連する機械
A1・・・操作対象機器
L1・・・機器状態情報取得部
T1・・・通信端末
N1・・・ネットワーク
S1・・・安全性判定サーバ(コンピュータ)
P・・・・演算装置
P1・・・音声認識ソフトウェア部(音声認識手段)
P2・・・モーション解析ソフトウェア部(モーション解析手段)
P3・・・安全性判定処理部(安全性判定処理手段)
D・・・・記憶装置(記憶手段)
D1・・・データベース
TR・・・通信装置

Claims (5)

  1. 移動体の運転席側にある通信端末から運転操作対象機器の機器状態および当該運転操作対象機器の操作者を含む利用者に関する情報を、ネットワークを介して受信するサーバを備えた運転支援システムであって、
    前記サーバは、
    利用者の音声データ、仕草データ、操作対象機器の状態を示すデータを取得するデータ取得手段と、
    前記データ取得手段にて取得した利用者の音声データを認識し、音声認識情報を出力する音声認識手段と、
    前記データ取得手段にて取得した利用者のモーションを示す映像データを解析し、モーション情報を出力するモーション解析手段と、
    予め比較用情報として、音声認識情報、モーション解析情報、対象機器の状態を示す情報、判定結果を示す情報、を登録する記憶手段と、
    前記音声認識手段の音声認識情報、前記モーション解析手段のモーションパターン解析結果情報、前記データ取得手段の操作対象機器の状態を示す情報を利用して、前記操作対象機器を操作する利用者の操作が安全か否かの安全性を判定し、当該判定の結果を示す情報を出力する安全性判定処理手段と、
    を備え、
    前記安全性判定処理手段は、
    前記データ取得手段における操作対象機器の状態を示す情報と前記音声認識手段における音声認識情報、前記モーション解析手段におけるモーションパターン解析結果情報を入力値とし、当該入力値を前記記憶手段に予め比較用情報として登録された操作対象機器の状態を示す情報、音声認識情報、モーションパターン解析結果情報を比較し、
    当該比較の比較結果から、前記記憶手段における操作対象機器の状態を示す情報、音声認識情報、前記モーションパターン解析結果情報に対応する判定結果を示す情報を出力する
    ことを特徴とする運転支援システム。
  2. 請求項1に記載された運転支援システムにおいて、
    前記データ取得手段が前記通信端末から送信される、マイクの音声データ、カメラの仕草データ、操作対象機器の状態を示す機器状態文字列のデータを送受信する通信部であり、
    前記記憶手段が予め比較用情報として登録される機器状態文字列、音声認識文字列、モーションパターン解析結果文字列、判定結果を示す文字列を登録するデータベースであり、
    前記音声認識手段が音声認識ソフトウェアを含み、前記音声データを認識し、音声認識文字列を出力する音声認識ソフトウェア部であり、
    前記モーション解析手段がモーション解析ソフトウェアを含み、前記仕草データを解析し、モーションパターン解析結果文字列を出力するモーション解析ソフトウェア部であり、
    前記安全性判定処理手段が前記音声認識ソフトウェア部における音声認識文字列、前記モーション解析ソフトウェア部におけるモーションパターン解析結果文字列、前記通信部における機器状態を示す文字列、および前記データベースにおける音声認識文字列、モーションパターン解析結果文字列、機器状態を示す文字列、を元に前記操作対象機器を操作する利用者の操作が安全か否かの安全性を判定し、判定結果を文字列として出力する安全性判定処理部であり、
    前記判定結果を示す文字列は、安全、発声不足、発声不明瞭、指差し確認不足、指差し確認過剰、などを含み、前記通信部を介して前記通信端末へ送信される
    ことを特徴とする運転支援システム。
  3. 移動体の運転席側にある通信端末から運転操作対象機器の機器状態および当該運転操作対象機器の操作者を含む利用者に関する情報から、当該操作対象の機器の操作の安全性を判定するサーバを備えた運転支援システムにおける運転支援方法であって、
    前記サーバは、
    利用者の音声データ、仕草データ、操作対象機器の状態を示すデータを取得するデータ取得ステップと、
    前記データ取得ステップにて取得した利用者の音声データを認識し、音声認識情報を出力する音声認識ステップと、
    前記データ取得ステップにて取得した利用者のモーションを示す映像データを解析し、モーション情報を出力するモーション解析ステップと、
    予め比較用情報として、音声認識情報、モーション解析情報、対象機器の状態を示す情報、判定結果を示す情報、を登録するステップと、
    前記音声認識ステップの音声認識情報、前記モーション解析ステップのモーションパターン解析結果情報、前記データ取得ステップの操作対象機器の状態を示す情報を利用して、前記操作対象機器を操作する利用者の操作が安全か否かの安全性を判定し、当該判定の結果を示す情報を出力する安全性判定処理ステップと、
    を備え、
    前記安全性判定処理ステップは、
    操作対象機器の利用者を含む人の音声を音声データとして取得し、当該音声を認識処理し、認識処理した音声認識情報を音声認識結果として出力するステップと、
    前記操作対象機器の利用者を含む人の映像を映像データとして取得し、当該映像をモーション解析処理し、モーションパターンのモーション文字列をモーション解析結果として出力するステップと、
    前記音声認識結果、前記モーション解析結果、前記操作対象機器の状態、および予め比較用データとしてデータベースに登録した音声認識文字列、モーション文字列、対象機器の状態を示す文字列、判定結果を示す文字列、を入力値とし、これらを比較処理するステップと、
    前記比較処理するステップの比較結果を受け、前記操作対象機器の操作の安全性を判定し、判定結果を安全性判定結果として出力するステップと、を含む
    ことを特徴とする運転支援方法。
  4. 安全性判定サーバを含むコンピュータシステムに、
    操作対象機器の利用者を含む人の音声を音声データとして取得し、当該音声を認識処理し、認識処理した音声認識文字列を音声認識結果として出力する機能と、
    前記操作対象機器の利用者を含む人の映像を映像データとして取得し、当該映像をモーション解析処理し、モーションパターンのモーション文字列をモーション解析結果として出力する機能と、
    前記音声認識結果、前記モーション解析結果、および前記操作対象機器の状態、および予め比較用データとしてデータベースに登録した音声認識文字列、モーション文字列、対象機器の状態を示す文字列、判定結果を示す文字列、を入力値とし、これらを比較処理する機能と、
    前記比較処理するステップの比較結果を受け、前記操作対象機器の操作の安全性を判定し、判定結果を安全性判定結果として出力する機能と、
    を実現するための運転支援プログラム。
  5. コンピュータを請求項1または請求項2に記載の運転支援システムとして機能させる運転支援プログラム。
JP2017039092A 2017-03-02 2017-03-02 運転支援システムおよび運転支援方法並びに運転支援プログラム Active JP6944793B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017039092A JP6944793B2 (ja) 2017-03-02 2017-03-02 運転支援システムおよび運転支援方法並びに運転支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017039092A JP6944793B2 (ja) 2017-03-02 2017-03-02 運転支援システムおよび運転支援方法並びに運転支援プログラム

Publications (2)

Publication Number Publication Date
JP2018144534A JP2018144534A (ja) 2018-09-20
JP6944793B2 true JP6944793B2 (ja) 2021-10-06

Family

ID=63589463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017039092A Active JP6944793B2 (ja) 2017-03-02 2017-03-02 運転支援システムおよび運転支援方法並びに運転支援プログラム

Country Status (1)

Country Link
JP (1) JP6944793B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7307549B2 (ja) * 2019-02-15 2023-07-12 株式会社Subaru 車両の運転制御システム
JP7307550B2 (ja) * 2019-02-15 2023-07-12 株式会社Subaru 車両の運転制御システム
JP7311317B2 (ja) * 2019-06-19 2023-07-19 矢崎エナジーシステム株式会社 安全運転支援装置及び運転評価システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003285737A (ja) * 2002-03-29 2003-10-07 Railway Technical Res Inst 異常時誘導案内システム
JP2004280376A (ja) * 2003-03-14 2004-10-07 Japan Science & Technology Agency 被写体の行動認識方法及び装置
JP5984605B2 (ja) * 2012-09-28 2016-09-06 三菱プレシジョン株式会社 鉄道シミュレータ及び鉄道の運転をシミュレートする方法

Also Published As

Publication number Publication date
JP2018144534A (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
KR102061925B1 (ko) 깊이 기반 콘텍스트 식별
CN106537492B (zh) 具有用于语音识别的校正策略的机动车操作装置
US9881605B2 (en) In-vehicle control apparatus and in-vehicle control method
JP6944793B2 (ja) 運転支援システムおよび運転支援方法並びに運転支援プログラム
JP5984605B2 (ja) 鉄道シミュレータ及び鉄道の運転をシミュレートする方法
CN110765807A (zh) 驾驶行为分析、处理方法、装置、设备和存储介质
US11609565B2 (en) Methods and systems to facilitate monitoring center for ride share and safe testing method based for selfdriving cars to reduce the false call by deuddaction systems based on deep learning machine
JP6592940B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220277570A1 (en) Cognitive function estimation device, learning device, and cognitive function estimation method
JP2020012830A (ja) 運動検出方法、装置、機器及び媒体
WO2023071768A1 (zh) 到站提醒方法、装置、终端、存储介质及程序产品
JP6319951B2 (ja) 鉄道シミュレータ、指差動作検出方法および鉄道シミュレーション方法
CN109153332A (zh) 车辆用户接口的手语输入
JP7375692B2 (ja) 情報処理装置、情報処理方法、及び情報処理システム
JP2006313287A (ja) 音声対話装置
CN107888652B (zh) 处理结果异常检测装置、存储介质、检测方法和移动体
JP6099845B1 (ja) 情報機器、ナビゲーション装置、作業手順の案内装置、および、負荷状況判定方法
US20200265221A1 (en) Processing system and processing method
JP2007034348A (ja) 音声感知システム
JP2019125305A (ja) 教師データ作成支援装置
WO2023286152A1 (ja) 検出装置、検出方法、及び非一時的なコンピュータ可読媒体
JP2018180424A (ja) 音声認識装置および音声認識方法
WO2022024212A1 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2022038724A1 (ja) 音声対話装置、および、音声対話装置における対話対象判定方法
WO2022172393A1 (ja) 音声認識装置および音声認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6944793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150