JP7024799B2 - 車両用操作支援装置 - Google Patents

車両用操作支援装置 Download PDF

Info

Publication number
JP7024799B2
JP7024799B2 JP2019554145A JP2019554145A JP7024799B2 JP 7024799 B2 JP7024799 B2 JP 7024799B2 JP 2019554145 A JP2019554145 A JP 2019554145A JP 2019554145 A JP2019554145 A JP 2019554145A JP 7024799 B2 JP7024799 B2 JP 7024799B2
Authority
JP
Japan
Prior art keywords
human
vehicle
relationship
voice data
relationships
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019554145A
Other languages
English (en)
Other versions
JPWO2019097674A1 (ja
Inventor
乘 西山
裕史 井上
剛仁 寺口
純 河西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2019097674A1 publication Critical patent/JPWO2019097674A1/ja
Application granted granted Critical
Publication of JP7024799B2 publication Critical patent/JP7024799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、人間関係を含む乗員構成に適した推奨情報を求め、乗員が行う各種の車両操作の支援に供する車両用操作支援装置に関するものである。
車内の音声を収集するとともに乗員の座席位置を特定し、収集した音声と特定した着座位置に基づいて、車内に存在する乗員のうち発話者を推定するとともに、収集した音声に基づいて会話の内容を推定し、特定した着座位置、推定した発話者および推定した会話内容に基づいて、乗員の構成を推定し、推定した会話内容および推定した乗員構成に基づいて乗員の行動目的を推定し、推定した乗員構成および推定した行動目的に基づいて、推奨するレコメンドサービスを決定する車載装置が知られている(特許文献1)。具体的には、収集した音声の声紋パターンから個人を識別し、さらに識別できた個人ごとに着座位置と乗車頻度から所有者を特定し、収集した音声から会話キーワードを用いて識別できた個人との関係を特定して発話者パターンデータとして登録しておき、登録した発話者パターンデータを用いて乗員構成を推定する。
特開2012-133530号公報
しかしながら、上記従来技術では、精度の高い発話者パターンデータを作成するには、それ相当の回数のデータを収集する必要があり、乗員に対して最適なレコメンドサービス(以下、推奨情報ともいう。)を提供するまで相当の時間がかかるという問題がある。
本発明が解決しようとする課題は、人間関係を含む乗員構成に適した推奨情報を短時間で求め、乗員が行う各種車両操作の支援に供する車両用操作支援装置を提供することである。
本発明は、人間が車両に搭乗する場合以外にも収音可能な端末機により検出される、複数の人間の会話音声データを取得し、当該会話音声データに含まれる発話者毎の発話内容から複数の人間同士の直接的な人間関係を解析する。そして、複数の人間が乗車したら、その人間と解析された人間関係とから、推奨されるべく定められた車両操作の支援情報を決定することによって上記課題を解決する。
本発明によれば、乗車前に求めておいた人間関係に関する情報を用いているので、人間関係を含む乗員構成に適した推奨情報を短時間で求めることができ、乗員が行う各種車両操作の支援にタイムリーに供することができる。
本発明に係る車両用操作支援装置の一実施の形態を示すブロック図である。 図1の会話グループ推定部にて実行される処理手順を示すフローチャートである。 図2AのステップS22の発話位置による組み合わせ抽出処理を説明するための平面地図である。 図2AのステップS23の発話期間による組み合わせ抽出処理を説明するためのタイムチャートである。 図1の直接的人間関係解析部にて実行される処理手順を示すフローチャートである。 図3AのステップS33の発話内容のカテゴリの解析処理に用いられるカテゴリ辞書の一部を示す図である。 図3AのステップS33の発話内容のカテゴリの解析処理により得られる解析結果の一例を示すグラフである。 図3AのステップS34の言葉遣いの解析処理に用いられる言葉遣い辞書の一部を示す図である。 図3AのステップS34の言葉遣いの解析処理により得られる解析結果の一例を示すグラフである。 図1の間接的人間関係推定部にて実行される処理手順を示すフローチャートである。 図4AのステップS42の直接的な人間関係の解析値の統計処理を説明するための人間関係を示す図である。 図4AのステップS42の直接的な人間関係の解析値の統計処理により得られる結果の一例を示すグラフである。 図4AのステップS44の間接的な人間関係の推定値の算出処理を説明するための人間関係を示す図である。 図1の車両情報学習部にて実行される処理手順を示すフローチャートである。 図1の支援情報決定部にて実行される処理手順を示すフローチャートである。
以下、本発明の一実施の形態を図面に基づいて説明する。本実施形態の車両用操作支援装置1は、人間関係を含む乗員構成に適した推奨情報を求め、乗員が行う各種の車両操作の支援に供するものである。特に限定されないが本願発明の理解を容易にするためにその一例を挙げると、車両VH1の乗員を構成する乗員Aと乗員Bであり、両者が、魚釣り友達という人間関係にある場合、車載ナビゲーション装置に対して、魚釣り場所に適した目的地を選択肢として表示したり自動で目的地に設定したり、または車載オーディオ装置に対して、魚釣番組のラジオを選択肢として表示したり自動で流したりするものである。また、車両VH2の乗員を構成する乗員Cと乗員Dであり、両者が、同じ会社の上司と部下という人間関係にある場合、車載ナビゲーション装置に対して、出張地や昼食用レストランなどの目的地を選択肢として表示したり自動で目的地に設定したり、または車載オーディオ装置に対して、経済番組のラジオを選択肢として表示したり自動で流したりするものである。
「人間関係」とは、現在または過去の社会生活における経験により定まる、特定の人間と特定の人間との関係を意味し、特に限定されないが本願発明の理解を容易にするためにその一例を挙げると、親・子・夫・妻などの家族、従兄弟・従姉妹などの親戚、これら家族や親戚その他の続柄、会社や学校などの組織における上司・部下・同僚・同級生・先輩・後輩といった組織内の地位の関係、趣味や娯楽の仲間、ボーイフレンド・ガールフレンド・恋人その他の友人、及び他人などに分類することができる。本実施形態において、車両の乗員構成というのは、こうした人間関係を含むことを意味する。
「車両操作」とは、特に限定されないが本願発明の理解を容易にするためにその一例を挙げると、乗員が行う車両の走行操作(アクセル操作、ブレーキ操作、トランスミッションレバー操作、ハンドル操作など)、ナビゲーション装置の操作、オーディオ装置の操作、カーエアコンの操作、座席ポジションの調節操作など、ドライバを含む乗員が行う車両の各種操作が含まれる。
「乗員構成に適した推奨情報」とは、上述した乗員が行う車両の操作上、乗員の人間関係から考えられる、可能性の高い又は好ましい操作を実現するための車両又は車載装置に対する指示情報である。特に限定されないが本願発明の理解を容易にするためにその一例を挙げると、上述した例でいえば、乗員を構成する乗員Aと乗員Bが、魚釣り友達という人間関係にある場合の推奨情報としては、車載ナビゲーション装置の目的地の設定操作についての指示情報や、オーディオ装置の選局操作についての指示情報などを例示することができる。
車両操作の「支援」には、乗員が手動操作する際にその選択肢を乗員に提示するほか、乗員が手動操作することなく車両用操作支援装置1が自動的に操作することも含まれる。車両用操作支援装置1が推奨情報に基づいて自動的に車両操作した場合に、その推奨情報に対して乗員が好感度をもったときは、乗員が行うべき車両操作を少なくすることができる。なお、ネガティブな好感度をもったときは、当該乗員は、その自動的な車両操作に対して異なる手動操作をすれば自動的な車両操作は解除できる。
このように、本実施形態の車両用操作支援装置1は、人間関係を含む乗員構成に適した推奨情報を求め、乗員が行う各種の車両操作の支援に供するものであるが、乗車する前に人間関係を解析又は推定して予め求めておき、乗車したら当該人間関係を用いて推奨情報を短時間で求め、車両操作の支援に供することを特徴とする。
このため、図1に示すように、本実施形態の車両用操作支援装置1は、人間関係解析ユニット1Aと、人間関係記憶ユニット1Bと、支援情報決定ユニット1Cと、車両情報学習ユニット1Dと、操作傾向記憶ユニット1Eと、を備える。そして、人間関係解析ユニット1Aは、音声取得部11、会話グループ推定部12、直接的人間関係解析部13及び間接的人間関係推定部14を含み、人間関係記憶ユニット1Bは、人間関係データベース15を含み、支援情報決定ユニット1Cは、支援情報決定部16を含み、車両情報学習ユニット1Dは、車両情報学習部17を含み、操作傾向記憶ユニット1Eは、操作傾向データベース18を含む。なお、本発明の車両用操作支援装置1は、必要に応じて、車両情報学習ユニット1D及び操作傾向記憶ユニット1Eを省略し、人間関係解析ユニット1A、人間関係記憶ユニット1B及び支援情報決定ユニット1Cで構成してもよい。
本実施形態の車両用操作支援装置1は、ハードウェア及びソフトウェアを備えたコンピュータにより構成され、プログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成される。なお、動作回路としては、CPU(Central Processing Unit)に代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。そして、上述した人間関係解析ユニット1Aと、人間関係記憶ユニット1Bと、支援情報決定ユニット1Cと、車両情報学習ユニット1Dと、操作傾向記憶ユニット1Eと、は、ROMに確立されたソフトウェアによって、後述する各機能を実現する。
まず、本実施形態の車両用操作支援装置1の前提として、乗員となり得る複数の人間は、日常的に携帯又は使用する端末機TD1,TD2,TD3…(以下、総称してTDともいう)をそれぞれ所有する。この種の端末機TDとしては、スマートフォン、携帯電話機、着脱可能な車載機器、車両のリモートコントロールキー(インテリジェントキー(登録商標)など)、音声認識ユーザインターフェース(Amazon Echo Dot(登録商標)など)を用いることができる。本実施形態の端末機TDは、コンピュータ機能を備え、会話音声データを入力するためのマイクと、入力した会話音声データを本実施形態の車両用操作支援装置1の人間関係解析ユニット1Aに送信するための通信機能と、端末機TDの現在位置を検出するGPS受信機などの位置検出機能と、を備える。そして、各端末機TDは、自己のIDと、現在位置と、収音した会話音声データとを、インターネットなどの無線通信回線網を介して人間関係解析ユニット1Aの音声取得部11に送信する。
人間関係解析ユニット1Aは、図1に示すように、音声取得部11、会話グループ推定部12、直接的人間関係解析部13及び間接的人間関係推定部14を含む。
音声取得部11は、インターネットなどの無線通信回線網を介して、上述した複数の端末機TDと情報の送受信を実行し、特に各端末機TDの、IDと現在位置と収音した会話音声データとを入力する(図2AのステップS21)。
会話グループ推定部12は、音声取得部11に入力された各端末機TDの、IDと現在位置と収音した会話音声データとに基づいて、ある特定の端末機TDに入力された会話音声データに関し、誰と誰とが会話しているのか、会話している人間のグループ(集団)を推定する。この際に、予め登録されている各端末機TDの所有者(又は特定の人間でもよい。以下同じ。)の声紋データと照合し、どの会話音声データが誰の音声かも特定する。たとえば、図2Bは、図2AのステップS22の発話位置による組み合わせ抽出処理を説明するための平面地図(緯度-経度)である。図2Bに示すように、発話音声データを端末機TD1にて収音されたとした場合に、車両用操作支援装置1の人間関係データベース15に、各端末機TDの所有者の声紋データをIDに関連付けて登録しておき、端末機TD1にて収音された会話音声データを声紋データと照合し、どのIDの端末機TDの所有者の音声かを特定する。
端末機TDにて収音される会話音声データには、実際に会話している複数の人間の会話音声データ以外にも、会話とは関係のない人間の会話音声データが入力される。このため、会話グループ推定部12は、端末機TDの位置情報による組み合わせ抽出処理と、発話期間による組み合わせ抽出処理を実行することで、その端末機TDに入力された会話音声データの中で実際に会話しているグループの人間を推定する。すなわち、端末機TDの位置情報による組み合わせ抽出処理は、音声取得部11に入力された各端末機TDの、IDと現在位置と収音した会話音声データとに基づいて、端末機TDによって同時刻に集音された複数の会話音声データに対し、集音された位置情報が閾値以上に接近している組み合わせを抽出することで、端末機TDの位置情報に基づく仮の会話グループの推定を実行する(図2AのステップS22)。
たとえば、図2Bに示すように、会話音声データを収音した端末機TD1が位置Pにあり、この位置Pから半径r以内に存在する端末機TD(同図では3つの端末機TD2,TD3,TD4)は、距離が近いことから会話グループである可能性が高いので、これらを仮の会話グループとして推定する。これに対して、会話音声データを収音した端末機TD1の位置Pから半径rを超える位置に存在する端末機TD(同図では4つの三角印で示す端末機)は、距離が遠いことから、会話グループである可能性が低いので、仮の会話グループから除外する。
発話期間による組み合わせ抽出処理は、上述した位置情報による組み合わせ抽出処理(図2AのステップS22)によって抽出された同一グループに属すると推定された1つ以上の会話音声データに対し、発話された期間(発話開始から発話終了まで時間間隔)の重複率又は重複時間が、所定の閾値以下である会話音声データ同士を抽出し、これらが実際に会話を行っている会話グループであると推定する(図2AのステップS23)。
たとえば、図2Cは、図2AのステップS23の発話期間による組み合わせ抽出処理を説明するためのタイムチャートである。図2Cに示すように、4つの端末機TD1,TD2,TD3,TD4の会話音声データの発話期間を実線で示すと、端末機TD1の人間の発話期間に対し、端末機TD2の人間の発話期間は殆んど重複していないが、端末機TD1の人間の発話期間に対し、端末機TD3及びTD4の人間の発話期間は、重複している割合が大きい。また、端末機TD2の人間の発話期間に対しても、端末機TD3及びTD4の人間の発話期間は、重複している割合が大きい。このように、人間同士が会話している場合、発話期間が重複している割合が大きいということは、会話が成立していないと推定するのが合理的であるため、端末機TD3及びTD4の人間は、端末機TD1及びTD2の人間と同一の会話グループを構成していないと推定する一方、端末機TD1及びTD2の人間の発話期間は殆んど重複していないため(所定の閾値以下)、これらが同一の会話グループであると推定する。会話グループ推定部12は、このように推定した同一の会話グループの会話音声データを特定し、端末機TD1,TD2のIDとともに直接的人間関係解析部13へ出力する。
直接的人間関係解析部13は、取得した会話音声データを、特定した発話者毎に分析して所定のキーワードを抽出し、発話者毎のキーワードに基づいて当該発話者毎の言葉遣いを特定し、複数の人間の会話音声データに基づいて会話内容を特定し、特定した言葉遣いと、特定した会話内容とから、複数の人間同士の直接的な人間関係を解析し、定量化して求める機能を司る。この解析は、上述した会話グループ推定部12により推定された同一の会話グループに属する会話音声データに基づいて実行される(図3AのステップS31)。本実施形態の直接的人間関係解析部13は、キーワード抽出処理(図3AのステップS32)、会話内容のカテゴリの解析処理(図3AのステップS33)、言葉遣いの解析処理(図3AのステップS34)及び結合処理(図3AのステップS35)によって実行される。
キーワード抽出処理は、同一の会話グループに属する会話音声データから、予め登録された複数のキーワード(所定の単語)を公知の音声検出処理によって抽出する処理であり、会話内容のカテゴリの解析処理は、キーワード抽出処理によって抽出されたキーワードに対して、キーワードが属するカテゴリに分類する処理である。これらキーワードの抽出処理と会話内容のカテゴリの解析処理は、人間関係データベース15に記憶されたカテゴリ辞書を参照することで行われる。図3Bは、図3AのステップS33の発話内容のカテゴリの解析処理に用いられるカテゴリ辞書の一部を示す図である。同図に示すように、複数のキーワードに対して一つの会話内容のカテゴリが関連付けられて、たとえば会話音声データに「マラソン」が含まれている場合には「スポーツ」に分類される会話が行われていることが示されている。会話内容のカテゴリの解析処理においては、抽出されたキーワードに対して関連付けられた会話内容のカテゴリの発生頻度を図3Cに示すように算出する。図3Cは、図3AのステップS33の発話内容のカテゴリの解析処理により得られる解析結果の一例を示すグラフである。会話内容のカテゴリの解析処理においては、同図に示す発生頻度が大きい会話内容のカテゴリを特定し、図3AのステップS35の結合処理に用いる。
言葉遣いの解析処理は、キーワード抽出処理によって抽出されたキーワードに対して、キーワードが属する言葉遣いに分類する処理である。この処理は、人間関係データベース15に記憶された言葉遣い辞書を参照することで行われる。図3Dは、図3AのステップS34の言葉遣いの解析処理に用いられる言葉遣い辞書の一部を示す図である。言葉遣いの解析処理にて抽出されるキーワードは、図3AのステップS32にて抽出されるが、ステップS33の会話内容のカテゴリの解析処理で用いられるキーワードとは異なるキーワードが用いられる。同図に示すように、複数のキーワードに対して一つの言葉遣いのカテゴリが関連付けられて、たとえば会話音声データに「~様」が含まれている場合には「敬語又は丁寧語」に分類される会話が行われていることが示されている。ここで、「言葉遣い」とは、言葉の使い方、ものの言い方であって、図3Dに示すように、たとえば敬語又は丁寧語、若者言葉、方言、普通の言葉遣い、略語などを例示することができる。
言葉遣いの解析処理では、一方の人間と他方の人間とで言葉遣いが異なることがあり得ることから、抽出されたキーワードに対して関連付けられた言葉遣いのカテゴリの発生頻度を図3Eに示すように、一方の人間(たとえば同図の左のグラフ)と、他方の人間(たっとえば同図の右のグラフ)のようにそれぞれ算出する。図3Eは、図3AのステップS34の言葉遣いの解析処理により得られる解析結果の一例を示すグラフである。故音羽使いの解析処理においては、同図に示す発生頻度が大きい言葉遣いのカテゴリをそれぞれ特定し、図3AのステップS35の結合処理に用いる。
結合処理は、会話内容のカテゴリの解析処理と、言葉遣いの解析処理とによって算出された発生頻度に関する数値を組み合わせることによって、対象となる人間同士の人間関係を定量化し、これを直接的な人間関係として人間関係データベース15に記憶する。ここでいう「人間関係」とは、既述したように、現在または過去の社会生活における経験により定まる、特定の人間と特定の人間との関係を意味し、特に限定されないが本願発明の理解を容易にするためにその一例を挙げると、親・子・夫・妻などの家族、従兄弟・従姉妹などの親戚、これら家族や親戚その他の続柄、会社や学校などの組織における上司・部下・同僚・同級生・先輩・後輩といった組織内の地位の関係、趣味や娯楽の仲間、ボーイフレンド・ガールフレンド・恋人その他の友人、及び他人などに分類することができる。
こうした直接的な人間関係の定量化は、会話内容のカテゴリの解析処理と、言葉遣いの解析処理とによって算出された発生頻度に関する数値を組み合わせることによって行われる。特に限定されないが、たとえば、会話内容のカテゴリの解析結果が図3Cに示すとおり「仕事」に分類される会話内容の発生頻度が高く、言葉遣いの解析結果が図3Eの左右のとおり、一方の人間の言葉遣いが「普通」である発生頻度が高く、他方の人間の言葉遣いが「敬語」である発生頻度の高いので、会社組織における上司と部下の関係である確率が70%というように、予め人間関係データベース15に記憶された人間関係定量化マップに基づいて確率値などを用いて定量化する。この定量化された直接的な人間関係は、人間関係データベース15に蓄積される。
間接的人間関係推定部14は、定量化された直接的な人間関係に基づいて、人間関係データベース15に記憶された人間同士のうち、解析されていない人間同士の間接的な人間関係を推定して定量化する。上述した直接的な人間関係は、実際に行われた会話音声データに基づいて解析されて定量化されるため「直接的な」人間関係と称するが、これに対して、間接的人間関係推定部14にて推定されるのは、実際には会話したことがない人間同士の人間関係の定量化を、定量化された直接的な人間関係のデータに基づいて推定するものである。その意味で「間接的な」人間関係と称する。
間接的人間関係推定部14では、直接的な人間関係の読み込み処理(図4AのステップS41)、直接的な人間関係の統計処理(図4AのステップS42)、未解析の人間の組み合わせ抽出処理(図4AのステップS43)及び間接的な人間関係の推定値の算出処理(図4AのステップS44)が実行され、求められた間接的な人間関係の推定値は、人間関係データベース15に蓄積される(図4AのステップS45)。
直接的な人間関係の統計処理は、直接的人間関係解析部13によって定量化され、人間関係データベース15に蓄積された値の相互関係を考察することで算出される。具体的には、人間関係データベース15から、直接的な人間関係の値が既知の3名の組み合わせを抽出し、抽出された3名の間の3つの人間関係の値のうち、2つの値を前提とした残り1つの値を記録する。この処理を、人間関係データベース15に蓄積された多数の組み合わせについて統計処理することにより、2つの人間関係V1,V2の場合に残り1つの人間関係V3が得られる確率値P(V3|V1,V2)を算出することができ、これを人間関係データベース15に記録する。
図4Bは、図4AのステップS42の直接的な人間関係の解析値の統計処理を説明するための人間関係を示す図、図4Cは、図4AのステップS42の直接的な人間関係の解析値の統計処理により得られる結果の一例を示すグラフである。図4Bに示すように、2人の人間Aと人間Bとの直接的な人間関係の値V1と、2人の人間Bと人間Cとの直接的な人間関係の値V2と、2人の人間Cと人間Aとの直接的な人間関係の値V3とが、複数の3者の組み合わせについて既に求められ、人間関係データベース15に蓄積されているものとする。このとき、これらの複数のデータから、人間Aと人間Bとの直接的な人間関係の値V1と、人間Bと人間Cとの直接的な人間関係の値V2とを前提とした場合に、残りの人間Cと人間Aとの直接的な人間関係の値V3は、どのような関係を示すのかを、図4Cのように発生頻度で解析する。たとえば、図4Cに示す例でいえば、人間Cと人間Aとの直接的な人間関係の値V3は、「会社組織の上司と部下」である確率が最も高いという結果が得られる。この発生頻度を確立P(V3|V1,V2)にて算出する。この確率は、人間Cと人間Aとの直接的な人間関係の値V3は、人間Aと人間Bとの直接的な人間関係の値V1と、人間Bと人間Cとの直接的な人間関係の値V2とが既知であれば、図4Cのように統計的確立により算出できることを意味する。
未解析の人間の組み合わせ抽出処理は、上述したように、実際には直接会話をしたことがなく、したがって直接的な人間関係の定量化した値Vnが人間関係データベース15に記憶されていない人間2名の組み合わせを抽出する。たとえば、図4Dに示すように、人間Zと人間Xとする。図4Dは、図4AのステップS44の間接的な人間関係の推定値の算出処理を説明するための人間関係を示す図である。これに加えて、抽出された2名の人間Z,Xそれぞれに対して直接的な人間関係が定量化された人間を推定中継者として1名以上抽出する。図4Dに示す例でいえば、人間Yを抽出する。人間Yは、人間Xとの直接的な人間関係の値V1が既知であり、人間Zとの直接的な人間関係の値V2も既知である。
間接的な人間関係の算出処理では、未解析の人間の組み合わせ抽出処理によって抽出された2名の人間Z,Xと、推定中継者との間の直接的な人間関係の値V1,V2を人間関係データベース15から参照する。そして、参照された2つの人間関係の値V1,V2を前提とした場合の人間同士の人間関係の値Vnを、図4AのステップS42の統計処理によって得られた確率値V3を最大とする値を、間接的な人間関係として算出する。また、複数の推定中継者が抽出された場合には、確率値V3の積、又は確率値V3のうち最大確率値を示す値の多数決によって決定してもよい。間接的な人間関係の推定値として算出された値Vnは、人間関係データベース15に蓄積される。
人間関係記憶ユニット1Bは、人間関係データベース15を含み、上述したように、人間関係データベース15には、各端末機TDの所有者のIDに関連付けられた声紋データ、図3Bに示すカテゴリ辞書、図3Dに示す言葉遣い辞書、直接的人間関係解析部13の直接的な人間関係の定量化処理で用いられる人間関係定量化マップ、直接的人間関係解析部13で定量化された直接的な人間関係、間接的人間関係推定部14で統計処理された2つの人間関係V1,V2の場合における残り1つの人間関係V3の確率値P(V3|V1,V2)、間接的人間関係推定部14で推定された間接的な人間関係の推定値などが記憶される。
車両情報学習ユニット1Dは、車両情報学習部17を含み、車両情報学習部17では、乗員情報の取得処理(図5のステップS51)、人間関係の参照処理(図5のステップS52)、車両情報の取得処理(図5のステップS53)及び結合処理(図5のステップS54)が実行され、求められた人間関係による操作傾向情報は、操作傾向データベース18に蓄積される(図5のステップS55)。
乗員情報の取得処理は、車両に誰が乗車しているかを取得する処理である。たとえば、端末機TDを車両に搭載された何らかの機器に接続することで乗員を特定したり、端末機TDの位置情報と車両の位置情報とが近接することを検出することで乗員を特定したり、車両に搭載されているカメラから取得される画像対する顔認識によって乗員を特定したりすることができる。人間関係の参照処理は、乗員情報取得処理によって取得された乗員に対して、人間関係データベース15を参照して、その乗員同士の人間関係の値を取得する処理である。
車両情報の取得処理は、車両の制御情報、車両の状態その他の車両情報を取得するしょりであり、たとえば、乗員が行う車両の走行操作(アクセル操作、ブレーキ操作、トランスミッションレバー操作、ハンドル操作など)、ナビゲーション装置で設定した目的地、オーディオ装置の操作、カーエアコンの操作、車両の現在位置、車両の移動軌跡、現在の日時、乗車後の経過時間などの車両情報を取得する。
結合処理は、車両情報の取得処理によって取得された車両情報と、人間関係の参照処理とを結合し、人間関係についての操作情報として操作傾向データベース18に記憶する処理である。たとえば、人間Aと人間B(直接的な人間関係又は間接的な人間関係がV1)とが搭乗している場合に、ナビゲーション装置で設定した目的地が特定の魚釣り場であった場合に、人間関係V1と目的地とをその発生頻度とともに操作傾向データベース18に記憶する。なお、人間関係に加えて人間A,B,C等を記憶してもよい。
操作傾向記憶ユニット1Eは、操作傾向データベース18を含み、車両情報学習部17で求められた人間関係と操作情報とを関連付けて蓄積する。
支援情報決定ユニット1Cは、支援情報決定部16を含み、車両に搭乗した複数の乗員を特定し、人間関係データベース15に蓄積された直接的な人間関係及び間接的な人間関係に基づいて、複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定する。支援情報決定部16では、乗員情報の取得処理(図6のステップS61)、人間関係の参照処理(図6のステップS62)、車両情報の取得処理(図6のステップS63)、操作傾向情報の参照処理(図6のステップS64)及び支援情報の決定・出力処理(図6のステップS65)が実行される。
乗員情報の取得処理は、車両情報学習部17の乗員情報の取得処理(図5のステップS51)と同様の処理、すなわち車両に誰が乗車しているかを取得する処理である。たとえば、端末機TDを車両に搭載された何らかの機器に接続することで乗員を特定したり、端末機TDの位置情報と車両の位置情報とが近接することを検出することで乗員を特定したり、車両に搭載されているカメラから取得される画像対する顔認識によって乗員を特定したりすることができる。人間関係の参照処理は、車両情報学習部17の人間関係の参照処理(図5のステップS52)と同様の処理、すなわち乗員情報取得処理によって取得された乗員に対して、人間関係データベース15を参照して、その乗員同士の人間関係の値を取得する処理である。
車両情報の取得処理は、車両情報学習部17の車両情報の取得処理(図5のステップS53)と同様の処理、すなわち車両の制御情報、車両の状態その他の車両情報を取得するしょりであり、たとえば、乗員が行う車両の走行操作(アクセル操作、ブレーキ操作、トランスミッションレバー操作、ハンドル操作など)、ナビゲーション装置で設定した目的地、オーディオ装置の操作、カーエアコンの操作、車両の現在位置、車両の移動軌跡、現在の日時、乗車後の経過時間などの車両情報を取得する。
操作傾向の参照処理は、車両情報学習部17によって蓄積された操作傾向データベース18から、乗員の人間関係の値が類似するか、又は乗員の人間関係の値と現在までの車両情報が類似する場合の、その後に行った操作情報を取得する処理である。たとえば、人間Aと人間B(直接的な人間関係又は間接的な人間関係がV1)とが搭乗している場合に、ナビゲーション装置で設定した目的地が特定の魚釣り場であるという操作傾向情報が操作傾向データベース18に蓄積されている場合に、人間関係がV1又はこれに類似する値であるときは、ナビゲーション装置の目的地を特定の釣り場に設定するという操作傾向情報を参照する。
支援情報の決定・出力処理は、複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定する。「乗員構成に適した推奨情報」とは、上述したとおり、乗員が行う車両の操作上、乗員の人間関係から考えられる、可能性の高い又は好ましい操作を実現するための車両又は車載装置に対する指示情報である。一例を挙げると、乗員を構成する乗員Aと乗員Bが、魚釣り友達という人間関係にある場合の推奨情報としては、車載ナビゲーション装置の目的地の設定操作についての指示情報や、オーディオ装置の選局操作についての指示情報などを例示することができる。なお、車両操作の「支援」には、乗員が手動操作する際にその選択肢を乗員にディスプレイやスピーカーなどを用いて提示するほか、乗員が手動操作することなく車両用操作支援装置1が自動的に操作することも含まれる。
次に本実施形態の情報処理の流れについて説明する。
まずは日常的に、乗員となり得る複数の人間が所持する端末機TD1,TD2,TD3と、人間関係解析ユニット1Aとを用いて、特定の人間と特定の人間との人間関係を解析し、これを定量化して人間関係データベース15に蓄積する。具体的には、図2Aに示すように、音声取得部11は、インターネットなどの無線通信回線網を介して、複数の端末機TDと情報の送受信を実行し、特に各端末機TDの、IDと現在位置と収音した会話音声データとを入力する(図2AのステップS21)。次いで、ステップS22にて、会話グループ推定部12は、音声取得部11に入力された各端末機TDの、IDと現在位置と収音した会話音声データとに基づいて、ある特定の端末機TDに入力された会話音声データに関し、誰と誰とが会話しているのか、会話している人間のグループ(集団)を推定する。このとき、会話グループ推定部12は、音声取得部11に入力された各端末機TDの、IDと現在位置と収音した会話音声データとに基づいて、端末機TDによって同時刻に集音された複数の会話音声データに対し、集音された位置情報が閾値以上に接近している組み合わせを抽出することで、端末機TDの位置情報に基づく仮の会話グループの推定を実行する。
次いで、図2AのステップS23では、会話グループ推定部12は、ステップS22における位置情報による組み合わせ抽出処理によって抽出された、同一グループに属すると推定された1つ以上の会話音声データに対し、発話された期間の重複率又は重複時間が、所定の閾値以下である会話音声データ同士を抽出し、これらが実際に会話を行っている会話グループであると推定する。そして、ステップS24にて、会話グループ推定部12は、このように推定した同一の会話グループの会話音声データを特定し、端末機TD1,TD2のIDとともに直接的人間関係解析部13へ出力する。
次いで、図3Aに示すように、直接的人間関係解析部13は、ステップS31~S36にて、取得した同一グループの会話音声データを、特定した発話者毎に分析して所定のキーワードを抽出し、発話者毎のキーワードに基づいて当該発話者毎の言葉遣いを特定し、複数の人間の会話音声データに基づいて会話内容を特定し、特定した言葉遣いと、特定した会話内容とから、複数の人間同士の直接的な人間関係を解析し、定量化して求める。この定量化された直接的な人間関係は、ステップS36にて、人間関係データベース15に蓄積される。
ステップS36までの処理により、人間関係データベース15には、実際に会話を行った人間同士の人間関係の定量化された値が蓄積されるが、解析されていない人間同士の人間関係も存在する。そのため、間接的人間関係推定部14は、図4AのステップS41にて直接的な人間関係の読み込み処理を実行し、ステップS42にて直接的な人間関係の統計処理を実行し、ステップS43にて未解析の人間の組み合わせ抽出処理を実行し、ステップS44にて間接的な人間関係の推定値の算出処理を実行し、ステップS45にて、求められた間接的な人間関係の推定値を人間関係データベース15に蓄積する。
一方において、車両情報学習ユニット1Dは、人間関係を含む乗員構成によってどのような車両の操作が実際に行われるかの情報を蓄積し、車両操作の支援情報を決定するのに供する。すなわち、図5に示すように、車両情報学習部17は、ステップS51にて乗員情報の取得処理を実行し、ステップS52にて人間関係データベース15に蓄積された人間関係の参照処理を実行し、ステップS53にて車両情報の取得処理を実行し、ステップS54にて結合処理を実行し、ステップS55にて、求められた人間関係による操作傾向情報を操作傾向データベース18に蓄積する。
次いで、支援情報決定ユニット1Cは、車両に搭乗した複数の乗員を特定し、人間関係データベース15に蓄積された直接的な人間関係及び間接的な人間関係に基づいて、複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定する。具体的には、支援情報決定部16は、図6のステップS61にて乗員情報の取得処理を実行し、ステップS62にて人間関係の参照処理を実行し、ステップS63にて車両情報の取得処理を実行し、ステップS64にて操作傾向情報の参照処理を実行し、ステップS65にて支援情報の決定・出力処理を実行する。
以上のとおり、本実施形態の車両用操作支援装置1によれば、乗員となり得る複数の人間の前記直接的な人間関係を予め蓄積しておき、車両に複数の人間が搭乗したら、搭乗した複数の乗員を特定し、人間関係データベース15に蓄積された直接的な人間関係及び間接的な人間関係に基づいて、複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定するので、搭乗してから短時間で適切な車両操作の支援情報を提供することができる。
また本実施形態の車両用操作支援装置1によれば、実際に会話した人間同士の人間関係から、実際には会話していない人間同士の人間関係を定量化して推定するので、乗員の組み合わせによって車両操作の支援情報が欠落するといったエラーを回避することができる。また、この間接的な人間関係の推定に際しては、実際に会話を行った人間同士の直接的な人間関係のデータを統計処理して求めるので、その正確性を高めることができる。
また本実施形態の車両用操作支援装置1によれば、実際に行われた車両操作をその時の人間関係と関連付けて記憶し、これを車両操作の支援情報に反映するので、乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報をより現実的な操作に近づけることができる。
また本実施形態の車両用操作支援装置1によれば、同一の会話グループを抽出するのに、複数の会話音声データのうち発話位置が所定距離以下である会話音声データ群の発話者を会話グループとするので、会話グループの特定、ひいては人間関係の解析の精度が向上する。
また本実施形態の車両用操作支援装置1によれば、同一の会話グループを抽出するのに、複数の会話音声データのうち発話期間が所定時間以上重複しない会話音声データ群の発話者を会話グループとして推定するので、会話グループの特定、ひいては人間関係の解析の精度が向上する。
また本実施形態の車両用操作支援装置1によれば、人間が車両に搭乗する場合以外にも収音可能な端末機を用いて、乗員となり得る複数の人間の会話音声データを検出するので、日常的に複数の人間の会話音声データを収音することができる。
なお、上述した車両用操作支援装置1では、人間関係解析ユニット1Aに間接的人間関係推定部14を含むように構成したが、必要に応じてこれを省略してもよい。また、上述した車両用操作支援装置1では、車両情報学習ユニット1D及び操作傾向記憶ユニット1Eを含むように構成し、図6のステップS64~S65にて操作傾向情報をも用いて車両操作の支援情報を決定したが、必要に応じて車両情報学習ユニット1D及び操作傾向記憶ユニット1Eを省略し、人間関係データベース15に蓄積された人間関係のみにより車両操作の支援情報を決定してもよい。
上記音声取得部11、上記会話グループ推定部12、直接的人間関係解析部13及び間接的人間関係推定部14は、本発明に係る人間関係解析ユニットに相当し、上記人間関係データベース15は、本発明に係る人間関係記憶ユニットに相当し、上記支援情報決定部16は、本発明に係る支援情報決定ユニットに相当し、上記車両情報学習部17は、本発明に係る車両情報学習ユニットに相当し、上記操作傾向データベース18は、本発明に係る操作傾向記憶ユニットに相当する。
1…車両用操作支援装置
1A…人間関係解析ユニット
11…音声取得部
12…会話グループ推定部
13…直接的人間関係解析部
14…間接的人間関係推定部
1B…人間関係記憶ユニット
15…人間関係データベース
1C…支援情報決定ユニット
16…支援情報決定部
1D…車両情報学習ユニット
17…車両情報学習部
1E…操作傾向記憶ユニット
18…操作傾向データベース
TD1,TD2,TD3…端末機
VH1,VH2…車両
A,B,C,X,Y,Z…人間(乗員)
V1,V2,V3…人間関係の解析値

Claims (12)

  1. 人間関係解析ユニットと、人間関係記憶ユニットと、支援情報決定ユニットと、を備え、
    前記人間関係解析ユニットは、乗員となり得る複数の人間の会話音声データに含まれる発話者毎の発話内容から、解析された前記複数の人間同士の直接的な人間関係を取得し、
    前記人間関係記憶ユニットは、前記乗員となり得る複数の人間の前記直接的な人間関係を蓄積し、
    前記支援情報決定ユニットは、車両に搭乗した複数の乗員を特定し、前記人間関係記憶ユニットに蓄積された前記直接的な人間関係に基づいて、前記複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定する車両用操作支援装置において
    前記乗員となり得る複数の人間の会話音声データは、前記人間が車両に搭乗する場合以外にも収音可能な端末機により検出され、前記人間関係解析ユニットに送信される車両用操作支援装置。
  2. 前記人間関係解析ユニットは、
    前記乗員となり得る複数の人間の会話音声データを取得して発話者を特定し、
    取得した会話音声データを、特定した発話者毎に分析して所定のキーワードを抽出し、
    発話者毎の前記キーワードに基づいて当該発話者毎の言葉遣いを特定し、
    前記複数の人間の会話音声データに基づいて会話内容を特定し、
    特定した言葉遣いと、特定した会話内容とから、前記複数の人間同士の直接的な人間関係を解析して定量化する請求項1に記載の車両用操作支援装置。
  3. 前記人間関係解析ユニットは、定量化された前記直接的な人間関係に基づいて、前記人間関係記憶ユニットに記憶された人間同士のうち、解析されていない人間同士の間接的な人間関係を推定して定量化し、
    前記人間関係記憶ユニットは、前記間接的な人間関係をも蓄積し、
    前記支援情報決定ユニットは、前記人間関係記憶ユニットに蓄積された前記直接的な人間関係及び前記間接的な人間関係に基づいて、前記複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定する請求項2に記載の車両用操作支援装置。
  4. 前記人間関係解析ユニットは、定量化された前記直接的な人間関係に基づいて、前記人間関係記憶ユニットに記憶された人間同士のうち、解析されていない人間同士の間接的な人間関係を推定して定量化する場合、
    既に定量化された第1の人間と第2の人間との直接的な人間関係V1と、既に定量化された前記第2の人間と第3の人間との直接的な人間関係V2と、既に定量化された前記第3の人間と前記第1の人間との直接的な人間関係V3とを用いて複数の人間関係V1,V2,V3の関係を統計処理し、
    解析されていない人間関係V3´を、既に定量化された残りの人間関係V1,V2と前記統計処理された人間関係V1,V2,V3の関係から推定する請求項3に記載の車両用操作支援装置。
  5. 車両情報学習ユニットと、操作傾向記憶ユニットとをさらに備え、
    前記車両情報学習ユニットは、
    車両に搭乗した複数の乗員を特定し、
    前記人間関係記憶ユニットから前記複数の乗員に関する人間関係を抽出し、
    前記車両の操作に関する操作情報を検出し、
    抽出された人間関係と検出された操作情報とを関連付け、
    前記操作傾向記憶ユニットは、前記関連付けられた人間関係及び操作情報を蓄積し、
    前記支援情報決定ユニットは、前記操作傾向記憶ユニットに蓄積された人間関係に関連する操作情報を、前記推奨されるべく定められた車両操作の支援情報として決定する請求項1~4のいずれか一項に記載の車両用操作支援装置。
  6. 前記人間関係解析ユニットは、複数の人間の会話音声データを取得して発話者を特定する場合に、
    複数の会話音声データの発話位置を検出し、
    複数の会話音声データのうち、前記発話位置が所定距離以下である会話音声データ群を抽出し、これらの会話音声データ群の発話者を会話グループとし、当該会話グループに属する発話者を特定する請求項1~5のいずれか一項に記載の車両用操作支援装置。
  7. 前記人間関係解析ユニットは、複数の人間の会話音声データを取得して発話者を特定する場合に、
    複数の会話音声データの発話期間を検出し、
    複数の会話音声データのうち、前記発話期間が所定時間以上重複しない会話音声データ群を抽出し、これらの会話音声データ群の発話者を会話グループとして推定し、当該会話グループに属する発話者を特定する請求項1~6のいずれか一項に記載の車両用操作支援装置。
  8. 前記端末機は、当該端末機のID及び位置情報を前記人間関係解析ユニットに送信する請求項1~7のいずれか一項に記載の車両用操作支援装置。
  9. 前記人間関係解析ユニットは、前記端末機のID、前記位置情報及び前記会話音声データに基づいて、解析された前記複数の人間同士の直接的な人間関係を取得する請求項8に記載の車両用操作支援装置。
  10. 前記人間関係解析ユニットは、複数の前記端末機同士の距離に基づいて、前記複数の会話音声データのうち、前記発話位置が所定距離以下である会話音声データ群を推定する請求項6に記載の車両用操作支援装置。
  11. 前記人間関係記憶ユニットに蓄積される前記直接的な人間関係は、所定の人間関係とその確率値とを含む請求項1~10のいずれか一項に記載の車両用操作支援装置。
  12. 人間関係解析ユニットと、人間関係記憶ユニットと、支援情報決定ユニットとを備えた車両用操作支援装置を用い、
    前記人間関係解析ユニットにより、乗員となり得る複数の人間の会話音声データに含まれる発話者毎の発話内容から、解析された前記複数の人間同士の直接的な人間関係を取得し、
    前記人間関係記憶ユニットにより、前記乗員となり得る複数の人間の前記直接的な人間関係を蓄積し、
    前記支援情報決定ユニットにより、車両に搭乗した複数の乗員を特定し、前記人間関係記憶ユニットに蓄積された前記直接的な人間関係に基づいて、前記複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定する車両操作を支援する車両用操作支援方法において、
    前記乗員となり得る複数の人間の会話音声データは、前記人間が車両に搭乗する場合以外にも収音可能な端末機により検出され、前記人間関係解析ユニットに送信される車両用操作支援方法。
JP2019554145A 2017-11-17 2017-11-17 車両用操作支援装置 Active JP7024799B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/041460 WO2019097674A1 (ja) 2017-11-17 2017-11-17 車両用操作支援装置

Publications (2)

Publication Number Publication Date
JPWO2019097674A1 JPWO2019097674A1 (ja) 2020-12-03
JP7024799B2 true JP7024799B2 (ja) 2022-02-24

Family

ID=66538941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019554145A Active JP7024799B2 (ja) 2017-11-17 2017-11-17 車両用操作支援装置

Country Status (10)

Country Link
US (1) US20210174790A1 (ja)
EP (1) EP3712887B1 (ja)
JP (1) JP7024799B2 (ja)
KR (1) KR20200074168A (ja)
CN (1) CN111801667B (ja)
BR (1) BR112020009783A2 (ja)
CA (1) CA3084696C (ja)
MX (1) MX2020004484A (ja)
RU (1) RU2768509C2 (ja)
WO (1) WO2019097674A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102249784B1 (ko) * 2020-01-06 2021-05-10 주식회사 파우미 소형 용기의 내부 코팅용 상방향 노즐

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020240730A1 (ja) * 2019-05-29 2020-12-03 三菱電機株式会社 受話者推定装置、受話者推定方法、及び受話者推定プログラム
WO2022244178A1 (ja) * 2021-05-20 2022-11-24 三菱電機株式会社 受話者推定装置、受話者推定方法、及び受話者推定プログラム
CN115376522B (zh) * 2021-05-21 2024-10-01 佛山市顺德区美的电子科技有限公司 空调器的声纹控制方法、空调器及可读存储介质
CN115878070B (zh) * 2023-03-01 2023-06-02 上海励驰半导体有限公司 一种车载音频播放方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099195A (ja) 2004-09-28 2006-04-13 Sony Corp 視聴コンテンツ提供システム及び視聴コンテンツ提供方法
WO2007105436A1 (ja) 2006-02-28 2007-09-20 Matsushita Electric Industrial Co., Ltd. ウェアラブル端末
JP2009232415A (ja) 2008-03-25 2009-10-08 Denso Corp 自動車用情報提供システム
JP2012133530A (ja) 2010-12-21 2012-07-12 Denso Corp 車載装置
JP2013182560A (ja) 2012-03-05 2013-09-12 Nomura Research Institute Ltd 人間関係推定システム
WO2016121174A1 (ja) 2015-01-30 2016-08-04 ソニー株式会社 情報処理システムおよび制御方法
JP2017009826A (ja) 2015-06-23 2017-01-12 トヨタ自動車株式会社 グループ状態判定装置およびグループ状態判定方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2229398C1 (ru) * 2003-09-12 2004-05-27 Общество с ограниченной ответственностью "Альтоника" Охранно-навигационная система для транспортного средства
JP4670438B2 (ja) * 2005-04-01 2011-04-13 ソニー株式会社 コンテンツおよびそのプレイリストの提供方法
US20100042498A1 (en) * 2008-08-15 2010-02-18 Atx Group, Inc. Criteria-Based Audio Messaging in Vehicles
JP2010190743A (ja) * 2009-02-18 2010-09-02 Equos Research Co Ltd ナビゲーションシステム及びナビゲーション装置
JP2011081763A (ja) * 2009-09-09 2011-04-21 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
WO2011064938A1 (ja) * 2009-11-25 2011-06-03 日本電気株式会社 音声データ解析装置、音声データ解析方法及び音声データ解析用プログラム
US11070661B2 (en) * 2010-09-21 2021-07-20 Cellepathy Inc. Restricting mobile device usage
EP2624252B1 (en) * 2010-09-28 2015-03-18 Panasonic Corporation Speech processing device and speech processing method
US8775059B2 (en) * 2011-10-26 2014-07-08 Right There Ware LLC Method and system for fleet navigation, dispatching and multi-vehicle, multi-destination routing
US9008906B2 (en) * 2011-11-16 2015-04-14 Flextronics Ap, Llc Occupant sharing of displayed content in vehicles
US10169464B2 (en) * 2012-05-14 2019-01-01 Ramesh Sivarajan System and method for a bidirectional search engine and its applications
US20150193888A1 (en) * 2014-01-06 2015-07-09 Linkedln Corporation Techniques for determining relationship information
CN105701123B (zh) * 2014-11-27 2019-07-16 阿里巴巴集团控股有限公司 人车关系的识别方法及装置
CN104933201A (zh) * 2015-07-15 2015-09-23 蔡宏铭 基于同行信息的内容推荐方法及系统
US11170451B2 (en) * 2015-10-02 2021-11-09 Not So Forgetful, LLC Apparatus and method for providing gift recommendations and social engagement reminders, storing personal information, and facilitating gift and social engagement recommendations for calendar-based social engagements through an interconnected social network
US10298690B2 (en) * 2017-01-10 2019-05-21 International Business Machines Corporation Method of proactive object transferring management

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099195A (ja) 2004-09-28 2006-04-13 Sony Corp 視聴コンテンツ提供システム及び視聴コンテンツ提供方法
WO2007105436A1 (ja) 2006-02-28 2007-09-20 Matsushita Electric Industrial Co., Ltd. ウェアラブル端末
JP2009232415A (ja) 2008-03-25 2009-10-08 Denso Corp 自動車用情報提供システム
JP2012133530A (ja) 2010-12-21 2012-07-12 Denso Corp 車載装置
JP2013182560A (ja) 2012-03-05 2013-09-12 Nomura Research Institute Ltd 人間関係推定システム
WO2016121174A1 (ja) 2015-01-30 2016-08-04 ソニー株式会社 情報処理システムおよび制御方法
JP2017009826A (ja) 2015-06-23 2017-01-12 トヨタ自動車株式会社 グループ状態判定装置およびグループ状態判定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102249784B1 (ko) * 2020-01-06 2021-05-10 주식회사 파우미 소형 용기의 내부 코팅용 상방향 노즐

Also Published As

Publication number Publication date
BR112020009783A2 (pt) 2020-11-03
WO2019097674A1 (ja) 2019-05-23
EP3712887B1 (en) 2021-09-29
CA3084696A1 (en) 2019-05-23
EP3712887A4 (en) 2021-03-10
RU2020117547A (ru) 2021-12-17
EP3712887A1 (en) 2020-09-23
RU2768509C2 (ru) 2022-03-24
KR20200074168A (ko) 2020-06-24
CA3084696C (en) 2023-06-13
RU2020117547A3 (ja) 2021-12-17
US20210174790A1 (en) 2021-06-10
MX2020004484A (es) 2020-08-03
JPWO2019097674A1 (ja) 2020-12-03
CN111801667A (zh) 2020-10-20
CN111801667B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
JP7024799B2 (ja) 車両用操作支援装置
US11868943B2 (en) Business metric identification from structured communication
CN103038818B (zh) 在车载语音识别系统与车外语音识别系统之间的通信系统和方法
JP6820664B2 (ja) 受付システムおよび受付方法
JP2010217318A (ja) 同乗者検索装置および同乗者検索プログラム
JP6125445B2 (ja) ライフログ記録システム及びそのプログラム
US20220035840A1 (en) Data management device, data management method, and program
JP6563451B2 (ja) 移動支援装置、移動支援システム、移動支援方法及び移動支援プログラム
CN105869631B (zh) 语音预测的方法和装置
JP6954821B2 (ja) 対話管理装置及びプログラム
US20220036381A1 (en) Data disclosure device, data disclosure method, and program
US11755652B2 (en) Information-processing device and information-processing method
JP2021144370A (ja) 車両乗合支援システム及び車両乗合支援方法
JP7230793B2 (ja) 情報処理装置、情報処理方法、及び、システム
WO2022264391A1 (ja) サーバ装置、システム、サーバ装置の制御方法及び記憶媒体
JP2019159790A (ja) 情報処理方法及び情報処理装置
JP2023124138A (ja) 評価装置
CN111538890A (zh) 一种基于语音识别的室内引导方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20200420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R151 Written notification of patent or utility model registration

Ref document number: 7024799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151