JP6612707B2 - 情報提供装置 - Google Patents

情報提供装置 Download PDF

Info

Publication number
JP6612707B2
JP6612707B2 JP2016194995A JP2016194995A JP6612707B2 JP 6612707 B2 JP6612707 B2 JP 6612707B2 JP 2016194995 A JP2016194995 A JP 2016194995A JP 2016194995 A JP2016194995 A JP 2016194995A JP 6612707 B2 JP6612707 B2 JP 6612707B2
Authority
JP
Japan
Prior art keywords
information
unit
occupant
emotion
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016194995A
Other languages
English (en)
Other versions
JP2018059960A (ja
Inventor
智子 新谷
博光 湯原
英輔 相馬
紳一郎 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016194995A priority Critical patent/JP6612707B2/ja
Priority to CN201710892462.2A priority patent/CN107886970B/zh
Priority to US15/720,191 priority patent/US20180096699A1/en
Publication of JP2018059960A publication Critical patent/JP2018059960A/ja
Application granted granted Critical
Publication of JP6612707B2 publication Critical patent/JP6612707B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Transportation (AREA)
  • Artificial Intelligence (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、車両の運転者と車両内のコンピュータとの意思疎通またはコミュニケーションを実行する装置に関する。
車両の搭乗者の会話から車内の盛り上がりを判定して搭乗者に娯楽を提供する技術が公知である。(特許文献1参照)この従来例ではオーディオデータの振幅により盛り上がりを判定している。
特開2002−193150号公報
しかし、車内の盛り上がりをオーディオデータの振幅のみに頼ったのではあまりに機械的で必ずしも乗員に受け入れられるタイミングとは限らない。また、提供する娯楽が予め設定されたものであったので、その場の会話に即したものとは限らない。仮に会話中に新たに得られた情報などを提供するものであれば、その場の会話により即したものとなると思われる。
そこで、本発明は、車両の乗員同士の会話の盛り上がりを把握して、そこから当該乗員の関心が高いと思われるキーワードを基に、より適当な情報を当該乗員に対してよりタイミング良く提供することができる装置を提供することを目的とする。
本発明の情報提供装置は、車両の乗員に対して情報を提供する情報提供装置であって、前記乗員の状態を表わす乗員状態情報に基づいて前記乗員の感情を推定する感情推定・判定部と、前記感情推定・判定部により推定された前記乗員の感情が盛り上りを表わしていると判定された場合、前記乗員の感情が盛り上りを表わしていると判定された時点よりも一定時間だけ過去の対象時間帯において出現した対象キーワードを指定したうえで出力する対象キーワード指定部と、前記感情推定・判定部により推定された、前記対象キーワードに対する前記乗員の感情が肯定を表わす場合、前記対象キーワードに関連する情報を取得したうえで出力する情報生成部と、を備えていることを特徴とする。
本発明の情報提供装置が、前記情報生成部により出力された前記情報および前記感情推定・判定部により推定された、当該情報に対する前記乗員の反応を表わす感情を関連付けて記憶する記憶部をさらに備え、前記情報生成部が、前記記憶部により関連付けて記憶されている前記情報および前記乗員の反応感情に基づき、新たな情報を決定することが好ましい。
本発明の情報提供装置によれば、車両の乗員が発したキーワードおよびその感情に鑑みて、より適当な情報をより適切なタイミングで当該乗員に対して提供することができる。
基本システムの構成説明図。 エージェント装置の構成説明図。 携帯端末装置の構成説明図。 本発明の一実施形態としての情報提供装置の構成説明図。 情報提供装置の機能説明図。 既存のプルチックモデルに関する説明図。
(基本システムの構成)
本発明の一実施形態としての情報提供装置4(図4参照)は、図1に示されている基本システムの構成要素のうち少なくとも一部により構成されている。基本システムは、車両X(移動体)に搭載されているエージェント装置1、乗員により車両Xの内部に持ち込み可能な携帯端末装置2(例えばスマートホン)およびサーバ3により構成されている。エージェント装置1、携帯端末装置2およびサーバ3は無線通信網(例えばインターネット)を通じて相互に無線通信する機能を備えている。エージェント装置1および携帯端末装置2は、同一の車両Xの空間内に共存するなど、物理的に近接している場合、近接無線方式(例えばBluetooth(「Bluetooth」は登録商標))により相互に無線通信する機能を備えている。
(エージェント装置の構成)
エージェント装置1は、例えば図2に示されているように、制御部100、センサ部11(GPSセンサ111、車速センサ112およびジャイロセンサ113を備えている。また、車内外の温度センサ、シートまたはハンドルの温度センサまたは加速度センサが含まれていてもよい。)、車両情報部12、記憶部13、無線部14(近接無線通信部141および無線通信網通信部142を備えている。)、表示部15、操作入力部16、オーディオ部17(音声出力部)、ナビゲーション部18、撮像部191(車内カメラ)および音声入力部192(マイク)および計時部(時計)193を備えている。時計は後述のGPS(Global Positioning System)の時刻情報を用いるものであってもよい。
車両情報部12は、CAN−BUS(CAN)などの車内ネットワークを通じて車両情報を取得する。車両情報には、例えばイグニッションスイッチのON/OFF、安全装置系の動作状況(ADAS(Advanced Driving Assistant System)、ABS(Antilock Brake System)およびエアバッグなど)の情報が含まれている。操作入力部16は、スイッチ押下等の操作のほか、乗員の感情推定に利用可能なステアリング、アクセルペダルまたはブレーキペダルの操作量、窓およびエアコンの操作(温度設定値または車内外の温度センサの測定値)などの入力を検知する。エージェント装置1の記憶部13は、車両の運転中、乗員の音声情報を継続的に記憶するために十分な記憶容量を備えるものである。また、サーバ3に各種情報が記憶されていてもよい。
(携帯端末装置の構成)
携帯端末装置2は、例えば図3に示されているように、制御部200、センサ部21(GPSセンサ211およびジャイロセンサ213を備えている。また、端末周辺の温度を測る温度センサまたは加速度センサが含まれていてもよい。)、記憶部23(データ記憶部231およびアプリケーション記憶部232を備えている。)、無線部24(近接無線通信部241および無線通信網通信部242を備えている。)、表示部25、操作入力部26、音声出力部27、撮像部291(カメラ)および音声入力部292(マイク)および計時部(時計)293を備えている。時計は後述のGPS(Global Positioning System)の時刻情報を用いるものであってもよい。
携帯端末装置2は、エージェント装置1と共通する構成要素を備えている。携帯端末装置2は、車両情報を取得する構成要素(図2/車両情報部12参照)を備えていないが、例えば近接無線通信部241を通じてエージェント装置1から車両情報を取得することが可能である。また、アプリケーション記憶部232に記憶されているアプリケーション(ソフトウェア)にしたがって、エージェント装置1のオーディオ部17およびナビゲーション部18のそれぞれと同様の機能を携帯端末装置2が備えていてもよい。
(情報提供装置の構成)
図4に示されている本発明の一実施形態としての情報提供装置4は、エージェント装置1および携帯端末装置2のうち一方または両方により構成されている。ここで「情報」とは、会話がなされているその場の雰囲気や乗員の感情にそったもの(情報)、乗員の関心の高いもの(情報)や乗員にとって利用価値の高いと思われるもの(情報)などを包含する概念である。
情報提供装置4の一部の構成要素がエージェント装置1の構成要素であり、情報提供装置4のその他の構成要素が携帯端末装置2の構成要素であり、相互の構成要素を補完し合うようにエージェント装置1および携帯端末装置2が連携してもよい。例えば、エージェント装置1の記憶容量を比較的大きく設定できることを利用して、情報を携帯端末装置2からエージェント装置1に送信し、大容量の情報を蓄積する構成としてもよい。携帯端末装置2のアプリケーションプログラムなどの機能が比較的頻繁にバージョンアップされ、あるいは、乗員情報を日常的に随時取得しやすいことから携帯端末装置2で取得された判断結果および情報をエージェント装置1に送信する構成としてもよい。エージェント装置1からの指示で携帯端末装置2により情報を提供する構成としてもよい。
符号に関してN1(N2)という記載は、構成要素N1および構成要素N2のうち一方または両方により構成されていることまたは実行されていることを表わしている。
情報提供装置4は、制御部100(200)を含み、 その働きにより必要に応じて、センサ部11(22)、 車両情報部12、無線部14(24)、操作入力部16、オーディオ部17、 ナビゲーション部18、撮像部191(291)、音声入力部192(292)、計時部(時計)193、さらには記憶部13(23)から情報または蓄積情報を取得し、また、必要に応じて、表示部15(25)または音声出力部17(27) から情報(コンテンツ)を提供する。また、情報提供装置4の使用に伴う乗員最適化のため必要な情報を記憶部13(23)に記憶する。
情報提供装置4は、情報取得部410と、情報処理部420と、を備えている。記憶部13(23)は、履歴記憶部441と、反応記憶部442と、を備えている。
情報取得部410は、乗員情報取得部411、車内状況情報取得部412、オーディオ作動状態情報取得部413、交通状況情報取得部414および外部情報取得部415を備えている。
乗員情報取得部411は、撮像部191(291)、音声入力部192(292)、オーディオ部17、ナビゲーション部18および時計402からの出力信号に基づき、車両Xの運転者などの乗員に関する情報を乗員情報として取得する。
乗員情報取得部411は、撮像部191(291)、音声入力部192(292)、および時計402からの出力信号に基づき、車両Xの乗員を含む乗員に関する情報を取得する。オーディオ作動状態情報取得部413は、オーディオ部17の作動状態に関する情報をオーディオ作動状態情報として取得する。交通状況情報取得部414は、サーバ3およびナビゲーション部18と連携することにより車両Xに関する交通状況情報を取得する。
撮像部191(291)により撮像された、乗員(特に車両Xの運転者または主乗員(第1乗員))がオーディオ部17から出力されている音楽のリズムに合わせて身体の一部(例えば頭部)を周期的に動かしている様子など、その所作を表わす動画が乗員情報として取得されてもよい。音声入力部192(292)により検出された、乗員の鼻歌が乗員情報として取得されてもよい。撮像部191(291)により撮像された、ナビゲーション部18の出力画像変更または音声出力に応じた乗員(第1乗員)の視線の動きなどの反応を表わす動画が乗員情報として取得されてもよい。オーディオ作動状態情報取得部413により取得された、オーディオ部17から出力されている音楽情報に関する情報が乗員情報として取得されてもよい。
車内状況情報取得部412が、車内状況情報を取得する。撮像部191(291)により撮像された、乗員(特に車両Xの運転者(第1乗員)の同乗者または副乗員(第2乗員))が、眼を閉じている様子、車外を眺めている様子、またはスマートホンの操作をしている様子など、その所作を表わす動画が車内状況情報として取得されてもよい。音声入力部192(292)により検出された、第1乗員および第2乗員の会話または第2乗員の発話の内容が乗員情報として取得されてもよい。
交通状況情報取得部414が、交通状況情報を取得する。サーバ3から情報提供装置4に対して送信された、ナビゲーションルートまたはこれを包含する領域に含まれる道路またはこれを構成するリンクの移動コスト(距離、移動所要時間、交通渋滞度またはエネルギー消費量)が交通状況情報として取得されてもよい。ナビゲーションルートは、現在地おり構成され、現在地点または出発地点から目的地点まで連続する複数のリンクにナビゲーション部18もしくは携帯端末装置2のナビゲーション機能、またはサーバ3によって計算される。情報提供装置4の現在地点は、GPSセンサ111(211)によって測定される。出発地点および目的地点は、操作入力部16(26)または音声入力部192(292)を通じて乗員により設定される。
情報処理部420は、盛り上り判定部421(感情推定・判定部4211および文章特徴抽出部4212を備えている。)と、対象キーワード指定部423と、検索処理部424と、情報生成部430と、フィードバック情報生成部440と、を備えている。
盛り上り判定部421は、乗員の会話を含む車内状況情報または1次情報を常時取得し、盛り上がりの有無を把握する。「大好きである」または「愛らしい」などの乗員の感情を認識し、「盛り上がり」を認識する。乗員同士の会話が続いている中で、感情に特徴は認識されないものの、同じキーワードが繰り返されている状態から「盛り上がっている」と判定される。感情推定・判定部4211は、情報取得部410により取得された車内状況情報および交通状況情報のうち少なくとも1つである乗員状態情報に基づき、乗員の感情を推定する。文章特徴抽出部4212は、乗員の発話内容を表わす文章の特徴を抽出する。対象キーワード指定部423は、感情推定・判定部4211により推定された乗員の感情が高揚(盛り上がりなど)を表わす場合、検索処理部424により検索された対象キーワードを、表示部15(25)および音声出力部17(27)のうち少なくとも一方を通じて出力する。情報生成部430は、感情推定・判定部4211により推定された、対象キーワードに対する乗員の感情が肯定(共感など)を表わす場合、対象キーワードに関連する情報を取得したうえで、表示部15(25)および音声出力部17(27)のうち少なくとも一方を通じて出力する。情報は、記憶部13(23)から取得されてもよく、または無線通信網を介してサーバ3から取得されてもよい。フィードバック情報生成部440は、フィードバック情報を生成する。
記憶部13(23)は、情報生成部430により出力された情報および感情推定・判定部4211により推定された、当該情報に対する乗員の反応を表わす感情を関連付けて記憶する。情報生成部430は、記憶部13(23)により関連付けて記憶されている情報および乗員の反応感情に基づき、新たな情報を決定する。
(情報提供装置の作用)
前記構成の情報提供装置4の作用または機能について説明する。
情報取得部410が、車両Xの乗員である乗員の音声情報またはライブデータを取得する(図5/STEP102)。音声入力部192(292)により検出された、車両Xのキャビンスペースにいる一または複数の乗員の発話または会話が音声情報として取得される。
感情推定・判定部4211が、情報取得部410により取得された乗員情報、車内状況情報および交通状況情報のうち少なくとも1つである乗員状態情報(第1情報)に基づき、乗員の第1の感情(感情値)を推定または抽出する(図5/STEP104)。具体的には、第1情報を入力として、ディープラーニングまたはサポートベクターマシン等の機械学習により作成されたフィルターが用いられて、乗員の感情値が推定される。例えば、複数の乗員が会話を楽しんでいる様子を示す動画または音声情報が乗員状態情報に含まれている場合、当該複数の乗員の感情値が高く推定される。感情の推定は公知または新規の感情モデルに基づいて実行されてもよい。図6は公知のプルチックの感情モデルを簡略的にしましたものである。4組8種の感情に分類され、それは放射の8方向L1〜・・L5〜L8に「喜び、悲しみ、怒り、恐れ、嫌悪、信頼、驚き、期待」が表示され円の中心に寄るほど(C1→C3)感情の程度が強いものとして表現されている。
盛り上り判定部421が、車両Xの乗員同士の会話を含む情報に基づき、車両Xの乗員の感情または雰囲気が盛り上がっているか否かを判定する(図5/STEP106)。この処理は、盛り上り有無の1次判定処理に該当する。例えば、乗員の会話内容に基づいて「大好きである」「愛らしい」などの感情を当該乗員が抱いていることが推定された場合、乗員が盛り上がっていると判定される。また、この盛り上がりの判定は、複数人に限らず、独り言でも適用可能である。肯定の判定は、一つの文章で行われるのではなく、他人または自分でもやや間をおいて「うん。そうそう。いいね」と肯定を示すもので、笑い声でも良い。
当該1次判定結果が否定的である場合(図5/STEP106‥NO)、盛り上り判定部421が、乗員同士の会話が続いている中で、感情に特徴は認識されないものの、文章特徴抽出部4212により抽出された同一のキーワードまたは語句が(指定回数以上にわたり)繰り返されているか否かを判定する(図5/STEP108)。この処理は、盛り上り有無の2次判定処理に該当する。同一のキーワードまたは語句が繰り返されている場合、乗員が盛り上がっていると判定される。
車両Xの乗員が盛り上がっていないと判定された場合(図5/STEP106‥NOまたはSTEP108‥NO)、乗員の音声情報取得以降の処理が繰り返される(図5/STEP102→STEP104→STEP106→STEP108参照)。
その一方、車両Xの乗員が盛り上がっている(または同一のキーワードまたは語句が繰り返されている)と判定された場合(図5/STEP106‥YESまたはSTEP108‥YES)、対象キーワード指定部423が、乗員の盛り上がっていると判定された時点よりも過去の一定の時間帯(数秒から数十秒の範囲の長さ)を特定する。当該閾値以上の推定感情値が出現した時点よりも一定時間(例えば1分間)だけ過去の対象時間帯を決定する(図5/STEP110)。対象キーワード指定部423が、対象時間帯における音声情報から抽出されたキーワードの中から対象キーワードを指定したうえで、表示部15(25)および音声出力部17(27)のうち少なくとも一方を通じて出力する(図5/STEP112)。
情報取得部410が、対象キーワードに接した際の乗員の状態を表わす乗員状態情報を取得し、感情推定・判定部4211が、当該乗員状態情報(第2情報)に基づいて当該乗員の反応から第2の感情を推定する(図5/STEP114)。具体的には、第2情報を入力として、ディープラーニングまたはサポートベクターマシン等の機械学習により作成されたフィルターが用いられて、乗員の感情が推定される。感情の推定は公知の感情モデル(図6参照)または新規の感情モデルに基づいて実行されてもよい。第2情報は、感情値の評価基礎である第1情報(図5/STEP106参照)と同一であってもよく異なっていてもよい。
例えば、「いいね」、「賛成」または「行ってみよう」などの肯定的なキーワードが含まれている音声情報が第2情報に含まれている場合、乗員の反応感情が肯定であると推定される可能性が高くなる。これとは逆に、「いまいち」、「反対」または「やめとく」などの否定的なキーワードが含まれている音声情報が第2情報に含まれている場合、乗員の反応感情が否定であると推定される可能性が高くなる。
情報生成部430が、感情推定・判定部4211により推定された、対象キーワードに対する乗員の第2の感情が肯定(共感など)を表わすか否かを判定する(図5/STEP116)。乗員の第2の感情が否定など、肯定を表わしていないと判定された場合(図5/STEP116‥NO)、盛り上りの有無判定以降の処理が繰り返される(図5/STEP106→‥→STEP116参照)。その一方、乗員の反応感情が肯定を表わしていると判定された場合(図5/STEP116‥YES)、情報生成部430が、対象キーワードに関連する情報を取得する(図5/STEP118)。当該情報が、外部情報源からその都度検索されてもよく、外部情報源から頻繁に得られる(自動的に送られてくる)外部情報が一旦記憶部13(23)に記憶され、その中から情報が選択されてもよい。情報生成部430が、表示部15(25)および音声出力部17(27)のうち少なくとも一方を通じて当該情報を出力する(図5/STEP120)。当該出力情報は、「車両Xの乗員同士の会話内容に合った情報」または「車両Xの乗員の雰囲気に合った情報」として提供される。
情報取得部410が、情報に接した際の乗員の状態を表わす乗員状態情報を取得し、感情推定・判定部4211が、当該乗員状態情報(第3情報)に基づいて当該乗員の反応から第3の感情を推定する(図5/STEP122)。具体的には、第3情報を入力として、ディープラーニングまたはサポートベクターマシン等の機械学習により作成されたフィルターが用いられて、乗員の第3の感情が推定される。感情の推定は公知の感情モデル(図6参照)または新規の感情モデルに基づいて実行されてもよい。第3情報は、感情推定基礎である第1情報(図5/STEP106参照)および第2情報と同一であってもよく異なっていてもよい。
そして、フィードバック情報生成部440が、出力情報と、これに対する乗員の第3の感情とを関連付けて記憶部13(23)に記憶させる(図5/STEP124)。情報生成部430は、記憶部13(23)により関連付けて記憶されている情報および乗員の反応感情に基づき、新たな対象キーワードまたはこれに応じた情報を決定することができる(図5/STEP112およびSTEP118参照)。
(情報提供装置の機能(変形例))
他の実施形態では、キーワードが抽出された後、情報生成部430によって当該キーワードに応じた情報が取得されたうえでキーワードおよび情報が関連付けられて記憶部13(23)に記憶保持されてもよい。そして、対象キーワードに対する乗員の第2の感情が肯定的であると判定された場合(図5/STEP116‥YES参照)、当該対象キーワードに関連付けられている情報が記憶部13(23)から読み出され、表示部15(25)および音声出力部17(27)のうち少なくとも一方を通じて出力されてもよい(図5/STEP120参照)。
(効果)
本発明の情報提供装置4によれば、車両の乗員が発したキーワードおよびその感情に鑑みて、より適当な情報をより適切なタイミングで当該乗員に対して提供することができる。
1‥エージェント装置、2‥携帯端末装置、3‥サーバ、4‥情報提供装置、11‥センサ部、111‥GPSセンサ、112‥車速センサ、113‥ジャイロセンサ、12‥車両情報部、13‥記憶部、14‥無線部、141‥近接無線通信部、142‥無線通信網通信部、15‥表示部、16‥操作入力部、17‥オーディオ部、18‥ナビゲーション部、191‥撮像部(車内カメラ)、192‥音声入力部(マイク)、21‥センサ部、211‥GPSセンサ、213‥ジャイロセンサ、23‥記憶部、231‥データ記憶部、232‥アプリケーション記憶部、24‥無線部、241‥近接無線通信部、242‥無線通信網通信部、25‥表示部、26‥操作入力部、27‥音声出力部、291‥撮像部(カメラ)、292‥音声入力部(マイク)、411‥乗員情報取得部、412‥車内状況情報取得部、413‥オーディオ作動状態情報取得部、414‥交通状況情報取得部、421‥盛り上り判定部、422‥働きかけ内容決定部、430‥情報生成部、441‥履歴記憶部、442‥反応記憶部、X‥車両(移動体)。

Claims (3)

  1. 車両の乗員に対して情報を提供する情報提供装置であって、
    前記乗員の状態を表わす乗員状態情報に基づいて前記乗員の感情を推定する感情推定・判定部と、
    前記感情推定・判定部により推定された前記乗員の感情が盛り上りを表わしていると判定された場合、前記乗員の感情が盛り上りを表わしていると判定された時点よりも一定時間だけ過去の対象時間帯において出現した対象キーワードを指定したうえで出力する対象キーワード指定部と、
    前記感情推定・判定部により推定された、前記対象キーワードに対する前記乗員の感情が肯定を表わす場合、前記対象キーワードに関連する情報を取得したうえで出力する情報生成部と、を備えていることを特徴とする情報提供装置。
  2. 請求項1記載の情報提供装置において、
    前記情報生成部により出力された前記情報および前記感情推定・判定部により推定された、当該情報に対する前記乗員の反応を表わす感情を関連付けて記憶する記憶部をさらに備え、
    前記情報生成部が、前記記憶部により関連付けて記憶されている前記情報および前記乗員の反応感情に基づき、新たな情報を決定することを特徴とする情報提供装置。
  3. 請求項1または記載の情報提供装置を備えていることを特徴とする移動体。
JP2016194995A 2016-09-30 2016-09-30 情報提供装置 Active JP6612707B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016194995A JP6612707B2 (ja) 2016-09-30 2016-09-30 情報提供装置
CN201710892462.2A CN107886970B (zh) 2016-09-30 2017-09-27 信息提供装置
US15/720,191 US20180096699A1 (en) 2016-09-30 2017-09-29 Information-providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016194995A JP6612707B2 (ja) 2016-09-30 2016-09-30 情報提供装置

Publications (2)

Publication Number Publication Date
JP2018059960A JP2018059960A (ja) 2018-04-12
JP6612707B2 true JP6612707B2 (ja) 2019-11-27

Family

ID=61757185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016194995A Active JP6612707B2 (ja) 2016-09-30 2016-09-30 情報提供装置

Country Status (3)

Country Link
US (1) US20180096699A1 (ja)
JP (1) JP6612707B2 (ja)
CN (1) CN107886970B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160146389A (ko) * 2015-06-12 2016-12-21 삼성전자주식회사 댁 내 기기를 제어하는 방법 및 이를 위한 장치
JP2018082283A (ja) * 2016-11-15 2018-05-24 富士通株式会社 情報提供装置、情報提供プログラムおよび情報提供方法
US20190096397A1 (en) * 2017-09-22 2019-03-28 GM Global Technology Operations LLC Method and apparatus for providing feedback
EP3716013A4 (en) * 2017-12-27 2021-09-29 Pioneer Corporation STORAGE DEVICE AND EXCITATION SUPPRESSION DEVICE
JP7091807B2 (ja) * 2018-04-23 2022-06-28 トヨタ自動車株式会社 情報提供システムおよび情報提供方法
JP6971205B2 (ja) * 2018-08-21 2021-11-24 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
WO2020242179A1 (ko) * 2019-05-29 2020-12-03 (주) 애니펜 콘텐츠를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
JP2022030591A (ja) 2020-08-07 2022-02-18 本田技研工業株式会社 編集装置、編集方法、およびプログラム
JP7310779B2 (ja) 2020-10-26 2023-07-19 トヨタ自動車株式会社 表示システム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
JP2002193150A (ja) * 2000-12-22 2002-07-10 Sony Corp 車載装置、自動車及び情報処理方法
CN101206637A (zh) * 2006-12-22 2008-06-25 英业达股份有限公司 建立使用者的操作习惯与兴趣的模型的系统及其方法
JP2008178037A (ja) * 2007-01-22 2008-07-31 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
US8370145B2 (en) * 2007-03-29 2013-02-05 Panasonic Corporation Device for extracting keywords in a conversation
CN101669090A (zh) * 2007-04-26 2010-03-10 福特全球技术公司 情绪提示系统和方法
JP4609527B2 (ja) * 2008-06-03 2011-01-12 株式会社デンソー 自動車用情報提供システム
US8577685B2 (en) * 2008-10-24 2013-11-05 At&T Intellectual Property I, L.P. System and method for targeted advertising
JP5326843B2 (ja) * 2009-06-11 2013-10-30 日産自動車株式会社 感情推定装置及び感情推定方法
US8649533B2 (en) * 2009-10-02 2014-02-11 Ford Global Technologies, Llc Emotive advisory system acoustic environment
US9493130B2 (en) * 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
JP6017854B2 (ja) * 2011-06-24 2016-11-02 本田技研工業株式会社 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
TWI473080B (zh) * 2012-04-10 2015-02-11 Nat Univ Chung Cheng The use of phonological emotions or excitement to assist in resolving the gender or age of speech signals
CN102723078B (zh) * 2012-07-03 2014-04-30 武汉科技大学 基于自然言语理解的语音情感识别方法
US9196248B2 (en) * 2013-02-13 2015-11-24 Bayerische Motoren Werke Aktiengesellschaft Voice-interfaced in-vehicle assistance
JP6088886B2 (ja) * 2013-03-29 2017-03-01 株式会社Jsol イベント準備促進アドバイスシステム及びその方法
WO2014172323A1 (en) * 2013-04-15 2014-10-23 Flextronics Ap, Llc Driver facts behavior information storage system
US9015737B2 (en) * 2013-04-18 2015-04-21 Microsoft Technology Licensing, Llc Linked advertisements
CN103235818A (zh) * 2013-04-27 2013-08-07 北京百度网讯科技有限公司 一种基于网页情感倾向性的信息推送方法和装置
CN103634472B (zh) * 2013-12-06 2016-11-23 惠州Tcl移动通信有限公司 根据通话语音判断用户心情及性格的方法、系统及手机
CN104102627B (zh) * 2014-07-11 2016-10-26 合肥工业大学 一种多模态的非接触情感分析记录系统
US20170004517A1 (en) * 2014-07-18 2017-01-05 Speetra, Inc. Survey system and method
US9533687B2 (en) * 2014-12-30 2017-01-03 Tk Holdings Inc. Occupant monitoring systems and methods
US10872354B2 (en) * 2015-09-04 2020-12-22 Robin S Slomkowski System and method for personalized preference optimization
CN105893344A (zh) * 2016-03-28 2016-08-24 北京京东尚科信息技术有限公司 基于用户语义情感分析的应答方法和装置
US10032453B2 (en) * 2016-05-06 2018-07-24 GM Global Technology Operations LLC System for providing occupant-specific acoustic functions in a vehicle of transportation
US10029698B2 (en) * 2016-07-19 2018-07-24 Futurewei Technologies, Inc. Adaptive passenger comfort enhancement in autonomous vehicles
US10546586B2 (en) * 2016-09-07 2020-01-28 International Business Machines Corporation Conversation path rerouting in a dialog system based on user sentiment
US9947319B1 (en) * 2016-09-27 2018-04-17 Google Llc Forming chatbot output based on user state
US10192171B2 (en) * 2016-12-16 2019-01-29 Autonomous Fusion, Inc. Method and system using machine learning to determine an automotive driver's emotional state

Also Published As

Publication number Publication date
CN107886970A (zh) 2018-04-06
CN107886970B (zh) 2021-12-10
US20180096699A1 (en) 2018-04-05
JP2018059960A (ja) 2018-04-12

Similar Documents

Publication Publication Date Title
JP6612707B2 (ja) 情報提供装置
CN108240819B (zh) 驾驶辅助装置和驾驶辅助方法
JP2018060192A (ja) 発話装置およびコミュニケーション装置
CN107886045B (zh) 设施满意度计算装置
US11142195B2 (en) Information processing apparatus, information processing method, and program
KR20180130672A (ko) 상황 기반 대화 개시 장치, 시스템, 차량 및 방법
US9875583B2 (en) Vehicle operational data acquisition responsive to vehicle occupant voice inputs
JP6173477B2 (ja) ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法
US9644985B2 (en) Navigation device that evaluates points of interest based on user utterance
US9928833B2 (en) Voice interface for a vehicle
CN110147160B (zh) 信息提供装置和信息提供方法
CN108932290B (zh) 地点提案装置及地点提案方法
CN113905938A (zh) 用于改进多个自动驾驶车辆与其所在驾驶环境间交互的系统和方法
WO2018123055A1 (ja) 情報提供システム
CN109102801A (zh) 语音识别方法和语音识别装置
US11460309B2 (en) Control apparatus, control method, and storage medium storing program
JP7020098B2 (ja) 駐車場評価装置、駐車場情報提供方法およびプログラム
WO2018123057A1 (ja) 情報提供システム
JP6619316B2 (ja) 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体
JP6419134B2 (ja) 車両感情表示装置、車両感情表示方法および車両感情表示プログラム
CN111746435A (zh) 信息提供装置、信息提供方法及存储介质
CN107888652B (zh) 处理结果异常检测装置、存储介质、检测方法和移动体
JP2009098217A (ja) 音声認識装置、音声認識装置を備えたナビゲーション装置、音声認識方法、音声認識プログラム、および記録媒体
JP7176383B2 (ja) 情報処理装置及び情報処理プログラム
JP2022137792A (ja) コミュニケーション支援装置及びコミュニケーション支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191031

R150 Certificate of patent or registration of utility model

Ref document number: 6612707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150