JP2018060248A - 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体 - Google Patents

処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体 Download PDF

Info

Publication number
JP2018060248A
JP2018060248A JP2016195193A JP2016195193A JP2018060248A JP 2018060248 A JP2018060248 A JP 2018060248A JP 2016195193 A JP2016195193 A JP 2016195193A JP 2016195193 A JP2016195193 A JP 2016195193A JP 2018060248 A JP2018060248 A JP 2018060248A
Authority
JP
Japan
Prior art keywords
user
emotion
processing result
abnormality detection
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016195193A
Other languages
English (en)
Other versions
JP6657048B2 (ja
Inventor
英輔 相馬
Eisuke Soma
英輔 相馬
智子 新谷
Tomoko Shinya
智子 新谷
博光 湯原
Hiromitsu Yuhara
博光 湯原
後藤 紳一郎
Shinichiro Goto
紳一郎 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016195193A priority Critical patent/JP6657048B2/ja
Priority to CN201710884531.5A priority patent/CN107888652B/zh
Priority to US15/720,152 priority patent/US10475470B2/en
Publication of JP2018060248A publication Critical patent/JP2018060248A/ja
Application granted granted Critical
Publication of JP6657048B2 publication Critical patent/JP6657048B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/50Testing arrangements
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Combustion & Propulsion (AREA)
  • Emergency Management (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)

Abstract

【課題】ユーザに与えられる煩わしさを軽減または解消しながら、異常な処理結果を判定することが出来る処理結果異常検出装置を提供する。【解決手段】処理結果異常検出装置は、ユーザUの挙動を認識するステップSTEP02、STEP12と、ユーザUの挙動に応じた処理を実行するステップSTEP10と、処理結果に対するユーザUの反応に基づいて、ユーザUの感情の度合いを推定するステップ(STEP14と、推定されたユーザUの感情の度合いが所定の閾値以上である場合STEP18:YES、STEP22:YES)に、処理結果を異常であると判定するステップSTEP20、STEP24と、を実行する。【選択図】図3

Description

本発明は、処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体に関する。
従来、道案内をする車載装置において、マイクで取得されたユーザの音声を解析し、ユーザの音声による指示を認識する装置が知られている(特許文献1参照)。
例えば、特許文献1では、ユーザとしての運転手より道案内が指示されると、運転手の状態が平常心による状態か否かを判定し、当該判定結果が否定的である場合、運転手の焦り度を判定し、当該判定された焦り度に基づいて、道案内時の音声の種類を切り替える技術が提案されている。
また特許文献2では認識エラーを報告する技術が開示されている。
特開2002−221429号公報 特開2000−259178号公報
しかし、周囲の雑音又はユーザの個別の発声の仕方等の理由により、ユーザの音声入力を正しく認識できない場合がある。このような場合、システムやアプリケーションへのフィードバックのために、エラー事象を外部の管理センターへ通信ネットワークを介してアップロードするなどしている。エラーは正誤の見分けがしにくいものもあるが、明らかに音声認識エラーとわかる事例もある。しかしその全てをエラーかも知れないとユーザが一々アップロードしたり等の作業をすることは手間であることに加え、ユーザにどのようなエラーかの区別を任せると、ユーザに煩わしさを覚えさせてしまうおそれがある。
そこで、本発明は、ユーザに与えられる煩わしさを軽減または解消しながら、処理結果の異常を検出できる、処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体を提供することを目的とする。
本発明の処理結果異常検出装置は、ユーザの反応を含む前記ユーザの挙動を認識する挙動認識部と、前記ユーザの挙動に応じた処理を実行する処理部と、前記処理の結果である処理結果に対する前記ユーザの反応に基づいて、前記ユーザの感情の度合いを推定する感情推定部と、推定された前記ユーザの感情の度合いが所定の閾値以上である場合に、前記処理結果を異常であると判定する判定部とを備えることを特徴とする。
本発明の処理結果異常検出装置において、前記処理結果が異常である
本発明の処理結果異常検出装置において、前記感情推定部は、前記処理結果に対する前記ユーザの反応に基づいて、前記ユーザの感情の度合いに加え、前記ユーザの感情の種別を推定するように構成され、前記判定部は、前記ユーザの感情の種別が否定的な種別である場合には、前記ユーザの感情の種別が肯定的な種別である場合よりも小さな値を前記閾値とすることが好ましい。
本発明の処理結果異常検出装置において、前記判定部は、前記ユーザの感情の度合いが所定の第1閾値以上である場合、前記処理結果を前記ユーザの指示の認識の異常を伴う第1異常と判定し、前記ユーザの感情の度合いが前記第1閾値未満かつ前記第1閾値よりも小さい第2閾値以上である場合、前記処理結果を前記ユーザの指示の認識の異常を伴わない第2異常であると判定することが好ましい。
本発明の処理結果異常検出装置において、前記感情推定部は、前記ユーザの指示に対応する前記ユーザの挙動に基づいて、前記処理前の前記ユーザの感情の度合いを推定し、前記判定部は、前記処理の前の前記ユーザの感情の度合いに基づいて前記閾値を定めることが好ましい。
本発明の処理結果異常検出装置において、前記感情推定部は、前記処理結果に対する前記ユーザの反応に基づいて、前記ユーザの感情の度合いに加え、前記ユーザの感情の種別を推定するように構成され、前記判定部は、前記ユーザの感情の種別が特定の種別であり、前記ユーザの感情の度合いが前記閾値以上である場合に、前記処理結果が異常であると判定することが好ましい。
当該構成の処理結果異常検出装置において、前記特定の種別は、肯定的な感情の種別を含むことが好ましい。
本発明の処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体によれば、ユーザに与えられる煩わしさを軽減または解消しながら、異常な処理結果を判定することが出来る。
処理結果異常検出システムの全体構成図。 エージェント装置のブロック図。 処理結果異常検出処理のフローチャート。 感情の種別を示すテーブルの説明図。 認識異常の一例を説明する図。 認識異常の他の例を説明する図。 図7Aは、肯定的感情の閾値設定の一例を示す図、図7Bは、否定的感情の閾値設定の一例を示す図、図7Cは、ユーザの感情が肯定的な感情と推定された場合の肯定的感情の閾値設定の一例を示す図、図7Dは、ユーザの感情が肯定的な感情と推定された場合の否定的感情の閾値設定の一例を示す図。
図1〜図7Dを参照して、本発明の処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体の一実施形態を説明する。
処理結果異常検出システムは、図1に示されるように、サーバ1と、複数の移動体2と、それぞれの移動体2に搭載され、かつ、エージェント装置3(処理結果異常検出装置)とを備える。サーバ1と、エージェント装置3とは、無線通信網を介して相互に通信可能に接続されている。移動体2は、例えば車両であり、その搭乗者を本明細書ではユーザUと呼ぶ。図1では1つの移動体に1名(ユーザU)が搭乗しているが、1つの移動体に複数名が搭乗していてもよい。
(サーバの構成)
サーバ1は、一又は複数のコンピュータにより構成されている。サーバ1は、それぞれのエージェント装置3から、データ及びリクエストを受信し、データをデータベース等の記憶部に記憶し、リクエストに応じた処理を実行し、処理結果をエージェント装置3に送信するように構成されている。
サーバ1を構成するコンピュータの一部又は全部が、移動局、例えば、一又は複数のエージェント装置3の構成要素により構成されていてもよい。
本発明の構成要素が担当演算処理を実行するように「構成されている」とは、当該構成要素を構成するCPU等の演算処理装置が、ROM、RAM等のメモリ又は記録媒体から必要な情報に加えてソフトウェアを読み出し、当該情報に対して当該ソフトウェアにしたがって演算処理を実行するように「プログラムされている」又は「デザイン(設計)されている」ことを意味する。各構成要素が共通のプロセッサ(演算処理装置)により構成されてもよく、各構成要素が相互通信可能な複数のプロセッサにより構成されてもよい。
(移動体の構成)
移動体2は、例えば、四輪自動車であるが、これに加えてまたは代えて、二輪自動車、自転車、ロボット又は倒立振子型車両等であってもよい。
図2に示されるように、移動体2には、移動体2の各状態を示す信号を出力するセンサ部21と、無線接続又は有線接続によりセンサ部21に接続されたエージェント装置3とが搭載されている。
センサ部21は、移動体2の現在位置を取得するGPSセンサ211と、移動体2の移動速度を取得する車速センサ222と、移動体2の角速度を取得するジャイロセンサ223とを備えている。センサ部21は、不図示のセンサにより、移動体2のイグニッションスイッチの状態、移動体2に対するアクセル、ブレーキ又は操舵などの操作指示量及びその他の移動体2に搭載されている機器情報も取得するように構成されている。センサ部21は、取得された情報をエージェント装置3に出力するように構成されている。
(エージェント装置の構成)
エージェント装置3は、例えば、ナビゲーション装置のように、エージェント装置3のユーザU(移動体の乗員)が搭乗する移動体2に搭載可能なようにサイズ等が設計されている情報端末である。
エージェント装置3は、タブレット型端末又はアプリケーションプログラムによるカスタマイズ可能で、外部の情報検索が可能な回線無線電話、いわゆるスマートフォン等、ユーザUによる携帯が可能なようにサイズ、形状及び重量が設計されている情報端末により構成されてもよい。
エージェント装置3は、ユーザーの思考、行動や状態に応じてユーザUへ何らかの反応を示す、つまり“直接或いは間接的に働きかける”もので、ユーザUの意図を酌んで移動体2を制御したり、運転手のみの1人乗車であれば発話等何らかの手段により会話の相手をしたり、同乗者がいる複数乗車であれば乗員同士の会話の雰囲気を良好に保つように話題を提供するなど何らかの手段により会話に加わったりすることができるもので、これにより乗員がより快適に乗車できることを支援するものである。
エージェント装置3は、制御部31、記憶部32、出力部33、状態認識部34、通信部35及び処理部36を備えている。
制御部31は、CPU等のプロセッサにより構成されている。制御部31には、処理結果異常検出プログラムがインストールされている。処理結果異常検出プログラムが起動されることにより、制御部31は、後述の演算処理を実行する挙動認識部311、感情推定部312、処理認識部313及び判定部314として機能するように構成されている。
制御部31は、制御部31、記憶部32、出力部33、状態認識部34、通信部35及び処理部36と情報を送受信可能なように構成されている。
記憶部32は、RAM、ROM(EEPROM)又はHDD、着脱可能なカード型メモリ等の記憶装置により構成され、種々の情報を記録するように構成されている。記憶部32は、制御部31による演算処理で記憶又は使用されるユーザ挙動情報321、実行処理情報322、ユーザ感情情報323、異常情報324及びフィードバック情報325を記憶及び読出可能に構成されている。
出力部33は、画像表示部331と、音声出力部332とを備える。
画像表示部331は、液晶パネル又はディスプレイ等の画像を表示可能な表示装置により構成され、制御部31にインストールされているプログラム(処理結果異常検出プログラム)の機能に応じた機能画像又はナビゲーション画像が表示される。
音声出力部332は、例えばスピーカーにより構成され、制御部31から入力された信号に応じて、音声を出力するように構成されている。また、音声出力部332は、出力している音声等を含む動作状況を示す信号を制御部31に出力するように構成されている。
状態認識部34は、操作入力部341と、撮像部342と、音声入力部343とを備える。
操作入力部341は、タッチパッドのようなユーザUのタッチ操作を検知する入力装置により構成されている。操作入力部341でタッチ操作が検知されると、当該タッチ操作に対応する信号が制御部31へ出力される。操作入力部341と画像表示部331との組合せによりタッチパネルを構成してもよい。また、操作入力部341は、これに加えてまたは代えて、ボタン、キーボード及びマウス等のユーザUの操作が検知可能な入力装置により構成されてもよい。
撮像部342は、例えば、カメラにより構成され、移動体2の内部を撮影し、撮像した画像を信号化して制御部31に出力するように構成されている。
音声入力部343は、例えば、マイクにより構成され、ユーザUの音声を検知し、検知した音声を信号として制御部31に出力するように構成されている。音声入力部343は、制御部31が入力された信号から、音声出力部332から出力されている音声及び移動体2の動作音等の環境音を除去することにより、ユーザUの音声を認識するように構成されていてもよい。
通信部35は、近距離通信部351と、無線通信網通信部352とを備える。
近距離通信部351は、USB(Universal Serial Bus)接続コードなどの有線又は近距離での無線通信に適した通信規格にしたがって移動体2内の無線LAN等を介して移動体2又は移動体2に搭載された機器(たとえばセンサ部21)と相互に通信するように構成されている。
無線通信網通信部352は、3G、4G、LTE(Long term Evolution)、又はIEEE802.X(Xはb,c,ac,n等)規格に準拠したWiFi(登録商標)を用いた等の遠距離での無線通信に適した通信規格にしたがって無線通信網を介してサーバ1等の外部端末と相互通信するように構成されている。
処理部36は、検索部361と、ナビゲーション部362とを備える。
検索部361は、指定されたキーワードに関連する情報を、例えば、無線通信網通信部352を介してサーバ1と通信することにより、検索し、結果を出力部33に出力するように構成されている。
ナビゲーション部362は、指定された目的地までのルートを、例えば、無線通信網通信部352を介してサーバ1と通信することにより、探索し、、結果を出力部33に出力するように構成されている。
処理部36は、近距離通信部351を介して移動体2と通信することにより、移動体2に搭載された空調設備等の各機器の動作状態を制御するように構成されていてもよい。
エージェント装置3を構成するコンピュータの一部が、移動体2の外部のコンピュータ、例えば、サーバ1の構成要素により構成されていてもよい。例えば、サーバ1が、エージェント装置3からのリクエストを処理してエージェント装置3に返答することにより、エージェント装置3の制御部31または処理部36の一部又は全部として機能してもよい。また、サーバ1が、エージェント装置3からのリクエストに応じてデータを記憶し又は読出すことにより、エージェント装置3の記憶部32の一部又は全部として機能してもよい。
(処理結果異常検出処理)
図3〜図7Dを参照して、制御部31が実行する処理結果異常検出処理を説明する。
挙動認識部311は、状態認識部34を介して、ユーザUの挙動を認識する(図3/STEP02)。ユーザUの挙動とは、例えば、操作入力部341を介して検知したユーザUの操作であってもよいし、撮像部342を介して撮像したユーザUの動作又は表情であってもよいし、音声入力部343を介して検知したユーザUの発声でもよい。挙動認識部311は、認識されたユーザUの挙動と、不図示のタイマーにより測定された挙動を認識した時刻とを記憶部32のユーザ挙動情報321に追加して記憶する。
感情推定部312は、図3/STEP02において認識されたユーザUの挙動に基づいてユーザUの感情を推定する(図3/STEP04)。例えば、感情推定部312は、ユーザUの挙動を入力として、ディープラーニング又はサポートベクターマシン等の機械学習により作成されたフィルターを用いて、ユーザUの感情を推定する。ユーザUの感情は、図4に示されるような感情テーブルにより示される。濃く示されている感情ほど、ユーザUの感情の度合いが強いことを示す。感情推定部312は、推定されたユーザの感情とタイマーによって計測された推定日時とを記憶部32のユーザ感情情報323に追加して記憶する。
ユーザUの感情は、感情の種別と、感情の度合いとによって表現される。感情は、例えばプルチック氏によって提唱されるように幾つかの種類に分けて理解されることが提唱されている。例えば、感情は、好き、安定、気持ちいい、楽しい、喜び、信頼、期待等の肯定的な感情の種別と、不安定、嫌い、痛い、怒り、嫌悪等の否定的な感情の種別とを含む。 感情の推定は公知または新規の感情モデルに基づいて行われる。図4は、公知のプルチックの感情モデルを簡略に示したものである。公知のプルチックの感情のモデルにおいては、感情は、4組8種の感情「喜び、悲しみ、怒り、恐れ、嫌悪、信頼、驚き、期待」に分類される。各感情は放射の8方向L1〜・・L5〜L8に分類される。各感情は、円の中心に寄るほど(C1→C3)感情の度合いが強いものとして表現されている。例えば、喜びL1は、喜び小L1−C1、喜び中L1−C2、喜び大L1−C3に分類される。感情の度合いは、0以上の数値で表され、感情の度合いが強いほど、その感情が強いことを意味してもよい。ユーザUの感情は、複数の感情の種別ごとに、それぞれの種別に割り振られた感情の度合いによって表現される。
判定部314は、図3/STEP04において推定されたユーザUの感情に基づいて、閾値を設定する(図3/STEP06)。判定部314は、感情の各種別ごとに、推定されたユーザUの感情に基づいて、第1閾値と、第1閾値よりも小さい第2閾値を設定する。閾値の設定処理の詳細については後述する。
処理認識部313は、図3/STEP02において認識されたユーザUの挙動に基づいて、実行すべき処理を認識する(図3/STEP08)。
ここで、例えば、車両での移動途中で「周辺の 塩ラーメン のお店」を検索する場合を考える。この場合、ユーザUは、「塩ラーメン」と発声する。図3/STEP08では、ユーザUの発声をユーザUの挙動として認識する。
処理認識部313は、処理部36を介して、図3/STEP08で認識した処理を実行する(図3/STEP10)。この結果、例えば、処理部36における処理結果が出力部33から出力され、又は移動体2に搭載された機器の動作状態が制御されうる。処理認識部313は、タイマにより示される処理実行日時及び処理結果を記憶部32の実行処理情報322に追加する。
挙動認識部311は、状態認識部34を介して、図3/STEP10の処理結果に対するユーザUの反応(挙動)を認識する(図3/STEP12)。挙動認識部311は、認識されたユーザUの挙動とタイマーにより測定された挙動を認識した時刻とを記憶部32のユーザ挙動情報321に追加して記憶する。
感情推定部312は、図3/STEP12で認識したユーザUの反応に基づいて、ユーザUの感情を推定する(図3/STEP14)。感情推定部312は、推定したユーザUの感情とタイマにより示される推定日時とを記憶部32のユーザ感情情報323に追加する。
判定部314は、ユーザUの感情の種別が特定種別であるか否かを判定する(図3/STEP16)。ここで特定種別は、例えば、嫌い、怒り、イライラ、がっかり、楽しい、好き、うきうき、喜びである。ユーザUが複数の種別の感情を催していた場合には、判定部314は、その中に特定種別が含まれている場合、図3/STEP16の判定結果を肯定的と判断する。
図3/STEP16は、処理結果が異常であるかどうかを判定するための処理の1つであるが、ここで、特定種別に、嫌い、怒り、イライラ、がっかりという否定的な感情の種別だけでなく、楽しい、好き、うきうき、喜びという肯定的な感情の種別が含まれるのは、次のような理由からである。
例えば、図5に示されるように、ユーザUによる「塩ラーメン」との発言51にもかかわらず、エージェント装置3の出力部33(画像表示部331)に「塩ラーメン」と関係のない「空目」61に関連する情報の検索結果62が表示されるなど、ユーザの期待に沿わない処理結果であった場合、ユーザUが嫌い、怒り、イライラ、がっかりという否定的な感情を催す可能性の他に、処理結果62の意外さをユーザUが面白く感じるなど、ユーザUが楽しい、好き、うきうきという肯定的な感情を催す可能性があるためである。
図3/STEP16の判定結果が肯定的である場合(図3/STEP16・・YES)、判定部314は、ユーザUの特定種別の感情の度合いがその特定種別に対して定められた第1閾値以上であるか否かを判定する(図3/STEP18)。
当該判定結果が肯定的である場合(図3/STEP18・・YES)、判定部314は、処理結果がユーザUの挙動の認識の異常を伴う第1異常であると判定する(図3/STEP20)。判定部314は、図3/STEP02で認識されたユーザUの挙動、図3/STEP10の処理結果及び第1異常である旨を記憶部32の異常情報324に追加する。
当該判定結果が否定的である場合(図3/STEP18・・NO)、判定部314は、ユーザUの特定種別の感情の度合いがその特定種別に対して定められた第2閾値以上であるか否かを判定する(図3/STEP22)。
当該判定結果が肯定的である場合(図3/STEP22・・YES)、判定部314は、処理結果がユーザUの挙動に対する認識の異常を伴わない第2異常であると判定する(図3/STEP24)。判定部314は、図3/STEP02で認識されたユーザUの挙動、図3/STEP10の処理結果及び第2異常である旨を記憶部32の異常情報324に追加する。
図3/STEP20又は図3/STEP24の処理の後、判定部314は、異常情報324をサーバ1にアップロードする(図3/STEP26)。
図3/STEP16、又は図3/STEP22のいずれかの判定結果が否定的である場合(図3/STEP16・・NO又は図3/STEP22・・NO)、判定部314は、図3/STEP02で認識されたユーザUの挙動、図3/STEP10の処理結果及び異常でない旨を示すフィードバック情報をサーバ1にアップロードする(図3/STEP28)。
ここで、図5〜図7Aを参照しながら、図3/STEP18〜図3/STEP24の処理の意味について補足する。
本明細書では、処理結果の異常を第1異常と第2異常とに分けている。
第1異常は、図5に示されるような、ユーザUの「塩ラーメン」との発言51にもかかわらず、「塩ラーメン」と意味も出だしの言葉も異なる「空目」61に対する処理結果62のような、ユーザの挙動に対する認識の異常に起因する異常である。第1異常には、他に、検索対象キーワードの「塩ラーメン」と出だしの音は同一であるが意味が全く異なる「塩良方面」と認識する認識異常、又は検索センテンス「周辺の博多ラーメンか塩ラーメンのお店を検索」に対する「遠方の博多地方のお店」又は「伯方の塩」のように、各単語の関係を不適切に認識した結果、異なる意味の文言を認識する認識異常などがある。
第2異常は、図6に示されるような、ユーザUが内心で「塩ラーメン」を提供する店舗の検索を期待していたために、ユーザUの発言「塩ラーメン」52に対するキーワード「塩ラーメン」71の処理結果72がユーザUの期待に沿わなかった場合のような、ユーザUの挙動に対する認識の異常は伴っていない異常である。第2異常には、他に、例えば、検索キーワード「塩ラーメン」に対して、発話した言葉の一部が上手く認識できず、残部(例えば後半)の「ラーメン」だけが認識されてしまう認識異常、検索センテンス「周辺の博多ラーメンか塩ラーメンのお店を検索」に対する、各単語は適切に認識しているものの、ユーザの意図に沿った検索結果とはならない認識異常、例えば、食材を売るお店又はファミリーレストランのメニューを提示してしまう認識異常がある。
これらの異常においては、第1異常の方が第2異常と比較してユーザUにとって意外な結果となりやすいので、第1異常の方が第2異常と比較してユーザUに強い感情をもたらしやすい。例えば、図5に示されるような第1異常の場合、ユーザUは、「あり得ない」という反応で、大笑いしたり、大声で違うと言ってしまう可能性がある。また、図6に示されるような第2異常の場合、ユーザUは、「食べる処」「専門店を期待していたのに」という失望的な感情をいただいたり「違う」と述べる可能性がある。
このため、図7Aに示されるように、判定部314は、例えば、ユーザUの楽しいの感情の度合いが楽しいの第1閾値E1以上である場合(図3/STEP18‥YES)、処理結果が第1異常であると判定する。他方、判定部314は、例えば、ユーザUの楽しいの感情の度合いが楽しいの第1閾値E1未満(図3/STEP18‥NO)かつ第1閾値Eよりも小さい第2閾値E2以上である場合(図3/STEP22‥YES)、処理結果が第2異常であると判定する。
これにより、第1異常と第2異常との区別して検出することが出来る。
また、説明を後回しにした図3/STEP06の閾値の設定について説明する。
判定部314は、図7A及び図7Bに示されるように、楽しいのような肯定的な種別の感情の閾値E1,E2のそれぞれよりも、失望のような否定的な種別の感情の閾値D1、D2をそれぞれ小さく設定することが好ましい。これは、否定的な種別の感情をもたらすような処理結果を異常と認識し、異常から回復又は異常が発生しないように対策を取ることで、ユーザUの否定的な種別の感情を軽減または解消することが図れるためである。
判定部314は、また、図3/STEP04で推定されたユーザUの感情に基づいて、閾値を設定することが好ましい。
例えば、図3/STEP04で推定されたユーザUの感情が楽しい等の肯定的な種別の感情の度数が所定値以上である場合、図7Cに示されるように、肯定的な感情の種別の閾値E1+,E2+をユーザUの当該感情が平常の場合(当該感情の度合いがゼロである場合)の閾値E1,E2よりも大きくし、図7Dに示されるように、否定的な感情の種別の閾値D1+,D2+をユーザUの当該感情が平常の場合の閾値D1,D2よりも小さくすることが好ましい。また、図3/STEP04で推定されたユーザUの感情が失望等の否定的な種別の感情の度数が所定値以上である場合、否定的な感情の種別の閾値をユーザUの当該感情が平常の場合の閾値よりも大きくし、肯定的な感情の種別の閾値をユーザUの当該感情が平常の場合の閾値よりも小さくすることが好ましい。このようにすることで、処理前のユーザUの感情を勘案して異常判定を行うことが出来る。
(本実施形態の作用効果)
当該構成のエージェント装置3、処理結果異常検出プログラム、処理結果異常検出方法及び移動体2によれば、処理結果に対するユーザUの反応に基づいてユーザUの感情の度合いが推定され(図3/STEP14)、ユーザの感情の度合いが所定の閾値以上である場合(図3/STEP18・・YES又は図3/STEP22・・YES)、処理結果が異常であると判定される(図3/STEP20又は図3/STEP24)。
ここで、ユーザUの感情の度合いが所定の閾値以上となる場合とは、処理結果が、図5又は図6に示されるように、ユーザUにとって意外な処理結果である場合であり、ひいては、処理結果が、ユーザUの期待に沿わない、すなわち異常な処理結果である蓋然性が高い。
また、処理結果に対するユーザUの反応に基づいて処理結果の判定を行うので(図3/STEP18又は図3/STEP22)、処理結果が期待に沿っているかを入力等する等のユーザUによる追加の作業が不要となる。この結果、ユーザUに与えられる煩わしさが軽減または解消されうる。
従って、本発明のエージェント装置3、処理結果異常検出プログラム、処理結果異常検出方法及び移動体2によれば、ユーザUに与えられる煩わしさを軽減または解消しながら、異常な処理結果を精度よく検出することが出来る。
また、上記構成のエージェント装置3、処理結果異常検出プログラム、処理結果異常検出方法及び移動体2によれば、ユーザUの感情の種別が否定的な種別である場合には、ユーザUの感情の種別が肯定的な種別である場合よりも小さな値が所定の閾値として設定される(図3/STEP06、図7A〜図7D)。
これにより、否定的な感情が催された場合には、異常と判定されやすくなる。このような異常な判定結果に基づいて付加的な処理を行ったり、異常な処理が行われにくくなるように学習したりすることにより、ユーザUが催す否定的な種別の感情が軽減または解消されうる。
ユーザUの認識の異常を伴った処理結果である場合(図5)、ユーザの認識の異常を伴わない処理結果である場合よりも(図6)、ユーザの感情の度合いが大きくなると推察される。
この点に鑑みて構成された当該構成のエージェント装置3、処理結果異常検出プログラム、処理結果異常検出方法及び移動体2によれば、ユーザUの反応から処理結果の異常の種別が精度よく認識されうる。
処理結果が異常となる場合であっても、処理前のユーザUの感情に応じて、ユーザUの反応は異なりうる。この点に鑑みて構成されたエージェント装置3、処理結果異常検出プログラム、処理結果異常検出方法及び移動体2によれば、処理前のユーザUの感情に基づいて閾値が定められるので(図3/STEP06、図7B〜図7D)、処理前のユーザUの感情が勘案された形で処理結果の異常の有無が判定されうる。
処理結果がユーザUの期待に沿わない結果であった場合、ユーザUが催す感情の種別は限られているところ、当該構成のエージェント装置3、処理結果異常検出プログラム、処理結果異常検出方法及び移動体2によれば、ユーザUの感情の種別が特定の種別の感情である場合に(図3/STEP16・・YES)、処理結果が異常であると判定される(図3/STEP20又は図3/STEP24)。これにより、処理結果の異常の検出精度が向上しうる。
処理結果がユーザUの期待に沿わない結果であった場合でも、意外な結果に対して、ユーザUが面白く感じるなど、ユーザUが肯定的な感情を催す可能性がある。当該構成のエージェント装置3、処理結果異常検出プログラム、処理結果異常検出方法及び移動体2は、ユーザUが肯定的な感情を催した場合でも、感情の度合いが閾値以上となる場合に(図3/STEP18・・YES、図3/STEP22・・YES、図7A〜図7D)、処理結果が異常であると判定するので(図3/STEP20又は図3/STEP24)、処理結果の異常の検出精度が向上しうる。
(変形態様)
本実施形態では、第1閾値と第2閾値とを用いたが、これに代えて、一方の閾値により、第1異常のみを検出又は第1異常及び第2異常の両方を区別せず検出するようにしてもよい。
本実施形態では、図3/STEP26で異常情報をアップロードしたが、これに代えてまたは加えて、制御部31は、例えば処理結果が第1異常である場合には認識手法を変更して再度認識を実行したり、処理結果が第2異常である場合には処理内容を検索等の処理からナビゲーション等の異なる処理に変更して処理を再実行したりすることにより、異常状態からの回復する処理を実行してもよい。
また、制御部31は、第1異常である場合には、ユーザが早口でしゃべっているために認識できない可能性もあるため、ユーザにゆっくり発声することを促す音声を再生したり、音楽を再生する制御を行ってユーザを落ち着かせたりしてもよい。
本実施形態では、判定部314は、感情の種別が特定種別かどうかの判定を行ったが(図3/STEP16)、この処理を省略して、図3/STEP18の処理を実行してもよい。
本実施形態では、挙動認識部311は、エージェント装置3に備えられた状態認識部34からの入力に基づいてユーザUの挙動を認識したが、これに加えてまたは代えて、ユーザUが携帯する携帯端末と通信することにより、ユーザUの挙動を認識してもよい。
また、処理部36がエージェント装置3に備えられた出力部33に処理結果を出力することに加えてまたは代えて、ユーザUが携帯する携帯端末の出力部に処理結果を出力してもよい。
3・・エージェント装置、311・・挙動認識部、312・・感情推定部、314・・判定部、36・・処理部、U・・ユーザ。

Claims (9)

  1. ユーザの反応を含む前記ユーザの挙動を認識する挙動認識部と、
    前記ユーザの挙動に応じた処理を実行する処理部と、
    前記処理の結果である処理結果に対する前記ユーザの反応に基づいて、前記ユーザの感情の度合いを推定する感情推定部と、
    推定された前記ユーザの感情の度合いが所定の閾値以上である場合に、前記処理結果を異常であると判定する判定部とを備えることを特徴とする処理結果異常検出装置。
  2. 請求項1記載の処理結果異常検出装置において、
    前記感情推定部は、前記処理結果に対する前記ユーザの反応に基づいて、前記ユーザの感情の度合いに加え、前記ユーザの感情の種別を推定するように構成され、
    前記判定部は、前記ユーザの感情の種別が否定的な種別である場合には、前記ユーザの感情の種別が肯定的な種別である場合よりも小さな値を前記閾値とすることを特徴とする処理結果異常検出装置。
  3. 請求項1又は2記載の処理結果異常検出装置において、
    前記判定部は、前記ユーザの感情の度合いが所定の第1閾値以上である場合、前記処理結果を前記ユーザの指示の認識の異常を伴う第1異常と判定し、前記ユーザの感情の度合いが前記第1閾値未満かつ前記第1閾値よりも小さい第2閾値以上である場合、前記処理結果を前記ユーザの指示の認識の異常を伴わない第2異常であると判定することを特徴とする処理結果異常検出装置。
  4. 請求項1〜3のうちいずれか1項記載の処理結果異常検出装置において、
    前記感情推定部は、前記ユーザの指示に対応する前記ユーザの挙動に基づいて、前記処理前の前記ユーザの感情の度合いを推定し、
    前記判定部は、前記処理の前の前記ユーザの感情の度合いに基づいて前記閾値を定めることを特徴とする処理結果異常検出装置。
  5. 請求項1〜4のうちいずれか1項記載の処理結果異常検出装置において、
    前記感情推定部は、前記処理結果に対する前記ユーザの反応に基づいて、前記ユーザの感情の度合いに加え、前記ユーザの感情の種別を推定するように構成され、
    前記判定部は、前記ユーザの感情の種別が特定の種別であり、前記ユーザの感情の度合いが前記閾値以上である場合に、前記処理結果が異常であると判定することを特徴とする処理結果異常検出装置。
  6. 請求項5記載の処理結果異常検出装置において、
    前記特定の種別は、肯定的な感情の種別を含むことを特徴とする処理結果異常検出装置。
  7. 請求項1〜6のうちいずれか1項記載の処理結果異常検出装置を備えた移動体。
  8. ユーザの反応を含む前記ユーザの挙動を認識する挙動認識ステップと、
    前記ユーザの挙動に応じた処理を実行する処理ステップと、
    前記処理の結果である処理結果に対する前記ユーザの反応に基づいて、前記ユーザの感情の度合いを推定する感情推定ステップと、
    推定された前記ユーザの感情の度合いが所定の閾値以上である場合に、前記処理結果を異常であると判定する判定ステップとをコンピュータに実行させることを特徴とする処理結果異常検出プログラム。
  9. コンピュータが実行する方法であって、
    ユーザの反応を含む前記ユーザの挙動を認識する挙動認識ステップと、
    前記ユーザの挙動に応じた処理を実行する処理ステップと、
    前記処理の結果である処理結果に対する前記ユーザの反応に基づいて、前記ユーザの感情の度合いを推定する感情推定ステップと、
    推定された前記ユーザの感情の度合いが所定の閾値以上である場合に、前記処理結果を異常であると判定する判定ステップとを含むことを特徴とする処理結果異常検出方法。
JP2016195193A 2016-09-30 2016-09-30 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体 Active JP6657048B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016195193A JP6657048B2 (ja) 2016-09-30 2016-09-30 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
CN201710884531.5A CN107888652B (zh) 2016-09-30 2017-09-26 处理结果异常检测装置、存储介质、检测方法和移动体
US15/720,152 US10475470B2 (en) 2016-09-30 2017-09-29 Processing result error detection device, processing result error detection program, processing result error detection method, and moving entity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016195193A JP6657048B2 (ja) 2016-09-30 2016-09-30 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体

Publications (2)

Publication Number Publication Date
JP2018060248A true JP2018060248A (ja) 2018-04-12
JP6657048B2 JP6657048B2 (ja) 2020-03-04

Family

ID=61758299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016195193A Active JP6657048B2 (ja) 2016-09-30 2016-09-30 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体

Country Status (3)

Country Link
US (1) US10475470B2 (ja)
JP (1) JP6657048B2 (ja)
CN (1) CN107888652B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020142555A (ja) * 2019-03-04 2020-09-10 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021102240A (ja) * 2019-12-25 2021-07-15 セイコーエプソン株式会社 プログラム作成システム、プログラム作成装置およびロボットシステム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182680A (ja) * 2000-12-19 2002-06-26 Alpine Electronics Inc 操作指示装置
JP2009210992A (ja) * 2008-03-06 2009-09-17 Sony Corp 撮影装置
JP2010128015A (ja) * 2008-11-25 2010-06-10 Toyota Central R&D Labs Inc 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム
JP2013216241A (ja) * 2012-04-10 2013-10-24 Denso Corp 感情モニタリングシステム
JP2016149063A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
JP2000259178A (ja) 1999-03-08 2000-09-22 Fujitsu Ten Ltd 音声認識装置
JP4604360B2 (ja) 2001-01-29 2011-01-05 ソニー株式会社 情報提供装置、情報提供方法及び情報提供装置のプログラム
US20060122834A1 (en) * 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
BRPI0809759A2 (pt) * 2007-04-26 2014-10-07 Ford Global Tech Llc "sistema informativo emotivo, sistemas de informações emotivas, métodos de condução emotiva de informações, sistemas informativos emotivos para um veículo de passageiro e método implementado por computador"
US8649533B2 (en) * 2009-10-02 2014-02-11 Ford Global Technologies, Llc Emotive advisory system acoustic environment
US9159068B2 (en) * 2010-10-12 2015-10-13 International Business Machines Corporation Service management using user experience metrics
DE102011117850B4 (de) * 2011-11-08 2020-12-03 Audi Ag Verfahren zum Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Kraftfahrzeug
KR20130065846A (ko) * 2011-12-02 2013-06-20 삼성전자주식회사 사용자 감정 공유 장치 및 방법
US9245176B2 (en) * 2012-08-01 2016-01-26 Disney Enterprises, Inc. Content retargeting using facial layers
JP2014134922A (ja) * 2013-01-09 2014-07-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20160026237A1 (en) * 2013-01-21 2016-01-28 Nec Solution Innovators, Ltd. Screen changing device, screen changing method, and screen changing program
CN103269405A (zh) * 2013-05-23 2013-08-28 深圳市中兴移动通信有限公司 友好提示的方法及装置
EP2857276B1 (en) * 2013-08-20 2018-12-12 Harman International Industries, Incorporated Driver assistance system
WO2015116582A1 (en) * 2014-01-30 2015-08-06 Futurewei Technologies, Inc. Emotion modification for image and video content
JP6445873B2 (ja) * 2015-01-14 2018-12-26 Kyb株式会社 ショックアブソーバ
US10698951B2 (en) * 2016-07-29 2020-06-30 Booktrack Holdings Limited Systems and methods for automatic-creation of soundtracks for speech audio

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182680A (ja) * 2000-12-19 2002-06-26 Alpine Electronics Inc 操作指示装置
JP2009210992A (ja) * 2008-03-06 2009-09-17 Sony Corp 撮影装置
JP2010128015A (ja) * 2008-11-25 2010-06-10 Toyota Central R&D Labs Inc 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム
JP2013216241A (ja) * 2012-04-10 2013-10-24 Denso Corp 感情モニタリングシステム
JP2016149063A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020142555A (ja) * 2019-03-04 2020-09-10 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
JP7145105B2 (ja) 2019-03-04 2022-09-30 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
US11541906B2 (en) 2019-03-04 2023-01-03 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium

Also Published As

Publication number Publication date
CN107888652A (zh) 2018-04-06
CN107888652B (zh) 2020-12-25
JP6657048B2 (ja) 2020-03-04
US20180096698A1 (en) 2018-04-05
US10475470B2 (en) 2019-11-12

Similar Documents

Publication Publication Date Title
US11004451B2 (en) System for processing sound data and method of controlling system
JP6639444B2 (ja) 情報提供装置及び情報提供方法
EP2779045A1 (en) Computer-based method and system for providing active and automatic personal assistance using an automobile or a portable electronic device
CN107886045B (zh) 设施满意度计算装置
JP6612707B2 (ja) 情報提供装置
JP2018060192A (ja) 発話装置およびコミュニケーション装置
JP7003400B2 (ja) 対話制御システム
EP3296944A1 (en) Information processing device, information processing method, and program
US20200133630A1 (en) Control apparatus, agent apparatus, and computer readable storage medium
US20200114925A1 (en) Interaction device, interaction method, and program
CN102652250A (zh) 导航装置
US20210349433A1 (en) System and method for modifying an initial policy of an input/output device
JP6552548B2 (ja) 地点提案装置及び地点提案方法
JP6657048B2 (ja) 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
WO2016206646A1 (zh) 使机器装置产生动作的方法及系统
JP2018133696A (ja) 車載装置、コンテンツ提供システムおよびコンテンツ提供方法
JP6619316B2 (ja) 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体
JP6387287B2 (ja) 不明事項解消処理システム
CN110880319A (zh) 语音交互装置、语音交互装置的控制方法以及存储程序的非暂时性记录介质
US20210326659A1 (en) System and method for updating an input/output device decision-making model of a digital assistant based on routine information of a user
KR20180134337A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2021176633A1 (ja) 運転者状態推定装置および運転者状態推定方法
JP6660863B2 (ja) 移動体用出力生成装置、移動体用出力生成プログラム、移動体用出力生成方法及び移動体
JP2018013595A (ja) 情報処理装置、端末装置、システム、情報処理方法及びプログラム
JP2017228167A (ja) 情報出力システム及び情報出力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200205

R150 Certificate of patent or registration of utility model

Ref document number: 6657048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150