JP7069730B2 - 情報処理装置、方法、及びプログラム - Google Patents

情報処理装置、方法、及びプログラム Download PDF

Info

Publication number
JP7069730B2
JP7069730B2 JP2018002759A JP2018002759A JP7069730B2 JP 7069730 B2 JP7069730 B2 JP 7069730B2 JP 2018002759 A JP2018002759 A JP 2018002759A JP 2018002759 A JP2018002759 A JP 2018002759A JP 7069730 B2 JP7069730 B2 JP 7069730B2
Authority
JP
Japan
Prior art keywords
occupant
utterance
vehicle
driving operation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018002759A
Other languages
English (en)
Other versions
JP2019120904A (ja
Inventor
英樹 小林
明泰 六車
侑紀也 杉山
昭太 東原
莉歩 松尾
直樹 山室
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018002759A priority Critical patent/JP7069730B2/ja
Priority to SG10201811716XA priority patent/SG10201811716XA/en
Priority to RU2018146939A priority patent/RU2714611C1/ru
Priority to EP19150249.1A priority patent/EP3511932B1/en
Priority to BR102019000231-0A priority patent/BR102019000231A2/pt
Priority to KR1020190001729A priority patent/KR20190085856A/ko
Priority to CN201910010092.4A priority patent/CN110027491A/zh
Priority to US16/242,357 priority patent/US20190214008A1/en
Publication of JP2019120904A publication Critical patent/JP2019120904A/ja
Application granted granted Critical
Publication of JP7069730B2 publication Critical patent/JP7069730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/12Limiting control by the driver depending on vehicle state, e.g. interlocking means for the control input for preventing unsafe operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Transportation (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

本発明は、情報処理装置、方法、及びプログラムに関する。
従来、車両に搭載された各機器を、音声により制御する装置が知られている(例えば、特許文献1を参照)。
米国特許第9580028号明細書
しかし、上記特許文献1に開示された技術では、車両の運転操作を音声によって行う場合については考慮されていない。例えば、車両に乗車している乗員と対話する対話装置が車両に設置され、かつ発話に応じて車両の運転操作が行われる場合、運転者の発話のみに応じて運転操作が行われる必要がある。
しかし、上記特許文献1に記載の技術では、運転者とは異なる乗員の発話に基づき運転操作が行われてしまう場合があり適切ではない。
本発明は、上記事実を考慮し、運転者の発話に応じて車両の運転操作が行われる際に、複数の乗員が車両に乗車している場合であっても、車両の運転操作を適切に行うことができる情報処理装置、方法、及びプログラムを提供することを目的とする。
請求項1に記載の情報処理装置は、車両に乗車している複数の乗員の発話を取得可能な取得手段と、前記取得手段によって発話が取得された場合、当該発話を発した前記乗員を認識する認識手段と、前記認識手段によって得られた、前記発話を発した前記乗員の認識結果と、複数の前記乗員の各々について予め設定された情報であって、かつ前記乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報とに基づいて、前記乗員の発話が表す車両の運転操作を制御する制御手段と、を備えている。
請求項1に記載の情報処理装置では、取得した発話に応じて、発話を発した乗員を認識する。そして、情報処理装置は、乗員の認識結果と設定情報とに基づいて、乗員の発話が表す車両の運転操作を制御する。例えば、運転者から発せられた発話が、車両の運転操作を指示する内容である場合には、その運転操作は許可される。また、運転者とは異なる乗員により発せられた発話が、車両の運転操作を指示する内容である場合には、その運転操作は制限される。このため、運転者の発話に応じて車両の運転操作が行われる際に、複数の乗員が車両に乗車している場合であっても、車両の運転操作を適切に行うことができる。また、設定情報は、複数の乗員の各々についての情報であって、乗員が車両の運転操作を許可されているか否かに関する情報である。設定情報を用いることにより、発話を発した乗員が車両の運転操作を許可されている運転者であるか否かを特定することができるため、複数の乗員が車両に乗車している場合であっても、運転者の発話に応じて車両の運転操作を行うことができる。
請求項2に記載の情報処理装置の前記制御手段は、前記認識手段によって得られた前記乗員の認識結果と、前記設定情報とに基づいて、前記取得手段によって取得された前記発話を発した前記乗員が、車両の運転操作を許可されている乗員であり、かつ前記発話の内容が車両の運転操作に関する内容である場合に、前記乗員の発話の内容に応じて前記運転操作を行うことを表す制御信号を出力し、前記取得手段によって取得された前記発話を発した前記乗員が、車両の運転操作を許可されていない乗員であり、かつ前記発話の内容が車両の運転操作に関する内容である場合に、前記乗員の発話の内容に応じた前記運転操作を制限することを表す制御信号を出力する。
請求項2に記載の情報処理装置では、乗員の発話の内容と乗員が車両の運転操作を許可されているか否かとに応じて、車両の運転操作が行われる。これにより、運転者が発した発話の内容に即した運転操作を行うことができる。また、運転操作に関する内容の発話が運転者とは異なる乗員から発せられた場合であっても、車両の運転操作を制限することができる。
請求項3に記載の情報処理装置の前記設定情報は、前記乗員が前記運転操作とは異なる車両操作を許可されている乗員であるか否かに関する情報を更に含み、前記制御手段は、前記認識手段によって得られた前記乗員の認識結果と、前記設定情報とに基づいて、前記取得手段によって取得された前記発話を発した前記乗員が、車両の運転操作を許可されていない乗員であり、かつ車両の運転操作とは異なる車両操作を許可されている乗員であって、かつ前記発話の内容が車両の運転操作とは異なる車両操作に関する内容である場合に、前記発話の内容に応じて、車両の運転操作とは異なる車両操作を行うことを表す制御信号を出力する。
請求項3に記載の情報処理装置においては、発話を発した乗員が車両の運転操作を許可されていない乗員であっても、車両の運転操作とは異なる車両操作を許可されており、かつ発話の内容が車両の運転操作とは異なる車両操作に関する内容である場合には、発話の内容に応じて当該車両操作が行われる。このため、乗員が運転操作とは異なる車両操作を許可されている場合に、その車両操作を発話によって指示することができる。
請求項4に記載の情報処理装置の前記制御手段は、前記情報処理装置の位置が車両内である場合に、前記運転操作が前記乗員の発話に応じて可能である状態に前記情報処理装置を設定する。
請求項4に記載の情報処理装置は、自己位置が車両内である場合に、運転操作が発話によって可能な状態に設定する。これにより、運転者の発話による運転操作が円滑に開始される。
請求項5に記載の情報処理装置の前記認識手段は、前記発話を発した前記乗員が運転者であるか否かを認識し、前記制御手段は、前記運転者の発話の内容に応じて、前記運転操作を行うことを表す制御信号を出力する。
請求項5に記載の情報処理装置では、運転者を認識し、運転者の発話に応じて運転操作を行うことができる。
請求項6に記載の情報処理装置は、前記乗員との対話を行う対話装置である。
請求項6に記載の情報処理装置は、対話装置であるため、車両に対する車両操作とは異なる操作を行うことができる。例えば、乗員の発話が指示する内容に応じて、車内に楽曲を流す等を行うことができる。
請求項7に記載のプログラムは、コンピュータを、車両に乗車している複数の乗員の発話を取得可能な取得手段、前記取得手段によって発話が取得された場合、当該発話を発した前記乗員を認識する認識手段、及び前記認識手段によって得られた、前記発話を発した前記乗員の認識結果と、複数の前記乗員の各々について予め設定された情報であって、かつ前記乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報とに基づいて、前記乗員の発話が表す車両の運転操作を制御する制御手段として機能させるためのプログラムである。
請求項8に記載の情報処理方法は、認識手段が、車両に乗車している複数の乗員の発話を取得可能な取得手段によって発話が取得された場合、当該発話を発した前記乗員を認識し、制御手段が、前記発話を発した前記乗員の認識結果と、複数の前記乗員の各々について予め設定された情報であって、かつ前記乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報とに基づいて、前記乗員の発話が表す車両の運転操作を制御する、処理をコンピュータに実行させる情報処理方法である。
以上説明したように本発明によれば、運転者の発話に応じて車両の運転操作が行われる際に、複数の乗員が車両に乗車している場合であっても、車両の運転操作を適切に行うことができる、という効果がある。
第1の実施形態に係る対話装置の概略ブロック図である。 第1の実施形態の概要を説明するための説明図である。 乗員の音声情報の登録処理を説明するための説明図である。 設定情報の一例を示す図である。 予め登録された単語の情報の一例を示す図である。 対話装置のコンピュータの構成例を示す図である。 実施形態に係る対話装置で行われる処理の一例を示すフローチャートである。 第1の実施形態に係る対話装置の概略ブロック図である。 第2の実施形態の概要を説明するための説明図である。
<第1の実施形態>
以下、図面を用いて第1の実施形態に係る対話装置10について説明する。
図1は、第1の実施形態に係る対話装置10の構成の一例を示すブロック図である。対話装置10は、図1に示されるように、音声マイク12と、操作部14と、コンピュータ16と、スピーカ18とを備える。対話装置10は、本発明の情報処理装置の一例である。
音声マイク12は、対話装置10の周辺に存在するユーザの発話を検出する。そして、音声マイク12は、検出したユーザの発話を、後述するコンピュータ16に対して出力する。
操作部14は、対話装置10の操作者からの操作情報を受け付ける。例えば、対話装置10の操作者である、車両の乗員は、操作部14を操作して操作情報を対話装置10へ入力する。
コンピュータ16は、CPU(Central Processing Unit)、各処理ルーチンを実現するためのプログラム等を記憶したROM(Read Only Memory)、データを一時的に記憶するRAM(Random Access Memory)、記憶手段としてのメモリ、ネットワークインタフェース等を含んで構成されている。コンピュータ16は、機能的には、取得部20と、情報生成部22と、登録部24と、設定情報記憶部26と、認識部28と、制御部30とを備える。
スピーカ18は、コンピュータ16から出力された音声情報を出力する。
図2に、本実施形態の概要を説明するための説明図を示す。図2に示されるように、本実施形態に係る対話装置10は、車両の乗員によって車両V内に持ち込まれる。対話装置10の制御部30は、自己の位置が車両V内である場合に、乗員の発話に応じて車両Vの運転操作が可能である状態(以下、ドライビングモードと称する。)に、対話装置10を設定する。例えば、対話装置10の制御部30は、車両Vに搭載されたECU(Electronic Control Unit)(図示省略)との間において、所定のサーバ(図示省略)を介して情報のやり取りを行う。そして、対話装置10の制御部30は、対話装置10が車両V内であることを検知した場合に、対話装置10をドライビングモードに設定する。
対話装置10は、車両Vの乗員A,B,C,Dから発せられる発話の内容に基づき、乗員との対話を行う。例えば、対話装置10は、乗員Dから「今日の天気は?」と聞かれた場合には、所定のデータベース(図示省略)から天気情報を取得して、「今日の天気はXです。」と応答する。また、対話装置10は、乗員Cから「音楽を流して」と指示された場合には、所定のデータベース(図示省略)から楽曲を取得して、取得した楽曲を流す。
本実施形態に係る対話装置10は、運転者である乗員Aの発話に応じて、車両Vの運転操作に関する制御信号を出力する。例えば、対話装置10は、図2に示される運転者である乗員Aから「自動運転に切り替えて」と指示された場合には、手動運転から自動運転へ切り替えるための制御信号を出力する。
しかし、運転者Aとは異なる乗員B,C,Dから運転操作に関する発話が発せられた場合には、その発話によって指示される運転操作を制限する必要がある。例えば、図2に示される乗員Dから運転操作に関する発話「自動運転に切り替えて」が発せられた場合、その発話によって指示される運転操作は制限する必要がある。
そこで、本実施形態では、車両に乗車している乗員の発話に基づいて、発話を発した乗員を認識する。そして、乗員の認識結果に基づいて、乗員の発話が表す車両の運転操作を制限する。これにより、車両に乗車している乗員のうちの運転者の発話のみに応じて、車両の運転操作を制御することができる。
具体的には、本実施形態に係る対話装置10は、運転者が発する発話の音声情報と、運転者とは異なる乗員の発話の音声情報とを予め登録する。そして、対話装置10は、乗員の発話の音声情報と、各乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報に応じて、取得された発話が運転者の発話であるか否かを判定する。対話装置10は、取得された発話が運転者とは異なる乗員の発話である場合には、車両の運転操作を制限する。一方、対話装置10は、取得した発話が運転者の発話である場合には、車両の運転操作を許可する。以下、具体的に説明する。
取得部20は、音声マイク12によって検出された、車両に乗車している複数の乗員の発話を逐次取得する。
情報生成部22は、取得部20によって取得された発話に応じて、所定の出力情報を生成する。例えば、乗員から「音楽を流して」との発話を取得した場合には、所定のデータベース(図示省略)から楽曲を取得して、取得した楽曲を出力情報とする。そして、情報生成部22は、出力情報をスピーカ18へ出力する。スピーカ18は、出力情報に応じた音声を出力する。
登録部24は、操作部14によって受け付けられた操作情報に応じて、複数の乗員の各々についての設定情報を登録する。本実施形態における設定情報は、複数の乗員の各々について予め設定された情報であって、かつ各乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である。なお、設定情報には、乗員が運転操作とは異なる車両操作を許可されている乗員であるか否かに関する情報が含まれる。具体的には、登録部24は、取得部20により取得された乗員の発話に基づいて、乗員の音声情報と、その乗員が許可されている操作を表す設定情報とを登録する。
例えば、図3に示されるように、車両に乗車している乗員は、対話装置10に対して話しかけ、自らの音声情報を登録する。
この場合、所定の乗員は、対話装置10の操作部14を操作して、対話装置10を第1のモードに設定する。第1のモードでは、車両の運転操作を許可されている乗員(以下、単に、第1の乗員と称する。)の音声情報が収集される。対話装置10が第1のモードに設定されているときに、第1の乗員が対話装置10に対して話しかけることにより、音声マイク12を介して第1の乗員の音声情報が収集される。そして、登録部24は、第1の乗員の音声情報を、後述する設定情報記憶部26へ登録する。
次に、運転操作とは異なる車両操作を許可されている乗員の音声情報が収集される。運転操作とは異なる車両操作の一例として車両の窓を開ける操作がある。窓を開ける操作に関しては運転者とは異なる乗員が行ってもよい場合がある。
そのため、運転操作とは異なる車両操作について、運転者とは異なる他の乗員に対して許可する場合には、所定の乗員は対話装置10の操作部14を操作して、対話装置10を第2のモードに設定する。第2のモードでは、車両の運転操作を許可されていない乗員であって、かつ車両の運転操作とは異なる運転操作を許可されている乗員(以下、単に、第2の乗員と称する。)の音声情報が収集される。
対話装置10が第2のモードに設定されているときに、第2の乗員が対話装置10に対して話しかけることにより、音声マイク12を介して第2の乗員の音声情報が収集される。そして、登録部24は、第2の乗員の音声情報を、後述する設定情報記憶部26へ登録する。
なお、例えば、運転操作とは異なる車両操作であっても、子供の乗員が窓を開ける操作については、その操作を制限したい場合がある。そのため、運転操作とは異なる車両操作であっても、その車両操作を制限したい乗員が乗車している場合には、所定の乗員は対話装置10の操作部14を操作して、対話装置10を第3のモードに設定する。第3のモードでは、車両の運転操作を許可されていない乗員であって、かつ車両の運転操作とは異なる車両操作も許可されていない乗員(以下、単に、第3の乗員と称する。)の音声情報が収集される。
対話装置10が第3のモードに設定されているときに、第3の乗員は対話装置10に対して話しかけることにより、音声マイク12を介して第3の乗員の音声情報が収集される。そして、登録部24は、第3の乗員の音声情報を、後述する設定情報記憶部26へ登録する。
設定情報記憶部26には、登録部24によって登録された設定情報と各乗員の音声情報とが格納される。設定情報と各乗員の音声情報とは、例えば、図4に示されるように、テーブルの形式で格納される。図4に示すテーブルには、乗員の識別情報を表すIDと、乗員の音声情報と、乗員が許可されている操作の種別を表す設定情報が対応付けられて格納される。乗員の音声情報としては、例えば、乗員の音声の周波数情報等が格納される。
例えば、図4に示されるテーブルを参照すると、ID「00001」の乗員は、運転操作、運転操作とは異なる車両操作、及びその他の操作が許可されている。
また、ID「00002」の乗員は、運転操作とは異なる車両操作、及びその他の操作が許可されている。例えば、ID「00002」の乗員は、車両の窓の開閉の操作等が許可される。
また、ID「00003」及びID「00004」の乗員は、その他の操作のみが許可されていることがわかる。例えば、ID「00003」及びID「00004」の乗員は、その他の操作として、楽曲を流す操作等が許可される。
認識部28は、取得部20によって乗員の発話が取得された場合、当該発話を発した乗員を認識する。具体的には、認識部28は、取得部20によって取得された乗員の発話と設定情報記憶部26に格納された音声情報に基づいて、発話を発した乗員が第1の乗員、第2の乗員、及び第3の乗員の何れであるかを認識する。
制御部30は、認識部28によって得られた乗員の認識結果と設定情報記憶部26に格納された設定情報とに基づいて、乗員の発話が表す車両の運転操作を制御する。
具体的には、制御部30は、発話を発した乗員が第1の乗員であり、かつ発話の内容が車両の運転操作に関する内容である場合に、第1の乗員の発話の内容に応じて運転操作を行うことを表す制御信号を出力する。
例えば、上記図4に示されるように、発話を発した乗員がID「00001」の乗員である場合には、制御部30は、乗員の発話に応じて運転操作を行うことを表す制御信号を出力する。
一方、制御部30は、発話を発した乗員が第2の乗員であり、かつ発話の内容が車両の運転操作に関する内容である場合に、乗員の発話の内容に応じた運転操作を制限することを表す制御信号を出力する。
例えば、上記図4に示されるように、発話を発した乗員がID「00002」、ID「00003」、及びID「00004」の乗員である場合には、制御部30は、運転操作を制限することを表す制御信号を出力する。
また、制御部30は、発話を発した乗員が第2の乗員であって、かつ発話の内容が車両の運転操作とは異なる操作に関する内容である場合に、発話の内容に応じて車両の運転操作とは異なる操作を行うことを表す制御信号を出力する。
例えば、上記図4に示されるように、発話を発した乗員がID「00002」の乗員である場合には、車両の運転操作を許可されていない乗員であるが、車両の運転操作とは異なる車両操作を許可されている乗員である。そのため、ID「00002」の乗員が発話「窓を開けて」を発した場合には、制御部30は、運転操作とは異なる車両操作である「窓を開ける」操作を表す制御信号を出力する。一方、ID「00002」の乗員が「自動運転に切り替えて」等の発話を発した場合には、制御部30は、その発話によって指示される運転操作を制限する。
また、例えば、上記図4に示されるように、発話を発した乗員がID「00003」及びID「00004」の乗員である場合には、車両の運転操作を許可されていない乗員であるが、その他の操作が許可されている。そのため、ID「00003」及びID「00004」の乗員が発話「音楽をかけて」を発した場合には、制御部30は、その他の操作である「音楽をかける」操作を表す制御信号を出力する。一方、ID「00003」及びID「00004」の乗員が「自動運転に切り替えて」「窓を開けて」等の発話を発した場合には、制御部30は、その発話によって指示される操作を制限する。
なお、発話の内容が車両の運転操作であるか否かに関しては、例えば、図5に示されるような単語情報に応じて、予め判定される。例えば、制御部30は、「自動運転」、「手動運転」、及び「ブレーキ」等の単語が発話に含まれている場合には、車両の運転操作に関する発話として判定する。また、制御部30は、「窓」、及び「シート」等の単語が発話に含まれている場合には、運転操作とは異なる車両操作に関する発話として判定する。また、「音楽」、「曲」、及び「天気」等の単語が発話に含まれている場合には、車両操作とは異なる操作に関する発話として判定される。
制御部30から出力された制御信号は、車両に搭載されたECUが取得する。そして、ECUは、制御部30から出力された制御信号に応じて車両を制御する。
対話装置10のコンピュータ16は、例えば、図6に示すような構成によって実現することができる。コンピュータ16はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ16は、入出力装置等(図示省略)が接続される入出力interface(I/F)54、及び記録媒体59に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ16は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ16を機能させるためのプログラムが記憶されている。CPU51は、プログラムを記憶部53から読み出してメモリ52に展開し、プログラムが有するプロセスを順次実行する。
次に、本実施形態の作用及び効果について説明する。
所定の乗員は、対話装置10の操作部14を操作して、対話装置10を各モードに設定する。そして、登録部24は、第1の乗員の音声情報と、第2の乗員の音声情報と、第3の乗員の音声情報とを、設定情報記憶部26へ登録する。これにより、各乗員の音声情報と設定情報とが設定情報記憶部26へ格納される。
次に、対話装置10が車両内に持ち込まれると、対話装置10の制御部30は、対話装置10が車両内であることを検知する。そして、対話装置10の制御部30は、対話装置10をドライビングモードに設定する。これにより、予め登録された運転者の発話に応じて車両の運転操作が可能となる。また、運転者とは異なる乗員については、その乗員の発話に応じて予め設定された操作が可能となる。
そして、車両の走行が開始され、車両内の乗員が対話装置10に対して話しかけると、図7に示す運転操作処理ルーチンが実行される。
ステップS100において、取得部20は、音声マイク12によって検出された発話を取得する。
ステップS102において、認識部28は、上記ステップS100で取得された乗員の発話と設定情報記憶部26に格納された音声情報に基づいて、発話を発した乗員が、第1の乗員、第2の乗員、及び第3の乗員の何れであるかを認識する。
ステップS104において、制御部30は、上記ステップS100で取得された発話の内容が車両の運転操作に関する内容であるか否かを判定する。例えば、上記図5に示される単語が含まれるか否かに応じて、発話の内容が判定される。上記ステップS100で取得された発話の内容が車両の運転操作に関する内容である場合には、ステップS106へ進む。一方、上記ステップS100で取得された発話の内容が車両の運転操作とは異なる操作に関する内容である場合には、ステップS108へ進む。
ステップS106において、制御部30は、上記ステップS100で取得された発話を発した乗員が、第1の乗員であるか否かを判定する。上記ステップS100で取得された発話を発した乗員が第1の乗員である場合には、ステップS112へ進む。一方、上記ステップS100で取得された発話を発した乗員が第1の乗員でない場合には、ステップS108へ進む。これにより、乗員の認識結果に基づき車両の運転操作が制限される。
ステップS108において、制御部30は、上記ステップS100で取得された発話を発した乗員が、第2の乗員であるか否かを判定する。上記ステップS100で取得された発話を発した乗員が第2の乗員である場合には、ステップS110へ進む。一方、上記ステップS100で取得された発話を発した乗員が第2の乗員でない場合には、ステップS116へ進む。これにより、乗員の認識結果に基づき車両の運転操作とは異なる車両操作が制限される。
ステップS110において、制御部30は、上記ステップS100で取得された発話の内容が車両の運転操作とは異なる車両操作に関する内容であるか否かを判定する。上記ステップS100で取得された発話の内容が車両の運転操作とは異なる車両操作に関する内容である場合には、ステップS114へ進む。一方、上記ステップS100で取得された発話の内容が車両の運転操作とは異なる操作であって、かつその他の操作に関する内容である場合には、ステップS116へ進む。
ステップS112において、制御部30は、上記ステップS100で取得された発話の内容に応じて運転操作を行うことを表す制御信号を出力して、運転操作処理ルーチンを終了する。例えば、発話の内容が「自動運転に切り替えて」である場合には、その内容に応じた制御信号が出力される。
ステップS114において、制御部30は、上記ステップS100で取得された発話の内容に応じて車両の運転操作とは異なる車両操作を行うことを表す制御信号を出力する。例えば、「窓を開けて」といった発話の内容を表す制御信号が出力される。
ステップS116において、制御部30は、上記ステップS100で取得された発話の内容に応じて、その他の操作を行うことを表す制御信号を出力する。例えば、「音楽を流して」といった発話の内容を表す制御信号が出力される。
以上説明したように、第1の実施形態に係る対話装置は、乗員の発話に応じて乗員を認識し、乗員の認識結果に基づいて、乗員の発話が表す車両の運転操作を制限する。これにより、乗員の発話に応じて車両の運転操作が行われる際に、複数の乗員が車両に乗車している場合であっても、車両の運転操作を適切に行うことができる。
また、第1の実施形態に係る対話装置は、乗員の認識結果と予め設定された設定情報とに基づいて、発話を発した乗員が、車両の運転操作を許可されている第1の乗員であり、かつ発話の内容が車両の運転操作に関する内容である場合に、乗員の発話の内容に応じて運転操作を行うことを表す制御信号を出力する。これにより、運転者が発した発話の内容に即した運転操作を行うことができる。
また、対話装置は、発話を発した乗員が、車両の運転操作を許可されていない乗員であり、かつ発話の内容が車両の運転操作に関する内容である場合に、乗員の発話の内容に応じた運転操作を制限することを表す制御信号を出力する。これにより、運転操作に関する内容の発話が運転者とは異なる乗員から発せられた場合であっても、車両の運転操作を適切に制限することができる。
また、対話装置は、発話を発した乗員が、第2の乗員又は第3の乗員であって、かつ発話の内容が車両の運転操作とは異なる操作に関する内容である場合に、発話の内容に応じて、車両の運転操作とは異なる操作を行うことを表す制御信号を出力する。これにより、発話の内容が、車両の運転操作とは異なる操作に関する内容であれば、第2の乗員又は第3の乗員であっても、乗員の発話の内容に応じて、車両の運転操作とは異なる操作を行うことができる。
<第2の実施形態>
次に、第2の実施形態に係る対話装置について説明する。なお、第1の実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第2の実施形態の対話装置は、車両のステアリング操作を行う乗員である運転者の発話に応じて、運転操作を行うことを表す制御信号を出力する点が、第1の実施形態と異なる。
図8は、第2の実施形態に係る対話装置210の構成の一例を示すブロック図である。対話装置210は、図8に示されるように、音声マイク12と、運転者マイク212と、操作部14と、コンピュータ16とを備える。
運転者マイク212は、図9に示されるように、ステアリング操作を行う乗員である運転者Aの周辺に設置される。そして、運転者マイク212は、運転者Aから発せられる発話を逐次取得する。
コンピュータ216は、CPU、各処理ルーチンを実現するためのプログラム等を記憶したROM、データを一時的に記憶するRAM、記憶手段としてのメモリ、ネットワークインタフェース等を含んで構成されている。コンピュータ216は、機能的には、取得部220と、登録部224と、設定情報記憶部26と、認識部228と、制御部230とを備える。運転者マイク212とコンピュータ216とは、例えば、所定の通信手段によって接続される。
取得部220は、音声マイク12によって取得された乗員の発話を逐次取得する。また、取得部220は、運転者マイク212によって取得された運転者の発話を逐次取得する。
登録部224は、運転者マイク212によって取得された運転者の発話の音声情報を、第1の乗員の音声情報として、設定情報記憶部26に登録する。
認識部228は、発話を発した乗員が運転者であるか否かを認識する。具体的には、認識部228は、運転者マイク212によって取得された発話は、運転者によって発せられた発話であると認識する。または、認識部228は、取得部220によって取得された発話と登録部224に格納された第1の乗員の音声情報とに基づいて、音声マイク12によって取得された発話を発した乗員が運転者であるか否かを認識する。
制御部230は、認識部228によって得られた認識結果に基づき、取得部220によって取得された発話を発した乗員が運転者である場合に、その発話の内容に応じて車両の運転操作を行うことを表す制御信号を出力する。
なお、第2の実施形態に係る対話装置210の他の構成及び作用については、第1の実施形態と同様であるため、説明を省略する。
以上説明したように、第2の実施形態に係る対話装置210によれば、発話を発した乗員が車両のステアリング操作を行う運転者であるか否かを認識し、運転者の発話の内容に応じて運転操作を行うことを表す制御信号を出力する。これにより、運転者の発話のみに応じて、車両の運転操作を行うことができる。
なお、上記の実施形態における対話装置で行われる処理は、プログラムを実行することにより行われるソフトウエア処理として説明したが、ハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ROMに記憶されるプログラムは、各種記憶媒体に記憶して流通させるようにしてもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
例えば、上記実施形態における対話装置は、携帯端末等によって実現されてもよい。この場合には、携帯端末の対話機能に基づき、乗員の発話に応じた運転操作等が行われる。
また、上記実施形態において、制御部30は、発話を発した乗員が車両の運転操作を許可されていない乗員であり、かつ発話の内容が車両の運転操作に関する内容である場合に、乗員の発話の内容に応じた運転操作を制限することを表す制御信号を出力する場合を例に説明したが、これに限定されるものではない。例えば、制御部30は、制御信号を出力せずに、車両の運転操作を許可されていない乗員の発話に応じた運転操作を制限するようにしてもよい。この場合、制御部30は、発話を発した乗員が、車両の運転操作を許可されている乗員であり、かつ発話の内容が車両の運転操作に関する内容である場合にのみ制御信号を出力する。そして、制御部30は、発話を発した乗員が、車両の運転操作を許可されていない乗員であり、かつ発話の内容が車両の運転操作に関する内容である場合には、制御信号を出力せずに運転操作を制限する。
10,210 対話装置(情報処理装置)
12 音声マイク
14 操作部
16,216 コンピュータ
18 スピーカ
20,220 取得部(取得手段)
22 情報生成部
24,224 登録部
26 設定情報記憶部
28,228 認識部(認識手段)
30,230 制御部(制御手段)
212 運転者マイク

Claims (9)

  1. 車両に乗車している複数の乗員の発話を取得可能な取得手段と、
    前記取得手段によって発話が取得された場合、予め登録された乗員の音声情報に基づき、当該発話を発した前記乗員を認識する認識手段と、
    前記認識手段によって得られた、前記発話を発した前記乗員の認識結果と、複数の前記乗員の各々について予め設定された情報であって、かつ前記乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報とに基づいて、前記乗員の発話が表す車両の運転操作を制御する制御手段と、
    を含む情報処理装置であって、
    前記制御手段は、前記情報処理装置の位置が車両内である場合に、前記運転操作が前記乗員の発話に応じて可能である状態に前記情報処理装置を設定する、
    情報処理装置
  2. 前記制御手段は、前記認識手段によって得られた前記乗員の認識結果と、前記設定情報とに基づいて、
    前記取得手段によって取得された前記発話を発した前記乗員が、車両の運転操作を許可されている乗員であり、かつ前記発話の内容が車両の運転操作に関する内容である場合に、前記乗員の発話の内容に応じて前記運転操作を行うことを表す制御信号を出力し、
    前記取得手段によって取得された前記発話を発した前記乗員が、車両の運転操作を許可されていない乗員であり、かつ前記発話の内容が車両の運転操作に関する内容である場合に、前記乗員の発話の内容に応じた前記運転操作を制限することを表す制御信号を出力する、
    請求項1に記載の情報処理装置。
  3. 前記設定情報は、前記乗員が前記運転操作とは異なる車両操作を許可されている乗員であるか否かに関する情報を更に含み、
    前記制御手段は、前記認識手段によって得られた前記乗員の認識結果と、前記設定情報とに基づいて、
    前記取得手段によって取得された前記発話を発した前記乗員が、車両の運転操作を許可されていない乗員であり、かつ車両の運転操作とは異なる車両操作を許可されている乗員であって、かつ前記発話の内容が車両の運転操作とは異なる車両操作に関する内容である場合に、前記発話の内容に応じて、車両の運転操作とは異なる車両操作を行うことを表す制御信号を出力する、
    請求項2に記載の情報処理装置。
  4. 前記認識手段は、前記発話を発した前記乗員が運転者であるか否かを認識し、
    前記制御手段は、前記運転者の発話の内容に応じて、前記運転操作を行うことを表す制御信号を出力する、
    請求項1~請求項の何れか1項に記載の情報処理装置。
  5. 前記情報処理装置は、前記乗員との対話を行う対話装置である、
    請求項1~請求項の何れか1項に記載の情報処理装置。
  6. 車両に乗車している複数の乗員の発話を取得可能な取得手段と、
    前記取得手段によって発話が取得された場合、当該発話を発した前記乗員を認識する認識手段と、
    前記認識手段によって得られた、前記発話を発した前記乗員の認識結果と、複数の前記乗員の各々について予め設定された情報であって、かつ前記乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報とに基づいて、前記乗員の発話が表す車両の運転操作を制御する制御手段と、
    を含み、
    前記制御手段は、前記認識手段によって得られた前記乗員の認識結果と、前記設定情報とに基づいて、前記取得手段によって取得された前記発話を発した前記乗員が、車両の運転操作を許可されている乗員であり、かつ前記発話の内容が車両の運転操作に関する内容である場合に、前記乗員の発話の内容に応じて前記運転操作を行うことを表す制御信号を出力し、
    前記設定情報は、前記乗員が前記運転操作とは異なる車両操作を許可されている乗員であるか否かに関する情報を更に含み、
    前記制御手段は、前記認識手段によって得られた前記乗員の認識結果と、前記設定情報とに基づいて、前記取得手段によって取得された前記発話を発した前記乗員が、車両の運転操作を許可されていない乗員であり、かつ車両の運転操作とは異なる車両操作を許可されている乗員であって、かつ前記発話の内容が車両の運転操作とは異なる車両操作に関する内容である場合に、前記発話の内容に応じて、車両の運転操作とは異なる車両操作を行うことを表す制御信号を出力し、
    前記設定情報は、前記乗員が前記運転操作及び前記運転操作とは異なる車両操作以外のその他の操作を許可されている乗員であるか否かに関する情報を更に含み、
    前記制御手段は、前記認識手段によって得られた前記乗員の認識結果と、前記設定情報とに基づいて、前記取得手段によって取得された前記発話を発した前記乗員が、前記運転操作及び前記運転操作とは異なる車両操作を許可されていない乗員であり、かつ前記その他の操作を許可されている乗員であって、かつ前記発話の内容が前記その他の操作に関する内容である場合に、前記発話の内容に応じて、前記その他の操作を行うことを表す制御信号を出力する、
    情報処理装置。
  7. 車両に乗車している複数の乗員の発話を取得可能な取得手段と、
    前記取得手段によって発話が取得された場合、当該発話を発した前記乗員を認識する認識手段と、
    前記認識手段によって得られた、前記発話を発した前記乗員の認識結果と、複数の前記乗員の各々について予め設定された情報であって、かつ前記乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報とに基づいて、前記乗員の発話が表す車両の運転操作を制御する制御手段と、
    を含む情報処理装置であって、
    前記制御手段は、前記情報処理装置の位置が車両内である場合に、前記運転操作が前記乗員の発話に応じて可能である状態に前記情報処理装置を設定する、
    情報処理装置。
  8. コンピュータを、
    車両に乗車している複数の乗員の発話を取得可能な取得手段、
    前記取得手段によって発話が取得された場合、当該発話を発した前記乗員を認識する認識手段、及び
    前記認識手段によって得られた、前記発話を発した前記乗員の認識結果と、複数の前記乗員の各々について予め設定された情報であって、かつ前記乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報とに基づいて、前記乗員の発話が表す車両の運転操作を制御する制御手段
    として機能させるためのプログラムであって、
    前記制御手段は、前記コンピュータの位置が車両内である場合に、前記運転操作が前記乗員の発話に応じて可能である状態に前記コンピュータを設定する、
    プログラム。
  9. 認識手段が、車両に乗車している複数の乗員の発話を取得可能な取得手段によって発話が取得された場合、当該発話を発した前記乗員を認識し、
    制御手段が、前記発話を発した前記乗員の認識結果と、複数の前記乗員の各々について予め設定された情報であって、かつ前記乗員が車両の運転操作を許可されている乗員であるか否かに関する情報である設定情報とに基づいて、前記乗員の発話が表す車両の運転操作を制御する、
    処理をコンピュータに実行させる情報処理方法であって、
    前記制御手段は、前記コンピュータの位置が車両内である場合に、前記運転操作が前記乗員の発話に応じて可能である状態に前記コンピュータを設定する、
    情報処理方法。
JP2018002759A 2018-01-11 2018-01-11 情報処理装置、方法、及びプログラム Active JP7069730B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2018002759A JP7069730B2 (ja) 2018-01-11 2018-01-11 情報処理装置、方法、及びプログラム
SG10201811716XA SG10201811716XA (en) 2018-01-11 2018-12-27 Information processing device, method, and program
RU2018146939A RU2714611C1 (ru) 2018-01-11 2018-12-27 Устройство и способ обработки информации
EP19150249.1A EP3511932B1 (en) 2018-01-11 2019-01-03 Information processing device, method, and program
BR102019000231-0A BR102019000231A2 (pt) 2018-01-11 2019-01-07 Dispositivo de processamento de informação, método, e meio de armazenamento de programa
KR1020190001729A KR20190085856A (ko) 2018-01-11 2019-01-07 정보 처리 장치, 방법, 및 프로그램 기억 매체
CN201910010092.4A CN110027491A (zh) 2018-01-11 2019-01-07 信息处理设备、方法和程序存储介质
US16/242,357 US20190214008A1 (en) 2018-01-11 2019-01-08 Information processing device, method, and program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018002759A JP7069730B2 (ja) 2018-01-11 2018-01-11 情報処理装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019120904A JP2019120904A (ja) 2019-07-22
JP7069730B2 true JP7069730B2 (ja) 2022-05-18

Family

ID=64949196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018002759A Active JP7069730B2 (ja) 2018-01-11 2018-01-11 情報処理装置、方法、及びプログラム

Country Status (8)

Country Link
US (1) US20190214008A1 (ja)
EP (1) EP3511932B1 (ja)
JP (1) JP7069730B2 (ja)
KR (1) KR20190085856A (ja)
CN (1) CN110027491A (ja)
BR (1) BR102019000231A2 (ja)
RU (1) RU2714611C1 (ja)
SG (1) SG10201811716XA (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125591A (ja) 1999-10-27 2001-05-11 Fujitsu Ten Ltd 音声対話システム
JP2009056890A (ja) 2007-08-30 2009-03-19 Toyota Motor Corp 操舵制御装置
JP2015074315A (ja) 2013-10-08 2015-04-20 株式会社オートネットワーク技術研究所 車載中継装置及び車載通信システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3446805B2 (ja) * 1997-08-18 2003-09-16 本田技研工業株式会社 車両用音声入力装置
JP4755556B2 (ja) * 2006-09-04 2011-08-24 クラリオン株式会社 車載装置
US20090055178A1 (en) * 2007-08-23 2009-02-26 Coon Bradley S System and method of controlling personalized settings in a vehicle
ATE456490T1 (de) 2007-10-01 2010-02-15 Harman Becker Automotive Sys Sprachgesteuerte einstellung von fahrzeugteilen
EP2462467A4 (en) * 2009-08-05 2013-04-03 Ford Global Tech Llc SYSTEM AND METHOD FOR CONTROLLING PRIVACY MODE OPERATION IN A VEHICLE
JP2011065587A (ja) * 2009-09-18 2011-03-31 Advantest Corp 処理システムおよび試験装置
US9348492B1 (en) * 2011-04-22 2016-05-24 Angel A. Penilla Methods and systems for providing access to specific vehicle controls, functions, environment and applications to guests/passengers via personal mobile devices
KR101974136B1 (ko) * 2012-09-10 2019-04-30 삼성전자주식회사 차량의 정보를 처리하는 시스템 및 방법
US9747898B2 (en) * 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US9275208B2 (en) * 2013-03-18 2016-03-01 Ford Global Technologies, Llc System for vehicular biometric access and personalization
KR101513643B1 (ko) * 2014-05-26 2015-04-22 엘지전자 주식회사 정보 제공 장치 및 그 방법
JP6348831B2 (ja) * 2014-12-12 2018-06-27 クラリオン株式会社 音声入力補助装置、音声入力補助システムおよび音声入力方法
US20170221480A1 (en) * 2016-01-29 2017-08-03 GM Global Technology Operations LLC Speech recognition systems and methods for automated driving
US20190057703A1 (en) * 2016-02-29 2019-02-21 Faraday&Future Inc. Voice assistance system for devices of an ecosystem
CN106373568A (zh) * 2016-08-30 2017-02-01 深圳市元征科技股份有限公司 智能车载单元控制方法和装置
CN106683673B (zh) * 2016-12-30 2020-11-13 智车优行科技(北京)有限公司 驾驶模式的调整方法、装置和系统、车辆

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125591A (ja) 1999-10-27 2001-05-11 Fujitsu Ten Ltd 音声対話システム
JP2009056890A (ja) 2007-08-30 2009-03-19 Toyota Motor Corp 操舵制御装置
JP2015074315A (ja) 2013-10-08 2015-04-20 株式会社オートネットワーク技術研究所 車載中継装置及び車載通信システム

Also Published As

Publication number Publication date
EP3511932B1 (en) 2020-05-27
KR20190085856A (ko) 2019-07-19
CN110027491A (zh) 2019-07-19
EP3511932A1 (en) 2019-07-17
US20190214008A1 (en) 2019-07-11
RU2714611C1 (ru) 2020-02-18
JP2019120904A (ja) 2019-07-22
BR102019000231A2 (pt) 2019-07-30
SG10201811716XA (en) 2019-08-27

Similar Documents

Publication Publication Date Title
WO2017145373A1 (ja) 音声認識装置
JP4260788B2 (ja) 音声認識機器制御装置
JP4304952B2 (ja) 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
JP4346571B2 (ja) 音声認識システム、音声認識方法、及びコンピュータプログラム
EP2045140A1 (en) Adjustment of vehicular elements by speech control
JP7023823B2 (ja) 車載装置及び音声認識方法
JP2005331882A (ja) 音声認識装置、音声認識方法、および音声認識プログラム
JP4667085B2 (ja) 音声対話システム、コンピュータプログラム、対話制御装置及び音声対話方法
JP2017090612A (ja) 音声認識制御システム
WO2020044543A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6459330B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP7069730B2 (ja) 情報処理装置、方法、及びプログラム
JP3837061B2 (ja) 音信号認識システムおよび音信号認識方法並びに当該音信号認識システムを用いた対話制御システムおよび対話制御方法
JP5074759B2 (ja) 対話制御装置、対話制御方法及び対話制御プログラム
KR101945190B1 (ko) 음성인식 작동 시스템 및 방법
JP2004301875A (ja) 音声認識装置
JP2019176431A (ja) 音声認識装置
US20200098371A1 (en) Speech recognition device, speech recognition method, non-transitory computer-readable medium storing speech recognition program
KR102279319B1 (ko) 음성분석장치 및 음성분석장치의 동작 방법
US20090254335A1 (en) Multilingual weighted codebooks
WO2024009465A1 (ja) 音声認識装置、プログラム、音声認識方法、及び音声認識システム
JP2007286198A (ja) 音声合成出力装置
KR20230113081A (ko) 음성 인식 시스템 및 음성 인식 서비스 제공 방법
JP2020030322A (ja) 音声操作装置および音声操作システム
JP2008298851A (ja) 音声入力処理装置および音声入力処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R151 Written notification of patent or utility model registration

Ref document number: 7069730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151