JP2020075720A - エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラム - Google Patents

エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラム Download PDF

Info

Publication number
JP2020075720A
JP2020075720A JP2020006391A JP2020006391A JP2020075720A JP 2020075720 A JP2020075720 A JP 2020075720A JP 2020006391 A JP2020006391 A JP 2020006391A JP 2020006391 A JP2020006391 A JP 2020006391A JP 2020075720 A JP2020075720 A JP 2020075720A
Authority
JP
Japan
Prior art keywords
unit
vehicle
occupant
information
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020006391A
Other languages
English (en)
Other versions
JP7275058B2 (ja
Inventor
安井 裕司
Yuji Yasui
裕司 安井
詩園 徳永
Shion Tokunaga
詩園 徳永
将行 渡邉
Masayuki Watanabe
将行 渡邉
一樹 西岡
Kazuki Nishioka
一樹 西岡
雄大 広畑
Takehiro Hirohata
雄大 広畑
久和 山根
Hisakazu Yamane
久和 山根
貴行 下山田
Takayuki Shimoyamada
貴行 下山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2020075720A publication Critical patent/JP2020075720A/ja
Application granted granted Critical
Publication of JP7275058B2 publication Critical patent/JP7275058B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • B60K35/265Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Abstract

【課題】車両の乗員に対して、これまでにない楽しみ方を提供することができるエクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラムを提供すること。【解決手段】エクスペリエンス提供システムは、車両の乗員に関する情報を検出する乗員情報検出部と、前記車両の外部の情報を検出する外界情報検出部と、音声を出力する出力部と、表示を出力する仮想像生成部と、前記乗員情報検出部および前記外界情報検出部の検出結果に基づいて、前記出力部により出力される音声と前記仮想像生成部により出力される前記表示とを同期させて前記車両の乗員に対するインタラクションを動的に提供する提供部とを備える。【選択図】図1

Description

本発明の態様は、エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラムに関する。
本願は、2017年6月16日に、日本に出願された特願2017−118702号に基づき優先権を主張し、その内容をここに援用する。
従来、速度制御と操舵制御とのうち少なくとも一方を自動的に行う自動運転について研究が進められている。これに関連して、観察者が奥行き感を知覚できるように奥行きのある画像を表示させる技術が開示されている(例えば、特許文献1参照)。
特開2017−30737号公報
従来の技術では、車両の乗員を楽しませることについて考慮がされていなかった。
本発明は、このような事情を考慮してなされたものであり、車両の乗員に対して、これまでにない楽しみ方を提供することができるエクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラムを提供することを目的の一つとする。
本発明に係る、エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラムは、以下の構成を採用した。
(1):本発明の一態様は、車両の乗員に関する情報を検出する乗員情報検出部と、前記車両の外部の情報を検出する外界情報検出部と、音声を出力する出力部と、表示を出力する仮想像生成部と、前記乗員情報検出部および前記外界情報検出部の検出結果に基づいて、前記出力部により出力される音声と前記仮想像生成部により出力される前記表示とを同期させて前記車両の乗員に対するインタラクションを動的に提供する提供部と、を備えるエクスペリエンス提供システムである。
(2):(1)の態様において、前記仮想像生成部は、前記車両のシートに対応する撮像画像に重畳するように仮想像を出現させるものである。
(3):(1)の態様において、前記仮想像生成部は、前記乗員からみて前記車両のシート鏡像位置に対応するよう仮想像を出現させるものである。
(4):(1)の態様において、前記提供部は、前記外界情報検出部によって検出された前記車両の外部の状況に基づいて、前記出力部より発話を行わせるタイミングを調整するものである。
(5):(4)の態様において、前記外界情報検出部による前記車両の外部の情報の検出能力は、前記車両の乗員による前記車両の外部の情報の検出能力と同程度である。
(6):(1)の態様において、前記提供部が提供する前記インタラクションは、前記乗員情報検出部が検出した車両内で聴取されている楽曲に対応した音声を含むものである。
(7):(1)の態様において、前記提供部は、前記出力部が出力する楽曲と、前記仮想像生成部の出力する表示とを同期させるものである。
(8):(7)の態様において、前記乗員情報検出部は、前記提供部が提供するインタラクションに対する前記車両の乗員の状態を検知して記憶する記憶部を備え、前記記憶部の状態を基に、前記車両の乗員が利用可能な前記インタラクションを変更するものである。
(9):(1)の態様において、前記車両は、自動運転車両であり、前記提供部は、前記乗員情報検出部が前記車両の自動運転中であるか否かを判定するよう構成され、手動運転中に、前記インタラクションの少なくとも一部動作態様を制限するものである。
(10):(1)の態様において、前記提供部は、前記車両外に備えられる判定部を用いて前記インタラクションを実行するものである。
(11):(1)の態様において、前記乗員情報検出部および前記外界情報検出部の検知した信号を前記車両外で処理する外部処理部の出力により前記インタラクションを提供するものである。
(12):(1)の態様において、前記乗員情報検出部は、前記提供部による提供済みのインタラクションを検出可能に構成され、前記提供部は、前記提供済みのインタラクションを含む前記乗員情報検出部および前記外界情報検出部の検出結果に基づき、前記車両の乗員に対するインタラクションを動的に提供するものである。
(13):(1)の態様において、前記提供部が提供すべき前記インタラクションが複数存在するとき、前記提供部は、前記乗員情報検出部および前記外界情報検出部の検出結果に基づき、複数の前記インタラクションの実行タイミングまたは実行可否を決定するものである。
(14):(1)の態様において、前記乗員情報検出部および前記外界情報検出部の検出結果に基づきイベントの発生を検知するイベント判定部を備え、前記イベント判定部は、車両上でイベントを判定するローカル判定部と、前記車両と通信接続された外部サーバでイベントを判定するリモート判定部とからなるものである。
(15):(1)の態様において、前記乗員情報検出部および前記外界情報検出部の検出結果に基づきイベントの発生を検知するイベント判定部と、前記乗員情報検出部および前記外界情報検出部の検出結果に基づき前記提供部により提供されるインタラクションを制御するインタラクション制御部と、を備え、前記イベント判定部は、前記インタラクション制御部の実行中に並行して前記イベントの発生検知を継続するとともに、前記提供部は、前記インタラクションの提供中に検知した前記イベントの発生に基づき、前記インタラクションを動的に提供するものである。
(16):本発明の一態様は、車載コンピュータが、乗員情報を検出し、外界情報を検出し、音声を出力し、表示を出力し、前記乗員情報および前記外界情報に基づいて、出力される音声と出力される仮想像とを同期させて前記車両の乗員に対しインタラクションを動的に提供するエクスペリエンス提供方法である。
(17):本発明の一態様は、車載コンピュータに、乗員情報を検出させ、
外界情報を検出させ、音声を出力させ、表示を出力させ、前記乗員情報および前記外界情報に基づいて、出力される音声と出力される仮想像を同期させて前記車両の乗員に対しインタラクションを動的に提供させるエクスペリエンス提供プログラムである。
(1)、(5)、(14)、(16)または(17)によれば、これまでにない楽しみ方を車両の乗員に提供することができる。
(2)によれば、仮想像が車両に同乗している錯覚を車両の乗員に与えることができる。
(3)によれば、仮想像が車両のシートに着座していると車両の乗員に錯視させることができる。
(4)によれば、仮想像の発話および動作が車両の乗員の状況および車両の外部の状況に応じて動的に変化する楽しみを乗員に提供することができる。
(6)によれば、車両の乗員の共感が得られる発話を仮想像に行わせることができる。
(7)または(8)によれば、これまでにないインタクラクションの楽しみ方を車両の乗員に提供することができる。
(9)によれば、車両の手動運転中の安全性を向上させることができる。
(10)によれば、車両外に備えられる判定部を用いてインタラクションを実行することにより、車両内に判定部が設けられる場合よりも、車両のコストダウンを図ることができる。
(11)によれば、乗員情報検出部および外界情報検出部の検知した信号を前記車両外で処理する外部処理部の出力によりインタラクションを提供することにより、車両のコストダウンを図ることができる。
(12)または(13)によれば、より乗員の状態または乗員の周辺の環境に適したインタラクションを乗員に提供することができる。
(15)によれば、提供部は、インタラクションの提供中であっても、適切にインタラクションを乗員に提供することができる。
エクスペリエンス提供システムの構成図である。 乗員情報検出部を含む車載機器の一例を示す図である。 投影装置がフロントウインドウに仮想像および仮想シートを投影する一例を示す図である。 投影装置が左サイドウインドウに仮想像および仮想シートを投影する一例を示す図である。 投影装置がミラーに仮想像および仮想シートを投影する一例を示す図である。 ホログラム投影装置が車両の空席のシート上に仮想像を投影する一例を示す図である。 タッチパネル式ディスプレイが仮想像の顔を表示する一例を示す図である。 透過板型ディスプレイが仮想像の顔を表示する一例を示す図である。 発話生成部が観光スポットについての仮想像の発話の元データを生成する処理などの流れの一例を示すフローチャートである。 発話生成部が車両の乗員に歌唱を促す仮想像の発話の元データを生成する処理などの流れの一例を示すフローチャートである。 エクスペリエンス提供サーバおよび車両における処理の一例を説明するシーケンス図である。 自動運転機能を有する車両の構成図である。 自動運転の処理過程について説明するための図である。 エクスペリエンス提供システム1Aに含まれる機能構成の一例を示す図である。 車両内でインタラクションが実行される場合の処理の流れを示すシーケンス図である。
以下、図面を参照し、本発明のエクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラムの実施形態について説明する。エクスペリエンス提供システムは、車両の乗員を楽しませるためのインタラクション(例えばエンタテイメントコンテンツ)を車両の乗員に対して提供するシステムである。インタラクションとは、車両内で聴取されている楽曲に対応した音声を含む。
[全体構成]
図1は、エクスペリエンス提供システム1の構成図である。エクスペリエンス提供システム1は、例えば、コンテンツを提供するコンテンツ提供サーバ100と、コンテンツ提供サーバ100からコンテンツの提供を受け、乗員に提供する車両200とを備える。これらの構成要素は、ネットワークNWを介して互いに通信可能である。ネットワークNWは、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、プロバイダ装置、専用回線、無線基地局などを含む。
[車両]
まず、車両200について説明する。車両200は、例えば、通信部210と、乗員情報検出部220と、外界情報検出部230と、提供部240と、音声入力部250と、仮想像選択部260と、コンテンツ選択部270と、記憶部280とを備える。
通信部210は、例えば、ネットワークNWに接続するための無線通信モジュールである。通信部210は、Wi−Fi、DSRC(Dedicated Short Range Communications)、Bluetooth(登録商標)、その他の通信規格に基づいて無線通信を行う。通信部210として、用途に応じた複数のものが用意されてもよい。通信部210は、ネットワークNWを介してコンテンツ提供サーバ100との間で通信を行う。
乗員情報検出部220は、車両200の乗員に関する情報を検出する。乗員に関する情報とは、例えば、乗員の表情、乗員の発話の有無、車内のシートに乗員が着座しているか否かなどである。乗員情報検出部220は、例えば、車内カメラ、車内マイク、着座センサなどのうち一部または全部を含む。乗員情報検出部220は、例えば、車両200の乗員に関する情報を所定周期で検出し、通信部210およびネットワークNWを介してコンテンツ提供サーバ100に検出した情報を送信する。
外界情報検出部230は、車両200の外部の情報を検出する。外部の情報とは、例えば、車外の景色、車外の音などである。外界情報検出部230は、例えば、車外カメラ、車外マイクなどのうち一部または全部を含む。外界情報検出部230は、例えば、車両200の外部の情報を所定周期で検出し、通信部210およびネットワークNWを介してコンテンツ提供サーバ100に検出した情報を送信する。
提供部240は、例えば、仮想像生成部242と、音声出力部244と、コンテンツ再生部246とを備える。仮想像生成部242は、例えば、車両200の乗員を楽しませるための人物の仮想像を生成する。仮想像生成部242は、コンテンツ提供サーバ100から受信した元データに基づいて、車両200の乗員が視認可能な人物の仮想像(表示)を出現させる。仮想像生成部242は、例えば、投影装置、ウインドウ、ミラー、ディスプレイ、ホログラム投影装置などのうち一部または全部を含む。
音声出力部244は、例えば、車両200の乗員を楽しませるための音声を出力する。音声出力部244は、コンテンツ提供サーバ100から受信した元データに基づいて、音声を出力する。音声出力部244は、例えばスピーカを含む。
コンテンツ再生部246は、音声出力部244が出力する音声と仮想像生成部242が出現させる仮想像の動作とを同期(または協調)させた車両200の乗員に対するコンテンツを提供する。つまり、コンテンツ再生部246は、音声出力部244が出力する音声(例えば楽曲)と、仮想像生成部242の出力する表示(例えば仮想像の動作)とを同期させる。コンテンツ再生部246は、例えば、特開2016−41142号公報に記載されたMMD(MikuMikuDance)を用いることによって、音声と仮想像の動作とを協調(つまり、連動)させる。
音声入力部250は、例えば、車両200の乗員の歌声などの入力を受け付ける。音声入力部250は、例えば歌唱用マイクを含む。音声入力部250は、通信部210およびネットワークNWを介してコンテンツ提供サーバ100の例えば歌唱力採点部134に車両200の乗員の歌声などを示す信号(データ)を送信する。
仮想像選択部260は、仮想像生成部242が出現させる人物の仮想像の車両200の乗員による選択を受け付ける。仮想像選択部260は、受け付けた選択内容を示すデータをコンテンツ提供サーバ100に送信する。
コンテンツ選択部270は、コンテンツ提供サーバ100によって提供されるコンテンツの車両200の乗員による選択を受け付ける。コンテンツ選択部270は、受け付けた選択内容を示すデータをコンテンツ提供サーバ100に送信する。
記憶部280は、HDD(Hard Disk Drive)、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)などで実現される。記憶部280は、コンテンツ提供サーバ100から受信した情報、乗員情報検出部220が検出した乗員に関する情報、外界情報検出部230が検出した車両200の外部の情報、音声入力部250が受け付けた車両200の乗員の歌声などのデータなどを記憶する。
図2は、乗員情報検出部220を含む車載機器の一例を示す図である。図2の例では、乗員情報検出部220は、車内カメラ220Aと、車内マイク220Bと、着座センサ220Cとを含む。車内カメラ220Aは、乗員の例えば顔を撮像して画像を出力する。車内カメラ220Aは、撮像された画像のデータをコンテンツ提供サーバ100に送信する。
車内マイク220Bは、車内の音声を取得する。車内マイク220Bは、取得された車内の音声のデータをコンテンツ提供サーバ100に送信する。
着座センサ220Cは、着座センサ220Cにかかる圧力に基づいて、着座センサ220Cが備えられたシートに乗員が着座しているか否かを検出する。着座センサ220Cは、乗員が着座しているか否かを示す信号(データ)をコンテンツ提供サーバ100に送信する。
図2の例では、外界情報検出部230は、車外カメラ230A〜230Cと、車外マイク230Dとを含む。外界情報検出部230は、照度センサ、雨粒センサ、湿度センサ、GNSS受信機と地図情報とを備えるナビゲーション装置、ジャイロセンサ、車速センサなどを含んでもよい。
車外カメラ230Aは、車両200の前方の景色の画像を撮像する。車外カメラ230Aは、撮像された景色の画像のデータをコンテンツ提供サーバ100に送信する。
車外カメラ230Bは、車両200の左側方の景色の画像を撮像する。車外カメラ230Bは、撮像された景色の画像のデータをコンテンツ提供サーバ100に送信する。
車外カメラ230Cは、車両200の右側方の景色の画像を撮像する。車外カメラ230Cは、撮像された景色の画像のデータをコンテンツ提供サーバ100に送信する。
車外マイク230Dは、車外の音声を取得する。車外マイク230Dは、取得された車外の音声のデータをコンテンツ提供サーバ100に送信する。
図2の例では、仮想像生成部242は、投影装置242Aと、フロントウインドウ242Bと、左サイドウインドウ242Cと、ミラー242Eと、ホログラム投影装置242Gと、タッチパネル式ディスプレイ装置242Hと、透過板型ディスプレイ242Iとを含む。
投影装置242Aは、フロントウインドウ242B、左サイドウインドウ242Cまたはミラー242Eに仮想像を投影し、車両200の乗員が視認可能な仮想像を出現させる。ホログラム投影装置242Gは、空席のシート上に仮想像(ホログラム)を投影し、車両200の乗員が視認可能な仮想像を出現させる。投影装置242Aまたはホログラム投影装置242Gは、仮想像を少なくとも70%以上の縮尺で出現させる。投影装置242Aまたはホログラム投影装置242Gは、車両200のシートに着座しているように車両200の乗員によって錯視される仮想像を出現させる。
図3は、投影装置242Aがフロントウインドウ242Bに仮想像VMおよび仮想シートVSを投影する一例を示す図である。図3の例では、投影装置242Aが、仮想シートVSに着座している仮想像VMをフロントウインドウ242Bに出現させる。すなわち、仮想像生成部242は、シートに対応する撮像画像に重畳するように仮想像を出現させる。
図4は、投影装置242Aが左サイドウインドウ242Cに仮想像VMおよび仮想シートVSを投影する一例を示す図である。図4の例では、図2に双方向矢印で示すように水平方向に旋回して投影方向を変更可能な投影装置242Aが、仮想シートVSに着座している仮想像VMを左サイドウインドウ242Cに出現させる。
図5は、投影装置242Aがミラー242Eに仮想像VMおよび仮想シートVSを投影する一例を示す図である。図5の例では、投影装置242Aが、仮想シートVSに着座している仮想像VMをミラー242Eに出現させる。
図6は、ホログラム投影装置242Gが車両200の空席のシートS上に仮想像VMを投影する一例を示す図である。図6の例では、ホログラム投影装置242Gは、車両200の乗員が視認可能な仮想像VMを車両200の空席のシートS上に出現させる。
図2に戻り、タッチパネル式ディスプレイ装置242Hは、仮想像を画面上に表示し、車両200の乗員が視認可能な仮想像を出現させる。タッチパネル式ディスプレイ装置242Hは、例えば、仮想像を少なくとも70%以上の縮尺で出現させる。
図7は、タッチパネル式ディスプレイ装置242Hが仮想像VMの顔を表示する一例を示す図である。図7の例では、タッチパネル式ディスプレイ装置242Hが、仮想像VMの顔をタッチパネル式ディスプレイ装置242Hの画面上に出現させる。
図2に戻り、透過板型ディスプレイ242Iは、例えば運転席と助手席との間に配置される。透過板型ディスプレイ242Iは、仮想像を画面上に表示し、車両200の乗員が視認可能な仮想像を出現させる。透過板型ディスプレイ242Iは、例えば、仮想像を少なくとも70%以上の縮尺で出現させる。透過板型ディスプレイ242Iは、例えば、透明基板上にLEDが配列された透明LEDディスプレイ、透明基板の上に機能性有機材料の積層膜を2枚の電極で挟んだ有機EL(Electroluminescence)素子を並べた構造を有するOLED(Organic Light Emitting Diode)などである。透過板型ディスプレイ242Iが、例えば運転席のヘッドレストに埋設された投影装置と偏光板とを有するヘッドアップディスプレイ型のディスプレイであってもよい。
図8は、透過板型ディスプレイ242Iが仮想像VMの顔を表示する一例を示す図である。図8の例では、透過板型ディスプレイ242Iが、仮想像VMの顔を透過板型ディスプレイ242Iの画面上に出現させる。すなわち、仮想像生成部242は、乗員からみて車両のシート鏡像位置に対応するように仮想像を出現させる。
図2の例では、音声出力部244が、左前スピーカ244Aと、右前スピーカ244Bと、左後スピーカ244Cと、右後スピーカ244Dとを含む。
音声入力部250は、例えば、歌唱用マイク250Aを含む。
仮想像選択部260は、例えば、タッチパネル式ディスプレイ装置242Hを含む。車両200の乗員は、例えば、タッチパネル式ディスプレイ装置242Hに対してタッチ入力を行うことによって、複数の人物の仮想像のうちから、仮想像生成部242が出現させる仮想像を選択する。
コンテンツ選択部270は、例えば、タッチパネル式ディスプレイ装置242Hを含む。車両200の乗員は、例えば、タッチパネル式ディスプレイ装置242Hに対してタッチ入力を行うことによって、コンテンツ提供サーバ100が提供可能な複数のコンテンツのうちから、所望のコンテンツを選択する。
[コンテンツ提供サーバ]
コンテンツ提供サーバ100は、例えば、通信部110と、記憶部120と、制御部130とを備える。コンテンツ提供サーバ100に含まれる機能構成のうち一部または全部は車両200に搭載されてもよい。車両200に含まれる機能構成のうち一部または全部はコンテンツ提供サーバ100に搭載されてもよい。
通信部110は、例えば、ネットワークNWに接続するための通信モジュールである。通信部110は、例えば、NIC(Network Interface Card)を含む。通信部110は、ネットワークNWを介して車両200との間で通信を行う。
記憶部120は、HDD、フラッシュメモリ、RAM、ROMなどで実現される。記憶部120は、車両200から受信した情報、車両200に送信される情報、コンテンツ提供サーバ100において生成された元データなどを記憶する。コンテンツ提供サーバ100がカラオケコンテンツを車両200の乗員に提供する場合には、カラオケコンテンツデータ122(例えば、伴奏音楽、歌詞などのデータ)が、記憶部120に記憶される。
制御部130は、例えば、CPU(Central Processing Unit)などのプロセッサが記憶部120に記憶されたプログラムを実行することにより実現される。制御部130は、例えば、元データ生成部132と、歌唱力採点部134とを備える。これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶装置にインストールされてもよい。
元データ生成部132は、車両200の音声出力部244が出力する音声(例えば、仮想像の歌唱や発話など)と車両200の仮想像生成部242が生成する仮想像の動作とを協調させた車両200の乗員に対するコンテンツの元データを生成する。従って、元データ生成部132は、例えば、発話生成部132Aと、歌声生成部132Bと、動作生成部132Cとを備える。
発話生成部132Aは、車両200の仮想像生成部242が出現させる仮想像の発話(つまり、仮想像が話す音声)の元データを生成する。発話生成部132Aは、AI(人工知能)を搭載し、自動音声応答(Interactive Voice Response)機能を備える。
AIとは、コンピュータを使って、学習、推論、判断など人間の知能のはたらきを人工的に実現したものである。AIには、機械学習およびディープラーニング(深層学習)も含まれる。機械学習とは、世の中の特定の事象についてデータを解析し、その結果から学習して、判断や予測を行うためのアルゴリズムを使用する手法を意味する。ディープラーニングとは、機械学習を実装するための手法を意味する。ディープラーニングでは、マシンによるあらゆる種類の支援が可能になる(あるいは、期待できる)方法でタスクを分類できる。機械学習と、ディープラーニングとは、AIの学習のための技術である。機械学習は、開発者があらかじめすべての動作をプログラムするのではなく、AI自身がデータを解析し、法則性やルールを見つけ出す特徴を持っている。つまり、機械学習は、AIのうちの、トレーニングにより特定のタスクを実行できるようになるものである。ディープラーニングは、機械学習をさらに発展させたものである。ディープラーニングでは、情報やデータを分析する際に使う枠組みが、機械学習とは異なっている。ディープラーニングでは、人間の神経を真似て作った多層構造のニューラルネットワークを用いることによって、コンピュータによるデータの分析および学習の能力が向上させられる。
自動音声応答機能とは、事前に録音された音声または動的に生成された音声を使用して、車両200の乗員の発話に応答する機能である。
発話生成部132Aは、車両200の乗員情報検出部220によって検出された車両200の乗員の発話に基づいて、仮想像の発話の元データを生成し、車両200の乗員と仮想像との対話を成立させる。
発話生成部132Aは、車両200の外界情報検出部230によって検出された車両200の外部の情報に基づいて、仮想像の発話の元データを生成してもよい。例えば、発話生成部132Aは、外界情報検出部230の検出結果(例えば、雨が降り始めたこと、道路が混雑し始めたことなど)について仮想像の発話の元データを生成する。この場合、外界情報検出部230の検出能力は、乗員による車両200の外部の情報の検出能力と同程度に設定される。その結果、発話生成部132Aは、乗員の共感が得られる仮想像の発話の元データを生成することができる。例えば、発話生成部132Aは、仮想像が向いている方向のみの情報に基づいて、仮想像の発話の元データを生成する。例えば、車両200の移動に伴って乗員から見える範囲が狭くなったり、天候の悪化に伴って見通しが悪くなったりした場合には、外界情報検出部230の検出能力が、乗員による車両200の外部の情報の検出能力の低下に合わせて低下させられる。
外界情報検出部230は、例えば、国際公開第2014/007175号に記載された技術を用いることによって、雨が降り始めたことを検出する。この例では、車両200の走行中、車外カメラ230Aによって撮像された画像において、背景は遠方に流れていくにも関わらず、ほぼ同一位置に、一定時間以上、周囲より高輝度の個所がある場合に、外界情報検出部230は、この個所が車外カメラ230Aのレンズに付着した水滴であると判定し、雨が降り始めたことを検出する。外界情報検出部230は、ネットワークNWを介してコンテンツ提供サーバ100の発話生成部132Aに雨が降り始めたことを示すデータを送信する。
外界情報検出部230は、例えば、特開平11−064031号公報の図7に記載された技術を用いることによって、道路が混雑し始めたことを検出する。この例では、外界情報検出部230が、GNSS受信機と、ジャイロセンサと、車速センサとによって車両200の現在位置を検出する。車速センサは、車両200の車速を検出する。ジャイロセンサは、車両200の進行方向を検出する。外界情報検出部230は、車両200の車速が所定値以下の状態が所定時間以上継続した場合に、道路が混雑し始めたと判定する。外界情報検出部230は、ネットワークNWを介してコンテンツ提供サーバ100の発話生成部132Aに道路が混雑し始めたことを示すデータを送信する。
発話生成部132Aは、外界情報検出部230が検出する例えば車外の観光スポットについての仮想像の発話の元データを生成してもよい。この例では、外界情報検出部230が、観光スポットを含む地図情報とGNSS受信機とを備えるナビゲーション装置を有する。外界情報検出部230は、例えば、特許第5921162号公報に記載された技術を用いることによって、車両200が観光スポットに位置することを検出する。外界情報検出部230は、ネットワークを介してコンテンツ提供サーバ100の発話生成部132Aに、車両200が観光スポットに位置することを示すデータを送信する。コンテンツ提供サーバ100の記憶部120は、複数の観光スポットのそれぞれの観光情報と、各観光スポットについての仮想像の発話のシナリオとを記憶している。発話生成部132Aは、記憶部120に記憶されているシナリオに基づいて、その観光スポットについての仮想像の発話の元データを生成する。
図9は、発話生成部132Aが観光スポットについての仮想像の発話の元データを生成する処理などの流れの一例を示すフローチャートである。まず、コンテンツ提供サーバ100の制御部130は、車両200の外界情報検出部230のナビゲーション装置が決定した車両200の経路と、ナビゲーション装置が備える地図情報とを、ネットワークNWを介して取得する(ステップS100)。制御部130は、取得された車両200の経路上に観光スポットがあるか否かを判定する(ステップS101)。観光スポットが車両200の経路上にない場合、本フローチャートのルーチンの処理が終了する。一方、観光スポットが車両200の経路上にある場合、制御部130は、ナビゲーション装置のGNSS受信機が検出した車両200の現在位置を、ネットワークNWを介して取得する(ステップS102)。制御部130は、車両200の現在位置と観光スポットとの距離を算出する(ステップS103)。制御部130は、外界情報検出部230の車速センサが検出した車両200の車速を、ネットワークNWを介して取得する(ステップS104)。制御部130は、距離と車速とに基づいて、車両200が観光スポットに到達するまでの所要時間を算出する(ステップS105)。コンテンツ提供サーバ100の発話生成部132Aは、観光スポットについての仮想像の発話の元データを生成し、ネットワークNWを介して車両200の音声出力部244に送信する(ステップS106)。制御部130は、車両200が観光スポットに到達したか否かを判定する(ステップS107)。車両200が観光スポットに到達していない場合、制御部130は、所定時間経過後にステップS107を再度実行する。一方、車両200が観光スポットに到達した場合、制御部130は、観光スポットについての仮想像の発話を車両200の音声出力部244に出力させる制御信号を、ネットワークNWを介して音声出力部244に送信する(ステップS108)。このように制御部130は、車両の外部の状況に基づいて、音声出力部244に発話を出力させるタイミングを調整する。
発話生成部132Aは、外界情報検出部230が検出する例えば車外の広告についての仮想像の発話の元データを生成してもよい。この例では、車両200の記憶部280が、辞書データを記憶している。外界情報検出部230は、例えば、特開2015−153032号公報に記載された技術を用いることによって、車外カメラ230A〜230Cが撮像した画像に含まれる文字列を認識する。具体的には、外界情報検出部230は、OCR(Optical Character Recognition)によって、画像に含まれる文字列を認識する。特開2015−153032号公報に記載された技術では、認識された文字列に対する翻訳が行われるが、外界情報検出部230は、記憶部280に記憶されている辞書データに基づいて、認識された文字列が広告を意味するか否かの判定を行う。認識された文字列が広告を意味する場合、外界情報検出部230は、その広告の意味を示すデータをコンテンツ提供サーバ100の発話生成部132Aに、ネットワークNWを介して送信する。コンテンツ提供サーバ100の記憶部120は、複数の広告のそれぞれについての仮想像の発話のシナリオを記憶している。発話生成部132Aは、記憶部120に記憶されているシナリオに基づいて、その広告についての仮想像の発話の元データを生成する。
コンテンツ提供サーバ100がカラオケコンテンツを車両200の乗員に提供しているにもかかわらず、車両200の乗員がカラオケコンテンツの伴奏音楽に合わせて歌唱しない場合が考えられる。この場合、車両200の乗員がカラオケコンテンツの伴奏音楽に合わせて歌唱していない旨の車両200の音声入力部250の検出結果に基づいて、発話生成部132Aは、車両200の乗員に歌唱を促す仮想像の発話の元データを生成してもよい。この例では、音声入力部250の歌唱用マイクが検出した車両200の乗員の歌声が、ネットワークNWを介してコンテンツ提供サーバ100の制御部130に送信される。
制御部130は、受信した車両200の乗員の歌声(詳細には、歌唱していないので、無音)と、カラオケコンテンツデータ122の伴奏音楽とに基づいて、車両200の乗員が伴奏音楽に合わせて歌唱しているか否かを判定する。コンテンツ提供サーバ100の記憶部120は、車両200の乗員に歌唱を促す仮想像の発話のシナリオを記憶している。車両200の乗員が伴奏音楽に合わせて歌唱していない場合、発話生成部132Aは、記憶部120に記憶されているシナリオに基づいて、車両200の乗員に歌唱を促す仮想像の発話の元データを生成する。車両200の乗員が伴奏音楽に合わせて歌唱していない場合に、発話生成部132Aが、伴奏音楽に合わせた仮想像の合いの手(掛け声および手拍子音)の元データを生成してもよい。発話生成部132Aが仮想像の手拍子音の元データを生成する場合、動作生成部132Cは、手拍子音に合わせた仮想像の手拍子動作の元データを生成してもよい。
図10は、発話生成部132Aが車両200の乗員に歌唱を促す仮想像の発話の元データを生成する処理などの流れの一例を示すフローチャートである。まず、コンテンツ提供サーバ100の制御部130は、コンテンツ提供サーバ100が車両200の乗員にカラオケコンテンツを提供中であるか否かを判定する(ステップS200)。コンテンツ提供サーバ100がカラオケコンテンツを提供中ではない場合、本フローチャートのルーチンの処理が終了する。一方、コンテンツ提供サーバ100がカラオケコンテンツを提供中である場合、制御部130は、車両200の音声入力部250の歌唱用マイクが検出した車両200の乗員の歌声を取得する(ステップS201)。制御部130は、車両200の乗員が歌唱しているか否かを判定する(ステップS202)。車両200の乗員が歌唱している場合、本フローチャートのルーチンの処理が終了する。一方、車両200の乗員が歌唱していない場合、コンテンツ提供サーバ100の発話生成部132Aは、車両200の乗員に歌唱を促す仮想像の発話の元データを生成し、ネットワークNWを介して車両200の音声出力部244に送信する(ステップS203)。制御部130は、車両200の乗員の歌声を取得する(ステップS204)。制御部130は、車両200の乗員が歌唱し始めたか否かを判定する(ステップS205)。車両200の乗員が歌唱し始めた場合、本フローチャートのルーチンの処理が終了する。一方、車両200の乗員が歌唱し始めていない場合、発話生成部132Aは、車両200の乗員に歌唱を促す仮想像の掛け声の元データを生成し、ネットワークNWを介して車両200の音声出力部244に送信する(ステップS206)。制御部130は、車両200の乗員の歌声を取得する(ステップS207)。制御部130は、車両200の乗員が歌唱し始めたか否かを判定する(ステップS208)。車両200の乗員が歌唱し始めた場合、本フローチャートのルーチンの処理が終了する。一方、車両200の乗員が歌唱し始めていない場合、動作生成部132Cが、車両200の乗員に歌唱を促す仮想像の手拍子動作の元データを生成すると共に、発話生成部132Aが、仮想像の手拍子音の元データを生成し、ネットワークNWを介して車両200の仮想像生成部242および音声出力部244に送信する(ステップS209)。
歌声生成部132Bは、車両200の音声出力部244が出力する仮想像の歌声の元データを生成する。コンテンツ提供サーバ100がカラオケコンテンツを車両200の乗員に提供する場合、歌声生成部132Bは、車両200の音声出力部244が出力するカラオケコンテンツの伴奏音楽に合わせて歌唱する仮想像の歌声の元データを生成してもよい。この例では、仮想像の歌声の元データは、例えば、特開2008−58379号公報に記載された技術を用いて生成される。歌声生成部132Bは、例えば、実在の人物の発音を録音し、これを音の要素に分解してデータベース化した後に、そのデータベースの音の要素を合成して所望の音声を生成するコンキャティネイティブ型もしくはコーパスベース型TTS(text-to-speech)システムである。歌声生成部132Bは、パラメトリック型TTSシステムであってもよい。
コンテンツ提供サーバ100の歌声生成部132Bが仮想像の歌声の元データを生成し、車両200の音声出力部244が仮想像の歌声を出力しても、車両200の乗員が歌唱し始めない場合に、コンテンツ提供サーバ100の制御部130は、車両200の音声出力部244への仮想像の歌声の元データの送信を止めてもよい。その場合、歌声生成部132Bによる仮想像の歌声の元データの生成の代わりに、発話生成部132Aが、車両200の乗員に対する仮想像の発話の元データを生成し、車両200の音声出力部244が、車両200の乗員に対する仮想像の発話を出力してもよい。
動作生成部132Cは、車両200の仮想像生成部242が出現させる仮想像の動作の元データを生成する。上述したように、仮想像生成部242が出現させる仮想像の動作は、例えばMMDを用いることによって、仮想像の発話および/または歌声と協調させられる。
コンテンツ提供サーバ100がカラオケコンテンツを車両200の乗員に提供する場合、動作生成部132Cが生成する元データに基づいて仮想像生成部242が出現させる仮想像の動作は、カラオケコンテンツの伴奏音楽と協調させられる。
例えば、車両200の乗員情報検出部220が検出する乗員の表情などおよび/または外界情報検出部230が検出する車外の景色などが変化する場合、それらの変化に応じて、音声出力部244が出力する仮想像の発話が動的に変化するように、発話生成部132Aが元データを生成すると共に、仮想像生成部242が生成する仮想像の動作が動的に変化するように、動作生成部132Cが元データを生成してもよい。つまり、この例では、発話生成部132Aおよび動作生成部132Cは、乗員情報検出部220および外界情報検出部230が検出した情報を記憶部120に蓄積させることなく、最新情報に基づいて元データを生成する。例えば、乗員情報処理部410は、記憶部(記憶装置、または情報記憶領域)を備えてもよい。この記憶部には、乗員情報処理部410が検出した、提供部240が提供するインタラクションに対する車両の乗員の状態が記憶される。提供部240は、上記の記憶部の状態を基に、車両の乗員が利用可能な前記インタラクションを変更してもよい。例えば、提供部240は、記憶部280に記憶された情報であって、車両の乗員の状態と、インタラクションとが互いに対応付けられた情報に基づいて、インタラクションを変更してもよい。インタラクションの変更は、元データ生成部132によって行われてもよい。この場合、元データ生成部132は、記憶部120に記憶された情報であって、車両の乗員の状態と、インタラクションとが互いに対応付けられた情報に基づいて、インタラクションを変更する。
発話生成部132Aおよび歌声生成部132Bが生成した元データに基づいて、車両200の音声出力部244は、仮想像の発話および歌声を出力する。動作生成部132Cが生成した元データに基づいて、車両200の仮想像生成部242は、動作する仮想像を出現させる。発話および動作が動的に変化可能な仮想像を出現させることによって、仮想像が車両200に同乗していると、車両200の乗員に錯覚させることができる。
歌唱力採点部134は、コンテンツ提供サーバ100がカラオケコンテンツを車両200の乗員に提供する場合に、カラオケコンテンツの伴奏音楽に合わせて歌唱する車両200の乗員の歌唱力を採点する。歌唱力採点部134による採点結果が高いほど、車両200の仮想像生成部242は、車両200の乗員が仮想像選択部260を介して選択可能な仮想像をランクアップさせる。
図11は、コンテンツ提供サーバ100および車両200における処理の一例を説明するシーケンス図である。
(ステップS1)車両200のコンテンツ選択部270は、車両200の乗員によるコンテンツの選択を受け付ける。
(ステップS2)車両200は、選択されたコンテンツ(この例では、カラオケコンテンツ)を示すデータをコンテンツ提供サーバ100に送信する。
(ステップS3)車両200の仮想像選択部260は、車両200の乗員による仮想像の選択を受け付ける。
(ステップS4)車両200は、選択された仮想像を示すデータをコンテンツ提供サーバ100に送信する。
(ステップS5)コンテンツ提供サーバ100は、カラオケコンテンツの伴奏音楽、歌詞などのデータを車両200に送信する。
(ステップS6)車両200の乗員情報検出部220は、車両200の乗員に関する情報を検出する。
(ステップS7)車両200は、検出された車両200の乗員に関する情報をコンテンツ提供サーバ100に送信する。
(ステップS8)車両200の外界情報検出部230は、車両200の外部の情報を検出する。
(ステップS9)車両200は、検出された車両200の外部の情報をコンテンツ提供サーバ100に送信する。
(ステップS10)車両200の乗員に関する情報および車両200の外部の情報に基づいて、コンテンツ提供サーバ100の発話生成部132Aは、車両200の音声出力部244において仮想像の発話の出力に用いられる元データを生成する。歌声生成部132Bは、車両200の音声出力部244において仮想像の歌声の出力に用いられる元データを生成する。動作生成部132Cは、車両200の仮想像生成部242において仮想像の動作の生成に用いられる元データを生成する。
(ステップS11)コンテンツ提供サーバ100は、生成された元データを車両200に送信する。
(ステップS12)車両200の提供部240は、仮想像の動作と音声(仮想像の発話、歌声など)とを協調させたコンテンツを車両200の乗員に提供する。
(ステップS13)車両200の乗員情報検出部220は、コンテンツの提供中における車両200の乗員に関する情報を検出する。この情報は、提供されたコンテンツに対する車両200の乗員の反応を示す。
(ステップS14)車両200は、コンテンツの提供中に検出された車両200の乗員に関する情報をコンテンツ提供サーバ100に送信する。
(ステップS15)車両200の外界情報検出部230は、コンテンツの提供中における車両200の外部の情報を検出する。
(ステップS16)車両200は、コンテンツの提供中に検出された車両200の外部の情報をコンテンツ提供サーバ100に送信する。
(ステップS17)コンテンツの提供中における車両200の乗員に関する情報および車両200の外部の情報に基づいて、発話生成部132Aは、仮想像の発話の出力に用いられる元データを生成し、歌声生成部132Bは、仮想像の歌声の出力に用いられる元データを生成し、動作生成部132Cは、仮想像の動作の生成に用いられる元データを生成する。
(ステップS18)コンテンツ提供サーバ100は、生成された元データを車両200に送信する。
(ステップS19)車両200の提供部240は、コンテンツの提供中に生成された元データに基づいて、仮想像の発話、歌声および動作が動的に変化するコンテンツを車両200の乗員に提供する。
コンテンツの提供を受ける乗員が乗車する車両200は、例えば、基本的には運転操作を必要としない自動運転車両である。以下、コンテンツの提供を受ける乗員が乗車する車両200が自動運転車両であるものとして説明する。コンテンツの提供を受ける乗員が乗車する車両200が手動運転車両であっても構わない。
[自動運転車両]
図12は、自動運転機能を有する車両200の構成図である。車両200は、図1に示す構成要素(通信部210、乗員情報検出部220、外界情報検出部230、提供部240、音声入力部250、仮想像選択部260および記憶部280)の他に、例えば、外界監視ユニット310と、ナビゲーション装置330と、推奨車線決定装置340と、自動運転制御ユニット350と、駆動力出力装置360と、ブレーキ装置362と、ステアリング装置364とを備える。
外界監視ユニット310は、例えば、カメラやレーダ、LIDAR(Light Detection and Ranging)、これらの出力に基づいてセンサフュージョン処理を行う物体認識装置などを含む。外界監視ユニット310は、車両200の周辺に存在する物体の種類(特に、車両、歩行者、および自転車)を推定し、その位置や速度の情報と共に自動運転制御ユニット350に出力する。外界監視ユニット310と外界情報検出部230の間では、一部の構成要素が共用されてもよい。
ナビゲーション装置330は、例えば、HMI(Human machine Interface)332と、GNSS受信機334と、ナビ制御装置336とを備える。HMI332は、例えば、タッチパネル式ディスプレイ装置やスピーカ、マイクなどを含む。GNSS受信機334は、GNSS衛星(例えばGPS衛星)から到来する電波に基づいて自機の位置(車両200の位置)を測位する。ナビ制御装置336は、例えば、CPU(Central Processing Unit)や各種記憶装置を備え、ナビゲーション装置330全体を制御する。記憶装置には、地図情報(ナビ地図)が格納されている。ナビ地図は、ノードとリンクで道路を表現した地図である。ナビ制御装置336は、GNSS受信機334によって測位された車両200の位置から、HMI332を用いて指定された目的地までの経路を、ナビ地図を参照して決定する。ナビ制御装置336は、車両200の位置と目的地とを、通信部210を用いてナビゲーションサーバ(不図示)に送信し、ナビゲーションサーバから返信された経路を取得してもよい。ナビゲーション装置330と外界情報検出部230の間では、一部の構成要素が共用されてもよい。つまり、外界情報検出部230が備えるナビゲーション装置と、ナビゲーション装置330とが、共用のナビゲーション装置であってもよい。
推奨車線決定装置340は、例えば、MPU(Map Positioning Unit)と各種記憶装置を備える。記憶装置には、ナビ地図よりも詳細な高精度地図情報が格納されている。高精度地図情報には、例えば、車線ごとの道路幅や勾配、曲率、信号の位置などの情報が含まれている。推奨車線決定装置340は、ナビゲーション装置330から入力された経路に沿って走行するために好ましい推奨車線を決定し、自動運転制御ユニット350に出力する。
自動運転制御ユニット350は、CPUやMPU(Micro Processing Unit)などの一以上のプロセッサと各種記憶装置を備える。自動運転制御ユニット350は、推奨車線決定装置340により決定された推奨車線を走行することを原則として、外界監視ユニット310から位置や速度が入力された物体との接触を避けるように、車両200を自動的に走行させる。自動運転制御ユニット350は、例えば、各種イベントを順次実行する。イベントには、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、車線変更イベント、合流イベント、分岐イベント、緊急停止イベント、料金所を通過するための料金所イベント、自動運転を終了して手動運転に切り替えるためのハンドオーバイベントなどがある。これらのイベントの実行中に、車両200の周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄など)に基づいて、回避のための行動が計画される場合もある。
自動運転制御ユニット350は、車両200が将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、車両の到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、所定の走行距離ごとの車両の到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における車両の到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
図13は、自動運転の処理過程について説明するための図である。まず、上図に示すように、ナビゲーション装置330によって経路が決定される。この経路は、例えば車線の区別が付けられていない大まかな経路である。次に、中図に示すように、推奨車線決定装置340が、経路に沿って走行しやすい推奨車線を決定する。そして、下図に示すように、自動運転制御ユニット350が、障害物の回避などを行いながら、なるべく推奨車線に沿って走行するための軌道点を生成し、軌道点(および付随する速度プロファイル)に沿って走行するように、駆動力出力装置360、ブレーキ装置362、ステアリング装置364のうち一部または全部を制御する。このような役割分担はあくまで一例であり、例えば自動運転制御ユニット350が一元的に処理を行ってもよい。
駆動力出力装置360は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。駆動力出力装置360は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するパワーECUとを備える。パワーECUは、自動運転制御ユニット350から入力される情報、或いは不図示の運転操作子から入力される情報に従って、上記の構成を制御する。
ブレーキ装置362は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、自動運転制御ユニット350から入力される情報、或いは運転操作子から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置362は、運転操作子に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。ブレーキ装置362は、上記説明した構成に限らず、自動運転制御ユニット350から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置364は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、自動運転制御ユニット350から入力される情報、或いは運転操作子から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
車両200の提供部240は、車両200の自動運転中に、音声出力部244により出力される音声と仮想像生成部242により出現させられる仮想像の動作とを同期(または協調)させたコンテンツを車両200の乗員に対して提供する。車両200の手動運転中には、提供部240は、コンテンツを車両200の乗員に対して提供しない。例えば、車両200の提供部240は、自動運転が行われているか否かを示す情報を、自動運転制御ユニット350または車両の制御部から取得し、車両200の手動運転中には、インタラクションの少なくとも一部動作態様を制限する。制限される動作態様は、ドライバーの注意を妨げる可能性がある動作態様である。
以上説明した実施形態では、提供部240と、仮想像生成部242と、音声出力部244と、コンテンツ再生部246とが車両200に備えられ、元データ生成部132と、発話生成部132Aと、歌声生成部132Bと、動作生成部132Cとが、コンテテンツ提供サーバ100(つまり、車両外)に備えられているが、それらが、車両200のみに備えられたり、車両外のみに備えられたりしてもよい。
<変形例>
変形例では、上記実施形態の機能構成および処理の詳細について説明する。図14は、エクスペリエンス提供システム1Aに含まれる機能構成の一例を示す図である。エクスペリエンス提供システム1は、図2、および図12の機能構成に加え、図14に示す機能構成を含む。図13の乗員情報検出部220、外界情報検出部230、および提供部240は、図2で説明した乗員情報検出部220、外界情報検出部230、および提供部240と同様の機能構成である。
車両200は、例えば、更に信号生成部400と、ローカル判定部510と、ローカルUI処理部610と、ローカル記憶部700とを備える。信号生成部400は、音声入力部250の機能構成に加え、以下の機能構成を備える。信号生成部400は、例えば、乗員情報処理部410と、外界情報処理部420と、環境情報処理部430とを備える。
乗員情報処理部410は、乗員情報検出部220の検出結果のうちローカル判定部510またはリモート判定部550が使用する情報を切り出して、切り出した情報をローカル判定部510またはリモート判定部550に送信する。例えば、乗員情報処理部410は、カメラによって撮像された画像をローカル判定部510またはリモート判定部550に送信する。外界情報処理部420は、外界情報検出部230の検出結果のうちローカル判定部510またはリモート判定部550が使用する情報を切り出して、切り出した情報をローカル判定部510またはリモート判定部550に送信する。外界情報処理部420は、例えば、外界の状態を観測しているセンサの検出結果をローカル判定部510またはリモート判定部550に送信する。
環境情報処理部430は、環境に関する情報を取得する各種センサ等の検出結果や、提供部240が提供した情報を取得し、取得した情報のうちローカル判定部510またはリモート判定部550が使用する情報を切り出して、切り出した情報をローカル判定部510またはリモート判定部550に送信する。信号生成部400は、例えば、各マイクが取得した音圧信号が示す指標が基準値から所定度合乖離した場合に、その音圧信号を抽出すると同時に、一定レベルの音圧信号の変動が検出されている間、抽出結果をローカル判定部510またはリモート判定部550に送信する。
ローカル判定部510は、信号生成部400の検出結果に基づいて、環境情報に関する判定を行う。環境情報に関する判定とは、例えば、入出力コンテキストと関連しないイベントおよび環境属性の評価である。すなわち、ローカル判定部510は、信号生成部400から取得した情報が、イベントの発生条件を満たすか否かを判定する。ローカル判定部510は、例えば、ローカルイベント判定部520と、ローカル属性判定部530と、送信信号生成部540とを備える。
ローカルイベント判定部520は、信号生成部400の検出結果(環境情報)が、所定の条件を満たすか否かを判定する。ローカルイベント判定部520は、所定の条件を満たすと判定した場合、ローカルUI処理部610に判定結果を示す情報を送信する。所定の条件とは、入出力コンテキストと関連する検出結果が検出されたことである。
ローカル属性判定部530は、信号生成部400の検出結果に所定の環境属性が含まれるか否かを判定する。環境属性とは、例えば、走行中であるかを示す属性を示す情報や、周囲に建物が存在するかを示す属性を示す情報、周囲に観光スポットが存在するかを示す属性を示す情報、所定の音声データ(例えば楽曲)を示す属性を示す情報である。送信信号生成部540は、ローカルイベント判定部520またはローカル属性判定部530の処理結果をローカルUI処理部610に送信する。
ローカルUI処理部610は、コンテキスト処理を実行する。ローカルUI処理部610は、入出力コンテキストの評価と、応答の生成とを行う。ローカルUI処理部610は、例えば、ローカル意図推定部620と、ローカル応答生成部630と、送信信号生成部640とを備える。
ローカル意図推定部620は、音声データに基づいて、音声データが意志を持った入力であるか否かを判定する。ローカル応答生成部630は、乗員の状態に応じて、仮想像生成部242に仮想像を生成させる。送信信号生成部640は、ローカル意図推定部620またはローカル応答生成部630の処理結果を提供部240に送信する。ローカル記憶部700に記憶される情報については後述する。
エクスペリエンス提供システム1は、例えば、更にリモート判定部550と、リモートUI処理部650と、リモート記憶部710と、外部参照情報800とを備える。リモート判定部550と、リモート処理部650と、リモート記憶部710と、外部参照情報800とは、車両とは異なる場所に設けられる。
リモート判定部550は、例えば、リモートイベント判定部560と、リモート属性判定部570と、送信信号生成部580とを備える。リモートイベント判定部560は、信号生成部400の検出結果(環境情報)が、所定の条件を満たすか否かを判定する。リモート属性判定部570は、信号生成部400の検出結果に所定の環境属性が含まれるか否かを判定する。送信信号生成部580は、リモートイベント判定部560またはリモート属性判定部570の処理結果をリモートUI処理部650に送信する。リモートイベント判定部560またはリモート属性判定部570の処理結果がリモートUI処理部650に送信されることで、車両200において提供部240がインタラクションを実行する。
リモートUI処理部650は、コンテキスト処理を実行する。リモートUI処理部650は、入出力コンテキストの評価と、応答の生成とを行う。リモートUI処理部650は、例えば、リモート意図推定部660と、リモートル応答生成部670と、送信信号生成部680とを備える。リモート意図推定部660は、音声データに基づいて、音声データが意志を持った入力であるか否かを判定する。リモートル応答生成部670は、乗員の状態に応じて、仮想像生成部242に仮想像を生成させる。送信信号生成部680は、リモート意図推定部660またはリモート応答生成部670の処理結果を提供部240に送信する。
リモート記憶部710は、例えば、ローカル記憶部700に記憶された情報と同様の情報が記憶される。外部参照情報800は、楽曲などの音声データや、音声データのパターンなどの情報を含む。
[具体例]
以下、図15を参照して、車両内でインタラクションが実行される場合の処理について説明する。信号生成部400が、例えば、車室内の環境音を取得し、取得した環境音に基づいて、抽出した音声データを所定秒(例えば5秒)ごとに、ローカル判定部510、リモート判定部550、およびUI処理部(ローカルUI処理部610、リモートUI処理部650)に送信する(ステップS300)。
ローカルイベント判定部520は、信号生成部400により送信された音声データのパターンが楽曲を示す音声データのパターンと類似すると判定した場合、音楽の再生を行うと判定する(ステップS302)。ローカル属性判定部530は、音声データついて属性について判定する。属性に特徴が存在する場合、ローカル属性判定部530は、判定結果をローカルUI処理部610に送信する(ステップS304)。
リモートイベント判定部560は、信号生成部400から取得した音声データと、外部参照情報800とに基づいて、音楽の再生というイベントが発生しているか否かを判定し(ステップS306)、更に「アーティストA」、「楽曲B」という属性を判定し、判定結果をリモートUI処理部650に送信する(ステップS308)。
次に、ローカルUI処理部610のローカル意図推定部620は、音声データに基づいて、音声データが意志を持った入力であるか否かを判定する(ステップS310)。ローカルUI処理部610は、例えば、AIや、予め記憶されたアルゴリズム等を用いて、音声データが意志を持った入力であるか否かを判定する。ステップS310では、意志を持った入力でないと判定されたものとする。この後、提供部249によって、音楽が再生される(ステップS312)。すなわち、提供部240は、提供すべきインタラクションが複数存在するとき、乗員情報処理部410および外界情報処理部420の検出結果に基づき、複数のインタラクションの実行タイミングまたは実行可否を決定し、決定結果に基づいてインタラクションを乗員に提供する。
次の周期において、信号生成部400は、車室内の音を取得し、取得した音を楽曲の音データと音声データとに分離する(ステップS314)。次に、ローカルイベント判定部520は、音データと音声データとを取得し、そのデータから鼻歌や、乗員がリズムを取る動作を行っていると判定した場合、「音楽に対して興味を示した」というイベントが発生したと判定する(ステップS316)。
更に、ローカルイベント判定部520は、「再生位置検出対象のイベントが発生した」として、外部参照情報800をもとにすでに特定されている楽曲情報(楽曲データあるいは歌詞、音程などの情報)から、再生位置および、アーティストAに対応したコンテンツ情報を特定し、特定結果を信号生成部400またはローカルUI処理部610にフィードバックする(ステップS318)。
ローカルUI処理部610は、再生位置が特定され、歌詞等の付加情報を取得している状況下において、所定のアクションを実行するか否かを判定する(ステップS320)。例えば、ローカル記憶部700には、所定のイベントと、そのイベント時において実行されるアクションとが互いに対応付けられた情報が記憶されている。例えば、ローカルUI処理部610は、信号生成部400から取得した情報に基づいて、次のような特定状態が発生したとき、「介入タイミングの発生」と判定する(ステップS320)。特定状態とは、乗員が鼻歌をやめた状態、乗員の動作が解消された状態、または楽曲が間奏状態である。
ローカルUI処理部610は、介入タイミングが発生したことをローカル判定部510から取得した場合、ローカル記憶部700に記憶されている可用コンテンツ情報に基づいて、アクションを実行する(ステップS322)。可用コンテンツ情報は、イベントとアクションとが対応付けられた情報である。アクションとは、「この曲がお好きですか?」などと興味を確認する出力や、後続する楽曲に合わせた歌唱の生成等である。なお、ステップS320およびS322の処理は、リモートUI処理部650により実行されてもよい。
上述したように、提供部240は、提供済みのインタラクションを含む乗員情報処理部410の検出結果に基づき、車両の乗員に対するインタラクションを動的に提供する。この場合において、提供部240は、更に外界情報処理部420の検出結果を加味して、車両の乗員に対するインタラクションを動的に提供してもよい。
[上記処理に加え、多数イベントが並行する場合の処理]
例えば、ローカル判定部510(またはリモート判定部550)は、ローカルUI処理部610(リモートUI処理部650)の実行中に並行してイベントの発生検知を継続するとともに、提供部240は、インタラクションの提供中に検知したイベントの発生に基づき、インタラクションを動的に提供する。
例えば、ローカル応答生成部630は、乗員が楽曲(または間奏)に合わせて体を動かしてリズムをとっているときには、楽曲にあわせて乗員の動作をミラーリングするように仮想像生成部242に仮想像を生成させる。例えば、ローカル応答生成部630は、上記のように乗員が体を動かしてリズムをとっているときは、上記の介入タイミングに合わせて手をふったり拍手をしたりするように仮想像生成部242に仮想像を生成させる。
ローカルイベント判定部520が、外界情報処理部420により抽出したセンサデータ(例えば、カメラにより撮像された画像像から特徴量が抽出されたデータ)に基づき、外部に観光名所等のスポットが存在することを検知して「名所発見」イベントの発生を生じさせると判定した場合、ローカル応答生成部630は「あれは名所Cですね」というような外界に対するコメントを提供部240に出力させる。ここで上述の並行イベントが存在するため、「介入タイミングの発生」のような他イベントおよびそれに対する応答は、重複する場合がある。この場合、ローカルUI処理部610は、重複するイベントおよびそれらに対する応答各々に優先度を決定し、優先度に応じて応答の提供または出力する情報を調整する。
以上説明した実施形態によれば、エクスペリエンス提供システム1が、音声を出力する音声出力部244と、車両200の乗員が視認可能な人物の仮想像を出現させる仮想像生成部242と、音声出力部244により出力される音声と仮想像生成部242により出現させられる仮想像の動作とを協調させた車両200の乗員に対するコンテンツを提供する提供部240とを備えることにより、車両200の乗員に対して、これまでにない楽しみ方を提供することができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…エクスペリエンス提供システム、100…コンテテンツ提供サーバ、110…通信部、120…記憶部、122…カラオケコンテンツデータ、130…制御部、132…元データ生成部、132A…発話生成部、132B…歌声生成部、132C…動作生成部、134…歌唱力採点部、200…車両、210…通信部、220…乗員情報検出部、220A…車内カメラ、220B…車内マイク、220C…着座センサ、230…外界情報検出部、230A…車外カメラ、230B…車外カメラ、230C…車外カメラ、230D…車外マイク、240…提供部、242…仮想像生成部、242A…投影装置、242B…フロントウインドウ、242C…左サイドウインドウ、242E…ミラー、242G…ホログラム投影装置、242H…タッチパネル式ディスプレイ装置、242I…透過板型ディスプレイ、244…音声出力部、244A…スピーカ、244B…スピーカ、244C…スピーカ、244D…スピーカ、246…コンテンツ再生部、250…音声入力部、250A…歌唱用マイク、260…仮想像選択部、270…コンテンツ選択部、280…記憶部

Claims (17)

  1. 車両の乗員に関する情報を検出する乗員情報検出部と、
    前記車両の外部の情報を検出する外界情報検出部と、
    音声を出力する出力部と、
    表示を出力する仮想像生成部と、
    前記乗員情報検出部および前記外界情報検出部の検出結果に基づいて、前記出力部により出力される音声と前記仮想像生成部により出力される前記表示とを同期させて前記車両の乗員に対するインタラクションを動的に提供する提供部と、
    を備えるエクスペリエンス提供システム。
  2. 前記仮想像生成部は、前記車両のシートに対応する撮像画像に重畳するように仮想像を出現させる、
    請求項1に記載のエクスペリエンス提供システム。
  3. 前記仮想像生成部は、前記乗員からみて前記車両のシート鏡像位置に対応するよう仮想像を出現させる、
    請求項1に記載のエクスペリエンス提供システム。
  4. 前記提供部は、前記外界情報検出部によって検出された前記車両の外部の状況に基づいて、前記出力部より発話を行わせるタイミングを調整する、
    請求項1に記載のエクスペリエンス提供システム。
  5. 前記外界情報検出部による前記車両の外部の情報の検出能力は、前記車両の乗員による前記車両の外部の情報の検出能力と同程度である、
    請求項1に記載のエクスペリエンス提供システム。
  6. 前記提供部が提供する前記インタラクションは、前記乗員情報検出部が検出した車両内で聴取されている楽曲に対応した音声を含む、
    請求項1に記載のエクスペリエンス提供システム。
  7. 前記提供部は、前記出力部が出力する楽曲と、前記仮想像生成部の出力する表示とを同期させる、
    請求項1に記載のエクスペリエンス提供システム。
  8. 前記乗員情報検出部は、前記提供部が提供するインタラクションに対する前記車両の乗員の状態を検知して記憶する記憶部を備え、前記記憶部の状態を基に、前記車両の乗員が利用可能な前記インタラクションを変更する、
    請求項7に記載のエクスペリエンス提供システム。
  9. 前記車両は、自動運転車両であり、
    前記提供部は、前記乗員情報検出部が前記車両の自動運転中であるか否かを判定するよう構成され、手動運転中に、前記インタラクションの少なくとも一部動作態様を制限する、
    請求項1に記載のエクスペリエンス提供システム。
  10. 前記提供部は、前記車両外に備えられる判定部を用いて前記インタラクションを実行する、
    請求項1に記載のエクスペリエンス提供システム。
  11. 前記乗員情報検出部および前記外界情報検出部の検知した信号を前記車両外で処理する外部処理部の出力により前記インタラクションを提供する、
    請求項1に記載のエクスペリエンス提供システム。
  12. 前記乗員情報検出部は、前記提供部による提供済みのインタラクションを検出可能に構成され、
    前記提供部は、前記提供済みのインタラクションを含む前記乗員情報検出部および前記外界情報検出部の検出結果に基づき、前記車両の乗員に対するインタラクションを動的に提供する、
    請求項1に記載のエクスペリエンス提供システム。
  13. 前記提供部が提供すべき前記インタラクションが複数存在するとき、
    前記提供部は、前記乗員情報検出部および前記外界情報検出部の検出結果に基づき、複数の前記インタラクションの実行タイミングまたは実行可否を決定する、
    請求項1に記載のエクスペリエンス提供システム。
  14. 前記乗員情報検出部および前記外界情報検出部の検出結果に基づきイベントの発生を検知するイベント判定部を備え、
    前記イベント判定部は、車両上でイベントを判定するローカル判定部と、
    前記車両と通信接続された外部サーバでイベントを判定するリモート判定部とからなる、
    請求項1に記載のエクスペリエンス提供システム。
  15. 前記乗員情報検出部および前記外界情報検出部の検出結果に基づきイベントの発生を検知するイベント判定部と、
    前記乗員情報検出部および前記外界情報検出部の検出結果に基づき前記提供部により提供されるインタラクションを制御するインタラクション制御部と、を備え、
    前記イベント判定部は、前記インタラクション制御部の実行中に並行して前記イベントの発生検知を継続するとともに、
    前記提供部は、前記インタラクションの提供中に検知した前記イベントの発生に基づき、前記インタラクションを動的に提供する、
    請求項1に記載のエクスペリエンス提供システム。
  16. 車載コンピュータが、
    乗員情報を検出し、
    外界情報を検出し、
    音声を出力し、
    表示を出力し、
    前記乗員情報および前記外界情報に基づいて、出力される音声と出力される仮想像とを同期させて車両の乗員に対しインタラクションを動的に提供する、
    エクスペリエンス提供方法。
  17. 車載コンピュータに、
    乗員情報を検出させ、
    外界情報を検出させ、
    音声を出力させ、
    表示を出力させ、
    前記乗員情報および前記外界情報に基づいて、出力される音声と出力される仮想像を同期させて車両の乗員に対しインタラクションを動的に提供させる、
    エクスペリエンス提供プログラム。
JP2020006391A 2017-06-16 2020-01-17 エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラム Active JP7275058B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017118702 2017-06-16
JP2017118702 2017-06-16

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019525553 Division 2018-06-15

Publications (2)

Publication Number Publication Date
JP2020075720A true JP2020075720A (ja) 2020-05-21
JP7275058B2 JP7275058B2 (ja) 2023-05-17

Family

ID=64660801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020006391A Active JP7275058B2 (ja) 2017-06-16 2020-01-17 エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラム

Country Status (5)

Country Link
US (1) US11494950B2 (ja)
JP (1) JP7275058B2 (ja)
CN (1) CN110770818A (ja)
DE (1) DE112018003014T5 (ja)
WO (1) WO2018230688A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220015807A (ko) * 2020-07-31 2022-02-08 주식회사 인벤티스 증강현실 콘텐츠 기반 차량기능 안내 및 가상 시험주행 경험 제공 시스템 및 방법
KR20220167829A (ko) * 2021-06-14 2022-12-22 (주)다산지앤지 가상 운전자 서비스를 제공하는 장치, 방법 및 사용자 단말
US11626028B2 (en) 2020-07-31 2023-04-11 Inventis Co., Ltd System and method for providing vehicle function guidance and virtual test-driving experience based on augmented reality content

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018008107B4 (de) * 2018-11-26 2022-05-19 Mitsubishi Electric Corporation Informationsdarstellungssteuerungseinrichtung, informationsdarstellungseinrichtung, informationsdarstellungssteuerungsverfahren, programm und aufzeichnungsmedium
CN111243587A (zh) * 2020-01-08 2020-06-05 北京松果电子有限公司 语音交互方法、装置、设备及存储介质
DE102022107293A1 (de) 2022-03-28 2023-09-28 Bayerische Motoren Werke Aktiengesellschaft Assistenzsystem und Assistenzverfahren für ein Fahrzeug
US11972613B1 (en) * 2022-10-28 2024-04-30 Zoox, Inc. Apparatus and methods for atmospheric condition detection

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137766A (ja) * 1997-07-22 1999-02-12 Aqueous Res:Kk エージェント装置
JPH1147766A (ja) * 1997-07-31 1999-02-23 Unitika Ltd ヒ素固定剤及びヒ素含有排水の処理方法
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置
JP2006510073A (ja) * 2002-11-16 2006-03-23 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 車両の空間内に対象を投影するための装置
JP2010184610A (ja) * 2009-02-12 2010-08-26 Toyota Motor Corp 車内環境制御装置
JP2016539346A (ja) * 2013-09-17 2016-12-15 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド ユーザ識別及び車両機能制御による対話式の車両ウィンドウ表示システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217956A (ja) 2009-03-13 2010-09-30 Omron Corp 情報処理装置及び方法、プログラム、並びに情報処理システム
US9615213B2 (en) * 2009-07-21 2017-04-04 Katasi Llc Method and system for controlling and modifying driving behaviors
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
US10339711B2 (en) * 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
JP6497158B2 (ja) * 2014-05-16 2019-04-10 株式会社リコー 表示装置、移動体
CN106405836A (zh) 2015-07-28 2017-02-15 本田技研工业株式会社 车辆显示装置以及车辆显示方法
US10724874B2 (en) * 2015-10-13 2020-07-28 Here Global B.V. Virtual reality environment responsive to predictive route navigation
GB2545958B (en) * 2015-10-26 2019-08-28 Active Knowledge Ltd Moveable internal shock-absorbing energy dissipation padding in an autonomous vehicle
WO2018154942A1 (ja) * 2017-02-24 2018-08-30 ソニー株式会社 表示制御装置、方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137766A (ja) * 1997-07-22 1999-02-12 Aqueous Res:Kk エージェント装置
JPH1147766A (ja) * 1997-07-31 1999-02-23 Unitika Ltd ヒ素固定剤及びヒ素含有排水の処理方法
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置
JP2006510073A (ja) * 2002-11-16 2006-03-23 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 車両の空間内に対象を投影するための装置
JP2010184610A (ja) * 2009-02-12 2010-08-26 Toyota Motor Corp 車内環境制御装置
JP2016539346A (ja) * 2013-09-17 2016-12-15 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド ユーザ識別及び車両機能制御による対話式の車両ウィンドウ表示システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220015807A (ko) * 2020-07-31 2022-02-08 주식회사 인벤티스 증강현실 콘텐츠 기반 차량기능 안내 및 가상 시험주행 경험 제공 시스템 및 방법
KR102431493B1 (ko) * 2020-07-31 2022-08-11 주식회사 인벤티스 증강현실 콘텐츠 기반 차량기능 안내 및 가상 시험주행 경험 제공 시스템 및 방법
US11626028B2 (en) 2020-07-31 2023-04-11 Inventis Co., Ltd System and method for providing vehicle function guidance and virtual test-driving experience based on augmented reality content
KR20220167829A (ko) * 2021-06-14 2022-12-22 (주)다산지앤지 가상 운전자 서비스를 제공하는 장치, 방법 및 사용자 단말
KR102637748B1 (ko) * 2021-06-14 2024-02-20 (주)다산지앤지 가상 운전자 서비스를 제공하는 장치, 방법 및 사용자 단말
KR20240023581A (ko) * 2021-06-14 2024-02-22 (주)다산지앤지 가상 운전자 서비스를 제공하는 장치, 방법 및 사용자 단말
KR102650177B1 (ko) * 2021-06-14 2024-03-22 (주)다산지앤지 가상 운전자 서비스를 제공하는 장치, 방법 및 사용자 단말

Also Published As

Publication number Publication date
US20210150772A1 (en) 2021-05-20
US11494950B2 (en) 2022-11-08
JP7275058B2 (ja) 2023-05-17
DE112018003014T5 (de) 2020-03-05
WO2018230688A1 (ja) 2018-12-20
CN110770818A (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
JP7275058B2 (ja) エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラム
US10724874B2 (en) Virtual reality environment responsive to predictive route navigation
JP6773040B2 (ja) 情報処理システム、および情報処理システムの情報処理方法、情報処理装置、並びにプログラム
US10585471B2 (en) Systems and methods to provide an interactive space based on predicted events
US10788332B2 (en) Route navigation based on user feedback
US10994612B2 (en) Agent system, agent control method, and storage medium
CN109844837A (zh) 显示控制装置、显示装置及显示控制方法
JP7250547B2 (ja) エージェントシステム、情報処理装置、情報処理方法、およびプログラム
US11929051B2 (en) Environment awareness system for experiencing an environment through music
JP7133029B2 (ja) エージェント装置、エージェント制御方法、およびプログラム
CN107650796A (zh) 基于车辆传感器数据呈现车载媒体内容的系统、方法和设备
JPWO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
JP2008026653A (ja) 車載用ナビゲーション装置
JP2021525370A (ja) 困難な運転状態下でのランドマークによる強化されたナビゲーション指示
JP6992893B2 (ja) 走行情報処理装置及び処理方法
US11460309B2 (en) Control apparatus, control method, and storage medium storing program
WO2021258671A1 (zh) 基于车载数字人的辅助驾驶交互方法及装置、存储介质
JP2010085203A (ja) ナビゲーション装置及び案内誘導方法
CN111845591B (zh) 自主车辆中协助乘客的方法和装置
JPH11272639A (ja) エージェント装置
CN111762192A (zh) 用于自动驾驶车辆的可听通信
WO2023204076A1 (ja) 音響制御方法及び音響制御装置
CN111308999B (zh) 信息提供装置以及车载装置
CN115534850B (zh) 界面显示方法、电子设备、车辆及计算机程序产品
CN112313137B (zh) 行驶信息处理装置和处理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7275058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150