WO2023286827A1 - コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体 - Google Patents

コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2023286827A1
WO2023286827A1 PCT/JP2022/027672 JP2022027672W WO2023286827A1 WO 2023286827 A1 WO2023286827 A1 WO 2023286827A1 JP 2022027672 W JP2022027672 W JP 2022027672W WO 2023286827 A1 WO2023286827 A1 WO 2023286827A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
content
passenger
information
emotional state
Prior art date
Application number
PCT/JP2022/027672
Other languages
English (en)
French (fr)
Inventor
高志 飯澤
敬太 倉持
敦博 山中
英記 永田
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2023534851A priority Critical patent/JPWO2023286827A1/ja
Publication of WO2023286827A1 publication Critical patent/WO2023286827A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates

Definitions

  • the present invention relates to technology that can be used in push-type content output.
  • Patent Literature 1 discloses a technique for outputting a greeting voice when a passenger gets in and out of a vehicle based on information obtained through a vibration sensor or the like that detects opening and closing of the vehicle door. disclosed.
  • the content when the output of push-type content is applied when driving a vehicle, the content may be output without considering the emotional state of the passenger of the vehicle. .
  • Patent Document 1 does not particularly disclose a method capable of solving the above problems. Therefore, according to the configuration disclosed in Patent Literature 1, there still exists a problem corresponding to the above problem.
  • the present invention has been made to solve the above problems, and provides a content output device capable of outputting content according to the emotional state of a passenger in a vehicle in outputting push-type content.
  • the main purpose is to
  • a claimed invention is a content output device comprising: a first information acquisition unit for acquiring driving situation information that is information relating to the current driving situation of a vehicle; a content acquisition unit that acquires output content that is content used for outputting to a passenger of the vehicle, an output unit that outputs the output content to the passenger, and the output a second information acquiring unit that acquires passenger information, which is information that can identify the actual reaction of the passenger when the content for output is output; an estimating unit for estimating the emotional state of the passenger when output to the passenger.
  • the claimed invention is a content output device, which acquires output content, which is content used for outputting to passengers in each of a plurality of vehicles, and outputs the acquired output content to the plurality of vehicles. and a plurality of boarding received from each of the plurality of vehicles as information capable of specifying the actual reaction of the passenger when the content for output is output to the passenger an estimating unit for estimating the emotional state of the passenger based on the passenger information.
  • the invention described in claims is a content output method, in which driving situation information that is information relating to the current driving situation of a vehicle is acquired, and when the driving situation information satisfies a trigger condition, the vehicle acquire content for output which is content used for outputting to the passenger of the passenger, output the content for output to the passenger, and output the content for output to the passenger Passenger information, which is information that can specify an actual reaction, is acquired, and based on the passenger information, the emotional state of the passenger when the content for output is output to the passenger is estimated.
  • the invention described in the claims is a content output method, in which content for output, which is content used for outputting to passengers in each of a plurality of vehicles, is acquired, and the acquired content for output is A plurality of passenger information transmitted to the plurality of vehicles and received from each of the plurality of vehicles as information capable of specifying the actual reaction of the passenger when the content for output is output to the passenger. to estimate the emotional state of the passenger.
  • the invention according to the claims is a program executed by a content output device provided with a computer, comprising: a first information acquisition unit for acquiring driving situation information that is information related to the current driving situation of a vehicle; a content acquisition unit for acquiring output content, which is content used for outputting to a passenger of the vehicle when the driving situation information satisfies a trigger condition; and transmitting the output content to the passenger.
  • a first information acquisition unit for acquiring driving situation information that is information related to the current driving situation of a vehicle
  • a content acquisition unit for acquiring output content, which is content used for outputting to a passenger of the vehicle when the driving situation information satisfies a trigger condition; and transmitting the output content to the passenger.
  • an output unit that outputs a second information acquisition unit that acquires passenger information that is information that can specify the actual reaction of the passenger when the content for output is output, and based on the passenger information and causing the computer to function as an estimation unit for estimating the emotional state of the passenger when the content for output is output
  • the claimed invention is a program executed by a content output device having a computer, which acquires content for output, which is content used for output to passengers of each of a plurality of vehicles. , a content transmission unit that transmits the acquired output content to the plurality of vehicles, and information that can identify the passenger's actual reaction when the output content is output to the passenger.
  • the computer functions as an estimation unit that estimates the emotional state of the passenger based on the plurality of passenger information received from each of the plurality of vehicles.
  • FIG. 1 is a diagram showing a configuration example of an audio output system according to an embodiment
  • FIG. 1 is a block diagram showing a schematic configuration of an audio output device
  • 4 is a flowchart for explaining processing performed in the audio output device
  • FIG. 5 is a diagram for explaining a modification of processing performed in the audio output device
  • 4 is a flowchart for explaining processing performed in the server device
  • a content output device includes: a first information acquisition unit that acquires driving situation information that is information related to the current driving situation of a vehicle; a content acquisition unit that acquires content for output, which is content used for outputting to a passenger of the vehicle, an output unit that outputs the content for output to the passenger, and a second information acquiring unit that acquires passenger information, which is information that can identify the passenger's actual reaction when the output content is output; an estimating unit for estimating the emotional state of the passenger when output to the passenger.
  • the content output device described above includes a first information acquisition unit, a content acquisition unit, an output unit, a second information acquisition unit, and an estimation unit.
  • the first information acquisition unit acquires driving situation information, which is information related to the current driving situation of the vehicle.
  • the content acquisition unit acquires content for output, which is content used for output to passengers of the vehicle when the driving situation information satisfies a trigger condition.
  • the output unit outputs the content for output to the passenger.
  • the second information acquisition unit acquires passenger information, which is information capable of specifying the actual reaction of the passenger when the content for output is output.
  • the estimation unit estimates the emotional state of the passenger when the output content is output to the passenger, based on the passenger information. As a result, in outputting push-type content, content corresponding to the emotional state of the vehicle occupant can be output.
  • the estimating unit determines, based on the passenger information, when the passenger's reaction when the output content is output to the passenger belongs to a normal reaction. is estimated as a first emotional state, and the reaction of the passenger when the content for output is output to the passenger does not belong to the normal reaction. estimating the person's emotional state as a second emotional state.
  • the estimating unit determines, when there is no factor that can be specified based on the driving situation information as an external factor that can cause the second emotional state, the output Presume that the content caused the second emotional state.
  • the content acquisition unit determines that the second emotional state is a negative emotional state, and that the first output content output to the passenger is when it is presumed that the second emotional state has been caused, the second content for output capable of suppressing the second emotional state is acquired, and the output unit outputs the first content for output to the boarding The second content for output is output to the passenger immediately after being output to the passenger.
  • a content output device acquires output content, which is content used to output to passengers in each of a plurality of vehicles, and sends the acquired output content to the plurality of vehicles.
  • a content transmitting unit that transmits to a vehicle; and a plurality of passengers received from each of the plurality of vehicles as information capable of identifying the actual reaction of the passenger when the content for output is output to the passenger.
  • an estimating unit for estimating the emotional state of the passenger based on the information.
  • the above content output device includes a content transmission unit and an estimation unit.
  • the content transmission unit acquires content for output, which is content used for outputting to passengers in each of the plurality of vehicles, and transmits the acquired content for output to the plurality of vehicles.
  • the estimating unit based on a plurality of passenger information received from each of the plurality of vehicles as information capable of specifying an actual reaction of the passenger when the content for output is output to the passenger, Estimate the passenger's emotional state. As a result, in outputting push-type content, content corresponding to the emotional state of the vehicle occupant can be output.
  • the estimating unit determines, based on the passenger information, when the passenger's reaction when the output content is output to the passenger belongs to a normal reaction. is estimated as a first emotional state, and the reaction of the passenger when the content for output is output to the passenger does not belong to the normal reaction. estimating the person's emotional state as a second emotional state.
  • a content output method acquires driving situation information that is information relating to a current driving situation of a vehicle, and if the driving situation information satisfies a trigger condition, the vehicle is boarded. acquiring output content that is content used for outputting to a passenger, outputting the output content to the passenger, and obtaining an actual image of the passenger when the output content is output; Passenger information, which is information that can specify a reaction, is acquired, and based on the passenger information, the emotional state of the passenger when the content for output is output to the passenger is estimated. As a result, in outputting push-type content, content corresponding to the emotional state of the vehicle occupant can be output.
  • a content output method acquires output content, which is content used for outputting to passengers in each of a plurality of vehicles, and distributes the acquired output content to the plurality of vehicles. based on a plurality of passenger information received from each of the plurality of vehicles as information capable of specifying the passenger's actual reaction when the output content is output to the passenger. , to estimate the emotional state of the passenger. As a result, in outputting push-type content, content corresponding to the emotional state of the vehicle occupant can be output.
  • a program executed by a content output device provided with a computer includes: a first information acquisition unit for acquiring driving situation information that is information relating to the current driving situation of a vehicle; a content acquisition unit that acquires content for output that is content used for outputting to a passenger of the vehicle when information satisfies a trigger condition; and outputs the content for output to the passenger.
  • a program executed by a content output device comprising a computer acquires content for output, which is content used for output to passengers in each of a plurality of vehicles, a content transmission unit configured to transmit the acquired content for output to the plurality of vehicles;
  • the computer functions as an estimation unit for estimating the emotional state of the passenger based on a plurality of pieces of passenger information received from each of the vehicles.
  • FIG. 1 is a diagram illustrating a configuration example of an audio output system according to an embodiment.
  • a voice output system 1 according to this embodiment includes a voice output device 100 and a server device 200 .
  • the audio output device 100 is mounted on the vehicle Ve.
  • the server device 200 communicates with a plurality of audio output devices 100 mounted on a plurality of vehicles Ve.
  • the voice output device 100 basically performs route search processing, route guidance processing, etc. for the user who is a passenger of the vehicle Ve. For example, when a destination or the like is input by the user, the voice output device 100 transmits an upload signal S1 including position information of the vehicle Ve and information on the designated destination to the server device 200 . Server device 200 calculates the route to the destination by referring to the map data, and transmits control signal S2 indicating the route to the destination to audio output device 100 . The voice output device 100 provides route guidance to the user by voice output based on the received control signal S2.
  • the voice output device 100 provides various types of information to the user through interaction with the user.
  • the audio output device 100 supplies the server device 200 with an upload signal S1 including information indicating the content or type of the information request and information about the running state of the vehicle Ve.
  • the server device 200 acquires and generates information requested by the user, and transmits it to the audio output device 100 as a control signal S2.
  • the audio output device 100 provides the received information to the user by audio output.
  • the voice output device 100 moves together with the vehicle Ve and performs route guidance mainly by voice so that the vehicle Ve travels along the guidance route.
  • route guidance based mainly on voice refers to route guidance in which the user can grasp information necessary for driving the vehicle Ve along the guidance route at least from only voice, and the voice output device 100 indicates the current position. It does not exclude the auxiliary display of a surrounding map or the like.
  • the voice output device 100 outputs at least various information related to driving, such as points on the route that require guidance (also referred to as “guidance points”), by voice.
  • the guidance point corresponds to, for example, an intersection at which the vehicle Ve turns right or left, or other passing points important for the vehicle Ve to travel along the guidance route.
  • the voice output device 100 provides voice guidance regarding guidance points such as, for example, the distance from the vehicle Ve to the next guidance point and the traveling direction at the guidance point.
  • the voice regarding the guidance for the guidance route is also referred to as "route voice guidance”.
  • the audio output device 100 is installed, for example, on the upper part of the windshield of the vehicle Ve or on the dashboard. Note that the audio output device 100 may be incorporated in the vehicle Ve.
  • FIG. 2 is a block diagram showing a schematic configuration of the audio output device 100.
  • the audio output device 100 mainly includes a communication unit 111, a storage unit 112, an input unit 113, a control unit 114, a sensor group 115, a display unit 116, a microphone 117, a speaker 118, and an exterior camera 119. and an in-vehicle camera 120 .
  • Each element in the audio output device 100 is interconnected via a bus line 110 .
  • the communication unit 111 performs data communication with the server device 200 under the control of the control unit 114 .
  • the communication unit 111 may receive, for example, map data for updating a map DB (DataBase) 4 to be described later from the server device 200 .
  • Map DB DataBase
  • the storage unit 112 is composed of various memories such as RAM (Random Access Memory), ROM (Read Only Memory), and non-volatile memory (including hard disk drive, flash memory, etc.).
  • the storage unit 112 stores a program for the audio output device 100 to execute predetermined processing.
  • the above programs may include an application program for providing route guidance by voice, an application program for playing back music, an application program for outputting content other than music (such as television), and the like.
  • Storage unit 112 is also used as a working memory for control unit 114 . Note that the program executed by the audio output device 100 may be stored in a storage medium other than the storage unit 112 .
  • the storage unit 112 also stores a map database (hereinafter, the database is referred to as "DB") 4. Various data required for route guidance are recorded in the map DB 4 .
  • the map DB 4 stores, for example, road data representing a road network by a combination of nodes and links, and facility data indicating facilities that are candidates for destinations, stop-off points, or landmarks.
  • the map DB 4 may be updated based on the map information received by the communication section 111 from the map management server under the control of the control section 114 .
  • the input unit 113 is a button, touch panel, remote controller, etc. for user operation.
  • the display unit 116 is a display or the like that displays based on the control of the control unit 114 .
  • the microphone 117 collects sounds inside the vehicle Ve, particularly the driver's utterances.
  • a speaker 118 outputs audio for route guidance to the driver or the like.
  • the sensor group 115 includes an external sensor 121 and an internal sensor 122 .
  • the external sensor 121 is, for example, one or more sensors for recognizing the surrounding environment of the vehicle Ve, such as a lidar, radar, ultrasonic sensor, infrared sensor, and sonar.
  • the internal sensor 122 is a sensor that performs positioning of the vehicle Ve, and is, for example, a GNSS (Global Navigation Satellite System) receiver, a gyro sensor, an IMU (Inertial Measurement Unit), a vehicle speed sensor, or a combination thereof.
  • GNSS Global Navigation Satellite System
  • IMU Inertial Measurement Unit
  • vehicle speed sensor or a combination thereof.
  • the sensor group 115 may have a sensor that allows the control unit 114 to directly or indirectly derive the position of the vehicle Ve from the output of the sensor group 115 (that is, by performing estimation processing).
  • the vehicle exterior camera 119 is a camera that captures the exterior of the vehicle Ve.
  • the exterior camera 119 may be only a front camera that captures the front of the vehicle, or may include a rear camera that captures the rear of the vehicle in addition to the front camera. good too.
  • the in-vehicle camera 120 is a camera for photographing the interior of the vehicle Ve, and is provided at a position capable of photographing at least the vicinity of the driver's seat.
  • the control unit 114 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the audio output device 100 as a whole. For example, the control unit 114 estimates the position (including the traveling direction) of the vehicle Ve based on the outputs of one or more sensors in the sensor group 115 . Further, when a destination is specified by the input unit 113 or the microphone 117, the control unit 114 generates route information indicating a guidance route to the destination, Based on the positional information and the map DB 4, route guidance is provided. In this case, the control unit 114 causes the speaker 118 to output route voice guidance. Further, the control unit 114 controls the display unit 116 to display information about the music being played, video content, a map of the vicinity of the current position, or the like.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • control unit 114 is not limited to being implemented by program-based software, and may be implemented by any combination of hardware, firmware, and software. Also, the processing executed by the control unit 114 may be implemented using a user-programmable integrated circuit such as an FPGA (field-programmable gate array) or a microcomputer. In this case, this integrated circuit may be used to implement the program executed by the control unit 114 in this embodiment. Thus, the control unit 114 may be realized by hardware other than the processor.
  • FPGA field-programmable gate array
  • the configuration of the audio output device 100 shown in FIG. 2 is an example, and various changes may be made to the configuration shown in FIG.
  • the control unit 114 may receive information necessary for route guidance from the server device 200 via the communication unit 111 .
  • the audio output device 100 is electrically connected to an audio output unit configured separately from the audio output device 100, or by a known communication means, so as to output the audio. Audio may be output from the output unit.
  • the audio output unit may be a speaker provided in the vehicle Ve.
  • the audio output device 100 does not have to include the display section 116 .
  • the audio output device 100 does not need to perform display-related control at all. may be executed.
  • the audio output device 100 may acquire information output by sensors installed in the vehicle Ve based on a communication protocol such as CAN (Controller Area Network) from the vehicle Ve. .
  • CAN Controller Area Network
  • the server device 200 generates route information indicating a guidance route that the vehicle Ve should travel based on the upload signal S1 including the destination and the like received from the voice output device 100 .
  • the server device 200 then generates a control signal S2 relating to information output in response to the user's information request based on the user's information request indicated by the upload signal S1 transmitted by the audio output device 100 and the running state of the vehicle Ve.
  • the server device 200 then transmits the generated control signal S ⁇ b>2 to the audio output device 100 .
  • the server device 200 generates content for providing information to the user of the vehicle Ve and for interacting with the user, and transmits the content to the audio output device 100 .
  • the provision of information to the user is primarily a push-type information provision that is triggered by the server device 200 when the vehicle Ve reaches a predetermined driving condition.
  • the dialog with the user is basically a pull-type dialog that starts with a question or inquiry from the user. However, interaction with the user may start with push-type content provision.
  • FIG. 3 is a diagram showing an example of a schematic configuration of the server device 200.
  • the server device 200 mainly has a communication section 211 , a storage section 212 and a control section 214 .
  • Each element in the server device 200 is interconnected via a bus line 210 .
  • the communication unit 211 performs data communication with an external device such as the audio output device 100 under the control of the control unit 214 .
  • the storage unit 212 is composed of various types of memory such as RAM, ROM, nonvolatile memory (including hard disk drive, flash memory, etc.). Storage unit 212 stores a program for server device 200 to execute a predetermined process. Moreover, the memory
  • the control unit 214 includes a CPU, GPU, etc., and controls the server device 200 as a whole. Further, the control unit 214 operates together with the audio output device 100 by executing a program stored in the storage unit 212, and executes route guidance processing, information provision processing, and the like for the user. For example, based on the upload signal S1 received from the audio output device 100 via the communication unit 211, the control unit 214 generates route information indicating a guidance route or a control signal S2 relating to information output in response to a user's information request. Then, the control unit 214 transmits the generated control signal S2 to the audio output device 100 through the communication unit 211 .
  • push-type content provision means that when the vehicle Ve is in a predetermined driving situation, the audio output device 100 outputs content related to the driving situation to the user by voice. Specifically, the voice output device 100 acquires the driving situation information indicating the driving situation of the vehicle Ve based on the output of the sensor group 115 as described above, and transmits it to the server device 200 .
  • the server device 200 stores table data for providing push-type content in the storage unit 212 .
  • the server device 200 refers to the table data, and when the driving situation information received from the voice output device 100 mounted on the vehicle Ve matches the trigger condition defined in the table data, the script corresponding to the trigger condition is used to generate output content and transmit it to the audio output device 100 .
  • the audio output device 100 audio-outputs the content for output received from the server device 200 . In this way, the content corresponding to the driving situation of the vehicle Ve is output to the user by voice.
  • the driving situation information includes, for example, the position of the vehicle Ve, the direction of the vehicle, traffic information around the position of the vehicle Ve (including speed regulation and congestion information, etc.), the current time, the destination, etc. At least one piece of information that can be acquired based on the function of each unit of the output device 100 may be included.
  • the driving situation information includes any of the voice (excluding user's speech) obtained by the microphone 117, the image captured by the exterior camera 119, and the image captured by the interior camera 120. may be
  • the driving status information may also include information received from the server device 200 through the communication unit 111 .
  • the voice output device 100 outputs the script SC1 as voice, and the server device 200 is information that can specify the actual reaction of the passenger of the vehicle Ve. Get information.
  • Passenger information can include, for example, at least one of the voice obtained by the microphone 117 and the image captured by the in-vehicle camera 120 .
  • the voice obtained by the microphone 117 is included in the passenger information will be described.
  • the server device 200 analyzes the voice included in the passenger information to identify whether or not the passenger's utterance content to the voice output of the script SC1 belongs to a normal reaction, and the script SC1 is voice-output. Estimate the emotional state of the passenger at the time of
  • the voice included in the passenger information is "yes.”, “no.”, “yes.” or “no.” It specifies that the content of the person's utterance belongs to a normal reaction, and presumes that the emotional state of the passenger when the script SC1 is voice-output is a normal emotional state. In addition, for example, when the voice included in the passenger information is "Like. Yes! is specified, and it is estimated that the emotional state of the passenger when the script SC1 is voice-output is a positive emotional state.
  • the server apparatus 200 determines that the content of the passenger's utterance in response to the voice output of the script SC1 is It specifies that the response does not belong to a normal reaction, and presumes that the emotional state of the passenger when the script SC1 is voice-output is a negative emotional state.
  • Criteria for determining whether the passenger's utterances belong to normal reactions can include, for example, the presence or absence of words that express emotions, the loudness of the voice, the tone of the voice, and the like.
  • Normal emotional states can include emotions such as calmness and coolness. Positive emotional states can also include emotions such as, for example, anticipation and joy. Negative emotional states can also include emotions such as, for example, confusion, impatience and anger.
  • a database DBA including data in which the script SC1 and the passenger's emotional state after the output of the script SC1 are associated with the trigger condition TG1 is constructed and stored in the storage unit 212. be able to. Therefore, according to the specific example described above, when the trigger condition TG1 is satisfied, the server apparatus 200 refers to the database DBA to generate the script It can be determined whether SC1 is suitable.
  • the server device 200 when the trigger condition TG2 corresponding to the fact that the number of days since the start of use of the voice output device 100 included in the driving status information of the vehicle Ve has reached a predetermined number of days, the server device 200 outputs the message "I am using The number of days it started has reached 187.
  • the distance of National Route 174 in Hyogo Prefecture which is the shortest in Japan, is 187 meters.
  • the server device 200 also transmits the script SC2 to the audio output device 100 as output content.
  • the script SC2 is voice-output to the user.
  • the voice output device 100 outputs the script SC2 as voice. Get information.
  • the server device 200 analyzes the voice included in the passenger information to identify whether or not the content of the passenger's utterance to the voice output of the script SC2 belongs to a normal reaction, and the script SC2 is voice-output. Estimate the emotional state of the passenger at the time of
  • the server apparatus 200 recognizes that the content of the passenger's utterance to the voice output of the script SC2 does not belong to a normal reaction. Along with specifying, it is estimated that the emotional state of the passenger at the time when the script SC2 is voice-output is a positive emotional state.
  • a database DBB including data in which the script SC2 and the passenger's emotional state after the output of the script SC2 are associated with the trigger condition TG2 is constructed and stored in the storage unit 212. be able to. Therefore, according to the specific example described above, when the trigger condition TG2 is satisfied, the server apparatus 200 refers to the database DBB to generate the script It can be determined whether SC2 is suitable.
  • the server device 200 when the trigger condition TG3 corresponding to the fact that the state of the memory card attached to the audio output device 100 included in the driving situation information of the vehicle Ve is in an uninitialized state, the server device 200 outputs the message " Initialization of the memory card is required. Do you want to initialize the memory card?" The server device 200 also transmits the script SC3 to the audio output device 100 as output content. Thus, the script SC3 is audibly output to the user.
  • the voice output device 100 outputs the script SC3 as voice. Get information.
  • the server device 200 analyzes the voice included in the passenger information to identify whether or not the content of the passenger's utterance to the voice output of the script SC3 belongs to a normal reaction, and the script SC3 is voice-output. Estimate the emotional state of the passenger at the time of
  • the database DBC including data in which the script SC3 and the passenger's emotional state after the output of the script SC3 are associated with the trigger condition TG3 is constructed and stored in the storage unit 212. be able to. Therefore, according to the specific example described above, when the trigger condition TG3 is satisfied, the server apparatus 200 refers to the database DBC to generate the script It can be determined whether SC3 is suitable.
  • FIG. 4 is a flowchart for explaining the processing performed in the audio output device.
  • the control unit 114 acquires driving situation information related to the current driving situation of the vehicle Ve (step S11).
  • the control unit 114 refers to the table data TB stored in the storage unit 212 of the server device 200 to determine whether the driving situation information acquired in step S11 satisfies the trigger condition (step S12).
  • step S11 When the control unit 114 determines that the driving situation information acquired in step S11 does not satisfy the trigger condition (step S12: NO), it performs the operation of step S11 again.
  • control unit 114 determines that the driving situation information acquired in step S11 satisfies the trigger condition (step S12: YES), it performs processing for acquiring output content (step S13).
  • the control unit 114 performs processing for outputting the script included in the output content acquired in step S13 from the speaker 118 (step S14).
  • the control unit 114 can specify the actual reaction of the passenger of the vehicle Ve when the process of step S14 is performed, that is, when the output content acquired in step S13 is output to the passenger of the vehicle Ve. Passenger information, which is important information, is acquired (step S15).
  • control unit 114 estimates the emotional state of the passenger when the content for output is output to the passenger of the vehicle Ve by the process of step S14 (step S16 ).
  • control unit 114 has functions as an information acquisition unit, a content acquisition unit, and an estimation unit. Further, according to this embodiment, the speaker 118 has a function as an output unit.
  • the content for output corresponding to the driving situation information acquired as the information related to the current driving situation of the vehicle is output to the passengers of the vehicle,
  • the emotional state of the passenger is estimated based on the passenger information acquired as information that can specify the passenger's actual reaction when the output content is output. Therefore, according to the present embodiment, in the output of push-type content, it is possible to output the content corresponding to the emotional state of the passenger of the vehicle.
  • FIG. 5 is a diagram for explaining a modification of processing performed in the audio output device.
  • control unit 114 of the present embodiment estimates that the emotional state of the passenger when the output content is output is a negative emotional state, the output content is the cause of the negative emotional state. A process for further estimating whether or not it has become may be performed. Further, when the control unit 114 of the present embodiment presumes that the content for output causes a negative emotional state, the control unit 114 acquires additional content capable of suppressing the negative emotional state as the content for output, A process for outputting the acquired additional content may be performed. A specific example of such processing will be described below.
  • the control unit 114 determines whether the emotional state of the passenger of the vehicle Ve estimated in step S16 is a negative emotional state (step S21).
  • control unit 114 determines that the emotional state of the occupant of the vehicle Ve estimated in step S16 is not a negative emotional state (step S21: NO), the control unit 114 does not acquire and output additional content described later. End the process.
  • step S21: YES When the control unit 114 determines that the emotional state of the occupant of the vehicle Ve estimated in step S16 is a negative emotional state (step S21: YES), furthermore, based on the driving situation information acquired in step S11, , to determine whether there is an external factor that can cause the negative emotional state (step S22).
  • step S22 YES
  • the process ends without acquiring and outputting additional content, which will be described later.
  • the control unit 114 detects that the vehicle Ve is stuck in a traffic jam based on the traffic information included in the driving situation information, the external factor that can cause the negative emotional state is Determine that it exists.
  • step S22 determines that there is no external factor that can cause a negative emotional state
  • step S13 caused the negative emotional state.
  • the control unit 114 acquires additional content capable of suppressing a negative emotional state as content for output (step S23), and outputs the acquired additional content.
  • a process is performed to enable the operation (step S24).
  • control unit 114 acquires, for example, a script SC4 corresponding to "I apologize for the inconvenience.” or "I apologize for the inconvenience.” as additional content. Then, the control unit 114 performs processing for outputting the script SC4 from the speaker 118 as voice.
  • the script SC4 is voice-output immediately after the script SC1. Processing is performed by the control unit 114 . That is, according to this modification, the speaker 118 outputs the script SC4 by voice immediately after the script SC1 is output by voice. Therefore, according to this modified example, for example, it is possible to prevent the occurrence of a situation in which the content output by the audio output device 100 adversely affects the driving of the vehicle Ve.
  • the measured value obtained by measuring the number of times or frequency of output of the script SC4 within a certain period of time is used as data for grasping the personality tendency of the passenger of the vehicle Ve. can do.
  • the server device 200 transmits the content for output to each of the plurality of vehicles Ve, and transmits passenger information received (acquired) from each of the plurality of vehicles Ve after transmitting the content for output.
  • passenger information received (acquired) A case of estimating the emotional state of the passenger when the content for output is output using this will be described. Therefore, in the present embodiment, descriptions of portions to which the same configurations and the like as those of the first embodiment can be applied will be omitted as appropriate, and the description will focus on portions that differ from the first embodiment. .
  • FIG. 6 is a flowchart for explaining the processing performed in the server device 200.
  • the control unit 214 receives a plurality of pieces of driving situation information relating to the current driving situation of each of the plurality of vehicles Ve (step S31).
  • step S31 the control unit 214 controls the driving situation information transmitted from the vehicle Ve1, the driving situation information transmitted from the vehicle Ve2, the driving situation information transmitted from the vehicle Ve3, and the vehicle The driving condition information transmitted from Ve4 and the driving condition information transmitted from vehicle Ve5 are received.
  • the control unit 214 determines whether or not any of the plurality of pieces of driving status information received in step S31 satisfies the trigger condition (step S32).
  • step S32 NO
  • the control unit 214 determines that all the driving status information received in step S31 does not satisfy the trigger condition (step S32: NO)
  • step S32 When determining that at least one of the plurality of driving situation information received in step S31 satisfies the trigger condition (step S32: YES), the control unit 214 performs processing for acquiring output content (step S33).
  • the control unit 214 performs processing for transmitting the output content acquired in step S33 to the vehicle Ve, which is the transmission source of the driving status information determined to satisfy the trigger condition in step S32 (step S34). Then, according to such processing of the control unit 214, in the vehicle Ve to which the driving situation information satisfying the trigger condition was transmitted, one or more items included in the output content acquired as the content corresponding to the trigger condition. Script is spoken.
  • the control unit 214 controls the operation of the passenger when the output content is output from each of the plurality of vehicles Ve to which the output content is transmitted in step S34.
  • a plurality of passenger information which is information that can specify the actual reaction, is received (step S35).
  • control unit 214 determines the emotions of the passengers when the output content transmitted in the process of step S34 is output to the passengers of each of the plurality of vehicles Ve.
  • the state is estimated (step S36).
  • the output content transmitted in step S34 and the emotional states of the plurality of passengers after the transmission of the output content are associated with the trigger condition TGX in the database DBX including data associated with the trigger condition TGX.
  • the control unit 214 refers to the database DBX to select the plurality of vehicles Ve as output content to be transmitted to the plurality of vehicles Ve. It is possible to selectively acquire content other than content that tends to cause negative emotions in passengers of the vehicle Ve.
  • control unit 214 functions as a content transmission unit and an estimation unit.
  • the content for output is transmitted to a plurality of vehicles, and the content for output is output to the passengers of the plurality of vehicles.
  • Passenger information identifying the actual reaction of the passenger is received, and the emotional state of the passenger is estimated based on the passenger information. Therefore, according to the present embodiment, in the output of push-type content, it is possible to output the content corresponding to the emotional state of the passenger of the vehicle.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic storage media (e.g., floppy disks, magnetic tapes, hard disk drives), magneto-optical storage media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • audio output device 200 server device 111, 211 communication unit 112, 212 storage unit 113 input unit 114, 214 control unit 115 sensor group 116 display unit 117 microphone 118 speaker 119 exterior camera 120 interior camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

コンテンツ出力装置は、第1の情報取得部と、コンテンツ取得部と、出力部と、第2の情報取得部と、推定部と、を備える。第1の情報取得部は、車両の現在の運転状況に係る情報である運転状況情報を取得する。コンテンツ取得部は、運転状況情報がトリガ条件を満たした場合に、車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得する。出力部は、出力用コンテンツを搭乗者に対して出力する。第2の情報取得部は、出力用コンテンツが出力された際の搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する。推定部は、搭乗者情報に基づき、出力用コンテンツが搭乗者に対して出力された際の搭乗者の感情状態を推定する。

Description

コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
 本発明は、プッシュ型のコンテンツの出力において利用可能な技術に関する。
 センサ等を通じて得られた様々な情報に基づき、ユーザからの要求が無くとも当該情報に対応するコンテンツを当該ユーザに対して出力するような、プッシュ型のコンテンツの出力に係る技術が従来知られている。
 具体的には、例えば、特許文献1には、車両のドアの開閉を検出する振動センサ等を通じて得られた情報に基づき、当該車両の搭乗者の乗車時及び降車時に挨拶音声を出力する技術が開示されている。
特開2003-237453号公報
 ここで、上記のプッシュ型のコンテンツの出力によれば、ユーザの状況に必ずしも適さないコンテンツが出力されてしまう場合がある。
 そのため、例えば、プッシュ型のコンテンツの出力を車両の運転時に適用した場合においては、当該車両の搭乗者の感情状態を考慮せずにコンテンツが出力されてしまう場合がある、という問題点が生じ得る。
 しかし、特許文献1には、上記の問題点を解消可能な手法について特に開示等されていない。そのため、特許文献1に開示された構成によれば、上記の問題点に応じた課題が依然として存在している。
 本発明は、上記の課題を解決するためになされたものであり、プッシュ型のコンテンツの出力において、車両の搭乗者の感情状態に応じたコンテンツを出力することが可能なコンテンツ出力装置を提供することを主な目的とする。
 請求項に記載の発明は、コンテンツ出力装置であって、車両の現在の運転状況に係る情報である運転状況情報を取得する第1の情報取得部と、前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得するコンテンツ取得部と、前記出力用コンテンツを前記搭乗者に対して出力する出力部と、前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する第2の情報取得部と、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する推定部と、を備える。
 請求項に記載の発明は、コンテンツ出力装置であって、複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信するコンテンツ送信部と、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する推定部と、を備える。
 また、請求項に記載の発明は、コンテンツ出力方法であって、車両の現在の運転状況に係る情報である運転状況情報を取得し、前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、前記出力用コンテンツを前記搭乗者に対して出力し、前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得し、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する。
 また、請求項に記載の発明は、コンテンツ出力方法であって、複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信し、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する。
 また、請求項に記載の発明は、コンピュータを備えるコンテンツ出力装置により実行されるプログラムであって、車両の現在の運転状況に係る情報である運転状況情報を取得する第1の情報取得部、前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得するコンテンツ取得部、前記出力用コンテンツを前記搭乗者に対して出力する出力部、前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する第2の情報取得部、及び、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する推定部として前記コンピュータを機能させる。
 また、請求項に記載の発明は、コンピュータを備えるコンテンツ出力装置により実行されるプログラムであって、複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信するコンテンツ送信部、及び、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する推定部として前記コンピュータを機能させる。
実施例に係る音声出力システムの構成例を示す図。 音声出力装置の概略構成を示すブロック図。 サーバ装置の概略構成の一例を示す図。 音声出力装置において行われる処理を説明するためのフローチャート。 音声出力装置において行われる処理の変形例を説明するための図。 サーバ装置において行われる処理を説明するためのフローチャート。
 本発明の1つの好適な実施形態では、コンテンツ出力装置は、車両の現在の運転状況に係る情報である運転状況情報を取得する第1の情報取得部と、前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得するコンテンツ取得部と、前記出力用コンテンツを前記搭乗者に対して出力する出力部と、前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する第2の情報取得部と、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する推定部と、を備える。
 上記のコンテンツ出力装置は、第1の情報取得部と、コンテンツ取得部と、出力部と、第2の情報取得部と、推定部と、を備える。第1の情報取得部は、車両の現在の運転状況に係る情報である運転状況情報を取得する。コンテンツ取得部は、前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得する。出力部は、前記出力用コンテンツを前記搭乗者に対して出力する。第2の情報取得部は、前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する。推定部は、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する。これにより、プッシュ型のコンテンツの出力において、車両の搭乗者の感情状態に応じたコンテンツを出力することができる。
 上記のコンテンツ出力装置の一態様では、前記推定部は、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の反応が通常の反応に属する場合の前記搭乗者の感情状態を第1の感情状態として推定し、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の反応が前記通常の反応に属さない場合の前記搭乗者の感情状態を第2の感情状態として推定する。
 上記のコンテンツ出力装置の一態様では、前記推定部は、前記第2の感情状態の原因になり得る外部要因として、前記運転状況情報に基づいて特定可能な要因が存在しない場合に、前記出力用コンテンツが前記第2の感情状態の原因になったと推定する。
 上記のコンテンツ出力装置の一態様では、前記コンテンツ取得部は、前記第2の感情状態がネガティブな感情状態であり、かつ、前記搭乗者に対して出力された第1の出力用コンテンツが前記第2の感情状態の原因になったと推定された場合に、前記第2の感情状態を抑制可能な第2の出力用コンテンツを取得し、前記出力部は、前記第1の出力用コンテンツを前記搭乗者に対して出力した直後に前記第2の出力用コンテンツを前記搭乗者に対して出力する。
 本発明の他の実施形態では、コンテンツ出力装置は、複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信するコンテンツ送信部と、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する推定部と、を備える。
 上記のコンテンツ出力装置は、コンテンツ送信部と、推定部と、を備える。コンテンツ送信部は、複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信する。推定部は、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する。これにより、プッシュ型のコンテンツの出力において、車両の搭乗者の感情状態に応じたコンテンツを出力することができる。
 上記のコンテンツ出力装置の一態様では、前記推定部は、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の反応が通常の反応に属する場合の前記搭乗者の感情状態を第1の感情状態として推定し、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の反応が前記通常の反応に属さない場合の前記搭乗者の感情状態を第2の感情状態として推定する。
 本発明のさらに他の実施形態では、コンテンツ出力方法は、車両の現在の運転状況に係る情報である運転状況情報を取得し、前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、前記出力用コンテンツを前記搭乗者に対して出力し、前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得し、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する。これにより、プッシュ型のコンテンツの出力において、車両の搭乗者の感情状態に応じたコンテンツを出力することができる。
 本発明のさらに他の実施形態では、コンテンツ出力方法は、複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信し、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する。これにより、プッシュ型のコンテンツの出力において、車両の搭乗者の感情状態に応じたコンテンツを出力することができる。
 本発明のさらに他の実施形態では、コンピュータを備えるコンテンツ出力装置により実行されるプログラムは、車両の現在の運転状況に係る情報である運転状況情報を取得する第1の情報取得部、前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得するコンテンツ取得部、前記出力用コンテンツを前記搭乗者に対して出力する出力部、前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する第2の情報取得部、及び、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する推定部として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記のコンテンツ出力装置を実現することができる。このプログラムは記憶媒体に記憶して使用することができる。
 本発明のさらに他の実施形態では、コンピュータを備えるコンテンツ出力装置により実行されるプログラムは、複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信するコンテンツ送信部、及び、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する推定部として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記のコンテンツ出力装置を実現することができる。このプログラムは記憶媒体に記憶して使用することができる。
 以下、図面を参照して本発明の好適な第1及び第2実施例について説明する。
 <第1実施例>
 まず、第1実施例について説明する。
 [システム構成]
 (全体構成)
 図1は、実施例に係る音声出力システムの構成例を示す図である。本実施例に係る音声出力システム1は、音声出力装置100と、サーバ装置200とを有する。音声出力装置100は、車両Veに搭載される。サーバ装置200は、複数の車両Veに搭載された複数の音声出力装置100と通信する。
 音声出力装置100は、基本的に車両Veの搭乗者であるユーザに対して、経路探索処理や経路案内処理などを行う。例えば、音声出力装置100は、ユーザにより目的地等が入力されると、車両Veの位置情報や指定された目的地に関する情報などを含むアップロード信号S1をサーバ装置200に送信する。サーバ装置200は、地図データを参照して目的地までの経路を算出し、目的地までの経路を示す制御信号S2を音声出力装置100へ送信する。音声出力装置100は、受信した制御信号S2に基づいて、音声出力によりユーザに対する経路案内を行う。
 また、音声出力装置100は、ユーザとの対話により各種の情報をユーザに提供する。例えば、音声出力装置100は、ユーザが情報要求を行うと、その情報要求の内容又は種類を示す情報、及び、車両Veの走行状態に関する情報などを含むアップロード信号S1をサーバ装置200に供給する。サーバ装置200は、ユーザが要求する情報を取得、生成し、制御信号S2として音声出力装置100へ送信する。音声出力装置100は、受信した情報を、音声出力によりユーザに提供する。
 (音声出力装置)
 音声出力装置100は、車両Veと共に移動し、案内経路に沿って車両Veが走行するように、音声を主とした経路案内を行う。なお、「音声を主とした経路案内」は、案内経路に沿って車両Veを運転するために必要な情報をユーザが少なくとも音声のみから把握可能な経路案内を指し、音声出力装置100が現在位置周辺の地図などを補助的に表示することを除外するものではない。本実施例では、音声出力装置100は、少なくとも、案内が必要な経路上の地点(「案内地点」とも呼ぶ。)など、運転に係る様々な情報を音声により出力する。ここで、案内地点は、例えば車両Veの右左折を伴う交差点、その他、案内経路に沿って車両Veが走行するために重要な通過地点が該当する。音声出力装置100は、例えば、車両Veから次の案内地点までの距離、当該案内地点での進行方向などの案内地点に関する音声案内を行う。以後では、案内経路に対する案内に関する音声を「経路音声案内」とも呼ぶ。
 音声出力装置100は、例えば車両Veのフロントガラスの上部、又は、ダッシュボード上などに取り付けられる。なお、音声出力装置100は、車両Veに組み込まれてもよい。
 図2は、音声出力装置100の概略構成を示すブロック図である。音声出力装置100は、主に、通信部111と、記憶部112と、入力部113と、制御部114と、センサ群115と、表示部116と、マイク117と、スピーカ118と、車外カメラ119と、車内カメラ120と、を有する。音声出力装置100内の各要素は、バスライン110を介して相互に接続されている。
 通信部111は、制御部114の制御に基づき、サーバ装置200とのデータ通信を行う。通信部111は、例えば、後述する地図DB(DataBase)4を更新するための地図データをサーバ装置200から受信してもよい。
 記憶部112は、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部112には、音声出力装置100が所定の処理を実行するためのプログラムが記憶される。上述のプログラムは、経路案内を音声により行うためのアプリケーションプログラム、音楽を再生するためのアプリケーションプログラム、音楽以外のコンテンツ(テレビ等)を出力するためのアプリケーションプログラムなどを含んでもよい。また、記憶部112は、制御部114の作業メモリとしても使用される。なお、音声出力装置100が実行するプログラムは、記憶部112以外の記憶媒体に記憶されてもよい。
 また、記憶部112は、地図データベース(以下、データベースを「DB」と記す。)4を記憶する。地図DB4には、経路案内に必要な種々のデータが記録されている。地図DB4は、例えば、道路網をノードとリンクの組合せにより表した道路データ、及び、目的地、立寄地、又はランドマークの候補となる施設を示す施設データなどを記憶している。地図DB4は、制御部114の制御に基づき、通信部111が地図管理サーバから受信する地図情報に基づき更新されてもよい。
 入力部113は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ等である。表示部116は、制御部114の制御に基づき表示を行うディスプレイ等である。マイク117は、車両Veの車内の音声、特に運転手の発話などを集音する。スピーカ118は、運転手などに対して、経路案内のための音声を出力する。
 センサ群115は、外界センサ121と、内界センサ122とを含む。外界センサ121は、例えば、ライダ、レーダ、超音波センサ、赤外線センサ、ソナーなどの車両Veの周辺環境を認識するための1又は複数のセンサである。内界センサ122は、車両Veの測位を行うセンサであり、例えば、GNSS(Global Navigation Satellite System)受信機、ジャイロセンサ、IMU(Inertial Measurement Unit)、車速センサ、又はこれらの組合せである。なお、センサ群115は、制御部114がセンサ群115の出力から車両Veの位置を直接的に又は間接的に(即ち推定処理を行うことによって)導出可能なセンサを有していればよい。
 車外カメラ119は、車両Veの外部を撮影するカメラである。車外カメラ119は、車両の前方を撮影するフロントカメラのみでもよく、フロントカメラに加えて車両の後方を撮影するリアカメラを含んでもよく、車両Veの全周囲を撮影可能な全方位カメラであってもよい。一方、車内カメラ120は、車両Veの車内の様子を撮影するカメラであり、少なくとも運転席周辺を撮影可能な位置に設けられる。
 制御部114は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含み、音声出力装置100の全体を制御する。例えば、制御部114は、センサ群115の1又は複数のセンサの出力に基づき、車両Veの位置(進行方向の向きも含む)を推定する。また、制御部114は、入力部113又はマイク117により目的地が指定された場合に、当該目的地までの経路である案内経路を示す経路情報を生成し、当該経路情報と推定した車両Veの位置情報と地図DB4とに基づき、経路案内を行う。この場合、制御部114は、経路音声案内をスピーカ118から出力させる。また、制御部114は、表示部116を制御することで、再生中の音楽の情報、映像コンテンツ、又は現在位置周辺の地図などの表示を行う。
 なお、制御部114が実行する処理は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、制御部114が実行する処理は、例えばFPGA(field-programmable gate array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、制御部114が本実施例において実行するプログラムを実現してもよい。このように、制御部114は、プロセッサ以外のハードウェアにより実現されてもよい。
 図2に示す音声出力装置100の構成は一例であり、図2に示す構成に対して種々の変更がなされてもよい。例えば、地図DB4を記憶部12が記憶する代わりに、制御部114が通信部111を介して経路案内に必要な情報をサーバ装置200から受信してもよい。他の例では、音声出力装置100は、スピーカ118を備える代わりに、音声出力装置100とは別体に構成された音声出力部と電気的に又は公知の通信手段によって接続することで、当該音声出力部から音声を出力させてもよい。この場合、音声出力部は、車両Veに備えられたスピーカであってもよい。さらに別の例では、音声出力装置100は、表示部116を備えなくともよい。この場合、音声出力装置100は、表示に関する制御を全く行わなくともよく、有線又は無線により、車両Ve等に備えられた表示部と電気的に接続することで、当該表示部に所定の表示を実行させてもよい。同様に、音声出力装置100は、センサ群115を備える代わりに、車両Veに備え付けられたセンサが出力する情報を、車両VeからCAN(Controller Area Network)などの通信プロトコルに基づき取得してもよい。
 (サーバ装置)
 サーバ装置200は、音声出力装置100から受信する目的地等を含むアップロード信号S1に基づき、車両Veが走行すべき案内経路を示す経路情報を生成する。そして、サーバ装置200は、その後に音声出力装置100が送信するアップロード信号S1が示すユーザの情報要求及び車両Veの走行状態に基づき、ユーザの情報要求に対する情報出力に関する制御信号S2を生成する。そして、サーバ装置200は、生成した制御信号S2を、音声出力装置100に送信する。
 さらに、サーバ装置200は、車両Veのユーザに対する情報提供やユーザとの対話を行うためのコンテンツを生成し、音声出力装置100に送信する。ユーザに対する情報提供は、主として車両Veが所定の運転状況になったことをトリガとしてサーバ装置200側から開始するプッシュ型の情報提供である。また、ユーザとの対話は、基本的にユーザからの質問や問いかけから開始するプル型の対話である。但し、ユーザとの対話は、プッシュ型のコンテンツ提供から開始する場合もある。
 図3は、サーバ装置200の概略構成の一例を示す図である。サーバ装置200は、主に、通信部211と、記憶部212と、制御部214とを有する。サーバ装置200内の各要素は、バスライン210を介して相互に接続されている。
 通信部211は、制御部214の制御に基づき、音声出力装置100などの外部装置とのデータ通信を行う。記憶部212は、RAM、ROM、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部212は、サーバ装置200が所定の処理を実行するためのプログラムが記憶される。また、記憶部212は、地図DB4を含んでいる。
 制御部214は、CPU、GPUなどを含み、サーバ装置200の全体を制御する。また、制御部214は、記憶部212に記憶されたプログラムを実行することで、音声出力装置100とともに動作し、ユーザに対する経路案内処理や情報提供処理などを実行する。例えば、制御部214は、音声出力装置100から通信部211を介して受信するアップロード信号S1に基づき、案内経路を示す経路情報、又は、ユーザの情報要求に対する情報出力に関する制御信号S2を生成する。そして、制御部214は、生成した制御信号S2を、通信部211により音声出力装置100に送信する。
 [プッシュ型のコンテンツ提供]
 次に、プッシュ型のコンテンツ提供について説明する。プッシュ型のコンテンツ提供とは、車両Veが所定の運転状況になった場合に、音声出力装置100がユーザに対してその運転状況に関連するコンテンツを音声出力することをいう。具体的に、音声出力装置100は、前述のようにセンサ群115の出力に基づいて車両Veの運転状況を示す運転状況情報を取得し、サーバ装置200へ送信する。サーバ装置200は、プッシュ型のコンテンツ提供を行うためのテーブルデータを記憶部212に記憶している。サーバ装置200は、テーブルデータを参照し、車両Veに搭載された音声出力装置100から受信した運転状況情報が、テーブルデータに規定されているトリガ条件と一致した場合、そのトリガ条件に対応するスクリプトを用いて出力用コンテンツを生成し、音声出力装置100へ送信する。音声出力装置100は、サーバ装置200から受信した出力用コンテンツを音声出力する。こうして、車両Veの運転状況に対応するコンテンツがユーザに対して音声出力される。
 運転状況情報には、例えば、車両Veの位置、当該車両の方位、当該車両Veの位置の周辺の交通情報(速度規制及び渋滞情報等を含む)、現在時刻、目的地等のような、音声出力装置100の各部の機能に基づいて取得可能な少なくとも1つの情報が含まれていればよい。また、運転状況情報には、マイク117により得られた音声(ユーザの発話を除く)、車外カメラ119により撮影された画像、及び、車内カメラ120により撮影された画像のうちのいずれかが含まれていてもよい。また、運転状況情報には、通信部111を通じてサーバ装置200から受信した情報が含まれていてもよい。
 [出力用コンテンツの出力後における搭乗者の感情状態の推定方法の具体例]
 (第1の具体例)
 例えば、車両Veの運転状況情報に含まれる位置情報が現在の位置の周辺に存在するレストランへ接近したことに対応するトリガ条件TG1を満たした場合、サーバ装置200は、「この先にRさんにおすすめのレストランがあります。案内しますか?」に相当するスクリプトSC1を取得する。また、サーバ装置200は、スクリプトSC1を出力用コンテンツとして音声出力装置100へ送信する。こうして、スクリプトSC1がユーザに対して音声出力される。なお、前述の「Rさん」は、車両Veの搭乗者の本名または変名として予め登録された名前を表すものとする。
 サーバ装置200は、スクリプトSC1を含む出力用コンテンツを送信した後に、音声出力装置100において当該スクリプトSC1が音声出力された際の車両Veの搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する。
 搭乗者情報には、例えば、マイク117により得られた音声、及び、車内カメラ120により撮影された画像のうちの少なくとも一方を含めることができる。なお、以降においては、マイク117により得られた音声が搭乗者情報に含まれている場合を例に挙げて説明する。
 サーバ装置200は、搭乗者情報に含まれる音声を分析することより、スクリプトSC1の音声出力に対する搭乗者の発話内容が通常の反応に属するか否かを特定するとともに、当該スクリプトSC1が音声出力された際の当該搭乗者の感情状態を推定する。
 サーバ装置200は、例えば、搭乗者情報に含まれる音声が「イエス。」、「ノー。」、「はい。」、または、「いいえ。」である場合には、スクリプトSC1の音声出力に対する当該搭乗者の発話内容が通常の反応に属することを特定するとともに、当該スクリプトSC1が音声出力された際の当該搭乗者の感情状態が通常の感情状態であると推定する。また、サーバ装置200は、例えば、搭乗者情報に含まれる音声が「いいね。はい!」である場合には、スクリプトSC1の音声出力に対する当該搭乗者の発話内容が通常の反応に属しないことを特定するとともに、当該スクリプトSC1が音声出力された際の当該搭乗者の感情状態がポジティブな感情状態であると推定する。また、サーバ装置200は、例えば、搭乗者情報に含まれる音声が「いらねぇ。」または「もういい。」のいずれかである場合には、スクリプトSC1の音声出力に対する当該搭乗者の発話内容が通常の反応に属しないことを特定するとともに、当該スクリプトSC1が音声出力された際の当該搭乗者の感情状態がネガティブな感情状態であると推定する。
 搭乗者の発話内容が通常の反応に属するか否かの判定基準には、例えば、感情を表す言葉の有無、声の大きさ、及び、声のトーン等を含めることができる。
 通常の感情状態には、例えば、平静及び冷静等のような感情を含めることができる。また、ポジティブな感情状態には、例えば、期待及び喜び等のような感情を含めることができる。また、ネガティブな感情状態には、例えば、困惑、焦り及び怒り等のような感情を含めることができる。
 以上に述べた具体例によれば、スクリプトSC1と、当該スクリプトSC1の出力後における搭乗者の感情状態と、をトリガ条件TG1に関連付けたデータを含むデータベースDBAを構築して記憶部212に記憶させることができる。そのため、以上に述べた具体例によれば、サーバ装置200は、トリガ条件TG1を満たした場合に、データベースDBAを参照することにより、車両Veの運転手に対して出力する出力用コンテンツとして、スクリプトSC1が適しているか否かを判定することができる。
 (第2の具体例)
 例えば、車両Veの運転状況情報に含まれる音声出力装置100の使用開始時からの日数が所定の日数に達したことに対応するトリガ条件TG2を満たした場合、サーバ装置200は、「私を使い始めた日数が187日になりました。187といえば、兵庫県にある、日本で一番短い国道174号線の距離が187メートルです。」に相当するスクリプトSC2を取得する。また、サーバ装置200は、スクリプトSC2を出力用コンテンツとして音声出力装置100へ送信する。こうして、スクリプトSC2がユーザに対して音声出力される。
 サーバ装置200は、スクリプトSC2を含む出力用コンテンツを送信した後に、音声出力装置100において当該スクリプトSC2が音声出力された際の車両Veの搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する。
 サーバ装置200は、搭乗者情報に含まれる音声を分析することより、スクリプトSC2の音声出力に対する搭乗者の発話内容が通常の反応に属するか否かを特定するとともに、当該スクリプトSC2が音声出力された際の当該搭乗者の感情状態を推定する。
 サーバ装置200は、例えば、搭乗者情報に含まれる音声が「へぇ~、そうなんだ。」である場合には、スクリプトSC2の音声出力に対する当該搭乗者の発話内容が通常の反応に属しないことを特定するとともに、当該スクリプトSC2が音声出力された際の当該搭乗者の感情状態がポジティブな感情状態であると推定する。
 以上に述べた具体例によれば、スクリプトSC2と、当該スクリプトSC2の出力後における搭乗者の感情状態と、をトリガ条件TG2に関連付けたデータを含むデータベースDBBを構築して記憶部212に記憶させることができる。そのため、以上に述べた具体例によれば、サーバ装置200は、トリガ条件TG2を満たした場合に、データベースDBBを参照することにより、車両Veの運転手に対して出力する出力用コンテンツとして、スクリプトSC2が適しているか否かを判定することができる。
 (第3の具体例)
 例えば、車両Veの運転状況情報に含まれる音声出力装置100に装着されたメモリカードの状態が初期化されていない状態であることに対応するトリガ条件TG3を満たした場合、サーバ装置200は、「メモリカードの初期化が必要です、メモリカードの初期化をしますか?」に相当するスクリプトSC3を取得する。また、サーバ装置200は、スクリプトSC3を出力用コンテンツとして音声出力装置100へ送信する。こうして、スクリプトSC3がユーザに対して音声出力される。
 サーバ装置200は、スクリプトSC3を含む出力用コンテンツを送信した後に、音声出力装置100において当該スクリプトSC3が音声出力された際の車両Veの搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する。
 サーバ装置200は、搭乗者情報に含まれる音声を分析することより、スクリプトSC3の音声出力に対する搭乗者の発話内容が通常の反応に属するか否かを特定するとともに、当該スクリプトSC3が音声出力された際の当該搭乗者の感情状態を推定する。
 サーバ装置200は、例えば、搭乗者情報に含まれる音声が「えーと、初期化って何?」である場合には、スクリプトSC3の音声出力に対する当該搭乗者の発話内容が通常の反応に属しないことを特定するとともに、当該スクリプトSC3が音声出力された際の当該搭乗者の感情状態がネガティブな感情状態であると推定する。
 以上に述べた具体例によれば、スクリプトSC3と、当該スクリプトSC3の出力後における搭乗者の感情状態と、をトリガ条件TG3に関連付けたデータを含むデータベースDBCを構築して記憶部212に記憶させることができる。そのため、以上に述べた具体例によれば、サーバ装置200は、トリガ条件TG3を満たした場合に、データベースDBCを参照することにより、車両Veの運転手に対して出力する出力用コンテンツとして、スクリプトSC3が適しているか否かを判定することができる。
 (処理フロー)
 図4は、音声出力装置において行われる処理を説明するためのフローチャートである。
 なお、本実施例においては、前述の搭乗者の感情状態の推定に係る処理が音声出力装置100において行われる場合について説明する。
 制御部114は、車両Veの現在の運転状況に係る運転状況情報を取得する(ステップS11)。
 制御部114は、サーバ装置200の記憶部212に格納されているテーブルデータTBを参照することにより、ステップS11において取得した運転状況情報がトリガ条件を満たすか否かを判定する(ステップS12)。
 制御部114は、ステップS11において取得した運転状況情報がトリガ条件を満たさないと判定した場合(ステップS12:NO)には、ステップS11の動作を再度行う。
 制御部114は、ステップS11において取得した運転状況情報がトリガ条件を満たすと判定した場合(ステップS12:YES)には、出力用コンテンツを取得するための処理を行う(ステップS13)。
 制御部114は、ステップS13において取得した出力用コンテンツに含まれるスクリプトをスピーカ118から音声出力させるための処理を行う(ステップS14)。
 制御部114は、ステップS14の処理が行われた際の、すなわち、ステップS13において取得した出力用コンテンツが車両Veの搭乗者に対して出力された際の当該搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する(ステップS15)。
 制御部114は、ステップS15において取得した搭乗者情報に基づき、ステップS14の処理により出力用コンテンツが車両Veの搭乗者に対して出力された際の当該搭乗者の感情状態を推定する(ステップS16)。
 本実施例によれば、制御部114は、情報取得部、コンテンツ取得部及び推定部としての機能を有する。また、本実施例によれば、スピーカ118は、出力部としての機能を有する。
 以上に述べたように、本実施例によれば、車両の現在の運転状況に係る情報として取得された運転状況情報に応じた出力用コンテンツが当該車両の搭乗者に対して出力されるとともに、当該出力用コンテンツが出力された際の当該搭乗者の実際の反応を特定可能な情報として取得された搭乗者情報に基づいて当該搭乗者の感情状態が推定される。そのため、本実施例によれば、プッシュ型のコンテンツの出力において、車両の搭乗者の感情状態に応じたコンテンツを出力することができる。
 (変形例)
 以下、上記の実施例に対する変形例を説明する。なお、本変形例は、後述の第2実施例に対しても略同様に適用することができる。図5は、音声出力装置において行われる処理の変形例を説明するための図である。
 本実施例の制御部114は、例えば、出力用コンテンツが出力された際の搭乗者の感情状態がネガティブな感情状態であると推定した場合に、当該出力用コンテンツが当該ネガティブな感情状態の原因になったか否かをさらに推定するための処理を行うものであってもよい。また、本実施例の制御部114は、出力用コンテンツがネガティブな感情状態の原因になったと推定した場合に、当該ネガティブな感情状態を抑制可能な追加のコンテンツを出力用コンテンツとして取得し、当該取得した追加のコンテンツを出力させるための処理を行うものであってもよい。このような処理の具体例について以下に述べる。
 制御部114は、ステップS16において推定した車両Veの搭乗者の感情状態がネガティブな感情状態であるか否かを判定する(ステップS21)。
 制御部114は、ステップS16において推定した車両Veの搭乗者の感情状態がネガティブな感情状態ではないと判定した場合(ステップS21:NO)に、後述の追加のコンテンツの取得及び出力を行わずに処理を終了する。
 制御部114は、ステップS16において推定した車両Veの搭乗者の感情状態がネガティブな感情状態であると判定した場合に、(ステップS21:YES)、さらに、ステップS11において取得した運転状況情報に基づき、当該ネガティブな感情状態の原因となり得る外部要因が存在するか否かを判定する(ステップS22)。
 制御部114は、ネガティブな感情状態の原因となり得る外部要因が存在すると判定した場合(ステップS22:YES)に、後述の追加のコンテンツの取得及び出力を行わずに処理を終了する。
 具体的には、制御部114は、例えば、運転状況情報に含まれる交通情報に基づき、車両Veが渋滞に巻き込まれていることを検知した場合に、ネガティブな感情状態の原因となり得る外部要因が存在すると判定する。
 制御部114は、ネガティブな感情状態の原因となり得る外部要因が存在しないと判定した場合(ステップS22:NO)に、ステップS13において取得した出力用コンテンツが当該ネガティブな感情状態の原因になったものと推定する。そして、このような推定結果が得られた場合に、制御部114は、ネガティブな感情状態を抑制可能な追加のコンテンツを出力用コンテンツとして取得し(ステップS23)、当該取得した追加のコンテンツを出力させるための処理を行う(ステップS24)。
 具体的には、制御部114は、例えば、追加のコンテンツとして、「ご面倒をおかけいたしましてすみません。」または「差し出がましく申し訳ございません。」に相当するスクリプトSC4を取得する。そして、制御部114は、スクリプトSC4をスピーカ118から音声出力させるための処理を行う。
 本変形例によれば、例えば、スクリプトSC1の出力に起因して搭乗者の感情状態がネガティブな感情状態になったと推定される場合に、当該スクリプトSC1の直後にスクリプトSC4を音声出力させるための処理が制御部114により行われる。すなわち、本変形例によれば、スピーカ118が、スクリプトSC1を音声出力した直後にスクリプトSC4を音声出力する。そのため、本変形例によれば、例えば、音声出力装置100によるコンテンツの出力が車両Veの運転に対して悪影響を与えてしまうような状況の発生を未然に防ぐことができる。
 また、本変形例によれば、例えば、一定期間内におけるスクリプトSC4の出力回数または出力頻度を計測することにより得られる計測値を、車両Veの搭乗者の性格傾向を把握するためのデータとして利用することができる。
 <第2実施例>
 次に、第2実施例について説明する。
 本実施例においては、サーバ装置200が、出力用コンテンツを複数の車両Ve各々に対して送信するとともに、当該出力用コンテンツの送信後に当該複数の車両Ve各々から受信(取得)した搭乗者情報を用いて当該出力用コンテンツが出力された際の搭乗者の感情状態を推定する場合について説明する。そのため、本実施例においては、第1実施例と同様の構成等を適用可能な部分についての説明を適宜省略するとともに、第1実施例とは異なる部分に主眼を置いて説明を行うものとする。
 図6は、サーバ装置200において行われる処理を説明するためのフローチャートである。まず、制御部214は、複数の車両Ve各々の現在の運転状況に係る複数の運転状況情報を受信する(ステップS31)。
 具体的には、制御部214は、例えば、ステップS31において、車両Ve1から送信された運転状況情報と、車両Ve2から送信された運転状況情報と、車両Ve3から送信された運転状況情報と、車両Ve4から送信された運転状況情報と、車両Ve5から送信された運転状況情報と、を受信する。
 制御部214は、ステップS31において受信した複数の運転状況情報の中でトリガ条件を満たすものがあるか否かを判定する(ステップS32)。
 制御部214は、ステップS31において受信した全ての運転状況情報がトリガ条件を満たさないと判定した場合(ステップS32:NO)には、ステップS31の動作を再度行う。
 制御部214は、ステップS31において受信した複数の運転状況情報のうちの少なくとも1つがトリガ条件を満たす判定した場合(ステップS32:YES)には、出力用コンテンツを取得するための処理を行う(ステップS33)。
 制御部214は、ステップS32においてトリガ条件を満たすと判定した運転状況情報の送信元の車両Veに対し、ステップS33において取得した出力用コンテンツを送信するための処理を行う(ステップS34)。そして、このような制御部214の処理によれば、トリガ条件を満たす運転状況情報が送信された車両Veにおいて、当該トリガ条件に対応するコンテンツとして取得された出力用コンテンツに含まれる1つ以上のスクリプトが音声出力される。
 制御部214は、ステップS34において出力用コンテンツの送信先となった複数の車両Ve各々から、当該出力用コンテンツが当該複数の車両Ve各々の搭乗者に対して出力された際の当該搭乗者の実際の反応を特定可能な情報である複数の搭乗者情報を受信する(ステップS35)。
 制御部214は、ステップS35において受信した複数の搭乗者情報に基づき、ステップS34の処理により送信した出力用コンテンツが複数の車両Ve各々の搭乗者に対して出力された際の当該搭乗者の感情状態を推定する(ステップS36)。
 以上に述べた処理によれば、例えば、ステップS34において送信した出力用コンテンツと、当該出力用コンテンツの送信後における複数の搭乗者の感情状態と、をトリガ条件TGXに関連付けたデータを含むデータベースDBXを構築して記憶部212に記憶させることができる。そのため、以上に述べた処理によれば、トリガ条件TGXが満たされた場合に、制御部214は、データベースDBXを参照することにより、複数の車両Veに対して送信する出力用コンテンツとして、当該複数の車両Veの搭乗者にネガティブな感情を生じさせ易いコンテンツ以外のコンテンツを選択的に取得することができる。
 本実施例によれば、制御部214は、コンテンツ送信部及び推定部としての機能を有する。
 以上に述べたように、本実施例によれば、複数の車両に対して出力用コンテンツが送信され、当該出力用コンテンツが当該複数の車両の搭乗者に対して出力された後における当該搭乗者の実際の反応を特定可能な搭乗者情報が受信され、当該搭乗者情報に基づいて当該搭乗者の感情状態が推定される。そのため、本実施例によれば、プッシュ型のコンテンツの出力において、車両の搭乗者の感情状態に応じたコンテンツを出力することができる。
 なお、上述した各実施例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータである制御部等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
 100 音声出力装置
 200 サーバ装置
 111、211 通信部
 112、212 記憶部
 113 入力部
 114、214 制御部
 115 センサ群
 116 表示部
 117 マイク
 118 スピーカ
 119 車外カメラ
 120 車内カメラ

Claims (11)

  1.  車両の現在の運転状況に係る情報である運転状況情報を取得する第1の情報取得部と、
     前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得するコンテンツ取得部と、
     前記出力用コンテンツを前記搭乗者に対して出力する出力部と、
     前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する第2の情報取得部と、
     前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する推定部と、
     を備えるコンテンツ出力装置。
  2.  前記推定部は、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の反応が通常の反応に属する場合の前記搭乗者の感情状態を第1の感情状態として推定し、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の反応が前記通常の反応に属さない場合の前記搭乗者の感情状態を第2の感情状態として推定する請求項1に記載のコンテンツ出力装置。
  3.  前記推定部は、前記第2の感情状態の原因になり得る外部要因として、前記運転状況情報に基づいて特定可能な要因が存在しない場合に、前記出力用コンテンツが前記第2の感情状態の原因になったと推定する請求項2に記載のコンテンツ出力装置。
  4.  前記コンテンツ取得部は、前記第2の感情状態がネガティブな感情状態であり、かつ、前記搭乗者に対して出力された第1の出力用コンテンツが前記第2の感情状態の原因になったと推定された場合に、前記第2の感情状態を抑制可能な第2の出力用コンテンツを取得し、
     前記出力部は、前記第1の出力用コンテンツを前記搭乗者に対して出力した直後に前記第2の出力用コンテンツを前記搭乗者に対して出力する請求項3に記載のコンテンツ出力装置。
  5.  複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信するコンテンツ送信部と、
     前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する推定部と、
     を備えるコンテンツ出力装置。
  6.  前記推定部は、前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の反応が通常の反応に属する場合の前記搭乗者の感情状態を第1の感情状態として推定し、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の反応が前記通常の反応に属さない場合の前記搭乗者の感情状態を第2の感情状態として推定する請求項5に記載のコンテンツ出力装置。
  7.  車両の現在の運転状況に係る情報である運転状況情報を取得し、
     前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、
     前記出力用コンテンツを前記搭乗者に対して出力し、
     前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得し、
     前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定するコンテンツ出力方法。
  8.  複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信し、
     前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定するコンテンツ出力方法。
  9.  コンピュータを備えるコンテンツ出力装置により実行されるプログラムであって、
     車両の現在の運転状況に係る情報である運転状況情報を取得する第1の情報取得部、
     前記運転状況情報がトリガ条件を満たした場合に、前記車両の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得するコンテンツ取得部、
     前記出力用コンテンツを前記搭乗者に対して出力する出力部、
     前記出力用コンテンツが出力された際の前記搭乗者の実際の反応を特定可能な情報である搭乗者情報を取得する第2の情報取得部、及び、
     前記搭乗者情報に基づき、前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の感情状態を推定する推定部として前記コンピュータを機能させるプログラム。
  10.  コンピュータを備えるコンテンツ出力装置により実行されるプログラムであって、
     複数の車両各々の搭乗者に対して出力するために用いられるコンテンツである出力用コンテンツを取得し、当該取得した出力用コンテンツを前記複数の車両に送信するコンテンツ送信部、及び、
     前記出力用コンテンツが前記搭乗者に対して出力された際の前記搭乗者の実際の反応を特定可能な情報として前記複数の車両各々から受信した複数の搭乗者情報に基づき、前記搭乗者の感情状態を推定する推定部として前記コンピュータを機能させるプログラム。
  11.  請求項9または10に記載のプログラムを記憶した記憶媒体。
PCT/JP2022/027672 2021-07-14 2022-07-14 コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体 WO2023286827A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023534851A JPWO2023286827A1 (ja) 2021-07-14 2022-07-14

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021116382 2021-07-14
JP2021-116382 2021-07-14

Publications (1)

Publication Number Publication Date
WO2023286827A1 true WO2023286827A1 (ja) 2023-01-19

Family

ID=84920316

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/027672 WO2023286827A1 (ja) 2021-07-14 2022-07-14 コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体

Country Status (2)

Country Link
JP (1) JPWO2023286827A1 (ja)
WO (1) WO2023286827A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057173A1 (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話方法
WO2018123055A1 (ja) * 2016-12-28 2018-07-05 本田技研工業株式会社 情報提供システム
JP2018179704A (ja) * 2017-04-11 2018-11-15 株式会社デンソー 車両用報知装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057173A1 (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話方法
WO2018123055A1 (ja) * 2016-12-28 2018-07-05 本田技研工業株式会社 情報提供システム
JP2018179704A (ja) * 2017-04-11 2018-11-15 株式会社デンソー 車両用報知装置

Also Published As

Publication number Publication date
JPWO2023286827A1 (ja) 2023-01-19

Similar Documents

Publication Publication Date Title
JP6604151B2 (ja) 音声認識制御システム
JP7211707B2 (ja) エージェント連携方法
JP5181533B2 (ja) 音声対話装置
US11462103B2 (en) Driver-assistance device, driver-assistance system, and driver-assistance program
WO2023286827A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
JP2023105143A (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
WO2021192511A1 (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
WO2023286826A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023062816A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023163197A1 (ja) コンテンツ評価装置、コンテンツ評価方法、プログラム及び記憶媒体
WO2023063405A1 (ja) コンテンツ生成装置、コンテンツ生成方法、プログラム及び記憶媒体
WO2023163196A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023162189A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023073949A1 (ja) 音声出力装置、サーバ装置、音声出力方法、制御方法、プログラム及び記憶媒体
WO2023112147A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023073856A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023062817A1 (ja) 音声認識装置、制御方法、プログラム及び記憶媒体
WO2023112148A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023163047A1 (ja) 端末装置、情報提供システム、情報処理方法、プログラム及び記憶媒体
WO2023276037A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023062814A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP2023011136A (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023073935A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023163045A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
JP2023088005A (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22842169

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023534851

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE