WO2023162189A1 - コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体 - Google Patents

コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2023162189A1
WO2023162189A1 PCT/JP2022/008134 JP2022008134W WO2023162189A1 WO 2023162189 A1 WO2023162189 A1 WO 2023162189A1 JP 2022008134 W JP2022008134 W JP 2022008134W WO 2023162189 A1 WO2023162189 A1 WO 2023162189A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
output
vehicle
unit
output device
Prior art date
Application number
PCT/JP2022/008134
Other languages
English (en)
French (fr)
Inventor
高志 飯澤
敬太 倉持
敦博 山中
英記 永田
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2022/008134 priority Critical patent/WO2023162189A1/ja
Publication of WO2023162189A1 publication Critical patent/WO2023162189A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Definitions

  • the present invention relates to technology that can be used in content output.
  • a technology for outputting content to the user according to the current position of the vehicle is conventionally known.
  • Patent Document 1 when a vehicle equipped with an in-vehicle device exists within the living area of a user who uses the in-vehicle device, seasonal information, which is useful information for the life of the user, is transmitted to the in-vehicle device.
  • Techniques for delivering to devices are disclosed.
  • Patent Document 1 when a vehicle equipped with an in-vehicle device does not exist in the living area of a user who uses the in-vehicle device, tourist information, which is information that is not needed in general life, is transmitted to the in-vehicle device.
  • tourist information which is information that is not needed in general life
  • Patent Document 1 does not particularly disclose the point of view of determining whether or not to output the content while considering the state of output of the content to the user. Therefore, according to the technique disclosed in Patent Literature 1, there is a problem that there is a possibility of imposing a mental burden on the user due to the presence or absence of content output.
  • the present invention has been made to solve the above problems, and is primarily to provide a content output device capable of reducing the user's mental burden caused by the presence or absence of content output. aim.
  • the claimed invention is a content output device comprising: a content acquisition unit for acquiring content related to a feature corresponding to a current position of a vehicle; an output unit for outputting the content to the vehicle; and a storage unit that stores management information for managing the output status of the content in the storage unit, and an adjustment unit that adjusts the output frequency of the content based on the management information.
  • the claimed invention is a content output method, which acquires content related to a feature corresponding to the current position of a vehicle, outputs the content to the vehicle, and outputs the content in the vehicle. Management information for managing the situation is stored, and the output frequency of the content is adjusted based on the management information.
  • the claimed invention is a program executed by a content output device having a computer, comprising: a content acquisition unit for acquiring content related to a feature corresponding to a current position of a vehicle; , a storage unit for storing management information for managing the output status of the content in the vehicle, and an adjustment unit for adjusting the output frequency of the content based on the management information.
  • FIG. 1 is a diagram showing a configuration example of an audio output system according to an embodiment
  • FIG. 1 is a block diagram showing a schematic configuration of an audio output device
  • FIG. 4 is a diagram for explaining an example of the data structure of table data stored in the server device; 4 is a flowchart for explaining processing performed in the server device;
  • a content output device includes a content acquisition unit that acquires content related to a feature corresponding to a current position of a vehicle, an output unit that outputs the content to the vehicle, and the It has a storage unit that stores management information for managing the output status of the content in the vehicle, and an adjustment unit that adjusts the output frequency of the content based on the management information.
  • the above content output device has a content acquisition unit, an output unit, a storage unit, and an adjustment unit.
  • the content acquisition unit acquires content related to features corresponding to the current position of the vehicle.
  • the output unit outputs the content to the vehicle.
  • the storage unit stores management information for managing the output status of the content in the vehicle.
  • the adjuster adjusts the output frequency of the content based on the management information. As a result, it is possible to reduce the user's mental burden caused by the presence or absence of content output.
  • the adjustment unit outputs the content in the vehicle when detecting that the number of times the content has been output in the vehicle reaches a predetermined number of times based on the management information. Set intervals to reduce frequency.
  • the interval is set as the number of days that have elapsed since the last time the content was output in the vehicle.
  • the interval is set as a period that becomes longer as the number of times the content is output from the vehicle increases.
  • a content output method acquires content related to a feature according to the current position of a vehicle, outputs the content to the vehicle, and manages the output status of the content in the vehicle. Management information for outputting the content is stored, and the output frequency of the content is adjusted based on the management information. As a result, it is possible to reduce the user's mental burden caused by the presence or absence of content output.
  • a program executed by a content output device provided with a computer includes a content acquisition unit for acquiring content related to a feature corresponding to the current position of a vehicle, and outputting the content to the vehicle. a storage unit that stores management information for managing the output status of the content in the vehicle; and an adjustment unit that adjusts the output frequency of the content based on the management information.
  • This program can be stored in a storage medium and used.
  • FIG. 1 is a diagram illustrating a configuration example of an audio output system according to an embodiment.
  • a voice output system 1 according to this embodiment includes a voice output device 100 and a server device 200 .
  • the audio output device 100 is mounted on the vehicle Ve.
  • the server device 200 communicates with a plurality of audio output devices 100 mounted on a plurality of vehicles Ve.
  • the voice output device 100 basically performs route search processing, route guidance processing, etc. for the user who is a passenger of the vehicle Ve. For example, when a destination or the like is input by the user, the voice output device 100 transmits an upload signal S1 including position information of the vehicle Ve and information on the designated destination to the server device 200 . Server device 200 calculates the route to the destination by referring to the map data, and transmits control signal S2 indicating the route to the destination to audio output device 100 . The voice output device 100 provides route guidance to the user by voice output based on the received control signal S2.
  • the voice output device 100 provides various types of information to the user through interaction with the user.
  • the audio output device 100 supplies the server device 200 with an upload signal S1 including information indicating the content or type of the information request and information about the running state of the vehicle Ve.
  • the server device 200 acquires and generates information requested by the user, and transmits it to the audio output device 100 as a control signal S2.
  • the audio output device 100 provides the received information to the user by audio output.
  • the voice output device 100 moves together with the vehicle Ve and performs route guidance mainly by voice so that the vehicle Ve travels along the guidance route.
  • route guidance based mainly on voice refers to route guidance in which the user can grasp information necessary for driving the vehicle Ve along the guidance route at least from only voice, and the voice output device 100 indicates the current position. It does not exclude the auxiliary display of a surrounding map or the like.
  • the voice output device 100 outputs at least various information related to driving, such as points on the route that require guidance (also referred to as “guidance points”), by voice.
  • the guidance point corresponds to, for example, an intersection at which the vehicle Ve turns left or right, or an important passing point for the vehicle Ve to travel along the guidance route.
  • the voice output device 100 provides voice guidance regarding guidance points such as, for example, the distance from the vehicle Ve to the next guidance point and the traveling direction at the guidance point.
  • the voice regarding the guidance for the guidance route is also referred to as "route voice guidance”.
  • the audio output device 100 is installed, for example, on the upper part of the windshield of the vehicle Ve or on the dashboard. Note that the audio output device 100 may be incorporated in the vehicle Ve.
  • FIG. 2 is a block diagram showing a schematic configuration of the audio output device 100.
  • Audio output device 100 mainly includes communication unit 111 , storage unit 112 , input unit 113 , control unit 114 , sensor group 115 , display unit 116 , microphone 117 , speaker 118 , and vehicle exterior camera 119 . and an in-vehicle camera 120 .
  • Each element in the audio output device 100 is interconnected via a bus line 110 .
  • the communication unit 111 performs data communication with the server device 200 under the control of the control unit 114 .
  • the communication unit 111 may receive, for example, map data for updating a map DB (DataBase) 4 to be described later from the server device 200 .
  • Map DB DataBase
  • the storage unit 112 is composed of various memories such as RAM (Random Access Memory), ROM (Read Only Memory), non-volatile memory (including hard disk drive, flash memory, etc.).
  • the storage unit 112 stores a program for the audio output device 100 to execute predetermined processing.
  • the above-mentioned programs may include an application program for performing route guidance by voice, an application program for playing music, an application program for outputting content other than music (such as television), and the like.
  • Storage unit 112 is also used as a working memory for control unit 114 . Note that the program executed by the audio output device 100 may be stored in a storage medium other than the storage unit 12 .
  • the storage unit 112 also stores a map database (hereinafter, the database is referred to as "DB") 4. Various data required for route guidance are recorded in the map DB 4 .
  • the map DB 4 stores, for example, road data representing a road network by a combination of nodes and links, and facility data indicating facilities that are candidates for destinations, stop-off points, or landmarks.
  • the map DB 4 may be updated based on the map information received by the communication section 111 from the map management server under the control of the control section 114 .
  • the input unit 113 is a button, touch panel, remote controller, etc. for user operation.
  • the display unit 116 is a display or the like that displays based on the control of the control unit 114 .
  • the microphone 117 collects sounds inside the vehicle Ve, particularly the driver's utterances.
  • a speaker 118 outputs voice for route guidance to the driver or the like.
  • the sensor group 115 includes an external sensor 121 and an internal sensor 122 .
  • the external sensor 121 is, for example, one or more sensors for recognizing the surrounding environment of the vehicle Ve, such as a lidar, radar, ultrasonic sensor, infrared sensor, and sonar.
  • the internal sensor 122 is a sensor that performs positioning of the vehicle Ve, and is, for example, a GNSS (Global Navigation Satellite System) receiver, a gyro sensor, an IMU (Inertial Measurement Unit), a vehicle speed sensor, or a combination thereof.
  • GNSS Global Navigation Satellite System
  • IMU Inertial Measurement Unit
  • vehicle speed sensor or a combination thereof.
  • the sensor group 115 may have a sensor that allows the control unit 114 to directly or indirectly derive the position of the vehicle Ve from the output of the sensor group 115 (that is, by performing estimation processing).
  • the vehicle exterior camera 119 is a camera that captures the exterior of the vehicle Ve.
  • the exterior camera 119 may be only a front camera that captures the front of the vehicle, or may include a rear camera that captures the rear of the vehicle in addition to the front camera. good too.
  • the in-vehicle camera 120 is a camera for photographing the interior of the vehicle Ve, and is provided at a position capable of photographing at least the vicinity of the driver's seat.
  • the control unit 114 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the audio output device 100 as a whole. For example, the control unit 114 estimates the position (including the traveling direction) of the vehicle Ve based on the outputs of one or more sensors in the sensor group 115 . Further, when a destination is specified by the input unit 113 or the microphone 117, the control unit 114 generates route information indicating a guidance route to the destination, Based on the positional information and the map DB 4, route guidance is provided. In this case, the control unit 114 causes the speaker 118 to output route voice guidance. Further, the control unit 114 controls the display unit 116 to display information about the music being played, video content, a map of the vicinity of the current position, or the like.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • control unit 114 is not limited to being implemented by program-based software, and may be implemented by any combination of hardware, firmware, and software. Also, the processing executed by the control unit 114 may be implemented using a user-programmable integrated circuit such as an FPGA (field-programmable gate array) or a microcomputer. In this case, this integrated circuit may be used to implement the program executed by the control unit 114 in this embodiment. Thus, the control unit 114 may be realized by hardware other than the processor.
  • FPGA field-programmable gate array
  • the configuration of the audio output device 100 shown in FIG. 2 is an example, and various changes may be made to the configuration shown in FIG.
  • the control unit 114 may receive information necessary for route guidance from the server device 200 via the communication unit 111 .
  • the audio output device 100 is electrically connected to an audio output unit configured separately from the audio output device 100, or by a known communication means, so as to output the audio. Audio may be output from the output unit.
  • the audio output unit may be a speaker provided in the vehicle Ve.
  • the audio output device 100 does not have to include the display section 116 .
  • the audio output device 100 does not need to perform display-related control at all. may be executed.
  • the audio output device 100 may acquire information output by sensors installed in the vehicle Ve based on a communication protocol such as CAN (Controller Area Network) from the vehicle Ve. .
  • CAN Controller Area Network
  • the server device 200 generates route information indicating a guidance route that the vehicle Ve should travel based on the upload signal S1 including the destination and the like received from the voice output device 100 . Then, the server device 200 generates a control signal S2 relating to information output in response to the user's information request based on the user's information request indicated by the upload signal S1 transmitted by the audio output device 100 and the running state of the vehicle Ve. The server device 200 then transmits the generated control signal S ⁇ b>2 to the audio output device 100 .
  • the server device 200 generates content for providing information to the user of the vehicle Ve and interacting with the user, and transmits the content to the audio output device 100 .
  • the provision of information to the user is primarily a push-type information provision that is triggered by the server device 200 when the vehicle Ve reaches a predetermined driving condition.
  • the dialog with the user is basically a pull-type dialog that starts with a question or inquiry from the user.
  • the dialogue with the user may start from the provision of push-type content.
  • FIG. 3 is a diagram showing an example of a schematic configuration of the server device 200.
  • the server device 200 mainly has a communication section 211 , a storage section 212 and a control section 214 .
  • Each element in the server device 200 is interconnected via a bus line 210 .
  • the communication unit 211 performs data communication with an external device such as the audio output device 100 under the control of the control unit 214 .
  • the storage unit 212 is composed of various types of memory such as RAM, ROM, nonvolatile memory (including hard disk drive, flash memory, etc.). Storage unit 212 stores a program for server device 200 to execute a predetermined process. Moreover, the memory
  • the control unit 214 includes a CPU, GPU, etc., and controls the server device 200 as a whole. Further, the control unit 214 operates together with the audio output device 100 by executing a program stored in the storage unit 212, and executes route guidance processing, information provision processing, and the like for the user. For example, based on the upload signal S1 received from the audio output device 100 via the communication unit 211, the control unit 214 generates route information indicating a guidance route or a control signal S2 relating to information output in response to a user's information request. Then, the control unit 214 transmits the generated control signal S2 to the audio output device 100 through the communication unit 211 .
  • push-type content provision means that when the vehicle Ve is in a predetermined driving situation, the audio output device 100 outputs the content related to the driving situation to the user. Specifically, the voice output device 100 acquires the driving situation information indicating the driving situation of the vehicle Ve based on the output of the sensor group 115 as described above, and transmits it to the server device 200 .
  • the server device 200 stores table data for providing push-type content in the storage unit 212 .
  • the server device 200 refers to the table data, and when the driving situation information received from the voice output device 100 mounted on the vehicle Ve matches the trigger condition defined in the table data, the script corresponding to the trigger condition is used to generate or acquire content for output and transmit it to the audio output device 100 .
  • the audio output device 100 audio-outputs the content for output received from the server device 200 . In this way, the content corresponding to the driving situation of the vehicle Ve is output to the user by voice.
  • the driving situation information includes, for example, the position of the vehicle Ve, the direction of the vehicle, traffic information around the position of the vehicle Ve (including speed regulation and congestion information, etc.), the current time, the destination, etc. At least one piece of information that can be acquired based on the function of each unit of the output device 100 may be included. Further, the driving situation information may include any one of the voice obtained by the microphone 117, the image captured by the exterior camera 119, and the image captured by the interior camera 120. The driving status information may also include information received from the server device 200 through the communication unit 111 .
  • FIG. 4 is a diagram for explaining an example of the data structure of table data stored in the server device.
  • the storage unit 212 of the server device 200 stores, for example, table data TB as shown in FIG.
  • the "position” of the table data TB is, for example, a position indicated by latitude and longitude. Positions PA to PE included in "Position" of table data TB are trigger conditions for acquiring and outputting content corresponding to the current position of vehicle Ve.
  • Script in the table data TB indicates a sentence that is used when outputting voice from the voice output device 100 to the user. Also, each sentence included in the "script" of the table data TB is generated in advance as content related to features corresponding to the positions PA to PE. Specifically, the "script" of the table data TB includes "This is Tokyo Station, a famous place in Chiyoda Ward” corresponding to the script SCA corresponding to the position PA, and "Chiyoda Station” corresponding to the script SCB corresponding to the position PB.
  • the table data TB contains a plurality of contents related to features as contents to be output to the user by voice.
  • the table data TB includes management information for managing the output status of each content for each of a plurality of users.
  • Output count” in the table data TB indicates the number of times the sentence included in the "script” was output. Further, the “last output date” of the table data TB indicates the date when the sentence included in the "script” was last output.
  • the "interval” of the table data TB is set as the minimum time interval until the next sentence included in the "script” is output. In other words, the “interval” of the table data TB is set as a period for suppressing the output of content to the user. Also, "-" in the table data TB indicates unset or not applicable.
  • interval is not set for contents (scripts) whose "number of times of output” is equal to or less than a predetermined number of times.
  • the "interval” is not set for contents (scripts) for which the "number of times of output” is two or less. Therefore, in this embodiment, the content can be output (transmitted) to the audio output device 100 without waiting until the "number of times of output" reaches a predetermined number of times (for example, twice).
  • the storage unit 212 stores the table data TB including management information for managing the output status of the content related to the feature in the vehicle Ve.
  • the server device 200 when the server device 200 detects that the current position of the vehicle Ve1 is the position PB based on the driving status information of the vehicle Ve1 received by the communication unit 211, the server device 200 refers to the table data TB to determine the current position of the vehicle Ve1. Get the script SCB corresponding to the position PB. Further, the server device 200 outputs (transmits) the script SCB to the audio output device 100 of the vehicle Ve1 when it detects that the interval in the script SCB is not set by referring to the table data TB. As a result, the sound corresponding to the script SCB is output from the speaker 118 of the vehicle Ve1 to the user UA.
  • the server device 200 updates the "output count” in the “user UA” of the table data TB from “2" to “3”, Update the “last output date” in “user UA” to the current date. Further, when the server device 200 detects that the updated “number of outputs” in the “user UA” of the table data TB has become “3”, the server device 200 changes the “interval” in the “user UA” to “1 day”. ”.
  • the server device 200 when the server device 200 detects that the current position of the vehicle Ve1 is the position PA based on the driving status information of the vehicle Ve1 received by the communication unit 211, the server device 200 refers to the table data TB to obtain the current position of the vehicle Ve1. Get the script SCA corresponding to the position PA. When the server device 200 detects that an interval is set in the script SCA by referring to the table data TB, the server device 200 determines whether or not the script SCA can be output on the current date. do.
  • the server apparatus 200 determines that the current date corresponds to a date after the period (two days) set as the "interval" has passed from the date of the "final output date” (October 1, 2021). If so, it is determined that the script SCA can be output. When the server device 200 determines that the script SCA can be output, the server device 200 outputs (transmits) the script SCA to the audio output device 100 of the vehicle Ve1. As a result, the voice corresponding to the script SCA is output from the speaker 118 of the vehicle Ve1 to the user UA.
  • the server device 200 updates the "output count” in the “user UA” of the table data TB from "4" to "5", Update the “last output date” in “user UA” to the current date. Further, when the server device 200 detects that the updated “output count” in the “user UA” of the table data TB has become “5”, the server device 200 changes the “interval” in the “user UA” to “4 days”. ”.
  • the script SCA determines that the script SCA cannot be output by voice.
  • the script SCA is not output (transmitted) to the audio output device 100 of the vehicle Ve1, so the audio corresponding to the script SCA is not output to the user UA.
  • the server device 200 can adjust the output frequency of the content based on the number of times the content related to the feature in the vehicle Ve1 is output. Further, according to the processing described above, when the server apparatus 200 detects that the number of times the content has been output in the vehicle Ve1 has reached the predetermined number based on the management information of the user UA included in the table data TB, An interval can be set to reduce the output frequency of the content in the vehicle Ve1. Further, according to the processing described above, the server device 200 can set the interval as the number of days elapsed from the date when the content was last output in the vehicle Ve1. Further, according to the processing described above, the server device 200 can set the interval as a period that becomes longer as the number of times the content is output from the vehicle Ve1 increases.
  • FIG. 5 is a flow chart for explaining the processing performed in the server device.
  • control unit 214 of the server device 200 acquires the current position of the vehicle Ve1 based on the driving status information of the vehicle Ve1 received from the audio output device 100 (step S11).
  • control unit 214 refers to the table data TB to determine whether content corresponding to the current position of the vehicle Ve1 obtained in step S11 can be obtained (step S12).
  • step S12 NO
  • step S12: NO the control unit 214 returns to step S11 and acquires the current position of the vehicle Ve1 again. Further, when the content corresponding to the current position of the vehicle Ve can be acquired (step S12: YES), the control unit 214 acquires the content (step S13), and then executes the processing of step S14 described later. conduct.
  • the control unit 214 determines the current date, the final output date when the content acquired in step S13 was last output to the user UA, the interval set for suppressing the output of the content to the user UA, determines whether or not the content acquired in step S13 can be output based on
  • step S14 If the content acquired in step S13 cannot be output (step S14: NO), the control unit 214 ends the series of processes in FIG. Further, when the content acquired in step S13 can be output (step S14: YES), the control unit 214 performs processing for outputting (transmitting) the content to the audio output device 100 of the vehicle Ve1 (step After S15), the process of step S16, which will be described later, is performed.
  • the control unit 214 updates the output count and final output date for the user UA for the content output in step S15 (step S16).
  • control unit 214 determines whether or not the number of times the contents have been output after being updated in step S16 has exceeded a predetermined number of times (step S17).
  • step S17: NO When the number of output times of the content after updating in step S16 is equal to or less than the predetermined number of times (step S17: NO), the control unit 214 sets the interval until the content output in step S15 is next output to the user UA. , the series of processing in FIG. 5 is terminated. Further, when the number of output times of the content updated in step S16 exceeds the predetermined number of times (step S17: YES), the interval until the next output of the content output in step S15 to the user UA is set. After (step S18), the series of processing in FIG. 5 is terminated.
  • control unit 214 has functions as a content acquisition unit and an adjustment unit. Further, according to this embodiment, the communication unit 211 has a function as an output unit.
  • the output frequency of content that is relatively less frequently output to the user is minimized.
  • the output frequency of content that is relatively less frequently output to the user is minimized.
  • content is continuously output to the user while avoiding redundancy. can do. Therefore, according to the present embodiment, it is possible to reduce the mental burden on the user caused by the presence or absence of content output.
  • the communication unit 111 or the control unit 114 functions as a content acquisition unit
  • the speaker 118 functions as an output unit
  • the control unit 114 functions as an adjustment unit.
  • the table data TB is stored in the storage unit 112, the audio output device 100 can perform substantially the same processing as the series of processing in FIG.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic storage media (e.g., floppy disks, magnetic tapes, hard disk drives), magneto-optical storage media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • audio output device 200 server device 111, 211 communication unit 112, 212 storage unit 113 input unit 114, 214 control unit 115 sensor group 116 display unit 117 microphone 118 speaker 119 exterior camera 120 interior camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

コンテンツ出力装置は、コンテンツ取得部と、出力部と、記憶部と、調整部と、を有する。コンテンツ取得部は、車両の現在位置に応じた地物に関するコンテンツを取得する。出力部は、車両に対してコンテンツを出力する。記憶部は、車両におけるコンテンツの出力状況を管理するための管理情報を格納する。調整部は、管理情報に基づき、コンテンツの出力頻度を調整する。

Description

コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
 本発明は、コンテンツの出力において利用可能な技術に関する。
 車両の現在位置に応じたコンテンツをユーザに対して出力する技術が従来知られている。
 具体的には、例えば、特許文献1には、車載装置を搭載した車両が当該車載装置を使用するユーザの生活圏内に存在する場合に、当該ユーザの生活に役立つ情報である季節情報を当該車載装置へ配信する技術が開示されている。また、例えば、特許文献1には、車載装置を搭載した車両が当該車載装置を使用するユーザの生活圏内に存在しない場合に、一般の生活には必要とされない情報である観光情報を当該車載装置へ配信する技術が開示されている。
特開2011-22756号公報
 しかし、特許文献1には、ユーザに対するコンテンツの出力状況を考慮しつつ、当該コンテンツの出力の有無を決定する観点について特に開示等されていない。そのため、特許文献1に開示されている技術によれば、コンテンツの出力の有無に起因する精神的負担をユーザに課してしまうおそれがある、という課題が生じている。
 本発明は、上記の課題を解決するためになされたものであり、コンテンツの出力の有無に起因して生じるユーザの精神的負担を軽減することが可能なコンテンツ出力装置を提供することを主な目的とする。
 請求項に記載の発明は、コンテンツ出力装置であって、車両の現在位置に応じた地物に関するコンテンツを取得するコンテンツ取得部と、前記車両に対して前記コンテンツを出力する出力部と、前記車両における前記コンテンツの出力状況を管理するための管理情報を格納する記憶部と、前記管理情報に基づき、前記コンテンツの出力頻度を調整する調整部と、を有する。
 また、請求項に記載の発明は、コンテンツ出力方法であって、車両の現在位置に応じた地物に関するコンテンツを取得し、前記車両に対して前記コンテンツを出力し、前記車両における前記コンテンツの出力状況を管理するための管理情報を格納し、前記管理情報に基づき、前記コンテンツの出力頻度を調整する。
 また、請求項に記載の発明は、コンピュータを備えるコンテンツ出力装置により実行されるプログラムであって、車両の現在位置に応じた地物に関するコンテンツを取得するコンテンツ取得部、前記車両に対して前記コンテンツを出力する出力部、前記車両における前記コンテンツの出力状況を管理するための管理情報を格納する記憶部、及び、前記管理情報に基づき、前記コンテンツの出力頻度を調整する調整部として前記コンピュータを機能させる。
実施例に係る音声出力システムの構成例を示す図。 音声出力装置の概略構成を示すブロック図。 サーバ装置の概略構成の一例を示す図。 サーバ装置に格納されているテーブルデータのデータ構造の一例を説明するための図。 サーバ装置において行われる処理を説明するためのフローチャート。
 本発明の1つの好適な実施形態では、コンテンツ出力装置は、車両の現在位置に応じた地物に関するコンテンツを取得するコンテンツ取得部と、前記車両に対して前記コンテンツを出力する出力部と、前記車両における前記コンテンツの出力状況を管理するための管理情報を格納する記憶部と、前記管理情報に基づき、前記コンテンツの出力頻度を調整する調整部と、を有する。
 上記のコンテンツ出力装置は、コンテンツ取得部と、出力部と、記憶部と、調整部と、を有する。コンテンツ取得部は、車両の現在位置に応じた地物に関するコンテンツを取得する。出力部は、前記車両に対して前記コンテンツを出力する。記憶部は、前記車両における前記コンテンツの出力状況を管理するための管理情報を格納する。調整部は、前記管理情報に基づき、前記コンテンツの出力頻度を調整する。これにより、コンテンツの出力の有無に起因して生じるユーザの精神的負担を軽減することができる。
 上記のコンテンツ出力装置の一態様では、前記調整部は、前記管理情報に基づき、前記車両における前記コンテンツの出力回数が所定の回数に達したことを検知した場合に、前記車両における前記コンテンツの出力頻度を下げるためのインターバルを設定する。
 上記のコンテンツ出力装置の一態様では、前記インターバルは、前記車両において前記コンテンツが最後に出力された日からの経過日数として設定される。
 上記のコンテンツ出力装置の一態様では、前記インターバルは、前記車両における前記コンテンツの出力回数の増加に伴って長くなるような期間として設定される。
 本発明の他の実施形態では、コンテンツ出力方法は、車両の現在位置に応じた地物に関するコンテンツを取得し、前記車両に対して前記コンテンツを出力し、前記車両における前記コンテンツの出力状況を管理するための管理情報を格納し、前記管理情報に基づき、前記コンテンツの出力頻度を調整する。これにより、コンテンツの出力の有無に起因して生じるユーザの精神的負担を軽減することができる。
 本発明のさらに他の実施形態では、コンピュータを備えるコンテンツ出力装置により実行されるプログラムは、車両の現在位置に応じた地物に関するコンテンツを取得するコンテンツ取得部、前記車両に対して前記コンテンツを出力する出力部、前記車両における前記コンテンツの出力状況を管理するための管理情報を格納する記憶部、及び、前記管理情報に基づき、前記コンテンツの出力頻度を調整する調整部として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記のコンテンツ出力装置を実現することができる。このプログラムは記憶媒体に記憶して使用することができる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [システム構成]
 (全体構成)
 図1は、実施例に係る音声出力システムの構成例を示す図である。本実施例に係る音声出力システム1は、音声出力装置100と、サーバ装置200とを有する。音声出力装置100は、車両Veに搭載される。サーバ装置200は、複数の車両Veに搭載された複数の音声出力装置100と通信する。
 音声出力装置100は、基本的に車両Veの搭乗者であるユーザに対して、経路探索処理や経路案内処理などを行う。例えば、音声出力装置100は、ユーザにより目的地等が入力されると、車両Veの位置情報や指定された目的地に関する情報などを含むアップロード信号S1をサーバ装置200に送信する。サーバ装置200は、地図データを参照して目的地までの経路を算出し、目的地までの経路を示す制御信号S2を音声出力装置100へ送信する。音声出力装置100は、受信した制御信号S2に基づいて、音声出力によりユーザに対する経路案内を行う。
 また、音声出力装置100は、ユーザとの対話により各種の情報をユーザに提供する。例えば、音声出力装置100は、ユーザが情報要求を行うと、その情報要求の内容又は種類を示す情報、及び、車両Veの走行状態に関する情報などを含むアップロード信号S1をサーバ装置200に供給する。サーバ装置200は、ユーザが要求する情報を取得、生成し、制御信号S2として音声出力装置100へ送信する。音声出力装置100は、受信した情報を、音声出力によりユーザに提供する。
 (音声出力装置)
 音声出力装置100は、車両Veと共に移動し、案内経路に沿って車両Veが走行するように、音声を主とした経路案内を行う。なお、「音声を主とした経路案内」は、案内経路に沿って車両Veを運転するために必要な情報をユーザが少なくとも音声のみから把握可能な経路案内を指し、音声出力装置100が現在位置周辺の地図などを補助的に表示することを除外するものではない。本実施例では、音声出力装置100は、少なくとも、案内が必要な経路上の地点(「案内地点」とも呼ぶ。)など、運転に係る様々な情報を音声により出力する。ここで、案内地点は、例えば車両Veの右左折を伴う交差点、その他、案内経路に沿って車両Veが走行するために重要な通過地点が該当する。音声出力装置100は、例えば、車両Veから次の案内地点までの距離、当該案内地点での進行方向などの案内地点に関する音声案内を行う。以後では、案内経路に対する案内に関する音声を「経路音声案内」とも呼ぶ。
 音声出力装置100は、例えば車両Veのフロントガラスの上部、又は、ダッシュボード上などに取り付けられる。なお、音声出力装置100は、車両Veに組み込まれてもよい。
 図2は、音声出力装置100の概略構成を示すブロック図である。音声出力装置100は、主に、通信部111と、記憶部112と、入力部113と、制御部114と、センサ群115と、表示部116と、マイク117と、スピーカ118と、車外カメラ119と、車内カメラ120と、を有する。音声出力装置100内の各要素は、バスライン110を介して相互に接続されている。
 通信部111は、制御部114の制御に基づき、サーバ装置200とのデータ通信を行う。通信部111は、例えば、後述する地図DB(DataBase)4を更新するための地図データをサーバ装置200から受信してもよい。
 記憶部112は、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部112には、音声出力装置100が所定の処理を実行するためのプログラムが記憶される。上述のプログラムは、経路案内を音声により行うためのアプリケーションプログラム、音楽を再生するためのアプリケーションプログラム、音楽以外のコンテンツ(テレビ等)を出力するためのアプリケーションプログラムなどを含んでもよい。また、記憶部112は、制御部114の作業メモリとしても使用される。なお、音声出力装置100が実行するプログラムは、記憶部12以外の記憶媒体に記憶されてもよい。
 また、記憶部112は、地図データベース(以下、データベースを「DB」と記す。)4を記憶する。地図DB4には、経路案内に必要な種々のデータが記録されている。地図DB4は、例えば、道路網をノードとリンクの組合せにより表した道路データ、及び、目的地、立寄地、又はランドマークの候補となる施設を示す施設データなどを記憶している。地図DB4は、制御部114の制御に基づき、通信部111が地図管理サーバから受信する地図情報に基づき更新されてもよい。
 入力部113は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ等である。表示部116は、制御部114の制御に基づき表示を行うディスプレイ等である。マイク117は、車両Veの車内の音声、特に運転手の発話などを集音する。スピーカ118は、運転手などに対して、経路案内のための音声を出力する。
 センサ群115は、外界センサ121と、内界センサ122とを含む。外界センサ121は、例えば、ライダ、レーダ、超音波センサ、赤外線センサ、ソナーなどの車両Veの周辺環境を認識するための1又は複数のセンサである。内界センサ122は、車両Veの測位を行うセンサであり、例えば、GNSS(Global Navigation Satellite System)受信機、ジャイロセンサ、IMU(Inertial Measurement Unit)、車速センサ、又はこれらの組合せである。なお、センサ群115は、制御部114がセンサ群115の出力から車両Veの位置を直接的に又は間接的に(即ち推定処理を行うことによって)導出可能なセンサを有していればよい。
 車外カメラ119は、車両Veの外部を撮影するカメラである。車外カメラ119は、車両の前方を撮影するフロントカメラのみでもよく、フロントカメラに加えて車両の後方を撮影するリアカメラを含んでもよく、車両Veの全周囲を撮影可能な全方位カメラであってもよい。一方、車内カメラ120は、車両Veの車内の様子を撮影するカメラであり、少なくとも運転席周辺を撮影可能な位置に設けられる。
 制御部114は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含み、音声出力装置100の全体を制御する。例えば、制御部114は、センサ群115の1又は複数のセンサの出力に基づき、車両Veの位置(進行方向の向きも含む)を推定する。また、制御部114は、入力部113又はマイク117により目的地が指定された場合に、当該目的地までの経路である案内経路を示す経路情報を生成し、当該経路情報と推定した車両Veの位置情報と地図DB4とに基づき、経路案内を行う。この場合、制御部114は、経路音声案内をスピーカ118から出力させる。また、制御部114は、表示部116を制御することで、再生中の音楽の情報、映像コンテンツ、又は現在位置周辺の地図などの表示を行う。
 なお、制御部114が実行する処理は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、制御部114が実行する処理は、例えばFPGA(field-programmable gate array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、制御部114が本実施例において実行するプログラムを実現してもよい。このように、制御部114は、プロセッサ以外のハードウェアにより実現されてもよい。
 図2に示す音声出力装置100の構成は一例であり、図2に示す構成に対して種々の変更がなされてもよい。例えば、地図DB4を記憶部112が記憶する代わりに、制御部114が通信部111を介して経路案内に必要な情報をサーバ装置200から受信してもよい。他の例では、音声出力装置100は、スピーカ118を備える代わりに、音声出力装置100とは別体に構成された音声出力部と電気的に又は公知の通信手段によって接続することで、当該音声出力部から音声を出力させてもよい。この場合、音声出力部は、車両Veに備えられたスピーカであってもよい。さらに別の例では、音声出力装置100は、表示部116を備えなくともよい。この場合、音声出力装置100は、表示に関する制御を全く行わなくともよく、有線又は無線により、車両Ve等に備えられた表示部と電気的に接続することで、当該表示部に所定の表示を実行させてもよい。同様に、音声出力装置100は、センサ群115を備える代わりに、車両Veに備え付けられたセンサが出力する情報を、車両VeからCAN(Controller Area Network)などの通信プロトコルに基づき取得してもよい。
 (サーバ装置)
 サーバ装置200は、音声出力装置100から受信する目的地等を含むアップロード信号S1に基づき、車両Veが走行すべき案内経路を示す経路情報を生成する。そして、サーバ装置200は、その後に音声出力装置100が送信するアップロード信号S1が示すユーザの情報要求及び車両Veの走行状態に基づき、ユーザの情報要求に対する情報出力に関する制御信号S2を生成する。そして、サーバ装置200は、生成した制御信号S2を、音声出力装置100に送信する。
 さらに、サーバ装置200は、車両Veのユーザに対する情報提供やユーザとの対話を行うためのコンテンツを生成し、音声出力装置100に送信する。ユーザに対する情報提供は、主として車両Veが所定の運転状況になったことをトリガとしてサーバ装置200側から開始するプッシュ型の情報提供である。また、ユーザとの対話は、基本的にユーザからの質問や問いかけから開始するプル型の対話である。但し、ユーザとの対話は、プッシュ型のコンテンツ提供から開始する場合もある。
 図3は、サーバ装置200の概略構成の一例を示す図である。サーバ装置200は、主に、通信部211と、記憶部212と、制御部214とを有する。サーバ装置200内の各要素は、バスライン210を介して相互に接続されている。
 通信部211は、制御部214の制御に基づき、音声出力装置100などの外部装置とのデータ通信を行う。記憶部212は、RAM、ROM、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部212は、サーバ装置200が所定の処理を実行するためのプログラムが記憶される。また、記憶部212は、地図DB4を含んでいる。
 制御部214は、CPU、GPUなどを含み、サーバ装置200の全体を制御する。また、制御部214は、記憶部212に記憶されたプログラムを実行することで、音声出力装置100とともに動作し、ユーザに対する経路案内処理や情報提供処理などを実行する。例えば、制御部214は、音声出力装置100から通信部211を介して受信するアップロード信号S1に基づき、案内経路を示す経路情報、又は、ユーザの情報要求に対する情報出力に関する制御信号S2を生成する。そして、制御部214は、生成した制御信号S2を、通信部211により音声出力装置100に送信する。
 [プッシュ型のコンテンツ提供]
 次に、プッシュ型のコンテンツ提供について説明する。プッシュ型のコンテンツ提供とは、車両Veが所定の運転状況になった場合に、音声出力装置100がユーザに対してその運転状況に関連するコンテンツを音声出力することをいう。具体的に、音声出力装置100は、前述のようにセンサ群115の出力に基づいて車両Veの運転状況を示す運転状況情報を取得し、サーバ装置200へ送信する。サーバ装置200は、プッシュ型のコンテンツ提供を行うためのテーブルデータを記憶部212に記憶している。サーバ装置200は、テーブルデータを参照し、車両Veに搭載された音声出力装置100から受信した運転状況情報が、テーブルデータに規定されているトリガ条件と一致した場合、そのトリガ条件に対応するスクリプトを用いて出力用コンテンツを生成または取得し、音声出力装置100へ送信する。音声出力装置100は、サーバ装置200から受信した出力用コンテンツを音声出力する。こうして、車両Veの運転状況に対応するコンテンツがユーザに対して音声出力される。
 運転状況情報には、例えば、車両Veの位置、当該車両の方位、当該車両Veの位置の周辺の交通情報(速度規制及び渋滞情報等を含む)、現在時刻、目的地等のような、音声出力装置100の各部の機能に基づいて取得可能な少なくとも1つの情報が含まれていればよい。また、運転状況情報には、マイク117により得られた音声、車外カメラ119により撮影された画像、及び、車内カメラ120により撮影された画像のうちのいずれかが含まれていてもよい。また、運転状況情報には、通信部111を通じてサーバ装置200から受信した情報が含まれていてもよい。
 (データ構造)
 図4は、サーバ装置に格納されているテーブルデータのデータ構造の一例を説明するための図である。
 サーバ装置200の記憶部212には、例えば、図4に示すようなテーブルデータTBが格納されている。
 テーブルデータTBの「位置」は、例えば、緯度及び経度等により示される位置である。また、テーブルデータTBの「位置」に含まれる位置PA~PEは、車両Veの現在位置に応じたコンテンツを取得及び出力する際のトリガ条件となっている。
 テーブルデータTBの「スクリプト」は、音声出力装置100からユーザに対する音声出力の際に用いられる文を示している。また、テーブルデータTBの「スクリプト」に含まれる各文は、位置PA~PEに応じた地物に関するコンテンツとして予め生成されている。具体的には、テーブルデータTBの「スクリプト」には、位置PAに応じたスクリプトSCAに相当する「千代田区の名所、東京駅です。」と、位置PBに応じたスクリプトSCBに相当する「千代田区の名所、国会議事堂です。」と、位置PCに応じたスクリプトSCCに相当する「千代田区の名所、皇居外苑です。」と、位置PDに応じたスクリプトSCDに相当する「中央区の名所、日本橋です。」と、位置PEに応じたスクリプトSCEに相当する「千代田区の名所、東京証券取引所です。」と、が含まれている。すなわち、テーブルデータTBには、ユーザに対して音声出力されるコンテンツとして、地物に関する複数のコンテンツが含まれている。
 テーブルデータTBの「ユーザUA」には、車両Ve1の搭乗者であるユーザUAにおけるコンテンツの出力状況を管理するための管理情報として、「出力回数」、「最終出力日」、及び、「インターバル」が含まれている。また、テーブルデータTBの「ユーザUB」には、車両Ve2の搭乗者であるユーザUBにおけるコンテンツの出力状況を管理するための管理情報として、「出力回数」、「最終出力日」、及び、「インターバル」が含まれている。すなわち、テーブルデータTBには、複数のユーザ各々におけるコンテンツ毎の出力状況を管理するための管理情報が含まれている。
 テーブルデータTBの「出力回数」は、「スクリプト」に含まれる文が出力された回数を示している。また、テーブルデータTBの「最終出力日」は、「スクリプト」に含まれる文が最後に出力された日付を示している。また、テーブルデータTBの「インターバル」は、「スクリプト」に含まれる文を次に出力するまでの最小の時間間隔として設定されている。換言すると、テーブルデータTBの「インターバル」は、ユーザに対するコンテンツの出力を抑制するための期間として設定されている。また、テーブルデータTBの「-」は、未設定または該当なしを示している。
 なお、本実施例においては、「出力回数」が所定回数以下のコンテンツ(スクリプト)については、「インターバル」が設定されないようにしている。具体的には、テーブルデータTBにおいては、「出力回数」が2回以下のコンテンツ(スクリプト)については、「インターバル」が設定されないようにしている。そのため、本実施例においては、「出力回数」が所定回数(例えば2回)に達するまでは、時間を置かずにコンテンツを音声出力装置100へ出力(送信)することができる。
 以上に述べたように、記憶部212には、車両Veにおける地物に関するコンテンツの出力状況を管理するための管理情報を含むテーブルデータTBが格納されている。
 [コンテンツの出力に係る処理]
 続いて、コンテンツの出力に係る処理について説明する。なお、以降においては、特に言及のない限り、車両Ve1の搭乗者であるユーザUAがコンテンツの出力先となる場合を例に挙げて説明する。
 (具体例)
 サーバ装置200は、通信部211において受信した車両Ve1の運転状況情報に基づき、例えば、当該車両Ve1の現在位置が位置PBであることを検知した場合に、テーブルデータTBを参照することにより、当該位置PBに応じたスクリプトSCBを取得する。また、サーバ装置200は、テーブルデータTBを参照することにより、スクリプトSCBにおけるインターバルが設定されていないことを検知した場合に、当該スクリプトSCBを車両Ve1の音声出力装置100へ出力(送信)する。これにより、スクリプトSCBに対応する音声が車両Ve1のスピーカ118からユーザUAに対して出力される。また、サーバ装置200は、スクリプトSCBを音声出力装置100へ出力(送信)した後、テーブルデータTBの「ユーザUA」における「出力回数」を「2」から「3」に更新するとともに、当該「ユーザUA」における「最終出力日」を現在の日付に更新する。また、サーバ装置200は、テーブルデータTBの「ユーザUA」における更新後の「出力回数」が「3」になったことを検知した場合に、当該「ユーザUA」における「インターバル」を「1日」に設定する。
 サーバ装置200は、通信部211において受信した車両Ve1の運転状況情報に基づき、例えば、当該車両Ve1の現在位置が位置PAであることを検知した場合に、テーブルデータTBを参照することにより、当該位置PAに応じたスクリプトSCAを取得する。また、サーバ装置200は、テーブルデータTBを参照することにより、スクリプトSCAにおけるインターバルが設定されていることを検知した場合には、現在の日付においてスクリプトSCAを出力することができるか否かを判定する。
 具体的には、サーバ装置200は、現在の日付が「最終出力日」の日付(2021年10月1日)から「インターバル」として設定された期間(2日)が経過した以降の日付に該当する場合に、スクリプトSCAを出力することができると判定する。そして、サーバ装置200は、スクリプトSCAを出力することができると判定した場合に、当該スクリプトSCAを車両Ve1の音声出力装置100へ出力(送信)する。これにより、スクリプトSCAに対応する音声が車両Ve1のスピーカ118からユーザUAに対して出力される。また、サーバ装置200は、スクリプトSCAを音声出力装置100へ出力(送信)した後、テーブルデータTBの「ユーザUA」における「出力回数」を「4」から「5」に更新するとともに、当該「ユーザUA」における「最終出力日」を現在の日付に更新する。また、サーバ装置200は、テーブルデータTBの「ユーザUA」における更新後の「出力回数」が「5」になったことを検知した場合に、当該「ユーザUA」における「インターバル」を「4日」に設定する。
 一方、サーバ装置200は、現在の日付が「最終出力日」の日付(2021年10月1日)から「インターバル」として設定された期間(2日)が経過する前の日付に該当する場合には、スクリプトSCAを音声出力することができないと判定する。このような判定が行われた場合においては、スクリプトSCAが車両Ve1の音声出力装置100へ出力(送信)されないため、当該スクリプトSCAに対応する音声がユーザUAに対して出力されない。
 以上に述べた処理によれば、サーバ装置200は、車両Ve1における地物に関するコンテンツの出力回数に基づき、当該コンテンツの出力頻度を調整することができる。また、以上に述べた処理によれば、サーバ装置200は、テーブルデータTBに含まれるユーザUAの管理情報に基づき、車両Ve1におけるコンテンツの出力回数が所定回数に達したことを検知した場合に、当該車両Ve1における当該コンテンツの出力頻度を下げるためのインターバルを設定することができる。また、以上に述べた処理によれば、サーバ装置200は、インターバルを、車両Ve1においてコンテンツが最後に出力された日からの経過日数として設定することができる。また、以上に述べた処理によれば、サーバ装置200は、インターバルを、車両Ve1におけるコンテンツの出力回数の増加に伴って長くなるような期間として設定することができる。
 (処理フロー)
 続いて、サーバ装置200において行われる処理について説明する。図5は、サーバ装置において行われる処理を説明するためのフローチャートである。
 まず、サーバ装置200の制御部214は、音声出力装置100から受信した車両Ve1の運転状況情報に基づき、車両Ve1の現在位置を取得する(ステップS11)。
 次に、制御部214は、テーブルデータTBを参照することにより、ステップS11により取得した車両Ve1の現在位置に応じたコンテンツを取得できるか否かを判定する(ステップS12)。
 制御部214は、車両Ve1の現在位置に応じたコンテンツを取得することができない場合(ステップS12:NO)には、ステップS11に戻り、車両Ve1の現在位置を再度取得する。また、制御部214は、車両Veの現在位置に応じたコンテンツを取得することができる場合(ステップS12:YES)には、当該コンテンツを取得した(ステップS13)後、後述のステップS14の処理を行う。
 制御部214は、現在の日付と、ステップS13において取得したコンテンツをユーザUAに対して最後に出力した最終出力日と、当該ユーザUAに対する当該コンテンツの出力を抑制するために設定されたインターバルと、に基づき、ステップS13において取得したコンテンツを出力できるか否かを判定する
 制御部214は、ステップS13において取得したコンテンツを出力できない場合(ステップS14:NO)には、図5の一連の処理を終了する。また、制御部214は、ステップS13において取得したコンテンツを出力できる場合(ステップS14:YES)には、当該コンテンツを車両Ve1の音声出力装置100へ出力(送信)するための処理を行った(ステップS15)後、後述のステップS16の処理を行う。
 制御部214は、ステップS15において出力したコンテンツについて、ユーザUAにおける出力回数及び最終出力日を更新する(ステップS16)。
 その後、制御部214は、ステップS16による更新後のコンテンツの出力回数が所定回数を超えたか否かを判定する(ステップS17)。
 制御部214は、ステップS16による更新後のコンテンツの出力回数が所定回数以下である場合(ステップS17:NO)には、ステップS15において出力したコンテンツをユーザUAに対して次に出力するまでのインターバルを設定することなく、図5の一連の処理を終了する。また、ステップS16により更新されたコンテンツの出力回数が所定回数を超えた場合(ステップS17:YES)には、ステップS15において出力したコンテンツをユーザUAに対して次に出力するまでのインターバルを設定した(ステップS18)後、図5の一連の処理を終了する。
 本実施例によれば、制御部214は、コンテンツ取得部及び調整部としての機能を有する。また、本実施例によれば、通信部211は、出力部としての機能を有する。
 以上に述べたように、本実施例によれば、ユーザに対する出力回数が相対的に多いコンテンツの出力頻度を低下させつつ、当該ユーザに対する出力回数が相対的に少ないコンテンツの出力頻度を極力低下させないようにすることができる。そのため、本実施例によれば、例えば、ユーザによる利用頻度の高い道路を車両Veが走行している場合において、当該ユーザに対するコンテンツの出力を抑制することができる。また、本実施例によれば、例えば、ユーザによる利用頻度の低い道路を車両Veが走行している場合であっても、冗長さを回避しつつ、当該ユーザに対して継続的にコンテンツを出力することができる。従って、本実施例によれば、コンテンツの出力の有無に起因して生じるユーザの精神的負担を軽減することができる。
 なお、本実施例によれば、例えば、通信部111または制御部114がコンテンツ取得部としての機能を有し、スピーカ118が出力部としての機能を有し、制御部114が調整部としての機能を有し、かつ、テーブルデータTBが記憶部112に格納されている場合に、図5の一連の処理と略同様の処理を音声出力装置100において行うことができる。
 上述した実施例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータである制御部等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
 100 音声出力装置
 200 サーバ装置
 111、211 通信部
 112、212 記憶部
 113 入力部
 114、214 制御部
 115 センサ群
 116 表示部
 117 マイク
 118 スピーカ
 119 車外カメラ
 120 車内カメラ

Claims (7)

  1.  車両の現在位置に応じた地物に関するコンテンツを取得するコンテンツ取得部と、
     前記車両に対して前記コンテンツを出力する出力部と、
     前記車両における前記コンテンツの出力状況を管理するための管理情報を格納する記憶部と、
     前記管理情報に基づき、前記コンテンツの出力頻度を調整する調整部と、
     を有するコンテンツ出力装置。
  2.  前記調整部は、前記管理情報に基づき、前記車両における前記コンテンツの出力回数が所定の回数に達したことを検知した場合に、前記車両における前記コンテンツの出力頻度を下げるためのインターバルを設定する請求項1に記載のコンテンツ出力装置。
  3.  前記インターバルは、前記車両において前記コンテンツが最後に出力された日からの経過日数として設定される請求項2に記載のコンテンツ出力装置。
  4.  前記インターバルは、前記車両における前記コンテンツの出力回数の増加に伴って長くなるような期間として設定される請求項2または3に記載のコンテンツ出力装置。
  5.  車両の現在位置に応じた地物に関するコンテンツを取得し、
     前記車両に対して前記コンテンツを出力し、
     前記車両における前記コンテンツの出力状況を管理するための管理情報を格納し、
     前記管理情報に基づき、前記コンテンツの出力頻度を調整するコンテンツ出力方法。
  6.  コンピュータを備えるコンテンツ出力装置により実行されるプログラムであって、
     車両の現在位置に応じた地物に関するコンテンツを取得するコンテンツ取得部、
     前記車両に対して前記コンテンツを出力する出力部、
     前記車両における前記コンテンツの出力状況を管理するための管理情報を格納する記憶部、及び、
     前記管理情報に基づき、前記コンテンツの出力頻度を調整する調整部として前記コンピュータを機能させるプログラム。
  7.  請求項6に記載のプログラムを記憶した記憶媒体。
PCT/JP2022/008134 2022-02-28 2022-02-28 コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体 WO2023162189A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008134 WO2023162189A1 (ja) 2022-02-28 2022-02-28 コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008134 WO2023162189A1 (ja) 2022-02-28 2022-02-28 コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2023162189A1 true WO2023162189A1 (ja) 2023-08-31

Family

ID=87765182

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008134 WO2023162189A1 (ja) 2022-02-28 2022-02-28 コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体

Country Status (1)

Country Link
WO (1) WO2023162189A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256707A (ja) * 2002-03-06 2003-09-12 Mitsubishi Electric Corp モバイルマーケティングシステムのマーケティングセンタ装置
JP2011089821A (ja) * 2009-10-21 2011-05-06 Canvas Mapple Co Ltd ナビゲーション装置、広告提示システム、およびナビゲーションプログラム
JP2015060541A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 広告配信装置、広告配信方法および広告配信プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256707A (ja) * 2002-03-06 2003-09-12 Mitsubishi Electric Corp モバイルマーケティングシステムのマーケティングセンタ装置
JP2011089821A (ja) * 2009-10-21 2011-05-06 Canvas Mapple Co Ltd ナビゲーション装置、広告提示システム、およびナビゲーションプログラム
JP2015060541A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 広告配信装置、広告配信方法および広告配信プログラム

Similar Documents

Publication Publication Date Title
JP7087794B2 (ja) 情報処理システム、プログラム、及び制御方法
JPH11201770A (ja) ナビゲーション装置
JP2023164659A (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
WO2023162189A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
JP2023105143A (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
JP4513589B2 (ja) 経路案内装置
JP2023072001A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
WO2023112148A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023112147A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023286827A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023062816A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023163196A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023062817A1 (ja) 音声認識装置、制御方法、プログラム及び記憶媒体
WO2023163197A1 (ja) コンテンツ評価装置、コンテンツ評価方法、プログラム及び記憶媒体
WO2023063405A1 (ja) コンテンツ生成装置、コンテンツ生成方法、プログラム及び記憶媒体
WO2023286826A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023073949A1 (ja) 音声出力装置、サーバ装置、音声出力方法、制御方法、プログラム及び記憶媒体
JP6018176B2 (ja) 渋滞名称決定装置及び制御方法
WO2023163045A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
JP2023088005A (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023163047A1 (ja) 端末装置、情報提供システム、情報処理方法、プログラム及び記憶媒体
US20240134596A1 (en) Content output device, content output method, program and storage medium
WO2023062814A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023073856A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP2023087814A (ja) 情報処理装置、予測方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22928715

Country of ref document: EP

Kind code of ref document: A1