JP2015053632A - Content provision system - Google Patents

Content provision system Download PDF

Info

Publication number
JP2015053632A
JP2015053632A JP2013186227A JP2013186227A JP2015053632A JP 2015053632 A JP2015053632 A JP 2015053632A JP 2013186227 A JP2013186227 A JP 2013186227A JP 2013186227 A JP2013186227 A JP 2013186227A JP 2015053632 A JP2015053632 A JP 2015053632A
Authority
JP
Japan
Prior art keywords
vehicle
user
content
scene
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013186227A
Other languages
Japanese (ja)
Other versions
JP6193690B2 (en
Inventor
正俊 伊藤
Masatoshi Ito
正俊 伊藤
拡基 鵜飼
Hiroki Ukai
拡基 鵜飼
元裕 中村
Motohiro Nakamura
元裕 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2013186227A priority Critical patent/JP6193690B2/en
Publication of JP2015053632A publication Critical patent/JP2015053632A/en
Application granted granted Critical
Publication of JP6193690B2 publication Critical patent/JP6193690B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide content in a form applicable to a user state especially even when the user is driving a vehicle in consideration of the present state of the user.SOLUTION: A server 31 of an information center 14 includes: identification units 33, 34, 35 for obtaining the states of respective devices (a smart phone 12, a vehicle 16, and an on-vehicle machine 13) on the basis of device information; a scene identification unit 36 for estimating the present scene of a user on the basis of the states of the respective devices and also determining content to be provided; a service selection unit 37 for receiving the content from a service provider 15; and a provision method selection unit 38 for determining a device to which the content is to be transmitted. A control unit 24 of the on-vehicle machine 13 has a function of identifying the in-vehicle scene of the user again when the content is transmitted and also controlling the output of the content in accordance with the identified scene.

Description

本発明は、ユーザが使用する複数のデバイスに対し、情報センタからコンテンツを自動で提供するようにしたコンテンツ提供システムに関する。   The present invention relates to a content providing system that automatically provides content from an information center to a plurality of devices used by a user.

近年、IT分野において、ユーザの所持する携帯電話機やスマートフォン等の携帯情報端末(或いはユーザが乗車する車両に搭載されたカーナビ等の車載機)に対し、ユーザのほしいコンテンツ(情報やサービス)がサービスプロバイダから配信されるようにした、エージェントサービス(或いはコンシェルジュサービス)と称されるサービスのシステムが考えられている(例えば特許文献1,2参照)。   In recent years, in the IT field, content (information and services) desired by users has been provided for mobile information terminals such as mobile phones and smartphones held by users (or in-vehicle devices such as car navigation systems installed in vehicles on which users ride). A service system called an agent service (or concierge service) that is distributed from a provider is considered (see, for example, Patent Documents 1 and 2).

図8は、従来のエージェントサービスの概要を示しており、このシステムにおいては、ユーザの所持するスマートフォン1と、ユーザの乗車する車両2に搭載された車載機(カーナビ)3とが、サービスプロバイダ4と通信可能に接続される。この場合、ユーザが、例えばスマートフォン1を用いてコンテンツを要求することにより、サービスプロバイダ4から欲しい情報を取得することができる。それに加えて、ユーザが興味のあるニュースや趣味の分野等のユーザ情報をサービスプロバイダ4に予め登録しておくことにより、或いはユーザの過去の利用履歴情報に基づいて、いちいち要求することなく、サービスプロバイダ4から当該分野のコンテンツが自動で配信される。このようなサービスは、PUSHサービスと称される。   FIG. 8 shows an outline of a conventional agent service. In this system, a smartphone 1 possessed by a user and an in-vehicle device (car navigation system) 3 mounted on a vehicle 2 on which the user rides are provided by a service provider 4. Communicatively connected. In this case, the user can acquire desired information from the service provider 4 by requesting content using the smartphone 1, for example. In addition, the user information such as news and hobby fields that the user is interested in is registered in advance in the service provider 4, or based on the user's past usage history information, without requesting each time. The contents of the field are automatically distributed from the provider 4. Such a service is called a PUSH service.

特開2011−227746号公報JP 2011-227746 A 特開2010−282273号公報JP 2010-282273 A

しかしながら、上記した従来のPUSHサービスのシステムでは、ユーザの現在の状況にかかわりなく、サービスプロバイダ4から一方的にコンテンツが配信されるものであった。そのため、ユーザがコンテンツを享受できる環境にあれば良いものの、例えば車両2の運転中等の負荷が大きい場合にあっては、コンテンツを受信してもその画面を見る余裕がない等、十分にサービスを享受することができない事情があった。   However, in the conventional PUSH service system described above, content is unilaterally distributed from the service provider 4 regardless of the current situation of the user. For this reason, it is sufficient if the user can enjoy the content. However, when the load is high, for example, during driving of the vehicle 2, for example, there is no room for viewing the screen even if the content is received. There were circumstances that could not be enjoyed.

本発明は上記事情に鑑みてなされたものであり、その目的は、ユーザが使用するデバイスに対して、コンテンツのサービスを自動で提供可能なシステムにあって、ユーザの現在の状況を考慮し、特にユーザの車両運転中においても、ユーザ状況に適応した形態でコンテンツを提供することが可能なコンテンツ提供システムを提供するにある。   The present invention has been made in view of the above circumstances, and its purpose is a system that can automatically provide a content service to a device used by a user, taking into account the current situation of the user, In particular, the present invention provides a content providing system capable of providing content in a form adapted to the user situation even while the user is driving a vehicle.

上記目的を達成するために、本発明の請求項1のコンテンツ提供システムは、コンテンツ出力部(18、25)を備えユーザが使用する複数のデバイス(12、13、16)と、コンテンツ提供用のサーバ(31)を備えた情報センタ(14)とを通信可能に接続し、前記情報センタ(14)からコンテンツを前記各デバイス(12、13、16)に提供するようにしたシステム(11)であって、前記デバイス(12、13、16)には、1ユーザに関して、該ユーザが所持する携帯情報端末(12)及び該ユーザが乗車する車両(16)に搭載された車載機(13)が含まれており、前記情報センタ(14)のサーバ(31)は、前記各デバイス(12、13、16)から送信される情報に基づいてそれら各デバイス(12、13、16)の状態を把握するデバイス状態特定手段(33、35、34)と、前記デバイス状態特定手段(33、35、34)により特定された各デバイス(12、13、16)の状態から、前記ユーザの現在のシーンを推定するシーン推定手段(36)と、このシーン推定手段(36)により推定されたユーザのシーンから、該当するユーザに提供するコンテンツを判断する判断手段(36)と、前記シーン推定手段(36)の推定及び前記判断手段(36)の判断に基づいて、前記コンテンツを送信するデバイス(12、13、16)を決定するデバイス選択手段(38)とを備えると共に、前記車載機(13)は、前記情報センタ(14)から該車載機(13)に前記コンテンツが送信された際に、前記ユーザの車内におけるシーンを特定する車内シーン特定手段(24)と、この車内シーン特定手段(24)により特定されたシーンに応じて前記コンテンツ出力部(25)に対する該コンテンツの出力を制御する制御手段(24)とを備えるところに特徴を有する。   In order to achieve the above object, a content providing system according to claim 1 of the present invention includes a plurality of devices (12, 13, 16) provided with a content output unit (18, 25) and used by a user, and a content providing system. A system (11) in which an information center (14) provided with a server (31) is communicably connected, and contents are provided from the information center (14) to the devices (12, 13, 16). The device (12, 13, 16) has, for one user, a portable information terminal (12) possessed by the user and an in-vehicle device (13) mounted on the vehicle (16) on which the user rides. The server (31) of the information center (14) includes the devices (12, 13, 16) based on information transmitted from the devices (12, 13, 16). From the status of the device status specifying means (33, 35, 34) for grasping the status of the device and the status of each device (12, 13, 16) specified by the device status specifying means (33, 35, 34), A scene estimation unit (36) for estimating a current scene, a determination unit (36) for determining content to be provided to a corresponding user from the user's scene estimated by the scene estimation unit (36), and the scene estimation Device selection means (38) for determining the device (12, 13, 16) to transmit the content based on the estimation of the means (36) and the determination of the determination means (36), and the in-vehicle device ( 13) specifies a scene in the vehicle of the user when the content is transmitted from the information center (14) to the vehicle-mounted device (13). An internal scene specifying means (24) and a control means (24) for controlling the output of the content to the content output section (25) according to the scene specified by the in-vehicle scene specifying means (24). Has characteristics.

これによれば、情報センタ(14)のサーバ(31)においては、デバイス状態特定手段(33、35、34)により、各デバイス(12、13、16)から送信される情報に基づいてそれら各デバイス(12、13、16)の状態が把握され、特定された各デバイス(12、13、16)の状態から、シーン推定手段(36)により、ユーザの現在のシーンが推定される。このシーン推定手段(36)により推定されたユーザのシーンから、判断手段(36)により、該ユーザに提供するコンテンツの有無、種類、タイミング等が判断され、これと共に、シーン推定手段(36)の推定及び判断手段(36)の判断に基づいて、デバイス選択手段(38)により、コンテンツを送信するデバイス(12、13、16)が決定される。   According to this, in the server (31) of the information center (14), each of the device status specifying means (33, 35, 34) is based on the information transmitted from each device (12, 13, 16). The state of the device (12, 13, 16) is grasped, and the current scene of the user is estimated by the scene estimation means (36) from the identified state of each device (12, 13, 16). From the user's scene estimated by the scene estimation means (36), the determination means (36) determines the presence / absence, type, timing, etc. of the content to be provided to the user, and at the same time, the scene estimation means (36) Based on the judgment of the estimation and judgment means (36), the device (12, 13, 16) for transmitting the content is determined by the device selection means (38).

そして、情報センタ(14)から車載機(13)に対してコンテンツが送信された際に、該車載機(13)においては、車内シーン特定手段(24)により、ユーザの車内におけるシーンが再度特定される。これと共に、車内シーン特定手段(24)により特定されたシーンに応じて、制御手段(24)により、コンテンツ出力部(25)に対する該コンテンツの出力が制御される。   When content is transmitted from the information center (14) to the in-vehicle device (13), the in-vehicle device (13) specifies the scene in the user's vehicle again by the in-vehicle scene specifying means (24). Is done. At the same time, the output of the content to the content output unit (25) is controlled by the control means (24) according to the scene specified by the in-vehicle scene specifying means (24).

従って、ユーザのシーンに応じた種類、言い換えればユーザが要望していると推測されるコンテンツを、適切なタイミングで自動的に提供することができる。またその際、ユーザが使用するデバイス(12、13、16)が複数ある場合でも、ユーザの現在の状況に応じた最も適したデバイス(12、13、16)に前記コンテンツを提供することができる。そして、コンテンツが車載機(13)に送信された時点のユーザの車内シーンの特定に基づいて、コンテンツの出力が制御されるので、最初のシーン推定からの時間経過によってユーザの状況が変化した場合でも、ユーザの現在の状況に適応した形態で、コンテンツを提供することができる。   Therefore, it is possible to automatically provide the type according to the user's scene, in other words, the content that is estimated to be desired by the user at an appropriate timing. At that time, even when there are a plurality of devices (12, 13, 16) used by the user, the content can be provided to the most suitable device (12, 13, 16) according to the current situation of the user. . And since the output of the content is controlled based on the specification of the in-vehicle scene of the user at the time when the content is transmitted to the vehicle-mounted device (13), the user's situation changes with the passage of time from the initial scene estimation However, content can be provided in a form adapted to the current situation of the user.

本発明の一実施例を示すもので、システムの全体構成を概略的に示すブロック図The block diagram which shows one Example of this invention and shows the whole structure of a system roughly 主として情報センタのサーバが実行する処理手順(ルーチン)及びシステムにおける通信の流れを示すシーケンス図Sequence diagram mainly showing processing procedure (routine) executed by server of information center and communication flow in system 図2のステップB22の詳細な処理手順を示すフローチャートThe flowchart which shows the detailed process sequence of step B22 of FIG. 図2のステップA22の詳細な処理手順を示すフローチャートThe flowchart which shows the detailed process sequence of step A22 of FIG. プライバシーシーンの判定の手順を示すフローチャートFlow chart showing the procedure for determining the privacy scene システムにおけるサービスの概要を示す概略図Schematic diagram showing an overview of services in the system シーン特定の分類(a)及び車内シーン特定の分類(b)を示す図The figure which shows scene specific classification | category (a) and in-vehicle scene specific classification | category (b) 従来例を示すもので、システムにおけるサービスの概要を示す概略図Schematic diagram showing an overview of services in the system, showing a conventional example

以下、本発明の一実施例について、図1から図7を参照しながら説明する。尚、本実施例では、複数のデバイスとして、携帯情報端末としてのスマートフォン、及び、ユーザが運転する車両(自動車)に搭載されたカーナビ等の車載機をユーザが使用する場合を具体例として挙げながら説明する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In addition, in a present Example, mentioning as a specific example the case where a user uses in-vehicle devices, such as a smart phone as a personal digital assistant, and a car (car) carried in a user (car) as a plurality of devices. explain.

図1は、本実施例に係るコンテンツ提供システム11の全体構成を概略的に示している。図6にも示すように、このシステム11は、ユーザが使用するデバイスとしてのスマートフォン12及び車載機(カーナビ)13を備えると共に、情報センタ14、サービスプロバイダ15を備えて構成される。コンテンツ提供システム11は、サービスプロバイダ15により提供される各種のコンテンツ(サービス)を、スマートフォン12や車載機13に自動で提供するいわゆるエージェントサービスを実現するシステムとして構成される。   FIG. 1 schematically shows the overall configuration of a content providing system 11 according to the present embodiment. As shown in FIG. 6, the system 11 includes a smartphone 12 and an in-vehicle device (car navigation system) 13 as devices used by the user, an information center 14, and a service provider 15. The content providing system 11 is configured as a system that realizes a so-called agent service that automatically provides various contents (services) provided by the service provider 15 to the smartphone 12 and the vehicle-mounted device 13.

尚、前記各種コンテンツは、複数のサービスプロバイダ15により提供される。サービスプロバイダ15は、コンテンツ提供用のサーバやメールサーバを備えている。サービスプロバイダ15からスマートフォン12や車載機13に提供(配信)されるコンテンツ(サービス)としては、例えば、ニュースの配信、天気予報の配信、メールのサービス、ユーザの趣味や興味に合った情報のクリッピング等のサービス、ドライブ等の訪問先やルートの提案サービスなど、様々なものがある。この場合、サービスプロバイダ15は、後述するように情報センタ14から要求があったコンテンツを配信すると共に、予めユーザによる登録に基づくコンテンツの自動配信サービス(PUSHサービス)を行う。また、車両16(後述)のアラート(警告)情報や、緊急地震速報等の情報もスマートフォン12や車載機13に提供される。   The various contents are provided by a plurality of service providers 15. The service provider 15 includes a server for providing contents and a mail server. Examples of contents (services) provided (distributed) from the service provider 15 to the smartphone 12 or the vehicle-mounted device 13 include news distribution, weather forecast distribution, mail service, and clipping of information according to the user's hobbies and interests. There are various services such as services such as driving destinations and route proposal services. In this case, the service provider 15 distributes the content requested by the information center 14 as will be described later, and performs an automatic content distribution service (PUSH service) based on registration by the user in advance. In addition, information such as alert (warning) information of the vehicle 16 (described later) and emergency earthquake warning information is also provided to the smartphone 12 and the vehicle-mounted device 13.

図1に示すように、前記車載機(カーナビ)13は、ユーザが乗車(運転)する車両(自動車)16に搭載されている。前記スマートフォン12と情報センタ14との間、及び、前記車両16(車載機13)と情報センタ14との間は、キャリア網を介して通信接続が可能とされる。また、情報センタ14とサービスプロバイダ15とは、インターネットにより接続されている。   As shown in FIG. 1, the in-vehicle device (car navigation system) 13 is mounted on a vehicle (automobile) 16 on which the user gets (drives). Communication connection is possible between the smartphone 12 and the information center 14 and between the vehicle 16 (the vehicle-mounted device 13) and the information center 14 via a carrier network. The information center 14 and the service provider 15 are connected via the Internet.

前記スマートフォン12は、手持ち操作可能な矩形パネル状の本体内に、図1に示すように、制御部17と、その制御部17に接続された、表示部18、操作部19、通信部20、GPS受信機21、振動センサ22、記憶部23、図示しない音声入出力装置等を備えている。制御部17は、図示しないCPU、ROM及びRAM等を有するコンピュータを主体に構成されており、ROM等に記憶されているプログラムに従ってスマートフォン12の全体を制御する。   As shown in FIG. 1, the smartphone 12 includes a control unit 17, a display unit 18, an operation unit 19, a communication unit 20, and a display unit 18 connected to the control unit 17. A GPS receiver 21, a vibration sensor 22, a storage unit 23, a voice input / output device (not shown), and the like are provided. The control unit 17 is mainly configured by a computer having a CPU, ROM, RAM, and the like (not shown), and controls the entire smartphone 12 according to a program stored in the ROM.

前記表示部18は、例えばカラー表示可能な液晶表示器や有機EL表示器などにより構成され、その画面には、例えば電話帳データや例えば記憶部23に記憶されている画像や映像などが表示される。この表示部18がコンテンツ出力部として機能する。前記操作部19は、表示部18の画面上に設けられているタッチパネルを含んで構成されている。前記音声入出力部は、図示しないマイクおよびスピーカを有しており、通話時の発話音声の入力および受話音声の出力を行う。また、音声入出力部は、例えば記憶部23に記憶されている楽曲や映像の音声、テキストデータを読上げた合成音声の出力等も行う。   The display unit 18 is configured by, for example, a color displayable liquid crystal display or an organic EL display, and the screen displays, for example, phone book data or images and videos stored in the storage unit 23, for example. The The display unit 18 functions as a content output unit. The operation unit 19 includes a touch panel provided on the screen of the display unit 18. The voice input / output unit includes a microphone and a speaker (not shown), and inputs speech sound during a call and outputs received speech. The voice input / output unit also outputs, for example, music or video audio stored in the storage unit 23, synthesized voice obtained by reading text data, and the like.

前記GPS受信機21は、GPS衛星からの信号を受信するもので、周知のように、前記制御部17は、GPS受信機21の受信信号に基づいてスマートフォン12の現在位置情報を生成する。振動センサ22は、該スマートフォン12の本体に作用する振動を検出するようになっている。前記記憶部23は、電話帳データや楽曲などを記憶しているとともに、スマートフォン12にて実行される各種のアプリケーションや各種データなどが記憶されている。   The GPS receiver 21 receives a signal from a GPS satellite. As is well known, the control unit 17 generates current position information of the smartphone 12 based on a reception signal of the GPS receiver 21. The vibration sensor 22 detects vibrations acting on the main body of the smartphone 12. The storage unit 23 stores telephone book data, music, and the like, and stores various applications executed by the smartphone 12, various data, and the like.

前記通信部20は、キャリア網(或いはネットワーク)に接続する広域通信を行い、以て情報センタ14との通信が可能とされる。この場合、通信部20から、デバイス情報として、スマートフォン12の現在位置情報や、ディスプレイのオン/オフ情報、振動センサ22の振動情報等が、情報センタ14に対して送信される。また、この通信部20により、情報センタ14からスマートフォン12に対して送信されるコンテンツを受信するようになっている。   The communication unit 20 performs wide-area communication connected to a carrier network (or network), thereby enabling communication with the information center 14. In this case, from the communication unit 20, current position information of the smartphone 12, display on / off information, vibration information of the vibration sensor 22, and the like are transmitted to the information center 14 as device information. The communication unit 20 receives content transmitted from the information center 14 to the smartphone 12.

尚、本実施例では、ユーザは、例えば、スマートフォン12を操作することにより、図示しない外部のスケジューラにアクセスして、該スケジューラに自分のスケジュールデータを登録することが可能となっている。スケジュールデータには、ユーザ名、開始終了の日時、場所(行先)、予定項目(出張、社内会議、立寄り、休暇等)、移動手段(車両16、公共交通機関、タクシー等)のデータ等が含まれる。例えば毎週決まった曜日の決まった時間に予定項目がある場合等は、繰返しスケジュールの登録も可能とされる。ユーザは、登録したスケジュールデータを自在に参照することができる。スケジューラの機能を、スマートフォン12自体に設けるようにしたり、情報センタ14に設けるようにしたりしても良い。   In this embodiment, for example, the user can access an external scheduler (not shown) by operating the smartphone 12 and register his / her schedule data in the scheduler. Schedule data includes data such as user name, start / end date and time, place (destination), schedule items (business trips, in-house meetings, drop-offs, holidays, etc.), transportation means (vehicle 16, public transportation, taxi, etc.) It is. For example, when there is a scheduled item at a fixed time on a fixed day of the week, a repeated schedule can be registered. The user can freely refer to the registered schedule data. The scheduler function may be provided in the smartphone 12 itself or may be provided in the information center 14.

これに対し、前記車載機(カーナビ)13は、制御部24と、その制御部24に接続された、表示部25、操作部26、図示しない音声出力装置、図示しない記憶部等を備えている。そのうち制御部24は、CPU、ROM及びRAMなどを有するコンピュータを主体として構成されており、ROM等に記憶されているプログラムに従って車載機13の全体を制御する。このとき、詳しくは後述するように、制御部24は、車内シーン特定手段及び制御手段としての機能も果たすようになっている。また、制御部24は、車両16に設けられた通信部27に接続されている。前記記憶部には、ナビゲーション機能等を実現するための各種プログラムや、地図データ等の各種データが記憶されている。   On the other hand, the in-vehicle device (car navigation system) 13 includes a control unit 24, a display unit 25, an operation unit 26, a voice output device (not shown), a storage unit (not shown), and the like connected to the control unit 24. . Among them, the control unit 24 is mainly configured by a computer having a CPU, a ROM, a RAM, and the like, and controls the entire in-vehicle device 13 according to a program stored in the ROM or the like. At this time, as will be described in detail later, the control unit 24 also functions as an in-vehicle scene specifying unit and a control unit. The control unit 24 is connected to a communication unit 27 provided in the vehicle 16. The storage unit stores various programs such as a navigation function and various data such as map data.

前記表示部25は、例えばカラー表示可能な液晶表示器や有機EL表示器あるいはプラズマディスプレイなどにより構成され、例えば車室内のインストルメントパネルの中央部に設けられている。この表示部25の画面には、例えばナビゲーション使用時の地図画面や、各種コンテンツの表示画面等が表示され、この表示部25がコンテンツ出力部として機能する。操作部26は、表示部25の画面上に設けられたタッチパネルやその周囲に設けられたスイッチ等からなり、ユーザによる各種の入力操作を受付ける。前記音声出力装置は、スピーカ等を含んで構成され、楽曲やガイド音声等の出力を行う。また、この音声出力装置により、後述のように、配信されたコンテンツ(例えばニュース等)のテキストの音声読上げを行うことが可能とされている。   The display unit 25 is configured by, for example, a liquid crystal display capable of color display, an organic EL display, a plasma display, or the like, and is provided, for example, at the center of an instrument panel in the passenger compartment. On the screen of the display unit 25, for example, a map screen when using navigation, a display screen of various contents, and the like are displayed, and the display unit 25 functions as a content output unit. The operation unit 26 includes a touch panel provided on the screen of the display unit 25, a switch provided around the touch panel, and the like, and accepts various input operations by the user. The audio output device includes a speaker or the like, and outputs music, guide audio, and the like. In addition, with this voice output device, as will be described later, it is possible to read aloud the text of distributed content (for example, news).

前記車両16には、前記車載機13に加えて、コンピュータを主体として構成された制御部28が設けられると共に、その制御部28に接続された車両情報取得部29及び前記通信部27が設けられている。前記車両情報取得部29は、詳しく図示はしないが、車内ネットワーク(CAN)や、GPSユニット等からなる自車位置検出部に接続され、例えば車速、ステアリング角、燃料残量、アラート情報、シートセンサ情報等の車両16の走行状況や自車位置等の必要な車両情報を取得するようになっている。   In addition to the in-vehicle device 13, the vehicle 16 is provided with a control unit 28 mainly composed of a computer, and a vehicle information acquisition unit 29 and the communication unit 27 connected to the control unit 28. ing. Although not shown in detail, the vehicle information acquisition unit 29 is connected to an in-vehicle position detection unit made up of an in-vehicle network (CAN), a GPS unit, etc., for example, vehicle speed, steering angle, fuel remaining amount, alert information, seat sensor Necessary vehicle information such as information such as the traveling state of the vehicle 16 and the vehicle position is acquired.

前記通信部27は、キャリア網(或いはネットワーク)に接続する広域通信を行い、前記情報センタ14との通信が可能とされる。この場合、通信部27から、情報センタ14に対し、デバイス情報として、車載機13の情報と共に車両16自体の情報が送信される。具体的には、車両16の現在位置情報に加えて、車速情報、ステアリング角情報、燃料残量情報、アラート情報、シートセンサ情報等が、情報センタ14に対し送信される。また、この通信部27により前記、情報センタ14から車載機13に対して送信されるコンテンツを受信するようになっている。   The communication unit 27 performs wide area communication connected to a carrier network (or network), and can communicate with the information center 14. In this case, information on the vehicle 16 itself is transmitted from the communication unit 27 to the information center 14 as device information together with information on the in-vehicle device 13. Specifically, in addition to the current position information of the vehicle 16, vehicle speed information, steering angle information, fuel remaining amount information, alert information, seat sensor information, and the like are transmitted to the information center 14. In addition, the communication unit 27 receives content transmitted from the information center 14 to the in-vehicle device 13.

尚、車両16に設けられる通信部27に代えて、ユーザの所持する外部の通信機器、例えばスマートフォン12や携帯電話機などを用いて外部(情報センタ14)との通信を行う構成としても良い。また、ユーザの使用するデバイスとしては、上記したスマートフォン12や車載機13以外にも、例えば、ユーザの自宅に設置され、インターネットに接続可能なパソコンやテレビ等を含んでいても良い。   Instead of the communication unit 27 provided in the vehicle 16, communication with the outside (information center 14) may be performed using an external communication device possessed by the user, such as a smartphone 12 or a mobile phone. In addition to the smartphone 12 and the vehicle-mounted device 13 described above, the device used by the user may include, for example, a personal computer or a television set installed at the user's home and connected to the Internet.

一方、前記情報センタ14は、図示しない通信装置を備えていると共に、図1に示すように、コンピュータを主体として構成されるサーバ(制御部)31、及びそのサーバ31に接続された記憶部(データベース)32を備えている。前記記憶部32には、例えば、各ユーザが過去にどのような行動をとり、どのようなサービスを利用したかの履歴から学習した行動ヒストグラムを記憶するサービスタイムテーブルや、ユーザの各デバイス(スマートフォン12、車載機13、車両16)が現在どのような状態にあるかを記憶するデバイス状態テーブルが設けられている。   On the other hand, the information center 14 includes a communication device (not shown) and, as shown in FIG. 1, a server (control unit) 31 mainly composed of a computer and a storage unit ( Database) 32. In the storage unit 32, for example, a service time table that stores a behavior histogram learned from a history of what actions each user has taken and what services have been used, and each user device (smart phone) 12, a device state table for storing the current state of the vehicle-mounted device 13 and the vehicle 16) is provided.

さて、前記サーバ31は、例えばROMに記憶された本実施例に係るコンテンツ提供プログラムを実行することにより、本実施例のコンテンツ提供システム1におけるエージェントサービスを実現する。尚、コンテンツ提供プログラムは、コンピュータ読取り可能な外部記憶媒体、例えば、光ディスク、磁気ディスク、カード型メモリ、USBメモリ等に記憶され、これらの記憶媒体から与えられるようにしても良い。   The server 31 implements an agent service in the content providing system 1 of the present embodiment by executing a content providing program according to the present embodiment stored in, for example, a ROM. The content providing program may be stored in a computer-readable external storage medium, for example, an optical disk, a magnetic disk, a card type memory, a USB memory, or the like, and may be provided from these storage media.

このとき、前記サーバ31は、そのソフトウエア的構成(上記コンテンツ提供プログラムにより実行される複数のルーチン)により、次のような複数の機能を実現するようになっている。即ち、サーバ31は、スマホ状態特定部33、車両状態特定部34、車載機状態特定部35、シーン特定部36、サービス選択部37、提供方法選択部38を備えている。   At this time, the server 31 realizes the following functions by its software configuration (a plurality of routines executed by the content providing program). That is, the server 31 includes a smartphone state specifying unit 33, a vehicle state specifying unit 34, an in-vehicle device state specifying unit 35, a scene specifying unit 36, a service selecting unit 37, and a providing method selecting unit 38.

前記スマホ状態特定部33は、前記スマートフォン12の状態を特定する。前記車両状態特定部34は、前記車両16の状態を特定する、車載機状態特定部35は、前記車載機13の状態を特定する。これらは、前記各デバイス(スマートフォン12、車両16、車載機13)から送信される現在位置情報を含むデバイス情報に基づいて、それら各デバイス(スマートフォン12、車両16、車載機13)の状態を夫々把握するデバイス状態特定手段として機能する。   The smartphone state specifying unit 33 specifies the state of the smartphone 12. The vehicle state specifying unit 34 specifies the state of the vehicle 16, and the in-vehicle device state specifying unit 35 specifies the state of the in-vehicle device 13. These are based on the device information including the current position information transmitted from each device (smart phone 12, vehicle 16, vehicle-mounted device 13), and the state of each device (smart phone 12, vehicle 16, vehicle-mounted device 13), respectively. It functions as a device status specifying means to grasp.

そのうち前記スマホ状態特定部33は、ユーザが所持するスマートフォン12と連携してその状態を収集し、ユーザの移動状態やユーザの位置の特定、デバイス情報の取得を行う。前記車両状態特定部34は、ユーザの乗る車両16と連携してその状態を収集し、車速やステアリング角等の走行状態、アラート情報、同乗者の有無など車両16の状態を特定する。前記車載機状態特定部35は、ユーザが乗る車両16の車載機13と連携してその状態を収集し、GPSによる位置やナビの経路、目的地等、車両16の位置に関する情報を特定する。   Among them, the smartphone state specifying unit 33 collects the state in cooperation with the smartphone 12 possessed by the user, specifies the movement state of the user and the position of the user, and acquires device information. The vehicle state specifying unit 34 collects the state in cooperation with the vehicle 16 on which the user rides, and specifies the state of the vehicle 16 such as the running state such as the vehicle speed and the steering angle, alert information, and the presence or absence of a passenger. The in-vehicle device state specifying unit 35 collects the state in cooperation with the in-vehicle device 13 of the vehicle 16 on which the user rides, and specifies information related to the position of the vehicle 16 such as a GPS position, a navigation route, and a destination.

前記シーン特定部36は、前記スマホ状態特定部33、車両状態特定部34及び車載機状態特定部35により特定された各デバイス(スマートフォン12、車両16、車載機13)の状態から、前記ユーザの現在のシーンを推定するシーン推定手段として機能する。これと共に、該ユーザに提供するコンテンツの有無、種類、タイミング等を判断する判断手段として機能する。   The scene specifying unit 36 determines the user's state from the state of each device (smart phone 12, vehicle 16, on-vehicle device 13) specified by the smartphone state specifying unit 33, the vehicle state specifying unit 34, and the on-vehicle device state specifying unit 35. It functions as scene estimation means for estimating the current scene. Together with this, it functions as a determination means for determining the presence, type, timing, etc. of the content to be provided to the user.

より具体的には、シーン特定部36は、現在、ユーザがどのようなシーンに属するかを決定し、ユーザの行動推定やその学習、スケジューリングの属性など多様に利用する。本実施例では、シーン特定部36は、前記スマートフォン12に設けられた振動センサ22が振動を検出している間は、ユーザが行動している(起きている)と判断するようになっている。また、シーン特定部36は、今までユーザがどのような行動をとり、サービスを利用してきたかの記録を取り、また移動のパターンや常用のルートの学習を行う。更に、例えば一定時間毎に前記スケジューラのスケジュールデータを参照し、サービス提供を駆動する。平日/休日などのスケジュールの保持と、その判定も行う。   More specifically, the scene specifying unit 36 determines what scene the user currently belongs to, and uses it in various ways such as estimating the user's behavior, learning it, and scheduling attributes. In the present embodiment, the scene specifying unit 36 determines that the user is acting (wakes up) while the vibration sensor 22 provided in the smartphone 12 detects vibration. . In addition, the scene specifying unit 36 records what actions the user has taken so far and uses the service, and learns a movement pattern and a regular route. Further, the service provision is driven by referring to the schedule data of the scheduler at regular intervals, for example. It also holds schedules such as weekdays / holidays and determines them.

後の作用説明(図3のフローチャート説明)でも述べるが、シーン特定部36は、ユーザのシーンとして、図7(a)に示すように、車両運転中、停車中、仕事中、くつろぎ中、外出中、睡眠中の6種類のシーンのなかからいずれかを推定するようになっている。このとき、前記振動センサ22により振動検出がなく、また操作部19の操作がない状態では、睡眠中と判断できる。振動センサ22を用いたことにより、ユーザが睡眠中か、起きて行動しているかを十分な確かさで推定することができる。また、スマートフォン12の位置情報と車両16の位置情報とが一致すればユーザが車内にいると判断でき、車両16の車速情報から運転中か停車中かが判断できる。スマートフォン12の位置情報(会社内、自宅、外出)等から、仕事中、くつろぎ中、外出中が判断できる。   As will be described later in the description of the operation (flowchart description of FIG. 3), as shown in FIG. 7 (a), the scene specifying unit 36, as shown in FIG. 7A, is driving, stopping, working, relaxing, and going out. One of the six types of scenes during sleep or sleep is estimated. At this time, if there is no vibration detected by the vibration sensor 22 and the operation unit 19 is not operated, it can be determined that the user is sleeping. By using the vibration sensor 22, it can be estimated with sufficient certainty whether the user is sleeping or waking up. Further, if the position information of the smartphone 12 matches the position information of the vehicle 16, it can be determined that the user is in the vehicle, and it can be determined from the vehicle speed information of the vehicle 16 whether the vehicle is driving or stopped. Based on the location information of the smartphone 12 (in-house, home, outing) or the like, it can be determined whether the user is working, relaxing, or going out.

前記サービス選択部37は、前記シーン特定部36の決定に基づいて、サービスプロバイダ15にサービスを要求し、サービスプロバイダ15からコンテンツを受取る機能を備える。また本実施例では、サービス選択部37は、ユーザに対し複数のコンテンツ(スケジュールに基づくサービス、車両警告(アラート)通知、PUSHサービスのメール等)を提供する場合に、コンテンツの種別に応じた優先順位を付加し、複数のコンテンツ間での調停を行う調停手段としての機能も備えている。   The service selection unit 37 has a function of requesting a service from the service provider 15 and receiving content from the service provider 15 based on the determination of the scene specifying unit 36. In the present embodiment, the service selection unit 37 prioritizes according to the type of content when providing a plurality of contents (service based on schedule, vehicle warning (alert) notification, PUSH service mail, etc.) to the user. It also has a function as arbitration means for adding ranking and arbitrating between a plurality of contents.

前記提供方法選択部38は、前記シーン特定部36の推定及び前記サービス選択部37の判断に基づいて、前記コンテンツを送信するデバイスを決定して当該デバイスに送信するデバイス選択手段として機能する。この場合、提供方法選択部38は、シーン特定部36により、ユーザが車両16を運転していると推定(特定)された場合には、車両16にユーザ以外の同乗者の有無を考慮してコンテンツを送信するデバイスを選択するようになっている。これも後述するが、車両16に同乗者がある場合には、ユーザのプライバシーを考慮して、メールは、車載機13でなくスマートフォン12側に送られる。   The provision method selection unit 38 functions as a device selection unit that determines a device to transmit the content based on the estimation of the scene specification unit 36 and the determination of the service selection unit 37 and transmits the device to the device. In this case, when the scene specifying unit 36 estimates (specifies) that the user is driving the vehicle 16, the providing method selection unit 38 considers whether there is a passenger other than the user in the vehicle 16. The device that sends the content is selected. As will be described later, when there is a passenger in the vehicle 16, the mail is sent to the smartphone 12 instead of the in-vehicle device 13 in consideration of the privacy of the user.

これと共に、本実施例では、提供方法選択部38は、前記シーン特定部36の推定及び前記サービス選択部37の判断に基づいて、デバイスにおけるコンテンツの適切な出力形態(例えば動画、静止画、音声出力、テキスト(文字)表示、それらの組合せ等)を決定する。そして、提供方法選択部38は、必要がある場合にその出力形態に加工する変換手段としての機能も備えている。   At the same time, in the present embodiment, the providing method selection unit 38, based on the estimation of the scene specification unit 36 and the determination of the service selection unit 37, an appropriate output form of content on the device (for example, moving image, still image, audio) Output, text (character) display, combinations thereof, etc.). The providing method selection unit 38 also has a function as conversion means for processing the output form when necessary.

以上のサーバ31の構成により、本実施例のコンテンツ提供システム11では、図6に概要を示すようなサービスを実行する。即ち、ユーザが使用するスマートフォン12及び車両16(車載機13)等のデバイスから、現在位置情報を含んだデバイス情報が情報センタ14(サーバ31)に送信される。サーバ31においては、デバイス情報等からユーザの現在のシーンが推定され、そのシーンでユーザが望むコンテンツを、サービスプロバイダ15に対して要求する。サービスプロバイダ15からコンテンツを取得すると、サーバ31は、そのコンテンツを、シーンに応じた出力形態で当該シーンに応じたデバイスに送信する。ユーザは、シーンに応じたデバイスでシーンに応じた出力形態のコンテンツを享受することができる。   With the configuration of the server 31 described above, the content providing system 11 according to the present embodiment executes a service as shown in FIG. That is, device information including current position information is transmitted to the information center 14 (server 31) from devices such as the smartphone 12 and the vehicle 16 (onboard device 13) used by the user. In the server 31, the user's current scene is estimated from the device information and the like, and the content desired by the user in the scene is requested from the service provider 15. When the content is acquired from the service provider 15, the server 31 transmits the content to a device corresponding to the scene in an output form corresponding to the scene. The user can enjoy the content in the output form corresponding to the scene with the device corresponding to the scene.

そして、本実施例では、後の作用説明でも述べるように、情報センタ14から車載機13(車両16)に対してコンテンツが送信されたときに、車載機13の制御部24は、ユーザの車内におけるシーンを特定すると共に、特定されたシーンに応じて表示部25に対する該コンテンツの出力を制御するようになっている。従って、制御部24が、車内シーン特定手段及び制御手段として機能する。   In this embodiment, as will be described later in the description of the operation, when content is transmitted from the information center 14 to the in-vehicle device 13 (vehicle 16), the control unit 24 of the in-vehicle device 13 Is specified, and the output of the content to the display unit 25 is controlled in accordance with the specified scene. Therefore, the control unit 24 functions as an in-vehicle scene specifying unit and a control unit.

より具体的には、前記制御部24は、ユーザが車両16を運転している場合には、車内におけるシーンとして、ユーザの運転に関する負荷の大小を判断する。この場合、図7(b)にも示すように、制御部24は、車両16の車速及びステアリング角に基づいて、車両16が走行中か停車中かを判断すると共に、走行中である場合には、直進中か右左折中かを判断する。つまり、車内シーンとして、直進中、右左折中、停車中の3つのうちいずれかを特定する。   More specifically, when the user is driving the vehicle 16, the control unit 24 determines the magnitude of the load related to the user's driving as a scene in the vehicle. In this case, as shown in FIG. 7 (b), the control unit 24 determines whether the vehicle 16 is traveling or stopped based on the vehicle speed and the steering angle of the vehicle 16, and when the vehicle 16 is traveling. Determines whether the vehicle is going straight or turning left or right. That is, one of the three in-vehicle scenes, straight driving, turning left and right, and stopping is specified.

そして、制御部24は、右左折中である場合に運転負荷が大、直進中である場合には運転負荷は中、停車中である場合には運転負荷は小、と判断する。これにて、制御部24は、右左折中であるつまり運転負荷が大である場合、及び、直進中即ちあるつまり運転負荷が中である場合には、緊急地震情報やアラート情報といった緊急性の高いコンテンツを除いて、コンテンツの出力を一時停止(休止)し、運転負荷が小さくなった後に該コンテンツを出力するように制御を行うようになっている。   The control unit 24 determines that the driving load is large when the vehicle is turning right and left, the driving load is medium when the vehicle is traveling straight, and the driving load is small when the vehicle is stopped. Thus, the control unit 24 makes a right or left turn, that is, if the driving load is large, and if it is going straight, that is, if there is a driving load, the emergency unit such as emergency earthquake information or alert information. With the exception of high content, output of content is temporarily stopped (paused), and control is performed so that the content is output after the driving load is reduced.

次に、上記構成の作用について、図2〜図7も参照して説明する。図2は、本実施例のコンテンツ提供システム11における、各部の処理手順、主として情報センタ14のサーバ31が実行するメインの処理手順(ルーチン)、及び通信の流れを示している。また、図3のフローチャートは、図2におけるステップB22の処理の詳細な手順を示し、図4のフローチャートは、図2におけるステップA22の詳細な手順を示している。更に、図5のフローチャートは、コンテンツを送信するデバイスを選択する際の、プライバシーの有無の判定の手順を示している。   Next, the operation of the above configuration will be described with reference to FIGS. FIG. 2 shows a processing procedure of each unit, a main processing procedure (routine) executed mainly by the server 31 of the information center 14, and a communication flow in the content providing system 11 of the present embodiment. 3 shows a detailed procedure of the process of step B22 in FIG. 2, and the flowchart of FIG. 4 shows a detailed procedure of step A22 in FIG. Furthermore, the flowchart of FIG. 5 shows a procedure for determining whether or not there is privacy when selecting a device that transmits content.

ここで、図2に示すように、コンテンツ提供システム11においては、コンテンツ(サービス)の提供の処理が行われると共に、デバイス状態更新の処理、利用履歴更新の処理が行われる。まず、デバイス状態更新の処理においては、ユーザ側の各デバイス(スマートフォン12、車載機13、車両16)にて、デバイス情報の更新があるかどうかが判断される(ステップA1)。そして、デバイス情報の更新がある場合には(ステップA1にてYes)、更新のあったデバイス情報が情報センタ14に送信される(ステップA2)。情報センタ14(サーバ31)においては、更新されたデバイス情報を受信すると(ステップB1)、記憶部32のデバイス状態テーブルを更新する(ステップB2)。   Here, as shown in FIG. 2, in the content providing system 11, content (service) provision processing is performed, and device state update processing and usage history update processing are performed. First, in the device status update process, it is determined whether or not the device information is updated in each device (smart phone 12, in-vehicle device 13, vehicle 16) on the user side (step A1). If device information is updated (Yes in step A1), the updated device information is transmitted to the information center 14 (step A2). In the information center 14 (server 31), when the updated device information is received (step B1), the device state table in the storage unit 32 is updated (step B2).

次に、利用履歴更新の処理においては、ユーザ側の各デバイス(スマートフォン12、車載機13、車両16)にて、コンテンツのサービスを利用した場合に(ステップA11)、その利用履歴のデータが情報センタ14に送信される。情報センタ14(サーバ31)においては、利用履歴のデータを受信すると(ステップB11)、利用履歴から学習したユーザの行動ヒストグラムのデータ、即ち、記憶部32のサービスタイムテーブルを更新する(ステップB12)。   Next, in the usage history update process, when the content service is used in each device (smart phone 12, in-vehicle device 13, vehicle 16) on the user side (step A11), the usage history data is information. It is transmitted to the center 14. When the information center 14 (server 31) receives the usage history data (step B11), it updates the user behavior histogram data learned from the usage history, that is, the service time table in the storage unit 32 (step B12). .

さて、ユーザのデバイスに対しコンテンツ提供のサービスを行うにあたっては、情報センタ14(サーバ31)において以下のような処理が実行される。即ち、まずステップB21では、デバイス状態テーブルの読込みが行われ、現在のユーザの各デバイス(スマートフォン12、車載機13、車両16)がどのような状態になっているかが把握される。次いで、上記各デバイスの状態からユーザのシーンが推定(特定)される(ステップB22)。   When providing a content providing service to a user's device, the following processing is executed in the information center 14 (server 31). That is, first, in step B21, the device state table is read, and it is grasped what state each device (smart phone 12, in-vehicle device 13, vehicle 16) of the current user is in. Next, the user's scene is estimated (specified) from the state of each device (step B22).

図3のフローチャートは、このステップB22におけるシーン推定の処理の詳細を示している。即ち、ステップB31では、スマートフォン12における振動センサ22の振動検出や操作部19の操作があるかどうかが判断される。振動センサ22の振動検出、及び、操作部19の操作のどちらもない場合には(ステップB31にてNo)、ユーザのシーンとして睡眠中と推定される(ステップB32)。   The flowchart of FIG. 3 shows details of the scene estimation process in step B22. That is, in step B31, it is determined whether there is vibration detection of the vibration sensor 22 or operation of the operation unit 19 in the smartphone 12. When neither the vibration detection of the vibration sensor 22 nor the operation of the operation unit 19 is performed (No in Step B31), it is estimated that the user is sleeping (Step B32).

振動センサ22の振動検出がある、或いは、操作部19の操作がある場合には(ステップB31にてYes)、ユーザが行動していると推定され、次のステップB33にて、ユーザが車両16内にいる(運転している)かどうかが判断される。スマートフォン12の現在位置情報と、車両16の現在位置情報とが一致していれば、ユーザが車両16を運転していると判断でき(ステップB33にてYes)、ステップB34に進む。ステップB34では、車速が0かどうかが判断され、車速が0を超えている場合には(ステップB34にてYes)、ユーザのシーンが車両運転中と推定される(ステップB35)。車速が0の場合には(ステップB34にてNo)、ユーザのシーンが停車中と推定される(ステップB36)。   When there is vibration detection of the vibration sensor 22 or when there is an operation of the operation unit 19 (Yes in Step B31), it is estimated that the user is acting. Whether it is inside (driving) is determined. If the current position information of the smartphone 12 matches the current position information of the vehicle 16, it can be determined that the user is driving the vehicle 16 (Yes in Step B33), and the process proceeds to Step B34. In step B34, it is determined whether or not the vehicle speed is 0. If the vehicle speed exceeds 0 (Yes in step B34), it is estimated that the user's scene is being driven (step B35). When the vehicle speed is 0 (No in step B34), it is estimated that the user's scene is stopped (step B36).

一方、ユーザの位置が車両16内でない場合には(ステップB33にてNo)、ステップB37にて、スマートフォン12の現在位置がユーザの職場かどうかが判断される。職場である場合には(ステップB37にてYes)、ステップB38にて、ユーザのシーンが仕事中であると推定される。スマートフォン12の現在位置がユーザの職場でない場合には(ステップB37にてNo)、次のステップB39にて、スマートフォン12の現在位置がユーザの自宅かどうかが判断される。自宅である場合には(ステップB39にてYes)、ステップB40にて.ユーザのシーンがくつろぎ中であると推定される。自宅でない場合には(ステップB39にてNo)、ステップB41にて,ユーザのシーンが外出中であると推定される。   On the other hand, when the user's position is not in the vehicle 16 (No in Step B33), it is determined in Step B37 whether the current position of the smartphone 12 is the user's workplace. If it is a workplace (Yes in Step B37), it is estimated in Step B38 that the user's scene is being worked. If the current position of the smartphone 12 is not the user's workplace (No in Step B37), it is determined in the next Step B39 whether the current position of the smartphone 12 is the user's home. If it is home (Yes in Step B39), in Step B40. It is assumed that the user's scene is relaxing. If it is not home (No in step B39), it is estimated in step B41 that the user's scene is out.

以上により、ステップB22にて、スマートフォン12、車載機13、車両16のデバイス状態から、現在、ユーザがどのようなシーン(車両運転中、停車中、仕事中、くつろぎ中、外出中、睡眠中)に属するかが特定される。図2に戻って、ステップB23では、特定されたシーン及び上記サービスタイムテーブルに基づいて、ユーザの行動が推定される。このとき、サービスタイムテーブルに記憶されたユーザの過去のサービス利用履歴のデータや、スケジューラに登録されているユーザのスケジュールデータが考慮されるので、十分な確かさでユーザの行動を推定することができる。   As described above, in step B22, from the device state of the smartphone 12, the vehicle-mounted device 13, and the vehicle 16, what kind of scene the user is currently in (driving, stopping, working, relaxing, going out, sleeping) Is specified. Returning to FIG. 2, in step B23, the user's behavior is estimated based on the identified scene and the service time table. At this time, since the user's past service usage history data stored in the service time table and the user's schedule data registered in the scheduler are taken into account, the user's behavior can be estimated with sufficient certainty. it can.

次のステップB24では、ユーザに対して提供すべきサービス(コンテンツ)があるかどうかが判断される。提供すべきサービスがない場合には(ステップB24にてNo)、ステップB25にてサービスタイムテーブルを更新した上で、ステップB21に戻る。提供すべきサービスがある場合には(ステップB24にてYes)、ステップB26にて、サービスプロバイダ15に対し、コンテンツの配信要求がなされる。   In the next step B24, it is determined whether there is a service (content) to be provided to the user. If there is no service to be provided (No in step B24), the service time table is updated in step B25, and the process returns to step B21. If there is a service to be provided (Yes in Step B24), a content distribution request is made to the service provider 15 in Step B26.

サービスプロバイダ15においては、情報センタ14から要求があったコンテンツを情報センタ14に対し配信する(ステップC22)。このとき、サービスプロバイダ15は、情報センタ14からの要求以外にも、それとは別に、ユーザに対しPUSH配信するコンテンツがあるかどうかを常に判断している(ステップC21)。そして、PUSH配信するコンテンツがある場合に(ステップC21にてYes)、ステップC22にて当該コンテンツを配信する。また、例えば緊急地震情報等の緊急に配信する必要のあるコンテンツ(情報)についても、ステップC22にて同様に配信を行う。   The service provider 15 distributes the content requested by the information center 14 to the information center 14 (step C22). At this time, in addition to the request from the information center 14, the service provider 15 always determines whether there is content to be PUSH distributed to the user (step C21). If there is content to be delivered by push (Yes in Step C21), the content is delivered in Step C22. Further, for example, content (information) that needs to be urgently distributed, such as emergency earthquake information, is similarly distributed in step C22.

情報センタ14では、サービスプロバイダ15からコンテンツを受信すると、ステップB27にて、当該コンテンツに関し、ユーザのどのデバイス(スマートフォン12、車載機13)に送信するかが選択される。このとき、本実施例では、車載機13にコンテンツ(メール等)を送信することが可能な場合に、車両16の同乗者の有無によるプライバシーを考慮してデバイスが選択される。図5のフローチャートは、情報センタ14(サーバ31)が実行するプライバシーシーン特定の処理手順を示している。   In the information center 14, when content is received from the service provider 15, which device (smart phone 12 or in-vehicle device 13) of the user is to be transmitted with respect to the content is selected in step B 27. At this time, in the present embodiment, when content (email or the like) can be transmitted to the in-vehicle device 13, the device is selected in consideration of privacy depending on the presence or absence of a passenger in the vehicle 16. The flowchart in FIG. 5 shows a privacy scene specifying processing procedure executed by the information center 14 (server 31).

即ち、プライバシーシーンの特定にあたっては、まず、ステップB51にて、ユーザの現在位置が車内かどうかが判断される。車内でない場合には(ステップB51にてNo)、そのまま終了する。ユーザが車内にいる場合には(ステップB51にてYes)、ステップB52にて、ドライバ以外のシートセンサがオンしているかどうか、つまり同乗者があるかどうかが判断される。ドライバ以外のシートセンサがオンしている、つまり同乗者がある場合には(ステップB52にてYes)、ステップB53にてプライバシーありと判断される。同乗者がない場合には(ステップB52にてNo)、ステップB54にてプライバシーなしと判断される。   That is, when specifying the privacy scene, first, in step B51, it is determined whether or not the current position of the user is in the vehicle. If it is not in the vehicle (No in step B51), the process ends as it is. If the user is in the vehicle (Yes in Step B51), it is determined in Step B52 whether or not a seat sensor other than the driver is on, that is, whether there is a passenger. If the seat sensor other than the driver is on, that is, if there is a passenger (Yes in Step B52), it is determined that there is privacy in Step B53. If there is no passenger (No in Step B52), it is determined in Step B54 that there is no privacy.

図示はしないが、車両16に同乗者がない場合(プライバシーなし)には、車載機13に対してコンテンツの送信が行われる。これに対し、車両16にユーザ以外の同乗者がある場合(プライバシーあり)には、車載機13に対する送信を行わずにユーザ個人のスマートフォン12にコンテンツが送信されるようになる。これにて、ユーザのプライバシーの保護が図られるようになる。   Although not shown, when there is no passenger in the vehicle 16 (no privacy), content is transmitted to the in-vehicle device 13. On the other hand, when there is a passenger other than the user in the vehicle 16 (with privacy), the content is transmitted to the user's personal smartphone 12 without performing transmission to the in-vehicle device 13. As a result, the user's privacy can be protected.

図2に戻り、次のステップB28では、ユーザの状況に応じた適切な出力形態とするように、必要があればコンテンツの出力形態(動画、静止画、音声出力、テキスト(文字)表示、それらの組合せ等)の変換がなされる。そして、ステップB29にて、ユーザのデバイスに対するコンテンツの送信がなされる。尚、図示はしないが、ユーザに提供する候補となるコンテンツが複数ある場合には、重要度(緊急度)の高いものから順に優先度の付与が行われ、その優先度に従ってコンテンツの送信がなされる。   Returning to FIG. 2, in the next step B28, if necessary, the output form of the content (moving image, still image, audio output, text (character) display, these are displayed, so as to obtain an appropriate output form according to the user's situation. In combination). In step B29, the content is transmitted to the user's device. Although not shown, when there are a plurality of contents that are candidates for provision to the user, priorities are assigned in descending order of importance (urgency), and contents are transmitted according to the priorities. The

ユーザ側においては、デバイス(スマートフォン12、車載機13のどちらか)にてコンテンツが受信される(ステップA21)。そして、コンテンツを受信したデバイスにおいて、該コンテンツの出力が行われるのであるが、車載機13(車両16)がコンテンツを受信した場合には、次のステップA22〜ステップA25の処理が行われる。まず、ステップA22では、ユーザの車内におけるシーンの特定の処理が行われる。   On the user side, the content is received by the device (either the smartphone 12 or the in-vehicle device 13) (step A21). Then, the content is output in the device that has received the content. When the in-vehicle device 13 (vehicle 16) receives the content, the following processing of Step A22 to Step A25 is performed. First, in step A22, specific processing of a scene in the user's vehicle is performed.

図4のフローチャートは、このステップA22における車内シーン特定の処理の詳細を示している。即ち、ステップA31では、ユーザ(スマートフォン12)の現在位置が車内かどうかが判断される。スマートフォン12の位置が車内でない場合には(ステップA31にてNo)、次のステップA32にて、ユーザが車外に出ていると特定される。ユーザが車内にいる場合には、(ステップA31にてYes)、ステップA33にて、車速が0を超えているかどうかが判断される。車速が0の場合には(ステップA33にてNo)、次のステップA34にて、車両16が停止中であると特定され、運転負荷は低(小さい)と判定される。   The flowchart in FIG. 4 shows the details of the process for specifying the in-vehicle scene in step A22. That is, in step A31, it is determined whether or not the current position of the user (smart phone 12) is in the vehicle. When the position of the smartphone 12 is not in the vehicle (No in Step A31), it is specified in Step A32 that the user is out of the vehicle. If the user is in the vehicle (Yes in step A31), it is determined in step A33 whether the vehicle speed exceeds zero. If the vehicle speed is 0 (No in Step A33), it is determined in the next Step A34 that the vehicle 16 is stopped, and the driving load is determined to be low (small).

車速が0を超えている場合には(ステップA33にてYes)、次のステップA35にて、ステアリング角が5度を超えているかどうかが判断される。ステアリング角が5度以下である場合には(ステップA35にてNo)、ステップA36にて、車両16が直進中であると特定され、運転負荷は中と判定される。これに対し、ステアリング角が5度を超えている場合には(ステップA35にてYes)、ステップA37にて、車両16が右折又は左折中であると特定され、運転負荷は高(大きい)と判定される。以上の処理により、ユーザの車内シーンが特定され、運転負荷が高中低の3段階で判定される。   If the vehicle speed exceeds 0 (Yes in Step A33), it is determined in next Step A35 whether the steering angle exceeds 5 degrees. If the steering angle is 5 degrees or less (No in step A35), it is determined in step A36 that the vehicle 16 is traveling straight, and the driving load is determined to be medium. On the other hand, when the steering angle exceeds 5 degrees (Yes in Step A35), it is specified in Step A37 that the vehicle 16 is turning right or left, and the driving load is high (large). Determined. By the above processing, the user's in-vehicle scene is specified, and the driving load is determined in three stages of high, medium and low.

このようにして車内シーンが特定されると(ステップA22)、図2に戻り、次のステップA23にて、送信されたコンテンツが、緊急地震情報や車両16のアラート情報といった緊急性の高いコンテンツかどうかが判断される。緊急性の高いコンテンツである場合には(ステップA23にてYes)、そのまま、無条件で当該コンテンツの出力がなされる(ステップA25)。   When the in-vehicle scene is specified in this way (step A22), the process returns to FIG. 2, and in step A23, whether the transmitted content is highly urgent content such as emergency earthquake information or vehicle 16 alert information. Judgment is made. If the content is highly urgent (Yes in Step A23), the content is output unconditionally as it is (Step A25).

これに対し、緊急性の高くないコンテンツの場合には(ステップA23にてNo)、次のステップA24にて、上記ステップS22で運転負荷が低(停車中である)と判定したかどうかが判断される。運転負荷が低(小)の場合には(ステップA24にてYes)、ステップA25に進んで当該コンテンツの出力がなされる。運転負荷が低ではない場合には(ステップA24にてNo)、ステップA22に戻り車内シーンの特定が繰返される。これにて、車載機13においては、緊急性の高いものを除いて、運転負荷が低く(小さく)なった後に、コンテンツの出力がなされるようになるのである。   On the other hand, if the content is not urgent (No in step A23), it is determined in step A24 whether the driving load is determined to be low (stopped) in step S22. Is done. When the driving load is low (small) (Yes in step A24), the process proceeds to step A25 and the content is output. If the driving load is not low (No in step A24), the process returns to step A22 and the identification of the in-vehicle scene is repeated. As a result, in the in-vehicle device 13, except for a highly urgent one, the content is output after the driving load becomes low (small).

上記のようなコンテンツ提供システム11の構成により、ユーザのシーンに応じた種類、言い換えればユーザが要望していると推測されるコンテンツを、適切なタイミングで自動的に提供することができる。またその際、ユーザが使用するデバイスが複数ある場合でも、ユーザの現在の状況に応じた最も適したデバイスにコンテンツを提供することができる。そして、コンテンツが車載機13に送信された時点のユーザの車内シーンの特定に基づいて、コンテンツの出力が制御されるので、最初のシーン推定からの時間経過によってユーザの状況が変化した場合でも、ユーザの現在の状況に適応した形態で、コンテンツを提供することができる。   With the configuration of the content providing system 11 as described above, it is possible to automatically provide the type according to the user's scene, in other words, the content presumed to be desired by the user at an appropriate timing. At that time, even if there are a plurality of devices used by the user, the content can be provided to the most suitable device according to the current situation of the user. And since the output of the content is controlled based on the specification of the in-vehicle scene of the user at the time when the content is transmitted to the vehicle-mounted device 13, even when the user's situation changes with the passage of time from the first scene estimation, Content can be provided in a form adapted to the current situation of the user.

ここで、図示はしないが、ユーザがコンテンツのサービスを受ける場合のいくつかの具体例をあげる。例えば平日の朝(例えば7時など決まった時間)に、ユーザが自宅でいつものニュースのコンテンツのサービスを受ける場合、スマートフォン12から情報センタ14に送られる現在位置情報を含むデバイス情報から、情報センタ14のサーバ31は、ユーザが自宅にいて起きて活動していると推定する。そして、ユーザがこの時刻にスマートフォン12でいつもニュースを見ている場合には、情報センタ14(サーバ31)は、サービスプロバイダ15からニュースのコンテンツを取得し、ユーザのスマートフォン12に対して送信する。これにて、ユーザはスマートフォン12によりニュースを見ることができる。   Here, although not shown, some specific examples in the case where the user receives a content service will be given. For example, when the user receives the usual news content service at home on a weekday morning (for example, at a fixed time such as 7 o'clock), the device information including the current position information sent from the smartphone 12 to the information center 14 is used to obtain the information center. 14 servers 31 estimate that the user is at home and is active. When the user is always watching the news on the smartphone 12 at this time, the information center 14 (server 31) acquires the content of the news from the service provider 15 and transmits it to the user's smartphone 12. As a result, the user can view the news with the smartphone 12.

また、例えばユーザが平日の午後(仕事中)に、同乗者と共に自動車での移動中(運転中)に、メールを受信する場合、ユーザのスマートフォン12、車載機13(車両16)から現在位置情報を含むデバイス情報が、情報センタ14に送られる。サーバ31は、ユーザが車両16の運転中であり、同乗者があると推定する。そして、サービスプロバイダ15からユーザに対してメールの配信がなされる場合には、ユーザのプライバシーを守るため、メールを送信するデバイスとしてスマートフォン12が選択される。情報センタ14(サーバ31)は、メールのコンテンツを、車載機13(車両16)ではなくスマートフォン12に送信する。これにて、メールの内容が車載機13の表示部25に表示されることはなく、ユーザは、後程、スマートフォン12でメールを見ることができる。   In addition, for example, when the user receives an e-mail on a weekday afternoon (during work) and traveling with a passenger in a car (driving), the current position information is received from the user's smartphone 12 and the vehicle-mounted device 13 (vehicle 16). Is sent to the information center 14. The server 31 estimates that the user is driving the vehicle 16 and there is a passenger. When mail is delivered from the service provider 15 to the user, the smartphone 12 is selected as a device that transmits the mail in order to protect the privacy of the user. The information center 14 (server 31) transmits the mail content to the smartphone 12 instead of the in-vehicle device 13 (vehicle 16). Thus, the content of the mail is not displayed on the display unit 25 of the in-vehicle device 13, and the user can view the mail later on the smartphone 12.

更に、例えばユーザが平日の朝(例えば8時30分など決まった時間)の自動車通勤中(運転中)に、いつもの天気予報のコンテンツのサービスを受ける場合、ユーザのスマートフォン12、車載機13(車両16)から現在位置情報を含むデバイス情報が、情報センタ14に送られる。サーバ31は、ユーザが車両16の運転中であり、会社に向かっていると推定する。そして、この時刻に、ユーザが車内でいつも天気予報を見ている場合には、情報センタ14(サーバ31)は、サービスプロバイダ15から天気予報のコンテンツを取得し、車載機13に対して送信する。   Furthermore, for example, when the user receives a usual weather forecast content service during a car commute (driving) on a weekday morning (for example, a fixed time such as 8:30), the user's smartphone 12 and in-vehicle device 13 ( Device information including the current position information is sent from the vehicle 16) to the information center. The server 31 estimates that the user is driving the vehicle 16 and is heading for the company. At this time, when the user is always watching the weather forecast in the vehicle, the information center 14 (server 31) acquires the content of the weather forecast from the service provider 15 and transmits it to the in-vehicle device 13. .

このとき、ユーザが運転している車両16の走行中、特にハンドルを切っている最中(右左折中)では、運転負荷が比較的大きく、ユーザが運転に集中する必要がある。本実施例では、車載機13側で、ユーザの車内におけるシーンが特定され、運転負荷が小さい場合(停車中)に、或いは小さくなってから、コンテンツが出力される。従って、運転負荷が比較的大きい(運転負荷が中又は高)ときには、コンテンツが出力されることはないので、ユーザは運転に集中することができる。これにて、ユーザは、安全性を確保しながら、車載機13において天気予報のコンテンツを見る(或いは聞く)ことができる。尚、コンテンツが、緊急地震速報やアラート情報のような緊急性を要するものである場合には、車内シーンにかかわりなく出力されるので、それら緊急性を要する情報をユーザに確実に伝えることができる。   At this time, during the traveling of the vehicle 16 being driven by the user, especially while the steering wheel is turned off (while turning right or left), the driving load is relatively large and the user needs to concentrate on driving. In the present embodiment, on the in-vehicle device 13 side, a scene in the vehicle of the user is specified, and the content is output when the driving load is small (stopped) or after it becomes small. Accordingly, when the driving load is relatively large (the driving load is medium or high), the content is not output, so that the user can concentrate on driving. Thus, the user can view (or listen to) the weather forecast content on the in-vehicle device 13 while ensuring safety. If the content requires urgency such as earthquake early warning or alert information, it is output regardless of the in-vehicle scene, so that the information that requires urgency can be reliably communicated to the user. .

以上のように、本実施例のコンテンツ提供システム11によれば、次のような優れた効果を奏する。即ち、情報センタ14のサーバ31に、デバイス情報に基づいて各デバイス(スマートフォン12、車両16、車載機13)の状態を把握する特定部33、34、35、各デバイスの状態からユーザの現在のシーンを推定すると共にユーザに提供すべきコンテンツを判断するシーン特定部36、サービスプロバイダ15からコンテンツを受取ると共に複数のコンテンツ間での調停を行うサービス選択部37、コンテンツを送信するデバイスを決定すると共に適切な出力形態に変換する提供方法選択部39を設けると共に、車載機13の制御部24に、情報センタ14から車載機13に対してコンテンツが送信されたときにユーザの車内におけるシーンを再度特定すると共に、特定されたシーンに応じて表示部25に対する該コンテンツの出力を制御する機能を設けるようにした。   As described above, according to the content providing system 11 of the present embodiment, the following excellent effects can be obtained. That is, the server 31 of the information center 14 determines the status of each device (smart phone 12, vehicle 16, vehicle-mounted device 13) based on the device information, and the user's current status from the status of each device. A scene specifying unit 36 that estimates a scene and determines content to be provided to a user, a service selection unit 37 that receives content from the service provider 15 and mediates between a plurality of content, and determines a device that transmits the content A provision method selection unit 39 for converting to an appropriate output form is provided, and a scene in the user's vehicle is specified again when content is transmitted from the information center 14 to the vehicle unit 13 to the control unit 24 of the vehicle unit 13. And outputting the content to the display unit 25 according to the specified scene. And to provide a function of controlling.

これにより、ユーザのシーンに応じた種類、言い換えればユーザが要望していると推測されるコンテンツを、適切なタイミングで、最も適したデバイスに自動的に提供することができる。そして、コンテンツが車載機13に送信された時点のユーザの車内シーンの特定に基づいて、コンテンツの出力が制御されるので、最初のシーン推定からの時間経過によってユーザの状況が変化した場合に対応することができる。従って、本実施例のコンテンツ提供システム11によれば、ユーザが使用する複数のデバイスに対して、サービスプロバイダ15からのコンテンツのサービスを自動で提供することを可能としたシステムにあって、ユーザの現在の状況を考慮して、特にユーザの車両運転中においても、ユーザ状況に適応した形態でコンテンツを提供することができるものである。   Thereby, the type according to the user's scene, in other words, the content presumed to be desired by the user can be automatically provided to the most suitable device at an appropriate timing. And since the output of the content is controlled based on the specification of the user's in-vehicle scene at the time when the content is transmitted to the vehicle-mounted device 13, it corresponds to the case where the user's situation changes with the passage of time from the first scene estimation can do. Therefore, according to the content providing system 11 of the present embodiment, there is a system that can automatically provide a content service from the service provider 15 to a plurality of devices used by the user. In consideration of the current situation, the content can be provided in a form adapted to the user situation, particularly even while the user is driving the vehicle.

特に本実施例では、車載機13の制御部24が車内シーンを特定する際にユーザの運転負荷の大小を判断し、運転負荷が大きいと判断されたときには、コンテンツの出力を停止し、運転負荷が小さくなった後に該コンテンツを出力するように構成したので、運転負荷が大きいときにユーザは運転に集中することができ、ユーザは、運転負荷が小さくなってから、コンテンツを安全に楽しむことができる。このとき、車両16の車速及びステアリング角に基づいて、ユーザが運転に特に集中する必要がある右左折中であるかどうかを特定し、運転負荷を判断するように構成したので、車両16の車速及びステアリング角に基づいて、運転負荷の大小を容易に判断することができる。   In particular, in this embodiment, the control unit 24 of the in-vehicle device 13 determines the magnitude of the user's driving load when specifying the in-vehicle scene, and when it is determined that the driving load is large, the content output is stopped and the driving load is stopped. Since the content is output after the driving load is reduced, the user can concentrate on driving when the driving load is large, and the user can enjoy the content safely after the driving load is reduced. it can. At this time, since it is configured to determine whether or not the user is making a right / left turn that needs to concentrate on driving based on the vehicle speed and the steering angle of the vehicle 16 and to determine the driving load, the vehicle speed of the vehicle 16 is determined. The magnitude of the driving load can be easily determined based on the steering angle.

また、本実施例では、提供方法選択部38に、デバイスにおけるコンテンツの適切な出力形態(例えば動画、静止画、音声出力、テキスト(文字)表示、それらの組合せ等)を決定し、必要がある場合にその出力形態に加工する変換手段としての機能を設けるようにしたので、デバイスにおいて、ユーザの状況に応じたて適切な出力形態でコンテンツを出力することが可能となり、コンテンツをより効果的に提供することができる。   In the present embodiment, the provision method selection unit 38 needs to determine an appropriate output form of content on the device (for example, moving image, still image, audio output, text (character) display, combination thereof, etc.). In this case, a function as a conversion means for processing the output form is provided, so that the content can be output in an appropriate output form according to the user's situation on the device, and the content can be more effectively Can be provided.

更に本実施例では、シーン特定部36を、ユーザの車両運転中、停車中、仕事中、くつろぎ中、外出中、睡眠中の6種類のシーンのなかからいずれかを推定するように構成した。ユーザのこれら6種類のシーンは、明確に区別されるものであり、容易に推定(識別)することが可能である。これと共に、それら各シーンに応じてユーザが要望するコンテンツは明らかに異なってくるため、各々のシーンに対して適切なコンテンツを提供することが可能となる。前記シーン特定部36を、ユーザの過去のサービス利用履歴のデータを加味したり、登録されているユーザのスケジュールデータを加味したりして、ユーザの現在のシーンを推定するように構成したので、ユーザのシーン推定の確かさを、より一層高めることができる。   Furthermore, in the present embodiment, the scene specifying unit 36 is configured to estimate any one of six types of scenes while the user is driving, stopping, working, relaxing, going out, and sleeping. These six types of scenes of the user are clearly distinguished and can be easily estimated (identified). At the same time, the content desired by the user differs depending on each scene, so that appropriate content can be provided for each scene. Since the scene specifying unit 36 is configured to estimate the current scene of the user by taking into account the user's past service usage history data or taking into account the registered user's schedule data. The certainty of the user's scene estimation can be further increased.

本実施例では、サーバ31のサービス選択部37に、ユーザに対し複数のコンテンツを提供する場合に、コンテンツの種別に応じた優先順位を付加し、複数のコンテンツ間での調停を行う調停手段としての機能を設けたので、同時に複数のコンテンツが提供可能な場合に、重要度の高いものが優先して提供されるようになり、不要不急のコンテンツが先に提供(出力)されるといった不具合を未然に防止することができる。   In this embodiment, when providing a plurality of contents to a user to the service selection unit 37 of the server 31, priority is given according to the type of contents, and arbitration means for arbitrating between the plurality of contents. In the case where multiple contents can be provided at the same time, priority is given to those with high importance, and unnecessary and urgent contents are provided (output) first. Can be prevented in advance.

本実施例においては、サーバ31の提供方法選択部38が、ユーザが車両を運転していると推定された場合には、状態としての車両16の同乗者の有無を考慮してコンテンツを送信するデバイスを選択するように構成したので、車両16にユーザ以外の同乗者がある場合には、車載機13に対する送信を行わずにユーザ個人のスマートフォン12にコンテンツを送信する等、ユーザのプライバシーの保護を図ることができる。   In the present embodiment, when it is estimated that the user is driving the vehicle, the providing method selection unit 38 of the server 31 transmits the content in consideration of the presence or absence of the passenger of the vehicle 16 as the state. Since the device is selected, when there is a passenger other than the user in the vehicle 16, the content is transmitted to the user's personal smartphone 12 without transmitting to the in-vehicle device 13, and the privacy of the user is protected. Can be achieved.

尚、上記実施例では、ユーザの所持する携帯情報端末として、スマートフォン12を採用するようにしたが、スマートフォンに限らず、通信機能付きの携帯型情報機器であれば、携帯電話機やタブレット端末等であっても良い。車載機としても、カーナビゲーション装置に限らず、ヘッドアップディスプレイやメータなど、表示部を備えた車載機であれば適用することができる。また、上記実施例では、提供されるコンテンツの出力形態の変換を、情報センタ14のサーバ31で行うようにしたが、スマートフォン12や車載機13において実施しても良い。その他、本発明は上記し且つ図面に示した一実施例に限定されるものではなく、要旨を逸脱しない範囲内で適宜変更して実施し得るものである。   In the above embodiment, the smartphone 12 is adopted as the portable information terminal possessed by the user. However, the present invention is not limited to the smartphone, and any portable information device with a communication function can be used as a portable phone or a tablet terminal. There may be. The in-vehicle device is not limited to the car navigation device, but can be applied to any in-vehicle device including a display unit such as a head-up display and a meter. Moreover, in the said Example, although the conversion of the output form of the content provided was performed in the server 31 of the information center 14, you may implement in the smart phone 12 or the vehicle equipment 13. FIG. In addition, the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the invention.

図面中、11はコンテンツ提供システム、12はスマートフォン(携帯情報端末)、13は車載機、14は情報センタ、15はサービスプロバイダ、16は車両、18は表示部(コンテンツ出力部)、22は振動センサ(振動検出手段)、24は制御部(車内シーン特定手段、制御手段)、25は表示部(コンテンツ出力部)、31はサーバ、32は記憶部、33はスマホ状態特定部(デバイス状態特定手段)、34は車両状態特定部(デバイス状態特定手段)、35は車載機状態特定部(デバイス状態特定手段)、36はシーン特定部(シーン推定手段、判断手段)、37はサービス選択部(調停手段)、36は提供方法選択部(デバイス選択手段、変換手段)を示す。   In the drawing, 11 is a content providing system, 12 is a smartphone (portable information terminal), 13 is an in-vehicle device, 14 is an information center, 15 is a service provider, 16 is a vehicle, 18 is a display unit (content output unit), and 22 is a vibration. Sensor (vibration detecting means), 24 is a control unit (in-vehicle scene specifying means, control means), 25 is a display unit (content output unit), 31 is a server, 32 is a storage unit, 33 is a smartphone state specifying unit (device state specifying) Means), 34 is a vehicle state specifying unit (device state specifying unit), 35 is an in-vehicle device state specifying unit (device state specifying unit), 36 is a scene specifying unit (scene estimation unit, determining unit), and 37 is a service selecting unit ( Arbitration means) 36 represents a provision method selection unit (device selection means, conversion means).

Claims (10)

コンテンツ出力部(18、25)を備えユーザが使用する複数のデバイス(12、13、16)と、コンテンツ提供用のサーバ(31)を備えた情報センタ(14)とを通信可能に接続し、前記情報センタ(14)からコンテンツを前記各デバイス(12、13、16)に提供するようにしたコンテンツ提供システム(11)において、
前記デバイス(12、13、16)には、1ユーザに関して、該ユーザが所持する携帯情報端末(12)及び該ユーザが乗車する車両(16)に搭載された車載機(13)が含まれており、
前記情報センタ(14)のサーバ(31)は、前記各デバイス(12、13、16)から送信される情報に基づいてそれら各デバイス(12、13、16)の状態を把握するデバイス状態特定手段(33、35、34)と、
前記デバイス状態特定手段(33、35、34)により特定された各デバイス(12、13、16)の状態から、前記ユーザの現在のシーンを推定するシーン推定手段(36)と、
このシーン推定手段(36)により推定されたユーザのシーンから、該当するユーザに提供するコンテンツを判断する判断手段(36)と、
前記シーン推定手段(36)の推定及び前記判断手段(36)の判断に基づいて、前記コンテンツを送信するデバイス(12、13、16)を決定するデバイス選択手段(38)とを備えると共に、
前記車載機(13)は、前記情報センタ(14)から該車載機(13)に前記コンテンツが送信された際に、前記ユーザの車内におけるシーンを特定する車内シーン特定手段(24)と、
この車内シーン特定手段(24)により特定されたシーンに応じて前記コンテンツ出力部(25)に対する該コンテンツの出力を制御する制御手段(24)とを備えることを特徴とするコンテンツ提供システム。
A plurality of devices (12, 13, 16) provided with a content output section (18, 25) and used by a user and an information center (14) provided with a server (31) for providing content are communicably connected. In the content providing system (11) configured to provide content from the information center (14) to the devices (12, 13, 16),
The device (12, 13, 16) includes, for one user, a portable information terminal (12) possessed by the user and an in-vehicle device (13) mounted on the vehicle (16) on which the user rides. And
The server (31) of the information center (14) is a device state specifying means for grasping the state of each device (12, 13, 16) based on the information transmitted from each device (12, 13, 16). (33, 35, 34),
Scene estimation means (36) for estimating the current scene of the user from the state of each device (12, 13, 16) specified by the device status specifying means (33, 35, 34);
Determination means (36) for determining the content to be provided to the corresponding user from the user's scene estimated by the scene estimation means (36);
A device selection unit (38) for determining a device (12, 13, 16) to transmit the content based on the estimation of the scene estimation unit (36) and the determination of the determination unit (36);
The in-vehicle device (13) includes an in-vehicle scene specifying means (24) for specifying a scene in the vehicle of the user when the content is transmitted from the information center (14) to the in-vehicle device (13).
A content providing system comprising: control means (24) for controlling output of the content to the content output unit (25) according to the scene specified by the in-vehicle scene specifying means (24).
前記車内シーン特定手段(24)は、ユーザが車両を運転している場合には、ユーザの運転に関する負荷の大小を判断し、
前記制御手段(24)は、前記車内シーン特定手段(24)により運転負荷が大きいと判断されたときには、緊急性の高いコンテンツ以外のコンテンツの出力を停止し、前記運転負荷が小さくなった後に該コンテンツを出力することを特徴とする請求項1記載のコンテンツ提供システム。
When the user is driving the vehicle, the in-vehicle scene specifying means (24) determines the magnitude of the load related to the user's driving,
The control means (24) stops output of contents other than highly urgent contents when the in-vehicle scene specifying means (24) determines that the driving load is large, and after the driving load becomes small, the control means (24) The content providing system according to claim 1, wherein the content is output.
前記車内シーン特定手段(24)は、車両(16)の車速及びステアリング角に基づいて、車両(16)が右左折中であるかどうかを特定し、右左折中である場合に負荷が大であると判断することを特徴とする請求項2記載のコンテンツ提供システム。   The in-vehicle scene specifying means (24) specifies whether the vehicle (16) is turning right or left based on the vehicle speed and steering angle of the vehicle (16), and the load is large when the vehicle is turning right or left. 3. The content providing system according to claim 2, wherein the content providing system is determined to be present. 前記シーン推定手段(36)又は前記車内シーン特定手段(24)の推定又は特定に基づいて、前記デバイス(12、13、16)における前記コンテンツの適切な出力形態を決定し、当該コンテンツをその出力形態に加工する変換手段(38)を備えることを特徴とする請求項1から3のいずれか一項に記載のコンテンツ提供システム。   Based on the estimation or specification of the scene estimation means (36) or the in-vehicle scene specification means (24), an appropriate output form of the content in the device (12, 13, 16) is determined, and the content is output. The content providing system according to any one of claims 1 to 3, further comprising conversion means (38) for processing into a form. 前記携帯情報端末(12)は、振動検出手段(22)を備え、前記デバイス状態特定手段(33、35、34)は、前記振動検出手段(22)が振動を検出している間は、ユーザが行動していると判断することを特徴とする請求項1から4のいずれか一項に記載のコンテンツ提供システム。   The portable information terminal (12) includes vibration detection means (22), and the device state identification means (33, 35, 34) is a user while the vibration detection means (22) detects vibration. The content providing system according to any one of claims 1 to 4, wherein the content providing system is determined to be acting. 前記シーン推定手段(36)は、車両運転中、停車中、仕事中、くつろぎ中、外出中、睡眠中の6種類のシーンのなかからいずれかを推定することを特徴とする請求項1から5のいずれか一項に記載のコンテンツ提供システム。   6. The scene estimation means (36) estimates one of six types of scenes during driving, stopping, working, relaxing, going out, and sleeping. The content providing system according to any one of the above. 前記シーン推定手段(36)は、ユーザの過去のサービス利用履歴のデータを加味して、前記ユーザの現在のシーンを推定することを特徴とする請求項1から6のいずれか一項に記載のコンテンツ提供システム。   The said scene estimation means (36) estimates the said user's present scene in consideration of the data of the user's past service use history, The said user's present scene is characterized by the above-mentioned. Content provision system. 前記シーン推定手段(36)は、登録されているユーザのスケジュールデータを加味して、前記ユーザの現在のシーンを推定することを特徴とする請求項1から7のいずれか一項に記載のコンテンツ提供システム。   The content according to any one of claims 1 to 7, wherein the scene estimation means (36) estimates the current scene of the user in consideration of registered user schedule data. Offer system. 前記情報センタ(14)のサーバ(31)は、ユーザに対し複数のコンテンツを提供する場合に、コンテンツの種別に応じた優先順位を付加し、複数のコンテンツ間での調停を行う調停手段(37)を備えることを特徴とする請求項1から8のいずれか一項に記載のコンテンツ提供システム。   The server (31) of the information center (14), when providing a plurality of contents to the user, adds a priority according to the type of contents and arbitrates between a plurality of contents (37). The content providing system according to any one of claims 1 to 8, further comprising: 前記デバイス選択手段(38)は、前記シーン推定手段(36)によりユーザが車両(16)を運転していると推定された場合には、状態としての車両(16)の同乗者の有無を考慮してコンテンツを送信するデバイス(12、13、16)を選択することを特徴とする請求項1から9のいずれか一項に記載のコンテンツ提供システム。   The device selection means (38) takes into account the presence or absence of a passenger of the vehicle (16) as a state when the scene estimation means (36) estimates that the user is driving the vehicle (16). The content providing system according to claim 1, wherein a device (12, 13, 16) that transmits content is selected.
JP2013186227A 2013-09-09 2013-09-09 Content provision system Active JP6193690B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013186227A JP6193690B2 (en) 2013-09-09 2013-09-09 Content provision system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013186227A JP6193690B2 (en) 2013-09-09 2013-09-09 Content provision system

Publications (2)

Publication Number Publication Date
JP2015053632A true JP2015053632A (en) 2015-03-19
JP6193690B2 JP6193690B2 (en) 2017-09-06

Family

ID=52702338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013186227A Active JP6193690B2 (en) 2013-09-09 2013-09-09 Content provision system

Country Status (1)

Country Link
JP (1) JP6193690B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017200007A (en) * 2016-04-26 2017-11-02 株式会社Nttドコモ Independent determination system
JP2017204261A (en) * 2016-05-11 2017-11-16 バイドゥ ユーエスエー エルエルシーBaidu USA LLC System and method for providing augmented virtual reality content in autonomous vehicles
JP2017222271A (en) * 2016-06-15 2017-12-21 株式会社デンソー Display controller for vehicle
JP6279053B1 (en) * 2016-11-01 2018-02-14 楽天株式会社 Information processing apparatus, control method, program, and notification system
JP2018112900A (en) * 2017-01-11 2018-07-19 Kddi株式会社 Program, vehicle terminal, mobile terminal, estimation server, and method for estimating behaviors based on driving characteristics of users
JP2019021275A (en) * 2017-07-21 2019-02-07 クラリオン株式会社 Information processing device and method for automatic reproduction of content
JP2019090764A (en) * 2017-11-16 2019-06-13 トヨタ自動車株式会社 Information processor
JP2021051715A (en) * 2019-09-20 2021-04-01 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Information push method, apparatus, electronic device, storage medium, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109345874A (en) * 2018-12-07 2019-02-15 安徽江淮汽车集团股份有限公司 A kind of vehicle right-hand rotation method for early warning and system based on V2X

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001141475A (en) * 1999-11-17 2001-05-25 Denso Corp Car navigation apparatus
JP2005165454A (en) * 2003-11-28 2005-06-23 Nippon Telegr & Teleph Corp <Ntt> Contents recommending device, contents recommending method and contents recommending program
JP2006065600A (en) * 2004-08-27 2006-03-09 Fuji Xerox Co Ltd Content providing system
JP2007304009A (en) * 2006-05-12 2007-11-22 Yafoo Japan Corp Method and system for finding movement means from positional information
JP2008299528A (en) * 2007-05-30 2008-12-11 Isuzu Motors Ltd E-mail receiving device and e-mail transceiving system
JP2009031874A (en) * 2007-07-24 2009-02-12 Toyota Motor Corp Warning apparatus
JP2009087154A (en) * 2007-10-01 2009-04-23 Ntt Docomo Inc Information distribution device, information distribution system and information distribution method
JP2010152679A (en) * 2008-12-25 2010-07-08 Toshiba Corp Information presentation device and information presentation method
JP2011237217A (en) * 2010-05-07 2011-11-24 Clarion Co Ltd On-vehicle information terminal

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001141475A (en) * 1999-11-17 2001-05-25 Denso Corp Car navigation apparatus
JP2005165454A (en) * 2003-11-28 2005-06-23 Nippon Telegr & Teleph Corp <Ntt> Contents recommending device, contents recommending method and contents recommending program
JP2006065600A (en) * 2004-08-27 2006-03-09 Fuji Xerox Co Ltd Content providing system
JP2007304009A (en) * 2006-05-12 2007-11-22 Yafoo Japan Corp Method and system for finding movement means from positional information
JP2008299528A (en) * 2007-05-30 2008-12-11 Isuzu Motors Ltd E-mail receiving device and e-mail transceiving system
JP2009031874A (en) * 2007-07-24 2009-02-12 Toyota Motor Corp Warning apparatus
JP2009087154A (en) * 2007-10-01 2009-04-23 Ntt Docomo Inc Information distribution device, information distribution system and information distribution method
JP2010152679A (en) * 2008-12-25 2010-07-08 Toshiba Corp Information presentation device and information presentation method
JP2011237217A (en) * 2010-05-07 2011-11-24 Clarion Co Ltd On-vehicle information terminal

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017200007A (en) * 2016-04-26 2017-11-02 株式会社Nttドコモ Independent determination system
JP2017204261A (en) * 2016-05-11 2017-11-16 バイドゥ ユーエスエー エルエルシーBaidu USA LLC System and method for providing augmented virtual reality content in autonomous vehicles
JP2017222271A (en) * 2016-06-15 2017-12-21 株式会社デンソー Display controller for vehicle
JP6279053B1 (en) * 2016-11-01 2018-02-14 楽天株式会社 Information processing apparatus, control method, program, and notification system
JP2018074484A (en) * 2016-11-01 2018-05-10 楽天株式会社 Information processing device, control method, program, and notification system
JP2018112900A (en) * 2017-01-11 2018-07-19 Kddi株式会社 Program, vehicle terminal, mobile terminal, estimation server, and method for estimating behaviors based on driving characteristics of users
JP2019021275A (en) * 2017-07-21 2019-02-07 クラリオン株式会社 Information processing device and method for automatic reproduction of content
JP2019090764A (en) * 2017-11-16 2019-06-13 トヨタ自動車株式会社 Information processor
JP2021051715A (en) * 2019-09-20 2021-04-01 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Information push method, apparatus, electronic device, storage medium, and program
JP7108646B2 (en) 2019-09-20 2022-07-28 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド INFORMATION PUSH METHOD, DEVICE, ELECTRONIC DEVICE, STORAGE MEDIUM, AND PROGRAM

Also Published As

Publication number Publication date
JP6193690B2 (en) 2017-09-06

Similar Documents

Publication Publication Date Title
JP6193690B2 (en) Content provision system
JP6224387B2 (en) Content provision system
US11946756B2 (en) Determining matches using dynamic provider eligibility model
US20230333558A1 (en) Autonomous vehicle pickup and drop-off management
US10567935B1 (en) Connected services configuration for connecting a mobile device to applications to perform tasks
US10929782B2 (en) Integrating restaurant reservation services into a navigation application
CN105791741B (en) System and method for scheduling video conferences in autonomous vehicles
EP2925027B1 (en) Selective message presentation by in-vehicle computing system
CN103546941B (en) Wireless telecom equipment is coupled to the method, communication module and system of communication module
US8442758B1 (en) Systems and methods for a vehicle smart calendar
US8594861B2 (en) Systems and methods for communicating with a vehicle user
US20140142948A1 (en) Systems and methods for in-vehicle context formation
WO2018058117A1 (en) Network system to determine accelerators for selection of a service
EP3566917B1 (en) Information processing device, information processing method, and non-transitory recording medium storing program
WO2011127363A2 (en) Crowd-sourcing of information for shared transportation vehicles
US9883353B2 (en) Method to transmit real-time in-vehicle information to an internet service
JP6254797B2 (en) Content provision system
JP6254796B2 (en) Content provision system
JP6224386B2 (en) Content providing system, server, and content providing program
JP7243087B2 (en) Information processing device, information processing method and program
WO2018143932A1 (en) User input configured dynamic shuttle
US20220291007A1 (en) Method, device, medium, and program products for information display
JP2014175682A (en) Mobile communication terminal and operation control method for the same
JP2023025599A (en) electric vehicle
JP2021033517A (en) On-vehicle device, communication system, and session control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170810

R150 Certificate of patent or registration of utility model

Ref document number: 6193690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250