JP7405502B2 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7405502B2
JP7405502B2 JP2018157827A JP2018157827A JP7405502B2 JP 7405502 B2 JP7405502 B2 JP 7405502B2 JP 2018157827 A JP2018157827 A JP 2018157827A JP 2018157827 A JP2018157827 A JP 2018157827A JP 7405502 B2 JP7405502 B2 JP 7405502B2
Authority
JP
Japan
Prior art keywords
information
content
user
information processing
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018157827A
Other languages
Japanese (ja)
Other versions
JP2020030776A (en
Inventor
衣織 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2018157827A priority Critical patent/JP7405502B2/en
Publication of JP2020030776A publication Critical patent/JP2020030776A/en
Application granted granted Critical
Publication of JP7405502B2 publication Critical patent/JP7405502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来、指向性を有するスピーカ等によりユーザへ種々の情報を提供する技術が提供されている。例えば、スピーカから出力した音声が、周辺に広がらずに各座席に別々の音声を聞かせることができるようにした車載用スピーカーシステムを提供する技術が提供されている。 2. Description of the Related Art Conventionally, techniques have been provided for providing various information to users using directional speakers and the like. For example, there is a technology that provides an in-vehicle speaker system that allows each seat to hear a different sound without the sound output from the speaker spreading to the surrounding area.

特開2005-217807号公報Japanese Patent Application Publication No. 2005-217807

しかしながら、上記の従来技術では、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができるとは限らない。例えば、周辺に広がらずに各座席に別々の音声を聞かせるようにしただけでは、誰がどこに座っているかを考慮されていない場合、ユーザに適切な情報提供を行うことが難しい。 However, with the above-mentioned conventional technology, it is not always possible to provide appropriate information according to the position of the target user within the moving body. For example, if you simply make it possible for each seat to hear a different sound without it spreading to the surrounding area, it will be difficult to provide appropriate information to the user if who is sitting where is not taken into consideration.

本願は、上記に鑑みてなされたものであって、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and aims to provide an information processing device, an information processing method, and an information processing program that enable appropriate information provision according to the location of a target user within a moving body. shall be.

本願に係る情報処理装置は、所定の移動体内における情報提供の対象となる対象ユーザの位置を示す対象位置情報を取得する取得部と、前記取得部により取得された前記対象位置情報に基づいて、指向性を有する指向性スピーカであって、前記対象ユーザの位置に向けて音声を出力する指向性スピーカを、前記対象ユーザに対応するコンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する決定部と、を備えたことを特徴とする。 The information processing device according to the present application includes an acquisition unit that acquires target position information indicating the position of a target user to whom information is to be provided within a predetermined moving object, and based on the target position information acquired by the acquisition unit, A directional speaker that is a directional speaker that outputs audio toward the position of the target user is determined as an output target speaker that is a directional speaker that outputs audio related to the content that corresponds to the target user. The present invention is characterized by comprising: a determining section for determining.

実施形態の一態様によれば、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができるという効果を奏する。 According to one aspect of the embodiment, it is possible to provide appropriate information according to the position of the target user within the moving object.

図1は、実施形態に係る情報処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of information processing according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of an information processing device according to an embodiment. 図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of a user information storage unit according to the embodiment. 図5は、実施形態に係るPOI情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of a POI information storage unit according to the embodiment. 図6は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of a content information storage unit according to the embodiment. 図7は、実施形態に係る移動体情報記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of a mobile object information storage unit according to the embodiment. 図8は、実施形態に係るセンサ情報記憶部の一例を示す図である。FIG. 8 is a diagram illustrating an example of a sensor information storage unit according to the embodiment. 図9は、実施形態に係る情報処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of information processing according to the embodiment. 図10は、実施形態に係る情報処理の一例を示す図である。FIG. 10 is a diagram illustrating an example of information processing according to the embodiment. 図11は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 11 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device.

以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus, an information processing method, and an embodiment of an information processing program (hereinafter referred to as "embodiments") according to the present application will be described in detail below with reference to the drawings. Note that the information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. Further, in each of the embodiments below, the same parts are given the same reference numerals, and redundant explanations will be omitted.

(実施形態)
〔1.情報処理〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。図1の例では、情報処理装置100が、自動車である移動体内における情報提供の対象となるユーザ(「対象ユーザ」ともいう)の位置に向けて音声を出力する指向性スピーカを、対象ユーザに対応するコンテンツに関する音声を出力させる指向性スピーカ(「出力対象スピーカ」ともいう)に決定する場合を示す。図1の例では、ユーザU1が運転する移動体C1に配置された指向性スピーカ20により、音声が出力される場合を示す。なお、ここでいうコンテンツには、エンターテインメントに関する音楽コンテンツや広告コンテンツ等に限らず、ユーザと通話する相手の音声等、種々のユーザに提供する種々の情報が含まれる。また、移動体は、自動車に限らず、例えば、複数人が内部空間に位置することが可能な移動体であれば、どのような移動体であってもよい。例えば、移動体は、バス、列車、飛行機、船等の種々の移動体であってもよい。
(Embodiment)
[1. Information processing〕
First, an example of information processing according to the embodiment will be described using FIG. 1. FIG. 1 is a diagram illustrating an example of information processing according to an embodiment. In the example of FIG. 1, the information processing device 100 sends a directional speaker that outputs audio toward the position of a user to whom information is to be provided (also referred to as a "target user") in a moving object, such as a car, to a target user. A case is shown in which a directional speaker (also referred to as an "output target speaker") is determined to output audio related to the corresponding content. In the example of FIG. 1, a case is shown in which audio is output from the directional speaker 20 disposed on a moving body C1 driven by a user U1. Note that the content referred to herein is not limited to entertainment-related music content, advertising content, etc., but also includes various information provided to various users, such as the voice of the user and the other party on the phone. Further, the moving object is not limited to a car, but may be any moving object as long as a plurality of people can be located in the interior space. For example, the moving object may be a variety of moving objects such as a bus, train, airplane, or ship.

〔情報処理システムの構成〕
図1の説明に先立って、図2を用いて情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。図2に示すように、情報処理システム1は、端末装置10と、指向性スピーカ20と、情報処理装置100とが含まれる。端末装置10と、指向性スピーカ20と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図2に示した情報処理システム1には、複数台の端末装置10や、複数台の指向性スピーカ20や、複数台の情報処理装置100が含まれてもよい。
[Configuration of information processing system]
Prior to describing FIG. 1, the configuration of the information processing system 1 will be described using FIG. 2. FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment. As shown in FIG. 2, the information processing system 1 includes a terminal device 10, a directional speaker 20, and an information processing device 100. The terminal device 10, the directional speaker 20, and the information processing device 100 are connected via a predetermined network N so that they can communicate by wire or wirelessly. Note that the information processing system 1 shown in FIG. 2 may include a plurality of terminal devices 10, a plurality of directional speakers 20, and a plurality of information processing apparatuses 100.

端末装置10は、ユーザによって利用される端末装置(情報処理装置)である。端末装置10は、ユーザとともに移動可能であればどのような端末装置であってもよい。端末装置10は、指向性スピーカ20や情報処理装置100と通信可能な通信装置であってもよい。端末装置10は、例えば、スマートスピーカや、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。 The terminal device 10 is a terminal device (information processing device) used by a user. The terminal device 10 may be any type of terminal device as long as it is movable with the user. The terminal device 10 may be a communication device that can communicate with the directional speaker 20 or the information processing device 100. The terminal device 10 is realized by, for example, a smart speaker, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a mobile phone, a PDA (Personal Digital Assistant), or the like.

図1は、端末装置10がスマートスピーカである場合を示す。例えば、端末ID「TM1-1」により識別される端末装置10(端末装置TM1-1)は、図1に示すユーザU1の移動体C1に配置される端末装置10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。また、「移動体C*(*は任意の数値)」と記載した場合、その移動体は移動体ID「C*」により識別される移動体であることを示す。例えば、「移動体C1」と記載した場合、その移動体は移動体ID「C1」により識別される移動体である。 FIG. 1 shows a case where the terminal device 10 is a smart speaker. For example, the terminal device 10 (terminal device TM1-1) identified by the terminal ID "TM1-1" corresponds to the terminal device 10 located in the mobile body C1 of the user U1 shown in FIG. In this way, when "user U* (* is an arbitrary number)" is written, it indicates that the user is identified by the user ID "U*". For example, when "user U1" is written, the user is identified by the user ID "U1". Furthermore, when it is written as "mobile body C* (* is an arbitrary number)", it indicates that the mobile body is a mobile body identified by the mobile body ID "C*". For example, when "mobile body C1" is written, the mobile body is a mobile body identified by the mobile body ID "C1".

また、端末ID「TM1-1」により識別される端末装置10は、上記のように端末装置TM1-1と記載する場合がある。このように、各端末装置10を区別して説明する場合、「端末装置」の末尾に端末ID(TM1-1等)を付加した記載とする。各端末装置10について、特に区別なく説明する場合には、単に「端末装置10」と記載する。 Further, the terminal device 10 identified by the terminal ID “TM1-1” may be written as the terminal device TM1-1 as described above. In this way, when each terminal device 10 is explained separately, the terminal ID (TM1-1, etc.) is added to the end of "terminal device" in the description. When describing each terminal device 10 without any particular distinction, it will simply be referred to as "terminal device 10."

また、端末装置10は、種々のセンサにより検知された情報(以下、「センサ情報」ともいう)を収集する。端末装置10は、種々のセンサを含むセンサ部を備える。また、端末装置10は、GPS(Global Positioning System)センサ等の位置センサの機能を有し、ユーザの位置を検知し、取得可能であるものとする。また、端末装置10は、通信を行っている基地局の位置情報や、Wi-Fi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。 The terminal device 10 also collects information detected by various sensors (hereinafter also referred to as "sensor information"). The terminal device 10 includes a sensor section including various sensors. Further, it is assumed that the terminal device 10 has a function of a position sensor such as a GPS (Global Positioning System) sensor, and is capable of detecting and acquiring the user's position. Furthermore, the terminal device 10 may estimate and acquire the user's location information using the location information of the base station with which it is communicating or the radio waves of Wi-Fi (registered trademark) (Wireless Fidelity). Note that below, location information may be simply referred to as "location."

また、端末装置10は、マイク等の音を検知する音センサを有する。例えば、端末装置10は、音センサにより、端末装置10の周囲におけるユーザの発話を検知する。例えば、端末装置10は、周囲の音を検知し、検知した音に応じて種々の処理を行うデバイス(音声アシスト端末)であってもよい。例えば、端末装置10は、ユーザの発話に対して、処理を行う端末装置である。例えば、端末装置10は、ユーザの発話に限らず、端末装置10の周囲の環境音等を収集する。なお、端末装置10は、上記に限らず、種々のセンサを有してもよい。例えば、端末装置10は、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を取得するためのセンサ等の種々のセンサを有してもよい。そして、端末装置10は、各種センサにより検知された種々のセンサ情報を情報処理装置100に送信してもよい。 Furthermore, the terminal device 10 has a sound sensor such as a microphone that detects sound. For example, the terminal device 10 detects the user's utterances around the terminal device 10 using a sound sensor. For example, the terminal device 10 may be a device (voice assist terminal) that detects surrounding sounds and performs various processes depending on the detected sounds. For example, the terminal device 10 is a terminal device that processes a user's utterance. For example, the terminal device 10 collects not only the user's utterances but also environmental sounds around the terminal device 10 and the like. Note that the terminal device 10 is not limited to the above, and may include various sensors. For example, the terminal device 10 includes various sensors such as an acceleration sensor, a gyro sensor, a temperature sensor, a humidity sensor, an illuminance sensor, a pressure sensor, a proximity sensor, and sensors for acquiring biological information such as odor, sweat, heartbeat, pulse, and brain waves. It may have a sensor. Then, the terminal device 10 may transmit various sensor information detected by various sensors to the information processing device 100.

また、端末装置10は、音声認識の機能を有してもよい。また、端末装置10は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、情報処理システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、端末装置10や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを推定したりするものとして、適宜説明を省略する。 Further, the terminal device 10 may have a voice recognition function. Furthermore, the terminal device 10 may be able to acquire information from a speech recognition server that provides speech recognition services. In this case, the information processing system 1 may include a voice recognition server. In the example of FIG. 1, it is assumed that the terminal device 10 and the voice recognition server appropriately use various conventional techniques to recognize the user's utterances and estimate the user who has uttered the utterances, so the explanation will be omitted as appropriate.

また、端末装置10は、画像センサ等を有してもよい。例えば、端末装置10は、赤外線センサや人感センサや温度センサや気圧センサ等の種々の機能を有し、温度や気圧等の端末装置10の周囲の環境に関するセンサ情報を検知し、取得可能であってもよい。また、端末装置10は、情報処理装置100に種々の情報等を送信する。例えば、端末装置10は、ユーザに関する位置情報等の種々のセンサ情報を情報処理装置100へ送信する。 Further, the terminal device 10 may include an image sensor or the like. For example, the terminal device 10 has various functions such as an infrared sensor, a human sensor, a temperature sensor, and an atmospheric pressure sensor, and can detect and obtain sensor information related to the environment surrounding the terminal device 10, such as temperature and atmospheric pressure. There may be. Further, the terminal device 10 transmits various information and the like to the information processing device 100. For example, the terminal device 10 transmits various sensor information such as location information regarding the user to the information processing device 100.

指向性スピーカ20は、移動体に配置され、所定の方向に向けて音声を出力する音声出力装置である。例えば、指向性スピーカ20は、端末装置10や情報処理装置100等の外部装置との間で情報を送受信する通信機能を有する情報処理装置である。指向性スピーカ20は、音の可聴範囲を比較的狭い角度に限定することが可能な音声出力装置である。例えば、指向性スピーカ20は、高い指向性を有するスピーカであり、所望の方向に位置するユーザのみに向けて、音声を出力することができる。例えば、指向性スピーカ20は、超音波を用いることにより、高い指向性を持たせたスピーカであってもよい。例えば、指向性スピーカ20は、パラメトリック・スピーカであってもよい。なお、指向性スピーカ20は、所望のユーザのみに向けて、音声を出力することが可能であれば、どのような手段により実現されてもよい。なお、ここでいう「所望のユーザのみ」とは、主に所望の対象ユーザが音声を認識可能であることを意味し、対象ユーザ以外の他のユーザに一切の音声が認識されないことを意味するものではない。 The directional speaker 20 is an audio output device that is placed on a moving body and outputs audio in a predetermined direction. For example, the directional speaker 20 is an information processing device that has a communication function for transmitting and receiving information to and from external devices such as the terminal device 10 and the information processing device 100. The directional speaker 20 is an audio output device that can limit the audible range of sound to a relatively narrow angle. For example, the directional speaker 20 is a speaker with high directivity, and can output audio only to a user located in a desired direction. For example, the directional speaker 20 may be a speaker that has high directivity by using ultrasonic waves. For example, directional speaker 20 may be a parametric speaker. Note that the directional speaker 20 may be realized by any means as long as it is capable of outputting audio only to a desired user. Note that "only the desired user" here means that the voice can be recognized mainly by the desired target user, and that the voice is not recognized by any other users other than the target user. It's not a thing.

図1は、移動体C1には、指向性スピーカDS1-1や指向性スピーカDS1-2を含む4つの指向性スピーカ20が配置される場合を示す。センサID「DS1-1」により識別される指向性スピーカ20は、上記のように指向性スピーカDS1-1と記載し、センサID「DS1-2」により識別される指向性スピーカ20は、上記のように指向性スピーカDS1-2と記載する場合がある。このように、各指向性スピーカ20を区別して説明する場合、「指向性スピーカ」の末尾にセンサID(DS1-1等)を付加した記載とする。各指向性スピーカ20について、特に区別なく説明する場合には、単に「指向性スピーカ20」と記載する。 FIG. 1 shows a case where four directional speakers 20, including a directional speaker DS1-1 and a directional speaker DS1-2, are arranged in a moving body C1. The directional speaker 20 identified by the sensor ID "DS1-1" is described as the directional speaker DS1-1 as described above, and the directional speaker 20 identified by the sensor ID "DS1-2" is described as the directional speaker DS1-1 as described above. It is sometimes written as a directional speaker DS1-2. In this way, when each directional speaker 20 is explained separately, the sensor ID (such as DS1-1) is added to the end of "directional speaker" in the description. When describing each directional speaker 20 without any particular distinction, it will simply be referred to as "directional speaker 20."

図1の例では、移動体C1には、移動体C1の運転席に向けて音声を出力する指向性スピーカDS1-1、及び移動体C1の助手席に向けて音声を出力する指向性スピーカDS1-2が配置されることを示す。すなわち、移動体C1においては、指向性スピーカDS1-1により運転席に着座したユーザに向けて音声が出力され、指向性スピーカDS1-2により助手席に着座したユーザに向けて音声が出力されることを示す。また、移動体C1には、後部座席の右側に向けて音声を出力する指向性スピーカDS1-3や後部座席の左側に向けて音声を出力する指向性スピーカDS1-4も配置されるが、図1では、説明を簡単にするために、移動体C1の運転席及び助手席にユーザが着座した場合を一例として説明する。 In the example of FIG. 1, the mobile object C1 includes a directional speaker DS1-1 that outputs audio toward the driver's seat of the mobile object C1, and a directional speaker DS1 that outputs audio toward the passenger seat of the mobile object C1. -2 indicates that it is placed. That is, in the mobile object C1, the directional speaker DS1-1 outputs audio to the user seated in the driver's seat, and the directional speaker DS1-2 outputs audio to the user seated in the passenger seat. Show that. Furthermore, a directional speaker DS1-3 that outputs audio toward the right side of the rear seat and a directional speaker DS1-4 that outputs audio toward the left side of the rear seat are also arranged in the mobile object C1. 1, in order to simplify the explanation, an example will be described in which a user is seated in the driver's seat and passenger seat of the mobile object C1.

図1に示すように、指向性スピーカDS1-1は、移動体C1の運転席に着座したユーザ(「運転者」ともいう)の位置に向けて音声が出力されるように設置されており、運転者のみに向けて音声を出力する。例えば、指向性スピーカDS1-1は、端末装置TM1-1や情報処理装置100からコンテンツに関する音声を受信し、受信した音声を移動体C1の運転席の頭部付近に向けて出力する。 As shown in FIG. 1, the directional speaker DS1-1 is installed so that audio is output toward the position of a user (also referred to as a "driver") seated in the driver's seat of the mobile object C1. Outputs audio only to the driver. For example, the directional speaker DS1-1 receives audio related to content from the terminal device TM1-1 or the information processing device 100, and outputs the received audio toward the vicinity of the head of the driver's seat of the mobile object C1.

また、図1に示すように、指向性スピーカDS1-2は、移動体C1の助手席に着座したユーザの位置に向けて音声が出力されるように設置されており、助手席に着座したユーザのみに向けて音声を出力する。例えば、指向性スピーカDS1-1は、端末装置TM1-1や情報処理装置100からコンテンツに関する音声を受信し、受信した音声を移動体C1の助手席に着座したユーザの頭部付近に向けて出力する。 Further, as shown in FIG. 1, the directional speaker DS1-2 is installed so that audio is output toward the position of the user seated in the passenger seat of the mobile object C1. Outputs audio only to the user. For example, the directional speaker DS1-1 receives audio related to content from the terminal device TM1-1 or the information processing device 100, and outputs the received audio toward the vicinity of the head of the user seated in the passenger seat of the mobile object C1. do.

情報処理装置100は、対象位置情報に基づいて、コンテンツの提供対象となるユーザ(対象ユーザ)の位置に向けて音声を出力する指向性スピーカを、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカに決定する情報処理装置である。すなわち、情報処理装置100は、対象ユーザに対してコンテンツに関する音声を出力させる出力対象スピーカを決定する決定装置である。また、情報処理装置100は、端末装置10や指向性スピーカ20に提供(配信)するコンテンツに関する音声を決定し、決定した音声を端末装置10や指向性スピーカ20に広告を提供(配信)する。 The information processing device 100 causes a directional speaker that outputs audio toward the location of a user to whom content is to be provided (target user) to output audio related to the content corresponding to the target user based on the target location information. This is an information processing device that is determined as a target speaker. That is, the information processing device 100 is a determining device that determines an output target speaker that outputs audio related to content to a target user. Further, the information processing device 100 determines the audio related to the content to be provided (distributed) to the terminal device 10 and the directional speaker 20, and provides (distributes) the determined audio to the terminal device 10 and the directional speaker 20 as an advertisement.

また、情報処理システム1には、図示を省略するが情報処理装置100等に種々の情報を提供する情報提供装置が含まれてもよい。例えば、情報提供装置は、いわゆる広く開かれた利用が許可されているデータであるオープンデータを情報処理装置100へ提供する報処理装置である。例えば、情報提供装置は、各自治体が管理し、自治体が保有するデータをオープンデータとして外部に提供する情報処理装置であってもよい。また、例えば、情報提供装置は、気象庁が管理するサーバ等の種々の情報処理装置であってもよい。情報提供装置は、利用が許可されているデータ(情報)であれば、上記に限らず、道路情報等の交通に関するオープンデータや天気や気温等の気象に関するオープンデータや地理空間情報、防災・減災情報、調達情報、統計情報等の種々のオープンデータを提供してもよい。情報処理装置100は、情報提供装置から種々の情報を取得してもよい。 Furthermore, although not shown, the information processing system 1 may include an information providing device that provides various information to the information processing device 100 and the like. For example, the information providing device is an information processing device that provides the information processing device 100 with open data, which is data that is widely permitted to be used. For example, the information providing device may be an information processing device that is managed by each local government and provides data held by the local government to the outside as open data. Further, for example, the information providing device may be various information processing devices such as a server managed by the Japan Meteorological Agency. The information providing device may provide data (information) that is permitted to be used, including but not limited to the above, open data related to traffic such as road information, open data related to meteorology such as weather and temperature, geospatial information, disaster prevention and mitigation. Various open data such as information, procurement information, statistical information, etc. may be provided. The information processing device 100 may acquire various information from an information providing device.

ここから、図1を用いて、情報処理の流れについて説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、移動体C1の位置に基づいて対象ユーザを決定し、対象ユーザに応じたコンテンツに関する音声を対象ユーザに提供する提供処理の一例を示す図である。 From here, the flow of information processing will be explained using FIG. FIG. 1 is a diagram illustrating an example of information processing according to an embodiment. Specifically, FIG. 1 is a diagram illustrating an example of a providing process in which a target user is determined based on the position of the mobile object C1 and audio related to content according to the target user is provided to the target user.

図1の例では、マップ情報MP1に示す自動車である移動体C1がユーザU1を運転し、ユーザU1の子どもが助手席に乗車している場合を示す。また、図1では、移動体C1には、ユーザU1が利用する端末装置TM1-1が配置されている場合を示す。端末装置TM1-1は、車載用スマートスピーカであってもよい。端末装置TM1-1は、種々のセンサにより、センサ情報を検知し、情報処理装置100へ送信する。例えば、端末装置TM1-1は、音センサにより移動体C1内におけるユーザU1やユーザU2の発話を検知し、情報処理装置100へ送信する。また、端末装置TM1-1は、位置センサにより検知した位置情報を情報処理装置100へ送信する。なお、図1の例では位置情報を、位置情報LC1-1等の抽象的な符号で図示するが、位置情報は、具体的な緯度や経度を示す情報(緯度経度情報)等であってもよい。また、以下、「位置情報LC*(*は任意の数値等の文字列)」を「位置LC*」と記載する場合がある。例えば、「位置LC1-1」と記載した場合、その位置は位置情報LC1-1に対応する位置であることを示す。 In the example of FIG. 1, a case is shown in which a mobile object C1, which is a car shown in map information MP1, is driving a user U1, and a child of the user U1 is riding in the passenger seat. Further, FIG. 1 shows a case where a terminal device TM1-1 used by a user U1 is arranged in the mobile C1. The terminal device TM1-1 may be an in-vehicle smart speaker. The terminal device TM1-1 detects sensor information using various sensors and transmits it to the information processing device 100. For example, the terminal device TM1-1 detects the utterances of the user U1 and the user U2 within the mobile body C1 using a sound sensor, and transmits the detected utterances to the information processing device 100. Furthermore, the terminal device TM1-1 transmits position information detected by the position sensor to the information processing device 100. In addition, in the example of FIG. 1, the location information is illustrated by an abstract code such as location information LC1-1, but the location information may be information indicating concrete latitude and longitude (latitude and longitude information), etc. good. Further, hereinafter, "position information LC* (* is a character string such as an arbitrary numerical value)" may be written as "position LC*". For example, when "position LC1-1" is written, it indicates that the position corresponds to position information LC1-1.

そして、図1の例では、移動体C1の位置が位置LC1-1から位置LC1-2に移動する。例えば、ユーザU1の運転等により、移動体C1は、位置LC1-2に移動する。移動体C1に配置された端末装置TM1-1は、検知されたセンサ情報SN1-1を情報処理装置100へ送信する。端末装置TM1-1は、画像センサにより検知された動画像の画像情報であるセンサ情報SN1-1を情報処理装置100へ送信する。図1の例では、端末装置TM1-1は、移動体C1の内部を撮像した動画であるセンサ情報SN1-1を情報処理装置100へ送信する。図1の例では、センサ情報SN1-1には、移動体C1の運転席にユーザU1が着座し、移動体C1の運転席にユーザU1の子どもが着座し、移動体C1の後部座席には誰もいないことを示す情報が含まれるものとする。 In the example of FIG. 1, the position of the moving body C1 moves from the position LC1-1 to the position LC1-2. For example, the moving object C1 moves to the position LC1-2 due to the driving of the user U1. The terminal device TM1-1 located in the mobile body C1 transmits the detected sensor information SN1-1 to the information processing device 100. The terminal device TM1-1 transmits sensor information SN1-1, which is image information of a moving image detected by an image sensor, to the information processing device 100. In the example of FIG. 1, the terminal device TM1-1 transmits sensor information SN1-1, which is a moving image of the inside of the mobile body C1, to the information processing device 100. In the example of FIG. 1, sensor information SN1-1 indicates that the user U1 is seated in the driver's seat of the moving object C1, the child of the user U1 is seated in the driver's seat of the moving object C1, and the child of the user U1 is seated in the driver's seat of the moving object C1. Information indicating that no one is present shall be included.

例えば、端末装置TM1-1は、センサ情報SN1-1が検知された位置LC1-2を示す位置情報やセンサ情報SN1-1が日時dt1-1に検知されたことを示す日時情報をセンサ情報SN1-1に対応付けて情報処理装置100に送信する。例えば、端末装置TM1-1は、端末装置TM1-1の位置情報やセンサ情報SN1-1が検知された日時の情報をセンサ情報SN1-1とともに情報処理装置100に送信する。また、例えば、端末装置TM1-1は、センサ情報SN1-1の取得元が端末装置TM1-1であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1-1に対応付けて情報処理装置100に送信する。例えば、端末装置TM1-1は、端末装置TM1-1の端末ID等をセンサ情報SN1-1とともに情報処理装置100に送信する。なお、端末装置TM1-1は、センサ情報等を検知する毎にリアルタイムに、情報処理装置100にセンサ情報等の種々の情報を送信してもよいし、所定の間隔(例えば5分間隔など)で、情報処理装置100にセンサ情報等の種々の情報を送信してもよい。 For example, the terminal device TM1-1 transmits the position information indicating the position LC1-2 where the sensor information SN1-1 was detected and the date and time information indicating that the sensor information SN1-1 was detected at the date and time dt1-1 to the sensor information SN1. -1 and is transmitted to the information processing apparatus 100. For example, the terminal device TM1-1 transmits location information of the terminal device TM1-1 and information on the date and time when the sensor information SN1-1 was detected to the information processing device 100 together with the sensor information SN1-1. Further, for example, the terminal device TM1-1 associates terminal information (terminal ID, etc.) with the sensor information SN1-1 that makes it possible to identify that the acquisition source of the sensor information SN1-1 is the terminal device TM1-1. It is transmitted to the information processing device 100. For example, the terminal device TM1-1 transmits the terminal ID of the terminal device TM1-1 and the like to the information processing device 100 together with the sensor information SN1-1. Note that the terminal device TM1-1 may transmit various information such as sensor information to the information processing device 100 in real time every time it detects sensor information, or at predetermined intervals (for example, every 5 minutes). Various information such as sensor information may be transmitted to the information processing device 100.

これにより、情報処理装置100は、センサ情報SN1-1や位置情報や日時情報や端末情報等を取得する(ステップS11)。図1の例では、情報処理装置100は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。情報処理装置100は、センサ情報SN1-1の取得元は、端末装置TM1-1であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1-1を取得する。また、情報処理装置100は、センサ情報SN1-1が日時dt1-1において、位置LC1-2で取得(検知)されたことを示す情報を取得する。 Thereby, the information processing device 100 acquires the sensor information SN1-1, location information, date and time information, terminal information, etc. (step S11). In the example of FIG. 1, the information processing apparatus 100 acquires the log identified by the log ID "LG11" as shown in list information SLST1. The information processing device 100 acquires information indicating that the acquisition source of the sensor information SN1-1 is the terminal device TM1-1. The information processing device 100 acquires sensor information SN1-1 whose type is "image", that is, a moving image. The information processing device 100 also obtains information indicating that the sensor information SN1-1 was obtained (detected) at the position LC1-2 at the date and time dt1-1.

動画であるセンサ情報SN1-1を取得した情報処理装置100は、センサ情報SN1-1を解析する(ステップS12)。図1の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-1を解析することにより、移動体C1内の各位置(「車内位置」ともいう)におけるユーザの着座を推定する。 The information processing device 100 that has acquired the sensor information SN1-1, which is a moving image, analyzes the sensor information SN1-1 (step S12). In the example of FIG. 1, the information processing device 100 analyzes the sensor information SN1-1 using various conventional techniques related to image analysis and image processing as appropriate, and calculates each position within the moving body C1 (“in-vehicle position”). estimating the user's seating position at

情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の移動体情報記憶部124に示すように、センサ情報SN1-1に基づいて、移動体C1の各車内位置におけるユーザの着座有無を推定する。情報処理装置100は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、移動体C1の各車内位置におけるユーザの着座有無を推定する。例えば、情報処理装置100は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、移動体C1の運転席や助手席や後部座席にユーザが着座しているか否かを推定する。また、情報処理装置100は、種々の従来技術を適宜用いて、着座ユーザの属性情報を推定する。例えば、情報処理装置100は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザの性別や年代等の属性情報を推定する。例えば、情報処理装置100は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザが大人であるか子供であるかを推定する。例えば、情報処理装置100は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザが例えば20代以上の大人であるか、例えば10代以下の子供であるかを推定する。 The information processing device 100 appropriately uses various conventional techniques related to image analysis and image processing to determine each of the moving objects C1 based on the sensor information SN1-1, as shown in the moving object information storage section 124 in FIG. Estimate whether a user is seated in the vehicle. The information processing device 100 estimates whether a user is seated at each position in the vehicle C1 by appropriately using various conventional techniques related to object recognition such as specific object recognition. For example, the information processing device 100 uses various conventional techniques related to object recognition such as specific object recognition as appropriate to estimate whether a user is seated in the driver's seat, passenger seat, or rear seat of the mobile object C1. Further, the information processing device 100 uses various conventional techniques as appropriate to estimate the attribute information of the seated user. For example, the information processing device 100 estimates attribute information such as the gender and age of the seated user by appropriately using various conventional techniques related to human face recognition. For example, the information processing device 100 estimates whether the seated user is an adult or a child, appropriately using various conventional techniques related to human face recognition. For example, the information processing device 100 appropriately uses various conventional techniques related to human face recognition to estimate whether the seated user is an adult in his or her 20s or older, or a child in his or her teens or younger.

図1中の移動体情報記憶部124に示す「移動体ID」は、移動体を識別するための識別情報を示す。図1中の移動体情報記憶部124に示す「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。 The "mobile body ID" shown in the mobile body information storage section 124 in FIG. 1 indicates identification information for identifying a mobile body. The "vehicle terminal ID" shown in the mobile body information storage section 124 in FIG. 1 indicates information that identifies a terminal device mounted on a mobile body.

図1中の移動体情報記憶部124に示す「車内位置情報」は、移動体内においてユーザが着座する位置に関する情報を示す。「車内位置情報」には、「車内位置#1(運転席)」や「車内位置#2(助手席)」といった項目が含まれる。「車内位置#1(運転席)」や「車内位置#2(助手席)」には、「車内位置ID」や「スピーカID」や「着座ユーザ」といった項目が含まれる。なお、図5の例では、「車内位置#1(運転席)」、「車内位置#2(助手席)」のみを図示するが、「車内位置#3(右後部座席)」や「車内位置#4(左後部座席)」等、対応する移動体においてユーザが着座する位置の数に応じた項目が含まれるものとする。 "In-vehicle position information" shown in the moving body information storage unit 124 in FIG. 1 indicates information regarding the position where the user is seated within the moving body. The "in-vehicle position information" includes items such as "in-vehicle position #1 (driver's seat)" and "in-vehicle position #2 (passenger seat)." “In-vehicle position #1 (driver's seat)” and “in-vehicle position #2 (passenger seat)” include items such as “in-vehicle position ID,” “speaker ID,” and “seated user.” In addition, in the example of FIG. 5, only "in-vehicle position #1 (driver's seat)" and "in-vehicle position #2 (passenger seat)" are illustrated, but "in-vehicle position #3 (right rear seat)" and "in-vehicle position Items such as "#4 (left rear seat)" are included depending on the number of positions where the user is seated in the corresponding moving object.

図1中の移動体情報記憶部124に示す「車内位置ID」は、対応する車内位置を識別する情報を示す。図1中の移動体情報記憶部124に示す「スピーカID」は、対応する車内位置に対応付けられた指向性スピーカを識別する情報を示す。図1中の移動体情報記憶部124に示す「着座ユーザ」は、対応する車内位置に着座しているユーザに関する情報を示す。 The "in-vehicle position ID" shown in the mobile object information storage section 124 in FIG. 1 indicates information that identifies the corresponding in-vehicle position. The "speaker ID" shown in the mobile object information storage section 124 in FIG. 1 indicates information that identifies the directional speaker associated with the corresponding in-vehicle position. "Seated user" shown in the mobile object information storage unit 124 in FIG. 1 indicates information regarding a user seated at a corresponding position in the vehicle.

図1の例では、移動体ID「C1」により識別される移動体(移動体C1)は、搭載される端末装置が車載端末ID「TM1-1」により識別される端末装置であることを示す。すなわち、移動体C1は、搭載される端末装置が端末装置TM1-1であることを示す。 In the example of FIG. 1, the mobile object (mobile object C1) identified by the mobile object ID "C1" indicates that the terminal device installed therein is the terminal device identified by the in-vehicle terminal ID "TM1-1". . That is, the mobile object C1 indicates that the terminal device mounted thereon is the terminal device TM1-1.

また、移動体C1における運転席の位置であって、車内位置ID「CSP1-1」により識別される位置には、スピーカID「DS1-1」により識別される指向性スピーカ(指向性スピーカDS1-1)が対応付けられていることを示す。また、移動体C1における助手席の位置であって、車内位置ID「CSP1-2」により識別される位置には、スピーカID「DS1-2」により識別される指向性スピーカ(指向性スピーカDS1-2)が対応付けられていることを示す。 Further, at the position of the driver's seat in the mobile object C1, which is identified by the in-vehicle position ID "CSP1-1", there is a directional speaker (directional speaker DS1-1) identified by the speaker ID "DS1-1". 1) is associated. In addition, at the position of the passenger seat in the mobile object C1, which is identified by the in-vehicle position ID "CSP1-2," there is a directional speaker (directional speaker DS1-2) identified by the speaker ID "DS1-2." 2) is associated.

図1の例では、情報処理装置100は、センサ情報SN1-1に基づいて、移動体C1における運転席及び助手席にユーザが着座していると推定する。例えば、情報処理装置100は、センサ情報SN1-1において、移動体C1における運転席に対応する位置に、人の外形に対応する所定の物体が含まれる場合、運転席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の運転席にユーザが着座していると推定する。例えば、情報処理装置100は、人の認識に関する種々の従来技術を適宜用いて、移動体C1の運転席にユーザが着座していると推定する。例えば、情報処理装置100は、人の形状を認識する種々の従来技術を適宜用いて、移動体C1の運転席にユーザが着座していると推定する。 In the example of FIG. 1, the information processing device 100 estimates that a user is seated in the driver's seat and the passenger seat of the mobile object C1 based on the sensor information SN1-1. For example, the information processing device 100 determines that a user is seated in the driver's seat when a predetermined object corresponding to the external shape of a person is included in the position corresponding to the driver's seat in the moving body C1 in the sensor information SN1-1. It is estimated that For example, the information processing device 100 uses various conventional techniques related to object recognition as appropriate to estimate that a user is seated in the driver's seat of the mobile object C1. For example, the information processing device 100 uses various conventional techniques related to human recognition as appropriate to estimate that a user is seated in the driver's seat of the mobile object C1. For example, the information processing device 100 estimates that the user is seated in the driver's seat of the mobile object C1, appropriately using various conventional techniques for recognizing the shape of a person.

例えば、情報処理装置100は、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域の情報に基づいて、移動体C1の運転席の着座ユーザが大人男性であると推定してもよい。また、例えば、情報処理装置100は、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域の情報に基づいて、移動体C1の運転席の着座ユーザが大人男性であるユーザU1であると推定してもよい。 For example, the information processing device 100 estimates that the user sitting in the driver's seat of the mobile object C1 is an adult male based on the information on the face area of the user sitting in the driver's seat of the mobile object C1 in the sensor information SN1-1. It's okay. Further, for example, the information processing device 100 determines that the user sitting in the driver's seat of the mobile body C1 is an adult male based on the information on the face area of the user sitting in the driver's seat of the mobile body C1 in the sensor information SN1-1. It may be estimated that it is U1.

例えば、情報処理装置100は、記憶部120(図3参照)に記憶されたユーザU1の顔写真等の画像情報を用いて、ユーザU1であると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶されたユーザU1の顔写真と、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域とを比較することにより、移動体C1の運転席の着座ユーザがユーザU1であると推定してもよい。 For example, the information processing apparatus 100 may estimate that the user U1 is the user U1 using image information such as a facial photograph of the user U1 stored in the storage unit 120 (see FIG. 3). For example, the information processing device 100 compares the face photo of the user U1 stored in the storage unit 120 (see FIG. 3) with the face area of the user seated in the driver's seat of the mobile object C1 in the sensor information SN1-1. Therefore, it may be estimated that the user sitting in the driver's seat of the mobile object C1 is the user U1.

また、例えば、情報処理装置100は、センサ情報SN1-1において、移動体C1における助手席に対応する位置に、人の外形に対応する所定の物体が含まれる場合、助手席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。例えば、情報処理装置100は、人の形状を認識する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。 For example, if the sensor information SN1-1 includes a predetermined object corresponding to the external shape of a person at the position corresponding to the passenger seat in the moving body C1, the information processing device 100 determines that the user is seated in the passenger seat. It is estimated that For example, the information processing device 100 uses various conventional techniques related to object recognition as appropriate to estimate that a user is seated in the passenger seat of the mobile object C1. For example, the information processing device 100 uses various conventional techniques related to object recognition as appropriate to estimate that a user is seated in the passenger seat of the mobile object C1. For example, the information processing device 100 estimates that a user is seated in the passenger seat of the mobile object C1, using various conventional techniques for recognizing the shape of a person.

例えば、情報処理装置100は、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。また、例えば、情報処理装置100は、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。 For example, the information processing device 100 estimates that the user sitting in the passenger seat of the mobile object C1 is a child based on the information on the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-1. Good too. For example, the information processing device 100 estimates that the user sitting in the passenger seat of the mobile object C1 is a child based on the information on the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-1. You may.

例えば、情報処理装置100は、記憶部120(図3参照)に記憶された子どもや大人の顔写真等の画像情報を用いて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された子どもの顔写真と、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域とを比較し、顔領域と子どもの顔写真とは非類似であると判定することにより、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された大人の顔写真と、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域とを比較し、顔領域と大人の顔写真とは非類似であると判定することにより、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。なお、上記は一例であり、情報処理装置100は、着座ユーザが子供であるかの推定が可能であれば、どのような方法により、着座ユーザのユーザ属性の推定を行ってもよい。 For example, the information processing device 100 estimates that the user sitting in the passenger seat of the mobile object C1 is a child, using image information such as face photographs of children and adults stored in the storage unit 120 (see FIG. 3). It's okay. For example, the information processing device 100 compares the face photo of the child stored in the storage unit 120 (see FIG. 3) with the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-1, By determining that the face area and the child's face photo are dissimilar, it may be estimated that the user sitting in the passenger seat of the mobile object C1 is a child. For example, the information processing device 100 compares the face photo of an adult stored in the storage unit 120 (see FIG. 3) with the face area of the user seated in the passenger seat of the mobile object C1 in the sensor information SN1-1, By determining that the face area and the adult face photo are dissimilar, it may be estimated that the user sitting in the passenger seat of the mobile object C1 is a child. Note that the above is an example, and the information processing apparatus 100 may estimate the user attributes of the seated user using any method as long as it is possible to estimate whether the seated user is a child.

また、情報処理装置100は、センサ情報SN1-1に基づいて、移動体C1における後部座席には誰も着座していないと推定する。例えば、情報処理装置100は、センサ情報SN1-1において、移動体C1における後部座席に対応する位置に、人の外形に対応する所定の物体が含まれない場合、後部座席にユーザが着座していないと推定する。 Further, the information processing device 100 estimates that no one is seated in the rear seat of the mobile object C1 based on the sensor information SN1-1. For example, in the sensor information SN1-1, if a predetermined object corresponding to the external shape of a person is not included in the position corresponding to the rear seat of the mobile object C1, the information processing device 100 determines that the user is seated in the rear seat. It is assumed that there is no.

なお、上記は一例であり、情報処理装置100は、種々の従来技術を適宜用いて、動画を解析し、車内位置におけるユーザの着座有無の推定を行ってもよい。また、情報処理装置100は、動画の解析サービスを提供する外部の情報処理装置(解析装置)に動画(センサ情報)を送信することにより、外部の情報処理装置から、動画(センサ情報)の解析した結果である、車内位置におけるユーザの着座有無の推定した結果を取得してもよい。 Note that the above is just an example, and the information processing device 100 may use various conventional techniques as appropriate to analyze the video and estimate whether the user is seated in the vehicle. In addition, the information processing device 100 transmits the video (sensor information) to an external information processing device (analysis device) that provides a video analysis service, so that the information processing device 100 can analyze the video (sensor information) from the external information processing device. The estimated result of whether or not the user is seated in the vehicle may be acquired.

上記のような処理により、情報処理装置100は、図1中の移動体情報記憶部124に示すように、移動体C1における運転席の着座ユーザが、大人男性であるユーザU1であることを示す情報を取得する。また、情報処理装置100は、図1中の移動体情報記憶部124に示すように、移動体C1における助手席の着座ユーザが、子どもであることを示す情報を取得する。 Through the above-described processing, the information processing device 100 indicates that the user sitting in the driver's seat of the moving object C1 is the user U1, who is an adult male, as shown in the moving object information storage unit 124 in FIG. Get information. Further, the information processing device 100 acquires information indicating that the user sitting in the passenger seat of the moving body C1 is a child, as shown in the moving body information storage unit 124 in FIG.

そして、情報処理装置100は、対象ユーザを決定する(ステップS13)。例えば、情報処理装置100は、移動体C1内に位置する複数のユーザのうち、運転者以外の乗車者を対象ユーザに決定する。図1の例では、情報処理装置100は、移動体C1の助手席に着座する子ども(「子供ユーザCU」とする)を対象ユーザに決定する。そして、情報処理装置100は、図1中の移動体情報記憶部124から、対象ユーザである子供ユーザCUの位置(対象位置情報)が、移動体C1の助手席であることを示す情報を取得する。情報処理装置100は、図1中の移動体情報記憶部124から、対象ユーザである子供ユーザCUの対象位置情報として、車内位置ID「CPS1-2」により識別される車内位置である移動体C1の助手席を示す情報を取得する。 Then, the information processing device 100 determines a target user (step S13). For example, the information processing device 100 determines a passenger other than the driver as the target user among the plurality of users located in the mobile object C1. In the example of FIG. 1, the information processing apparatus 100 determines a child (referred to as "child user CU") sitting in the passenger seat of the mobile object C1 as the target user. Then, the information processing device 100 acquires information indicating that the position (target position information) of the child user CU, who is the target user, is in the passenger seat of the mobile body C1 from the mobile body information storage unit 124 in FIG. do. The information processing device 100 retrieves a moving object C1, which is the in-vehicle position identified by the in-vehicle position ID "CPS1-2," from the moving object information storage unit 124 in FIG. Obtain information indicating the passenger seat.

なお、上記の対象ユーザの決定は一例であり、情報処理装置100は、種々の情報を適宜用いて対象ユーザを決定してもよい。例えば、出力するコンテンツに応じて対象ユーザを決定してもよい。例えば、ユーザU1を対象とするコンテンツの出力が要求される場合は、ユーザU1を対象ユーザとしてもよいが、この点については後述する。 Note that the above determination of the target user is an example, and the information processing apparatus 100 may determine the target user using various types of information as appropriate. For example, target users may be determined depending on the content to be output. For example, if output of content targeted at user U1 is requested, user U1 may be the target user, but this point will be described later.

そして、情報処理装置100は、コンテンツを決定する(ステップS14)。情報処理装置100は、移動体C1の位置やコンテンツの出力条件(単に「出力条件」ともいう)に基づいて、コンテンツを決定する。情報処理装置100は、対象とするユーザの属性やコンテンツの出力タイミングに関する出力条件に基づいて、コンテンツを決定する。図1の例では、情報処理装置100は、移動体C1の位置LC1-2や、コンテンツ情報記憶部123に示す各出力条件に基づいて、子供ユーザCUに提供するコンテンツを決定する。 Then, the information processing device 100 determines the content (step S14). The information processing device 100 determines content based on the position of the mobile object C1 and content output conditions (also simply referred to as "output conditions"). The information processing apparatus 100 determines the content based on the attributes of the target user and the output conditions regarding the output timing of the content. In the example of FIG. 1, the information processing device 100 determines the content to be provided to the child user CU based on the position LC1-2 of the mobile object C1 and each output condition shown in the content information storage unit 123.

図1中のコンテンツ情報記憶部123に示す「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、コンテンツを示す。「提供元ID」は、コンテンツの提供元を識別するための識別情報を示す。 "Content ID" shown in the content information storage unit 123 in FIG. 1 indicates identification information for identifying content. "Content" indicates content. “Provider ID” indicates identification information for identifying a content provider.

図1中のコンテンツ情報記憶部123に示す「出力条件」は、コンテンツIDにより識別されるコンテンツの配信条件(出力条件)を示す。「出力条件」には、「ターゲットユーザ」、「タイミング」といった項目が含まれる。「ターゲットユーザ」は、コンテンツIDにより識別されるコンテンツを出力するターゲットとする対象(ユーザ)を示す。「ターゲットユーザ」は、コンテンツの出力対象となるユーザの属性を示す。「タイミング」は、コンテンツIDにより識別されるコンテンツを出力するタイミングを示す。「タイミング」は、範囲や時間帯等の種々のタイミング条件であってもよい。「タイミング」は、所定のPOIとの位置関係やコンテキスト等の種々のタイミング条件であってもよい。 The "output condition" shown in the content information storage unit 123 in FIG. 1 indicates the distribution condition (output condition) of the content identified by the content ID. The "output conditions" include items such as "target user" and "timing." “Target user” indicates a target (user) to whom the content identified by the content ID is to be output. “Target user” indicates the attributes of the user to whom the content is output. "Timing" indicates the timing at which the content identified by the content ID is output. "Timing" may be various timing conditions such as range or time zone. "Timing" may be various timing conditions such as a positional relationship with a predetermined POI or a context.

図1に示す例では、コンテンツID「CD1」により識別されるコンテンツ(コンテンツCT1)は、そのコンテンツが「CT1」であることを示す。コンテンツCT1の広告主は、Aおもちゃ店である店舗SP1であることを示す。コンテンツCT1の対象に関する条件は、「子ども」であることを示す。すなわち、コンテンツCT1は、「子ども」をターゲット属性として出力されるコンテンツであることを示す。コンテンツCT1のタイミングに関する条件は、「範囲AR1(半径1km)」であることを示す。すなわち、コンテンツCT1は、Aおもちゃ店から「範囲AR1(半径1km)」に位置するタイミングを出力されるコンテンツであることを示す。 In the example shown in FIG. 1, the content (content CT1) identified by the content ID "CD1" indicates that the content is "CT1." The advertiser of content CT1 is store SP1, which is toy store A. The condition regarding the target of content CT1 indicates that it is a "child." That is, the content CT1 indicates that the content is output with "child" as the target attribute. The condition regarding the timing of content CT1 indicates that it is "range AR1 (1 km radius)". That is, the content CT1 indicates that the content is outputted from the toy store A at a timing located within the "range AR1 (radius 1 km)".

例えば、情報処理装置100は、出力条件に基づいてコンテンツを決定する。図1の例では、情報処理装置100は、対象やタイミングに関する出力条件を満たすコンテンツを、端末装置TM1-1に出力させるコンテンツに決定する。 For example, the information processing device 100 determines content based on output conditions. In the example of FIG. 1, the information processing device 100 determines content that satisfies output conditions regarding target and timing as content to be output to the terminal device TM1-1.

情報処理装置100は、対象ユーザの属性が、出力条件のターゲットユーザに該当する場合、対象ユーザが出力条件のターゲットユーザを満たすと判定する。情報処理装置100は、対象ユーザの属性と、各コンテンツの出力条件「ターゲットユーザ」とを比較することにより、対象ユーザが出力条件のターゲットユーザを満たすかどうかを判定する。図1の例では、情報処理装置100は、対象ユーザが子どもである子供ユーザCUであるため、コンテンツCT1のターゲットユーザ「子ども」を満たすと判定する。 If the attributes of the target user correspond to the target user of the output condition, the information processing apparatus 100 determines that the target user satisfies the target user of the output condition. The information processing apparatus 100 determines whether the target user satisfies the target user output condition by comparing the attributes of the target user and the output condition "target user" of each content. In the example of FIG. 1, since the target user is a child user CU, the information processing apparatus 100 determines that the target user "child" of the content CT1 is satisfied.

また、情報処理装置100は、移動体C1の位置に基づいて、コンテンツCT1の出力条件「タイミング」を満たすかを判定する。例えば、情報処理装置100は、移動体C1の位置LC1-2がコンテンツCT1のタイミング「範囲AR1」の領域内に位置する場合、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。例えば、情報処理装置100は、移動体C1の位置LC1-2と店舗SP1の位置LC2-1とに基づいて、コンテンツCT1のタイミングに関する出力条件を満たすかを判定する。例えば、情報処理装置100は、POI情報記憶部122(図5参照)からコンテンツCT1に関連するPOIである店舗SP1の所在地(位置LC2-1)を示す位置情報をPOI位置情報として取得する。情報処理装置100は、移動体C1の位置LC1-2と店舗SP1の位置LC2-1とを比較することにより、コンテンツCT1のタイミングに関する出力条件を満たすかを判定する。情報処理装置100は、移動体C1の位置LC1-2と店舗SP1の位置LC2-1との間の距離を算出することにより、コンテンツCT1のタイミングに関する出力条件を満たすかを判定する。この場合、情報処理装置100は、算出したユーザU1と店舗SP1との間の距離が範囲AR1の半径以下である場合、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。例えば、情報処理装置100は、算出したユーザU1と店舗SP1との間の距離が1km以内である場合、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。図1の例では、情報処理装置100は、移動体C1の位置LC1-2が範囲AR1内であるため、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。 Furthermore, the information processing apparatus 100 determines whether the output condition "timing" of the content CT1 is satisfied based on the position of the mobile object C1. For example, the information processing apparatus 100 determines that the output condition regarding the timing of the content CT1 is satisfied when the position LC1-2 of the moving body C1 is located within the timing "range AR1" of the content CT1. For example, the information processing device 100 determines whether the output condition regarding the timing of the content CT1 is satisfied based on the position LC1-2 of the mobile object C1 and the position LC2-1 of the store SP1. For example, the information processing device 100 acquires, as POI position information, position information indicating the location (position LC2-1) of the store SP1, which is a POI related to the content CT1, from the POI information storage unit 122 (see FIG. 5). The information processing device 100 determines whether the output condition regarding the timing of the content CT1 is satisfied by comparing the position LC1-2 of the moving body C1 and the position LC2-1 of the store SP1. The information processing device 100 determines whether the output condition regarding the timing of the content CT1 is satisfied by calculating the distance between the position LC1-2 of the mobile object C1 and the position LC2-1 of the store SP1. In this case, if the calculated distance between the user U1 and the store SP1 is less than or equal to the radius of the range AR1, the information processing device 100 determines that the output condition regarding the timing of the content CT1 is satisfied. For example, if the calculated distance between the user U1 and the store SP1 is within 1 km, the information processing device 100 determines that the output condition regarding the timing of the content CT1 is satisfied. In the example of FIG. 1, the information processing apparatus 100 determines that the output condition regarding the timing of the content CT1 is satisfied because the position LC1-2 of the moving object C1 is within the range AR1.

上記のように、図1の例では、情報処理装置100は、コンテンツCT1が対象及びタイミングに関する出力条件を満たすと判定する。そのため、情報処理装置100は、子供ユーザCUに対して提供するコンテンツをコンテンツCT1に決定する。 As described above, in the example of FIG. 1, the information processing apparatus 100 determines that the content CT1 satisfies the output conditions regarding the target and timing. Therefore, the information processing apparatus 100 determines the content to be provided to the child user CU as the content CT1.

そして、情報処理装置100は、コンテンツCT1を出力するスピーカを決定する(ステップS15)。例えば、情報処理装置100は、移動体C1の指向性スピーカ20のうち、子供ユーザCUの位置に向けて音声を出力する指向性スピーカ20を、コンテンツCT1に関する音声を出力させる出力対象スピーカに決定する。図1の例では、情報処理装置100は、子供ユーザCUが着座している助手席に対応する指向性スピーカDS1-2を出力対象スピーカに決定する。そして、情報処理装置100は、コンテンツCT1を指向性スピーカDS1-2に提供する(ステップS16)。情報処理装置100は、コンテンツCT1を指向性スピーカDS1-2に送信(配信)する。なお、情報処理装置100は、端末装置TM1-1介して指向性スピーカDS1-2にコンテンツCT1を提供してもよい。 Then, the information processing device 100 determines the speaker that outputs the content CT1 (step S15). For example, the information processing device 100 determines, among the directional speakers 20 of the mobile object C1, the directional speaker 20 that outputs audio toward the position of the child user CU as the output target speaker that outputs the audio related to the content CT1. . In the example of FIG. 1, the information processing device 100 determines the directional speaker DS1-2 corresponding to the passenger seat where the child user CU is seated as the output target speaker. Then, the information processing device 100 provides the content CT1 to the directional speaker DS1-2 (step S16). The information processing device 100 transmits (distributes) the content CT1 to the directional speaker DS1-2. Note that the information processing device 100 may provide the content CT1 to the directional speaker DS1-2 via the terminal device TM1-1.

情報処理装置100からコンテンツCT1を受信した指向性スピーカDS1-2は、コンテンツCT1を出力する(ステップS17)。例えば、指向性スピーカDS1-2は、コンテンツCT1に関する音声を子供ユーザCUに向けて出力する。図1の例では、指向性スピーカDS1-2は、Aおもちゃ店である店舗SP1に関するコンテンツCT1を音声出力する。例えば、指向性スピーカDS1-2は、「Aおもちゃ店がこの先にあります」や「AAカード新発売」等のコンテンツCT1を音声出力する。なお、コンテンツCT1は、Aおもちゃ店である店舗SP1に関する広告であれば、どのような広告であってもよい。例えば、音声広告であるコンテンツCT1は、Aおもちゃ店をユーザに想起させる音声情報であればどのような音声情報であってもよい。例えば、コンテンツCT1は、Aおもちゃ店に対応するジングルやサウンドロゴ等の音声情報であってもよい。 The directional speaker DS1-2, which has received the content CT1 from the information processing device 100, outputs the content CT1 (step S17). For example, the directional speaker DS1-2 outputs audio related to the content CT1 toward the child user CU. In the example of FIG. 1, the directional speaker DS1-2 audio outputs the content CT1 related to the store SP1, which is the A toy store. For example, the directional speaker DS1-2 outputs content CT1 such as "A toy store is ahead" or "AA card new release". Note that the content CT1 may be any advertisement as long as it is an advertisement regarding the store SP1, which is the A toy store. For example, the content CT1, which is an audio advertisement, may be any audio information as long as it reminds the user of A toy store. For example, the content CT1 may be audio information such as a jingle or a sound logo corresponding to A toy store.

このように、情報処理装置100は、移動体C1の位置や各コンテンツの出力条件に基づいて、対象ユーザに対して出力するコンテンツを決定することにより、ユーザに対して出力するコンテンツを適切に決定することができる。また、情報処理装置100は、移動体C1内における対象ユーザの着座位置に基づいて、出力対象スピーカを決定することにより、対象ユーザのみに向けてコンテンツを出力させることができる。これにより、情報処理装置100は、対象ユーザである子供ユーザCUに対応する指向性スピーカ20により、子供ユーザCUに対して適切な内容のコンテンツを出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 In this way, the information processing device 100 appropriately determines the content to be output to the user by determining the content to be output to the target user based on the position of the mobile object C1 and the output conditions of each content. can do. Furthermore, the information processing device 100 can output content only to the target user by determining the output target speaker based on the target user's seating position within the mobile body C1. Thereby, the information processing device 100 can output content with appropriate content to the child user CU, using the directional speaker 20 corresponding to the child user CU, who is the target user. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

図1の例では、情報処理装置100は、移動体C1の助手席に対応する指向性スピーカDS1-2のみにコンテンツCT1を出力させることにより、移動体C1の運転席に音が届くことを抑制することができる。すなわち、情報処理装置100は、移動体C1の運転席に音が届くことを抑制するとともに、移動体C1の助手席には音が届くようにすることができるため、運転者の運転に対する注意を妨げることを抑制しつつ、運手者以外のユーザに適切にコンテンツを提供することができる。このように、情報処理装置100は、移動体の安全運転を保ちつつ、移動体内におけるコンテンツ提供を適切に実現することができる。 In the example of FIG. 1, the information processing device 100 suppresses sound from reaching the driver's seat of the mobile object C1 by outputting the content CT1 only to the directional speaker DS1-2 corresponding to the passenger seat of the mobile object C1. can do. In other words, the information processing device 100 can suppress the sound from reaching the driver's seat of the mobile object C1, and allow the sound to reach the passenger seat of the mobile object C1, so that the driver can be careful when driving. It is possible to appropriately provide content to users other than the operator while suppressing interference. In this way, the information processing device 100 can appropriately provide content within the mobile body while maintaining safe driving of the mobile body.

〔1-1.コンテンツ〕
図1の例では、情報処理装置100がAおもちゃ店に関する広告であるコンテンツCT1を提供するコンテンツに決定する場合を示したが、情報処理装置100は、種々のコンテンツを対象ユーザに提供してもよい。情報処理装置100は、子供が座っている場所(車内位置)に、エンタテイメント系の音楽コンテンツを提供してもよい。
[1-1. content〕
The example in FIG. 1 shows a case where the information processing device 100 decides to provide the content CT1, which is an advertisement regarding toy store A, but the information processing device 100 may also provide various contents to the target user. good. The information processing device 100 may provide entertainment music content to the location where the child is sitting (inside the vehicle).

〔1-2.運転者への出力〕
図1の例では、情報処理装置100が移動体C1の助手席に着座したユーザを対象ユーザに決定する場合を示したが、情報処理装置100は、種々の情報を適宜用いて対象ユーザを決定してもよい。例えば、出力するコンテンツに応じて対象ユーザを決定してもよい。例えば、情報処理装置100は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者である対象ユーザの位置を示す対象位置情報を取得し、移動体の運転者に対してコンテンツを出力してもよい。
[1-2. Output to driver]
The example in FIG. 1 shows a case where the information processing device 100 determines the user sitting in the passenger seat of the mobile object C1 as the target user, but the information processing device 100 determines the target user using various information as appropriate. You may. For example, target users may be determined depending on the content to be output. For example, the information processing device 100 acquires target position information indicating the position of a target user who is a driver among a plurality of users located in a car, which is a predetermined mobile body, and provides information to the driver of the mobile body. Content may also be output.

図1の例では、移動体C1の運転者であるユーザU1に所定のユーザ(ユーザX)から電話がかかってきた場合、情報処理装置100は、移動体C1の運転席の位置に対応する指向性スピーカDS1-1に、ユーザXの発話の音声を出力させてもよい。すなわち、情報処理装置100は、ユーザU1の通話先(ユーザX)の発話情報(コンテンツX)は、ユーザU1を対象とするコンテンツであるため、移動体C1の運転席の位置に対応する指向性スピーカDS1-1を、コンテンツXを出力する出力対象スピーカに決定する。そして、指向性スピーカDS1-1は、ユーザU1の通話先であるユーザXの発話情報(コンテンツX)をユーザU1のみに向けて出力する。 In the example of FIG. 1, when user U1, who is the driver of mobile object C1, receives a phone call from a predetermined user (user The audio of user X's utterances may be outputted to sexual speaker DS1-1. In other words, the information processing device 100 determines that the utterance information (content X) of the user U1's call destination (user The speaker DS1-1 is determined as the output target speaker for outputting the content X. Then, the directional speaker DS1-1 outputs the utterance information (content X) of the user X, who is the user U1's call destination, only to the user U1.

このように、通話先の発話情報を出力する出力対象スピーカを決定することにより、例えば、情報処理装置100は、家からお母さんが車に乗っているお父さんだけに話をしたい場合、同乗している子供ではなくお父さんに向けて聞きやすいように通知することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 In this way, by determining the output target speaker that outputs the utterance information of the call destination, the information processing device 100 can, for example, when the mother leaves home and wants to talk only to the father who is riding in the car, the information processing device 100 can Notifications can be directed to fathers rather than children in a way that makes them easier to hear. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

上記のように、本願でいうコンテンツは、ユーザと通話する相手の音声等の種々の情報であってもよい。例えば、コンテンツは、電話等の手段により、音声対話における対象ユーザへの他のユーザの発話であってもよい。この点について、さらに図10を用いて、以下詳述する。図10は、実施形態に係る情報処理の一例を示す図である。具体的には、図10は、コンテンツが他のユーザの発話である場合の情報処理の一例を示す図である。なお、図10において、図1と同様の点については、適宜説明を省略する。 As described above, the content referred to in the present application may be various information such as the voice of the other party with whom the user is speaking. For example, the content may be an utterance by another user to the target user in a voice interaction by means such as a telephone. This point will be further described in detail below using FIG. 10. FIG. 10 is a diagram illustrating an example of information processing according to the embodiment. Specifically, FIG. 10 is a diagram illustrating an example of information processing when the content is utterances of other users. Note that in FIG. 10, descriptions of points similar to those in FIG. 1 will be omitted as appropriate.

ここから、図10を用いて、情報処理の流れについて説明する。図10の例では、マップ情報MP5に示す自動車である移動体C1がユーザU1を運転し、ユーザU1の子どもが助手席に乗車している場合を示す。また、図10では、移動体C1には、ユーザU1が利用する端末装置TM1-1が配置されている場合を示す。図10では、端末装置TM1-1は、所定の音声対話機能により、ユーザに音声対話サービスに関するサービスを提供可能な端末であるものとする。なお、端末装置TM1-1は、ユーザU1が利用するスマートフォン等の携帯端末と、例えばBluetooth(登録商標)等の種々の従来の無線通信に関する技術により通信可能に接続されることにより、ユーザU1に音声対話サービスに関するサービスを提供可能な端末であってもよい。なお、端末装置TM1-1は、ユーザU1が音声対話を行うことができれば、どのような端末であってもよい。図10の例では、端末装置TM1-1が車載用スマートスピーカである場合を示すが、端末装置TM1-1は、ユーザU1が利用するスマートフォン等の携帯端末であってもよい。 From here, the flow of information processing will be explained using FIG. The example of FIG. 10 shows a case where a mobile object C1, which is a car shown in map information MP5, is driving a user U1, and a child of the user U1 is riding in the passenger seat. Further, FIG. 10 shows a case where the mobile body C1 is provided with a terminal device TM1-1 used by the user U1. In FIG. 10, it is assumed that the terminal device TM1-1 is a terminal capable of providing a voice dialogue service-related service to the user using a predetermined voice dialogue function. Note that the terminal device TM1-1 is communicably connected to a mobile terminal such as a smartphone used by the user U1 using various conventional wireless communication technologies such as Bluetooth (registered trademark), so that the terminal device TM1-1 can communicate with a mobile terminal such as a smartphone used by the user U1. The terminal may be a terminal capable of providing a service related to a voice dialogue service. Note that the terminal device TM1-1 may be any type of terminal as long as the user U1 can perform voice dialogue. In the example of FIG. 10, a case is shown in which the terminal device TM1-1 is an in-vehicle smart speaker, but the terminal device TM1-1 may be a mobile terminal such as a smartphone used by the user U1.

まず、図10に示す住宅HM1に対応する位置にいるユーザU2が端末装置TM1-2を用いて、ユーザU1へ発信する(ステップS50)。例えば、ユーザU1及びユーザU2が居住する住宅HM1内に位置するユーザU2は、端末装置TM1-2を用いて、ユーザU1に電話をかける。例えば、情報処理装置100は、端末装置TM1-2から位置情報を取得し、取得した位置情報と、記憶部120(図3参照)に記憶されたユーザU1やユーザU2の自宅の位置を示す情報とを比較することにより、ユーザU2が住宅HM1に位置すると判定してもよい。例えば、情報処理装置100は、端末装置TM1-2から取得した位置が、ユーザU2の自宅の位置から所定の範囲内(例えば10m以内)である場合、ユーザU2が住宅HM1に位置すると判定してもよい。 First, user U2 located at a position corresponding to house HM1 shown in FIG. 10 uses terminal device TM1-2 to make a call to user U1 (step S50). For example, the user U2 located in the house HM1 where the user U1 and the user U2 reside makes a telephone call to the user U1 using the terminal device TM1-2. For example, the information processing device 100 acquires position information from the terminal device TM1-2, and combines the acquired position information with information indicating the home positions of the user U1 and the user U2 stored in the storage unit 120 (see FIG. 3). By comparing the above, it may be determined that the user U2 is located in the residence HM1. For example, if the location acquired from the terminal device TM1-2 is within a predetermined range (for example, within 10 meters) from the user U2's home location, the information processing device 100 determines that the user U2 is located in the residence HM1. Good too.

また、図10の例では、端末装置TM1-1は、音声対話サービスにおいて端末装置TM1-1を特定する識別子である電話番号NM1が割り当てられているものとする。例えば、情報処理装置100は、端末装置TM1-1に電話番号NM1が割り当てられていることを示す割当情報を記憶部120(図3参照)に記憶し、記憶部120に記憶された割当情報を用いて、電話番号NM1から端末装置TM1-1を特定する。図1の例では、情報処理装置100は、ユーザU2が端末装置TM1-2に電話番号NM1を指定し発信した場合、ユーザU2が指定した電話番号NM1と記憶部の割当情報を記憶部120とを比較することにより、電話番号NM1から端末装置TM1-1を特定する。 Furthermore, in the example of FIG. 10, it is assumed that the terminal device TM1-1 is assigned a telephone number NM1, which is an identifier for specifying the terminal device TM1-1 in the voice interaction service. For example, the information processing device 100 stores allocation information indicating that the telephone number NM1 is allocated to the terminal device TM1-1 in the storage unit 120 (see FIG. 3), and stores the allocation information stored in the storage unit 120. to identify the terminal device TM1-1 from the telephone number NM1. In the example of FIG. 1, when the user U2 specifies the phone number NM1 to the terminal device TM1-2 and makes a call, the information processing device 100 stores the phone number NM1 specified by the user U2 and the allocation information of the storage unit in the storage unit 120. By comparing the numbers, the terminal device TM1-1 is identified from the telephone number NM1.

そして、情報処理装置100は、ユーザ情報記憶部121(図4参照)に記憶された情報を用いて、電話番号NM1に対応する端末装置TM1-1に利用ユーザがユーザU1であると特定する。情報処理装置100は、電話番号NM1に対応する端末装置TM1-1と、ユーザ情報記憶部121(図4参照)に記憶された各ユーザの利用端末の情報とを比較することにより、電話番号NM1に対応する端末装置TM1-1に利用ユーザがユーザU1であると特定する。これにより、情報処理装置100は、ユーザU2の発信先がユーザU1であると特定する。すなわち、情報処理装置100は、ユーザU2の音声対話の相手先がユーザU1であると特定する。 Then, the information processing device 100 uses the information stored in the user information storage unit 121 (see FIG. 4) to identify that the user of the terminal device TM1-1 corresponding to the telephone number NM1 is the user U1. The information processing device 100 obtains the telephone number NM1 by comparing the terminal device TM1-1 corresponding to the telephone number NM1 with the information of the terminal used by each user stored in the user information storage unit 121 (see FIG. 4). It is specified that the user of the terminal device TM1-1 corresponding to TM1-1 is the user U1. Thereby, the information processing device 100 identifies the user U1 as the destination of the user U2. That is, the information processing apparatus 100 identifies the user U1 as the other party of the voice dialogue of the user U2.

なお、上記は一例であり、情報処理装置100は、電話等の音声対話サービスに関する種々の従来技術を適宜用いて音声対話の相手先を特定してもよい。また、情報処理装置100は、音声対話サービスに関するサービスを提供してもよいし、音声対話サービスを提供する外部のサービス提供装置から音声対話サービスに関する種々の情報を取得することにより、各種の処理を行ってもよい。 Note that the above is an example, and the information processing device 100 may specify the other party of the voice conversation by appropriately using various conventional techniques related to voice conversation services such as telephone calls. Further, the information processing device 100 may provide a service related to a voice dialogue service, and perform various processing by acquiring various information regarding the voice dialogue service from an external service providing device that provides the voice dialogue service. You may go.

そして、図10の例では、ユーザU2から着信があったユーザU1は、その音声対話の要求を受け入れて、ユーザU2との音声対話を開始する。ユーザU1は、端末装置TM1-1に対して、ユーザU2からの音声対話の要求を受け入れる操作を行うことにより、ユーザU2との音声対話を開始する。また、図10の例では、ユーザU1とユーザU2との音声対話を開始後において、ユーザU2が発話を行い、情報処理装置100は、端末装置TM1-2からユーザU2の発話を示す音声情報を取得する。 In the example of FIG. 10, the user U1 who receives the call from the user U2 accepts the voice dialogue request and starts a voice dialogue with the user U2. The user U1 starts a voice conversation with the user U2 by performing an operation on the terminal device TM1-1 to accept a voice conversation request from the user U2. Further, in the example of FIG. 10, after starting the voice interaction between the user U1 and the user U2, the user U2 makes an utterance, and the information processing device 100 receives voice information indicating the utterance of the user U2 from the terminal device TM1-2. get.

図10の例では、情報処理装置100は、ユーザU2の発話であるコンテンツをコンテンツ情報記憶部123に追加する。図10に示す例では、情報処理装置100は、コンテンツID「CD5」により識別されるコンテンツ(コンテンツCT5)として、ユーザU2の発話をコンテンツ情報記憶部123に追加する。図10中のコンテンツ情報記憶部123に示すように、コンテンツCT5の提供元は、端末装置TM1-2を利用するユーザU2であることを示す。図10中のコンテンツ情報記憶部123に示すように、コンテンツCT5のターゲットユーザは、ユーザU1であることを示す。図10中のコンテンツ情報記憶部123に示すように、コンテンツCT5のタイミングに関する条件は、「提供元の発話」であることを示す。このように、コンテンツCT5は、提供元であるユーザU2の発話であり、ユーザU2の発話を取得したタイミングで出力されることを示す。すなわち、情報処理装置100は、ユーザU2の発話であるコンテンツCT5を取得した場合、リアルタイムに、ターゲットユーザであるユーザU1に提供することを示す。また、情報処理装置100は、ユーザU2が発話する度に、コンテンツCT5の内容をユーザU2の最新の発話に更新し、更新したコンテンツCT5をユーザU1に提供する。 In the example of FIG. 10, the information processing device 100 adds content that is uttered by the user U2 to the content information storage unit 123. In the example shown in FIG. 10, the information processing apparatus 100 adds the utterance of the user U2 to the content information storage unit 123 as the content (content CT5) identified by the content ID "CD5". As shown in the content information storage unit 123 in FIG. 10, the source of the content CT5 is the user U2 who uses the terminal device TM1-2. As shown in the content information storage unit 123 in FIG. 10, the target user of the content CT5 is the user U1. As shown in the content information storage unit 123 in FIG. 10, the condition regarding the timing of the content CT5 indicates that it is "utterance by the provider." In this way, the content CT5 is the utterance of the user U2 who is the provider, and is output at the timing when the utterance of the user U2 is acquired. That is, when the information processing apparatus 100 acquires the content CT5 that is the utterance of the user U2, it is shown that the information processing apparatus 100 provides it to the user U1, who is the target user, in real time. Furthermore, each time the user U2 speaks, the information processing device 100 updates the contents of the content CT5 to the latest utterance of the user U2, and provides the updated content CT5 to the user U1.

なお、情報処理装置100は、ユーザU1とユーザU2との音声対話が終了した場合、コンテンツID「CD5」に対応する情報をコンテンツ情報記憶部123から削除してもよい。情報処理装置100は、ユーザU1とユーザU2のいずれかが音声対話を切断する操作を行った場合、コンテンツID「CD5」に対応する情報をコンテンツ情報記憶部123から削除してもよい。 Note that the information processing apparatus 100 may delete the information corresponding to the content ID "CD5" from the content information storage unit 123 when the voice interaction between the user U1 and the user U2 ends. The information processing device 100 may delete the information corresponding to the content ID “CD5” from the content information storage unit 123 when either the user U1 or the user U2 performs an operation to disconnect the audio dialogue.

移動体C1に配置された端末装置TM1-1は、検知されたセンサ情報SN1-5を情報処理装置100へ送信する。端末装置TM1-1は、画像センサにより検知された動画像の画像情報であるセンサ情報SN1-5を情報処理装置100へ送信する。図10の例では、端末装置TM1-1は、移動体C1の内部を撮像した動画であるセンサ情報SN1-5を情報処理装置100へ送信する。図10の例では、センサ情報SN1-5には、移動体C1の運転席にユーザU1が着座し、移動体C1の運転席にユーザU1の子どもが着座し、移動体C1の後部座席には誰もいないことを示す情報が含まれるものとする。 The terminal device TM1-1 located in the mobile body C1 transmits the detected sensor information SN1-5 to the information processing device 100. The terminal device TM1-1 transmits sensor information SN1-5, which is image information of a moving image detected by an image sensor, to the information processing device 100. In the example of FIG. 10, the terminal device TM1-1 transmits sensor information SN1-5, which is a moving image of the inside of the mobile body C1, to the information processing device 100. In the example of FIG. 10, sensor information SN1-5 indicates that the user U1 is seated in the driver's seat of the moving object C1, the child of the user U1 is seated in the driver's seat of the moving object C1, and the child of the user U1 is seated in the driver's seat of the moving object C1. Information indicating that no one is present shall be included.

例えば、端末装置TM1-1は、センサ情報SN1-5が検知された位置LC1-5を示す位置情報やセンサ情報SN1-5が日時dt1-5に検知されたことを示す日時情報をセンサ情報SN1-5に対応付けて情報処理装置100に送信する。例えば、端末装置TM1-1は、端末装置TM1-1の位置情報やセンサ情報SN1-5が検知された日時の情報をセンサ情報SN1-5とともに情報処理装置100に送信する。また、例えば、端末装置TM1-1は、センサ情報SN1-5の取得元が端末装置TM1-1であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1-5に対応付けて情報処理装置100に送信する。例えば、端末装置TM1-1は、端末装置TM1-1の端末ID等をセンサ情報SN1-5とともに情報処理装置100に送信する。 For example, the terminal device TM1-1 transmits the position information indicating the position LC1-5 where the sensor information SN1-5 was detected and the date and time information indicating that the sensor information SN1-5 was detected at the date and time dt1-5 to the sensor information SN1. -5 and is transmitted to the information processing apparatus 100. For example, the terminal device TM1-1 transmits location information of the terminal device TM1-1 and information on the date and time when the sensor information SN1-5 was detected to the information processing device 100 together with the sensor information SN1-5. For example, the terminal device TM1-1 associates terminal information (terminal ID, etc.) with the sensor information SN1-5 that makes it possible to identify that the acquisition source of the sensor information SN1-5 is the terminal device TM1-1. It is transmitted to the information processing device 100. For example, the terminal device TM1-1 transmits the terminal ID of the terminal device TM1-1 and the like to the information processing device 100 together with the sensor information SN1-5.

これにより、情報処理装置100は、センサ情報SN1-5や位置情報や日時情報や端末情報等を取得する(ステップS51)。図10の例では、情報処理装置100は、一覧情報SLST5に示すように、ログID「LG15」により識別されるログを取得する。情報処理装置100は、センサ情報SN1-5の取得元は、端末装置TM1-1であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1-5を取得する。また、情報処理装置100は、センサ情報SN1-5が日時dt1-5において、位置LC1-5で取得(検知)されたことを示す情報を取得する。 Thereby, the information processing device 100 acquires sensor information SN1-5, location information, date and time information, terminal information, etc. (step S51). In the example of FIG. 10, the information processing apparatus 100 acquires the log identified by the log ID "LG15" as shown in list information SLST5. The information processing device 100 acquires information indicating that the acquisition source of the sensor information SN1-5 is the terminal device TM1-1. The information processing device 100 acquires sensor information SN1-5 whose type is "image", that is, a moving image. Further, the information processing device 100 acquires information indicating that the sensor information SN1-5 was acquired (detected) at the position LC1-5 at the date and time dt1-5.

動画であるセンサ情報SN1-5を取得した情報処理装置100は、センサ情報SN1-5を解析する(ステップS52)。図10の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-5を解析することにより、移動体C1内の各位置(車内位置)におけるユーザの着座を推定する。 The information processing device 100 that has acquired the sensor information SN1-5, which is a moving image, analyzes the sensor information SN1-5 (step S52). In the example of FIG. 10, the information processing device 100 uses various conventional techniques related to image analysis and image processing to analyze sensor information SN1-5, thereby determining the Estimate user seating.

図10の例では、情報処理装置100は、センサ情報SN1-5に基づいて、移動体C1における運転席及び助手席にユーザが着座していると推定する。例えば、情報処理装置100は、人の顔認識に関する種々の従来技術を適宜用いて、移動体C1の運転席の着座ユーザがユーザU1であると推定する。図10の例では、情報処理装置100は、記憶部120(図3参照)に記憶されたユーザU1の顔写真等の画像情報を用いて、移動体C1の運転席の着座ユーザがユーザU1であると推定する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶されたユーザU1の顔写真と、センサ情報SN1-5中の移動体C1の運転席の着座ユーザの顔領域とを比較することにより、移動体C1の運転席の着座ユーザがユーザU1であると推定する。 In the example of FIG. 10, the information processing device 100 estimates that a user is seated in the driver's seat and the passenger seat of the mobile object C1 based on the sensor information SN1-5. For example, the information processing device 100 estimates that the user sitting in the driver's seat of the mobile object C1 is the user U1, using various conventional techniques related to human face recognition as appropriate. In the example of FIG. 10, the information processing device 100 uses image information such as a face photograph of the user U1 stored in the storage unit 120 (see FIG. 3) to determine whether the user sitting in the driver's seat of the mobile object C1 is the user U1. We estimate that there is. For example, the information processing device 100 compares the face photo of the user U1 stored in the storage unit 120 (see FIG. 3) with the face area of the user seated in the driver's seat of the mobile body C1 in the sensor information SN1-5. Therefore, it is estimated that the user sitting in the driver's seat of the mobile object C1 is the user U1.

また、例えば、情報処理装置100は、センサ情報SN1-5において、移動体C1における助手席に対応する位置に、人の外形に対応する所定の物体が含まれる場合、助手席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。例えば、情報処理装置100は、人の形状を認識する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。 Further, for example, if the sensor information SN1-5 includes a predetermined object corresponding to the external shape of a person at the position corresponding to the passenger seat in the moving body C1, the information processing device 100 determines that the user is seated in the passenger seat. It is estimated that For example, the information processing device 100 uses various conventional techniques related to object recognition as appropriate to estimate that a user is seated in the passenger seat of the mobile object C1. For example, the information processing device 100 uses various conventional techniques related to object recognition as appropriate to estimate that a user is seated in the passenger seat of the mobile object C1. For example, the information processing device 100 estimates that a user is seated in the passenger seat of the mobile object C1, using various conventional techniques for recognizing the shape of a person.

例えば、情報処理装置100は、センサ情報SN1-5中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。また、例えば、情報処理装置100は、センサ情報SN1-5中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。 For example, the information processing device 100 estimates that the user sitting in the passenger seat of the mobile object C1 is a child based on the information on the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-5. Good too. For example, the information processing device 100 estimates that the user sitting in the passenger seat of the mobile object C1 is a child based on the information on the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-5. You may.

例えば、情報処理装置100は、記憶部120(図3参照)に記憶された子どもや大人の顔写真等の画像情報を用いて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された子どもの顔写真と、センサ情報SN1-5中の移動体C1の助手席の着座ユーザの顔領域とを比較し、顔領域と子どもの顔写真とは非類似であると判定することにより、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された大人の顔写真と、センサ情報SN1-5中の移動体C1の助手席の着座ユーザの顔領域とを比較し、顔領域と大人の顔写真とは非類似であると判定することにより、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。なお、上記は一例であり、情報処理装置100は、着座ユーザが子供であるかの推定が可能であれば、どのような方法により、着座ユーザのユーザ属性の推定を行ってもよい。 For example, the information processing device 100 estimates that the user sitting in the passenger seat of the mobile object C1 is a child, using image information such as face photographs of children and adults stored in the storage unit 120 (see FIG. 3). You can. For example, the information processing device 100 compares the child's face photograph stored in the storage unit 120 (see FIG. 3) with the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-5, By determining that the face area and the child's face photo are dissimilar, it may be estimated that the user sitting in the passenger seat of the mobile object C1 is a child. For example, the information processing device 100 compares the face photo of an adult stored in the storage unit 120 (see FIG. 3) with the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-5, By determining that the face area and the adult face photo are dissimilar, it may be estimated that the user sitting in the passenger seat of the mobile object C1 is a child. Note that the above is an example, and the information processing apparatus 100 may estimate the user attributes of the seated user using any method as long as it is possible to estimate whether the seated user is a child.

また、情報処理装置100は、センサ情報SN1-5に基づいて、移動体C1における後部座席には誰も着座していないと推定する。例えば、情報処理装置100は、センサ情報SN1-5において、移動体C1における後部座席に対応する位置に、人の外形に対応する所定の物体が含まれない場合、後部座席にユーザが着座してないと推定する。 Furthermore, the information processing device 100 estimates that no one is seated in the rear seat of the mobile object C1 based on the sensor information SN1-5. For example, in the sensor information SN1-5, if a predetermined object corresponding to the external shape of a person is not included in the position corresponding to the rear seat in the mobile object C1, the information processing device 100 determines that the user is seated in the rear seat. It is assumed that there is no.

なお、上記は一例であり、情報処理装置100は、種々の従来技術を適宜用いて、動画を解析し、車内位置におけるユーザの着座有無の推定を行ってもよい。また、情報処理装置100は、動画の解析サービスを提供する外部の情報処理装置(解析装置)に動画(センサ情報)を送信することにより、外部の情報処理装置から、動画(センサ情報)の解析した結果である、車内位置におけるユーザの着座有無の推定した結果を取得してもよい。 Note that the above is just an example, and the information processing device 100 may use various conventional techniques as appropriate to analyze the video and estimate whether the user is seated in the vehicle. In addition, the information processing device 100 transmits the video (sensor information) to an external information processing device (analysis device) that provides a video analysis service, so that the information processing device 100 can analyze the video (sensor information) from the external information processing device. The estimated result of whether or not the user is seated in the vehicle may be acquired.

上記のような処理により、情報処理装置100は、図10中の移動体情報記憶部124に示すように、移動体C1における運転席の着座ユーザが、ユーザU1であることを示す情報を取得する。また、情報処理装置100は、図10中の移動体情報記憶部124に示すように、移動体C1における助手席の着座ユーザが、子どもであることを示す情報を取得する。 Through the above-described processing, the information processing device 100 acquires information indicating that the user sitting in the driver's seat of the moving body C1 is the user U1, as shown in the moving body information storage unit 124 in FIG. . Further, the information processing device 100 acquires information indicating that the user sitting in the passenger seat of the moving body C1 is a child, as shown in the moving body information storage unit 124 in FIG.

そして、情報処理装置100は、対象ユーザを決定する(ステップS53)。例えば、情報処理装置100は、ユーザU2の音声対話の相手先のユーザを対象ユーザに決定する。図10の例では、情報処理装置100は、ユーザU2の発信先であるユーザU1を対象ユーザに決定する。そして、情報処理装置100は、図10中の移動体情報記憶部124から、対象ユーザであるユーザU1の位置(対象位置情報)が、移動体C1の運転席であることを示す情報を取得する。情報処理装置100は、図10中の移動体情報記憶部124から、対象ユーザであるユーザU1の対象位置情報として、車内位置ID「CPS1-1」により識別される車内位置である移動体C1の運転席を示す情報を取得する。 Then, the information processing device 100 determines a target user (step S53). For example, the information processing apparatus 100 determines the user with whom the user U2 has a voice dialogue as the target user. In the example of FIG. 10, the information processing apparatus 100 determines the user U1, who is the destination of the user U2, as the target user. Then, the information processing device 100 acquires information indicating that the position of the user U1 who is the target user (target position information) is the driver's seat of the mobile body C1 from the mobile body information storage unit 124 in FIG. . The information processing device 100 retrieves, from the moving object information storage unit 124 in FIG. 10, the object position information of the moving object C1, which is the in-vehicle position identified by the in-vehicle position ID "CPS1-1," as the target position information of the user U1, who is the target user. Obtain information indicating the driver's seat.

そして、情報処理装置100は、コンテンツを決定する(ステップS54)。図10の例では、情報処理装置100は、ユーザU1とユーザU2とが音声対話中であるため、ユーザU2の発話を、ユーザU1に提供するコンテンツに決定する。すなわち、情報処理装置100は、図10中のコンテンツ情報記憶部123に示すコンテンツのうち、提供元が端末装置TM1-2(ユーザU2)であるコンテンツCT5を、ユーザU1に提供するコンテンツに決定する。 Then, the information processing device 100 determines the content (step S54). In the example of FIG. 10, since the user U1 and the user U2 are engaged in a voice conversation, the information processing apparatus 100 determines the utterance of the user U2 as the content to be provided to the user U1. That is, the information processing device 100 determines, among the contents shown in the content information storage unit 123 in FIG. 10, the content CT5 whose provider is the terminal device TM1-2 (user U2) as the content to be provided to the user U1. .

そして、情報処理装置100は、コンテンツCT5を出力するスピーカを決定する(ステップS55)。例えば、情報処理装置100は、移動体C1の指向性スピーカ20のうち、ユーザU1の位置に向けて音声を出力する指向性スピーカ20を、コンテンツCT5に関する音声を出力させる出力対象スピーカに決定する。図10の例では、情報処理装置100は、ユーザU1が着座している運転席に対応する指向性スピーカDS1-1を出力対象スピーカに決定する。そして、情報処理装置100は、コンテンツCT5を指向性スピーカDS1-1に提供する(ステップS56)。情報処理装置100は、コンテンツCT5を指向性スピーカDS1-1に送信(配信)する。なお、情報処理装置100は、端末装置TM1-1介して指向性スピーカDS1-1にコンテンツCT5を提供してもよい。 Then, the information processing device 100 determines the speaker that outputs the content CT5 (step S55). For example, the information processing device 100 determines, among the directional speakers 20 of the mobile object C1, the directional speaker 20 that outputs audio toward the position of the user U1 as the output target speaker that outputs the audio related to the content CT5. In the example of FIG. 10, the information processing device 100 determines the directional speaker DS1-1 corresponding to the driver's seat where the user U1 is seated as the output target speaker. Then, the information processing device 100 provides the content CT5 to the directional speaker DS1-1 (step S56). The information processing device 100 transmits (distributes) the content CT5 to the directional speaker DS1-1. Note that the information processing device 100 may provide the content CT5 to the directional speaker DS1-1 via the terminal device TM1-1.

情報処理装置100からコンテンツCT5を受信した指向性スピーカDS1-1は、コンテンツCT5を出力する(ステップS57)。例えば、指向性スピーカDS1-1は、コンテンツCT5に関する音声をユーザU1に向けて出力する。図10の例では、指向性スピーカDS1-1は、ユーザU2の発話であるコンテンツCT5を音声出力する。例えば、指向性スピーカDS1-1は、ユーザU2からユーザU1のみに伝達したい内容のコンテンツCT5を音声出力する。例えば、指向性スピーカDS1-1は、ユーザU2が子供ユーザCUには聞かれたくない内容のコンテンツCT5を音声出力する。 The directional speaker DS1-1, which has received the content CT5 from the information processing device 100, outputs the content CT5 (step S57). For example, the directional speaker DS1-1 outputs audio related to the content CT5 toward the user U1. In the example of FIG. 10, the directional speaker DS1-1 audio outputs the content CT5 that is uttered by the user U2. For example, the directional speaker DS1-1 audio outputs the content CT5 that is desired to be transmitted from the user U2 to only the user U1. For example, the directional speaker DS1-1 outputs content CT5 that the user U2 does not want the child user CU to hear.

上記のように、情報処理装置100は、移動体C1外のユーザU2と移動体C1内のユーザU1との音声対話に対応するコンテンツを、移動体C1内の対象ユーザであるユーザU1のみに対して出力することにより、ユーザに対して適切にコンテンツを提供することができる。このように、情報処理装置100は、移動体C1内における対象ユーザの着座位置に基づいて、出力対象スピーカを決定することにより、対象ユーザのみに向けてコンテンツを出力させることができる。これにより、情報処理装置100は、対象ユーザであるユーザU1に対応する指向性スピーカ20により、ユーザU1に対して適切な内容のコンテンツを出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。図10の例では、情報処理装置100は、移動体C1の運転席に対応する指向性スピーカDS1-1のみにコンテンツCT5を出力させることにより、移動体C1の助手席等に音が届くことを抑制することができる。 As described above, the information processing device 100 transmits content corresponding to the audio dialogue between the user U2 outside the mobile body C1 and the user U1 inside the mobile body C1 only to the user U1 who is the target user inside the mobile body C1. By outputting the content, it is possible to appropriately provide the content to the user. In this way, the information processing device 100 can output content only to the target user by determining the output target speaker based on the target user's seating position within the mobile body C1. Thereby, the information processing apparatus 100 can output content with appropriate content to the user U1, using the directional speaker 20 corresponding to the user U1, who is the target user. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object. In the example of FIG. 10, the information processing device 100 outputs the content CT5 only to the directional speaker DS1-1 corresponding to the driver's seat of the mobile object C1, thereby preventing the sound from reaching the passenger seat of the mobile object C1. Can be suppressed.

〔1-3.システム構成〕
なお、情報処理システム1は、図2に示したシステム構成に限らず、種々の構成であってもよい。例えば、端末装置10が出力対象スピーカの決定処理を行ってもよい。例えば、端末装置10が情報処理装置100の機能を有してもよい。すなわち、情報処理装置100と端末装置10とは一体であってもよい。この場合、情報処理システムには、コンテンツ配信サーバが含まれてもよい。そして、端末装置10である情報処理装置100は、コンテンツ配信サーバからコンテンツを取得し、決定した出力対象スピーカに、取得したコンテンツを出力させてもよい。また、端末装置10である情報処理装置100は、コンテンツを出力したことを示す情報等をコンテンツ配信サーバに送信してもよい。また、端末装置10である情報処理装置100は、センサにより検知されたセンサ情報やユーザの行動情報等の種々の情報をコンテンツ配信サーバに送信してもよい。
[1-3. System configuration〕
Note that the information processing system 1 is not limited to the system configuration shown in FIG. 2, and may have various configurations. For example, the terminal device 10 may perform the process of determining the output target speaker. For example, the terminal device 10 may have the functions of the information processing device 100. That is, the information processing device 100 and the terminal device 10 may be integrated. In this case, the information processing system may include a content distribution server. The information processing device 100, which is the terminal device 10, may acquire content from the content distribution server and cause the determined output target speaker to output the acquired content. Further, the information processing device 100, which is the terminal device 10, may transmit information indicating that the content has been output to the content distribution server. Further, the information processing device 100, which is the terminal device 10, may transmit various information such as sensor information detected by a sensor and user behavior information to the content distribution server.

〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of information processing device]
Next, the configuration of the information processing device 100 according to the embodiment will be described using FIG. 3. FIG. 3 is a diagram illustrating a configuration example of the information processing device 100 according to the embodiment. As shown in FIG. 3, the information processing device 100 includes a communication section 110, a storage section 120, and a control section 130. Note that the information processing device 100 includes an input unit (for example, a keyboard, a mouse, etc.) that accepts various operations from an administrator of the information processing device 100, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. May have.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10や指向性スピーカ20との間で情報の送受信を行う。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to a network by wire or wirelessly, and transmits and receives information to and from the terminal device 10 and the directional speaker 20.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、POI情報記憶部122と、コンテンツ情報記憶部123と、移動体情報記憶部124と、センサ情報記憶部125とを有する。なお、記憶部120は、上記に限らず、種々の情報を記憶してもよい。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 120 according to the embodiment includes a user information storage unit 121, a POI information storage unit 122, a content information storage unit 123, a mobile information storage unit 124, and a sensor information storage unit 125. and has. Note that the storage unit 120 is not limited to the above information, and may store various types of information.

(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性に関する各種情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「利用端末」、「興味」、「位置情報」といった項目が含まれる。また、「位置情報」には、「最新位置」といった項目が含まれる。
(User information storage unit 121)
The user information storage unit 121 according to the embodiment stores various information regarding users. For example, the user information storage unit 121 stores various information regarding user attributes. FIG. 4 is a diagram illustrating an example of a user information storage unit according to the embodiment. The user information storage unit 121 shown in FIG. 4 includes items such as "user ID", "age", "gender", "terminal used", "interest", and "location information". Furthermore, the "location information" includes items such as "latest location".

「ユーザID」は、ユーザを識別するための識別情報を示す。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 "User ID" indicates identification information for identifying a user. Moreover, "age" indicates the age of the user identified by the user ID. Note that the "age" may be a specific age of the user identified by the user ID, such as 35 years old. Furthermore, “gender” indicates the gender of the user identified by the user ID.

「利用端末」は、ユーザにより利用される端末を示す。なお、図4に示す例では、各ユーザに1つの端末装置10が対応付けられる場合を示すが、ユーザには複数の端末装置10が対応付けられてもよい。例えば、ユーザU3が、スマートフォンである端末装置TM1-3とは別に、スマートスピーカである端末装置TM1-30を利用する場合、ユーザU3に対応する「利用端末」は、「TM1-3」と「TM1-30」とが記憶されてもよい。 “Using terminal” indicates a terminal used by a user. Note that although the example shown in FIG. 4 shows a case where each user is associated with one terminal device 10, a plurality of terminal devices 10 may be associated with a user. For example, when the user U3 uses the terminal device TM1-30, which is a smart speaker, in addition to the terminal device TM1-3, which is a smartphone, the "user terminals" corresponding to the user U3 are "TM1-3" and "TM1-3". TM1-30" may be stored.

また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図4に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。 Moreover, "interest" indicates the interest of the user identified by the user ID. That is, "interest" indicates an object in which the user identified by the user ID is highly interested. In the example shown in FIG. 4, one "interest" is shown for each user, but there may be a plurality of "interests".

また、「位置情報」中の「最新位置」は、対応するユーザについて最後に取得された位置情報を示す。なお、「最新位置」は、「LC1-2」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。また、「位置情報」は「取得日時」の項目を有してもよい。例えば、「取得日時」は、最後に位置情報が取得された日時を示す。 Furthermore, "latest position" in "position information" indicates the last position information acquired for the corresponding user. Note that the "latest position" is illustrated by an abstract code such as "LC1-2", but even if it is information indicating latitude and longitude or address such as "Y city, Z town, X prefecture", good. Further, the "location information" may include an item of "date and time of acquisition". For example, "date and time of acquisition" indicates the date and time when position information was last acquired.

図4の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。ユーザU1の利用端末は、スマートスピーカである端末装置TM1-1であることを示す。また、ユーザU1は経済に興味があることを示す。例えば、ユーザU1については、位置LC1-2に位置したことを示す位置情報が最後に取得された位置情報、すなわち最新の位置情報であることを示す。 In the example of FIG. 4, the age of the user (user U1) identified by the user ID "U1" is "20s" and the gender is "male." The terminal used by the user U1 is the terminal device TM1-1, which is a smart speaker. User U1 also indicates that he is interested in the economy. For example, for the user U1, the position information indicating that the user is located at the position LC1-2 indicates that the position information was acquired last, that is, the latest position information.

なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、デモグラフィック属性情報やサイコグラフィック属性情報等の種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入等の情報を記憶してもよい。 Note that the user information storage unit 121 is not limited to the above, and may store various information depending on the purpose. For example, the user information storage unit 121 may store various information such as demographic attribute information and psychographic attribute information. For example, the user information storage unit 121 may store information such as name, family structure, income, etc.

また、ユーザ情報記憶部121は、図示を省略するが、センサ情報を基に各ユーザを識別するための識別情報を、各ユーザIDに対応付けて記憶してもよい。例えば、ユーザ情報記憶部121には、「音声」といった項目を含む項目「識別情報」が含まれてもよい。 Further, although not shown, the user information storage unit 121 may store identification information for identifying each user based on sensor information in association with each user ID. For example, the user information storage unit 121 may include an item "identification information" including an item such as "audio".

項目「音声」には、ユーザの識別に用いられる音声情報が記憶される。項目「音声」には、各ユーザの音声情報、またはこれらの格納場所を示すファイルパス名などが格納されてもよい。項目「音声」に記憶される情報は、ユーザの音声の特徴を示す特徴情報であってもよい。例えば、項目「音声」に記憶される情報は、ユーザの発話から抽出された音声的な特徴を示す情報(音声特徴情報)であってもよい。例えば、項目「音声」に記憶される情報は、各発話から音声の特徴抽出に関する種々の従来技術を適宜用いて抽出された音声特徴情報であってもよい。 The item “voice” stores voice information used for user identification. The item "audio" may store audio information of each user, a file path name indicating a storage location thereof, or the like. The information stored in the item "voice" may be characteristic information indicating the characteristics of the user's voice. For example, the information stored in the item "voice" may be information indicating vocal characteristics extracted from the user's utterances (voice feature information). For example, the information stored in the item "voice" may be voice feature information extracted from each utterance using various conventional techniques related to voice feature extraction.

図1の例では、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121中に記憶された音声とを用いて、発話を行ったユーザを判定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121中の項目「音声」に記憶された各ユーザの音声情報とを比較することより、発話を行ったユーザを判定(推定)してもよい。なお、項目「識別情報」には、「画像」といった項目が含まれてもよい。この場合、項目「画像」には、ユーザの識別に用いられる画像情報が記憶される。 In the example of FIG. 1, the information processing apparatus 100 may determine (estimate) the user who has made the utterance using the user's utterance and the voice stored in the user information storage unit 121. For example, the information processing device 100 determines the user who made the utterance by comparing the voice information of the user's utterance with the voice information of each user stored in the item “voice” in the user information storage unit 121. (estimate). Note that the item "identification information" may include an item such as "image". In this case, the item "image" stores image information used for user identification.

(POI情報記憶部122)
実施形態に係るPOI情報記憶部122は、店舗(ストア)やランドマーク等のPOI(関心地点)に関する各種情報を記憶する。図5は、実施形態に係るPOI情報記憶部の一例を示す図である。例えば、POI情報記憶部122は、種々のPOIに関する情報を記憶する。図5に示すPOI情報記憶部122には、「POIID」、「名称」、「カテゴリ」、「所在地」といった項目が含まれる。
(POI information storage unit 122)
The POI information storage unit 122 according to the embodiment stores various information regarding POIs (points of interest) such as stores and landmarks. FIG. 5 is a diagram illustrating an example of a POI information storage unit according to the embodiment. For example, the POI information storage unit 122 stores information regarding various POIs. The POI information storage unit 122 shown in FIG. 5 includes items such as "POIID", "Name", "Category", and "Location".

「POIID」は、POIを識別するための識別情報を示す。「名称」は、POIの具体的な名称を示す。例えば、「名称」は、「○○カフェX町店」のような屋号と店舗の場所を示す情報との組合せであってもよい。また、「カテゴリ」は、POIが属するカテゴリを示す。また、「所在地」は、POIが位置する場所を示す。なお、「所在地」は、「LC2-1」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。 “POIID” indicates identification information for identifying a POI. “Name” indicates the specific name of the POI. For example, the "name" may be a combination of a trade name and information indicating the location of the store, such as "○○ Cafe X Town Store." Moreover, "category" indicates the category to which the POI belongs. Moreover, "location" indicates the location where the POI is located. Although the "location" is illustrated as an abstract code such as "LC2-1", it may also be information indicating latitude and longitude, or information indicating an address such as "Z town, Y city, X prefecture". .

図5の例では、POIID「SP1」により識別されるPOIは、名称「Aおもちゃ店」であり、カテゴリ「店舗(玩具量販)」に属するPOIであることを示す。また、Aおもちゃ店は、位置LC2-1に位置することを示す。 In the example of FIG. 5, the POI identified by the POI ID "SP1" has the name "A toy store" and indicates that it is a POI belonging to the category "store (toy mass retailer)". Further, it is shown that toy store A is located at position LC2-1.

なお、POI情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。 Note that the POI information storage unit 122 is not limited to the above, and may store various information depending on the purpose.

(コンテンツ情報記憶部123)
実施形態に係るコンテンツ情報記憶部123は、広告や音楽等のコンテンツに関する各種情報を記憶する。図6は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図6に示すコンテンツ情報記憶部123は、「コンテンツID」、「コンテンツ」、「提供元ID」、「内容」、「条件(レベル)」といった項目を有する。
(Content information storage unit 123)
The content information storage unit 123 according to the embodiment stores various information regarding content such as advertisements and music. FIG. 6 is a diagram illustrating an example of a content information storage unit according to the embodiment. The content information storage unit 123 shown in FIG. 6 has items such as "content ID", "content", "provider ID", "content", and "condition (level)".

「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、広告主やコンテンツ提供元(コンテンツプロバイダ)や代理店等から入稿されたコンテンツを示す。図6では、「コンテンツ」に「CT1」といった概念的な情報が格納される例を示したが、実際には、動画や音声または、これらの格納場所を示すファイルパス名などが格納される。また、「コンテンツ」には、静止画像や動画像やテキストデータやURL、または、これらの格納場所を示すファイルパス名などが格納されてもよい。以下では、「提供元」といった表記は、広告主やコンテンツプロバイダだけでなく代理店を含む概念であるものとする。 "Content ID" indicates identification information for identifying content. "Content" indicates content submitted by advertisers, content providers, agencies, and the like. Although FIG. 6 shows an example in which conceptual information such as "CT1" is stored in "content," in reality, moving images, audio, or file path names indicating their storage locations are stored. Furthermore, "content" may include still images, moving images, text data, URLs, file path names indicating storage locations thereof, and the like. In the following, the term "provider" is a concept that includes not only advertisers and content providers but also agencies.

「提供元ID」は、提供元を識別するための識別情報を示す。なお、提供元は、入稿作業等を代理店に依頼する場合もある。そのため、「提供元」といった表記は、店舗等の事業者やコンテンツプロバイダだけでなく代理店を含む概念であるものとする。図6の例では、「提供元ID」として、POIIDやコンテンツプロバイダを識別する情報を記憶する場合を示す。 “Provider ID” indicates identification information for identifying a provider. Note that the provider may request an agency to perform the submission work, etc. Therefore, the expression "provider" is a concept that includes not only businesses such as stores and content providers, but also agencies. In the example of FIG. 6, a case is shown in which a POI ID and information identifying a content provider are stored as the "provider ID".

「出力条件」は、コンテンツIDにより識別されるコンテンツの配信条件(出力条件)を示す。「出力条件」には、「ターゲットユーザ」、「タイミング」といった項目が含まれる。「ターゲットユーザ」は、コンテンツIDにより識別されるコンテンツを出力するターゲットとなる対象(ユーザ)を示す。「ターゲットユーザ」は、コンテンツの出力対象となるユーザの属性を示す。「タイミング」は、コンテンツIDにより識別されるコンテンツを出力するタイミングを示す。「タイミング」は、範囲や時間帯等の種々のタイミング条件であってもよい。「タイミング」は、所定のPOIとの位置関係やコンテキスト等の種々のタイミング条件であってもよい。 "Output condition" indicates the distribution condition (output condition) of the content identified by the content ID. The "output conditions" include items such as "target user" and "timing." "Target user" indicates a target object (user) to output the content identified by the content ID. “Target user” indicates the attributes of the user to whom the content is output. "Timing" indicates the timing at which the content identified by the content ID is output. "Timing" may be various timing conditions such as range or time zone. "Timing" may be various timing conditions such as a positional relationship with a predetermined POI or a context.

図6に示す例では、コンテンツID「CD1」により識別されるコンテンツ(コンテンツCT1)は、そのコンテンツが「CT1」であることを示す。コンテンツCT1の広告主は、Aおもちゃ店である店舗SP1であることを示す。コンテンツCT1の対象に関する条件は、「子ども」であることを示す。すなわち、コンテンツCT1は、「子ども」をターゲット属性として出力されるコンテンツであることを示す。コンテンツCT1のタイミングに関する条件は、「範囲AR1(半径1km)」であることを示す。すなわち、コンテンツCT1は、Aおもちゃ店から「範囲AR1(半径1km)」に位置するタイミングを出力されるコンテンツであることを示す。 In the example shown in FIG. 6, the content (content CT1) identified by the content ID "CD1" indicates that the content is "CT1". The advertiser of content CT1 is store SP1, which is toy store A. The condition regarding the target of content CT1 indicates that it is a "child." That is, the content CT1 indicates that the content is output with "child" as the target attribute. The condition regarding the timing of content CT1 indicates that it is "range AR1 (1 km radius)". That is, the content CT1 indicates that the content is outputted from the toy store A at a timing located within the "range AR1 (radius 1 km)".

なお、コンテンツ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、コンテンツ情報記憶部123は、コンテンツが広告である場合、入札価格に関する情報等を記憶してもよい。例えば、コンテンツ情報記憶部123は、コンテンツの対象となる商品名やサービス名を示す情報を記憶してもよい。 Note that the content information storage unit 123 is not limited to the above, and may store various information depending on the purpose. For example, when the content is an advertisement, the content information storage unit 123 may store information regarding bid prices and the like. For example, the content information storage unit 123 may store information indicating the product name or service name that is the subject of the content.

(移動体情報記憶部124)
実施形態に係る移動体情報記憶部124は、移動体に関する各種情報を記憶する。図7は、実施形態に係る移動体情報記憶部の一例を示す図である。例えば、移動体情報記憶部124は、種々の移動体に関する情報を記憶する。図7に示す移動体情報記憶部124には、「移動体ID」、「車載端末ID」、「車内位置情報」といった項目が含まれる。
(Mobile object information storage unit 124)
The mobile object information storage unit 124 according to the embodiment stores various information regarding the mobile object. FIG. 7 is a diagram illustrating an example of a mobile object information storage unit according to the embodiment. For example, the mobile object information storage unit 124 stores information regarding various mobile objects. The mobile object information storage unit 124 shown in FIG. 7 includes items such as "mobile object ID,""vehicle terminal ID," and "in-vehicle position information."

「移動体ID」は、移動体を識別するための識別情報を示す。「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。 "Mobile ID" indicates identification information for identifying a mobile. "Vehicle-mounted terminal ID" indicates information that identifies a terminal device mounted on a mobile object.

「車内位置情報」は、移動体内においてユーザが着座する位置に関する情報を示す。「車内位置情報」には、「車内位置#1(運転席)」や「車内位置#2(助手席)」といった項目が含まれる。「車内位置#1(運転席)」や「車内位置#2(助手席)」には、「車内位置ID」や「スピーカID」や「着座ユーザ」といった項目が含まれる。なお、図5の例では、「車内位置#1(運転席)」、「車内位置#2(助手席)」のみを図示するが、「車内位置#3(右後部座席)」や「車内位置#4(左後部座席)」等、対応する移動体においてユーザが着座する位置の数に応じた項目が含まれるものとする。 "In-vehicle position information" indicates information regarding the position where the user is seated within the moving body. The "in-vehicle position information" includes items such as "in-vehicle position #1 (driver's seat)" and "in-vehicle position #2 (passenger seat)." “In-vehicle position #1 (driver's seat)” and “in-vehicle position #2 (passenger seat)” include items such as “in-vehicle position ID,” “speaker ID,” and “seated user.” In addition, in the example of FIG. 5, only "in-vehicle position #1 (driver's seat)" and "in-vehicle position #2 (passenger seat)" are illustrated, but "in-vehicle position #3 (right rear seat)" and "in-vehicle position Items such as "#4 (left rear seat)" are included depending on the number of positions where the user is seated in the corresponding moving object.

「車内位置ID」は、対応する車内位置を識別する情報を示す。「スピーカID」は、対応する車内位置に対応付けられた指向性スピーカを識別する情報を示す。「スピーカID」は、対応する車内位置へ向けて音声を出力する指向性スピーカを識別する情報を示す。「着座ユーザ」は、対応する車内位置に着座しているユーザを示す。「着座ユーザ」は、対応する車内位置に着座しているユーザについて推定されるユーザ属性やユーザを識別する情報を示す。 "In-vehicle position ID" indicates information that identifies the corresponding in-vehicle position. "Speaker ID" indicates information that identifies the directional speaker associated with the corresponding in-vehicle position. "Speaker ID" indicates information that identifies a directional speaker that outputs audio toward a corresponding in-vehicle position. "Seated user" indicates a user seated at a corresponding position in the vehicle. “Seated user” indicates user attributes estimated for the user seated at the corresponding in-vehicle position and information for identifying the user.

図7の例では、移動体ID「C1」により識別される移動体(移動体C1)は、搭載される端末装置が車載端末ID「TM1-1」により識別される端末装置であることを示す。すなわち、移動体C1は、搭載される端末装置が端末装置TM1-1であることを示す。 In the example of FIG. 7, the mobile object (mobile object C1) identified by the mobile object ID "C1" indicates that the terminal device installed therein is the terminal device identified by the vehicle-mounted terminal ID "TM1-1". . That is, the mobile object C1 indicates that the terminal device mounted thereon is the terminal device TM1-1.

また、移動体C1における運転席の位置であって、車内位置ID「CSP1-1」により識別される位置には、スピーカID「DS1-1」により識別される指向性スピーカ(指向性スピーカDS1-1)が対応付けられていることを示す。また、移動体C1における運転席に着座するユーザ(着座ユーザ)は、大人男性であるユーザU1であることを示す。すなわち、移動体C1における運転席に着座するユーザU1に向けて、指向性スピーカDS1-1が音声を出力することを示す。 Further, at the position of the driver's seat in the mobile object C1, which is identified by the in-vehicle position ID "CSP1-1", there is a directional speaker (directional speaker DS1-1) identified by the speaker ID "DS1-1". 1) is associated. Further, it is shown that the user sitting in the driver's seat of the mobile object C1 (seated user) is the user U1 who is an adult male. That is, it shows that the directional speaker DS1-1 outputs audio toward the user U1 seated in the driver's seat of the mobile object C1.

また、移動体C1における助手席の位置であって、車内位置ID「CSP1-2」により識別される位置には、スピーカID「DS1-2」により識別される指向性スピーカ(指向性スピーカDS1-2)が対応付けられていることを示す。また、移動体C1における助手席に着座するユーザ(着座ユーザ)は、子どもであることを示す。すなわち、移動体C1における助手席に着座する子どもに向けて、指向性スピーカDS1-2が音声を出力することを示す。 In addition, at the position of the passenger seat in the mobile object C1, which is identified by the in-vehicle position ID "CSP1-2," there is a directional speaker (directional speaker DS1-2) identified by the speaker ID "DS1-2." 2) is associated. Further, it is shown that the user sitting in the passenger seat of the mobile object C1 (seated user) is a child. That is, it shows that the directional speaker DS1-2 outputs sound toward the child seated in the passenger seat of the mobile object C1.

なお、移動体情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、移動体情報記憶部124は、項目「登録番号」を有してもよい。この場合、例えば「登録番号」は、移動体の具体的な登録番号を示す。例えば、「登録番号」は、自動車等の移動体に取り付けられた自動車登録番号標(ナンバープレート)に表示される番号であってもよい。例えば、「登録番号」は、「品川500 たXX-XX」のような文字や数字等の記号を組合せたものであってもよい。また、例えば、移動体情報記憶部124には、視線方向に対応するユーザの視線が通る緯度経度の一覧情報(リスト)が格納されてもよい。また、移動体情報記憶部124は、移動体を所有(利用)するユーザを識別する情報を、移動体に対応付けて記憶してもよい。 Note that the mobile information storage unit 124 is not limited to the above information, and may store various information depending on the purpose. For example, the mobile information storage unit 124 may have an item "registration number." In this case, for example, the "registration number" indicates a specific registration number of the mobile object. For example, the "registration number" may be a number displayed on a vehicle registration number plate (license plate) attached to a moving object such as a car. For example, the "registration number" may be a combination of letters, numbers, and other symbols such as "Shinagawa 500 XX-XX." Further, for example, the moving object information storage unit 124 may store list information (list) of latitudes and longitudes through which the user's line of sight corresponds to the line of sight direction. Furthermore, the mobile object information storage unit 124 may store information that identifies a user who owns (uses) a mobile object in association with the mobile object.

(センサ情報記憶部125)
実施形態に係るセンサ情報記憶部125は、センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部125は、センサにより検知されたセンサ情報を記憶する。図8は、実施形態に係るセンサ情報記憶部の一例を示す図である。例えば、センサ情報記憶部125は、各ユーザが利用する端末装置により検知されたセンサ情報を記憶する。図8に示すセンサ情報記憶部125には、「ログID」、「取得元」、「種別」、「センサ情報」、「日時」、「位置」といった項目が含まれる。
(Sensor information storage unit 125)
The sensor information storage unit 125 according to the embodiment stores various information regarding detection by the sensor. For example, the sensor information storage unit 125 stores sensor information detected by a sensor. FIG. 8 is a diagram illustrating an example of a sensor information storage unit according to the embodiment. For example, the sensor information storage unit 125 stores sensor information detected by a terminal device used by each user. The sensor information storage unit 125 shown in FIG. 8 includes items such as "log ID", "obtainment source", "type", "sensor information", "date and time", and "position".

「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「取得元」は、センサ情報を検知した端末装置を示す。また、「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図8では「センサ情報」に「SN1-1」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。 "Log ID" indicates identification information for identifying acquired sensor information. “Obtainment source” indicates the terminal device that detected the sensor information. Moreover, "type" indicates information regarding the type of detected sensor information. "Sensor information" indicates detected sensor information. Although Fig. 8 shows an example in which conceptual information such as "SN1-1" is stored in "sensor information," in reality, it is necessary to store specifically detected information (sensor data) or its storage location. The indicated file path name, etc. may also be stored.

例えば、センサ情報の種別「画像」である場合、「センサ情報」には、静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。 For example, when the type of sensor information is "image", "sensor information" stores still images, moving images, file path names indicating their storage locations, and the like. For example, if the type of sensor information is "speech", "sensor information" stores audio data, character information after converting the audio data, or a file path name indicating the storage location of these data. .

「日時」は、センサ情報が検知された日時を示す。「日時」には、「dt1-1」等のように抽象的に図示するが、「2018年8月9日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2018年8月9日22時31分」や「2018年8月9日22時30-31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、「位置」は、「LC1-2」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町B交差点」等のような住所を示す情報であってもよい。 “Date and time” indicates the date and time when the sensor information was detected. Although the "date and time" is illustrated abstractly such as "dt1-1", a specific date and time such as "August 9, 2018, 22:31:52" may be stored. Note that the "date and time" is not limited to a time, but may be a predetermined period such as "August 9, 2018, 22:31" or "August 9, 2018, 22:30-31". Moreover, "position" indicates the position where the corresponding action was performed. Note that "location" is illustrated by an abstract code such as "LC1-2", but it is also information indicating latitude and longitude, or information indicating an address such as "B intersection, Z town, Y city, X prefecture". Good too.

図8の例では、ログID「LG11」により識別される履歴情報(ログLG11)におけるセンサ情報SN1-1の取得元は、ID「TM1-1」により識別される端末装置であることを示す。すなわち、ログLG11のセンサ情報SN1-1は、端末装置TM1-1により検知されたことを示す。ログLG11のセンサ情報SN1-1は、種別「画像」である動画像情報であることを示す。また、ログLG11のセンサ情報SN1-1は、日時dt1-1において、位置LC1-2で取得(検知)されたことを示す。 The example in FIG. 8 indicates that the acquisition source of sensor information SN1-1 in the history information (log LG11) identified by log ID "LG11" is the terminal device identified by ID "TM1-1." That is, sensor information SN1-1 of log LG11 indicates that it has been detected by terminal device TM1-1. The sensor information SN1-1 of the log LG11 indicates that it is moving image information of type "image". Further, sensor information SN1-1 of log LG11 indicates that it was acquired (detected) at position LC1-2 at date and time dt1-1.

なお、センサ情報記憶部125は、上記に限らず、目的に応じて種々の情報を記憶してもよい。 Note that the sensor information storage section 125 is not limited to the above, and may store various information depending on the purpose.

(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the explanation of FIG. 3, the control unit 130 is a controller, and is stored in a storage device inside the information processing device 100 by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). This is realized by executing various programs (corresponding to an example of an information processing program) using the RAM as a work area. Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図3に示すように、制御部130は、取得部131と、推定部132と、決定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 3, the control unit 130 includes an acquisition unit 131, an estimation unit 132, a determination unit 133, and a provision unit 134, and realizes or executes information processing functions and operations described below. . Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be any other configuration as long as it performs information processing to be described later. Further, the connection relationship between the respective processing units included in the control unit 130 is not limited to the connection relationship shown in FIG. 3, and may be other connection relationships.

(取得部131)
取得部131は、種々の情報を取得する。取得部131は、端末装置10や情報提供装置等の外部装置から各種情報を取得する。また、取得部131は、記憶部120から各種情報を取得する。また、取得部131は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等から各種情報を取得する。例えば、取得部131は、指向性スピーカ20から各種情報を取得してもよい。取得部131は、端末装置10からセンサ情報等の各種情報を取得する。取得部131は、端末装置10から動画像の画像情報を取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires various information. The acquisition unit 131 acquires various information from an external device such as the terminal device 10 or an information providing device. Further, the acquisition unit 131 acquires various information from the storage unit 120. Further, the acquisition unit 131 acquires various information from the user information storage unit 121, the POI information storage unit 122, the content information storage unit 123, the mobile information storage unit 124, the sensor information storage unit 125, and the like. For example, the acquisition unit 131 may acquire various information from the directional speaker 20. The acquisition unit 131 acquires various information such as sensor information from the terminal device 10. The acquisition unit 131 acquires image information of a moving image from the terminal device 10.

取得部131は、所定の移動体内における情報提供の対象となる対象ユーザの位置を示す対象位置情報を取得する。取得部131は、所定の移動体内に位置する複数のユーザのうち、対象ユーザの位置を示す対象位置情報を取得する。 The acquisition unit 131 acquires target position information indicating the position of a target user to whom information is to be provided within a predetermined moving object. The acquisition unit 131 acquires target position information indicating the position of a target user among a plurality of users located within a predetermined moving object.

取得部131は、所定の移動体の位置を示す移動体位置情報を取得する。取得部131は、コンテンツに関連するPOIの位置を示すPOI位置情報を取得する。取得部131は、所定の移動体である自動車内に位置するユーザのうち、対象ユーザの位置を示す対象位置情報を取得する。 The acquisition unit 131 acquires mobile body position information indicating the position of a predetermined mobile body. The acquisition unit 131 acquires POI position information indicating the position of a POI related to content. The acquisition unit 131 acquires target position information indicating the position of a target user among users located in an automobile, which is a predetermined moving object.

取得部131は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者以外の乗車者である対象ユーザの位置を示す対象位置情報を取得する。取得部131は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者である対象ユーザの位置を示す対象位置情報を取得する。取得部131は、所定の移動体内を撮像した画像情報である移動体内画像を取得する。 The acquisition unit 131 acquires target position information indicating the position of a target user who is a passenger other than the driver among a plurality of users located in an automobile, which is a predetermined moving object. The acquisition unit 131 acquires target position information indicating the position of a target user, who is a driver, among a plurality of users located in an automobile, which is a predetermined moving object. The acquisition unit 131 acquires an in-body image that is image information captured inside a predetermined moving body.

取得部131は、所定の移動体外に位置する他のユーザの音声対話の相手先である対象ユーザの対象位置情報を取得する。取得部131は、所定の住宅内に位置する他のユーザの音声対話の相手先である対象ユーザの対象位置情報を取得する。取得部131は、他のユーザが利用する端末装置からの発信先に対応する対象ユーザの対象位置情報を取得する。 The acquisition unit 131 acquires target position information of a target user who is the other user's voice dialogue partner located outside a predetermined moving body. The acquisition unit 131 acquires target position information of a target user who is the other user's voice dialogue partner who is located in a predetermined residence. The acquisition unit 131 acquires target location information of a target user corresponding to a call destination from a terminal device used by another user.

図1の例では、取得部131は、センサ情報SN1-1や位置情報や日時情報や端末情報等を取得する。取得部131は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。取得部131は、センサ情報SN1-1の取得元は、端末装置TM1-1であることを示す情報を取得する。取得部131は、種別が「画像」、すなわち動画像であるセンサ情報SN1-1を取得する。また、取得部131は、センサ情報SN1-1が日時dt1-1において、位置LC1-2で取得(検知)されたことを示す情報を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires sensor information SN1-1, location information, date and time information, terminal information, and the like. The acquisition unit 131 acquires the log identified by the log ID "LG11" as shown in list information SLST1. The acquisition unit 131 acquires information indicating that the acquisition source of the sensor information SN1-1 is the terminal device TM1-1. The acquisition unit 131 acquires sensor information SN1-1 whose type is "image", that is, a moving image. The acquisition unit 131 also acquires information indicating that the sensor information SN1-1 was acquired (detected) at the position LC1-2 at the date and time dt1-1.

取得部131は、図1中の移動体情報記憶部124に示すように、移動体C1における運転席の着座ユーザが、大人男性であるユーザU1であることを示す情報を取得する。また、取得部131は、図1中の移動体情報記憶部124に示すように、移動体C1における助手席の着座ユーザが、子どもであることを示す情報を取得する。 The acquisition unit 131 acquires information indicating that the user sitting in the driver's seat of the mobile body C1 is the user U1, who is an adult male, as shown in the mobile body information storage unit 124 in FIG. Further, the acquisition unit 131 acquires information indicating that the user sitting in the passenger seat of the mobile body C1 is a child, as shown in the mobile body information storage unit 124 in FIG.

取得部131は、図1中の移動体情報記憶部124から、対象ユーザである子供ユーザCUの位置(対象位置情報)が、移動体C1の助手席であることを示す情報を取得する。取得部131は、図1中の移動体情報記憶部124から、対象ユーザである子供ユーザCUの対象位置情報として、車内位置ID「CPS1-2」により識別される車内位置である移動体C1の助手席を示す情報を取得する。取得部131は、POI情報記憶部122(図5参照)からコンテンツCT1に関連するPOIである店舗SP1の所在地(位置LC2-1)を示す位置情報をPOI位置情報として取得する。 The acquisition unit 131 acquires information indicating that the position (target position information) of the child user CU, who is the target user, is in the passenger seat of the mobile body C1 from the mobile body information storage unit 124 in FIG. The acquisition unit 131 acquires, from the mobile object information storage unit 124 in FIG. Get information indicating the passenger seat. The acquisition unit 131 acquires, as POI position information, position information indicating the location (position LC2-1) of the store SP1, which is a POI related to the content CT1, from the POI information storage unit 122 (see FIG. 5).

(推定部132)
推定部132は、各種情報を解析する。推定部132は、各種情報を推定する。推定部132は、各種情報を特定する。推定部132は、各種情報を抽出する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を解析する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を推定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を特定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を抽出する。推定部132は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を解析する。推定部132は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を推定する。推定部132は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を特定する。推定部132は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を抽出する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を解析する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を特定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を抽出する。
(Estimation unit 132)
The estimation unit 132 analyzes various information. The estimation unit 132 estimates various information. The estimation unit 132 specifies various information. The estimation unit 132 extracts various information. The estimation unit 132 analyzes various information based on the various information stored in the storage unit 120. The estimation unit 132 estimates various information based on the various information stored in the storage unit 120. The estimation unit 132 identifies various pieces of information based on the various types of information stored in the storage unit 120. The estimation unit 132 extracts various information based on the various information stored in the storage unit 120. The estimation unit 132 analyzes various information based on the user information storage unit 121, the POI information storage unit 122, the content information storage unit 123, the mobile information storage unit 124, the sensor information storage unit 125, and the like. The estimation unit 132 estimates various information based on the user information storage unit 121, the POI information storage unit 122, the content information storage unit 123, the mobile information storage unit 124, the sensor information storage unit 125, and the like. The estimation unit 132 specifies various information based on the user information storage unit 121, the POI information storage unit 122, the content information storage unit 123, the mobile information storage unit 124, the sensor information storage unit 125, and the like. The estimation unit 132 extracts various information based on the user information storage unit 121, the POI information storage unit 122, the content information storage unit 123, the mobile information storage unit 124, the sensor information storage unit 125, and the like. The estimation unit 132 analyzes various information based on the various information acquired by the acquisition unit 131. The estimation unit 132 estimates various information based on the various information acquired by the acquisition unit 131. The estimation unit 132 specifies various information based on the various information acquired by the acquisition unit 131. The estimation unit 132 extracts various information based on the various information acquired by the acquisition unit 131.

推定部132は、所定の移動体内における対象ユーザの位置を推定する。推定部132は、移動体内画像に基づいて、所定の移動体内における対象ユーザの位置を推定する。 The estimation unit 132 estimates the position of the target user within a predetermined moving object. The estimation unit 132 estimates the position of the target user within a predetermined moving body based on the inside moving body image.

図1の例では、推定部132は、センサ情報SN1-1を解析する。推定部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-1を解析することにより、移動体C1内の各車内位置におけるユーザの着座を推定する。 In the example of FIG. 1, the estimation unit 132 analyzes sensor information SN1-1. The estimation unit 132 analyzes the sensor information SN1-1 using various conventional techniques related to image analysis and image processing as appropriate to estimate the seating position of the user at each in-vehicle position within the mobile body C1.

推定部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の移動体情報記憶部124に示すように、センサ情報SN1-1に基づいて、移動体C1の各車内位置におけるユーザの着座有無を推定する。推定部132は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、移動体C1の各車内位置におけるユーザの着座有無を推定する。例えば、推定部132は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、移動体C1の運転席や助手席や後部座席にユーザが着座しているか否かを推定する。また、推定部132は、種々の従来技術を適宜用いて、着座ユーザの属性情報を推定する。例えば、推定部132は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザの性別や年代等の属性情報を推定する。例えば、推定部132は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザが大人であるか子供であるかを推定する。例えば、推定部132は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザが例えば20代以上の大人であるか、例えば10代以下の子供であるかを推定する。 The estimating unit 132 appropriately uses various conventional techniques related to image analysis and image processing to estimate the inside of each vehicle of the moving body C1 based on the sensor information SN1-1, as shown in the moving body information storage unit 124 in FIG. Estimate whether a user is seated at a location. The estimation unit 132 estimates whether a user is seated at each position in the vehicle C1 by appropriately using various conventional techniques related to object recognition such as specific object recognition. For example, the estimating unit 132 uses various conventional techniques related to object recognition such as specific object recognition as appropriate to estimate whether a user is seated in the driver's seat, passenger's seat, or rear seat of the mobile object C1. Furthermore, the estimation unit 132 estimates the attribute information of the seated user using various conventional techniques as appropriate. For example, the estimating unit 132 estimates attribute information such as the gender and age of the seated user by appropriately using various conventional techniques related to human face recognition. For example, the estimation unit 132 estimates whether the seated user is an adult or a child, appropriately using various conventional techniques related to human face recognition. For example, the estimation unit 132 appropriately uses various conventional techniques related to human face recognition to estimate whether the seated user is an adult in his or her 20s or older, or a child in his or her teens or younger.

図1の例では、推定部132は、センサ情報SN1-1に基づいて、移動体C1における運転席及び助手席にユーザが着座していると推定する。推定部132は、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域の情報に基づいて、移動体C1の運転席の着座ユーザが大人男性であると推定する。また、例えば、推定部132は、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域の情報に基づいて、移動体C1の運転席の着座ユーザが大人男性であるユーザU1であると推定する。 In the example of FIG. 1, the estimating unit 132 estimates that a user is seated in the driver's seat and the passenger's seat in the mobile object C1 based on the sensor information SN1-1. The estimation unit 132 estimates that the user sitting in the driver's seat of the mobile object C1 is an adult male based on the information on the face area of the user sitting in the driver's seat of the mobile object C1 in the sensor information SN1-1. Further, for example, the estimating unit 132 calculates that the user U1 who is seated in the driver's seat of the moving body C1 is an adult male based on the information on the face area of the user sitting in the driver's seat of the moving body C1 in the sensor information SN1-1. It is estimated that

推定部132は、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定する。また、例えば、推定部132は、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定する。 The estimation unit 132 estimates that the user sitting in the passenger seat of the mobile object C1 is a child based on the information on the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-1. Further, for example, the estimating unit 132 estimates that the user sitting in the passenger seat of the mobile object C1 is a child based on the information on the face area of the user sitting in the passenger seat of the mobile object C1 in the sensor information SN1-1. .

推定部132は、センサ情報SN1-1に基づいて、移動体C1における後部座席には誰も着座していないと推定する。例えば、推定部132は、センサ情報SN1-1において、移動体C1における後部座席に対応する位置に、人の外形に対応する所定の物体が含まれない場合、後部座席にユーザが着座していないと推定する。 The estimation unit 132 estimates that no one is seated in the rear seat of the mobile object C1 based on the sensor information SN1-1. For example, in the sensor information SN1-1, if a predetermined object corresponding to the external shape of a person is not included in the position corresponding to the rear seat in the mobile object C1, the estimation unit 132 determines that the user is not seated in the rear seat. It is estimated that

(決定部133)
決定部133は、各種情報を決定する。決定部133は、各種情報を生成する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を決定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を生成する。決定部133は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を決定する。決定部133は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を生成する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を生成する。決定部133は、決定部133により判定された各種情報に基づいて、種々の情報を決定する。決定部133は、決定部133により判定された各種情報に基づいて、種々の情報を生成する。
(Decision unit 133)
The determining unit 133 determines various information. The determining unit 133 generates various information. The determining unit 133 determines various information based on the various information stored in the storage unit 120. The determining unit 133 generates various information based on the various information stored in the storage unit 120. The determining unit 133 determines various information based on the user information storage unit 121, the POI information storage unit 122, the content information storage unit 123, the mobile information storage unit 124, the sensor information storage unit 125, and the like. The determining unit 133 generates various information based on the user information storage unit 121, the POI information storage unit 122, the content information storage unit 123, the mobile information storage unit 124, the sensor information storage unit 125, and the like. The determining unit 133 determines various information based on the various information acquired by the acquiring unit 131. The determining unit 133 generates various information based on the various information acquired by the acquiring unit 131. The determining unit 133 determines various information based on the various information determined by the determining unit 133. The determining unit 133 generates various information based on the various information determined by the determining unit 133.

決定部133は、各種情報を判定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を判定する。決定部133は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を判定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を判定する。決定部133は、決定部133により決定された各種情報に基づいて、種々の情報を判定する。 The determining unit 133 determines various information. The determining unit 133 determines various information based on the various information stored in the storage unit 120. The determining unit 133 determines various information based on the user information storage unit 121, the POI information storage unit 122, the content information storage unit 123, the mobile information storage unit 124, the sensor information storage unit 125, and the like. The determining unit 133 determines various information based on the various information acquired by the acquiring unit 131. The determining unit 133 determines various information based on the various information determined by the determining unit 133.

決定部133は、取得部131により取得された対象位置情報に基づいて、指向性を有する指向性スピーカであって、対象ユーザの位置に向けて音声を出力する指向性スピーカを、対象ユーザに対応するコンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する。決定部133は、出力対象スピーカのみにコンテンツに関する音声を出力させると決定する。 Based on the target position information acquired by the acquisition unit 131, the determining unit 133 selects a directional speaker that has directionality and outputs audio toward the position of the target user to correspond to the target user. The output target speaker is determined to be a directional speaker that outputs audio related to the content. The determining unit 133 determines to cause only the output target speaker to output audio related to the content.

決定部133は、対象ユーザに応じてコンテンツを決定する。決定部133は、対象ユーザの属性情報に基づいて、コンテンツを決定する。決定部133は、対象ユーザを撮像した画像情報に基づいて推定された対象ユーザの属性情報に基づいて、コンテンツを決定する。決定部133は、推定部132により推定された対象ユーザの位置を示す対象位置情報に基づいて、出力対象スピーカを決定する。決定部133は、対象位置情報に基づいて、対象ユーザの位置に向けて音声を出力する指向性スピーカを、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカに決定する。 The determining unit 133 determines content according to the target user. The determining unit 133 determines content based on the target user's attribute information. The determining unit 133 determines the content based on the attribute information of the target user estimated based on the image information of the target user. The determining unit 133 determines the output target speaker based on the target position information indicating the position of the target user estimated by the estimating unit 132. Based on the target position information, the determining unit 133 determines a directional speaker that outputs audio toward the target user's position as an output target speaker that outputs audio related to content that is uttered by another user.

決定部133は、コンテンツに関する音声を出力するタイミングを決定する。決定部133は、移動体位置情報に基づいて、コンテンツに関する音声を出力するタイミングを決定する。決定部133は、移動体位置情報とPOI位置情報とに基づいて、タイミングを決定する。決定部133は、移動体位置情報とPOI位置情報との比較に基づいて、タイミングを決定する。決定部133は、移動体がPOIから所定の範囲内に位置した場合、コンテンツに関する音声を出力すると決定する。 The determining unit 133 determines the timing to output audio related to the content. The determining unit 133 determines the timing for outputting audio related to the content based on the moving object position information. The determining unit 133 determines the timing based on the mobile object position information and the POI position information. The determining unit 133 determines the timing based on a comparison between the mobile object position information and the POI position information. The determining unit 133 determines to output audio related to the content when the mobile object is located within a predetermined range from the POI.

図1の例では、決定部133は、対象ユーザを決定する。例えば、決定部133は、移動体C1内に位置する複数のユーザのうち、運転者以外の乗車者を対象ユーザに決定する。決定部133は、移動体C1の助手席に着座する子供ユーザCUを対象ユーザに決定する。 In the example of FIG. 1, the determining unit 133 determines the target user. For example, the determining unit 133 determines a passenger other than the driver as the target user among the plurality of users located in the mobile object C1. The determining unit 133 determines the child user CU sitting in the passenger seat of the mobile object C1 as the target user.

決定部133は、コンテンツを決定する。決定部133は、移動体C1の位置やコンテンツの出力条件に基づいて、コンテンツを決定する。決定部133は、移動体C1の位置LC1-2や、コンテンツ情報記憶部123に示す各出力条件に基づいて、子供ユーザCUに提供するコンテンツを決定する。決定部133は、対象とするユーザの属性やコンテンツの出力タイミングに関する出力条件に基づいてコンテンツを決定する。決定部133は、対象やタイミングに関する出力条件を満たすコンテンツを、端末装置TM1-1に出力させるコンテンツに決定する。 The determining unit 133 determines content. The determining unit 133 determines the content based on the position of the mobile object C1 and the content output conditions. The determining unit 133 determines the content to be provided to the child user CU based on the position LC1-2 of the moving object C1 and each output condition shown in the content information storage unit 123. The determining unit 133 determines the content based on the attributes of the target user and the output conditions regarding the output timing of the content. The determining unit 133 determines content that satisfies output conditions regarding target and timing as content to be output to the terminal device TM1-1.

決定部133は、対象ユーザの属性が、出力条件のターゲットユーザに該当する場合、対象ユーザが出力条件のターゲットユーザを満たすと判定する。決定部133は、対象ユーザの属性と、各コンテンツの出力条件「ターゲットユーザ」とを比較することにより、対象ユーザが出力条件のターゲットユーザを満たすかどうかを判定する。決定部133は、対象ユーザが子どもである子供ユーザCUであるため、コンテンツCT1のターゲットユーザ「子ども」を満たすと判定する。 If the attributes of the target user correspond to the target user of the output condition, the determining unit 133 determines that the target user satisfies the target user of the output condition. The determining unit 133 determines whether the target user satisfies the target user output condition by comparing the attributes of the target user and the output condition "target user" of each content. Since the target user is a child user CU, the determining unit 133 determines that the target user "child" of the content CT1 is satisfied.

また、決定部133は、移動体C1の位置に基づいて、コンテンツCT1の出力条件「タイミング」を満たすかを判定する。例えば、決定部133は、移動体C1の位置LC1-2がコンテンツCT1のタイミング「範囲AR1」の領域内に位置する場合、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。コンテンツCT1が対象及びタイミングに関する出力条件を満たすと判定する。そのため、決定部133は、子供ユーザCUに対して提供するコンテンツをコンテンツCT1に決定する。 Further, the determining unit 133 determines whether the output condition "timing" of the content CT1 is satisfied based on the position of the moving body C1. For example, if the position LC1-2 of the moving body C1 is located within the timing "range AR1" of the content CT1, the determining unit 133 determines that the output condition regarding the timing of the content CT1 is satisfied. It is determined that the content CT1 satisfies the output conditions regarding target and timing. Therefore, the determining unit 133 determines the content to be provided to the child user CU as the content CT1.

決定部133は、コンテンツCT1を出力するスピーカを決定する。例えば、決定部133は、移動体C1の指向性スピーカ20のうち、子供ユーザCUの位置に向けて音声を出力する指向性スピーカ20を、コンテンツCT1に関する音声を出力させる出力対象スピーカに決定する。決定部133は、子供ユーザCUが着座している助手席に対応する指向性スピーカDS1-2を出力対象スピーカに決定する。 The determining unit 133 determines the speaker that outputs the content CT1. For example, the determining unit 133 determines, among the directional speakers 20 of the mobile object C1, the directional speaker 20 that outputs audio toward the position of the child user CU as the output target speaker that outputs the audio related to the content CT1. The determining unit 133 determines the directional speaker DS1-2 corresponding to the passenger seat where the child user CU is seated as the output target speaker.

(提供部134)
提供部134は、各種情報を提供する。提供部134は、外部の情報処理装置へ各種情報を提供する。提供部134は、端末装置10等の外部の情報処理装置に各種情報を提供する。提供部134は、端末装置10に各種情報を送信する。提供部134は、端末装置10に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により決定された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により判定された各種情報に基づいて、種々のサービスを提供する。提供部134は、決定部133により判定された各種情報に基づいて、種々の情報を提供する。例えば、提供部134は、指向性スピーカ20に各種情報を提供する。例えば、提供部134は、端末装置10を介して指向性スピーカ20に各種情報を提供する。例えば、提供部134は、指向性スピーカ20に各種情報を送信する。例えば、提供部134は、端末装置10を介して指向性スピーカ20に各種情報を送信する。
(Providing unit 134)
The providing unit 134 provides various information. The providing unit 134 provides various information to an external information processing device. The providing unit 134 provides various information to an external information processing device such as the terminal device 10. The providing unit 134 transmits various information to the terminal device 10. The providing unit 134 delivers various information to the terminal device 10. The providing unit 134 provides various information based on the various information acquired by the acquiring unit 131. The providing unit 134 provides various information based on the various information determined by the determining unit 133. The providing unit 134 provides various services based on the various information determined by the determining unit 133. The providing unit 134 provides various information based on the various information determined by the determining unit 133. For example, the providing unit 134 provides various information to the directional speaker 20. For example, the providing unit 134 provides various information to the directional speaker 20 via the terminal device 10. For example, the providing unit 134 transmits various information to the directional speaker 20. For example, the providing unit 134 transmits various information to the directional speaker 20 via the terminal device 10.

提供部134は、出力対象スピーカによりコンテンツに関する音声を対象ユーザに提供する。図1の例では、提供部134は、コンテンツCT1を指向性スピーカDS1-2に提供する。提供部134は、コンテンツCT1を指向性スピーカDS1-2に送信(配信)する。提供部134は、端末装置TM1-1介して指向性スピーカDS1-2にコンテンツCT1を提供してもよい。 The providing unit 134 provides audio related to the content to the target user through the output target speaker. In the example of FIG. 1, the providing unit 134 provides the content CT1 to the directional speaker DS1-2. The providing unit 134 transmits (distributes) the content CT1 to the directional speaker DS1-2. The providing unit 134 may provide the content CT1 to the directional speaker DS1-2 via the terminal device TM1-1.

〔3.情報処理のフロー〕
次に、図9を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図9は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図9は、出力制御処理の一例を示すフローチャートである。
[3. Information processing flow]
Next, the procedure of information processing by the information processing system 1 according to the embodiment will be described using FIG. 9. FIG. 9 is a flowchart illustrating an example of information processing according to the embodiment. Specifically, FIG. 9 is a flowchart illustrating an example of output control processing.

図9に示すように、情報処理装置100は、所定の移動体内における対象ユーザの対象位置情報を取得する(ステップS101)。そして、情報処理装置100は、対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定する(ステップS102)。そして、情報処理装置100は、出力対象スピーカによりコンテンツに関する音声を対象ユーザに提供する(ステップS103)。図1の例では、情報処理装置100は、出力対象スピーカとして決定した移動体C1の指向性スピーカDS1-2に、コンテンツCT1を提供することにより、移動体C1の助手席に座る子どもである対象ユーザに向けてコンテンツCT1を、指向性スピーカDS1-2により出力させる。 As shown in FIG. 9, the information processing apparatus 100 acquires target position information of a target user within a predetermined moving body (step S101). Then, the information processing device 100 determines an output target speaker to output audio related to the content corresponding to the target user based on the target position information (step S102). Then, the information processing device 100 provides the target user with audio related to the content using the output target speaker (step S103). In the example of FIG. 1, the information processing device 100 provides the content CT1 to the directional speaker DS1-2 of the mobile body C1 determined as the output target speaker, thereby providing the content CT1 to the target, which is a child sitting in the passenger seat of the mobile body C1. The content CT1 is outputted to the user by the directional speaker DS1-2.

〔4.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、決定部133とを有する。取得部131は、所定の移動体内における情報提供の対象となる対象ユーザの位置を示す対象位置情報を取得する。決定部133は、取得部131により取得された対象位置情報に基づいて、指向性を有する指向性スピーカであって、対象ユーザの位置に向けて音声を出力する指向性スピーカを、対象ユーザに対応するコンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する。
[4. effect〕
As described above, the information processing apparatus 100 according to the embodiment includes the acquisition section 131 and the determination section 133. The acquisition unit 131 acquires target position information indicating the position of a target user to whom information is to be provided within a predetermined moving body. Based on the target position information acquired by the acquisition unit 131, the determining unit 133 selects a directional speaker that has directionality and outputs audio toward the position of the target user to correspond to the target user. The output target speaker is determined to be a directional speaker that outputs audio related to the content.

これにより、実施形態に係る情報処理装置100は、所定の移動体内における情報提供の対象となる対象ユーザの位置を示す対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment is an output target that outputs audio related to the content corresponding to the target user based on the target position information indicating the position of the target user who is the target of information provision within a predetermined moving object. By determining the speaker, it is possible to output audio to the user using an appropriate directional speaker. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体内に位置する複数のユーザのうち、対象ユーザの位置を示す対象位置情報を取得する。決定部133は、出力対象スピーカのみにコンテンツに関する音声を出力させると決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires target position information indicating the position of a target user among a plurality of users located within a predetermined moving object. The determining unit 133 determines to cause only the output target speaker to output audio related to the content.

これにより、実施形態に係る情報処理装置100は、出力対象スピーカのみにコンテンツに関する音声を出力させると決定することにより、移動体内の他のユーザへの音声出力を抑制するとともに、対象ユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment determines that only the output target speaker outputs the audio related to the content, thereby suppressing audio output to other users in the moving body, and also suppresses audio output to the target user. It can output audio. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、決定部133は、対象ユーザに応じてコンテンツを決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the determining unit 133 determines content according to the target user.

これにより、実施形態に係る情報処理装置100は、対象ユーザに応じてコンテンツを決定することにより、適切な内容のコンテンツをユーザに対して出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment can output content with appropriate content to the user by determining the content according to the target user. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

また、実施形態に係る情報処理装置100において、決定部133は、対象ユーザの属性情報に基づいて、コンテンツを決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the determining unit 133 determines content based on the target user's attribute information.

これにより、実施形態に係る情報処理装置100は、対象ユーザの属性情報に基づいて、コンテンツを決定することにより、ユーザ属性に応じた適切な内容のコンテンツをユーザに対して出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment can output content to the user with appropriate content according to the user attribute by determining the content based on the target user's attribute information. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、決定部133は、対象ユーザを撮像した画像情報に基づいて推定された対象ユーザの属性情報に基づいて、コンテンツを決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the determining unit 133 determines content based on the attribute information of the target user estimated based on the image information of the target user.

これにより、実施形態に係る情報処理装置100は、対象ユーザを撮像した画像情報に基づいて推定された対象ユーザの属性情報に基づいて、コンテンツを決定することにより、ユーザ属性に応じた適切な内容のコンテンツをユーザに対して出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment determines the content based on the attribute information of the target user estimated based on the image information of the target user, thereby determining the content appropriate for the user attribute. content can be output to the user. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、決定部133は、コンテンツに関する音声を出力するタイミングを決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the determining unit 133 determines the timing to output audio related to the content.

これにより、実施形態に係る情報処理装置100は、コンテンツに関する音声を出力するタイミングを決定することにより、適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment can output the audio to the user at an appropriate timing by determining the timing to output the audio related to the content. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体の位置を示す移動体位置情報を取得する。決定部133は、移動体位置情報に基づいて、コンテンツに関する音声を出力するタイミングを決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires mobile body position information indicating the position of a predetermined mobile body. The determining unit 133 determines the timing for outputting audio related to the content based on the moving object position information.

これにより、実施形態に係る情報処理装置100は、所定の移動体の移動体位置情報に基づいて、コンテンツに関する音声を出力するタイミングを決定することにより、移動体の位置に応じて適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment determines the timing to output the audio related to the content based on the mobile body position information of the predetermined mobile body, so that the information processing apparatus 100 can output the audio related to the content at an appropriate timing according to the position of the mobile body. Audio can be output to the user. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

また、実施形態に係る情報処理装置100において、取得部131は、コンテンツに関連するPOIの位置を示すPOI位置情報を取得する。決定部133は、移動体位置情報とPOI位置情報とに基づいて、タイミングを決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires POI position information indicating the position of a POI related to content. The determining unit 133 determines the timing based on the mobile object position information and the POI position information.

これにより、実施形態に係る情報処理装置100は、移動体位置情報とコンテンツに関連するPOIの位置を示すPOI位置情報とに基づいて、コンテンツに関する音声を出力するタイミングを決定することにより、移動体とPOIとの位置関係に応じて適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment determines the timing of outputting the audio related to the content based on the mobile location information and the POI location information indicating the location of the POI related to the content. It is possible to output audio to the user at an appropriate timing depending on the positional relationship between the POI and the POI. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、決定部133は、移動体位置情報とPOI位置情報との比較に基づいて、タイミングを決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the determining unit 133 determines the timing based on a comparison between the moving body position information and the POI position information.

これにより、実施形態に係る情報処理装置100は、移動体位置情報とPOI位置情報との比較に基づいて、タイミングを決定することにより、移動体とPOIとの位置関係に応じて適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing device 100 according to the embodiment determines the timing based on the comparison between the mobile body position information and the POI position information, thereby determining the timing at an appropriate timing according to the positional relationship between the mobile body and the POI. Audio can be output to the user. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

また、実施形態に係る情報処理装置100において、決定部133は、移動体がPOIから所定の範囲内に位置した場合、コンテンツに関する音声を出力すると決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the determining unit 133 determines to output audio related to the content when the mobile object is located within a predetermined range from the POI.

これにより、実施形態に係る情報処理装置100は、移動体がPOIから所定の範囲内に位置した場合、コンテンツに関する音声を出力すると決定することにより、移動体とPOIとの位置関係に応じて適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment determines to output audio related to the content when the mobile object is located within a predetermined range from the POI, and thereby determines to output audio related to the content appropriately according to the positional relationship between the mobile object and the POI. It is possible to output audio to the user at the appropriate timing. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体である自動車内に位置するユーザのうち、対象ユーザの位置を示す対象位置情報を取得する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires target position information indicating the position of a target user among users located in a predetermined moving object, such as an automobile.

これにより、実施形態に係る情報処理装置100は、所定の移動体である自動車内に位置するユーザのうち、対象ユーザの位置を示す対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカにより自動車内のユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment generates audio related to the content corresponding to the target user based on the target position information indicating the position of the target user among the users located in the automobile, which is a predetermined moving object. By determining the output target speaker to be output, it is possible to output audio to the user in the car using an appropriate directional speaker. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者以外の乗車者である対象ユーザの位置を示す対象位置情報を取得する。 In the information processing apparatus 100 according to the embodiment, the acquisition unit 131 also includes a target position indicating the position of a target user who is a passenger other than the driver among a plurality of users located in a car that is a predetermined moving object. Get information.

これにより、実施形態に係る情報処理装置100は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者以外の乗車者である対象ユーザの位置を示す対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、自動車内に複数のユーザがいる場合であっても、適切な指向性スピーカにより対象ユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment is able to calculate the information based on the target position information indicating the position of the target user who is a passenger other than the driver among the plurality of users located in the automobile, which is a predetermined moving object. By determining the output target speaker that outputs the audio related to the content corresponding to the target user, even if there are multiple users in the car, the audio is output to the target user using an appropriate directional speaker. be able to. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者である対象ユーザの位置を示す対象位置情報を取得する。 In the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires target position information indicating the position of a target user who is a driver among a plurality of users located in a car that is a predetermined moving object. .

これにより、実施形態に係る情報処理装置100は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者である対象ユーザの位置を示す対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、自動車内に複数のユーザがいる場合であっても、適切な指向性スピーカにより対象ユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment is able to locate the target user based on the target position information indicating the position of the target user, who is the driver, among the plurality of users located in the automobile, which is a predetermined moving object. By determining the output target speaker that outputs the audio related to the corresponding content, even if there are multiple users in the car, it is possible to output the audio to the target user using an appropriate directional speaker. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

また、実施形態に係る情報処理装置100は、推定部132を有する。推定部132は、所定の移動体内における対象ユーザの位置を推定する。決定部133は、推定部132により推定された対象ユーザの位置を示す対象位置情報に基づいて、出力対象スピーカを決定する。 Further, the information processing device 100 according to the embodiment includes an estimation unit 132. The estimation unit 132 estimates the position of the target user within a predetermined moving body. The determining unit 133 determines the output target speaker based on the target position information indicating the position of the target user estimated by the estimating unit 132.

これにより、実施形態に係る情報処理装置100は、所定の移動体内における対象ユーザの位置を推定し、推定した対象ユーザの位置を示す対象位置情報に基づいて、出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment estimates the position of the target user within a predetermined moving object, and determines the output target speaker based on the target position information indicating the estimated position of the target user. Sound can be output to the user using appropriate directional speakers. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体内を撮像した画像情報である移動体内画像を取得する。推定部132は、移動体内画像に基づいて、所定の移動体内における対象ユーザの位置を推定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires an in-vehicle image that is image information captured inside a predetermined moving body. The estimation unit 132 estimates the position of the target user within a predetermined moving body based on the inside moving body image.

これにより、実施形態に係る情報処理装置100は、移動体内画像に基づいて、所定の移動体内における対象ユーザの位置を推定し、推定した対象ユーザの位置を示す対象位置情報に基づいて、出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment estimates the position of the target user in a predetermined moving body based on the in-vehicle image, and estimates the position of the target user in the output target based on the target position information indicating the estimated position of the target user. By determining the speaker, it is possible to output audio to the user using an appropriate directional speaker. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100は、提供部134を有する。提供部134は、出力対象スピーカによりコンテンツに関する音声を対象ユーザに提供する。 Further, the information processing device 100 according to the embodiment includes a providing unit 134. The providing unit 134 provides audio related to the content to the target user using the output target speaker.

これにより、実施形態に係る情報処理装置100は、出力対象スピーカによりコンテンツに関する音声を対象ユーザに提供することにより、適切な指向性スピーカによりユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment can output audio to the user using an appropriate directional speaker by providing audio related to the content to the target user using the output target speaker. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体外に位置する他のユーザの音声対話の相手先である対象ユーザの対象位置情報を取得する。決定部133は、対象位置情報に基づいて、対象ユーザの位置に向けて音声を出力する指向性スピーカを、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカに決定する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires target position information of a target user who is a voice dialogue partner of another user located outside a predetermined moving body. Based on the target position information, the determining unit 133 determines a directional speaker that outputs audio toward the target user's position as an output target speaker that outputs audio related to content that is uttered by another user.

これにより、実施形態に係る情報処理装置100は、所定の移動体外に位置する他のユーザの音声対話の相手先である対象ユーザの位置を示す対象位置情報に基づいて、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声対話の相手の音声を出力することができる。これにより、情報処理装置100は、移動体内外間における音声対話に関するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment can detect the utterances of other users based on the target position information indicating the position of the target user who is the other user's voice dialogue partner located outside the predetermined moving body. By determining the output target speaker that outputs the audio related to a certain content, it is possible to output the audio of the other party in the audio dialogue to the user using an appropriate directional speaker. Thereby, the information processing device 100 can appropriately provide services related to voice dialogue between the inside and outside of the mobile body. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、取得部131は、所定の住宅内に位置する他のユーザの音声対話の相手先である対象ユーザの対象位置情報を取得する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires target position information of a target user who is a voice dialogue partner of another user located in a predetermined residence.

これにより、実施形態に係る情報処理装置100は、所定の住宅内に位置する他のユーザの音声対話の相手先である対象ユーザの位置を示す対象位置情報に基づいて、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声対話の相手の音声を出力することができる。これにより、情報処理装置100は、移動体と住宅間における音声対話に関するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 As a result, the information processing apparatus 100 according to the embodiment can detect the utterances of other users based on the target position information indicating the position of the target user who is the other user's voice dialogue partner located in a predetermined residence. By determining the output target speaker that outputs the audio related to a certain content, it is possible to output the audio of the other party in the audio dialogue to the user using an appropriate directional speaker. Thereby, the information processing apparatus 100 can appropriately provide a service related to voice dialogue between a mobile object and a residence. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving object.

また、実施形態に係る情報処理装置100において、取得部131は、他のユーザが利用する端末装置からの発信先に対応する対象ユーザの対象位置情報を取得する。 Furthermore, in the information processing apparatus 100 according to the embodiment, the acquisition unit 131 acquires target location information of a target user corresponding to a destination from a terminal device used by another user.

これにより、実施形態に係る情報処理装置100は、他のユーザが利用する端末装置からの発信先に対応する対象ユーザの対象位置情報に基づいて、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声対話の相手の音声を出力することができる。これにより、情報処理装置100は、移動体内外間における音声対話に関するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。 Thereby, the information processing apparatus 100 according to the embodiment outputs audio related to the content that is uttered by another user based on the target location information of the target user corresponding to the destination from the terminal device used by the other user. By determining the output target speakers, it is possible to output the voice of the other party in the voice dialogue to the user using an appropriate directional speaker. Thereby, the information processing device 100 can appropriately provide services related to voice dialogue between the inside and outside of the mobile body. Therefore, the information processing apparatus 100 can provide appropriate information according to the position of the target user within the moving body.

〔5.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
The information processing apparatus 100 according to the embodiments described above is realized by, for example, a computer 1000 having a configuration as shown in FIG. 11. FIG. 11 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device. Computer 1000 has CPU 1100, RAM 1200, ROM 1300, HDD (Hard Disk Drive) 1400, communication interface (I/F) 1500, input/output interface (I/F) 1600, and media interface (I/F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 CPU 1100 operates based on a program stored in ROM 1300 or HDD 1400, and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, programs depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from other devices via network N and sends it to CPU 1100, and sends data generated by CPU 1100 to other devices via network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and mouse via an input/output interface 1600. CPU 1100 obtains data from an input device via input/output interface 1600. Further, CPU 1100 outputs the generated data to an output device via input/output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200. CPU 1100 loads this program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing device 100 according to the embodiment, the CPU 1100 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the network N.

以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Some of the embodiments and modifications of the present application have been described above in detail based on the drawings, but these are merely examples, and various modifications can be made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure section of the invention. It is possible to implement the present invention in other forms with modifications and improvements.

〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. others〕
Furthermore, among the processes described in the above embodiments and modified examples, all or part of the processes described as being performed automatically can be performed manually, or may be described as being performed manually. All or part of this processing can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
100 情報処理装置
121 ユーザ情報記憶部
122 POI情報記憶部
123 コンテンツ情報記憶部
124 移動体情報記憶部
125 センサ情報記憶部
130 制御部
131 取得部
132 推定部
133 決定部
134 提供部
10 端末装置
20 指向性スピーカ
N ネットワーク
1 Information processing system 100 Information processing device 121 User information storage unit 122 POI information storage unit 123 Content information storage unit 124 Mobile information storage unit 125 Sensor information storage unit 130 Control unit 131 Acquisition unit 132 Estimation unit 133 Determination unit 134 Provision unit 10 Terminal device 20 Directional speaker N Network

Claims (15)

コンテンツと前記コンテンツの出力条件であって、前記コンテンツの出力対象となる対象ユーザの属性を示す属性条件と、前記コンテンツを出力するタイミングを示すタイミング条件とからなる出力条件とを対応付けて記憶し、前記属性条件は前記対象ユーザの年齢に関する属性条件である場合を含み、前記タイミング条件は所定の移動体内における会話停止のタイミング条件である場合を含む、コンテンツ情報記憶部と、
前記コンテンツ情報記憶部に記憶された情報と、所定の移動体内における前記対象ユーザの位置を示す対象位置情報と、前記対象ユーザの属性情報と、前記タイミング条件を判定するための情報とを取得する取得部と、
複数の前記コンテンツのうち、前記対象ユーザの属性情報が前記属性条件を満たし、かつ、前記タイミング条件を判定するための情報が前記タイミング条件を満たす場合に、前記出力条件に対応付けられたコンテンツを前記対象ユーザに提供するコンテンツに決定し、前記対象位置情報に基づいて、指向性を有する指向性スピーカであって、前記対象ユーザの位置に向けて音声を出力する指向性スピーカを、前記コンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する決定部と、
前記コンテンツを前記出力対象スピーカに送信する提供部と、
を備えることを特徴とする情報処理装置。
A content and an output condition for the content, which includes an attribute condition indicating an attribute of a target user to whom the content is output, and a timing condition indicating a timing to output the content, are stored in association with each other. , a content information storage unit, wherein the attribute condition is an attribute condition related to the age of the target user, and the timing condition is a timing condition for stopping a conversation within a predetermined moving body;
acquiring information stored in the content information storage unit, target position information indicating the position of the target user within a predetermined moving body, attribute information of the target user, and information for determining the timing condition. an acquisition department;
Among the plurality of contents, when the attribute information of the target user satisfies the attribute condition and the information for determining the timing condition satisfies the timing condition, the content associated with the output condition is selected. The content is determined to be provided to the target user, and based on the target location information, a directional speaker having directionality that outputs audio toward the target user's position is set to be a directional speaker related to the content. a determining unit that determines an output target speaker that is a directional speaker that outputs audio;
a providing unit that transmits the content to the output target speaker;
An information processing device comprising:
前記取得部は、
前記所定の移動体内に位置する複数のユーザのうち、前記対象ユーザの位置を示す前記対象位置情報を取得し、
前記決定部は、
前記出力対象スピーカのみに前記コンテンツに関する音声を出力させると決定する
ことを特徴とする請求項1に記載の情報処理装置。
The acquisition unit includes:
obtaining the target position information indicating the position of the target user among the plurality of users located in the predetermined moving object;
The determining unit is
The information processing apparatus according to claim 1, wherein the information processing apparatus determines that only the output target speaker outputs audio related to the content.
前記決定部は、
前記対象ユーザを撮像した画像情報に基づいて推定された前記対象ユーザの属性情報に基づいて、前記コンテンツを決定する
ことを特徴とする請求項1または2に記載の情報処理装置。
The determining unit is
The information processing apparatus according to claim 1 or 2 , wherein the content is determined based on attribute information of the target user estimated based on image information of the target user.
前記決定部は、
前記コンテンツに関する音声を出力するタイミングを決定する
ことを特徴とする請求項1~のいずれか1項に記載の情報処理装置。
The determining unit is
The information processing apparatus according to any one of claims 1 to 3 , further comprising determining a timing for outputting audio related to the content.
前記取得部は、
前記所定の移動体の位置を示す移動体位置情報を取得し、
前記決定部は、
前記移動体位置情報に基づいて、前記コンテンツに関する音声を出力するタイミングを決定する
ことを特徴とする請求項に記載の情報処理装置。
The acquisition unit includes:
obtaining mobile body position information indicating the position of the predetermined mobile body;
The determining unit is
The information processing apparatus according to claim 4 , wherein a timing for outputting audio related to the content is determined based on the moving body position information.
前記取得部は、
前記コンテンツに関連するPOIの位置を示すPOI位置情報を取得し、
前記決定部は、
前記移動体位置情報と前記POI位置情報とに基づいて、前記コンテンツに関する音声を出力するタイミングを決定する
ことを特徴とする請求項に記載の情報処理装置。
The acquisition unit includes:
Obtaining POI location information indicating the location of a POI related to the content,
The determining unit is
The information processing apparatus according to claim 5 , wherein a timing for outputting audio related to the content is determined based on the mobile object position information and the POI position information.
前記決定部は、
前記移動体位置情報と前記POI位置情報との比較に基づいて、前記コンテンツに関する音声を出力するタイミングを決定する
ことを特徴とする請求項に記載の情報処理装置。
The determining unit is
The information processing apparatus according to claim 6, wherein a timing for outputting audio related to the content is determined based on a comparison between the mobile object position information and the POI position information.
前記決定部は、
前記移動体が前記POIから所定の範囲内に位置した場合、前記コンテンツに関する音声を出力すると決定する
ことを特徴とする請求項または請求項に記載の情報処理装置。
The determining unit is
The information processing apparatus according to claim 6 or 7 , wherein when the mobile object is located within a predetermined range from the POI, it is determined to output audio related to the content.
前記取得部は、
前記所定の移動体である自動車内に位置するユーザのうち、前記対象ユーザの位置を示す前記対象位置情報を取得する
ことを特徴とする請求項1~のいずれか1項に記載の情報処理装置。
The acquisition unit includes:
The information processing according to any one of claims 1 to 8 , characterized in that the target position information indicating the position of the target user among users located in the predetermined moving object, ie, an automobile, is acquired. Device.
前記取得部は、
前記所定の移動体である自動車内に位置する複数のユーザのうち、運転者以外の乗車者である前記対象ユーザの位置を示す前記対象位置情報を取得する
ことを特徴とする請求項に記載の情報処理装置。
The acquisition unit includes:
10. The target position information indicating the position of the target user who is a passenger other than the driver among a plurality of users located in the predetermined moving object, ie, an automobile, is acquired. information processing equipment.
前記取得部は、
前記所定の移動体である自動車内に位置する複数のユーザのうち、運転者である前記対象ユーザの位置を示す前記対象位置情報を取得する
ことを特徴とする請求項に記載の情報処理装置。
The acquisition unit includes:
The information processing device according to claim 9 , wherein the information processing device acquires the target position information indicating the position of the target user who is a driver among a plurality of users located in a car that is the predetermined moving object. .
前記所定の移動体内における前記対象ユーザの位置を推定する推定部、
をさらに備え、
前記決定部は、
前記推定部により推定された前記対象ユーザの位置を示す前記対象位置情報に基づいて、前記出力対象スピーカを決定する
ことを特徴とする請求項1~11のいずれか1項に記載の情報処理装置。
an estimation unit that estimates the position of the target user within the predetermined moving body;
Furthermore,
The determining unit is
The information processing device according to any one of claims 1 to 11 , wherein the output target speaker is determined based on the target position information indicating the target user's position estimated by the estimation unit. .
前記取得部は、
前記所定の移動体内を撮像した画像情報である移動体内画像を取得し、
前記推定部は、
前記移動体内画像に基づいて、前記所定の移動体内における前記対象ユーザの位置を推定する
ことを特徴とする請求項12に記載の情報処理装置。
The acquisition unit includes:
Obtaining an in-vehicle image that is image information captured inside the predetermined moving body;
The estimation unit is
The information processing apparatus according to claim 12 , wherein the position of the target user within the predetermined moving body is estimated based on the image within the moving body.
コンテンツと前記コンテンツの出力条件であって、前記コンテンツの出力対象となる対象ユーザの属性を示す属性条件と、前記コンテンツを出力するタイミングを示すタイミング条件とからなる出力条件とを対応付けて記憶し、前記属性条件は前記対象ユーザの年齢に関する属性条件である場合を含み、前記タイミング条件は所定の移動体内における会話停止のタイミング条件である場合を含む、コンテンツ情報記憶部を備えたコンピュータが実行する情報処理方法であって、
前記コンテンツ情報記憶部に記憶された情報と、所定の移動体内における前記対象ユーザの位置を示す対象位置情報と、前記対象ユーザの属性情報と、前記タイミング条件を判定するための情報とを取得する取得工程と、
複数の前記コンテンツのうち、前記対象ユーザの属性情報が前記属性条件を満たし、かつ、前記タイミング条件を判定するための情報が前記タイミング条件を満たす場合に、前記出力条件に対応付けられたコンテンツを前記対象ユーザに提供するコンテンツに決定し、前記対象位置情報に基づいて、指向性を有する指向性スピーカであって、前記対象ユーザの位置に向けて音声を出力する指向性スピーカを、前記コンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する決定工程と、
前記コンテンツを前記出力対象スピーカに送信する提供工程と、
を含むことを特徴とする情報処理方法。
A content and an output condition for the content, which includes an attribute condition indicating an attribute of a target user to whom the content is output, and a timing condition indicating a timing to output the content, are stored in association with each other. , the attribute condition may be an attribute condition related to the age of the target user, and the timing condition may be a timing condition for stopping a conversation within a predetermined moving body, executed by a computer equipped with a content information storage unit. An information processing method,
acquiring information stored in the content information storage unit, target position information indicating the position of the target user within a predetermined moving body, attribute information of the target user, and information for determining the timing condition. acquisition process,
Among the plurality of contents, when the attribute information of the target user satisfies the attribute condition and the information for determining the timing condition satisfies the timing condition, the content associated with the output condition is selected. The content is determined to be provided to the target user, and based on the target location information, a directional speaker having directionality that outputs audio toward the target user's position is set to be a directional speaker related to the content. a determination step of determining an output target speaker that is a directional speaker that outputs audio;
a providing step of transmitting the content to the output target speaker;
An information processing method characterized by comprising:
コンテンツと前記コンテンツの出力条件であって、前記コンテンツの出力対象となる対象ユーザの属性を示す属性条件と、前記コンテンツを出力するタイミングを示すタイミング条件とからなる出力条件とを対応付けて記憶し、前記属性条件は前記対象ユーザの年齢に関する属性条件である場合を含み、前記タイミング条件は所定の移動体内における会話停止のタイミング条件である場合を含む、コンテンツ情報記憶部を備えたコンピュータに、
前記コンテンツ情報記憶部に記憶された情報と、所定の移動体内における前記対象ユーザの位置を示す対象位置情報と、前記対象ユーザの属性情報と、前記タイミング条件を判定するための情報とを取得する取得手順と、
複数の前記コンテンツのうち、前記対象ユーザの属性情報が前記属性条件を満たし、かつ、前記タイミング条件を判定するための情報が前記タイミング条件を満たす場合に、前記出力条件に対応付けられたコンテンツを前記対象ユーザに提供するコンテンツに決定し、前記対象位置情報に基づいて、指向性を有する指向性スピーカであって、前記対象ユーザの位置に向けて音声を出力する指向性スピーカを、前記コンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する決定手順と、
前記コンテンツを前記出力対象スピーカに送信する提供手順と、
を実行させることを特徴とする情報処理プログラム。
A content and an output condition for the content, which includes an attribute condition indicating an attribute of a target user to whom the content is output, and a timing condition indicating a timing to output the content, are stored in association with each other. , the attribute condition may be an attribute condition related to the age of the target user, and the timing condition may be a timing condition for stopping a conversation within a predetermined moving body;
acquiring information stored in the content information storage unit, target position information indicating the position of the target user within a predetermined moving body, attribute information of the target user, and information for determining the timing condition. Acquisition procedure and
Among the plurality of contents, when the attribute information of the target user satisfies the attribute condition and the information for determining the timing condition satisfies the timing condition, the content associated with the output condition is selected. The content is determined to be provided to the target user, and based on the target location information, a directional speaker having directionality that outputs audio toward the target user's position is set to be a directional speaker related to the content. a determination procedure for determining an output target speaker that is a directional speaker that outputs audio;
a provision step of transmitting the content to the output target speaker;
An information processing program that executes .
JP2018157827A 2018-08-24 2018-08-24 Information processing device, information processing method, and information processing program Active JP7405502B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157827A JP7405502B2 (en) 2018-08-24 2018-08-24 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157827A JP7405502B2 (en) 2018-08-24 2018-08-24 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2020030776A JP2020030776A (en) 2020-02-27
JP7405502B2 true JP7405502B2 (en) 2023-12-26

Family

ID=69622638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157827A Active JP7405502B2 (en) 2018-08-24 2018-08-24 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7405502B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232755A (en) 2009-03-26 2010-10-14 Kddi Corp Handsfree calling device, directivity adjustment method, and directivity adjustment program
JP2010283506A (en) 2009-06-03 2010-12-16 Mitsubishi Electric Corp Acoustic processing device for vehicle installation
JP2017193207A (en) 2016-04-18 2017-10-26 アイシン精機株式会社 In-cabin conversation support device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006014978A (en) * 2004-07-02 2006-01-19 Matsushita Electric Ind Co Ltd Oxygen enricher
JP5045302B2 (en) * 2007-08-10 2012-10-10 株式会社デンソー Automotive information provision device
JP7049803B2 (en) * 2017-10-18 2022-04-07 株式会社デンソーテン In-vehicle device and audio output method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232755A (en) 2009-03-26 2010-10-14 Kddi Corp Handsfree calling device, directivity adjustment method, and directivity adjustment program
JP2010283506A (en) 2009-06-03 2010-12-16 Mitsubishi Electric Corp Acoustic processing device for vehicle installation
JP2017193207A (en) 2016-04-18 2017-10-26 アイシン精機株式会社 In-cabin conversation support device

Also Published As

Publication number Publication date
JP2020030776A (en) 2020-02-27

Similar Documents

Publication Publication Date Title
US11310624B2 (en) Cognitive location and navigation services for custom applications
US20190391999A1 (en) Methods And Systems For Searching Utilizing Acoustical Context
KR102655342B1 (en) Context aware navigation voice assistant
JP7139904B2 (en) Information processing device and information processing program
JPWO2019049491A1 (en) Information processing device and information processing method
US20170083933A1 (en) Information processing device, information processing method, and non-transitory computer readable storage medium
US11308175B2 (en) Method and apparatus for enhancing a geolocation database
JP6767322B2 (en) Output control device, output control method and output control program
JP7405502B2 (en) Information processing device, information processing method, and information processing program
JP7294506B2 (en) VOICE MESSAGE SYSTEM, SERVER DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
JP7260263B2 (en) Information processing device, information processing method, and information processing program
JP6267298B1 (en) Providing device, providing method, providing program, terminal device, output method, and output program
JP6884605B2 (en) Judgment device
JP7475808B2 (en) Information processing device, information processing method, and information processing program
JP7032265B2 (en) Information processing equipment, information processing methods, and information processing programs
JP2023169712A (en) Information processing device, information processing method, and information processing program
JP6971205B2 (en) Information processing equipment, information processing methods, and information processing programs
JP7027281B2 (en) Information processing equipment, information processing methods, and information processing programs
JP7154063B2 (en) Information processing device, information processing method, and information processing program
JP2015150441A (en) Data processing system and operation method of the same
JP2018167737A (en) On-vehicle communication device mounted on vehicle to enable communication with user getting in vehicle, communication method and program
JP7093268B2 (en) Information processing equipment, information processing methods, and information processing programs
JP2019163984A (en) Information provider and method for controlling the same
JP2023057803A (en) Information processing apparatus, information processing method, and information processing program
JP2020030549A (en) Information processor, method for processing information, and information processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221202

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221206

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230127

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230131

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230228

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231214

R150 Certificate of patent or registration of utility model

Ref document number: 7405502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150