JP6054140B2 - Message management apparatus, message presentation apparatus, message management apparatus control method, and message presentation apparatus control method - Google Patents

Message management apparatus, message presentation apparatus, message management apparatus control method, and message presentation apparatus control method Download PDF

Info

Publication number
JP6054140B2
JP6054140B2 JP2012238190A JP2012238190A JP6054140B2 JP 6054140 B2 JP6054140 B2 JP 6054140B2 JP 2012238190 A JP2012238190 A JP 2012238190A JP 2012238190 A JP2012238190 A JP 2012238190A JP 6054140 B2 JP6054140 B2 JP 6054140B2
Authority
JP
Japan
Prior art keywords
message
presentation
utterance
target person
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012238190A
Other languages
Japanese (ja)
Other versions
JP2014089524A (en
Inventor
みな子 桑田
みな子 桑田
孝之 永松
孝之 永松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012238190A priority Critical patent/JP6054140B2/en
Publication of JP2014089524A publication Critical patent/JP2014089524A/en
Application granted granted Critical
Publication of JP6054140B2 publication Critical patent/JP6054140B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、メッセージを提示するメッセージ提示システムなどに関する。   The present invention relates to a message presentation system that presents a message.

近年、ユーザ間、あるいはユーザと電子機器との間において、メッセージの送受信を行う電子機器が開発されている。該電子機器には、円滑にメッセージをやりとりするための工夫が施されている。   In recent years, electronic devices that transmit and receive messages between users or between users and electronic devices have been developed. The electronic device is devised to exchange messages smoothly.

例えば、特許文献3には、テキストデータと音声データとを相互に変換し、見守り者と高齢者との間のメッセージ伝達を円滑に行う生活見守りシステムが開示されている。   For example, Patent Literature 3 discloses a life monitoring system that converts text data and voice data to each other and smoothly transmits a message between a watcher and an elderly person.

さらに、ユーザと電子機器との間でメッセージのやりとりを行う電子コミュニケーション装置においては、より自然で人間味のあるメッセージ、または、よりユーザにとって有益なメッセージを送信できるような工夫が施されている。   Furthermore, in an electronic communication device that exchanges messages between a user and an electronic device, a device is provided so that a more natural and human-friendly message or a message that is more beneficial to the user can be transmitted.

例えば、特許文献1には、ユーザ属性に基づいて提示するメッセージを変化させる電子コミュニケーション装置が開示されている。   For example, Patent Literature 1 discloses an electronic communication device that changes a message to be presented based on a user attribute.

また、特許文献2には、ユーザ間で送受信されるメッセージ中のキーワードを検出し、該キーワードに対応付けられた制御命令をもってキャラクタ装置を駆動させるシステムが開示されている。   Patent Document 2 discloses a system that detects a keyword in a message transmitted and received between users and drives a character device with a control command associated with the keyword.

特開2005−092540号公報(2005年 4月 7日公開)JP 2005-092540 A (published April 7, 2005) 特開2000−076167号公報(2000年 3月14日公開)JP 2000-076167 A (published March 14, 2000) 特開2004−272568号公報(2004年 9月30日公開)JP 2004-272568 A (published September 30, 2004)

ユーザと電子機器との間でメッセージのやりとりを行う場合においても、ユーザビリティの観点から言うと、上記電子機器は、人と人とが会話するように、ユーザの発話に対してメッセージを提示するのがより自然であると考えられる。また、ユーザの発話に対し最適なメッセージを送信するために、該電子機器は、「誰が(発話ユーザは誰か)」「何を言ったか(発話内容は何か)」に基づき提示するメッセージを変化させることが望ましい。   Even when messages are exchanged between a user and an electronic device, from the viewpoint of usability, the electronic device presents a message to the user's utterance so that a person can talk to another person. Is considered more natural. In addition, in order to transmit the optimum message for the user's utterance, the electronic device changes the message to be presented based on “who (who is the uttering user)” and “what was said (what is the utterance content)” It is desirable to make it.

しかしながら、特許文献1および2に開示の技術は、ユーザの電子的なメッセージの送信に応じてメッセージを提示するものであり、ユーザの自然な発話に対するメッセージの提示は行っていない。また、特許文献1および2に開示の技術では、ユーザ識別情報(ユーザID、メールアドレスなど)からユーザが誰であるか判断し、提示するメッセージを変化させているので、該技術をユーザの発話に対して適用することは難しい。   However, the techniques disclosed in Patent Documents 1 and 2 present a message in response to the user's electronic message transmission, and do not present a message for the user's natural utterance. Further, in the technologies disclosed in Patent Documents 1 and 2, the user identification information (user ID, e-mail address, etc.) is used to determine who the user is and to change the message to be presented. It is difficult to apply against.

結果的に、特許文献1および2に開示の技術では、ユーザの発話に対応して、人が会話するように、「誰が」、「何を言ったか」に基づいて会話内容(提示するメッセージ)を変化させることができないという問題がある。   As a result, in the techniques disclosed in Patent Documents 1 and 2, the conversation content (message to be presented) is based on “who” and “what was said” so that a person speaks in response to the user's utterance. There is a problem that cannot be changed.

本発明は上記の問題点に鑑みたものであり、その目的は、ユーザの発話に対応して、ユーザに対しより適切な内容のメッセージを出力装置に提示させることができるメッセージ管理装置、メッセージ提示装置、メッセージ提示システム、メッセージ管理装置およびメッセージ提示装置の制御方法、制御プログラム、および記録媒体を実現することにある。   SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and its purpose is to provide a message management apparatus and message presentation that can cause a user to present a message with a more appropriate content to the output apparatus in response to the user's utterance. An apparatus, a message presentation system, a message management apparatus, a control method for the message presentation apparatus, a control program, and a recording medium are provided.

上記の課題を解決するために、本発明の一態様に係るメッセージ管理装置は、提示対象者に提示するためのメッセージをメッセージ提示装置に送信するメッセージ管理装置であって、提示対象者の発話を取得して生成された発話データを取得する発話取得手段と、上記発話取得手段が取得した上記発話データに含まれるキーワードを抽出するキーワード抽出手段と、上記発話取得手段が取得した上記発話データに基づいて上記提示対象者を特定する対象者特定手段と、上記キーワード抽出手段によって抽出された上記キーワード、および、上記対象者特定手段によって特定された上記提示対象者にあらかじめ対応づけられたメッセージを、上記メッセージ提示装置に送信するメッセージとして特定するメッセージ特定手段とを備えることを特徴としている。   In order to solve the above-described problem, a message management device according to an aspect of the present invention is a message management device that transmits a message to be presented to a presentation target person to the message presentation device. Based on utterance acquisition means for acquiring utterance data acquired and acquired, keyword extraction means for extracting keywords included in the utterance data acquired by the utterance acquisition means, and the utterance data acquired by the utterance acquisition means A target person specifying means for specifying the presentation target person, the keyword extracted by the keyword extracting means, and a message previously associated with the presentation target person specified by the target person specifying means, Message specifying means for specifying the message to be transmitted to the message presenting device. It is set to.

また、本発明の一態様に係るメッセージ管理装置の制御方法は、提示対象者に提示するためのメッセージをメッセージ提示装置に送信するメッセージ管理装置の制御方法であって、提示対象者の発話を取得して生成された発話データを取得する発話取得ステップと、上記発話取得ステップにて取得した上記発話データに含まれるキーワードを抽出するキーワード抽出ステップと、上記発話取得ステップにて取得した上記発話データに基づいて上記提示対象者を特定する対象者特定ステップと、上記キーワード抽出ステップにて抽出された上記キーワード、および、上記対象者特定ステップにて特定された上記提示対象者にあらかじめ対応づけられたメッセージを、上記メッセージ提示装置に送信するメッセージとして特定するメッセージ特定ステップとを含むことを特徴としている。   The message management apparatus control method according to an aspect of the present invention is a message management apparatus control method for transmitting a message to be presented to a presentation target person to the message presentation apparatus, and acquires the utterance of the presentation target person. An utterance acquisition step of acquiring the utterance data generated in the step, a keyword extraction step of extracting a keyword included in the utterance data acquired in the utterance acquisition step, and the utterance data acquired in the utterance acquisition step. A target person specifying step for specifying the presentation target person based on the keyword extracted in the keyword extracting step, and a message associated with the presentation target person specified in the target person specifying step in advance Is specified as a message to be sent to the message presentation device It is characterized in that it comprises a step.

また、本発明の一態様に係るメッセージ提示装置は、提示対象者にメッセージを提示するメッセージ提示装置であって、提示対象者の発話を取得して発話データを生成する発話データ生成手段と、上記発話データ生成手段によって生成された上記発話データから抽出されたキーワード、および、該発話データに基づいて特定された提示対象者にあらかじめ対応づけられたメッセージを取得するメッセージ取得手段と、上記メッセージ取得手段によって取得された上記メッセージを提示対象者に提示するメッセージ出力手段とを備えることを特徴としている。   Further, a message presentation device according to an aspect of the present invention is a message presentation device that presents a message to a presentation target person, the utterance data generation unit that acquires the utterance of the presentation target person and generates utterance data; Message acquisition means for acquiring a keyword extracted from the utterance data generated by the utterance data generation means, and a message associated in advance with the target person specified based on the utterance data, and the message acquisition means And a message output means for presenting the message acquired by the above method to a person to be presented.

また、本発明の一態様に係るメッセージ提示装置の制御方法は、提示対象者にメッセージを提示するメッセージ提示方法であって、提示対象者の発話を取得して発話データを生成する発話データ生成ステップと、上記発話データ生成ステップにて生成された上記発話データから抽出されたキーワード、および、該発話データに基づいて特定された提示対象者にあらかじめ対応づけられたメッセージを取得するメッセージ取得ステップと、上記メッセージ取得ステップにて取得された上記メッセージを提示対象者に提示するメッセージ出力ステップとを含むことを特徴としている。   The control method of the message presentation device according to one aspect of the present invention is a message presentation method for presenting a message to a presentation target person, and obtains the utterance of the presentation target person and generates utterance data generation step. And a message acquisition step of acquiring a keyword extracted from the utterance data generated in the utterance data generation step, and a message associated in advance with the presentation target person specified based on the utterance data; A message output step of presenting the message acquired in the message acquisition step to a presentation target person.

本発明の一態様によれば、ユーザの発話を契機として該ユーザの識別を行い、該ユーザの発話内容に基づいて決定されたメッセージを、メッセージ提示装置に提示させることができる。これにより、メッセージ提示装置は各ユーザにユーザの発話内容に応じて最適なメッセージを提示することができるという効果を奏する。   According to one aspect of the present invention, it is possible to identify a user in response to the user's utterance, and cause the message presenting apparatus to present a message determined based on the utterance content of the user. Thereby, the message presenting apparatus has an effect that an optimum message can be presented to each user according to the content of the user's utterance.

本発明の実施の形態に係るメッセージ提示システムを構成する出力装置およびメッセージサーバの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the output device and message server which comprise the message presentation system which concerns on embodiment of this invention. 上記メッセージ提示システムの動作概要を示す図である。It is a figure which shows the operation | movement outline | summary of the said message presentation system. メッセージテーブルのデータ構造および具体例を示す図である。It is a figure which shows the data structure of a message table, and a specific example. (a)はメッセージテーブルの他の例を示す図であり、(b)は、ジャンルと(a)のメッセージテーブルの提示対象者とを対応づけたテーブルである。(A) is a figure which shows the other example of a message table, (b) is a table which matched the genre and the subject person of the message table of (a). グループ提示情報のデータ構造および具体例を示す図である。It is a figure which shows the data structure and specific example of group presentation information. 上記メッセージ提示システムの処理の流れを示した図である。It is the figure which showed the flow of the process of the said message presentation system.

〔実施形態1〕
以下、本発明の実施の形態について、図1〜6を用いて詳細に説明する。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS.

まず、図2に基づいて、メッセージ提示システム100の動作概要を説明する。図2は、メッセージ提示システム100の動作概要を示す図である。   First, an outline of the operation of the message presentation system 100 will be described with reference to FIG. FIG. 2 is a diagram showing an outline of the operation of the message presentation system 100.

〔動作概要〕
本実施の形態に係るメッセージ提示システム100は、
(1)出力装置の近傍に居る人物が発話したキーワードと、該人物を識別するための情報とを出力装置1が検出し、メッセージサーバ2に送信し、
(2)メッセージサーバ2は上記キーワードと、上記人物を識別するための情報と、現在時刻とに基づいて、出力装置1に出力させるメッセージを決定し、出力装置1に送信し、
(3)出力装置1は受信したメッセージを出力する
というシステムである。以後、出力装置1の近傍で発話を行った人物を、単に「提示対象者」と記述する。
[Operation overview]
The message presentation system 100 according to the present embodiment is
(1) The output device 1 detects a keyword spoken by a person in the vicinity of the output device and information for identifying the person, and transmits it to the message server 2;
(2) The message server 2 determines a message to be output to the output device 1 based on the keyword, information for identifying the person, and the current time, and transmits the message to the output device 1,
(3) The output device 1 is a system that outputs a received message. Hereinafter, a person who speaks in the vicinity of the output device 1 is simply referred to as a “presentation target person”.

なお、ここでいう「現在時刻」とは、メッセージサーバ2が出力装置1に出力させるメッセージを決定する際に計時する時刻を指す。以下で「現在時刻」と記述する際も同様である。   Here, the “current time” refers to a time measured when the message server 2 determines a message to be output to the output device 1. The same applies to the description of “current time” below.

図2に示す通り、メッセージ提示システム100は、出力装置1およびメッセージサーバ2を含む。また、出力装置1とメッセージサーバ2は互いにデータの送受信を行う。なお、出力装置1とメッセージサーバ2との間の通信様式は特に限定しないが、ワイヤレス通信であることが望ましい。   As shown in FIG. 2, the message presentation system 100 includes an output device 1 and a message server 2. The output device 1 and the message server 2 transmit and receive data to and from each other. The communication mode between the output device 1 and the message server 2 is not particularly limited, but wireless communication is desirable.

次に、各装置の有する機能について簡単に説明する。   Next, functions of each device will be briefly described.

出力装置1は、自機に提示対象者が接近した際、提示対象者が発話した声を録音し、音声データとして取得する機能と、提示対象者を撮影した画像データを取得する機能と、メッセージサーバ2から受信したメッセージを出力する機能とを有する。以後、提示対象者が発話した声を録音したデータを、単に「発話データ」と記述する。   The output device 1 records a voice uttered by the presentation target person when the presentation target person approaches the device, acquires the voice data, a function of acquiring image data of the presentation target person, and a message And a function of outputting a message received from the server 2. Hereinafter, data obtained by recording the voice uttered by the person to be presented is simply referred to as “utterance data”.

なお、出力装置1は、ユーザの発話の録音や写真撮影を行うため、および、音声を主体としてユーザにメッセージを提示する装置であるため、ユーザの近傍まで移動できる自走装置であることが望ましい。さらに、出力装置1は、自走式掃除機に搭載されていてもよい。   In addition, since the output device 1 is a device for recording a user's utterance and taking a picture and presenting a message to the user mainly using voice, the output device 1 is preferably a self-propelled device that can move to the vicinity of the user. . Furthermore, the output device 1 may be mounted on a self-propelled cleaner.

メッセージサーバ2は、出力装置1から受信した発話データおよび画像データに基づき提示対象者を特定する機能と、上記発話データ(提示対象者の発した音声)から所定のキーワードを抽出する機能を有する。さらに、メッセージサーバ2は、現在時刻を計時する機能と、出力装置1に出力させるメッセージの内容を決定する機能も有する。それぞれの機能についての詳しい説明は後述する。   The message server 2 has a function of specifying a presentation target person based on the utterance data and image data received from the output device 1, and a function of extracting a predetermined keyword from the utterance data (speech uttered by the presentation target person). Further, the message server 2 has a function of measuring the current time and a function of determining the content of a message to be output to the output device 1. Detailed description of each function will be described later.

続いて、メッセージ提示システム100の基本的な動作について図2に基づいて説明する。   Next, the basic operation of the message presentation system 100 will be described with reference to FIG.

図2に示すように、提示対象者Aが出力装置1に接近し、「ただいま」と発話すると、出力装置1は静止あるいは移動中に検知した提示対象者の発話を発話データとして取得する。続いて、出力装置1は、上記音声がした方向の写真または動画を撮影し、画像データとして取得する。出力装置1は、得られた発話データおよび画像データをメッセージサーバ2に送信する。   As shown in FIG. 2, when the presentation target person A approaches the output device 1 and utters “immediately”, the output device 1 acquires the utterance of the presentation target person detected while stationary or moving as utterance data. Subsequently, the output device 1 takes a photograph or a moving image in the direction in which the sound is made, and acquires it as image data. The output device 1 transmits the obtained utterance data and image data to the message server 2.

メッセージサーバ2は、受信した発話データを文字列に変換し、該文字列から「ただいま」というキーワードを得る。具体的なキーワードの取得方法については後述する。   The message server 2 converts the received utterance data into a character string, and obtains the keyword “just now” from the character string. A specific keyword acquisition method will be described later.

また、メッセージサーバ2は、上記発話データおよび画像データを用いて、上記提示対象者を特定し、提示対象者Aが「太郎」であると特定する。具体的な提示対象者の特定方法については後述する。   Further, the message server 2 specifies the presentation target person using the speech data and the image data, and specifies that the presentation target person A is “Taro”. A specific method for identifying the person to be presented will be described later.

さらに、メッセージサーバ2は現在時刻(18時)を計時し、該現在時刻(18時)と、得られたキーワード(ただいま)と、提示対象者Aの特定結果(太郎)とに基づき、出力装置1に出力させるメッセージを「おかえり」であると決定する。決定したメッセージは出力装置1に送信され、出力される。   Furthermore, the message server 2 measures the current time (18:00), and based on the current time (18:00), the obtained keyword (now), and the identification result (Taro) of the presentation target person A, the output device The message to be output to 1 is determined to be “return”. The determined message is transmitted to the output device 1 and output.

次に、メッセージ提示システム100に含まれる各装置の要部構成を図1に基づいて説明する。   Next, the main configuration of each device included in the message presentation system 100 will be described with reference to FIG.

〔要部構成〕
図1は、図2に示したメッセージ提示システム100に含まれる出力装置1およびメッセージサーバ2の要部構成を示すブロック図である。なお、本実施の形態に直接関係のない部分(例えば、外部機器との接続や音声出力を実現する部分など)は、記載の簡潔性を担保する観点から、構成の説明およびブロック図から省略した。ただし、実施の実情に即して、メッセージ提示システム100は当該省略した構成を含んでもよい。
[Main part configuration]
FIG. 1 is a block diagram showing a main configuration of the output device 1 and the message server 2 included in the message presentation system 100 shown in FIG. Note that portions not directly related to the present embodiment (for example, a portion that realizes connection with an external device or audio output, etc.) are omitted from the description of the configuration and the block diagram from the viewpoint of ensuring the simplicity of the description. . However, the message presentation system 100 may include the omitted configuration in accordance with the actual situation.

メッセージ提示システム100は、図1に示す通り、出力装置1およびメッセージサーバ2を備えている。   The message presentation system 100 includes an output device 1 and a message server 2 as shown in FIG.

(出力装置1の構成)
出力装置1は、検出部10と、制御部20と、通信部30と、出力部40とを備えている。
(Configuration of output device 1)
The output device 1 includes a detection unit 10, a control unit 20, a communication unit 30, and an output unit 40.

検出部10は、提示対象者の発話を感知し、提示対象者の発話データおよび画像データを検出するものである。検出されたデータは、後述の検出データ取得部21へと送信される。   The detection unit 10 detects the speech of the presentation target person and detects the speech data and image data of the presentation target person. The detected data is transmitted to a detection data acquisition unit 21 described later.

検出部10は、さらに詳しくは、センサマイク11と、カメラ12とを含む。   More specifically, the detection unit 10 includes a sensor microphone 11 and a camera 12.

センサマイク11は、提示対象者の音声を検出、取得するものである。センサマイク11は、上記提示対象者の発話した内容を発話データとして検出、取得することができれば、その構成および形態は特に限定しない。   The sensor microphone 11 detects and acquires the voice of the person to be presented. The configuration and form of the sensor microphone 11 are not particularly limited as long as the content uttered by the person to be presented can be detected and acquired as utterance data.

カメラ12は、提示対象者の写真または動画を撮影し、画像データとして取得するものである。カメラ12についても、上記提示対象者を特定するために利用できる画像データを撮影することができれば、その構成および形態は特に限定しない。   The camera 12 captures a photograph or video of the person to be presented and acquires it as image data. The configuration and form of the camera 12 are not particularly limited as long as the image data that can be used for specifying the person to be presented can be taken.

ただし、カメラ12が画像データを得るためには、出力装置1から見てどの方向に上記提示対象者が居るのかを検知し、その方向に向かって撮影を行うことが望ましい。よって、カメラ12を用い画像データを得て、それを後述の対象者特定部62での提示対象者の特定に利用する場合には、検出部10は出力装置1から見た、該提示対象者の居る方向を検知するセンサを有することが望ましい。該センサは、具体的には赤外線センサなどである。もしくは、センサマイク11が、音声を録音するだけでなく、該音声のする方向を検知できるようにしてもよい。   However, in order for the camera 12 to obtain image data, it is preferable to detect in which direction the person to be presented is present as viewed from the output device 1 and perform shooting in that direction. Therefore, when the image data is obtained using the camera 12 and is used for specifying the presentation target person in the target person specifying unit 62 to be described later, the detection unit 10 is the display target person viewed from the output device 1. It is desirable to have a sensor that detects the direction in which there is. Specifically, the sensor is an infrared sensor or the like. Alternatively, the sensor microphone 11 may not only record the sound but also detect the direction of the sound.

制御部20は、出力装置1を統括的に制御するものである。   The control unit 20 controls the output device 1 in an integrated manner.

制御部20は、例えば、CPU(central processing unit)などで実現され、出力装置1の制御は、制御部20としてのCPUが、ROMなどに記憶されているプログラムを、RAMなどに読み出して実行することで実現される。   The control unit 20 is realized by, for example, a CPU (central processing unit), and the output device 1 is controlled by the CPU as the control unit 20 by reading a program stored in a ROM or the like into a RAM or the like. This is realized.

制御部20は、さらに詳しくは、検出データ取得部21と、メッセージ取得部22とを含む。   More specifically, the control unit 20 includes a detection data acquisition unit 21 and a message acquisition unit 22.

検出データ取得部21は、検出部10のセンサマイク11およびカメラ12が検出したデータを取得するものである。取得したデータは通信部30を介しメッセージサーバ2へ送信される。   The detection data acquisition unit 21 acquires data detected by the sensor microphone 11 and the camera 12 of the detection unit 10. The acquired data is transmitted to the message server 2 via the communication unit 30.

メッセージ取得部22は、通信部30を介し、メッセージサーバ2からメッセージデータを取得するものである。ここで言うメッセージデータとは、出力装置1が出力すべきメッセージの文字列を、出力部40が出力できる形式に変換したデータである。取得したメッセージデータは出力部40へ送信される。   The message acquisition unit 22 acquires message data from the message server 2 via the communication unit 30. The message data here is data obtained by converting a character string of a message to be output by the output device 1 into a format that can be output by the output unit 40. The acquired message data is transmitted to the output unit 40.

なお、上記メッセージデータは少なくとも出力部40が出力できる形式であればよく、その形式は特に限定しない。例えば、メッセージデータは人工音声のような音声データであってもよい。さらには、複数の形式のデータを含んでいてもよい。   The message data may be in a format that can be output by at least the output unit 40, and the format is not particularly limited. For example, the message data may be voice data such as artificial voice. Furthermore, data of a plurality of formats may be included.

通信部30は、メッセージサーバ2のサーバ通信部50とデータの送受信を行うものである。通信部30は、検出データ取得部21から音声データおよび画像データを受信し、サーバ通信部50へと送信する。また、通信部30は、サーバ通信部50からメッセージデータを受信し、メッセージ取得部22へと送信する。   The communication unit 30 exchanges data with the server communication unit 50 of the message server 2. The communication unit 30 receives audio data and image data from the detection data acquisition unit 21 and transmits them to the server communication unit 50. In addition, the communication unit 30 receives message data from the server communication unit 50 and transmits the message data to the message acquisition unit 22.

出力部40は、メッセージ取得部22から受信したメッセージデータを出力するものである。具体的には、出力部40は例えばスピーカのように音声を出力する装置であることが望ましい。   The output unit 40 outputs the message data received from the message acquisition unit 22. Specifically, the output unit 40 is preferably a device that outputs sound, such as a speaker.

ただし、出力部40がメッセージデータを提示する様式は音声のみに限定されない。出力部40は、音声、文字、およびイラストなど様々な形式のメッセージデータを受信し、それらを組み合わせて提示対象者に提示してもよく、例えば出力部40としてディスプレイを備え、文字およびイラストの表示によってメッセージを提示してもよいし、音声と上記表示との組合せでメッセージを提示してもよい。   However, the manner in which the output unit 40 presents message data is not limited to voice. The output unit 40 may receive message data in various formats such as voice, characters, and illustrations, and may combine them to present to a person to be presented. For example, the output unit 40 includes a display and displays characters and illustrations. A message may be presented by a combination of voice and the above display.

また、後述の対象者特定部62が特定する提示対象者に合わせ、出力部40の出力様式を変更してもよい。例えば、耳の聞こえにくい提示対象者に対しては、出力部40は文字のみ、または音声と文字を組み合わせてメッセージを提示することとしてもよい。   Moreover, you may change the output style of the output part 40 according to the presentation target person who the below-mentioned target person specific | specification part 62 specifies. For example, for a presentation target person who is hard to hear, the output unit 40 may present a message using only letters or a combination of voice and letters.

(メッセージサーバ2の構成)
メッセージサーバ2は、サーバ通信部50と、サーバ制御部60と、計時部70と、記憶部80とを備えている。
(Configuration of message server 2)
The message server 2 includes a server communication unit 50, a server control unit 60, a timer unit 70, and a storage unit 80.

サーバ通信部50は、出力装置1の通信部30とデータの送受信を行うものである。サーバ通信部50は、通信部30から音声データおよび画像データを受信し、音声データはキーワード抽出部61および対象者特定部62へと送信し、画像データは対象者特定部62へと送信する。また、サーバ通信部50は、メッセージ作成部65からメッセージデータを受信し、通信部30へと送信する。   The server communication unit 50 performs data transmission / reception with the communication unit 30 of the output device 1. The server communication unit 50 receives audio data and image data from the communication unit 30, transmits the audio data to the keyword extraction unit 61 and the target person specifying unit 62, and transmits the image data to the target person specifying unit 62. Further, the server communication unit 50 receives message data from the message creation unit 65 and transmits it to the communication unit 30.

記憶部80は、認証情報81と、メッセージテーブル82と、グループ提示情報83とを格納する。   The storage unit 80 stores authentication information 81, a message table 82, and group presentation information 83.

また、図示しないが、記憶部80はグループ設定情報を格納する。ここで、グループ設定情報とは、グループ名称と該グループ名称に対応づけられた1または複数の提示対象者との対応付けを示す情報である。それゆえ、グループ設定情報を参照することにより、グループ名称が決まれば、該グループ名称に対応づけられた提示対象者が一意に決定される。なお、グループ設定情報は、メッセージサーバ2においてあらかじめ設定されていてもよいし、ユーザが自由に設定および変更できるものであってもよい。   Although not shown, the storage unit 80 stores group setting information. Here, the group setting information is information indicating a correspondence between a group name and one or a plurality of presentation target persons associated with the group name. Therefore, if the group name is determined by referring to the group setting information, the presentation target person associated with the group name is uniquely determined. The group setting information may be set in advance in the message server 2 or may be set and changed freely by the user.

グループ設定情報において、複数人の提示対象者をまとめて1つのグループと設定、記憶しておくことにより、該グループのグループ名称を後述のメッセージテーブル82の「提示対象者」列に、提示対象者の情報の代わりに格納することができる。例えば、グループ設定情報において、グループ名称「家族」の提示対象者が「父、母、太郎、花子」であるとあらかじめ設定しておけば、メッセージテーブル82の提示対象者を、「家族」と設定することができる。   In the group setting information, a plurality of presentation target persons are collectively set and stored as one group, and the group name of the group is displayed in the “presentation target” column of the message table 82 described later. Can be stored instead of information. For example, in the group setting information, if the person to be presented with the group name “family” is set in advance as “Father, mother, Taro, Hanako”, the person to be presented in the message table 82 is set as “family”. can do.

認証情報81は、提示対象者を特定できる特徴を示した特徴量が、ユーザ識別情報に対応づけられた情報である。ここでユーザ識別情報とは、例えばユーザID、ユーザ名などであり、各ユーザが一意に分かるものであればその形式は問わない。   The authentication information 81 is information in which a feature amount indicating a feature that can identify a presentation target person is associated with user identification information. Here, the user identification information is, for example, a user ID, a user name, or the like, and any format can be used as long as each user can be uniquely identified.

後述する対象者特定部62で行われる提示対象者の特定が発話データに基づいて行われる場合は、上記特徴量は例えば音声データの波形など、各個人の声の特徴を示す情報である。   When the presentation target person specified by the target person specifying unit 62, which will be described later, is performed based on the utterance data, the feature amount is information indicating the characteristics of the voice of each individual, such as a waveform of voice data.

また、対象者特定部62で行われる提示対象者の特定が画像データに基づいて行われる場合は、上記特徴量は例えば顔写真中の目・鼻・口の位置関係、背の高さなど、各個人の画像上での特徴を示す情報である。   In addition, when the target person to be presented specified by the target person specifying unit 62 is performed based on the image data, the feature amount includes, for example, the positional relationship between the eyes, the nose, and the mouth in the face photograph, the height, etc. This is information indicating the characteristics of each individual on the image.

また、発話データと画像データとを併用し提示対象者を特定する場合は、特徴量は上述の情報を組み合わせたものである。   Further, in the case where the presentation target person is specified by using both the speech data and the image data, the feature amount is a combination of the above-described information.

なお、認証情報81に登録されている特徴量およびユーザ認識情報は、あらかじめ設定されたものであってもよいし、ユーザが自由に追加・変更できてもよい。   The feature amount and user recognition information registered in the authentication information 81 may be set in advance, or may be freely added / changed by the user.

メッセージテーブル82は、メッセージ内容を示す文字列が、キーワードと、該メッセージ内容を提示する提示対象者と、該メッセージ内容を出力してよい期間、または時間帯を示す出力可能期間とに対応づけられた情報である。なお、上記提示対象者は1人のユーザであってもよいし、複数人を列挙してもよいし、グループ名称であってもよい。メッセージテーブル82の詳細なデータ構造については後述する。   In the message table 82, a character string indicating the message content is associated with a keyword, a target person who presents the message content, and a period during which the message content may be output, or an outputable period indicating the time zone. Information. The person to be presented may be one user, may list a plurality of people, or may be a group name. The detailed data structure of the message table 82 will be described later.

グループ提示情報83は、メッセージテーブル82で、メッセージ内容の文字列が対応づけられている提示対象者が、複数人を列挙している、または、グループ名称を示している場合に、提示対象者1人1人に対し、該メッセージ内容を提示したか否かが対応づけられた情報である。グループ提示情報83は、後述の出力要否判定部64により参照される。なお、グループ提示情報83の詳細なデータ構造については後述する。   The group presentation information 83 is the presentation target person 1 when the presentation target person to whom the character string of the message content is associated in the message table 82 lists a plurality of persons or indicates the group name. This is information associated with whether or not the message content is presented to one person. The group presentation information 83 is referred to by an output necessity determination unit 64 described later. The detailed data structure of the group presentation information 83 will be described later.

記憶部80はさらに、図示しないが、キーワード一覧を記憶している。   Although not shown, the storage unit 80 further stores a keyword list.

キーワード一覧とは、メッセージテーブル82に含まれるキーワードを重複なく列挙した一覧情報である。キーワード一覧は、後述のキーワード抽出部61により参照される。   The keyword list is list information in which keywords included in the message table 82 are listed without duplication. The keyword list is referred to by a keyword extraction unit 61 described later.

サーバ制御部60は、メッセージサーバ2を統括的に制御するものである。   The server control unit 60 controls the message server 2 in an integrated manner.

サーバ制御部60は、さらに詳しくは、キーワード抽出部61と、対象者特定部62と、メッセージ決定部63と、メッセージ作成部65とを含む。   More specifically, the server control unit 60 includes a keyword extracting unit 61, a target person specifying unit 62, a message determining unit 63, and a message creating unit 65.

キーワード抽出部61は、サーバ通信部50から受信した発話データに基づき、該音声データに含まれるキーワードを抽出するものである。   The keyword extraction unit 61 extracts keywords included in the voice data based on the utterance data received from the server communication unit 50.

具体的には、キーワード抽出部61は、例えば以下の(1)〜(4)に示す処理を行うことにより、キーワードを抽出する。
(1)サーバ通信部50から受信した発話データを、文字列に変換する。
(2)変換した文字列を所定の法則により所定のフレーズに分割する。
(3)記憶部80に記憶されているキーワード一覧を読み出し、(2)で分割したフレーズで、キーワード一覧に該当するものがないか検索する。
(4)上記キーワードの一覧と合致するフレーズがあれば、そのフレーズをキーワードとする。なお、(3)(4)の処理は、(2)で分割したフレーズごとに行われる。
Specifically, the keyword extraction unit 61 extracts keywords by performing the processes shown in (1) to (4) below, for example.
(1) The speech data received from the server communication unit 50 is converted into a character string.
(2) The converted character string is divided into predetermined phrases according to a predetermined rule.
(3) The keyword list memorize | stored in the memory | storage part 80 is read, and the phrase divided | segmented by (2) is searched for what corresponds to a keyword list.
(4) If there is a phrase that matches the keyword list, that phrase is taken as a keyword. The processes (3) and (4) are performed for each phrase divided in (2).

上記の処理で抽出されたキーワードは、メッセージ決定部63に送信される。   The keywords extracted by the above processing are transmitted to the message determination unit 63.

なお、上記(1)〜(4)は一例であり、上記発話データに含まれるキーワードを抽出できるならば、その抽出方法は限定しない。   In addition, said (1)-(4) is an example, and if the keyword contained in the said speech data can be extracted, the extraction method will not be limited.

対象者特定部62は、サーバ通信部50から受信した発話データおよび画像データに基づき、該発話データの音声を発した提示対象者、または、該画像データに写っている提示対象者が誰であるかを特定するものである。   Based on the utterance data and the image data received from the server communication unit 50, the target person specifying unit 62 is the presentation target person who uttered the voice of the utterance data, or who is the presentation target person reflected in the image data. It is to specify.

具体的には、対象者特定部62は、例えば以下の(1)および(2)に示す処理を行うことにより提示対象者を特定する。
(1)認証情報81を参照し、音声データまたは画像データを、認証情報81の特徴量と照合する。
(2)照合の結果、認証情報81の特徴量と発話データまたは画像データが合致する場合は、該特徴量が対応づけられているユーザ識別情報を、上記発話データの音声を発した提示対象者、あるいは上記画像データに写っている提示対象者であると特定する。
Specifically, the target person specifying unit 62 specifies the target person to be presented, for example, by performing the processes shown in the following (1) and (2).
(1) With reference to the authentication information 81, the audio data or the image data is collated with the feature amount of the authentication information 81.
(2) As a result of collation, when the feature amount of the authentication information 81 matches the utterance data or the image data, the user identification information associated with the feature amount is used as the presentation target person who utters the speech data. Alternatively, it is specified that the person to be presented is shown in the image data.

(1)の具体例としては、例えば発話データを用いて照合を行う場合は、該発話データの波形と、認証情報81の特徴量として記憶されている音声データの波形とを比較照合すればよい。また、画像データを用いて照合を行う場合は、該画像データと、上記特徴量として記憶されている顔写真の目・鼻・口の位置関係、身長などとを比較照合すればよい。   As a specific example of (1), for example, when collation is performed using utterance data, the waveform of the utterance data may be compared and collated with the waveform of voice data stored as the feature amount of the authentication information 81. . When collation is performed using image data, the image data may be compared and collated with the positional relationship between eyes, nose, mouth, height, and the like of the face photograph stored as the feature amount.

なお、上記(1)および(2)は一例であり、上記発話データの音声を発した、または上記画像データに写っている提示対象者を一意に特定できるならば、その特定方法は限定しない。   In addition, said (1) and (2) are examples, and if the presentation object person who uttered the audio | voice of the said speech data or is reflected in the said image data can be identified uniquely, the identification method will not be limited.

加えて、対象者特定部62は、サーバ通信部50から受信した発話データおよび画像データの両方を組み合わせて提示対象者の特定を行ってもよい。   In addition, the target person specifying unit 62 may specify the target person by combining both the utterance data and the image data received from the server communication unit 50.

メッセージ決定部63は、キーワード抽出部61の抽出したキーワードと、対象者特定部62の特定した提示対象者と、後述の計時部70の計時した現在時刻とに基づいてメッセージテーブル82を検索し、出力装置1が出力すべきメッセージを決定するものである。具体的なメッセージの決定方法は後述する。決定されたメッセージはメッセージ作成部65に送信される。   The message determination unit 63 searches the message table 82 based on the keyword extracted by the keyword extraction unit 61, the presentation target person specified by the target person specifying unit 62, and the current time measured by the time measuring unit 70 described later, The output device 1 determines a message to be output. A specific message determination method will be described later. The determined message is transmitted to the message creation unit 65.

メッセージ決定部63は、さらに詳しくは、出力要否判定部64を含む。   More specifically, the message determination unit 63 includes an output necessity determination unit 64.

出力要否判定部64は、メッセージ決定部63が決定したメッセージの提示対象者が、複数人もしくはグループ名称を指定しているか、特定の1個人を指定しているかを判定し、さらに、判定の結果上記メッセージの提示対象者が、複数人もしくはグループ名称を指定している場合、対象者特定部62が特定した提示対象者に対して上記メッセージを送信済か否かを判定するものである。具体的な処理はメッセージ決定部63のメッセージの決定方法とともに後述する。   The output necessity determination unit 64 determines whether the message presentation target determined by the message determination unit 63 specifies a plurality of people or a group name, or specifies a specific individual, and further determines Result When the person to whom the message is presented designates a plurality of persons or a group name, it is determined whether or not the message has been transmitted to the person to be presented specified by the target person specifying unit 62. Specific processing will be described later together with a message determination method of the message determination unit 63.

メッセージ作成部65は、メッセージ決定部63から受信したメッセージ内容を、出力装置1の出力部40が出力できる形式に変換したメッセージデータを作成するものである。作成したメッセージデータは、サーバ通信部50を介し出力装置1へ送信される。   The message creation unit 65 creates message data obtained by converting the message content received from the message determination unit 63 into a format that can be output by the output unit 40 of the output device 1. The created message data is transmitted to the output device 1 via the server communication unit 50.

計時部70は、メッセージ決定部63から現在時刻を要求された際に、現在時刻を計時、取得するものである。   The timekeeping unit 70 measures and acquires the current time when the current time is requested from the message determination unit 63.

なお、現在時刻を計時できるならば、計時部70の構成は特に限定されない。例えばインターネットを介し現在時刻を取得してもよいし、メッセージサーバ2に時計を内蔵していてもよい。   Note that the configuration of the timer unit 70 is not particularly limited as long as the current time can be measured. For example, the current time may be acquired via the Internet, or a clock may be built in the message server 2.

計時部70により取得された現在時刻は、メッセージ決定部63へ送信される。   The current time acquired by the time measuring unit 70 is transmitted to the message determining unit 63.

〔メッセージテーブル82の構成〕
図3は、メッセージテーブル82のデータ構造および具体例を示す図である。
[Configuration of Message Table 82]
FIG. 3 is a diagram illustrating a data structure and a specific example of the message table 82.

なお、図3において、メッセージテーブル82をテーブル形式のデータ構造にて示したことは一例であって、メッセージテーブル82のデータ構造をテーブル形式に限定する意図はない。以降、データ構造を説明するためのその他の図においても同様である。   In FIG. 3, the message table 82 is shown as a data structure in a table format, and is not intended to limit the data structure of the message table 82 to the table format. Hereinafter, the same applies to other figures for explaining the data structure.

図示の通り、メッセージテーブル82は、「メッセージNo」列と、「有効」列と、「キーワード」列と、「提示対象者」列と、「メッセ―ジ内容」列と、「出力可能期間」列とを持つ。   As illustrated, the message table 82 includes a “message No” column, a “valid” column, a “keyword” column, a “presentation target” column, a “message content” column, and an “output possible period”. With columns.

「メッセージNo」列は、メッセージテーブル82の各行につけられたインデックス番号を格納する。   The “message No” column stores an index number assigned to each row of the message table 82.

「有効」列は、メッセージ決定部63によりメッセージテーブルが参照および検索された際に、メッセージテーブルの各行を参照対象および検索対象とするか否かを格納する。   The “valid” column stores whether or not each row of the message table is to be referred to and searched when the message table is referenced and searched by the message determination unit 63.

図3の場合は、「有効」列が「−」の場合は、該当する行は常に参照対象および検索対象となる。言い換えれば、「有効」列により参照および検索の有効/無効の切替えを行わないメッセージについては、「有効」列が「−」となっている。一方、「有効」列が「○」のメッセージは参照対象および検索対象となり、「有効」列が「×」のメッセージは参照対象および検索対象とならない。この、「有効」列の○/×はユーザが自由に切替え設定をすることが可能である。   In the case of FIG. 3, when the “valid” column is “−”, the corresponding row is always a reference target and a search target. In other words, the “valid” column is “−” for messages that are not switched between valid / invalid of reference and search by the “valid” column. On the other hand, a message whose “valid” column is “◯” is a reference target and a search target, and a message whose “valid” column is “×” is not a reference target and a search target. In this “valid” column, ◯ / × can be freely switched by the user.

なお、図3で示した「有効」列のデータの持ち方は一例であり、各行を検索対象とするか否かが分かれば、「有効」列は文字列やフラグ、数値など、どのような型で記憶していてもよい。   The way of holding the data in the “valid” column shown in FIG. 3 is an example. If it is determined whether or not each row is a search target, the “valid” column can be any character string, flag, numerical value, or the like. You may memorize by type.

「キーワード」列は、出力装置1にメッセージを提示させる条件となる、出力装置1の近傍にいるユーザの発話に含まれているべきキーワードを格納している。格納するデータの型は問わないが、例えば文字列などの形式でデータを格納する。   The “keyword” column stores a keyword that should be included in the utterance of the user in the vicinity of the output device 1, which is a condition for causing the output device 1 to present a message. The type of data to be stored is not limited, but the data is stored in a format such as a character string.

「提示対象者」列は、出力装置1にメッセージを提示させる条件となる、該メッセージ内容を提示すべき提示対象者の情報を格納している。該提示対象者は1人のユーザであってもよいし、複数人、またはグループ名称であってもよい。   The “presentation target person” column stores information on a presentation target person who should present the message content, which is a condition for causing the output device 1 to present a message. The presentation target person may be one user, a plurality of persons, or a group name.

「メッセージ内容」列は、メッセージサーバ2から出力装置1に送信するメッセージの内容を格納している。格納するデータの型は問わないが、例えば出力装置1に送信するメッセージを文字列などの型で格納している。   The “message content” column stores the content of a message transmitted from the message server 2 to the output device 1. The type of data to be stored is not limited. For example, a message to be transmitted to the output device 1 is stored in a character string or the like.

「出力可能期間」列は、各行のメッセージ内容を提示してよい期間、または時間帯を示す情報を格納する。出力可能期間は、例えば開始日時〜終了日時のような期間で定められていてもよいし、例えば毎週火曜日、毎月20日など、特定の日時を定めたものでもよい。   The “output available period” column stores information indicating a period or time zone in which the message content of each row may be presented. The output possible period may be defined by a period such as a start date and time to an end date and time, or may be a specific date and time such as every Tuesday or the 20th of every month.

メッセージテーブル82は、「キーワード」列の情報と、「提示対象者」列の情報とが決まれば、「メッセージNo」列の情報が一意に決まる構成である。言い換えると、キーワードと、提示対象者とが分かれば、出力装置1に出力されるメッセ―ジのインデックス番号が決定され、該番号に対応づけられたメッセージ内容が決定される。   The message table 82 is configured such that if the information in the “keyword” column and the information in the “target person” column are determined, the information in the “message No” column is uniquely determined. In other words, if the keyword and the person to be presented are known, the index number of the message output to the output device 1 is determined, and the message content associated with the number is determined.

なお、メッセージテーブル82は、メッセージサーバ2においてあらかじめ定められたものであってもよいが、ユーザによって書き換え可能なように記憶されていてもよい。   The message table 82 may be predetermined in the message server 2, but may be stored so that it can be rewritten by the user.

〔メッセージテーブル82の変形例〕
メッセージサーバ2は、例えばインターネットを介し、ニュースサイトからメッセージテーブル82に登録するメッセージ内容を自動取得してもよい。
[Modification of Message Table 82]
The message server 2 may automatically acquire message contents to be registered in the message table 82 from a news site via, for example, the Internet.

図4の(a)は,メッセージテーブル82の他の例を示す図である。なお、図4で示したメッセージテーブル82と同じ列については、その説明を省略する。   FIG. 4A is a diagram illustrating another example of the message table 82. Note that the description of the same column as the message table 82 shown in FIG. 4 is omitted.

図3に示すメッセージテーブル82と図4の(a)に示すメッセージテーブル82との異なる点は、図4の(a)に示すメッセージテーブル82が、さらに、「ジャンル」列を有している点である。   The message table 82 shown in FIG. 3 is different from the message table 82 shown in FIG. 4A in that the message table 82 shown in FIG. 4A further has a “genre” column. It is.

「ジャンル」列は、各行のメッセージ(ニュース)をその内容のカテゴリごとに分類した、ジャンル名称を格納する。   The “genre” column stores genre names in which messages (news) in each row are classified according to their content categories.

また、図4の(a)に示すメッセージテーブル82は、キーワードと、提示対象者と、出力可能期間とに基づいて、メッセージ内容が一意に決まるデータ構造となっている点が図3と異なる。このように、キーワードおよび提示対象者だけでなく、出力可能期間もテーブルのキーとすることで、同じキーワード、同じ提示対象者でも、時間帯(または日時など)により異なるニュースを提示するように、メッセージサーバ2および出力装置1を設計することが可能である。   Also, the message table 82 shown in FIG. 4A is different from FIG. 3 in that the message content is uniquely determined based on the keyword, the person to be presented, and the output possible period. In this way, not only the keyword and the presentation target person but also the output possible period is used as a table key so that even the same keyword and the same presentation target person present different news depending on the time zone (or date and time) It is possible to design the message server 2 and the output device 1.

図4の(b)は、上記決定したジャンル名称と、図4の(a)のメッセージテーブル82の「提示対象者」列とを対応づけたテーブルである。図4の(b)のテーブルの「ジャンル」列は、ニュースサイトからメッセージ内容を自動取得する際、ニュースを検索するためのジャンル名称またはキーワードなどを格納している。また、「提示対象者」列は、各ジャンル名称に対し、出力装置1においてそのジャンルのニュースを提示する提示対象者を格納している。   4B is a table in which the determined genre name is associated with the “presentation target” column of the message table 82 in FIG. The “genre” column in the table of FIG. 4B stores a genre name or a keyword for searching for news when automatically acquiring message contents from a news site. Further, the “presentation target person” column stores, for each genre name, a presentation target person who presents news of the genre in the output device 1.

図4の(b)のテーブルにおいては、図示の通り、ジャンル名称が決定すると、該ジャンルのニュースを提示する、提示対象者が決定される。   In the table of FIG. 4B, as shown, when the genre name is determined, the person to be presented who determines the news of the genre is determined.

メッセージサーバ2は図4の(a)および(b)のテーブルを用いて、下記の(1)〜(3)の手順でメッセージテーブル82に格納するデータを自動生成することができる。
(1)インターネットなどを介し、ニュースサイトで取得するニュースを検索し、内容を文字列などの形式で取得する。その際、図4の(b)に格納されているジャンル名称を、ニュースを検索する検索ワードとして用いて検索を行う。
The message server 2 can automatically generate data to be stored in the message table 82 according to the following procedures (1) to (3), using the tables shown in FIGS.
(1) Search for news to be acquired at a news site via the Internet, etc., and acquire the contents in the form of a character string or the like. At that time, the genre name stored in FIG. 4B is used as a search word for searching for news.

なお、ジャンル名称に基づいてニュースを検索するのではなく、ニュースや天気情報などの提供会社から、逐次ニュースの提供を受けてもよい。この場合、ニュースを提供してもらう契約(または設定)の中で、図4の(b)に格納しているジャンル名称とカテゴリ名、キーワード、タグなどとが一致するニュースをメッセージサーバ2が受信するように契約(または設定)しておけばよい。
(2)図4の(b)のテーブルを参照し、(1)で検索ワードとして用いたジャンル名称、または、(1)で上記提供会社から提供されたニュースのカテゴリ、キーワード、タグなどと一致するジャンル名称に対応する、提示対象者を決定する。
(3)図4の(a)に示すメッセージテーブルに、(1)で取得したニュースをメッセージとして登録する。その際、「有効」列と、「キーワード」列と、「出力可能期間」列は、あらかじめ定めてある値とする。「メッセージ内容」列には、(1)で取得したニュース内容を格納し、「ジャンル」列には、(1)で検索ワードとして用いたジャンル名称を格納する。「提示対象者」列は、(2)で決定した提示対象者とする。
Instead of searching for news based on the genre name, news may be provided sequentially from a provider such as news or weather information. In this case, the message server 2 receives news in which the genre name stored in FIG. 4B matches the category name, keyword, tag, etc. in the contract (or setting) for providing news. Contract (or set) to do.
(2) Refer to the table in FIG. 4B, and match the genre name used as the search word in (1) or the news category, keyword, tag, etc. provided by the provider in (1). The presentation target person corresponding to the genre name to be determined is determined.
(3) The news acquired in (1) is registered as a message in the message table shown in FIG. At this time, the “valid” column, the “keyword” column, and the “output available period” column are set to predetermined values. The “message content” column stores the news content acquired in (1), and the “genre” column stores the genre name used as the search word in (1). The “presentation target person” column is the presentation target person determined in (2).

〔グループ提示情報83の構成〕
図5は、グループ提示情報83のデータ構造および具体例を示す図である。
[Configuration of group presentation information 83]
FIG. 5 is a diagram illustrating a data structure and a specific example of the group presentation information 83.

図示の通り、グループ提示情報83は、「メッセージNo」列と、「提示対象者」列と、「提示」列とを持つ。   As illustrated, the group presentation information 83 includes a “message No” column, a “presentation target” column, and a “presentation” column.

「メッセージNo」列は、メッセージテーブル82の各行につけられたインデックス番号と対応している。   The “message No” column corresponds to the index number assigned to each row of the message table 82.

「提示対象者」列は、例えばユーザIDやユーザ名称などを格納している。なお、グループ提示情報83の提示対象者はグループ名称および複数人ではなく、必ず1個人を指定する点でメッセージテーブル82とは異なる。   The “presentation target person” column stores, for example, a user ID and a user name. Note that the person to be presented in the group presentation information 83 is different from the message table 82 in that one person is always designated instead of the group name and a plurality of persons.

「提示」列は、各行のメッセージNoに対応したメッセージテーブル82のメッセージ内容が、「提示対象者」列の各ユーザに対して提示済みか否かを格納している。   The “presentation” column stores whether or not the message content of the message table 82 corresponding to the message No in each row has been presented to each user in the “presentation target” column.

グループ提示情報83は、メッセージテーブル82の「提示対象者」列に複数人、またはグループ名称が登録されていたメッセージについて、該メッセージの提示対象者を1ユーザ単位に分割し、メッセージNoに対応づけて記憶し、さらに、該メッセージNoおよび該ユーザに対し、該メッセージNoのメッセージを提示したか否かを示す「提示」列を対応づけたものである。   The group presentation information 83 divides a message presentation target person into one user unit and associates it with a message No. for a message whose group name is registered in the “presentation target” column of the message table 82. Further, a “presentation” column indicating whether or not the message No and the user have presented the message No. is associated with the message No and the user.

出力要否判定部64は、メッセージ決定部63が決定したメッセージのメッセージNoと、対象者特定部62が決定した提示対象者とに基づいて、グループ提示情報83を検索し、該提示対象者に対し該メッセージNoに対応するメッセージが提示済であるか否かを判定する。
〔メッセージ決定方法〕
次に、メッセージ決定部63(および出力要否判定部64)が、メッセージ作成部65に送信するメッセージを決定する方法を詳しく説明する。
The output necessity determination unit 64 searches the group presentation information 83 based on the message No. of the message determined by the message determination unit 63 and the presentation target person determined by the target person specifying unit 62, and sends it to the presentation target person. On the other hand, it is determined whether or not the message corresponding to the message No. has been presented.
[Message determination method]
Next, a method in which the message determination unit 63 (and the output necessity determination unit 64) determines a message to be transmitted to the message creation unit 65 will be described in detail.

メッセージ決定部63は、以下の(1)〜(5)に示す処理を行うことにより、メッセージ作成部65に送信するメッセージを決定する。
(1)キーワード抽出部61が抽出したキーワードと、対象者特定部62が特定したユーザ識別情報とを受信する。
(2)計時部70に、現在時刻を計時するよう要求し、計時部70が計時、取得した現在時刻を受信する。
(3)上記キーワードおよび上記ユーザ識別情報がそれぞれ合致し、さらに上記現在時刻がメッセージテーブル82の出力可能期間に含まれるメッセージがメッセージテーブル82にあるかを検索する。なお、このとき検索するメッセージテーブル82のレコードは、図3に示したメッセージテーブルの「有効」列が有効、または有効/無効切替なし(メッセージテーブル82では「○」または「−」)となっているレコードのみとする。
(4)上記メッセージが存在する場合、メッセージ決定部63に含まれている出力要否判定部64は、該メッセージに対応づけられたメッセージの提示対象者が複数人を列挙しているか、もしくは、グループ名称を指定しているものであるか否かをさらに判定する。上記提示対象者が複数人またはグループ名称を指定している場合は、出力要否判定部64は(5)の処理を行う。一方、複数人でない場合は、出力要否判定部64は(5)の処理を行わず、メッセージ決定部63は上記メッセージ内容をメッセージ作成部65に送信する。
(5)出力要否判定部64は記憶部80のグループ提示情報について、上記メッセージNoおよび上記ユーザ識別情報に対応する「提示」列の値を参照する。上記メッセージNoおよび上記ユーザ識別情報について、上記メッセージが未提示の場合(「未」)は、出力要否判定部64は該ユーザ識別情報の提示対象者に対し、該メッセージを提示したことをグループ提示情報83へ記録(「済」)し、上記メッセージ内容をメッセージ作成部65に送信する。一方、上記メッセージが提示済の場合(「済」)は、メッセージ決定部63は上記メッセージ内容をメッセージ作成部65に送信しない。
The message determination unit 63 determines a message to be transmitted to the message creation unit 65 by performing the processes shown in the following (1) to (5).
(1) The keyword extracted by the keyword extracting unit 61 and the user identification information specified by the target person specifying unit 62 are received.
(2) The timer 70 is requested to measure the current time, and the timer 70 receives the current time acquired and timed.
(3) A search is made as to whether or not there is a message in the message table 82 that matches the keyword and the user identification information, and further includes the message whose current time is included in the outputtable period of the message table 82. Note that the record of the message table 82 to be searched at this time is valid in the “valid” column of the message table shown in FIG. 3 or is not valid / invalid switching (“◯” or “−” in the message table 82). Only records that are present.
(4) When the message is present, the output necessity determination unit 64 included in the message determination unit 63 lists a plurality of persons to be presented with the message associated with the message, or It is further determined whether or not the group name is designated. When the presentation target person designates a plurality of persons or a group name, the output necessity determination unit 64 performs the process (5). On the other hand, if it is not a plurality of persons, the output necessity determination unit 64 does not perform the process (5), and the message determination unit 63 transmits the message content to the message creation unit 65.
(5) The output necessity determination unit 64 refers to the value of the “presentation” column corresponding to the message No and the user identification information for the group presentation information in the storage unit 80. For the message No and the user identification information, if the message has not been presented (“not yet”), the output necessity determination unit 64 indicates that the message has been presented to the person to be presented with the user identification information. The information is recorded (“Done”) in the presentation information 83 and the message content is transmitted to the message creation unit 65. On the other hand, when the message has been presented (“Done”), the message determination unit 63 does not transmit the message content to the message creation unit 65.

〔処理の流れ〕
続いて、メッセージ提示システム100が出力装置1の提示するメッセージを決定し、該メッセージを出力装置1に提示させる処理の流れを図6に基づき説明する。
[Process flow]
Next, a flow of processing in which the message presentation system 100 determines a message to be presented by the output device 1 and causes the output device 1 to present the message will be described with reference to FIG.

図6は、メッセージ提示システム100の処理の流れを示した図である。   FIG. 6 is a diagram illustrating a processing flow of the message presentation system 100.

まず、検出部10のセンサマイク11は、提示対象者が発話した音声を検知し、該音声を発話データとして取得する(S100)。取得した発話データは、検出データ取得部21へ送信される。   First, the sensor microphone 11 of the detection unit 10 detects the voice uttered by the person to be presented, and acquires the voice as utterance data (S100). The acquired utterance data is transmitted to the detection data acquisition unit 21.

続いて、検出部10のカメラ12が、センサマイク11が音声を検知した方向に対し写真または動画などを撮影する。これにより、上記発話を行った提示対象者を撮影し、画像データを取得する(S102)。取得した画像データは、検出データ取得部21へ送信される。   Subsequently, the camera 12 of the detection unit 10 takes a photograph or a moving image in the direction in which the sensor microphone 11 detects the sound. Thereby, the person to be presented who made the utterance is photographed and image data is acquired (S102). The acquired image data is transmitted to the detection data acquisition unit 21.

検出データ取得部21は、センサマイク11およびカメラ12から受信した、発話データおよび画像データを、通信部30を介しメッセージサーバ2へ送信する(S104)。サーバ通信部50は検出データ取得部21から上記発話データおよび画像データを受信し(S106)、上記発話データはキーワード抽出部61および対象者特定部62へ、上記画像データは対象者特定部62へ送信する。   The detection data acquisition unit 21 transmits the speech data and the image data received from the sensor microphone 11 and the camera 12 to the message server 2 via the communication unit 30 (S104). The server communication unit 50 receives the utterance data and the image data from the detection data acquisition unit 21 (S106), the utterance data is sent to the keyword extraction unit 61 and the target person specifying unit 62, and the image data is sent to the target person specifying unit 62. Send.

キーワード抽出部61は、サーバ通信部50を介し出力装置1から受信した発話データからキーワードを抽出し(S108)、メッセージ決定部63へ送信する。   The keyword extraction unit 61 extracts keywords from the utterance data received from the output device 1 via the server communication unit 50 (S108), and transmits the keywords to the message determination unit 63.

メッセージ決定部63は、サーバ通信部50を介し出力装置1から受信した発話データおよび画像データに基づき、該発話データの音声を発した、または、該画像データに写っている提示対象者のユーザ識別情報を特定する(S110)。該ユーザ識別情報は、メッセージ決定部63へ送信される。   Based on the utterance data and the image data received from the output device 1 via the server communication unit 50, the message determination unit 63 utters the voice of the utterance data or the user identification of the person to be presented that is reflected in the image data Information is specified (S110). The user identification information is transmitted to the message determination unit 63.

メッセージ決定部63は、キーワード抽出部61からキーワードを、対象者特定部62からユーザ識別情報を受信すると、計時部70へ現在時刻を取得、送信するよう要求する。計時部70は、現在時刻を取得し(S112)、メッセージ決定部63へ送信する。   When the message determination unit 63 receives a keyword from the keyword extraction unit 61 and user identification information from the target person identification unit 62, the message determination unit 63 requests the time measurement unit 70 to acquire and transmit the current time. The time measuring unit 70 acquires the current time (S112) and transmits it to the message determining unit 63.

上記現在時刻を受信したメッセージ決定部63は、メッセージテーブル82を読み出し、上記キーワードおよび上記ユーザ識別情報が合致し、かつ、上記現在時刻が、出力可能期間に含まれているメッセージを検索する(S114)。   The message determination unit 63 that has received the current time reads the message table 82, and searches for a message in which the keyword and the user identification information match and the current time is included in the output available period (S114). ).

上記条件に合致するメッセージがある場合(S116でYES)、メッセージ決定部63に含まれている出力要否判定部64は、該メッセージが1人のユーザを提示対象者としているか、複数人、または、グループ名称を提示対象者としているか否かを調べる(S120)。   When there is a message that matches the above condition (YES in S116), the output necessity determination unit 64 included in the message determination unit 63 determines whether the message is a single user, a plurality of people, Then, it is checked whether or not the group name is a presentation target person (S120).

上記メッセージが1人のユーザを提示対象者としている場合(S120でNO)、メッセージ決定部63は該メッセージのメッセージ内容を取り出し、メッセージ作成部65へ送信する。   In the case where the message has one user as the subject of presentation (NO in S120), the message determination unit 63 extracts the message content of the message and transmits it to the message creation unit 65.

一方、S120で調べたメッセージが複数人、または、グループ名称を提示対象者としている場合(S120でYES)、出力要否判定部64はさらに、上記ユーザ識別情報の提示対象者に対し、該メッセージを提示済みであるか否かを判定する(S130)。   On the other hand, if the message examined in S120 has a plurality of persons or a group name as a person to be presented (YES in S120), the output necessity determination unit 64 further provides the message to the person to be presented with the user identification information. Is determined (S130).

上記メッセージが、上記ユーザ識別情報の提示対象者に対し未提示の場合は(S130でNO)、出力要否判定部64は該ユーザ識別情報の提示対象者に対し、該メッセージを提示したことをグループ提示情報83へ記録し(S132)、該メッセージのメッセージ内容を、メッセージ作成部65へ送信する。   If the message has not been presented to the person to be presented with the user identification information (NO in S130), the output necessity determination unit 64 indicates that the message has been presented to the person to be presented with the user identification information. The information is recorded in the group presentation information 83 (S132), and the message content of the message is transmitted to the message creation unit 65.

メッセージ作成部65は受信したメッセージ内容に基づきメッセージデータを作成し(S122)、サーバ通信部50を介し出力装置1のメッセージ取得部22へ送信する(S124)。   The message creation unit 65 creates message data based on the received message content (S122), and transmits the message data to the message acquisition unit 22 of the output device 1 via the server communication unit 50 (S124).

出力装置1のメッセージ取得部22は上記メッセージデータを受信し(S126)、該メッセージデータを出力部40へ送信する。出力部40は該メッセージデータを出力する(S128)。   The message acquisition unit 22 of the output device 1 receives the message data (S126) and transmits the message data to the output unit 40. The output unit 40 outputs the message data (S128).

〔実施形態2〕
<検知データの種類について>
上述のメッセージ提示システム100では、検出部10はカメラ12を含み、カメラ12は提示対象者の画像データを取得することとしたが、対象者特定部62において、センサマイク11が取得する発話データのみで提示対象者の特定を行うことができるならば、カメラ12の構成、およびカメラ12が取得する画像データは必ずしも必要ではない。
[Embodiment 2]
<About types of detection data>
In the message presentation system 100 described above, the detection unit 10 includes the camera 12 and the camera 12 acquires the image data of the person to be presented, but only the utterance data acquired by the sensor microphone 11 in the target person specifying unit 62. If it is possible to identify the person to be presented, the configuration of the camera 12 and the image data acquired by the camera 12 are not necessarily required.

また、上述のメッセージ提示システム100では、検出部10の検出するデータは少なくとも音声データを含むこととしたが、例えば、カメラ12が出力装置1に接近した提示対象者の顔、および動作を撮影することとしてもよい。ここでいう動作とは、例えば手話やジェスチャーなど、該動作自体からキーワードを取得できるものである。   Further, in the message presentation system 100 described above, the data detected by the detection unit 10 includes at least audio data. For example, the camera 12 captures the face of the person to be presented that has approached the output device 1 and the action. It is good as well. The action here means that a keyword can be acquired from the action itself such as sign language or gesture.

この場合、カメラ12が撮影した動画データがメッセージサーバ2へ送信され、キーワード抽出部61は該動画データの、上記動作が何を意味しているかを判定し、判定結果からキーワードを生成する。また、対象者特定部62は図1を用いて説明した通り、該動画データ、例えば該動画データの1コマに録画されている提示対象者の顔に基づき、出力装置1に接近した提示対象者を特定する。以降の処理の流れは、実施の形態と同様である。   In this case, the moving image data captured by the camera 12 is transmitted to the message server 2, and the keyword extraction unit 61 determines what the above-described operation of the moving image data means, and generates a keyword from the determination result. Further, as described with reference to FIG. 1, the subject person specifying unit 62 is a presentation subject person who has approached the output device 1 based on the moving image data, for example, the face of the presentation subject person recorded in one frame of the moving image data. Is identified. The subsequent processing flow is the same as in the embodiment.

<時刻情報の取り扱いについて>
上述のメッセージ提示システム100では、メッセージ決定部63は、キーワード抽出部61が抽出したキーワード、および、対象者特定部62が特定した提示対象者に対応づけられたメッセージで、かつ計時部70が取得した現在時刻が出力可能期間に含まれているメッセージを、出力装置1に出力させるメッセージと決定した。しかし、メッセージテーブル82において出力可能期間は必ずしも記憶している必要はない。
<Handling time information>
In the message presentation system 100 described above, the message determination unit 63 is a message associated with the keyword extracted by the keyword extraction unit 61 and the presentation target person specified by the target person specifying unit 62, and is acquired by the timing unit 70. The message in which the current time is included in the output available period is determined as a message to be output to the output device 1. However, it is not always necessary to store the output available period in the message table 82.

なお、メッセージテーブル82において出力可能期間が記憶されていない場合は、メッセージ決定部63は、出力装置1に送信するメッセージを決定する際、キーワード抽出部61が抽出したキーワードと、対象者特定部62が特定した提示対象者とに基づいてメッセージを決定する。よって、計時部70の取得する時刻情報を用いてメッセージテーブル82を検索することは行わないので、計時部70および現在時刻の取得は行わなくてよい。   If the message table 82 does not store the output available period, the message determination unit 63 determines the message to be transmitted to the output device 1 and the keyword extracted by the keyword extraction unit 61 and the target person specifying unit 62. The message is determined based on the presentation target person specified by. Therefore, since the message table 82 is not searched using the time information acquired by the time measuring unit 70, the time measuring unit 70 and the current time need not be acquired.

また、上述のメッセージ提示システム100では、メッセージサーバ2に計時部70を持ち、メッセージ決定部63がメッセージを決定する際に計時部70に対し時刻を取得するよう指示する構成とした。   Further, in the message presentation system 100 described above, the message server 2 has the time measuring unit 70, and the message determining unit 63 instructs the time measuring unit 70 to acquire the time when determining the message.

しかし、メッセージ決定部63が、出力装置1に出力させるメッセージを決定するために必要な時刻情報が得られるならば、計時部70は必ずしも上記タイミングで時刻を取得する必要はない。例えば、計時部70は、メッセージサーバ2が出力装置1から発話データおよび画像データを受信した際に時刻を取得し、メッセージ決定部63へ送信することとしてもよい。   However, if the time information necessary for the message determining unit 63 to determine the message to be output to the output device 1 is obtained, the time measuring unit 70 does not necessarily acquire the time at the above timing. For example, the time measuring unit 70 may acquire the time when the message server 2 receives the utterance data and the image data from the output device 1, and may transmit the time to the message determination unit 63.

さらには、出力装置1のセンサマイク11またはカメラ12が、発話データまたは画像データを生成した際の該データのファイル生成時刻を、計時部70が計時する時間の代わりに使ってもよい。この場合、メッセージサーバ2は計時部70を備えなくてもよい。   Furthermore, the file generation time of the data when the sensor microphone 11 or the camera 12 of the output device 1 generates the speech data or the image data may be used instead of the time measured by the time measuring unit 70. In this case, the message server 2 may not include the timer unit 70.

<各装置の機能分担について>
上述のメッセージ提示システム100では、出力装置1とメッセージサーバ2は別個の装置であることとしたが、メッセージサーバ2は出力装置1に内蔵されていてもよい。
<About the function sharing of each device>
In the message presentation system 100 described above, the output device 1 and the message server 2 are separate devices, but the message server 2 may be built in the output device 1.

もしくは、上述のメッセージ提示システム100では、出力装置1は検出部10および出力部40をともに含む構成としたが、出力装置1が検出部10を持たず、外部装置としての検出部10からメッセージ取得部22に発話データおよび画像データを受信するという構成であってもよい。もしくは、出力装置1は、出力部40を持たず、メッセージ取得部22がメッセージサーバ2から受信したメッセージデータを、さらに出力部40に送信し、外部装置である出力部40がメッセージデータの出力を行うという構成であってもよい。   Alternatively, in the message presentation system 100 described above, the output device 1 includes both the detection unit 10 and the output unit 40. However, the output device 1 does not have the detection unit 10, and obtains a message from the detection unit 10 as an external device. The configuration may be such that the utterance data and the image data are received by the unit 22. Alternatively, the output device 1 does not have the output unit 40, the message acquisition unit 22 further transmits the message data received from the message server 2 to the output unit 40, and the output unit 40 which is an external device outputs the message data. The structure of performing may be sufficient.

<メッセージデータの作成について>
上述のメッセージ提示システム100では、メッセージ作成部65で、メッセージテーブル82から取得したメッセージ内容の値から、出力装置1の出力部40が出力できる様式のメッセージデータを作成することとした。
<About creating message data>
In the message presentation system 100 described above, the message creation unit 65 creates message data in a format that can be output by the output unit 40 of the output device 1 from the value of the message content acquired from the message table 82.

しかし、メッセージサーバ2は、メッセージ作成部65を介さず、メッセージ決定部63が決定したメッセージ内容の文字列を、テキストデータとしてそのまま出力装置1に送信してもよい。   However, the message server 2 may transmit the character string of the message content determined by the message determination unit 63 as it is as text data to the output device 1 without using the message creation unit 65.

この場合、上記テキストデータを取得したメッセージ取得部22が、出力部40にメッセージデータを送信する際に出力部40が出力できる様式のメッセージデータを作成することとなる。このような構成とすると、サーバ通信部50は、メッセージデータを、例えばテキストデータのようなサイズの小さいデータで送信することができるという利点がある。一方、出力装置1のメッセージ取得部22では、受信したメッセージデータを、例えば人工音声のような形式に変換する構成をさらに備えていればよい。   In this case, when the message acquisition unit 22 that acquired the text data transmits the message data to the output unit 40, the message acquisition unit 22 creates message data in a format that can be output by the output unit 40. With such a configuration, the server communication unit 50 has an advantage that the message data can be transmitted as small data such as text data. On the other hand, the message acquisition unit 22 of the output device 1 may further include a configuration for converting the received message data into a format such as artificial speech.

<通信様式について>
通信部30がサーバ通信部50へデータを送信する、すなわち、上りの通信である場合と、通信部30がサーバ通信部50からデータを受信する場合、すなわち、下りの通信である場合とで、その通信様式を分けても構わない。例えば、上りの通信の場合、比較的データサイズの大きい音声データおよび画像データを送信するため、大容量のデータを速く送信できる通信方法が望ましい。一方、下りの通信で、例えばメッセージデータをデータサイズの小さいデータとして受信する場合は、上りの通信ほど転送容量を必要としない。
<About communication style>
In the case where the communication unit 30 transmits data to the server communication unit 50, that is, in the case of uplink communication, and in the case where the communication unit 30 receives data from the server communication unit 50, that is, in the case of downlink communication, The communication modes may be divided. For example, in the case of uplink communication, since audio data and image data having a relatively large data size are transmitted, a communication method capable of transmitting a large amount of data quickly is desirable. On the other hand, for example, when message data is received as data having a small data size in downlink communication, a transfer capacity is not required as in uplink communication.

〔まとめ〕
本発明の一態様に係るメッセージ管理装置(メッセージサーバ2)は、提示対象者に提示するためのメッセージをメッセージ提示装置(出力装置1)に送信するメッセージ管理装置であって、提示対象者の発話を取得して生成された発話データを取得する発話取得手段(サーバ制御部60)と、上記発話取得手段が取得した上記発話データに含まれるキーワードを抽出するキーワード抽出手段(キーワード抽出部61)と、上記発話取得手段が取得した上記発話データに基づいて上記提示対象者を特定する対象者特定手段(対象者特定部62)と、上記キーワード抽出手段によって抽出された上記キーワード、および、上記対象者特定手段によって特定された上記提示対象者にあらかじめ対応づけられたメッセージを、上記メッセージ提示装置に送信するメッセージとして特定するメッセージ特定手段(メッセージ決定部63)とを備えている。
[Summary]
A message management apparatus (message server 2) according to an aspect of the present invention is a message management apparatus that transmits a message to be presented to a presentation target person to the message presentation apparatus (output apparatus 1), and the utterance of the presentation target person Utterance acquisition means (server control unit 60) for acquiring utterance data generated by acquiring utterances, and keyword extraction means (keyword extraction unit 61) for extracting keywords included in the utterance data acquired by the utterance acquisition means; The target person specifying means (target person specifying unit 62) for specifying the presentation target person based on the utterance data acquired by the utterance acquisition means, the keyword extracted by the keyword extracting means, and the target person A message associated with the target person specified in advance by the specifying means is stored in the message presentation device. And a message identification means (message determination unit 63) for identifying a message to be sent to.

また、本発明の一態様に係るメッセージ管理装置の制御方法は、提示対象者に提示するためのメッセージをメッセージ提示装置に送信するメッセージ管理装置の制御方法であって、提示対象者の発話を取得して生成された発話データを取得する発話取得ステップ(S106)と、上記発話取得ステップにて取得した上記発話データに含まれるキーワードを抽出するキーワード抽出ステップ(S108)と、上記発話取得ステップにて取得した上記発話データに基づいて上記提示対象者を特定する対象者特定ステップ(S110)と、上記キーワード抽出ステップにて抽出された上記キーワード、および、上記対象者特定ステップにて特定された上記提示対象者にあらかじめ対応づけられたメッセージを、上記メッセージ提示装置に送信するメッセージとして特定するメッセージ特定ステップ(S114〜116)とを含んでいる。   The message management apparatus control method according to an aspect of the present invention is a message management apparatus control method for transmitting a message to be presented to a presentation target person to the message presentation apparatus, and acquires the utterance of the presentation target person. In the utterance acquisition step (S106) for acquiring the generated utterance data, the keyword extraction step (S108) for extracting the keyword included in the utterance data acquired in the utterance acquisition step, and the utterance acquisition step A subject identification step (S110) for identifying the subject to be presented based on the acquired utterance data, the keyword extracted in the keyword extraction step, and the presentation identified in the subject identification step A message that sends a message associated with the target person in advance to the message presentation device. And a message specifying step (S114~116) be identified as sage.

上記の構成および方法によれば、メッセージ管理装置は、提示対象者の発話データを取得し、該発話データからキーワードを抽出するとともに、該発話データから提示対象者を特定し、該キーワードおよび特定した提示対象者にあらかじめ対応付けられたメッセージを、メッセージ提示装置によって提示対象者に提示させるメッセージとして特定することができる。   According to the above configuration and method, the message management apparatus acquires the utterance data of the person to be presented, extracts a keyword from the utterance data, identifies the person to be presented from the utterance data, and identifies the keyword and the A message associated with the presentation target person in advance can be specified as a message to be presented to the presentation target person by the message presentation device.

これにより、上記提示対象者が誰であるか、および、上記提示対象者が何を話したかに基づいて、メッセージ提示装置に提示させるメッセージを変化させることができる。   Accordingly, the message to be presented to the message presentation device can be changed based on who the presentation target person is and what the presentation target person has spoken.

ゆえに、メッセージ管理装置は、各提示対象者の、該提示対象者の発話内容に応じた最適なメッセージをメッセージ提示装置に提示させることができる。   Therefore, the message management device can cause the message presentation device to present an optimum message according to the utterance content of each presentation subject person.

さらに、本発明の一態様に係るメッセージ管理装置は、上記メッセージは、上記キーワードおよび上記提示対象者に対応づけられているとともに、出力可能期間(メッセージテーブル82)にさらに対応づけられており、上記提示対象者が発話した時刻あるいはそれとほぼ同じ時刻を取得する時刻取得手段(計時部70)をさらに備え、上記メッセージ特定手段は、上記キーワード抽出手段によって抽出された上記キーワード、および、上記対象者特定手段によって特定された上記提示対象者に対応づけられ、かつ、上記時刻取得手段が取得した時刻を含む上記出力可能期間に対応づけられているメッセージを、上記メッセージ提示装置に送信するメッセージとして特定することが望ましい。   Furthermore, in the message management device according to one aspect of the present invention, the message is associated with the keyword and the person to be presented, and further associated with an output possible period (message table 82). It further comprises time acquisition means (time keeping unit 70) for acquiring the time when the presentation target person speaks or substantially the same time, and the message specifying means includes the keyword extracted by the keyword extracting means and the target person specifying A message associated with the presentation target person specified by the means and associated with the output possible period including the time acquired by the time acquisition means is specified as a message to be transmitted to the message presentation device. It is desirable.

上記の構成によれば、さらに、メッセージ管理装置は、発話データから特定した提示対象者と、発話データから抽出したキーワードとに対応したメッセージで、さらに取得した現在時刻が該メッセージに対応づけられた出力可能期間に含まれているメッセージを、メッセージ提示装置に送信するメッセージとすることができる。   According to the above configuration, the message management device further includes a message corresponding to the presentation target specified from the utterance data and the keyword extracted from the utterance data, and the acquired current time is associated with the message. The message included in the output available period can be a message transmitted to the message presentation device.

ここで、時刻取得手段の取得する「ほぼ同じ時刻」とは、メッセージを決定する際に、「提示対象者が発話した時刻」と実質みなすことができる時刻であれば、任意に選択できる。例えば、以下の(1)〜(4)の時刻が利用できる。
(1)発話データが生成された時刻
(2)発話データがメッセージ管理装置へ送信された時刻
(3)メッセージ管理装置が発話データを受信した時刻
(4)メッセージ管理装置がメッセージ特定を行う時刻
なお、メッセージ提示装置は、ユーザの発話に対しレスポンス良くメッセージを出力する必要がある。したがって、ユーザの発話からメッセージ管理装置におけるメッセージ決定やメッセージ出力までの処理は長くて数秒で行われるものである。ゆえに、上記(1)〜(4)の時刻はほぼ同じ時刻を指すとみなしてよく、時刻取得手段は上記(1)〜(4)のどの時点の時刻を取得するものであってもよい。
Here, the “substantially the same time” acquired by the time acquisition means can be arbitrarily selected as long as it can be substantially regarded as “the time when the presentation target person speaks” when determining a message. For example, the following times (1) to (4) can be used.
(1) Time when utterance data is generated (2) Time when utterance data is transmitted to message management device (3) Time when message management device receives utterance data (4) Time when message management device specifies message The message presentation device needs to output a message with good response to the user's utterance. Therefore, the process from the user's utterance to the message determination and message output in the message management apparatus is performed in a few seconds at the longest. Therefore, the times of (1) to (4) may be regarded as indicating substantially the same time, and the time acquisition means may acquire the time of any time of (1) to (4).

さらに、本発明の一態様に係るメッセージ管理装置は、上記提示対象者を撮像して生成された画像データを取得する画像取得手段(サーバ制御部60)をさらに備え、上記対象者特定手段は、上記発話取得手段が取得した上記発話データおよび上記画像取得手段が取得した上記画像データに基づいて上記提示対象者を特定することが望ましい。   Furthermore, the message management device according to an aspect of the present invention further includes an image acquisition unit (server control unit 60) that acquires image data generated by imaging the presentation target person, and the target person specifying unit includes: It is desirable to specify the person to be presented based on the utterance data acquired by the utterance acquisition unit and the image data acquired by the image acquisition unit.

上記の構成によれば、さらに、メッセージ管理装置は、提示対象者の発話データと、画像データとを組み合わせて、該提示対象者の特定を行うことができる。   According to the above configuration, the message management device can further identify the target person by combining the utterance data of the target person and the image data.

これにより、発話データのみに基づいて提示対象者の特定を行う場合に比べ、提示対象者の特定の精度が上昇し、より正確に提示対象者を特定することが可能になる。   Thereby, compared with the case where a presentation subject person is specified only based on utterance data, the specific precision of a presentation subject person rises and it becomes possible to specify a presentation subject person more correctly.

さらに、本発明の一態様に係るメッセージ管理装置は、1つのメッセージに、1つのキーワードおよび複数の提示対象者が対応づけられており、上記メッセージ特定手段は、上記キーワード抽出手段によって上記キーワードが抽出されたとき、該キーワードが対応づけられている上記メッセージを、該メッセージが対応づけられている上記複数の提示対象者のそれぞれに対して少なくとも1回提示されるように、上記メッセージを上記メッセージ提示装置に送信するメッセージとして特定してもよい。   Furthermore, in the message management device according to an aspect of the present invention, one keyword and a plurality of subjects to be presented are associated with one message, and the keyword specifying unit extracts the keyword by the keyword extracting unit. The message is displayed so that the message associated with the keyword is presented to each of the plurality of presentation subjects associated with the message at least once. You may specify as a message transmitted to an apparatus.

上記の構成によれば、さらに、メッセージ管理装置は、1つのメッセージが複数の提示対象者に対応づけられている場合でも、該複数の提示対象者のいずれか1人に1回だけ上記メッセージを送るのではなく、該当する提示対象者全員にメッセージを少なくとも1回は送信することが可能となる。したがって、上記複数の提示対象者1人1人に対するメッセージの送信漏れを防止することができる。   According to the above configuration, the message management device further sends the message only once to any one of the plurality of presentation subjects even when one message is associated with the plurality of presentation subjects. Instead of sending the message, it is possible to send the message to all the corresponding presentation target persons at least once. Accordingly, it is possible to prevent the transmission of a message to the plurality of presentation target persons one by one.

本発明の一態様に係るメッセージ提示装置(出力装置1)は、提示対象者にメッセージを提示するメッセージ提示装置であって、提示対象者の発話を取得して発話データを生成する発話データ生成手段(センサマイク11)と、上記発話データ生成手段によって生成された上記発話データから抽出されたキーワード、および、該発話データに基づいて特定された提示対象者にあらかじめ対応づけられたメッセージを取得するメッセージ取得手段(メッセージ取得部22)と、上記メッセージ取得手段によって取得された上記メッセージを提示対象者に提示するメッセージ出力手段(出力部40)とを備えている。   A message presentation device (output device 1) according to an aspect of the present invention is a message presentation device that presents a message to a presentation target person, and utterance data generation means that acquires the utterance of the presentation target person and generates utterance data. (Sensor microphone 11), a keyword extracted from the utterance data generated by the utterance data generation means, and a message for acquiring a message associated in advance with the presentation target person specified based on the utterance data An acquisition unit (message acquisition unit 22) and a message output unit (output unit 40) for presenting the message acquired by the message acquisition unit to a person to be presented.

また、本発明の一態様に係るメッセージ提示装置の制御方法は、提示対象者にメッセージを提示するメッセージ提示装置の制御方法であって、提示対象者の発話を取得して発話データを生成する発話データ生成ステップ(S100)と、上記発話データ生成ステップにて生成された上記発話データから抽出されたキーワード、および、該発話データに基づいて特定された提示対象者にあらかじめ対応づけられたメッセージを取得するメッセージ取得ステップ(S126)と、上記メッセージ取得ステップにて取得された上記メッセージを提示対象者に提示するメッセージ出力ステップ(S128)とを含んでいる。   Further, a control method for a message presentation device according to an aspect of the present invention is a control method for a message presentation device that presents a message to a presentation target person, and the utterance that acquires the utterance of the presentation target person and generates utterance data Data generation step (S100), a keyword extracted from the utterance data generated in the utterance data generation step, and a message associated in advance with the presentation target specified based on the utterance data A message acquisition step (S126), and a message output step (S128) for presenting the message acquired in the message acquisition step to the presentation target person.

上記の構成および方法によれば、メッセージ提示装置は、提示対象者の発話を取得し発話データを生成し、メッセージ管理装置において発話データから抽出されたキーワード、および、該発話データに基づいて特定された提示対象者に対応づけられたメッセージを取得し、取得したメッセージを提示対象者に提示することができる。   According to the above configuration and method, the message presentation device acquires the utterance of the person to be presented, generates utterance data, and is specified based on the keyword extracted from the utterance data in the message management device and the utterance data. The message associated with the presentation target person can be acquired, and the acquired message can be presented to the presentation target person.

これにより、各提示対象者に、該提示対象者の発話内容に応じた最適なメッセージを提示することができる。   Thereby, the optimal message according to the content of utterance of this presentation subject person can be shown to each presentation subject person.

さらに、本発明の一態様に係るメッセージ提示装置は、上記発話データ生成手段によって生成された上記発話データに含まれるキーワードを抽出するキーワード抽出手段(キーワード抽出部61)と、上記発話データ生成手段によって生成された上記発話データに基づいて上記提示対象者を特定する対象者特定手段(対象者特定部62)と、上記キーワード抽出手段によって抽出された上記キーワード、および、上記対象者特定手段によって特定された上記提示対象者にあらかじめ対応づけられたメッセージを、提示対象者に提示するメッセージとして特定するメッセージ特定手段(メッセージ決定部63)とをさらに備えていてもよい。   Furthermore, the message presentation device according to an aspect of the present invention includes a keyword extraction unit (keyword extraction unit 61) that extracts a keyword included in the utterance data generated by the utterance data generation unit, and the utterance data generation unit. Based on the generated utterance data, the target person specifying means (target person specifying unit 62) for specifying the target person to be presented, the keyword extracted by the keyword extracting means, and the target person specifying means are specified. In addition, message specifying means (message determining unit 63) for specifying a message associated with the presentation target person in advance as a message to be presented to the presentation target person may be further provided.

上記の構成によれば、さらに、メッセージ提示装置は、提示対象者の発話データの取得と、該発話データからのキーワードの抽出と、提示対象者の特定と、提示するメッセージの決定とを自機単体で行うことができる。   According to the above configuration, the message presentation device further acquires the utterance data of the presentation target person, extracts keywords from the utterance data, specifies the presentation target person, and determines the message to be presented. Can be done alone.

また、本発明の1態様に係るメッセージ提示システムは、上記メッセージ管理装置と、上記メッセージ提示装置とを備えている。   A message presentation system according to an aspect of the present invention includes the message management device and the message presentation device.

なお、上記メッセージ管理装置およびメッセージ提示装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記メッセージ管理装置およびメッセージ提示装置をコンピュータにて実現させるメッセージ管理装置およびメッセージ提示装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The message management device and the message presentation device may be realized by a computer. In this case, a message that causes the message management device and the message presentation device to be realized by the computer by operating the computer as each of the above means. A control program for the management device and the message presentation device, and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した実施の形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、実施の形態に開示された技術的手段を適宜組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。さらに、実施の形態に開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims, and the embodiments can be obtained by appropriately combining technical means disclosed in the embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in the embodiments.

〔ソフトウェアによる実現例〕
最後に、出力装置1およびメッセージサーバ2の各ブロック、特にサーバ制御部60は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
[Example of software implementation]
Finally, each block of the output device 1 and the message server 2, particularly the server control unit 60, may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or may be a CPU (Central Processing). Unit) may be implemented in software.

後者の場合、出力装置1およびメッセージサーバ2は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである出力装置1およびメッセージサーバ2の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記メッセージサーバ2に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, the output device 1 and the message server 2 include a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, A storage device (recording medium) such as a memory for storing the program and various data is provided. The object of the present invention is to record the program code (execution format program, intermediate code program, source program) of the control program of the output device 1 and the message server 2 which are software for realizing the above-described functions so as to be readable by a computer. This can also be achieved by supplying a recording medium to the message server 2 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、一時的でない有形の媒体(non-transitory tangible medium)、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include non-transitory tangible medium, such as magnetic tape and cassette tape, magnetic disk such as floppy (registered trademark) disk / hard disk, and CD-ROM / MO. Discs including optical discs such as / MD / DVD / CD-R, cards such as IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM (registered trademark) / flash ROM Alternatively, logic circuits such as PLD (Programmable Logic Device) and FPGA (Field Programmable Gate Array) can be used.

また、出力装置1およびメッセージサーバ2を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The output device 1 and the message server 2 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, and the like can be used. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, and ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by radio such as High Data Rate (NFC), Near Field Communication (NFC), Digital Living Network Alliance (DLNA), mobile phone network, satellite line, and digital terrestrial network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、ユーザの発話に対応して、ユーザに対し適切な内容のメッセージを提示するメッセージ提示システムなどに関する。   The present invention relates to a message presentation system that presents a message having an appropriate content to a user in response to the user's utterance.

1 出力装置(メッセージ提示装置)
2 メッセージサーバ(メッセージ管理装置)
10 検出部
11 センサマイク(発話データ生成手段)
12 カメラ
20 制御部
21 検出データ取得部
22 メッセージ取得部(メッセージ取得手段)
30 通信部
40 出力部(メッセージ出力手段)
50 サーバ通信部
60 サーバ制御部(発話取得手段、画像取得手段)
61 キーワード抽出部(キーワード抽出手段)
62 対象者特定部(対象者特定手段)
63 メッセージ決定部(メッセージ特定手段)
64 出力要否判定部
65 メッセージ作成部
70 計時部(時刻取得手段)
80 記憶部
81 認証情報
82 メッセージテーブル
83 グループ提示情報
100 メッセージ提示システム
1 Output device (message presentation device)
2 Message server (message management device)
10 Detection Unit 11 Sensor Microphone (Speech Data Generation Unit)
12 Camera 20 Control unit 21 Detection data acquisition unit 22 Message acquisition unit (message acquisition means)
30 communication unit 40 output unit (message output means)
50 server communication unit 60 server control unit (speech acquisition means, image acquisition means)
61 Keyword extraction unit (keyword extraction means)
62 Target person specifying part (Target person specifying means)
63 Message determination unit (message specifying means)
64 Output Necessity Determination Unit 65 Message Creation Unit 70 Timekeeping Unit (Time Acquisition Unit)
80 Storage Unit 81 Authentication Information 82 Message Table 83 Group Presentation Information 100 Message Presentation System

Claims (10)

提示対象者に提示するためのメッセージをメッセージ提示装置に送信するメッセージ管理装置であって、
提示対象者の発話を取得して生成された発話データを取得する発話取得手段と、
上記発話取得手段が取得した上記発話データに含まれるキーワードを抽出するキーワード抽出手段と、
上記発話取得手段が取得した上記発話データに基づいて上記提示対象者を特定する対象者特定手段と、
上記キーワード抽出手段によって抽出された上記キーワード、および、上記対象者特定手段によって特定された上記提示対象者にあらかじめ対応づけられたメッセージを、上記メッセージ提示装置に送信するメッセージとして特定するメッセージ特定手段とを備え
上記メッセージは、上記キーワードおよび上記提示対象者に対応づけられているとともに、出力可能期間にさらに対応づけられており、
上記提示対象者が発話した時刻あるいはそれとほぼ同じ時刻を取得する時刻取得手段をさらに備え、
上記メッセージ特定手段は、上記キーワード抽出手段によって抽出された上記キーワード、および、上記対象者特定手段によって特定された上記提示対象者に対応づけられ、かつ、上記時刻取得手段が取得した時刻を含む上記出力可能期間に対応づけられているメッセージを、上記メッセージ提示装置に送信するメッセージとして特定することを特徴とするメッセージ管理装置。
A message management device that transmits a message to be presented to a presentation target person to a message presentation device,
Utterance acquisition means for acquiring utterance data generated by acquiring the utterance of the person to be presented;
Keyword extraction means for extracting keywords included in the utterance data acquired by the utterance acquisition means;
Subject identification means for identifying the subject to be presented based on the utterance data acquired by the utterance acquisition means;
Message specifying means for specifying the keyword extracted by the keyword extracting means and a message associated with the presentation target person specified by the target person specifying means in advance as a message to be transmitted to the message presentation device; equipped with a,
The message is associated with the keyword and the person to be presented, and further associated with the output possible period.
Further comprising time acquisition means for acquiring the time when the presentation subject speaks or substantially the same time,
The message specifying means is associated with the keyword extracted by the keyword extracting means and the presentation target person specified by the target person specifying means, and includes the time acquired by the time acquisition means A message management device that identifies a message associated with a possible output period as a message to be transmitted to the message presentation device.
提示対象者に提示するためのメッセージをメッセージ提示装置に送信するメッセージ管理装置であって、  A message management device that transmits a message to be presented to a presentation target person to a message presentation device,
提示対象者の発話を取得して生成された発話データを取得する発話取得手段と、  Utterance acquisition means for acquiring utterance data generated by acquiring the utterance of the person to be presented;
上記発話取得手段が取得した上記発話データに含まれるキーワードを抽出するキーワード抽出手段と、  Keyword extraction means for extracting keywords included in the utterance data acquired by the utterance acquisition means;
上記発話取得手段が取得した上記発話データに基づいて上記提示対象者を特定する対象者特定手段と、  Subject identification means for identifying the subject to be presented based on the utterance data acquired by the utterance acquisition means;
上記キーワード抽出手段によって抽出された上記キーワード、および、上記対象者特定手段によって特定された上記提示対象者にあらかじめ対応づけられたメッセージを、上記メッセージ提示装置に送信するメッセージとして特定するメッセージ特定手段とを備え、  Message specifying means for specifying the keyword extracted by the keyword extracting means and a message associated with the presentation target person specified by the target person specifying means in advance as a message to be transmitted to the message presentation device; With
1つのメッセージに、1つのキーワードおよび複数の提示対象者が対応づけられており、  One message and a plurality of target audiences are associated with one message,
上記メッセージ特定手段は、上記キーワード抽出手段によって上記キーワードが抽出されたとき、該キーワードが対応づけられている上記メッセージを、該メッセージが対応づけられている上記複数の提示対象者のそれぞれに対して少なくとも1回提示されるように、上記メッセージを上記メッセージ提示装置に送信するメッセージとして特定することを特徴とするメッセージ管理装置。  When the keyword is extracted by the keyword extracting unit, the message specifying unit sends the message associated with the keyword to each of the plurality of presentation subjects associated with the message. A message management device that identifies the message as a message to be transmitted to the message presentation device so that the message is presented at least once.
上記提示対象者を撮像して生成された画像データを取得する画像取得手段をさらに備え、
上記対象者特定手段は、上記発話取得手段が取得した上記発話データおよび上記画像取得手段が取得した上記画像データに基づいて上記提示対象者を特定することを特徴とする請求項1または2に記載のメッセージ管理装置。
Image acquisition means for acquiring image data generated by imaging the person to be presented is further provided,
The target person specifying unit specifies the target person to be presented based on the utterance data acquired by the utterance acquisition unit and the image data acquired by the image acquisition unit. Message management device.
提示対象者にメッセージを提示するメッセージ提示装置であって、
提示対象者の発話を取得して発話データを生成する発話データ生成手段と、
上記発話データ生成手段によって生成された上記発話データから抽出されたキーワード、該発話データに基づいて特定された提示対象者、および出力可能期間にあらかじめ対応づけられたメッセージであり、かつ、上記提示対象者が発話した時刻あるいはそれとほぼ同じ時刻が、上記出力可能期間に含まれているメッセージを取得するメッセージ取得手段と、
上記メッセージ取得手段によって取得された上記メッセージを提示対象者に提示するメッセージ出力手段とを備えることを特徴とするメッセージ提示装置。
A message presentation device for presenting a message to a presentation target person,
Utterance data generation means for acquiring the utterance of the person to be presented and generating utterance data;
The speech data generating means keywords extracted from the speech data generated by the target person specified on the basis of the speech data, and a pre-correlated obtained message in the output period, and the presented objects Message acquisition means for acquiring a message in which the time when the person uttered or almost the same time is included in the output possible period ;
A message output device comprising: message output means for presenting the message acquired by the message acquisition means to a presentation target person.
提示対象者にメッセージを提示するメッセージ提示装置であって、
提示対象者の発話を取得して発話データを生成する発話データ生成手段と、
上記発話データ生成手段によって生成された上記発話データから抽出されたキーワード、および、該発話データに基づいて特定された提示対象者にあらかじめ対応づけられたメッセージを取得するメッセージ取得手段と、
上記メッセージ取得手段によって取得された上記メッセージを提示対象者に提示するメッセージ出力手段とを備え、
1つのメッセージに、1つのキーワードおよび複数の提示対象者が対応づけられており、
上記メッセージ出力手段は、上記メッセージ取得手段によって取得された上記メッセージを、該メッセージが対応づけられている上記複数の提示対象者のそれぞれに対して少なくとも1回提示することを特徴とするメッセージ提示装置。
A message presentation device for presenting a message to a presentation target person,
Utterance data generation means for acquiring the utterance of the person to be presented and generating utterance data;
A message acquisition means for acquiring a keyword extracted from the utterance data generated by the utterance data generation means, and a message associated beforehand with the presentation target person specified based on the utterance data;
Message output means for presenting the message acquired by the message acquisition means to a presentation target person,
One message and a plurality of target audiences are associated with one message,
The message output means presents the message acquired by the message acquisition means at least once to each of the plurality of presentation subjects associated with the message. .
上記発話データ生成手段によって生成された上記発話データに含まれるキーワードを抽出するキーワード抽出手段と、
上記発話データ生成手段によって生成された上記発話データに基づいて上記提示対象者を特定する対象者特定手段と、
上記キーワード抽出手段によって抽出された上記キーワード、および、上記対象者特定手段によって特定された上記提示対象者にあらかじめ対応づけられたメッセージを、提示対象者に提示するメッセージとして特定するメッセージ特定手段とをさらに備えることを特徴とする請求項4または5に記載のメッセージ提示装置。
Keyword extracting means for extracting a keyword contained in the utterance data generated by the utterance data generating means;
Subject identification means for identifying the subject to be presented based on the utterance data generated by the utterance data generation means;
A message specifying means for specifying the keyword extracted by the keyword extracting means and a message previously associated with the presentation target person specified by the target person specifying means as a message to be presented to the presentation target person; The message presentation device according to claim 4, further comprising:
提示対象者に提示するためのメッセージをメッセージ提示装置に送信するメッセージ管理装置の制御方法であって、
提示対象者の発話を取得して生成された発話データを取得する発話取得ステップと、
上記発話取得ステップにて取得した上記発話データに含まれるキーワードを抽出するキーワード抽出ステップと、
上記発話取得ステップにて取得した上記発話データに基づいて上記提示対象者を特定する対象者特定ステップと、
上記キーワード抽出ステップにて抽出された上記キーワード、および、上記対象者特定ステップにて特定された上記提示対象者にあらかじめ対応づけられたメッセージを、上記メッセージ提示装置に送信するメッセージとして特定するメッセージ特定ステップとを含み、
上記メッセージは、上記キーワードおよび上記提示対象者に対応づけられているとともに、出力可能期間にさらに対応づけられており、
上記提示対象者が発話した時刻あるいはそれとほぼ同じ時刻を取得する時刻取得ステップをさらに含み、
上記メッセージ特定ステップでは、上記キーワード抽出ステップにて抽出された上記キーワード、および、上記対象者特定ステップにて特定された上記提示対象者に対応づけられ、かつ、上記時刻取得ステップにて取得した時刻を含む上記出力可能期間に対応づけられているメッセージを、上記メッセージ提示装置に送信するメッセージとして特定することを特徴とする、メッセージ管理装置の制御方法。
A control method of a message management device that transmits a message to be presented to a presentation target person to a message presentation device,
An utterance acquisition step of acquiring utterance data generated by acquiring the utterance of the person to be presented;
A keyword extraction step of extracting a keyword included in the utterance data acquired in the utterance acquisition step;
A subject identification step that identifies the subject to be presented based on the utterance data acquired in the utterance acquisition step;
Message specification that specifies the keyword extracted in the keyword extraction step and the message associated in advance with the presentation target person specified in the target person specifying step as a message to be transmitted to the message presentation device and a step seen including,
The message is associated with the keyword and the person to be presented, and further associated with the output possible period.
A time acquisition step of acquiring a time when the presentation target person speaks or substantially the same time as the utterance time;
In the message specifying step, the keyword extracted in the keyword extracting step and the time acquired in the time acquiring step and associated with the presentation target specified in the target specifying step A message management device control method characterized by specifying a message associated with the output possible period including a message to be transmitted to the message presentation device.
提示対象者に提示するためのメッセージをメッセージ提示装置に送信するメッセージ管理装置の制御方法であって、  A control method of a message management device that transmits a message to be presented to a presentation target person to a message presentation device,
提示対象者の発話を取得して生成された発話データを取得する発話取得ステップと、  An utterance acquisition step of acquiring utterance data generated by acquiring the utterance of the person to be presented;
上記発話取得ステップにて取得した上記発話データに含まれるキーワードを抽出するキーワード抽出ステップと、  A keyword extraction step of extracting a keyword included in the utterance data acquired in the utterance acquisition step;
上記発話取得ステップにて取得した上記発話データに基づいて上記提示対象者を特定する対象者特定ステップと、  A subject identification step that identifies the subject to be presented based on the utterance data acquired in the utterance acquisition step;
上記キーワード抽出ステップにて抽出された上記キーワード、および、上記対象者特定ステップにて特定された上記提示対象者にあらかじめ対応づけられたメッセージを、上記メッセージ提示装置に送信するメッセージとして特定するメッセージ特定ステップとを含み、  Message specification that specifies the keyword extracted in the keyword extraction step and the message associated in advance with the presentation target person specified in the target person specifying step as a message to be transmitted to the message presentation device Including steps,
1つのメッセージに、1つのキーワードおよび複数の提示対象者が対応づけられており、  One message and a plurality of target audiences are associated with one message,
上記メッセージ特定ステップでは、上記キーワード抽出ステップにて上記キーワードが抽出されたとき、該キーワードが対応づけられている上記メッセージを、該メッセージが対応づけられている上記複数の提示対象者のそれぞれに対して少なくとも1回提示されるように、上記メッセージを上記メッセージ提示装置に送信するメッセージとして特定することを特徴とする、メッセージ管理装置の制御方法。  In the message specifying step, when the keyword is extracted in the keyword extracting step, the message associated with the keyword is assigned to each of the plurality of presentation target persons associated with the message. The message management device control method is characterized in that the message is specified as a message to be transmitted to the message presentation device so that the message is presented at least once.
提示対象者にメッセージを提示するメッセージ提示装置の制御方法であって、  A method for controlling a message presentation device for presenting a message to a presentation target person,
提示対象者の発話を取得して発話データを生成する発話データ生成ステップと、  An utterance data generation step of acquiring the utterance of the person to be presented and generating utterance data;
上記発話データ生成ステップにて生成された上記発話データから抽出されたキーワード、該発話データに基づいて特定された提示対象者、および出力可能期間にあらかじめ対応づけられたメッセージであり、かつ、上記提示対象者が発話した時刻あるいはそれとほぼ同じ時刻が、上記出力可能期間に含まれているメッセージを取得するメッセージ取得ステップと、  The keyword extracted from the utterance data generated in the utterance data generation step, the presentation target specified based on the utterance data, and a message previously associated with the output available period, and the presentation A message acquisition step of acquiring a message in which the time when the subject speaks or substantially the same time is included in the output possible period;
上記メッセージ取得ステップにて取得された上記メッセージを提示対象者に提示するメッセージ出力ステップとを含むことを特徴とする、メッセージ提示装置の制御方法。  And a message output step of presenting the message acquired in the message acquisition step to a presentation target person.
提示対象者にメッセージを提示するメッセージ提示装置の制御方法であって、  A method for controlling a message presentation device for presenting a message to a presentation target person,
提示対象者の発話を取得して発話データを生成する発話データ生成ステップと、  An utterance data generation step of acquiring the utterance of the person to be presented and generating utterance data;
上記発話データ生成ステップにて生成された上記発話データから抽出されたキーワード、および、該発話データに基づいて特定された提示対象者にあらかじめ対応づけられたメッセージを取得するメッセージ取得ステップと、  A message acquisition step of acquiring a keyword extracted from the utterance data generated in the utterance data generation step, and a message associated beforehand with the presentation target specified based on the utterance data;
上記メッセージ取得ステップにて取得された上記メッセージを提示対象者に提示するメッセージ出力ステップとを含み、  A message output step of presenting the message acquired in the message acquisition step to a presentation target person,
1つのメッセージに、1つのキーワードおよび複数の提示対象者が対応づけられており、  One message and a plurality of target audiences are associated with one message,
上記メッセージ出力ステップでは、上記メッセージ取得ステップにて取得された上記メッセージを、該メッセージが対応づけられている上記複数の提示対象者のそれぞれに対して少なくとも1回提示することを特徴とする、メッセージ提示装置の制御方法。  In the message output step, the message acquired in the message acquisition step is presented at least once to each of the plurality of presentation subjects associated with the message. Control method of presentation device.
JP2012238190A 2012-10-29 2012-10-29 Message management apparatus, message presentation apparatus, message management apparatus control method, and message presentation apparatus control method Expired - Fee Related JP6054140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012238190A JP6054140B2 (en) 2012-10-29 2012-10-29 Message management apparatus, message presentation apparatus, message management apparatus control method, and message presentation apparatus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012238190A JP6054140B2 (en) 2012-10-29 2012-10-29 Message management apparatus, message presentation apparatus, message management apparatus control method, and message presentation apparatus control method

Publications (2)

Publication Number Publication Date
JP2014089524A JP2014089524A (en) 2014-05-15
JP6054140B2 true JP6054140B2 (en) 2016-12-27

Family

ID=50791394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012238190A Expired - Fee Related JP6054140B2 (en) 2012-10-29 2012-10-29 Message management apparatus, message presentation apparatus, message management apparatus control method, and message presentation apparatus control method

Country Status (1)

Country Link
JP (1) JP6054140B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6555858B2 (en) * 2014-08-01 2019-08-07 シャープ株式会社 Apparatus, audio output method, audio output program, network system, server, and communication apparatus
EP3051810B1 (en) 2015-01-30 2021-06-30 Nokia Technologies Oy Surveillance
JP6748404B2 (en) * 2015-06-09 2020-09-02 シャープ株式会社 Electronics
JP6662590B2 (en) * 2015-08-31 2020-03-11 田中 巧 User interface and data management system used for sending and receiving voice information
US20200211534A1 (en) * 2017-10-13 2020-07-02 Sony Corporation Information processing apparatus, information processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3604915B2 (en) * 1998-08-27 2004-12-22 富士通株式会社 Communication method and communication device
JP2003330490A (en) * 2002-05-15 2003-11-19 Fujitsu Ltd Audio conversation device
JP2004272568A (en) * 2003-03-07 2004-09-30 Sekisui Chem Co Ltd Life watching system
JP4266144B2 (en) * 2003-09-17 2009-05-20 株式会社リコー Electronic communication apparatus, electronic communication system, electronic communication method, program for causing computer to execute the method, and storage medium storing the program
JP2010170033A (en) * 2009-01-26 2010-08-05 Takao Hayashi Business model of speech interactive system using internet system
JP2011253375A (en) * 2010-06-02 2011-12-15 Sony Corp Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2014089524A (en) 2014-05-15

Similar Documents

Publication Publication Date Title
US8649776B2 (en) Systems and methods to provide personal information assistance
US8385588B2 (en) Recording audio metadata for stored images
US9530067B2 (en) Method and apparatus for storing and retrieving personal contact information
JP6054140B2 (en) Message management apparatus, message presentation apparatus, message management apparatus control method, and message presentation apparatus control method
US8521007B2 (en) Information processing method, information processing device, scene metadata extraction device, loss recovery information generation device, and programs
KR20070118038A (en) Information processing apparatus, information processing method, and computer program
US20200143813A1 (en) Information processing device, information processing method, and computer program
US20120242860A1 (en) Arrangement and method relating to audio recognition
US20150146040A1 (en) Imaging device
JP2016200666A (en) Merchandise explanation system for visually challenged person
US20210272564A1 (en) Voice processing device, voice processing method, and recording medium
US20210233556A1 (en) Voice processing device, voice processing method, and recording medium
JP2006018551A (en) Information processing apparatus and method, and program
US20210398539A1 (en) Systems and methods for processing audio and video
WO2019239659A1 (en) Information processing device and information processing method
TW200824408A (en) Methods and systems for information retrieval during communication, and machine readable medium thereof
US20190066676A1 (en) Information processing apparatus
US11688268B2 (en) Information processing apparatus and information processing method
JP2010061426A (en) Image pickup device and keyword creation program
US20220076680A1 (en) Systems and methods for processing audio and video
JP5989505B2 (en) Message management apparatus, message presentation apparatus, message presentation system, message management apparatus, message presentation apparatus control method, control program, and recording medium
JP6465398B2 (en) Electronic device, display method and program
JP6962849B2 (en) Conference support device, conference support control method and program
US10798337B2 (en) Communication device, communication system, and non-transitory computer readable medium storing program
JP2017119337A (en) Robot, robot control method and robot program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160923

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161130

R150 Certificate of patent or registration of utility model

Ref document number: 6054140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees