JP2017068359A - Interactive device and interaction control method - Google Patents
Interactive device and interaction control method Download PDFInfo
- Publication number
- JP2017068359A JP2017068359A JP2015189975A JP2015189975A JP2017068359A JP 2017068359 A JP2017068359 A JP 2017068359A JP 2015189975 A JP2015189975 A JP 2015189975A JP 2015189975 A JP2015189975 A JP 2015189975A JP 2017068359 A JP2017068359 A JP 2017068359A
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- sentence
- paragraph
- user
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
本発明は、ユーザと対話可能な対話装置及び対話制御方法に関する。 The present invention relates to an interactive apparatus capable of interacting with a user and an interactive control method.
従来、対話装置の一種として、例えば特許文献1には、インターネット上のニュースサイト等といった外部の情報源から、ニュース記事のような文章情報を取得する会話システムが開示されている。この会話システムは、取得した文章情報を部分的に切り出して用いることにより、ユーザへ向けた会話文を生成することができる。 Conventionally, for example, Patent Document 1 discloses a conversation system that acquires text information such as a news article from an external information source such as a news site on the Internet as a kind of interactive device. This conversation system can generate a conversation sentence for a user by partially cutting out and using the acquired sentence information.
また、文章情報の処理に係る技術として、例えば特許文献2には、音声データを編集するための編集処理装置が開示されている。この編集処理装置は、音声認識処理によって取得した一つの文章情報を複数の段落に分割し、分割した段落それぞれを要約することが可能である。 As a technique related to text information processing, for example, Patent Document 2 discloses an editing processing device for editing audio data. This editing processing device can divide one sentence information acquired by the speech recognition processing into a plurality of paragraphs and summarize each of the divided paragraphs.
さて、一つの文章情報から複数の会話文を生成できれば、対話装置は、同一の話題について複数回の会話をユーザとの間で展開できる。故に、本発明の発明者は、特許文献2に開示のような文章情報の処理技術を、特許文献1に開示されているような対話装置に適用することを想到した。 Now, if a plurality of conversation sentences can be generated from one sentence information, the dialogue apparatus can develop a plurality of conversations with the user on the same topic. Therefore, the inventor of the present invention has come up with the idea of applying the text information processing technique disclosed in Patent Document 2 to an interactive apparatus disclosed in Patent Document 1.
しかし、音声データの編集に係る特許文献2に開示の技術では、生成される複数の要約の内容的な纏りについて何ら考慮されていない。そのため、特許文献2に開示の技術を単に適用した対話装置では、生成される個々の会話文の内容がちぐはぐになり易かった。その結果、ユーザは、対話装置との会話に違和感を覚え易かった。 However, in the technology disclosed in Patent Document 2 relating to editing of audio data, no consideration is given to the content summarization of a plurality of generated summaries. For this reason, in a dialog device in which the technology disclosed in Patent Document 2 is simply applied, the content of each generated conversation sentence is easily confused. As a result, it was easy for the user to feel uncomfortable in the conversation with the dialogue apparatus.
本発明は、このような問題に鑑みてなされたものであり、その目的は、複数の会話文の文脈に一貫性を持たせることで、違和感の低減された会話をユーザとの間で展開可能な対話装置及び対話制御方法を提供することにある。 The present invention has been made in view of such problems, and the purpose of the present invention is to make it possible to develop conversations with a user with a sense of incongruity by making the contexts of a plurality of conversation sentences consistent. An interactive apparatus and interactive control method are provided.
上記目的を達成するため、開示された一つの発明は、ユーザへ向けた会話文を生成することにより、ユーザと会話可能な対話装置であって、タイトル及び本文を少なくとも含むコンテンツ情報を、外部の情報源(NDS)から取得する情報取得部(45)と、情報取得部によって取得された本文を複数の段落に分割する段落分割部(81)と、各段落の中から、タイトルの内容と関連性の高い箇所を優先的に残すことにより、それぞれの段落の内容を短くまとめた会話文を複数生成する会話文生成部(82)と、会話文生成部によって生成された複数の会話文を用いてユーザと会話を行う会話実行部(71)と、を備える対話装置とする。 In order to achieve the above object, one disclosed invention is an interactive apparatus capable of talking with a user by generating a conversation sentence directed to the user, wherein content information including at least a title and a text is externally transmitted. An information acquisition unit (45) acquired from the information source (NDS), a paragraph division unit (81) that divides the text acquired by the information acquisition unit into a plurality of paragraphs, and the content of the title from each paragraph By preferentially leaving highly specific parts, a conversation sentence generation unit (82) that generates a plurality of conversation sentences in which the contents of each paragraph are summarized and a plurality of conversation sentences generated by the conversation sentence generation unit are used. And a conversation execution unit (71) that has a conversation with the user.
この発明によれば、情報源から取得したコンテンツ情報の本文を複数に分割した段落から会話文を生成する過程において、会話文生成部は、タイトルの内容と関連性の高い箇所を優先的に残しつつ、段落の内容を短くまとめる。以上によれば、タイトルと関連する箇所の残る各会話文には、内容的な纏まりが生じる。その結果、複数の会話文の文脈に一貫性が確保され得るので、対話装置は、違和感の低減された会話をユーザとの間で展開可能となる。 According to the present invention, in the process of generating the conversation sentence from the paragraph obtained by dividing the body of the content information obtained from the information source into a plurality of paragraphs, the conversation sentence generation unit preferentially leaves a portion highly relevant to the content of the title. While keeping the paragraph content short. According to the above, contents are gathered in each conversation sentence in which a portion related to the title remains. As a result, consistency can be ensured in the contexts of a plurality of conversation sentences, so that the conversation apparatus can develop conversations with a user with a reduced sense of discomfort.
また、開示された他の一つの発明は、ユーザへ向けた会話文を生成することにより、ユーザとの会話を行う対話制御方法であって、少なくとも一つのプロセッサ(60a)によって実施されるステップとして、タイトル及び本文を少なくとも含むコンテンツ情報を、外部の情報源(NDS)から取得する情報取得ステップ(S101)と、情報取得ステップによって取得された本文を複数の段落に分割する段落分割ステップ(S104,S105,S107,S109)と、各段落の中から、タイトルの内容と関連性の高い箇所を優先的に残すことにより、それぞれの段落の内容を短くまとめた会話文を複数生成する会話文生成ステップ(S110)と、会話文生成ステップによって生成された複数の会話文を用いてユーザと会話を行う会話実行ステップ(S126)と、を含む対話方法とする。 In addition, another disclosed invention is a dialog control method for performing a conversation with a user by generating a conversation sentence for the user, as a step performed by at least one processor (60a). , An information acquisition step (S101) for acquiring content information including at least a title and a text from an external information source (NDS), and a paragraph division step (S104,) for dividing the text acquired by the information acquisition step into a plurality of paragraphs S105, S107, S109) and a conversation sentence generation step for generating a plurality of conversation sentences in which the contents of the respective paragraphs are shortened by preferentially leaving a part highly relevant to the contents of the title from among the paragraphs. (S110) and a conversation in which a conversation with the user is performed using a plurality of conversation sentences generated in the conversation sentence generation step. A row step (S126), and interacts method comprising.
以上の対話制御方法でも、複数の会話文に内容的な纏まりが生じ得るので、違和感の低減された会話が展開可能となる。 Even in the above-described dialog control method, content can be gathered in a plurality of conversation sentences, so that it is possible to develop a conversation with a reduced sense of discomfort.
尚、上記括弧内の参照番号は、本発明の理解を容易にすべく、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、本発明の範囲を何ら制限するものではない。 Note that the reference numbers in the parentheses are merely examples of correspondences with specific configurations in the embodiments to be described later in order to facilitate understanding of the present invention, and limit the scope of the present invention. It is not a thing.
図1に示す本発明の一実施形態による対話装置100は、車両に搭載されており、ユーザとなる車両の搭乗者と会話を行うことができる。対話装置100は、車両の搭乗者のうちで主に運転者と能動的に対話可能である。対話装置100は、図2に示すように、運転者において高い運転パフォーマンスを示し得る通常の覚醒状態が維持されるよう、運転者との会話を行う。加えて対話装置100は、運転者との会話により、漫然状態に陥った運転者又は居眠り状態に陥りかけた運転者の覚醒度を、通常の覚醒状態に引き戻す役割を果たすことができる。
A
対話装置100は、図1に示すように、車載状態検出器10、音声認識操作スイッチ21、音声入力器23、及び音声再生装置30と電気的に接続されている。加えて対話装置100は、インターネットに接続されており、インターネットを通じて車両の外部から情報を取得することができる。
As shown in FIG. 1, the
車載状態検出器10は、車両に搭載された種々のセンサ及び電子機器である。車載状態検出器10には、操舵角センサ11、アクセルポジションセンサ12、GNSS受信器14、車内撮像部16、車外撮像部17、及び車載ECU群19が少なくとも含まれている。
The on-
操舵角センサ11は、運転者によって操縦されたステアリングホイールの操舵角を検出し、対話装置100へ向けて検出結果を出力する。アクセルポジションセンサ12は、運転者によって操作されたアクセルペダルの踏み込み量を検出し、対話装置100へ向けて検出結果を出力する。
The
GNSS(Global Navigation Satellite System)受信器14は、複数の測位衛星から送信される測位信号を受信することにより、車両の現在位置を示す位置情報を取得する。GNSS受信器14は、取得した位置情報を、対話装置100及びナビゲーションECU(後述する)等へ向けて出力する。
A GNSS (Global Navigation Satellite System)
車内撮像部16は、例えば近赤外光源と組み合わされた近赤外カメラを有している。近赤外カメラは、車両の室内に取り付けられており、近赤外光源から照射された光によって主に運転者の顔を撮影する。車内撮像部16は、画像解析によって、運転者の両目の視線方向、及び目(まぶた)の開き具合等を、撮影した画像から抽出する。車内撮像部16は、抽出した運転者の視線方向及び目の開き具合等の情報を、対話装置100へ向けて出力する。尚、車内撮像部16は、複数の近赤外カメラ及び可視光カメラ等を有することにより、例えば運転者の顔以外の範囲を撮影し、手及び体の動きを検出することが可能である。
The in-
車外撮像部17は、例えば車両の周囲を向けた姿勢にて、車内及び車外に取り付けられた可視光カメラである。車外撮像部17は、車両前方を少なくとも含む車両周囲を撮影する。車外撮像部17は、画像解析によって、進行方向の道路形状及び車両周囲の道路の混雑具合等を、撮影した画像から抽出する。車外撮像部17は、道路形状及び混雑具合等を示す情報を、対話装置100へ向けて出力する。尚、車外撮像部17は、複数の可視光カメラ、近赤外線カメラ、及び距離画像カメラ等を有していてもよい。
The outside-of-
車載ECU(Electronic Control Unit)群19は、それぞれマイコン等を主体に構成されており、統合制御ECU及びブレーキ制御ECU等を含んでいる。例えば、統合制御ECUからは、助手席及び後部座席に搭乗者が着座しているか否かを示す同乗者情報が対話装置100によって取得可能に出力される。ブレーキ制御ECUからは、車速情報が対話装置100によって取得可能に出力される。ナビゲーションECUからは、例えば自車両周囲の道路形状を示す情報等が出力される。
The in-vehicle ECU (Electronic Control Unit)
音声認識操作スイッチ21は、運転席の周囲に設けられている。音声認識操作スイッチ21には、対話装置100の会話機能について、作動のオン及びオフを切り替えるための操作が車両の搭乗者によって入力される。音声認識操作スイッチ21は、搭乗者による操作情報を、対話装置100へ出力する。尚、対話装置100の会話機能に係る設定値を変更する操作が音声認識操作スイッチ21に入力可能とされていてもよい。
The voice
音声入力器23は、車室内に設けられたマイク24を有している。マイク24は、車両の搭乗者によって発せられた会話の音声を電気信号に変換し、音声情報として対話装置100へ向けて出力する。マイク24は、例えばスマートフォン及びタブレット端末等の通信機器に設けられた通話のための構成であってもよい。またマイク24にて集音された音声データは、対話装置100へ無線送信されてもよい。
The
音声再生装置30は、搭乗者へ向けて情報を出力する出力インターフェースの機能を有する装置である。音声再生装置30は、表示器、音声制御部31、及びスピーカ32を有している。音声制御部31は、会話文の音声データを取得すると、取得した音声データに基づいてスピーカ32を駆動する。スピーカ32は、車室内に設けられており、車室内に音声を出力する。スピーカ32は、運転者を含む車両の搭乗者に聞き取られるよう、会話文を再生する。
The
尚、音声再生装置30は、単純な音響機器であってもよく、又はインスツルメントパネルの上面に設置されたコミュニケーションロボット等であってもよい。さらに、対話装置100に接続されたスマートフォン及びタブレット端末等の通信機器が、音声再生装置30の機能を果たしてもよい。
Note that the
次に、対話装置100の構成を説明する。対話装置100は、入力情報取得部41、音声情報取得部43、通信処理部45、情報出力部47、状態情報処理回路50、及び制御回路60等によって構成されている。
Next, the configuration of the
入力情報取得部41は、音声認識操作スイッチ21と接続されている。入力情報取得部41は、音声認識操作スイッチ21から出力された操作情報を取得し、制御回路60へ提供する。音声情報取得部43は、マイク24と接続された音声入力のためのインターフェースである。音声情報取得部43は、マイク24から出力された音声情報を取得し、制御回路60へ提供する。
The input
通信処理部45は、モバイル通信用のアンテナを有している。通信処理部45は、アンテナを介して、車両外部の基地局との間で情報の送受信を行う。通信処理部45は、基地局を通じてインターネットに接続可能である。通信処理部45は、インターネットを通じて種々のコンテンツ情報を取得可能である。コンテンツ情報には、例えばニュース記事情報、コラム記事情報、ブログ記事情報、自車両が走行している現在地点周辺の混雑具合を示す渋滞情報といった交通情報、並びに現在地点周辺の人気スポット、イベント、及び天気予報といった地域情報等が含まれる。コンテンツ情報は、例えばインターネット上にある少なくとも一つ以上のニュース配信サイトNDS等から取得される。
The
情報出力部47は、音声再生装置30と接続された音声出力のためのインターフェースである。情報出力部47は、制御回路60によって生成された音声データを音声再生装置30へ向けて出力する。情報出力部47から出力された音声データは、音声制御部31によって取得され、スピーカ32によって再生される。
The
状態情報処理回路50は、車載状態検出器10から出力された情報を取得することにより、運転者の状態を推定する。状態情報処理回路50は、プロセッサ50a、RAM、及びフラッシュメモリを有するマイクロコンピュータを主体に構成されている。状態情報処理回路50には、車載状態検出器10からの信号を受け取る複数の入力インターフェースが設けられている。状態情報処理回路50は、プロセッサ50aによる所定のプログラムの実行により、負荷判定機能及び覚醒状態判定機能を実現させることができる。
The state
負荷判定機能は、車両が現在走行している道路について、運転者の運転負荷が高いか否かを判定する機能である。状態情報処理回路50は、操舵角センサ11及びアクセルポジションセンサ12から出力される検出結果を取得する。状態情報処理回路50は、取得した検出結果の推移に基づき、ステアリング及びアクセルペダルの少なくとも一方を運転者が忙しく操作していると推定した場合に、現在の運転負荷が高いと判定する。
The load determination function is a function for determining whether or not the driver's driving load is high on the road on which the vehicle is currently traveling. The state
加えて状態情報処理回路50は、車両が走行中の道路の形状情報、及び自車両周囲の混雑具合を示す交通情報等を取得する。道路の形状情報は、車外撮像部17及びナビゲーションECUから取得可能である。交通情報は、車外撮像部17及び通信処理部45から取得可能である。状態情報処理回路50は、進行方向の道路がカーブ形状である場合、及び車両が渋滞の中を走行していると推定される場合に、現在の運転負荷が高いと判定する。
In addition, the state
一方、状態情報処理回路50は、車両が概ね直線状の道路を走行中であり、且つ、周囲を走行する他の車両及び歩行者も僅かである場合に、現在の運転負荷が低いと判定する。また状態情報処理回路50は、ステアリング及びアクセルペダルの操作量の変動が僅かである場合にも、運転負荷が低いと判定することができる。
On the other hand, the state
覚醒状態判定機能は、運転者が漫然状態又は居眠り状態にあるか否かを判定する機能である。状態情報処理回路50は、各センサ11,12から取得した検出結果の推移に基づき、ステアリング又はアクセルペダルの緩慢な操作、及び時折入力される大きな修正操作等を検出した場合に、運転者が漫然状態又は居眠り状態にあると判定する。
The awakening state determination function is a function for determining whether or not the driver is in a sloppy state or a dozing state. When the state
加えて状態情報処理回路50は、車内撮像部16から運転者の両目の視線方向及び目の開き具合といった情報を取得する。状態情報処理回路50は、両目の視差が不安定であったり進行方向の物体の知覚に適切な状態でなかったりした場合、及び目の開度の低い状態が継続している場合等に、運転者が漫然状態又は居眠り状態にあると判定する。
In addition, the state
制御回路60は、ユーザである運転者との間で交わされる会話を統合的に制御する回路である。制御回路60は、プロセッサ60a、RAM、及びフラッシュメモリを有するマイクロコンピュータを主体に構成されている。制御回路60には、対話装置100の他の構成と接続される入出力インターフェースが設けられている。
The
制御回路60は、プロセッサ60aによって所定の対話制御プログラムを実行する。その結果、制御回路60は、音声認識部61と、段落分割ブロック81及び会話文生成ブロック82を含む文章処理部80と、対話実行ブロック71及び発話制御ブロック72を含む会話処理部70とを、機能ブロックとして構築する。以下、制御回路60に構築される各機能ブロックの詳細を、図3及び図1に基づき説明する。
The
音声認識部61は、ユーザの発話の内容を取得する。音声認識部61は、音声情報取得部43と接続されており、音声情報取得部43から音声データを取得する。音声認識部61は、取得した音声データを読み込み、テキストデータに変換する。音声認識部61は、対話装置100へ投げ掛けられたユーザの質問、ユーザの独り言、ユーザ同士の会話等、車室内にて運転者を含む搭乗者が発した言葉をテキストデータ化し、文章処理部80又は会話処理部70へ提供可能である。
The
文章処理部80は、ニュース配信サイトNDS等から取得されたコンテンツ情報から、ユーザと対話するための会話文を、段落分割ブロック81及び会話文生成ブロック82にて生成する。文章処理部80は、ユーザとしての運転者の嗜好する嗜好カテゴリのコンテンツ情報を取得した場合に、このコンテンツ情報から会話文を生成する。嗜好カテゴリは、例えば運転者の会話に対する反応、及び運転者による直接的な選択操作の入力等に基づいて設定される。
The
段落分割ブロック81は、通信処理部45によって取得されたコンテンツ情報を受け取ることができる。通信処理部45を経由して取得される複数のコンテンツ情報のそれぞれには、例えばコンテンツ情報のタイトルと、コンテンツ情報の内容である本文とが含まれている。段落分割ブロック81は、コンテンツ情報の本文を、複数の段落に分割する。
The
段落分割ブロック81は、コンテンツ情報における本文の文章量が所定の閾値を下回る場合、本文の一つの文が一つの段落となるよう当該本文を分割する。文章量は、本文を構成している文の数と、本文の文字数とによって判定される。例えば、本文を構成している文が例えば三つ以下である場合、三つの文のそれぞれが一つの段落として分割される。また、本文の文字数が例えば120文字以下である場合も、本文を構成している各文がそれぞれ一つの段落として分割される。
The
段落分割ブロック81は、コンテンツ情報の本文の文章量が所定の閾値以上である場合、複数の方法を組み合わせて、本文を複数の段落に分割する。具体的に、段落分割ブロック81は、本文を構成する個々の文に用いられている特徴的なワードの違いに基づいて、本文を複数の段落に分割することができる。
The
段落分割ブロック81は、予め設定された接続詞を抽出した位置にて、本文を分割することができる。段落分割ブロック81は、所定の接続詞と、当該接続詞直前の句点との間を、分割位置とする。例えば、「そして」「また」「たしかに」といった接続詞が、「起」に相当する段落と「承」に相当する段落との分割位置を示す単語となる。同様に、「しかし」「けれども」「ところが」といった接続詞が、「承」に相当する段落と「転」に相当する段落との分割位置を示す単語となる。そして、「以上」「つまり」「このように」といった接続詞が、「転」に相当する段落と「結」に相当する段落との分割位置を示す単語となる。また段落分割ブロック81は、「かつて」「現在」「今後は」といった時間軸を示す単語に基づき、本文を分割することも可能である。
The
段落分割ブロック81は、本文の文章の量に基づき、本文を分割する数、即ち、一つの段落あたりの文字数を設定することができる。例えば、本文が500文字程度である場合、5つの会話文を作成しようとすると、一つの段落に含まれる文字数は、100文字程度に設定される。段落分割ブロック81は、文章量に基づき、一つの段落が所定の文字数に近い値となるように、本文を構成する複数の文を複数の段落に分割する。以上に分割方法によれば、段落分割ブロック81は、所定数(N個)以上の段落を確実に生成することが可能となる。
The
会話文生成ブロック82は、段落分割ブロック81にて分割された全ての段落から、会話文を一つずつ生成する。会話文は、もととなった段落の内容を短くまとめた要約文であり、且つ、文体を話し言葉に修正した文章である。会話文生成ブロック82は、タイトルの内容と関連性の高い箇所を優先的に残すことによって会話文を生成する。
The conversation
具体的に、会話文生成ブロック82は、タイトルに用いられている特徴的なキーワードを抽出する。キーワードの抽出には、現在知られている種々の既存技術、及び将来的に開発される種々の技術を用いることが可能である。そして、キーワードを最も多く含む一つの文をベースにして会話文が生成される。加えて会話文生成ブロック82は、各段落における自明な部分、例えばタイトル及び本文の他の箇所と重複している記述、並びに修飾語等を削除することにより、それぞれの段落よりも短い会話文を生成する。
Specifically, the conversation
会話処理部70は、文章処理部80によって生成された会話文を用いて、ユーザとの会話を行う。ユーザとの会話は、対話実行ブロック71及び発話制御ブロック72によって制御される。
The
対話実行ブロック71は、会話文生成ブロック82によって生成された会話文のテキストデータを取得し、取得した会話文の音声データを合成する。対話実行ブロック71は、音節接続方式の音声合成を行ってもよく、又はコーパスベース方式の音声合成を行ってもよい。具体的に対話実行ブロック71は、会話文のテキストデータから、発話される際の韻律データを生成する。そして対話実行ブロック71は、予め記憶されている音声波形のデータベースから、韻律データにあわせて音声波形データをつなぎ合わせていく。以上のプロセスにより、対話実行ブロック71は、会話文のテキストデータを音声データ化することができる。対話実行ブロック71は、音声認識部61からユーザの発話の内容を取得し、ユーザの発話に応答するようにして会話文の音声データを情報出力部47から音声制御部31へ出力させることにより、この会話文をスピーカ32によって発話させる。
The
発話制御ブロック72は、対話実行ブロック71による会話の実行を制御する。例えば、音声認識操作スイッチ21への操作によって、対話装置100の会話機能をオフ状態にする指示が入力されていた場合に、発話制御ブロック72は、対話実行ブロック71を停止状態にする。
The
発話制御ブロック72は、状態情報処理回路50による負荷判定に応じて、対話実行ブロック71の作動ステータスを禁止状態及び許容状態とのうちで切り替える。具体的に対話実行ブロック71は、負荷判定機能によって運転負荷が高いと判定された場合に、対話実行ブロック71の作動ステータスを、発話の開始を禁止する禁止状態とする。一方、負荷判定機能によって運転負荷が低いと判定された場合、発話制御ブロック72は、対話実行ブロック71の作動ステータスを発話の開始を許容する許容状態とする。
The
発話制御ブロック72は、負荷判定機能によって運転負荷が低いと判定された場合でも、予め設定された禁止条件が成立している場合には、対話実行ブロック71の作動ステータスを許容状態とはせずに、禁止状態に維持する。禁止条件は、適宜設定可能である。例えば発話制御ブロック72は、統合ECUから出力される同乗者情報に基づき、運転者以外の搭乗者が居ると判定されている場合に、禁止条件を成立させることができる。
Even if it is determined that the driving load is low by the load determination function, the
ここまで説明した制御回路60によって実現されるユーザと対話装置100との会話の一例を説明する。まず、コンテンツ情報から一群の会話文が生成される過程の詳細を、図4に基づいて説明する。コンテンツ情報は、以下のようなニュース記事である。
タイトル;
「東京駅でガラスが割られる けが人は無し」
本文;
「11日午前6時ごろ、東京駅の八重洲口改札で、出勤してきた駅職員が改札室のガラス窓にひびが入っているのを発見した。
けが人は無かった。
東京駅では、駅職員による巡回を行い、注意を促すとともに、悪質ないたずらとみて警察に被害届を提出した。
鉄道会社によると、前日25時頃に最終の巡回を行い施錠した際にはガラスは割られておらず、未明のうちに何者かが犯行に及んだ模様とのこと。
また、割られたガラスの周辺にはほかにも鈍器で叩いたような痕跡があったが用いた道具などは発見されていない。
警視庁は威力業務妨害の疑いで捜査を開始するとともに周囲の警備を強化する方針。
この日は3連休の初日とあって朝から駅利用者が多かったものの大きな混乱はなかった。」
An example of the conversation between the user and the
title;
“There are no injuries when glass is broken at Tokyo Station”
Text;
“At around 6:00 am on the 11th, at the Yaesu Exit ticket gate at Tokyo Station, a station employee who came to work found a crack in the glass window of the ticket gate room.
There were no injuries.
At Tokyo Station, the station staff patrolled and cautioned, and filed damage reports with the police as a malicious mischief.
According to the railway company, when the last round was held around 25:00 the day before and the lock was made, the glass was not broken, and it seems that someone had committed a crime in the early days.
In addition, there were other traces around the broken glass that were struck with a blunt tool, but no tools were found.
The Metropolitan Police Department is planning to start investigations on the suspicion of impediments to powerful operations and strengthen the security of the surrounding area.
This day was the first day of the three consecutive holidays and there were many station users from the morning, but there was no big confusion. "
以上のニュース記事において、まず段落分割ブロック81は、タイトルに用いられているキーワードを抽出する。具体的に、タイトルからは、『東京駅』『ガラス』『けが人』というキーワードが抽出される。さらに段落分割ブロック81は、本文を形成している個々の文に用いられているワードを抽出する。一つ目の文からは、『東京駅』『八重洲口』『ガラス』というワードが抽出される。二つ目の文からは、『けが人』というワードが抽出される。三つ目の文からは、『東京駅』『駅職員』『被害届』というワードが抽出される。
In the above news article, the
同様に、四つ目の文からは、『鉄道会社』『ガラス』『未明』というワードが抽出される。五つ目の文からは、『ガラス』『鈍器』『痕跡』というワードが抽出される。六つ目の文からは、『警視庁』『威力業務妨害』『警部』というワードが抽出される。また、七つ目の文からは、『3連休』『初日』『利用者』というワードが抽出される。 Similarly, the words “Railway Company”, “Glass”, and “Dawn” are extracted from the fourth sentence. From the fifth sentence, the words “glass”, “blunt” and “trace” are extracted. From the sixth sentence, words such as “Tokyo Metropolitan Police Department”, “Power Disturbance”, and “Police” are extracted. Also, from the seventh sentence, the words “three consecutive holidays”, “first day” and “user” are extracted.
段落分割ブロック81は、各文のキーワードの違いに基づき、本文を分割する。上記の本文では、一つ目と三つ目の文に、タイトルから抽出された『東京駅』というキーワードが含まれている。そのため、段落分割ブロック81は、本文序盤の三つの文を一つ目の段落として括る。さらに、四つ目と五つ目の文には、タイトルから抽出された『ガラス』というキーワードが含まれている。そのため段落分割ブロック81は、これら二つの文を、二つ目の段落として括る。また、六つ目と七つ目の文は、キーワードを含んでいない。故に段落分割ブロック81は、これらの文を、互いに別々の段落とする。
The
次に、会話文生成ブロック82は、各段落の内容を短くまとめて、要約文を生成する。要約文を生成する過程では、ニュース記事のタイトルとの類似度及び近接度の高い文が優先的に抽出される。即ち、一つ目の段落では、『東京駅』『ガラス』という二つのキーワードを含む一つ目の文が会話文のベースにされる。さらに、『東京駅』というキーワードは、要約文では削除される。これは、『八重洲口』というワードから場所が自明であり、且つタイトルと重複しているためである。以上により、一つ目の段落からは、「11日午前6時ごろ、八重洲口改札で、駅職員がガラス窓にひびが入っているのを発見した。」という要約文が生成される。
Next, the conversation
二つ目の段落では、各文に『ガラス』というキーワードが含まれている。この場合、段落の中の一つ目の文が会話文のベースにされる。これは、ニュース記事では、前に位置する文章ほど結論を記載している傾向が強いためである。その結果、二つ目の段落からは、「鉄道会社によると、前日の25時頃にはガラスが割れておらず、未明のうちに何者かが犯行に及んだ模様とのこと。」という要約文が生成される。 In the second paragraph, each sentence contains the keyword “glass”. In this case, the first sentence in the paragraph is used as the base of the conversation sentence. This is because news articles tend to describe conclusions in the earlier sentences. As a result, from the second paragraph, "according to the railway company, the glass was not broken around 25 o'clock the previous day, and it seems that someone had committed a crime before dawn." A summary sentence is generated.
そして、キーワードを含まない三つ目の段落からは、修飾語等が削除され、「警視庁は周囲の警備を強化する方針。」という要約文が生成される。同様に、四つ目の段落からは、「3連休の初日とあって駅利用者が多かったものの大きな混乱はなかった。」という要約文が生成される。 And the modifier etc. are deleted from the 3rd paragraph which does not contain a keyword, and the summary sentence "The Metropolitan Police Department is a policy which strengthens surrounding security." Is produced | generated. Similarly, a summary sentence is generated from the fourth paragraph: “It was the first day of three consecutive holidays and there were many station users, but there was no major confusion.”
次に、会話文生成ブロック82は、タイトル及び各要約文の語尾を整えつつ、複数の会話文を生成する。会話文生成ブロック82は、会話文を生成する際に、会話として自然な展開となるよう、抽出した複数(二つ)の要約文を接続して一つの要約文とすることもできる。接続される二つの要約文の間には、適宜接続語が鍾乳される。こうした語尾等の調整処理によれば、タイトル及び各段落は、以下のような一群の会話文として整理される。尚、下記の会話文において“”によって挟まれた範囲が修正された語尾である。
・東京駅でガラスが割られ“たんだって”。けが人は無し“らしいよ。知ってた?”
・11日午前6時ごろ、八重洲口改札で、駅職員がガラス窓にひびが入っているのを発見した“そうで、”鉄道会社によると未明のうちに何者かが犯行に及んだ模様“らしいよ。”
・警視庁は周囲の警備を強化する方針“なんだって。”
・3連休の初日とあって駅利用者が多かったものの大きな混乱はなかった“みたいだよ。”
Next, the conversation
・ The glass is broken at Tokyo Station. There are no injuries. "It seems. Did you know?"
・ At around 6:00 am on the 11th, at the Yaesu Gate, a station staff found a crack in the glass window. “It seems.”
・ The Tokyo Metropolitan Police Department has a policy to strengthen the security around it.
・ It was the first day of the three consecutive holidays, but there were many users at the station, but there was no big confusion.
以上の一群の会話文を用いて対話実行ブロック71は、ユーザとの対話を実行する。会話文生成ブロック82にて生成された複数の会話文は、順序を入れ替えられることなく、本文における登場順序を維持したまま、ユーザとの会話に用いられる。さらに、タイトルから生成された会話文は、本文から生成された各会話文よりも先にユーザとの会話に用いられる。また、一連の会話が開始される直前には、会話開始をユーザに報知するための報知音が、スピーカ32から出力される。報知音は、ユーザの意識を会話の音声に向けさせることができる。その結果、ユーザは、対話装置100から投げかけられた会話の始まりの部分を聞き逃し難くなる。
対話装置:「東京駅でガラスが割られたんだって。けが人は無しらしいよ。知ってた?」
ユーザ :「いや、知らなかった」
対話装置:「11日午前6時ごろ、八重洲口改札で、駅職員がガラス窓にひびが入っているのを発見したそうで、鉄道会社によると未明のうちに何者かが犯行に及んだ模様らしいよ。」
ユーザ :「荒っぽい事するなあ」
対話装置:「警視庁は周囲の警備を強化する方針なんだって。」
ユーザ :「八重洲口って人が多いけど、混乱しなかったの?」
対話装置:「3連休の初日とあって駅利用者が多かったものの大きな混乱はなかったみたいだよ。」
ユーザ :「そりゃ良かったね」
The
Dialogue device: “Glass was broken at Tokyo Station. There seems to be no injuries. Did you know?”
User: "No, I didn't know"
Dialogue device: “At around 6:00 am on the 11th, at the Yaesu Gate, a station employee discovered that a glass window had cracked. It looks like a pattern. "
User: “Don't be rough”
Dialogue device: “The Metropolitan Police Department has a policy to strengthen the security of its surroundings.”
User: "Yaesuguchi has many people, but wasn't it confusing?"
Dialogue device: “It seems that there was no big mess though there were many users at the station on the first day of the three consecutive holidays.”
User: “That was good”
以上のような会話を実現するために、制御回路60にて実施される会話文生成処理及び会話開始処理をさらに説明する。まず、会話文生成処理の詳細を、図5に基づき、図1を参照しつつ説明する。図5に示す会話文生成処理の各ステップは、主に文章処理部80(図3参照)によって実施される。会話文生成処理は、車両の電源がオン状態とされたことに基づいて開始され、車両の電源がオフ状態とされるまで繰り返される。
In order to realize the conversation as described above, a conversation sentence generation process and a conversation start process performed by the
S101では、ニュース配信サイトNDSによって配信されたコンテンツ情報を、通信処理部45から取得する処理を実施し、S102に進む。S102では、運転者の嗜好カテゴリに属するようなコンテンツ情報の取得があったか否かを判定する。S102にて、嗜好カテゴリに属するようなコンテンツ情報の取得が有ったと判定した場合、S103に進む。一方、S102にて、嗜好カテゴリに属するようなコンテンツ情報の取得が無いと判定した場合、会話文生成処理を一旦終了する。
In S101, the content information distributed by the news distribution site NDS is acquired from the
S103では、本文の文章量が閾値以上か否かを判定する。S103にて、本文の文章量が閾値未満であると判定した場合、S104に進む。S104では、各文が一つの段落となるよう本文を分割し、S110に進む。一方、S103にて、本文の文章量が閾値以上であると判定した場合、S105に進む。 In S103, it is determined whether or not the amount of text in the body is greater than or equal to a threshold value. If it is determined in S103 that the text amount of the text is less than the threshold, the process proceeds to S104. In S104, the text is divided so that each sentence becomes one paragraph, and the process proceeds to S110. On the other hand, if it is determined in S103 that the amount of text in the body is greater than or equal to the threshold, the process proceeds to S105.
S105では、S101にて取得したコンテンツ情報の本文をタイトルから抽出したキーワードに基づいて複数の段落に分割し、S106に進む。S106では、S105の分割処理により、予め設定されたN個以上の段落に本文を分割できたか否かを判定する。S106にて、N個以上に本文が分割できていると判定した場合、S110に進む。一方、分割できた段落の数がN個未満である場合、S107に進む。 In S105, the body of the content information acquired in S101 is divided into a plurality of paragraphs based on the keyword extracted from the title, and the process proceeds to S106. In S106, it is determined whether or not the text has been divided into N or more preset paragraphs by the dividing process in S105. If it is determined in S106 that the text has been divided into N or more, the process proceeds to S110. On the other hand, if the number of divided paragraphs is less than N, the process proceeds to S107.
S107では、S101にて取得したコンテンツ情報の本文を接続詞に基づいて複数の段落に分割し、S108に進む。具体的には、接続詞と、接続詞直前の読点との間が、一つの段落の区切り位置とされる。S108では、S107の分割処理により、予め設定されたN個以上の段落に本文を分割できたか否かを判定する。S108にて、N個以上に本文が分割できていると判定した場合、S110に進む。一方で、分割できた段落の数がN個未満である場合、S109に進む。 In S107, the text of the content information acquired in S101 is divided into a plurality of paragraphs based on the conjunction, and the process proceeds to S108. Specifically, the interval between the conjunction and the reading just before the conjunction is the break position of one paragraph. In S108, it is determined whether or not the body text has been divided into N or more preset paragraphs by the dividing process in S107. If it is determined in S108 that the text has been divided into N or more, the process proceeds to S110. On the other hand, if the number of divided paragraphs is less than N, the process proceeds to S109.
S109では、S101にて取得したコンテンツ情報の本文を、文章の量に基づいて複数の段落に分割し、S110に進む。具体的に、S109では、本文全体の文章量に応じて、N個以上の段落が生成されるよう、一つの段落において目安となる文字数を設定する。本文全体の文章量が多い場合、生成される段落の数は、適宜増やされてよい。 In S109, the body of the content information acquired in S101 is divided into a plurality of paragraphs based on the amount of text, and the process proceeds to S110. Specifically, in S109, the number of characters that serves as a guide in one paragraph is set so that N or more paragraphs are generated according to the amount of text in the entire text. When the amount of text in the entire text is large, the number of generated paragraphs may be increased as appropriate.
S110では、タイトルと全ての段落から会話文を生成し、S111に進む。S111では、S110にて生成された複数の会話文を、一つのコンテンツ情報から生成された一群の会話文として、制御回路60のフラッシュメモリに保存し、会話文生成処理を一旦終了する。S111では、本文での登場順序を維持したまま、順番を入れ替えられることなく、全ての会話文が保存される。
In S110, a conversation sentence is generated from the title and all paragraphs, and the process proceeds to S111. In S111, the plurality of conversation sentences generated in S110 are stored in the flash memory of the
次に、会話開始処理の詳細を、図5に基づいて説明する。図5に示す会話開始処理は、会話文生成処理(図4参照)と並列に処理されており、会話文生成処理と同様に車両の電源がオン状態とされたことに基づいて開始される。会話開始処理は、車両の電源がオフ状態とされるまで、繰り返し開始される。 Next, the details of the conversation start process will be described with reference to FIG. The conversation start process shown in FIG. 5 is processed in parallel with the conversation sentence generation process (see FIG. 4), and is started based on the vehicle being turned on as in the conversation sentence generation process. The conversation start process is repeatedly started until the vehicle is turned off.
S121では、初期設定として、対話実行ブロック71(図3参照)の作動ステータスを禁止状態に設定し、S122に進む。S122では、状態情報処理回路50(図1参照)による負荷判定の判定結果を取得し、現在の運転者における運転負荷が低いか否かを判定する。S122にて、現在の運転負荷が高いと判定した場合、会話開始処理を一旦終了する。一方、S122にて、運転負荷が低いと判定した場合には、S123に進む。 In S121, as an initial setting, the operation status of the dialogue execution block 71 (see FIG. 3) is set to a prohibited state, and the process proceeds to S122. In S122, the determination result of the load determination by the state information processing circuit 50 (see FIG. 1) is acquired, and it is determined whether or not the driving load on the current driver is low. If it is determined in S122 that the current driving load is high, the conversation start process is temporarily terminated. On the other hand, if it is determined in S122 that the operation load is low, the process proceeds to S123.
S123では、禁止条件が成立しているか否かを判定する。S123にて、何らかの禁止条件が成立していると判定した場合には、会話開始処理を一旦終了する。一方、S123にて、いずれの禁止条件も成立していないと判定した場合には、S124に進む。 In S123, it is determined whether the prohibition condition is satisfied. When it is determined in S123 that some prohibition condition is established, the conversation start process is temporarily ended. On the other hand, if it is determined in S123 that none of the prohibition conditions is satisfied, the process proceeds to S124.
S124では、対話実行ブロック71(図3参照)の作動ステータスを、禁止状態から許容状態へと切り替えて、S125に進む。S125では、会話開始条件が成立しているか否かを判定する。会話開始条件は、例えば運転者が漫然状態又は居眠り状態であるか、嗜好カテゴリに属するような新着のコンテンツ情報が有るか、といった条件である。S125にて、会話開始条件が成立していないと判定した場合、会話開始処理を一旦終了する。一方、S125にて、会話開始条件が成立していると判定した場合、S126に進む。 In S124, the operation status of the dialogue execution block 71 (see FIG. 3) is switched from the prohibited state to the allowed state, and the process proceeds to S125. In S125, it is determined whether a conversation start condition is satisfied. The conversation start condition is, for example, a condition that the driver is in a slumber or doze state, or whether there is new content information that belongs to the preference category. If it is determined in S125 that the conversation start condition is not satisfied, the conversation start process is temporarily ended. On the other hand, if it is determined in S125 that the conversation start condition is satisfied, the process proceeds to S126.
S126では、一群の会話文を順番を入れ替えることなく用いて、ユーザとの会話を開始する。S125にて成立した会話開始条件に対応した会話を開始する処理を実施し、S127に進む。S127では、会話の停止条件が成立しているか否かを判定する。会話の停止条件は、例えばユーザから会話終了を指示する発話があった、ユーザの運転負荷が高くなった、及び運転者が通常の覚醒状態まで回復した等の条件である。S127にて、会話停止条件が成立していると判定した場合、S128に進む。S128では、S126にて開始した会話を強制的に停止し、会話開始処理を一旦終了する。 In S126, the conversation with the user is started using the group of conversation sentences without changing the order. Processing for starting a conversation corresponding to the conversation start condition established in S125 is performed, and the process proceeds to S127. In S127, it is determined whether or not a conversation stop condition is satisfied. The conversation stop condition is, for example, a condition in which an utterance instructing the end of the conversation from the user, a driving load on the user has increased, and the driver has recovered to a normal awakening state. If it is determined in S127 that the conversation stop condition is satisfied, the process proceeds to S128. In S128, the conversation started in S126 is forcibly stopped, and the conversation start process is temporarily ended.
一方、S127にて、会話の停止条件が成立していないと判定した場合、S129に進む。S129では、S126にて開始した会話が完了したか否かを判定する。S129にて、会話がまだ継続していると判定した場合には、S127及びS129の判定を繰り返すことで、会話の完了を待機する。そして、S129にて会話が完了したと判定した場合には、会話開始処理を一旦終了する。 On the other hand, if it is determined in S127 that the conversation stop condition is not satisfied, the process proceeds to S129. In S129, it is determined whether or not the conversation started in S126 is completed. If it is determined in S129 that the conversation is still ongoing, the determination in S127 and S129 is repeated to wait for the completion of the conversation. And when it determines with the conversation having been completed in S129, a conversation start process is once complete | finished.
ここまで説明した本実施形態によれば、コンテンツ情報の本文を複数に分割した段落から会話文を生成する過程において、会話文生成ブロック82は、タイトルの内容と関連性の高い箇所を優先的に残しつつ、段落の内容を短くまとめる。以上によれば、タイトルとの関連する箇所の残る各会話文には、内容的な纏まりが生じる。その結果、複数の会話文の文脈に一貫性が確保され得るので、対話装置100は、違和感の低減された会話をユーザとの間で展開可能となる。
According to the embodiment described so far, in the process of generating a conversation sentence from a paragraph obtained by dividing the body of the content information into a plurality of parts, the conversation
加えて本実施形態では、タイトルから抽出されたキーワードの違いに基づく段落の分割が実施される。以上の分割方法によれば、内容的に関連する文同士が、一つの段落に括られる。そのため、会話文として短く纏められた場合でも、段落の内容は、会話文に確実に反映され得る。したがって、各会話文を用いた会話によれば、コンテンツ情報の主旨は、ユーザに確実に伝達される。 In addition, in the present embodiment, paragraph division based on a difference in keywords extracted from the title is performed. According to the above dividing method, sentences that are related in terms of content are bundled into one paragraph. For this reason, the content of a paragraph can be reliably reflected in a conversational sentence even when it is summarized as a conversational sentence. Therefore, according to the conversation using each conversation sentence, the gist of the content information is reliably transmitted to the user.
また本実施形態では、一つの段落に複数の文が含まれている場合、キーワードを最も多く含む一つの文が、会話文に用いるベースとして選択される。以上によれば、タイトルとの関連性の高い内容が会話文に確実に残され得る。したがって、会話文の文脈の一貫性は、さらに確保され易くなる。 Further, in the present embodiment, when a plurality of sentences are included in one paragraph, one sentence including the most keywords is selected as a base used for the conversation sentence. According to the above, contents highly relevant to the title can be reliably left in the conversation sentence. Therefore, the consistency of the context of the conversation sentence is further ensured.
さらに本実施形態では、各段落から要約文を生成する過程において、重複しているキーワード及び自明な部分が削除される。以上の処理によれば、一つの段落が長い場合でも、ユーザに冗長感を与えないような会話文が生成され得る。したがって、対話装置100は、違和感の低減された会話をユーザとの間で展開できる。
Furthermore, in the present embodiment, duplicate keywords and obvious parts are deleted in the process of generating a summary sentence from each paragraph. According to the above processing, even when one paragraph is long, a conversation sentence that does not give the user a sense of redundancy can be generated. Therefore, the
加えて本実施形態では、タイトルから生成された会話文が、ユーザとの対話の最初に使用される。故に、ユーザは、これから展開される会話の概要を最初に知らされることとなる。以上によれば、ユーザは、本文から生成された各会話文の内容をスムースに理解し、対話装置100との対話を楽しむことが可能になる。
In addition, in the present embodiment, the conversation sentence generated from the title is used at the beginning of the dialog with the user. Therefore, the user is first informed of the outline of the conversation to be developed. According to the above, the user can smoothly understand the contents of each conversation sentence generated from the text and enjoy the conversation with the
また本実施形態の段落分割ブロック81は、文章量に基づいて本文を分割可能である。文章量に基づく分割であれば、コンテンツ情報の本文が内容の変化に乏しい場合でも、本文は、所定のN個以上の段落に分割され得る。こうした処理の結果、一つのニュース記事から分割される段落の数、ひいては生成される会話文の数が確保されるので、対話装置100は、一つのニュース記事を話題とした複数回の会話を確実に展開できる。
The
さらに本実施形態の段落分割ブロック81は、接続詞を抽出した位置にて本文を分割可能である。接続詞に基づく分割であれば、分割された各段落は、もとのコンテンツ情報の本文の起承転結といった文脈を反映した纏まりとなり得る。その結果、各段落から生成される複数の会話文を用いた会話は、コンテンツ情報の本文の文脈を踏襲した自然な会話となり得る。
Furthermore, the
加えて本実施形態の段落分割ブロック81は、コンテンツ情報の本文が短い場合において、本文を構成する各文をそれぞれ一つの段落として分割する。以上によれば、段落の数、ひいては会話文の数の確保が可能になる。したがって、本文の短いコンテンツ情報を用いた場合でも、対話装置100は、ユーザと十分な対話を展開することができる。
In addition, the
また本実施形態による対話実行ブロック71は、本文から分割された際の段落の順番を入れ替えることなく、各段落から生成された複数の会話文を順に用いて、ユーザとの会話を行う。故に、コンテンツ情報の本文における起承転結といった文脈は、崩されることなくユーザとの会話に踏襲される。したがって、対話実行ブロック71によって行われる会話は、文脈の一貫性を確保された自然な会話となる。
In addition, the
尚、本実施形態において、通信処理部45が「情報取得部」に相当し、ニュース配信サイトNDSが「情報源」に相当する。また、対話実行ブロック71が「会話実行部」に相当し、段落分割ブロック81が「段落分割部」に相当し、会話文生成ブロック82が「会話文生成部」に相当する。そして、会話文生成処理におけるS101が情報取得ステップに相当し、S104,S105,S107,S108が段落分割ステップに相当し、S110が「会話文生成ステップ」に相当し、会話開始処理におけるS126が「会話実行ステップ」に相当する。
In the present embodiment, the
(他の実施形態)
以上、本発明による一実施形態について説明したが、本発明は、上記実施形態に限定して解釈されるものではなく、本発明の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
As mentioned above, although one embodiment by the present invention was described, the present invention is not interpreted limited to the above-mentioned embodiment, and is applied to various embodiments and combinations within the range which does not deviate from the gist of the present invention. be able to.
上記実施形態では、漫然状態の検出及び新着コンテンツ情報の受信等が、対話装置による発話開始条件として設定されていた。しかし、会話開始のトリガとして用いられるイベントは、適宜設定可能である。例えば、対話装置は、漫然状態を自覚した運転者が運転席周辺に設けられた対話開始スイッチに対して行う入力や、運転者の「雑談しようよ」といった投げ掛け、或いは搭乗者による特定のキーワードの発話等をきかっけとして、ユーザへの雑談を開始可能である。 In the above-described embodiment, detection of a casual state and reception of newly arrived content information are set as utterance start conditions by the interactive device. However, an event used as a conversation start trigger can be set as appropriate. For example, a dialogue device can be used by a driver who is aware of a state of illness to input a dialogue start switch provided in the vicinity of the driver's seat, throwing a driver's “let's chat”, or a specific keyword by a passenger Chatting to the user can be started with the utterance as a trigger.
上記実施形態では、運転者の顔の様子から漫然状態及び居眠り状態が推定されていた。しかし、例えば車内撮像部によって運転者の手及び体の動きを検出可能であれば、手で目及び顔を擦るような動作や、着座位置及び姿勢を頻繁に直すような動作に基づき、漫然状態及び居眠り状態が推定されてもよい。 In the above-described embodiment, the state of sleep and the dozing state are estimated from the state of the driver's face. However, if it is possible to detect the movement of the driver's hand and body with the in-vehicle imaging unit, for example, it is based on the action of rubbing the eyes and face with the hand and the action of frequently changing the sitting position and posture. And a dozing state may be estimated.
上記実施形態における段落分割ブロックは、複数の方法を組み合わせることにより、本文を所定数(N個)以上の段落に分割していた。しかし、例えば、段落の下限数を設定しないのであれば、段落分割ブロックは、キーワード及び接続詞のみでコンテンツ情報の本文を分割してもよい。 The paragraph division block in the above embodiment divides the text into a predetermined number (N) or more paragraphs by combining a plurality of methods. However, for example, if the lower limit number of paragraphs is not set, the paragraph division block may divide the body of the content information using only keywords and conjunctions.
さらに段落分割ブロックは、本文のテキストデータに含まれる書式情報に基づき、本文を分割してもよい。詳記すると、段落分割ブロックは、二つの文の間が一行以上空けられていた場合、これら二つの文の間を分割位置に設定する。また、文頭に字下げが設けられていた場合、字下げされた文を段落の最初の文に設定する。以上のような分割処理によっても、コンテンツ情報の本文の文脈を踏襲した会話文が生成され得る。 Further, the paragraph division block may divide the body based on the format information included in the text data of the body. More specifically, the paragraph division block sets a division position between two sentences when one sentence or more is left between two sentences. If the indentation is provided at the beginning of the sentence, the indented sentence is set as the first sentence of the paragraph. A conversation sentence that follows the context of the body of the content information can also be generated by the above division processing.
上記実施形態では、本文の文脈を踏襲するよう、対話実行ブロックは、会話文の順序を入れ替えることなく、本文における登場順序を維持したまま、会話文を用いたユーザとの対話を行っていた。しかし、対話実行ブロックは、運転者の反応に応じて、使用順序の入れ替え、及び特定の会話文のスキップ等を行うことができる。 In the above embodiment, the dialogue execution block performs dialogue with the user using the conversation sentence while maintaining the appearance order in the body text without changing the order of the conversation sentences so as to follow the context of the body text. However, the dialogue execution block can change the order of use, skip a specific conversation sentence, and the like according to the driver's reaction.
上記実施形態では、冗長な会話にならないよう、タイトルのキーワードと重複する部分及び修飾語等が要約文を生成する過程において削除されていた。しかし、削除される量は、文脈に応じて適宜増減されてよい。 In the above-described embodiment, in order to avoid redundant conversations, portions overlapping with the keyword of the title, modifiers, and the like have been deleted in the process of generating the summary sentence. However, the amount to be deleted may be appropriately increased or decreased depending on the context.
上記実施形態では、対話すること自体を目的とした非タスク指向型の会話を対話装置100が行っている場合について、詳細を説明した。しかし、対話装置100は、上述した雑談のような会話だけでなく、搭乗者から投げかけられた質問に返答する、搭乗者の指定するお店を予約するといったタスク指向型の会話も行うことができる。さらに、非タスク指向型の会話を行っている途中で、一時的にタスク指向型の会話を挟むことも可能である。
In the above-described embodiment, the details have been described for the case where the
上記実施形態において、制御回路60のプロセッサ60aによって提供されていた会話実行に係る各機能は、例えば専用の集積回路によって実現されていてもよい。或いは、複数のプロセッサが協働して、会話の実行に係る各処理を実施してもよい。さらに、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって、各機能が提供されてよい。同様に、状態情報処理回路50のプロセッサ50aによって提供されていた運転負荷判定及び覚醒度判定に係る機能も、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって提供可能である。
In the above embodiment, each function related to conversation execution provided by the
さらに、各プロセッサ50a,60aにて実行されるプログラムを記憶する記憶媒体は、フラッシュメモリに限定されない。種々の非遷移的実体的記憶媒体が、プログラムを記憶する構成として採用可能である。
Furthermore, the storage medium for storing the program executed by each
本発明は、スマートフォン及びタブレット端末等の通信機器、並びに車両外部のサーバー等にインストールされる対話制御プログラムにも適用可能である。例えば対話制御プログラムは、車内に持ち込まれる通信端末の記憶媒体に、プロセッサによって実行可能なアプリケーションとして記憶されている。通信端末は、対話制御プログラムに従って運転者と対話可能であり、対話を通じて運転者の覚醒状態を維持させることができる。 The present invention is also applicable to communication control programs installed in communication devices such as smartphones and tablet terminals, servers outside the vehicle, and the like. For example, the dialogue control program is stored as an application executable by the processor in a storage medium of a communication terminal brought into the vehicle. The communication terminal can interact with the driver according to the dialogue control program, and can maintain the driver's arousal state through the dialogue.
また、対話制御プログラムがサーバーの記憶媒体に記憶されている場合、サーバーは、車両及び運転者の状態情報を、インターネットを通じて取得することができる。加えてサーバーは、取得した状態情報に基づき生成した会話文を、車両の音声再生装置へ送信し、スピーカから再生させることができる。以上のように、サーバーに対話制御プログラムがインストールされている場合でも、ユーザである運転者とシステムとの会話が実現できる。そして、サーバー型の対話システムでも、運転者の覚醒状態の維持は可能である。 In addition, when the dialogue control program is stored in the storage medium of the server, the server can acquire the vehicle and driver status information through the Internet. In addition, the server can transmit the conversation sentence generated based on the acquired state information to the audio reproduction device of the vehicle and reproduce it from the speaker. As described above, even when the dialogue control program is installed in the server, the conversation between the driver who is the user and the system can be realized. Even in a server-type dialog system, the driver's arousal state can be maintained.
以上のように、対話制御プログラムを実行する通信機器及びサーバー等によって行われる対話制御方法は、対話装置によって行われる対話制御方法と実質同一となり得る。また本発明は、車両に搭載される対話装置だけでなく、ユーザと会話を行う機能を備えた装置、例えば、玩具、受付用ロボット、介護用ロボット等にも適用可能である。 As described above, the dialog control method performed by the communication device and the server that execute the dialog control program can be substantially the same as the dialog control method performed by the dialog device. The present invention can be applied not only to an interactive device mounted on a vehicle but also to a device having a function of having a conversation with a user, for example, a toy, a reception robot, a care robot, and the like.
さらに本発明は、自動運転を行う車両(自律走行車)に搭載される対話装置にも適用可能である。例えば、「システムからの運転操作切り替え要請にドライバーが適切に応じるという条件のもと、特定の運転モードにおいて自動化された運転システムが車両の運転操作を行う」という自動化レベルの自動運転が想定されている。このような自動運転車両では、運転者(オペレータ)は、運転操作のバックアップのために、待機状態を維持する必要がある。そのため、待機状態にある運転者は、漫然状態及び居眠り状態に陥り易くなると推測される。故に、本発明を適用した対話装置は、自動運転システムのバックアップとして待機状態にある運転者の覚醒度を維持する構成としても、好適なのである。 Furthermore, the present invention can also be applied to an interactive device mounted on a vehicle (autonomous vehicle) that performs automatic driving. For example, an automatic driving at an automation level is assumed that “the driving system automated in a specific driving mode performs driving operation of the vehicle under the condition that the driver appropriately responds to the driving operation switching request from the system”. Yes. In such an automatic driving vehicle, a driver (operator) needs to maintain a standby state for backup of driving operation. Therefore, it is presumed that the driver in the standby state is likely to fall into a sloppy state and a dozing state. Therefore, the dialogue apparatus to which the present invention is applied is also suitable as a configuration that maintains the arousal level of the driver in a standby state as a backup of the automatic driving system.
45 通信処理部(情報取得部)、60a プロセッサ、71 対話実行ブロック(会話実行部)、81 段落分割ブロック(段落分割部)、82 会話文生成ブロック(会話文生成部)、100 対話装置、NDS ニュース配信サイト(情報源) 45 Communication processing unit (information acquisition unit), 60a processor, 71 dialogue execution block (conversation execution unit), 81 paragraph division block (paragraph division unit), 82 conversation sentence generation block (conversation sentence generation unit), 100 dialogue apparatus, NDS News distribution site (information source)
Claims (10)
タイトル及び本文を少なくとも含むコンテンツ情報を、外部の情報源(NDS)から取得する情報取得部(45)と、
前記情報取得部によって取得された前記本文を複数の段落に分割する段落分割部(81)と、
各前記段落の中から、前記タイトルの内容と関連性の高い箇所を優先的に残すことにより、それぞれの前記段落の内容を短くまとめた前記会話文を複数生成する会話文生成部(82)と、
前記会話文生成部によって生成された複数の前記会話文を用いて前記ユーザと会話を行う会話実行部(71)と、を備えることを特徴とする対話装置。 A dialogue device capable of talking with the user by generating a conversation sentence for the user,
An information acquisition unit (45) for acquiring content information including at least a title and a text from an external information source (NDS);
A paragraph division unit (81) that divides the body text acquired by the information acquisition unit into a plurality of paragraphs;
A conversation sentence generation unit (82) for generating a plurality of the conversation sentences in which the contents of the respective paragraphs are shortened by preferentially leaving a portion highly relevant to the contents of the title from among the paragraphs; ,
An interactive device comprising: a conversation execution unit (71) that performs a conversation with the user using the plurality of conversation sentences generated by the conversation sentence generation unit.
前記会話実行部は、前記タイトルから生成された前記会話文を、前記本文から生成された前記会話文よりも先に前記ユーザとの会話に用いることを特徴とする請求項1〜4のいずれか一項に記載の対話装置。 The conversation sentence generation unit generates the conversation sentence from the title,
The conversation execution unit uses the conversation sentence generated from the title for a conversation with the user prior to the conversation sentence generated from the text. The interactive device according to one item.
少なくとも一つのプロセッサ(60a)によって実施されるステップとして、
タイトル及び本文を少なくとも含むコンテンツ情報を、外部の情報源(NDS)から取得する情報取得ステップ(S101)と、
前記情報取得ステップによって取得された前記本文を複数の段落に分割する段落分割ステップ(S104,S105,S107,S109)と、
各前記段落の中から、前記タイトルの内容と関連性の高い箇所を優先的に残すことにより、それぞれの前記段落の内容を短くまとめた前記会話文を複数生成する会話文生成ステップ(S110)と、
前記会話文生成ステップによって生成された複数の前記会話文を用いて前記ユーザと会話を行う会話実行ステップ(S126)と、を含むことを特徴とする対話制御方法。 A dialog control method for performing a conversation with the user by generating a conversation sentence for the user,
As steps performed by at least one processor (60a),
An information acquisition step (S101) for acquiring content information including at least a title and a text from an external information source (NDS);
A paragraph division step (S104, S105, S107, S109) for dividing the body text acquired by the information acquisition step into a plurality of paragraphs;
A conversation sentence generation step (S110) for generating a plurality of the conversation sentences in which the contents of the respective paragraphs are shortened by preferentially leaving a portion highly relevant to the contents of the title among the paragraphs. ,
A conversation execution step (S126) for performing conversation with the user using the plurality of conversation sentences generated by the conversation sentence generation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015189975A JP2017068359A (en) | 2015-09-28 | 2015-09-28 | Interactive device and interaction control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015189975A JP2017068359A (en) | 2015-09-28 | 2015-09-28 | Interactive device and interaction control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017068359A true JP2017068359A (en) | 2017-04-06 |
Family
ID=58492560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015189975A Pending JP2017068359A (en) | 2015-09-28 | 2015-09-28 | Interactive device and interaction control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017068359A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046101A (en) * | 2017-08-31 | 2019-03-22 | 富士通株式会社 | Interaction control device, interaction control method and interaction control program |
JP2019139282A (en) * | 2018-02-06 | 2019-08-22 | Kddi株式会社 | Interaction control device capable of carrying out interaction about contents, program and method |
CN113470634A (en) * | 2020-04-28 | 2021-10-01 | 海信集团有限公司 | Control method of voice interaction equipment, server and voice interaction equipment |
JP7478075B2 (en) | 2020-10-20 | 2024-05-02 | 株式会社日立製作所 | Generating device and generating method |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05120345A (en) * | 1991-05-31 | 1993-05-18 | Teremateiiku Kokusai Kenkyusho:Kk | Keyword extracting device |
JPH10340271A (en) * | 1997-06-09 | 1998-12-22 | Fuji Xerox Co Ltd | Document abstract preparation device, and storage medium where document abstract generation program is recorded |
JPH11102372A (en) * | 1997-09-29 | 1999-04-13 | Sharp Corp | Document summarizing device and computer-readable recording medium |
JPH11167398A (en) * | 1997-12-04 | 1999-06-22 | Mitsubishi Electric Corp | Voice synthesizer |
JP2000118260A (en) * | 1998-10-09 | 2000-04-25 | Honda Motor Co Ltd | Vehicular occupant dialoging device |
JP2003141117A (en) * | 2001-11-05 | 2003-05-16 | Casio Comput Co Ltd | Dialog device, program, information providing device and program |
JP2004070876A (en) * | 2002-08-09 | 2004-03-04 | Casio Comput Co Ltd | Conversation system and conversation processing program |
US20080010070A1 (en) * | 2006-07-10 | 2008-01-10 | Sanghun Kim | Spoken dialog system for human-computer interaction and response method therefor |
JP2008204274A (en) * | 2007-02-21 | 2008-09-04 | Nomura Research Institute Ltd | Conversation analysis apparatus and conversation analysis program |
JP2008234670A (en) * | 1998-12-24 | 2008-10-02 | Ricoh Co Ltd | Document classification device, document classification method, and computer-readable recording medium for recording programs for executing these methods on computer |
-
2015
- 2015-09-28 JP JP2015189975A patent/JP2017068359A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05120345A (en) * | 1991-05-31 | 1993-05-18 | Teremateiiku Kokusai Kenkyusho:Kk | Keyword extracting device |
JPH10340271A (en) * | 1997-06-09 | 1998-12-22 | Fuji Xerox Co Ltd | Document abstract preparation device, and storage medium where document abstract generation program is recorded |
JPH11102372A (en) * | 1997-09-29 | 1999-04-13 | Sharp Corp | Document summarizing device and computer-readable recording medium |
JPH11167398A (en) * | 1997-12-04 | 1999-06-22 | Mitsubishi Electric Corp | Voice synthesizer |
JP2000118260A (en) * | 1998-10-09 | 2000-04-25 | Honda Motor Co Ltd | Vehicular occupant dialoging device |
JP2008234670A (en) * | 1998-12-24 | 2008-10-02 | Ricoh Co Ltd | Document classification device, document classification method, and computer-readable recording medium for recording programs for executing these methods on computer |
JP2003141117A (en) * | 2001-11-05 | 2003-05-16 | Casio Comput Co Ltd | Dialog device, program, information providing device and program |
JP2004070876A (en) * | 2002-08-09 | 2004-03-04 | Casio Comput Co Ltd | Conversation system and conversation processing program |
US20080010070A1 (en) * | 2006-07-10 | 2008-01-10 | Sanghun Kim | Spoken dialog system for human-computer interaction and response method therefor |
JP2008204274A (en) * | 2007-02-21 | 2008-09-04 | Nomura Research Institute Ltd | Conversation analysis apparatus and conversation analysis program |
Non-Patent Citations (1)
Title |
---|
吉岡 孝治 外3名: "常識的連想によるニュースヘッドラインからの会話文生成", 情報処理学会研究報告 平成21年度6 [DVD−ROM], JPN6018041484, 15 April 2010 (2010-04-15), JP, pages 1 - 8, ISSN: 0004048357 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046101A (en) * | 2017-08-31 | 2019-03-22 | 富士通株式会社 | Interaction control device, interaction control method and interaction control program |
JP2019139282A (en) * | 2018-02-06 | 2019-08-22 | Kddi株式会社 | Interaction control device capable of carrying out interaction about contents, program and method |
CN113470634A (en) * | 2020-04-28 | 2021-10-01 | 海信集团有限公司 | Control method of voice interaction equipment, server and voice interaction equipment |
CN113470634B (en) * | 2020-04-28 | 2024-05-17 | 海信集团有限公司 | Voice interaction equipment control method, server and voice interaction equipment |
JP7478075B2 (en) | 2020-10-20 | 2024-05-02 | 株式会社日立製作所 | Generating device and generating method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6515764B2 (en) | Dialogue device and dialogue method | |
JP6376096B2 (en) | Dialogue device and dialogue method | |
JP7301274B2 (en) | Audio player and vehicle | |
JP6589514B2 (en) | Dialogue device and dialogue control method | |
JP7053432B2 (en) | Control equipment, agent equipment and programs | |
US20160236690A1 (en) | Adaptive interactive voice system | |
WO2014083738A1 (en) | Text-reading device and text-reading method | |
JP2017068359A (en) | Interactive device and interaction control method | |
CN109568973B (en) | Conversation device, conversation method, server device, and computer-readable storage medium | |
US20170270916A1 (en) | Voice interface for a vehicle | |
US10956761B2 (en) | Control apparatus, control method agent apparatus, and computer readable storage medium | |
CN113157080A (en) | Instruction input method for vehicle, storage medium, system and vehicle | |
CN112193255A (en) | Human-computer interaction method, device, equipment and storage medium of vehicle-machine system | |
US10997442B2 (en) | Control apparatus, control method, agent apparatus, and computer readable storage medium | |
US10997975B2 (en) | Enhanced vehicle key | |
JP2021114081A (en) | Drive recorder, recording method, and program | |
JP6555113B2 (en) | Dialogue device | |
WO2023153314A1 (en) | In-vehicle equipment control device and in-vehicle equipment control method | |
JP2021114080A (en) | Drive recorder, recording method, and program | |
JP2022093012A (en) | Noted target sharing device and method for sharing noted target | |
CN116080672A (en) | Man-machine interaction method, related device, system and storage medium | |
CN114710733A (en) | Voice playing method and device, computer readable storage medium and electronic equipment | |
CN115482819A (en) | Data processing method, device, system, storage medium and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181030 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181205 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190604 |