JP2017068359A - Interactive device and interaction control method - Google Patents

Interactive device and interaction control method Download PDF

Info

Publication number
JP2017068359A
JP2017068359A JP2015189975A JP2015189975A JP2017068359A JP 2017068359 A JP2017068359 A JP 2017068359A JP 2015189975 A JP2015189975 A JP 2015189975A JP 2015189975 A JP2015189975 A JP 2015189975A JP 2017068359 A JP2017068359 A JP 2017068359A
Authority
JP
Japan
Prior art keywords
conversation
sentence
paragraph
user
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015189975A
Other languages
Japanese (ja)
Inventor
名田 徹
Toru Nada
徹 名田
真 眞鍋
Makoto Manabe
真 眞鍋
拓哉 岩佐
Takuya Iwasa
拓哉 岩佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015189975A priority Critical patent/JP2017068359A/en
Publication of JP2017068359A publication Critical patent/JP2017068359A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an interactive device etc., with which it is possible to expand a dialog with a reduced sense of discomfort between the device and a user by ensuring that the contexts of a plurality of conversational sentences are consistent.SOLUTION: An interactive device 100 generates a conversational sentence addressed to a user and can thereby converse with the user. The interactive device 100 acquires content information including at least a title and body text from an external news delivery site NDS, and divides a sentence of the body text into a plurality of paragraphs. Then the interactive device 100 extracts a sentence that includes a word whose correlation with the title is high from each paragraph, and preferentially leaves portions whose correlation with the content of the title is high intact, thus generating a conversational sentence in which the content of each paragraph is compactly summarized. The interactive device 100 can converse with the user using a plurality of conversational sentences generated this way.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザと対話可能な対話装置及び対話制御方法に関する。   The present invention relates to an interactive apparatus capable of interacting with a user and an interactive control method.

従来、対話装置の一種として、例えば特許文献1には、インターネット上のニュースサイト等といった外部の情報源から、ニュース記事のような文章情報を取得する会話システムが開示されている。この会話システムは、取得した文章情報を部分的に切り出して用いることにより、ユーザへ向けた会話文を生成することができる。   Conventionally, for example, Patent Document 1 discloses a conversation system that acquires text information such as a news article from an external information source such as a news site on the Internet as a kind of interactive device. This conversation system can generate a conversation sentence for a user by partially cutting out and using the acquired sentence information.

また、文章情報の処理に係る技術として、例えば特許文献2には、音声データを編集するための編集処理装置が開示されている。この編集処理装置は、音声認識処理によって取得した一つの文章情報を複数の段落に分割し、分割した段落それぞれを要約することが可能である。   As a technique related to text information processing, for example, Patent Document 2 discloses an editing processing device for editing audio data. This editing processing device can divide one sentence information acquired by the speech recognition processing into a plurality of paragraphs and summarize each of the divided paragraphs.

特開2004−70876号公報JP 2004-70876 A 特開2001−155467号公報JP 2001-155467 A

さて、一つの文章情報から複数の会話文を生成できれば、対話装置は、同一の話題について複数回の会話をユーザとの間で展開できる。故に、本発明の発明者は、特許文献2に開示のような文章情報の処理技術を、特許文献1に開示されているような対話装置に適用することを想到した。   Now, if a plurality of conversation sentences can be generated from one sentence information, the dialogue apparatus can develop a plurality of conversations with the user on the same topic. Therefore, the inventor of the present invention has come up with the idea of applying the text information processing technique disclosed in Patent Document 2 to an interactive apparatus disclosed in Patent Document 1.

しかし、音声データの編集に係る特許文献2に開示の技術では、生成される複数の要約の内容的な纏りについて何ら考慮されていない。そのため、特許文献2に開示の技術を単に適用した対話装置では、生成される個々の会話文の内容がちぐはぐになり易かった。その結果、ユーザは、対話装置との会話に違和感を覚え易かった。   However, in the technology disclosed in Patent Document 2 relating to editing of audio data, no consideration is given to the content summarization of a plurality of generated summaries. For this reason, in a dialog device in which the technology disclosed in Patent Document 2 is simply applied, the content of each generated conversation sentence is easily confused. As a result, it was easy for the user to feel uncomfortable in the conversation with the dialogue apparatus.

本発明は、このような問題に鑑みてなされたものであり、その目的は、複数の会話文の文脈に一貫性を持たせることで、違和感の低減された会話をユーザとの間で展開可能な対話装置及び対話制御方法を提供することにある。   The present invention has been made in view of such problems, and the purpose of the present invention is to make it possible to develop conversations with a user with a sense of incongruity by making the contexts of a plurality of conversation sentences consistent. An interactive apparatus and interactive control method are provided.

上記目的を達成するため、開示された一つの発明は、ユーザへ向けた会話文を生成することにより、ユーザと会話可能な対話装置であって、タイトル及び本文を少なくとも含むコンテンツ情報を、外部の情報源(NDS)から取得する情報取得部(45)と、情報取得部によって取得された本文を複数の段落に分割する段落分割部(81)と、各段落の中から、タイトルの内容と関連性の高い箇所を優先的に残すことにより、それぞれの段落の内容を短くまとめた会話文を複数生成する会話文生成部(82)と、会話文生成部によって生成された複数の会話文を用いてユーザと会話を行う会話実行部(71)と、を備える対話装置とする。   In order to achieve the above object, one disclosed invention is an interactive apparatus capable of talking with a user by generating a conversation sentence directed to the user, wherein content information including at least a title and a text is externally transmitted. An information acquisition unit (45) acquired from the information source (NDS), a paragraph division unit (81) that divides the text acquired by the information acquisition unit into a plurality of paragraphs, and the content of the title from each paragraph By preferentially leaving highly specific parts, a conversation sentence generation unit (82) that generates a plurality of conversation sentences in which the contents of each paragraph are summarized and a plurality of conversation sentences generated by the conversation sentence generation unit are used. And a conversation execution unit (71) that has a conversation with the user.

この発明によれば、情報源から取得したコンテンツ情報の本文を複数に分割した段落から会話文を生成する過程において、会話文生成部は、タイトルの内容と関連性の高い箇所を優先的に残しつつ、段落の内容を短くまとめる。以上によれば、タイトルと関連する箇所の残る各会話文には、内容的な纏まりが生じる。その結果、複数の会話文の文脈に一貫性が確保され得るので、対話装置は、違和感の低減された会話をユーザとの間で展開可能となる。   According to the present invention, in the process of generating the conversation sentence from the paragraph obtained by dividing the body of the content information obtained from the information source into a plurality of paragraphs, the conversation sentence generation unit preferentially leaves a portion highly relevant to the content of the title. While keeping the paragraph content short. According to the above, contents are gathered in each conversation sentence in which a portion related to the title remains. As a result, consistency can be ensured in the contexts of a plurality of conversation sentences, so that the conversation apparatus can develop conversations with a user with a reduced sense of discomfort.

また、開示された他の一つの発明は、ユーザへ向けた会話文を生成することにより、ユーザとの会話を行う対話制御方法であって、少なくとも一つのプロセッサ(60a)によって実施されるステップとして、タイトル及び本文を少なくとも含むコンテンツ情報を、外部の情報源(NDS)から取得する情報取得ステップ(S101)と、情報取得ステップによって取得された本文を複数の段落に分割する段落分割ステップ(S104,S105,S107,S109)と、各段落の中から、タイトルの内容と関連性の高い箇所を優先的に残すことにより、それぞれの段落の内容を短くまとめた会話文を複数生成する会話文生成ステップ(S110)と、会話文生成ステップによって生成された複数の会話文を用いてユーザと会話を行う会話実行ステップ(S126)と、を含む対話方法とする。   In addition, another disclosed invention is a dialog control method for performing a conversation with a user by generating a conversation sentence for the user, as a step performed by at least one processor (60a). , An information acquisition step (S101) for acquiring content information including at least a title and a text from an external information source (NDS), and a paragraph division step (S104,) for dividing the text acquired by the information acquisition step into a plurality of paragraphs S105, S107, S109) and a conversation sentence generation step for generating a plurality of conversation sentences in which the contents of the respective paragraphs are shortened by preferentially leaving a part highly relevant to the contents of the title from among the paragraphs. (S110) and a conversation in which a conversation with the user is performed using a plurality of conversation sentences generated in the conversation sentence generation step. A row step (S126), and interacts method comprising.

以上の対話制御方法でも、複数の会話文に内容的な纏まりが生じ得るので、違和感の低減された会話が展開可能となる。   Even in the above-described dialog control method, content can be gathered in a plurality of conversation sentences, so that it is possible to develop a conversation with a reduced sense of discomfort.

尚、上記括弧内の参照番号は、本発明の理解を容易にすべく、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、本発明の範囲を何ら制限するものではない。   Note that the reference numbers in the parentheses are merely examples of correspondences with specific configurations in the embodiments to be described later in order to facilitate understanding of the present invention, and limit the scope of the present invention. It is not a thing.

一実施形態による対話装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the dialogue apparatus by one Embodiment. 運転者における覚醒度と運転のパフォーマンスとの相関を説明するYerkes-Dodson Lawを模式的に示す図である。It is a figure which shows typically Yerkes-Dodson Law explaining the correlation with the arousal level in a driver | operator, and the performance of driving. 制御回路に構築される機能ブロックを説明する図である。It is a figure explaining the functional block constructed | assembled in a control circuit. 制御回路にて実施される会話文生成処理を示すフローチャートである。It is a flowchart which shows the conversation sentence production | generation process implemented with a control circuit. 制御回路にて実施される会話開始処理を示すフローチャートである。It is a flowchart which shows the conversation start process implemented in a control circuit.

図1に示す本発明の一実施形態による対話装置100は、車両に搭載されており、ユーザとなる車両の搭乗者と会話を行うことができる。対話装置100は、車両の搭乗者のうちで主に運転者と能動的に対話可能である。対話装置100は、図2に示すように、運転者において高い運転パフォーマンスを示し得る通常の覚醒状態が維持されるよう、運転者との会話を行う。加えて対話装置100は、運転者との会話により、漫然状態に陥った運転者又は居眠り状態に陥りかけた運転者の覚醒度を、通常の覚醒状態に引き戻す役割を果たすことができる。   A dialogue apparatus 100 according to an embodiment of the present invention shown in FIG. 1 is mounted on a vehicle and can have a conversation with a passenger of a vehicle serving as a user. The interaction device 100 can actively interact mainly with the driver among the passengers of the vehicle. As shown in FIG. 2, the dialogue apparatus 100 has a conversation with the driver so that a normal awakening state that can show high driving performance is maintained in the driver. In addition, the dialogue device 100 can play a role of bringing back the arousal level of the driver who has fallen into a sleepy state or the driver who has fallen into a dozing state into a normal awakening state by conversation with the driver.

対話装置100は、図1に示すように、車載状態検出器10、音声認識操作スイッチ21、音声入力器23、及び音声再生装置30と電気的に接続されている。加えて対話装置100は、インターネットに接続されており、インターネットを通じて車両の外部から情報を取得することができる。   As shown in FIG. 1, the interactive device 100 is electrically connected to the in-vehicle state detector 10, the voice recognition operation switch 21, the voice input device 23, and the voice playback device 30. In addition, the interactive device 100 is connected to the Internet, and can acquire information from outside the vehicle through the Internet.

車載状態検出器10は、車両に搭載された種々のセンサ及び電子機器である。車載状態検出器10には、操舵角センサ11、アクセルポジションセンサ12、GNSS受信器14、車内撮像部16、車外撮像部17、及び車載ECU群19が少なくとも含まれている。   The on-vehicle state detector 10 is various sensors and electronic devices mounted on the vehicle. The in-vehicle state detector 10 includes at least a steering angle sensor 11, an accelerator position sensor 12, a GNSS receiver 14, an in-vehicle image capturing unit 16, an in-vehicle image capturing unit 17, and an in-vehicle ECU group 19.

操舵角センサ11は、運転者によって操縦されたステアリングホイールの操舵角を検出し、対話装置100へ向けて検出結果を出力する。アクセルポジションセンサ12は、運転者によって操作されたアクセルペダルの踏み込み量を検出し、対話装置100へ向けて検出結果を出力する。   The steering angle sensor 11 detects the steering angle of the steering wheel steered by the driver, and outputs the detection result to the dialogue apparatus 100. The accelerator position sensor 12 detects the amount of depression of the accelerator pedal operated by the driver, and outputs a detection result to the dialogue device 100.

GNSS(Global Navigation Satellite System)受信器14は、複数の測位衛星から送信される測位信号を受信することにより、車両の現在位置を示す位置情報を取得する。GNSS受信器14は、取得した位置情報を、対話装置100及びナビゲーションECU(後述する)等へ向けて出力する。   A GNSS (Global Navigation Satellite System) receiver 14 receives position signals transmitted from a plurality of positioning satellites, thereby acquiring position information indicating the current position of the vehicle. The GNSS receiver 14 outputs the acquired position information to the interactive device 100, a navigation ECU (described later), and the like.

車内撮像部16は、例えば近赤外光源と組み合わされた近赤外カメラを有している。近赤外カメラは、車両の室内に取り付けられており、近赤外光源から照射された光によって主に運転者の顔を撮影する。車内撮像部16は、画像解析によって、運転者の両目の視線方向、及び目(まぶた)の開き具合等を、撮影した画像から抽出する。車内撮像部16は、抽出した運転者の視線方向及び目の開き具合等の情報を、対話装置100へ向けて出力する。尚、車内撮像部16は、複数の近赤外カメラ及び可視光カメラ等を有することにより、例えば運転者の顔以外の範囲を撮影し、手及び体の動きを検出することが可能である。   The in-vehicle imaging unit 16 has, for example, a near infrared camera combined with a near infrared light source. The near-infrared camera is attached to the interior of the vehicle, and mainly captures the driver's face with light emitted from the near-infrared light source. The in-vehicle image capturing unit 16 extracts, from the captured image, the line-of-sight direction of the driver's eyes and the degree of eye (eyelid) opening by image analysis. The in-vehicle imaging unit 16 outputs the extracted information such as the driver's line-of-sight direction and the degree of eye opening to the dialogue apparatus 100. The in-vehicle imaging unit 16 includes a plurality of near-infrared cameras, visible light cameras, and the like, so that, for example, a range other than the driver's face can be photographed and the movement of the hand and body can be detected.

車外撮像部17は、例えば車両の周囲を向けた姿勢にて、車内及び車外に取り付けられた可視光カメラである。車外撮像部17は、車両前方を少なくとも含む車両周囲を撮影する。車外撮像部17は、画像解析によって、進行方向の道路形状及び車両周囲の道路の混雑具合等を、撮影した画像から抽出する。車外撮像部17は、道路形状及び混雑具合等を示す情報を、対話装置100へ向けて出力する。尚、車外撮像部17は、複数の可視光カメラ、近赤外線カメラ、及び距離画像カメラ等を有していてもよい。   The outside-of-vehicle imaging unit 17 is a visible light camera attached to the inside and outside of the vehicle, for example, in a posture facing the periphery of the vehicle. The vehicle exterior imaging unit 17 captures the vehicle periphery including at least the front of the vehicle. The vehicle exterior imaging unit 17 extracts the road shape in the traveling direction, the degree of congestion of the road around the vehicle, and the like from the captured image by image analysis. The vehicle exterior imaging unit 17 outputs information indicating the road shape, the degree of congestion, and the like to the interactive device 100. The vehicle exterior imaging unit 17 may include a plurality of visible light cameras, a near infrared camera, a range image camera, and the like.

車載ECU(Electronic Control Unit)群19は、それぞれマイコン等を主体に構成されており、統合制御ECU及びブレーキ制御ECU等を含んでいる。例えば、統合制御ECUからは、助手席及び後部座席に搭乗者が着座しているか否かを示す同乗者情報が対話装置100によって取得可能に出力される。ブレーキ制御ECUからは、車速情報が対話装置100によって取得可能に出力される。ナビゲーションECUからは、例えば自車両周囲の道路形状を示す情報等が出力される。   The in-vehicle ECU (Electronic Control Unit) group 19 is mainly configured by a microcomputer or the like, and includes an integrated control ECU, a brake control ECU, and the like. For example, passenger information indicating whether or not a passenger is seated in the passenger seat and the rear seat is output from the integrated control ECU so as to be acquirable by the dialogue apparatus 100. From the brake control ECU, vehicle speed information is output by the dialogue device 100 so as to be acquirable. For example, information indicating the shape of the road around the host vehicle is output from the navigation ECU.

音声認識操作スイッチ21は、運転席の周囲に設けられている。音声認識操作スイッチ21には、対話装置100の会話機能について、作動のオン及びオフを切り替えるための操作が車両の搭乗者によって入力される。音声認識操作スイッチ21は、搭乗者による操作情報を、対話装置100へ出力する。尚、対話装置100の会話機能に係る設定値を変更する操作が音声認識操作スイッチ21に入力可能とされていてもよい。   The voice recognition operation switch 21 is provided around the driver's seat. The voice recognition operation switch 21 receives an operation for switching on and off the operation of the conversation function of the interaction apparatus 100 by a vehicle occupant. The voice recognition operation switch 21 outputs operation information by the passenger to the interactive device 100. Note that an operation for changing a setting value related to the conversation function of the conversation apparatus 100 may be input to the voice recognition operation switch 21.

音声入力器23は、車室内に設けられたマイク24を有している。マイク24は、車両の搭乗者によって発せられた会話の音声を電気信号に変換し、音声情報として対話装置100へ向けて出力する。マイク24は、例えばスマートフォン及びタブレット端末等の通信機器に設けられた通話のための構成であってもよい。またマイク24にて集音された音声データは、対話装置100へ無線送信されてもよい。   The voice input device 23 has a microphone 24 provided in the passenger compartment. The microphone 24 converts the voice of the conversation uttered by the vehicle occupant into an electrical signal and outputs it as voice information to the dialogue apparatus 100. The microphone 24 may be configured for a telephone call provided in a communication device such as a smartphone and a tablet terminal. The voice data collected by the microphone 24 may be wirelessly transmitted to the dialogue apparatus 100.

音声再生装置30は、搭乗者へ向けて情報を出力する出力インターフェースの機能を有する装置である。音声再生装置30は、表示器、音声制御部31、及びスピーカ32を有している。音声制御部31は、会話文の音声データを取得すると、取得した音声データに基づいてスピーカ32を駆動する。スピーカ32は、車室内に設けられており、車室内に音声を出力する。スピーカ32は、運転者を含む車両の搭乗者に聞き取られるよう、会話文を再生する。   The sound reproducing device 30 is a device having a function of an output interface that outputs information to a passenger. The audio reproduction device 30 includes a display, an audio control unit 31, and a speaker 32. When acquiring the voice data of the conversation sentence, the voice control unit 31 drives the speaker 32 based on the acquired voice data. The speaker 32 is provided in the vehicle interior and outputs sound into the vehicle interior. The speaker 32 reproduces the conversation sentence so that it can be heard by the passengers of the vehicle including the driver.

尚、音声再生装置30は、単純な音響機器であってもよく、又はインスツルメントパネルの上面に設置されたコミュニケーションロボット等であってもよい。さらに、対話装置100に接続されたスマートフォン及びタブレット端末等の通信機器が、音声再生装置30の機能を果たしてもよい。   Note that the audio playback device 30 may be a simple acoustic device, or a communication robot or the like installed on the upper surface of the instrument panel. Further, a communication device such as a smartphone and a tablet terminal connected to the interactive device 100 may fulfill the function of the audio playback device 30.

次に、対話装置100の構成を説明する。対話装置100は、入力情報取得部41、音声情報取得部43、通信処理部45、情報出力部47、状態情報処理回路50、及び制御回路60等によって構成されている。   Next, the configuration of the interactive apparatus 100 will be described. The dialogue apparatus 100 includes an input information acquisition unit 41, a voice information acquisition unit 43, a communication processing unit 45, an information output unit 47, a state information processing circuit 50, a control circuit 60, and the like.

入力情報取得部41は、音声認識操作スイッチ21と接続されている。入力情報取得部41は、音声認識操作スイッチ21から出力された操作情報を取得し、制御回路60へ提供する。音声情報取得部43は、マイク24と接続された音声入力のためのインターフェースである。音声情報取得部43は、マイク24から出力された音声情報を取得し、制御回路60へ提供する。   The input information acquisition unit 41 is connected to the voice recognition operation switch 21. The input information acquisition unit 41 acquires the operation information output from the voice recognition operation switch 21 and provides it to the control circuit 60. The voice information acquisition unit 43 is an interface for voice input connected to the microphone 24. The audio information acquisition unit 43 acquires the audio information output from the microphone 24 and provides it to the control circuit 60.

通信処理部45は、モバイル通信用のアンテナを有している。通信処理部45は、アンテナを介して、車両外部の基地局との間で情報の送受信を行う。通信処理部45は、基地局を通じてインターネットに接続可能である。通信処理部45は、インターネットを通じて種々のコンテンツ情報を取得可能である。コンテンツ情報には、例えばニュース記事情報、コラム記事情報、ブログ記事情報、自車両が走行している現在地点周辺の混雑具合を示す渋滞情報といった交通情報、並びに現在地点周辺の人気スポット、イベント、及び天気予報といった地域情報等が含まれる。コンテンツ情報は、例えばインターネット上にある少なくとも一つ以上のニュース配信サイトNDS等から取得される。   The communication processing unit 45 has an antenna for mobile communication. The communication processing unit 45 transmits / receives information to / from a base station outside the vehicle via an antenna. The communication processing unit 45 can be connected to the Internet through a base station. The communication processing unit 45 can acquire various content information through the Internet. The content information includes, for example, news article information, column article information, blog article information, traffic information such as congestion information indicating the degree of congestion around the current location where the vehicle is traveling, and popular spots, events, and the like around the current location. Includes regional information such as weather forecasts. The content information is acquired from, for example, at least one news distribution site NDS on the Internet.

情報出力部47は、音声再生装置30と接続された音声出力のためのインターフェースである。情報出力部47は、制御回路60によって生成された音声データを音声再生装置30へ向けて出力する。情報出力部47から出力された音声データは、音声制御部31によって取得され、スピーカ32によって再生される。   The information output unit 47 is an interface for audio output connected to the audio reproduction device 30. The information output unit 47 outputs the audio data generated by the control circuit 60 toward the audio reproduction device 30. The audio data output from the information output unit 47 is acquired by the audio control unit 31 and reproduced by the speaker 32.

状態情報処理回路50は、車載状態検出器10から出力された情報を取得することにより、運転者の状態を推定する。状態情報処理回路50は、プロセッサ50a、RAM、及びフラッシュメモリを有するマイクロコンピュータを主体に構成されている。状態情報処理回路50には、車載状態検出器10からの信号を受け取る複数の入力インターフェースが設けられている。状態情報処理回路50は、プロセッサ50aによる所定のプログラムの実行により、負荷判定機能及び覚醒状態判定機能を実現させることができる。   The state information processing circuit 50 estimates the driver's state by acquiring information output from the in-vehicle state detector 10. The state information processing circuit 50 is mainly configured by a microcomputer having a processor 50a, a RAM, and a flash memory. The state information processing circuit 50 is provided with a plurality of input interfaces for receiving signals from the in-vehicle state detector 10. The state information processing circuit 50 can realize a load determination function and a wakefulness determination function by executing a predetermined program by the processor 50a.

負荷判定機能は、車両が現在走行している道路について、運転者の運転負荷が高いか否かを判定する機能である。状態情報処理回路50は、操舵角センサ11及びアクセルポジションセンサ12から出力される検出結果を取得する。状態情報処理回路50は、取得した検出結果の推移に基づき、ステアリング及びアクセルペダルの少なくとも一方を運転者が忙しく操作していると推定した場合に、現在の運転負荷が高いと判定する。   The load determination function is a function for determining whether or not the driver's driving load is high on the road on which the vehicle is currently traveling. The state information processing circuit 50 acquires detection results output from the steering angle sensor 11 and the accelerator position sensor 12. The state information processing circuit 50 determines that the current driving load is high when it is estimated that the driver is busy operating at least one of the steering and the accelerator pedal based on the transition of the acquired detection result.

加えて状態情報処理回路50は、車両が走行中の道路の形状情報、及び自車両周囲の混雑具合を示す交通情報等を取得する。道路の形状情報は、車外撮像部17及びナビゲーションECUから取得可能である。交通情報は、車外撮像部17及び通信処理部45から取得可能である。状態情報処理回路50は、進行方向の道路がカーブ形状である場合、及び車両が渋滞の中を走行していると推定される場合に、現在の運転負荷が高いと判定する。   In addition, the state information processing circuit 50 acquires shape information of the road on which the vehicle is traveling, traffic information indicating the degree of congestion around the host vehicle, and the like. The road shape information can be acquired from the vehicle exterior imaging unit 17 and the navigation ECU. The traffic information can be acquired from the vehicle exterior imaging unit 17 and the communication processing unit 45. The state information processing circuit 50 determines that the current driving load is high when the road in the traveling direction has a curved shape and when it is estimated that the vehicle is traveling in a traffic jam.

一方、状態情報処理回路50は、車両が概ね直線状の道路を走行中であり、且つ、周囲を走行する他の車両及び歩行者も僅かである場合に、現在の運転負荷が低いと判定する。また状態情報処理回路50は、ステアリング及びアクセルペダルの操作量の変動が僅かである場合にも、運転負荷が低いと判定することができる。   On the other hand, the state information processing circuit 50 determines that the current driving load is low when the vehicle is traveling on a substantially straight road and there are few other vehicles and pedestrians traveling around. . In addition, the state information processing circuit 50 can determine that the driving load is low even when the operation amount of the steering and the accelerator pedal is slightly changed.

覚醒状態判定機能は、運転者が漫然状態又は居眠り状態にあるか否かを判定する機能である。状態情報処理回路50は、各センサ11,12から取得した検出結果の推移に基づき、ステアリング又はアクセルペダルの緩慢な操作、及び時折入力される大きな修正操作等を検出した場合に、運転者が漫然状態又は居眠り状態にあると判定する。   The awakening state determination function is a function for determining whether or not the driver is in a sloppy state or a dozing state. When the state information processing circuit 50 detects a slow operation of the steering or the accelerator pedal or a large correction operation that is sometimes input based on the transition of the detection result acquired from each of the sensors 11 and 12, the state information processing circuit 50 It is determined that the subject is in a state or a dozing state.

加えて状態情報処理回路50は、車内撮像部16から運転者の両目の視線方向及び目の開き具合といった情報を取得する。状態情報処理回路50は、両目の視差が不安定であったり進行方向の物体の知覚に適切な状態でなかったりした場合、及び目の開度の低い状態が継続している場合等に、運転者が漫然状態又は居眠り状態にあると判定する。   In addition, the state information processing circuit 50 acquires information such as the line-of-sight direction of the driver's eyes and the degree of eye opening from the in-vehicle imaging unit 16. The state information processing circuit 50 is operated when the parallax of both eyes is unstable or the state is not appropriate for the perception of the object in the traveling direction, or when the low eye opening state continues. It is determined that the person is in a slumber or doze state.

制御回路60は、ユーザである運転者との間で交わされる会話を統合的に制御する回路である。制御回路60は、プロセッサ60a、RAM、及びフラッシュメモリを有するマイクロコンピュータを主体に構成されている。制御回路60には、対話装置100の他の構成と接続される入出力インターフェースが設けられている。   The control circuit 60 is a circuit that comprehensively controls a conversation exchanged with a driver who is a user. The control circuit 60 is mainly configured by a microcomputer having a processor 60a, a RAM, and a flash memory. The control circuit 60 is provided with an input / output interface connected to other components of the interactive apparatus 100.

制御回路60は、プロセッサ60aによって所定の対話制御プログラムを実行する。その結果、制御回路60は、音声認識部61と、段落分割ブロック81及び会話文生成ブロック82を含む文章処理部80と、対話実行ブロック71及び発話制御ブロック72を含む会話処理部70とを、機能ブロックとして構築する。以下、制御回路60に構築される各機能ブロックの詳細を、図3及び図1に基づき説明する。   The control circuit 60 executes a predetermined dialogue control program by the processor 60a. As a result, the control circuit 60 includes a speech recognition unit 61, a sentence processing unit 80 including a paragraph division block 81 and a conversation sentence generation block 82, and a conversation processing unit 70 including a dialogue execution block 71 and an utterance control block 72. Build as a functional block. Hereinafter, details of each functional block constructed in the control circuit 60 will be described with reference to FIG. 3 and FIG.

音声認識部61は、ユーザの発話の内容を取得する。音声認識部61は、音声情報取得部43と接続されており、音声情報取得部43から音声データを取得する。音声認識部61は、取得した音声データを読み込み、テキストデータに変換する。音声認識部61は、対話装置100へ投げ掛けられたユーザの質問、ユーザの独り言、ユーザ同士の会話等、車室内にて運転者を含む搭乗者が発した言葉をテキストデータ化し、文章処理部80又は会話処理部70へ提供可能である。   The voice recognition unit 61 acquires the content of the user's utterance. The voice recognition unit 61 is connected to the voice information acquisition unit 43 and acquires voice data from the voice information acquisition unit 43. The voice recognition unit 61 reads the acquired voice data and converts it into text data. The voice recognizing unit 61 converts the words uttered by the passengers including the driver in the passenger compartment into text data such as user questions, user monologues, conversations between users, etc. Alternatively, it can be provided to the conversation processing unit 70.

文章処理部80は、ニュース配信サイトNDS等から取得されたコンテンツ情報から、ユーザと対話するための会話文を、段落分割ブロック81及び会話文生成ブロック82にて生成する。文章処理部80は、ユーザとしての運転者の嗜好する嗜好カテゴリのコンテンツ情報を取得した場合に、このコンテンツ情報から会話文を生成する。嗜好カテゴリは、例えば運転者の会話に対する反応、及び運転者による直接的な選択操作の入力等に基づいて設定される。   The sentence processing unit 80 generates a conversation sentence for dialog with the user from the content information acquired from the news distribution site NDS or the like in the paragraph division block 81 and the conversation sentence generation block 82. The sentence processing unit 80 generates a conversation sentence from the content information when the content information of the preference category preferred by the driver as the user is acquired. The preference category is set based on, for example, a response to a driver's conversation and a direct selection operation input by the driver.

段落分割ブロック81は、通信処理部45によって取得されたコンテンツ情報を受け取ることができる。通信処理部45を経由して取得される複数のコンテンツ情報のそれぞれには、例えばコンテンツ情報のタイトルと、コンテンツ情報の内容である本文とが含まれている。段落分割ブロック81は、コンテンツ情報の本文を、複数の段落に分割する。   The paragraph division block 81 can receive the content information acquired by the communication processing unit 45. Each of the plurality of pieces of content information acquired via the communication processing unit 45 includes, for example, a title of the content information and a text that is the content information. The paragraph division block 81 divides the text of the content information into a plurality of paragraphs.

段落分割ブロック81は、コンテンツ情報における本文の文章量が所定の閾値を下回る場合、本文の一つの文が一つの段落となるよう当該本文を分割する。文章量は、本文を構成している文の数と、本文の文字数とによって判定される。例えば、本文を構成している文が例えば三つ以下である場合、三つの文のそれぞれが一つの段落として分割される。また、本文の文字数が例えば120文字以下である場合も、本文を構成している各文がそれぞれ一つの段落として分割される。   The paragraph division block 81 divides the text so that one sentence of the text becomes one paragraph when the text amount of the text in the content information falls below a predetermined threshold. The amount of sentences is determined by the number of sentences constituting the body and the number of characters in the body. For example, when there are three or less sentences constituting the text, each of the three sentences is divided into one paragraph. Also, when the number of characters in the body is 120 characters or less, for example, each sentence constituting the body is divided as one paragraph.

段落分割ブロック81は、コンテンツ情報の本文の文章量が所定の閾値以上である場合、複数の方法を組み合わせて、本文を複数の段落に分割する。具体的に、段落分割ブロック81は、本文を構成する個々の文に用いられている特徴的なワードの違いに基づいて、本文を複数の段落に分割することができる。   The paragraph division block 81 divides the body into a plurality of paragraphs by combining a plurality of methods when the text amount of the body of the content information is equal to or greater than a predetermined threshold. Specifically, the paragraph division block 81 can divide the body into a plurality of paragraphs based on the difference in characteristic words used in individual sentences constituting the body.

段落分割ブロック81は、予め設定された接続詞を抽出した位置にて、本文を分割することができる。段落分割ブロック81は、所定の接続詞と、当該接続詞直前の句点との間を、分割位置とする。例えば、「そして」「また」「たしかに」といった接続詞が、「起」に相当する段落と「承」に相当する段落との分割位置を示す単語となる。同様に、「しかし」「けれども」「ところが」といった接続詞が、「承」に相当する段落と「転」に相当する段落との分割位置を示す単語となる。そして、「以上」「つまり」「このように」といった接続詞が、「転」に相当する段落と「結」に相当する段落との分割位置を示す単語となる。また段落分割ブロック81は、「かつて」「現在」「今後は」といった時間軸を示す単語に基づき、本文を分割することも可能である。   The paragraph division block 81 can divide the text at a position where a preset conjunction is extracted. The paragraph division block 81 sets a division position between a predetermined conjunction and a phrase just before the conjunction. For example, conjunctions such as “and”, “again”, “definitely” become words indicating the division positions of a paragraph corresponding to “start” and a paragraph corresponding to “approval”. Similarly, conjunctions such as “But”, “But”, “Tokoro” become words indicating the division positions of the paragraph corresponding to “Cho” and the paragraph equivalent to “T”. Then, conjunctions such as “above”, “that is,” and “in this way” are words indicating the division positions of the paragraph corresponding to “Tan” and the paragraph corresponding to “Conclusion”. The paragraph division block 81 can also divide the text based on words indicating a time axis such as “once”, “present”, and “from now on”.

段落分割ブロック81は、本文の文章の量に基づき、本文を分割する数、即ち、一つの段落あたりの文字数を設定することができる。例えば、本文が500文字程度である場合、5つの会話文を作成しようとすると、一つの段落に含まれる文字数は、100文字程度に設定される。段落分割ブロック81は、文章量に基づき、一つの段落が所定の文字数に近い値となるように、本文を構成する複数の文を複数の段落に分割する。以上に分割方法によれば、段落分割ブロック81は、所定数(N個)以上の段落を確実に生成することが可能となる。   The paragraph division block 81 can set the number of divisions of the text, that is, the number of characters per paragraph, based on the amount of text in the text. For example, if the body text is about 500 characters, the number of characters included in one paragraph is set to about 100 characters when trying to create five conversation sentences. The paragraph division block 81 divides a plurality of sentences constituting the text into a plurality of paragraphs so that one paragraph has a value close to a predetermined number of characters based on the amount of sentences. As described above, according to the dividing method, the paragraph dividing block 81 can surely generate a predetermined number (N) or more paragraphs.

会話文生成ブロック82は、段落分割ブロック81にて分割された全ての段落から、会話文を一つずつ生成する。会話文は、もととなった段落の内容を短くまとめた要約文であり、且つ、文体を話し言葉に修正した文章である。会話文生成ブロック82は、タイトルの内容と関連性の高い箇所を優先的に残すことによって会話文を生成する。   The conversation sentence generation block 82 generates conversation sentences one by one from all the paragraphs divided by the paragraph division block 81. A conversational sentence is a summary sentence that summarizes the content of the original paragraph, and is a sentence in which the style is corrected to spoken language. The conversation sentence generation block 82 generates a conversation sentence by preferentially leaving a portion highly relevant to the title content.

具体的に、会話文生成ブロック82は、タイトルに用いられている特徴的なキーワードを抽出する。キーワードの抽出には、現在知られている種々の既存技術、及び将来的に開発される種々の技術を用いることが可能である。そして、キーワードを最も多く含む一つの文をベースにして会話文が生成される。加えて会話文生成ブロック82は、各段落における自明な部分、例えばタイトル及び本文の他の箇所と重複している記述、並びに修飾語等を削除することにより、それぞれの段落よりも短い会話文を生成する。   Specifically, the conversation sentence generation block 82 extracts characteristic keywords used in the title. For the keyword extraction, it is possible to use various existing technologies that are currently known and various technologies that will be developed in the future. Then, a conversation sentence is generated based on one sentence including the most keywords. In addition, the conversation sentence generation block 82 deletes obvious parts in each paragraph, for example, descriptions overlapping with other parts of the title and body, modifiers, etc., so that a conversation sentence shorter than each paragraph can be obtained. Generate.

会話処理部70は、文章処理部80によって生成された会話文を用いて、ユーザとの会話を行う。ユーザとの会話は、対話実行ブロック71及び発話制御ブロック72によって制御される。   The conversation processing unit 70 performs a conversation with the user using the conversation sentence generated by the sentence processing unit 80. The conversation with the user is controlled by a dialog execution block 71 and a speech control block 72.

対話実行ブロック71は、会話文生成ブロック82によって生成された会話文のテキストデータを取得し、取得した会話文の音声データを合成する。対話実行ブロック71は、音節接続方式の音声合成を行ってもよく、又はコーパスベース方式の音声合成を行ってもよい。具体的に対話実行ブロック71は、会話文のテキストデータから、発話される際の韻律データを生成する。そして対話実行ブロック71は、予め記憶されている音声波形のデータベースから、韻律データにあわせて音声波形データをつなぎ合わせていく。以上のプロセスにより、対話実行ブロック71は、会話文のテキストデータを音声データ化することができる。対話実行ブロック71は、音声認識部61からユーザの発話の内容を取得し、ユーザの発話に応答するようにして会話文の音声データを情報出力部47から音声制御部31へ出力させることにより、この会話文をスピーカ32によって発話させる。   The dialog execution block 71 acquires the text data of the conversation sentence generated by the conversation sentence generation block 82 and synthesizes the acquired voice data of the conversation sentence. The dialogue execution block 71 may perform speech synthesis using a syllable connection method, or may perform speech synthesis using a corpus-based method. Specifically, the dialogue execution block 71 generates prosodic data for utterance from the text data of the conversation sentence. Then, the dialogue execution block 71 connects the speech waveform data according to the prosodic data from the speech waveform database stored in advance. Through the above process, the dialogue execution block 71 can convert the text data of the conversation sentence into voice data. The dialogue execution block 71 acquires the content of the user's utterance from the voice recognition unit 61 and outputs the voice data of the conversation sentence from the information output unit 47 to the voice control unit 31 in response to the user's utterance. The conversation sentence is uttered by the speaker 32.

発話制御ブロック72は、対話実行ブロック71による会話の実行を制御する。例えば、音声認識操作スイッチ21への操作によって、対話装置100の会話機能をオフ状態にする指示が入力されていた場合に、発話制御ブロック72は、対話実行ブロック71を停止状態にする。   The utterance control block 72 controls the execution of the conversation by the dialogue execution block 71. For example, when an instruction to turn off the conversation function of the dialogue apparatus 100 is input by an operation on the voice recognition operation switch 21, the utterance control block 72 puts the dialogue execution block 71 in a stopped state.

発話制御ブロック72は、状態情報処理回路50による負荷判定に応じて、対話実行ブロック71の作動ステータスを禁止状態及び許容状態とのうちで切り替える。具体的に対話実行ブロック71は、負荷判定機能によって運転負荷が高いと判定された場合に、対話実行ブロック71の作動ステータスを、発話の開始を禁止する禁止状態とする。一方、負荷判定機能によって運転負荷が低いと判定された場合、発話制御ブロック72は、対話実行ブロック71の作動ステータスを発話の開始を許容する許容状態とする。   The utterance control block 72 switches the operation status of the dialogue execution block 71 between the prohibited state and the allowed state in accordance with the load determination by the state information processing circuit 50. Specifically, the dialogue execution block 71 sets the operation status of the dialogue execution block 71 to a prohibited state in which the start of utterance is prohibited when the load determination function determines that the driving load is high. On the other hand, when it is determined by the load determination function that the driving load is low, the utterance control block 72 sets the operation status of the dialogue execution block 71 to a permissible state that allows the start of the utterance.

発話制御ブロック72は、負荷判定機能によって運転負荷が低いと判定された場合でも、予め設定された禁止条件が成立している場合には、対話実行ブロック71の作動ステータスを許容状態とはせずに、禁止状態に維持する。禁止条件は、適宜設定可能である。例えば発話制御ブロック72は、統合ECUから出力される同乗者情報に基づき、運転者以外の搭乗者が居ると判定されている場合に、禁止条件を成立させることができる。   Even if it is determined that the driving load is low by the load determination function, the utterance control block 72 does not set the operation status of the dialog execution block 71 to an allowable state if a preset prohibition condition is satisfied. And keep it in a prohibited state. The prohibition conditions can be set as appropriate. For example, the speech control block 72 can establish the prohibition condition when it is determined that there is a passenger other than the driver based on the passenger information output from the integrated ECU.

ここまで説明した制御回路60によって実現されるユーザと対話装置100との会話の一例を説明する。まず、コンテンツ情報から一群の会話文が生成される過程の詳細を、図4に基づいて説明する。コンテンツ情報は、以下のようなニュース記事である。
タイトル;
「東京駅でガラスが割られる けが人は無し」
本文;
「11日午前6時ごろ、東京駅の八重洲口改札で、出勤してきた駅職員が改札室のガラス窓にひびが入っているのを発見した。
けが人は無かった。
東京駅では、駅職員による巡回を行い、注意を促すとともに、悪質ないたずらとみて警察に被害届を提出した。
鉄道会社によると、前日25時頃に最終の巡回を行い施錠した際にはガラスは割られておらず、未明のうちに何者かが犯行に及んだ模様とのこと。
また、割られたガラスの周辺にはほかにも鈍器で叩いたような痕跡があったが用いた道具などは発見されていない。
警視庁は威力業務妨害の疑いで捜査を開始するとともに周囲の警備を強化する方針。
この日は3連休の初日とあって朝から駅利用者が多かったものの大きな混乱はなかった。」
An example of the conversation between the user and the interactive device 100 realized by the control circuit 60 described so far will be described. First, details of the process of generating a group of conversation sentences from content information will be described with reference to FIG. The content information is the following news article.
title;
“There are no injuries when glass is broken at Tokyo Station”
Text;
“At around 6:00 am on the 11th, at the Yaesu Exit ticket gate at Tokyo Station, a station employee who came to work found a crack in the glass window of the ticket gate room.
There were no injuries.
At Tokyo Station, the station staff patrolled and cautioned, and filed damage reports with the police as a malicious mischief.
According to the railway company, when the last round was held around 25:00 the day before and the lock was made, the glass was not broken, and it seems that someone had committed a crime in the early days.
In addition, there were other traces around the broken glass that were struck with a blunt tool, but no tools were found.
The Metropolitan Police Department is planning to start investigations on the suspicion of impediments to powerful operations and strengthen the security of the surrounding area.
This day was the first day of the three consecutive holidays and there were many station users from the morning, but there was no big confusion. "

以上のニュース記事において、まず段落分割ブロック81は、タイトルに用いられているキーワードを抽出する。具体的に、タイトルからは、『東京駅』『ガラス』『けが人』というキーワードが抽出される。さらに段落分割ブロック81は、本文を形成している個々の文に用いられているワードを抽出する。一つ目の文からは、『東京駅』『八重洲口』『ガラス』というワードが抽出される。二つ目の文からは、『けが人』というワードが抽出される。三つ目の文からは、『東京駅』『駅職員』『被害届』というワードが抽出される。   In the above news article, the paragraph division block 81 first extracts keywords used in the title. Specifically, the keywords “Tokyo Station”, “Glass”, and “Injured” are extracted from the title. Further, the paragraph division block 81 extracts words used in individual sentences forming the text. From the first sentence, the words “Tokyo Station”, “Yaesuguchi” and “Glass” are extracted. The word “injured person” is extracted from the second sentence. From the third sentence, the words “Tokyo Station”, “Station Staff”, and “Damage Notification” are extracted.

同様に、四つ目の文からは、『鉄道会社』『ガラス』『未明』というワードが抽出される。五つ目の文からは、『ガラス』『鈍器』『痕跡』というワードが抽出される。六つ目の文からは、『警視庁』『威力業務妨害』『警部』というワードが抽出される。また、七つ目の文からは、『3連休』『初日』『利用者』というワードが抽出される。   Similarly, the words “Railway Company”, “Glass”, and “Dawn” are extracted from the fourth sentence. From the fifth sentence, the words “glass”, “blunt” and “trace” are extracted. From the sixth sentence, words such as “Tokyo Metropolitan Police Department”, “Power Disturbance”, and “Police” are extracted. Also, from the seventh sentence, the words “three consecutive holidays”, “first day” and “user” are extracted.

段落分割ブロック81は、各文のキーワードの違いに基づき、本文を分割する。上記の本文では、一つ目と三つ目の文に、タイトルから抽出された『東京駅』というキーワードが含まれている。そのため、段落分割ブロック81は、本文序盤の三つの文を一つ目の段落として括る。さらに、四つ目と五つ目の文には、タイトルから抽出された『ガラス』というキーワードが含まれている。そのため段落分割ブロック81は、これら二つの文を、二つ目の段落として括る。また、六つ目と七つ目の文は、キーワードを含んでいない。故に段落分割ブロック81は、これらの文を、互いに別々の段落とする。   The paragraph division block 81 divides the text based on the difference between the keywords of each sentence. In the above text, the first and third sentences contain the keyword “Tokyo Station” extracted from the title. Therefore, the paragraph division block 81 bundles the three sentences in the beginning of the text as the first paragraph. In addition, the fourth and fifth sentences contain the keyword “glass” extracted from the title. Therefore, the paragraph division block 81 bundles these two sentences as the second paragraph. The sixth and seventh sentences do not contain keywords. Therefore, the paragraph division block 81 makes these sentences separate paragraphs.

次に、会話文生成ブロック82は、各段落の内容を短くまとめて、要約文を生成する。要約文を生成する過程では、ニュース記事のタイトルとの類似度及び近接度の高い文が優先的に抽出される。即ち、一つ目の段落では、『東京駅』『ガラス』という二つのキーワードを含む一つ目の文が会話文のベースにされる。さらに、『東京駅』というキーワードは、要約文では削除される。これは、『八重洲口』というワードから場所が自明であり、且つタイトルと重複しているためである。以上により、一つ目の段落からは、「11日午前6時ごろ、八重洲口改札で、駅職員がガラス窓にひびが入っているのを発見した。」という要約文が生成される。   Next, the conversation sentence generation block 82 summarizes the contents of each paragraph and generates a summary sentence. In the process of generating the summary sentence, a sentence having high similarity and proximity to the news article title is preferentially extracted. That is, in the first paragraph, the first sentence including the two keywords “Tokyo Station” and “Glass” is used as the base of the conversation sentence. Furthermore, the keyword “Tokyo Station” is deleted in the summary text. This is because the location is obvious from the word “Yaesuguchi” and overlaps with the title. From the first paragraph, a summary sentence is generated from the first paragraph, "At around 6 am on the 11th, the station staff found a crack in the glass window at the Yaesu Exit ticket gate."

二つ目の段落では、各文に『ガラス』というキーワードが含まれている。この場合、段落の中の一つ目の文が会話文のベースにされる。これは、ニュース記事では、前に位置する文章ほど結論を記載している傾向が強いためである。その結果、二つ目の段落からは、「鉄道会社によると、前日の25時頃にはガラスが割れておらず、未明のうちに何者かが犯行に及んだ模様とのこと。」という要約文が生成される。   In the second paragraph, each sentence contains the keyword “glass”. In this case, the first sentence in the paragraph is used as the base of the conversation sentence. This is because news articles tend to describe conclusions in the earlier sentences. As a result, from the second paragraph, "according to the railway company, the glass was not broken around 25 o'clock the previous day, and it seems that someone had committed a crime before dawn." A summary sentence is generated.

そして、キーワードを含まない三つ目の段落からは、修飾語等が削除され、「警視庁は周囲の警備を強化する方針。」という要約文が生成される。同様に、四つ目の段落からは、「3連休の初日とあって駅利用者が多かったものの大きな混乱はなかった。」という要約文が生成される。   And the modifier etc. are deleted from the 3rd paragraph which does not contain a keyword, and the summary sentence "The Metropolitan Police Department is a policy which strengthens surrounding security." Is produced | generated. Similarly, a summary sentence is generated from the fourth paragraph: “It was the first day of three consecutive holidays and there were many station users, but there was no major confusion.”

次に、会話文生成ブロック82は、タイトル及び各要約文の語尾を整えつつ、複数の会話文を生成する。会話文生成ブロック82は、会話文を生成する際に、会話として自然な展開となるよう、抽出した複数(二つ)の要約文を接続して一つの要約文とすることもできる。接続される二つの要約文の間には、適宜接続語が鍾乳される。こうした語尾等の調整処理によれば、タイトル及び各段落は、以下のような一群の会話文として整理される。尚、下記の会話文において“”によって挟まれた範囲が修正された語尾である。
・東京駅でガラスが割られ“たんだって”。けが人は無し“らしいよ。知ってた?”
・11日午前6時ごろ、八重洲口改札で、駅職員がガラス窓にひびが入っているのを発見した“そうで、”鉄道会社によると未明のうちに何者かが犯行に及んだ模様“らしいよ。”
・警視庁は周囲の警備を強化する方針“なんだって。”
・3連休の初日とあって駅利用者が多かったものの大きな混乱はなかった“みたいだよ。”
Next, the conversation sentence generation block 82 generates a plurality of conversation sentences while adjusting the title and the ending of each summary sentence. The conversation sentence generation block 82 can also connect a plurality of (two) extracted summary sentences into a single summary sentence so that the conversation sentence is naturally expanded when the conversation sentence is generated. A connective word is crushed as appropriate between the two summary sentences to be connected. According to such ending adjustment processing, the title and each paragraph are organized as a group of conversation sentences as follows. In the following conversational sentence, the range between “” is a corrected ending.
・ The glass is broken at Tokyo Station. There are no injuries. "It seems. Did you know?"
・ At around 6:00 am on the 11th, at the Yaesu Gate, a station staff found a crack in the glass window. “It seems.”
・ The Tokyo Metropolitan Police Department has a policy to strengthen the security around it.
・ It was the first day of the three consecutive holidays, but there were many users at the station, but there was no big confusion.

以上の一群の会話文を用いて対話実行ブロック71は、ユーザとの対話を実行する。会話文生成ブロック82にて生成された複数の会話文は、順序を入れ替えられることなく、本文における登場順序を維持したまま、ユーザとの会話に用いられる。さらに、タイトルから生成された会話文は、本文から生成された各会話文よりも先にユーザとの会話に用いられる。また、一連の会話が開始される直前には、会話開始をユーザに報知するための報知音が、スピーカ32から出力される。報知音は、ユーザの意識を会話の音声に向けさせることができる。その結果、ユーザは、対話装置100から投げかけられた会話の始まりの部分を聞き逃し難くなる。
対話装置:「東京駅でガラスが割られたんだって。けが人は無しらしいよ。知ってた?」
ユーザ :「いや、知らなかった」
対話装置:「11日午前6時ごろ、八重洲口改札で、駅職員がガラス窓にひびが入っているのを発見したそうで、鉄道会社によると未明のうちに何者かが犯行に及んだ模様らしいよ。」
ユーザ :「荒っぽい事するなあ」
対話装置:「警視庁は周囲の警備を強化する方針なんだって。」
ユーザ :「八重洲口って人が多いけど、混乱しなかったの?」
対話装置:「3連休の初日とあって駅利用者が多かったものの大きな混乱はなかったみたいだよ。」
ユーザ :「そりゃ良かったね」
The dialogue execution block 71 executes dialogue with the user using the above group of conversation sentences. The plurality of conversation sentences generated in the conversation sentence generation block 82 are used for the conversation with the user while maintaining the appearance order in the text without changing the order. Furthermore, the conversation sentence generated from the title is used for a conversation with the user prior to each conversation sentence generated from the text. Also, immediately before the start of a series of conversations, a notification sound for notifying the user of the start of conversation is output from the speaker 32. The notification sound can direct the user's consciousness to the voice of conversation. As a result, it is difficult for the user to hear the beginning of the conversation thrown from the dialogue apparatus 100.
Dialogue device: “Glass was broken at Tokyo Station. There seems to be no injuries. Did you know?”
User: "No, I didn't know"
Dialogue device: “At around 6:00 am on the 11th, at the Yaesu Gate, a station employee discovered that a glass window had cracked. It looks like a pattern. "
User: “Don't be rough”
Dialogue device: “The Metropolitan Police Department has a policy to strengthen the security of its surroundings.”
User: "Yaesuguchi has many people, but wasn't it confusing?"
Dialogue device: “It seems that there was no big mess though there were many users at the station on the first day of the three consecutive holidays.”
User: “That was good”

以上のような会話を実現するために、制御回路60にて実施される会話文生成処理及び会話開始処理をさらに説明する。まず、会話文生成処理の詳細を、図5に基づき、図1を参照しつつ説明する。図5に示す会話文生成処理の各ステップは、主に文章処理部80(図3参照)によって実施される。会話文生成処理は、車両の電源がオン状態とされたことに基づいて開始され、車両の電源がオフ状態とされるまで繰り返される。   In order to realize the conversation as described above, a conversation sentence generation process and a conversation start process performed by the control circuit 60 will be further described. First, the details of the conversation sentence generation processing will be described with reference to FIG. 1 based on FIG. Each step of the conversation sentence generation process shown in FIG. 5 is mainly performed by the sentence processing unit 80 (see FIG. 3). The conversation sentence generation process is started based on the vehicle being turned on, and is repeated until the vehicle is turned off.

S101では、ニュース配信サイトNDSによって配信されたコンテンツ情報を、通信処理部45から取得する処理を実施し、S102に進む。S102では、運転者の嗜好カテゴリに属するようなコンテンツ情報の取得があったか否かを判定する。S102にて、嗜好カテゴリに属するようなコンテンツ情報の取得が有ったと判定した場合、S103に進む。一方、S102にて、嗜好カテゴリに属するようなコンテンツ情報の取得が無いと判定した場合、会話文生成処理を一旦終了する。   In S101, the content information distributed by the news distribution site NDS is acquired from the communication processing unit 45, and the process proceeds to S102. In S102, it is determined whether content information belonging to the driver's preference category has been acquired. If it is determined in S102 that content information belonging to the preference category has been acquired, the process proceeds to S103. On the other hand, if it is determined in S102 that content information belonging to the preference category has not been acquired, the conversational sentence generation process is temporarily terminated.

S103では、本文の文章量が閾値以上か否かを判定する。S103にて、本文の文章量が閾値未満であると判定した場合、S104に進む。S104では、各文が一つの段落となるよう本文を分割し、S110に進む。一方、S103にて、本文の文章量が閾値以上であると判定した場合、S105に進む。   In S103, it is determined whether or not the amount of text in the body is greater than or equal to a threshold value. If it is determined in S103 that the text amount of the text is less than the threshold, the process proceeds to S104. In S104, the text is divided so that each sentence becomes one paragraph, and the process proceeds to S110. On the other hand, if it is determined in S103 that the amount of text in the body is greater than or equal to the threshold, the process proceeds to S105.

S105では、S101にて取得したコンテンツ情報の本文をタイトルから抽出したキーワードに基づいて複数の段落に分割し、S106に進む。S106では、S105の分割処理により、予め設定されたN個以上の段落に本文を分割できたか否かを判定する。S106にて、N個以上に本文が分割できていると判定した場合、S110に進む。一方、分割できた段落の数がN個未満である場合、S107に進む。   In S105, the body of the content information acquired in S101 is divided into a plurality of paragraphs based on the keyword extracted from the title, and the process proceeds to S106. In S106, it is determined whether or not the text has been divided into N or more preset paragraphs by the dividing process in S105. If it is determined in S106 that the text has been divided into N or more, the process proceeds to S110. On the other hand, if the number of divided paragraphs is less than N, the process proceeds to S107.

S107では、S101にて取得したコンテンツ情報の本文を接続詞に基づいて複数の段落に分割し、S108に進む。具体的には、接続詞と、接続詞直前の読点との間が、一つの段落の区切り位置とされる。S108では、S107の分割処理により、予め設定されたN個以上の段落に本文を分割できたか否かを判定する。S108にて、N個以上に本文が分割できていると判定した場合、S110に進む。一方で、分割できた段落の数がN個未満である場合、S109に進む。   In S107, the text of the content information acquired in S101 is divided into a plurality of paragraphs based on the conjunction, and the process proceeds to S108. Specifically, the interval between the conjunction and the reading just before the conjunction is the break position of one paragraph. In S108, it is determined whether or not the body text has been divided into N or more preset paragraphs by the dividing process in S107. If it is determined in S108 that the text has been divided into N or more, the process proceeds to S110. On the other hand, if the number of divided paragraphs is less than N, the process proceeds to S109.

S109では、S101にて取得したコンテンツ情報の本文を、文章の量に基づいて複数の段落に分割し、S110に進む。具体的に、S109では、本文全体の文章量に応じて、N個以上の段落が生成されるよう、一つの段落において目安となる文字数を設定する。本文全体の文章量が多い場合、生成される段落の数は、適宜増やされてよい。   In S109, the body of the content information acquired in S101 is divided into a plurality of paragraphs based on the amount of text, and the process proceeds to S110. Specifically, in S109, the number of characters that serves as a guide in one paragraph is set so that N or more paragraphs are generated according to the amount of text in the entire text. When the amount of text in the entire text is large, the number of generated paragraphs may be increased as appropriate.

S110では、タイトルと全ての段落から会話文を生成し、S111に進む。S111では、S110にて生成された複数の会話文を、一つのコンテンツ情報から生成された一群の会話文として、制御回路60のフラッシュメモリに保存し、会話文生成処理を一旦終了する。S111では、本文での登場順序を維持したまま、順番を入れ替えられることなく、全ての会話文が保存される。   In S110, a conversation sentence is generated from the title and all paragraphs, and the process proceeds to S111. In S111, the plurality of conversation sentences generated in S110 are stored in the flash memory of the control circuit 60 as a group of conversation sentences generated from one piece of content information, and the conversation sentence generation process is temporarily terminated. In S111, all conversation sentences are stored without changing the order while maintaining the appearance order in the text.

次に、会話開始処理の詳細を、図5に基づいて説明する。図5に示す会話開始処理は、会話文生成処理(図4参照)と並列に処理されており、会話文生成処理と同様に車両の電源がオン状態とされたことに基づいて開始される。会話開始処理は、車両の電源がオフ状態とされるまで、繰り返し開始される。   Next, the details of the conversation start process will be described with reference to FIG. The conversation start process shown in FIG. 5 is processed in parallel with the conversation sentence generation process (see FIG. 4), and is started based on the vehicle being turned on as in the conversation sentence generation process. The conversation start process is repeatedly started until the vehicle is turned off.

S121では、初期設定として、対話実行ブロック71(図3参照)の作動ステータスを禁止状態に設定し、S122に進む。S122では、状態情報処理回路50(図1参照)による負荷判定の判定結果を取得し、現在の運転者における運転負荷が低いか否かを判定する。S122にて、現在の運転負荷が高いと判定した場合、会話開始処理を一旦終了する。一方、S122にて、運転負荷が低いと判定した場合には、S123に進む。   In S121, as an initial setting, the operation status of the dialogue execution block 71 (see FIG. 3) is set to a prohibited state, and the process proceeds to S122. In S122, the determination result of the load determination by the state information processing circuit 50 (see FIG. 1) is acquired, and it is determined whether or not the driving load on the current driver is low. If it is determined in S122 that the current driving load is high, the conversation start process is temporarily terminated. On the other hand, if it is determined in S122 that the operation load is low, the process proceeds to S123.

S123では、禁止条件が成立しているか否かを判定する。S123にて、何らかの禁止条件が成立していると判定した場合には、会話開始処理を一旦終了する。一方、S123にて、いずれの禁止条件も成立していないと判定した場合には、S124に進む。   In S123, it is determined whether the prohibition condition is satisfied. When it is determined in S123 that some prohibition condition is established, the conversation start process is temporarily ended. On the other hand, if it is determined in S123 that none of the prohibition conditions is satisfied, the process proceeds to S124.

S124では、対話実行ブロック71(図3参照)の作動ステータスを、禁止状態から許容状態へと切り替えて、S125に進む。S125では、会話開始条件が成立しているか否かを判定する。会話開始条件は、例えば運転者が漫然状態又は居眠り状態であるか、嗜好カテゴリに属するような新着のコンテンツ情報が有るか、といった条件である。S125にて、会話開始条件が成立していないと判定した場合、会話開始処理を一旦終了する。一方、S125にて、会話開始条件が成立していると判定した場合、S126に進む。   In S124, the operation status of the dialogue execution block 71 (see FIG. 3) is switched from the prohibited state to the allowed state, and the process proceeds to S125. In S125, it is determined whether a conversation start condition is satisfied. The conversation start condition is, for example, a condition that the driver is in a slumber or doze state, or whether there is new content information that belongs to the preference category. If it is determined in S125 that the conversation start condition is not satisfied, the conversation start process is temporarily ended. On the other hand, if it is determined in S125 that the conversation start condition is satisfied, the process proceeds to S126.

S126では、一群の会話文を順番を入れ替えることなく用いて、ユーザとの会話を開始する。S125にて成立した会話開始条件に対応した会話を開始する処理を実施し、S127に進む。S127では、会話の停止条件が成立しているか否かを判定する。会話の停止条件は、例えばユーザから会話終了を指示する発話があった、ユーザの運転負荷が高くなった、及び運転者が通常の覚醒状態まで回復した等の条件である。S127にて、会話停止条件が成立していると判定した場合、S128に進む。S128では、S126にて開始した会話を強制的に停止し、会話開始処理を一旦終了する。   In S126, the conversation with the user is started using the group of conversation sentences without changing the order. Processing for starting a conversation corresponding to the conversation start condition established in S125 is performed, and the process proceeds to S127. In S127, it is determined whether or not a conversation stop condition is satisfied. The conversation stop condition is, for example, a condition in which an utterance instructing the end of the conversation from the user, a driving load on the user has increased, and the driver has recovered to a normal awakening state. If it is determined in S127 that the conversation stop condition is satisfied, the process proceeds to S128. In S128, the conversation started in S126 is forcibly stopped, and the conversation start process is temporarily ended.

一方、S127にて、会話の停止条件が成立していないと判定した場合、S129に進む。S129では、S126にて開始した会話が完了したか否かを判定する。S129にて、会話がまだ継続していると判定した場合には、S127及びS129の判定を繰り返すことで、会話の完了を待機する。そして、S129にて会話が完了したと判定した場合には、会話開始処理を一旦終了する。   On the other hand, if it is determined in S127 that the conversation stop condition is not satisfied, the process proceeds to S129. In S129, it is determined whether or not the conversation started in S126 is completed. If it is determined in S129 that the conversation is still ongoing, the determination in S127 and S129 is repeated to wait for the completion of the conversation. And when it determines with the conversation having been completed in S129, a conversation start process is once complete | finished.

ここまで説明した本実施形態によれば、コンテンツ情報の本文を複数に分割した段落から会話文を生成する過程において、会話文生成ブロック82は、タイトルの内容と関連性の高い箇所を優先的に残しつつ、段落の内容を短くまとめる。以上によれば、タイトルとの関連する箇所の残る各会話文には、内容的な纏まりが生じる。その結果、複数の会話文の文脈に一貫性が確保され得るので、対話装置100は、違和感の低減された会話をユーザとの間で展開可能となる。   According to the embodiment described so far, in the process of generating a conversation sentence from a paragraph obtained by dividing the body of the content information into a plurality of parts, the conversation sentence generation block 82 preferentially selects a portion highly relevant to the content of the title. Keep the paragraph content short while keeping it. According to the above, contents are gathered in each conversation sentence where a portion related to the title remains. As a result, consistency can be ensured in the contexts of a plurality of conversation sentences, so that the conversation apparatus 100 can develop conversations with the user with a reduced sense of discomfort.

加えて本実施形態では、タイトルから抽出されたキーワードの違いに基づく段落の分割が実施される。以上の分割方法によれば、内容的に関連する文同士が、一つの段落に括られる。そのため、会話文として短く纏められた場合でも、段落の内容は、会話文に確実に反映され得る。したがって、各会話文を用いた会話によれば、コンテンツ情報の主旨は、ユーザに確実に伝達される。   In addition, in the present embodiment, paragraph division based on a difference in keywords extracted from the title is performed. According to the above dividing method, sentences that are related in terms of content are bundled into one paragraph. For this reason, the content of a paragraph can be reliably reflected in a conversational sentence even when it is summarized as a conversational sentence. Therefore, according to the conversation using each conversation sentence, the gist of the content information is reliably transmitted to the user.

また本実施形態では、一つの段落に複数の文が含まれている場合、キーワードを最も多く含む一つの文が、会話文に用いるベースとして選択される。以上によれば、タイトルとの関連性の高い内容が会話文に確実に残され得る。したがって、会話文の文脈の一貫性は、さらに確保され易くなる。   Further, in the present embodiment, when a plurality of sentences are included in one paragraph, one sentence including the most keywords is selected as a base used for the conversation sentence. According to the above, contents highly relevant to the title can be reliably left in the conversation sentence. Therefore, the consistency of the context of the conversation sentence is further ensured.

さらに本実施形態では、各段落から要約文を生成する過程において、重複しているキーワード及び自明な部分が削除される。以上の処理によれば、一つの段落が長い場合でも、ユーザに冗長感を与えないような会話文が生成され得る。したがって、対話装置100は、違和感の低減された会話をユーザとの間で展開できる。   Furthermore, in the present embodiment, duplicate keywords and obvious parts are deleted in the process of generating a summary sentence from each paragraph. According to the above processing, even when one paragraph is long, a conversation sentence that does not give the user a sense of redundancy can be generated. Therefore, the interactive apparatus 100 can develop a conversation with a reduced sense of incongruity with the user.

加えて本実施形態では、タイトルから生成された会話文が、ユーザとの対話の最初に使用される。故に、ユーザは、これから展開される会話の概要を最初に知らされることとなる。以上によれば、ユーザは、本文から生成された各会話文の内容をスムースに理解し、対話装置100との対話を楽しむことが可能になる。   In addition, in the present embodiment, the conversation sentence generated from the title is used at the beginning of the dialog with the user. Therefore, the user is first informed of the outline of the conversation to be developed. According to the above, the user can smoothly understand the contents of each conversation sentence generated from the text and enjoy the conversation with the dialogue apparatus 100.

また本実施形態の段落分割ブロック81は、文章量に基づいて本文を分割可能である。文章量に基づく分割であれば、コンテンツ情報の本文が内容の変化に乏しい場合でも、本文は、所定のN個以上の段落に分割され得る。こうした処理の結果、一つのニュース記事から分割される段落の数、ひいては生成される会話文の数が確保されるので、対話装置100は、一つのニュース記事を話題とした複数回の会話を確実に展開できる。   The paragraph division block 81 of the present embodiment can divide the text based on the text amount. If the division is based on the amount of text, the body can be divided into predetermined N or more paragraphs even if the content of the body of the content information is poorly changed. As a result of such processing, the number of paragraphs to be divided from one news article, and thus the number of generated conversation sentences, is ensured, so that the dialogue apparatus 100 can reliably perform a plurality of conversations about one news article. Can be deployed.

さらに本実施形態の段落分割ブロック81は、接続詞を抽出した位置にて本文を分割可能である。接続詞に基づく分割であれば、分割された各段落は、もとのコンテンツ情報の本文の起承転結といった文脈を反映した纏まりとなり得る。その結果、各段落から生成される複数の会話文を用いた会話は、コンテンツ情報の本文の文脈を踏襲した自然な会話となり得る。   Furthermore, the paragraph division block 81 of the present embodiment can divide the text at the position where the conjunction is extracted. In the case of division based on a conjunction, each divided paragraph can be a group that reflects the context such as the transition of the body of the original content information. As a result, a conversation using a plurality of conversation sentences generated from each paragraph can be a natural conversation that follows the context of the body of the content information.

加えて本実施形態の段落分割ブロック81は、コンテンツ情報の本文が短い場合において、本文を構成する各文をそれぞれ一つの段落として分割する。以上によれば、段落の数、ひいては会話文の数の確保が可能になる。したがって、本文の短いコンテンツ情報を用いた場合でも、対話装置100は、ユーザと十分な対話を展開することができる。   In addition, the paragraph division block 81 of this embodiment divides each sentence constituting the body as one paragraph when the body of the content information is short. According to the above, it is possible to secure the number of paragraphs and thus the number of conversation sentences. Therefore, even when content information with a short text is used, the dialogue apparatus 100 can develop a sufficient dialogue with the user.

また本実施形態による対話実行ブロック71は、本文から分割された際の段落の順番を入れ替えることなく、各段落から生成された複数の会話文を順に用いて、ユーザとの会話を行う。故に、コンテンツ情報の本文における起承転結といった文脈は、崩されることなくユーザとの会話に踏襲される。したがって、対話実行ブロック71によって行われる会話は、文脈の一貫性を確保された自然な会話となる。   In addition, the dialogue execution block 71 according to the present embodiment performs a conversation with the user by sequentially using a plurality of conversation sentences generated from each paragraph without changing the order of the paragraphs when divided from the text. Therefore, the context such as the start and end in the content information body is followed by the conversation with the user without being destroyed. Therefore, the conversation performed by the dialog execution block 71 is a natural conversation in which context consistency is ensured.

尚、本実施形態において、通信処理部45が「情報取得部」に相当し、ニュース配信サイトNDSが「情報源」に相当する。また、対話実行ブロック71が「会話実行部」に相当し、段落分割ブロック81が「段落分割部」に相当し、会話文生成ブロック82が「会話文生成部」に相当する。そして、会話文生成処理におけるS101が情報取得ステップに相当し、S104,S105,S107,S108が段落分割ステップに相当し、S110が「会話文生成ステップ」に相当し、会話開始処理におけるS126が「会話実行ステップ」に相当する。   In the present embodiment, the communication processing unit 45 corresponds to an “information acquisition unit”, and the news distribution site NDS corresponds to an “information source”. The dialogue execution block 71 corresponds to a “conversation execution unit”, the paragraph division block 81 corresponds to a “paragraph division unit”, and the conversation sentence generation block 82 corresponds to a “conversation sentence generation unit”. S101 in the conversation sentence generation process corresponds to an information acquisition step, S104, S105, S107, and S108 correspond to a paragraph division step, S110 corresponds to a "conversation sentence generation step", and S126 in the conversation start process corresponds to " This corresponds to “conversation execution step”.

(他の実施形態)
以上、本発明による一実施形態について説明したが、本発明は、上記実施形態に限定して解釈されるものではなく、本発明の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
As mentioned above, although one embodiment by the present invention was described, the present invention is not interpreted limited to the above-mentioned embodiment, and is applied to various embodiments and combinations within the range which does not deviate from the gist of the present invention. be able to.

上記実施形態では、漫然状態の検出及び新着コンテンツ情報の受信等が、対話装置による発話開始条件として設定されていた。しかし、会話開始のトリガとして用いられるイベントは、適宜設定可能である。例えば、対話装置は、漫然状態を自覚した運転者が運転席周辺に設けられた対話開始スイッチに対して行う入力や、運転者の「雑談しようよ」といった投げ掛け、或いは搭乗者による特定のキーワードの発話等をきかっけとして、ユーザへの雑談を開始可能である。   In the above-described embodiment, detection of a casual state and reception of newly arrived content information are set as utterance start conditions by the interactive device. However, an event used as a conversation start trigger can be set as appropriate. For example, a dialogue device can be used by a driver who is aware of a state of illness to input a dialogue start switch provided in the vicinity of the driver's seat, throwing a driver's “let's chat”, or a specific keyword by a passenger Chatting to the user can be started with the utterance as a trigger.

上記実施形態では、運転者の顔の様子から漫然状態及び居眠り状態が推定されていた。しかし、例えば車内撮像部によって運転者の手及び体の動きを検出可能であれば、手で目及び顔を擦るような動作や、着座位置及び姿勢を頻繁に直すような動作に基づき、漫然状態及び居眠り状態が推定されてもよい。   In the above-described embodiment, the state of sleep and the dozing state are estimated from the state of the driver's face. However, if it is possible to detect the movement of the driver's hand and body with the in-vehicle imaging unit, for example, it is based on the action of rubbing the eyes and face with the hand and the action of frequently changing the sitting position and posture. And a dozing state may be estimated.

上記実施形態における段落分割ブロックは、複数の方法を組み合わせることにより、本文を所定数(N個)以上の段落に分割していた。しかし、例えば、段落の下限数を設定しないのであれば、段落分割ブロックは、キーワード及び接続詞のみでコンテンツ情報の本文を分割してもよい。   The paragraph division block in the above embodiment divides the text into a predetermined number (N) or more paragraphs by combining a plurality of methods. However, for example, if the lower limit number of paragraphs is not set, the paragraph division block may divide the body of the content information using only keywords and conjunctions.

さらに段落分割ブロックは、本文のテキストデータに含まれる書式情報に基づき、本文を分割してもよい。詳記すると、段落分割ブロックは、二つの文の間が一行以上空けられていた場合、これら二つの文の間を分割位置に設定する。また、文頭に字下げが設けられていた場合、字下げされた文を段落の最初の文に設定する。以上のような分割処理によっても、コンテンツ情報の本文の文脈を踏襲した会話文が生成され得る。   Further, the paragraph division block may divide the body based on the format information included in the text data of the body. More specifically, the paragraph division block sets a division position between two sentences when one sentence or more is left between two sentences. If the indentation is provided at the beginning of the sentence, the indented sentence is set as the first sentence of the paragraph. A conversation sentence that follows the context of the body of the content information can also be generated by the above division processing.

上記実施形態では、本文の文脈を踏襲するよう、対話実行ブロックは、会話文の順序を入れ替えることなく、本文における登場順序を維持したまま、会話文を用いたユーザとの対話を行っていた。しかし、対話実行ブロックは、運転者の反応に応じて、使用順序の入れ替え、及び特定の会話文のスキップ等を行うことができる。   In the above embodiment, the dialogue execution block performs dialogue with the user using the conversation sentence while maintaining the appearance order in the body text without changing the order of the conversation sentences so as to follow the context of the body text. However, the dialogue execution block can change the order of use, skip a specific conversation sentence, and the like according to the driver's reaction.

上記実施形態では、冗長な会話にならないよう、タイトルのキーワードと重複する部分及び修飾語等が要約文を生成する過程において削除されていた。しかし、削除される量は、文脈に応じて適宜増減されてよい。   In the above-described embodiment, in order to avoid redundant conversations, portions overlapping with the keyword of the title, modifiers, and the like have been deleted in the process of generating the summary sentence. However, the amount to be deleted may be appropriately increased or decreased depending on the context.

上記実施形態では、対話すること自体を目的とした非タスク指向型の会話を対話装置100が行っている場合について、詳細を説明した。しかし、対話装置100は、上述した雑談のような会話だけでなく、搭乗者から投げかけられた質問に返答する、搭乗者の指定するお店を予約するといったタスク指向型の会話も行うことができる。さらに、非タスク指向型の会話を行っている途中で、一時的にタスク指向型の会話を挟むことも可能である。   In the above-described embodiment, the details have been described for the case where the dialogue apparatus 100 performs a non-task-oriented conversation for the purpose of dialogue itself. However, the dialogue apparatus 100 can perform not only conversations such as the chat described above, but also task-oriented conversations such as responding to questions thrown by the passenger and reserving a shop designated by the passenger. . Furthermore, it is possible to temporarily hold a task-oriented conversation during a non-task-oriented conversation.

上記実施形態において、制御回路60のプロセッサ60aによって提供されていた会話実行に係る各機能は、例えば専用の集積回路によって実現されていてもよい。或いは、複数のプロセッサが協働して、会話の実行に係る各処理を実施してもよい。さらに、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって、各機能が提供されてよい。同様に、状態情報処理回路50のプロセッサ50aによって提供されていた運転負荷判定及び覚醒度判定に係る機能も、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって提供可能である。   In the above embodiment, each function related to conversation execution provided by the processor 60a of the control circuit 60 may be realized by, for example, a dedicated integrated circuit. Alternatively, a plurality of processors may cooperate to execute each process related to the execution of the conversation. Furthermore, each function may be provided by hardware and software different from those described above, or a combination thereof. Similarly, the functions related to the driving load determination and the arousal level determination provided by the processor 50a of the state information processing circuit 50 can also be provided by hardware and software different from those described above, or a combination thereof.

さらに、各プロセッサ50a,60aにて実行されるプログラムを記憶する記憶媒体は、フラッシュメモリに限定されない。種々の非遷移的実体的記憶媒体が、プログラムを記憶する構成として採用可能である。   Furthermore, the storage medium for storing the program executed by each processor 50a, 60a is not limited to the flash memory. Various non-transitional tangible storage media can be employed as a configuration for storing the program.

本発明は、スマートフォン及びタブレット端末等の通信機器、並びに車両外部のサーバー等にインストールされる対話制御プログラムにも適用可能である。例えば対話制御プログラムは、車内に持ち込まれる通信端末の記憶媒体に、プロセッサによって実行可能なアプリケーションとして記憶されている。通信端末は、対話制御プログラムに従って運転者と対話可能であり、対話を通じて運転者の覚醒状態を維持させることができる。   The present invention is also applicable to communication control programs installed in communication devices such as smartphones and tablet terminals, servers outside the vehicle, and the like. For example, the dialogue control program is stored as an application executable by the processor in a storage medium of a communication terminal brought into the vehicle. The communication terminal can interact with the driver according to the dialogue control program, and can maintain the driver's arousal state through the dialogue.

また、対話制御プログラムがサーバーの記憶媒体に記憶されている場合、サーバーは、車両及び運転者の状態情報を、インターネットを通じて取得することができる。加えてサーバーは、取得した状態情報に基づき生成した会話文を、車両の音声再生装置へ送信し、スピーカから再生させることができる。以上のように、サーバーに対話制御プログラムがインストールされている場合でも、ユーザである運転者とシステムとの会話が実現できる。そして、サーバー型の対話システムでも、運転者の覚醒状態の維持は可能である。   In addition, when the dialogue control program is stored in the storage medium of the server, the server can acquire the vehicle and driver status information through the Internet. In addition, the server can transmit the conversation sentence generated based on the acquired state information to the audio reproduction device of the vehicle and reproduce it from the speaker. As described above, even when the dialogue control program is installed in the server, the conversation between the driver who is the user and the system can be realized. Even in a server-type dialog system, the driver's arousal state can be maintained.

以上のように、対話制御プログラムを実行する通信機器及びサーバー等によって行われる対話制御方法は、対話装置によって行われる対話制御方法と実質同一となり得る。また本発明は、車両に搭載される対話装置だけでなく、ユーザと会話を行う機能を備えた装置、例えば、玩具、受付用ロボット、介護用ロボット等にも適用可能である。   As described above, the dialog control method performed by the communication device and the server that execute the dialog control program can be substantially the same as the dialog control method performed by the dialog device. The present invention can be applied not only to an interactive device mounted on a vehicle but also to a device having a function of having a conversation with a user, for example, a toy, a reception robot, a care robot, and the like.

さらに本発明は、自動運転を行う車両(自律走行車)に搭載される対話装置にも適用可能である。例えば、「システムからの運転操作切り替え要請にドライバーが適切に応じるという条件のもと、特定の運転モードにおいて自動化された運転システムが車両の運転操作を行う」という自動化レベルの自動運転が想定されている。このような自動運転車両では、運転者(オペレータ)は、運転操作のバックアップのために、待機状態を維持する必要がある。そのため、待機状態にある運転者は、漫然状態及び居眠り状態に陥り易くなると推測される。故に、本発明を適用した対話装置は、自動運転システムのバックアップとして待機状態にある運転者の覚醒度を維持する構成としても、好適なのである。   Furthermore, the present invention can also be applied to an interactive device mounted on a vehicle (autonomous vehicle) that performs automatic driving. For example, an automatic driving at an automation level is assumed that “the driving system automated in a specific driving mode performs driving operation of the vehicle under the condition that the driver appropriately responds to the driving operation switching request from the system”. Yes. In such an automatic driving vehicle, a driver (operator) needs to maintain a standby state for backup of driving operation. Therefore, it is presumed that the driver in the standby state is likely to fall into a sloppy state and a dozing state. Therefore, the dialogue apparatus to which the present invention is applied is also suitable as a configuration that maintains the arousal level of the driver in a standby state as a backup of the automatic driving system.

45 通信処理部(情報取得部)、60a プロセッサ、71 対話実行ブロック(会話実行部)、81 段落分割ブロック(段落分割部)、82 会話文生成ブロック(会話文生成部)、100 対話装置、NDS ニュース配信サイト(情報源) 45 Communication processing unit (information acquisition unit), 60a processor, 71 dialogue execution block (conversation execution unit), 81 paragraph division block (paragraph division unit), 82 conversation sentence generation block (conversation sentence generation unit), 100 dialogue apparatus, NDS News distribution site (information source)

Claims (10)

ユーザへ向けた会話文を生成することにより、前記ユーザと会話可能な対話装置であって、
タイトル及び本文を少なくとも含むコンテンツ情報を、外部の情報源(NDS)から取得する情報取得部(45)と、
前記情報取得部によって取得された前記本文を複数の段落に分割する段落分割部(81)と、
各前記段落の中から、前記タイトルの内容と関連性の高い箇所を優先的に残すことにより、それぞれの前記段落の内容を短くまとめた前記会話文を複数生成する会話文生成部(82)と、
前記会話文生成部によって生成された複数の前記会話文を用いて前記ユーザと会話を行う会話実行部(71)と、を備えることを特徴とする対話装置。
A dialogue device capable of talking with the user by generating a conversation sentence for the user,
An information acquisition unit (45) for acquiring content information including at least a title and a text from an external information source (NDS);
A paragraph division unit (81) that divides the body text acquired by the information acquisition unit into a plurality of paragraphs;
A conversation sentence generation unit (82) for generating a plurality of the conversation sentences in which the contents of the respective paragraphs are shortened by preferentially leaving a portion highly relevant to the contents of the title from among the paragraphs; ,
An interactive device comprising: a conversation execution unit (71) that performs a conversation with the user using the plurality of conversation sentences generated by the conversation sentence generation unit.
前記段落分割部は、前記タイトルから特徴的なキーワードを抽出し、前記本文を構成する個々の文に用いられている前記キーワードの違いに基づいて、前記本文を複数の前記段落に分割することを特徴とする請求項1に記載の対話装置。   The paragraph dividing unit extracts characteristic keywords from the title, and divides the body into a plurality of paragraphs based on differences in the keywords used in individual sentences constituting the body. The interactive apparatus according to claim 1, characterized in that: 前記会話文生成部は、一つの前記段落に複数の文が含まれている場合、前記キーワードを最も多く含む文をベースにして、前記会話文を生成することを特徴とする請求項2に記載の対話装置。   The said conversational sentence production | generation part produces | generates the said conversational sentence based on the sentence which contains the said keyword most, when the several said sentence is contained in one said paragraph. Interactive device. 前記会話文生成部は、一つの前記段落に含まれる文から、前記キーワードと重複している記述を削除することにより、当該段落よりも短い前記会話文を生成することを特徴とする請求項2又は3に記載の対話装置。   3. The conversation sentence generation unit generates the conversation sentence shorter than the paragraph by deleting a description overlapping with the keyword from a sentence included in one paragraph. Or the dialogue apparatus of 3. 前記会話文生成部は、前記タイトルから前記会話文を生成し、
前記会話実行部は、前記タイトルから生成された前記会話文を、前記本文から生成された前記会話文よりも先に前記ユーザとの会話に用いることを特徴とする請求項1〜4のいずれか一項に記載の対話装置。
The conversation sentence generation unit generates the conversation sentence from the title,
The conversation execution unit uses the conversation sentence generated from the title for a conversation with the user prior to the conversation sentence generated from the text. The interactive device according to one item.
前記段落分割部は、文章量に基づいて前記本文を複数の前記段落に分割することを特徴とする請求項1〜5のいずれか一項に記載の対話装置。   The dialogue apparatus according to claim 1, wherein the paragraph dividing unit divides the body into a plurality of the paragraphs based on a text amount. 前記段落分割部は、予め設定された接続詞を抽出した位置にて前記本文を分割することを特徴とする請求項1〜6のいずれか一項に記載の対話装置。   The interactive device according to claim 1, wherein the paragraph dividing unit divides the text at a position where a preset conjunction is extracted. 前記段落分割部は、前記情報取得部によって取得された前記コンテンツ情報における前記本文の文章量が所定の閾値未満である場合、前記本文の一つの文が一つの前記段落となるよう当該本文を分割することを特徴とする請求項1〜7のいずれか一項に記載の対話装置。   The paragraph dividing unit divides the body so that one sentence of the body becomes one paragraph when the amount of the body text in the content information acquired by the information acquisition unit is less than a predetermined threshold. An interactive apparatus according to any one of claims 1 to 7, wherein 前記会話実行部は、前記本文から分割された前記段落の順番を維持したまま、各前記段落から生成された複数の前記会話文を順に用いて、前記ユーザとの会話を行うことを特徴とする請求項1〜8のいずれか一項に記載の対話装置。   The conversation execution unit performs a conversation with the user by sequentially using a plurality of the conversation sentences generated from the paragraphs while maintaining the order of the paragraphs divided from the text. The dialogue apparatus according to any one of claims 1 to 8. ユーザへ向けた会話文を生成することにより、前記ユーザとの会話を行う対話制御方法であって、
少なくとも一つのプロセッサ(60a)によって実施されるステップとして、
タイトル及び本文を少なくとも含むコンテンツ情報を、外部の情報源(NDS)から取得する情報取得ステップ(S101)と、
前記情報取得ステップによって取得された前記本文を複数の段落に分割する段落分割ステップ(S104,S105,S107,S109)と、
各前記段落の中から、前記タイトルの内容と関連性の高い箇所を優先的に残すことにより、それぞれの前記段落の内容を短くまとめた前記会話文を複数生成する会話文生成ステップ(S110)と、
前記会話文生成ステップによって生成された複数の前記会話文を用いて前記ユーザと会話を行う会話実行ステップ(S126)と、を含むことを特徴とする対話制御方法。
A dialog control method for performing a conversation with the user by generating a conversation sentence for the user,
As steps performed by at least one processor (60a),
An information acquisition step (S101) for acquiring content information including at least a title and a text from an external information source (NDS);
A paragraph division step (S104, S105, S107, S109) for dividing the body text acquired by the information acquisition step into a plurality of paragraphs;
A conversation sentence generation step (S110) for generating a plurality of the conversation sentences in which the contents of the respective paragraphs are shortened by preferentially leaving a portion highly relevant to the contents of the title among the paragraphs. ,
A conversation execution step (S126) for performing conversation with the user using the plurality of conversation sentences generated by the conversation sentence generation step.
JP2015189975A 2015-09-28 2015-09-28 Interactive device and interaction control method Pending JP2017068359A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015189975A JP2017068359A (en) 2015-09-28 2015-09-28 Interactive device and interaction control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015189975A JP2017068359A (en) 2015-09-28 2015-09-28 Interactive device and interaction control method

Publications (1)

Publication Number Publication Date
JP2017068359A true JP2017068359A (en) 2017-04-06

Family

ID=58492560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015189975A Pending JP2017068359A (en) 2015-09-28 2015-09-28 Interactive device and interaction control method

Country Status (1)

Country Link
JP (1) JP2017068359A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046101A (en) * 2017-08-31 2019-03-22 富士通株式会社 Interaction control device, interaction control method and interaction control program
JP2019139282A (en) * 2018-02-06 2019-08-22 Kddi株式会社 Interaction control device capable of carrying out interaction about contents, program and method
CN113470634A (en) * 2020-04-28 2021-10-01 海信集团有限公司 Control method of voice interaction equipment, server and voice interaction equipment
JP7478075B2 (en) 2020-10-20 2024-05-02 株式会社日立製作所 Generating device and generating method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05120345A (en) * 1991-05-31 1993-05-18 Teremateiiku Kokusai Kenkyusho:Kk Keyword extracting device
JPH10340271A (en) * 1997-06-09 1998-12-22 Fuji Xerox Co Ltd Document abstract preparation device, and storage medium where document abstract generation program is recorded
JPH11102372A (en) * 1997-09-29 1999-04-13 Sharp Corp Document summarizing device and computer-readable recording medium
JPH11167398A (en) * 1997-12-04 1999-06-22 Mitsubishi Electric Corp Voice synthesizer
JP2000118260A (en) * 1998-10-09 2000-04-25 Honda Motor Co Ltd Vehicular occupant dialoging device
JP2003141117A (en) * 2001-11-05 2003-05-16 Casio Comput Co Ltd Dialog device, program, information providing device and program
JP2004070876A (en) * 2002-08-09 2004-03-04 Casio Comput Co Ltd Conversation system and conversation processing program
US20080010070A1 (en) * 2006-07-10 2008-01-10 Sanghun Kim Spoken dialog system for human-computer interaction and response method therefor
JP2008204274A (en) * 2007-02-21 2008-09-04 Nomura Research Institute Ltd Conversation analysis apparatus and conversation analysis program
JP2008234670A (en) * 1998-12-24 2008-10-02 Ricoh Co Ltd Document classification device, document classification method, and computer-readable recording medium for recording programs for executing these methods on computer

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05120345A (en) * 1991-05-31 1993-05-18 Teremateiiku Kokusai Kenkyusho:Kk Keyword extracting device
JPH10340271A (en) * 1997-06-09 1998-12-22 Fuji Xerox Co Ltd Document abstract preparation device, and storage medium where document abstract generation program is recorded
JPH11102372A (en) * 1997-09-29 1999-04-13 Sharp Corp Document summarizing device and computer-readable recording medium
JPH11167398A (en) * 1997-12-04 1999-06-22 Mitsubishi Electric Corp Voice synthesizer
JP2000118260A (en) * 1998-10-09 2000-04-25 Honda Motor Co Ltd Vehicular occupant dialoging device
JP2008234670A (en) * 1998-12-24 2008-10-02 Ricoh Co Ltd Document classification device, document classification method, and computer-readable recording medium for recording programs for executing these methods on computer
JP2003141117A (en) * 2001-11-05 2003-05-16 Casio Comput Co Ltd Dialog device, program, information providing device and program
JP2004070876A (en) * 2002-08-09 2004-03-04 Casio Comput Co Ltd Conversation system and conversation processing program
US20080010070A1 (en) * 2006-07-10 2008-01-10 Sanghun Kim Spoken dialog system for human-computer interaction and response method therefor
JP2008204274A (en) * 2007-02-21 2008-09-04 Nomura Research Institute Ltd Conversation analysis apparatus and conversation analysis program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉岡 孝治 外3名: "常識的連想によるニュースヘッドラインからの会話文生成", 情報処理学会研究報告 平成21年度6 [DVD−ROM], JPN6018041484, 15 April 2010 (2010-04-15), JP, pages 1 - 8, ISSN: 0004048357 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046101A (en) * 2017-08-31 2019-03-22 富士通株式会社 Interaction control device, interaction control method and interaction control program
JP2019139282A (en) * 2018-02-06 2019-08-22 Kddi株式会社 Interaction control device capable of carrying out interaction about contents, program and method
CN113470634A (en) * 2020-04-28 2021-10-01 海信集团有限公司 Control method of voice interaction equipment, server and voice interaction equipment
CN113470634B (en) * 2020-04-28 2024-05-17 海信集团有限公司 Voice interaction equipment control method, server and voice interaction equipment
JP7478075B2 (en) 2020-10-20 2024-05-02 株式会社日立製作所 Generating device and generating method

Similar Documents

Publication Publication Date Title
JP6515764B2 (en) Dialogue device and dialogue method
JP6376096B2 (en) Dialogue device and dialogue method
JP7301274B2 (en) Audio player and vehicle
JP6589514B2 (en) Dialogue device and dialogue control method
JP7053432B2 (en) Control equipment, agent equipment and programs
US20160236690A1 (en) Adaptive interactive voice system
WO2014083738A1 (en) Text-reading device and text-reading method
JP2017068359A (en) Interactive device and interaction control method
CN109568973B (en) Conversation device, conversation method, server device, and computer-readable storage medium
US20170270916A1 (en) Voice interface for a vehicle
US10956761B2 (en) Control apparatus, control method agent apparatus, and computer readable storage medium
CN113157080A (en) Instruction input method for vehicle, storage medium, system and vehicle
CN112193255A (en) Human-computer interaction method, device, equipment and storage medium of vehicle-machine system
US10997442B2 (en) Control apparatus, control method, agent apparatus, and computer readable storage medium
US10997975B2 (en) Enhanced vehicle key
JP2021114081A (en) Drive recorder, recording method, and program
JP6555113B2 (en) Dialogue device
WO2023153314A1 (en) In-vehicle equipment control device and in-vehicle equipment control method
JP2021114080A (en) Drive recorder, recording method, and program
JP2022093012A (en) Noted target sharing device and method for sharing noted target
CN116080672A (en) Man-machine interaction method, related device, system and storage medium
CN114710733A (en) Voice playing method and device, computer readable storage medium and electronic equipment
CN115482819A (en) Data processing method, device, system, storage medium and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190604