JP2018155896A - Control method and controller - Google Patents
Control method and controller Download PDFInfo
- Publication number
- JP2018155896A JP2018155896A JP2017052316A JP2017052316A JP2018155896A JP 2018155896 A JP2018155896 A JP 2018155896A JP 2017052316 A JP2017052316 A JP 2017052316A JP 2017052316 A JP2017052316 A JP 2017052316A JP 2018155896 A JP2018155896 A JP 2018155896A
- Authority
- JP
- Japan
- Prior art keywords
- data
- omission
- utterance
- sequence data
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、シーケンスデータに沿った実施を制御するための制御方法及び制御装置に関する。 The present invention relates to a control method and a control apparatus for controlling execution along sequence data.
音声対話装置が人間と音声対話する方式として、予め定められたシナリオに従って音声対話装置が順次発話することにより対話を進める方式がある。例えば音声対話装置がユーザに質問し、これに対するユーザの返答に応じて音声対話装置がさらに応答するという処理を繰り返すことにより、両者の対話が進められる。例えば特許文献1には、ユーザの発話を音声認識した結果に基づき、予め与えられたシナリオに従ってユーザとの対話を制御すると共に、必要に応じてユーザの発話内容に応じた応答文を生成し、再生したシナリオの一文又は生成した応答文を音声合成処理するようにした仕組みが開示されている。 As a method in which the voice interaction device performs a voice interaction with a human, there is a method in which the conversation is advanced by the voice interaction device sequentially speaking according to a predetermined scenario. For example, by repeating the process in which the voice interaction device asks the user a question and the voice interaction device further responds in response to the user's response to the question, the dialogue between the two is advanced. For example, in Patent Document 1, based on the result of voice recognition of the user's utterance, the dialogue with the user is controlled according to a scenario given in advance, and a response sentence according to the content of the user's utterance is generated as necessary. A mechanism is disclosed in which a synthesized sentence of a reproduced scenario or a generated response sentence is subjected to speech synthesis processing.
ところで、人間同士の対話においては、例えば主語や目的語或いは文末等が適宜省略される場合がある。このような省略部分を含む発話に対して、全く省略部分が無い応答を返すという対話は、特別な場合を除き、違和感があり不自然である。 By the way, in a dialogue between humans, for example, a subject, an object, or a sentence ending may be omitted as appropriate. A dialogue that returns a response with no omission part to an utterance containing such an omission part is unnatural and unnatural except in special cases.
そこで、本発明は、例えば発話内容が時系列で連なっているようなシーケンスデータに沿った実施がなされる場合において省略があったときに、その省略に応じてシーケンスデータの実施を変更することを目的とする。 Therefore, the present invention, for example, when there is an omission in the case where the execution is performed along sequence data such that the utterance contents are continuous in time series, the execution of the sequence data is changed according to the omission. Objective.
上記課題を解決するため、本発明は、外部から取得した入力データと、省略部分が有るデータと当該省略部分が無いデータとで少なくとも分岐する分岐構造を持つシーケンスデータとを比較して、当該入力データにおける省略状態を検出する検出ステップと、検出された省略状態に応じて、前記シーケンスデータにおいて分岐したデータ群のうちのいずれかのデータを選択する選択ステップとを備えることを特徴とする制御方法を提供する。 In order to solve the above problems, the present invention compares input data acquired from the outside with sequence data having a branch structure that branches at least between data having an omitted portion and data having no omitted portion. A control method comprising: a detection step for detecting an omission state in data; and a selection step for selecting any data in a data group branched in the sequence data according to the detected omission state. I will provide a.
前記検出ステップにおいて、前記入力データにおける省略部分の位置を検出し、前記選択ステップにおいて、検出された省略部分の位置に応じて前記データを選択するようにしてもよい。 In the detection step, the position of the omitted portion in the input data may be detected, and in the selection step, the data may be selected according to the detected position of the omitted portion.
前記検出ステップにおいて、前記入力データにおける省略部分の量を検出し、前記選択ステップにおいて、検出された省略部分の量に応じて前記データを選択するようにしてもよい。 In the detecting step, an amount of the omitted portion in the input data may be detected, and in the selecting step, the data may be selected according to the detected amount of the omitted portion.
前記シーケンスデータは、人間の動作に相当するデータ及び装置の動作に相当するデータを含むようにしてもよい。 The sequence data may include data corresponding to human operations and data corresponding to device operations.
前記選択ステップにおいて、検出された省略状態に応じて、前記装置の動作に相当するデータを選択し、さらに、選択されたデータに応じた動作を前記装置に行わせるよう制御する制御ステップを備えるようにしてもよい。 The selection step includes a control step of selecting data corresponding to the operation of the device in accordance with the detected omission state, and further controlling the device to perform an operation corresponding to the selected data. It may be.
また、本発明は、外部から取得した入力データと、省略部分が有るデータと当該省略部分が無いデータとで少なくとも分岐する分岐構造を持つシーケンスデータとを比較して、当該入力データにおける省略状態を検出する検出部と、検出された省略状態に応じて、前記シーケンスデータにおいて分岐したデータ群のうちのいずれかのデータを選択する選択部とを備えることを特徴とする制御装置を提供する。 Further, the present invention compares the input data acquired from the outside with the sequence data having a branch structure that branches at least between the data with the omitted portion and the data without the omitted portion, and determines the omitted state in the input data. There is provided a control device comprising: a detection unit that detects; and a selection unit that selects any one of the data groups branched in the sequence data according to the detected omission state.
また、本発明は、コンピュータが、外部から取得した入力データと、省略部分が有るデータと当該省略部分が無いデータとで少なくとも分岐する分岐構造を持つシーケンスデータとを比較して、当該入力データにおける省略状態を検出する検出部と、検出された省略状態に応じて、前記シーケンスデータにおいて分岐したデータ群のうちのいずれかのデータを選択する選択部として機能するためのプログラムを提供する。 In the present invention, the computer compares the input data acquired from the outside with the sequence data having a branch structure that branches at least between the data with the omitted portion and the data without the omitted portion. A detection unit for detecting an omission state and a program for functioning as a selection unit for selecting any one of the data groups branched in the sequence data according to the detected omission state are provided.
本発明によれば、シーケンスデータに沿った実施がなされる場合において省略があったときに、その省略に応じてシーケンスデータの実施を変更することができる。 According to the present invention, when execution is performed in accordance with sequence data, when there is an omission, the execution of the sequence data can be changed according to the omission.
[構成]
図1は、本発明の一実施形態に係る対話制御システムの全体構成を示すブロック図である。対話制御システム1は、制御装置10と、音声対話ロボット20と、制御装置10及び音声対話ロボット20を通信可能に接続する通信網90とを備えている。通信網90は、無線通信規格に従う無線通信区間又は有線通信規格に従う有線通信区間の少なくともいずれか一方を含むネットワークである。音声対話ロボット20は、例えば人間や動物の姿を模した外観を有しており、制御装置10による制御に従って人間と対話を行う音声対話装置である。
[Constitution]
FIG. 1 is a block diagram showing the overall configuration of a dialog control system according to an embodiment of the present invention. The dialogue control system 1 includes a
図2は、音声対話ロボット20のハードウェア構成を例示した図である。音声対話ロボット20は、CPU201(Central Processing Unit)、ROM(Read Only Memory)202、RAM(Random Access Memory)203、補助記憶装置204、通信IF205、スピーカ206及びマイク207を有するコンピュータ装置である。CPU201は、各種の演算を行うプロセッサである。RAM203は、CPU201がプログラムを実行する際のワークエリアとして機能する揮発性メモリである。ROM202は、例えば音声対話ロボット20aの起動に用いられるプログラム及びデータを記憶した不揮発性メモリである。補助記憶装置204は、例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive)等の不揮発性の記憶装置であり、音声対話ロボット20において用いられるプログラム及びデータを記憶する。CPU201がこのプログラムを実行することにより、音声対話ロボット20の動作を制御する。通信IF205は、通信網90を介して制御装置10と通信を行う。スピーカ206は、制御装置10から送信されてくる制御データに従って、人間に対して放音する発話手段である。マイク207は、音声対話ロボット20と対話する人間の音声を収音する収音手段である。
FIG. 2 is a diagram illustrating a hardware configuration of the voice interactive robot 20. The voice interactive robot 20 is a computer device having a CPU 201 (Central Processing Unit), a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an
図3は、制御装置10のハードウェア構成を例示する図である。制御装置10は、CPU101、ROM102、RAM103、補助記憶装置104、及び通信IF105を有するコンピュータ装置である。CPU101は、各種の演算を行うプロセッサである。RAM103は、CPU101がプログラムを実行する際のワークエリアとして機能する揮発性メモリある。ROM102は、例えば制御装置10の起動に用いられるプログラム及びデータを記憶した不揮発性メモリである。補助記憶装置104は、例えばHDD又はSSD等の不揮発性の記憶装置であり、制御装置10において用いられるプログラム及びデータを記憶する。CPU101がこのプログラムを実行することにより、後述する図5に示される機能が実現される。通信IF105は、通信網90を介して音声対話ロボット20と通信を行う。
FIG. 3 is a diagram illustrating a hardware configuration of the
本実施形態においては、予め定められたシナリオに従って音声対話ロボット20が順次発話することにより人間との対話を進める、という対話方式を採用している。例えば音声対話ロボット20が人間に質問し、これに対する人間の返答に応じて音声対話ロボット20がさらに応答する処理を繰り返すことにより、両者の対話が進められる。 In the present embodiment, an interactive method is adopted in which the dialogue with the human being is advanced by the voice dialogue robot 20 sequentially speaking according to a predetermined scenario. For example, when the voice dialogue robot 20 asks a human question and repeats the process in which the voice dialogue robot 20 further responds in response to a human response to the question, the dialogue between the two is advanced.
人間の発話は、予め作成されたシナリオにおいて想定される発話に比べると、その一部が省略されることが考えられる。このように人間の発話の一部が省略されたときに、音声対話ロボットだけがシナリオどおりに省略が無い発話を行うと、人間と音声対話ロボットとの対話に違和感や不自然さが生じてしまう。そこで、本実施形態では、シナリオで規定されている人間の発話部分において省略状態が記述されている。具体的には、隠れマルコフモデルを用いて、人間と音声対話ロボットとの間で連続する発話を確率的に状態遷移する有限状態オートマトンと想定し、人間の発話の省略状態に応じて音声対話ロボットの発話が複数とおりに分岐するような状態遷移を考える。 It is conceivable that a part of a human utterance is omitted as compared with an utterance assumed in a scenario created in advance. In this way, when a part of human utterance is omitted, if only the voice dialogue robot utters without omission as per the scenario, the conversation between the human and the voice dialogue robot will become strange and unnatural. . Therefore, in this embodiment, the omitted state is described in the human utterance part specified in the scenario. Specifically, using a hidden Markov model, we assume a finite state automaton that probabilistically changes the state of continuous utterances between a human and a spoken dialogue robot. Let us consider state transitions in which the utterance of
以上のことを前提として、補助記憶装置104は、音声対話ロボット20の発話と人間の発話とが時系列に交互に繰り返されるように連ねたシーケンスデータを記憶している。このシーケンスデータは、人間の発話に応じて音声対話ロボットの発話が複数とおりに分岐する分岐構造を有する。この分岐構造は、省略部分が有るデータと省略部分が無いデータとで少なくとも分岐している。
On the premise of the above, the
図4は、制御装置10の補助記憶装置104が記憶しているシーケンスデータの一例を示す図である。このシーケンスデータは、人間及び音声対話ロボットの発話データの集合である。このシーケンスデータにおいては、人間の発話データと音声対話ロボットの発話データとが時系列に交互に関連付けられた、いわゆるリンク構造となっており、このリンクの順序に従って発話の制御が進行する。図4では、例えば音声対話ロボット20による「こんにちは」という発話から右側に進む方向で人間との対話が始まる例を想定している。さらに、図4の例では、まず最初に人間及び音声対話ロボット間での挨拶に関する対話のシナリオがあり、次にお互いの趣味についての対話のシナリオがあり、というように、話題として一定のまとまりのある複数のシナリオが時系列に遷移していくようなケースを想定している。例えばシナリオAがシナリオBとシナリオCに分岐したあとにシナリオDに戻る、というように、各シナリオが時系列にどのように遷移していくかということは、シーケンスデータの設計者が任意に設計可能である。
FIG. 4 is a diagram illustrating an example of sequence data stored in the
図4の例においては、最初の「こんにちは」という音声対話ロボット20の発話に対して、「こんにちは」「こんちは」「ちは」・・・「おう!」・・・「あれ?久しぶり」・・・というような、複数とおりの人間の発話が規定されている。ここで、「こんにちは」「こんちは」「ちは」という発話群において、「こんにちは」という発話においては省略が無く、「こんちは」「ちは」という発話においては省略が有る。また、「ちは」における省略の量は「こんちは」における省略の量よりも多い。そして、「こんにちは」という省略が無い人間の発話に対しては、「お元気ですか?」という省略の無い音声対話ロボット20の発話が関連付けられており、「こんちは」という省略が少ない人間の発話に対しては、「元気か?」という省略の少ない音声対話ロボット20の発話が関連付けられており、「ちは!」という省略が多い人間の発話に対しては、「元気?」という省略の多い音声対話ロボット20の発話が関連付けられている。 In the example of FIG. 4, for the utterance of the voice interactive robot 20 that the first "Hello", "Hello", "Continent is", "blood" ... "Oh!" ... "there? Long time no see." -・ ・ Multiple types of human utterances are specified. Here, in the speech group referred to as "Hello", "Continent is", "blood", it is not omitted in the utterance of "Hello", "Conti is", "blood" omitted there in the speech that. Also, the amount of omission in “Chiha” is greater than the amount of omission in “Konha”. And, for the human speech there is no omission of "Hello", is associated with the utterance of the voice interactive robot 20 without omission of "How are you?", "Conti is" omitted the little human beings The utterance is associated with the utterance of the voice dialogue robot 20, which is less abbreviated as “How are you?”, And the abbreviation “How are you?” For the utterance of a person who is often abbreviated as “Chi!”. The utterances of the voice dialogue robot 20 having a large number of voices are associated.
このように、シーケンスデータにおいては、人間の発話の省略状態に応じて、音声対話ロボット20の省略状態の異なる発話が複数とおりに分岐している。この省略状態という用語の意味には、省略された部分が有るか否かということに加え、省略された部分が有る場合にその省略された部分の量という意味が含まれており、人間の発話において検出された省略部分の量に応じて、音声対話ロボット20の発話における省略部分の量が規定される。例えば人間の発話において省略量が多い場合には、音声対話ロボット20の発話においても省略量が多い発話が規定され、人間の発話において省略量が少ない場合には、音声対話ロボット20の発話においても省略量が少ない発話が規定されている。 As described above, in the sequence data, utterances having different omission states of the voice interactive robot 20 are branched according to the omission state of the human utterance. The meaning of the term “abbreviated state” includes, in addition to whether or not there is an omitted part, the meaning of the amount of the omitted part when there is an omitted part. The amount of the omitted portion in the speech of the voice interactive robot 20 is defined according to the amount of the omitted portion detected in step. For example, when there is a large amount of omission in a human utterance, an utterance with a large amount of omission is also defined in the utterance of the voice dialogue robot 20. Utterances with a small amount of omission are specified.
ここで、最初の「こんにちは」という音声対話ロボット20の発話に対して、人間が「こんにちは」という発話を行った場合に、この人間の発話においては省略が無いので、音声対話ロボット20の発話においても「お元気ですか?」という省略が無い発話が関連付けられている。そして、この「お元気ですか?」という音声対話ロボット20の発話に対して、さらに「元気です」「元気だ」「元気!」というような複数とおりの人間の発話が規定されている。これらの「元気です」「元気だ」「元気!」という発話群において、「元気です」という発話においては省略が無く、「元気だ」「元気!」という発話においては省略が有る。さらに、「元気!」における省略の量は「元気だ」における省略の量よりも多い。 Here, for the utterance of the first voice interactive robot 20 of "Hello", when a person makes a speech of "Hello", since there is no omitted in the speech of this man, in the utterance of the voice interactive robot 20 Is also associated with an utterance that is not abbreviated as "How are you?" In addition to the utterances of the voice dialogue robot 20 "How are you?", There are further defined a plurality of human utterances such as "I'm fine", "I'm fine" and "I'm fine!". In these utterances of “I'm fine”, “I'm fine” and “I'm fine!”, There is no omission in the utterance “I'm fine”, and there are omissions in the utterances “I'm fine” and “I'm fine!”. Further, the amount of omission in “Genki!” Is larger than the amount of omission in “I'm fine”.
また、最初の「こんにちは」という音声対話ロボット20の発話に対して、人間が「こんちは」という発話を行った場合に、この人間の発話においては省略が有るので、音声対話ロボット20の発話においても「元気か?」という省略が有る発話が関連付けられている。そして、この「元気か?」という音声対話ロボット20の発話に対して、「元気です」「元気だ」「元気!」というような複数とおりの人間の発話が規定されている。これら「元気です」「元気だ」「元気!」という発話群において、「元気です」という発話においては省略が無く、「元気だ」「元気!」という発話においては省略が有る。 In addition, for the utterance of the first voice interactive robot 20 of "Hello", when a person makes a speech that "Conch is", because the omission is present in the speech of this man, in the utterance of the voice interactive robot 20 Is also associated with an utterance with the abbreviation "How are you?" For the utterance of the voice dialogue robot 20 “How are you?”, A plurality of human utterances such as “I'm fine”, “I'm fine” and “I'm fine!” Are defined. In these utterances of “I'm fine”, “I'm fine” and “I'm fine!”, There is no omission in the utterance “I'm fine”, and there is an omission in the utterances “I'm fine” and “I'm fine!”.
このように、シーケンスデータは、人間の発話において省略部分が有る場合と省略部分が無い場合とで分岐する分岐構造を持っている。よって、このようなシーケンスデータに従って音声対話ロボット20の発話を制御することで、人間の発話における省略状態に応じて異なるシーケンスデータが実施されることになる。 Thus, the sequence data has a branching structure that branches when there is an omitted part and when there is no omitted part in human speech. Therefore, by controlling the speech of the voice interactive robot 20 according to such sequence data, different sequence data is executed according to the omitted state in human speech.
図5は、制御装置10の機能構成を示すブロック図である。制御装置10は、取得部11、検出部12、選択部13、記憶部14及び制御部15という各機能を実現する。取得部11は制御装置10の通信IF105によって実現され、検出部12は制御装置10のCPU101によって実現され、選択部13は制御装置10のCPU101によって実現され、記憶部14は制御装置10の補助記憶装置104によって実現され、制御部15は制御装置10のCPU101及び通信IF105によって実現される。
FIG. 5 is a block diagram illustrating a functional configuration of the
取得部11は、外部(ここでは音声対話ロボット20)から送信されてくる人間の音声データを、入力データとして取得する。記憶部14は、図4に例示したような省略部分が有るデータと当該省略部分が無いデータとで少なくとも分岐する分岐構造を持つシーケンスデータを記憶する。検出部12は、記憶部14に記憶されたシーケンスデータと外部から取得された入力データとを比較して、入力データにおける省略状態を検出する。選択部13は、記憶部14の記憶内容を参照し、検出された省略状態に応じて、シーケンスデータにおいて分岐した発話データ群のうちのいずれかの発話データを選択する。制御部15は、選択されたデータに応じた発話動作を音声対話ロボット20に行わせるよう制御する。
The acquiring
[動作]
図6は制御装置10の動作を示すフローチャートである。図6の処理は、音声対話ロボット20がシーケンスデータで規定された最初の発話を行うことで開始される。つまり、シーケンスデータで規定された最初の発話データが制御装置10から音声対話ロボット20に送信され、音声対話ロボット20がこの発話データに従ってスピーカ206から放音を行うことで発話する。この音声対話ロボット20の発話に対して人間が応答する発話を行うと、音声対話ロボット20のマイク207がこれを収音して、音声データとして制御装置10に送信する。
[Operation]
FIG. 6 is a flowchart showing the operation of the
制御装置10の通信IF105(取得部11)は、音声対話ロボット20から送信されてくる音声データを入力データとして取得する(ステップS11)。
The communication IF 105 (acquisition unit 11) of the
制御装置10のCPU101(検出部12)は、外部から取得した入力データを所定の音声認識アルゴリズムによって音声認識し、その音声認識結果と、補助記憶装置104(記憶部14)に記憶されたシーケンスデータとを比較して、入力データにおける省略状態を検出する(ステップS12)。例えば図4の例において、人間の発話が「こんちは」であった場合、制御装置10のCPU101(検出部12)は、シーケンスデータにおける人間の発話である「こんにちは」に対して「に」が省略された「こんちは」が人間の発話であることを特定する。
The CPU 101 (detection unit 12) of the
制御装置10のCPU101(選択部13)は、補助記憶装置104(記憶部14)の記憶内容を参照し、検出された省略状態に応じて、シーケンスデータにおいて分岐した音声対話ロボット20の発話データ群のうちのいずれかの発話データを選択する(ステップS13)。例えば図4の例示において、人間の発話が「こんちは」であった場合、「こんにちは」に対して「に」という文字の省略が有るから、その「に」が省略された「こんちは」に応じた発話である「元気か?」という発話データを選択する。
The CPU 101 (selection unit 13) of the
制御装置10のCPU101及び通信ID105(制御部15)は、選択された発話データに応じた動作を音声対話ロボット20に行わせるよう制御する(ステップS14)。つまり、制御装置10のCPU101及び通信IF105(制御部15)は、選択した発話データを音声対話ロボット20に送信し、音声対話ロボット20がこの発話データに従ってスピーカ206から放音を行うことで発話する。さらに、この音声対話ロボット20の発話に対して人間が応答する発話を行うと、音声対話ロボット20のマイク207がこれを収音して、音声データとして制御装置10に送信する。以降、再びステップS11の処理に戻り、上記のステップS12〜ステップS14の処理が繰り返される。
The
以上説明した実施形態においては、人間の発話とシーケンスデータにおいて規定されている発話とが比較され、その比較結果に応じて音声対話ロボット20の発話が選択される。より具体的には、人間の発話においてシーケンスデータに規定されている発話のどこがどれだけ省略されているかが解析され、その省略状態に応じた発話が選択されて音声対話ロボット20から出力される。これにより、音声対話ロボット20の発話を人間の発話の省略状態に応じて変更することができ、両者において自然な対話が実現されることになる。 In the embodiment described above, the human speech and the speech defined in the sequence data are compared, and the speech of the voice interactive robot 20 is selected according to the comparison result. More specifically, in the human utterance, how much of the utterance specified in the sequence data is omitted is analyzed, and the utterance corresponding to the omitted state is selected and output from the voice interactive robot 20. Thereby, the utterance of the voice dialogue robot 20 can be changed according to the omission state of the human utterance, and a natural dialogue is realized between the two.
[変形例]
上述した実施形態は次のような変形が可能である。また、以下の変形例を互いに組み合わせて実施してもよい。
[変形例1]
本発明におけるシーケンスデータは、省略部分が有るデータと当該省略部分が無いデータとが論理的に分岐するような分岐構造を含むものであればよい。例えば、制御装置10に記憶されているシーケンスデータは省略部分が無いシーケンスデータであり、制御装置10がこのシーケンスデータに基づいて省略部分が有るデータと当該省略部分が無いデータとで論理的に分岐する分岐構造を都度生成するようにしてもよい。この場合、制御装置10は、省略部分が無いシーケンスデータ、及び、このシーケンスデータに基づいて省略部分が有るデータと当該省略部分が無いデータとで論理的に分岐する分岐構造を都度生成するアルゴリズムデータを記憶しているから、これら記憶されているデータは、省略部分が有るデータと当該省略部分が無いデータとで論理的に分岐する分岐構造を含むデータと言える。制御装置10は、入力データと、省略部分が有るデータと当該省略部分が無いデータとで少なくとも分岐する分岐構造を持つシーケンスデータとを比較して、入力データにおける省略状態を検出し、検出された省略状態に応じて、前記シーケンスデータにおいて分岐したデータ群のうちのいずれかのデータを選択する。
[Modification]
The embodiment described above can be modified as follows. The following modifications may be implemented in combination with each other.
[Modification 1]
The sequence data in the present invention only needs to include a branch structure in which data having an omitted portion and data having no omitted portion logically branch. For example, the sequence data stored in the
[変形例2]
本発明におけるシーケンスデータは、実施形態で例示したような人間及び音声対話ロボット20の発話内容を示すデータに限らず、人間の動作に相当するデータ及び装置の動作に相当するデータであってもよい。例えば人間とロボットが舞台上で共演して演技や演劇を行うような場合に、人間及びロボットの舞台における動きや姿勢、表情或いは位置など、それぞれの動作を示す動作データをシーケンスデータとしてもよい。この場合、シーケンスデータは、人間の動作として省略部分が有る動作データと、人間の動作においてそのような省略部分が無い動作データとで少なくとも分岐する分岐構造を持っており、人間の動作の省略状態に応じて、このシーケンスデータにおいて分岐したデータ群のうちのいずれかの動作データが選択される。この場合において、装置は、実施形態のスピーカ206に代えて、装置自身を駆動する動作駆動装置を備え、実施形態のマイク207に代えて、人間の動作を撮像して認識するためのカメラを備える。
[Modification 2]
The sequence data in the present invention is not limited to the data indicating the utterance content of the human and the voice interactive robot 20 as exemplified in the embodiment, but may be data corresponding to human motion and data corresponding to device operation. . For example, when humans and robots perform together on the stage to perform a performance or play, motion data indicating their respective movements such as movements, postures, facial expressions or positions on the stage of humans and robots may be used as sequence data. In this case, the sequence data has a branching structure that branches at least between operation data having an omission part as human action and operation data having no omission part in human action, and the human action omission state. In response to this, any operation data is selected from the data group branched in the sequence data. In this case, the device includes an operation driving device that drives the device itself instead of the
[変形例3]
省略状態という用語の意味には入力データにおける省略部分の位置が含まれており、人間の発話において検出された省略部分の位置に応じて、音声対話ロボット20の発話が選択されてもよい。例えば人間の発話における省略位置と属性が同じ位置において音声対話ロボット20の発話が省略される。例えば主語に相当する位置が省略された人間の発話に対しては、主語に相当する位置が省略された音声対話ロボットの発話で返答する。また、例えば目的語に相当する位置が省略された人間の発話に対しては、目的語に相当する位置が省略された音声対話ロボットの発話で返答する。また、例えば文末に相当する位置が省略された人間の発話に対しては、文末に相当する位置が省略された音声対話ロボットの発話で返答する。
[Modification 3]
The meaning of the term “omitted state” includes the position of the omitted portion in the input data, and the utterance of the voice interactive robot 20 may be selected according to the position of the omitted portion detected in the human speech. For example, the speech of the voice interactive robot 20 is omitted at a position where the attribute is the same as the omitted position in human speech. For example, for a human utterance in which the position corresponding to the subject is omitted, a response is made with the utterance of the voice interactive robot in which the position corresponding to the subject is omitted. For example, for a human utterance in which the position corresponding to the object is omitted, a response is made with the utterance of the voice interactive robot in which the position corresponding to the object is omitted. For example, for a human utterance in which the position corresponding to the end of the sentence is omitted, a response is made with the utterance of the voice interactive robot in which the position corresponding to the end of the sentence is omitted.
[変形例4]
上記実施形態の説明に用いた図5のブロック図は機能単位のブロックを示している。これらの各機能ブロックは、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。従って、本発明に係る制御装置は、実施形態で説明したようにそれぞれの機能の全てを一体に備えた装置によっても実現可能であるし、各機能を複数の装置に分散して実装したシステムであってもよい。また、上記実施形態で説明した処理の手順は、矛盾の無い限り、順序を入れ替えてもよい。実施形態で説明した方法については、例示的な順序で各ステップの要素を提示しており、提示した特定の順序に限定されない。
[Modification 4]
The block diagram of FIG. 5 used for description of the said embodiment has shown the block of the functional unit. Each of these functional blocks is realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, and two or more devices physically and / or logically separated may be directly and / or indirectly. (For example, wired and / or wireless) and may be realized by these plural devices. Therefore, as described in the embodiment, the control device according to the present invention can be realized by a device that is provided with all of the functions, or a system in which each function is distributed and implemented in a plurality of devices. There may be. Further, the order of the processing procedures described in the above embodiments may be changed as long as there is no contradiction. About the method demonstrated by embodiment, the element of each step is shown in the example order, and is not limited to the specific order shown.
本発明は、制御装置が行う制御方法、或いは、制御装置としてコンピュータを機能させるためのプログラムといった形態でも実施が可能である。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等の通信網を介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。 The present invention can also be implemented in the form of a control method performed by the control device or a program for causing a computer to function as the control device. Such a program may be provided in a form recorded on a recording medium such as an optical disc, or may be provided in a form such that the program is downloaded to a computer via a communication network such as the Internet, and is installed and made available. Is possible.
1…対話制御システム、10…制御装置、11…取得部、12…検出部、13…選択部、14…記憶部、15…制御部、20…音声対話ロボット、90…通信網、101…CPU、102…RAM、103…ROM、104…補助記憶装置、105…通信IF、201…CPU、202…RAM、203…ROM、204…補助記憶装置、205…通信IF、206…スピーカ、207…マイク。 DESCRIPTION OF SYMBOLS 1 ... Dialog control system, 10 ... Control apparatus, 11 ... Acquisition part, 12 ... Detection part, 13 ... Selection part, 14 ... Memory | storage part, 15 ... Control part, 20 ... Voice dialogue robot, 90 ... Communication network, 101 ... CPU , 102 ... RAM, 103 ... ROM, 104 ... auxiliary storage device, 105 ... communication IF, 201 ... CPU, 202 ... RAM, 203 ... ROM, 204 ... auxiliary storage device, 205 ... communication IF, 206 ... speaker, 207 ... microphone .
Claims (6)
検出された省略状態に応じて、前記シーケンスデータにおいて分岐したデータ群のうちのいずれかのデータを選択する選択ステップと
を備えることを特徴とする制御方法。 A detection step of detecting an omission state in the input data by comparing input data acquired from the outside with sequence data having a branch structure that branches at least between data having an omission part and data without the omission part;
And a selection step of selecting any one of the data groups branched in the sequence data according to the detected omission state.
前記選択ステップにおいて、検出された省略部分の位置に応じて前記データを選択する
ことを特徴とする請求項1に記載の制御方法。 In the detection step, the position of the omitted portion in the input data is detected,
The control method according to claim 1, wherein, in the selection step, the data is selected in accordance with the position of the detected omitted part.
前記選択ステップにおいて、検出された省略部分の量に応じて前記データを選択する
ことを特徴とする請求項1又は2に記載の制御方法。 In the detection step, the amount of omitted parts in the input data is detected,
The control method according to claim 1 or 2, wherein, in the selection step, the data is selected according to the amount of the omitted portion detected.
ことを特徴とする請求項1〜3のいずれか1項に記載の制御方法。 The control method according to any one of claims 1 to 3, wherein the sequence data includes data corresponding to a human operation and data corresponding to a device operation.
さらに、選択されたデータに応じた動作を前記装置に行わせるよう制御する制御ステップを備えることを特徴とする請求項4に記載の制御方法。 In the selection step, data corresponding to the operation of the device is selected according to the detected omission state,
The control method according to claim 4, further comprising a control step of controlling the apparatus to perform an operation according to the selected data.
検出された省略状態に応じて、前記シーケンスデータにおいて分岐したデータ群のうちのいずれかのデータを選択する選択部と
を備えることを特徴とする制御装置。 A detection unit that detects input data acquired from the outside, sequence data having a branch structure that branches at least between data having an omission part and data having no omission part, and detecting an omission state in the input data;
A control unit comprising: a selection unit that selects any one of the data groups branched in the sequence data according to the detected omission state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017052316A JP6819383B2 (en) | 2017-03-17 | 2017-03-17 | Control method and control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017052316A JP6819383B2 (en) | 2017-03-17 | 2017-03-17 | Control method and control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018155896A true JP2018155896A (en) | 2018-10-04 |
JP6819383B2 JP6819383B2 (en) | 2021-01-27 |
Family
ID=63716620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017052316A Active JP6819383B2 (en) | 2017-03-17 | 2017-03-17 | Control method and control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6819383B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001209820A (en) * | 2000-01-25 | 2001-08-03 | Nec Corp | Emotion expressing device and mechanically readable recording medium with recorded program |
JP2002287793A (en) * | 2001-03-28 | 2002-10-04 | Just Syst Corp | Method, device, and program for command processing |
JP2010102163A (en) * | 2008-10-24 | 2010-05-06 | Xanavi Informatics Corp | Vehicle interior voice interaction device |
JP2016114395A (en) * | 2014-12-12 | 2016-06-23 | クラリオン株式会社 | Voice input auxiliary device, voice input auxiliary system, and voice input method |
-
2017
- 2017-03-17 JP JP2017052316A patent/JP6819383B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001209820A (en) * | 2000-01-25 | 2001-08-03 | Nec Corp | Emotion expressing device and mechanically readable recording medium with recorded program |
JP2002287793A (en) * | 2001-03-28 | 2002-10-04 | Just Syst Corp | Method, device, and program for command processing |
JP2010102163A (en) * | 2008-10-24 | 2010-05-06 | Xanavi Informatics Corp | Vehicle interior voice interaction device |
JP2016114395A (en) * | 2014-12-12 | 2016-06-23 | クラリオン株式会社 | Voice input auxiliary device, voice input auxiliary system, and voice input method |
Non-Patent Citations (1)
Title |
---|
中川滋雄他: "対話型アニメーションのシナリオデータモデル", 情報処理学会第49回(平成6年後期)全国大会講演論文集(2), JPN6020045661, September 1994 (1994-09-01), pages 371 - 372, ISSN: 0004396412 * |
Also Published As
Publication number | Publication date |
---|---|
JP6819383B2 (en) | 2021-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6505748B2 (en) | Method for performing multi-mode conversation between humanoid robot and user, computer program implementing said method and humanoid robot | |
JP4465768B2 (en) | Speech synthesis apparatus and method, and recording medium | |
JP6719739B2 (en) | Dialogue method, dialogue system, dialogue device, and program | |
JP4622384B2 (en) | ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM | |
EP3966817B1 (en) | Noise reduction in robot human communication | |
CN112379780A (en) | Multi-mode emotion interaction method, intelligent device, system, electronic device and medium | |
JP7416295B2 (en) | Robots, dialogue systems, information processing methods and programs | |
US12105876B2 (en) | System and method for using gestures and expressions for controlling speech applications | |
JP2008125815A (en) | Conversation robot system | |
JP7063230B2 (en) | Communication device and control program for communication device | |
JP6798258B2 (en) | Generation program, generation device, control program, control method, robot device and call system | |
JP7225642B2 (en) | Communication robot, control method and control program | |
WO2017051627A1 (en) | Speech production apparatus and speech production method | |
JP6819383B2 (en) | Control method and control device | |
JPH09269889A (en) | Interactive device | |
JP6736225B2 (en) | Interactive device, interactive device control method, and program | |
US8666549B2 (en) | Automatic machine and method for controlling the same | |
US20200202842A1 (en) | Control apparatus, voice interaction apparatus, voice recognition server, and program | |
JP4539313B2 (en) | Speech recognition dictionary creation system, speech recognition dictionary creation method, speech recognition system, and robot | |
Lin et al. | Nonverbal acoustic communication in human-computer interaction | |
JP7342419B2 (en) | Robot control device, robot, robot control method and program | |
JP7508333B2 (en) | Computer system and learning method | |
JPWO2019030810A1 (en) | Speech recognition apparatus and speech recognition method | |
KR102018110B1 (en) | Method and apparatus generating and reproducing audio file | |
JP2023149322A (en) | Method for recovering from failure in interaction and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201009 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6819383 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |