JP2018075657A - 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム - Google Patents

生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム Download PDF

Info

Publication number
JP2018075657A
JP2018075657A JP2016218471A JP2016218471A JP2018075657A JP 2018075657 A JP2018075657 A JP 2018075657A JP 2016218471 A JP2016218471 A JP 2016218471A JP 2016218471 A JP2016218471 A JP 2016218471A JP 2018075657 A JP2018075657 A JP 2018075657A
Authority
JP
Japan
Prior art keywords
voice
data
character string
speaker
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016218471A
Other languages
English (en)
Other versions
JP6798258B2 (ja
Inventor
高橋 昌弘
Masahiro Takahashi
昌弘 高橋
将太 新倉
Shota Niikura
将太 新倉
満 花田
Mitsuru Hanada
満 花田
岡野 哲也
Tetsuya Okano
哲也 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016218471A priority Critical patent/JP6798258B2/ja
Priority to US15/785,597 priority patent/US20180126561A1/en
Publication of JP2018075657A publication Critical patent/JP2018075657A/ja
Application granted granted Critical
Publication of JP6798258B2 publication Critical patent/JP6798258B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

【課題】ロボット装置に多様な動きを行わせることができる。
【解決手段】生成プログラムは、話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における話者の動きを表すデータと、を取得し、取得した文字列と、動きを表すデータとを基に、文字列と動きとの対応関係を示す情報を生成する処理をコンピュータに実行させる。また、制御プログラムは、所定の文字列に基づく音声を発するようにロボット装置を制御する。そして、制御プログラムは、生成された文字列と動きとの対応関係を示す情報に基づき、所定の文字列に対応する動きを、ロボット装置による音声の発声に同期して行うようにロボット装置を制御する処理をコンピュータに実行させる。
【選択図】図1

Description

本発明は、生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システムに関する。
従来、音声を発し、人間との対話を行うロボット装置が知られている。また、このような対話を行うロボット装置の中には、対話の際に、顔や手足等の可動部を動作させ、自己表現や振る舞いを行うものがある。
特開2007−216363号公報
しかしながら、上記の技術では、ロボット装置に多様な動きをさせることができない場合があるという問題がある。例えば、上記の技術におけるロボット装置は、予め設計された動きを、状況に応じて、又はランダムに実行する。このため、ロボット装置に、設計されていない動きをさせることができない。
一つの側面では、ロボット装置に多様な動きを行わせることができる生成プログラム、生成装置、制御プログラム、制御方法、通話システム、及び多様な動きを行うことができるロボット装置を提供することを目的とする。
一つの態様において、生成プログラムは、コンピュータに、話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における話者の動きを表すデータと、を取得し、取得した文字列と、動きを表すデータとを基に、文字列と動きとの対応関係を示す情報を生成する処理を実行させることを特徴とする。
一つの態様によれば、ロボット装置に多様な動きを行わせることができる。
図1は、実施例1における通話システムの構成例を説明する説明図である。 図2は、人とロボット装置との対話の一例を説明する図である。 図3は、実施例1における通話装置の機能ブロックの一例を示す図である。 図4は、実施例1における生成装置の機能ブロックの一例を示す図である。 図5は、取得データの一例を示す図である。 図6は、学習結果DBの一例を示す図である。 図7は、実施例1におけるロボット装置の機能ブロックの一例を示す図である。 図8は、ロボット装置の外観の一例を説明する図である。 図9は、ロボット装置の駆動の一例を説明する図である。 図10は、ロボット装置の駆動期間の一例を説明する図である。 図11は、実施例1における生成処理の一例を説明する図である。 図12は、実施例1における応答処理の一例を説明する図である。 図13は、実施例2におけるロボット装置の機能ブロックの一例を示す図である。 図14は、実施例2における応答処理の一例を説明する図である。 図15は、生成装置のハードウェア構成の一例を示すブロック図である。
以下に、本願の開示する生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、以下に示す各実施例は、矛盾を起こさない範囲で適宜組み合わせても良い。
[システム概要]
まず、通話システム1の概要について、図1を用いて説明する。図1は、実施例1における通話システムの構成例を説明する説明図である。図1に示すように、通話システム1は、通話装置100、生成装置200及びロボット装置300を有する。また、通話装置100、生成装置200及びロボット装置300は、無線又は有線で構築された通信ネットワーク10を介して互いに通信可能に接続されている。通信ネットワーク10は、例えばインターネットである。なお、生成装置200は、情報処理装置の一例である。
通話装置100は、音声による通話機能を有する装置である。通話装置100は、例えばスマートフォン等である。ロボット装置300は、データ通信機能、周囲の音声を収集する機能、映像を撮影する機能、音声や映像の出力機能、音声認識機能、及び可動部を駆動する機能等を備えたヒューマン・インタフェース装置である。通話システム1は、ロボット装置300に、ユーザH20との対話を行わせる。図2に示すように、通話システム1によれば、ユーザH20は、ロボット装置300と対面し対話を行うことができる。図2は、人とロボット装置との対話の一例を説明する図である。
例えば、ロボット装置300は、予め設定されたシナリオやプログラムに従って、自動的にユーザH20と対話するようにしてもよい。この場合、例えば、ロボット装置300は、ユーザH20が発した音声を収集し、収集した音声から音声認識により文字列を抽出し、抽出した文字列への応答として、所定の音声を発する。
また、ロボット装置300は、通話装置として機能するようにしてもよい。この場合、例えば、ロボット装置300は、通話装置100及び通信ネットワーク10を介して、通話装置100を使用するユーザH10の音声を取得し、取得した音声を発する。また、ロボット装置300は、ユーザH20の音声を収集し、収集した音声を通信ネットワーク10を介して通話装置100に送信する。この場合、ユーザH20は、ロボット装置300と対話するかのように、ユーザH10との通話を行うことができる。
また、ロボット装置300は、音声を発するとともに、頭部や腕部等の可動部を駆動することで、対話時の人間の感情表現や振る舞いを疑似的に表現することができる。本実施例において、ロボット装置300は、可動部をどのように駆動するかを決定する際に、予め人間の音声及び動き等に基づいて、機械学習等により生成された学習データを用いる。これにより、ロボット装置300は多様な動きを行わせることが可能となる。なお、生成装置200は、学習データを生成するための装置である。
[機能構成]
図3は、実施例1における通話装置の機能ブロックの一例を示す図である。図3に示す通話装置100は、発話部110と、受話部120と、通信部130と、検知部140と、記憶部150と、制御部160とを有する。なお、通話装置100は、図3に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の通信デバイス、入力デバイスや音声出力デバイス等の機能部を有することとしてもかまわない。通話装置100の一例としては、スマートフォン、通話機能を有するタブレット端末及びパーソナルコンピュータ等を採用できる。
発話部110は、音声を発する装置である。発話部110は、例えば、通話時に、通話相手の音声を発する。発話部110は、例えばスピーカである。また、受話部120は、音声を収集する装置である。受話部120は、例えば、通話時に、ユーザH10の音声を収集する。受話部120は、例えばマイクロフォンである。
通信部130は、通信ネットワーク10を経由して、その他のコンピュータとの通信を制御する。通信部130は、例えば、生成装置200及びロボット装置300との間でデータの送受信を行う。通信部130は、後述する検知部140によって取得された話者の動きに関するデータ、及び音声認識部161による音声認識の結果得られた文字列を、生成装置200に送信する。
検知部140は、通話装置100を用いて通話を行っている話者の動きを検知するセンサである。例えば、通話装置100がスマートフォン等の携帯型の機器である場合、検知部140は、加速度センサやジャイロセンサといった、装置自体の動きを検知するセンサであってもよい。これは、通話装置100が携帯型の機器である場合、通話中に話者と通話装置100とが密着しており、話者の動きに合わせて通話装置100自体が動くと考えられるためである。
また、検知部140は、カメラを備えていてもよい。この場合、検知部140は、カメラによって撮影された話者の画像を解析することで話者の動きに関するデータを取得することができる。
記憶部150は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。また、記憶部150は、制御部160での処理に用いられる情報を記憶する。
制御部160は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部160は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部160は、音声認識部161を有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部160の内部構成は、図3に示した構成に限られず、情報処理を行う構成であれば他の構成であってもよい。
音声認識部161は、音声認識を行う。具体的には、音声認識部161は、公知の音声認識技術を用いて、受話部120が収集した音声から人の音声を抽出する。そして、音声認識部161は、抽出した人の音声を基に、認識対象とする言葉の辞書データを参照することで、人の会話内容を文字列として抽出する。さらに、音声認識部161は、形態素解析等を用いて、抽出した文字列を単語等の単位に分解することもできる。
図4は、実施例1における生成装置の機能ブロックの一例を示す図である。図4に示す生成装置200は、通信部210と、記憶部220と、制御部230とを有する。なお、生成装置200は、図4に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の通信デバイス、入力デバイスや音声出力デバイス等の機能部を有することとしてもかまわない。生成装置200の一例としては、クラウド上に設置されたサーバ等を採用できる。
通信部210は、通信ネットワーク10を経由して、その他のコンピュータとの通信を制御する。通信部210は、例えば、通話装置100及びロボット装置300との間でデータの送受信を行う。通信部210は、通話装置100から、検知部140によって取得された話者の動きに関するデータ、及び音声認識部161による音声認識の結果得られた文字列を受信する。これにより、通信部210は、話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における話者の動きを表すデータと、を取得する。なお、通信部210は、取得部の一例である。
記憶部220は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部220は、学習結果DB221を有する。また、記憶部220は、制御部230での処理に用いられる情報を記憶する。
制御部230は、例えば、CPUやMPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。制御部230は、生成部231を有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部230の内部構成は、図4に示した構成に限られず、情報処理を行う構成であれば他の構成であってもよい。
生成部231は、取得した文字列と、話者の動きを表すデータとを基に、文字列と動きとの対応関係を示す情報を生成する。生成部231は、例えば、線形回帰、SVM(サポートベクトルマシン)等の機械学習の手法を用いて学習データを生成し、生成したデータを学習結果DB221に保持させる。なお、生成部231が情報を生成し、生成した情報を学習結果DB221に保持させる一連の処理を学習と呼ぶ場合もある。
ここで、生成装置200が通話装置100から取得する取得データについて、図5を用いて説明する。図5は、取得データの一例を示す図である。図5に示すように、取得データは、「話者」、「入力文字列」、「応答文字列」、「開始時刻」、「終了時刻」、「動きデータ」、といった項目を有する。取得データは、形態素解析によって分解された単語毎のレコードを記憶する。なお、取得データは、文節毎や、文章毎のレコードを記憶しても良い。
図5において、「話者」は、通話装置100を用いて通話を行ったユーザを識別するID等である。このように、通信部210は、話者を識別するデータを取得する。図5において、「入力文字列」は、話者が応答する直前に通話相手が発した音声に基づく単語である。図5において、「応答文字列」は、話者が発した音声に基づく単語である。図5において、「開始時刻」は、話者が「応答文字列」の音声を発し始めた時刻である。図5において、「終了時刻」は、話者が「応答文字列」の音声を発し終えた時刻である。図5において、「動きデータ」は、話者が「応答文字列」の音声を発し始めてから発し終えるまでの間の話者の動きを表すデータであり、検知部140によって取得されたデータである。
ここで、図5の「動きデータ」は、検知部140が検知したデータであり、所定の時間間隔で取得されたx軸回り、y軸回り、z軸回りそれぞれの回転角度(回転角度の範囲は−180°〜180°)である。例えば、ある時点に取得されたx軸回り、y軸回り、z軸回りの回転角度がそれぞれθ、θ、θであった場合、当該時点における傾きは、「(θ,θ,θ)」のように表される。また、「動きデータ」は、傾きの変化を表すデータであり、「(θx1,θy1,θz1),(θx2,θy2,θz2),…,(θxn,θyn,θzn)」のように表される。
これにより、生成装置200は、動きに関するデータをコンパクトな形式で受け取ることができる。また、生成装置200は、動きに関するデータを、応答文字列、開始時刻及び終了時刻とともに受け取るため、発声と動きが正しく同期されたデータを受け取ることができる。
例えば、図5の取得データにおける1行目のレコードは、「こんにちは」という入力文字列に対し、話者「A」が、「13:30:00」から「13:30:03」にかけて、「こんにちは」という応答文字列の音声を発したことを表している。また、当該レコードは、検知部140が検知した傾きが、「(0, 0, 0),(15, 0, 0),(20, 5, 0),(30, 5, 2)」のように変化したことを表している。
このように、通信部210は、通話装置100を用いる話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における通話装置100の傾きを表すデータと、を取得する。この場合、生成部231は、文字列と傾きとの対応関係を示す情報を生成する。
また、取得データにおいて「入力文字列」は必須ではないため、取得データにおいて「入力文字列」が含まれないレコードが存在していてもよいし、全てのレコードに「入力文字列」が含まれていなくてもよい。また、取得データには、「開始時刻」及び「終了時刻」の代わりに、「応答文字列」の音声を発し始めてから発し終えるまでの時間が含まれていてもよい。また、「動きデータ」の表し方は、図5の例に限られず、任意の表し方とすることができる。
次に、生成装置200の学習結果を記憶する学習結果DB221について、図6を用いて説明する。図6は、学習結果DBの一例を示す図である。図6に示すように、学習結果DB221は、「応答文字列」、「動きデータ」、「時間」といった項目を有する。学習結果DB221は、応答文字列毎のレコードを記憶する。また、生成部231は、話者毎の対応関係を示す情報を生成するようにしてもよい。この場合、学習結果DB221に項目「話者」が追加される。
図6において、「応答文字列」は、ロボット装置300が発する音声の文字列である。図6において、「動きデータ」は、ロボット装置300が「応答文字列」の音声を発し始めてから発し終えるまでの間のロボット装置300の動きを表すデータである。図6において、「時間」は、「動きデータ」に示す動きが行われる時間である。図6の「動きデータ」は、図5の「動きデータ」と同様に、x軸回り、y軸回り、z軸回りそれぞれの回転角度(回転角度の範囲は−180°〜180°)である。ロボット装置300は、可動部の回転角度が「動きデータ」に示す角度となるように駆動する。
例えば、図6の学習結果DBにおける1行目のレコードは、ロボット装置300が、「こんにちは」という応答文字列の音声を発する際に、「2.8」秒の時間をかけて、可動部の回転角度を変化させることを示している。このとき、ロボット装置300は、回転角度を、「(0, 0, 0),(15, 0, 0),(20, 0, 0),(30, 0, 0)」のように変化させる。なお、ロボット装置300が駆動する可動部は、例えば頭部又は腕部等である。また、学習結果DB221は、可動部と対応付けて動きに関するデータを記憶するようにしてもよい。
図7は、実施例1におけるロボット装置の機能ブロックの一例を示す図である。図7に示すロボット装置300は、発話部310と、受話部320と、通信部330と、可動部340と、記憶部350と、制御部360とを有する。なお、ロボット装置300は、図7に示す機能部以外にも既知の対話型のロボット装置が有する各種の機能部、例えば発光デバイス、各種センサ等の機能部を有することとしてもかまわない。
発話部310は、所定の文字列に基づく音声を発する装置である。例えば、発話部310は、所定の方法で決定された応答文字列に基づいて生成された音声を発することができる。また、発話部310は、通話時において通話相手の音声を発することができる。発話部310は、例えばスピーカである。また、受話部320は、音声を収集する装置である。受話部320は、例えば、対話時に、ユーザH20の音声を収集する。受話部320は、例えばマイクロフォンである。
通信部330は、通信ネットワーク10を経由して、その他のコンピュータとの通信を制御する。通信部330は、例えば、通話装置100及び生成装置200との間でデータの送受信を行う。通信部330は、生成装置200から、学習結果DB221に記憶されたデータを取得する。
可動部340は、ロボット装置300に備えられた動作可能な部位である。例えば、可動部340は、備えた頭部、腕部、脚部等である。また、可動部340は、モータ等によって動作する。可動部340は、例えば所定の軸を中心とした回転動作を行うことができる。また、可動部340は、屈伸動作を行うようにしてもよい。
記憶部350は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。また、記憶部350は、制御部360での処理に用いられる情報を記憶する。
制御部360は、例えば、CPUやMPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部360は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。制御部360は、音声認識部361、決定部362と、取得部363と、駆動部364とを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部360の内部構成は、図7に示した構成に限られず、情報処理を行う構成であれば他の構成であってもよい。
音声認識部361は、通話装置100の音声認識部161と同様に、音声認識を行う。具体的には、音声認識部361は、公知の音声認識技術を用いて、受話部320が収集した音声から人の音声を抽出する。そして、音声認識部361は、抽出した人の音声を基に、認識対象とする言葉の辞書データを参照することで、人の会話内容を文字列として抽出する。さらに、音声認識部361は、形態素解析等を用いて、抽出した文字列を単語等の単位に分解することもできる。
決定部362は、音声認識部361によって抽出された文字列を基に、発話部310が発する音声の文字列である応答文字列を決定する。例えば、音声認識部361によって抽出される単語毎に、所定の単語を応答文字列として記憶部350に記憶させておくようにしてもよい。また、決定部362は、既知の対話型のロボット装置で用いられている方法で応答文字列を決定するようにしてもよい。
取得部363は、決定部362によって決定された応答文字列を基に、可動部340を駆動するためのデータを取得する。具体的には、取得部363は、生成装置200の学習結果DB221を参照し、決定部362によって決定された応答文字列が、項目「応答文字列」に合致するレコードの「動きデータ」及び「時間」を取得する。例えば、図6より、決定部362によって決定された応答文字列が「こんにちは」である場合、取得部363は、動きデータ「(0, 0, 0),(15, 0, 0),(20, 0, 0),(30, 0, 0)」、及び時間「2.8」を取得する。
駆動部364は、取得部363によって取得された動きデータ及び時間に従って、可動部340を、発話部310による音声の発声に同期して駆動する。例えば、取得部363によって、動きデータ「(0, 0, 0),(15, 0, 0),(20, 0, 0),(30, 0, 0)」、及び時間「2.8」が取得された場合、駆動部364は、「2.8」秒の時間をかけて、可動部340の回転角度を、「(0, 0, 0),(15, 0, 0),(20, 0, 0),(30, 0, 0)」のように変化させる。
取得部363は、学習結果DB221から、話者の音声から認識された文字列と、音声が発された期間に応じた期間における話者の動作を表すデータと、を基に生成された文字列と動きとの対応関係を示す情報を取得する。そして、可動部340は、取得部363によって取得された対応関係示す情報をに基づき、所定の文字列に対応する動きを、発話部310による音声の発声に同期して行う。なお、可動部340は、動作部の一例である。
図8を用いて、ロボット装置300の外観について説明する。図8は、ロボット装置の外観の一例を説明する図である。図8に示すように、ロボット装置300は、胴体部301と、頭部302と、腕部303と、撮像部304と、音声入出力部305と、タッチパネル306とを有する。胴体部301、頭部302及び腕部303は、可動部340として機能することがきる。撮像部304は、映像を撮影するカメラである。音声入出力部305は、音声を収集するマイク及び音声を出力するスピーカである。タッチパネル306は、ユーザへの画面表示及びユーザからのタッチ操作を受け付ける。
なお、ロボット装置300の構成は、一例であり、図示例に限定しない。例えば、ロボット装置300は、胴体部301の下に車両装置や歩行装置を備え、撮像部304により撮像した画像をもとにユーザに追従して移動する自律走行型のロボットであってもよい。
図9を用いて、ロボット装置の駆動について説明する。図9は、ロボット装置の駆動の一例を説明する図である。図9は、可動部340がロボット装置300の頭部302である場合の例を示している。図9に示すように、頭部302は、x軸、y軸、z軸を中心として回転することができる。駆動部364は、可動部340の回転角度を変化させる。
ここで、駆動部364が、2.8秒で、頭部302の回転角度を(0, 0, 0),(15, 0, 0),(20, 0, 0),(30, 0, 0)のように変化させる場合、x軸を中心とした回転角度が増加していく。このとき、ロボット装置300は、人が顔を上げる動きを表現することができる。
また、駆動部364は、発話部310による発声が開始されると同時に可動部340を駆動させてもよいし、任意のタイミングで駆動させてもよい。ここで、図10を用いて、ロボット装置300の駆動期間について説明する。図10は、ロボット装置の駆動期間の一例を説明する図である。図10の波形は、発話部310が所定の単語を表す文字列を発する際の音声を時系列で表したものである。また、tは、発話部310が音声を発し始めた時刻である。また、tは、発話部310が音声を発し終えた時刻である。
なお、人が音声を発しながら動きを行う場合、音声を発し始めるより前に動きを開始する場合や、音声を発し始めた後に動きを開始する場合がある。このため、可動部340が稼働を開始する時刻を、発話部310が発声を開始する時刻から前後させることで、ロボット装置300により自然な動きを行わせることができる場合がある。
例えば、駆動部364は、図10のM1に示す期間に可動部340を駆動してもよい。この場合、発話部310による発声及び可動部340による動きは、同時に始まり、同時に終わる。また、駆動部364は、図10のM2に示す期間に可動部340を駆動してもよい。この場合、可動部340による動きは、発話部310による発声よりも前に開始される。また、駆動部364は、図10のM3〜M5に示す期間に可動部340を駆動してもよいし、図10に示されていない任意の期間に可動部340を駆動してもよい。
[処理の流れ]
図11を用いて、本実施例における通話装置100及び生成装置200による生成処理の流れを説明する。図11は、実施例1における生成処理の一例を説明する図である。図11に示すように、通話装置100は、通話が開始されるまで待機する(ステップS101:No)。通話装置100の音声認識部161は、通話が開始されると(ステップS101:Yes)、受話部120によって収集された音声の音声認識を行う(ステップS102)。また、検知部140は、話者の動きを検知する(ステップS103)。そして、通信部130は、音声認識部161による音声認識の結果得られた文字列、及び、検知部140によって取得された話者の動きに関するデータを、生成装置200に送信する(ステップS104)。
生成装置200の通信部210は、通信部130によって送信された、文字列、及び、話者の動きに関するデータを受信する(ステップS105)。そして、生成部231は、文字列と話者の動きに関するデータとの対応関係を示す情報を生成し(ステップS106)、学習結果を記憶部220の学習結果DB221に保持する(ステップS107)。
ここで、通話が終了していない場合(ステップS108:No)、すなわち未学習のデータがある場合、生成装置200は、通話装置100によって送信されたデータをさらに受信し(ステップS105)、データを生成する。また、通話が終了している場合(ステップS108:Yes)、すなわち未学習のデータがない場合、生成装置200は処理を終了する。なお、生成装置200が通話が終了したか否かを判定するために、通話装置100は、送信するデータに、当該データが最後のデータであるか否かを示すフラグを付するようにしてもよい。
さらに、通話装置100は、通話が終了していない場合(ステップS109:No)、さらに音声認識を行う(ステップS102)。また、通話装置100は、通話が終了している場合(ステップS109:Yes)、処理を終了する。
図12を用いて、本実施例における生成装置200及びロボット装置300による応答処理の流れを説明する。図12は、実施例1における応答処理の一例を説明する図である。図12に示すように、ロボット装置300は、対話が開始されるまで待機する(ステップS121:No)。ロボット装置300の音声認識部361は、対話が開始されると(ステップS121:Yes)、受話部320によって収集された音声の音声認識を行う(ステップS122)。そして、決定部362は、音声認識部361によって認識された文字列を基に、応答文字列を決定する(ステップS123)。
生成装置200は、取得部363からの要求に応じて、決定部362によって決定された応答文字列に対応する動きに関するデータを、ロボット装置300に送信する(ステップS124)。そして、取得部363は、生成装置200によって送信された動きに関するデータを受信する(ステップS125)。次に、発話部310は発声を行う。このとき、駆動部364は、生成装置200によって送信された動きに関するデータを基に、駆動を行う(ステップS126)。
ここで、対話が終了していない場合(ステップS127:No)、ロボット装置300は、さらにデータを受信する(ステップS125)。また、対話が終了した場合(ステップS127:Yes)、ロボット装置300は処理を終了する。
[効果]
本実施例における生成装置200によれば、通話装置100を用いて通話を行うユーザの実際の音声及び動きを基に、音声と動きとの関係を学習することができる。このため、本実施例におけるロボット装置300は、多様な動きを行うことが可能となる。例えば、本実施例によれば、ロボット装置300は、より人間らしい振る舞いをすることが可能になる。また、これにより、本実施例によれば、遠地にいる家族同士がロボット装置300を通して対話を行うことが可能となる。
また、本実施例によれば、学習データを増やすことにより、ロボット装置300の動きを容易に増やすことが可能となる。また、通話装置100の傾きを示すデータを動きに関するデータとすることで、スマートフォン等の機能を利用して容易にデータを収集することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。例えば、実施例1においては、ロボット装置300の取得部363が、駆動部364による駆動のたびに生成装置200から動きデータを取得する例を説明したが、これに限られない。
例えば、ロボット装置300は、駆動に必要な動きに関するデータを、予め取得しておくようにしてもよい。この場合、ロボット装置300の取得部363は、駆動部364による駆動のたびに生成装置200から動きデータを取得する必要がなくなる。
本実施例におけるロボット装置300は、記憶部350が話者指定学習結果DB351を有する他は、実施例1におけるロボット装置300と同様の構成により実現される。図13は、実施例2におけるロボット装置の機能ブロックの一例を示す図である。本実施例におけるロボット装置300の処理を、ロボット装置300が通話装置として機能している場合を例として説明する。また、本実施例では、生成装置200は、話者毎に学習を行い、話者及び応答文字列毎の情報を生成する。また、学習結果DB221は、話者及び応答文字列毎のレコードを記憶する。
まず、通話相手がユーザH10である場合、取得部363は、ユーザH10を識別する情報を取得する。通話相手のユーザH10を識別する情報は、例えばユーザH10が用いる通話装置100に設定された電話番号とすることができる。そして、取得部363は、生成装置200の学習結果DB221から、話者がユーザH10である応答文字列、動きデータ及び時間を取得し、ロボット装置300の話者指定学習結果DB351に記憶させる。以降、駆動部364による駆動が行われる場合、取得部363は、話者指定学習結果DB351から動きデータ等を取得する。
実施例2において、発話部310は、ロボット装置300と接続された通話装置100に対してユーザH10が発した音声から認識された文字列を発する。このとき、ロボット装置300の可動部340は、認識された文字列に対応する動きを行う。
このように、本実施例では、ロボット装置300が動作を行う際には、記憶部350には、予め音声データと動きデータとの対応関係を示す情報が記憶されている。そこで、ロボット装置300は、通話装置100から出力された音声データを受け付けると、受け付けた音声データに応じた音声を出力し、音声データと動きデータとの対応関係を示す情報を記憶する記憶部350を参照して、受け付けた音声データに対応付けられた動きデータを特定し、特定した動きデータに応じた動きを実行する。
また、ロボット装置300は、通話装置100の話者を特定した場合、音声データと動きデータとの対応関係を示す情報を話者毎に記憶する生成装置200の記憶部220から、特定した話者に応じた情報を取得し、取得した情報を記憶部350に記憶する。なお、この場合において、生成装置200の記憶部220は、外部記憶部の一例である。
[処理の流れ]
図14を用いて、本実施例における生成装置200及びロボット装置300による応答処理の流れを説明する。図14は、実施例2における応答処理の一例を説明する図である。なお、図14に示す応答処理は、ロボット装置300を用いるユーザH20と、通話装置100を用いるユーザH10との通話が行われる場合の例である。
図14に示すように、ロボット装置300は、通話が開始されるまで待機する(ステップS201:No)。そして、通話が開始されると(ステップS201:Yes)、ロボット装置300は処理を開始する。このとき、生成装置200は、ロボット装置300の取得部363からの要求に応じて、学習結果DB221に記憶されている動きに関するデータのうち、話者がユーザH10であるデータをロボット装置300に送信する(ステップS202)。そして、取得部363は、生成装置200によって送信された動きに関するデータを受信し(ステップS203)、受信したデータを記憶部350の話者指定学習結果DB351に記憶させる。
通話中、通話装置100は、ユーザH10の音声をロボット装置300に送信する(ステップS204)。ロボット装置300は、通話装置100によって送信された音声を受信する(ステップS205)。音声認識部361は、通話装置100によって送信された音声の音声認識を行う(ステップS206)。取得部363は、話者指定学習結果DB351から、音声認識部361によって認識された文字列に対応する動きに関するデータを取得する(ステップS207)。次に、発話部310は発声を行う。このとき、駆動部364は、取得部363によって取得された動きに関するデータを基に、駆動を行う(ステップS208)。
ここで、通話が終了していない場合(ステップS209:No)、ロボット装置300は、さらに音声を受信する(ステップS205)。また、対話が終了した場合(ステップS209:Yes)、ロボット装置300は処理を終了する。
[効果]
本実施例では、通話の際に、ロボット装置300は予め通話相手の動きに関するデータを生成装置200から取得しておく。このため、ロボット装置300及び生成装置200の通信回数を削減することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。例えば、通話装置100の検知部140は、通話装置100とは別の装置とすることができる。この場合、検知部140として機能する装置は、通話装置100を用いて通話を行うユーザをカメラ等で撮影し、撮影した画像を基に動きを検知することができる。また、検知部140は、装着したユーザの動きを検知可能なウェアラブル機器であってもよい。
また、生成装置200は、通話装置100から、ユーザの特徴や属性に関する情報をさらに取得してもよい。この場合、生成装置200は、ユーザの特徴や属性毎に情報を生成することができる。例えば、ユーザの性別や年齢によって、発声の際の動きが大きく異なることが考えられる。このため、生成装置200は、通話装置100からユーザの性別や年齢を取得することで、男女別や年代別の動きに関するデータを生成することができる。これにより、ロボット装置300は、さらに多様な動きを実現することが可能となる。
また、通話装置100とロボット装置300との間で通話が行われる際に、生成装置200は、通話装置100に入力された音声に対応した動きデータをロボット装置300に送信するようにしてもよい。この場合、通話装置100は、話者の音声を受け付けると、受け付けた音声に応じた音声データを、ロボット装置300と生成装置200とに送信する。そして、生成装置200は、通話装置100から音声データを受信すると、発話内容と動きデータとの対応関係を示す情報を記憶する学習結果DB221を参照して、受信した音声データに応じた動きデータを取得し、取得した動きデータをロボット装置300に送信する。そして、ロボット装置300は、通話装置100から音声データを受信すると、受信した音声データに応じた音声を出力し、生成装置200から動きデータを受信すると、受信した動きデータに応じた動きを実行する。これにより、ロボット装置300が通話装置100との間で通話を行う際に送受信されるデータを削減することが可能となる。また、このとき、生成装置200によって取得される音声データに応じた動きデータは、例えば、当該音声データに応じた発話内容に対応付けられた動きデータである。
また、生成装置200で行われる各種処理機能は、CPU(又はMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部又は任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(又はMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、又はワイヤードロジックによるハードウェア上で、その全部又は任意の一部を実行するようにしてもよいことは言うまでもない。また、生成装置200で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータ(ハードウェア)の一例を説明する。図15は、生成装置のハードウェア構成の一例を示すブロック図である。なお、図15においては、生成装置200について説明するが、通話装置100やロボット装置300についても同様のコンピュータにより実現することができる。
図15に示すように、生成装置200は、各種演算処理を実行するCPU501と、データ入力を受け付ける入力装置502と、モニタ503と、スピーカ504とを有する。また、生成装置200は、記憶媒体からプログラム等を読み取る媒体読取装置505と、各種装置と接続するためのインタフェース装置506と、有線又は無線により外部機器と通信接続するための通信装置507とを有する。また、生成装置200は、各種情報を一時記憶するRAM508と、ハードディスク装置509とを有する。また、生成装置200内の各部(501〜509)は、バス510に接続される。
ハードディスク装置509には、上記の実施例で説明した生成部231における各種の処理を実行するためのプログラム511が記憶される。また、ハードディスク装置509には、プログラム511が参照する各種データ512(学習結果DB221等)が記憶される。入力装置502は、例えば、操作者から操作情報の入力を受け付ける。モニタ503は、例えば、操作者が操作する各種画面を表示する。インタフェース装置506は、例えば印刷装置等が接続される。通信装置507は、LAN(Local Area Network)等の通信ネットワーク10と接続され、通信ネットワーク10を介した外部機器との間で各種情報をやりとりする。
CPU501は、ハードディスク装置509に記憶されたプログラム511を読み出して、RAM508に展開して実行することで、各種の処理を行う。なお、プログラム511は、ハードディスク装置509に記憶されていなくてもよい。例えば、生成装置200が読み取り可能な記憶媒体に記憶されたプログラム511を読み出して実行するようにしてもよい。生成装置200が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム511を記憶させておき、生成装置200がこれらからプログラム511を読み出して実行するようにしてもよい。
100 通話装置
110、310 発話部
120、320 受話部
130、210、330 通信部
140 検知部
150、220、350 記憶部
160、230、360 制御部
161 音声認識部
200 生成装置
221 学習結果DB
231 生成部
300 ロボット装置
351 話者指定学習結果DB
340 可動部
361 音声認識部
362 決定部
363 取得部
364 駆動部
H10、H20 ユーザ

Claims (19)

  1. コンピュータに、
    話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における前記話者の動きを表すデータと、を取得し、
    取得した前記文字列と、前記動きを表すデータとを基に、文字列と動きとの対応関係を示す情報を生成する
    処理を実行させることを特徴とする生成プログラム。
  2. 前記取得する処理において、前記話者を識別するデータをさらに取得し、
    前記生成する処理において、前記話者毎の前記対応関係を示す情報を生成することを特徴とする請求項1に記載の生成プログラム。
  3. 前記取得する処理において、通話装置を用いる話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における前記通話装置の傾きを表すデータと、を取得し
    前記生成する処理において、文字列と傾きとの対応関係を示す情報を生成することを特徴とする請求項1又は2に記載の生成プログラム。
  4. 話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における前記話者の動きを表すデータと、を取得する取得部と、
    取得した前記文字列と、前記動きを表すデータとを基に、文字列と動きとの対応関係を示す情報を生成する生成部と
    を有することを特徴とする生成装置。
  5. コンピュータに、
    所定の文字列に基づく音声を発するようにロボット装置を制御し、
    話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における前記話者の動作を表すデータと、を基に生成された文字列と動きとの対応関係を示す情報に基づき、前記所定の文字列に対応する動きを、前記ロボット装置による音声の発声に同期して行うように前記ロボット装置を制御する
    処理を実行させることを特徴とする制御プログラム。
  6. 前記動きを行うように制御する処理において、話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における前記話者の動作を表すデータと、前記話者を識別するデータと、を基に生成された文字列と動きとの話者毎の対応関係を示す情報のうち、予め設定された特定の話者の対応関係を示す情報に基づき、前記所定の文字列に対応する動きを行うように前記ロボット装置を制御することを特徴とする請求項5に記載の制御プログラム。
  7. 前記動きを行うように制御する処理において、通話装置を用いる話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における前記通話装置の傾きを表すデータと、を基に生成された文字列と傾きとの対応関係を示す情報に基づき、前記ロボット装置の頭部の傾きが、前記所定の文字列に対応する傾きとなるように前記ロボット装置を制御することを特徴とする請求項5又は6に記載の制御プログラム。
  8. 前記音声を発するように制御する処理において、前記ロボット装置と接続された通話装置に対して第1の話者が発した音声から認識された第1の文字列を発するように前記ロボット装置を制御し、
    前記動きを行うように制御する処理において、前記第1の文字列に対応する動きを行うように前記ロボット装置を制御する処理を実行させることを特徴とする請求項5乃至7のいずれか1つに記載の制御プログラム。
  9. ロボット装置の制御プログラムにおいて、
    通話装置から出力された音声データを受け付けると、受け付けた前記音声データに応じた音声を前記ロボット装置に出力させ、前記音声データに応じた動きデータを受け付けると、受け付けた前記動きデータに応じた動きを前記ロボット装置に実行させる、
    処理をコンピュータに実行させることを特徴とする制御プログラム。
  10. 前記音声データに応じた動きデータは、前記音声データに応じた発話内容に対応付けられた動きデータである、
    ことを特徴とする請求項9に記載の制御プログラム。
  11. ロボット装置の制御プログラムにおいて、
    通話装置から出力された音声データを受け付けると、受け付けた前記音声データに応じた音声を前記ロボット装置に出力させるとともに、音声データと動きデータとの対応関係を示す情報を記憶する記憶部を参照して、受け付けた前記音声データに対応付けられた動きデータを特定し、特定した前記動きデータに応じた動きを前記ロボット装置に実行させる、
    処理をコンピュータに実行させることを特徴とする制御プログラム。
  12. 前記通話装置の話者を特定した場合、音声データと動きデータとの対応関係を示す情報を話者毎に記憶する外部記憶部から、特定した前記話者に応じた情報を取得し、
    取得した前記情報を前記記憶部に記憶する、
    ことを特徴とする請求項11に記載の制御プログラム。
  13. コンピュータが、
    所定の文字列に基づく音声を発するようにロボット装置を制御し、
    話者の音声から認識された文字列と、当該音声が発された期間に応じた期間における前記話者の動作を表すデータと、を基に生成された文字列と動きとの対応関係を示す情報に基づき、前記所定の文字列に対応する動きを、前記ロボット装置による音声の発声に同期して行うように前記ロボット装置を制御する
    処理を実行することを特徴とする制御方法。
  14. ロボット装置の制御方法において、
    通話装置から出力された音声データを受け付けると、受け付けた前記音声データに応じた音声を前記ロボット装置に出力させ、前記音声データに応じた動きデータを受け付けると、受け付けた前記動きデータに応じた動きを前記ロボット装置に実行させる、
    処理をコンピュータが実行することを特徴とする制御方法。
  15. ロボット装置の制御方法において、
    通話装置から出力された音声データを受け付けると、受け付けた前記音声データに応じた音声を前記ロボット装置に出力させるとともに、音声データと動きデータとの対応関係を示す情報を記憶する記憶部を参照して、受け付けた前記音声データに対応付けられた動きデータを特定し、特定した前記動きデータに応じた動きを前記ロボット装置に実行させる、
    処理をコンピュータが実行することを特徴とする制御プログラム。
  16. 所定の文字列に基づく音声を発する発話部と、
    話者の音声から認識された文字列と、前記音声が発された期間に応じた期間における前記話者の動作を表すデータと、を基に生成された文字列と動きとの対応関係を示す情報に基づき、前記所定の文字列に対応する動きを、前記発話部による音声の発声に同期して行う動作部と、
    を有することを特徴とするロボット装置。
  17. 通話装置から出力された音声データを受け付けると、受け付けた前記音声データに応じた音声を出力する発話部と、
    前記音声データに応じた動きデータを受け付けると、受け付けた前記動きデータに応じた動きを実行する動作部と、
    を有することを特徴とするロボット装置。
  18. 通話装置から出力された音声データを受け付けると、受け付けた前記音声データに応じた音声を出力する発話部と、
    前記発話部による音声の出力とともに、音声データと動きデータとの対応関係を示す情報を記憶する記憶部を参照して、受け付けた前記音声データに対応付けられた動きデータを特定し、特定した前記動きデータに応じた動きを実行する動作部と、
    を有することを特徴とするロボット装置。
  19. 通話装置と、
    ロボット装置と、
    情報処理装置と、を備え、
    前記通話装置は、
    話者の音声を受け付けると、受け付けた前記音声に応じた音声データを、前記ロボット装置と前記情報処理装置とに送信し、
    前記情報処理装置は、
    前記通話装置から前記音声データを受信すると、発話内容と動きデータとの対応関係を示す情報を記憶する記憶部を参照して、受信した前記音声データに応じた発話内容に対応付けられた動きデータを取得し、
    取得した前記動きデータを前記ロボット装置に送信し、
    前記ロボット装置は、
    前記通話装置から前記音声データを受信すると、受信した前記音声データに応じた音声を出力し、前記情報処理装置から前記動きデータを受信すると、受信した前記動きデータに応じた動きを実行する、
    ことを特徴とする通話システム。
JP2016218471A 2016-11-08 2016-11-08 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム Active JP6798258B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016218471A JP6798258B2 (ja) 2016-11-08 2016-11-08 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
US15/785,597 US20180126561A1 (en) 2016-11-08 2017-10-17 Generation device, control method, robot device, call system, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016218471A JP6798258B2 (ja) 2016-11-08 2016-11-08 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム

Publications (2)

Publication Number Publication Date
JP2018075657A true JP2018075657A (ja) 2018-05-17
JP6798258B2 JP6798258B2 (ja) 2020-12-09

Family

ID=62065079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016218471A Active JP6798258B2 (ja) 2016-11-08 2016-11-08 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム

Country Status (2)

Country Link
US (1) US20180126561A1 (ja)
JP (1) JP6798258B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066094A (ja) * 2018-10-24 2020-04-30 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
JP2020082246A (ja) * 2018-11-20 2020-06-04 大日本印刷株式会社 姿勢データ生成装置、学習器、コンピュータプログラム、学習データ、姿勢データ生成方法及び学習モデルの生成方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230335006A1 (en) * 2022-04-14 2023-10-19 Annunciation Corporation Robotic Head For Modeling Articulation Of Speech Sounds

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004214895A (ja) * 2002-12-27 2004-07-29 Toshiba Corp 通信補助装置
JP2004230479A (ja) * 2003-01-28 2004-08-19 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
JP2006142407A (ja) * 2004-11-17 2006-06-08 Sanyo Electric Co Ltd ロボット装置およびロボット装置システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004214895A (ja) * 2002-12-27 2004-07-29 Toshiba Corp 通信補助装置
JP2004230479A (ja) * 2003-01-28 2004-08-19 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
JP2006142407A (ja) * 2004-11-17 2006-06-08 Sanyo Electric Co Ltd ロボット装置およびロボット装置システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066094A (ja) * 2018-10-24 2020-04-30 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
JP7067414B2 (ja) 2018-10-24 2022-05-16 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
JP2020082246A (ja) * 2018-11-20 2020-06-04 大日本印刷株式会社 姿勢データ生成装置、学習器、コンピュータプログラム、学習データ、姿勢データ生成方法及び学習モデルの生成方法

Also Published As

Publication number Publication date
US20180126561A1 (en) 2018-05-10
JP6798258B2 (ja) 2020-12-09

Similar Documents

Publication Publication Date Title
JP6635049B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN102903362B (zh) 集成的本地和基于云的语音识别
US10702991B2 (en) Apparatus, robot, method and recording medium having program recorded thereon
JP4839838B2 (ja) 情報処理システム、情報処理方法および情報処理用プログラム
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
US11526147B2 (en) Systems and methods to adapt and optimize human-machine interaction using multimodal user-feedback
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
WO2016206647A1 (zh) 用于控制机器装置产生动作的系统
KR102115222B1 (ko) 사운드를 제어하는 전자 장치 및 그 동작 방법
WO2021153101A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7435641B2 (ja) 制御装置、ロボット、制御方法およびプログラム
JP2017211430A (ja) 情報処理装置および情報処理方法
JP2016156877A (ja) 情報処理装置、情報処理方法およびプログラム
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
KR102168812B1 (ko) 사운드를 제어하는 전자 장치 및 그 동작 방법
KR20170029390A (ko) 음성 명령 모드 진입 방법
JP4735965B2 (ja) 遠隔地間対話システム
US20210392427A1 (en) Systems and Methods for Live Conversation Using Hearing Devices
JP2018051648A (ja) ロボット制御装置、ロボット、ロボット制御方法、及びプログラム
JP2001188896A (ja) 情報処理装置および方法、並びに記録媒体
KR20210109722A (ko) 사용자의 발화 상태에 기초하여 제어 정보를 생성하는 디바이스 및 그 제어 방법
JP2022147921A (ja) 疑似的接触提示システム、制御プログラムおよび制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201102

R150 Certificate of patent or registration of utility model

Ref document number: 6798258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150