JP6505748B2 - 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット - Google Patents

人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット Download PDF

Info

Publication number
JP6505748B2
JP6505748B2 JP2016562886A JP2016562886A JP6505748B2 JP 6505748 B2 JP6505748 B2 JP 6505748B2 JP 2016562886 A JP2016562886 A JP 2016562886A JP 2016562886 A JP2016562886 A JP 2016562886A JP 6505748 B2 JP6505748 B2 JP 6505748B2
Authority
JP
Japan
Prior art keywords
robot
processor
user
word
expressiveness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016562886A
Other languages
English (en)
Other versions
JP2017520782A (ja
Inventor
モンソー,ジェローム
ガト,グェナエル
ウーサン,ダビド
バルビエリ,ガブリエル
マルタン,ジョスラン
テスタール,ジャン
グルダン,イルモ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aldebaran SAS
Original Assignee
SoftBank Robotics Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Robotics Europe SAS filed Critical SoftBank Robotics Europe SAS
Publication of JP2017520782A publication Critical patent/JP2017520782A/ja
Application granted granted Critical
Publication of JP6505748B2 publication Critical patent/JP6505748B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Description

本発明は、人間型ロボットとユーザー、即ち、通常は人間である、対話者の間における所謂「マルチモード」会話を実行する方法に関する。又、本発明は、このような方法を実装するためのコンピュータプログラムプロダクト及び人間型ロボットにも関する。
「人間型ロボット」は、胴体、頭部、腕部、脚部、音声認識及び音声合成などを使用して人間と口頭で通信する能力などの人間の外観及び機能の特定の属性を有するロボットとして定義することができる。この種のロボットは、人間と機械の間における認知距離の低減を目的としている。人間型ロボットの最も重要な特性の1つは、人間対話者との間において可能な限り自然な会話をサポートするその能力にある。この能力は、日々の暮らしにおいて必要とされる際に、高齢の、病気の、或いは、単純に孤独である人々を支援するための、且つ、これらの人々に人間の個人的な支援の存在の―感情的な観点においても―受け入れ可能な代用物を提供するための、「コンパニオンロボット」の開発に必須である。これを実現するには、人間の振る舞いを可能な限り密接にエミュレートする方式によって人間とやり取りするこのような人間型ロボットの能力の開発が必須である。具体的には、ロボットは、人間のものに対応した豊富な表現と、通常は人間のものであるタイプの振る舞い及び感情と相乗効果を有する表現のモードと、を伴って、人間の質問又は主張を解釈できると共に会話モードにおいて複製を生成することができる必要がある。
この方向における第一歩は、本出願人によって市販されると共に、ロボットプレーヤーに関する(特許文献1)及び自然なインターフェイスの会話を伴う人間型ロボットに関する(特許文献2)において開示されているNao(商標)人間型ロボットをプログラムする方法に起因し、実現されている。
但し、これらの文献によって開示されているロボットは、限られると共に既定された会話の要素しか実行することができない。
(特許文献3)は、既存のロボットのものよりも豊富な会話能力を示す、会話エージェント、音声認識ツール、及び対話者の振る舞いを分析するツールを有する人間型ロボットについて記述している。
国際公開第2012/000927号 国際公開第2012/010451号 国際公開第2013/150076号
本発明は、このような人間型ロボットを改善し、これにより、人間対話者との間におけるやり取りを相対的に豊富に且つリアルにすることを目的としている。本発明は、具体的には、ユーザーの動作を解釈するための能力をロボットに提供することにより、人間−ロボット間のやり取りを改善することを目的とした「Juliette」と呼称されるプロジェクトを含む。
このような目標の実現を許容する本発明の目的は、請求項1に記載の人間型ロボットと少なくとも1つのユーザーの間における会話を実行する方法であり、この方法は、前記人間型ロボットによって反復的に実行される、
i)個々のセンサから複数の入力信号を取得するステップであって、少なくとも1つの前記センサは、サウンドセンサであり、且つ、少なくとも1つのその他のセンサは、モーション又は画像センサである、ステップと、
ii)少なくとも単語又は文の発声、音声のイントネーション、ジェスチャ、身体の姿勢、顔面の表現を有する群から選択された、前記ユーザーによって生成される複数のイベントを認識するべく、取得された信号を解釈するステップと、
iii)少なくとも単語又は文の発声、音声のイントネーション、ジェスチャ、身体の姿勢、顔面の表現を有する群から選択された少なくとも1つのイベントを有する前記人間型ロボットの応答を判定するステップであって、前記判定するステップは、規則の組を適用することにより、実行され、それぞれの前記規則は、入力イベントの組をロボットの応答に関連付けている、ステップと、
iv)前記人間型ロボットにより、前記イベント又はそれぞれの前記イベントを生成するステップと、
を有し、
この方法は、前記ステップiii)において適用される前記規則の少なくともいくつかが、応答を前記ユーザーによって一緒に生成されると共に前記ステップii)において認識される少なくとも2つのイベントの組合せに関連付けており、これらのイベントの少なくとも1つは、前記ユーザーによって発声された単語又は文ではない、ことを特徴としている。
このような方法の特定の実施形態は、従属請求項の主題を構成している。
本発明の別の目的は、プログラムコード命令を有するコンピュータプログラムプロダクトであり、プログラムコード命令は、前記プログラムが、人間型ロボット上において組み込まれた少なくとも1つのプロセッサによって実行された際に、このような方法を実行し、前記ロボットは、個々の入力信号を取得するべく、前記プロセッサ又は少なくとも1つのプロセッサに対して動作可能に接続されると共に少なくとも1つのサウンドセンサ及び少なくとも1つの画像又は運動センサを有する複数のセンサと、単語又は文を発声するべく、前記プロセッサ又は少なくとも1つの前記プロセッサによって制御される発話合成モジュールと、前記ロボットが複数の運動又はジェスチャを実行できるようにする前記プロセッサ又は少なくとも1つの前記プロセッサによって駆動されるアクチュエータの組と、を有する。
本発明の更に別の目的は、
− 少なくとも1つの組込み型のプロセッサと、
− 個々の入力信号を取得するべく、前記プロセッサ又は少なくとも1つの前記プロセッサに対して動作可能に接続されると共に、少なくとも1つのサウンドセンサと、少なくとも1つの画像又は運動センサと、を有するセンサ組立体と、
− 単語又は文を発声するべく、前記プロセッサ又は少なくとも1つの前記プロセッサによって駆動される発話合成モジュールと、
− 前記ロボットが複数の運動又はジェスチャを実行できるようにする前記プロセッサ又は少なくとも1つの前記プロセッサによって駆動されるアクチュエータの組と、
を有する人間型ロボットであり、
このロボットは、前記プロセッサ又は少なくとも1つの前記プロセッサが、本発明の一実施形態による方法を実行するようにプログラム又は構成されているを特徴としている。
このような人間型ロボットは、少なくとも1つのリモートサーバーに接続するための装置を更に有してもよく、前記プロセッサ又は少なくとも1つの前記プロセッサは、本発明の一実施形態による方法を実行するべく、前記リモートサーバー又は少なくとも1つの前記リモードサーバーと協働するようにプログラム又は構成されている。
本発明のその他の特徴、詳細、及び利点については、一例として付与される添付図面との関連において以下の説明を参照することにより、明らかとなろう。
本発明を実装するのに適した人間型ロボットの物理的アーキテクチャを示す。 本発明の一実施形態による方法のステップと、その実装のためのハードウェア及びソフトウェア手段の構成と、を示す図である。 本発明の一実施形態による「プロアクティブ」な会話の実装形態を示す図である。 本発明の一実施形態による人間型ロボットの応答を活性化するステップを示す図である。 活性化対象である1つ又は複数の単語を判定するための文の構文分析の3つの例である。 活性化対象である1つ又は複数の単語を判定するための文の構文分析の3つの例である。 活性化対象である1つ又は複数の単語を判定するための文の構文分析の3つの例である。 本発明の一実施形態によるユーザーとの関係におけるロボットの位置のサーボ制御を示す。 本発明の一実施形態によるイベントを識別するステップを示す図である。 本発明の一実施形態による音声学的発話認識のステップを示す図である。
図1は、本発明のいくつかの実施形態における人間型ロボットの物理的アーキテクチャを示している。
この図の特定のロボットRは、本発明を実装しうる人間型ロボットの一例に過ぎないものと解釈されたい。この図のロボットの下肢は、歩行の機能を有していないが、自身が位置している表面上において転動するその基部RB上において任意の方向に運動することができる。本発明は、歩行に適合したロボットにおいて容易に実装することができる。例として、このロボットは、約120cmであってもよい高さHと、約65cmの奥行Dと、約40cmの幅Wと、を有する。特定の実施形態においては、本発明のロボットは、メッセージ(オーディオ、ビデオ、ウェブページ)をその環境に伝達することができるか又はタブレットの触覚インターフェイスを通じてユーザーからエントリを受け取ることができるタブレットRTを有する。又、タブレットのプロセッサに加えて、本発明のロボットは、その独自のマザーボードのプロセッサをも使用しており、これは、例えば、Intel(商標)のATOM(商標)Z530であってもよい。又、本発明のロボットは、有利には、特定の実施形態において、マザーボードと、特に、磁気回転式エンコーダ(MRE:Magnetic Rotary Encoder)及び四肢内の関節のモーター及びロボットが車輪として使用しているボールを制御するセンサを有する基板の間におけるデータフローの処理に専用であるプロセッサをも含む。モーターは、確実な結合に必要とされる最大トルクの大きさに応じて、異なるタイプであってもよい。例えば、e−minebea(商標)のブラシDCコードレスモーター(例えば、SE24P2CTCA)を使用することが可能であり、或いは、Maxon(商標)のブラシレスDCモーター(例えば、EC45_70W)を使用することもできる。MREは、好ましくは、ホール効果を使用したタイプであり、12又は14ビットの精度を有する。
又、本発明の実施形態においては、図1に示されているロボットは、様々な種類のセンサを有する。これらのうちのいくつかは、ロボットの位置及び運動を制御するべく使用されている。これは、例えば、3軸ジャイロメータと、3軸加速度計と、を有するロボットの胴体内に配置された慣性ユニットのケースに当て嵌まる。又、ロボットは、5フレーム/秒における5メガピクセルの分解能と、水平方向の約57°及び垂直方向の約44°の視野(FOV)と、を有する、Shenzen V−Vision Technology Ltd.(商標)の製品(OV5640)などのシステムオンチップ(SOC:System On Chip)タイプの2つの2DカラーRGBカメラをロボットの額(上部及び下部)において含むこともできる。又、20フレーム/秒において0.3メガピクセルの分解能を有し、且つ、2Dカメラとほぼ同一のFOVを有する、ASUS XTION(商標)のSOCセンサなどの1つの3Dセンサをロボットの眼の背後において含むこともできる。又、本発明のロボットは、その環境内の物体/生き物までのその相対的な位置を検知しうるように、例えば、頭部内において、3つだけ、且つ、基部内において、3つだけ、レーザーライン生成器を装備することもできる。又、本発明のロボットは、その環境内のサウンドを検知する能力を有するように、マイクロフォンを含むことできる。一実施形態においては、1kHzにおける300mV/Pa+/−3dBの感度と、300Hz〜12kHzの周波数範囲(1kHzとの関係において−10dB)と、を有する4つのマイクロフォンをロボットの頭部において埋植することができる。又、本発明のロボットは、その環境内の物体/人間までの距離を計測するべく、恐らくは、その基部の前面及び背面において配置された、2つのソナーセンサを含むこともできる。又、ロボットは、人間とのやり取りを許容するべく、その頭部上において、且つ、その手の上部において、触覚センサを含むこともできる。又、ロボットは、自身のルート上において遭遇する障害物を検知するべく、その基部上において、バンパーを含むこともできる。
又、その感情を変換し、且つ、その環境内の人間と通信するべく、本発明のロボットは、
− 例えば、その眼、耳の内部の、且つ、その肩の上部のLEDと、
− その耳の内部に配置された、例えば、2つのラウンドスピーカと、
を含むこともできる。
本発明のロボットは、ベースステーション又はその他のロボットとEthernet RJ45又はWiFi802.11接続を通じて通信してもよい。
本発明のロボットは、約400Whのエネルギーを有するリン酸鉄リチウム電池によって電力供給することができる。ロボットは、自身が含む電池のタイプに適合した充電ステーションにアクセスすることができる。
ロボットの位置/運動は、センサの計測値に鑑み、それぞれの四肢によって定義されたチェーンと、それぞれの四肢の端部において定義されたエフェクタと、を起動するアルゴリズムを使用することにより、そのモーターによって制御されている。
図2は、本発明の一実施形態による会話の方法を示している。このような方法の実装によって得られる会話は、「マルチモード」と呼称することが可能であり、その理由は、ロボットが、その応答を生成すべく、ユーザー(対話者)によって生成される、発話された単語、ジェスチャ、身体の姿勢、顔面の表現などのような質的に異なるイベントの組合せを考慮しているからである。上述の国際公開第2013/150076号パンフレットは、ロボットが、対話者の、例えば、手を振るなどの、ジェスチャに対しては反応するが、一緒に生成された口頭の及び非口頭のイベントの特定の組合せに対しては反応しない方法をも開示していることに留意されたい。
図2に示されている方法の第1ステップi)においては、個々のセンサc1(マイクロフォン)及びc2(カメラ)からの入力信号s1、s2が、ロボットによって取得されており、且つ、抽出器モジュールEXTのバンクによって処理されている(ここでは、且つ、以下においては、「モジュール」という用語は、組み込まれているプロセッサにより、或いは、リモートセンサにより、実行されるソフトウェアモジュールを示すべく使用されており、ハードウェアの又はハードウェア−ソフトウェアのハイブリッドの実装形態が、常に可能であると共に本発明の範囲に含まれていることを理解されたい)。それぞれの抽出器モジュールは、入力信号又は所与のタイプの複数の信号を受信し、且つ、ロボットのその他のモジュールによって使用される情報を出力する。例えば、図2のケースにおいては、第1抽出器モジュールは、人間の音声と互換性を有するものとして識別されたサウンドを翻字することによって得られたテキスト出力TXTと、前記音声のイントネーション(幸せ、悲しみ、怒り、高圧的、不審など)を表すメタデータMDと、を提供するべく、マイクロフォンc1からの信号s1を処理しており、第2及び第3抽出モジュールは、前記カメラの視野内のユーザーの、それぞれ、顔面の、且つ、腕の、関心の的を表す「非テキストデータ」NTDを生成するべく、カメラc2からの信号s2を処理している。抽出器モジュールのバンクの出力は、会話エンジンモジュールDEへの入力として提供される。このモジュールによって実行される処理は、複雑なものとなる可能性があり、且つ、大きなサイズのデータベースに対するアクセスを必要としうる。この理由から、この処理は、インターネット接続を通じてアクセスされる1つ又は複数のリモードサーバーRSによって部分的に実行されてもよい。
会話エンジンモジュールは、データTXT、MD、NTDを入力として受信すると共にこれらを予め定義された「入力イベント」EVIに関連付ける認識モジュールRECを有する。例えば、モジュールRECは、テキストデータTXTを辞書の単語に関連付けてもよく、更には、ユーザーの顔面の関心の的の特定の構成を笑顔に関連付けてもよく、且つ、場合によっては、数値を前記笑顔に付与してもよく(例えば、0〜5の値であり、この場合に、0は、笑顔なしを意味しており、且つ、5は、満面の笑顔を表している)、更には、ユーザーの腕の関心の的の特定の構成を、例えば、手を振るなどのジェスチャに関連付けてもよい。検討対象の特定の実施形態に応じて、認識モジュールのタスクは、抽出器モジュールによって実行することが可能であり、例えば、上述の笑顔の値を直接的に提供する「笑顔抽出器」を有してもよい。
ロボットのメモリ内に保存されている「会話のコンテキスト」又は「トピック」であるパラメータCTXは、認識モジュールの決定に対して影響を及ぼしうる。実際に、コンテキストに応じて、類似のエントリを異なるイベントとして解釈することが可能であり、例えば、異なるコンテキストにおいて、ユーザーの口が大きく開いていることは、あくびとして解釈することも可能であり、或いは、昏睡の表現として解釈することもできる。これは、本発明の方法の第2ステップii)に対応している。
本発明の方法の第3ステップiii)は、応答を入力イベント又は入力イベントの組合せに対して関連付ける「規則適用」モジュールRULにより、実行されている。応答は、1つ又は複数の「出力イベント」EVOによって構成されており、これらの出力イベントは、ロボットによって発声されるべき単語又はフレーズ、ロボットによって放出されるべきサウンド、ロボットによって実行されるべきジェスチャ、ロボットの「顔面」の表現などであってもよい。先程引用した国際公開第2012/010451号パンフレットは、重要な変更を伴うことにはなるが、本発明において使用されうる規則適用モジュールについて記述している。実際に、本発明によれば、規則のうちの少なくともいくつかは、応答を、単一の入力イベントに対して関連付けるのではなく、少なくとも2つの一緒に生成されたイベントの組合せに対して関連付けており、これらのイベントのうちの少なくとも1つは、非口頭のものである(即ち、ユーザーによる単語又は文の発声を有していない)。本発明の好適な実施形態によれば、規則のうちの少なくともいくつか、並びに、特に、その入力として複数のイベントを取得しているもののうちのいくつかは、その少なくとも1つが非口頭のものである出力イベントの組合せから構成された応答を判定している。
例えば、可能な規則は、次のようなものであってもよい。
IF{(笑顔>2) AND [手を振る OR “こんにちは” OR “やあ”]} THEN {(笑顔=4) AND 手を振る AND “こんにちは”}
これは、ユーザーが少なくとも控えめな笑顔を伴って微笑んでおり、且つ、自身の手を振っているか、或いは、「こんにちは」又は「やあ」と言っている場合には、ロボットは、満面の笑顔、手を振ること、及び「こんにちは」という単語の発声により、回答するということを意味している。
「一緒に生成された」イベントとは、会話を目的として、同時であると見なすべく十分に時間的に接近した2つ以上のイベントを意味している。例えば、ユーザーが自身の手を振り、且つ、次いで、一秒後に、「こんにちは」と言った場合には、これらの2つのイベントは、これらが厳密に言えば同時ではない場合にも、一緒に生成されたものと見なされる。
その都度、適用可能な規則は、会話コンテキストCTXに依存しており、この会話コンテキストは、予め適用された規則及び/又は入力によって判定される。同一のコンテキスト又はトピックに関係する規則が、「会話」を形成し、会話は、国際公開第2011/003628号パンフレットによって開示されているように、プログラマによって編集することができる。会話トピックの例は、「フットボール」、「政治」、「料理」であってもよいが、ユーザーがロボットとの会話を開始する(或いは、後述するように、逆も又真である)際には、「出会い」であってもよく、或いは、ユーザーが去るか又は会話の終了の意思を表す際には、「さよなら」であってもよいであろう。
更には、その都度、適用可能な規則は、ロボットの内部状態RISに依存する場合もあり、この内部状態は、予め適用された規則及び/又は入力によって判定される。内部状態の例は、「幸せ」、「悲しみ」、「疲れ」であるが、「放電した電池」又は「機械的な障害」も含まれる。
例えば、ユーザーが悲しみの表現を有しているとロボットが認識した場合には、その内部状態は、「心配」となる。次いで、ユーザーが、「今日は、身体の調子が良くない」と言った場合には、会話コンテキストは、「健康」という値(健康が会話のトピックとなることを通知する)を取得することになり、これにより、適切な規則の組を判定する。
入力イベントの「生成」は、必ずしも、ユーザーによって実行される動作を必要とはしておらず、例えば、ユーザーがカラフルな衣服を着用しているという事実も、「イベント」となりうることを理解されたい。ユーザーによって発声された単語又は識別されたジェスチャを含んでいないイベント又はイベントの組合せに対する応答を判定するべく、「プロアクティブな規則」と呼称される特定の種類の規則が適用される。換言すれば、ロボットは、会話を開始することにより、部屋の中に存在している人々の数、沈黙しているユーザーの表現、衣服の色などのような刺激に対して反応する。本発明の特定の実施形態においては、いくつかの「雑談」トピックには、プロアクティブである、というラベルが付与されており、これは、前記トピックに関係する規則のすべてがプロアクティブであることを意味している。「雑談」トピックの一例は、「笑顔」であり、これは、ユーザーが発話することなしに微笑んでいる際に適用される規則を含む。「料理」や「政治」などの相対的に具体的なトピックは、通常、プロアクティブではない。
図3は、本発明の特定の実施形態による「プロアクティブ」な会話の実装形態を示している。抽出器バンクEXTは、シーンの異なる要素の色を識別するカラー抽出器COLと、笑顔抽出器SMLと、部屋の内部の人々の数を判定する抽出器モジュールNBPと、テキスト抽出器TXTXと、ジェスチャ抽出器GSTと、を有する。特定の状況においては、カラー抽出器が、赤色シャツを識別し、笑顔抽出器が、ユーザーの満面の笑顔(笑顔=5)を認識し、且つ、NBPモジュールが、部屋の内部において2人の人々をカウントする一方において、モジュールTXTX及びGSTは、ユーザーが、発話もせず、且つ、明確に識別されるジェスチャをも実行していないことを通知している。次いで、会話エンジン、並びに、更に正確には、規則適用モジュールRULは、会話データベースDDBの、「雑談」トピックを収容したサブセットPRO内において、この状況に対して適用可能な「プロアクティブ」な規則をサーチすることになる。
又、図2の方法は、ロボットの応答が、少なくとも単語又は文の発声から構成されているか又はこれを有する際に、その応答を活性化する任意選択のステップiii−a)をも有する。活性化とは、人間の「ボディトーク」をエミュレートするその発話を伴うロボットの運動の且つ/又はその他の非口頭によるイベント(例えば、表現の変化)のシーケンスである。活性化された応答は、発話及び運動を含むマルチモード応答とは弁別不能である場合もあるが、これらは、異なる方法で生成されている。マルチモード応答は、上述のように、規則適用モジュールによって直接的に判定されるのに対して、活性化は、この代わりに、図4、図5a、図5b、及び図5cを参照して後述するように、規則適用モジュールによって生成される出力固有のイベントEVO(即ち、口頭によるイベント、即ち、発声されるべき単語)をその入力として取得することにより、専用のモジュールANEにより、口頭による応答に追加される。
図4に示されているように、活性化モジュール又はエンジンANEは、構文分析モジュールSYNTAと、ロボット上において設置された、又はロボットによってアクセス可能である、メモリ内において保存されている活性化リストASTと、表現力値を演算する2つのモジュール1OX及びFXと、を有する。「表現力値」は、運動が、「わざとらく」なければならない、或いは、「別個」でなければならない、程度を判定するパラメータである。「表現力係数」は、表現力値の変更を定義している。「表現力」という用語は、表現力値と表現力係数の両方を意味している。
構文分析によれば、図5a、図5b、及び図5cを参照して後述するように、活性化対象の1つ又は複数の単語と、単独では活性化されないが、活性化された1つ又は複数の単語の表現力に影響を及ぼす関係する単語と、を判定することができる。更には、構文分析モジュールは、例えば、テキスト内の「感情的な単語」の頻度及び/又はロボットの内部状態RISを考慮することにより、発声対象のテキストの「全体的」な表現力を判定してもよい。活性化対象のそれぞれの単語は、それ自体で表現力を有しており、この表現力は、モジュール1OXにより、関係する単語の表現力、並びに、テキストの全体的な表現力と組み合わせられ、モジュール1OXは、「ワンオフ表現力」と呼称される表現力値を出力する。
又、活性化対象であるそれぞれの単語は、「コンセプト」にも関連付けられている。コンセプト及びワンオフ表現力は、活性化リストALST内において活性化を選択するべく、使用される。この選択は、単語に関連付けられたコンセプトと、モジュール1OXによって演算されたワンオフ表現力と、に依存している。例えば、リストのそれぞれの活性化は、1つ又は複数のコンセプトに関連付けられていてもよく、且つ、特定の表現力値を有していてもよく、このケースにおいては、活性化対象の単語によって表現されたコンセプトに関連付けられていると共にその特定の表現力値がワンオフ表現力に最も近接している活性化が選択される。図4の例においては、選択された活性化は、anim2と呼称され、且つ、exp2の特定の表現力を有している。最後に、モジュールFXは、最終的な表現力expfを演算するべく、選択された活性化の特定の表現力及びワンオフ表現力を組み合わせている(例えば、平均化している)。活性化エンジンの出力は、<活性化,最終的な表現力>というペアである。最終的な表現力値は、例えば、活性化を構成するジェスチャの速度及び/又は振幅を決定する。
図5aは、「He loves chocolate and beer.」という活性化対象の文の構文分析を示しており、構文ツリーは、証拠として、2つの補語をリンクする接続詞「AND」を示しており、これは、列挙を示している。このケースにおいては、この接続詞が、活性化対象の単語である。これは、コンセプト「列挙」と関連付けられており、このコンセプトは、ロボットが、自身の手を閉じ、その親指を伸ばし、且つ、次いで、その人差し指を伸ばす、というジェスチャを有する「2つ」と呼称される列挙と関連付けられている。
図5bは、「I agree with you.」という活性化対象の別の文の構文分析を示している。これは、肯定形の動詞と、主語と、補語と、を有する単純な文である。「with」を除くすべての単語が活性化され、「I」は、活性化「myself」により、活性化され、この場合に、ロボットは、それ自体を指し示し、「agree」は、活性化「yeah」により、活性化され、この場合に、ロボットは、頷き、且つ、youは、ロボットによって活性化される。
これらの2つの例は、非常に単純なものであり、これらのケースにおいては、表現力は、なんの役割をも果たさない。更に複雑な例は、文「I strongly disagree with you.」によって構成され、その構文ツリーは、図5cにおいて示されている。このケースにおいては、動詞は、否定形であり(文法的にではなく、意味的にである)、このようなケースにおいては、動詞自体が、活性化されるが、主語及び補語は活性化されない。更には、非同意を強調する副詞(「強く」)が存在している。
動詞「disagree」は、コンセプト「非同意」と関連付けられており、且つ、0〜10のスケールにおいて、5の表現力を有する。但し、ワンオフ表現力は、副詞「strongly」の存在に起因し、5から8に増大する。又、本発明の一実施形態においては、ロボットの内部状態RISも、ワンオフ表現力値を変更しうるであろう。
ロボットの表現の変化のみを有する3という特定の表現力を有する「oppose1」、それぞれ、6及び9の特定の表現力を有すると共にジェスチャをも含む「oppose2」及び「oppose3」というコンセプト「非同意」と関連付けられた3つの活性化が存在している。その特定の表現力がワンオフ表現力に近接している活性化は、「oppose3」であり、これが、次いで、選択される。但し、その最終的な表現力は、特定の表現力とワンオフ表現力の平均に対応した8.5に低減される。これは、ジェスチャが、わずかに低速になると共に/又は、「oppose3」の「標準」バージョンにおけるよりも乏しいものとなることを意味している。
図2を再度参照すれば、出力イベント及び/又は活性化は、ロボットの異なるアクチュエータを駆動して応答を「実行」するべく、使用されることがわかる。この図の例示用の実施形態においては、アクチュエータは、ラウドスピーカA1と、顔面表現制御アクチュエータの組A2と、四肢制御アクチュエータA3と、である。これは、図2の方法のステップiv)である。
ロボットが、ユーザーのそばに立ち、且つ、ユーザーを直接的に凝視した場合には、人間型ロボットとの間における活性化された且つ/又はマルチモードの会話も、ぎこちなく且つ不自然なものに知覚される場合がある。更には、ロボットがユーザーに過剰に近接している場合には、ロボットは、活性化された又はマルチモードの応答を生成するべく「その手を用いて発話している」間に、ユーザーを殴打する場合がある。又、機能障害のケースにおいては、ロボットがユーザー上に落下するという一般的なリスクも存在している。これを理由として、本発明の好適な実施形態によれば、ロボットは、既定の(且つ、恐らくは、コンテキストに依存した)範囲内において、ユーザーからの距離を維持するべく、サーボ制御されている。有利には、距離は、例えば、その腰などのロボットの一部分とユーザーの下半身(腰まで)の間において計測され、この結果、ユーザーは、ロボットを後退させることなしに、ロボットに向かって傾斜し、且つ、自身の手でロボットに接触することができる。又、有利には、ロボットは、既定の(且つ、恐らくは、コンテキストに依存した)角度範囲内において、ユーザーとの関係における向きを維持するべく、サーボ制御されている。好ましくは、ロボットは、不自然に静止したロボットによって誘発される不安な感覚を回避するべく、前記距離及び角度範囲内に留まりつつ、疑似ランダムな平行運動及び/又は回転運動を実行する。
図6は、ロボットR及びユーザーUを上方から示している。ロボットを中心とした基準フレームにおいて、ユーザーは、又は更に正確には、ユーザーの下半身は、距離範囲[d1,d2]及び角度範囲[−Φ,Φ]によって定義された認可領域AR内において留まる必要がある。ユーザーが運動した場合には、この状態を充足状態において維持するべく、ロボットも運動する。更には、上述のように、ロボットは、ユーザーを認可領域内において維持しつつ、疑似ランダムな平行運動及び/又は回転運動を実行してもよい。
ロボットの「自然」な振る舞いを得るべく、距離及び角度範囲は、会話の際に、進行中のトピックに応じて変化してもよい。
ロボットとの関係におけるユーザーの位置は、画像処理モジュール、レーザーライン生成器、及び/又はソナーセンサと結合されたカメラを使用することにより、判定されてもよく、図1を伴う人間型ロボットの物理的アーキテクチャに関する上述の説明を参照されたい。
図2を再度参照すれば、口頭のもの又は非口頭のものという異なる種類のイベントを認識するべく入力信号を解釈するステップii)は、本発明による方法の非常に重要なステップであることに留意されたい。イベントを認識するステップは、人間型ロボットの、又はこれによってアクセス可能な、メモリ内に保存されている予想イベントの既定のリストの項目に入力信号をマッチングさせるステップを意味している。有利には、前記予想イベントのリストは、会話のコンテキスト又はトピックに応じて、複数の前記リストのうちから選択される。
例えば、発話認識は、センサによって取得されたサウンド信号を辞書の1つの自然言語単語又は一連の単語とマッチングさせるステップを有しており、これは、コンテキスト固有であってもよい。通常、それぞれのマッチング結果は、コンフィデンススコアに対して関連付けられており、スコアが大きいほど、マッチングの正確性の確率も大きくなる。通常、閾値は、「成功」したマッチングと失敗したイベント識別の試みを弁別するべく、使用される。
当技術分野においては、認識対象の特定の種類のイベントに応じて、異なる複雑性を有するいくつかのマッチング方法が知られている。例えば、発話認識の分野においては、以下の方法(或いは、むしろ、方法の集団)が知られている。
− 正確なマッチング:これは、入力が正確に単語又は文を含んでいるかどうかをチェックするべく有限状態機械を使用する最も単純且つ高速の方法である。コンフィデンススコアは、マッチングが確実である(スコア=1)又は識別の試みに失敗した(スコア=0)というブール値である。
− 概略的なマッチング:こちらも、有限状態機械に基づいているが、これは、マッチングチェーン内において、ある程度の誤りを許容している。コンフィデンススコアは、誤りの数が増大するのに伴って減少する。
− 入力と辞書の単語又は文の間における音声学的距離の判定に基づいた音声学的マッチングである(発話認識のみ)。
− 意味論的なマッチングは、最も複雑な方法であり、入力における観察されたボキャブラリとそれぞれの会話エントリにおけるボキャブラリの間における距離の演算に基づいている。この距離は、前記入力及び前記エントリのベクトル表現の間におけるコサイン測度(cosine measure)である。ベクトルは、TF−IDF(Term Frequency−Inverse Document Frequency)重み付けを使用することにより、「bag−of−word」分散型意味表現に準拠して算出される。
単一のマッチング法を使用するのではなく、ロボットは、最も単純な方法から開始し、コンフィデンススコアが予め設定された閾値を超過している場合には、結果を受け入れ、且つ、超過していない場合には、更に複雑な方法を試し、最も複雑なマッチング法(例えば、意味論的なもの)を使用して得られたコンフィデンススコアが、依然として閾値未満である場合には、サーチに失敗している、という階層的な方式を使用してもよい。このケースにおいては、ロボットは、入力を無視するか、或いは、解明を求める(例えば、失敗した発話認識のケースにおいては、「すみません。なんとおっしゃいましたか?」と発話することにより、実行する)。
又、階層構造は、使用する発話認識技術などの要因に対して適合されてもよい。意味論的なマッチングは、ASR(Automatic Speech Recognition)が大規模な言語モデルに基づいている場合には、好ましいものとなる一方において、音声学的なマッチングは、相対的に安定していない組込み型のASRの結果からの誤りの回復を支援することになる。
有利には、ロボットは、異なるパラメータに応じて、且つ、具体的には、会話のコンテキスト又はトピックに応じて、マッチング方法のサブセットを選択してもよい。継続中の会話が、いくつかの異なる入力しか予想されない「閉じた」ものである場合には、正確なマッチングが成功裏に機能する可能性が高く、且つ、従って、試みる価値がある。逆に、多数の可能な入力イベントを許容する非常に広範なコンテキストのケースにおいては、正確なマッチング及び概略的なマッチングを取り止め、且つ、音声学的な方法、或いは、場合によっては、意味論的な方法により、直接的に開始することが好ましいであろう。図7の右側には、演算の複雑性が増大するマッチング方法MM1〜MM4の階層的なチェーンが示されている。それぞれのマッチング方法ごとに、マッチングに成功し、入力イベントEVIが生成されるか、或いは、マッチングに失敗し、次のマッチング方法が試みられる(MM4を除く)という2つの結果が可能である。試みられるべき最初のマッチング方法は、必ずしもMM1である必要はなく、会話のコンテキストCTX、並びに、恐らくは、その他のパラメータに応じて、マッチング方式エンジンMSEによって選択される。
インターネット接続が利用可能である場合には、少なくとも、1つ又は複数の最も複雑なマッチング方法は、リモートサーバーによって実行されてもよい(図2を参照されたい)。
図7は、適切な抽出器によって人間の音声として認識されたサウンドを翻字することによって得られたテキストTXTを入力信号として取得する発話認識のケースを参照しているが、この方式は、相対的に一般的である。これは、「マルチモード」会話のケースに限定されるものではないことを理解されたい。
以下、図8を参照し、音声学的マッチングに基づいた特定の発話認識方法について説明することとする。
センサ(マイクロフォン)c1によって取得されたサウンドは、入力として文字化モジュールTRSCに提供され、このモジュールは、これらをテキストに変換する。次いで、このテキストは、音声学的変換モジュールPHONにより、会話の言語の特殊性(これは、例えば、当技術分野において既知のカメラ及び顔面認識モジュールの支援によって認識されたユーザーの身元情報に応じて、ロボットによって判定されたパラメータである)を考慮することにより、その音声学的均等物に変換される。又、文字化及び音声学的変換は、一緒に実行することも可能であり、これらは、一緒に「音声学的文字化」と呼称されうるものを構成する。
次いで、音声学的文字化は、単純化モジュールSIMPにより、単純化及びスムージングされる。
「単純化ステップ」は、例えば、「d」と「t」又は「k」と「g」などのように、互いに混同される可能性が高い異なる音素を単一の音素によって表すステップを有する。
「スムージングステップ」は、もたらされる情報を保持しつつ、文字化モジュールによって提案されたステートメントセグメンテーション(しばしば、認識誤りの発生源において位置している)を無視するステップを有する。この点において、(文字化モジュールによって識別される)それぞれの単語の開始点に位置している母音と、鼻母音と、を除いて、母音が無視される。INDEX内に含まれている予想単語には、同一の又は類似した処理が(有利には、オフライン状態において)適用される。距離演算モジュールDISTが、入力サウンドの単純化及びスムージングされた音声学的文字化とインデックスの単純化及びスムージングされたエントリの間における編集距離を判定する。次いで、選択モジュールSELが、最小編集距離に対応したエントリを選択する。
例として、ユーザーが「A demain」と(即ち、「See you tomorrow」と)仏語において言った場合には、音声学的文字化は、
Figure 0006505748
となり、これは、次いで、「ATMN」として単純化される(「N」は、鼻母音を表している)。
編集距離は、文字のストリングを別のものに変換するために必要とされる変化の最少数として定義されている。例えば、ADMNとBDLNSの間の編集距離は、3であり、その理由は、以下のように3つの変化が必要とされるからである。
− ADMN→BDMN(「A」が「B」に変更される)
− BDMN→BDLN(「M」が「L」に変更される)
− BDLN→BDLNS(「S」が追加される)
以上、マルチモード会話、活性化された発話、ロボット位置のサーボ制御、及びイベント(並びに、更に詳しくは、発話)認識の特定の方法を組み合わせた特定の実施形態を検討することにより、本発明について説明した。これらは、相乗効果をもたらす状態において最良に機能するが、本発明のこれらの異なる態様は、互いに独立した状態において実装することもできる。

Claims (24)

  1. 人間型ロボット(R)と少なくとも一人のユーザー(U)の間における会話を実行する方法であって、前記人間型ロボットによって反復的に実行される、
    i)個々のセンサ(c1、c2)から複数の入力信号(s1、s2)を取得するステップであって、少なくとも1つの前記センサは、サウンドセンサであり、且つ、少なくとも1つのその他のセンサは、モーション又は画像センサである、ステップと、
    ii)少なくとも単語又は文の発声、音声のイントネーション、ジェスチャ、身体の姿勢、顔面の表現を有する群から選択された、前記ユーザーによって生成された複数のイベント(EVI)を認識するべく前記取得された信号を解釈するステップと、
    iii)少なくとも単語又は文の発声、音声のイントネーション、ジェスチャ、身体の姿勢、顔面の表現を有する群から選択された少なくとも1つのイベント(EVO)を有する前記人間型ロボットの応答を決定するステップであって、前記決定するステップは、規則の組を適用することによって実行され、それぞれの前記規則は、入力イベントの組を前記ロボットの応答に対して関連付けている、ステップと、
    iv)前記人間型ロボットにより、前記イベント又はそれぞれの前記イベントを生成するステップと、
    v)ステップiii)において決定された前記応答が、少なくとも前記単語又は文の発声を有する場合に、発声対象の前記単語又は文の語学的分析を実行し、前記分析に応じて前記発声伴う活性化を決定し、前記活性化の決定が、前記文の構造内における少なくとも1つの単語の機能に応じて、活性化対象である前記少なくとも1つの単語を決定するべく、発声対象である文の構文分析を実行することを含む、ステップと
    を有し、
    前記ステップiii)において適用された前記規則の少なくともいくつかが、応答を前記ユーザーによって一緒に生成されると共に前記ステップii)において認識される少なくとも2つのイベントの組合せに関連付けており、これらのイベントのうちの少なくとも1つは、前記ユーザーによって発声された単語又は文ではない、方法。
  2. 前記ステップiii)において適用される前記規則のうちの少なくともいくつかは、前記人間型ロボットによって一緒に生成される少なくとも2つのイベントを有する応答を決定し、これらのイベントの少なくとも1つは、前記単語又は文の発声ではない請求項1に記載の方法。
  3. 前記ステップiii)において、前記規則は、会話のコンテキスト(CTX)、前記ユーザーの身元情報、前記人間型ロボットの内部状態(RIS)から選択された少なくとも1つのパラメータに依存する請求項1又は2に記載の方法。
  4. 前記ステップii)において認識された又は前記ステップiii)において決定された少なくとも1つのイベントに従って前記パラメータ又は少なくとも1つの前記パラメータの値を変更するステップを更に有する請求項3に記載の方法。
  5. 前記ステップii)は、取得された信号と前記人間型ロボットの、又はこれによってアクセス可能である、メモリ内に保存されている予想イベントのリストに属するイベントの間におけるマッチングをサーチするステップを有し、前記サーチするステップは、既定の値を上回るコンフィデンススコアを有するイベントが認識される時点まで、或いは、最高の複雑性を有する認識方法の使用が完了する時点まで、増大する複雑性を有する複数のマッチング法(MM1〜MM4)を連続的に使用することによって実行される請求項1〜4のいずれか1項に記載の方法。
  6. 前記使用されるマッチング方法は、会話のコンテキストに応じて選択される請求項5に記載の方法。
  7. 前記マッチング方法は、増大する複雑性の順序において、正確なマッチングについてのサーチ、概略的なマッチングについてのサーチ、音声認識のケースのみにおける音声学的対応性についてのサーチ、及び意味論的な対応性についてのサーチを含む請求項5又は6に記載の方法。
  8. 音声学的対応性についてサーチする前記方法は、
    − サウンドセンサによって取得されたサウンドの組の音声学的文字化のステップと、
    − 前記結果的に得られた音声学的文字化を単純化及びスムージングするステップと、
    − 前記単純化及びスムージングされた音声学的文字化と自然言語における予め定義された単語の組を単純化及びスムージングすることによって得られた複数のエントリの間における編集距離を算出するステップと、
    − 前記単純化及びスムージングされた音声学的文字化から最小の編集距離を有する前記エントリに対応した予め定義された組の自然言語単語を選択するステップと、
    を有する請求項7に記載の方法。
  9. 前記単純化及びスムージングするステップは、
    − 混同されやすい音素を単一の音素によって置換するステップと、
    − 単語の開始点に位置した母音及び鼻母音以外の母音を除去するステップと、
    − 単語の間の休止部を除去するステップと、
    を有する請求項8に記載の方法。
  10. 前記予想イベントのリストは、会話のコンテキストに応じて、複数の前記リストのうちから選択される請求項5〜9のいずれか1項に記載の方法。
  11. 前記ステップiii)は、プロアクティブな規則と呼称される予め定義されたサブセット(PRO)に属する規則を適用することにより、前記ユーザーによって発声された単語又は識別されたジェスチャの欠如を含むイベントの組に対する応答を決定するステップを有する請求項1〜10のいずれか1項に記載の方法。
  12. 前記ステップv)は、
    α)活性化対象である前記応答の少なくとも1つの単語を識別するサブステップと、
    β)コンセプトと、活性化対象である前記単語又はそれぞれの前記単語と関連付けられたワンオフ表現力と呼称される表現力と、を決定するサブステップと、
    γ)前記人間型ロボットの、又はこれによってアクセス可能である、メモリ内に保存されている活性化のリスト(ALST)から、前記コンセプト及び前記ワンオフ表現力に基づいて、活性化を選択するサブステップと、
    を有する請求項1に記載の方法。
  13. 前記サブステップβにおいて、前記ワンオフ表現力は、前記単語の表現力、前記単語に関係付けられた1つ又な複数のその他の単語の表現力、及び前記全体的な応答の全体的な表現力から選択された少なくとも1つのパラメータに基づいて決定される請求項12に記載の方法。
  14. 前記リストのそれぞれの活性化は、1つ又は複数のコンセプトと関連付けられ、且つ、特定の表現力を有しており、前記サブステップγは、前記リストのうちにおいて、前記サブステップβにおいて決定された前記コンセプトと関連付けられると共に前記ワンオフ表現力に最も近接した特定の表現力を有する活性化を選択するステップを含む請求項12又は13に記載の方法。
  15. δ)前記特定の表現力及び前記ワンオフ表現力に基づいて、最終的な表現力と呼称される表現力を決定するサブステップを更に有する請求項14に記載の方法。
  16. 前記ワンオフ表現力又は前記最終的な表現力は、前記活性化の少なくとも1つのジェスチャの速度及び振幅のうちから選択された少なくとも1つのパラメータを決定する請求項12〜15のいずれか1項に記載の方法。
  17. 前記ステップi)〜iv)と同時に前記ロボットによって反復的に実装される、
    A)前記ロボット(R)に設定された基準フレームとの関係において前記ユーザー(U)の身体の少なくとも一部分の位置を決定するステップと、
    B)予め定義された値の範囲において前記ロボット又はその1つの要素と前記ユーザーの前記少なくとも1つの又は前記身体部分の間の距離を維持するべく、前記ロボットの少なくとも1つのアクチュエータを駆動するステップと、
    を更に有する請求項1〜16のいずれか1項に記載の方法。
  18. 前記ステップB)は、既定の角度範囲内において前記ユーザーとの関係における前記ロボットの向きを維持するべく、前記ロボットの少なくとも1つのアクチュエータを駆動するステップを更に有する請求項17に記載の方法。
  19. C)前記既定の値の範囲内において前記距離を維持すると共に、適宜、前記既定の角度範囲内において前記向きを維持しつつ、前記ロボットの前記疑似ランダムな変位を生成するように前記アクチュエータ又は少なくとも1つの前記アクチュエータを駆動するステップを更に有する請求項17又は18に記載の方法。
  20. D)前記ユーザーと前記人間型ロボットの間における継続中の会話の意味論的分析を実行し、且つ、前記分析に従って、前記既定の距離値の範囲を変更すると共に、適宜、前記既定の角度範囲を変更するステップを更に有する請求項17〜19のいずれか1項に記載の方法。
  21. 前記ステップA)は、前記ロボットに設定された前記基準フレームとの関係において前記ユーザーの下半身の位置を決定するステップを有する請求項17〜20のいずれか1項に記載の方法。
  22. プログラムコード命令を有するコンピュータプログラムであって、前記プログラムコード命令は、前記プログラムが、人間型ロボット(R)上において組み込まれた少なくとも1つのプロセッサによって実行された際に、請求項1〜21のいずれか1項に記載の方法を実行し、前記ロボットは、個々の入力信号を取得するべく、前記プロセッサ又は少なくとも1つのプロセッサに対して動作可能に接続されると共に少なくとも1つのサウンドセンサ及び少なくとも1つの画像又は運動センサを有する複数のセンサ(c1、c2)と、単語又は文を発声するべく、前記プロセッサ又は少なくとも1つの前記プロセッサによって制御される発話合成モジュールと、前記ロボットが複数の運動又はジェスチャを実行できるようにする前記プロセッサ又は少なくとも1つの前記プロセッサによって駆動されるアクチュエータの組(A1、A2、A3)と、を有する、コンピュータプログラム。
  23. 人間型ロボット(R)であって、
    − 少なくとも1つの組込み型のプロセッサと、
    − 個々の入力信号を取得するべく、前記プロセッサ又は少なくとも1つの前記プロセッサに対して動作可能に接続されると共に少なくとも1つのサウンドセンサ及び少なくとも1つの画像又は運動センサを有するセンサ組立体(c1、c2)と、
    − 単語又は文を発声するべく、前記プロセッサ又は少なくとも1つの前記プロセッサによって駆動される発話合成モジュールと、
    − 前記ロボットが複数の運動又はジェスチャを実行できるようにする前記プロセッサ又は少なくとも1つの前記プロセッサによって駆動されるアクチュエータの組(A1、A2、A3)と、
    を有し、
    前記人間型ロボットは、前記プロセッサ又は少なくとも1つの前記プロセッサが、請求項1〜21のいずれか1項に記載の方法を実行するようにプログラム又は構成されていることを特徴としている、人間型ロボット。
  24. 少なくとも1つのリモートサーバーに接続するための装置を更に有し、前記プロセッサ又は少なくとも1つの前記プロセッサは、請求項1〜21のいずれか1項に記載の方法を実行するべく、前記リモートサーバー又は少なくとも1つの前記リモートサーバーと協働するようにプログラム又は構成されている請求項23に記載の人間型ロボット。
JP2016562886A 2014-04-17 2015-04-17 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット Expired - Fee Related JP6505748B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14305583.8A EP2933067B1 (en) 2014-04-17 2014-04-17 Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
EP14305583.8 2014-04-17
PCT/EP2015/058373 WO2015158887A2 (en) 2014-04-17 2015-04-17 Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019057767A Division JP2019164352A (ja) 2014-04-17 2019-03-26 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット

Publications (2)

Publication Number Publication Date
JP2017520782A JP2017520782A (ja) 2017-07-27
JP6505748B2 true JP6505748B2 (ja) 2019-04-24

Family

ID=50628742

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016562886A Expired - Fee Related JP6505748B2 (ja) 2014-04-17 2015-04-17 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
JP2019057767A Pending JP2019164352A (ja) 2014-04-17 2019-03-26 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019057767A Pending JP2019164352A (ja) 2014-04-17 2019-03-26 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット

Country Status (14)

Country Link
US (2) US10242666B2 (ja)
EP (1) EP2933067B1 (ja)
JP (2) JP6505748B2 (ja)
KR (1) KR101991163B1 (ja)
CN (2) CN106457563B (ja)
AU (2) AU2015248713B2 (ja)
BR (1) BR112016023928A2 (ja)
CA (1) CA2946056A1 (ja)
HK (1) HK1216405A1 (ja)
MX (1) MX2016013019A (ja)
NZ (1) NZ725307A (ja)
RU (1) RU2016144006A (ja)
SG (2) SG11201608205UA (ja)
WO (1) WO2015158887A2 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US9607609B2 (en) * 2014-09-25 2017-03-28 Intel Corporation Method and apparatus to synthesize voice based on facial structures
JP1573749S (ja) * 2016-01-29 2017-04-10
JP2017151517A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 ロボット制御システム
JP2019523714A (ja) * 2016-04-26 2019-08-29 タキオン ロボティクス コーポレーション 多重相互作用人格ロボット
US10239205B2 (en) * 2016-06-29 2019-03-26 International Business Machines Corporation System, method, and recording medium for corpus curation for action manifestation for cognitive robots
JP6933455B2 (ja) * 2016-09-29 2021-09-08 株式会社東芝 関心維持システム及びサーバ
US10775880B2 (en) * 2016-11-30 2020-09-15 Universal City Studios Llc Animated character head systems and methods
EP3551393A4 (en) * 2016-12-12 2020-08-12 Microsoft Technology Licensing, LLC ROBOT GESTURE GENERATION
CN106737745A (zh) * 2017-01-05 2017-05-31 珠海市横琴麒翔科技有限公司 智能机器人
JP2018126810A (ja) * 2017-02-06 2018-08-16 川崎重工業株式会社 ロボットシステム及びロボット対話方法
KR20180115599A (ko) * 2017-04-13 2018-10-23 인하대학교 산학협력단 발화 개선을 위한 두경부 물리 특성 기반의 가이드 및 피드백 시스템
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
CN107309880A (zh) * 2017-07-06 2017-11-03 优必选教育(深圳)有限公司 一种人形机器人装置、控制系统及其控制方法
WO2019050034A1 (ja) 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット
CN109531564A (zh) * 2017-09-21 2019-03-29 富泰华工业(深圳)有限公司 机器人服务内容编辑系统及方法
EP3686758A4 (en) * 2017-10-09 2020-12-16 Huawei Technologies Co., Ltd. VOCAL AND TERMINAL INFORMATION PROCESS AND DEVICE
CN111194464A (zh) * 2017-10-11 2020-05-22 索尼公司 语音输入装置和方法以及程序
EP3486900A1 (en) * 2017-11-16 2019-05-22 Softbank Robotics Europe System and method for dialog session management
US10777198B2 (en) * 2017-11-24 2020-09-15 Electronics And Telecommunications Research Institute Apparatus for determining speech properties and motion properties of interactive robot and method thereof
US10783329B2 (en) * 2017-12-07 2020-09-22 Shanghai Xiaoi Robot Technology Co., Ltd. Method, device and computer readable storage medium for presenting emotion
US10593318B2 (en) * 2017-12-26 2020-03-17 International Business Machines Corporation Initiating synthesized speech outpout from a voice-controlled device
US10821602B2 (en) * 2017-12-28 2020-11-03 Aeolus Robotics Corporation Limited Carrier for robot and robot having the same
EP3732676A4 (en) 2017-12-29 2021-09-22 DMAI, Inc. SYSTEM AND METHOD FOR INTELLIGENT INITIATION OF A HUMAN-MACHINE DIALOGUE BASED ON MULTIMODAL SENSORY INPUTS
US11024294B2 (en) 2017-12-29 2021-06-01 DMAI, Inc. System and method for dialogue management
CN111801730A (zh) * 2017-12-29 2020-10-20 得麦股份有限公司 用于人工智能驱动的自动伴侣的系统和方法
WO2019133689A1 (en) 2017-12-29 2019-07-04 DMAI, Inc. System and method for selective animatronic peripheral response for human machine dialogue
WO2019160612A1 (en) * 2018-02-15 2019-08-22 DMAI, Inc. System and method for dynamic robot profile configurations based on user interactions
WO2019160613A1 (en) 2018-02-15 2019-08-22 DMAI, Inc. System and method for dynamic program configuration
JP6886663B2 (ja) * 2018-02-19 2021-06-16 日本電信電話株式会社 動作指示生成システム、方法およびプログラム
CN110415688B (zh) * 2018-04-26 2022-02-08 杭州萤石软件有限公司 一种信息交互方法及机器人
FR3080926B1 (fr) * 2018-05-04 2020-04-24 Spoon Procede de commande d'une pluralite d'effecteurs d'un robot
DE102018207513A1 (de) * 2018-05-15 2019-11-21 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines Roboters über einen Sprachdialog
JP7201984B2 (ja) * 2018-07-09 2023-01-11 株式会社国際電気通信基礎技術研究所 アンドロイドのジェスチャ生成装置及びコンピュータプログラム
US11037557B2 (en) * 2018-08-24 2021-06-15 International Business Machines Corporation Cognitive contextual conversation side topics
KR102228866B1 (ko) 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
JP2020082246A (ja) * 2018-11-20 2020-06-04 大日本印刷株式会社 姿勢データ生成装置、学習器、コンピュータプログラム、学習データ、姿勢データ生成方法及び学習モデルの生成方法
CN109664307A (zh) * 2018-12-16 2019-04-23 哈尔滨理工大学 一种基于深度学习的对话机器人
CN110070870B (zh) * 2019-05-06 2022-02-08 阿波罗智联(北京)科技有限公司 车载系统的信号处理方法和系统
US11247738B2 (en) * 2019-05-24 2022-02-15 Disney Enterprises, Inc. Legged high-dexterity self-balancing capable robot actor
CN110473534A (zh) * 2019-07-12 2019-11-19 南京邮电大学 一种基于深度神经网络的老年人看护对话系统
CN110524559B (zh) * 2019-08-30 2022-06-10 成都未至科技有限公司 基于人员行为数据的智能人机交互系统及方法
JP7191793B2 (ja) * 2019-08-30 2022-12-19 株式会社東芝 信号処理装置、信号処理方法、及びプログラム
JP7330827B2 (ja) 2019-09-10 2023-08-22 株式会社日立製作所 データ処理装置、データ処理方法、およびデータ処理プログラム
US20210089908A1 (en) * 2019-09-25 2021-03-25 Deepmind Technologies Limited Modulating agent behavior to optimize learning progress
WO2020190362A2 (en) * 2020-01-17 2020-09-24 Futurewei Technologies, Inc. A social interaction robot
EP4111354A4 (en) * 2020-02-29 2024-04-03 Embodied Inc SYSTEMS AND METHODS FOR MANAGING SHORT AND LONG TERM DIALOGUE BETWEEN A ROBOTIC COMPUTER DEVICE/DIGITAL COMPANION AND A USER
CN113687712A (zh) * 2020-05-18 2021-11-23 阿里巴巴集团控股有限公司 控制方法及设备、电子设备
US11423206B2 (en) * 2020-11-05 2022-08-23 Adobe Inc. Text style and emphasis suggestions
CN114571473A (zh) * 2020-12-01 2022-06-03 北京小米移动软件有限公司 足式机器人的控制方法、装置及足式机器人
JP2022146399A (ja) * 2021-03-22 2022-10-05 株式会社サイバーエージェント 制御システム、制御装置、制御方法及びコンピュータプログラム
IT202100014480A1 (it) * 2021-06-03 2022-12-03 Ivano Corradetti Sistema informativo, robotizzato, interagibile empaticamente con un interlocutore umano
CN113312086B (zh) * 2021-06-10 2022-08-12 重庆小易智联智能技术有限公司 基于指令集的软件机器人系统及机器人运行方法
CN114443202A (zh) * 2022-02-08 2022-05-06 北京课游工场数字科技有限公司 一种交互式答题操作及答题表现方法及系统
US20230298568A1 (en) * 2022-03-15 2023-09-21 Drift.com, Inc. Authoring content for a conversational bot

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4398720A (en) * 1981-01-05 1983-08-16 California R & D Center Robot computer chess game
JPS61156405A (ja) * 1984-12-28 1986-07-16 Nintendo Co Ltd 光感応制御装置
US6580369B1 (en) * 1995-10-11 2003-06-17 Motorola, Inc. Electronic tag assembly and method therefor
WO2000040377A1 (fr) * 1999-01-07 2000-07-13 Sony Corporation Appareil de type machine, procede d'actionnement de celui-ci et support enregistre
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
JP3615702B2 (ja) * 1999-11-25 2005-02-02 ソニー株式会社 脚式移動ロボットの動作制御装置及び動作制御方法、並びに、脚式移動ロボット
US7117190B2 (en) * 1999-11-30 2006-10-03 Sony Corporation Robot apparatus, control method thereof, and method for judging character of robot apparatus
JP2001157976A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2001154685A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声認識装置および音声認識方法、並びに記録媒体
CN1364275A (zh) * 2000-02-10 2002-08-14 索尼公司 自动装置、信息提供装置、机器人装置和交易方法
JP2001322079A (ja) * 2000-05-15 2001-11-20 Sony Corp 脚式移動ロボット及びその動作教示方法
JP2001357053A (ja) * 2000-06-12 2001-12-26 Matsushita Electric Ind Co Ltd 対話装置
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2005500912A (ja) * 2001-02-27 2005-01-13 アンソロトロニックス インコーポレイテッド ロボット装置および無線通信システム
EP1375084A4 (en) * 2001-03-09 2009-10-21 Japan Science & Tech Agency AUDIOVISUAL ROBOT SYSTEM
EP1262844A1 (en) * 2001-06-01 2002-12-04 Sony International (Europe) GmbH Method for controlling a man-machine-interface unit
US6560512B1 (en) * 2002-01-04 2003-05-06 Machine Consciousness, Inc. Relational robotic controller
JP3790816B2 (ja) * 2002-02-12 2006-06-28 国立大学法人 東京大学 人型リンク系の運動生成方法
JP2003255991A (ja) * 2002-03-06 2003-09-10 Sony Corp 対話制御システム、対話制御方法及びロボット装置
US7640164B2 (en) * 2002-07-04 2009-12-29 Denso Corporation System for performing interactive dialog
US6925357B2 (en) * 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
EP1604350A4 (en) * 2002-09-06 2007-11-21 Voice Signal Technologies Inc METHODS, SYSTEMS AND PROGRAMMING FOR REALIZING VOICE RECOGNITION
US20090030552A1 (en) * 2002-12-17 2009-01-29 Japan Science And Technology Agency Robotics visual and auditory system
JP2004283958A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP2004302785A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置
US20050038647A1 (en) * 2003-08-11 2005-02-17 Aurilab, Llc Program product, method and system for detecting reduced speech
JP2005193331A (ja) * 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
JP3924583B2 (ja) * 2004-02-03 2007-06-06 松下電器産業株式会社 ユーザ適応型装置およびその制御方法
JP4661074B2 (ja) * 2004-04-07 2011-03-30 ソニー株式会社 情報処理システム、情報処理方法、並びにロボット装置
US20060122837A1 (en) * 2004-12-08 2006-06-08 Electronics And Telecommunications Research Institute Voice interface system and speech recognition method
US20060136210A1 (en) * 2004-12-16 2006-06-22 Sony Corporation System and method for tying variance vectors for speech recognition
JP4204541B2 (ja) * 2004-12-24 2009-01-07 株式会社東芝 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP2006187825A (ja) * 2005-01-05 2006-07-20 Yaskawa Electric Corp ロボット装置およびその制御方法
US20060257830A1 (en) * 2005-05-13 2006-11-16 Chyi-Yeu Lin Spelling robot
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
US8484146B2 (en) * 2006-01-18 2013-07-09 Sony Corporation Interaction device implementing a bayesian's estimation
JP4186992B2 (ja) * 2006-01-31 2008-11-26 株式会社豊田中央研究所 応答生成装置、方法及びプログラム
ES2359430T3 (es) * 2006-04-27 2011-05-23 Mobiter Dicta Oy Procedimiento, sistema y dispositivo para la conversión de la voz.
US9135913B2 (en) * 2006-05-26 2015-09-15 Nec Corporation Voice input system, interactive-type robot, voice input method, and voice input program
JP4085130B2 (ja) * 2006-06-23 2008-05-14 松下電器産業株式会社 感情認識装置
JP2008168375A (ja) * 2007-01-10 2008-07-24 Sky Kk ボディランゲージロボット、ボディランゲージロボットの制御方法及び制御プログラム
US20080256008A1 (en) * 2007-03-31 2008-10-16 Mitchell Kwok Human Artificial Intelligence Machine
US20080281766A1 (en) * 2007-03-31 2008-11-13 Mitchell Kwok Time Machine Software
US7966093B2 (en) * 2007-04-17 2011-06-21 Yefim Zhuk Adaptive mobile robot system with knowledge-driven architecture
US9811935B2 (en) * 2007-04-26 2017-11-07 Ford Global Technologies, Llc Emotive advisory system and method
JP5386692B2 (ja) * 2007-08-31 2014-01-15 独立行政法人情報通信研究機構 対話型学習装置
US9165199B2 (en) * 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US7809664B2 (en) * 2007-12-21 2010-10-05 Yahoo! Inc. Automated learning from a question and answering network of humans
JP5075664B2 (ja) * 2008-02-15 2012-11-21 株式会社東芝 音声対話装置及び支援方法
KR20100086262A (ko) * 2009-01-22 2010-07-30 삼성전자주식회사 로봇 및 그 제어방법
JP5663201B2 (ja) * 2009-06-04 2015-02-04 本田技研工業株式会社 音源方向推定装置及び音源方向推定方法
US8930179B2 (en) * 2009-06-04 2015-01-06 Microsoft Corporation Recognition using re-recognition and statistical classification
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
US8676581B2 (en) * 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
JP2011186351A (ja) * 2010-03-11 2011-09-22 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
US8706298B2 (en) * 2010-03-17 2014-04-22 Raytheon Company Temporal tracking robot control system
FR2962048A1 (fr) * 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US8594845B1 (en) * 2011-05-06 2013-11-26 Google Inc. Methods and systems for robotic proactive informational retrieval from ambient context
JP5982840B2 (ja) * 2012-01-31 2016-08-31 富士通株式会社 対話装置、対話プログラムおよび対話方法
US8918208B1 (en) * 2012-02-07 2014-12-23 Ryan Hickman Projection of interactive map data
FR2989209B1 (fr) 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
US9053708B2 (en) * 2012-07-18 2015-06-09 International Business Machines Corporation System, method and program product for providing automatic speech recognition (ASR) in a shared resource environment
US9302393B1 (en) * 2014-04-15 2016-04-05 Alan Rosen Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes

Also Published As

Publication number Publication date
KR101991163B1 (ko) 2019-06-19
EP2933067A1 (en) 2015-10-21
US20190172448A1 (en) 2019-06-06
AU2018204246A1 (en) 2018-07-05
SG11201608205UA (en) 2016-10-28
NZ725307A (en) 2018-03-23
WO2015158887A3 (en) 2016-01-21
MX2016013019A (es) 2017-05-30
AU2015248713A1 (en) 2016-11-03
KR20170003580A (ko) 2017-01-09
BR112016023928A2 (pt) 2017-08-15
WO2015158887A2 (en) 2015-10-22
JP2017520782A (ja) 2017-07-27
CA2946056A1 (en) 2015-10-22
CN110774285A (zh) 2020-02-11
US20170148434A1 (en) 2017-05-25
AU2015248713B2 (en) 2018-03-29
RU2016144006A (ru) 2018-05-18
CN106457563A (zh) 2017-02-22
AU2018204246B2 (en) 2020-05-14
JP2019164352A (ja) 2019-09-26
EP2933067B1 (en) 2019-09-18
RU2016144006A3 (ja) 2018-05-18
SG10201806415YA (en) 2018-08-30
US10242666B2 (en) 2019-03-26
HK1216405A1 (zh) 2016-11-11
CN106457563B (zh) 2019-12-03

Similar Documents

Publication Publication Date Title
JP6505748B2 (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
KR102252195B1 (ko) 감성 인식기 및 이를 포함하는 로봇, 서버
Glas et al. Erica: The erato intelligent conversational android
US20200279553A1 (en) Linguistic style matching agent
US6509707B2 (en) Information processing device, information processing method and storage medium
JP2004090109A (ja) ロボット装置およびロボット装置の対話方法
US20230386461A1 (en) Voice user interface using non-linguistic input
JP2006123136A (ja) コミュニケーションロボット
JP7416295B2 (ja) ロボット、対話システム、情報処理方法及びプログラム
Korayem et al. Design and implementation of the voice command recognition and the sound source localization system for human–robot interaction
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
Ktistakis et al. A multimodal human-machine interaction scheme for an intelligent robotic nurse
JP2005059185A (ja) ロボット装置及びその制御方法
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
Chen et al. A novel approach of system design for dialect speech interaction with NAO robot
Lin et al. Acoustical implicit communication in human-robot interaction
Lin et al. Nonverbal acoustic communication in human-computer interaction
Iwahashi et al. Robots that learn to converse: Developmental approach to situated language processing
JP2001188896A (ja) 情報処理装置および方法、並びに記録媒体
CN117765952A (zh) 人机交互的方法、装置和设备
Prado A new probabilistic methodology to support an emotive dialog between a human and a robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180814

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190327

R150 Certificate of patent or registration of utility model

Ref document number: 6505748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees