JP2018126810A - ロボットシステム及びロボット対話方法 - Google Patents
ロボットシステム及びロボット対話方法 Download PDFInfo
- Publication number
- JP2018126810A JP2018126810A JP2017019832A JP2017019832A JP2018126810A JP 2018126810 A JP2018126810 A JP 2018126810A JP 2017019832 A JP2017019832 A JP 2017019832A JP 2017019832 A JP2017019832 A JP 2017019832A JP 2018126810 A JP2018126810 A JP 2018126810A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- work
- utterance
- progress
- language operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 230000008569 process Effects 0.000 claims abstract description 74
- 230000002452 interceptive effect Effects 0.000 claims abstract description 45
- 239000000463 material Substances 0.000 claims abstract description 38
- 230000003993 interaction Effects 0.000 claims abstract description 23
- 238000004891 communication Methods 0.000 claims abstract description 17
- 239000012636 effector Substances 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 22
- 238000012790 confirmation Methods 0.000 claims description 12
- 230000001960 triggered effect Effects 0.000 claims description 3
- 230000009471 action Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 230000001681 protective effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 230000006399 behavior Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0084—Programme-controlled manipulators comprising a plurality of manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Automation & Control Theory (AREA)
Abstract
【課題】作業ロボットの作業中に、ヒトに対話ロボット及び作業ロボットとの対話に参加している感覚を維持させる。
【解決手段】ロボットシステムは、作業ロボットと、対話ロボットと、対話ロボットと作業ロボットとの間で情報の送受信を行う通信手段とを備える。作業ロボットは、作業中に、現在進行中の作業工程を識別する作業工程識別情報と、作業工程の進捗具合とを含む進捗状況情報を対話ロボットへ送信する進捗状況報告部を有し、対話ロボットは、作業工程識別情報とその作業工程と対応する発話材料データとを関連付けて記憶した発話材料データベースと、受け取った進捗状況情報と対応する発話材料データを発話材料データベースから読み出し、読み出した発話材料データと進捗具合とに基づいてロボット発話データを生成し、生成したロボット発話データを言語動作部へ出力する言語動作制御部とを有する。
【選択図】図5
【解決手段】ロボットシステムは、作業ロボットと、対話ロボットと、対話ロボットと作業ロボットとの間で情報の送受信を行う通信手段とを備える。作業ロボットは、作業中に、現在進行中の作業工程を識別する作業工程識別情報と、作業工程の進捗具合とを含む進捗状況情報を対話ロボットへ送信する進捗状況報告部を有し、対話ロボットは、作業工程識別情報とその作業工程と対応する発話材料データとを関連付けて記憶した発話材料データベースと、受け取った進捗状況情報と対応する発話材料データを発話材料データベースから読み出し、読み出した発話材料データと進捗具合とに基づいてロボット発話データを生成し、生成したロボット発話データを言語動作部へ出力する言語動作制御部とを有する。
【選択図】図5
Description
本発明は、ロボット同士のコミュニケーション機能を備えたロボットシステム及びロボット対話方法に関する。
従来から、ヒトと対話をする対話ロボットが知られている。特許文献1,2では、この種の対話ロボットが開示されている。
特許文献1では、複数の対話ロボットを備えた対話システムが開示されている。各対話ロボットの発話動作(言語動作)及び振る舞い(非言語動作)は、予め決められたスクリプトに従って制御される。そして、複数のロボットがスクリプトに沿って対話しながら、時折、参加者であるヒトに対話して問いかける(質問や同意の要求をする)ことで、複数のロボットとの対話に参加している人に、人対話しているときに抱くのと同等の対話感覚を与えるようにしている。
また、特許文献2では、対話ロボットと生活支援ロボットシステムとを備えた対話システムが開示されている。生活支援ロボットシステムは、ヒトの生活を支援するためのサービスを実行するアプライアンス(通信機能を備えた家電機器)を自律的に制御する。対話ロボットは、ユーザの生活環境や行動の情報を取得してユーザの状況を解析し、状況に基づいてユーザに提供するサービスを決定し、サービスを認知させ提供するための音声による問いかけを行い、ユーザの回答に基づいてユーザのロボットとの対話への引込みが成功したと判断した場合に、サービスの実効要求を生活ロボット支援システム又はアプライアンスに送信する。
本願の発明者らは、上記のような対話ロボットを、作業ロボットと顧客とを繋ぐインターフェースとして機能させるロボットシステムを検討している。このロボットシステムでは、対話ロボットが顧客から作業の依頼を受け付け、受け付けた依頼を作業ロボットが実行する。
しかしながら、上記ロボットシステムでは、依頼の受付に際して対話ロボットが顧客との間で築いた対話感(即ち、顧客が対話ロボットとの対話に参加している感覚)が、作業ロボットが作業をしている間に損なわれて、顧客が退屈することも想定される。
本発明は以上の事情に鑑みてされたものであり、作業ロボットがヒトに依頼された作業を行っている最中にも、ヒトに対話ロボット及び作業ロボットとの対話に参加している感覚を生じさせ、それを維持させることができるロボットシステム及びロボット対話方法を提案する。
本発明の一態様に係るロボットシステムは、
ロボットアームと当該ロボットアームの手先部に装着されたエンドエフェクタとを有し、前記エンドエフェクタを用いてヒトの依頼に基づく作業を行う作業ロボットと、
言語動作部と非言語動作部とを有し、前記作業ロボット及び前記ヒトに向けて言語動作及び非言語動作を行う対話ロボットと、
前記対話ロボットと前記作業ロボットとの間で情報の送受信を行う通信手段とを備え、
前記作業ロボットは、前記作業中に、現在進行中の作業工程を識別する作業工程識別情報と、前記作業工程の進捗具合とを含む進捗状況情報を前記対話ロボットへ送信する進捗状況報告部を有し、
前記対話ロボットは、前記作業工程識別情報とその作業工程と対応する発話材料データとを関連付けて記憶した発話材料データベースと、受け取った前記進捗状況情報と対応する前記発話材料データを前記発話材料データベースから読み出し、読み出した前記発話材料データと前記進捗具合とに基づいてロボット発話データを生成し、生成した前記ロボット発話データを前記言語動作部へ出力する言語動作制御部とを有することを特徴とする。
ロボットアームと当該ロボットアームの手先部に装着されたエンドエフェクタとを有し、前記エンドエフェクタを用いてヒトの依頼に基づく作業を行う作業ロボットと、
言語動作部と非言語動作部とを有し、前記作業ロボット及び前記ヒトに向けて言語動作及び非言語動作を行う対話ロボットと、
前記対話ロボットと前記作業ロボットとの間で情報の送受信を行う通信手段とを備え、
前記作業ロボットは、前記作業中に、現在進行中の作業工程を識別する作業工程識別情報と、前記作業工程の進捗具合とを含む進捗状況情報を前記対話ロボットへ送信する進捗状況報告部を有し、
前記対話ロボットは、前記作業工程識別情報とその作業工程と対応する発話材料データとを関連付けて記憶した発話材料データベースと、受け取った前記進捗状況情報と対応する前記発話材料データを前記発話材料データベースから読み出し、読み出した前記発話材料データと前記進捗具合とに基づいてロボット発話データを生成し、生成した前記ロボット発話データを前記言語動作部へ出力する言語動作制御部とを有することを特徴とする。
また、本発明の一態様に係るロボット対話方法は、
ロボットアームと当該ロボットアームの手先部に装着されたエンドエフェクタとを有し、前記エンドエフェクタを用いてヒトの依頼に基づく作業を行う作業ロボットと、言語動作部と非言語動作部とを有し、前記作業ロボット及び前記ヒトに向けて言語動作及び非言語動作を行う対話ロボットとで行われるロボット対話方法であって、
前記作業ロボットが、前記作業中に、現在進行中の作業工程を識別する作業工程識別情報と、前記作業工程の進捗具合とを含む進捗状況情報を前記対話ロボットへ送信し、
前記対話ロボットが、受け取った前記進捗状況情報と対応する発話材料データを前記作業工程識別情報とその作業工程と対応する前記発話材料データとを関連付けて記憶した発話材料データベースから読み出し、読み出した前記発話材料データと前記進捗具合とに基づいてロボット発話データを生成し、生成した前記ロボット発話データを前記言語動作部で出力することを特徴としている。
ロボットアームと当該ロボットアームの手先部に装着されたエンドエフェクタとを有し、前記エンドエフェクタを用いてヒトの依頼に基づく作業を行う作業ロボットと、言語動作部と非言語動作部とを有し、前記作業ロボット及び前記ヒトに向けて言語動作及び非言語動作を行う対話ロボットとで行われるロボット対話方法であって、
前記作業ロボットが、前記作業中に、現在進行中の作業工程を識別する作業工程識別情報と、前記作業工程の進捗具合とを含む進捗状況情報を前記対話ロボットへ送信し、
前記対話ロボットが、受け取った前記進捗状況情報と対応する発話材料データを前記作業工程識別情報とその作業工程と対応する前記発話材料データとを関連付けて記憶した発話材料データベースから読み出し、読み出した前記発話材料データと前記進捗具合とに基づいてロボット発話データを生成し、生成した前記ロボット発話データを前記言語動作部で出力することを特徴としている。
上記構成のロボットシステムでは、作業ロボットがヒトに依頼された作業を行っている最中に、対話ロボットが現在進行中の作業工程と対応する発話内容でヒトや作業ロボットに向けて言語動作を行う。つまり、作業ロボットが作業をしている間にも、対話ロボットの発話(言語動作)が途切れず、また、その発話が作業ロボットの作業の内容や状況と対応している。これにより、作業ロボットの作業中に、ヒトは対話ロボット及び作業ロボットとの対話に参加している感覚が生じ、その感覚を維持することができる。
本発明によれば、作業ロボットがヒトに依頼された作業を行っている最中にも、ヒトに対話ロボット及び作業ロボットとの対話に参加している感覚を生じさせ、それを維持させることができるロボットシステムを実現することができる。
次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態に係るロボットシステム1の概略図である。図1に示すロボットシステム1は、ヒト10と対話する対話ロボット2と、所定の作業を行う作業ロボット4とを備えている。対話ロボット2と作業ロボット4は、互いに情報の送受信を行うことができるように、有線又は無線の通信手段5によって接続されている。
〔対話ロボット2〕
本実施形態に係る対話ロボット2は、ヒト10と対話するためのヒト型ロボットである。但し、対話ロボット2はヒト型ロボットに限定されず、擬人化された動物型ロボットなどであってもよく、その外観は問わない。
本実施形態に係る対話ロボット2は、ヒト10と対話するためのヒト型ロボットである。但し、対話ロボット2はヒト型ロボットに限定されず、擬人化された動物型ロボットなどであってもよく、その外観は問わない。
対話ロボット2は、胴部21と、胴部21の上部に設けられた頭部22と、胴部21の側部に設けられた左右の腕部23L,23Rと、胴部21の下部に設けられた走行装置24とを備えている。対話ロボット2の頭部22、腕部23L,23R、及び走行装置24は、対話ロボット2の「非言語動作部」として機能する。なお、対話ロボット2の非言語動作部は上記に限定されず、例えば、目、鼻、瞼などによって表情を形成できる対話ロボットにおいては、それらの表情形成要素も非言語動作部に該当する。
頭部22は、胴部21に対し首関節を介して回転及び曲げが可能に接続されている。腕部23L,23Rは、胴部21に対し肩関節を介して回転可能に接続されている。各腕部23L,23Rは上腕、下腕及び手を有し、上腕と下腕は肘貫設を介して接続され、下腕と手は手首関節を介して接続されている。対話ロボット2は、頭部22を動作させるための頭駆動部32、腕部23L,23Rを動作させるための腕駆動部33、走行装置24を動作させるための走行駆動部34を備えている(図2、参照)。各駆動部32,33,34は、例えば電動モータなどの少なくとも1つのアクチュエータを備えている。各駆動部32,33,34は、コントローラ25の制御を受けて動作する。
対話ロボット2は、頭部22に内蔵されたカメラ68、マイク67、及びスピーカ66と、胴部21に取り付けられたディスプレイ69とを備えている。スピーカ66及びディスプレイ69は、対話ロボット2の「言語動作部」として機能する。
対話ロボット2の胴部21には、対話ロボット2の言語動作及び非言語動作を司るコントローラ25が収容されている。なお、対話ロボット2の「言語動作」とは、対話ロボット2の言語動作部の動作(即ち、スピーカ66から発される音やディスプレイ69に表示される文字)による、コミュニケーション発信動作を意味する。また、対話ロボット2の「非言語動作」とは、対話ロボット2の非言語動作部の動作(即ち、頭部22、腕部23L,23R、及び走行装置24の動作による対話ロボット2の外観の変化)による、コミュニケーションの発信動作を意味する。
図2は、対話ロボット2の制御系統の構成を示すブロック図である。図2に示すように、対話ロボット2のコントローラ25は、いわゆるコンピュータであって、CPU等の演算処理装置(プロセッサ)61、ROM、RAM等の記憶装置62、通信装置63、出入力装置64、外部記憶装置65、駆動制御装置70などを有している。記憶装置62には、演算処理装置61が実行するプログラム、各種固定データ等が記憶されている。演算処理装置61は、通信装置63を介して無線又は有線で作業ロボット4のコントローラ45とデータ送受信を行う。また、演算処理装置61は、出入力装置64を介して各種センサからの検出信号の入力や各種制御信号の出力を行う。出入力装置64は、スピーカ66、マイク67、カメラ68、ディスプレイ69などと接続されている。駆動制御装置70は、駆動部32,33,34を動作させる。演算処理装置61は、外部記憶装置65に対しデータの格納や読み出しを行う。外部記憶装置65には、後述する各種データベースが構築されていてよい。
コントローラ25は、画像認識部250、音声認識部251、言語動作制御部252、非言語動作制御部253、作業ロボット管理部254として機能する。これらの機能は、演算処理装置61が、記憶装置62に記憶されたプログラム等のソフトウェアを読み出して実行することにより実現される。なお、コントローラ25は単一のコンピュータによる集中制御により各処理を実行してもよいし、複数のコンピュータの協働による分散制御により各処理を実行してもよい。また、コントローラ25は、マイクロコントローラ、プログラマブルロジックコントローラ(PLC)等から構成されていてもよい。
画像認識部250は、カメラ68で撮像した画像(又は、映像)を取得し、それを画像処理することにより、ヒト10の有無を検出する。また、画像認識部250は、カメラ68で撮像した画像(映像)を取得し、ヒト10の移動、ヒト10の仕草・表情などを分析し、ヒト動作データを生成する。
音声認識部251は、ヒト10が発話した音声をマイク67で拾い、その音声データの内容を認識してヒト発話データを生成する。
言語動作制御部252は、予め記憶されたスクリプトデータ(台本データ)や、ヒト動作データ、ヒト発話データなどに基づいてヒト10の状況を解析し、解析した状況に基づいてロボット発話データを生成する。言語動作制御部252は、生成したロボット発話データを対話ロボット2の言語動作部(スピーカ66、又は、スピーカ66及びディスプレイ69)へ出力する。これにより、対話ロボット2が言語動作を行う。
上記において言語動作制御部252がヒト10の状況を解析するに際し、ヒト動作データやヒト発話データとヒトの状況とを関連付けて予めヒト状況データベース651に記憶しておき、ヒト状況データベース651に蓄積された情報を用いてヒト10の状況を解析してよい。また、上記において言語動作制御部252がロボット発話データを生成するに際し、スクリプトデータとヒトの状況とロボット発話データとを関連付けて予めロボット発話データベース652に記憶しておき、ロボット発話データベース652に蓄積された情報を用いてロボット発話データを生成してよい。
また、言語動作制御部252は、後述する進捗状況情報を作業ロボット4から受け取って、ロボット発話データを生成し、そのロボット発話データを対話ロボット2の言語動作部(スピーカ66、又は、スピーカ66及びディスプレイ69)へ出力する。これにより、対話ロボット2が言語動作を行う。
上記において、進捗状況情報には、作業ロボット4が現在進行中の作業工程を識別する作業工程識別情報と、その作業工程の進捗具合とが含まれている。言語動作制御部252は、ロボット発話データを生成するに際し、作業工程識別情報とその作業工程と対応する発話材料データとを関連付けて予め発話材料データベース653に記憶しておき、発話材料データベース653から受け取った進捗状況情報と対応する発話材料データを読み出す。そして、言語動作制御部252は、読み出した発話材料データと受け取った進捗具合とに基づいて、ロボット発話データを生成する。
非言語動作制御部253は、対話ロボット2が言語動作を行う際に、その言語動作と対応した非言語動作を行うようにロボット動作データを生成する。非言語動作制御部253は、生成したロボット動作データを駆動制御装置70へ出力し、これにより対話ロボット2はロボット動作データに基づいて非言語動作を行う。
言語動作に対応した非言語動作とは、対話ロボット2の言語動作の内容と対応した対話ロボット2の振る舞いのことである。例えば、対話ロボット2が目標物の名称を発音する際に、腕部23L,23Rでその目標物を指し示したり、頭部22を目標物へ向けたりすることが非言語動作に該当する。また、例えば、対話ロボット2がお礼を発音する際に、両手を合わせたり、頭部22を垂れたりすることが非言語動作に該当する。
上記において非言語動作制御部253がロボット動作データを生成するに際し、ロボット発話データと、当該ロボット発話データがもたらす言語動作に対応する非言語動作を対話ロボット2に実行させるロボット動作データとを関連付けてロボット動作データベース654に予め記憶しておき、ロボット動作データベース654に蓄積された情報からロボット発話データに対応するロボット動作データを読み出し、ロボット発話データを生成してよい。
作業ロボット管理部254は、予め記憶されたスクリプトデータに従って、作業ロボット4に対し処理開始信号を送信する。また、作業ロボット管理部254は、作業ロボット4に対し処理開始信号を送信してから、作業ロボット4から処理終了信号を受け取るまでの間、任意のタイミングで後述する進捗確認信号を作業ロボット4へ送信する。
〔作業ロボット4〕
作業ロボット4は、少なくとも1本の多関節型ロボットアーム41と、ロボットアーム41の手先部に装着されて作業を行うエンドエフェクタ42と、ロボットアーム41及びエンドエフェクタ42の動作を司るコントローラ45とを備えている。本実施形態に係る作業ロボット4は、協動して作業を行う2本のロボットアーム41を備えた双腕ロボットである。但し、作業ロボット4は本実施形態に限定されず、1本のロボットアーム41を備えた単腕ロボットであってもよいし、3以上の複数のロボットアーム41を備えた多腕ロボットであってもよい。
作業ロボット4は、少なくとも1本の多関節型ロボットアーム41と、ロボットアーム41の手先部に装着されて作業を行うエンドエフェクタ42と、ロボットアーム41及びエンドエフェクタ42の動作を司るコントローラ45とを備えている。本実施形態に係る作業ロボット4は、協動して作業を行う2本のロボットアーム41を備えた双腕ロボットである。但し、作業ロボット4は本実施形態に限定されず、1本のロボットアーム41を備えた単腕ロボットであってもよいし、3以上の複数のロボットアーム41を備えた多腕ロボットであってもよい。
ロボットアーム41は、水平多関節型ロボットアームであって、関節を介して直列的に連結された複数のリンクを有する。但し、ロボットアーム41は本実施形態に限定されず、垂直多関節型であってもよい。
ロボットアーム41は、ロボットアーム41を動作させるためのアーム駆動部44を有する(図3、参照)。アーム駆動部44は、例えば、各関節に対して設けられた、駆動源としての電動モータと、電動モータの回転出力をリンクへ伝達するギア機構とを含んでいる。アーム駆動部は、コントローラ45の制御を受けて動作する。
ロボットアーム41の手先部に装着されるエンドエフェクタ42は、作業ロボット4が行う作業の内容に応じたものが選択されてよい。また、作業ロボット4は、作業の工程ごとに、エンドエフェクタ42を付け替えてもよい。
図3は、作業ロボット4の制御系統の構成を示すブロック図である。図3に示すように、作業ロボット4のコントローラ45は、いわゆるコンピュータであって、CPU等の演算処理装置(プロセッサ)81、ROM、RAM等の記憶装置82、通信装置83、出入力装置84などを有している。記憶装置82には、演算処理装置81が実行するプログラム、各種固定データ等が記憶されている。演算処理装置81は、通信装置83を介して無線又は有線で対話ロボット2のコントローラ25とデータ送受信を行う。また、演算処理装置81は、出入力装置84を介してカメラ88やアーム駆動部44に設けられた各種センサからの検出信号の入力や各種制御信号の出力を行う。また、演算処理装置81は、アーム駆動部44に含まれるアクチュエータを動作させるドライバ90と接続されている。
コントローラ45は、アーム制御部451、エンドエフェクタ制御部452、及び進捗状況報告部453などとして機能する。これらの機能は、演算処理装置81が、予め記憶されたスクリプトデータに従って、記憶装置82に記憶されたプログラム等のソフトウェアを読み出して実行することにより実現される。なお、コントローラ45は単一のコンピュータによる集中制御により各処理を実行してもよいし、複数のコンピュータの協働による分散制御により各処理を実行してもよい。また、コントローラ45は、マイクロコントローラ、プログラマブルロジックコントローラ(PLC)等から構成されていてもよい。
アーム制御部451は、予め記憶された教示データに基づき、ロボットアーム41を動作させる。具体的には、アーム制御部451は、教示データ及びアーム駆動部44に設けられた各種センサからの検出情報に基づいて位置指令を生成し、ドライバ90へ出力する。ドライバ90は位置指令に従ってアーム駆動部44に含まれる各アクチュエータを動作させる。
エンドエフェクタ制御部452は、予め記憶された動作データに基づき、エンドエフェクタ42を動作させる。エンドエフェクタ42は、例えば、電動モータ、エアシリンダ、電磁弁などのうち少なくとも1つのアクチュエータを含んで構成されており、エンドエフェクタ制御部452はこれらのアクチュエータをロボットアーム41の動作に合わせて動作させる。
進捗状況報告部453は、作業ロボット4の作業中に、進捗状況情報を生成して対話ロボット2へ送信する。進捗状況情報には、現在進行中の作業工程を識別する作業工程識別情報と、処理の正常・異常や進行などのその作業工程の進捗具合とが少なくとも含まれている。なお、進捗状況情報の生成及び送信は、対話ロボット2から後述する進捗確認信号を取得したタイミング、処理に含まれる各作業工程の開始及び/又は終了のタイミングなど、所定のタイミングで行われてよい。
〔ロボットシステム1の動作の流れ〕
ここで、上記構成のロボットシステム1の動作の一例を説明する。この例では、作業ロボット4が、スマートフォン(タブレット型通信端末)の液晶ディスプレイに保護フィルムを貼る作業を行う。但し、作業ロボット4が行う作業の内容、及び、対話ロボット2の言語動作・非言語動作の内容は、この例に限定されない。
ここで、上記構成のロボットシステム1の動作の一例を説明する。この例では、作業ロボット4が、スマートフォン(タブレット型通信端末)の液晶ディスプレイに保護フィルムを貼る作業を行う。但し、作業ロボット4が行う作業の内容、及び、対話ロボット2の言語動作・非言語動作の内容は、この例に限定されない。
図4は、ロボットシステム1が構築されたブース92の平面図である。図4に示すように、対話ロボット2及び作業ロボット4は、一つのブース92内に配置されている。入口93からブース92に入ったヒト10から見て、対話ロボット2は12時の位置に配置され、作業ロボット4は3時の位置に配置されている。作業ロボット4の前には作業台94が設けられ、ヒト10と作業ロボット4との間が作業台94で仕切られている。作業台94を挟んで作業ロボット4の正面には、椅子95が置かれている。
図5は、ロボットシステム1の動作の流れを示すタイミングチャートである。図5に示すように、待機状態の作業ロボット4は、対話ロボット2からの処理開始信号を待っている。一方、待機状態の対話ロボット2は、ブース92へ来訪するヒト10を待っている。対話ロボット2は、カメラ68の撮像画像を監視し、撮像画像からブース92へ来訪したヒト10を検出する(ステップS11)。
対話ロボット2は、ヒト10がブース92に来訪すると、「いらっしゃいませ、椅子にお座りください」とヒト10に向けて言語動作(発話)と非言語動作(身振り)とを行い、ヒト10に着席を促す(ステップS12)。
対話ロボット2は、撮像画像からヒト10が着席したことを検出すると(ステップS13)、「当ブースでは、あなたのスマートフォンに保護シールを貼るサービスを提供しています」とヒト10に向けた言語動作及び非言語動作を行い、ヒト10に作業ロボット4が行う作業の内容を説明する(ステップS14)。
対話ロボット2は、ヒト10の音声や撮像画像を解析し、ヒト10の作業の依頼の意志を検出すると(ステップS15)、「それでは、あなたのスマートフォンを作業台の上において下さい」とヒト10に向けた言語動作及び非言語動作を行い、ヒト10に作業台94にスマートフォンを置くように促す(ステップS16)。
更に、対話ロボット2は、作業ロボット4に向けて、処理開始信号を送信する(ステップS17)。対話ロボット2は処理開始信号を送信するにあたり、「ロボット君、準備を始めてください」と作業ロボット4に向けて言語動作を行うとともに、作業ロボット4に顔を向けたり処理の開始を促すように手を振ったりなどの非言語動作を行う(ステップS18)。
処理開始信号を取得した作業ロボット4は(ステップS41)、フィルム貼り処理を開始する(ステップS42)。図6は、フィルム貼り処理の流れを示す図である。図6に示すように、フィルム貼り処理では、作業ロボット4は、作業台94の所定位置にスマートフォンが置かれたことを検出し(ステップS21)、スマートフォンの種類を認識し(ステップS22)、フィルムホルダにあるフィルムの中からスマートフォンの種類に適切な保護フィルムを選択する(ステップS23)。
作業ロボット4は、作業台94上のスマートフォンを位置決めし(ステップS24)、スマートフォンのディスプレイを拭き(ステップS25)、フィルムホルダから保護フィルムを取り出し(ステップS26)、保護フィルムから台紙を剥離し(ステップS27)、保護フィルムをスマートフォンのディスプレイに位置決めし(ステップS28)、保護フィルムをスマートフォンのディスプレイに置き(ステップS29)、保護フィルムを拭く(ステップS30)。
作業ロボット4は、フィルム貼り処理で、上記ステップS21〜S30の一連の工程を行う。作業ロボット4は、フィルム貼り処理が終了すると、処理終了信号を対話ロボット2へ送信する(ステップS43)。
対話ロボット2は、作業ロボット4がフィルム貼り処理を行っている間、任意のタイミングで進捗確認信号を作業ロボット4へ送信する。例えば、対話ロボット2は、30秒ごとなどの所定時間間隔で、進捗確認信号を作業ロボット4へ送信してよい。作業ロボット4は、進捗確認信号を取得したことをトリガとして、進捗状況情報を対話ロボット2へ送信する。なお、作業ロボット4は、対話ロボット2からの進捗確認信号の有無にかかわらず、作業工程の開始及び/又は終了のタイミングで進捗状況情報を対話ロボット2へ送るようにしてもよい。
対話ロボット2は、作業ロボット4から進捗状況情報を受け取ると、作業ロボット4が現在進行中の作業工程と対応した言語動作及び非言語動作を行う。但し、対話ロボット2は、進捗状況情報の内容や、前回の言語動作及び非言語動作のタイミングと間隔、ヒト10の状況などに基づいて、言語動作及び非言語動作を行わないと判断してもよい。
例えば、作業ロボット4が保護フィルムの選択工程(ステップS23)を終えたタイミングで、対話ロボット2が「それではロボット君、よろしくお願いします」と、作業ロボット4に向けた言語動作及び非言語動作を行う。
また、例えば、作業ロボット4がスマートフォンの位置決め工程(ステップS24)から台紙を剥離する工程(ステップS27)を行っている任意のタイミングで、対話ロボット2が「うまく貼れるか、楽しみですね」と、ヒト10に向けた言語動作及び非言語動作を行う。更に、この対話ロボット2からヒト10への問いかけに対しヒト10が発話した場合には、対話ロボット2がヒト10の発話に対し回答してもよい。
また、例えば、作業ロボット4が保護フィルムの拭き工程(ステップS30)を行って入るタイミングで、対話ロボット2が「もうすぐ終わりですね」と、作業ロボット4及び/又はヒト10に向けた言語動作及び非言語動作を行う。
上記のように、作業ロボット4が黙々と作業をしている間に、対話ロボット2は作業ロボット4に向けて発話したり、ヒト10と対話したりする。これにより、作業ロボット4の作業中にも、ヒト10を飽きさせない。また、対話ロボット2が作業中の作業ロボット4に向けて発話及び身振りを行うことで、ヒト10の来訪時には対話ロボット2とヒト10だけであった対話メンバーに作業ロボット4が加わることになる。
以上に説明したように、本実施形態のロボットシステム1は、ロボットアーム41と当該ロボットアーム41の手先部に装着されたエンドエフェクタ42とを有し、エンドエフェクタ42を用いてヒト10の依頼に基づく作業を行う作業ロボット4と、言語動作部と非言語動作部とを有し、作業ロボット4及びヒト10に向けて言語動作及び非言語動作を行う対話ロボット2と、対話ロボット2と作業ロボット4との間で情報の送受信を行う通信手段5とを備えている。そして、作業ロボット4は、作業中に、現在進行中の作業工程を識別する作業工程識別情報と、作業工程の進捗具合とを含む進捗状況情報を対話ロボット2へ送信する進捗状況報告部453を有している。また、対話ロボット2は、作業工程識別情報とその作業工程と対応する発話材料データとを関連付けて記憶した発話材料データベース653と、受け取った進捗状況情報と対応する発話材料データを発話材料データベース653から読み出し、読み出した発話材料データと進捗具合とに基づいてロボット発話データを生成し、生成したロボット発話データを言語動作部へ出力する言語動作制御部252とを有している。
また、本実施形態のロボット対話方法は、ロボットアーム41と当該ロボットアーム41の手先部に装着されたエンドエフェクタ42とを有し、エンドエフェクタ42を用いてヒト10の依頼に基づく作業を行う作業ロボット4と、言語動作部と非言語動作部とを有し、作業ロボット4及びヒト10に向けて言語動作及び非言語動作を行う対話ロボット2とで行われるロボット対話方法である。そして、このロボット対話方法は、作業ロボット4が、作業中に、現在進行中の作業工程を識別する作業工程識別情報と、作業工程の進捗具合とを含む進捗状況情報を対話ロボット2へ送信し、対話ロボット2が、受け取った進捗状況情報と対応する発話材料データを作業工程識別情報とその作業工程と対応する発話材料データとを関連付けて記憶した発話材料データベース653から読み出し、読み出した発話材料データと進捗具合とに基づいてロボット発話データを生成し、生成したロボット発話データを言語動作部で出力する。
上記において、対話ロボット2は、作業ロボット4の作業中に、作業ロボット4に対し進捗確認信号を送信する作業ロボット管理部254を備え、作業ロボット4は、進捗確認信号を受け取ったことをトリガとして、進捗状況情報を対話ロボット2へ送信してよい。
或いは、上記において、作業ロボット4は、作業工程の開始及び/又は終了のタイミングで、進捗状況情報を対話ロボット2へ送信してよい。
上記のロボットシステム1及びロボット対話方法によれば、作業ロボット4がヒト10に依頼された作業を行っている最中に、対話ロボット2が現在進行中の作業工程と対応する発話内容でヒトや作業ロボットに向けて言語動作を行う。つまり、作業ロボット4が作業をしている間にも、対話ロボット2の発話(言語動作)が途切れず、また、その発話が作業ロボット4の作業の内容や状況と対応している。これにより、作業ロボット4の作業中に、ヒト10は対話ロボット2及び作業ロボット4との対話に参加している感覚(対話感)が生じ、その感覚を維持することができる。
また、本実施形態に係るロボットシステム1では、上記の対話ロボット2が、ロボット発話データと、当該ロボット発話データがもたらす言語動作に対応する非言語動作を対話ロボットに実行させるロボット動作データとを関連付けて記憶したロボット動作データベース654と、生成したロボット発話データに対応するロボット動作データをロボット動作データベース654から読み出し、読み出したロボット動作データを非言語動作部へ出力する非言語動作制御部253とを、更に有している。
同様に、本本実施形態に係るロボット対話方法では、対話ロボット2が、生成したロボット発話データがもたらす言語動作に対応する非言語動作を対話ロボット2に実行させるロボット動作データを、非言語動作部で出力する。
これにより、対話ロボット2は、言語動作に伴って、言語動作と対応する非言語動作(即ち、振る舞い)を行う。この対話ロボット2の非言語動作を見たヒト10は、対話ロボット2が言語動作のみを行う場合と比較して、より深くロボット2,4との対話感を感じることができる。
また、本実施形態に係るロボットシステム1及びロボット対話方法では、対話ロボット2が、所定のスクリプトデータに従って、ヒト10に向けて言語動作及び非言語動作を行うことによりヒト10と対話し、対話の内容を解析してヒト10から依頼を取得し、依頼に基づいて作業ロボット4に対し作業の処理開始信号を送信するとともに作業ロボット4に向けて言語動作及び非言語動作を行う。
これにより、作業ロボット4が行う作業の受付を対話ロボット2が行うことにより、作業ロボット4が行う前の段階から、ヒト10に対話ロボット2との対話に参加している感覚を生じさせることができる。そして、対話ロボット2が作業ロボット4に処理開始信号を送信する際に、対話ロボット2が作業ロボット4に対して言語動作及び非言語動作を行うことで、これを見ているヒト10に、それまでの対話ロボット2との対話に作業ロボット4が加わったことを感じさせることができる。
以上に本発明の好適な実施の形態を説明したが、本発明の精神を逸脱しない範囲で、上記実施形態の具体的な構造及び/又は機能の詳細を変更したものも本発明に含まれ得る。
1 :ロボットシステム
2 :対話ロボット
4 :作業ロボット
5 :通信手段
10 :ヒト
21 :胴部
22 :頭部
23L,23R :腕部
24 :走行装置
25 :コントローラ
250 :画像認識部
251 :音声認識部
252 :言語動作制御部
253 :非言語動作制御部
254 :作業ロボット管理部
32 :頭駆動部
33 :腕駆動部
34 :走行駆動部
41 :ロボットアーム
42 :エンドエフェクタ
44 :アーム駆動部
45 :コントローラ
451 :アーム制御部
452 :エンドエフェクタ制御部
453 :進捗状況報告部
61 :演算処理装置
62 :記憶装置
63 :通信装置
64 :出入力装置
65 :外部記憶装置
651 :ヒト状況データベース
652 :ロボット発話データベース
653 :発話材料データベース
654 :ロボット動作データベース
66 :スピーカ
67 :マイク
68 :カメラ
69 :ディスプレイ
70 :駆動制御装置
81 :演算処理装置
82 :記憶装置
83 :通信装置
84 :出入力装置
88 :カメラ
90 :ドライバ
92 :ブース
93 :入口
94 :作業台
95 :椅子
2 :対話ロボット
4 :作業ロボット
5 :通信手段
10 :ヒト
21 :胴部
22 :頭部
23L,23R :腕部
24 :走行装置
25 :コントローラ
250 :画像認識部
251 :音声認識部
252 :言語動作制御部
253 :非言語動作制御部
254 :作業ロボット管理部
32 :頭駆動部
33 :腕駆動部
34 :走行駆動部
41 :ロボットアーム
42 :エンドエフェクタ
44 :アーム駆動部
45 :コントローラ
451 :アーム制御部
452 :エンドエフェクタ制御部
453 :進捗状況報告部
61 :演算処理装置
62 :記憶装置
63 :通信装置
64 :出入力装置
65 :外部記憶装置
651 :ヒト状況データベース
652 :ロボット発話データベース
653 :発話材料データベース
654 :ロボット動作データベース
66 :スピーカ
67 :マイク
68 :カメラ
69 :ディスプレイ
70 :駆動制御装置
81 :演算処理装置
82 :記憶装置
83 :通信装置
84 :出入力装置
88 :カメラ
90 :ドライバ
92 :ブース
93 :入口
94 :作業台
95 :椅子
Claims (10)
- ロボットアームと当該ロボットアームの手先部に装着されたエンドエフェクタとを有し、前記エンドエフェクタを用いてヒトの依頼に基づく作業を行う作業ロボットと、
言語動作部と非言語動作部とを有し、前記作業ロボット及び前記ヒトに向けて言語動作及び非言語動作を行う対話ロボットと、
前記対話ロボットと前記作業ロボットとの間で情報の送受信を行う通信手段とを備え、
前記作業ロボットは、前記作業中に、現在進行中の作業工程を識別する作業工程識別情報と、前記作業工程の進捗具合とを含む進捗状況情報を前記対話ロボットへ送信する進捗状況報告部を有し、
前記対話ロボットは、前記作業工程識別情報とその作業工程と対応する発話材料データとを関連付けて記憶した発話材料データベースと、受け取った前記進捗状況情報と対応する前記発話材料データを前記発話材料データベースから読み出し、読み出した前記発話材料データと前記進捗具合とに基づいてロボット発話データを生成し、生成した前記ロボット発話データを前記言語動作部へ出力する言語動作制御部とを有する、
ロボットシステム。 - 前記対話ロボットは、
前記ロボット発話データと、当該ロボット発話データがもたらす言語動作に対応する非言語動作を前記対話ロボットに実行させるロボット動作データとを関連付けて記憶したロボット動作データベースと、
生成した前記ロボット発話データに対応する前記ロボット動作データを前記ロボット動作データベースから読み出し、読み出した前記ロボット動作データを前記非言語動作部へ出力する非言語動作制御部とを、更に有する、
請求項1に記載のロボットシステム。 - 前記対話ロボットは、前記作業ロボットの前記作業中に、前記作業ロボットに対し進捗確認信号を送信する作業ロボット管理部を備え、
前記作業ロボットは、前記進捗確認信号を受け取ったことをトリガとして、前記進捗状況情報を前記対話ロボットへ送信する、
請求項1又は2に記載のロボットシステム。 - 前記作業ロボットは、前記作業工程の開始及び/又は終了のタイミングで、前記進捗状況情報を前記対話ロボットへ送信する、
請求項1又は2に記載のロボットシステム。 - 前記対話ロボットは、所定のスクリプトデータに従って、前記ヒトに向けて言語動作及び非言語動作を行うことにより前記ヒトと対話し、前記対話の内容を解析して前記ヒトから前記依頼を取得し、前記依頼に基づいて前記作業ロボットに対し前記作業の処理開始信号を送信するとともに前記作業ロボットに向けて言語動作及び非言語動作を行う、
請求項1〜4のいずれか一項に記載のロボットシステム。 - ロボットアームと当該ロボットアームの手先部に装着されたエンドエフェクタとを有し、前記エンドエフェクタを用いてヒトの依頼に基づく作業を行う作業ロボットと、
言語動作部と非言語動作部とを有し、前記作業ロボット及び前記ヒトに向けて言語動作及び非言語動作を行う対話ロボットとで行われるロボット対話方法であって、
前記作業ロボットが、前記作業中に、現在進行中の作業工程を識別する作業工程識別情報と、前記作業工程の進捗具合とを含む進捗状況情報を前記対話ロボットへ送信し、
前記対話ロボットが、受け取った前記進捗状況情報と対応する発話材料データを前記作業工程識別情報とその作業工程と対応する前記発話材料データとを関連付けて記憶した発話材料データベースから読み出し、読み出した前記発話材料データと前記進捗具合とに基づいてロボット発話データを生成し、生成した前記ロボット発話データを前記言語動作部で出力する、
ロボット対話方法。 - 前記対話ロボットが、生成した前記ロボット発話データがもたらす言語動作に対応する非言語動作を前記対話ロボットに実行させるロボット動作データを前記非言語動作部で出力する、
請求項6に記載のロボット対話方法。 - 前記対話ロボットは、前記作業ロボットの前記作業中に、前記作業ロボットに対し進捗確認信号を送信し、
前記作業ロボットは、前記進捗確認信号を受け取ったことをトリガとして、前記進捗状況情報を前記対話ロボットへ送信する、
請求項6又は7に記載のロボット対話方法。 - 前記作業ロボットは、前記作業工程の開始及び/又は終了のタイミングで、前記進捗状況情報を前記対話ロボットへ送信する、
請求項6又は7に記載のロボット対話方法。 - 前記対話ロボットは、所定のスクリプトデータに従って、前記ヒトに向けて言語動作及び非言語動作を行うことにより前記ヒトと対話し、前記対話の内容を解析して前記ヒトから前記依頼を取得し、前記依頼に基づいて前記作業ロボットに対し前記作業の処理開始信号を送信するとともに前記作業ロボットに向けて言語動作及び非言語動作を行う、
請求項6〜9のいずれか一項に記載のロボット対話方法。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017019832A JP2018126810A (ja) | 2017-02-06 | 2017-02-06 | ロボットシステム及びロボット対話方法 |
KR1020197014835A KR20190066632A (ko) | 2017-02-06 | 2018-02-05 | 로봇 시스템 및 로봇 대화방법 |
CN201880010449.2A CN110267774A (zh) | 2017-02-06 | 2018-02-05 | 机器人系统及机器人对话方法 |
US16/483,827 US20190389075A1 (en) | 2017-02-06 | 2018-02-05 | Robot system and robot dialogue method |
PCT/JP2018/003848 WO2018143460A1 (ja) | 2017-02-06 | 2018-02-05 | ロボットシステム及びロボット対話方法 |
DE112018000702.2T DE112018000702B4 (de) | 2017-02-06 | 2018-02-05 | Robotersystem und roboterdialogverfahren |
TW107104173A TWI673706B (zh) | 2017-02-06 | 2018-02-06 | 機器人系統及機器人對話方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017019832A JP2018126810A (ja) | 2017-02-06 | 2017-02-06 | ロボットシステム及びロボット対話方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018126810A true JP2018126810A (ja) | 2018-08-16 |
Family
ID=63041219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017019832A Pending JP2018126810A (ja) | 2017-02-06 | 2017-02-06 | ロボットシステム及びロボット対話方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20190389075A1 (ja) |
JP (1) | JP2018126810A (ja) |
KR (1) | KR20190066632A (ja) |
CN (1) | CN110267774A (ja) |
DE (1) | DE112018000702B4 (ja) |
TW (1) | TWI673706B (ja) |
WO (1) | WO2018143460A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020168040A (ja) * | 2019-04-01 | 2020-10-15 | 国立大学法人豊橋技術科学大学 | ロボット |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020018536A1 (en) | 2018-07-17 | 2020-01-23 | iT SpeeX LLC | Method, system, and computer program product for communication with an intelligent industrial assistant and industrial machine |
KR20210041199A (ko) | 2019-10-07 | 2021-04-15 | 주식회사 엘지화학 | 조립이 용이한 전지 팩 및 그에 따른 전지 팩 제조방법 |
KR20210095446A (ko) * | 2020-01-23 | 2021-08-02 | 라인 가부시키가이샤 | 인간의 포즈에 따른 컨텐츠 기반 대화 방법 및 시스템 |
CN111429888A (zh) * | 2020-05-12 | 2020-07-17 | 珠海格力智能装备有限公司 | 机器人的控制方法及装置、存储介质和处理器 |
WO2022237976A1 (en) | 2021-05-12 | 2022-11-17 | Cariad Se | Method for operating a telephone communication robot, telephone communication robot and vehicle |
KR102636467B1 (ko) * | 2021-11-30 | 2024-02-14 | 네이버랩스 주식회사 | 로봇 친화형 건물, 복수의 로봇들을 이용한 협업 방법 및 시스템 |
DE102023200247A1 (de) | 2023-01-13 | 2024-07-18 | BSH Hausgeräte GmbH | System mit einem Haushaltsgerät, Verfahren und Computerprogrammprodukt zum Betreiben eines Haushalts-Roboters |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236137A (ja) * | 2000-02-22 | 2001-08-31 | Totoku Electric Co Ltd | ガイドロボット、情報処理装置およびガイドロボット付き情報処理装置 |
JP2002361585A (ja) * | 2001-06-07 | 2002-12-18 | Atr Media Integration & Communications Res Lab | コミュニケーションロボット |
JP2005103722A (ja) * | 2003-09-30 | 2005-04-21 | Toshiba Corp | 協調ロボット装置、システム、およびナビゲーションロボット装置 |
WO2005086051A1 (ja) * | 2004-03-08 | 2005-09-15 | National Institute Of Information And Communications Technology | 対話システム、対話ロボット、プログラム及び記録媒体 |
JP2007011873A (ja) * | 2005-07-01 | 2007-01-18 | Toshiba Corp | インタフェース装置およびインタフェース方法 |
WO2009004772A1 (ja) * | 2007-07-05 | 2009-01-08 | Panasonic Corporation | ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4185926B2 (ja) * | 2005-08-26 | 2008-11-26 | ファナック株式会社 | ロボット協調制御方法及びシステム |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
US8265793B2 (en) * | 2007-03-20 | 2012-09-11 | Irobot Corporation | Mobile robot for telecommunication |
JP4976224B2 (ja) * | 2007-07-26 | 2012-07-18 | パナソニック株式会社 | 作業ロボットシステム |
JP2009061547A (ja) * | 2007-09-06 | 2009-03-26 | Olympus Corp | ロボット制御システム、ロボット、プログラム及び情報記憶媒体 |
JP5045519B2 (ja) * | 2008-03-26 | 2012-10-10 | トヨタ自動車株式会社 | 動作生成装置、ロボット及び動作生成方法 |
TW201227190A (en) * | 2010-12-28 | 2012-07-01 | Hon Hai Prec Ind Co Ltd | System and method for controlling robots via cloud computing |
US8406926B1 (en) * | 2011-05-06 | 2013-03-26 | Google Inc. | Methods and systems for robotic analysis of environmental conditions and response thereto |
JP2013184257A (ja) * | 2012-03-08 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
US9444795B1 (en) * | 2013-09-27 | 2016-09-13 | Amazon Technologies, Inc. | Robot mitigation |
EP2933067B1 (en) * | 2014-04-17 | 2019-09-18 | Softbank Robotics Europe | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
EP2933070A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Methods and systems of handling a dialog with a robot |
KR101573819B1 (ko) * | 2014-07-24 | 2015-12-02 | 국민대학교 산학협력단 | 로봇 및 로봇 간 정보 교환 방법 |
CN105573683A (zh) * | 2014-10-08 | 2016-05-11 | 段兴 | 3d打印远程定制系统 |
JP6583765B2 (ja) * | 2015-01-16 | 2019-10-02 | 国立大学法人大阪大学 | エージェント対話システムおよびプログラム |
JP6215242B2 (ja) * | 2015-01-20 | 2017-10-18 | シャープ株式会社 | 情報送信装置、情報送信装置の制御方法、制御プログラム、および記録媒体 |
KR101627519B1 (ko) * | 2015-05-04 | 2016-06-08 | 재단법인대구경북과학기술원 | 로봇 원격 제어 장치 및 그 방법 |
CN104951077A (zh) * | 2015-06-24 | 2015-09-30 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法、装置和终端设备 |
US10166680B2 (en) * | 2015-07-31 | 2019-01-01 | Heinz Hemken | Autonomous robot using data captured from a living subject |
CN205380682U (zh) * | 2016-03-11 | 2016-07-13 | 武汉科技大学 | 一种新型餐厅用机器人 |
CN205394568U (zh) * | 2016-03-11 | 2016-07-27 | 武汉科技大学 | 一种餐厅用机器人 |
CN106074073B (zh) * | 2016-05-31 | 2018-09-11 | 北京航空航天大学 | 一种下肢康复机器人的控制系统及康复训练策略 |
CN106003088A (zh) * | 2016-06-30 | 2016-10-12 | 江苏捷帝机器人股份有限公司 | 一种基于关节机器人的可移式装配机构 |
CN106363642A (zh) * | 2016-11-18 | 2017-02-01 | 中国科学院合肥物质科学研究院 | 一种仿人机器人躯干结构 |
-
2017
- 2017-02-06 JP JP2017019832A patent/JP2018126810A/ja active Pending
-
2018
- 2018-02-05 US US16/483,827 patent/US20190389075A1/en not_active Abandoned
- 2018-02-05 CN CN201880010449.2A patent/CN110267774A/zh active Pending
- 2018-02-05 WO PCT/JP2018/003848 patent/WO2018143460A1/ja active Application Filing
- 2018-02-05 DE DE112018000702.2T patent/DE112018000702B4/de not_active Expired - Fee Related
- 2018-02-05 KR KR1020197014835A patent/KR20190066632A/ko not_active Application Discontinuation
- 2018-02-06 TW TW107104173A patent/TWI673706B/zh not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236137A (ja) * | 2000-02-22 | 2001-08-31 | Totoku Electric Co Ltd | ガイドロボット、情報処理装置およびガイドロボット付き情報処理装置 |
JP2002361585A (ja) * | 2001-06-07 | 2002-12-18 | Atr Media Integration & Communications Res Lab | コミュニケーションロボット |
JP2005103722A (ja) * | 2003-09-30 | 2005-04-21 | Toshiba Corp | 協調ロボット装置、システム、およびナビゲーションロボット装置 |
WO2005086051A1 (ja) * | 2004-03-08 | 2005-09-15 | National Institute Of Information And Communications Technology | 対話システム、対話ロボット、プログラム及び記録媒体 |
JP2007011873A (ja) * | 2005-07-01 | 2007-01-18 | Toshiba Corp | インタフェース装置およびインタフェース方法 |
WO2009004772A1 (ja) * | 2007-07-05 | 2009-01-08 | Panasonic Corporation | ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020168040A (ja) * | 2019-04-01 | 2020-10-15 | 国立大学法人豊橋技術科学大学 | ロボット |
JP7320240B2 (ja) | 2019-04-01 | 2023-08-03 | 国立大学法人豊橋技術科学大学 | ロボット |
Also Published As
Publication number | Publication date |
---|---|
CN110267774A (zh) | 2019-09-20 |
DE112018000702B4 (de) | 2021-01-14 |
KR20190066632A (ko) | 2019-06-13 |
US20190389075A1 (en) | 2019-12-26 |
DE112018000702T5 (de) | 2019-11-14 |
TW201842493A (zh) | 2018-12-01 |
TWI673706B (zh) | 2019-10-01 |
WO2018143460A1 (ja) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018143460A1 (ja) | ロボットシステム及びロボット対話方法 | |
JP7119896B2 (ja) | コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム | |
US11024294B2 (en) | System and method for dialogue management | |
CN111801730B (zh) | 用于人工智能驱动的自动伴侣的系统和方法 | |
KR101880775B1 (ko) | 자연스러운 대화 인터페이스가 장착된 인간형 로봇, 이러한 로봇의 제어 방법 및 대응 프로그램 | |
US11003860B2 (en) | System and method for learning preferences in dialogue personalization | |
Van der Loos | VA/Stanford rehabilitation robotics research and development program: lessons learned in the application of robotics technology to the field of rehabilitation | |
US20190251965A1 (en) | System and method for conversational agent via adaptive caching of dialogue tree | |
JPWO2017033367A1 (ja) | 遠隔操作ロボットシステム | |
WO2005014242A1 (ja) | コミュニケーションロボット用制御システム | |
CN112204654B (zh) | 用于基于预测的先发式对话内容生成的系统和方法 | |
JP2011000681A (ja) | コミュニケーションロボット | |
JP2007190641A (ja) | コミュニケーションロボット | |
JP2009090420A (ja) | ロボット遠隔操作システム | |
Di Nuovo et al. | A web based multi-modal interface for elderly users of the robot-era multi-robot services | |
US20220288791A1 (en) | Information processing device, information processing method, and program | |
Chivarov et al. | Exploring human-robot interfaces for service mobile robots | |
JP2004234631A (ja) | ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法 | |
JP2017162268A (ja) | 対話システムおよび制御プログラム | |
JP2006263858A (ja) | コミュニケーションロボット | |
Wrede et al. | Research issues for designing robot companions: BIRON as a case study | |
WO2024190308A1 (ja) | 情報処理装置、遠隔操作制御方法、遠隔操作制御システム、及び、自律移動体 | |
Mavridis et al. | Steps towards affordable android telepresence | |
JP2023039445A (ja) | ドッペルゲンガー遠隔ロボットシステム | |
Hayosh | Development of a Low-Cost Social Robotic Platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210420 |