JP2016022537A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2016022537A
JP2016022537A JP2014146026A JP2014146026A JP2016022537A JP 2016022537 A JP2016022537 A JP 2016022537A JP 2014146026 A JP2014146026 A JP 2014146026A JP 2014146026 A JP2014146026 A JP 2014146026A JP 2016022537 A JP2016022537 A JP 2016022537A
Authority
JP
Japan
Prior art keywords
behavior
voice
unit
prohibited
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014146026A
Other languages
English (en)
Inventor
嘉之 山海
Yoshiyuki Sankai
嘉之 山海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cyberdyne Inc
University of Tsukuba NUC
Original Assignee
Cyberdyne Inc
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cyberdyne Inc, University of Tsukuba NUC filed Critical Cyberdyne Inc
Priority to JP2014146026A priority Critical patent/JP2016022537A/ja
Publication of JP2016022537A publication Critical patent/JP2016022537A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】人間の心理的安全性を確保することができるロボットを提供する。【解決手段】ロボットは、音声が入力される音声入力部23と、音声入力部23から入力された音声を認識する音声認識部124と、音声を合成する音声合成部122と、合成された音声を出力する音声出力部24と、言動が規定されたシナリオを含む行動パターンを記憶する行動パターン記憶部210と、禁止言動が登録された禁止言動リストを記憶する禁止言動リスト記憶部230と、音声認識部124により認識されたユーザの音声に基づいて、行動パターン記憶部210を検索し、該ユーザに対する応答行動を決定する制御部100と、を備える。制御部100は、決定した応答行動と前記禁止言動とを比較し、一致しなかった場合に、該決定した応答行動に基づいて音声合成部122に音声を合成させ、音声出力部24より合成音声を出力させる。【選択図】図2

Description

本発明は、ロボットにかかり、特に人間に対する心理的安全性を確保したロボットに関する。
工場等の作業現場で多くの産業用ロボットが人間と共に作業している。また、人間とコミュニケーションを行うコミュニケーションロボットが提案されている。従来のロボットは、行動範囲を制限することで、人間に危険が及ばないようにしていた(例えば特許文献1参照)。
このように、従来は、人間の身体的(物理的)安全性を確保するためにロボットの動作を制御していた。しかし、ロボットを制御するにあたり、人間の心理的(精神的)安全性については考慮されていなかった。
特開2009−90400号公報
本発明は、上記従来の実状に鑑みてなされたものであり、人間の心理的安全性を確保することができるロボットを提供することを課題とする。
本発明の一態様によるロボットは、音声が入力される音声入力部と、前記音声入力部から入力された音声を認識する音声認識部と、音声を合成する音声合成部と、前記合成された音声を出力する音声出力部と、言動が規定されたシナリオを含む行動パターンを記憶する行動パターン記憶部と、禁止言動が登録された禁止言動リストを記憶する禁止言動リスト記憶部と、前記音声認識部により認識されたユーザの音声に基づいて、前記行動パターン記憶部を検索し、該ユーザに対する応答行動を決定する制御部と、を備え、前記制御部は、決定した応答行動と前記禁止言動とを比較し、一致しなかった場合に、該決定した応答行動を出力させることを特徴とする。
本発明の一態様によるロボットは、音声を合成する音声合成部と、前記合成された音声を出力する音声出力部と、をさらに備え、前記応答行動は、前記音声合成部に音声を合成させ、前記音声出力部より合成音声を出力させるものであってもよい。
本発明の一態様によるロボットにおいて、前記応答行動は、ロボットの動きを伴うものであってもよい。
本発明の一態様によるロボットにおいては、前記禁止言動リストの更新情報を受信する無線通信部をさらに備え、前記制御部は、前記更新情報に基づいて、前記禁止言動リストを更新することが好ましい。
本発明の一態様によるロボットにおいては、文字情報又は画像情報を表示する表示部をさらに備え、前記制御部は、前記決定した応答行動と前記禁止言動とが一致しなかった場合に、該決定した応答行動に基づいて、前記表示部に文字情報又は画像情報を表示させてもよい。
本発明の一態様によるロボットにおいては、前記制御部は、決定した応答行動と前記禁止言動とが一致した場合に、該一致した禁止言動を省略した応答行動を出力させてもよい。
本発明によれば、ロボットが人間とコミュニケーションをとるに際し、人間の心理的安全性を確保することができる。
本発明の実施形態に係るロボットの概略図である。 同実施形態に係るロボットの制御系を示すブロック図である。 禁止言動リストの一例を示す図である。
以下、本発明の実施の形態を図面に基づいて説明する。図1は本発明の実施形態に係るロボットの概略図である。ロボット1は、頭部11、胴体部12、腕部13、肩部14、及び車輪15を備えている。ロボット1は、基地局2と無線通信によって接続され、基地局2及びネットワーク3を介して管理装置4と通信することができる。ネットワーク3は例えばLAN又はインターネットである。
頭部11の前面には、カメラ22、マイク23、及びスピーカ24が設けられている。カメラ(撮像部)22は、ロボット1の前方移動方向側の映像をデジタルデータとして取り込むことができ、例えば、カラーCCDカメラを使用することができる。カメラ22は2台設けられ、左右に平行に並んで配置される。
マイク(音声入力部)23は、周囲の音声情報(例えば、人間の音声)を取得する。スピーカ(音声出力部)24は、後述する音声処理部120で音声合成された音声を周囲に発信する。
胴体部12の前面には、文字情報や画像情報を表示するとともに、人間からの操作指示が入力されるタッチパネル20が設けられている。胴体部12の上部の左右両側には、左右方向に延びる軸(図示せず)を介して肩部14が回転自在に設けられている。また、肩部14には、前後方向に延びる軸16を介して腕部13が回転自在に設けられている。図示しない駆動モータにより腕部13及び肩部14を回転駆動することで、腕部13は前後方向及び左右方向に揺動可能となっている。
車輪15は、胴体部12の下部の左右両側に設けられている。図示しない駆動モータにより車輪15を回転駆動することで、ロボット1は自走することができる。また、左右の車輪15の回転速度を変え、両輪間に差動を生じさせることで、ロボット1の走行方向を変えることができる。
図2は、ロボット1の制御系を示すブロック図である。図2に示すように、ロボット1は、制御部100、画像処理部110、音声処理部120、表示処理部130、指示受付部132、無線通信部140、駆動部150、バッテリ160、及び記憶装置200を備える。
画像処理部110は、カメラ22が撮影した画像を処理して、撮影された画像からロボット1の周囲の状況を把握するため、周囲の障害物や人物の認識を行う。画像処理部110は、左右のカメラ22が撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成する。視差は、ロボット1から撮影された物体までの距離を表す。
画像処理部110は、過去の数フレーム(コマ)の画像を記憶しており、最新のフレーム(画像)と過去のフレームとを比較してパターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と移動量画像とから、カメラ22から所定の距離範囲内で移動量の多い画素がある場合に、人物であると推定し、その所定距離範囲のみの視差画像として移動体を抽出する。
画像処理部110は、抽出した移動体の一部分の大きさ、形状などから顔領域及び顔位置を認識する。認識された顔の位置は、ロボット1が移動する際の情報や、その人物とのコミュニケーションをとる際の情報として、制御部100に出力される。
音声処理部120は、音声合成部122及び音声認識部124を有する。音声合成部122は、制御部100から出力された発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカ24に合成音声を出力する。音声データの生成には、予め記憶装置200の発話情報記憶部220に記憶している文字情報と音声データとの対応関係が利用される。
音声認識部124は、マイク23からユーザ等の音声データが入力され、音声認識により音声データから文字情報を生成し、制御部100へ出力する。
表示処理部130は、制御部100から出力された文字情報提示又は画像情報提示の指令に基づき、文字情報又は画像情報をタッチパネル20に表示させる。
指示受付部132は、ユーザからの操作指示がタッチパネル20に入力されると、この操作指示を受け付け、制御部100に操作指示内容を出力する。
無線通信部140は、管理装置4とデータ通信を行う通信装置であり、公衆回線を利用した無線通信手段でもよく、ワイヤレスLANなどの近距離無線通信による無線通信手段でもよい。無線通信部140は、管理装置4から後述する禁止言動リストの更新情報を受信する。
駆動部150は、制御部100から出力された駆動指令に基づいて、ロボット1の腕部13や肩部14を駆動するモータ、車輪15を駆動するモータを制御し、ロボット1を動かす。
バッテリ160は、ロボット1の各部の動作や制御に必要な電力を供給し、例えば充電式バッテリが使用される。
記憶装置200は、例えばハードディスクで構成され、行動パターン記憶部210、発話情報記憶部220、及び禁止言動リスト記憶部230を有する。記憶装置200は、管理装置4から送信された情報を記憶することができる。
行動パターン記憶部210は、状況に応じた行動パターンのシナリオや動作内容を記憶する。例えば、行動パターン記憶部210は、ロボット1から所定距離内に人物が検知された場合、移動を停止し、腕部13を上げ、挨拶の音声を出力するというシナリオを記憶する。発話情報記憶部220は、挨拶等の会話フレーズや、会話の「問い」と「応答」の組などを予め多数格納している。
禁止言動リスト記憶部230は、ロボット1が行うことを禁止する言動のリストを記憶する。ここで、ロボット1の言動とは、例えばスピーカ24からの音声出力やタッチパネル20での情報提示等である。禁止言動リストには、一般的な悪口などが予め登録されている。
制御部100は、管理装置4からリスト更新情報を受信すると、禁止言動リスト記憶部230の禁止言動リストを更新する。これにより、ロボット1の稼働場所又はコミュニケーションの相手となるユーザに応じて、禁止言動リストを更新できる。例えば、ロボット1が病院等のリハビリ施設においてリハビリ患者とコミュニケーションをとる場合、禁止言動リストには「どうせ治らないよ」などの否定的な言葉が登録される。ロボット1が鬱病患者とコミュニケーションをとる場合、禁止言動リストには「頑張れ」などの無理解な励ましの言葉が登録される。また、コミュニケーションの相手に応じて、「鼻が低いね」「耳が大きいね」などの相手のコンプレックスに触れるような言葉が禁止言動リストに登録される。また、コミュニケーション相手が試験を控えた受験生である場合、「落ちる」などの不合格を連想させる言葉が禁止言動リストに登録される。例えば、図3に示すように、禁止言動リストには、ロボット1が出力することを禁止する言動の識別番号(ID)と、その内容とが登録される。
制御部100は、ユーザの位置、ユーザの音声を文字認識した文字情報、ユーザからの操作指示等に基づいて、行動パターン記憶部210を検索してユーザに対する応答行動を決定し、応答行動に発話が含まれる場合は発話情報記憶部220から会話フレーズを取り出す。あるいはまた、制御部100は、ユーザの音声を文字認識した文字情報に基づいてユーザからの「問い」を判別し、発話情報記憶部220を検索して、この「問い」に対する「応答」フレーズを取り出す。
制御部100は、応答行動や応答フレーズを決定すると、ユーザに対して提示する情報(音声、文字、画像)と、禁止言動リスト記憶部230の禁止言動リストに登録されている言動とを比較する。比較の結果、禁止言動リストに登録されている言動と一致するものがない場合、制御部100は、駆動部150を制御して腕部13や肩部14を動かしたり、スピーカ24から音声を出力したり、タッチパネル20に文字や画像を表示したりする。一方、禁止言動リストに登録されている言動と一致するものがある場合、制御部100は、一致した言動を省略した応答行動をとるようにしたり、別の応答行動をとるようにしたりする。
このように、本実施形態によれば、ロボット1は、周囲の状況や人物からの音声等に基づいて人物に対する言動を決定すると、実際にその言動をとる前に、禁止言動リストに登録されている言動と比較し、一致しない場合にその言動をとる。そのため、ロボット1は、人間とコミュニケーションをとるにあたり、コミュニケーション相手を不快にさせる言動を行うことが防止され、コミュニケーション相手の心理的安全性を確保することができる。
上記実施形態では、禁止言動リストに登録される言動の内容として、音声や文字で提示されるものを挙げていたが、ロボット1の行動(動き、動作)でもよい。例えば、コミュニケーションの相手が、事故で腕を失った患者である場合、禁止言動リストには、腕部13を上げて握手を求めるなどの行動が登録される。
複数のロボット1間で禁止言動リストを共有できるようにしてもよい。例えば、ロボット1が、他の1以上のロボット1と通信を行い、自機の禁止言動リストの登録内容を他のロボット1へ送信したり、他のロボット1の禁止言動リストの登録内容を受信したりして、禁止言動リストの登録内容を更新することで、必要な情報を複数のロボット1で共有できる。あるいはまた、データ管理センター(管理装置4)が複数のロボット1に対して共通のリスト更新情報を送信することで、複数のロボット1が共通の禁止言動を禁止言動リストに登録することができる。
上述した実施形態で説明したロボット1の制御系の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、ロボット制御系の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
また、ロボット制御系の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
1 ロボット
2 基地局
3 ネットワーク
4 管理装置
11 頭部
12 胴体部
13 腕部
14 肩部
15 車輪
20 タッチパネル
22 カメラ
23 マイク
24 スピーカ
100 制御部
200 記憶装置
210 行動パターン記憶部
220 発話情報記憶部
230 禁止言動リスト記憶部

Claims (6)

  1. 音声が入力される音声入力部と、
    前記音声入力部から入力された音声を認識する音声認識部と、
    言動が規定されたシナリオを含む行動パターンを記憶する行動パターン記憶部と、
    禁止言動が登録された禁止言動リストを記憶する禁止言動リスト記憶部と、
    前記音声認識部により認識されたユーザの音声に基づいて、前記行動パターン記憶部を検索し、該ユーザに対する応答行動を決定する制御部と、
    を備え、
    前記制御部は、決定した応答行動と前記禁止言動とを比較し、一致しなかった場合に、該決定した応答行動を出力させることを特徴とするロボット。
  2. 音声を合成する音声合成部と、
    前記合成された音声を出力する音声出力部と、
    をさらに備え、
    前記応答行動は、前記音声合成部に音声を合成させ、前記音声出力部より合成音声を出力させるものであることを特徴とする請求項1に記載のロボット。
  3. 前記応答行動は、ロボットの動きを伴うものであることを特徴とする請求項1に記載のロボット。
  4. 前記禁止言動リストの更新情報を受信する無線通信部をさらに備え、
    前記制御部は、前記更新情報に基づいて、前記禁止言動リストを更新することを特徴とする請求項1乃至3のいずれかに記載のロボット。
  5. 文字情報又は画像情報を表示する表示部をさらに備え、
    前記制御部は、前記決定した応答行動と前記禁止言動とが一致しなかった場合に、該決定した応答行動に基づいて、前記表示部に文字情報又は画像情報を表示させることを特徴とする請求項1乃至4のいずれかに記載のロボット。
  6. 前記制御部は、決定した応答行動と前記禁止言動とが一致した場合に、該一致した禁止言動を省略した応答行動を出力させることを特徴とする請求項1乃至5のいずれかに記載のロボット。
JP2014146026A 2014-07-16 2014-07-16 ロボット Pending JP2016022537A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014146026A JP2016022537A (ja) 2014-07-16 2014-07-16 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014146026A JP2016022537A (ja) 2014-07-16 2014-07-16 ロボット

Publications (1)

Publication Number Publication Date
JP2016022537A true JP2016022537A (ja) 2016-02-08

Family

ID=55269793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014146026A Pending JP2016022537A (ja) 2014-07-16 2014-07-16 ロボット

Country Status (1)

Country Link
JP (1) JP2016022537A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107398912A (zh) * 2017-06-28 2017-11-28 重庆柚瓣家科技有限公司 家庭机器人用户行为统计系统
JPWO2017169826A1 (ja) * 2016-03-28 2018-04-12 Groove X株式会社 お出迎え行動する自律行動型ロボット
KR101981116B1 (ko) * 2017-11-17 2019-05-22 동아대학교 산학협력단 홈 서비스 로봇 제어 모듈 및 방법, 홈 서비스 로봇, 컴퓨터 프로그램

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017169826A1 (ja) * 2016-03-28 2018-04-12 Groove X株式会社 お出迎え行動する自律行動型ロボット
US11135727B2 (en) 2016-03-28 2021-10-05 Groove X, Inc. Autonomously acting robot that performs a greeting action
CN107398912A (zh) * 2017-06-28 2017-11-28 重庆柚瓣家科技有限公司 家庭机器人用户行为统计系统
KR101981116B1 (ko) * 2017-11-17 2019-05-22 동아대학교 산학협력단 홈 서비스 로봇 제어 모듈 및 방법, 홈 서비스 로봇, 컴퓨터 프로그램

Similar Documents

Publication Publication Date Title
JP6266736B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
KR101169674B1 (ko) 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법
WO2020204000A1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、コミュニケーション支援プログラム、および画像制御プログラム
JP6361649B2 (ja) 情報処理装置、通知状態制御方法及びプログラム
EP3623118A1 (en) Emotion recognizer, robot including the same, and server including the same
WO2016163530A1 (ja) ロボット及びロボット制御方法並びにロボットシステム
JPWO2007132571A1 (ja) ロボット
JP5729692B2 (ja) ロボット装置
JP2020067799A (ja) コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
JP2009045692A (ja) コミュニケーションロボットとその動作方法
WO2020012955A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016022537A (ja) ロボット
JP2024023193A (ja) 情報処理装置及び情報処理方法
US11550470B2 (en) Grammar dependent tactile pattern invocation
JP2005131713A (ja) コミュニケーションロボット
CN107249436A (zh) 风扇驱动力设备
KR20200062004A (ko) 외국어 자가학습 지원 단말 및 그 방법
US20210097888A1 (en) Transmodal translation of feature vectors to audio for assistive devices
CN107848125A (zh) 机器人和机器人系统
JP7155613B2 (ja) 情報処理装置及びプログラム
JP6686583B2 (ja) ロボット及びプログラム
JP2019175432A (ja) 対話制御装置、対話システム、対話制御方法及びプログラム
KR102224985B1 (ko) 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템 및 인식방법
US20210256263A1 (en) Information processing apparatus, information processing method, and program
JP2019145120A (ja) 仮想空間を提供するための方法、プログラム、および当該プログラムを実行するための情報処理装置