JP2019145000A - Mobile robot and robot system - Google Patents
Mobile robot and robot system Download PDFInfo
- Publication number
- JP2019145000A JP2019145000A JP2018030680A JP2018030680A JP2019145000A JP 2019145000 A JP2019145000 A JP 2019145000A JP 2018030680 A JP2018030680 A JP 2018030680A JP 2018030680 A JP2018030680 A JP 2018030680A JP 2019145000 A JP2019145000 A JP 2019145000A
- Authority
- JP
- Japan
- Prior art keywords
- command
- mobile robot
- unit
- voice recognition
- recognition device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007613 environmental effect Effects 0.000 claims abstract description 14
- 238000004891 communication Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 17
- 238000004140 cleaning Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 239000000428 dust Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Electric Vacuum Cleaner (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、自律的に走行して所定の領域内に移動し、所定の領域で作業を行う移動ロボット、およびロボットシステムに関する。 The present invention relates to a mobile robot that autonomously travels, moves into a predetermined area, and performs work in the predetermined area, and a robot system.
近年では、音声認識技術が向上し、ユーザが発した音声命令に基づき電子的な情報であるコマンドを生成することは身近な技術になりつつある。 In recent years, voice recognition technology has been improved, and it is becoming a familiar technique to generate a command that is electronic information based on a voice command issued by a user.
例えば特許文献1には、指向性のあるマイクロフォンを並べて音声命令の到来方向と雑音の到来方向とを区別し、雑音による音声の認識率の低下を抑制する技術が開示されている。 For example, Patent Document 1 discloses a technology in which directional microphones are arranged to distinguish the direction of arrival of a voice command from the direction of arrival of noise and suppress a reduction in speech recognition rate due to noise.
しかし、音声命令により家電機器などを制御する技術は提案されているが、ユーザが音声命令を発した場所を認識し、認識した場所に対応した領域に移動して作業を行う移動ロボットは未だに登場していない。 However, although technologies for controlling home appliances and the like by voice commands have been proposed, mobile robots that recognize the location where the user issued the voice command and move to an area corresponding to the recognized location are still appearing Not done.
本発明は上記課題を解決するものであり、移動ロボット自体は音声命令を認識することなく、音声命令に対応して所定の領域に移動して作業を実行する移動ロボット、およびロボットシステムの提供を目的としている。 The present invention solves the above problems, and provides a mobile robot and a robot system that move to a predetermined area in accordance with a voice command and execute a work without the mobile robot itself recognizing the voice command. It is aimed.
上記目的を達成するために、本発明の1つである移動ロボットは、自律走行可能な移動ロボットであって、ユーザが発した音声命令に基づき音声認識装置が生成したコマンド、および前記音声認識装置が特定した前記音声命令の到来方向を含む指示情報を、前記音声認識装置から通信によって取得する命令取得部と、前記音声認識装置が配置される所定領域の環境地図を保持する地図保持部と、前記環境地図における前記音声認識装置の位置と向きとを示す機器情報を取得する機器情報取得部と、前記指示情報に基づき前記音声認識装置の位置と向きを基点とした前記到来方向上、またはその近傍に移動させ、前記コマンドに対応した作業を実行させる移動実行部とを備える。 In order to achieve the above object, a mobile robot according to one aspect of the present invention is a mobile robot capable of autonomous running, and a command generated by a voice recognition device based on a voice command issued by a user, and the voice recognition device A command obtaining unit that obtains instruction information including the direction of arrival of the voice command specified by the communication from the voice recognition device, a map holding unit that holds an environment map of a predetermined area where the voice recognition device is disposed, A device information acquisition unit that acquires device information indicating the position and orientation of the voice recognition device in the environment map, and the arrival direction based on the position and orientation of the voice recognition device based on the instruction information, or A movement execution unit for moving to the vicinity and executing work corresponding to the command.
本発明の他の1つであるロボットシステムは、自律走行可能な移動ロボットと、前記移動ロボットとは別体の音声認識装置とを備えるロボットシステムであって、前記音声認識装置は、ユーザが発した音声命令に基づきコマンドを生成するコマンド生成部と、前記音声命令の到来方向を特定する到来方向特定部とを備え、前記移動ロボットは、前記音声認識装置から通信を介して前記コマンド、および前記到来方向を含む指示情報を取得する命令取得部と、前記音声認識装置が配置される所定領域の環境地図を保持する地図保持部と、前記環境地図における前記音声認識装置の位置と向きとを示す機器情報を取得する機器情報取得部と、前記指示情報に基づき前記音声認識装置の位置と向きを基点とした前記到来方向上、またはその近傍に移動させ、前記コマンドに対応した作業を実行させる移動実行部とを備える。 Another robot system according to the present invention is a robot system including a mobile robot capable of autonomous traveling and a voice recognition device separate from the mobile robot, and the voice recognition device is generated by a user. A command generation unit that generates a command based on the voice command and an arrival direction specifying unit that specifies a direction of arrival of the voice command, and the mobile robot transmits the command and the command via communication from the voice recognition device. A command acquisition unit that acquires instruction information including an arrival direction, a map holding unit that holds an environment map of a predetermined area in which the voice recognition device is arranged, and a position and a direction of the voice recognition device in the environment map A device information acquisition unit that acquires device information, and moves on or in the vicinity of the arrival direction based on the position and orientation of the voice recognition device based on the instruction information. It is allowed, and a migration execution unit that executes a task corresponding to said command.
なお、前記移動ロボット、およびロボットシステムの各処理をコンピュータに実行させるためのプログラムを実施することも本発明の実施に該当する。無論、そのプログラムが記録された記録媒体を実施することも本発明の実施に該当する。 It should be noted that execution of a program for causing a computer to execute each process of the mobile robot and the robot system also corresponds to the implementation of the present invention. Of course, the implementation of the recording medium in which the program is recorded also corresponds to the implementation of the present invention.
本発明によれば、移動ロボット自体は音声命令を認識することなく、簡便かつ直感的に作業内容および作業領域を音声により指示することができる。 According to the present invention, the mobile robot itself can easily and intuitively specify the work content and the work area by voice without recognizing the voice command.
次に、本発明における移動ロボット、およびロッボットシステムの実施の形態について、図面を参照しつつ説明する。なお、以下の実施の形態は、本発明における移動ロボットの一例を示したものに過ぎない。従って本発明は、以下の実施の形態を参考に請求の範囲の文言によって範囲が画定されるものであり、以下の実施の形態のみに限定されるものではない。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。 Next, embodiments of the mobile robot and the robot system according to the present invention will be described with reference to the drawings. The following embodiment is merely an example of the mobile robot in the present invention. Therefore, the scope of the present invention is defined by the wording of the claims with reference to the following embodiments, and is not limited to the following embodiments. Therefore, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept of the present invention are not necessarily required to achieve the object of the present invention. It will be described as constituting a preferred form.
また、図面は、本発明を示すために適宜強調や省略、比率の調整を行った模式的な図となっており、実際の形状や位置関係、比率とは異なる場合がある。 In addition, the drawings are schematic diagrams in which emphasis, omission, and ratio adjustment are appropriately performed to show the present invention, and may differ from actual shapes, positional relationships, and ratios.
図1は、実施の形態におけるロボットシステムを概念的に示す図である。同図に示すように、ロボットシステム100は、自律走行可能な移動ロボット110と、移動ロボット110とは別体の音声認識装置150とを備えるシステムである。
FIG. 1 is a diagram conceptually illustrating a robot system according to an embodiment. As shown in the figure, the
図2は、音声認識装置の装置構成、および機能構成を示すブロック図である。音声認識装置150は、いわゆるスマートスピーカなど称される装置であり、マイクロフォンアレイ151と、第一通信装置152と、第一プロセッサ153とを備えている。
FIG. 2 is a block diagram illustrating a device configuration and a functional configuration of the voice recognition device. The
マイクロフォンアレイ151は、音の到来方向を特定し、音を電気的な情報に変換する装置であり、指向性を有する複数のマイクロフォンを相互に異なる方向に向けて配置された装置である。本実施の形態の場合、マイクロフォンアレイ151は、水平面内において放射方向に沿って周方向均等に並べられた複数のマイクロフォンを備えている。また、各マイクロフォンは、外向きの指向性を備えている。
The
第一通信装置152は、移動ロボット110と直接、または他の機器を介して間接的に無線通信を行う装置である。無線通信の種類は特に限定されるものではないが、例えばブルートゥース(登録商標)、無線LAN(Local Area Network)などを例示することができる。また、第一通信装置152は複数種類の通信を行うものでもかまわない。
The
第一プロセッサ153は、プログラムを実行することにより各処理部を実現する装置である。本実施の形態の場合、第一プロセッサ153により、コマンド生成部154と、到来方向特定部155と、指示情報作成部156とが実現されている。
The
コマンド生成部154は、ユーザ200が発した音声命令をマイクロフォンアレイ151から取得して音声認識し、音声命令に対応するコマンドを生成する処理部である。
The
到来方向特定部155は、マイクロフォンアレイ151から取得した信号に基づき音声命令の到来方向を特定する処理部である。到来方向を特定する方法は特に限定されるものではないが、例えば、複数のマイクロフォンがそれぞれ取得した音量の差、音の位相差などに基づき音声命令の到来方向を特定する方法を例示することができる。
The arrival
指示情報作成部156は、コマンド生成部154が生成したコマンドと到来方向特定部155が特定した到来方向に基づき、コマンドに移動ロボット110が移動すべき領域を加えた指示情報を作成する処理部である。指示情報作成部156が作成した指示情報は、第一通信装置152により移動ロボット110に送信される。
The instruction
移動ロボット110は、自律的に床面上などを移動して作業を実行することができる装置である。移動ロボット110の種類は特に限定されるものではなく、所定の場所に移動して介護を行う介護ロボット、人や物などを運搬する搬送ロボットなどを例示することができる。本実施の形態の場合、自律的に走行しながら掃除を行う掃除ロボットを移動ロボット110の例として説明する。
The
図3は、移動ロボットの外観を示す平面図である。図4は、移動ロボットの外観を示す底面図である。図5は、移動ロボットの外観を示す斜視図である。 FIG. 3 is a plan view showing the appearance of the mobile robot. FIG. 4 is a bottom view showing the appearance of the mobile robot. FIG. 5 is a perspective view showing the appearance of the mobile robot.
これらの図に示されるように、移動ロボット110は、音声認識装置150から送信される指示情報に基づき所定の領域内を自律的に走行し、前記領域内に存在するごみを吸引するロボット掃除機であり、駆動ユニット130(図4参照)、掃除エリアに存在するごみを吸引口178から吸引する清掃ユニット140(図4参照)、各種センサ、第二プロセッサ111(図6参照)等を備えている。
As shown in these drawings, the
駆動ユニット130は、本実施の形態の場合、床面上を走行する車輪、車輪にトルクを与える走行用モータ、および、走行用モータを収容するハウジングなどを有する。各車輪は、ボディの下面に形成される凹部に収容され、ボディに対して回転できるように取り付けられている。また、移動ロボット110は、キャスター179を補助輪として備えた対向二輪型であり、2つの車輪の回転を独立して制御することで、直進、後退、左回転、右回転など移動ロボット110を自在に走行させることができる。
In the case of the present embodiment,
駆動ユニット130は、第二プロセッサ111からの指示に基づき移動ロボット110を走行させる。本実施の形態においては、駆動ユニット130は、移動ロボット110の平面視における幅方向の中心に対して左側および右側にそれぞれ1つずつ配置されている。なお、駆動ユニット130の数は、2つに限られず、1つでもよいし、3つ以上でもよい。
The
清掃ユニット140は、ゴミを集めて吸引するユニットであり、吸引口178内に配置されるメインブラシ、メインブラシを回転させるブラシ駆動モータなどを備えている。吸引口178からゴミを吸引する吸引装置は、ボディの内部に配置されており、ファンケース、および、ファンケースの内部に配置される電動ファンを有する。
The
移動ロボット110が備える各種センサとして以下の様なセンサを例示できる。
Examples of the various sensors included in the
障害物センサ173は、ボディの前方に存在する障害物を検出するセンサである。本実施の形態の場合、障害物センサ173は、超音波センサが用いられる。障害物センサ173は、ボディの前方の中央に配置される発信部171、および、発信部171の両側にそれぞれ配置される受信部172を有し、発信部171から発信されて障害物によって反射して帰ってきた超音波を受信部172がそれぞれ受信することで、障害物の距離や位置を検出することができる。
The
測距センサ174は、移動ロボット110の周囲に存在する障害物などの物体と移動ロボット110との距離を検出するセンサである。本実施の形態の場合、測距センサ174は、レーザ光をスキャンして障害物に反射した光に基づき距離を測定するいわゆるレーザーレンジスキャナである。
The
衝突センサ(図示せず)は、移動ロボット110の周囲に取り付けられているバンパが、障害物に接触して移動ロボット110に対して押し込まれることに伴いオンされるスイッチ接触変位センサである。
The collision sensor (not shown) is a switch contact displacement sensor that is turned on when a bumper attached around the
カメラ175は、移動ロボット110の上部空間を撮像する装置である。カメラ175で撮像された画像は、画像処理され、画像内の特徴点の位置から移動ロボット110の現在位置を把握することができるものとなっている。
The
床面センサ176は、移動ロボット110の底面の複数箇所に配置され、掃除エリアとしての床面が存在するか否かを検出する。本実施の形態の場合、床面センサ176は、発光部および受光部を有する赤外線センサであり、発光部から放射した赤外線光が戻ってくる場合は床面有り、閾値以下の光しか戻ってこない場合は床面無しとして検出する。
The
エンコーダ(図示せず)は、駆動ユニット130に備えられており、走行用モータによって回転する一対の車輪のそれぞれの回転角を検出する。エンコーダからの情報により、移動ロボット110の走行量、旋回角度、速度、加速度、角速度などを算出することができる。
The encoder (not shown) is provided in the
加速度センサ(図示せず)は、移動ロボット110が走行する際の加速度を検出し、角速度センサは、移動ロボット110が旋回する際の角速度を検出する。加速度センサ、角速度センサにより検出された情報は、車輪の空回りによって発生する誤差を修正するための情報等に用いられる。
The acceleration sensor (not shown) detects the acceleration when the
以上の障害物センサ173、測距センサ174、衝突センサ、カメラ175、床面センサ176、エンコーダは、例示であり、移動ロボット110は、他の種類のセンサを備えてもよい。
The
第二プロセッサ111は、プログラムを実行することにより各処理部を実現する装置である。本実施の形態の場合、第二プロセッサ111により、命令取得部112と、地図保持部113と、機器情報取得部114と、移動実行部116を処理部として実現している。本実施の形態の場合、第二プロセッサ111はさらに、障害物認識部117と、地図作成部118と、画像取得部119と、位置特定部120と、音声発生部121と、機器情報算出部122とを実現している。なお本実施の形態では、第一プロセッサ153、第二プロセッサ111などのプロセッサを一つのものとして説明しているが、複数のプロセッサによって、それぞれ処理部を実現してもかまわない。
The
命令取得部112は、ユーザ200が発した音声命令に基づき音声認識装置150が生成したコマンド、および特定した到来方向を示す指示情報を、第二通信装置123を介して取得する処理部である。第二通信装置123は、音声認識装置150と直接、または他の機器を介して間接的に無線通信を行う装置である。
The
地図保持部113は、音声認識装置150が配置される所定領域であって移動ロボット110が移動し掃除などの作業を行う領域の環境地図を保持する処理部である。環境地図は、ロボットシステム100の外部から取得してもよいが、本実施の形態の場合、障害物認識部117、および地図作成部118により移動ロボット110自体が作成している。
The
障害物認識部117は、移動ロボット110の自己位置と障害物との位置関係をエンコーダや測距センサ174などのセンサからの情報に基づき算出する処理部である。障害物認識部117は、自律走行する移動ロボット110により複数箇所において障害物と自己位置との関係を示す情報を蓄積する。
The
地図作成部118は、障害物認識部117が算出し蓄積したデータを統合して環境地図を作成する処理部である。環境地図を生成する方法は特に限定されるものではないが、例えばSLAM(Simultaneous Localization and Mapping)等を例示することができる。
The
地図作成部118は、移動ロボット110の走行実績に基づき実際に走行した領域の外形、および、走行を阻害する障害物などを示す情報を環境地図として生成する。地図作成部118により生成される環境地図は、例えば2次元の配列データとして実現される。走行実績を例えば縦横10cmなどの所定の大きさの四角形で分割し、各四角形が環境地図を構成する配列の要素エリアであるとみなし、配列データとして処理してもよい。
The
機器情報取得部114は、環境地図における音声認識装置150の位置と向きとを示す機器情報を取得する処理部である。機器情報を取得する方法は特に限定されるものではなく、ユーザ200が移動ロボット110に対して入力した機器情報を取得してもかまわない。具体的に例えば、地図保持部113が保持している環境地図をスマートフォンなどの携帯端末、コンピュータなどに表示させ、音声認識装置150の環境地図上の位置や向きなどを携帯端末を用いてユーザ200が入力し、当該情報を移動ロボット110に送信することで入力してもかまわない。
The device
本実施の形態の場合、機器情報は外部から入力されるのではなく、移動ロボット110が、音声発生部121、および機器情報算出部122とに基づき機器情報を算出し、算出された機器情報を機器情報取得部114が取得している。
In the case of the present embodiment, the device information is not input from the outside, but the
具体的には、音声発生部121は、スピーカなどを用いて音声認識装置150が認識可能な疑似音声命令を発生させる処理部であり、環境地図を作成中、掃除中など移動ロボット110が自律的に移動している際に少なくとも異なる3箇所で疑似音声命令を発生させる。
Specifically, the
機器情報算出部122は、音声発生部121が疑似音声命令を発生させた環境地図上の位置情報をセンサなどから取得する処理部であり、取得した位置情報、および命令取得部112が取得した疑似音声命令に対応した指示情報に基づき機器情報を算出する。
The device
移動実行部116は、指示情報に基づき音声認識装置150の位置と向きを基点とした音声命令の到来方向上、またはその近傍に移動させ、指示情報に含まれるコマンドに対応した作業を実行させる処理部である。具体的に例えば、図7に示すような状況下、ユーザ200が、「このあたりを掃除して」と音声命令を発した場合、音声認識装置150を介して指示情報を取得した移動実行部116は、地図保持部113で保持している環境地図と、環境地図内における音声認識装置150の位置、および向き159、音声認識装置150が認識した音声命令の到来方向158に基づき作業を実行すべき第一領域201を環境地図上で決定する。また、指示情報に含まれるコマンドから作業内容を把握し、例えば掃除を行う事を決定する。また、移動実行部116は、決定した情報に基づき、移動ロボット110を第一領域201に移動させ、作業を実行させる。
The
なお、移動ロボット110を第一領域201に向かわせる方法は特に限定されるものではなく、例えば、音声認識装置150に移動ロボット110を向かわせた後、第一領域201内を自律走行させながら作用を行わせてもかまわない。また、移動ロボット110から最も近い第一領域201に移動ロボット110を向かわせてもかまわない。
The method for moving the
また、第二プロセッサ111により実現される画像取得部119と位置特定部120とにより、作業を実行すべき領域を第二領域202に絞り込んでもよい。
Further, the area where the work should be performed may be narrowed down to the
具体的には、画像取得部119は、音声認識装置150の位置と向き159を基点とした到来方向158上の像を移動ロボット110が備えるカメラ175などにより撮像させて画像を取得する。これにより、画像を取得する領域を絞ることができ、比較的高速にユーザ200の像を撮像することが可能となる。
Specifically, the
位置特定部120は、画像取得部119が取得した画像に基づき画像解析などによりユーザ200の環境地図上の位置を特定する。移動実行部116は、位置特定部120によって特定されたユーザ200の位置、またはその近傍の第二領域202に移動ロボット110を移動させ、前記コマンドを実行させる。これによれば、移動ロボット110を所望の領域に速やかに移動させることができ、当該領域で作業を実行させることができる。例えば、ユーザ200の近傍のみを移動ロボット110に掃除させることができる。また、ユーザ200に物品を搬送することも可能となる。
The
上記実施の形態にかかる移動ロボット110によれば、音声命令という直感的な指示により、移動ロボット110を所望の領域に移動させ、作業を実行させることができる。
According to the
また、移動ロボット110が音声命令を認識し、その到来方向を判断する必要がないため、マイクロフォンアレイ151などの比較的重量のある装置を搭載する必要がなく、軽量化を図り省エネルギーに寄与することができる。また、移動ロボット110が音声認識など重い処理を行うことがないため、ユーザが発した音声命令に対して即座に移動し作業を開始することができる。
In addition, since it is not necessary for the
また、音声認識装置150が音声命令を認識し、移動ロボット110に通信で指示情報を送信できるため、移動ロボット110が作業を実行して騒音を発生させている場合や音声命令が届かない位置に移動ロボット110が存在している場合などでも、移動ロボット110に所望の作業を実行させることができる。
Further, since the
なお、本発明は、上記実施の形態に限定されるものではない。例えば、本明細書において記載した構成要素を任意に組み合わせて、また、構成要素のいくつかを除外して実現される別の実施の形態を本発明の実施の形態としてもよい。また、上記実施の形態に対して本発明の主旨、すなわち、請求の範囲に記載される文言が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本発明に含まれる。 The present invention is not limited to the above embodiment. For example, another embodiment realized by arbitrarily combining the components described in this specification and excluding some of the components may be used as an embodiment of the present invention. In addition, the present invention includes modifications obtained by making various modifications conceivable by those skilled in the art without departing from the gist of the present invention, that is, the meaning of the words described in the claims. It is.
例えば、移動ロボット110は、ロボット掃除機に限定されるわけではなく、飲み物や薬などをユーザ200に搬送する搬送ロボット、ユーザ200の動作の手助けをする介助ロボットなどでもかまわない。
For example, the
また、ユーザ200の位置を特定するために、カメラ175が撮像した画像を用いたが、レーザーレンジスキャナからの情報を単独、または画像と組み合わせて用いてもよい。また、TOF(Time−of−Flight)カメラなどを別途設けてもかまわない。
Further, in order to specify the position of the
本発明は、自律走行可能なロボットに適用可能である。 The present invention is applicable to a robot capable of autonomous traveling.
100 ロボットシステム
110 移動ロボット
111 第二プロセッサ
112 命令取得部
113 地図保持部
114 機器情報取得部
116 移動実行部
117 障害物認識部
118 地図作成部
119 画像取得部
120 位置特定部
121 音声発生部
122 機器情報算出部
123 第二通信装置
130 駆動ユニット
140 清掃ユニット
150 音声認識装置
151 マイクロフォンアレイ
152 第一通信装置
153 第一プロセッサ
154 コマンド生成部
155 到来方向特定部
156 指示情報作成部
158 到来方向
171 発信部
172 受信部
173 障害物センサ
174 測距センサ
175 カメラ
176 床面センサ
178 吸引口
179 キャスター
200 ユーザ
201 第一領域
202 第二領域
DESCRIPTION OF
Claims (5)
ユーザが発した音声命令に基づき音声認識装置が生成したコマンド、および前記音声認識装置が特定した前記音声命令の到来方向を含む指示情報を、前記音声認識装置から通信によって取得する命令取得部と、
前記音声認識装置が配置される所定領域の環境地図を保持する地図保持部と、
前記環境地図における前記音声認識装置の位置と向きとを示す機器情報を取得する機器情報取得部と、
前記指示情報に基づき前記音声認識装置の位置と向きを基点とした前記到来方向上、またはその近傍に移動させ、前記コマンドに対応した作業を実行させる移動実行部と
を備える移動ロボット。 A mobile robot that can travel autonomously,
A command acquisition unit that acquires, by communication, the command generated by the voice recognition device based on the voice command issued by the user and the instruction information including the arrival direction of the voice command specified by the voice recognition device;
A map holding unit for holding an environmental map of a predetermined area where the voice recognition device is arranged;
A device information acquisition unit that acquires device information indicating the position and orientation of the voice recognition device in the environmental map;
A mobile robot comprising: a movement execution unit that moves in or near the arrival direction based on the position and orientation of the voice recognition device based on the instruction information, and executes a task corresponding to the command.
前記障害物認識部が算出したデータを統合して前記環境地図を作成する地図作成部と
を備える請求項1に記載の移動ロボット。 An obstacle recognition unit that calculates the positional relationship between the self-position and the obstacle based on information from the sensor;
The mobile robot according to claim 1, further comprising: a map creation unit that creates the environmental map by integrating data calculated by the obstacle recognition unit.
取得した画像に基づきユーザの位置を特定する位置特定部とを備え、
前記移動実行部は、特定されたユーザ位置、またはその近傍に移動させ、前記コマンドを実行させる
請求項1または2に記載の移動ロボット。 An image acquisition unit for acquiring an image on the arrival direction based on the position and orientation of the voice recognition device;
A position specifying unit that specifies the position of the user based on the acquired image,
The mobile robot according to claim 1, wherein the movement execution unit moves the specified user position or the vicinity thereof to execute the command.
前記命令取得部が取得した疑似音声命令に対応した指示情報、および疑似音声命令を発した位置に基づき前記機器情報を算出する機器情報算出部と
を備える請求項1から3のいずれか一項に記載の移動ロボット。 A voice generation unit that generates pseudo voice commands recognizable by the voice recognition device at least at three different locations;
4. The apparatus according to claim 1, further comprising: instruction information corresponding to the pseudo voice command acquired by the command acquisition unit, and a device information calculation unit that calculates the device information based on a position where the pseudo voice command is issued. The described mobile robot.
前記音声認識装置は、
ユーザが発した音声命令に基づきコマンドを生成するコマンド生成部と、
前記音声命令の到来方向を特定する到来方向特定部とを備え、
前記移動ロボットは、
前記音声認識装置から通信を介して前記コマンド、および前記到来方向を含む指示情報を取得する命令取得部と、
前記音声認識装置が配置される所定領域の環境地図を保持する地図保持部と、
前記環境地図における前記音声認識装置の位置と向きとを示す機器情報を取得する機器情報取得部と、
前記指示情報に基づき前記音声認識装置の位置と向きを基点とした前記到来方向上、またはその近傍に移動させ、前記コマンドに対応した作業を実行させる移動実行部と
を備えるロボットシステム。 A robot system comprising a mobile robot capable of autonomous traveling and a voice recognition device separate from the mobile robot,
The voice recognition device
A command generator for generating a command based on a voice command issued by a user;
An arrival direction identifying unit that identifies an arrival direction of the voice command;
The mobile robot is
A command acquisition unit configured to acquire instruction information including the command and the direction of arrival from the voice recognition device via communication;
A map holding unit for holding an environmental map of a predetermined area where the voice recognition device is arranged;
A device information acquisition unit that acquires device information indicating the position and orientation of the voice recognition device in the environmental map;
A robot system comprising: a movement execution unit that moves in or near the arrival direction based on the position and orientation of the voice recognition device based on the instruction information and that performs a task corresponding to the command.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018030680A JP6964275B2 (en) | 2018-02-23 | 2018-02-23 | Mobile robots and robot systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018030680A JP6964275B2 (en) | 2018-02-23 | 2018-02-23 | Mobile robots and robot systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019145000A true JP2019145000A (en) | 2019-08-29 |
JP6964275B2 JP6964275B2 (en) | 2021-11-10 |
Family
ID=67772474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018030680A Active JP6964275B2 (en) | 2018-02-23 | 2018-02-23 | Mobile robots and robot systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6964275B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158868A (en) * | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | Mobile body and control method |
JP2017138476A (en) * | 2016-02-03 | 2017-08-10 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2018
- 2018-02-23 JP JP2018030680A patent/JP6964275B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158868A (en) * | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | Mobile body and control method |
JP2017138476A (en) * | 2016-02-03 | 2017-08-10 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6964275B2 (en) | 2021-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7259015B2 (en) | Mobile robot and its control method | |
US20240118700A1 (en) | Mobile robot and control method of mobile robot | |
EP3727122B1 (en) | Robot cleaners and controlling method thereof | |
KR101428877B1 (en) | A robot cleaner | |
JP4215757B2 (en) | Robot vacuum cleaner | |
KR102021833B1 (en) | A ROBOT CLEANER Using artificial intelligence AND CONTROL METHOD THEREOF | |
TWI723527B (en) | Plurality of autonomous mobile robots and controlling method for the same | |
KR102459151B1 (en) | Robot cleaner and controlling method thereof | |
JP2014106638A (en) | Moving device and control method | |
WO2020017235A1 (en) | Self-propelled vacuum cleaner | |
JP6964275B2 (en) | Mobile robots and robot systems | |
JP7033720B2 (en) | Mobile robot | |
JP6871602B2 (en) | Autonomous vacuum cleaner | |
CN111225592B (en) | Autonomous traveling dust collector and extended area identification method | |
WO2020059292A1 (en) | Autonomous traveling cleaner | |
WO2020017239A1 (en) | Self-propelled type vacuum cleaner and control method for self-propelled type vacuum cleaner | |
WO2019049655A1 (en) | Autonomous travel-type cleaner and method for updating cumulative floor area probability | |
CN221242704U (en) | Mobile cleaning robot | |
CN220967216U (en) | Mobile cleaning robot | |
JP7325058B2 (en) | self-propelled vacuum cleaner | |
WO2023089886A1 (en) | Traveling map creating device, autonomous robot, method for creating traveling map, and program | |
US20230152433A1 (en) | Ultrasonic direct echo path reduction | |
US11925305B2 (en) | Autonomous travel-type cleaner and control method | |
WO2023157345A1 (en) | Traveling map creation device, autonomous robot, method for creating traveling map, and program | |
Umer et al. | A novel localization and navigation approach for an indoor autonomous mobile surveillance robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211005 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6964275 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |