JP2019145000A - Mobile robot and robot system - Google Patents

Mobile robot and robot system Download PDF

Info

Publication number
JP2019145000A
JP2019145000A JP2018030680A JP2018030680A JP2019145000A JP 2019145000 A JP2019145000 A JP 2019145000A JP 2018030680 A JP2018030680 A JP 2018030680A JP 2018030680 A JP2018030680 A JP 2018030680A JP 2019145000 A JP2019145000 A JP 2019145000A
Authority
JP
Japan
Prior art keywords
command
mobile robot
unit
voice recognition
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018030680A
Other languages
Japanese (ja)
Other versions
JP6964275B2 (en
Inventor
西岡 伸一郎
Shinichiro Nishioka
伸一郎 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018030680A priority Critical patent/JP6964275B2/en
Publication of JP2019145000A publication Critical patent/JP2019145000A/en
Application granted granted Critical
Publication of JP6964275B2 publication Critical patent/JP6964275B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electric Vacuum Cleaner (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To cause a mobile robot to perform work based on a voice command through a voice recognition device.SOLUTION: A mobile robot 110 capable of autonomous travel comprises: a command acquisition part 112 for acquiring a command generated by a voice recognition device 150 based on a voice command issued by a user 200, and command information including an arrival direction of the voice command; a map holding part 113 for holding an environmental map of a prescribed area where the voice recognition device 150 is disposed; a device information acquisition part 114 for acquiring device information indicating the position and orientation of the voice recognition device 150 on the environmental map; and a movement execution part 116 for moving in or near the arrival direction based on the position and orientation of the voice recognition device 150 and for executing work corresponding to the command.SELECTED DRAWING: Figure 1

Description

本発明は、自律的に走行して所定の領域内に移動し、所定の領域で作業を行う移動ロボット、およびロボットシステムに関する。   The present invention relates to a mobile robot that autonomously travels, moves into a predetermined area, and performs work in the predetermined area, and a robot system.

近年では、音声認識技術が向上し、ユーザが発した音声命令に基づき電子的な情報であるコマンドを生成することは身近な技術になりつつある。   In recent years, voice recognition technology has been improved, and it is becoming a familiar technique to generate a command that is electronic information based on a voice command issued by a user.

例えば特許文献1には、指向性のあるマイクロフォンを並べて音声命令の到来方向と雑音の到来方向とを区別し、雑音による音声の認識率の低下を抑制する技術が開示されている。   For example, Patent Document 1 discloses a technology in which directional microphones are arranged to distinguish the direction of arrival of a voice command from the direction of arrival of noise and suppress a reduction in speech recognition rate due to noise.

特開2009−210956号公報JP 2009-210956 A

しかし、音声命令により家電機器などを制御する技術は提案されているが、ユーザが音声命令を発した場所を認識し、認識した場所に対応した領域に移動して作業を行う移動ロボットは未だに登場していない。   However, although technologies for controlling home appliances and the like by voice commands have been proposed, mobile robots that recognize the location where the user issued the voice command and move to an area corresponding to the recognized location are still appearing Not done.

本発明は上記課題を解決するものであり、移動ロボット自体は音声命令を認識することなく、音声命令に対応して所定の領域に移動して作業を実行する移動ロボット、およびロボットシステムの提供を目的としている。   The present invention solves the above problems, and provides a mobile robot and a robot system that move to a predetermined area in accordance with a voice command and execute a work without the mobile robot itself recognizing the voice command. It is aimed.

上記目的を達成するために、本発明の1つである移動ロボットは、自律走行可能な移動ロボットであって、ユーザが発した音声命令に基づき音声認識装置が生成したコマンド、および前記音声認識装置が特定した前記音声命令の到来方向を含む指示情報を、前記音声認識装置から通信によって取得する命令取得部と、前記音声認識装置が配置される所定領域の環境地図を保持する地図保持部と、前記環境地図における前記音声認識装置の位置と向きとを示す機器情報を取得する機器情報取得部と、前記指示情報に基づき前記音声認識装置の位置と向きを基点とした前記到来方向上、またはその近傍に移動させ、前記コマンドに対応した作業を実行させる移動実行部とを備える。   In order to achieve the above object, a mobile robot according to one aspect of the present invention is a mobile robot capable of autonomous running, and a command generated by a voice recognition device based on a voice command issued by a user, and the voice recognition device A command obtaining unit that obtains instruction information including the direction of arrival of the voice command specified by the communication from the voice recognition device, a map holding unit that holds an environment map of a predetermined area where the voice recognition device is disposed, A device information acquisition unit that acquires device information indicating the position and orientation of the voice recognition device in the environment map, and the arrival direction based on the position and orientation of the voice recognition device based on the instruction information, or A movement execution unit for moving to the vicinity and executing work corresponding to the command.

本発明の他の1つであるロボットシステムは、自律走行可能な移動ロボットと、前記移動ロボットとは別体の音声認識装置とを備えるロボットシステムであって、前記音声認識装置は、ユーザが発した音声命令に基づきコマンドを生成するコマンド生成部と、前記音声命令の到来方向を特定する到来方向特定部とを備え、前記移動ロボットは、前記音声認識装置から通信を介して前記コマンド、および前記到来方向を含む指示情報を取得する命令取得部と、前記音声認識装置が配置される所定領域の環境地図を保持する地図保持部と、前記環境地図における前記音声認識装置の位置と向きとを示す機器情報を取得する機器情報取得部と、前記指示情報に基づき前記音声認識装置の位置と向きを基点とした前記到来方向上、またはその近傍に移動させ、前記コマンドに対応した作業を実行させる移動実行部とを備える。   Another robot system according to the present invention is a robot system including a mobile robot capable of autonomous traveling and a voice recognition device separate from the mobile robot, and the voice recognition device is generated by a user. A command generation unit that generates a command based on the voice command and an arrival direction specifying unit that specifies a direction of arrival of the voice command, and the mobile robot transmits the command and the command via communication from the voice recognition device. A command acquisition unit that acquires instruction information including an arrival direction, a map holding unit that holds an environment map of a predetermined area in which the voice recognition device is arranged, and a position and a direction of the voice recognition device in the environment map A device information acquisition unit that acquires device information, and moves on or in the vicinity of the arrival direction based on the position and orientation of the voice recognition device based on the instruction information. It is allowed, and a migration execution unit that executes a task corresponding to said command.

なお、前記移動ロボット、およびロボットシステムの各処理をコンピュータに実行させるためのプログラムを実施することも本発明の実施に該当する。無論、そのプログラムが記録された記録媒体を実施することも本発明の実施に該当する。   It should be noted that execution of a program for causing a computer to execute each process of the mobile robot and the robot system also corresponds to the implementation of the present invention. Of course, the implementation of the recording medium in which the program is recorded also corresponds to the implementation of the present invention.

本発明によれば、移動ロボット自体は音声命令を認識することなく、簡便かつ直感的に作業内容および作業領域を音声により指示することができる。   According to the present invention, the mobile robot itself can easily and intuitively specify the work content and the work area by voice without recognizing the voice command.

実施の形態におけるロボットシステムを概念的に示す図である。1 is a diagram conceptually showing a robot system in an embodiment. FIG. 実施の形態における音声認識装置の装置構成、および機能構成を示すブロック図である。It is a block diagram which shows the apparatus structure and functional structure of the speech recognition apparatus in embodiment. 実施の形態における移動ロボットの外観を上方から示す平面図である。It is a top view which shows the external appearance of the mobile robot in embodiment from upper direction. 実施の形態における移動ロボットの外観を下方から示す底面図である。It is a bottom view which shows the external appearance of the mobile robot in embodiment from the downward direction. 実施の形態における移動ロボットの外観を上方から示す斜視図である。It is a perspective view which shows the external appearance of the mobile robot in embodiment from upper direction. 実施の形態における移動ロボットの装置構成、および機能構成を示すブロック図である。It is a block diagram which shows the apparatus structure and functional structure of the mobile robot in embodiment. 実施の形態におけるロボットシステムの動作態様を示す図である。It is a figure which shows the operation | movement aspect of the robot system in embodiment.

次に、本発明における移動ロボット、およびロッボットシステムの実施の形態について、図面を参照しつつ説明する。なお、以下の実施の形態は、本発明における移動ロボットの一例を示したものに過ぎない。従って本発明は、以下の実施の形態を参考に請求の範囲の文言によって範囲が画定されるものであり、以下の実施の形態のみに限定されるものではない。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。   Next, embodiments of the mobile robot and the robot system according to the present invention will be described with reference to the drawings. The following embodiment is merely an example of the mobile robot in the present invention. Therefore, the scope of the present invention is defined by the wording of the claims with reference to the following embodiments, and is not limited to the following embodiments. Therefore, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept of the present invention are not necessarily required to achieve the object of the present invention. It will be described as constituting a preferred form.

また、図面は、本発明を示すために適宜強調や省略、比率の調整を行った模式的な図となっており、実際の形状や位置関係、比率とは異なる場合がある。   In addition, the drawings are schematic diagrams in which emphasis, omission, and ratio adjustment are appropriately performed to show the present invention, and may differ from actual shapes, positional relationships, and ratios.

図1は、実施の形態におけるロボットシステムを概念的に示す図である。同図に示すように、ロボットシステム100は、自律走行可能な移動ロボット110と、移動ロボット110とは別体の音声認識装置150とを備えるシステムである。   FIG. 1 is a diagram conceptually illustrating a robot system according to an embodiment. As shown in the figure, the robot system 100 is a system including a mobile robot 110 that can travel autonomously and a voice recognition device 150 that is separate from the mobile robot 110.

図2は、音声認識装置の装置構成、および機能構成を示すブロック図である。音声認識装置150は、いわゆるスマートスピーカなど称される装置であり、マイクロフォンアレイ151と、第一通信装置152と、第一プロセッサ153とを備えている。   FIG. 2 is a block diagram illustrating a device configuration and a functional configuration of the voice recognition device. The voice recognition device 150 is a device called a so-called smart speaker, and includes a microphone array 151, a first communication device 152, and a first processor 153.

マイクロフォンアレイ151は、音の到来方向を特定し、音を電気的な情報に変換する装置であり、指向性を有する複数のマイクロフォンを相互に異なる方向に向けて配置された装置である。本実施の形態の場合、マイクロフォンアレイ151は、水平面内において放射方向に沿って周方向均等に並べられた複数のマイクロフォンを備えている。また、各マイクロフォンは、外向きの指向性を備えている。   The microphone array 151 is a device that specifies the arrival direction of sound and converts the sound into electrical information, and is a device in which a plurality of directional microphones are arranged in different directions. In the case of the present embodiment, the microphone array 151 includes a plurality of microphones arranged uniformly in the circumferential direction along the radial direction in a horizontal plane. Each microphone has outward directivity.

第一通信装置152は、移動ロボット110と直接、または他の機器を介して間接的に無線通信を行う装置である。無線通信の種類は特に限定されるものではないが、例えばブルートゥース(登録商標)、無線LAN(Local Area Network)などを例示することができる。また、第一通信装置152は複数種類の通信を行うものでもかまわない。   The first communication device 152 is a device that performs wireless communication with the mobile robot 110 directly or indirectly through another device. The type of wireless communication is not particularly limited, and examples thereof include Bluetooth (registered trademark) and wireless LAN (Local Area Network). The first communication device 152 may perform a plurality of types of communication.

第一プロセッサ153は、プログラムを実行することにより各処理部を実現する装置である。本実施の形態の場合、第一プロセッサ153により、コマンド生成部154と、到来方向特定部155と、指示情報作成部156とが実現されている。   The first processor 153 is a device that implements each processing unit by executing a program. In the present embodiment, the first processor 153 implements a command generation unit 154, an arrival direction identification unit 155, and an instruction information creation unit 156.

コマンド生成部154は、ユーザ200が発した音声命令をマイクロフォンアレイ151から取得して音声認識し、音声命令に対応するコマンドを生成する処理部である。   The command generation unit 154 is a processing unit that acquires a voice command issued by the user 200 from the microphone array 151, recognizes the voice, and generates a command corresponding to the voice command.

到来方向特定部155は、マイクロフォンアレイ151から取得した信号に基づき音声命令の到来方向を特定する処理部である。到来方向を特定する方法は特に限定されるものではないが、例えば、複数のマイクロフォンがそれぞれ取得した音量の差、音の位相差などに基づき音声命令の到来方向を特定する方法を例示することができる。   The arrival direction identifying unit 155 is a processing unit that identifies the arrival direction of the voice command based on the signal acquired from the microphone array 151. The method for specifying the direction of arrival is not particularly limited. For example, the method for specifying the direction of arrival of the voice command based on the difference in volume and the phase difference of sound acquired by a plurality of microphones may be exemplified. it can.

指示情報作成部156は、コマンド生成部154が生成したコマンドと到来方向特定部155が特定した到来方向に基づき、コマンドに移動ロボット110が移動すべき領域を加えた指示情報を作成する処理部である。指示情報作成部156が作成した指示情報は、第一通信装置152により移動ロボット110に送信される。   The instruction information creation unit 156 is a processing unit that creates instruction information in which a region to which the mobile robot 110 should move is added to a command based on the command generated by the command generation unit 154 and the arrival direction specified by the arrival direction specification unit 155. is there. The instruction information created by the instruction information creating unit 156 is transmitted to the mobile robot 110 by the first communication device 152.

移動ロボット110は、自律的に床面上などを移動して作業を実行することができる装置である。移動ロボット110の種類は特に限定されるものではなく、所定の場所に移動して介護を行う介護ロボット、人や物などを運搬する搬送ロボットなどを例示することができる。本実施の形態の場合、自律的に走行しながら掃除を行う掃除ロボットを移動ロボット110の例として説明する。   The mobile robot 110 is an apparatus that can autonomously move on the floor surface and execute work. The type of the mobile robot 110 is not particularly limited, and examples thereof include a care robot that moves to a predetermined place and provides care, and a transfer robot that conveys people and objects. In the case of the present embodiment, a cleaning robot that performs cleaning while traveling autonomously will be described as an example of the mobile robot 110.

図3は、移動ロボットの外観を示す平面図である。図4は、移動ロボットの外観を示す底面図である。図5は、移動ロボットの外観を示す斜視図である。   FIG. 3 is a plan view showing the appearance of the mobile robot. FIG. 4 is a bottom view showing the appearance of the mobile robot. FIG. 5 is a perspective view showing the appearance of the mobile robot.

これらの図に示されるように、移動ロボット110は、音声認識装置150から送信される指示情報に基づき所定の領域内を自律的に走行し、前記領域内に存在するごみを吸引するロボット掃除機であり、駆動ユニット130(図4参照)、掃除エリアに存在するごみを吸引口178から吸引する清掃ユニット140(図4参照)、各種センサ、第二プロセッサ111(図6参照)等を備えている。   As shown in these drawings, the mobile robot 110 autonomously travels within a predetermined area based on the instruction information transmitted from the voice recognition device 150, and sucks dust existing in the area. And a drive unit 130 (see FIG. 4), a cleaning unit 140 (see FIG. 4) for sucking dust existing in the cleaning area from the suction port 178, various sensors, a second processor 111 (see FIG. 6), and the like. Yes.

駆動ユニット130は、本実施の形態の場合、床面上を走行する車輪、車輪にトルクを与える走行用モータ、および、走行用モータを収容するハウジングなどを有する。各車輪は、ボディの下面に形成される凹部に収容され、ボディに対して回転できるように取り付けられている。また、移動ロボット110は、キャスター179を補助輪として備えた対向二輪型であり、2つの車輪の回転を独立して制御することで、直進、後退、左回転、右回転など移動ロボット110を自在に走行させることができる。   In the case of the present embodiment, drive unit 130 includes a wheel that travels on the floor, a travel motor that applies torque to the wheel, a housing that houses the travel motor, and the like. Each wheel is accommodated in a recess formed in the lower surface of the body and is attached so as to be rotatable with respect to the body. The mobile robot 110 is a two-wheeled type equipped with casters 179 as auxiliary wheels. The mobile robot 110 can freely move, such as going straight, retreating, turning left, turning right, by independently controlling the rotation of the two wheels. Can be run.

駆動ユニット130は、第二プロセッサ111からの指示に基づき移動ロボット110を走行させる。本実施の形態においては、駆動ユニット130は、移動ロボット110の平面視における幅方向の中心に対して左側および右側にそれぞれ1つずつ配置されている。なお、駆動ユニット130の数は、2つに限られず、1つでもよいし、3つ以上でもよい。   The drive unit 130 causes the mobile robot 110 to travel based on an instruction from the second processor 111. In the present embodiment, one drive unit 130 is arranged on each of the left side and the right side with respect to the center in the width direction of the mobile robot 110 in plan view. The number of drive units 130 is not limited to two, and may be one or three or more.

清掃ユニット140は、ゴミを集めて吸引するユニットであり、吸引口178内に配置されるメインブラシ、メインブラシを回転させるブラシ駆動モータなどを備えている。吸引口178からゴミを吸引する吸引装置は、ボディの内部に配置されており、ファンケース、および、ファンケースの内部に配置される電動ファンを有する。   The cleaning unit 140 is a unit that collects and sucks dust, and includes a main brush disposed in the suction port 178, a brush drive motor that rotates the main brush, and the like. The suction device that sucks dust from the suction port 178 is disposed inside the body, and includes a fan case and an electric fan disposed inside the fan case.

移動ロボット110が備える各種センサとして以下の様なセンサを例示できる。   Examples of the various sensors included in the mobile robot 110 include the following sensors.

障害物センサ173は、ボディの前方に存在する障害物を検出するセンサである。本実施の形態の場合、障害物センサ173は、超音波センサが用いられる。障害物センサ173は、ボディの前方の中央に配置される発信部171、および、発信部171の両側にそれぞれ配置される受信部172を有し、発信部171から発信されて障害物によって反射して帰ってきた超音波を受信部172がそれぞれ受信することで、障害物の距離や位置を検出することができる。   The obstacle sensor 173 is a sensor that detects an obstacle present in front of the body. In the present embodiment, the obstacle sensor 173 is an ultrasonic sensor. The obstacle sensor 173 includes a transmitter 171 disposed in the center of the front of the body, and receivers 172 disposed on both sides of the transmitter 171. The obstacle sensor 173 is transmitted from the transmitter 171 and reflected by the obstacle. When the receiving unit 172 receives the ultrasonic waves that have returned, the distance and position of the obstacle can be detected.

測距センサ174は、移動ロボット110の周囲に存在する障害物などの物体と移動ロボット110との距離を検出するセンサである。本実施の形態の場合、測距センサ174は、レーザ光をスキャンして障害物に反射した光に基づき距離を測定するいわゆるレーザーレンジスキャナである。   The distance measuring sensor 174 is a sensor that detects a distance between an object such as an obstacle existing around the mobile robot 110 and the mobile robot 110. In the case of the present embodiment, the distance measuring sensor 174 is a so-called laser range scanner that measures a distance based on light reflected by an obstacle by scanning laser light.

衝突センサ(図示せず)は、移動ロボット110の周囲に取り付けられているバンパが、障害物に接触して移動ロボット110に対して押し込まれることに伴いオンされるスイッチ接触変位センサである。   The collision sensor (not shown) is a switch contact displacement sensor that is turned on when a bumper attached around the mobile robot 110 comes into contact with an obstacle and is pushed into the mobile robot 110.

カメラ175は、移動ロボット110の上部空間を撮像する装置である。カメラ175で撮像された画像は、画像処理され、画像内の特徴点の位置から移動ロボット110の現在位置を把握することができるものとなっている。   The camera 175 is a device that images the upper space of the mobile robot 110. The image captured by the camera 175 is subjected to image processing, and the current position of the mobile robot 110 can be grasped from the position of the feature point in the image.

床面センサ176は、移動ロボット110の底面の複数箇所に配置され、掃除エリアとしての床面が存在するか否かを検出する。本実施の形態の場合、床面センサ176は、発光部および受光部を有する赤外線センサであり、発光部から放射した赤外線光が戻ってくる場合は床面有り、閾値以下の光しか戻ってこない場合は床面無しとして検出する。   The floor surface sensors 176 are arranged at a plurality of locations on the bottom surface of the mobile robot 110 and detect whether or not there is a floor surface as a cleaning area. In the case of the present embodiment, the floor sensor 176 is an infrared sensor having a light emitting part and a light receiving part. When infrared light radiated from the light emitting part returns, there is a floor surface and only light below a threshold value is returned. In the case, it is detected that there is no floor.

エンコーダ(図示せず)は、駆動ユニット130に備えられており、走行用モータによって回転する一対の車輪のそれぞれの回転角を検出する。エンコーダからの情報により、移動ロボット110の走行量、旋回角度、速度、加速度、角速度などを算出することができる。   The encoder (not shown) is provided in the drive unit 130 and detects the rotation angle of each of the pair of wheels rotated by the traveling motor. The travel amount, turning angle, speed, acceleration, angular speed, etc. of the mobile robot 110 can be calculated from information from the encoder.

加速度センサ(図示せず)は、移動ロボット110が走行する際の加速度を検出し、角速度センサは、移動ロボット110が旋回する際の角速度を検出する。加速度センサ、角速度センサにより検出された情報は、車輪の空回りによって発生する誤差を修正するための情報等に用いられる。   The acceleration sensor (not shown) detects the acceleration when the mobile robot 110 travels, and the angular velocity sensor detects the angular velocity when the mobile robot 110 turns. Information detected by the acceleration sensor and the angular velocity sensor is used as information for correcting an error caused by the idling of the wheel.

以上の障害物センサ173、測距センサ174、衝突センサ、カメラ175、床面センサ176、エンコーダは、例示であり、移動ロボット110は、他の種類のセンサを備えてもよい。   The obstacle sensor 173, the distance measuring sensor 174, the collision sensor, the camera 175, the floor sensor 176, and the encoder described above are examples, and the mobile robot 110 may include other types of sensors.

第二プロセッサ111は、プログラムを実行することにより各処理部を実現する装置である。本実施の形態の場合、第二プロセッサ111により、命令取得部112と、地図保持部113と、機器情報取得部114と、移動実行部116を処理部として実現している。本実施の形態の場合、第二プロセッサ111はさらに、障害物認識部117と、地図作成部118と、画像取得部119と、位置特定部120と、音声発生部121と、機器情報算出部122とを実現している。なお本実施の形態では、第一プロセッサ153、第二プロセッサ111などのプロセッサを一つのものとして説明しているが、複数のプロセッサによって、それぞれ処理部を実現してもかまわない。   The second processor 111 is a device that implements each processing unit by executing a program. In the present embodiment, the second processor 111 implements the command acquisition unit 112, the map holding unit 113, the device information acquisition unit 114, and the movement execution unit 116 as processing units. In the case of the present embodiment, the second processor 111 further includes an obstacle recognition unit 117, a map creation unit 118, an image acquisition unit 119, a position specifying unit 120, a sound generation unit 121, and a device information calculation unit 122. And realized. In the present embodiment, a single processor such as the first processor 153 and the second processor 111 is described, but the processing unit may be realized by a plurality of processors.

命令取得部112は、ユーザ200が発した音声命令に基づき音声認識装置150が生成したコマンド、および特定した到来方向を示す指示情報を、第二通信装置123を介して取得する処理部である。第二通信装置123は、音声認識装置150と直接、または他の機器を介して間接的に無線通信を行う装置である。   The command acquisition unit 112 is a processing unit that acquires a command generated by the voice recognition device 150 based on a voice command issued by the user 200 and instruction information indicating the specified arrival direction via the second communication device 123. The second communication device 123 is a device that performs wireless communication with the voice recognition device 150 directly or indirectly through another device.

地図保持部113は、音声認識装置150が配置される所定領域であって移動ロボット110が移動し掃除などの作業を行う領域の環境地図を保持する処理部である。環境地図は、ロボットシステム100の外部から取得してもよいが、本実施の形態の場合、障害物認識部117、および地図作成部118により移動ロボット110自体が作成している。   The map holding unit 113 is a processing unit that holds an environmental map of a predetermined area where the voice recognition device 150 is arranged and the area where the mobile robot 110 moves and performs operations such as cleaning. The environment map may be acquired from outside the robot system 100, but in the case of the present embodiment, the mobile robot 110 itself is created by the obstacle recognition unit 117 and the map creation unit 118.

障害物認識部117は、移動ロボット110の自己位置と障害物との位置関係をエンコーダや測距センサ174などのセンサからの情報に基づき算出する処理部である。障害物認識部117は、自律走行する移動ロボット110により複数箇所において障害物と自己位置との関係を示す情報を蓄積する。   The obstacle recognition unit 117 is a processing unit that calculates the positional relationship between the position of the mobile robot 110 and the obstacle based on information from sensors such as an encoder and a distance measuring sensor 174. The obstacle recognizing unit 117 accumulates information indicating the relationship between the obstacle and the self position at a plurality of locations by the mobile robot 110 that travels autonomously.

地図作成部118は、障害物認識部117が算出し蓄積したデータを統合して環境地図を作成する処理部である。環境地図を生成する方法は特に限定されるものではないが、例えばSLAM(Simultaneous Localization and Mapping)等を例示することができる。   The map creation unit 118 is a processing unit that creates an environmental map by integrating the data calculated and accumulated by the obstacle recognition unit 117. A method for generating the environment map is not particularly limited, and examples thereof include SLAM (Simultaneous Localization and Mapping).

地図作成部118は、移動ロボット110の走行実績に基づき実際に走行した領域の外形、および、走行を阻害する障害物などを示す情報を環境地図として生成する。地図作成部118により生成される環境地図は、例えば2次元の配列データとして実現される。走行実績を例えば縦横10cmなどの所定の大きさの四角形で分割し、各四角形が環境地図を構成する配列の要素エリアであるとみなし、配列データとして処理してもよい。   The map creation unit 118 generates, as an environmental map, information indicating the outline of the area actually traveled based on the travel performance of the mobile robot 110 and obstacles that impede travel. The environment map generated by the map creation unit 118 is realized as, for example, two-dimensional array data. The traveling performance may be divided into squares of a predetermined size, for example, 10 cm in length and width, and each square may be regarded as an element area of an array constituting the environment map and processed as array data.

機器情報取得部114は、環境地図における音声認識装置150の位置と向きとを示す機器情報を取得する処理部である。機器情報を取得する方法は特に限定されるものではなく、ユーザ200が移動ロボット110に対して入力した機器情報を取得してもかまわない。具体的に例えば、地図保持部113が保持している環境地図をスマートフォンなどの携帯端末、コンピュータなどに表示させ、音声認識装置150の環境地図上の位置や向きなどを携帯端末を用いてユーザ200が入力し、当該情報を移動ロボット110に送信することで入力してもかまわない。   The device information acquisition unit 114 is a processing unit that acquires device information indicating the position and orientation of the voice recognition device 150 in the environment map. The method for acquiring the device information is not particularly limited, and the device information input to the mobile robot 110 by the user 200 may be acquired. Specifically, for example, the environment map held by the map holding unit 113 is displayed on a mobile terminal such as a smartphone or a computer, and the position or orientation of the voice recognition device 150 on the environment map is displayed on the user 200 using the mobile terminal. May be input by transmitting the information to the mobile robot 110.

本実施の形態の場合、機器情報は外部から入力されるのではなく、移動ロボット110が、音声発生部121、および機器情報算出部122とに基づき機器情報を算出し、算出された機器情報を機器情報取得部114が取得している。   In the case of the present embodiment, the device information is not input from the outside, but the mobile robot 110 calculates the device information based on the sound generation unit 121 and the device information calculation unit 122, and the calculated device information is The device information acquisition unit 114 acquires the information.

具体的には、音声発生部121は、スピーカなどを用いて音声認識装置150が認識可能な疑似音声命令を発生させる処理部であり、環境地図を作成中、掃除中など移動ロボット110が自律的に移動している際に少なくとも異なる3箇所で疑似音声命令を発生させる。   Specifically, the voice generation unit 121 is a processing unit that generates a pseudo voice command that can be recognized by the voice recognition apparatus 150 using a speaker or the like, and the mobile robot 110 is autonomous during creation of an environmental map, cleaning, and the like. The pseudo voice command is generated at least at three different points when moving to the position.

機器情報算出部122は、音声発生部121が疑似音声命令を発生させた環境地図上の位置情報をセンサなどから取得する処理部であり、取得した位置情報、および命令取得部112が取得した疑似音声命令に対応した指示情報に基づき機器情報を算出する。   The device information calculation unit 122 is a processing unit that acquires, from a sensor or the like, position information on the environmental map from which the sound generation unit 121 has generated a pseudo voice command, and the acquired position information and the pseudo information acquired by the command acquisition unit 112. Device information is calculated based on the instruction information corresponding to the voice command.

移動実行部116は、指示情報に基づき音声認識装置150の位置と向きを基点とした音声命令の到来方向上、またはその近傍に移動させ、指示情報に含まれるコマンドに対応した作業を実行させる処理部である。具体的に例えば、図7に示すような状況下、ユーザ200が、「このあたりを掃除して」と音声命令を発した場合、音声認識装置150を介して指示情報を取得した移動実行部116は、地図保持部113で保持している環境地図と、環境地図内における音声認識装置150の位置、および向き159、音声認識装置150が認識した音声命令の到来方向158に基づき作業を実行すべき第一領域201を環境地図上で決定する。また、指示情報に含まれるコマンドから作業内容を把握し、例えば掃除を行う事を決定する。また、移動実行部116は、決定した情報に基づき、移動ロボット110を第一領域201に移動させ、作業を実行させる。   The movement execution unit 116 performs processing corresponding to the command included in the instruction information by moving to or near the arrival direction of the voice command based on the position and direction of the voice recognition device 150 based on the instruction information. Part. Specifically, for example, when the user 200 issues a voice command “clean this area” under the situation shown in FIG. 7, the movement execution unit 116 that acquired the instruction information via the voice recognition device 150. Should perform work based on the environmental map held by the map holding unit 113, the position and direction 159 of the voice recognition device 150 in the environmental map, and the arrival direction 158 of the voice command recognized by the voice recognition device 150. The first area 201 is determined on the environment map. In addition, it grasps the work content from the command included in the instruction information, and decides to perform cleaning, for example. Further, the movement execution unit 116 moves the mobile robot 110 to the first area 201 based on the determined information, and executes the work.

なお、移動ロボット110を第一領域201に向かわせる方法は特に限定されるものではなく、例えば、音声認識装置150に移動ロボット110を向かわせた後、第一領域201内を自律走行させながら作用を行わせてもかまわない。また、移動ロボット110から最も近い第一領域201に移動ロボット110を向かわせてもかまわない。   The method for moving the mobile robot 110 toward the first area 201 is not particularly limited. For example, the mobile robot 110 can be operated while autonomously traveling in the first area 201 after the mobile robot 110 is directed to the voice recognition device 150. It does not matter if you do. Further, the mobile robot 110 may be directed to the first region 201 closest to the mobile robot 110.

また、第二プロセッサ111により実現される画像取得部119と位置特定部120とにより、作業を実行すべき領域を第二領域202に絞り込んでもよい。   Further, the area where the work should be performed may be narrowed down to the second area 202 by the image acquisition unit 119 and the position specifying unit 120 realized by the second processor 111.

具体的には、画像取得部119は、音声認識装置150の位置と向き159を基点とした到来方向158上の像を移動ロボット110が備えるカメラ175などにより撮像させて画像を取得する。これにより、画像を取得する領域を絞ることができ、比較的高速にユーザ200の像を撮像することが可能となる。   Specifically, the image acquisition unit 119 acquires an image by causing the camera 175 included in the mobile robot 110 to capture an image on the arrival direction 158 with the position and orientation 159 of the voice recognition device 150 as a base point. As a result, it is possible to narrow down an area from which an image is acquired, and it is possible to capture an image of the user 200 at a relatively high speed.

位置特定部120は、画像取得部119が取得した画像に基づき画像解析などによりユーザ200の環境地図上の位置を特定する。移動実行部116は、位置特定部120によって特定されたユーザ200の位置、またはその近傍の第二領域202に移動ロボット110を移動させ、前記コマンドを実行させる。これによれば、移動ロボット110を所望の領域に速やかに移動させることができ、当該領域で作業を実行させることができる。例えば、ユーザ200の近傍のみを移動ロボット110に掃除させることができる。また、ユーザ200に物品を搬送することも可能となる。   The position specifying unit 120 specifies the position of the user 200 on the environment map by image analysis or the like based on the image acquired by the image acquisition unit 119. The movement execution unit 116 moves the mobile robot 110 to the position of the user 200 specified by the position specifying unit 120 or the second region 202 in the vicinity thereof, and executes the command. According to this, the mobile robot 110 can be quickly moved to a desired area, and work can be executed in the area. For example, the mobile robot 110 can be cleaned only in the vicinity of the user 200. In addition, the article can be conveyed to the user 200.

上記実施の形態にかかる移動ロボット110によれば、音声命令という直感的な指示により、移動ロボット110を所望の領域に移動させ、作業を実行させることができる。   According to the mobile robot 110 according to the above-described embodiment, the mobile robot 110 can be moved to a desired region and executed by an intuitive instruction such as a voice command.

また、移動ロボット110が音声命令を認識し、その到来方向を判断する必要がないため、マイクロフォンアレイ151などの比較的重量のある装置を搭載する必要がなく、軽量化を図り省エネルギーに寄与することができる。また、移動ロボット110が音声認識など重い処理を行うことがないため、ユーザが発した音声命令に対して即座に移動し作業を開始することができる。   In addition, since it is not necessary for the mobile robot 110 to recognize a voice command and determine the direction of arrival of the voice command, it is not necessary to install a relatively heavy device such as the microphone array 151, thereby reducing the weight and contributing to energy saving. Can do. In addition, since the mobile robot 110 does not perform heavy processing such as voice recognition, the mobile robot 110 can immediately move and start work in response to a voice command issued by the user.

また、音声認識装置150が音声命令を認識し、移動ロボット110に通信で指示情報を送信できるため、移動ロボット110が作業を実行して騒音を発生させている場合や音声命令が届かない位置に移動ロボット110が存在している場合などでも、移動ロボット110に所望の作業を実行させることができる。   Further, since the voice recognition device 150 can recognize a voice command and transmit instruction information to the mobile robot 110 by communication, the mobile robot 110 is performing work and generating noise, or at a position where the voice command does not reach. Even when the mobile robot 110 exists, the mobile robot 110 can perform a desired operation.

なお、本発明は、上記実施の形態に限定されるものではない。例えば、本明細書において記載した構成要素を任意に組み合わせて、また、構成要素のいくつかを除外して実現される別の実施の形態を本発明の実施の形態としてもよい。また、上記実施の形態に対して本発明の主旨、すなわち、請求の範囲に記載される文言が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本発明に含まれる。   The present invention is not limited to the above embodiment. For example, another embodiment realized by arbitrarily combining the components described in this specification and excluding some of the components may be used as an embodiment of the present invention. In addition, the present invention includes modifications obtained by making various modifications conceivable by those skilled in the art without departing from the gist of the present invention, that is, the meaning of the words described in the claims. It is.

例えば、移動ロボット110は、ロボット掃除機に限定されるわけではなく、飲み物や薬などをユーザ200に搬送する搬送ロボット、ユーザ200の動作の手助けをする介助ロボットなどでもかまわない。   For example, the mobile robot 110 is not limited to a robot cleaner, and may be a transport robot that transports drinks, medicines, and the like to the user 200, an assistance robot that assists the operation of the user 200, and the like.

また、ユーザ200の位置を特定するために、カメラ175が撮像した画像を用いたが、レーザーレンジスキャナからの情報を単独、または画像と組み合わせて用いてもよい。また、TOF(Time−of−Flight)カメラなどを別途設けてもかまわない。   Further, in order to specify the position of the user 200, an image captured by the camera 175 is used. However, information from the laser range scanner may be used alone or in combination with an image. Further, a TOF (Time-of-Flight) camera or the like may be provided separately.

本発明は、自律走行可能なロボットに適用可能である。   The present invention is applicable to a robot capable of autonomous traveling.

100 ロボットシステム
110 移動ロボット
111 第二プロセッサ
112 命令取得部
113 地図保持部
114 機器情報取得部
116 移動実行部
117 障害物認識部
118 地図作成部
119 画像取得部
120 位置特定部
121 音声発生部
122 機器情報算出部
123 第二通信装置
130 駆動ユニット
140 清掃ユニット
150 音声認識装置
151 マイクロフォンアレイ
152 第一通信装置
153 第一プロセッサ
154 コマンド生成部
155 到来方向特定部
156 指示情報作成部
158 到来方向
171 発信部
172 受信部
173 障害物センサ
174 測距センサ
175 カメラ
176 床面センサ
178 吸引口
179 キャスター
200 ユーザ
201 第一領域
202 第二領域
DESCRIPTION OF SYMBOLS 100 Robot system 110 Mobile robot 111 Second processor 112 Command acquisition part 113 Map holding part 114 Device information acquisition part 116 Movement execution part 117 Obstacle recognition part 118 Map creation part 119 Image acquisition part 120 Position specification part 121 Voice generation part 122 Equipment Information calculation unit 123 Second communication device 130 Drive unit 140 Cleaning unit 150 Speech recognition device 151 Microphone array 152 First communication device 153 First processor 154 Command generation unit 155 Arrival direction identification unit 156 Instruction information creation unit 158 Arrival direction 171 Transmission unit 172 Receiver 173 Obstacle sensor 174 Distance sensor 175 Camera 176 Floor sensor 178 Suction port 179 Caster 200 User 201 First area 202 Second area

Claims (5)

自律走行可能な移動ロボットであって、
ユーザが発した音声命令に基づき音声認識装置が生成したコマンド、および前記音声認識装置が特定した前記音声命令の到来方向を含む指示情報を、前記音声認識装置から通信によって取得する命令取得部と、
前記音声認識装置が配置される所定領域の環境地図を保持する地図保持部と、
前記環境地図における前記音声認識装置の位置と向きとを示す機器情報を取得する機器情報取得部と、
前記指示情報に基づき前記音声認識装置の位置と向きを基点とした前記到来方向上、またはその近傍に移動させ、前記コマンドに対応した作業を実行させる移動実行部と
を備える移動ロボット。
A mobile robot that can travel autonomously,
A command acquisition unit that acquires, by communication, the command generated by the voice recognition device based on the voice command issued by the user and the instruction information including the arrival direction of the voice command specified by the voice recognition device;
A map holding unit for holding an environmental map of a predetermined area where the voice recognition device is arranged;
A device information acquisition unit that acquires device information indicating the position and orientation of the voice recognition device in the environmental map;
A mobile robot comprising: a movement execution unit that moves in or near the arrival direction based on the position and orientation of the voice recognition device based on the instruction information, and executes a task corresponding to the command.
自己位置と障害物との位置関係をセンサからの情報に基づき算出する障害物認識部と、
前記障害物認識部が算出したデータを統合して前記環境地図を作成する地図作成部と
を備える請求項1に記載の移動ロボット。
An obstacle recognition unit that calculates the positional relationship between the self-position and the obstacle based on information from the sensor;
The mobile robot according to claim 1, further comprising: a map creation unit that creates the environmental map by integrating data calculated by the obstacle recognition unit.
前記音声認識装置の位置と向きを基点とした前記到来方向上の画像を取得する画像取得部と、
取得した画像に基づきユーザの位置を特定する位置特定部とを備え、
前記移動実行部は、特定されたユーザ位置、またはその近傍に移動させ、前記コマンドを実行させる
請求項1または2に記載の移動ロボット。
An image acquisition unit for acquiring an image on the arrival direction based on the position and orientation of the voice recognition device;
A position specifying unit that specifies the position of the user based on the acquired image,
The mobile robot according to claim 1, wherein the movement execution unit moves the specified user position or the vicinity thereof to execute the command.
前記音声認識装置が認識可能な疑似音声命令を少なくとも異なる3箇所で発生させる音声発生部と、
前記命令取得部が取得した疑似音声命令に対応した指示情報、および疑似音声命令を発した位置に基づき前記機器情報を算出する機器情報算出部と
を備える請求項1から3のいずれか一項に記載の移動ロボット。
A voice generation unit that generates pseudo voice commands recognizable by the voice recognition device at least at three different locations;
4. The apparatus according to claim 1, further comprising: instruction information corresponding to the pseudo voice command acquired by the command acquisition unit, and a device information calculation unit that calculates the device information based on a position where the pseudo voice command is issued. The described mobile robot.
自律走行可能な移動ロボットと、前記移動ロボットとは別体の音声認識装置とを備えるロボットシステムであって、
前記音声認識装置は、
ユーザが発した音声命令に基づきコマンドを生成するコマンド生成部と、
前記音声命令の到来方向を特定する到来方向特定部とを備え、
前記移動ロボットは、
前記音声認識装置から通信を介して前記コマンド、および前記到来方向を含む指示情報を取得する命令取得部と、
前記音声認識装置が配置される所定領域の環境地図を保持する地図保持部と、
前記環境地図における前記音声認識装置の位置と向きとを示す機器情報を取得する機器情報取得部と、
前記指示情報に基づき前記音声認識装置の位置と向きを基点とした前記到来方向上、またはその近傍に移動させ、前記コマンドに対応した作業を実行させる移動実行部と
を備えるロボットシステム。
A robot system comprising a mobile robot capable of autonomous traveling and a voice recognition device separate from the mobile robot,
The voice recognition device
A command generator for generating a command based on a voice command issued by a user;
An arrival direction identifying unit that identifies an arrival direction of the voice command;
The mobile robot is
A command acquisition unit configured to acquire instruction information including the command and the direction of arrival from the voice recognition device via communication;
A map holding unit for holding an environmental map of a predetermined area where the voice recognition device is arranged;
A device information acquisition unit that acquires device information indicating the position and orientation of the voice recognition device in the environmental map;
A robot system comprising: a movement execution unit that moves in or near the arrival direction based on the position and orientation of the voice recognition device based on the instruction information and that performs a task corresponding to the command.
JP2018030680A 2018-02-23 2018-02-23 Mobile robots and robot systems Active JP6964275B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018030680A JP6964275B2 (en) 2018-02-23 2018-02-23 Mobile robots and robot systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018030680A JP6964275B2 (en) 2018-02-23 2018-02-23 Mobile robots and robot systems

Publications (2)

Publication Number Publication Date
JP2019145000A true JP2019145000A (en) 2019-08-29
JP6964275B2 JP6964275B2 (en) 2021-11-10

Family

ID=67772474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018030680A Active JP6964275B2 (en) 2018-02-23 2018-02-23 Mobile robots and robot systems

Country Status (1)

Country Link
JP (1) JP6964275B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158868A (en) * 2006-12-25 2008-07-10 Toyota Motor Corp Mobile body and control method
JP2017138476A (en) * 2016-02-03 2017-08-10 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158868A (en) * 2006-12-25 2008-07-10 Toyota Motor Corp Mobile body and control method
JP2017138476A (en) * 2016-02-03 2017-08-10 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6964275B2 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
JP7259015B2 (en) Mobile robot and its control method
US20240118700A1 (en) Mobile robot and control method of mobile robot
EP3727122B1 (en) Robot cleaners and controlling method thereof
KR101428877B1 (en) A robot cleaner
JP4215757B2 (en) Robot vacuum cleaner
KR102021833B1 (en) A ROBOT CLEANER Using artificial intelligence AND CONTROL METHOD THEREOF
TWI723527B (en) Plurality of autonomous mobile robots and controlling method for the same
KR102459151B1 (en) Robot cleaner and controlling method thereof
JP2014106638A (en) Moving device and control method
WO2020017235A1 (en) Self-propelled vacuum cleaner
JP6964275B2 (en) Mobile robots and robot systems
JP7033720B2 (en) Mobile robot
JP6871602B2 (en) Autonomous vacuum cleaner
CN111225592B (en) Autonomous traveling dust collector and extended area identification method
WO2020059292A1 (en) Autonomous traveling cleaner
WO2020017239A1 (en) Self-propelled type vacuum cleaner and control method for self-propelled type vacuum cleaner
WO2019049655A1 (en) Autonomous travel-type cleaner and method for updating cumulative floor area probability
CN221242704U (en) Mobile cleaning robot
CN220967216U (en) Mobile cleaning robot
JP7325058B2 (en) self-propelled vacuum cleaner
WO2023089886A1 (en) Traveling map creating device, autonomous robot, method for creating traveling map, and program
US20230152433A1 (en) Ultrasonic direct echo path reduction
US11925305B2 (en) Autonomous travel-type cleaner and control method
WO2023157345A1 (en) Traveling map creation device, autonomous robot, method for creating traveling map, and program
Umer et al. A novel localization and navigation approach for an indoor autonomous mobile surveillance robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211005

R151 Written notification of patent or utility model registration

Ref document number: 6964275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151