JPWO2016067467A1 - Robot control apparatus, robot system, robot control method and program - Google Patents
Robot control apparatus, robot system, robot control method and program Download PDFInfo
- Publication number
- JPWO2016067467A1 JPWO2016067467A1 JP2016556169A JP2016556169A JPWO2016067467A1 JP WO2016067467 A1 JPWO2016067467 A1 JP WO2016067467A1 JP 2016556169 A JP2016556169 A JP 2016556169A JP 2016556169 A JP2016556169 A JP 2016556169A JP WO2016067467 A1 JPWO2016067467 A1 JP WO2016067467A1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- obstacle
- unit
- route
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000013500 data storage Methods 0.000 claims description 28
- 230000009471 action Effects 0.000 claims description 23
- 230000002093 peripheral effect Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000035622 drinking Effects 0.000 description 2
- 230000001154 acute effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
ロボット制御装置(103)は、予め定められた制御領域におけるロボットの移動を遠隔制御するものであって、受信部(107)と、経路決定部(112)と、指令部(113)とを備える。受信部(107)は、制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信する。経路決定部(112)は、受信されたセンサデータに基づいて、ロボットを移動させる経路である移動経路を決定する。指令部(113)は、決定された移動経路に従ってロボットを移動させる移動指令を作成してロボットへ送信する。The robot control device (103) remotely controls the movement of the robot in a predetermined control area, and includes a reception unit (107), a route determination unit (112), and a command unit (113). . The receiving unit (107) receives sensor data indicating an area occupied by an object placed in the control area from the sensor. The route determination unit (112) determines a movement route that is a route for moving the robot, based on the received sensor data. The command unit (113) creates a movement command for moving the robot according to the determined movement route and transmits the movement command to the robot.
Description
本発明は、ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラムに関する。 The present invention relates to a robot control device, a robot system, a robot control method, and a program.
引用文献1に記載の移動ロボットシステムは、ロボットと、ロボット制御装置とを備える。引用文献1に記載のロボットは、カメラセンサと移動機構とを有する。引用文献1に記載のロボット制御装置は、カメラセンサで撮影された周辺環境の画像を受信して表示するタッチパネルを有する。 The mobile robot system described in the cited document 1 includes a robot and a robot control device. The robot described in the cited document 1 has a camera sensor and a moving mechanism. The robot control apparatus described in the cited document 1 has a touch panel that receives and displays an image of the surrounding environment photographed by a camera sensor.
引用文献1に記載のロボット制御装置は、タッチパネルに表示されている画面内の任意点の位置を操作者が指定したとき、その任意点に対応する実際の位置を目標位置として、ロボットの移動機構を制御してロボットを自動的に移動させる。 When the operator designates the position of an arbitrary point in the screen displayed on the touch panel, the robot control apparatus described in the cited document 1 uses the actual position corresponding to the arbitrary point as a target position, and moves the robot. To move the robot automatically.
また、引用文献1には、障害物との衝突を防ぐための超音波センサや赤外線センサのような障害物センサをロボットに組み合わせることが記載されている。 Further, cited document 1 describes that an obstacle sensor such as an ultrasonic sensor or an infrared sensor for preventing a collision with an obstacle is combined with a robot.
引用文献1に記載の移動ロボットシステムでは、ロボットを自動的に移動させるために、カメラセンサ、超音波センサ、赤外線センサなどの多数のセンサが搭載される。そのため、ロボットを構成する部品点数が多くなるので、ロボットの物理的な構成が複雑になる。 In the mobile robot system described in the cited document 1, in order to automatically move the robot, a large number of sensors such as a camera sensor, an ultrasonic sensor, and an infrared sensor are mounted. For this reason, the number of parts constituting the robot increases, and the physical configuration of the robot becomes complicated.
また、多数のセンサが搭載されると、ロボットが、各センサからの情報を処理し、それに伴って、移動を制御したり、種々の情報をロボット制御装置と情報を送受信したりするなど、ロボットが種々の機能を備える必要がある。そのため、ロボットの機能的な構成が複雑になる。 In addition, when a large number of sensors are installed, the robot processes information from each sensor, and accordingly, the robot controls movement, sends and receives various information to and from the robot controller, etc. Need to have various functions. This complicates the functional configuration of the robot.
本発明は、上記のような課題を解決するためになされたものであり、ロボットに多数のセンサを搭載しなくてもロボットを自動的に移動させることが可能なロボット制御装置などを提供することを目的とする。 The present invention has been made to solve the above-described problems, and provides a robot control device that can automatically move a robot without mounting a large number of sensors on the robot. With the goal.
上記目的を達成するため、本発明に係るロボット制御装置は、予め定められた制御領域におけるロボットの移動を遠隔制御するものであって、受信部と、経路決定部と、指令部とを備える。受信部は、制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信する。経路決定部は、受信されたセンサデータに基づいて、ロボットを移動させる経路である移動経路を決定する。指令部は、決定された移動経路に従ってロボットを移動させる移動指令を作成してロボットへ送信する。 In order to achieve the above object, a robot control apparatus according to the present invention remotely controls the movement of a robot in a predetermined control area, and includes a receiving unit, a route determining unit, and a command unit. The receiving unit receives sensor data indicating an area occupied by an object placed in the control area from the sensor. The route determination unit determines a movement route that is a route for moving the robot, based on the received sensor data. The command unit creates a movement command for moving the robot according to the determined movement route and transmits the movement command to the robot.
本発明によれば、ロボット制御装置は、制御領域において物が占める領域を示すセンサデータに基づいて移動経路を決定し、その決定した移動経路に従ってロボットを移動させる移動指令をロボットへ送信する。これにより、カメラセンサ、超音波センサ、赤外線センサなどのセンサをロボットに搭載しなくても、移動経路を決定することができるとともに、決定した移動経路に従ってロボットを移動させることができる。従って、ロボットに多数のセンサを搭載しなくてもロボットを自動的に移動させることが可能になる。 According to the present invention, the robot control apparatus determines a movement path based on sensor data indicating an area occupied by an object in the control area, and transmits a movement command for moving the robot according to the determined movement path to the robot. Accordingly, the movement path can be determined without mounting a sensor such as a camera sensor, an ultrasonic sensor, or an infrared sensor on the robot, and the robot can be moved according to the determined movement path. Therefore, it is possible to automatically move the robot without mounting a large number of sensors on the robot.
本発明の実施の形態について図を参照して説明する。全図を通じて同一の要素には同一の参照符号を付す。 Embodiments of the present invention will be described with reference to the drawings. The same elements are denoted by the same reference symbols throughout the drawings.
本発明の一実施の形態に係るロボットシステム100は、図1に示すように、個別に設けられた撮像センサ101、ロボット102及びロボット制御装置103を備える。
As shown in FIG. 1, a
撮像センサ101とロボット制御装置103とは、無線又は有線によって相互に通信可能に接続されている。ロボット102とロボット制御装置103とは、無線によって相互に通信可能に接続されている。これによって、ロボットシステム100は、ユーザの指示に従ってロボット102を自動的に移動させる。
The
撮像センサ101は、ロボット制御装置103によりロボット102の移動を制御する領域(制御領域)として予め定められた部屋の床全体を含む画像を継続的に撮影するセンサであって、その部屋の天井、壁などに固定される。撮像センサ101は、撮影した画像を示す画像データを生成してロボット制御装置103へ送信する。
The
なお、本実施の形態では、1つの撮像センサ101によって、部屋の床全体を含む画像を撮影する例を説明するが、複数の撮像センサ101によって、部屋の床全体を含む画像を撮影してもよい。この場合、各撮像センサ101が画像データを生成してロボット制御装置103へ送信する。
In this embodiment, an example in which an image including the entire floor of the room is captured by one
撮像センサ101によって撮影される画像は、撮像センサ101の設置位置から見た部屋の床全体を含むので、この画像には、部屋に置かれた種々の物が含まれる。「部屋に置かれた物」は、例えば、部屋の床に直接置かれた家具、家電製品などを含む。また、「部屋に置かれた物」は、家具などに置かれた食器、家電製品、本、雑誌などを含む。家具は、例えば、テーブル、ベッド、テレビ台などであり、家電製品は、例えば、冷蔵庫、テレビなどであり、食器は、例えば、コップ、皿などである。このように、画像データが示す画像は、部屋に置かれた物が占める領域を二次元で示すので、本実施の形態での画像データは、制御領域に置かれた物が占める領域を示すセンサデータの一例である。
Since the image photographed by the
ここで、「物」は、ロボット102を移動させる指示を与える人(ユーザ)以外の人を含んでもよい。後述する「障害物」も同様である。
Here, the “thing” may include a person other than a person (user) who gives an instruction to move the
また、「制御領域に置かれた物が占める領域」は、例えば、制御領域における物の位置、物の外縁の形状、物の大きさなどを組み合わせて特定することができる。物の外縁の形状は、センサデータによって示される物の外縁自体の形状に限られず、例えば、その物の外縁に接する、各角が鋭角の多角形の形状などであってもよい。 The “area occupied by an object placed in the control area” can be specified by combining the position of the object in the control area, the shape of the outer edge of the object, the size of the object, and the like. The shape of the outer edge of the object is not limited to the shape of the outer edge of the object indicated by the sensor data, and may be, for example, a polygonal shape in which each corner is in contact with the outer edge of the object.
ロボット102は、移動時に接している面である床の上を移動し、これによって、例えばユーザの活動を支援する。ロボット102は、図1に示すように、ロボット102の向き(例えば、前進させた場合の進行方向)を示す指標104が上面に設けられたロボット本体105と、ロボット本体105の概ね中心から上方へ延び、コップなどを挟持することで保持する保持部(図示せず)などが先端に取り付けられる支持部106とを備える。
The
ロボット本体105には、ロボット102が移動するための移動機構、移動指令を受信するなどロボット制御装置103と通信する通信部、移動指令に従って移動機構を制御する移動制御部とを備える。移動機構は、例えば、複数のタイヤ、複数のモータなどから構成される。
The
移動指令は、ロボット102の移動を制御するための指令であって、例えば、移動機構が備える各モータから出力するトルクの大きさ、各モータへ入力する電流の大きさなどを含む。移動制御部は、受信された移動指令に従って、移動機構を制御する。これにより、ロボット102は、移動指令に従って移動する。
The movement command is a command for controlling the movement of the
このように、ロボット102は、カメラセンサ、超音波センサ、赤外線センサなどのセンサ、センサから出力される情報を処理するための構成も備えてなくても、ロボット制御装置103からの移動指令に従って移動することができる。
As described above, the
ロボット制御装置103は、制御領域としての部屋におけるロボット102の移動を遠隔制御する装置である。ロボット制御装置103は機能的には、図2に示すように、画像データを撮像センサ101から受信する受信部107と、動作−設定データを記憶する動作−設定データ記憶部108と、ユーザの指示に基づいて、ロボット102が移動する目的位置を設定する目的位置設定部109と、障害物データを記憶する障害物データ記憶部110と、間隔データを記憶する間隔データ記憶部111と、受信部107によって受信された画像データに基づいて、移動経路を決定する経路決定部112と、経路決定部112によって決定された移動経路に従ってロボット102を移動させる移動指令を作成してロボット102へ送信する指令部113と、各種情報を表示する表示部114と、設定、指示などのためにユーザが入力する入力部115とを備える。ここで、移動経路は、ロボット102が現在位置から目的位置へ至るまでに移動する経路であり、最短経路であることが望ましい。
The
本実施の形態では、このような機能を備えることによって、ロボット制御装置103は、ユーザの指示に基づいてロボット102の移動先である目的位置を設定する。ロボット制御装置103は、決定した現在位置から障害物を回避しつつ目的位置に至る経路を、移動経路として決定する。ロボット制御装置103は、決定した移動経路に従ってロボット102を移動させる移動指令を作成してロボット102へ送信する。
In the present embodiment, by providing such a function, the
動作−設定データ記憶部108に記憶される動作−設定データは、ユーザの動作とその動作に応じた設定内容とを含むデータであり、例えばユーザ、製造者によって予め設定される。ここでの設定内容には、動作−設定データ記憶部108、障害物データ記憶部110、間隔データ記憶部111に記憶されるデータの内容などが含まれる。
The operation-setting data stored in the operation-setting
例えば、動作−設定データは、ユーザのジェスチャと、それに応じて目的位置を設定すること及びその目的位置を設定するための方法とを含む。このデータを参照することで、ユーザの指示による目的位置を設定することができる。 For example, the action-setting data includes a user gesture and a method for setting a target position and setting the target position accordingly. By referring to this data, it is possible to set a target position according to a user instruction.
目的位置を設定するための動作−設定データには、詳細には例えば、飲み物を飲むジェスチャと、飲み物が入れられる容器(例えば、コップ)を保持できる位置を目的位置として決定するための方法とを含む。また例えば、指で方向を指し示すジェスチャと、指し示された方向に置かれている予め定められた物を保持できる位置を目的位置として決定するための方法とを含む。 Operation for setting the target position-The setting data includes, for example, a gesture for drinking a drink and a method for determining a position where a container (for example, a cup) in which a drink can be held can be held as the target position. Including. In addition, for example, a gesture for pointing a direction with a finger and a method for determining a position where a predetermined object placed in the indicated direction can be held as a target position are included.
なお、ユーザの動作は、ユーザが文字、記号などを撮像センサ101に撮影させる動作であってもよく、この場合、動作−設定データには、この文字、記号などと、それに応じた設定内容が含まれる。ロボット制御装置103が、マイクを備える場合、ユーザの動作は、ユーザの発する音声であってもよい。
Note that the user's operation may be an operation in which the user causes the
本実施の形態に係る目的位置設定部109は、受信部107によって受信される画像データに基づいて、ユーザの動作を特定するユーザ動作特定部116と、動作−設定データ記憶部108に記憶された動作−設定データとユーザ動作特定部116によって特定されたユーザの動作とに基づいて、目的位置を決定する指示位置決定部117とを備える。これによって、ユーザが撮像センサ101によって撮影されている場合、ユーザは、動作によって目的位置を指示することができる。
The target
目的位置設定部109は、入力部115への入力に基づいて、ユーザの指示に係る目的位置を決定してもよい。
The target
障害物データ記憶部110に記憶される障害物データは、ロボット102の移動を妨げる障害物の外縁の形状を示すデータであって、例えばユーザ、製造者によって予め設定される。障害物は、例えば、上述のような部屋に置かれる物を含む。
The obstacle data stored in the obstacle
間隔データ記憶部111に記憶される間隔データは、ロボット102を移動させる際に障害物から離間させる距離(例えば、数センチ程度)を示す。このデータを参照することで、ロボット102を障害物から離間させて移動させることができる。
The interval data stored in the interval
本実施の形態に係る経路決定部112は、受信部107によって受信された画像データと障害物データ記憶部110に記憶された障害物データとに基づいて、障害物が占める領域を特定する障害特定部118と、受信部107によってロボット102の移動中に受信される画像データと障害物データ記憶部110に記憶された障害物データとに基づいて、ロボット102の移動方向に障害物があるか否かを判定する判定部119と、障害特定部118によって特定された障害物をロボット102が回避する経路を移動経路として決定する障害回避部120とを有する。
The
詳細には、判定部119は、ロボット102の現在位置から移動経路に沿って、予め定められた距離又は予め定められた時間内にロボット102が到達すると予想される距離に障害物があるか否かを判定する。
Specifically, the
詳細には、障害回避部120は、画像データによって示される画像に基づいて、ロボット102の現在位置と向きを特定する。障害回避部120は、画像データによって示される画像に中から、障害特定部118によって特定された障害物が占める領域を特定する。
Specifically, the
障害回避部120は、特定された障害物が占める領域と、間隔データ記憶部111に記憶された間隔データとに基づいて、障害特定部118によって特定された障害物の周辺領域を特定する。周辺領域は、画像データによって示される画像において、間隔データによって示される間隔で障害物をその外縁に沿って囲む領域である。
The
障害回避部120は、移動可能領域を特定する。移動可能領域は、ロボット102が障害物を避けて移動できる領域であって、画像データによって示される画像において、障害特定部118によって特定された障害物が占める領域及び周辺領域を床全体から除いた領域である。
The
障害回避部120は、特定した移動可能領域に含まれる経路の中から移動経路を決定する。このとき、障害回避部120は、特定された障害物を回避する経路のうち、ロボット102の現在位置から目的位置までの移動距離が最も短くなる経路を、移動経路として決定してもよい。
The
判定部119によって障害物があると判定された場合に、障害回避部120は、受信部107によって受信された画像データに基づいて、移動経路を再び決定する。
When the
表示部114は、例えば、受信部107によって受信された画像データが示す画像を表示する。例えば、表示部114は、目的位置設定部109によって設定された位置に対応する箇所を、画像データが示す画像上に表示する。例えば、表示部114は、経路決定部112によって決定された移動経路に対応する経路を、画像データが示す画像上に表示する。
The
なお、表示部114は、動作−設定データ記憶部108、障害物データ記憶部110、間隔データ記憶部111に記憶される各データに含まれる内容を表示してもよい。
The
入力部115は、例えば、目的位置の指示が入力される。タッチパネルが採用される場合、表示部114に表示された部屋の画像(画像データが示す画像)においてユーザがタッチした箇所に対応する実空間での位置が、目的位置として決定されてもよい。
The input unit 115 receives, for example, a target position instruction. When the touch panel is employed, the position in the real space corresponding to the location touched by the user in the room image (the image indicated by the image data) displayed on the
なお、入力部115は、動作−設定データ記憶部108、障害物データ記憶部110、間隔データ記憶部111に記憶される各データを設定するための入力を受け付けてもよい。
Note that the input unit 115 may accept an input for setting each data stored in the operation-setting
ロボット制御装置103は物理的には、例えば、1つ又は複数のプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、液晶ディスプレイ、入力用のボタン、キーボード、ポインティングデバイス、タッチパネル、有線又は無線で通信するための1つ又は複数の通信インタフェースなどを適宜組み合わせて構成される。
The
ロボット制御装置103が発揮する各機能は、例えば、ソフトウェアプログラム(プログラム)が組み込まれた専用の装置によって実現されてもよく、プログラムを汎用のコンピュータが実行することによって実現されるとよい。ここでのコンピュータは、ノート型のパーソナルコンピュータ、タブレット端末、スマートフォンなども含む。従って、本発明は、コンピュータに各機能を発揮させるプログラムとして実現されてもよく、そのプログラムが記録された記憶媒体として実現されてもよい。
Each function exhibited by the
プログラムがインストールされた汎用のコンピュータ、そのプログラム、そのプログラムが記録された記憶媒体が採用される場合、そのプログラムは、専用の装置のためのものでなくてよいので、開発コストを抑えることができる。また、機能の追加又は修正、バグの修正のためのプログラムをインターネットなどを介して提供できるので、プログラムの更新を容易にすることが可能になる。さらに、汎用のコンピュータでは、ロボット102に情報処理のためのモジュール(プロセッサ、各種メモリなど)を搭載するよりも、一般的に、ユーザは比較的高性能なものが低価格であるため高性能なものを入手し易い。そのため、汎用のコンピュータであれば、複雑な情報処理であっても、ロボット102に搭載したモジュールにより情報処理を実行する場合よりも、速く実行することができる。
When a general-purpose computer on which the program is installed, the program, and a storage medium on which the program is recorded are adopted, the development cost can be suppressed because the program does not have to be for a dedicated device. . In addition, since a program for adding or correcting functions or correcting bugs can be provided via the Internet, it is possible to easily update the program. Furthermore, in general-purpose computers, the user generally has a relatively high performance because it is less expensive than the
これまで、本発明の一実施の形態に係るロボットシステム100の構成について説明した。ここから、本実施の形態に係るロボットシステム100の動作について説明する。
Heretofore, the configuration of the
ロボット制御装置103は、図3Aに示すように、部屋におけるロボット102の移動を遠隔制御するためのロボット制御方法を実行する。ロボット制御方法は、例えば、ロボットシステム100が動作している間、繰り返し実行される。
As shown in FIG. 3A, the
受信部107は、部屋の床全体の画像を少なくとも含む画像を示す画像データを撮像センサ101から受信する(ステップS101)。図5に、部屋の床121の全体を含む画像の一例を示す。同図に示す画像は、ロボット102と、床121に置かれたテーブル122及びベッド123と、テーブル122に置かれたコップ124との画像を含む。
The receiving
目的位置設定部109は、撮像センサ101から受信した画像データ又は入力部115への入力に基づいて、目的位置を設定する(ステップS102)。
The target
図4に、撮像センサ101から受信した画像データに基づいて、目的位置を設定するための目的位置設定処理(ステップS102)の流れの一例を示す。
FIG. 4 shows an example of the flow of the target position setting process (step S102) for setting the target position based on the image data received from the
ユーザ動作特定部116は、受信部107によって取得される画像データに基づいて、例えばパターンマッチングによりユーザの動作を特定する(ステップS201)。
The user
詳細には、ユーザ動作特定部116は、ユーザの動作と、その動作に応じた画像の特徴量とを対応付けたデータを予め保持する。ユーザ動作特定部116は、例えばパターンマッチングにより、画像データが示す画像にユーザが含まれているか否かを判定する。ユーザが含まれていると判定した場合、ユーザ動作特定部116は、画像データが示す画像に含まれるユーザの動作に応じた画像の特徴量と、予め保持しているデータにより示される特徴量とが、予め定められた範囲であるか否かを判定する。予め定められた範囲であると判定した場合に、ユーザ動作特定部116は、予め保持しているデータにおいて、そのユーザの動作に対応付けられたユーザの動作を特定する。
Specifically, the user
このような方法によって、例えば、ユーザが飲み物を飲むジェスチャをした場合、ユーザ動作特定部116は、飲み物を飲むユーザの動作を特定する。
For example, when the user makes a drink drinking gesture, the user
指示位置決定部117は、動作−設定データ記憶部108に記憶された動作−設定データが、ユーザ動作特定部116によって特定されたユーザの動作を含むか否かを判定する。動作−設定データが特定されたユーザの動作を含む場合、指示位置決定部117は、動作−設定データを参照することによって、そのユーザの動作に応じた設定内容を特定し、特定した設定内容に基づいて、ユーザの指示に係る目的位置を決定する(ステップS202)。
The designated
例えば、動作−設定データが、飲み物を飲むユーザの動作に応じた設定内容として、上述のように、飲み物が入れられる容器を保持できる位置を目的位置として決定するための方法を含むとする。そして、ユーザ動作特定部116によって飲み物を飲むユーザの動作が特定された場合、指示位置決定部117は、飲み物が入れられる容器を保持できる位置を目的位置として決定する。図6には、飲み物が入れられる容器であるコップ124を保持できる位置が、目的位置DPとして決定された例を示す。
For example, it is assumed that the operation-setting data includes a method for determining, as the setting content according to the operation of the user who drinks the drink, the position where the container in which the drink can be held can be held as the target position. When the user
指示位置決定部117は、決定した目的位置を保持し(ステップS203)、これによって、目的位置が設定される。指示位置決定部117は、図3Aに示すロボット制御処理へ戻る。
The designated
障害特定部118は、例えば上述と同様のパターンマッチングにより、受信部107によって受信された画像データが示す画像に、障害物データ記憶部110に記憶された障害物データが示す障害物を検出する。
The
ここで例えば、障害特定部118は、部屋に何も物が置かれていない状態での画像を示す画像データを予め保持し、その画像と、受信部107によって受信された画像データが示す画像とを比較することによって、障害物の候補となる画像を抽出してもよい。そして、抽出した画像と障害物データが示す障害物の画像とを比較することによって、障害物を検出してもよい。
Here, for example, the
障害特定部118は、受信部107によって受信された画像データが示す画像において、検出した障害物が占める領域を特定する(ステップS103)。
The
障害回避部120は、特定された障害物が占める領域と、間隔データ記憶部111に記憶された間隔データとに基づいて、障害特定部118によって特定された障害物の周辺領域を特定する。そして、障害回避部120は、画像データによって示される画像において、障害特定部118によって特定された障害物が占める領域及び周辺領域を床全体から除いた移動可能領域を特定する(ステップS104)。
The
障害回避部120は、画像データによって示される画像に基づいて、ロボット102の現在位置と向きを特定する(ステップS105)。
The
詳細には、ロボット102の現在位置は、部屋におけるロボット102の現在位置であり、例えば、画像データによって示される画像から、ロボット102の外縁の形状をパターンマッチングで検出することによって、特定される。
Specifically, the current position of the
ロボット102の向きは、部屋におけるロボット102の現在の向きであり、例えば、画像データによって示される画像から、ロボット102の指標104をパターンマッチングで検出することによって、特定される。
The orientation of the
ロボット102の外縁の形状及び指標104の形状を示すデータは、例えば障害回避部120が予め保持されるとよい。
The data indicating the shape of the outer edge of the
ここで、図7は、図5に示す画像に基づいてステップS103〜S105の処理が実行されることによって特定された障害物が占める領域、それらの周辺領域、ロボット102の現在位置PP及び向きの一例を示す。図7において、上述のように指標104に基づいて特定されるロボット102の向きは、矢印ALにより示される。また、図7に示す例では、障害物は、テーブル122及びベッド123である。テーブル122の上に置かれたコップ124の画像は、障害物であるテーブル122の画像に含まれるため、コップ124は、障害物とはされていない。
Here, FIG. 7 shows areas occupied by obstacles identified by executing the processing of steps S103 to S105 based on the image shown in FIG. 5, their surrounding areas, the current position PP and the direction of the
図7の例では、ベッド123については、それが占める領域がベッドの画像自体と一致している。また、テーブル122については、テーブル122の外縁に接する各角が鋭角の多角形が、テーブル122が占める領域125とされている。
In the example of FIG. 7, for the
同図に示す2点鎖線126,127は、それぞれ、テーブル122が占める領域125、ベッド123が占める領域の周辺領域の境界である。すなわち、床121の全体のうち2点鎖線126で囲まれる領域が、障害物であるテーブル122が占める領域及びその周辺領域である。また、床121の全体のうち2点鎖線127で囲まれる領域が、障害物であるベッド123が占める領域及びその周辺領域である。
Two-
障害回避部120は、ステップS105にて特定した移動可能領域に含まれる経路の中から、移動距離が最も短くなる経路を、移動経路として決定する(ステップS106)。
The
このような方法によって決定された移動経路MPの一例を図8に示す。同図に示す移動経路MPは、ステップS105にて特定した移動可能領域を移動することで、現在位置PPから目的位置DPに至る最短経路である。移動可能領域は、障害物が占める領域とその周辺領域とを除いた領域であるため、移動可能領域を移動することで、ロボット102が障害物に衝突することを防ぐことができる。
An example of the travel route MP determined by such a method is shown in FIG. The movement path MP shown in the figure is the shortest path from the current position PP to the target position DP by moving in the movable area specified in step S105. Since the movable area is an area excluding the area occupied by the obstacle and its peripheral area, the
このように、部屋の床全体を示す画像に基づいて移動経路が決定されるので、確実に障害物を回避できる経路を決定することが可能になるとともに、障害物を回避できる経路の中で最も距離が短いものを決定することが可能になる。 As described above, since the movement route is determined based on the image showing the entire floor of the room, it is possible to determine a route that can surely avoid the obstacle, and the most of the routes that can avoid the obstacle. It is possible to determine a short distance.
指令部113は、ステップS106にて決定された移動経路に従ってロボット102を移動させる移動指令を作成し、その移動指令をロボット102へ送信する(ステップS107)。ロボット102は、移動指令を受信する。ロボット102は、移動指令に従って移動するので、ステップS106で決定された移動経路に従って移動することになる。
The
図3Bを参照し、受信部107は、ロボット102の移動中に、ステップS101と同様に画像データを撮像センサ101から受信する(ステップS108)。
Referring to FIG. 3B, the receiving
判定部119は、ステップS108にて受信された画像データが示す画像に基づいて、ステップS105と同様の方法により、ロボット102の現在位置と向きとを特定する(ステップS109)。
Based on the image indicated by the image data received in step S108, the
判定部119は、ステップS108にて受信された画像データが示す画像と、ステップS109にて特定したロボット102の現在位置及び向きとに基づいて、ステップS104と同様の方法により障害物を特定する。これによって、判定部119は、ロボット102の移動方向に障害物があるか否かを判定する(ステップS110)。
Based on the image indicated by the image data received in step S108 and the current position and orientation of the
障害物があると判定した場合(ステップS110;Yes)、ステップS103〜S107の処理が再び実行される。これにより、ロボット102の移動中に、ユーザなどが障害物を移動させた場合であっても、それを回避できる移動経路が決定される。そして、再び決定された移動経路に従って、ロボット102を移動させることができる。
When it is determined that there is an obstacle (step S110; Yes), the processes of steps S103 to S107 are executed again. Thus, even when the user or the like moves an obstacle while the
障害物がないと判定した場合(ステップS110;No)、指令部113は、ステップS108にて受信された画像データに基づいて、ロボット102が目的位置に到着したか否かを判定する(ステップS111)。
When it is determined that there is no obstacle (step S110; No), the
目的位置に到着していないと判定した場合(ステップS111;No)、指令部113は、決定された移動経路に従ってロボット102を移動させる移動指令を送信する(ステップS112)。
When it determines with not having arrived at the target position (step S111; No), the instruction |
目的位置に到着したと判定した場合(ステップS111;Yes)、指令部113は、移動指令の送信を停止し(ステップS113)、ロボット制御処理を終了する。
When it determines with having arrived at the target position (step S111; Yes), the instruction |
以上、本発明の一実施の形態について説明した。
本実施の形態によれば、ロボット制御装置103は、部屋において物が占める領域を示す画像データに基づいて移動経路を決定し、その決定した移動経路に従ってロボット102を移動させる移動指令をロボット102へ送信する。これにより、カメラセンサ、超音波センサ、赤外線センサなどのセンサをロボット102に搭載しなくても、移動経路を決定することができるとともに、決定した移動経路に従ってロボット102を移動させることができる。従って、ロボット102に多数のセンサを搭載しなくてもロボット102を自動的に移動させることが可能になる。The embodiment of the present invention has been described above.
According to the present embodiment, the
変形例1.
実施の形態では、部屋を撮影する撮像センサ101が1台である例を説明した。しかし、図9に示すように、ロボットシステム200は、部屋の中で共通の領域(センシング領域)を撮影する撮像センサ201a,201bが複数設けられてもよい。ここで、センシング領域は、制御領域としての部屋の床全体であってもよく、その一部であってもよい。Modification 1
In the embodiment, an example in which there is one
これにより、共通の各撮像センサ101から異なる角度の画像を示す画像データを得ることができるので、部屋に置かれたものを立体的に特定することができる。
As a result, image data indicating images of different angles can be obtained from the
1台の撮像センサ101による二次元的な画像に基づいて移動経路を決定する場合、移動経路と撮像センサ101との間に障害物があるときには、ロボット102が、実空間では、間隔データが示す距離よりも離れた位置を通過することになる。
When determining a movement route based on a two-dimensional image from one
部屋に置かれたものを立体的に特定することによって、移動経路と撮像センサ101との間に障害物がある場合が低減するので、障害物の近傍を通過させることができる。従って、本変形例によれば、実空間での最短経路に近い経路を決定してロボット102を移動させることが可能になる。
By specifying three-dimensionally what is placed in the room, the number of obstacles between the moving path and the
変形例2.
実施の形態では、センサデータが、制御領域に置かれた物が占める領域を二次元的に示す例を説明した。しかし、センサデータは、これに限られない。Modification 2
In the embodiment, an example has been described in which sensor data two-dimensionally represents an area occupied by an object placed in a control area. However, the sensor data is not limited to this.
例えば、センサは、超音波、レーザ、赤外線などを一定の方向へ照射し、対象物での反射波に基づいてセンサから対象物までの距離を測定する測距センサが主走査方向に並べられたラインセンサであってもよい。この場合、センサデータは、制御領域に置かれた物が占める領域を二次元的(主走査方向と高さ方向)に示す。例えば、主走査方向を中心に一定の角度の範囲でラインセンサを回転させることによって、ラインセンサにより検出される領域を副走査方向(主走査方向と高さ方向とに垂直な方向)に移動させることができる。このような方法で少なくとも制御領域の床全体を走査することによって得られるセンサデータを処理することによって、部屋に置かれた物が占める領域を二次元的又は三次元的に把握することが可能になる。 For example, the sensors are arranged in the main scanning direction with distance measuring sensors that irradiate ultrasonic waves, lasers, infrared rays, or the like in a certain direction and measure the distance from the sensor to the object based on the reflected wave from the object It may be a line sensor. In this case, the sensor data shows the area occupied by the object placed in the control area in a two-dimensional manner (main scanning direction and height direction). For example, the region detected by the line sensor is moved in the sub-scanning direction (a direction perpendicular to the main scanning direction and the height direction) by rotating the line sensor within a certain angle range around the main scanning direction. be able to. By processing sensor data obtained by scanning at least the entire floor of the control area in this way, the area occupied by objects placed in the room can be grasped two-dimensionally or three-dimensionally. Become.
例えば、2つの撮像センサを組み合わせたステレオカメラをセンサとして採用する場合、ステレオカメラから出力されるセンサデータは、制御領域に置かれた物が占める領域を三次元的に示す。 For example, when a stereo camera in which two imaging sensors are combined is adopted as a sensor, sensor data output from the stereo camera three-dimensionally indicates an area occupied by an object placed in the control area.
変形例3.
実施の形態では、ロボット102の移動中に移動経路に障害物が検出された場合に、その障害物を回避する移動経路が再び決定する例により説明した。しかし、例えば、ロボット102が挟持部などによってその障害物を移動経路から取り除ける場合には、ロボット102がそれを移動させてもよい。これによれば、移動経路を再び決定しなくても、ロボット102を最短の経路で移動させることができる。Modification 3
In the embodiment, an example has been described in which, when an obstacle is detected on the movement path while the
変形例4.
実施の形態では、ロボット制御装置103が、1台のロボット102を制御する例により説明した。しかし、ロボットシステムが複数のロボット102を備え、ロボット制御装置が、その複数のロボット102を制御してもよい。Modification 4
In the embodiment, the example in which the
これによれば、部屋の床全体を含む画像に基づいて、各ロボット102の移動経路を決定することができる。従って、各ロボット102が互いに移動を阻害しない移動経路を決定することが可能になる。
According to this, the movement route of each
本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。 Various embodiments and modifications can be made to the present invention without departing from the broad spirit and scope of the present invention. The above-described embodiments are for explaining the present invention and do not limit the scope of the present invention. In other words, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications within the scope of the claims and within the scope of the equivalent invention are considered to be within the scope of the present invention.
本発明は、ロボットを自動的に移動させるロボット制御装置などに利用することができる。 The present invention can be used in a robot control device that automatically moves a robot.
100,200 ロボットシステム、101,201a,201b 撮像センサ、102 ロボット、103 ロボット制御装置、104 指標、105 ロボット本体、107 受信部、108 動作−設定データ記憶部、109 目的位置設定部、110 障害物データ記憶部、111 間隔データ記憶部、112 経路決定部、113 指令部、116 ユーザ動作特定部、117 指示位置決定部、118 障害特定部、119 判定部、120 障害回避部。 100, 200 Robot system, 101, 201a, 201b Image sensor, 102 Robot, 103 Robot controller, 104 Index, 105 Robot main body, 107 Receiving unit, 108 Operation-setting data storage unit, 109 Target position setting unit, 110 Obstacle Data storage unit, 111 interval data storage unit, 112 route determination unit, 113 command unit, 116 user action specifying unit, 117 designated position determining unit, 118 fault specifying unit, 119 determining unit, 120 fault avoiding unit.
上記目的を達成するため、本発明に係るロボット制御装置は、予め定められた制御領域におけるロボットの移動を遠隔制御するものであって、受信部と、経路決定部と、指令部とを備える。受信部は、制御領域に置かれた物が占める領域を2次元で示すセンサデータをセンサから受信する。経路決定部は、受信されたセンサデータに基づいて、ロボットを移動させる経路である移動経路を決定する。指令部は、決定された移動経路に従ってロボットを移動させる移動指令を作成してロボットへ送信する。経路決定部は、ロボットの移動を妨げる障害物の外縁の形状を示す障害物データと受信されたセンサデータとに基づいて、障害物が占める領域を特定する障害特定部と、ロボットが障害物を回避する経路を移動経路として決定する障害回避部とを有する。 In order to achieve the above object, a robot control apparatus according to the present invention remotely controls the movement of a robot in a predetermined control area, and includes a receiving unit, a route determining unit, and a command unit. The receiving unit receives sensor data indicating a two-dimensional area occupied by an object placed in the control area from the sensor. The route determination unit determines a movement route that is a route for moving the robot, based on the received sensor data. The command unit creates a movement command for moving the robot according to the determined movement route and transmits the movement command to the robot. The route determination unit includes an obstacle specifying unit that specifies an area occupied by the obstacle based on the obstacle data indicating the shape of the outer edge of the obstacle that prevents the robot from moving and the received sensor data, and the robot determines the obstacle. A failure avoidance unit that determines a route to be avoided as a travel route.
Claims (10)
前記制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信する受信部と、
前記受信されたセンサデータに基づいて、前記ロボットを移動させる経路である移動経路を決定する経路決定部と、
前記決定された移動経路に従って前記ロボットを移動させる移動指令を作成して前記ロボットへ送信する指令部とを備えるロボット制御装置。A robot control apparatus for remotely controlling movement of a robot in a predetermined control area,
A receiving unit for receiving sensor data indicating a region occupied by an object placed in the control region;
A route determination unit for determining a movement route that is a route for moving the robot based on the received sensor data;
A robot control apparatus comprising: a command unit that creates a movement command for moving the robot according to the determined movement route and transmits the movement command to the robot.
前記経路決定部は、
前記受信されたセンサデータと前記記憶された障害物データとに基づいて、前記障害物が占める領域を特定する障害特定部と、
前記ロボットが前記特定された障害物を回避する経路を前記移動経路として決定する障害回避部とを有する
請求項1に記載のロボット制御装置。An obstacle data storage unit that stores obstacle data indicating an outer edge shape of the obstacle that prevents the robot from moving;
The route determination unit
An obstacle identifying unit that identifies an area occupied by the obstacle based on the received sensor data and the stored obstacle data;
The robot control apparatus according to claim 1, further comprising: an obstacle avoidance unit that determines, as the movement route, a route for the robot to avoid the identified obstacle.
前記障害回避部は、前記特定された障害物が占める領域を特定し、当該特定した障害物が占める領域と前記間隔データとに基づいて前記特定された障害物の周辺領域を特定し、前記特定された障害物が占める領域及び周辺領域を前記制御領域から除いた移動可能領域を特定し、当該特定した移動可能領域に含まれる経路の中から前記移動経路を決定する
請求項2に記載のロボット制御装置。An interval data storage unit for storing interval data indicating a distance to be separated from the obstacle when the robot is moved;
The obstacle avoiding unit specifies an area occupied by the specified obstacle, specifies a peripheral area of the specified obstacle based on the area occupied by the specified obstacle and the interval data, and specifies the specified The robot according to claim 2, wherein a movable area obtained by removing an area occupied by the obstacle and a peripheral area from the control area is specified, and the moving path is determined from paths included in the specified movable area. Control device.
前記障害回避部は、前記特定された障害物を回避して現在位置から目的位置に至る経路のうち、距離が最も短いものを前記移動経路として決定する
請求項2又は3に記載のロボット制御装置。Further comprising a target position setting unit for determining a target position to which the robot moves based on a user instruction;
The robot control apparatus according to claim 2 or 3, wherein the obstacle avoidance unit determines, as the movement route, a route having the shortest distance among routes from the current position to the target position while avoiding the identified obstacle. .
前記目的位置設定部は、
前記受信されたセンサデータに基づいて、ユーザの動作を特定するユーザ動作特定部と、
前記記憶された動作−設定データと前記特定されたユーザの動作とに基づいて、前記目的位置を決定する指示位置決定部とを有する
請求項4に記載のロボット制御装置。An operation including the user's operation and setting contents corresponding to the operation; an operation for storing setting data; and a setting data storage unit,
The target position setting unit includes:
Based on the received sensor data, a user action specifying unit for specifying a user action;
The robot control device according to claim 4, further comprising: an instruction position determination unit that determines the target position based on the stored operation-setting data and the specified user operation.
前記障害回避部は、前記判定部によって前記障害物があると判定された場合に、前記受信されたセンサデータに基づいて、前記移動経路を再び決定する
請求項2から5のいずれか1項に記載のロボット制御装置。The route determination unit further includes a determination unit that determines whether there is an obstacle in the movement direction of the robot based on sensor data received during the movement of the robot by the reception unit,
The said obstacle avoidance part determines the said movement route again based on the said received sensor data, when it determines with the said obstacle by the said determination part. The robot control device described.
請求項1から6までのいずれか1項に記載のロボット制御装置。The robot control device according to claim 1, wherein the reception unit receives sensor data from each of a plurality of sensors having a common sensing area in the control area.
前記センサデータを生成して前記ロボット制御装置へ送信するセンサと、
前記送信された移動指令を受信し、当該受信した移動指令に従って移動するロボットとを備え、
前記ロボット制御装置と前記センサと前記ロボットとが、個別に設けられているロボットシステム。A robot controller according to any one of claims 1 to 7;
A sensor that generates and transmits the sensor data to the robot controller;
A robot that receives the transmitted movement command and moves according to the received movement command;
The robot system in which the robot control device, the sensor, and the robot are individually provided.
受信部が、前記制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信することと、
経路決定部が、前記受信されたセンサデータに基づいて、前記ロボットを移動させる経路である移動経路を決定することと、
指令部が、前記決定された移動経路に従って前記ロボットを移動させる移動指令を作成して前記ロボットへ送信することとを含むロボット制御方法。A robot control method for remotely controlling movement of a robot in a predetermined control area,
Receiving a sensor data indicating an area occupied by an object placed in the control area from the sensor;
A route determining unit determining a moving route that is a route for moving the robot based on the received sensor data;
A robot control method, comprising: a command unit that generates a movement command for moving the robot according to the determined movement route and transmits the movement command to the robot.
コンピュータを、
前記制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信する受信部、
前記受信されたセンサデータに基づいて、前記ロボットを移動させる経路である移動経路を決定する経路決定部、
前記決定された移動経路に従って前記ロボットを移動させる移動指令を作成して前記ロボットへ送信する指令部として機能させるためのプログラム。A program for remotely controlling movement of a robot in a predetermined control area,
Computer
A receiving unit for receiving sensor data indicating a region occupied by an object placed in the control region;
A route determination unit for determining a movement route that is a route for moving the robot based on the received sensor data;
A program for creating a movement command for moving the robot according to the determined movement path and causing the robot to function as a command unit that transmits the command to the robot.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/079113 WO2016067467A1 (en) | 2014-10-31 | 2014-10-31 | Robot control device, robot system, robot control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2016067467A1 true JPWO2016067467A1 (en) | 2017-04-27 |
Family
ID=55856846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016556169A Pending JPWO2016067467A1 (en) | 2014-10-31 | 2014-10-31 | Robot control apparatus, robot system, robot control method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2016067467A1 (en) |
WO (1) | WO2016067467A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110709214A (en) * | 2017-12-05 | 2020-01-17 | 株式会社大气社 | Control method of surface treatment system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105911992B (en) * | 2016-06-14 | 2019-02-22 | 广东技术师范学院 | A kind of automatic path planning method and mobile robot of mobile robot |
WO2019012612A1 (en) * | 2017-07-12 | 2019-01-17 | 三菱電機株式会社 | Information-processing device and information-processing system |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07175520A (en) * | 1993-12-20 | 1995-07-14 | Matsushita Electric Ind Co Ltd | Automatic travel device |
JPH0981237A (en) * | 1995-09-18 | 1997-03-28 | Matsushita Electric Ind Co Ltd | Traveling object controller |
JPH09230933A (en) * | 1996-02-27 | 1997-09-05 | Mitsubishi Electric Corp | Automatic carrier device |
WO2002023297A1 (en) * | 2000-09-11 | 2002-03-21 | Kunikatsu Takase | Mobile body movement control system |
JP2004199451A (en) * | 2002-12-19 | 2004-07-15 | Matsushita Electric Ind Co Ltd | Automatic traveling device and route management device |
JP2004326264A (en) * | 2003-04-22 | 2004-11-18 | Matsushita Electric Works Ltd | Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program |
JP2006167840A (en) * | 2004-12-14 | 2006-06-29 | Honda Motor Co Ltd | Robot control system |
JP2006202213A (en) * | 2005-01-24 | 2006-08-03 | Yaskawa Electric Corp | Omnidirectional mobile robot |
JP2007094743A (en) * | 2005-09-28 | 2007-04-12 | Zmp:Kk | Autonomous mobile robot and system therefor |
JP2007111854A (en) * | 2003-06-02 | 2007-05-10 | Matsushita Electric Ind Co Ltd | Article handling system and article handling server |
JP2009080527A (en) * | 2007-09-25 | 2009-04-16 | Panasonic Electric Works Co Ltd | Autonomous mobile device |
WO2010044277A1 (en) * | 2008-10-16 | 2010-04-22 | 株式会社テムザック | Mobile body navigating device |
JP2012053838A (en) * | 2010-09-03 | 2012-03-15 | Hitachi Plant Technologies Ltd | Unmanned carrier and traveling control method |
WO2013099091A1 (en) * | 2011-12-28 | 2013-07-04 | パナソニック株式会社 | Self-propelled robot hand |
-
2014
- 2014-10-31 JP JP2016556169A patent/JPWO2016067467A1/en active Pending
- 2014-10-31 WO PCT/JP2014/079113 patent/WO2016067467A1/en active Application Filing
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07175520A (en) * | 1993-12-20 | 1995-07-14 | Matsushita Electric Ind Co Ltd | Automatic travel device |
JPH0981237A (en) * | 1995-09-18 | 1997-03-28 | Matsushita Electric Ind Co Ltd | Traveling object controller |
JPH09230933A (en) * | 1996-02-27 | 1997-09-05 | Mitsubishi Electric Corp | Automatic carrier device |
WO2002023297A1 (en) * | 2000-09-11 | 2002-03-21 | Kunikatsu Takase | Mobile body movement control system |
JP2004199451A (en) * | 2002-12-19 | 2004-07-15 | Matsushita Electric Ind Co Ltd | Automatic traveling device and route management device |
JP2004326264A (en) * | 2003-04-22 | 2004-11-18 | Matsushita Electric Works Ltd | Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program |
JP2007111854A (en) * | 2003-06-02 | 2007-05-10 | Matsushita Electric Ind Co Ltd | Article handling system and article handling server |
JP2006167840A (en) * | 2004-12-14 | 2006-06-29 | Honda Motor Co Ltd | Robot control system |
JP2006202213A (en) * | 2005-01-24 | 2006-08-03 | Yaskawa Electric Corp | Omnidirectional mobile robot |
JP2007094743A (en) * | 2005-09-28 | 2007-04-12 | Zmp:Kk | Autonomous mobile robot and system therefor |
JP2009080527A (en) * | 2007-09-25 | 2009-04-16 | Panasonic Electric Works Co Ltd | Autonomous mobile device |
WO2010044277A1 (en) * | 2008-10-16 | 2010-04-22 | 株式会社テムザック | Mobile body navigating device |
JP2012053838A (en) * | 2010-09-03 | 2012-03-15 | Hitachi Plant Technologies Ltd | Unmanned carrier and traveling control method |
WO2013099091A1 (en) * | 2011-12-28 | 2013-07-04 | パナソニック株式会社 | Self-propelled robot hand |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110709214A (en) * | 2017-12-05 | 2020-01-17 | 株式会社大气社 | Control method of surface treatment system |
Also Published As
Publication number | Publication date |
---|---|
WO2016067467A1 (en) | 2016-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111565896B (en) | Mobile device for cleaning, cooperative cleaning system and control method thereof | |
US10542859B2 (en) | Cleaning robot and controlling method thereof | |
US11279042B2 (en) | Robots for serving food and/or drinks | |
JP6979961B2 (en) | How to control an autonomous mobile robot | |
US10591726B2 (en) | Apparatus and method for controlling display of hologram, vehicle system | |
US9256779B2 (en) | Gesture recognition apparatus, gesture recognition method, and recording medium | |
US8963875B2 (en) | Touch screen device with wet detection and control method thereof | |
WO2012117508A1 (en) | Information processing device, method and program | |
WO2011074165A1 (en) | Autonomous mobile device | |
KR20200109235A (en) | Robots for serving food and/or drinks | |
US9235238B2 (en) | Mobile electronic device with dual touch displays and multitasking function, control method, and storage medium storing control program | |
KR102434410B1 (en) | Electronic Device and Operating Method Thereof | |
WO2016067467A1 (en) | Robot control device, robot system, robot control method, and program | |
JP2018190391A (en) | Portable mobile robot and operation method thereof | |
JP6409667B2 (en) | Remote control system | |
JP2019046458A (en) | Spatial position instruction system | |
TW201621553A (en) | Three-dimensional air mouse and display used together therewith | |
US20190354246A1 (en) | Airport robot and movement method therefor | |
JP7095220B2 (en) | Robot control system | |
CN113974507A (en) | Carpet detection method and device for cleaning robot, cleaning robot and medium | |
KR20160008780A (en) | Information displaying apparatus of vacuum cleaner | |
JP2020154764A (en) | Information processing apparatus and reading system | |
US11440189B2 (en) | Method and robot device for sharing object data | |
JP6436003B2 (en) | Information processing apparatus and information processing program | |
KR102499576B1 (en) | Electric apparatus and method for control thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161110 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170914 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180227 |