JP2011204145A - Moving device, moving method and program - Google Patents
Moving device, moving method and program Download PDFInfo
- Publication number
- JP2011204145A JP2011204145A JP2010073034A JP2010073034A JP2011204145A JP 2011204145 A JP2011204145 A JP 2011204145A JP 2010073034 A JP2010073034 A JP 2010073034A JP 2010073034 A JP2010073034 A JP 2010073034A JP 2011204145 A JP2011204145 A JP 2011204145A
- Authority
- JP
- Japan
- Prior art keywords
- moving
- moving device
- unit
- control unit
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000006870 function Effects 0.000 claims description 11
- 230000009471 action Effects 0.000 abstract description 17
- 230000008569 process Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 10
- 241000282414 Homo sapiens Species 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 241000282412 Homo Species 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本発明は、移動装置、移動方法およびプログラムに関する。 The present invention relates to a moving device, a moving method, and a program.
近年、電気的あるいは磁気的な作用を用いて人間の代わりに作業を行ったり、人間の作業を補助したりするロボットが開発されている。特に、人間の作業を補助するために動作するロボットは、安全性を確保するために、人間との接触を考慮して移動したり動作したりする必要がある。そこで、ロボットから視覚または聴覚を通じて認識することができるような合図を発して、ロボットの移動方向を周囲の人間に知らせることが行われている。 In recent years, robots have been developed that perform work on behalf of humans or assist human work using electrical or magnetic action. In particular, a robot that operates to assist human work needs to move or operate in consideration of contact with humans in order to ensure safety. Therefore, a signal that can be recognized from the robot visually or auditorily is issued to inform the surrounding humans of the moving direction of the robot.
しかし、ロボットが発する合図の意味するところが周囲の人間に認識されていなければ、ロボットの行動を予測したり推測したりしてロボットとの衝突を回避した安全な行動をとることができない。そこで、人間にロボットの挙動変化をより明確に認識させることにより、人間との接触を回避して移動することが可能な移動装置が開発されている(例えば、特許文献1)。 However, if the meaning of the signal issued by the robot is not recognized by the surrounding people, it is impossible to take a safe action avoiding a collision with the robot by predicting or estimating the action of the robot. In view of this, a moving device has been developed that allows a human to recognize a change in the behavior of the robot more clearly, thereby avoiding contact with the human and moving (see, for example, Patent Document 1).
しかし、特許文献1では、高齢者や子供、成人など動きの異なる人々に同様な合図でロボットの行動を認識させているため、人によってロボットの行動の予測や推測が異なり、安全性を確保した行動をとれない場合があるという問題があった。例えば、高齢者は移動速度が遅かったり、瞬時の判断がし難かったりすることが多く、子供は不意を突く行動をとることが多いため、それぞれの人物の行動状況に対応するような合図でロボットの行動を認識させる必要があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、周辺に存在する対象物の状態に応じた合図によりロボットの行動を認識させることが可能な、新規かつ改良された移動装置、移動方法およびプログラムを提供することにある。
However, in Patent Document 1, since the behavior of the robot is recognized with similar cues by elderly people, children, adults, and the like, the robot behavior is predicted and estimated differently depending on the person, thus ensuring safety. There was a problem that there was a case where action could not be taken. For example, elderly people tend to move slowly or are difficult to make instantaneous judgments, and children often take unexpected actions, so robots with cues that respond to the behavior of each person It was necessary to make people recognize the behavior.
Therefore, the present invention has been made in view of the above problems, and the object of the present invention is to make it possible to recognize the action of the robot by a cue according to the state of the object existing in the vicinity. It is an object to provide a new and improved moving apparatus, moving method and program.
上記課題を解決するために、本発明のある観点によれば、移動方向を示す方向指示部と、周辺に存在する対象物の状態を認識する認識部と、前記認識部により認識された前記対象物の状態に応じて、前記方向指示部により示される方向を制御する制御部と、を備える、移動装置が提供される。 In order to solve the above-described problem, according to an aspect of the present invention, a direction instruction unit that indicates a moving direction, a recognition unit that recognizes a state of an object existing in the vicinity, and the target recognized by the recognition unit A moving device is provided that includes a control unit that controls the direction indicated by the direction indicating unit according to the state of an object.
また、移動速度を調整する速度調整部を備え、前記制御部は、前記認識部により認識された前記対象物の状態に応じて、前記速度調整部により調整される移動装置の移動速度を制御してもよい。 In addition, a speed adjusting unit that adjusts the moving speed is provided, and the control unit controls the moving speed of the moving device adjusted by the speed adjusting unit according to the state of the object recognized by the recognizing unit. May be.
また、前記認識部は、前記対象物と前記移動装置との距離または前記対象物の移動速度を認識してもよい。 The recognition unit may recognize a distance between the object and the moving device or a moving speed of the object.
また、前記認識部により認識された前記対象物と前記移動装置との距離が短いほど、前記制御部は、前記移動装置のより詳細な移動経路を示すように前記方向指示部を制御してもよい。 In addition, as the distance between the object recognized by the recognition unit and the moving device is shorter, the control unit may control the direction indicating unit so as to indicate a more detailed moving path of the moving device. Good.
また、前記認識部により認識された前記対象物と前記移動装置との距離が長いほど、前記制御部は、前記移動装置のよりおおまかな移動経路を示すように前記方向指示部を制御してもよい。 Further, the longer the distance between the object recognized by the recognition unit and the moving device, the more the control unit controls the direction indicating unit so as to indicate a rough movement path of the moving device. Good.
また、前記認識部により前記対象物の移動速度が所定の速度より速いと認識された場合に、前記制御部は、前記移動装置の移動速度を制限するように前記速度調整部を制御してもよい。 Further, when the recognition unit recognizes that the moving speed of the object is faster than a predetermined speed, the control unit may control the speed adjusting unit to limit the moving speed of the moving device. Good.
また、前記移動装置が、顔の形状および胴体の形状を有するロボットである場合に、前記方向指示部は、前記顔の向きにより移動方向を示してもよい。 Further, when the moving device is a robot having a face shape and a torso shape, the direction indicating unit may indicate a moving direction according to the face direction.
また、前記方向指示部は、前記制御部による制御に応じて、前記移動装置が進行方向に移動する前に前記顔の向きを移動方向に向けてもよい。 Further, the direction instructing unit may turn the face in the moving direction before the moving device moves in the traveling direction according to the control by the control unit.
また、前記方向指示部は、前記制御部により前記詳細な移動経路を示すことを指示された場合に、前記移動装置の移動経路上の所定範囲内における移動方向に前記顔の向きを向けてもよい。 In addition, when the control unit is instructed to indicate the detailed moving path, the direction instructing unit may direct the face in a moving direction within a predetermined range on the moving path of the moving device. Good.
また、前記方向指示部は、前記制御部により前記おおまかな移動経路を示すことを指示された場合に、前記移動装置の移動経路上の所定範囲外における移動方向に前記顔の向きを向けてもよい。 In addition, when the control unit instructs the direction indicating unit to indicate the rough moving path, the direction instructing unit may direct the face in a moving direction outside a predetermined range on the moving path of the moving device. Good.
また、前記方向指示部は、プロジェクタからの投影イメージにより移動方向を指示する場合に、前記方向指示部は、前記制御部による制御に応じて、移動方向を示す投影イメージを前記プロジェクタから照射してもよい。 In addition, when the direction instruction unit instructs a movement direction based on a projection image from the projector, the direction instruction unit emits a projection image indicating the movement direction from the projector according to control by the control unit. Also good.
前記制御部は、前記認識部により認識された前記対象物の状態に応じて、前記プロジェクタにより照射する前記投影イメージを変更してもよい。 The control unit may change the projection image irradiated by the projector according to the state of the object recognized by the recognition unit.
前記方向指示部は、前記制御部により前記詳細な移動経路を示すことを指示された場合に、前記移動装置の移動経路を示す投影イメージを前記プロジェクタから照射し、前記制御部により前記おおまかな移動経路を示すことを指示された場合に、前記移動装置の移動方向を示す矢印の投影イメージを前記プロジェクタから照射してもよい。 The direction instruction unit emits a projection image indicating a movement path of the moving device from the projector when the control unit is instructed to indicate the detailed movement path, and the control unit moves the rough movement. When instructed to indicate a route, a projection image of an arrow indicating the moving direction of the moving device may be emitted from the projector.
また、上記課題を解決するために、本発明の別の観点によれば、移動装置の周辺に存在する対象物を認識して、前記移動装置との距離または前記対象物の移動速度を認識するステップと、前記認識された対象物と前記移動装置との距離が短いほど、また、前記対象物の移動速度が所定の速度より速いほど、前記移動装置の移動方向を示す移動方向指示部により、前記移動装置のより詳細な移動経路を示し、前記移動装置の移動速度を制限するように制御するステップと、を含む、移動制御方法が提供される。 In order to solve the above problem, according to another aspect of the present invention, an object existing around a moving device is recognized, and a distance from the moving device or a moving speed of the object is recognized. The shorter the distance between the step and the recognized object and the moving device, and the faster the moving speed of the object is higher than a predetermined speed, the moving direction indicating unit indicating the moving direction of the moving device, Showing a more detailed movement path of the mobile device, and controlling to limit the moving speed of the mobile device.
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、移動方向を示す方向指示部と、周辺に存在する対象物の状態を認識する認識部と、前記認識部により認識された前記対象物の状態に応じて、前記方向指示部により示される方向を制御する制御部と、を備える、移動装置として機能させるプログラムが提供される。 In order to solve the above problems, according to another aspect of the present invention, a computer includes a direction indicating unit that indicates a moving direction, a recognizing unit that recognizes a state of an object existing in the vicinity, and the recognizing unit. And a control unit that controls the direction indicated by the direction indicating unit according to the state of the object recognized by the computer, a program that functions as a moving device is provided.
以上説明したように本発明によれば、周辺に存在する対象物の状態に応じた合図でロボットの行動を認識させることができる。 As described above, according to the present invention, the behavior of the robot can be recognized with a cue corresponding to the state of an object existing in the vicinity.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、以下に示す順序に従って、当該「発明を実施するための形態」を説明する。
1.本実施形態の目的
2.移動装置のハードウェア構成
3.移動装置の機能構成
4.移動装置の動作の詳細
Further, the “detailed description of the embodiments” will be described in the order shown below.
1. 1. Purpose of the present embodiment 2. Hardware configuration of mobile device 3. Functional configuration of mobile device Details of mobile device operation
<1.本実施形態の目的>
まず、本実施形態の目的について説明する。近年、電気的あるいは磁気的な作用を用いて人間の代わりに作業を行ったり、人間の作業を補助したりするロボットが開発されている。特に、人間の作業を補助するために動作するロボットは、安全性を確保するために、人間との接触を考慮して移動したり動作したりする必要がある。そこで、ロボットから視覚または聴覚を通じて認識することができるような合図を発して、ロボットの移動方向を周囲の人間に知らせることが行われている。
<1. Purpose of this embodiment>
First, the purpose of this embodiment will be described. In recent years, robots have been developed that perform work on behalf of humans or assist human work using electrical or magnetic action. In particular, a robot that operates to assist human work needs to move or operate in consideration of contact with humans in order to ensure safety. Therefore, a signal that can be recognized from the robot visually or auditorily is issued to inform the surrounding humans of the moving direction of the robot.
しかし、ロボットが発する合図の意味するところが周囲の人間に認識されていなければ、ロボットの行動を予測したり推測したりしてロボットとの衝突を回避した安全な行動をとることができない。そこで、人間にロボットの挙動変化をより明確に認識させることにより、人間との接触を回避して移動することが可能な移動装置が開発されている(例えば、特許文献1)。 However, if the meaning of the signal issued by the robot is not recognized by the surrounding people, it is impossible to take a safe action avoiding a collision with the robot by predicting or estimating the action of the robot. In view of this, a moving device has been developed that allows a human to recognize a change in the behavior of the robot more clearly, thereby avoiding contact with the human and moving (see, for example, Patent Document 1).
しかし、特許文献1では、高齢者や子供、成人など動きの異なる人々に同様な合図でロボットの行動を認識させているため、人によってロボットの行動の予測や推測が異なり、安全性を確保した行動をとれない場合があるという問題があった。例えば、高齢者は移動速度が遅かったり、瞬時の判断がし難かったりすることが多く、子供は不意を突く行動をとることが多いため、それぞれの人物の行動状況に対応するような合図でロボットの行動を認識させる必要があった。 However, in Patent Document 1, since the behavior of the robot is recognized with similar cues by elderly people, children, adults, and the like, the robot behavior is predicted and estimated differently depending on the person, thus ensuring safety. There was a problem that there was a case where action could not be taken. For example, elderly people tend to move slowly or are difficult to make instantaneous judgments, and children often take unexpected actions, so robots with cues that respond to the behavior of each person It was necessary to make people recognize the behavior.
そこで、上記のような事情を一着眼点として、本実施形態にかかる移動装置100が創作されるに至った。移動装置100によれば、周辺に存在する対象物の状態に応じた合図によりロボット(以降、移動体と称する。)の行動を認識させることが可能となる。
Accordingly, the
<2.移動装置のハードウェア構成>
次に、図1および図2を参照して、本実施形態にかかる移動装置100のハードウェア構成について説明する。図1は、移動装置100の外観を説明する説明図である。図1に示したように、移動装置100は、本体(胴体)50と、頭部51などを有している。本体50の下部には、移動装置100が移動可能なように、複数の回転可能な車輪が備えられている。本体50は、移動装置100に備えられたコンピュータの制御のもと、車輪を動作させて自立的に移動したり、移動速度を変更したりすることができる。
<2. Hardware configuration of mobile device>
Next, a hardware configuration of the
また、頭部51は、本体50の上部に設けられ、顔の正面方向が認識できる形状を有している。例えば、頭部51の顔の正面方向に顔や目が描かれていたり、顔の正面方向が突出した形状になっていたりしてもよい。本実施形態では、顔の正面方向を「顔の向き」と称して説明する。また、頭部51は、360度回転可能に備えられ、コンピュータの制御のもと、アクチュエータ(図示せず)から伝達される力によって自立的に回転させることができる。
Moreover, the
また、移動装置100の頭部51に撮像装置(CCDカメラなど)を搭載してもよいし、移動装置100の本体50に撮像装置を搭載してもよい。また、移動装置100に、本体50の加速度に応じた信号を出力するジャイロセンサを搭載したり、頭部51の回転角度や傾きなどを検出するモーションセンサを搭載したりしてもよい。
Further, an imaging device (CCD camera or the like) may be mounted on the
次に、図2を参照して、移動装置100に備えられたコンピュータのハードウェア装置について説明する。図2は、移動装置100に備えられたコンピュータのハードウェア構成を示すブロック図である。図2に示したように、移動装置100は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、ホストバス14と、ブリッジ15と、外部バス16と、インタフェース17と、入力装置18と、出力装置19と、ストレージ装置(HDD)20と、ドライブ21と、接続ポート22と、通信装置23とを備える。
Next, a hardware device of a computer provided in the
CPU11は、演算処理装置および移動装置として機能し、各種プログラムに従って移動装置100内の動作全般を制御する。また、CPU11は、マイクロプロセッサであってもよい。ROM12は、CPU11が使用するプログラムや演算パラメータ等を記憶する。RAM13は、CPU11の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバス14により相互に接続されている。
The
ホストバス14は、ブリッジ15を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス16に接続されている。なお、必ずしもホストバス14、ブリッジ15および外部バス16を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
The
入力装置18は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU11に出力する入力制御回路などから構成されている。移動装置100のユーザは、該入力装置18を操作することにより、移動装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置19は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Display)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置で構成される。出力装置19は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
The
ストレージ装置20は、本実施形態にかかる移動装置100の記憶部の一例として構成されたデータ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置20は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置20は、ハードディスクを駆動し、CPU201が実行するプログラムや各種データを格納する。
The
ドライブ21は、記憶媒体用リーダライタであり、移動装置100に内蔵、あるいは外付けされる。ドライブ21は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM13に出力する。
The
接続ポート22は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
The
通信装置23は、例えば、通信網5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置23は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。以上、移動装置100に備えられたコンピュータのハードウェア構成について説明した。
The communication device 23 is a communication interface configured by a communication device or the like for connecting to the
<3.移動装置の機能構成>
次に、図3を参照して、移動装置100の制御部(CPU11)の機能構成について説明する。図3は、移動装置100の制御部の機能構成を示すブロック図である。なお、移動装置100の制御部の機能構成を説明するにあたり、図4〜図8を適宜参照する。図3に示したように、移動装置100は、認識部102、制御部104、方向指示部106、速度調整部108などを備える。
<3. Functional configuration of mobile device>
Next, the functional configuration of the control unit (CPU 11) of the
認識部102は、移動装置100の周辺に存在する対象物の状態を認識する機能を有する。周辺に存在する対象物とは、例えば、人物や物体などである。対象物の状態とは、例えば、対象物と移動装置100との相対的な距離や、対象物の移動速度、対象物の移動方向などを例示できる。認識部102は、赤外線や超音波カメラセンサなどを用いて対象物を認識して、対象物と移動装置100との位置関係や相対的な距離、移動速度、移動方向などを認識してもよい。
The
例えば、移動装置100に周辺の画像を取得する一対のCCDカメラが搭載されている場合には、認識部102は、CCDカメラ取得した画像を画像処理することによって周辺に存在する対象物を認識する。また、認識部102は、CCDで取得した画像からエッジ抽出やパターン認識処理などによって周辺の人物や物体などを抽出して認識する。また、左右のCCDカメラにおける対象物の位置の違いを基にして、三角測量方式により対象物との距離や横変位を求め、前フレームで求めた距離に対する変化量から相対速度を求めてもよい。
For example, when a pair of CCD cameras that acquire peripheral images are mounted on the moving
また、対象物が人物である場合には、対象物の状態は、人物の年齢や、人物が手荷物を持っているか、人物が杖をついているか、車椅子に乗っているか、ベビーカーを押しているかなどの状態を例示できる。例えば、移動装置100に備えられたCCDカメラ等の撮像装置(図示せず)により人物の顔を撮像して、顔認識により人物の年齢を認識するようにしてもよい。また、予め特定の人物の顔の特徴情報を記憶しておき、記憶している人物の顔の特徴情報と、撮像装置により撮像された顔の特徴情報とを比較することによりどの人物かを特定してもよい。また、人物の移動速度から、人物が「老人」、「成人」、「子供」の何れに該当するかを推測してもよい。また、対象物の高さや大きさを検出することにより、人物が立っているか座っているか、車椅子で移動しているかなどを検出してもよい。
In addition, if the object is a person, the state of the object is the age of the person, whether the person has baggage, the person is wearing a cane, is in a wheelchair, is pushing a stroller, etc. A state can be illustrated. For example, a person's face may be imaged by an imaging device (not shown) such as a CCD camera provided in the moving
認識部102は、認識結果を制御部104に提供する。認識部102により認識結果を提供された制御部104は、認識された対象物の状態に応じて、方向指示部106により示される方向を制御する機能を有する。また、制御部104は、認識された対象物の状態に応じて、速度調整部108により調整される移動装置100の移動速度を制御する。
The
例えば、認識部102より対象物と移動装置100との距離が短いほど、制御部104は、移動装置100のより詳細な移動経路を示すように方向指示部106を制御する。例えば、移動装置100と対象物とが1メートルから3メートル程度の近い距離に位置している場合には、移動装置100の1メートルから3メートル先の移動方向を示す。
For example, as the distance between the object and the moving
これにより、移動装置100との距離が短い場合に移動装置100の詳細な行き先を示すことができるため、対象物が正確に危険回避行動を行うことが可能となる。また、制御部104は、移動装置100と対象物との距離が短い場合に、移動装置100の移動速度を制限してもよい。これにより、対象物が行動計画の急な変更が困難な高齢者などであった場合でも、移動装置100の速度を減速して、さらに、詳しい行き先を示すことにより、誤差の少ない情報を提供することができ、人物等の対象物が余裕をもって移動装置100を回避することが可能となる。また、制御部104は、方向指示部106による方向指示の動きを大きくすることにより、さらに移動装置100を回避しやすくさせることが可能となる。
Thereby, since the detailed destination of the moving
また、認識部102より対象物と移動装置100との距離が長いほど、制御部104は、移動装置100のよりおおまかな移動経路を示すように方向指示部106を制御する。例えば、移動装置100と対象物とが10メートル以上離れている場合には、1メートル先や3メートル先の方向ではなく、遠方(目的地)の方向を示すようにする。
Further, as the distance between the object and the moving
これにより、移動装置100と対象物との距離が長い場合には、移動装置100の大まかな行き先を示して、移動装置100とすれ違う可能性のある人物等の対象物が余裕を持って移動装置100を回避することが可能となる。また、移動装置100と対象物との距離が長い場合でも対象物の移動速度が速い場合には、詳細な移動経路を示すようにしてもよい。
Thereby, when the distance between the
方向指示部106は、移動装置100の移動方向を示す機能を有する。方向指示部106は、例えば、移動装置100の頭部51の顔の向きにより移動方向を示す。方向指示部106は、顔の向きにより移動方向を示す場合には、制御部104による制御に応じて、顔の正面を進行方向に向ける。これにより、対象物は、移動装置100の移動方向を視覚的に認識することが可能となる。
The
また、方向指示部106は、移動装置100が進行方向に移動する前に、顔の向きを進行方向に向ける。これにより、対象物は、移動装置100が進行方向に移動する前に、移動装置100が進行する方向を容易に認識することができるため、移動装置100を安全に回避することが可能となる。
In addition, the
上記では、図1に示したように移動装置100の頭部51の顔の向きにより移動方向を示す場合について説明したが、かかる例に限定されず、例えば、プロジェクタからの投影イメージにより移動方向を指示したり、LEDランプやディスプレイの表示により移動方向を指示したりしてもよい。ここで、図4〜6を参照して、顔の向きによる移動方向指示以外の移動方向指示方法について説明する。
In the above, the case where the moving direction is indicated by the orientation of the face of the
図4は、プロジェクタからの投影イメージにより移動方向を指示する場合について説明する説明図である。図4に示したように、移動装置100にプロジェクタが搭載され、プロジェクタから投影イメージが照射されている。投影イメージは、例えば、移動装置100の移動経路や、移動装置100が移動する際に占有する領域などが含まれる。例えば、移動装置100と対象物との距離が短い場合には、詳細な移動経路を照射してもよい。また、移動装置100と対象物との距離が長い場合には、おおまかな移動経路を照射したり、目的地の方向を照射したりしてもよい。
FIG. 4 is an explanatory diagram for explaining a case in which a moving direction is designated by a projection image from a projector. As shown in FIG. 4, a projector is mounted on the moving
例えば、移動装置100の頭部51に撮像装置が備えられており、移動方向ではない方向に顔の正面を向ける必要がある場合に、プロジェクタによる投影によって移動装置100の行き先を示すようにしてもよい。また、認識部102により認識された対象物の状態に応じてプロジェクタによる投影内容を変更してもよい。例えば、認識部102により対象物が老人であると認識された場合には、プロジェクタにより投影する文字サイズを大きくしたり、通常より長い時間投影したりするようにしてもよい。また、認識部102により対象物が子供であると認識された場合には、プロジェクタにより投影する文字を平仮名にしてもよい。また、認識された人物の身長や移動速度に応じて、プロジェクタによる投影位置を変更してもよい。例えば、人物の身長に合わせて、見やすい位置に矢印等を投影する。
For example, when the imaging device is provided in the
また、図5に示したように、移動装置100の本体に複数のLEDランプ70を搭載して、進行方向のLEDランプ点灯することにより移動装置100の行き先を示すようにしてもよい。例えば、進行方向のLEDランプ71に光が集まるようなアニメーションを用いて、より明確に移動装置100の行き先を認識させるようにしてもよい。LEDランプ70を用いてにより行き先を示す場合も、認識部102により認識された対象物の状態に応じて表示方法を変更してもよい。例えば、人物の年齢に応じてアニメーションの速度を変更してもよい。
Further, as shown in FIG. 5, a plurality of
また、図6に示したように、移動装置100の本体にディスプレイを搭載して、矢印などの方向を示す表示をすることにより移動装置100の行き先を示すようにしてもよい。ディスプレイを用いて行き先を示す場合も、認識部102により認識された対象物の状態に応じて表示方法を変更してもよい。例えば、人物の年齢に応じて矢印等の表示の大きさを変更したり、より詳細な行き先を表示したりするようにしてもよい。また、図5に示した複数のLEDランプと図6に示したディスプレイとを搭載して、LEDランプの点灯と矢印表示を同時に行ってもよい。これにより、より明確に移動装置100の行き先を認識させることが可能となる。
In addition, as shown in FIG. 6, a display may be mounted on the main body of the moving
次に、図7および図8を参照して、対象物との距離や速度に応じた移動装置100の動作の概要について説明する。図7および図8は、移動装置100の動作の概要を説明する説明図である。図7に示したように、移動装置100と対象物80との距離が、例えば10メートル以上離れているとする。移動装置100は移動経路53に沿って目的地55まで移動すると想定する。
Next, with reference to FIG. 7 and FIG. 8, the outline | summary of operation | movement of the moving
移動装置100と対象物80との距離が離れている場合には、大まかな移動経路を示すことにより、人物等の対象物は移動装置100の動きを予想し易くなる。したがって、移動装置100の頭部51の顔の向きは、移動経路53の方向ではなく、目的地の方向54、すなわち、目的地と移動装置100とを結ぶ直線に沿った方向を向くようにする。
When the distance between the moving
また、図8に示したように、移動装置100と対象物80との距離が短い場合には、詳細な移動経路を示すことにより、人物等の対象物は移動装置100の動きを予想し易くなる。したがって、移動装置100の頭部51の顔の向きは、目的地の方向54ではなく、3メートル先くらいの通過予定位置の方向56を向くようにする。
Further, as shown in FIG. 8, when the distance between the moving
このように、移動装置100と対象物80との距離に応じて、最終的な目的地となる方向に顔を向けるか、少し先の通過予定位置の方向に顔を向けるかを制御している。また、さらに、移動装置100と対象物80との距離に応じて、移動装置100の移動速度を制御してもよい。すなわち、移動装置100と対象物80との距離が近い場合には、少し先の通過予定位置の方向に顔を向けつつ、移動速度を遅くする。これにより、対象物80が移動装置100の動きを容易に予測して、余裕を持って移動装置100を回避することが可能となる。
In this way, depending on the distance between the moving
図3に戻り、移動装置100の制御部の機能構成の説明を続ける。速度調整部108は、移動装置100の移動速度を調整する機能を有する。速度調整部108は、制御部104による制御のもと、移動装置100の移動速度を減速したり、移動を停止させたりする。制御部104は、上記したように、認識部102により認識された対象物との距離や対象物の移動速度に応じて移動装置100の動きを制御する。
Returning to FIG. 3, the description of the functional configuration of the control unit of the
例えば、認識部102により対象物の移動速度が所定の速度より速いと認識された場合には、移動速度を遅くする。所定の速度とは、例えば、1m/sを例示できる。また、対象物の角速度を認識して、角速度が所定の速度より速いと認識された場合に、角速度を遅くする。所定の角速度とは、例えば、1rad/sを例示できる。
For example, when the
<4.移動装置の動作の詳細>
以上、移動装置100の機能構成について説明する。次に、図9〜図11を参照して、移動装置100の動作の詳細について説明する。図9〜図11は、移動装置100の動作の詳細を示すフローチャートである。図9に示したように、まず、移動装置100の目的地が設定される(S102)。
<4. Details of operation of mobile device>
The functional configuration of the
そして、移動装置100と目的地までの距離が3メートル以上か否かを判定する(S104)。ステップS104において、移動装置100と目的地までの距離が3メートル以上であった場合には、処理Aを実行する(S106)。また、ステップS104において、移動装置100と目的地までの距離が3メートル未満であった場合には、処理Bを実行する(S108)。ここで、図10を参照して、処理Aについて説明した後、図11を参照して処理Bについて説明する。図10は、処理Aを説明するフローチャート、図11は、処理Bを説明するフローチャートである。
Then, it is determined whether or not the distance between the
図10に示したように、まず、認識部102は、周辺を探索し、回避対象を認識する(S202)。ステップS202においては、回避対象の外形や顔、体型、姿勢などを認識する。ステップS202では、予め、回避対象となる対象物の外形や、顔、体系、姿勢などを識別する特徴情報を登録して、登録されている特徴情報と認識した対象物の特徴情報とが一致するか否かを判定してもよい。
As shown in FIG. 10, first, the
そして、回避対象が無いか判定する(S204)。以下では、回避する必要のある対象物を回避対象と称して説明する。ステップS204において、回避対象が無いと判定された場合には、ステップS220の処理を実行する。また、ステップS204において、回避対象があると判定された場合には、回避対象との距離が10メートル以上か否かを判定する(S206)。 Then, it is determined whether there is an avoidance target (S204). In the following description, an object that needs to be avoided is referred to as an avoidance object. If it is determined in step S204 that there is no avoidance target, the process of step S220 is executed. If it is determined in step S204 that there is an avoidance target, it is determined whether the distance from the avoidance target is 10 meters or more (S206).
ステップS206において、回避対象との距離が10メートル以上であった場合には、ステップS220の処理を実行する。また、ステップS206において、回避対象との距離が10メートル未満であった場合には、回避対象が認識不能物体か否か、または、移動物体か否かを判定する(S208)。認識不能物体とは、認識された物体の形状や顔が、予め登録された特徴情報と一致せずに何れの物体か、何れの人物かを認識できない物体などである。 In step S206, when the distance to the avoidance target is 10 meters or more, the process of step S220 is executed. In step S206, if the distance to the avoidance target is less than 10 meters, it is determined whether the avoidance target is an unrecognizable object or a moving object (S208). An unrecognizable object is an object in which the shape or face of a recognized object does not match the pre-registered feature information and cannot be recognized as any object or person.
ステップS208において、回避対象が認識不能物体か、または、移動物体であると判定された場合には、処理Bを実行する(S108)。ステップS208において、回避対象が認識可能な物体であり、移動物体でもない場合には、回避対象に車いすかベビーカーが含まれているか否かを判定する(S210)。ステップS210において、回避対象に車いすかベビーカーが含まれていると判定された場合には、処理Bを実行する(S108)。処理Bについては後で詳細に説明する。 If it is determined in step S208 that the avoidance target is an unrecognizable object or a moving object, process B is executed (S108). If the avoidance target is a recognizable object and not a moving object in step S208, it is determined whether the avoidance target includes a wheelchair or a stroller (S210). If it is determined in step S210 that the avoidance target includes a wheelchair or a stroller, process B is executed (S108). The process B will be described in detail later.
ステップS210において、回避対象に車いすもベビーカーも含まれていないと判定された場合には、回避対象に杖または手荷物が含まれているか否かを判定する(S212)。ステップS212において、回避対象に杖または手荷物が含まれていると判定された場合には、処理Bを実行する(S108)。処理Bについては後で詳細に説明する。 If it is determined in step S210 that the avoidance target does not include a wheelchair or a stroller, it is determined whether or not the avoidance target includes a cane or baggage (S212). If it is determined in step S212 that the evasion target includes a wand or baggage, process B is executed (S108). The process B will be described in detail later.
ステップS212において、回避対象に杖または手荷物が含まれていないと判定された場合には、回避対象の移動速度が1m/s以上または角速度が1rad/s以上か否かを判定する(S214)。ステップS214において、回避対象の移動速度が1m/s以上または角速度が1rad/s以上であると判定された場合には、処理Bを実行する(S108)。処理Bについては後で詳細に説明する。 If it is determined in step S212 that the evasion target does not include a wand or baggage, it is determined whether the movement speed of the evasion target is 1 m / s or higher or the angular velocity is 1 rad / s or higher (S214). If it is determined in step S214 that the moving speed to be avoided is 1 m / s or higher or the angular speed is 1 rad / s or higher, process B is executed (S108). The process B will be described in detail later.
ステップS214において、回避対象の移動速度が1m/s以上または角速度が1rad/s以上でないと判定された場合には、回避対象の推定年齢が65歳以上か5歳以下かを判定する(S216)。ステップS216において、回避対象の推定年齢が65歳以上か5歳以下であると判定された場合には、処理Bを実行する(S108)。処理Bについては後で詳細に説明する。 In step S214, when it is determined that the moving speed of the avoidance target is 1 m / s or higher or the angular velocity is not 1 rad / s or higher, it is determined whether the estimated age of the avoidance target is 65 years old or older (S216). . In step S216, when it is determined that the estimated age of the avoidance target is 65 years old or older or 5 years old or less, process B is executed (S108). The process B will be described in detail later.
ステップS216において、回避対象の推定年齢が65歳以上か5歳以下でないと判定された場合には、回避対象との距離が3m以下か否かを判定する(S218)。ステップS218において、回避対象との距離が3m以下であると判定された場合には、処理Bを実行する(S108)。処理Bについては後で詳細に説明する。 When it is determined in step S216 that the estimated age of the avoidance target is not 65 years old or less or 5 years old or less, it is determined whether the distance to the avoidance target is 3 m or less (S218). If it is determined in step S218 that the distance to the avoidance target is 3 m or less, process B is executed (S108). The process B will be described in detail later.
ステップS218において、回避対象との距離が3m以下ではないと判定された場合には、方向指示器(例えば、頭部の顔の向き)を目的地の方向に設定する(S220)。ステップS220は、図7に示したように、移動装置100と対象物80との距離が離れている場合で、移動装置100の移動経路53ではなく、目的地の方向に顔の向きを設定する場合である。そして、速度制限を解除する(S222)。
If it is determined in step S218 that the distance to the avoidance target is not 3 m or less, a direction indicator (for example, the orientation of the head face) is set to the direction of the destination (S220). In step S220, as shown in FIG. 7, when the distance between the moving
ステップS220およびステップS222は、ステップS204において回避対象がなかったり、ステップS206において回避対象との距離が10m以上と離れていたりする場合に実行される。回避対象との距離が10m以上と離れている場合には、顔の向きを目的地の方向に設定して、移動装置100の大まかな行き先を示している。これにより、移動装置100とすれ違う可能性のある人物等は、移動装置100の大まかな移動方向を把握して、余裕を持って移動装置100を回避することが可能となる。
Steps S220 and S222 are executed when there is no avoidance target in step S204 or when the distance from the avoidance target is 10 m or more in step S206. When the distance to the avoidance target is 10 m or more, the direction of the face is set to the direction of the destination, and the rough destination of the moving
次に、図11を参照して、処理Bについて説明する。図11に示したように、頭部の顔の向きなどの方向指示器を移動経路上の3m先の方向に設定する(S302)。そして、移動装置100の移動速度を0.5m/s以下にしたり、角速度を0.5rad/s以下に制限する(S304)。
Next, the process B will be described with reference to FIG. As shown in FIG. 11, a direction indicator such as the head face direction is set to a direction 3 m ahead on the movement path (S302). Then, the moving speed of the moving
ステップS302は、図8に示したように、移動装置100と対象物80との距離が近い場合で、移動装置100の移動経路53の3m先の方向に顔の向きを設定する場合である。また、ステップS208〜ステップS218に示したように、対象物が車いすやベビーカーであったり、対象物が杖や手荷物を持っていたり、対象物の移動速度が速かったり、回避対象となる人物が高齢者だったり子供だったりする場合に、処理Bを実行する。
Step S302 is a case where the face direction is set in a direction 3 m ahead of the
ステップS302およびステップS304の処理により、回避対象となる人物が高齢者だったり子供だったりする場合には、少し先の通過予定位置の方向に移動装置100の顔を向けつつ、移動速度を遅くすることができる。これにより、高齢者や子供でも、移動装置100の動きを容易に予測して、余裕を持って移動装置100を回避することが可能となる。以上、移動装置100の動作について説明した。
If the person to be avoided is an elderly person or a child by the processing in step S302 and step S304, the moving speed is slowed while the face of the moving
上記のとおり、本実施形態によれば、認識部102により認識された対象物の状態に応じて顔の向き等の方向指示部により示される方向を制御することにより、対象物に対して危険回避行動を促すことが可能となる。例えば、対象物が高齢者が子供である場合に、移動速度を制限したり、移動方向をより明確にしたりすることにより、移動装置100の行動を認識させて余裕を持った行動をすることが可能となる。
As described above, according to the present embodiment, risk avoidance for the object is controlled by controlling the direction indicated by the direction indicating unit such as the face direction according to the state of the object recognized by the
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
例えば、本明細書の移動装置100の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。すなわち、移動装置100の処理における各ステップは、異なる処理であっても並列的に実行されてもよい。
For example, each step in the processing of the
また、移動装置100などに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した移動装置100の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
In addition, it is possible to create a computer program for causing hardware such as a CPU, ROM, and RAM incorporated in the
100 移動装置
102 認識部
104 制御部
106 方向指示部
108 速度調整部
DESCRIPTION OF
Claims (15)
周辺に存在する対象物の状態を認識する認識部と、
前記認識部により認識された前記対象物の状態に応じて、前記方向指示部により示される方向を制御する制御部と、
を備える、移動装置。 A direction indicator showing a moving direction;
A recognition unit for recognizing the state of an object existing in the vicinity;
A control unit for controlling the direction indicated by the direction indicating unit according to the state of the object recognized by the recognition unit;
A mobile device comprising:
前記制御部は、前記認識部により認識された前記対象物の状態に応じて、前記速度調整部により調整される移動装置の移動速度を制御する、請求項1に記載の移動装置。 It has a speed adjustment unit that adjusts the moving speed,
The moving device according to claim 1, wherein the control unit controls a moving speed of the moving device adjusted by the speed adjusting unit according to a state of the object recognized by the recognizing unit.
前記方向指示部は、前記顔の向きにより移動方向を示す、請求項1に記載の移動装置。 When the moving device is a robot having a face shape and a torso shape,
The moving device according to claim 1, wherein the direction instructing unit indicates a moving direction according to a direction of the face.
前記方向指示部は、前記制御部による制御に応じて、移動方向を示す投影イメージを前記プロジェクタから照射する、請求項1に記載の移動装置。 The direction instructing unit, when instructing the moving direction by the projection image from the projector,
The moving device according to claim 1, wherein the direction instructing unit emits a projection image indicating a moving direction from the projector according to control by the control unit.
前記方向指示部は、
前記制御部により前記詳細な移動経路を示すことを指示された場合に、前記移動装置の移動経路を示す投影イメージを前記プロジェクタから照射し、
前記制御部により前記おおまかな移動経路を示すことを指示された場合に、前記移動装置の移動方向を示す矢印の投影イメージを前記プロジェクタから照射する、請求項11に記載の移動装置。 (Old claim 12 + 13)
The direction indicating unit is
When instructed by the control unit to indicate the detailed moving path, the projector projects a projection image indicating the moving path of the moving device,
The moving device according to claim 11, wherein when the control unit is instructed to indicate the rough moving path, a projection image of an arrow indicating a moving direction of the moving device is emitted from the projector.
前記認識された対象物と前記移動装置との距離が短いほど、また、前記対象物の移動速度が所定の速度より速いほど、前記移動装置の移動方向を示す移動方向指示部により、前記移動装置のより詳細な移動経路を示し、前記移動装置の移動速度を制限するように制御するステップと、
を含む、移動制御方法。 Recognizing an object existing around a moving device and recognizing a distance to the moving device or a moving speed of the object;
As the distance between the recognized object and the moving device is shorter, and as the moving speed of the object is faster than a predetermined speed, the moving device indicates the moving direction of the moving device by the moving direction indicating unit. Controlling to limit the moving speed of the mobile device,
Including a movement control method.
移動方向を示す方向指示部と、
周辺に存在する対象物の状態を認識する認識部と、
前記認識部により認識された前記対象物の状態に応じて、前記方向指示部により示される方向を制御する制御部と、
を備える、移動装置として機能させるプログラム。
Computer
A direction indicator showing a moving direction;
A recognition unit for recognizing the state of an object existing in the vicinity;
A control unit for controlling the direction indicated by the direction indicating unit according to the state of the object recognized by the recognition unit;
A program that functions as a mobile device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010073034A JP2011204145A (en) | 2010-03-26 | 2010-03-26 | Moving device, moving method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010073034A JP2011204145A (en) | 2010-03-26 | 2010-03-26 | Moving device, moving method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011204145A true JP2011204145A (en) | 2011-10-13 |
Family
ID=44880700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010073034A Withdrawn JP2011204145A (en) | 2010-03-26 | 2010-03-26 | Moving device, moving method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011204145A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013171905A1 (en) * | 2012-05-18 | 2013-11-21 | 株式会社日立製作所 | Autonomous moving device, control method, and autonomous moving method |
CN104635731A (en) * | 2013-11-13 | 2015-05-20 | 现代摩比斯株式会社 | Apparatus for determining motion characteristics of target and device for controlling driving route of vehicle including the same |
ITUA20164576A1 (en) * | 2016-06-21 | 2017-12-21 | Alumotion S R L | Collaborative robot, reporting system and process of reporting a movement of a collaborative robot |
IT201600083187A1 (en) * | 2016-08-05 | 2018-02-05 | Lym S R L | LIGHTING SYSTEM |
JP2018149670A (en) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Learning object device and operation method |
EP3470949A1 (en) * | 2017-10-12 | 2019-04-17 | Toyota Jidosha Kabushiki Kaisha | Movement assistance system and movement assistance method |
WO2019116643A1 (en) * | 2017-12-12 | 2019-06-20 | ソニー株式会社 | Information processing device and information processing method |
EP3544383A1 (en) | 2018-03-23 | 2019-09-25 | Toyota Jidosha Kabushiki Kaisha | Moving body |
WO2019244644A1 (en) * | 2018-06-19 | 2019-12-26 | ソニー株式会社 | Mobile body control device, mobile body control method, and program |
KR20200011765A (en) * | 2018-07-25 | 2020-02-04 | 엘지전자 주식회사 | Moving robot |
WO2020116493A1 (en) * | 2018-12-05 | 2020-06-11 | 株式会社ナイルワークス | Moving body |
JPWO2020116493A1 (en) * | 2018-12-05 | 2021-02-25 | 株式会社ナイルワークス | Mobile |
WO2021220679A1 (en) * | 2020-04-30 | 2021-11-04 | 東京ロボティクス株式会社 | Robot control device, method, and program |
WO2021220678A1 (en) * | 2020-04-30 | 2021-11-04 | 東京ロボティクス株式会社 | Mobile robot, method for controlling mobile robot, and control program |
JP7254973B1 (en) | 2022-01-06 | 2023-04-10 | Dmg森精機株式会社 | traveling robot system |
WO2024034339A1 (en) * | 2022-08-08 | 2024-02-15 | 株式会社デンソー | Processing system, processing device, autonomous driving device, processing method, and processing program |
-
2010
- 2010-03-26 JP JP2010073034A patent/JP2011204145A/en not_active Withdrawn
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013171905A1 (en) * | 2012-05-18 | 2016-01-07 | 株式会社日立製作所 | Autonomous mobile device, control device, and autonomous mobile method |
US9588518B2 (en) | 2012-05-18 | 2017-03-07 | Hitachi, Ltd. | Autonomous mobile apparatus, control device, and autonomous mobile method |
WO2013171905A1 (en) * | 2012-05-18 | 2013-11-21 | 株式会社日立製作所 | Autonomous moving device, control method, and autonomous moving method |
CN104635731A (en) * | 2013-11-13 | 2015-05-20 | 现代摩比斯株式会社 | Apparatus for determining motion characteristics of target and device for controlling driving route of vehicle including the same |
CN104635731B (en) * | 2013-11-13 | 2017-12-05 | 现代摩比斯株式会社 | The kinetic characteristic judgment means of target and the driving path control device for possessing this |
ITUA20164576A1 (en) * | 2016-06-21 | 2017-12-21 | Alumotion S R L | Collaborative robot, reporting system and process of reporting a movement of a collaborative robot |
WO2017221171A1 (en) * | 2016-06-21 | 2017-12-28 | Alumotion S.R.L. | Collaborative robot, signalling system and process of signalling a displacement of a collaborative robot |
US10648651B2 (en) | 2016-08-05 | 2020-05-12 | Lym S.R.L. | Illumination system with transportation system |
IT201600083187A1 (en) * | 2016-08-05 | 2018-02-05 | Lym S R L | LIGHTING SYSTEM |
WO2018025230A1 (en) * | 2016-08-05 | 2018-02-08 | Lym S.R.L. | Illumination system |
JP2018149670A (en) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Learning object device and operation method |
CN109658737A (en) * | 2017-10-12 | 2019-04-19 | 丰田自动车株式会社 | Mobile auxiliary system and mobile householder method |
CN109658737B (en) * | 2017-10-12 | 2022-03-15 | 丰田自动车株式会社 | Movement assistance system and movement assistance method |
EP3470949A1 (en) * | 2017-10-12 | 2019-04-17 | Toyota Jidosha Kabushiki Kaisha | Movement assistance system and movement assistance method |
JPWO2019116643A1 (en) * | 2017-12-12 | 2020-12-03 | ソニー株式会社 | Information processing device and information processing method |
JP7180613B2 (en) | 2017-12-12 | 2022-11-30 | ソニーグループ株式会社 | Information processing device and information processing method |
WO2019116643A1 (en) * | 2017-12-12 | 2019-06-20 | ソニー株式会社 | Information processing device and information processing method |
KR20190111829A (en) * | 2018-03-23 | 2019-10-02 | 도요타 지도샤(주) | Moving body |
CN110297105A (en) * | 2018-03-23 | 2019-10-01 | 丰田自动车株式会社 | Moving body |
EP3544383A1 (en) | 2018-03-23 | 2019-09-25 | Toyota Jidosha Kabushiki Kaisha | Moving body |
CN110297105B (en) * | 2018-03-23 | 2022-02-18 | 丰田自动车株式会社 | Moving body |
KR102224724B1 (en) * | 2018-03-23 | 2021-03-08 | 도요타 지도샤(주) | Moving body |
US11419193B2 (en) | 2018-03-23 | 2022-08-16 | Toyota Jidosha Kabushiki Kaisha | Moving body |
WO2019244644A1 (en) * | 2018-06-19 | 2019-12-26 | ソニー株式会社 | Mobile body control device, mobile body control method, and program |
US11526172B2 (en) | 2018-06-19 | 2022-12-13 | Sony Corporation | Mobile object control apparatus and mobile object control method |
KR20200011765A (en) * | 2018-07-25 | 2020-02-04 | 엘지전자 주식회사 | Moving robot |
KR102241603B1 (en) * | 2018-07-25 | 2021-04-16 | 엘지전자 주식회사 | Moving robot |
JP7008996B2 (en) | 2018-12-05 | 2022-01-25 | 株式会社ナイルワークス | Mobile |
JPWO2020116493A1 (en) * | 2018-12-05 | 2021-02-25 | 株式会社ナイルワークス | Mobile |
WO2020116493A1 (en) * | 2018-12-05 | 2020-06-11 | 株式会社ナイルワークス | Moving body |
US11873100B2 (en) | 2018-12-05 | 2024-01-16 | Nileworks Inc. | Drone system, drone, movable body, drone system control method, and drone system control program |
WO2021220678A1 (en) * | 2020-04-30 | 2021-11-04 | 東京ロボティクス株式会社 | Mobile robot, method for controlling mobile robot, and control program |
WO2021220679A1 (en) * | 2020-04-30 | 2021-11-04 | 東京ロボティクス株式会社 | Robot control device, method, and program |
JP7254973B1 (en) | 2022-01-06 | 2023-04-10 | Dmg森精機株式会社 | traveling robot system |
JP2023100398A (en) * | 2022-01-06 | 2023-07-19 | Dmg森精機株式会社 | traveling robot system |
WO2024034339A1 (en) * | 2022-08-08 | 2024-02-15 | 株式会社デンソー | Processing system, processing device, autonomous driving device, processing method, and processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011204145A (en) | Moving device, moving method and program | |
US20210346557A1 (en) | Robotic social interaction | |
US20240087738A1 (en) | Interfacing with a mobile telepresence robot | |
JP5963372B2 (en) | How to make a mobile robot follow people | |
US10372972B2 (en) | Face detection apparatus, face detection method, and program | |
US11285611B2 (en) | Robot and method of controlling thereof | |
TW200921048A (en) | Visual navigation system and method based on structured light | |
US20130100057A1 (en) | Proximity-aware multi-touch tabletop | |
González-Jiménez et al. | Technical improvements of the Giraff telepresence robot based on users' evaluation | |
CN110286763B (en) | Navigation type experimental interaction device with cognitive function | |
JP5318623B2 (en) | Remote control device and remote control program | |
WO2016031105A1 (en) | Information-processing device, information processing method, and program | |
TW201007200A (en) | Automatic ultrasonic and computer-vision navigation device and method using the same | |
JP2009113190A (en) | Autonomous working robot and method of controlling operation of autonomous working robot | |
KR20100086262A (en) | Robot and control method thereof | |
KR102560462B1 (en) | Moving robot | |
JP6669948B2 (en) | Moving object control device and moving object | |
JP5776544B2 (en) | Robot control method, robot control device, and robot | |
US11568640B2 (en) | Techniques for providing vibrations at headset | |
JP6609588B2 (en) | Autonomous mobility system and autonomous mobility control method | |
JP2011200947A (en) | Control device, control method and program | |
JP6866467B2 (en) | Gesture recognition device, gesture recognition method, projector with gesture recognition device and video signal supply device | |
JP5552710B2 (en) | Robot movement control system, robot movement control program, and robot movement control method | |
JP2010172548A (en) | Autonomously moving wheelchair | |
Tomari et al. | Enhancing wheelchair manoeuvrability for severe impairment users |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130604 |