JP6854719B2 - 装置、ロボット、方法及びプログラム - Google Patents
装置、ロボット、方法及びプログラム Download PDFInfo
- Publication number
- JP6854719B2 JP6854719B2 JP2017135289A JP2017135289A JP6854719B2 JP 6854719 B2 JP6854719 B2 JP 6854719B2 JP 2017135289 A JP2017135289 A JP 2017135289A JP 2017135289 A JP2017135289 A JP 2017135289A JP 6854719 B2 JP6854719 B2 JP 6854719B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- height
- robot
- sensor
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/003—Manipulators for entertainment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45007—Toy
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Toys (AREA)
Description
ユーザーに持ち上げられた状態でユーザーと遊ぶロボットが検討されている。このようなロボットがユーザーに持ち上げられた後、ユーザーの不注意などによって硬い床に落とされた場合、ロボットが壊れる可能性がある。これを防止するため、ロボットが持ち上げられた高さを測定し、測定した高さが閾値高さ以上になった場合に、ユーザーに表情や発話などで警告を報知する技術が知られている。
先ず、本開示の第1の実施形態に係るロボット1(装置)について説明する。ロボット1は、ユーザーによって持ち上げられる又は運ばれる等して、ユーザーによって動かされる。また、ロボット1は、床等の上を自律的に走行可能に構成されている。具体的には、ロボット1は、HDDやSSD等の所定の記憶容量を有する不図示の記憶装置、ロボット1を走行させる駆動機構及び当該駆動機構を制御する駆動装置、無線LANや携帯情報端末キャリアの通信網等のネットワークを介して外部装置と通信を行う通信装置及びマイクロコンピューター等によって構成されている。マイクロコンピューターは、CPU(プロセッサ)、ROM及びRAM等を備え、ROMに記憶されている所定の制御プログラム(プログラム)をCPUに実行させることにより、所定の制御を行う。
次に、第1の実施の形態において、主制御部105が、ロボット1の現在位置に応じてロボット1の感情表現を変化させる制御の全体的な動作について説明する。図6は、本開示の第1の実施形態に係るロボット1の感情表現を変化させる制御の一例を示すフローチャートである。
次に、前記全体的なフローチャートの中の各処理の詳細について説明する。先ず、ステップS601における位置危険高さテーブルT3(図3)の作成処理の詳細について説明する。図7は、位置危険高さテーブルT3の作成処理の一例を示すフローチャートである。
次に、ステップS602(図6)におけるユーザー動作を判定する処理(以降、ユーザー動作判定処理)の詳細について説明する。図10は、ユーザー動作判定処理の一例を示すフローチャートである。
次に、ステップS604(図6)におけるロボット1の高さを算出する処理(以降、高さ算出処理)の詳細について説明する。図11は、本開示の第1の実施形態に係る高さ算出処理の一例を示すフローチャートである。
次に、ステップS605(図6)における表現決定処理の詳細について説明する。図12は、本開示の第1の実施形態に係る表現決定処理の一例を示すフローチャートである。図12に示すように、主制御部105は、表現決定処理を開始すると、先ず、位置危険高さテーブルT3(図3)において、ステップS702又はS706(図11)で推定されたロボット1が存在する部屋の識別子と一致する部屋名X301及び同ステップで推定されたロボット1の部屋の中における相対位置を示す座標情報を含む位置範囲X302に対応付けられている、危険高さ1X305及び危険高さ2X306(二次元位置に対応する高さ)とを取得する。そして、主制御部105は、当該取得した危険高さ1X305を変数H2として設定(H2=危険高さ1X305)し、当該取得した危険高さ2X306を変数H3として設定(H3=危険高さ2X306)する(ステップS1201)。
次に、ステップS606(図6)における表現実行処理の詳細について説明する。図13は、表現実行処理の一例を示すフローチャートである。図13に示すように、主制御部105は、表現実行処理を開始すると、先ず、対話履歴DB111が管理している直近の所定期間(例えば10分間)に行われた対話の内容を表す対話情報を参照し、ロボット1がユーザーに対して持ち上げるように依頼する内容の対話が行われたか否かを判断する(ステップS1301)。
次に、本開示の第2の実施形態に係るロボット2について説明する。図14は、本開示の第2の実施形態に係るロボット2の機能構成の一例を示すブロック図である。以下、第1の実施形態と同じ構成要素については同じ番号を付して説明を省略し、第1の実施形態と差異のある部分についてのみ説明する。
次に、第2の実施形態において、主制御部105aが、ロボット2の現在位置に応じてロボット2の感情表現を変化させる制御の全体的な動作について説明する。図15は、本開示の第2の実施形態に係るロボット2の感情表現を変化させる制御の一例を示すフローチャートである。
次に、ステップS1503(図15)における高さ算出処理の詳細について説明する。図16は、本開示の第2の実施形態に係る高さ計算処理の一例を示すフローチャートである。
次に、ステップS1504(図15)における表現決定処理の詳細について説明する。図17は、本開示の第2の実施形態に係る表現決定処理の一例を示すフローチャートである。図17に示すように、主制御部105aは、表現決定処理を開始すると、材質危険高さテーブルT4(図4)において、ステップS1603(図16)で識別したロボット2の真下にある床又は障害物の材質と一致する材質X401に対応付けられている危険高さ1X402及び危険高さ2X403(材質に対応する高さ)を取得する。そして、主制御部105aは、当該取得した危険高さ1X402を変数H2として設定(H2=危険高さ1X402)し、当該取得した危険高さ2X403を変数H3として設定(H3=危険高さ2X403)する(ステップS1701)。
第3の実施形態では、第1の実施形態のロボット1及び第2の実施形態のロボット2を、球状のロボット3に実装した例について説明する。図18は、本開示の第3の実施形態に係るロボット3の外観斜視図である。ロボット3は、図18に示すように、球体状の筐体901を備える。筐体901は、例えば、透明な部材又は半透明の部材で構成される。
以下、ロボット3の感情表現の具体例について説明する。図20は、本開示の第3の実施形態に係るロボット3の感情表現の一例を示す図である。
上記第1乃至第2の実施形態において、ステップS1301、S1302(図13)を省略してもよい。
第1の実施形態において、位置危険高さテーブルT3(図3)を用いて管理される位置危険高さ情報に、危険高さ2X306(図3)が含まれず、材質危険高さテーブルT4(図4)を用いて管理される材質危険高さ情報に危険高さ2X403(図4)が含まれないようにしてもよい。これに合わせて、図12に示すステップS1202及びS1203を省略し、ステップS1201における変数H3の設定を省略し、当該ステップS1201の後、ステップ1204を行うようにしてもよい。
第1の実施形態において、図12に示すステップS1206を省略してもよい。同様に、第2の実施形態において、図17に示すステップS1706を省略してもよい。
本開示に係る装置は、ロボット1、2に限らず、ユーザーによって動かされ、且つ、ロボット1、2と同様の構成を有する、例えばノートパソコンや家電等の装置にも適用可能である。この場合、S601(図6)で用いる、位置危険高さテーブルT3(図3)を用いて管理される位置危険高さ情報及び材質危険高さテーブルT4(図4)を用いて管理される材質危険高さ情報は、外部装置においてユーザーによって編集され、当該装置が備える通信装置によって当該外部装置から取得してもよい。
101、101a カメラ
103、103a 第1センサー、第2センサー、第3センサー
106 スピーカー
108 ディスプレイ
108a 第1表示部(ディスプレイ)
108b 第2表示部(ディスプレイ)
108c 第3表示部(ディスプレイ)
T3 位置危険高さテーブル(第1テーブル、第2テーブル)
X305 危険高さ1(第1高さ)
X306 危険高さ2(第2高さ)
T4 材質危険高さテーブル(テーブル)
X402 危険高さ1(第3高さ)
X403 危険高さ2(第4高さ)
Claims (21)
- ユーザーによって動かされる装置であって、
前記装置の動き及び動く方向を検出する第1センサーと、
前記装置の鉛直方向の移動距離を測定する第2センサーと、
前記装置の周辺の映像を取得するカメラと、
プロセッサと、
ディスプレイと、
スピーカーと、を備え、
前記プロセッサは、
前記第1センサーの検知結果に基づいて、前記装置が鉛直方向に動かされたか判断し、
前記装置が鉛直方向に動かされたと判断した場合は、前記第2センサーの検知結果に基づいて、前記装置の真下にある物体から前記装置までの距離を算出し、
前記カメラから取得された映像に基づいて、前記装置の二次元位置を測定し、
前記装置の二次元位置と前記二次元位置で前記装置が落下した際に前記装置にダメージを与え得る高さとの対応関係を示した第1テーブルにおいて前記測定された二次元位置に対応する高さと前記算出された距離を比較し、
前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第1表示をさせ、前記スピーカーに第1音声を出力させ、
前記算出された距離が前記対応する高さ以下の場合は、前記ディスプレイに第2表示をさせ、前記スピーカーに第2音声を出力させる、
装置。 - 前記プロセッサは、
前記装置が鉛直方向に動かされていないと判断した場合は、
前記第1センサーの検知結果に基づいて、前記装置が水平方向に動かされたか判断し、
前記装置が水平方向に動かされたと判断した場合は、前記映像に基づいて、前記装置の二次元位置を測定し、
前記装置の二次元位置と前記二次元位置に存在する物体の高さとの対応関係を示した第2テーブルを参照して、前記距離を算出し、
前記第1テーブルにおいて前記測定された二次元位置に対応する高さと前記算出された距離を比較し、
前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに前記第1表示をさせ、前記スピーカーに前記第1音声を出力させ、
前記算出された距離が前記対応する高さ以下の場合は、前記ディスプレイに前記第2表示をさせ、前記スピーカーに前記第2音声を出力させる、
請求項1に記載の装置。 - 前記ディスプレイは、前記装置の表情を両目と口によって表示し、
前記第1表示は、恐怖又は困惑の表情を示し、
前記第1音声は、危険を通知する又はより低い高さへ前記装置を移動させることを前記ユーザーへリクエストする、
請求項1に記載の装置。 - 前記ディスプレイは、前記装置の表情を両目と口によって表示し、
前記第2表示は、喜びの表情を示し、
前記第2音声は、前記装置の高さを肯定する、
請求項1に記載の装置。 - 前記第1テーブルにおいて、前記二次元位置において前記装置が落下した際に前記装置にダメージを与え得る高さは第1高さと第2高さとを含み、前記第2高さは前記第1高さよりも高く、
前記第1表示は第3表示と第4表示を含み、
前記第1音声は第3音声と第4音声を含み、
前記ディスプレイは、前記装置の表情を両目と口によって表示し、
前記プロセッサは、
前記測定された二次元位置に対応する前記第1高さより前記算出された距離が長く、且つ、前記算出された距離が前記測定された二次元位置に対応する前記第2高さ以下である場合は、前記ディスプレイに前記第3表示をさせ、前記スピーカーに前記第3音声を出力させ、
前記測定された二次元位置に対応する前記第2高さより前記算出された距離が長い場合は、前記ディスプレイに前記第4表示をさせ、前記スピーカーに前記第4音声を出力させ、
前記第3表示は、困惑の表情を示し、
前記第4表示は、恐怖の表情を示し、
前記第3音声は、より低い高さへ前記装置を移動させることを前記ユーザーへリクエストし、
前記第4音声は、危険を通知する、
請求項1に記載の装置。 - 前記プロセッサは、
更に、前記装置と前記ユーザーとの対話履歴を記憶したデータベースを参照し、
前記対話履歴において現在から所定時間前までに、前記装置が前記ユーザーへ前記装置を鉛直上方向に移動させることをリクエストしたか判断し、
前記装置が前記ユーザーへ前記装置を鉛直上方向に移動させることをリクエストしたと判断した場合、且つ、前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第5表示をさせ、前記スピーカーに第5音声を出力させる、
請求項1に記載の装置。 - 前記第5表示は、笑顔を示し、
前記第5音声は、感謝の意を示す、
請求項6に記載の装置。 - 前記第1センサー及び前記第2センサーは、前記装置の水平方向及び鉛直方向の加速度を検出する加速度センサーである、
請求項1に記載の装置。 - ユーザーによって動かされるロボットであって、
前記ロボットの動き及び動く方向を検出する第1センサーと、
前記ロボットの鉛直方向の移動距離を測定する第2センサーと、
前記ロボットの周辺の映像を取得するカメラと、
プロセッサと、
ディスプレイと、
スピーカーと、を備え、
前記プロセッサは、
前記第1センサーの検知結果に基づいて、前記ロボットが鉛直方向に動かされたか判断し、
前記ロボットが鉛直方向に動かされたと判断した場合は、前記第2センサーの検知結果に基づいて、前記ロボットの真下にある物体から前記ロボットまでの距離を算出し、
前記カメラから取得された映像に基づいて、前記ロボットの二次元位置を測定し、
前記ロボットの二次元位置と前記二次元位置で前記ロボットが落下した際に前記ロボットにダメージを与え得る高さとの対応関係を示した第1テーブルにおいて前記測定された二次元位置に対応する高さと前記算出された距離を比較し、
前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第1表示をさせ、前記スピーカーに第1音声を出力させ、
前記算出された距離が前記対応する高さ以下の場合は、前記ディスプレイに第2表示をさせ、前記スピーカーに第2音声を出力させる、
ロボット。 - ユーザーによって動かされる装置に感情を表現させる方法であって、
前記装置は、前記装置の動き及び動く方向を検出する第1センサーと、前記装置の鉛直方向の移動距離を測定する第2センサーと、前記装置の周辺の映像を取得するカメラと、ディスプレイと、スピーカーと、を備え、
前記第1センサーの検知結果に基づいて、前記装置が鉛直方向に動かされたか判断し、
前記装置が鉛直方向に動かされたと判断した場合は、前記第2センサーの検知結果に基づいて、前記装置の真下にある物体から前記装置までの距離を算出し、
前記カメラから取得された映像に基づいて、前記装置の二次元位置を測定し、
前記装置の二次元位置と前記二次元位置で前記装置が落下した際に前記装置にダメージを与え得る高さとの対応関係を示した第1テーブルにおいて前記測定された二次元位置に対応する高さと前記算出された距離を比較し、
前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第1表示をさせ、前記スピーカーに第1音声を出力させ、
前記算出された距離が前記対応する高さ以下の場合は、前記ディスプレイに第2表示をさせ、前記スピーカーに第2音声を出力させる、
方法。 - 請求項10に記載の方法を前記装置のプロセッサに実行させるプログラム。
- ユーザーによって動かされる装置であって、
前記装置の動き及び動く方向を検出する第1センサーと、
前記装置の真下にある物体までの距離を測定する第3センサーと、
前記装置の周辺の映像を取得するカメラと、
プロセッサと、
ディスプレイと、
スピーカーと、を備え、
前記プロセッサは、
前記第1センサーの検知結果に基づいて、前記装置が鉛直方向に動かされたか判断し、
前記装置が鉛直方向に動かされたと判断した場合は、前記第3センサーの検知結果に基づいて、前記装置の真下にある物体から前記装置までの距離を算出し、
前記カメラから取得された映像に基づいて、前記装置の真下にある物体の材質を判断し、
物体の材質と前記物体に前記装置が落下した際に前記装置にダメージを与え得る高さとの対応関係を示したテーブルにおいて前記判断された前記材質に対応する高さと前記算出された距離を比較し、
前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第1表示をさせ、前記スピーカーに第1音声を出力させ、
前記算出された距離が前記対応する高さ以下の場合は、前記ディスプレイに第2表示をさせ、前記スピーカーに第2音声を出力させる、
装置。 - 前記プロセッサは、
前記装置が鉛直方向に動かされていないと判断した場合は、
前記第1センサーの検知結果に基づいて、前記装置が水平方向に動かされたか判断し、
前記装置が水平方向に動かされたと判断した場合は、前記第3センサーの検知結果に基づいて、前記装置の真下にある物体から前記装置までの距離を算出し、
前記映像に基づいて、前記装置の真下にある物体の材質を判断し、
前記テーブルにおいて前記判断された前記材質に対応する高さと前記算出された距離を比較し、
前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第1表示をさせ、前記スピーカーに第1音声を出力させ、
前記算出された距離が前記対応する高さ以下の場合は、前記ディスプレイに第2表示をさせ、前記スピーカーに第2音声を出力させる、
請求項12に記載の装置。 - 前記ディスプレイは、前記装置の表情を両目と口によって表示し、
前記第1表示は、恐怖又は困惑の表情を示し、
前記第1音声は、危険を通知する又はより低い高さへ前記装置を移動させることを前記ユーザーへリクエストする、
請求項12に記載の装置。 - 前記ディスプレイは、前記装置の表情を両目と口によって表示し、
前記第2表示は、喜びの表情を示し、
前記第2音声は、前記装置の高さを肯定する、
請求項12に記載の装置。 - 前記テーブルにおいて、前記二次元位置において前記装置が落下した際に前記装置にダメージを与え得る高さは第3高さと第4高さとを含み、前記第4高さは前記第3高さよりも高く、
前記第1表示は第3表示と第4表示を含み、
前記第1音声は第3音声と第4音声を含み、
前記ディスプレイは、前記装置の表情を両目と口によって表示し、
前記プロセッサは、
前記測定された二次元位置に対応する前記第3高さより前記算出された距離が長く、且つ、前記算出された距離が前記測定された二次元位置に対応する前記第4高さ以下である場合は、前記ディスプレイに前記第3表示をさせ、前記スピーカーに前記第3音声を出力させ、
前記測定された二次元位置に対応する前記第2高さより前記算出された距離が長い場合は、前記ディスプレイに前記第4表示をさせ、前記スピーカーに前記第4音声を出力させ、
前記第3表示は、困惑の表情を示し、
前記第4表示は、恐怖の表情を示し、
前記第3音声は、より低い高さへ前記装置を移動させることを前記ユーザーへリクエストし、
前記第4音声は、危険を通知する、
請求項12に記載の装置。 - 前記プロセッサは、
更に、前記装置と前記ユーザーとの対話履歴を記憶したデータベースを参照し、
前記対話履歴において現在から所定時間前までに、前記装置が前記ユーザーへ前記装置を鉛直上方向に移動させることをリクエストしたか判断し、
前記装置が前記ユーザーへ前記装置を鉛直上方向に移動させることをリクエストしたと判断した場合、且つ、前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第5表示をさせ、前記スピーカーに第5音声を出力させる、
請求項12に記載の装置。 - 前記第5表示は、笑顔を示し、
前記第5音声は、感謝の意を示す、
請求項17に記載の装置。 - ユーザーによって動かされるロボットであって、
前記ロボットの動き及び動く方向を検出する第1センサーと、
前記ロボットの真下にある物体までの距離を測定する第3センサーと、
前記ロボットの周辺の映像を取得するカメラと、
プロセッサと、
ディスプレイと、
スピーカーと、を備え、
前記プロセッサは、
前記第1センサーの検知結果に基づいて、前記ロボットが鉛直方向に動かされたか判断し、
前記ロボットが鉛直方向に動かされたと判断した場合は、前記第3センサーの検知結果に基づいて、前記ロボットの真下にある物体から前記ロボットまでの距離を算出し、
前記カメラから取得された映像に基づいて、前記ロボットの真下にある物体の材質を判断し、
物体の材質と前記物体に前記ロボットが落下した際に前記ロボットにダメージを与え得る高さとの対応関係を示したテーブルにおいて前記判断された前記材質に対応する高さと前記算出された距離を比較し、
前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第1表示をさせ、前記スピーカーに第1音声を出力させ、
前記算出された距離が前記対応する高さ以下の場合は、前記ディスプレイに第2表示をさせ、前記スピーカーに第2音声を出力させる、
ロボット。 - ユーザーによって動かされる装置に感情を表現させる方法であって、
前記装置は、前記装置の動き及び動く方向を検出する第1センサーと、前記装置の真下にある物体までの距離を測定する第3センサーと、前記装置の周辺の映像を取得するカメラと、ディスプレイと、スピーカーと、を備え、
前記第1センサーの検知結果に基づいて、前記装置が鉛直方向に動かされたか判断し、
前記装置が鉛直方向に動かされたと判断した場合は、前記第3センサーの検知結果に基づいて、前記装置の真下にある物体から前記装置までの距離を算出し、
前記カメラから取得された映像に基づいて、前記装置の真下にある物体の材質を判断し、
物体の材質と前記物体に前記装置が落下した際に前記装置にダメージを与え得る高さとの対応関係を示したテーブルにおいて前記判断された前記材質に対応する高さと前記算出された距離を比較し、
前記対応する高さより前記算出された距離が長い場合は、前記ディスプレイに第1表示をさせ、前記スピーカーに第1音声を出力させ、
前記算出された距離が前記対応する高さ以下の場合は、前記ディスプレイに第2表示をさせ、前記スピーカーに第2音声を出力させる、
方法。 - 請求項20に記載の方法を前記装置のプロセッサに実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017135289A JP6854719B2 (ja) | 2017-07-11 | 2017-07-11 | 装置、ロボット、方法及びプログラム |
CN201810722645.4A CN109227600B (zh) | 2017-07-11 | 2018-07-04 | 装置、机器人、方法以及程序 |
US16/027,426 US10507582B2 (en) | 2017-07-11 | 2018-07-05 | Apparatus, robot, method, and recording medium |
EP18182478.0A EP3428757A1 (en) | 2017-07-11 | 2018-07-09 | Apparatus, robot, method and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017135289A JP6854719B2 (ja) | 2017-07-11 | 2017-07-11 | 装置、ロボット、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019014032A JP2019014032A (ja) | 2019-01-31 |
JP6854719B2 true JP6854719B2 (ja) | 2021-04-07 |
Family
ID=63209153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017135289A Active JP6854719B2 (ja) | 2017-07-11 | 2017-07-11 | 装置、ロボット、方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10507582B2 (ja) |
EP (1) | EP3428757A1 (ja) |
JP (1) | JP6854719B2 (ja) |
CN (1) | CN109227600B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7273566B2 (ja) * | 2019-03-19 | 2023-05-15 | パナソニックホールディングス株式会社 | ロボット、ロボットの制御方法及びプログラム |
JP6590393B1 (ja) * | 2019-05-13 | 2019-10-16 | M&Tプロジェクトパートナーズ株式会社 | 玩具 |
KR20210020312A (ko) * | 2019-08-14 | 2021-02-24 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
US11699421B2 (en) * | 2019-09-30 | 2023-07-11 | Mr. Christmas Incorporated | System for touchless musical instrument |
CN111600528A (zh) * | 2020-04-26 | 2020-08-28 | 深圳市威富智能设备有限公司 | 电批、电批控制方法、电批控制设备及存储介质 |
CN117958664B (zh) * | 2024-04-02 | 2024-06-11 | 追觅创新科技(苏州)有限公司 | 一种清洁机器人的主动越障控制方法、系统及清洁机器人 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5321614A (en) * | 1991-06-06 | 1994-06-14 | Ashworth Guy T D | Navigational control apparatus and method for autonomus vehicles |
US5995884A (en) * | 1997-03-07 | 1999-11-30 | Allen; Timothy P. | Computer peripheral floor cleaning system and navigation method |
US6792335B2 (en) * | 2001-05-23 | 2004-09-14 | Carnegie Mellon University | Robotic apparatuses, systems and methods |
JP2003346150A (ja) * | 2002-05-24 | 2003-12-05 | Sony Corp | 床面認識装置及び床面認識方法並びにロボット装置 |
JP4363177B2 (ja) * | 2003-01-31 | 2009-11-11 | 日本ビクター株式会社 | 移動ロボット |
JP2004237392A (ja) * | 2003-02-05 | 2004-08-26 | Sony Corp | ロボット装置、及びロボット装置の表現方法 |
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
JP2005296511A (ja) * | 2004-04-15 | 2005-10-27 | Funai Electric Co Ltd | 自走式掃除機 |
GB2414309B (en) * | 2004-05-18 | 2009-02-25 | Simon Richard Daniel | Spherical display and control device |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
KR100791389B1 (ko) * | 2006-12-26 | 2008-01-07 | 삼성전자주식회사 | 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법 |
JP4539685B2 (ja) * | 2007-06-22 | 2010-09-08 | セイコーエプソン株式会社 | 部品搬送装置及びicハンドラ |
JP2009207633A (ja) * | 2008-03-03 | 2009-09-17 | Namco Bandai Games Inc | 玩具 |
EP3311722B1 (en) * | 2008-04-24 | 2019-07-24 | iRobot Corporation | Application of localization, positioning & navigation systems for robotic enabled mobile products |
US8961695B2 (en) * | 2008-04-24 | 2015-02-24 | Irobot Corporation | Mobile robot for cleaning |
KR101484940B1 (ko) * | 2009-05-14 | 2015-01-22 | 삼성전자 주식회사 | 로봇청소기 및 그 제어방법 |
JP5186641B2 (ja) | 2009-08-24 | 2013-04-17 | トモデータサービス有限会社 | 作業支援装置および作業支援プログラム |
JP5344243B2 (ja) * | 2009-09-24 | 2013-11-20 | 富士通株式会社 | 電動ドライバの姿勢監視装置、および姿勢監視装置付き電動ドライバ |
US8620489B2 (en) * | 2010-12-24 | 2013-12-31 | Microsoft Corporation | Robotic drive system modularity |
CN104070526B (zh) * | 2013-03-29 | 2017-03-01 | 联想(北京)有限公司 | 智能机器 |
KR20160048492A (ko) * | 2014-10-24 | 2016-05-04 | 엘지전자 주식회사 | 로봇 청소기 및 이의 제어 방법 |
TWI627609B (zh) * | 2014-12-04 | 2018-06-21 | 微星科技股份有限公司 | 狀態檢測方法、機器人及移動裝置 |
KR102335186B1 (ko) * | 2014-12-24 | 2021-12-03 | 삼성전자주식회사 | 렌즈 조립체, 이를 이용한 장애물 감지유닛, 및 이를 구비한 이동로봇 |
US9601007B2 (en) * | 2015-01-29 | 2017-03-21 | Floorbotics Inc. | Self-propelled floor apparatus and system having a bactericidal function |
-
2017
- 2017-07-11 JP JP2017135289A patent/JP6854719B2/ja active Active
-
2018
- 2018-07-04 CN CN201810722645.4A patent/CN109227600B/zh active Active
- 2018-07-05 US US16/027,426 patent/US10507582B2/en active Active
- 2018-07-09 EP EP18182478.0A patent/EP3428757A1/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
EP3428757A1 (en) | 2019-01-16 |
CN109227600B (zh) | 2023-04-18 |
CN109227600A (zh) | 2019-01-18 |
JP2019014032A (ja) | 2019-01-31 |
US10507582B2 (en) | 2019-12-17 |
US20190015982A1 (en) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6854719B2 (ja) | 装置、ロボット、方法及びプログラム | |
US11961285B2 (en) | System for spot cleaning by a mobile robot | |
KR102385263B1 (ko) | 이동형 홈 로봇 및 이동형 홈 로봇의 제어 방법 | |
US10921818B2 (en) | Robot | |
KR102357265B1 (ko) | 게임 플레이를 통한 환경의 세부 데이터 세트 생성 방법 및 시스템 | |
CN112739244A (zh) | 移动机器人清洁系统 | |
JP7025532B2 (ja) | 衝突の検出、推定、および回避 | |
JP2019071046A (ja) | ロボット仮想境界線 | |
KR102463806B1 (ko) | 이동이 가능한 전자 장치 및 그 동작 방법 | |
US20190101926A1 (en) | Autonomous mobile cleaning apparatus, cleaning method, and recording medium | |
KR20150086278A (ko) | 주체와 객체의 연관 | |
WO2016056317A1 (ja) | 情報処理装置および情報処理方法 | |
JP2016198850A (ja) | 自律移動装置および自律移動装置の制御方法 | |
KR20180074404A (ko) | 공항용 로봇 및 그의 동작 방법 | |
JP2020137549A (ja) | 装置、方法、及びプログラム | |
KR20180040907A (ko) | 공항 로봇 | |
KR20210141294A (ko) | 전자 장치 및 그의 제어 방법 | |
CN112154018B (zh) | 控制装置、控制方法以及程序 | |
KR102302198B1 (ko) | 청소 장치 및 그 제어 방법 | |
KR102478667B1 (ko) | 승강기를 이용하여 로봇의 센서 이상을 감지하는 시스템이 적용된 건물 | |
US11548154B2 (en) | Systems and methods for dimensionally-restricted robotic teleoperation | |
KR20180082242A (ko) | 이동 로봇 및 그 제어 방법 | |
JP6558179B2 (ja) | 情報処理装置、情報処理システム、及びプログラム | |
CN116955376A (zh) | 区域地图更新方法、机器人及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200428 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210316 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6854719 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |