JP2005279895A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2005279895A
JP2005279895A JP2004101476A JP2004101476A JP2005279895A JP 2005279895 A JP2005279895 A JP 2005279895A JP 2004101476 A JP2004101476 A JP 2004101476A JP 2004101476 A JP2004101476 A JP 2004101476A JP 2005279895 A JP2005279895 A JP 2005279895A
Authority
JP
Japan
Prior art keywords
robot
person
sight
line
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004101476A
Other languages
English (en)
Inventor
Ayuko Fujisaki
亜由子 藤崎
Tomoko Tonami
朋子 礪波
Takeshi Aso
武 麻生
Michio Okada
美智男 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004101476A priority Critical patent/JP2005279895A/ja
Publication of JP2005279895A publication Critical patent/JP2005279895A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 対面者に他者を意識させるとともに対面者と親密で個別的な関係を持つことができるロボットを提供することである。
【解決手段】 外被12の球形部14のほぼ中心に透明球殻18が露出するように設けられる。外被12の内部において、透明球殻18の後方にカメラ20およびディスプレイ60が設けられている。カメラ20により得られた映像がディスプレイ60の表示画面に表示される。透明球殻18、カメラ20およびディスプレイ60により眼が構成される。ディスプレイ60が瞳に相当し、透明球殻18の向きにより視線を表現することができる。
【選択図】 図1

Description

本発明は、少なくとも1つの眼部を有するロボットに関する。
近年、例えば電子ペットとして使用されるロボットが種々提案および開発されている(例えば特許文献1参照)。
特開2002−136772号公報
一般に、人間同士の対話では、相手に働きかけると同時に、相手の中に自己を見つめるまなざしを感じ、相手に自己の発話がどのように捉えられているかを考慮にいれながら会話が行われる。すなわち、相手の中に自己を重ね合わせることにより会話が行われる。この場合、互いに相手を他者として意識し、相手の視点から自己を捉えることが行われる。また、相手の視線により意図を読み合うような「こころ」の交流が行われ、互いの共感が得られる。その結果、互いの親密感が高まる。
しかしながら、従来のロボットでは、対面者がロボットに他者を意識することが不十分である。また、対面者はロボットにより見つめられている感覚を持つことがないため、「こころ」の交流および互いの共感が得られない。したがって、対面者はロボットに対して親密感を持つことが困難である。
本発明の目的は、対面者に他者を意識させるとともに対面者と親密で個別的な関係を持つことができるロボットを提供することである。
本発明に係るロボットは、外被を有する本体部と、本体部に設けられ、視線を表現する眼部を構成する少なくと1つの透明体と、外被内に設けられ、透明体を通して外被の外部を撮像する撮像手段と、外被内において透明体の後方に設けられた表示画面を有し、撮像手段により得られた映像を表示画面に表示する表示手段とを備えたものである。
本発明に係るロボットにおいては、視線を表現する眼部を構成する少なくとも1つの透明体が外被を有する本体部に設けられている。外被に設けられた透明体を通して外被の外部が撮像手段により撮像され、撮像手段により得られた映像が表示手段の表示画面に表示される。この場合、ロボットの視線が向けられた対象が眼部の奥に映し出されるので、対面者は、ロボットが見つめている対象を認識することができる。
ロボットの視線が対面者に向けられている場合には、眼部の奥に対面者の映像が映し出される。それにより、ロボットは、対面者の視線を受け止めて視線を変えることができる他者性を有することになる。その結果、対面者は、ロボットが自分を見つめる他者であることを認識するとともに、ロボットの存在に自己を見出すことによりロボットと親密で個別的な関係を持つことができる。
表示手段は、表示画面に時空間をさらに表示してもよい。それにより、ロボットの思考を表現することができる。
ロボットは、眼部により表現される視線を移動させる視線移動手段と、対面者の視線を認識する認識手段と、認識手段により認識された視線が眼部を向いている場合に、眼部により表現される視線が対面者の眼の方向を向くように視線移動手段を制御し、認識手段により認識された視線が眼部を向いていない場合に、眼部により表現される視線が対面者の眼とは異なる方向を向くように視線移動手段を制御する制御手段とをさらに備えてもよい。
この場合、対面者の視線がロボットの眼部を向いている場合に、眼部により表現される視線が対面者の眼の方向を向き、対面者の視線がロボットの眼部を向いていない場合に、眼部により表現される視線が対面者の眼とは異なる方向を向く。それにより、対面者とロボットとが互いに他者を意識することができ、対面者がロボットへの共感を高めることができる。その結果、対面者とロボットとの心の交流が可能となる。
撮像手段はズーム機能を有し、表示手段は、撮像手段のズーム機能に連動して映像を拡大または縮小して表示画面に表示してもよい。
この場合、ロボットの視線が向けられた対象の映像を拡大または縮小して眼部の奥に表示することができる。それにより、ロボットが関心を示す対象を対面者または周囲の人に印象づけることができる。
物体または人体を追尾するように本体部の位置および姿勢の少なくとも一方を変化させる追尾手段と、撮像手段は、追尾手段により追尾される物体または人体を撮像し、表示手段は、撮像手段により得られる物体または人体の映像を表示画面に表示してもよい。
この場合、物体または人体を追尾するように本体部の位置および姿勢の少なくとも一方が変化し、追尾される物体または人物の映像を眼部の奥に表示することができる。それにより、ロボットが興味を示して追いかける対象を対面者または周囲の人に認識させることができる。
撮像手段により得られる映像を加工し、加工された映像を表示手段の表示画面に表示させる加工手段をさらに備えてもよい。
この場合、ロボットの視線が向けられている対象の映像を強弱をつけて眼部の奥に表示することができる。それにより、対象への関心の高さを対面者または周囲の人に認識させることができる。
本発明によれば、対面者は、ロボットが自分を見つめる他者であることを認識するとともに、ロボットの存在に自己を見出すことによりロボットとの親密で個別的な関係を持つことができる。
図1は本発明の一実施の形態に係るロボットの正面図である。図2は図1のロボットの側面図である。図3は図1のロボットの内部構造図である。
図1および図2において、ロボット10は仮想的な生命体であり、全体としてティアドロップ形状である外被12を有する。外被12は、柔軟で触感の良好な発泡ウレタン等の材料により形成される。外被12は、後述する球形の内殻に被せられる球形部14と、その球形部14の頂部から延びかつ先細りで先端が丸みを有する頭尾16とを有する。
頭尾16には、金属、プラスチック、合成ゴム等の弾性体からなる棒状の芯材17が内蔵されている。芯材17の基端は、図3の内部構造物24により支持される。これにより、頭尾16は、前後左右に連続的に揺動する。この頭尾16は、後述の透明球殻18とともにロボット10の姿勢および方向を強調する機能を果たす。したがって、使用者の様々な関与の結果としてのロボット10の反応を頭尾16の動きに増幅して表示することができる。
外被12の球形部14のほぼ中心に、透明プラスチック等からなる透明球殻18が露出するように設けられる。外被12の内部において、透明球殻18の後方にカメラ20およびディスプレイ60が設けられている。カメラ20は、例えばCCD(電荷結合素子)カメラである。ディスプレイ60は、例えば液晶ディスプレイである。
カメラ20は、透明球殻18を通して外部の人物、物体または風景を撮像することができる。カメラ20により得られた映像がディスプレイ60の表示画面に表示される。使用者は、外部から透明球殻18を通してディスプレイ60の表示画面に表示された映像を見ることができる。透明球殻18、カメラ20およびディスプレイ60により眼が構成される。ディスプレイ60が瞳に相当し、透明球殻18の向きにより視線を表現することができる。この場合、ロボット10が見つめる対象がディスプレイ60の表示画面に表示される。
また、カメラ20により得られた映像に基づいて画像認識により対面者の顔を認識することができるとともに対面者の視線の方向を認識することができる。
本実施の形態では、ロボット10が透明球殻18からなる1つの眼を有するが、ロボット10が複数の眼を有してもよい。
外被12の下端から移動用の車輪22が露出するように設けられる。ロボット10は、車輪22により床面上を自在に移動することができる。
図1に点線で示すように、外被12内の透明球殻18の近傍には、2つのマイク211,212が設けられる。これらのマイク211,212により使用者の音声を入力することができる。また、マイク211,212は、ステレオマイクとして機能する。マイク211,212に入力される音声の位相差で音源方向を認識することができる。後述するように、ロボット10は、音源を追尾するように位置および姿勢を変化させることができる。
また、外被12内には、スピーカ23が設けられる。ロボット10は、スピーカ23から音声を出力することにより使用者に対して発話することができる。このようにスピーカ23を設けかつ上述のマイク211,212を設けることにより、このロボット10を音声インタフェース手段として利用することができる。
外被12内の下部には、複数の測距センサ(距離測定センサ)25およびヒトセンサ29が設けられる。測距センサ25は、例えば、レーザ測距センサ、超音波測距センサ、マイクロ波測距センサ等からなり、人物、物体等の対象までの距離を測定する。ヒトセンサ29は、赤外線近接センサ等からなり、人物の存在を検出する。また、測距センサ25およびヒトセンサ29が設けられる外被12の位置には、レーザ光、超音波、マイクロ波、赤外線等を通過させるための開口または孔が形成される。
図3には、外被12に覆われる内部構造物24が示される。内部構造物24は、プラスチック、金属板等からなるベースフレーム26を含む。ベースフレーム26は、上面板とその両端から垂下する2つの側面板とにより構成され、断面コ字形に形成されている。このベースフレーム26の側面板を貫通して車軸27が軸受けにより回転可能に支持される。側面板の外側でその車軸27の両端に、図1を参照して説明した移動用の車輪22が取り付けられる。
ベースフレーム26の上面板上には、弾性体としてコイルばね28を介してプラスチック、軽量金属等からなる支持台30が取り付けられる。支持台30上には、収納部32が設けられる。収納部32には、後述のコンピュータ46および移動モータ50(図4)が収納される。それにより、ロボット10が全体として、コイルばね28により支持される。
支持台30上には、ロボット10をパン動作(横首振り)およびチルト動作(縦首振り)させるアクチュエータが構成される。このアクチュエータは、コンピュータ46(図4)により制御される。
収納部32上には、支持筒34を介して上述のディスプレイ60が装着される。ディスプレイ60上には、取り付け板36が固着され、その取り付け板36によりディスプレイ60と一体的に支持板38が取り付けられる。支持板38は、プラスチック、軽量金属等からなる平面円形の板である。
支持筒34内には、パン動作を行うためのパンモータ54(図4)、チルト動作を行うためのチルトモータ58(図4)、およびそれらのモータの駆動力を支持板38に伝達する動力伝達機構(図示せず)が収納される。
支持板38の下面には、プラスチック等からなる截頭半球状の第1内殻40が固着部40aと支持板38の周縁とを接着または溶着することにより固着される。支持板38の上面には、プラスチック等からなりかつ球の頭部を切り取った形状を有する球頭形状の第2内殻42が、固着部42aと支持板38の周縁とを接着または溶着することにより固着される。
第1内殻40および第2内殻42により球形の内殻が形成される。支持台30の外面が第1内殻40の下方に連続する球形部を形成するように截頭半球状に形成されている。このような球形内殻上に、図1に示す外被12の球形部14が被せられる。
球形内殻すなわち第1内殻40および第2内殻42の表面には、リミットスイッチ等からなる複数の接触センサ44が規則的に分布して、または意図的に偏在して取り付けられる。つまり、複数の接触センサ44は、球形内殻の表面上に一定の規則的な配列で配置されるかまたは人が触るであろう部位または領域に集中的に配置される。
図4は図1のロボット10の制御系を示すブロック図である。
マイク211,212により得られる音声信号、カメラ20により得られる映像信号、測距センサ25の出力信号、ヒトセンサ29の出力信号および接触センサ44の出力信号が所定のインタフェース(図示せず)を介してコンピュータ46に取り込まれる。
コンピュータ46は、カメラ20により取り込まれた映像信号に基づいてディスプレイ60の表示画面に映像を表示させる。また、コンピュータ46は、移動モータ駆動回路48、パンモータ駆動回路52およびチルトモータ駆動回路56を制御する。それにより、移動モータ駆動回路48、パンモータ駆動回路52およびチルトモータ駆動回路56は、移動モータ50、パンモータ54およびチルトモータ58を所定のタイミングで駆動する。
移動モータ50が駆動されると、図1および図2の車輪22が回転し、ロボット10が前進または後退する。それにより、ロボット10の位置を変化させることができる。
パンモータ54およびチルトモータ58の駆動力が所定の動力伝達機構を介して図3の支持板38に伝達される。上記のように、第1内殻40および第2内殻42が支持板38と一体的に動くように取り付けられているので、支持板38の横向きの変位により第1内殻40および第2内殻42も横向きに変位し、支持板38の縦向きの変位により第1内殻40および第2内殻42も縦向きに変位する。それにより、図1および図2の外被12がパン動作およびチルト動作することができる。このようなパン動作およびチルト動作によりロボット10の姿勢を変化させることができる。
したがって、パン動作およびチルト動作によりロボット10の透明球殻18の向きを変化させ、ロボット10の視線の方向を変化させることができる。具体的には、ロボット10は、視線を対面者に向けるかまたは対面者から外すことができる。
また、チルト動作によりうなずく等の肯定的な意思表示を表現することができる。また、パン動作により否定的な意思表示を表現することができる。チルト動作またはパンの動作の大きさを変化させることにより、強い肯定もしくは否定または弱い肯定もしくは否定を表現することができる。
なお、ロボット10自身の動きを測定するために加速度センサを設けてもよい。
図5はロボット10のディスプレイ60に対面者の映像を表示した状態を示す正面図である。
図5に示すように、カメラ20により対面者の顔が撮像され、対面者の顔の映像がディスプレイ60の表示画面に表示される。それにより、対面者は、ロボット10が自分を見ていることを意識する。
図6および図7は図1のロボット10の動作を示すフローチャートである。ロボット10は、コンピュータ46のメモリに記憶された制御プログラムに従って動作する。
まず、ロボット10のコンピュータ46は、ヒトセンサ29により人を感知したか否かを判定する(ステップS1)。ヒトセンサ29が人を感知した場合には、ロボット10の覚醒水準が高いか否かを判定する(ステップS2)。ここで、覚醒水準とは、ロボット10の外部環境への関心度をいい、外部環境からの刺激の程度により自律的に定める。例えば、周囲が暗い場合には覚醒水準は低く、周囲が明るい場合には覚醒水準は高い。
ステップS1でヒトセンサ29が人を感知しない場合またはステップS2で覚醒水準が低い場合には、コンピュータ46はディスプレイ60の表示画面に映像を表示しないか、表示画面に眼を閉じたようなスリープ映像を表示するかまたは表示画面にモザイク映像を表示する(ステップS3)。その後、ステップS1に戻る。
ステップS2においてロボット10の覚醒水準が高い場合には、コンピュータ46はディスプレイ60の表示画面に予め設定された起動映像を鮮明に表示し(ステップS4)、カメラ20により得られる映像に基づいて対面者を検出したか否かを判定する(ステップS5)。
対面者を検出した場合には、カメラ20により撮像された対面者の顔をディスプレイ60の表示画面に表示する(ステップS6)。さらに、ロボット10の関心が持続しているか否かを判定する(ステップS7)。ロボット10の関心の持続は、同じ状態が所定時間以上継続しているか否かで判定する。この場合には、カメラ20により撮像された対面者の顔をディスプレイ60の表示画面に表示している時間が所定時間に達するまでは関心が持続していると判定し、所定時間を超えると関心が持続していないと判定する。
ロボット10の関心が持続している場合には、コンピュータ46は、カメラ20により撮像された対面者の顔の画像に基づいて対面者の視線を検出する(ステップS8)。そして、検出された視線に基づいて対面者が自分を見ているか否かを判定する(ステップS9)。対面者が自分を見ている場合には、カメラ20により得られる対面者の映像をディスプレイ60の表示画面に表示し(ステップS10)、ステップS7に戻る。
ステップS5において対面者を検出していない場合またはステップS7においてロボット10の関心が持続していない場合には、コンピュータ46は、カメラ20により対面者以外の物を撮像してディスプレイ60の表示画面に表示する(ステップS12)。
その後、コンピュータ46は、ロボット10の関心が持続しているか否かを判定する(ステップS13)。ロボット10の関心が持続している場合には、移動モータ50を駆動することにより物へ接近し(ステップS14)、ステップS12に戻る。ステップS13においてロボット10の関心が持続していない場合には、ステップS5に戻る。
ステップS9において対面者が自分を見ていない場合には、コンピュータ46は、対面者が見ている物をディスプレイ60の表示画面に表示し(ステップS11)、ステップS12に進む。
本実施の形態に係るロボット10においては、透明球殻18の奥にロボット10の視線が向けられた対象が映し出されるので、対面者は、ロボット10が見つめている対象を認識することができる。
ロボット10の視線が対面者に向けられている場合には、透明球殻18の奥に対面者の映像が映し出される。それにより、ロボット10は、対面者の視線を受け止めて視線を変えることができる他者性を有することになる。その結果、対面者は、ロボット10が自分を見つめる他者であることを認識するとともに、ロボット10の存在に自己を見出すことによりロボット10との親密で個別的な関係を持つことができる。
また、対面者の視線がロボット10の透明球殻18を向いている場合に、ロボット10の視線を対面者の眼の方向に向け、対面者の視線がロボット10の透明球殻18を向いていない場合に、ロボット10の視線を対面者の眼とは異なる方向に向ける。それにより、対面者とロボット10とが互いに他者を意識することができ、対面者がロボット10への共感を高めることができる。その結果、対面者とロボット10との心の交流が可能となる。
また、カメラ20はズーム機能を有し、ディスプレイ60は、カメラ20のズーム機能に連動して映像を拡大または縮小して表示画面に表示してもよい。
この場合、ロボット10の視線が向けられた対象の映像を拡大または縮小して透明球殻18の奥に表示することができる。それにより、ロボット10が関心を示す対象を対面者または周囲の人に印象づけることができる。例えば、対面者は、ロボット10が対面者の身体全体を見ているのか、対面者の顔を見ているのか、対面者の目を見ているのか、対面者のホクロを見ているのか等を認識することにより、ロボット10の心的状態を把握することができる。
さらに、物体または人体を追尾するようにロボット10の位置および姿勢の少なくとも一方を変化させ、追尾される物体または人物の映像を透明球殻18の奥に表示することができる。それにより、ロボット10が興味を示して追いかける対象を対面者または周囲の人に認識させることができる。
ディスプレイ60の表示画面に時空間を表示してもよい。それにより、ロボット10の思考を表現することができる。時空間としては、例えば、過去の出来事を表す映像、未来の出来事を予測する映像、他の場所の映像等をディスプレイ60の表示画面に表示する。このように、現在のその場所以外の映像をディスプレイ60の表示画面に表示することにより、ロボット10が現在のこの場所を離れて思考していることを表示することができる。それにより、ロボット10が「こころ」すなわち思考を持ち、自己の歴史を持つ主体であることを使用者に印象づけることができる。
カメラ20により得られる映像を加工し、加工された映像をディスプレイ60の表示画面に表示させてもよい。
この場合、ロボット10の視線が向けられている対象の映像を強弱をつけて透明球殻18の奥に表示することができる。それにより、対象への関心の高さを対面者または周囲の人に認識させることができる。たとえば、カメラ20により得られる対面者の顔または身体の映像にモザイク、ぼかし等の加工を施すことにより対面者への関心の高低を表現することができる。
本実施の形態において、球形部14が本体部に相当し、透明球殻18が透明体に相当し、カメラ20が撮像手段および認識手段に相当し、ディスプレイ60が表示手段に相当し、パンモータ54およびチルトモータ58が視線移動手段に相当し、コンピュータ46が制御手段および加工手段に相当し、マイク211,212および移動モータ50が追尾手段に相当する。
本発明は、使用者と個別的な関係を築くペットロボット、ロボットセラピー等に利用することができる。
本発明の一実施の形態に係るロボットの正面図である。 図1のロボットの側面図である。 図1のロボットの内部構造図である。 図1のロボットの制御系を示すブロック図である。 ロボットのディスプレイに対面者の映像を表示した状態を示す正面図である。 図1のロボットの動作を示すフローチャートである。 図1のロボットの動作を示すフローチャートである。
符号の説明
14 球形部
18 透明球殻
20 カメラ
46 コンピュータ
50 移動モータ
54 パンモータ
58 チルトモータ
60 ディスプレイ
211,212 マイク

Claims (6)

  1. 外被を有する本体部と、
    前記本体部に設けられ、視線を表現する眼部を構成する少なくとも1つの透明体と、
    前記外被内に設けられ、前記透明体を通して前記外被の外部を撮像する撮像手段と、
    前記外被内において前記透明体の後方に設けられた表示画面を有し、前記撮像手段により得られた映像を前記表示画面に表示する表示手段とを備えたことを特徴とするロボット。
  2. 前記表示手段は、前記表示画面に時空間をさらに表示することを特徴とする請求項1記載のロボット。
  3. 前記眼部により表現される視線を移動させる視線移動手段と、
    対面者の視線を認識する認識手段と、
    前記認識手段により認識された視線が前記眼部を向いている場合に、前記眼部により表現される視線が前記対面者の眼の方向を向くように前記視線移動手段を制御し、前記認識手段により認識された視線が前記眼部を向いていない場合に、前記眼部により表現される視線が前記対面者の眼とは異なる方向を向くように前記視線移動手段を制御する制御手段とをさらに備えたことを特徴とする請求項1または2記載のロボット。
  4. 前記撮像手段はズーム機能を有し、
    前記表示手段は、前記撮像手段のズーム機能に連動して映像を拡大または縮小して前記表示画面に表示することを特徴とする請求項1〜3のいずれかに記載のロボット。
  5. 物体または人体を追尾するように前記本体部の位置および姿勢の少なくとも一方を変化させる追尾手段と、
    前記撮像手段は、前記追尾手段により追尾される物体または人体を撮像し、
    前記表示手段は、前記撮像手段により得られる物体または人体の映像を前記表示画面に表示することを特徴とする請求項1〜4のいずれかに記載のロボット。
  6. 前記撮像手段により得られる映像を加工し、加工された映像を前記表示手段の前記表示画面に表示させる加工手段をさらに備えたことを特徴とする請求項1〜5のいずれかに記載のロボット。
JP2004101476A 2004-03-30 2004-03-30 ロボット Pending JP2005279895A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004101476A JP2005279895A (ja) 2004-03-30 2004-03-30 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004101476A JP2005279895A (ja) 2004-03-30 2004-03-30 ロボット

Publications (1)

Publication Number Publication Date
JP2005279895A true JP2005279895A (ja) 2005-10-13

Family

ID=35178816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004101476A Pending JP2005279895A (ja) 2004-03-30 2004-03-30 ロボット

Country Status (1)

Country Link
JP (1) JP2005279895A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007181888A (ja) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International コミュニケーションロボットシステム
US8262755B2 (en) 2007-06-05 2012-09-11 Air Products And Chemicals, Inc. Staged membrane oxidation reactor system
JP2017164854A (ja) * 2016-03-17 2017-09-21 カシオ計算機株式会社 ロボット及びプログラム
CN107895101A (zh) * 2016-10-03 2018-04-10 朴植 用于老年保健陪伴的Nounou智能监护装置
WO2019070050A1 (ja) * 2017-10-06 2019-04-11 本田技研工業株式会社 移動ロボット
US10464214B2 (en) 2016-10-04 2019-11-05 Toyota Jidosha Kabushiki Kaisha Voice interaction device and control method therefor
EP3587051A1 (en) * 2018-06-25 2020-01-01 LG Electronics Inc. Robot
US11000952B2 (en) 2017-06-23 2021-05-11 Casio Computer Co., Ltd. More endearing robot, method of controlling the same, and non-transitory recording medium
US11173594B2 (en) 2018-06-25 2021-11-16 Lg Electronics Inc. Robot

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007181888A (ja) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International コミュニケーションロボットシステム
US8262755B2 (en) 2007-06-05 2012-09-11 Air Products And Chemicals, Inc. Staged membrane oxidation reactor system
US8419827B2 (en) 2007-06-05 2013-04-16 Air Products And Chemicals, Inc. Staged membrane oxidation reactor system
US8728202B2 (en) 2007-06-05 2014-05-20 Air Products And Chemicals, Inc. Staged membrane oxidation reactor system
JP2017164854A (ja) * 2016-03-17 2017-09-21 カシオ計算機株式会社 ロボット及びプログラム
CN107895101A (zh) * 2016-10-03 2018-04-10 朴植 用于老年保健陪伴的Nounou智能监护装置
US10464214B2 (en) 2016-10-04 2019-11-05 Toyota Jidosha Kabushiki Kaisha Voice interaction device and control method therefor
US11000952B2 (en) 2017-06-23 2021-05-11 Casio Computer Co., Ltd. More endearing robot, method of controlling the same, and non-transitory recording medium
WO2019070050A1 (ja) * 2017-10-06 2019-04-11 本田技研工業株式会社 移動ロボット
EP3587051A1 (en) * 2018-06-25 2020-01-01 LG Electronics Inc. Robot
US11173594B2 (en) 2018-06-25 2021-11-16 Lg Electronics Inc. Robot
US11292121B2 (en) 2018-06-25 2022-04-05 Lg Electronics Inc. Robot

Similar Documents

Publication Publication Date Title
JP5881873B2 (ja) 撮像装置、撮像方法およびプログラム
JP6030582B2 (ja) 視覚障害を有する個人のための光学装置
JP4512830B2 (ja) コミュニケーションロボット
US9690378B2 (en) Operation apparatus
JP6402718B2 (ja) 情報処理装置、制御方法およびプログラム
JP2010500681A (ja) 視覚障害者に対する支援システム
JP2009045692A (ja) コミュニケーションロボットとその動作方法
WO2017168998A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2010127779A (ja) 情報提供装置、情報提供方法およびプログラム
JP2005279895A (ja) ロボット
JP4247149B2 (ja) ロボット
JP2017130793A (ja) 情報処理装置およびユーザガイド提示方法
JP2007229817A (ja) 自律移動型ロボット
JP2019159193A (ja) 視覚障がい者用行動支援装置
US20230359422A1 (en) Techniques for using in-air hand gestures detected via a wrist-wearable device to operate a camera of another device, and wearable devices and systems for performing those techniques
KR20210137831A (ko) 전자 장치 및 그 동작 방법
CN109240498B (zh) 交互方法、装置、穿戴式设备及存储介质
JP2021009647A (ja) 仮想現実制御装置、仮想現実ヘッドセット、仮想現実制御方法およびプログラム
KR20170084443A (ko) 헤드 마운트 디스플레이 장치 제어방법
US11586281B2 (en) Method, computer program and head mountable arrangement for assisting a subject to acquire spatial information about an environment
JP6686583B2 (ja) ロボット及びプログラム
JP4431757B2 (ja) ロボットシステム
KR20220045799A (ko) 전자 장치 및 그 동작 방법
US20200238529A1 (en) Service providing system, service providing method and management apparatus for service providing system
JP5702037B1 (ja) 撮像装置、撮像方法およびプログラム