JP2018061718A - コミュニケーション装置 - Google Patents

コミュニケーション装置 Download PDF

Info

Publication number
JP2018061718A
JP2018061718A JP2016202065A JP2016202065A JP2018061718A JP 2018061718 A JP2018061718 A JP 2018061718A JP 2016202065 A JP2016202065 A JP 2016202065A JP 2016202065 A JP2016202065 A JP 2016202065A JP 2018061718 A JP2018061718 A JP 2018061718A
Authority
JP
Japan
Prior art keywords
display panel
eye
optical fiber
user
communication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016202065A
Other languages
English (en)
Inventor
加来 航
Ko Kako
航 加来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016202065A priority Critical patent/JP2018061718A/ja
Priority to US15/722,567 priority patent/US20180104823A1/en
Publication of JP2018061718A publication Critical patent/JP2018061718A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Toys (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

【課題】コミュニケーションロボットにおいて、眼部を曲面の透明樹脂として背後に平面の表示パネルを配置すると、樹脂とパネルの間に必然的に隙間が生じ、ロボットとユーザの位置関係によっては、表示された図柄の位置ずれや屈折等によって視認性が低下していた。
【解決手段】一対の眼部を有する顔部と、一対の眼部をそれぞれ覆う透光カバーと、眼の表情を図案化した図柄を表示する表示パネルと、表示パネルに表示された図柄を透光カバーまで伝達するための光ファイバ束と、図柄を選択的に表示パネルに表示させる制御部とを備えるコミュニケーション装置を提供する。
【選択図】図3

Description

本発明は、コミュニケーション装置に関する。
ユーザとコミュニケーションを図るロボットがますます身近になってきている。コミュニケーションを強化する観点から、人間や動物に似せた顔部を備えるロボットも多く知られている。その顔部に表示パネルを設け、眼の表情を図案化して表示するものも現れてきた(例えば、特許文献1を参照)。
特開2016−103277号公報
平面の表示パネルを顔部に直接的に配置すると、人間らしさや動物らしさが失われる。一方で、眼部を曲面の透明樹脂として背後に平面の表示パネルを配置すると、樹脂とパネルの間に必然的に隙間が生じ、ロボットとユーザの位置関係によっては、表示された図柄の位置ずれや屈折等によって視認性が低下していた。
本発明は、このような問題を解決するためになされたものであり、眼部に表現豊かな図柄を高い視認性をもって表示するコミュニケーション装置を提供するものである。
本発明の一態様におけるコミュニケーション装置は、一対の眼部を有する顔部と、一対の眼部をそれぞれ覆う透光カバーと、眼の表情を図案化した図柄を表示する表示パネルと、表示パネルに表示された図柄を透光カバーまで伝達するための光ファイバ束と、図柄を選択的に表示パネルに表示させる制御部とを備える。
このような構成により、実際に図柄が投影される面が透光カバー面とほぼ一致するので、コミュニケーション装置を観察する位置によって図柄がずれたり、屈折等によってゆがんだりすることがほぼ解消される。
本発明により、眼部に表現豊かな図柄を高い視認性をもって表示するコミュニケーション装置を提供することができる。
本実施形態にかかるロボットの概観図である。 ロボットのシステム構成図である。 右眼の構造を示す斜視図である。 ピクセルと光ファイバの位置関係を示す平面図である。 眼部の他の例を示す模式図である。 対話相手が撮影画像の右側に移動した様子を示す図である。 視線を右側の対話相手に向けた眼部の様子を示す図である。 視線を右側の対話相手に向けた顔部全体の様子を示す図である。 表示処理の手順を示すフローチャートである。 表示される図柄のバリエーションを説明する図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、本実施形態にかかるロボット100の概観図である。ロボット100は、ユーザである人間と音声対話を行うコミュニケーション装置としてのロボットである。ロボット100は、音声対話に合わせて眼の表情が変化する。
ロボット100は、外観として動物を模しており、顔部120を有する。顔部120には、ユーザが眼と認識できる位置に、眼部122(右眼122a、左眼122b)が設けられている。眼部122の構造については後に詳述するが、右眼122a、左眼122bのそれぞれの背後には表示パネル106が設置されている。
ロボット100の鼻の位置には、カメラ102が眼立たないように配置されている。カメラ102は、例えばCMOSセンサを含み、外部環境を認識するための画像を取得する撮像部として機能する。ロボット100の口の位置には、スピーカ109が隠されて配置されている。スピーカ109は、ロボット100が生成した音声を発する発話出力部として機能する。ユーザは、口の位置から出力される音声に、ロボット100が喋っているような感覚を覚える。また、顔部120のいずれかの位置には、マイク101が隠されて配置されている。マイク101は、ユーザの発話音声等を集音する機能を担う。
図2は、ロボット100のシステム構成図である。ロボット100は、主なシステム構成として、マイク101、カメラ102、対話判定部103、環境認識部104、眼制御部105、表示パネル106、音声認識部107、発話制御部108、およびスピーカ109を備えている。
マイク101は、上述のようにユーザの発話音声等の音声を集音する。カメラ102は、ユーザおよびユーザの周辺環境を撮影して画像データを生成する。
対話判定部103は、マイク101により集音された集音音声およびカメラ102により撮影された撮影画像に基づいて、ロボット100がユーザと対話中であるか否かを判定する。対話判定部103は、集音音声の音量が閾値を超えており、かつ、撮影画像にユーザが写っている場合に、ユーザと対話中であると判定する。
環境認識部104は、対話判定部103によりユーザと対話中であると判定された場合に、カメラ102により撮影された撮影画像に写るユーザおよびユーザの周辺環境を認識する。環境認識部104は、顔認識部110を備えており、顔認識部110は、撮影画像に写るユーザの顔の位置を認識する。顔認識部110は、例えば、撮影画像に写るユーザの顔の特徴点に基づいて、ユーザの顔の位置を認識できる。
顔認識部110は、例えば、対話開始時に撮影画像に写っている人物をユーザとして特定し、特定したユーザを追跡し続けることも可能である。また、顔認識部110は、撮影画像に写る人物の中で、顔の大きさが最も大きい人物(すなわち、ロボット100に最も近い位置にいる人物)をユーザとして特定しても良い。また、顔認識部110は、撮影画像に写っている物体が人物か否かを判断するときに、デジタルカメラ等で使用されている顔認識技術を利用しても良い。また、顔認識部110は、カメラ102により事前に撮影された背景画像(ロボット100が設置されている設置環境の画像)との差分を利用して、ユーザを特定しても良い。顔認識部110は、差分として得られた画像領域に絞ってユーザを検索しても良い。
表示パネル106は、ロボット100の後述するように眼の背後に配置され、眼の表情を図案化した図柄を表示する。表示パネル106は、例えば、液晶パネルや有機ELパネルである。
眼制御部105は、顔認識部110により認識されたユーザの顔の位置を基に、表示パネル106に表示される眼の視線をユーザの顔の位置に向けたり、対話内容や周辺環境の変化に応じて表示する眼の表情に動的な変化を与えたりする。具体的な変化については後述する。
音声認識部107は、マイク101により集音された集音音声の音声認識を行う。発話制御部108は、音声認識部107によりユーザの発話音声が音声認識された場合に、ユーザの発話音声に対する応答文を生成する。発話制御部108は、例えば、ユーザの発話内容と、これに対する応答文とを予め対応付けたデータベースを保持し、このデータベースを用いて、ユーザの発話内容に応じた応答文を生成する。スピーカ109は、発話制御部108により生成された応答文を音声出力する。
図3は、右眼122aの構造を示す斜視図である。左眼122bも右眼122aと同様の構造であり、それぞれの表示パネル106は、共に眼制御部105によって表示制御される。
右眼122aは、主に、透光カバー131、光ファイバ束132および表示パネル106から成る。透光カバー131は、例えば透明なポリカーボネイトによって成形され、顔部120の外装材としての役割を担う。動物や人を模したロボットの場合、眼の表面は曲面であることが自然であり、ユーザに受け入れられやすい。したがって、本実施形態におけるロボット100も、眼の表面に相当する透光カバー131は、外部に向かって凸状の曲面に成形されている。
右眼122aの奥側には、右眼の表情を図案化した図柄を表示するための表示パネル106が設置されている。表示パネル106の表示面は平面である。また、表示面は、透光カバー131の外縁周を包含する大きさを有する。図においては、透光カバー131の外縁周に対応する大きさの白目に偏位して重ねられた黒目から成る図柄である表示右眼図301aが表示されている様子を示す。
ここで、曲面から成る透光カバー131の背後に表示面が平面である表示パネル106を配置すると、これらの間には必ず隙間が生じる。この隙間が空間として存在すると、例えばユーザが斜め方向から右眼122aを観察したときに、外装材としての透光カバー131と、表示された表示右眼図301aが互いにずれてしまい、場合によっては、透光カバー131の周辺部から内部の回路等が見えてしまうこともあり得る。場合によっては、表示右眼図301aの一部が欠けて見えてしまうこともあり得る。また、表示された表示右眼図301aが、透光カバー131で屈折したり反射したりして、歪んで見えたり滲んで見えたりすることもあり得る。そこで、本実施形態におけるロボット100では、透光カバー131と表示パネル106の表面との間に、表示パネル106に表示された表示右眼図301aを透光カバー131まで伝達するための光ファイバ束132を介在させる。
光ファイバ束132は、表示パネル106のピクセルのそれぞれに一対一に対応する光ファイバ132aの集合体である。図では説明のために表示パネル106の表面から浮かせて示しているが、それぞれの光ファイバ132aの一端は、表示パネル106の表面に導光系の接着剤により接着されている。また、それぞれの光ファイバ132aの他端は、透光カバー131の内部曲面に沿うように切り揃えられている。その端面は、光ファイバ132aの伸延方向に対して垂直であっても良く、透光カバー131の内部曲面に倣って曲面に研磨されていても良い。光ファイバ132aの他端は、透光カバー131の内部曲面に導光系の接着剤により接着される。
それぞれの光ファイバ132aは、集合体としてその外周面が被覆132bで覆われて束ねられている。被覆132bは、迷光を防ぐべく、遮光素材であることが好ましい。このようにして、透光カバー131、光ファイバ束132および表示パネル106は、互いに接続されて一体化される。
表示パネル106に表示された表示右眼図301aの光束は、光ファイバ132aの一端から入射し、他端から出射する。光ファイバ132aの出射面である他端の集合体は、透光カバー131の内部曲面に沿う仮想的なスクリーンを形成する。したがって、表示パネル106に表示された表示右眼図301aは、この仮想的なスクリーンに投影され、ユーザに観察される投影右眼図302aに変換される。この投影右眼図302aは、透光カバー131の内部曲面に沿うので、ユーザは、さまざまな角度から欠けることなく、歪むことなく、滲むことなく観察することができる。
なお、仮想的なスクリーンを形成する光ファイバ132aの他端は、出射光が拡散するように粗面処理が施されていても良い。あるいは、透光カバー131で拡散するように、その表面に粗面処理が施されていても良い。粗面処理が施されると、投影右眼図302aは、より滑らかな図柄として観察される。
また、透光カバー131は、無色透明でなくても良く、光ファイバ132aから出射される出射光の少なくとも一部が透過されれば良い。したがって、顔部120の装飾性を重視して、加色しても良い。また、透光カバー131の全体が曲面でなくても良く、擬制する対象の眼の特徴に合わせて一部を平面にしても構わない。この場合、光ファイバ132aの他端も、曲面に対応する領域に含まれる場合に、当該曲面に倣うように加工されれば良い。
また、平面として表示される表示右眼図301aが、曲面として投影される投影右眼図302aに変換されるので、眼制御部105は、観察される投影右眼図302aが正しい形状となるように、表示する表示右眼図301aの形状を予め調整することが好ましい。この場合、眼制御部105は、例えば一つの黒目の図柄でも、仮想的なスクリーンのどの位置に投影するかにより、表示する位置と形状を調整する。
図4は、表示パネル106の表示画素であるピクセル106aと光ファイバ132aの位置関係を示す平面図である。図示するように、複数のピクセル106aが、格子状に二次元的に配列されている。そして、各ピクセル106aに入射面が内接するように、光ファイバ132aが配列されている。つまり、光ファイバ132aの外径をφ、ピクセル106aのピッチをPとすると、P=φの関係である。このように互いに配列されると、一本の光ファイバ132aが一画素分の光束を伝達するので、表示パネル106の解像度をそのまま維持することができ、光束のロスも抑えることができる。なお、解像度を犠牲にして伝達する光束を増やすのであれば、複数のピクセルに対して1つの光ファイバ132aを配列することも可能である。逆に、より細い光ファイバ132aを利用して、1つのピクセルに複数の光ファイバ132aを対応付けることも可能である。
図5は、眼部122の他の例を示す模式図である。図3を用いて説明した右眼122aは、同様の独立した構造を有する左眼122bを並べて配置して眼部122を形成した。図5の例の眼部122は、右眼122aと左眼122bで、1枚の表示パネル106を共用する。
すなわち、共用する単独の表示パネル106は、表示右眼図301aと表示左眼図301bを共に表示する。そして、表示パネル106の表面には、右眼用の光ファイバ束132と左眼用の光ファイバ束132が並べて配置されている。表示右眼図301aの光束は、右眼用の光ファイバ束132を通過して投影右眼図302aを形成し、表示左眼図301bの光束は、左眼用の光ファイバ束132を通過して投影左眼図302bを形成する。
右眼122aと左眼122bは、顔部120において、通常は離間して配置されている。右眼として観察される投影右眼図302aの中心と、左眼として観察される投影左眼図302bの中心との距離であるDcovは、表示パネル106に表示される表示右眼図301aと表示左眼図301bとの距離であるDdisよりも長い。すなわち、表示パネル106とそれぞれの透光カバー131を接続する光ファイバ束132を若干湾曲させることにより、採用する表示パネル106を最小化している。
このような構造を採用することにより、組み立て工程の簡素化と、表示パネル106の小型化を実現することができる。なお、図においては、光ファイバ束132が互いに反対方向へ離間するレイアウトであるが、光ファイバの湾曲性を利用して、表示パネル106をさまざまな位置に配置するレイアウトも可能である。
次に、このような眼部122を有するロボット100のコミュニケーション装置としての動作について説明する。図6は、ユーザが撮影画像の右側に移動した様子を示す図である。対話相手であるユーザの顔の位置が移動した場合には、ロボット100は、相手が移動した方向に視線を向ける。例えば、ユーザが撮影画像の右側に移動したことにより、ユーザの顔の位置が撮影画像の右側に移動した場合には、図7に示すように、眼制御部105は、右側に視線が移動するように見えるよう、黒目を段階的に右側に移動させる。このときのロボット100の顔部120の全体は、例えば、図8に示すように観察される。
図9は、表示処理の手順を示すフローチャートである。処理が開始されると、対話判定部103は、ステップS101で、ロボット100がユーザと対話中であるか否かを判定する。ステップS101で対話中であると判定されなければ(ステップS101のNO)、処理を終了する。
一方、ステップS101で対話中であると判定されれば(ステップS101のYES)、顔認識部110は、ステップS102で、カメラ102により撮影された撮影画像に写るユーザの顔の位置を認識する。続いて、眼制御部105は、ステップS103で、顔認識部110により認識されたユーザの顔の位置を基に、表示パネル106に表示されるロボット100の眼の視線を、ユーザの顔の位置に向ける。
ステップS104へ進み、対話判定部103は、ロボット100がユーザと対話中であるか否かを再度判定する。ステップS104で対話中であると判定されなければ(ステップS104のNO)、処理を終了する。一方、ステップS104で対話中であると判定されれば(ステップS104のYES)、ステップS102に戻り、ステップS102以降の処理を行う。
表示パネル106に表示する眼の表情を図案化した図柄は、様々である。図10は、表示される図柄のバリエーションを説明する図である。
上記においては、視線を表現するために、塗りつぶされた黒目が移動するように逐次図柄が更新されるものとして説明したが、眼の表情は視線に限らず、様々な感情も表現し得る。例えば、図10(a)に示す図柄は虹彩中のキャッチライトを強調して表現しており、例えば感動を表す。
図10(b)に示す図柄は、寄せ目であり、例えば疑問に感じている感情を表す。他にも、喜んだ感情を表す図柄(図10(c))や、眠い意思を表す図柄(図10(d))も目の表情を表す図柄として採用し得る。また、表示する図柄は、眼球の要素に限らず、例えば図10(e)に示すように、瞼を取り込んだ図柄であっても良い。
眼制御部105は、ユーザの状態や、対話内容、周辺環境に応じて、これら予め用意された図柄を選択して、表示パネル106の適切な位置に適宜表示する。このような表示制御と上述した眼部122の構造との相乗効果により、より視認性が高く、表現力に優れたコミュニケーション装置としてのロボットを提供することができる。
100 ロボット、101 マイク、102 カメラ、103 対話判定部、104 環境認識部、105 眼制御部、106 表示パネル、106a ピクセル、107 音声認識部、108 発話制御部、109 スピーカ、110 顔認識部、120 顔部、122 眼部、122a 右眼、122b 左眼、131 透光カバー、132 光ファイバ束、132a 光ファイバ、132b 被覆、301a 表示右眼図、301b 表示左眼図、302a 投影右眼図、302b 投影左眼図

Claims (5)

  1. 一対の眼部を有する顔部と、
    前記一対の眼部をそれぞれ覆う透光カバーと、
    眼の表情を図案化した図柄を表示する表示パネルと、
    前記表示パネルに表示された前記図柄を前記透光カバーまで伝達するための光ファイバ束と、
    前記図柄を選択的に前記表示パネルに表示させる制御部と
    を備えるコミュニケーション装置。
  2. 前記表示パネルは複数のピクセルによって構成され、
    前記光ファイバ束は、前記複数のピクセルのそれぞれに一対一に対応する光ファイバを含む請求項1に記載のコミュニケーション装置。
  3. 前記透光カバーは、少なくとも一部が曲面によって構成され、
    前記光ファイバ束の前記透光カバー側の端面のうち前記曲面に対応する領域は、前記曲面に倣って加工されている請求項1または2に記載のコミュニケーション装置。
  4. 前記表示パネルは、それぞれの前記透光カバーに投影される2つの前記図柄を表示する単独のパネルによって構成される請求項1から3のいずれか1項に記載のコミュニケーション装置。
  5. 前記制御部は、周辺環境変化に応じて前記図柄を変化させる請求項1から4のいずれか1項に記載のコミュニケーション装置。
JP2016202065A 2016-10-13 2016-10-13 コミュニケーション装置 Pending JP2018061718A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016202065A JP2018061718A (ja) 2016-10-13 2016-10-13 コミュニケーション装置
US15/722,567 US20180104823A1 (en) 2016-10-13 2017-10-02 Communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016202065A JP2018061718A (ja) 2016-10-13 2016-10-13 コミュニケーション装置

Publications (1)

Publication Number Publication Date
JP2018061718A true JP2018061718A (ja) 2018-04-19

Family

ID=61902499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016202065A Pending JP2018061718A (ja) 2016-10-13 2016-10-13 コミュニケーション装置

Country Status (2)

Country Link
US (1) US20180104823A1 (ja)
JP (1) JP2018061718A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112008735A (zh) * 2020-08-24 2020-12-01 北京云迹科技有限公司 基于巡游机器人的救助方法、装置及系统
US11520549B2 (en) 2018-07-13 2022-12-06 Honda Motor Co., Ltd. Facially responsive communication apparatus

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108527389B (zh) * 2018-04-20 2020-07-03 重庆门罗机器人科技有限公司 多功能互动机器人
JP7084848B2 (ja) * 2018-11-06 2022-06-15 本田技研工業株式会社 制御装置、エージェント装置及びプログラム
DE102019211602A1 (de) * 2019-08-01 2021-02-04 navel robotics GmbH Anordnung zur Darstellung von visuellen Inhalten an einer sichtbaren Außenfläche eines Roboters

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561417A (ja) * 1991-09-03 1993-03-12 Sharp Corp 表示装置
JPH11179061A (ja) * 1997-12-01 1999-07-06 Chin Kyo Lcdの目を持つぬいぐるみ人形
JP2008292576A (ja) * 2007-05-22 2008-12-04 Panasonic Electric Works Co Ltd 自発光型ディスプレイ
US20100136880A1 (en) * 2008-12-01 2010-06-03 Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd Replica eye
US20110177753A1 (en) * 2010-01-18 2011-07-21 Disney Enterprises, Inc. System and method for generating realistic eyes

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4655721A (en) * 1985-03-11 1987-04-07 Hasbro Bradley, Inc. Toy construction with light emitting element
US4978216A (en) * 1989-10-30 1990-12-18 Walt Disney Company Figure with back projected image using fiber optics
US20040141321A1 (en) * 2002-11-20 2004-07-22 Color Kinetics, Incorporated Lighting and other perceivable effects for toys and other consumer products
US7485025B2 (en) * 2006-12-08 2009-02-03 Disney Enterprises, Inc. Expressive eyes with dilating and constricting pupils
EP2629006A1 (en) * 2012-02-17 2013-08-21 Mattel Inc. Light emitting diode and toy
US9636594B2 (en) * 2013-10-01 2017-05-02 Rehco, Llc System for controlled distribution of light in toy characters

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561417A (ja) * 1991-09-03 1993-03-12 Sharp Corp 表示装置
JPH11179061A (ja) * 1997-12-01 1999-07-06 Chin Kyo Lcdの目を持つぬいぐるみ人形
JP2008292576A (ja) * 2007-05-22 2008-12-04 Panasonic Electric Works Co Ltd 自発光型ディスプレイ
US20100136880A1 (en) * 2008-12-01 2010-06-03 Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd Replica eye
US20110177753A1 (en) * 2010-01-18 2011-07-21 Disney Enterprises, Inc. System and method for generating realistic eyes

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Printed Optics", YOUTUBE[ONLINE][VIDEO], JPN7019000272, 1 October 2012 (2012-10-01), ISSN: 0004086123 *
"ディズニーが開発した3Dプリンターで作られた光ファイバーディスプレイの目を使って豊かな感情を表現できる", コモンポスト[ONLINE], JPN6019003197, 29 July 2013 (2013-07-29), ISSN: 0004086122 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520549B2 (en) 2018-07-13 2022-12-06 Honda Motor Co., Ltd. Facially responsive communication apparatus
CN112008735A (zh) * 2020-08-24 2020-12-01 北京云迹科技有限公司 基于巡游机器人的救助方法、装置及系统

Also Published As

Publication number Publication date
US20180104823A1 (en) 2018-04-19

Similar Documents

Publication Publication Date Title
JP2018061718A (ja) コミュニケーション装置
JP7200195B2 (ja) 感覚式アイウェア
US11320655B2 (en) Graphic interface for real-time vision enhancement
JP2016208348A (ja) 表示装置、表示装置の制御方法、及び、プログラム
US10802290B2 (en) Display device assembly
JP6344125B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
US9336779B1 (en) Dynamic image-based voice entry of unlock sequence
US10409324B2 (en) Glass-type terminal and method of controlling the same
CN112673298A (zh) 用于头戴式显示系统的基于波导的照明
JP2017102516A (ja) 表示装置、通信システム、表示装置の制御方法、及び、プログラム
JP7020159B2 (ja) コミュニケーション装置およびその制御プログラム
JP2016033757A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP6432197B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2016224086A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016224554A (ja) 眼前装着型表示装置
JPWO2013077110A1 (ja) 翻訳装置、翻訳システム、翻訳方法およびプログラム
JP2017009777A (ja) 表示装置、表示装置の制御方法、表示システム、及び、プログラム
WO2018158852A1 (ja) 通話システム及びコミュニケーションシステム
JP6922766B2 (ja) コミュニケーションロボットおよびその制御プログラム
KR20180029772A (ko) 플렉서블 디스플레이를 포함하는 전자 장치
JP2017064862A (ja) ロボット装置
JP2007142957A (ja) 遠隔対話方法及び装置
JP2017037212A (ja) 音声認識装置、制御方法、及び、コンピュータープログラム
WO2021020069A1 (ja) 表示装置、表示方法、及び、プログラム
JP2017079389A (ja) 表示装置、表示装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190806