JP2019101492A - コミュニケーション装置 - Google Patents
コミュニケーション装置 Download PDFInfo
- Publication number
- JP2019101492A JP2019101492A JP2017228233A JP2017228233A JP2019101492A JP 2019101492 A JP2019101492 A JP 2019101492A JP 2017228233 A JP2017228233 A JP 2017228233A JP 2017228233 A JP2017228233 A JP 2017228233A JP 2019101492 A JP2019101492 A JP 2019101492A
- Authority
- JP
- Japan
- Prior art keywords
- communication device
- display
- user
- eye
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 120
- 210000001508 eye Anatomy 0.000 claims abstract description 136
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 230000008451 emotion Effects 0.000 claims description 47
- 238000004364 calculation method Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 10
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 235000002673 Dioscorea communis Nutrition 0.000 description 7
- 241000544230 Dioscorea communis Species 0.000 description 7
- 208000035753 Periorbital contusion Diseases 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002269 spontaneous effect Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000001138 tear Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
右目及び左目を模擬した構成を機械的な動き又は表示によって実現する顔部を備えるコミュニケーション装置であって、
コミュニケーション相手との距離及び方向を検出する検出部と、
前記検出部により検出された距離及び方向に、右目及び左目のそれぞれの視点を合わせるように、前記構成の機械的な動き又は表示を制御する制御部と、を備える。
<実施の形態1>
図1は、本実施の形態1に係るコミュニケーション装置1の外観構成の一例を示す正面図である。図1に示されるように、本実施の形態1に係るコミュニケーション装置1は、動物を模した外観を有する装置(ロボット)であり、顔部10と、胴部20と、腕部30A,30Bと、脚部40A,40Bと、を備えている。
まず、位置検出部110について説明する。図5及び図6は、ユーザとコミュニケーション装置1との位置関係の一例を示す図である。図5及び図6に示されるように、位置検出部110は、コミュニケーション装置1から見たユーザの位置座標(x,y)を計測する他、ユーザとの間の距離座標(z)を計測する。これら座標の計測には、カメラ150で撮影されたカメラ画像のみを使用しても良いし、距離センサや3次元位置測定センサなどのセンサを追加で使用しても良い。この際、コミュニケーション装置1に搭載されたデバイスのみで、上記の座標の計測が可能であれば、場所を選ばずにコミュニケーション装置1を使用することができる。
以下の手順に従い、ディスプレイ11A上に表示される右目の黒目座標(Xeb-right, Yeb-right)及びディスプレイ11B上に表示される左目の黒目座標(Xeb-left, Yeb-left)を算出する。
図11は、カメラ150で撮影されたカメラ画像の座標系であって、カメラ画像の画像中心を原点とした座標系(以下、カメラ画像座標系)の一例を示している。図12及び図13は、カメラ150でセンシングを行う領域の座標系であって、カメラ150のレンズ中心を原点とした座標系(以下、センサ座標系)の一例を示している。
まず、位置検出部110は、カメラ画像座標系におけるユーザの位置(Xsu, Ysu)を推定する(図11を参照)。ここでは、ユーザの位置は、両目の中心としている。また、コミュニケーション装置1から見て、正面よりも左側にユーザが位置している。
Pitchcu = −(垂直方向の画角/2)× Ysu / (カメラ画像の縦解像度/2)
Yawcu = −(水平方向の画角/2)× Xsu / (カメラ画像の横解像度/2)
図14は、カメラ画像上のユーザの顔画像サイズを使用して、ユーザとコミュニケーション装置1との距離(Dcu)を推定する方法の一例を示す図である。
事前に、位置検出部110には、カメラ画像上のユーザの顔画像サイズと距離との相関データを予め入力しておく(図14を参照)。図14のα, β, Acu, Bcu は、実機にて得られたパラメータとなっている。そして、位置検出部110は、カメラ150で撮影されたカメラ画像上のユーザの顔画像サイズと、予め入力された相関データと、に基づいて、ユーザとコミュニケーション装置1との距離(Dcu)を推定する。なお、ユーザの顔画像サイズは、カメラ画像から推定しても良いし、顔認識用ソフトウェアから取得しも良い。
次に、位置検出部110は、センサ座標系におけるユーザの方位(Pitchcu, Yawcu)、ユーザとコミュニケーション装置1との距離(Dcu)を使用して、センサ座標系におけるユーザの位置(Ycu, Zcu)を推定する(図13を参照)。
次に、位置検出部110は、ユーザの位置(Ycu, Zcu)を使用して、右目の眼球を模擬した構成111Aの回転角度 Yawce-rightを求めると共に、左目の眼球を模擬した構成111Bの回転角度 Yawce-leftを求める(図13を参照)。
図15は、ディスプレイ11に表示されたディスプレイ画像の座標系であって、ディスプレイ画像の画像中心を原点とした座標系(以下、ディスプレイ画像座標系)の一例を示している。
その後、座標算出部120は、回転角度Pitchcu及びYawce-rightを使用して、これら回転角度で配置した右目の構成111Aの黒目部分をディスプレイ11Aに投影した場合の位置座標を、ディスプレイ11A上の右目の黒目座標(Xeb-right, Yeb-right)として算出する。また、座標算出部120は、回転角度Pitchcu及びYawce-leftを使用して、これら回転角度で配置した左目の構成111Bの黒目部分をディスプレイ11Bに投影した場合の位置座標を、ディスプレイ11B上の左目の黒目座標(Xeb-left, Yeb-left)として算出する(図15を参照)。
図15は、本実施の形態2に係るコミュニケーション装置2のソフトウェア構成の一例を示すブロック図である。図15に示されるように、コミュニケーション装置2は、実施の形態1に係るコミュニケーション装置1と比較して、感情生成部140を追加している点が異なる。なお、コミュニケーション装置2は、外観構成、ハードウェア構成については、実施の形態1に係るコミュニケーション装置1と同様であるため、説明を省略する。
・コミュニケーション装置の処理を減らし、コミュニケーション装置を小型化・軽量化することができる
・外部サーバ側の処理能力を増強して複雑な応答をすることができる
・保守、更新などのメンテナシスが容易となる(コミュニケーション装置を保守、更新する場合、保守者がコミュニケーション装置のところまで向かう必要がある)
・表出画像などのデータを大量に持つことができる
・ユーザに対する応答速度を上げ、即時性を高めることができる
・外部サーバとの通信状況に依存しない性能を出すことができる(電波が弱く、外部サーバと通信できない場所でも、対話性能は変わらない)
10 顔部
11,11A,11B ディスプレイ
111A 右目を模擬した構成
111B 左目を模擬した構成
15 環境測定装置
16 制御装置
110 位置検出部
120 座標算出部
130 出力部
140 感情生成部
150 カメラ
Claims (2)
- 右目及び左目を模擬した構成を機械的な動き又は表示によって実現する顔部を備えるコミュニケーション装置であって、
コミュニケーション相手との距離及び方向を検出する検出部と、
前記検出部により検出された距離及び方向に、右目及び左目のそれぞれの視点を合わせるように、前記構成の機械的な動き又は表示を制御する制御部と、を備える、
コミュニケーション装置。 - 予め定められた規則に従って、前記顔部において表現する前記コミュニケーション装置の感情を生成する感情生成部をさらに備え、
前記制御部は、
前記顔部の感情が表出されるように、前記構成の機械的な動き又は表示を制御するものであり、
前記検出部により検出された距離及び方向に、右目及び左目のそれぞれの視点を合わせながら、前記制御を実行する、
請求項1に記載のコミュニケーション装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017228233A JP2019101492A (ja) | 2017-11-28 | 2017-11-28 | コミュニケーション装置 |
US16/156,103 US11188811B2 (en) | 2017-11-28 | 2018-10-10 | Communication apparatus |
EP18199768.5A EP3498429A1 (en) | 2017-11-28 | 2018-10-11 | Communication apparatus |
CN201811416695.6A CN110014431B (zh) | 2017-11-28 | 2018-11-26 | 通信装置 |
JP2021158759A JP2022008613A (ja) | 2017-11-28 | 2021-09-29 | コミュニケーション装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017228233A JP2019101492A (ja) | 2017-11-28 | 2017-11-28 | コミュニケーション装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021158759A Division JP2022008613A (ja) | 2017-11-28 | 2021-09-29 | コミュニケーション装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019101492A true JP2019101492A (ja) | 2019-06-24 |
Family
ID=64048667
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017228233A Pending JP2019101492A (ja) | 2017-11-28 | 2017-11-28 | コミュニケーション装置 |
JP2021158759A Pending JP2022008613A (ja) | 2017-11-28 | 2021-09-29 | コミュニケーション装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021158759A Pending JP2022008613A (ja) | 2017-11-28 | 2021-09-29 | コミュニケーション装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11188811B2 (ja) |
EP (1) | EP3498429A1 (ja) |
JP (2) | JP2019101492A (ja) |
CN (1) | CN110014431B (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001312604A (ja) * | 2000-02-10 | 2001-11-09 | Sony Corp | 自動装置及び自動装置の動作生成方法、情報提供装置及び情報提供方法、ロボット装置及びロボット装置の行動生成方法並びに商取引システム及び商取引方法 |
JP2004042151A (ja) * | 2002-07-09 | 2004-02-12 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2006289508A (ja) * | 2005-04-05 | 2006-10-26 | Sony Corp | ロボット装置及びその表情制御方法 |
JP2007323150A (ja) * | 2006-05-30 | 2007-12-13 | Keio Gijuku | 人体器官擬似装置 |
US20130078600A1 (en) * | 2011-08-29 | 2013-03-28 | Worcester Polytechnic Institute | System and method of pervasive developmental disorder interventions |
JP2013154458A (ja) * | 2012-01-31 | 2013-08-15 | Fujitsu Ltd | 対話装置、対話プログラムおよび対話方法 |
JP2016076799A (ja) * | 2014-10-03 | 2016-05-12 | シャープ株式会社 | 家電管理システム、家電、リモコン装置、ロボット |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5084099A (en) | 1991-06-17 | 1992-01-28 | Tektronix, Inc. | Phase change ink colorants and phase change inks produced therefrom |
US6118888A (en) * | 1997-02-28 | 2000-09-12 | Kabushiki Kaisha Toshiba | Multi-modal interface apparatus and method |
TW519826B (en) * | 1999-11-29 | 2003-02-01 | Koninkl Philips Electronics Nv | Personality-based intelligent camera system |
DE60216411T2 (de) * | 2001-08-23 | 2007-10-04 | Sony Corp. | Robotervorrichtung, gesichtserkennungsverfahren und gesichtserkennungsvorrichtung |
US7762665B2 (en) * | 2003-03-21 | 2010-07-27 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
JP5186723B2 (ja) | 2006-01-05 | 2013-04-24 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法 |
JP4565196B2 (ja) | 2007-08-30 | 2010-10-20 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
CN101745226A (zh) * | 2008-12-01 | 2010-06-23 | 鸿富锦精密工业(深圳)有限公司 | 仿真眼睛 |
JP2011055076A (ja) * | 2009-08-31 | 2011-03-17 | Fujitsu Ltd | 音声通話装置及び音声通話方法 |
US8651916B2 (en) * | 2010-01-18 | 2014-02-18 | Disney Enterprises, Inc. | System and method for generating realistic eyes |
JP2011175583A (ja) * | 2010-02-25 | 2011-09-08 | Casio Computer Co Ltd | 表示装置及びプログラム |
US20130217300A1 (en) * | 2012-02-17 | 2013-08-22 | Eric E. Skifstrom | Light emitting diode (led) and method of making |
JP5651639B2 (ja) | 2012-06-29 | 2015-01-14 | 株式会社東芝 | 情報処理装置、情報表示装置、情報処理方法およびプログラム |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
US9636594B2 (en) * | 2013-10-01 | 2017-05-02 | Rehco, Llc | System for controlled distribution of light in toy characters |
US10363192B2 (en) * | 2016-06-16 | 2019-07-30 | Matthew Casey | Device and method for instilling intrinsic motivation regarding eye contact in children affected by eye contact disorders |
US10062216B2 (en) * | 2016-09-13 | 2018-08-28 | Aleksey Konoplev | Applying facial masks to faces in live video |
JP6544333B2 (ja) | 2016-10-13 | 2019-07-17 | トヨタ自動車株式会社 | コミュニケーション装置 |
CN110024000B (zh) * | 2016-11-24 | 2023-12-26 | Groove X 株式会社 | 使瞳部变化的行为自主型机器人 |
CN106648074A (zh) * | 2016-11-25 | 2017-05-10 | 合肥优智领英智能科技有限公司 | 一种智能机器人的人机交互方法 |
CN106625678B (zh) * | 2016-12-30 | 2017-12-08 | 首都师范大学 | 机器人表情控制方法和装置 |
JP6841167B2 (ja) | 2017-06-14 | 2021-03-10 | トヨタ自動車株式会社 | コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム |
JP2019005842A (ja) * | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
CN107307865A (zh) * | 2017-08-04 | 2017-11-03 | 湖州健凯康复产品有限公司 | 一种自闭症儿童辅助交流装置 |
-
2017
- 2017-11-28 JP JP2017228233A patent/JP2019101492A/ja active Pending
-
2018
- 2018-10-10 US US16/156,103 patent/US11188811B2/en active Active
- 2018-10-11 EP EP18199768.5A patent/EP3498429A1/en not_active Withdrawn
- 2018-11-26 CN CN201811416695.6A patent/CN110014431B/zh active Active
-
2021
- 2021-09-29 JP JP2021158759A patent/JP2022008613A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001312604A (ja) * | 2000-02-10 | 2001-11-09 | Sony Corp | 自動装置及び自動装置の動作生成方法、情報提供装置及び情報提供方法、ロボット装置及びロボット装置の行動生成方法並びに商取引システム及び商取引方法 |
JP2004042151A (ja) * | 2002-07-09 | 2004-02-12 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2006289508A (ja) * | 2005-04-05 | 2006-10-26 | Sony Corp | ロボット装置及びその表情制御方法 |
JP2007323150A (ja) * | 2006-05-30 | 2007-12-13 | Keio Gijuku | 人体器官擬似装置 |
US20130078600A1 (en) * | 2011-08-29 | 2013-03-28 | Worcester Polytechnic Institute | System and method of pervasive developmental disorder interventions |
JP2013154458A (ja) * | 2012-01-31 | 2013-08-15 | Fujitsu Ltd | 対話装置、対話プログラムおよび対話方法 |
JP2016076799A (ja) * | 2014-10-03 | 2016-05-12 | シャープ株式会社 | 家電管理システム、家電、リモコン装置、ロボット |
Non-Patent Citations (2)
Title |
---|
ALESSANDRO RONCONE ET AL.: "A Cartesian 6-DoF Gaze Controller for Humanoid Robots", PROCEEDINGS OF ROBOTICS: SCIENCE AND SYSTEMS XII, JPN6020042719, June 2016 (2016-06-01), ISSN: 0004653869 * |
佐藤 直希、外3名: "雰囲気推定を用いたロボットによる自発的行動を促す目配せ表出", 情報処理学会第79回全国大会講演論文集(3), JPN6020042721, 16 March 2017 (2017-03-16), pages 3 - 509, ISSN: 0004653870 * |
Also Published As
Publication number | Publication date |
---|---|
US20190164032A1 (en) | 2019-05-30 |
CN110014431A (zh) | 2019-07-16 |
JP2022008613A (ja) | 2022-01-13 |
US11188811B2 (en) | 2021-11-30 |
EP3498429A1 (en) | 2019-06-19 |
CN110014431B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7307119B2 (ja) | 完全な顔画像の眼球周囲およびオーディオ合成 | |
JP7437327B2 (ja) | 異種入力の補間のための方法およびシステム | |
JP7342008B2 (ja) | 仮想アバタのためのメッシュの合致 | |
JP6911107B2 (ja) | 表面モデル化システムおよび方法 | |
US20210097875A1 (en) | Individual viewing in a shared space | |
KR20190101834A (ko) | 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법 | |
JP2023520463A (ja) | 最適視線弁別のためのアバタカスタマイズ | |
US8779908B2 (en) | System and method for social dancing | |
US11380072B2 (en) | Neutral avatars | |
US10576633B2 (en) | Communication device | |
JP2006192548A (ja) | 身まねロボットシステムとその身まね動作制御方法 | |
US20240054712A1 (en) | Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters | |
US20180373324A1 (en) | Systems and processes for providing virtual sexual experiences | |
KR101276429B1 (ko) | 모션 캡처에서의 안구 운동 데이터 대체 장치 및 컴퓨터 판독 가능 저장 매체 | |
JP2019101492A (ja) | コミュニケーション装置 | |
US11403830B2 (en) | Image processing device, image processing method, and program | |
CN111708428B (zh) | 通信系统和用于控制通信系统的方法 | |
TW202343384A (zh) | 具有前後攝影機捕捉的行動裝置全像呼叫 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210929 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210929 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211008 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211012 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20211203 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20211207 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220104 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220405 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220412 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220517 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220906 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20221011 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20221011 |