JP2019536150A - 環境制御機能を有する社会ロボット - Google Patents
環境制御機能を有する社会ロボット Download PDFInfo
- Publication number
- JP2019536150A JP2019536150A JP2019524192A JP2019524192A JP2019536150A JP 2019536150 A JP2019536150 A JP 2019536150A JP 2019524192 A JP2019524192 A JP 2019524192A JP 2019524192 A JP2019524192 A JP 2019524192A JP 2019536150 A JP2019536150 A JP 2019536150A
- Authority
- JP
- Japan
- Prior art keywords
- social
- robot
- user
- social robot
- data signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007613 environmental effect Effects 0.000 title description 24
- 238000000034 method Methods 0.000 claims abstract description 107
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 34
- 230000036651 mood Effects 0.000 claims abstract description 26
- 230000004044 response Effects 0.000 claims description 201
- 230000015654 memory Effects 0.000 claims description 45
- 230000006399 behavior Effects 0.000 claims description 36
- 230000011273 social behavior Effects 0.000 claims description 35
- 230000006870 function Effects 0.000 claims description 31
- 230000014509 gene expression Effects 0.000 claims description 25
- 230000001815 facial effect Effects 0.000 claims description 5
- 210000004709 eyebrow Anatomy 0.000 claims description 4
- 238000011022 operating instruction Methods 0.000 claims description 2
- 230000009471 action Effects 0.000 abstract description 77
- 230000003997 social interaction Effects 0.000 abstract description 20
- 238000012545 processing Methods 0.000 abstract description 14
- 230000006996 mental state Effects 0.000 abstract 2
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 17
- 230000033001 locomotion Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 230000002596 correlated effect Effects 0.000 description 16
- 210000003128 head Anatomy 0.000 description 16
- 230000008921 facial expression Effects 0.000 description 12
- 230000001276 controlling effect Effects 0.000 description 10
- 238000003860 storage Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000008520 organization Effects 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 206010041349 Somnolence Diseases 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 2
- 235000013361 beverage Nutrition 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 208000027697 autoimmune lymphoproliferative syndrome due to CTLA4 haploinsuffiency Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008918 emotional behaviour Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012482 interaction analysis Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012358 sourcing Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 210000005010 torso Anatomy 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
・ 例えば、興味レベルを対象ユーザに質問するか、そうでなければ「テストすること」によって、対象ユーザに興味を持たせる分野、ジャンル、作品(散文、詩、絵画、ビデオ、芸術、等)を識別することによって、どのタイプの関連コンテンツ・クリップを、現在の1人又は複数のユーザが興味を払う可能性があるかを知ること、及び次に、選択されたコンテンツ・クリップを視聴覚的に出力すること
・ 社会ロボットに関わる、又は権限付与されたユーザ・リクエストに応答する、社会対話に同期されたコンテンツ・クリップを対象ユーザが見ること及び/又は聴くことができるように、ロボットから独立している視聴覚表示装置(例えば、スピーカ、電話、タブレット、PC、スマートTV、ARヘッドセット又は眼鏡、等)に、選択されたコンテンツ・クリップをワイヤレスで送ること(又は選択されたコンテンツ・クリップをリモート・サーバから送ってもらうこと)
・ 例えばAmazon(商標)Echo(商標)及びFire Stick(商標)などのワイヤレス・デバイスに命令して、ユーザ/局面パラメータに基づいて社会ロボットによって選択されるか、ユーザによって選択される、対象ユーザのための関連コンテンツに合わせるか、そうでなければ関連コンテンツを入手すること
を行うことができる。
・ 例えば、興味レベルを対象ユーザに質問すること、又はそうでなければ「テストすること」によって、対象ユーザに興味を持たせる分野、ジャンル、作品(散文、詩、絵画、ビデオ、芸術、等)を識別することによって、どのタイプの関連コンテンツ・クリップに現在の1人又は複数のユーザが興味を示す可能性があるかを知ること、及びその後、選択されたコンテンツ・クリップを視聴覚的に出力すること
・ 社会ロボットが関与している社会対話に同期されたコンテンツ・クリップを対象ユーザが見たり聴いたりできるように、又は権限付与されたユーザ・リクエストに応答して、ロボットから独立している視聴覚表示装置(例えば、スピーカ、電話、タブレット、PC、スマートTV、ARヘッドセット/眼鏡、等)に、選択されたコンテンツ・クリップをワイヤレスで送ること(又はこれらのクリップをリモート・サーバから送ってもらうこと)
・ 対象ユーザに対する関連コンテンツに合わせること、又はそうでなければ入手することを行うように、例えば、Amazon(商標)Echo(商標)、及びFire Stick(商標)などのワイヤレス・デバイスに命令することであって、コンテンツが、ユーザ/局面パラメータに基づいて社会ロボットによって選択されるか、ユーザによって選択される、命令すること
を行うことができる。
Claims (29)
- 社会ロボットの構成要素を駆動させるための少なくとも1つの回路に連結された1つ又は複数のプロセッサと、
前記少なくとも1つの回路に接続された社会表現構成要素であって、社会行動アルゴリズムに従って前記1つ又は複数のプロセッサによって制御された、人間が認識可能な表現機能を含む、社会表現構成要素と、
ユーザが前記社会ロボットと対話しているのを観察するために置かれた、前記少なくとも1つの回路に接続されたカメラ、又は前記ユーザからの音を受け取るために置かれた、前記少なくとも1つの回路に接続されたマイクロフォンのうちの少なくとも1つと、
前記少なくとも1つの回路に、及び前記1つ又は複数のプロセッサに連結されたプログラム・メモリであって、
前記社会表現構成要素によって前記ユーザと社会的に対話すること、
前記ビデオ・カメラ又は前記マイクロフォンのうちの前記少なくとも1つからのデータに少なくとも部分的に基づいてユーザ行動を判断すること、
前記社会ロボットの社会行動に前記ユーザ行動を相関させること、
前記相関させることに基づいてデータ信号を生成すること、及び
前記データ信号によってエンコードされた情報に対して電子出力デバイスに応答させるために構成された前記データ信号を送信すること
を含む動作を前記社会ロボットに行わせる、前記1つ又は複数のプロセッサによる実行のために構成されたプログラム命令を保持する、プログラム・メモリと
を備える、社会ロボット。 - 前記命令が、前記相関させることに基づいて現在の心理状態指標を判断することを前記社会ロボットに行わせるため、及び予め記録されたオーディオ・ビデオ・コンテンツ・クリップの識別子と関連付けられた意味メタデータを前記現在の心理状態指標と比較することに基づいて、前記識別子の選択を行わせるためにさらに構成される、請求項1に記載の社会ロボット。
- 前記命令が、前記現在の心理状態指標をリモート・サーバに送信すること、及び前記識別子を前記リモート・サーバから受け取ることを前記社会ロボットに行わせるためにさらに構成される、請求項2に記載の社会ロボット。
- 前記メモリが、予め記録されたオーディオ・ビデオ・コンテンツ・クリップの対応する識別子に関係する意味メタデータとそれぞれ関連付けられた、前記コンテンツ・クリップの前記識別子を保持し、前記命令が、コンテンツ選択アルゴリズムを実行することを前記社会ロボットに行わせ、それによって前記識別子の前記選択を行わせるためにさらに構成される、請求項2に記載の社会ロボット。
- 前記相関させることが、ユーザの気分の指標、又はユーザ要望の指標のうちの少なくとも1つを含む、前記現在の心理状態指標を判断することをさらに含む、請求項2に記載の社会ロボット。
- 前記電子出力デバイスが、オーディオ・ビデオ出力デバイスを含み、前記命令が、前記予め記録されたオーディオ・ビデオ・コンテンツ・クリップが前記オーディオ・ビデオ出力デバイスによって出力されるように、前記データ信号を構成することを前記社会ロボットに行わせるためにさらに構成される、請求項2に記載の社会ロボット。
- 前記社会表現構成要素に連結された前記オーディオ・ビデオ出力デバイスをさらに備える、請求項5に記載の社会ロボット。
- 前記社会表現構成要素が、前記オーディオ・ビデオ出力デバイスを含む、請求項6に記載の社会ロボット。
- 前記命令が、ユーザの気分、又はユーザ要望のうちの少なくとも1つを含む前記現在の心理状態指標に基づいて、前記識別子の選択を含むコンテンツ選択アルゴリズムを実行するためにさらに構成された、請求項7に記載の社会ロボット。
- 前記命令が、前記電子出力デバイスに応答させるための前記データ信号を構成するためにさらに構成され、前記電子出力デバイスが、家庭電化製品又は自動車のうちの少なくとも1つを含み、前記データ信号によってエンコードされた前記情報が、前記家庭電化製品又は自動車に対する操作命令を含む、請求項1に記載の社会ロボット。
- 前記社会表現構成要素が、前記少なくとも1つの回路に接続された顔構成要素を含み、前記顔構成要素が、前記1つ又は複数のプロセッサによって制御された、並びに構成可能なまゆ毛、少なくとも1つの構成可能な目、及び構成可能な口から選択された、少なくとも2つの人間が認識可能な表現機能を含む、請求項1に記載の社会ロボット。
- 生体認証センサが、前記ユーザの身体状態に応答してデータ信号を送るための少なくとも1つの回路に連結され、前記命令が、前記生体認証センサからの前記データ信号にさらに基づいて、前記現在の心理状態指標を判断するためにさらに構成される、請求項2に記載の社会ロボット。
- 前記生体認証センサが、介在するワイヤレス受信機とワイヤレス送信機のペアを介して前記少なくとも1つの回路に連結される、請求項12に記載の社会ロボット。
- 社会ロボットと、前記社会ロボットのユーザとの間の先の社会対話に基づいて前記社会ロボットの環境を制御するための方法であって、
前記社会ロボットの構成要素を駆動させるための少なくとも1つの回路に連結され、社会行動アルゴリズムに従って前記少なくとも1つの回路によって制御された、人間が認識可能な表現機能を含む、社会表現構成要素を動作させることによって前記ユーザと社会的に対話するステップであって、前記少なくとも1つの回路が、1つ又は複数のプロセッサを備える、対話するステップと、
前記1つ又は複数のプロセッサによって、前記少なくとも1つの回路に連結されたビデオ・カメラ及びマイクロフォンからのデータに少なくとも部分的に基づいてユーザ行動を判断するステップと、
前記1つ又は複数のプロセッサによって、前記社会ロボットの社会行動に前記ユーザ行動を相関させるステップと、
前記相関させるステップに基づいてデータ信号を生成するステップと、
前記データ信号によってエンコードされた情報に対して電子出力デバイスに応答させるために構成された前記データ信号を出力するステップと
を含む、方法。 - 前記相関させるステップに基づいて現在の心理状態指標を判断するステップ、及び予め記録されたオーディオ・ビデオ・コンテンツ・クリップの識別子と関連付けられた意味メタデータを前記現在の心理状態指標と比較することに基づいて、前記識別子の選択を行わせるステップをさらに含む、請求項14に記載の方法。
- 前記現在の心理状態指標をリモート・サーバに送信するステップ、及び前記識別子を前記リモート・サーバから受け取るステップをさらに含む、請求項15に記載の方法。
- 前記1つ又は複数のプロセッサに連結されたメモリが、予め記録されたオーディオ・ビデオ・コンテンツ・クリップの対応する識別子に関係する意味メタデータとそれぞれ関連付けられた、前記コンテンツ・クリップの前記識別子を保持し、コンテンツ選択アルゴリズムを実行するステップ、それによって前記識別子の前記選択を行わせるステップをさらに含む、請求項15に記載の方法。
- 前記相関させるステップが、ユーザの気分の指標、又はユーザ要望の指標のうちの少なくとも1つを含む、前記現在の心理状態指標を判断するステップをさらに含む、請求項15に記載の方法。
- 前記電子出力デバイスが、オーディオ・ビデオ出力デバイスを含み、前記予め記録されたオーディオ・ビデオ・コンテンツ・クリップが前記オーディオ・ビデオ出力デバイスによって出力されるように、前記データ信号を構成するステップをさらに含む、請求項15に記載の方法。
- 前記電子出力デバイスが、家庭電化製品又は自動車のうちの少なくとも1つを含み、前記データ信号によってエンコードされた前記情報が、前記家庭電化製品又は自動車に対する操作命令を含む、請求項14に記載の方法。
- 前記ユーザの身体状態に応答してデータ信号を送るように構成された生体認証センサからの前記データ信号にさらに基づいて前記現在の心理状態指標を判断するステップをさらに含む、請求項15に記載の方法。
- プロセッサによって実行されると、社会ロボットと、前記社会ロボットのユーザとの間の先の社会対話に基づいて前記社会ロボットの環境を制御するための装置に、
前記社会ロボットの構成要素を駆動させるために少なくとも1つの回路に連結され、社会行動アルゴリズムに従って前記少なくとも1つの回路によって制御された、人間が認識可能な表現機能を含む、社会表現構成要素を動作させることによって前記ユーザと社会的に対話することであって、前記少なくとも1つの回路が、1つ又は複数のプロセッサを備える、対話することと、
前記少なくとも1つの回路に連結されたビデオ・カメラ及びマイクロフォンからのデータに少なくとも部分的に基づいてユーザ行動を判断することと、
前記社会ロボットの社会行動に前記ユーザ行動を相関させることと、
前記相関させることに基づいてデータ信号を生成することと、
前記データ信号によってエンコードされた情報に対して電子出力デバイスに応答させるために構成された前記データ信号を出力することと
を行わせる命令でエンコードされた、コンピュータ可読媒体。 - 社会ロボットと、前記社会ロボットのユーザとの間の先の社会対話に基づいて前記社会ロボットの環境を制御するための装置であって、
前記社会ロボットの構成要素を駆動させるために少なくとも1つの回路に連結され、社会行動アルゴリズムに従って前記少なくとも1つの回路によって制御された、人間が認識可能な表現機能を含む、社会表現構成要素を動作させることによって前記ユーザと社会的に対話するための手段であって、前記少なくとも1つの回路が、1つ又は複数のプロセッサを備える、手段と、
前記少なくとも1つの回路に連結されたビデオ・カメラ及びマイクロフォンからのデータに少なくとも部分的に基づいてユーザ行動を判断するための手段と、
前記社会ロボットの社会行動に前記ユーザ行動を相関させるための手段と、
前記相関させることに基づいてデータ信号を生成するための手段と、
前記データ信号によってエンコードされた情報に対して電子出力デバイスに応答させるために構成された前記データ信号を出力するための手段と
を有する、装置。 - 前記相関させることに基づいて現在の心理状態指標を判断するため、及び予め記録されたオーディオ・ビデオ・コンテンツ・クリップの識別子と関連付けられた意味メタデータを前記現在の心理状態指標と比較することに基づいて、前記識別子の選択を行わせるための手段をさらに有する、請求項23に記載の装置。
- 前記現在の心理状態指標をリモート・サーバに送信するため、及び前記識別子を前記リモート・サーバから受け取るための手段をさらに有する、請求項24に記載の装置。
- 前記1つ又は複数のプロセッサに連結されたメモリが、予め記録されたオーディオ・ビデオ・コンテンツ・クリップの対応する識別子に関係する意味メタデータとそれぞれ関連付けられた、前記コンテンツ・クリップの前記識別子を保持し、コンテンツ選択アルゴリズムを実行すること、それによって前記識別子の前記選択を行わせるための手段をさらに有する、請求項24に記載の装置。
- ユーザの気分の指標、又はユーザ要望の指標のうちの少なくとも1つを含む、前記現在の心理状態指標を判断するための手段をさらに有する、請求項24に記載の装置。
- 前記電子出力デバイスが、オーディオ・ビデオ出力デバイスを含み、前記予め記録されたオーディオ・ビデオ・コンテンツ・クリップが前記オーディオ・ビデオ出力デバイスによって出力されるように、前記データ信号を構成するための手段をさらに有する、請求項24に記載の装置。
- 前記ユーザの身体状態に応答してデータ信号を送るように構成された生体認証センサからの前記データ信号にさらに基づいて前記現在の心理状態指標を判断するための手段をさらに有する、請求項24に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662420492P | 2016-11-10 | 2016-11-10 | |
US62/420,492 | 2016-11-10 | ||
PCT/US2017/060951 WO2018089700A1 (en) | 2016-11-10 | 2017-11-09 | Social robot with environmental control feature |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019536150A true JP2019536150A (ja) | 2019-12-12 |
JP7351745B2 JP7351745B2 (ja) | 2023-09-27 |
Family
ID=62110567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019524192A Active JP7351745B2 (ja) | 2016-11-10 | 2017-11-09 | 環境制御機能を有する社会ロボット |
Country Status (7)
Country | Link |
---|---|
US (3) | US11370125B2 (ja) |
EP (1) | EP3538329A4 (ja) |
JP (1) | JP7351745B2 (ja) |
KR (1) | KR102502228B1 (ja) |
CN (1) | CN110139732B (ja) |
CA (1) | CA3043016A1 (ja) |
WO (1) | WO2018089700A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024201680A1 (ja) * | 2023-03-27 | 2024-10-03 | 三菱電機株式会社 | 制御モデル生成装置、ロボット制御装置、制御システム、制御モデル生成方法およびプログラム |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109421044A (zh) * | 2017-08-28 | 2019-03-05 | 富泰华工业(深圳)有限公司 | 智能机器人 |
US11151883B2 (en) * | 2017-11-03 | 2021-10-19 | International Business Machines Corporation | Empathic autonomous vehicle |
US10814487B2 (en) * | 2018-01-22 | 2020-10-27 | Disney Enterprises, Inc. | Communicative self-guiding automation |
US10841247B2 (en) * | 2018-02-02 | 2020-11-17 | Sony Interactive Entertainment Inc. | Social media connection for a robot |
DE102019122790B4 (de) * | 2018-08-24 | 2021-03-25 | Nvidia Corp. | Robotersteuerungssystem |
US11833681B2 (en) * | 2018-08-24 | 2023-12-05 | Nvidia Corporation | Robotic control system |
US10981073B2 (en) | 2018-10-22 | 2021-04-20 | Disney Enterprises, Inc. | Localized and standalone semi-randomized character conversations |
KR102673293B1 (ko) * | 2018-11-08 | 2024-06-11 | 현대자동차주식회사 | 서비스 로봇 및 그의 운용 방법 |
CN114175070A (zh) * | 2019-02-19 | 2022-03-11 | 跃进公司 | 与交互式电子员工反馈系统和方法相关的改进 |
US11367361B2 (en) * | 2019-02-22 | 2022-06-21 | Kyndryl, Inc. | Emulating unmanned aerial vehicle (UAV) |
WO2020191310A1 (en) * | 2019-03-21 | 2020-09-24 | Life-Dash, LLC | Bot systems and methods |
US10996917B2 (en) | 2019-05-31 | 2021-05-04 | Apple Inc. | User interfaces for audio media control |
US10802843B1 (en) | 2019-05-31 | 2020-10-13 | Apple Inc. | Multi-user configuration |
US11620103B2 (en) | 2019-05-31 | 2023-04-04 | Apple Inc. | User interfaces for audio media control |
KR20210020312A (ko) * | 2019-08-14 | 2021-02-24 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
KR20210023367A (ko) * | 2019-08-23 | 2021-03-04 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
CN110866588B (zh) * | 2019-11-08 | 2023-05-02 | 中国科学院软件研究所 | 一种实现智能虚拟数字动物的可学习能力模型个性化的训练学习方法与系统 |
CN111618856B (zh) * | 2020-05-27 | 2021-11-05 | 山东交通学院 | 基于视觉兴奋点的机器人控制方法、系统及机器人 |
CN112230887B (zh) * | 2020-09-11 | 2023-11-14 | 重庆誉存大数据科技有限公司 | 一种应用于决策引擎中的指标的脚本配置系统 |
US11645476B2 (en) | 2020-09-29 | 2023-05-09 | International Business Machines Corporation | Generating symbolic domain models from multimodal data |
CN115427126B (zh) * | 2020-12-10 | 2023-12-26 | 松下知识产权经营株式会社 | 机器人控制方法以及信息提供方法 |
TW202226002A (zh) * | 2020-12-15 | 2022-07-01 | 萬達人工智慧科技股份有限公司 | 電子卡片產生裝置及電子卡片產生方法 |
US11960615B2 (en) | 2021-06-06 | 2024-04-16 | Apple Inc. | Methods and user interfaces for voice-based user profile management |
CN117648411A (zh) * | 2022-08-19 | 2024-03-05 | 华为技术有限公司 | 一种表情生成方法以及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146630A (ja) * | 2004-11-22 | 2006-06-08 | Sony Corp | コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム |
JP2009087074A (ja) * | 2007-09-28 | 2009-04-23 | Panasonic Electric Works Co Ltd | 機器制御システム |
JP2016076799A (ja) * | 2014-10-03 | 2016-05-12 | シャープ株式会社 | 家電管理システム、家電、リモコン装置、ロボット |
JP2016522465A (ja) * | 2013-03-15 | 2016-07-28 | ジボ インコーポレイテッド | 永続性コンパニオンデバイスを提供するための装置及び方法 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) * | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
JPH0612401A (ja) * | 1992-06-26 | 1994-01-21 | Fuji Xerox Co Ltd | 感情模擬装置 |
US6031549A (en) * | 1995-07-19 | 2000-02-29 | Extempo Systems, Inc. | System and method for directed improvisation by computer controlled characters |
US5832189A (en) * | 1996-09-26 | 1998-11-03 | Interval Research Corporation | Affect-based robot communication methods and systems |
JPH10289006A (ja) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
WO1999054015A1 (en) * | 1998-04-16 | 1999-10-28 | Creator Ltd. | Interactive toy |
US6230111B1 (en) | 1998-08-06 | 2001-05-08 | Yamaha Hatsudoki Kabushiki Kaisha | Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object |
US6513046B1 (en) * | 1999-12-15 | 2003-01-28 | Tangis Corporation | Storing and recalling information to augment human memories |
JP4687936B2 (ja) * | 2001-03-22 | 2011-05-25 | ソニー株式会社 | 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体 |
JP3988121B2 (ja) * | 2002-03-15 | 2007-10-10 | ソニー株式会社 | 学習装置、記憶方法及びロボット装置 |
US7113848B2 (en) * | 2003-06-09 | 2006-09-26 | Hanson David F | Human emulation robot system |
JP2005044330A (ja) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置 |
JP4271193B2 (ja) * | 2003-08-12 | 2009-06-03 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット用制御システム |
US9191228B2 (en) * | 2005-03-16 | 2015-11-17 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
JP4457983B2 (ja) * | 2005-06-27 | 2010-04-28 | ヤマハ株式会社 | 演奏操作援助装置及びプログラム |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
US8898708B2 (en) * | 2006-10-04 | 2014-11-25 | Bindu Rama Rao | Media distribution server that presents interactive media to digital devices |
US20080183573A1 (en) * | 2007-01-31 | 2008-07-31 | James Edward Muschetto | Method and Apparatus for Increasing Accessibility and Effectiveness of Advertisements Delivered via a Network |
EP2140341B1 (en) * | 2007-04-26 | 2012-04-25 | Ford Global Technologies, LLC | Emotive advisory system and method |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
US8565922B2 (en) * | 2008-06-27 | 2013-10-22 | Intuitive Automata Inc. | Apparatus and method for assisting in achieving desired behavior patterns |
ES2358139B1 (es) * | 2009-10-21 | 2012-02-09 | Thecorpora, S.L. | Robot social. |
US9642536B2 (en) * | 2010-06-07 | 2017-05-09 | Affectiva, Inc. | Mental state analysis using heart rate collection based on video imagery |
US10198775B2 (en) * | 2010-06-23 | 2019-02-05 | Microsoft Technology Licensing, Llc | Acceleration of social interactions |
RU2011104786A (ru) * | 2011-02-10 | 2012-08-20 | Государственное образовательное учреждение высшего профессионального образования города Москвы "Московский городской педагогически | Мобильный интеллектуальный робот-ассистент |
US9079313B2 (en) * | 2011-03-15 | 2015-07-14 | Microsoft Technology Licensing, Llc | Natural human to robot remote control |
US10176725B2 (en) * | 2011-08-29 | 2019-01-08 | Worcester Polytechnic Institute | System and method of pervasive developmental disorder interventions |
JP6452443B2 (ja) * | 2011-11-09 | 2019-01-16 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | データ・ネットワーク・サービスを介した感情共有のためのバイオセンサーの使用 |
US8751042B2 (en) * | 2011-12-14 | 2014-06-10 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods of robot behavior generation and robots utilizing the same |
KR101336641B1 (ko) * | 2012-02-14 | 2013-12-16 | (주) 퓨처로봇 | 감성 교감 로봇 서비스 시스템 및 그 방법 |
WO2013176758A1 (en) * | 2012-05-22 | 2013-11-28 | Intouch Technologies, Inc. | Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices |
US9956687B2 (en) * | 2013-03-04 | 2018-05-01 | Microsoft Technology Licensing, Llc | Adapting robot behavior based upon human-robot interaction |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
US10687183B2 (en) * | 2014-02-19 | 2020-06-16 | Red Hat, Inc. | Systems and methods for delaying social media sharing based on a broadcast media transmission |
EP2933070A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Methods and systems of handling a dialog with a robot |
WO2016011159A1 (en) | 2014-07-15 | 2016-01-21 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
US20160063874A1 (en) * | 2014-08-28 | 2016-03-03 | Microsoft Corporation | Emotionally intelligent systems |
US10334158B2 (en) * | 2014-11-03 | 2019-06-25 | Robert John Gove | Autonomous media capturing |
KR20160113440A (ko) * | 2015-03-20 | 2016-09-29 | (주)로보와이즈 | 가전제어기를 구비한 홈로봇을 이용한 원격제어장치 및 그 제어방법 |
US20170127150A1 (en) * | 2015-11-04 | 2017-05-04 | Ubitus Inc. | Interactive applications implemented in video streams |
US10168859B2 (en) * | 2016-04-26 | 2019-01-01 | International Business Machines Corporation | Contextual determination of emotion icons |
CN109789550B (zh) | 2016-07-27 | 2023-05-30 | 华纳兄弟娱乐公司 | 基于小说或表演中的先前角色描绘的社交机器人的控制 |
WO2018045081A1 (en) * | 2016-08-31 | 2018-03-08 | Taechyon Robotics Corporation | Robots for interactive comedy and companionship |
US10595090B2 (en) * | 2016-09-02 | 2020-03-17 | Sony Corporation | System and method for optimized and efficient interactive experience |
US10853411B2 (en) * | 2018-04-06 | 2020-12-01 | Rovi Guides, Inc. | Systems and methods for identifying a media asset from an ambiguous audio indicator |
-
2017
- 2017-11-09 EP EP17870442.5A patent/EP3538329A4/en active Pending
- 2017-11-09 JP JP2019524192A patent/JP7351745B2/ja active Active
- 2017-11-09 CN CN201780082251.0A patent/CN110139732B/zh active Active
- 2017-11-09 KR KR1020197016476A patent/KR102502228B1/ko active IP Right Grant
- 2017-11-09 WO PCT/US2017/060951 patent/WO2018089700A1/en unknown
- 2017-11-09 CA CA3043016A patent/CA3043016A1/en active Pending
-
2019
- 2019-05-09 US US16/408,403 patent/US11370125B2/en active Active
-
2022
- 2022-06-16 US US17/842,730 patent/US12011822B2/en active Active
-
2024
- 2024-06-03 US US18/732,234 patent/US20240316782A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146630A (ja) * | 2004-11-22 | 2006-06-08 | Sony Corp | コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム |
JP2009087074A (ja) * | 2007-09-28 | 2009-04-23 | Panasonic Electric Works Co Ltd | 機器制御システム |
JP2016522465A (ja) * | 2013-03-15 | 2016-07-28 | ジボ インコーポレイテッド | 永続性コンパニオンデバイスを提供するための装置及び方法 |
JP2016076799A (ja) * | 2014-10-03 | 2016-05-12 | シャープ株式会社 | 家電管理システム、家電、リモコン装置、ロボット |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024201680A1 (ja) * | 2023-03-27 | 2024-10-03 | 三菱電機株式会社 | 制御モデル生成装置、ロボット制御装置、制御システム、制御モデル生成方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20240316782A1 (en) | 2024-09-26 |
CA3043016A1 (en) | 2018-05-17 |
CN110139732A (zh) | 2019-08-16 |
KR102502228B1 (ko) | 2023-02-20 |
EP3538329A4 (en) | 2020-08-19 |
US20190366557A1 (en) | 2019-12-05 |
WO2018089700A1 (en) | 2018-05-17 |
US12011822B2 (en) | 2024-06-18 |
KR20190079669A (ko) | 2019-07-05 |
CN110139732B (zh) | 2023-04-04 |
JP7351745B2 (ja) | 2023-09-27 |
US20220395983A1 (en) | 2022-12-15 |
EP3538329A1 (en) | 2019-09-18 |
US11370125B2 (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12011822B2 (en) | Social robot with environmental control feature | |
CN109789550B (zh) | 基于小说或表演中的先前角色描绘的社交机器人的控制 | |
KR102334942B1 (ko) | 돌봄 로봇을 위한 데이터 처리 방법 및 장치 | |
JP6984004B2 (ja) | 自律パーソナルコンパニオンによってユーザの人工知能モデルが実行するためのユーザのコンテクスト環境を記述する識別タグに基づくシナリオの継続的選択 | |
AU2014236686B2 (en) | Apparatus and methods for providing a persistent companion device | |
US9796095B1 (en) | System and method for controlling intelligent animated characters | |
KR20180129886A (ko) | 지속적 컴패니언 디바이스 구성 및 전개 플랫폼 | |
US20200234710A1 (en) | Automatic dialogue design | |
US11074491B2 (en) | Emotionally intelligent companion device | |
US20150004576A1 (en) | Apparatus and method for personalized sensory media play based on the inferred relationship between sensory effects and user's emotional responses | |
CN112204565A (zh) | 用于基于视觉背景无关语法模型推断场景的系统和方法 | |
US20210151154A1 (en) | Method for personalized social robot interaction | |
WO2021174089A1 (en) | Managing conversations between a user and a robot | |
US12011828B2 (en) | Method for controlling a plurality of robot effectors | |
US20190392327A1 (en) | System and method for customizing a user model of a device using optimized questioning | |
WO2024219506A1 (ja) | 電子機器、行動制御システムおよび制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211006 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220106 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220406 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221209 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221209 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20221220 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230125 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230126 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230310 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230314 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7351745 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |