JP7152908B2 - 仕草制御装置及び仕草制御プログラム - Google Patents

仕草制御装置及び仕草制御プログラム Download PDF

Info

Publication number
JP7152908B2
JP7152908B2 JP2018165669A JP2018165669A JP7152908B2 JP 7152908 B2 JP7152908 B2 JP 7152908B2 JP 2018165669 A JP2018165669 A JP 2018165669A JP 2018165669 A JP2018165669 A JP 2018165669A JP 7152908 B2 JP7152908 B2 JP 7152908B2
Authority
JP
Japan
Prior art keywords
emotion
gesture
robot
transition
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018165669A
Other languages
English (en)
Other versions
JP2020037155A (ja
Inventor
祐太 星
豊 金子
康博 村▲崎▼
道宏 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2018165669A priority Critical patent/JP7152908B2/ja
Publication of JP2020037155A publication Critical patent/JP2020037155A/ja
Application granted granted Critical
Publication of JP7152908B2 publication Critical patent/JP7152908B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットの仕草を制御するための装置及びプログラムに関する。
家庭内のロボットがユーザと一緒にテレビを視聴し、ロボットが視聴映像に対して反応している振る舞いを表現するためには、ロボットが視聴映像から受け取る感情状態を推定し、仕草を決定することにより、視聴映像に対して反応しているかのような感情動作を表出することが重要である。
例えば、特許文献1では、映像印象情報とユーザ感情情報とを用いてロボットの感情状態を決定し、共感を得られたと感じさせる同調的反応をロボットに実行させる装置が提案されている。
また、特許文献2では、ロボットが検出する基準データを基にコンテンツの評価を行い、評価結果に基づいてロボットの挙動又は状態を制御する装置が提案されている。
特開2016-36883号公報 国際公開第2012/172721号
しかしながら、特許文献1では、ロボットの動作がユーザと共感を得るための同調的な動作に限定されるため、ロボット自身の感情を、特に感情の移り変わりを表出することはできなかった。
また、特許文献2においても、コンテンツの評価結果に基づいてロボットの挙動又は状態を制御したとしても、変化していくコンテンツのシーンに対する反応の移り変わりを表出することはできなかった。
したがって、ロボットの仕草により表現する感情が急に変化する場合があるため、ユーザは、ロボットの仕草に違和感を覚えることがあった。
本発明は、ロボットの感情の変化を表現できる仕草制御装置及び仕草制御プログラムを提供することを目的とする。
本発明に係る仕草制御装置は、感情を表現する複数の軸で定義された空間における、複数の感情語の感情ベクトルを記憶する第1記憶部と、前記空間を分割した複数のエリアそれぞれに対して、ロボットの仕草を割り当てた第2記憶部と、入力文から感情語を抽出する感情語抽出部と、前記感情語に対応する前記空間における遷移先の感情ベクトルを決定する感情決定部と、前記ロボットに現在設定されている遷移元の感情ベクトルから、前記遷移先の感情ベクトルまで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応する前記エリアに割り当てられた前記仕草を順に決定する仕草決定部と、を備える。
前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定してもよい。
前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定してもよい。
前記空間は、「快-不快」及び「覚醒-眠気」を指標とし、2次元の軸で構成されたラッセル円環モデルであってもよい。
本発明に係る仕草制御プログラムは、コンピュータを、前記仕草制御装置として機能させるためのものである。
本発明によれば、ロボットの感情の変化を表現できる。
実施形態に係る仕草制御装置の機能構成を示すブロック図である。 実施形態に係る映像情報取得部の詳細な機能構成を示すブロック図である。 実施形態に係る感情語辞書を例示する図である。 実施形態に係る仕草データベースに記憶される感情ベクトルを例示する図である。 実施形態に係る仕草データベースに記憶される感情ベクトルと仕草との関係を例示する図である。 実施形態に係る感情ベクトルの段階的な遷移方法、及び対応する仕草の決定方法を例示する図である。 実施形態に係る仕草に対応するロボットのモータ制御データを例示する図である。
以下、本発明の実施形態の一例について説明する。
図1は、本実施形態に係る仕草制御装置1の機能構成を示すブロック図である。
仕草制御装置1は、制御部10と記憶部20とを備えた情報処理装置(コンピュータ)であり、さらに、入出力及び通信のインタフェースを備える。仕草制御装置1は、記憶部20に格納されたソフトウェア(仕草制御プログラム)を制御部10が実行することにより、本実施形態の各種機能を実現する。
なお、仕草制御装置1は、制御対象であるロボットに内蔵されてもよいし、通信により外部からロボットを制御する構成であってもよい。
仕草制御装置1は、本実施形態の各種機能により、ロボットの仕草を制御する。本実施形態において制御対象とするロボットは、コミュニケーションロボット又はスマートスピーカ等の家庭用のロボットである。また、仕草とは、ロボットの動作制御部4がモータ5を動作させることによる空間的な動作に加えて、ロボットに設けられた発光デバイスの発光、又はロボットによる発話の速度若しくは強弱の変化を含む動作全般をいう。
このとき、仕草制御装置1は、カメラ2及びマイク3から、ロボットが視聴している映像及び音声を取得すると、感情を表現する感情語を抽出し、ロボットの感情状態を、現在の状態から抽出した感情語の感情状態へ時間的に徐々に遷移させることにより、ロボットの仕草を段階的に決定する。ロボットの感情の初期状態は、予めラッセル円環モデルのいずれかの場所にマッピングされていてもよい。
制御部10は、映像情報取得部11と、感情語抽出部12と、感情決定部13と、仕草決定部14とを備える。
また、記憶部20は、感情語辞書21と、仕草データベース22と、ロボット感情部23と、方向データベース24とを備える。
映像情報取得部11は、テレビ等を視聴している際の映像又は音声の情報を解析し、ロボットの仕草を決定するための入力文を生成する。
図2は、本実施形態に係る映像情報取得部11の詳細な機能構成を示すブロック図である。
映像情報取得部11は、映像取得部111と、音声取得部112と、映像画像解析部113と、音声解析部114と、映像情報統合部115とを備える。
映像情報取得部11は、映像取得部111によりロボットに搭載されているカメラ2から映像情報を、また、音声取得部112によりマイク3から音声情報を取得する。
取得された映像情報は、映像画像解析部113により物体認識、シーン検出、文字認識等の解析が行われ、音声情報は、音声解析部114により音声認識が行われる。
映像情報統合部115は、映像画像解析部113及び音声解析部114から得られた解析結果を統合し、映像音声解析情報を出力する。このとき、映像情報統合部115は、不適当な特定の単語又は文章を利用させないようにするために、映像音声解析情報の該当する単語及び文章のフィルタリングを行ってもよい。
映像音声解析情報は、仕草制御のための入力文として感情語抽出部12に提供される。
なお、映像情報取得部11は、映像情報の解析又は音声情報の解析のために、クラウドネットワークを利用した一般に公開されている画像認識API等を用いてもよい。
感情語抽出部12は、映像情報取得部11により提供される映像音声解析情報から感情語を抽出する。
このとき、感情語抽出部12は、感情語辞書21を利用して感情語を抽出する。感情語抽出部12は、例えば、文字列に形態素解析及び係り受け解析等の構文解析を行って文構造を取得し、感情語辞書に定義されている感情語を抽出する。なお、形態素解析には、オープンソースの形態素解析エンジン(例えば、「MeCab」、<http://taku910.github.io/mecab/>)等が利用可能である。
また、感情語辞書21は、例えば「感情表現辞典、中村明、東京堂出版、1993」等を用いるほか、WEBページから収集されてもよい。
図3は、本実施形態に係る感情語辞書21を例示する図である。
例えば、同一の感情を示すが表現が異なる複数の単語がグループ化され、主単語、単語1、単語2、・・・のように定義される。
感情語抽出部12は、映像音声解析情報に含まれる単語に対して、同一グループの主単語を感情語として抽出してよい。
ここで、感情語辞書21で定義された複数の感情語は、それぞれに対して、感情を表現する複数の軸で定義された空間における、感情ベクトルが仕草データベース22に記憶される。
この空間は、例えば、「快-不快」及び「覚醒-眠気」の2次元の軸で構成されたラッセル円環モデルであってよい。このような空間に対して複数の感情語が予めマッピングされ、各感情語について感情ベクトルの座標値が仕草データベース22(第1記憶部)に記憶される。
さらに、仕草データベース22(第2記憶部)では、空間を分割した複数のエリアそれぞれに対して、ロボットの仕草が割り当てられる。
図4は、本実施形態に係る仕草データベース22に記憶される感情ベクトルを例示する図である。
例えば、ラッセル円環モデルでは、x軸に「快-不快」を表す情動価が、y軸に「覚醒-眠気」を表す覚醒度が設けられる。これにより、4象限がそれぞれ、喜び、怒り、悲しみ、リラックスといった感情を表す。そして、感情語辞書21に含まれる感情語がそれぞれ、固有の座標にマッピングされ、感情ベクトルとして記憶される。
図5は、本実施形態に係る仕草データベース22に記憶される感情ベクトルと仕草との関係を例示する図である。
ロボットの仕草は、感情語がマッピングされた空間を複数に分割したエリア毎に定義される。
例えば、「asad≦x<0,bsad≦y<0」のエリアには「悲しい1」という仕草が、「x<asad,bsad≦y<0」のエリアには「悲しい2」という仕草が割り当てられる。
なお、この例では、等間隔の格子状にエリアが設けられているが、空間に分割方法はこれに限られない。
感情決定部13は、ロボットの感情の遷移先として、抽出された感情語に対応する感情ベクトルを仕草データベース22から抽出し、空間における遷移先の感情ベクトルを決定する。
仕草決定部14は、ロボットに現在設定されている遷移元の感情ベクトルEr(a、b)から、視聴映像に基づく遷移先の感情ベクトル(a、b)まで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応するエリアに割り当てられた仕草を順に決定する。
このとき、仕草決定部14は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定してもよいし、予め所定時間が指定されてもよい。
また、仕草決定部14は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定してもよいし、予め所定数が指定されてもよい。
例えば、時刻t0から時刻t4の間にEr(-1,-1)からEm(1,1)まで、4段階に感情ベクトルを遷移させる場合、時刻t0:Er(-1,-1)、時刻t1:Er(-0.5,-0.5)、時刻t2:Er(0,0)、時刻t3:Er(0.5,0.5)、時刻t4:Er(1,1)のように、遷移元の感情ベクトルErから遷移先の感情ベクトルEmに至るまでの間に3つの感情ベクトルが補間される。
これにより、仕草決定部14は、遷移元の感情ベクトルErを遷移先の感情ベクトルEmへ徐々に遷移させ、遷移途中の各段階の感情ベクトルそれぞれに応じたロボットの仕草を決定する。
図6は、本実施形態に係る感情ベクトルの段階的な遷移方法、及び対応する仕草の決定方法を例示する図である。
この例では、仕草決定部14は、時刻t0における遷移元の感情ベクトルEr(t0)から、時刻t4における遷移先の感情ベクトルEm=Er(t4)まで、4段階に感情ベクトルEr()を変化させている。
例えば、感情語「退屈な」に対応する遷移元の感情ベクトルEr(a,b)がロボットに設定されている際に、新たにテレビの実況音声等から感情語「嬉しい」が検出されると、検出された感情語に対応した遷移先の感情ベクトルEm(a,b)が決定される。
このとき、感情ベクトル間の距離R=√{(a-a)+(b-b)}と角度θが求まる。距離Rを4等分して感情ベクトルを補間する場合、(a,b)から角度θの方向に、変化量D=R/4毎に、各段階での感情ベクトルEr(t1)、Er(t2)、Er(t3)、Er(t4)=Emが決定される。
次に、決定された各段階の感情ベクトルEr(t1)、Er(t2)、Er(t3)、Er(t4)に対して、エリア毎に定義された仕草が抽出され、時刻t1、t2、t3、t4において、それぞれ仕草「悲しい1」、「リラックス1」、「喜び1」、「喜び3」が実行される。
仕草決定部14による感情ベクトルの補間方法は、これには限られず、例えば、次のようなバリエーション(1)~(3)が採用可能である。
(1)仕草決定部14は、遷移元の感情ベクトルから遷移先の感情ベクトルまでの線分を閾値以上の幅の等間隔Dに分割することにより、各段階の感情ベクトルを決定する。
(2)仕草決定部14は、予め設定又は距離R若しくは遷移元の座標等に応じて決定される遷移に要する時間を、閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定する。
(3)仕草決定部14は、仕草それぞれの動作時間の合計が遷移に要する時間に収まるように、各段階の感情ベクトルを決定する。
なお、遷移の軌跡は曲線であってもよいし、距離又は時間の分割は等間隔でなくてもよい。
仕草制御装置1は、前述のように感情ベクトルを遷移させると、更新された最新の感情ベクトルをロボット感情部23に記憶する。記憶された感情ベクトルは、ロボットの現在の感情を定義するものであり、次に感情語が抽出された際に、遷移元の感情ベクトルとなる。
図7は、本実施形態に係る仕草に対応するロボットのモータ制御データを例示する図である。
例えば、ロボットが「喜び1」の仕草を表現する場合、3000msecの動作時間で、動作1から動作3の動作を順に実行する。各動作の動作制御データは、ロボットが備えるモータそれぞれに対応する制御値が配列として記述されている。この例では、5自由度のロボットに対して要素数5の配列が用いられ、例えば、3軸の頭の回転量と、左右の腕の移動量とが指定される。
これより、動作1から動作3にかけて、「喜び1」の仕草である腕を上げていくロボットの動作が実現する。
また、ロボットの仕草は、視聴しているテレビ又は視聴者の方向を向く動作を含んでいてもよい。方向データベース24は、予め設定されたか、又はロボットにより検出されたテレビ及び視聴者の方向を保持している。方向は、例えばロボットの正面に対する水平方向及び垂直方向の角度で表される。
なお、仕草それぞれの動作時間(例えば、3000msec)は所定の範囲で調整可能であってよい。これにより、ロボットは、感情ベクトルの遷移時間内に各段階の仕草を完了させることができる。
本実施形態によれば、仕草制御装置1は、ロボットが視聴している映像から感情語を抽出することにより感情状態を定義した空間内における感情ベクトルを決定する。そして、仕草制御装置1は、現在のロボットの感情状態を示す遷移元の感情ベクトルを、視聴映像に基づいて決定した感情状態を示す遷移先の感情ベクトルへ、段階的に遷移させながら、各段階の感情ベクトルが属するエリアに応じたロボットの仕草を決定する。
これにより、仕草制御装置1は、視聴映像に対してロボットの感情状態が徐々に変化する様子を表現するための動作制御を可能とする。また、仕草制御装置1は、テレビディスプレイ等と通信せず、例えば悲しい感情状態から嬉しい感情状態に徐々に遷移するようなロボットの動作を可能とする。したがって、ユーザは、ロボットが急な感情変化を表出することによる違和感を覚えることなく、ロボットと一緒に映像を視聴できる。
仕草制御装置1は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定することで、感情の変化の度合いに応じて、適切な時間を掛けて感情変化を表現できる。
仕草制御装置1は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定することで、感情の変化の度合いに応じて、適切な動作数により感情変化を表現できる。
仕草制御装置1は、遷移元の感情ベクトルから遷移先の感情ベクトルまでの線分を閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定することで、適度な変化量で感情ベクトルを遷移させ、容易に感情変化を表現できる。
仕草制御装置1は、遷移に要する時間を閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定することで、適度な時間間隔で仕草を変化させ、かつ、容易に感情変化を表現できる。
仕草制御装置1は、仕草それぞれの動作時間の合計が感情ベクトルの遷移に要する時間に収まるように、各段階の感情ベクトルを決定することで、段階毎の仕草の動作時間が互いに干渉することなく、ロボットの感情変化を適切に表現できる。
仕草制御装置1は、感情ベクトルを定義する空間として、「快-不快」及び「覚醒-眠気」の2次元の軸で構成されたラッセル円環モデルを用いる。これにより、仕草制御装置1は、様々な感情語に対応する感情ベクトル、及び感情が変化する過程の感情ベクトル、さらには、空間内のエリア毎の仕草を容易に決定できる。この結果、仕草制御装置1は、感情語に基づく感情状態の変化を、複数の仕草を段階的に決定することで容易に表現できる。
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。
前述の実施形態では、ロボットの仕草として、主にモータ制御による空間的な動作を例示したが、これには限られない。例えば、スマートスピーカであれば、リラックス時に緩やかにLEDを点滅させたり、ゆっくりと発話させたりする等、発光デバイスの発光、又は発話の速度若しくは強弱等を感情語に対応した仕草と定義できる。この場合にも、仕草制御装置1は、感情ベクトルの遷移に応じて、発光又は発話等を徐々に変化させることで、感情変化を表現できる。
また、前述の実施形態では、感情を定義する空間として、ラッセル円環モデルを例示したが、空間は2次元には限られず、3次以上の多次元の空間であってもよい。
本実施形態では、主に仕草制御装置1の構成と動作について説明したが、本発明はこれに限られず、各構成要素を備え、ロボットの動作を制御するための仕草制御方法、又は仕草制御プログラムとして構成されてもよい。
さらに、仕草制御装置1の機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータで読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1 仕草制御装置
10 制御部
11 映像情報取得部
12 感情語抽出部
13 感情決定部
14 仕草決定部
20 記憶部
21 感情語辞書
22 仕草データベース(第1記憶部、第2記憶部)
23 ロボット感情部
24 方向データベース

Claims (3)

  1. 感情を表現する複数の軸で定義された空間における、複数の感情語の感情ベクトルを記憶する第1記憶部と、
    前記空間を分割した複数のエリアそれぞれに対して、ロボットの仕草を割り当てた第2記憶部と、
    入力文から感情語を抽出する感情語抽出部と、
    前記感情語に対応する前記空間における遷移先の感情ベクトルを決定する感情決定部と、
    前記ロボットに現在設定されている遷移元の感情ベクトルから、前記遷移先の感情ベクトルまで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応する前記エリアに割り当てられた前記仕草を順に決定する仕草決定部と、を備え
    前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間、又は感情ベクトルを遷移させる段階の数の少なくとも一方を決定する仕草制御装置。
  2. 前記空間は、「快-不快」及び「覚醒-眠気」を指標とし、2次元の軸で構成されたラッセル円環モデルである請求項1に記載の仕草制御装置。
  3. コンピュータを、請求項1又は請求項に記載の仕草制御装置として機能させるための仕草制御プログラム。
JP2018165669A 2018-09-05 2018-09-05 仕草制御装置及び仕草制御プログラム Active JP7152908B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018165669A JP7152908B2 (ja) 2018-09-05 2018-09-05 仕草制御装置及び仕草制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018165669A JP7152908B2 (ja) 2018-09-05 2018-09-05 仕草制御装置及び仕草制御プログラム

Publications (2)

Publication Number Publication Date
JP2020037155A JP2020037155A (ja) 2020-03-12
JP7152908B2 true JP7152908B2 (ja) 2022-10-13

Family

ID=69738502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018165669A Active JP7152908B2 (ja) 2018-09-05 2018-09-05 仕草制御装置及び仕草制御プログラム

Country Status (1)

Country Link
JP (1) JP7152908B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598435B1 (ko) * 2021-11-29 2023-11-07 한국과학기술연구원 사람의 감정 변화 패턴을 반영한 로봇의 감정 상태 결정 장치 및 방법

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000066239A1 (fr) 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2001162058A (ja) 1999-12-10 2001-06-19 Iesato Sato 自律移動型セラピー機器
US20020158599A1 (en) 2000-03-31 2002-10-31 Masahiro Fujita Robot device, robot device action control method, external force detecting device and external force detecting method
JP2004005422A (ja) 2002-02-09 2004-01-08 Lexer Research Inc サービス自動提供装置及びサービス自動提供方法
JP2005063163A (ja) 2003-08-13 2005-03-10 Sony Corp 撮像情報の検索再生装置および方法、コンテンツの検索再生装置および方法、並びに感情検索装置および方法
JP2009072910A (ja) 2008-12-22 2009-04-09 Nec Corp ロボット装置及びその制御方法
JP2012000694A (ja) 2010-06-14 2012-01-05 Fujitsu Ltd ロボットの制御方法、ロボットの制御プログラムおよびロボット
JP2013532418A (ja) 2010-05-26 2013-08-15 クゥアルコム・インコーポレイテッド カメラパラメータ支援型のビデオフレームレート・アップコンバージョン
JP2014074997A (ja) 2012-10-03 2014-04-24 Korea Inst Of Industrial Technology 人工感情学習装置及び方法
US20140172771A1 (en) 2012-12-13 2014-06-19 Korea Institute Of Industrial Technology Apparatus and method for selecting motion signifying artificial feeling
JP2016135530A (ja) 2015-01-23 2016-07-28 シャープ株式会社 ロボット制御装置及びロボット

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000066239A1 (fr) 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2001162058A (ja) 1999-12-10 2001-06-19 Iesato Sato 自律移動型セラピー機器
US20020158599A1 (en) 2000-03-31 2002-10-31 Masahiro Fujita Robot device, robot device action control method, external force detecting device and external force detecting method
JP2004005422A (ja) 2002-02-09 2004-01-08 Lexer Research Inc サービス自動提供装置及びサービス自動提供方法
JP2005063163A (ja) 2003-08-13 2005-03-10 Sony Corp 撮像情報の検索再生装置および方法、コンテンツの検索再生装置および方法、並びに感情検索装置および方法
JP2009072910A (ja) 2008-12-22 2009-04-09 Nec Corp ロボット装置及びその制御方法
JP2013532418A (ja) 2010-05-26 2013-08-15 クゥアルコム・インコーポレイテッド カメラパラメータ支援型のビデオフレームレート・アップコンバージョン
JP2012000694A (ja) 2010-06-14 2012-01-05 Fujitsu Ltd ロボットの制御方法、ロボットの制御プログラムおよびロボット
JP2014074997A (ja) 2012-10-03 2014-04-24 Korea Inst Of Industrial Technology 人工感情学習装置及び方法
US20140172771A1 (en) 2012-12-13 2014-06-19 Korea Institute Of Industrial Technology Apparatus and method for selecting motion signifying artificial feeling
JP2016135530A (ja) 2015-01-23 2016-07-28 シャープ株式会社 ロボット制御装置及びロボット

Also Published As

Publication number Publication date
JP2020037155A (ja) 2020-03-12

Similar Documents

Publication Publication Date Title
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
US11423909B2 (en) Word flow annotation
KR102503413B1 (ko) 애니메이션 인터랙션 방법, 장치, 기기 및 저장 매체
KR102488530B1 (ko) 동영상을 생성하기 위한 방법 및 장치
JP2020064616A (ja) 仮想ロボットのインタラクション方法、装置、記憶媒体及び電子機器
JP2022525272A (ja) 選択的な動きの描画を伴う画像表示
US10713471B2 (en) System and method for simulating facial expression of virtual facial model
JP2021501416A (ja) ビデオコンテンツを特徴付けるための深層強化学習フレームワーク
US11908056B2 (en) Sentiment-based interactive avatar system for sign language
US9661208B1 (en) Enhancing video conferences
CN111464834A (zh) 一种视频帧处理方法、装置、计算设备及存储介质
JP7379603B2 (ja) 推奨を配信する方法、デバイス、及びシステム
JP7278307B2 (ja) コンピュータプログラム、サーバ装置、端末装置及び表示方法
KR20220050106A (ko) 이미지 화질 향상 방법, 장치, 기기 및 매체
US11703944B2 (en) Modifying virtual content to invoke a target user state
US11727724B1 (en) Emotion detection
JP7152908B2 (ja) 仕草制御装置及び仕草制御プログラム
CN109445573A (zh) 一种用于虚拟化身形象互动的方法与装置
EP4375805A1 (en) Audio output
US20240171782A1 (en) Live streaming method and system based on virtual image
JP7418709B2 (ja) コンピュータプログラム、方法及びサーバ装置
US20240202984A1 (en) Systems and methods for generating images to achieve a style
US20240226734A1 (en) Using game state data for semantic understanding by an ai image generation model
JP2024088283A (ja) プログラム、方法、情報処理装置
WO2024151411A1 (en) Using game state data for semantic understanding by an ai image generation model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7152908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150