JP7471826B2 - 動画生成装置および動画生成プログラム - Google Patents
動画生成装置および動画生成プログラム Download PDFInfo
- Publication number
- JP7471826B2 JP7471826B2 JP2020002259A JP2020002259A JP7471826B2 JP 7471826 B2 JP7471826 B2 JP 7471826B2 JP 2020002259 A JP2020002259 A JP 2020002259A JP 2020002259 A JP2020002259 A JP 2020002259A JP 7471826 B2 JP7471826 B2 JP 7471826B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- character
- unit
- region
- derived
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000001508 eye Anatomy 0.000 claims description 107
- 210000000744 eyelid Anatomy 0.000 claims description 52
- 230000006870 function Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 25
- 210000005252 bulbus oculi Anatomy 0.000 claims description 21
- 230000001815 facial effect Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims 4
- 230000004397 blinking Effects 0.000 claims 1
- 238000010422 painting Methods 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 49
- 238000004891 communication Methods 0.000 description 45
- 238000012545 processing Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 23
- 238000013500 data storage Methods 0.000 description 18
- 210000000720 eyelash Anatomy 0.000 description 12
- 230000008921 facial expression Effects 0.000 description 11
- 210000004709 eyebrow Anatomy 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 210000004209 hair Anatomy 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 230000008961 swelling Effects 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Description
サーバは、ユーザにより造形されたキャラクタの静止図像としての顔画像を取得する顔画像取得部と、顔画像に含まれる特定の部分領域を変化させた画像として、複数の派生画像を自動生成する派生画像生成部と、複数の派生画像を視聴装置に送信する画像送信部と、を備える。
配信装置は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報および第1メッセージを送信する送信部と、を備える。
視聴装置は、動作情報および第1メッセージを受信する受信部と、視聴装置の画面にキャラクタを表示させ、動作情報に応じて複数の派生画像から表示対象となる派生画像を選択することにより、キャラクタを動作させる視聴キャラクタ表示部と、キャラクタの動作に合わせて第1メッセージを出力する第1メッセージ出力部と、を備える。
ライブ通信システム100においては、サーバ102に対して、複数の配信装置104a、104b・・・104m(以下、まとめて言うときや特に区別しないときには「配信装置104」と総称する)および複数の視聴装置108a、108b・・・108n(以下、まとめて言うときや特に区別しないときには「視聴装置108」と総称する)がインターネット106を介して接続される。配信装置104および視聴装置108としては、スマートフォンを想定しているが、ラップトップPCなどの汎用コンピュータであってもよい。
本実施形態においては、1つの配信装置104に対して多数の視聴装置108が同時接続できる。以下、1対多通信を前提として説明する。図2は、1人の配信者110に対して、3人の視聴者112a、112b、112c(以下、まとめて言うときや特に区別しないときには「視聴者112」と総称する)がグループで会話をする状況を想定している。
配信装置104およびサーバ102の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
視聴装置108についても同様である。
配信装置104は、ユーザインタフェース処理部116、撮像部118、データ処理部120、通信部122およびデータ格納部124を含む。
通信部122は、通信処理を担当する。撮像部118は、配信者110を撮像する。ユーザインタフェース処理部116は、配信者110からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部124はキャラクタ114の画像データを含む各種データを格納する。データ処理部120は、通信部122、ユーザインタフェース処理部116、撮像部118により取得されたデータおよびデータ格納部124に格納されているデータに基づいて各種処理を実行する。データ処理部120は、ユーザインタフェース処理部116、撮像部118、通信部122およびデータ格納部124のインタフェースとしても機能する。
入力部126は、動作検出部130および第1メッセージ取得部132を含む。動作検出部130は、撮像部118を介して配信者110の表情の変化を検出する。第1メッセージ取得部132は、第1メッセージ(音声メッセージ)を取得する。
配信キャラクタ表示部138は配信装置104に配信キャラクタ114aを表示させる。第2メッセージ出力部140は視聴者112による第2メッセージ(テキストメッセージ)を配信装置104に表示させる。
動作情報生成部144は、動作検出部130の検出結果から「動作情報」を生成する。本実施形態における動作情報とは、配信者110の表情を示す特徴ベクトル、たとえば、眉の角度、目や口の開度を示す数値など、配信者110の動作状態、特に、表情を示す数値データである。
サーバ102は、通信部152、データ処理部154およびデータ格納部156を含む。
通信部152は、通信処理を担当する。データ格納部156は各種データを格納する。データ処理部154は、通信部152により取得されたデータおよびデータ格納部156に格納されているデータに基づいて各種処理を実行する。データ処理部154は、通信部152およびデータ格納部156のインタフェースとしても機能する。
送信部210は、画像送信部214を含む。画像送信部214は、キャラクタ114の動画像を形成するための画像群(以下、まとめて「キャラクタ動画像」とよぶ)を配信装置104および視聴装置108に送信する。受信部212は、画像取得部216を含む。画像取得部216は、キャラクタ114の顔画像を含む静止画像(以下、「キャラクタ静止画像」とよぶ)を配信装置104などの外部装置から取得する。
ライブ制御部218は、配信装置104と視聴装置108のコミュニケーションを仲介・統括する。部分抽出部220は、キャラクタ静止画像から、口、目などの特定部位に対応する画像領域を抽出する。派生画像生成部222は、特定部位を対象として後述の「派生画像」を生成する。キャラクタ静止画像と複数の派生画像の集合としてキャラクタ動画像が生成されるが、詳細は図12に関連して後述する。
視聴装置108は、ユーザインタフェース処理部162、データ処理部166、通信部164およびデータ格納部168を含む。
通信部164は、通信処理を担当する。ユーザインタフェース処理部162は、視聴者112からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部168はキャラクタ動画像を含む各種データを格納する。配信装置104と視聴装置108はどちらもキャラクタ動画像をそれぞれ格納する。データ処理部166は、通信部164およびユーザインタフェース処理部162により取得されたデータおよびデータ格納部168に格納されているデータに基づいて各種処理を実行する。データ処理部166は、ユーザインタフェース処理部162、通信部164およびデータ格納部168のインタフェースとしても機能する。
入力部170は、第2メッセージ取得部174およびキャラクタ選択部176を含む。第2メッセージ取得部174は、第2メッセージ(テキストメッセージ)を取得する。キャラクタ選択部176は、会話対象となるキャラクタ114の選択を受け付ける。
視聴キャラクタ表示部180は、視聴装置108に視聴キャラクタ114bを表示させる。第1メッセージ出力部182は配信者110による第1メッセージを視聴装置108から音声出力する。第2メッセージ出力部184は視聴者112による第2メッセージを視聴装置108に画面表示させる。
以下、視聴者112は視聴キャラクタ114b1(図5参照)との会話を楽しむものとして説明する。
視聴装置108の視聴キャラクタ表示部180は、おしゃべりの相手として選ばれた視聴キャラクタ114b1を動画表示させる。視聴者112は、視聴キャラクタ114b1との会話を楽しむ。視聴者112からは配信者110の姿が見えることはない。視聴装置108の第1メッセージ出力部182は、視聴キャラクタ114b1を担当する配信者110からの音声(第1メッセージ)を出力する。視聴者112は、テキストにより視聴キャラクタ114b1へのメッセージ(第2メッセージ)を入力する。サーバ102は、第1メッセージおよび第2メッセージを配信装置104、視聴装置108の間で共有させる。
図6に示す配信者会話画面206は、配信キャラクタ114a1(視聴キャラクタ114b1に対応)を担当する配信者110の配信装置104に表示される。配信キャラクタ表示部138は、配信キャラクタ114a1を動画表示させる。視聴キャラクタ114b1と配信キャラクタ114aは同一キャラクタであり、動きも同じである。配信者110は、自らの分身である配信キャラクタ114a1の動きを配信装置104にて確認しながら複数の視聴者112(視聴キャラクタ114b1を会話の相手として選んだ視聴者112)と会話する。配信者110は、配信装置104に向かって音声にて第1メッセージを入力する。送信部148は第1メッセージをサーバ102に送信し、サーバ102のライブ制御部218は第1メッセージを複数の視聴装置108に配信する。
配信装置104の動作検出部130は、配信者110の動作を検出する(S10)。本実施形態においては110の右目および左目の開眼度合い(以下、「開眼度」とよぶ)と、口の開口度合い(以下、「開口度」とよぶ)を検出する。動作情報生成部144は、開眼度および開口度を示す数値データとして動作情報を生成する(S12)。
キャラクタ静止画像224を生成したユーザ(以下、「デザイナー」とよぶ)は、配信装置104などの端末装置からサーバ102に自作のキャラクタ静止画像224を送信する。サーバ102の画像取得部216は、キャラクタ静止画像224を取得する。
まず、キャラクタ114の左目234を対象として、キャラクタ静止画像224からキャラクタ動画像を生成する方法について説明する。上述したように、キャラクタ静止画像224の左目234からは左上眼瞼226Lおよび左眼球部228Lが抽出される。キャラクタ114が開眼しているとき、左上眼瞼226Lは「睫毛」のみが表示される。
派生画像生成部222は、キャラクタ静止画像224の上眼瞼226の位置を下降させ、半眼となった左目の画像を自動生成する。以下、このようにキャラクタ静止画像224から自動生成される画像を「派生画像」とよぶ。派生画像生成部222は、左目領域230L内において、左上眼瞼226L(睫毛)の位置を下方に移動させる。このとき、派生画像生成部222は、左上眼瞼226Lのうち左目領域230Lからはみ出す部分である外部分252は派生画像からカットする。また、派生画像生成部222は、左上眼瞼226L(睫毛)が下降したときの上部(瞼皮部236)を所定色で塗りつぶす。本実施形態においては、派生画像生成部222は瞼皮部236を所定の肌色で塗りつぶす。
派生画像生成部222は、複数の開眼度に対応して複数の派生画像、いいかえれば、左上眼瞼226Lの下降度が異なる複数の派生画像を生成する。派生画像生成部222は、上眼瞼226Lの睫毛ラインが左目領域230Lの下部まで到達し、左目領域230L全体が瞼皮部236に覆われる派生画像を生成することで左目234の閉眼を表現する。
上述したように、派生画像生成部222は開眼状態のキャラクタ静止画像224から、複数の派生画像240を生成する。キャラクタ静止画像224に派生画像240を重ねることで、さまざまな開眼度に対応したキャラクタ114の画像を用意する。1枚のキャラクタ静止画像224と複数の派生画像240の集合により、キャラクタ動画像242が形成される。右目(右目領域230R)についても同様にして、派生画像生成部222は複数の派生画像を生成する。口についても同様である(後述)。
以下、キャラクタ静止画像224から複数の派生画像を自動生成する機能を「派生画像生成機能」とよぶ。
部分抽出部220は、キャラクタ静止画像224から口領域232を抽出する。部分抽出部220は、次に、口の状態が開口または閉口のいずれであるかを判定する。開口・閉口判定も上述した画像認識モデルに基づいて判定すればよい。図13(a)に示すように閉口しているときには、派生画像生成部222は口を囲む位置に長方形の開口範囲244を設定する。開口範囲244は、キャラクタ114の顔幅X等に基づいて適正な大きさに定められる。開口範囲244のサイズも画像認識モデルに基づいて部分領域特定機能と同様の方式により設定されればよい。
サーバ102の画像取得部216は、まず、キャラクタ静止画像を取得する(S10)。部分抽出部220は、画像認識モデル(機械学習モデル)に基づいて、まず、キャラクタ静止画像から目に該当する部分領域(目領域230)を特定する(S12)。より具体的には、図8(b)に関連して説明したように、右上眼瞼226R、右眼球部228R、左上眼瞼226Lおよび左眼球部228Lの4つの部分領域を特定する。
配信者110が右目を開閉させるとき、動作検出部130は配信者110の右目の開眼度を検出する。配信者110の右目の開眼度を示す特徴データは動作情報として、配信装置104からサーバ102に送信される。また、この動作情報はサーバ102から視聴装置108にも送信される。
以上、実施形態に基づいてライブ通信システム100について説明した。
ライブ通信システム100による会話サービスを盛り上げるためには、多数の配信者110がサービスを競い合う環境を作ることが望ましい。多数の配信者110がライブ通信システム100に参加するためには、多数のキャラクタ動画像を準備する必要がある。複数のイメージ画像の差分を補完することにより、あるイメージ画像から別のイメージ画像へ徐々に変化させていくモーフィング(morphing)技術を適用する場合、複数のイメージ画像に相当する複数のキャラクタ静止画像224を準備する必要があり、手間がかかる。本実施形態においては、たった一枚のキャラクタ静止画像224を準備するだけで、キャラクタ114の目と口の変化を表現可能なキャラクタ動画像(派生画像群)を自動的に生成できる。キャラクタのデザイナーは1人のキャラクタ114のために複数のキャラクタ静止画像224を作図する必要がないため、キャラクタ動画像の生産性を高めることができる。配信者110自身がデザイナーとなり、自ら演じてみたいキャラクタ114のキャラクタ静止画像224を自作してもよい。
大量のキャラクタ静止画像224を画像認識モデル(機械学習モデル)に読み込ませ、画像認識モデルは回答データとして部分領域を特定する。ユーザ(教育者)は、キャラクタ静止画像224の部分領域を手動で指定し、これを教師データ(正解)として画像認識モデルに与える。画像認識モデルは、回答データと教師データの差分を最小化すべく内部調整、具体的には、ニューラルネットワークに含まれる中間ノードの重みを調整する。
本実施形態においては、左上眼瞼226Lの形状を変化させることなく、左目領域230L内において左上眼瞼226Lの睫毛ラインを真っ直ぐに下降させながら複数の派生画像240を生成するとして説明した。変形例として、左目領域230L内において左上眼瞼226Lを下げるごとに左上眼瞼226Lの睫毛ラインの形状を変化させてもよい。
Claims (7)
- 静止画像としての顔画像を取得する画像取得部と、
顔画像から部分領域を抽出する部分抽出部と、
顔画像に含まれる特定の前記部分領域を変化させた画像として、複数の派生画像を自動生成する派生画像生成部と、
前記複数の派生画像に基づいて、顔画像を動画表示させる画像表示部と、を備え、
前記部分抽出部は、前記部分領域として顔画像のうち開眼状態の目に対応する目領域を抽出し、更に、前記目領域から上眼瞼に対応する上眼瞼領域と眼球部に対応する眼球領域を特定し、
前記派生画像生成部は、前記上眼瞼領域を前記目領域内において複数段階を経て下降させるとともに、前記上眼瞼領域が前記眼球領域からはみだす部分を削除することにより、顔画像に含まれる開眼状態の目領域が閉眼状態に移行する過程を示す複数の派生画像を生成し、
前記画像表示部は、複数の派生画像を連続表示させることにより、瞬きを示す動画を表示させることを特徴とする動画生成装置。 - 前記派生画像生成部は、単一の静止画像としての顔画像から複数の派生画像を自動生成することを特徴とする請求項1に記載の動画生成装置。
- 前記部分抽出部は、あらかじめ用意された複数の顔画像それぞれにおいて指定される部分領域を教師データとする機械学習モデルにより、前記取得された顔画像における部分領域を抽出することを特徴とする請求項1または2に記載の動画生成装置。
- 前記静止画像としての顔画像は、実在人物を撮像した顔画像ではなく、ユーザにより造形されたキャラクタの静止図像としての顔画像であることを特徴とする請求項1から3のいずれかに記載の動画生成装置。
- 前記派生画像生成部は、前記上眼瞼領域を前記目領域内において複数段階を経て下降させるとともに前記上眼瞼に対応する部分を所定色によって塗色することにより複数の派生画像を生成することを特徴とする請求項1に記載の動画生成装置。
- 前記部分抽出部は、更に、前記部分領域として顔画像のうち口に対応する領域を抽出し、
前記派生画像生成部は、顔画像に含まれる開口状態の口領域が閉口状態に移行する過程を示す複数の派生画像、または、顔画像に含まれる閉口状態の口領域が開口状態に移行する過程を示す複数の派生画像を生成し、
前記画像表示部は、複数の派生画像を連続表示させることにより、口の開閉を示す動画を表示させることを特徴とする請求項1から5のいずれかに記載の動画生成装置。 - 静止画像としての顔画像を取得する画像取得機能と、
顔画像から部分領域を抽出する部分抽出機能と、
顔画像に含まれる特定の前記部分領域を変化させた画像として、複数の派生画像を自動生成する派生画像生成機能と、
前記複数の派生画像に基づいて、顔画像を動画表示させる画像表示機能と、をコンピュータに発揮させ、
前記部分抽出機能は、前記部分領域として顔画像のうち開眼状態の目に対応する目領域を抽出し、更に、前記目領域から上眼瞼に対応する上眼瞼領域と眼球部に対応する眼球領域を特定し、
前記派生画像生成機能は、前記上眼瞼領域を前記目領域内において複数段階を経て下降させるとともに、前記上眼瞼領域が前記眼球領域からはみだす部分を削除することにより、顔画像に含まれる開眼状態の目領域が閉眼状態に移行する過程を示す複数の派生画像を生成し、
前記画像表示機能は、複数の派生画像を連続表示させることにより、瞬きを示す動画を表示させることを特徴とする動画生成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020002259A JP7471826B2 (ja) | 2020-01-09 | 2020-01-09 | 動画生成装置および動画生成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020002259A JP7471826B2 (ja) | 2020-01-09 | 2020-01-09 | 動画生成装置および動画生成プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111102A JP2021111102A (ja) | 2021-08-02 |
JP7471826B2 true JP7471826B2 (ja) | 2024-04-22 |
Family
ID=77059904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020002259A Active JP7471826B2 (ja) | 2020-01-09 | 2020-01-09 | 動画生成装置および動画生成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7471826B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018140032A (ja) * | 2017-02-28 | 2018-09-13 | 株式会社大一商会 | 遊技機 |
JP7433617B1 (ja) | 2023-07-28 | 2024-02-20 | 17Live株式会社 | サーバおよびコンピュータプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012093913A (ja) | 2010-10-26 | 2012-05-17 | Nippon Hoso Kyokai <Nhk> | Cgキャラクタ制作装置及びcgキャラクタ制作プログラム |
JP2016009367A (ja) | 2014-06-25 | 2016-01-18 | カシオ計算機株式会社 | 画像処理装置、アニメーション生成方法及びプログラム |
JP2016012248A (ja) | 2014-06-30 | 2016-01-21 | カシオ計算機株式会社 | 動作処理装置、動作処理方法及びプログラム |
-
2020
- 2020-01-09 JP JP2020002259A patent/JP7471826B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012093913A (ja) | 2010-10-26 | 2012-05-17 | Nippon Hoso Kyokai <Nhk> | Cgキャラクタ制作装置及びcgキャラクタ制作プログラム |
JP2016009367A (ja) | 2014-06-25 | 2016-01-18 | カシオ計算機株式会社 | 画像処理装置、アニメーション生成方法及びプログラム |
JP2016012248A (ja) | 2014-06-30 | 2016-01-21 | カシオ計算機株式会社 | 動作処理装置、動作処理方法及びプログラム |
Non-Patent Citations (1)
Title |
---|
たった1枚のキャラ画像とウェブカメラで誰でもVTuberになれるシステムをGoogleのエンジニアが発表,Gigazine[online],日本,2019年12月05日,https://gigazine.net/news/20191205-vtuber-google-engineer/,2023年9月6日検索 |
Also Published As
Publication number | Publication date |
---|---|
JP2021111102A (ja) | 2021-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11348300B2 (en) | Avatar customization for optimal gaze discrimination | |
US11699255B2 (en) | Contextual-based rendering of virtual avatars | |
US11074748B2 (en) | Matching meshes for virtual avatars | |
US20220076474A1 (en) | Computer generated hair groom transfer tool | |
JP2023096152A (ja) | 眼追跡カメラからの顔の表情 | |
CN106648071A (zh) | 虚拟现实社交实现系统 | |
US20210350604A1 (en) | Audiovisual presence transitions in a collaborative reality environment | |
CN110413108B (zh) | 虚拟画面的处理方法、装置、系统、电子设备及存储介质 | |
JP7471826B2 (ja) | 動画生成装置および動画生成プログラム | |
US11645823B2 (en) | Neutral avatars | |
US11836840B2 (en) | Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters | |
CN113192132B (zh) | 眼神捕捉方法及装置、存储介质、终端 | |
Tang et al. | Alterecho: Loose avatar-streamer coupling for expressive vtubing | |
JP7479618B2 (ja) | 情報処理プログラム、情報処理方法、情報処理装置 | |
CN111968248A (zh) | 基于虚拟形象的智能化妆方法、装置、电子设备及存储介质 | |
JP6796762B1 (ja) | 仮想人物対話システム、映像生成方法、映像生成プログラム | |
JP7277145B2 (ja) | キャラクタを使ったライブ通信システム | |
WO2022257766A1 (zh) | 图像处理方法、装置、设备及介质 | |
JP7264941B2 (ja) | プログラム、情報処理装置及び情報処理方法 | |
US20230139989A1 (en) | Videoconference method and videoconference system | |
WO2023027897A1 (en) | Dynamic augmentation of stimuli based on profile of user | |
Pejsa | Effective directed gaze for character animation | |
JP2021086618A (ja) | 仮想人物対話システム、映像生成方法、映像生成プログラム | |
CN117765049A (zh) | 对齐用户表示 | |
CN115496844A (zh) | 虚拟会议空间显示方法以及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200123 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210614 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |