JP7471826B2 - 動画生成装置および動画生成プログラム - Google Patents

動画生成装置および動画生成プログラム Download PDF

Info

Publication number
JP7471826B2
JP7471826B2 JP2020002259A JP2020002259A JP7471826B2 JP 7471826 B2 JP7471826 B2 JP 7471826B2 JP 2020002259 A JP2020002259 A JP 2020002259A JP 2020002259 A JP2020002259 A JP 2020002259A JP 7471826 B2 JP7471826 B2 JP 7471826B2
Authority
JP
Japan
Prior art keywords
image
character
unit
region
derived
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020002259A
Other languages
English (en)
Other versions
JP2021111102A (ja
Inventor
大地 塚本
Original Assignee
株式会社Iriam
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Iriam filed Critical 株式会社Iriam
Priority to JP2020002259A priority Critical patent/JP7471826B2/ja
Publication of JP2021111102A publication Critical patent/JP2021111102A/ja
Application granted granted Critical
Publication of JP7471826B2 publication Critical patent/JP7471826B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 令和1年9月25日および令和1年9月26日に、Unite Tokyo 2019にて発表。
本発明は、動画像を生成する技術、に関する。
スマートフォンの普及にともない、SNS(Social Networking Service)を介したコミュニケーションが一般化している。SNSでは、テキストだけでなく写真や動画像などさまざまなコンテンツを気軽に共有できる。SNSは、人と人との「絆(つながり)」を強く感じさせるツールである。
一方、コンピュータゲームの分野においては、ユーザがキャラクタ(コンピュータ)と会話をしながらプレイするゲームがある。ユーザは、現実には存在しないキャラクタに対して強い思い入れをもつことが多い。
特開2012-231281号公報
キャラクタは、ゲームデザイナーによってつくられた仮想的存在であり、人間のような実在感をもたない。その一方、キャラクタは、非実在性に起因する独特の魅力をもつ。本発明者らは、キャラクタ特有の魅力と人間同士特有の「リアルなつながり」の双方を取り込むことにより、新しいコミュニケーション方法を提案できるのではないかと考えた。
具体的には、配信者(人間)と視聴者(人間)の会話を想定する。配信者は、ちょうどテレビアニメの声優のようにキャラクタの代弁者となり、キャラクタを通して視聴者と会話する。このようなコミュニケーションを想定した場合、視聴者はキャラクタと言葉以上の関わりをもつことができれば、視聴者のキャラクタに対する思い入れをいっそう強めることができると考えられる。
配信者の化身であるキャラクタは、表情を豊かに変化させることが望ましい。また、多数の配信者が多数のキャラクタを通してサービスを提供することでサービス水準も向上していくと考えられる。本発明者らはこのような背景から、活き活きとしたキャラクタを生み出しやすい環境、いいかえれば、キャラクタの動画像を効率的に生成する仕組みが必要であると考えた。
本発明は、上記認識に基づいて完成された発明であり、その主たる目的は、静止画像としての顔画像から動画像を生成する技術、特に、生成された動画像に基づいてキャラクタと視聴者の非言語コミュニケーションを実現する技術、を提供することにある。
本発明のある態様における動画生成装置は、静止画像としての顔画像を取得する画像取得部と、顔画像に含まれる特定の部分領域を変化させた画像として、複数の派生画像を自動生成する派生画像生成部と、複数の派生画像に基づいて、顔画像を動画表示させる画像表示部と、を備える。
本発明のある態様におけるライブ通信システムは、配信者により操作される配信装置、視聴者により操作される視聴装置およびサーバを含む。
サーバは、ユーザにより造形されたキャラクタの静止図像としての顔画像を取得する顔画像取得部と、顔画像に含まれる特定の部分領域を変化させた画像として、複数の派生画像を自動生成する派生画像生成部と、複数の派生画像を視聴装置に送信する画像送信部と、を備える。
配信装置は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報および第1メッセージを送信する送信部と、を備える。
視聴装置は、動作情報および第1メッセージを受信する受信部と、視聴装置の画面にキャラクタを表示させ、動作情報に応じて複数の派生画像から表示対象となる派生画像を選択することにより、キャラクタを動作させる視聴キャラクタ表示部と、キャラクタの動作に合わせて第1メッセージを出力する第1メッセージ出力部と、を備える。
本発明によれば、静止画像としての顔画像から豊かな表情変化をつくりだしやすくなる。
ライブ通信システムのハードウェア構成図である。 ライブ通信システムによる会話サービスを説明するための模式図である。 配信装置およびサーバの機能ブロック図である。 視聴装置の機能ブロック図である。 視聴装置に表示される視聴者会話画面の画面図である。 配信装置に表示される配信者会話画面の画面図である。 配信装置および視聴装置の双方においてキャラクタを表示させる処理のシーケンス図である。 図8(a)は、キャラクタ静止画像のうち、キャラクタの顔の拡大図である。図8(b)は、キャラクタ静止画像から抽出された特定部位を示す図である。 キャラクタ静止画像における左目を示す図である。 左目において半眼となったときの状態を示す図である。 左目において閉眼となったときの状態を示す図である。 左目のキャラクタ動画像を示す図である。 図13(a)は、キャラクタの閉口時の顔の拡大図である。図13(b)は、キャラクタの開口時の顔の拡大図である。 派生画像の生成過程を示すフローチャートである。 左上眼瞼の低下方法の別例を説明するための図である。
図1は、ライブ通信システム100のハードウェア構成図である。
ライブ通信システム100においては、サーバ102に対して、複数の配信装置104a、104b・・・104m(以下、まとめて言うときや特に区別しないときには「配信装置104」と総称する)および複数の視聴装置108a、108b・・・108n(以下、まとめて言うときや特に区別しないときには「視聴装置108」と総称する)がインターネット106を介して接続される。配信装置104および視聴装置108としては、スマートフォンを想定しているが、ラップトップPCなどの汎用コンピュータであってもよい。
配信装置104を使用するユーザを「配信者」とよぶ。視聴装置108を使用するユーザを「視聴者」とよぶ。配信者がサービスの提供者となり、視聴者がサービスの享受者となる。
図2は、ライブ通信システム100による会話サービスを説明するための模式図である。
本実施形態においては、1つの配信装置104に対して多数の視聴装置108が同時接続できる。以下、1対多通信を前提として説明する。図2は、1人の配信者110に対して、3人の視聴者112a、112b、112c(以下、まとめて言うときや特に区別しないときには「視聴者112」と総称する)がグループで会話をする状況を想定している。
配信者110にはあらかじめキャラクタが対応づけられる。配信装置104には配信者110に対応づけられる配信キャラクタ114aが表示される。視聴装置108にも視聴キャラクタ114bが表示される。配信キャラクタ114aと視聴キャラクタ114bはまったく同じキャラクタである。以下、配信キャラクタ114aと視聴キャラクタ114bを特に区別しないときには単に「キャラクタ114」とよぶ。
配信者110が配信装置104の前でしゃべると、その音声データは視聴装置108に一斉送信される。配信装置104は配信者の口の動きを検出し、配信キャラクタ114aの口も動かす。また、これに連動して、視聴装置108は視聴キャラクタ114bの口も動かす。視聴者112には、配信者ではなく、あたかも視聴キャラクタ114bが自らの意思でしゃべっているように見える。いわば、配信者110は「声優」としてキャラクタ114の代弁者となる。以下、配信者110により入力される音声メッセージを「第1メッセージ」とよぶ。
視聴者112は、テキストにて視聴装置108にメッセージ(以下、「第2メッセージ」とよぶ)を入力する。第2メッセージは、配信装置104および視聴装置108に一斉送信される。視聴者112は、視聴キャラクタ114bの話を聞きながら、第2メッセージを入力することでキャラクタ114(配信者110)と会話する。
キャラクタ114の基本設定(キャラクタ114の容姿や表情変化の豊かさなど)と配信者110の声質や会話力によって、キャラクタ114の個性がかたちづくられる。
図3は、配信装置104およびサーバ102の機能ブロック図である。
配信装置104およびサーバ102の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
視聴装置108についても同様である。
(配信装置104)
配信装置104は、ユーザインタフェース処理部116、撮像部118、データ処理部120、通信部122およびデータ格納部124を含む。
通信部122は、通信処理を担当する。撮像部118は、配信者110を撮像する。ユーザインタフェース処理部116は、配信者110からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部124はキャラクタ114の画像データを含む各種データを格納する。データ処理部120は、通信部122、ユーザインタフェース処理部116、撮像部118により取得されたデータおよびデータ格納部124に格納されているデータに基づいて各種処理を実行する。データ処理部120は、ユーザインタフェース処理部116、撮像部118、通信部122およびデータ格納部124のインタフェースとしても機能する。
通信部122は、送信部148と受信部150を含む。
ユーザインタフェース処理部116は、配信者110からの入力を受け付ける入力部126と配信者110に各種情報を出力する出力部128を含む。
入力部126は、動作検出部130および第1メッセージ取得部132を含む。動作検出部130は、撮像部118を介して配信者110の表情の変化を検出する。第1メッセージ取得部132は、第1メッセージ(音声メッセージ)を取得する。
出力部128は、配信キャラクタ表示部138および第2メッセージ出力部140を含む。
配信キャラクタ表示部138は配信装置104に配信キャラクタ114aを表示させる。第2メッセージ出力部140は視聴者112による第2メッセージ(テキストメッセージ)を配信装置104に表示させる。
データ処理部120は、動作情報生成部144を含む。
動作情報生成部144は、動作検出部130の検出結果から「動作情報」を生成する。本実施形態における動作情報とは、配信者110の表情を示す特徴ベクトル、たとえば、眉の角度、目や口の開度を示す数値など、配信者110の動作状態、特に、表情を示す数値データである。
(サーバ102)
サーバ102は、通信部152、データ処理部154およびデータ格納部156を含む。
通信部152は、通信処理を担当する。データ格納部156は各種データを格納する。データ処理部154は、通信部152により取得されたデータおよびデータ格納部156に格納されているデータに基づいて各種処理を実行する。データ処理部154は、通信部152およびデータ格納部156のインタフェースとしても機能する。
通信部152は、送信部210と受信部212を含む。
送信部210は、画像送信部214を含む。画像送信部214は、キャラクタ114の動画像を形成するための画像群(以下、まとめて「キャラクタ動画像」とよぶ)を配信装置104および視聴装置108に送信する。受信部212は、画像取得部216を含む。画像取得部216は、キャラクタ114の顔画像を含む静止画像(以下、「キャラクタ静止画像」とよぶ)を配信装置104などの外部装置から取得する。
データ処理部154は、ライブ制御部218、部分抽出部220および派生画像生成部222を含む。
ライブ制御部218は、配信装置104と視聴装置108のコミュニケーションを仲介・統括する。部分抽出部220は、キャラクタ静止画像から、口、目などの特定部位に対応する画像領域を抽出する。派生画像生成部222は、特定部位を対象として後述の「派生画像」を生成する。キャラクタ静止画像と複数の派生画像の集合としてキャラクタ動画像が生成されるが、詳細は図12に関連して後述する。
データ格納部156は、複数のキャラクタ114それぞれのキャラクタ動画像を格納するキャラクタ格納部158を含む。このほか、データ格納部156は後述の機械学習モデル(以下、「画像認識モデル」とよぶ)も格納する。
図4は、視聴装置108の機能ブロック図である。
視聴装置108は、ユーザインタフェース処理部162、データ処理部166、通信部164およびデータ格納部168を含む。
通信部164は、通信処理を担当する。ユーザインタフェース処理部162は、視聴者112からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部168はキャラクタ動画像を含む各種データを格納する。配信装置104と視聴装置108はどちらもキャラクタ動画像をそれぞれ格納する。データ処理部166は、通信部164およびユーザインタフェース処理部162により取得されたデータおよびデータ格納部168に格納されているデータに基づいて各種処理を実行する。データ処理部166は、ユーザインタフェース処理部162、通信部164およびデータ格納部168のインタフェースとしても機能する。
通信部122は、送信部186と受信部190を含む。
ユーザインタフェース処理部162は、視聴者112からの入力を受け付ける入力部170と視聴者112に各種情報を出力する出力部172を含む。
入力部170は、第2メッセージ取得部174およびキャラクタ選択部176を含む。第2メッセージ取得部174は、第2メッセージ(テキストメッセージ)を取得する。キャラクタ選択部176は、会話対象となるキャラクタ114の選択を受け付ける。
出力部172は、視聴キャラクタ表示部180、第1メッセージ出力部182および第2メッセージ出力部184を含む。
視聴キャラクタ表示部180は、視聴装置108に視聴キャラクタ114bを表示させる。第1メッセージ出力部182は配信者110による第1メッセージを視聴装置108から音声出力する。第2メッセージ出力部184は視聴者112による第2メッセージを視聴装置108に画面表示させる。
ライブ通信サービスの開始時において、サーバ102のライブ制御部218は、視聴装置108にキャラクタ選択画面(図示せず)を表示させる。視聴者112は、視聴装置108に表示されたキャラクタ選択画面において会話したい視聴キャラクタ114b(配信者110)を選ぶ。ライブ制御部218は、会話可能な状態(スタンバイ状態)にある配信者110に対応するキャラクタ114を会話可能なキャラクタとしてキャラクタ選択画面に提示する。キャラクタ選択部176は視聴キャラクタ114bの選択を受け付ける。
以下、視聴者112は視聴キャラクタ114b1(図5参照)との会話を楽しむものとして説明する。
図5は、視聴装置108に表示される視聴者会話画面196の画面図である。
視聴装置108の視聴キャラクタ表示部180は、おしゃべりの相手として選ばれた視聴キャラクタ114b1を動画表示させる。視聴者112は、視聴キャラクタ114b1との会話を楽しむ。視聴者112からは配信者110の姿が見えることはない。視聴装置108の第1メッセージ出力部182は、視聴キャラクタ114b1を担当する配信者110からの音声(第1メッセージ)を出力する。視聴者112は、テキストにより視聴キャラクタ114b1へのメッセージ(第2メッセージ)を入力する。サーバ102は、第1メッセージおよび第2メッセージを配信装置104、視聴装置108の間で共有させる。
第2メッセージ出力部184はメッセージ領域198に第2メッセージをテキスト表示させる。1人の配信者110が複数の視聴者112と同時並行にて会話する方式であるため、サーバ102は各視聴者112の第2メッセージを配信装置104および複数の視聴者112に一斉配信する。視聴者112は、メッセージ領域198により自分の第2メッセージだけでなく他の視聴者112の第2メッセージも視認できる。第2メッセージ出力部184は第2メッセージを受信順に並べて表示させる。
図6は、配信装置104に表示される配信者会話画面206の画面図である。
図6に示す配信者会話画面206は、配信キャラクタ114a1(視聴キャラクタ114b1に対応)を担当する配信者110の配信装置104に表示される。配信キャラクタ表示部138は、配信キャラクタ114a1を動画表示させる。視聴キャラクタ114b1と配信キャラクタ114aは同一キャラクタであり、動きも同じである。配信者110は、自らの分身である配信キャラクタ114a1の動きを配信装置104にて確認しながら複数の視聴者112(視聴キャラクタ114b1を会話の相手として選んだ視聴者112)と会話する。配信者110は、配信装置104に向かって音声にて第1メッセージを入力する。送信部148は第1メッセージをサーバ102に送信し、サーバ102のライブ制御部218は第1メッセージを複数の視聴装置108に配信する。
第2メッセージ出力部140は、視聴者112からの第2メッセージをメッセージ領域198に時系列順にて表示させる。配信者110はメッセージ領域198に次々に表示される第2メッセージをみながら不特定多数の視聴者112に話しかける。配信装置104のカメラ208(撮像部118)は、配信者110を撮像する。動作検出部130は、撮像画像から配信者110の表情を検出し、動作情報生成部144は動作情報を生成する。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114a1の動きを決定する。また、詳細は後述するが視聴キャラクタ114b1も同じ動作情報に基づいて視聴装置108にて動画表示される。
図7は、配信装置104および視聴装置108の双方においてキャラクタ114を表示させる処理のシーケンス図である。
配信装置104の動作検出部130は、配信者110の動作を検出する(S10)。本実施形態においては110の右目および左目の開眼度合い(以下、「開眼度」とよぶ)と、口の開口度合い(以下、「開口度」とよぶ)を検出する。動作情報生成部144は、開眼度および開口度を示す数値データとして動作情報を生成する(S12)。
配信装置104の送信部148は、サーバ102経由にて、各視聴装置108に動作情報を送信する(S14)。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114a1の動画像を生成し(S16)、配信装置104に配信キャラクタ114a1を動画表示させる(S18)。
一方、視聴装置108の視聴キャラクタ表示部180も、受信された動作情報に基づいて視聴キャラクタ114b1の動画像を生成し(S20)、視聴装置108に視聴キャラクタ114b1を動画表示させる(S22)。
配信キャラクタ114a1と視聴キャラクタ114b1は、同一のキャラクタであり、かつ、同一の動作情報に基づいて動きが決まるため、配信装置104および視聴装置108それぞれにおいて配信キャラクタ114a1と視聴キャラクタ114bは同じように表情を変化させる。
配信装置104は、キャラクタ114の動画像(キャラクタ画像)そのものを視聴装置108に送信しているのではなく、キャラクタ114の動作を定義する動作情報のみを送信している。動画像そのものを送信するよりも送信データ量が少ないため、配信キャラクタ114a1と視聴キャラクタ114b1それぞれの動きを速やかに連動させやすい。いいかえれば、動作情報が配信キャラクタ114a1の動きとして反映されるまでの時間と、同じ動作情報が視聴キャラクタ114b1の動きとして反映されるまでの時間の差分が小さいため、視聴者112はキャラクタ114(配信者110)との快適な会話を楽しむことができる。
第1メッセージ(音声メッセージ)と動作情報は一体化して配信装置104から視聴装置108に送信されてもよい。この場合には、視聴キャラクタ表示部180は、視聴キャラクタ114b1の動作と音声メッセージがずれにくくなる。また、動画像そのものではなく、動画像を決定するための動作情報を送信することは、インターネット106に対する通信負荷を抑制する上でも有効である。
図8(a)は、キャラクタ静止画像224のうち、キャラクタ114の顔の拡大図である。図8(b)は、キャラクタ静止画像224から抽出された特定部位を示す図である。
キャラクタ静止画像224を生成したユーザ(以下、「デザイナー」とよぶ)は、配信装置104などの端末装置からサーバ102に自作のキャラクタ静止画像224を送信する。サーバ102の画像取得部216は、キャラクタ静止画像224を取得する。
部分抽出部220はキャラクタ静止画像224から、特定部位の画像領域(以下、「部分領域」とよぶ)を特定する。以下、キャラクタ静止画像224から部分領域を特定する機能を「部分特定機能」とよぶ。
本実施形態の部分抽出部220は、キャラクタ114の口に対応する口領域232、右目に対応する右目領域230R、左目に対応する左目領域230Lを部分領域として特定する。以下、右目領域230Rと左目領域230Lをまとめていうときや特に区別しないときには単に「目領域230」とよぶ。目領域230からは、更に、上眼瞼226と眼球部228を特定する。右目領域230Rは、右上眼瞼226Rおよび右眼球部228Rを含む。左目領域230Lは、左上眼瞼226Lと左眼球部228Lを含む。上眼瞼226は、目のうち、睫毛および上瞼皮に対応する。眼球部228は、目のうち、眼球および下眼瞼に対応する。
サーバ102のデータ格納部156は、部分特定機能を実現するための機械学習モデルである画像認識モデルを格納する。ライブ通信サービスの開始前に、あらかじめ多種多様なキャラクタ静止画像224を画像認識モデルに学習させておく。本実施形態の画像認識モデルとしては、多数の中間層を有するニューラルネットワーク・モデル(ディープラーニング・モデル)を想定する。
まず、あるキャラクタ静止画像224を画像認識モデルの入力データとして与えるとともに、キャラクタ静止画像224の部分領域を教師データとして指定する。画像認識モデルは、既知の教師あり学習方式により、内部パラメータを調整することでキャラクタ静止画像224から部分領域を抽出する方法を学習する。別のキャラクタ静止画像224についても同様の処理を繰り返すことで画像認識モデルの学習を繰り返す。
画像認識モデルは、回答(出力データ)と正解(教師データ)の差分に基づいて誤差逆伝播法(Backpropagation)等の修正アルゴリズムにより、内部パラメータを調整する。数万から数十万種類のキャラクタ静止画像224を画像認識モデルに入力し、それぞれのキャラクタ静止画像224について回答(教師データ)を与えて内部パラメータの修正を繰り返すことにより、画像認識モデルの部分特定機能を鍛えていく。
本実施形態においては、部分抽出部220は、右上眼瞼226R、左上眼瞼226L、右眼球部228R、左眼球部228L、口領域232の5領域を部分領域として抽出するものとして説明する。このほかにも、鼻や眉毛、髪の毛など他の部分領域を抽出してもよい。
図9は、キャラクタ静止画像224における左目234を示す図である。
まず、キャラクタ114の左目234を対象として、キャラクタ静止画像224からキャラクタ動画像を生成する方法について説明する。上述したように、キャラクタ静止画像224の左目234からは左上眼瞼226Lおよび左眼球部228Lが抽出される。キャラクタ114が開眼しているとき、左上眼瞼226Lは「睫毛」のみが表示される。
図10は、左目234において半眼となったときの状態を示す図である。
派生画像生成部222は、キャラクタ静止画像224の上眼瞼226の位置を下降させ、半眼となった左目の画像を自動生成する。以下、このようにキャラクタ静止画像224から自動生成される画像を「派生画像」とよぶ。派生画像生成部222は、左目領域230L内において、左上眼瞼226L(睫毛)の位置を下方に移動させる。このとき、派生画像生成部222は、左上眼瞼226Lのうち左目領域230Lからはみ出す部分である外部分252は派生画像からカットする。また、派生画像生成部222は、左上眼瞼226L(睫毛)が下降したときの上部(瞼皮部236)を所定色で塗りつぶす。本実施形態においては、派生画像生成部222は瞼皮部236を所定の肌色で塗りつぶす。
このように、派生画像生成部222は、左上眼瞼226L(睫毛)を左目領域230Lの範囲内にて下降させ、睫毛の上部である瞼皮部236を肌色に塗色した派生画像を生成する。このとき、瞳は動かさない。瞼皮部236の色は、キャラクタ114の肌色、たとえば、頬部分の色と同一色としてもよい。あるいは、瞼皮部236の色は、キャラクタ114の頬、額、顎、首などの複数の所定領域の色の平均色としてもよい。このようは制御方法により、派生画像生成部222は左目234における開眼状態の左目から、半眼状態の派生画像を自動的に生成する。
図11は、左目234において閉眼となったときの状態を示す図である。
派生画像生成部222は、複数の開眼度に対応して複数の派生画像、いいかえれば、左上眼瞼226Lの下降度が異なる複数の派生画像を生成する。派生画像生成部222は、上眼瞼226Lの睫毛ラインが左目領域230Lの下部まで到達し、左目領域230L全体が瞼皮部236に覆われる派生画像を生成することで左目234の閉眼を表現する。
図12は、左目234のキャラクタ動画像242を示す図である。
上述したように、派生画像生成部222は開眼状態のキャラクタ静止画像224から、複数の派生画像240を生成する。キャラクタ静止画像224に派生画像240を重ねることで、さまざまな開眼度に対応したキャラクタ114の画像を用意する。1枚のキャラクタ静止画像224と複数の派生画像240の集合により、キャラクタ動画像242が形成される。右目(右目領域230R)についても同様にして、派生画像生成部222は複数の派生画像を生成する。口についても同様である(後述)。
1枚のキャラクタ静止画像224から、右目に関する複数の派生画像240、左目に関する複数の派生画像240および口に関する複数の派生画像240の3種類の画像グループが形成される。これら3種類の画像グループに含まれる多数枚の派生画像240と1枚のキャラクタ静止画像224を組み合わせることにより、キャラクタ114の右目の開眼度、左目の開眼度および口の開口度を多様に表現できる。
以下、キャラクタ静止画像224から複数の派生画像を自動生成する機能を「派生画像生成機能」とよぶ。
図13(a)は、キャラクタ114の閉口時の顔の拡大図である。図13(b)は、114の開口時の顔の拡大図である。
部分抽出部220は、キャラクタ静止画像224から口領域232を抽出する。部分抽出部220は、次に、口の状態が開口または閉口のいずれであるかを判定する。開口・閉口判定も上述した画像認識モデルに基づいて判定すればよい。図13(a)に示すように閉口しているときには、派生画像生成部222は口を囲む位置に長方形の開口範囲244を設定する。開口範囲244は、キャラクタ114の顔幅X等に基づいて適正な大きさに定められる。開口範囲244のサイズも画像認識モデルに基づいて部分領域特定機能と同様の方式により設定されればよい。
派生画像生成部222は、口領域232を上下左右に輪状に拡げることで複数の派生画像240を生成する。派生画像生成部222は、開口時の口の中を赤系統の所定色により塗りつぶす。派生画像生成部222は、開口サイズが開口範囲244に達するまでキャラクタ114を開口させる(図13(b))。
一方、キャラクタ静止画像224においてキャラクタ114が開口しているときには、派生画像生成部222は、キャラクタ静止画像224の口を徐々に閉口させつつ複数の派生画像240を作成すればよい。このような制御方法により、キャラクタ静止画像224に基づいて閉口状態から開口状態までの複数の派生画像240を生成する。
複数のキャラクタ静止画像224を対象として機械学習させることにより、キャラクタ静止画像224ごとに適正サイズの開口範囲244を決定すればよい。別の方法として、部分抽出部220は、キャラクタ114の顔幅Xと、鼻から顎までの距離Yを算出し、開口範囲244の横幅X1をX×n1、縦幅Y1をY×n2と設定してもよい。ここで、n1およびn2はあらかじめ設定された所定倍率である。
図14は、派生画像の生成過程を示すフローチャートである。
サーバ102の画像取得部216は、まず、キャラクタ静止画像を取得する(S10)。部分抽出部220は、画像認識モデル(機械学習モデル)に基づいて、まず、キャラクタ静止画像から目に該当する部分領域(目領域230)を特定する(S12)。より具体的には、図8(b)に関連して説明したように、右上眼瞼226R、右眼球部228R、左上眼瞼226Lおよび左眼球部228Lの4つの部分領域を特定する。
部分抽出部220は、キャラクタ114の口に対応する部分領域(口領域232)を特定する(S14)。派生画像生成部222は、右目領域230Rおよび左目領域230Lのそれぞれについて派生画像群を生成する(S16)。また、派生画像生成部222は、口領域232について派生画像群を生成する(S18)。派生画像生成部222は、右目、左目、口それぞれについて形成される派生画像群とキャラクタ静止画像をまとめてキャラクタ動画像として登録する。サーバ102の画像送信部214は、生成されたキャラクタ動画像を配信装置104および視聴装置108の双方に送信する(S20)。
キャラクタ動画像の送信後、このキャラクタ114によるライブ通信サービスが可能となる。
配信者110が右目を開閉させるとき、動作検出部130は配信者110の右目の開眼度を検出する。配信者110の右目の開眼度を示す特徴データは動作情報として、配信装置104からサーバ102に送信される。また、この動作情報はサーバ102から視聴装置108にも送信される。
配信装置104の配信キャラクタ表示部138は、動作情報に含まれる右目の開眼度に対応する派生画像240を選択し、キャラクタ静止画像224の右目部分に選択した派生画像240を重畳する。たとえば、配信者110が右目を半眼にしたときには、配信キャラクタ表示部138はキャラクタ静止画像224の右目部分に半眼状態の派生画像240を重畳する。
一方、視聴装置108の視聴キャラクタ表示部180も、動作情報に含まれる右目の開眼度に対応する派生画像240を選択し、キャラクタ静止画像224の右目部分に選択した派生画像240を重畳する。このような制御方法によれば、配信者110の右目の動き(開眼度)に対して、配信キャラクタ114aおよび視聴キャラクタ114bの右目の動き(開眼度)を追従させることができる。左目および口に関しても同様である。
<総括>
以上、実施形態に基づいてライブ通信システム100について説明した。
ライブ通信システム100による会話サービスを盛り上げるためには、多数の配信者110がサービスを競い合う環境を作ることが望ましい。多数の配信者110がライブ通信システム100に参加するためには、多数のキャラクタ動画像を準備する必要がある。複数のイメージ画像の差分を補完することにより、あるイメージ画像から別のイメージ画像へ徐々に変化させていくモーフィング(morphing)技術を適用する場合、複数のイメージ画像に相当する複数のキャラクタ静止画像224を準備する必要があり、手間がかかる。本実施形態においては、たった一枚のキャラクタ静止画像224を準備するだけで、キャラクタ114の目と口の変化を表現可能なキャラクタ動画像(派生画像群)を自動的に生成できる。キャラクタのデザイナーは1人のキャラクタ114のために複数のキャラクタ静止画像224を作図する必要がないため、キャラクタ動画像の生産性を高めることができる。配信者110自身がデザイナーとなり、自ら演じてみたいキャラクタ114のキャラクタ静止画像224を自作してもよい。
本実施形態においては、右目、左目および口という3つの特定部位について、3種類の派生画像群が生成される。3種類の派生画像群からそれぞれ1枚ずつ派生画像を選んで組合せることにより、たった1枚のキャラクタ静止画像224に基づいて多様な表情を作ることができる。いいかえれば、右目の開眼度、左目の開眼度および口の開口度それぞれを独立に制御できる。このあめ、キャラクタ114が右目を半眼にし、左目を大きく見開き、口は閉じる、といった複雑な表情であっても簡単に作成することができる。
本実施形態においては、画像認識モデルにより、キャラクタ静止画像224から口や目などの部分領域を自動的に特定できる。特に、女の子を表すキャラクタ114は目が大きく睫毛を濃く描かれる傾向にあるため、上眼瞼226と眼球部228を高精度で特定しやすい。
なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
本実施形態においては、サーバ102が「動画生成装置」としての主要機能を担う。動画生成装置としての機能の一部は、サーバ102だけでなく、視聴装置108等の他の装置が担当してもよい。たとえば、部分特定機能、派生画像生成機能をサーバ102以外の装置が担ってもよい。また、動画表示機能は、配信装置104および視聴装置108が担ってもよいし、サーバ102自身が動画表示機能を実現してもよい。
[変形例]
大量のキャラクタ静止画像224を画像認識モデル(機械学習モデル)に読み込ませ、画像認識モデルは回答データとして部分領域を特定する。ユーザ(教育者)は、キャラクタ静止画像224の部分領域を手動で指定し、これを教師データ(正解)として画像認識モデルに与える。画像認識モデルは、回答データと教師データの差分を最小化すべく内部調整、具体的には、ニューラルネットワークに含まれる中間ノードの重みを調整する。
デザイナーが新たなキャラクタ静止画像224を作成したとき、画像認識モデルはこのキャラクタ静止画像224から部分領域を特定し、デザイナーに提示する。デザイナーは画像認識モデルが特定した部分領域を手動で修正してもよい。このような制御方法によれば、画像認識モデルにより部分領域を特定し、デザイナーは手動で部分領域を補正することで部分領域の抽出精度を高めることができる。
変形例として、画像認識モデルを使用することなくデザイナーが部分領域をキャラクタ静止画像224から直接指定してもよい。たとえば、デザイナーはキャラクタ静止画像224において右上眼瞼226Rに対応する部分領域で指定し、これをサーバ102に通知してもよい。画像認識モデルによる部分特定機能を使わないためデザイナーの手間は増えるが、デザイナーは画像認識モデルに頼ることなくキャラクタ静止画像224の部分領域を精密に設定できる。
瞬きのように、右目と左目は同時に開閉してもよい。このほかにも、ウィンクのように片目を開き、片目を閉じる動きを表現することもできる。
動作対象となる部分領域は、目、口以外にも設定可能である。たとえば、眉毛を部分領域として特定し、配信者110の眉毛の角度を動作情報として検出してもよい。派生画像生成部222は、あらかじめ複数の眉毛の角度に対応して複数の派生画像240を生成しておく。配信キャラクタ表示部138等は配信者110の眉毛の動きに応じてキャラクタ114の眉毛の形を変化させてもよい。キャラクタ114の頬を部分領域として設定してもよい。配信者110の頬の膨らみ具合を動作情報として検出し、キャラクタ114のフェイスラインを配信者110の頬に連動させて変化させてもよい。この場合には、派生画像生成部222は、あらかじめ複数段階の頬の膨らみに対応して複数の派生画像240を生成しておけばよい。
眉間を部分領域として特定してもよい。配信者110の眉間の皺を動作情報として検出し、配信者110の眉間に皺をしめす筋目を入れることで、配信者110とキャラクタ114の表情を連動させてもよい。
口に関しては、開閉だけではなく、引き結ぶ、両方の口角を上げる、片方の口角を上げる、両方の口角を下げるなど複数のパターンに対応した派生画像群を生成しておき、配信キャラクタ表示部138等は、配信者110の口の形状に合わせてキャラクタ114の口を変化させてもよい。
部分抽出部220は、キャラクタ静止画像224からキャラクタ114の頭部全体を部分領域として抽出し、派生画像生成部222はキャラクタ114が頭部を傾ける複数の派生画像240を生成してもよい。動作検出部130は、配信者110の首の傾きを動作情報として検出し、配信キャラクタ表示部138等は配信者110の首の傾きに応じてキャラクタ114の首の傾きを変化させてもよい。
部分抽出部220は、キャラクタ静止画像224からキャラクタ114の髪に対応する部分領域を抽出してもよい。派生画像生成部222は、髪の揺れや乱れに対応する複数の派生画像240を生成してもよい。キャラクタ114の表示中において、配信キャラクタ表示部138等はキャラクタ114の髪を揺らせることにより、配信者110の動作に変化がないときでもキャラクタ114の髪が風に吹かれているかのような動きを表現してもよい。
部分抽出部220は、目領域230から瞳に対応する部分領域を抽出してもよい。派生画像生成部222は、目領域230内部において瞳を上下左右に移動させた派生画像を生成してもよい。配信キャラクタ表示部138等は、配信者110の瞳の位置(視線方向)を示す動作情報に基づいて、キャラクタ114の瞳の位置を変化させてもよい。
本実施形態においては、派生画像240の瞼皮部236を肌色系の所定色で塗色するとして説明した。肌色系に限らず、青系などアイシャドーを模した他の色により瞼皮部236を塗色してもよい。
図15は、左上眼瞼226Lの低下方法の別例を説明するための図である。
本実施形態においては、左上眼瞼226Lの形状を変化させることなく、左目領域230L内において左上眼瞼226Lの睫毛ラインを真っ直ぐに下降させながら複数の派生画像240を生成するとして説明した。変形例として、左目領域230L内において左上眼瞼226Lを下げるごとに左上眼瞼226Lの睫毛ラインの形状を変化させてもよい。
具体的には、左目234の目頭と目尻を結ぶ曲線250を設定し、この曲線に合わせて左上眼瞼226Lの睫毛ラインの形状を変化させてもよい。派生画像生成部222は、開眼度が小さくなるほど(閉眼に近づくほど)、曲線250を上に凸から下に凸に変化させる。派生画像生成部222は、左上眼瞼226Lの睫毛ラインを曲線250に沿った形状に変化させる、このような制御方法によれば、開眼度に応じて左上眼瞼226Lの形状が変化するため、眼球の僅かな丸みを表現できる。右目についても同様である。
部分抽出部220は、キャラクタ静止画像224におけるキャラクタ114の開口度を判定してもよい。部分抽出部220は、まず、口領域232を特定し、開口範囲244を設定する。開口範囲244の縦幅に比べて口領域232の縦幅が所定割合以上であれば開口と判定し、所定割合未満であれば閉口と判定してもよい。派生画像生成部222は、開口時には閉口状態に向かう複数の派生画像240を生成し、閉口時には開口状態に向かう複数の派生画像240を生成すればよい。なお、派生画像生成部222は、開口状態のキャラクタ静止画像224のみを対象として派生画像240を生成するとしてもよいし、閉口状態のキャラクタ静止画像224のみを対象として派生画像240を生成するとしてもよい。
部分抽出部220は、画像認識モデル(機械学習モデル)に基づいて開口範囲244を設定してもよい。変形例として、デザイナーはキャラクタ静止画像224において手動で開口範囲244を設定してもよい。このような制御方法によれば、デザイナーはキャラクタ114の最大開口サイズを指定できる。キャラクタ114をあまり大きく開口させたくないときや、キャラクタ114を極めて大きく開口させたいときにはデザイナーは自由に開口範囲244のサイズを決めることでキャラクタ114の最高開口度を調整すればよい。
本実施形態においては、キャラクタ静止画像224は、デザイナーにより造形されたキャラクタ114の顔画像を含むとして説明した。変形例として、実在の人物の顔画像を含む静止画像から同様の方法により動画像を生成してもよい。あるいは、実在の人形を撮像した静止画像から同様の方法により動画像を生成してもよい。
本実施形態においては、サーバ102がキャラクタ静止画像224を取得し、複数の派生画像240を生成することでキャラクタ動画像を準備するとして説明した。キャラクタ動画像の生成機能は、サーバ102ではなく、配信装置104等の端末装置が備えてもよい。具体的には、配信装置104が部分特定機能および派生画像生成機能を搭載してもよい。たとえば、配信者110はキャラクタ静止画像224を配信装置104に入力し、配信装置104の部分抽出部220および派生画像生成部222はキャラクタ静止画像224からキャラクタ動画像242を生成してもよい。配信者110は、配信装置104においてキャラクタ動画像242を動作確認し、必要に応じて、部分領域等の修正をした上で、サーバ102に修正後のキャラクタ動画像をアップロードしてもよい。
本実施形態においては、キャラクタ静止画像224から生成した派生画像240をライブ通信システム100によるライブ通信サービスに適用するとして説明した。キャラクタ静止画像224から派生画像240を生成する技術は、ライブ通信以外のサービスにも応用可能である。たとえば、小さな子どもが描いた顔の絵(キャラクタ静止画像224)から、派生画像240を生成することで、お絵描きの楽しみとともに、絵が動く楽しさを提供してもよい。
100 ライブ通信システム、102 サーバ、104 配信装置、106 インターネット、108 視聴装置、110 配信者、112 視聴者、114 キャラクタ、114a 配信キャラクタ、114b 視聴キャラクタ、116 ユーザインタフェース処理部、118 撮像部、120 データ処理部、122 通信部、124 データ格納部、126 入力部、128 出力部、130 動作検出部、132 第1メッセージ取得部、138 配信キャラクタ表示部、140 第2メッセージ出力部、144 動作情報生成部、148 送信部、150 受信部、152 通信部、154 データ処理部、156 データ格納部、158 キャラクタ格納部、162 ユーザインタフェース処理部、164 通信部、166 データ処理部、168 データ格納部、170 入力部、172 出力部、174 第2メッセージ取得部、176 キャラクタ選択部、180 視聴キャラクタ表示部、182 第1メッセージ出力部、184 第2メッセージ出力部、186 送信部、190 受信部、196 視聴者会話画面、198 メッセージ領域、206 配信者会話画面、208 カメラ、210 送信部、212 受信部、214 画像送信部、216 画像取得部、218 ライブ制御部、220 部分抽出部、222 派生画像生成部、224 キャラクタ静止画像、226 上眼瞼、226L 左上眼瞼、226R 右上眼瞼、228 眼球部、228L 左眼球部、228R 右眼球部、230 目領域、230L 左目領域、230R 右目領域、232 口領域、234 左目、236 瞼皮部、240 派生画像、242 キャラクタ動画像、244 開口範囲、250 曲線、252 外部分

Claims (7)

  1. 静止画像としての顔画像を取得する画像取得部と、
    顔画像から部分領域を抽出する部分抽出部と、
    顔画像に含まれる特定の前記部分領域を変化させた画像として、複数の派生画像を自動生成する派生画像生成部と、
    前記複数の派生画像に基づいて、顔画像を動画表示させる画像表示部と、を備え、
    前記部分抽出部は、前記部分領域として顔画像のうち開眼状態の目に対応する目領域を抽出し、更に、前記目領域から上眼瞼に対応する上眼瞼領域と眼球部に対応する眼球領域を特定し、
    前記派生画像生成部は、前記上眼瞼領域を前記目領域内において複数段階を経て下降させるとともに、前記上眼瞼領域が前記眼球領域からはみだす部分を削除することにより、顔画像に含まれる開眼状態の目領域が閉眼状態に移行する過程を示す複数の派生画像を生成し、
    前記画像表示部は、複数の派生画像を連続表示させることにより、瞬きを示す動画を表示させることを特徴とする動画生成装置。
  2. 前記派生画像生成部は、単一の静止画像としての顔画像から複数の派生画像を自動生成することを特徴とする請求項1に記載の動画生成装置。
  3. 前記部分抽出部は、あらかじめ用意された複数の顔画像それぞれにおいて指定される部分領域を教師データとする機械学習モデルにより、前記取得された顔画像における部分領域を抽出することを特徴とする請求項1または2に記載の動画生成装置。
  4. 前記静止画像としての顔画像は、実在人物を撮像した顔画像ではなく、ユーザにより造形されたキャラクタの静止図像としての顔画像であることを特徴とする請求項1から3のいずれかに記載の動画生成装置。
  5. 前記派生画像生成部は、前記上眼瞼領域を前記目領域内において複数段階を経て下降させるとともに前記上眼瞼に対応する部分を所定色によって塗色することにより複数の派生画像を生成することを特徴とする請求項1に記載の動画生成装置。
  6. 前記部分抽出部は、更に、前記部分領域として顔画像のうち口に対応する領域を抽出し、
    前記派生画像生成部は、顔画像に含まれる開口状態の口領域が閉口状態に移行する過程を示す複数の派生画像、または、顔画像に含まれる閉口状態の口領域が開口状態に移行する過程を示す複数の派生画像を生成し、
    前記画像表示部は、複数の派生画像を連続表示させることにより、口の開閉を示す動画を表示させることを特徴とする請求項1から5のいずれかに記載の動画生成装置。
  7. 静止画像としての顔画像を取得する画像取得機能と、
    顔画像から部分領域を抽出する部分抽出機能と、
    顔画像に含まれる特定の前記部分領域を変化させた画像として、複数の派生画像を自動生成する派生画像生成機能と、
    前記複数の派生画像に基づいて、顔画像を動画表示させる画像表示機能と、をコンピュータに発揮させ、
    前記部分抽出機能は、前記部分領域として顔画像のうち開眼状態の目に対応する目領域を抽出し、更に、前記目領域から上眼瞼に対応する上眼瞼領域と眼球部に対応する眼球領域を特定し、
    前記派生画像生成機能は、前記上眼瞼領域を前記目領域内において複数段階を経て下降させるとともに、前記上眼瞼領域が前記眼球領域からはみだす部分を削除することにより、顔画像に含まれる開眼状態の目領域が閉眼状態に移行する過程を示す複数の派生画像を生成し、
    前記画像表示機能は、複数の派生画像を連続表示させることにより、瞬きを示す動画を表示させることを特徴とする動画生成プログラム。
JP2020002259A 2020-01-09 2020-01-09 動画生成装置および動画生成プログラム Active JP7471826B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020002259A JP7471826B2 (ja) 2020-01-09 2020-01-09 動画生成装置および動画生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020002259A JP7471826B2 (ja) 2020-01-09 2020-01-09 動画生成装置および動画生成プログラム

Publications (2)

Publication Number Publication Date
JP2021111102A JP2021111102A (ja) 2021-08-02
JP7471826B2 true JP7471826B2 (ja) 2024-04-22

Family

ID=77059904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020002259A Active JP7471826B2 (ja) 2020-01-09 2020-01-09 動画生成装置および動画生成プログラム

Country Status (1)

Country Link
JP (1) JP7471826B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018140032A (ja) * 2017-02-28 2018-09-13 株式会社大一商会 遊技機
JP7433617B1 (ja) 2023-07-28 2024-02-20 17Live株式会社 サーバおよびコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093913A (ja) 2010-10-26 2012-05-17 Nippon Hoso Kyokai <Nhk> Cgキャラクタ制作装置及びcgキャラクタ制作プログラム
JP2016009367A (ja) 2014-06-25 2016-01-18 カシオ計算機株式会社 画像処理装置、アニメーション生成方法及びプログラム
JP2016012248A (ja) 2014-06-30 2016-01-21 カシオ計算機株式会社 動作処理装置、動作処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093913A (ja) 2010-10-26 2012-05-17 Nippon Hoso Kyokai <Nhk> Cgキャラクタ制作装置及びcgキャラクタ制作プログラム
JP2016009367A (ja) 2014-06-25 2016-01-18 カシオ計算機株式会社 画像処理装置、アニメーション生成方法及びプログラム
JP2016012248A (ja) 2014-06-30 2016-01-21 カシオ計算機株式会社 動作処理装置、動作処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
たった1枚のキャラ画像とウェブカメラで誰でもVTuberになれるシステムをGoogleのエンジニアが発表,Gigazine[online],日本,2019年12月05日,https://gigazine.net/news/20191205-vtuber-google-engineer/,2023年9月6日検索

Also Published As

Publication number Publication date
JP2021111102A (ja) 2021-08-02

Similar Documents

Publication Publication Date Title
US11348300B2 (en) Avatar customization for optimal gaze discrimination
US11699255B2 (en) Contextual-based rendering of virtual avatars
US11074748B2 (en) Matching meshes for virtual avatars
US20220076474A1 (en) Computer generated hair groom transfer tool
JP2023096152A (ja) 眼追跡カメラからの顔の表情
CN106648071A (zh) 虚拟现实社交实现系统
US20210350604A1 (en) Audiovisual presence transitions in a collaborative reality environment
CN110413108B (zh) 虚拟画面的处理方法、装置、系统、电子设备及存储介质
JP7471826B2 (ja) 動画生成装置および動画生成プログラム
US11645823B2 (en) Neutral avatars
US11836840B2 (en) Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
CN113192132B (zh) 眼神捕捉方法及装置、存储介质、终端
Tang et al. Alterecho: Loose avatar-streamer coupling for expressive vtubing
JP7479618B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置
CN111968248A (zh) 基于虚拟形象的智能化妆方法、装置、电子设备及存储介质
JP6796762B1 (ja) 仮想人物対話システム、映像生成方法、映像生成プログラム
JP7277145B2 (ja) キャラクタを使ったライブ通信システム
WO2022257766A1 (zh) 图像处理方法、装置、设备及介质
JP7264941B2 (ja) プログラム、情報処理装置及び情報処理方法
US20230139989A1 (en) Videoconference method and videoconference system
WO2023027897A1 (en) Dynamic augmentation of stimuli based on profile of user
Pejsa Effective directed gaze for character animation
JP2021086618A (ja) 仮想人物対話システム、映像生成方法、映像生成プログラム
CN117765049A (zh) 对齐用户表示
CN115496844A (zh) 虚拟会议空间显示方法以及装置

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200123

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240410

R150 Certificate of patent or registration of utility model

Ref document number: 7471826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150