JP7228338B2 - 動画を配信するためのシステム、方法、及びプログラム - Google Patents

動画を配信するためのシステム、方法、及びプログラム Download PDF

Info

Publication number
JP7228338B2
JP7228338B2 JP2018098338A JP2018098338A JP7228338B2 JP 7228338 B2 JP7228338 B2 JP 7228338B2 JP 2018098338 A JP2018098338 A JP 2018098338A JP 2018098338 A JP2018098338 A JP 2018098338A JP 7228338 B2 JP7228338 B2 JP 7228338B2
Authority
JP
Japan
Prior art keywords
user
avatars
distribution
server
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018098338A
Other languages
English (en)
Other versions
JP2019204244A (ja
Inventor
康伸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2018098338A priority Critical patent/JP7228338B2/ja
Publication of JP2019204244A publication Critical patent/JP2019204244A/ja
Priority to JP2023019795A priority patent/JP2023071712A/ja
Application granted granted Critical
Publication of JP7228338B2 publication Critical patent/JP7228338B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、動画を配信するためのシステム、方法、及びプログラムに関するものである。
従来、ユーザが動画の配信を行うためのシステムが提供されており、こうしたシステムを介して配信される動画には、ユーザ自身が被写体として出演する動画(自撮り動画)が含まれる(例えば、特許文献1を参照)。例えば、ユーザは、スマートフォン及びパソコン等が有するカメラ及びマイクを介してユーザ自身の画像及び音声が含まれる動画を撮影し、撮影した動画を複数の視聴者に対して配信することができる。
特開2017-121036号公報
しかしながら、こうした動画の配信を希望するユーザの中には、不特定多数の視聴者に素顔を公開することに対して抵抗を感じるユーザも存在し得る。例えば、自撮り動画の配信に慣れているユーザの動画に一般の視聴者等が参加するコラボ配信は、動画配信サービスの活性化を促進し得るが、こうした一般の視聴者は、素顔の公開に対して抵抗を感じやすいと考えられる。そこで、例えば、ユーザ自身に代えて、ユーザのアバターが登場する動画のコラボ配信を手軽に行うことができると有用であると考えられる。
本発明の実施形態は、動画配信の活性化を促進することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。
本発明の一実施形態に係るシステムは、動画を配信するためのシステムであって、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置と、1又は複数のコンピュータプロセッサと、を備え、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行し、前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。
本発明の一実施形態に係る方法は、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータによって実行され、動画を配信するための方法であって、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成するステップと、生成した動画を複数の視聴ユーザの各々に対して提供するステップと、を備え、前記動画を生成するステップは、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。
本発明の一実施形態に係るプログラムは、動画を配信するためのプログラムであって、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行させ、前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。
本発明の様々な実施形態は、動画配信の活性化を促進し得る。
本発明の一実施形態に係る動画配信サーバ10を含むネットワークの構成を概略的に示す構成図。 動画配信サーバ10が有する機能を概略的に示すブロック図。 ユーザ情報テーブル411において管理される情報を例示する図。 配信情報テーブル412において管理される情報を例示する図。 個別の動画配信が行われる際に動画配信サーバ10が実行する処理を例示するフロー図。 ライブ動画の配信中において行われる通信を説明するための図。 視聴用画面60を例示する図。 配信ユーザ端末30のカメラを介して入力される入力画像50を模式的に例示する図。 配信用画面70を例示する図。 視聴ユーザによる参加要求に応じて動画配信サーバ10が実行する処理を例示するフロー図。 参加要求通知オブジェクト80を例示する図。 コラボ配信の期間中において行われる通信を説明するための図。 コラボ配信の期間中における視聴用画面60を例示する図。 他の実施形態のコラボ配信の期間中において行われる通信を説明するための図。 更に他の実施形態のコラボ配信の期間中において行われる通信を説明するための図。
以下、図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る動画配信サーバ10を含むネットワークの構成を概略的に示す構成図である。動画配信サーバ10は、図示するように、インターネット等の通信ネットワーク20を介してユーザ端末30と通信可能に接続されている。図1においては、1つのユーザ端末30のみが図示されているが、サーバ10は、複数のユーザ端末30と通信可能に接続されている。サーバ10は、配信ユーザが提供する動画を複数の視聴ユーザに配信するための動画配信サービスを、ユーザ端末30を介して提供する。本実施形態において、ユーザ端末30のユーザは、配信ユーザとして動画を配信することができ、また、視聴ユーザとして、他のユーザによって配信される動画を視聴することもできる。
動画配信サーバ10は、一般的なコンピュータとして構成されており、図1に示すように、コンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
コンピュータプロセッサ11は、CPU又はGPU等として構成され、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。
入出力I/F13は、ユーザ等との間で情報をやり取りするための各種の入出力装置を含む。入出力I/F13は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置、スピーカー等の音声出力装置を含む。
通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、通信ネットワーク20等を介した有線又は無線の通信を実現できるように構成されている。
ストレージ15は、例えば磁気ディスク、フラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム、及び各種データ等を記憶する。
本実施形態において、動画配信サーバ10は、それぞれが上述したハードウェア構成を有する複数のコンピュータを用いて構成され得る。例えば、動画配信サーバ10は、1又は複数のサーバ装置によって構成され得る。
このように構成された動画配信サーバ10は、ウェブサーバ及びアプリケーションサーバとしての機能を有し、ユーザ端末30にインストールされているウェブブラウザ及びその他のアプリケーション(例えば、動画配信サービス用のアプリケーション)からの要求に応答して各種の処理を実行し、当該処理の結果に応じた画面データ(例えば、HTMLデータ又は制御データ等)をユーザ端末30に送信する。ユーザ端末30では、受信したデータに基づくウェブページ又はその他の画面が表示される。
ユーザ端末30は、一般的なコンピュータとして構成されており、図1に示すように、コンピュータプロセッサ31と、メインメモリ32と、入出力I/F33と、通信I/F34と、ストレージ(記憶装置)35とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
コンピュータプロセッサ31は、CPU又はGPU等として構成され、ストレージ35等に記憶されている様々なプログラムをメインメモリ32に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ32は、例えば、DRAM等によって構成される。
入出力I/F33は、ユーザ等との間で情報をやり取りするための各種の入出力装置である。入出力I/F33は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F33は、ディスプレイ等の画像出力装置、スピーカー等の音声出力装置を含む。
通信I/F34は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、通信ネットワーク20等を介した有線又は無線の通信を実現できるように構成されている。
ストレージ35は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ35は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。ストレージ35が記憶するプログラムは、アプリケーションマーケット等からダウンロードされてインストールされ得る。
本実施形態において、ユーザ端末30は、スマートフォン、タブレット端末、ウェアラブルデバイス、及びパーソナルコンピュータ等として構成され得る。
このように構成されたユーザ端末30のユーザは、ストレージ35等にインストールされているウェブブラウザ又はその他のアプリケーションを介した動画配信サーバ10との通信を実行することによって、サーバ10が提供する動画配信サービスを利用することができる。
次に、本実施形態の動画配信サーバ10が有する機能について説明する。図2は、動画配信サーバ10が有する機能を概略的に示すブロック図である。サーバ10は、図示するように、様々な情報を記憶及び管理する情報記憶管理部41と、動画配信サービスの基本機能を制御する基本機能制御部43と、動画の配信を制御する動画配信制御部45とを有する。これらの機能は、コンピュータプロセッサ11及びメインメモリ12等のハードウェア、並びに、ストレージ15等に記憶されている各種プログラムやデータ等が協働して動作することによって実現され、例えば、メインメモリ12に読み込まれたプログラムに含まれる命令をコンピュータプロセッサ11が実行することによって実現される。また、図2に示す機能の一部又は全部は、サーバ10とユーザ端末30とが協働することによって実現され、又は、ユーザ端末30によって実現され得る。
動画配信サーバ10の情報記憶管理部41は、ストレージ15等において様々な情報を記憶及び管理する。情報記憶管理部41は、例えば、図2に示すように、動画配信サービスのユーザに関する情報を管理するユーザ情報テーブル411と、個別の動画配信に関する情報を管理する配信情報テーブル412とを有するように構成され得る。
また、本実施形態において、情報記憶管理部41は、図2に示すように、3DモデルDB413を有する。当該DB413は、ユーザのアバターを三次元仮想空間において描画(レンダリング)するための複数の3Dモデル(画像情報)を格納する。
動画配信サーバ10の基本機能制御部43は、動画配信サービスの基本機能の制御に関する様々な処理を実行する。例えば、基本機能制御部43は、基本機能に関する様々な画面のHTMLデータ又は制御データをユーザ端末30に送信し、ユーザ端末30で表示される当該画面を介したユーザによる操作入力に応答して様々な処理を実行し、当該処理の結果に応じたHTMLデータ又は制御データをユーザ端末30に送信する。基本機能制御部43によって制御される基本機能は、例えば、ログイン認証(ユーザ認証)、課金制御、ユーザ管理(例えば、ユーザ情報テーブル411の更新等)を含む。
動画配信サーバ10の動画配信制御部45は、動画の配信の制御に関する様々な処理を実行する。本実施形態において、動画配信制御部45は、動画の共同配信(コラボ配信)を行う複数のユーザに対応する複数のアバターが含まれる仮想空間に対応する動画を生成し、生成した動画を複数の視聴ユーザの各々に対して提供するように構成されている。例えば、動画配信制御部45は、生成した動画を、複数の視聴ユーザの各々のユーザ端末30に対して送信するように構成される。
本実施形態において、動画配信制御部45は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々を、3DモデルDB413において格納されている3Dモデルに基づいて描画するように構成されている。例えば、動画配信制御部45は、動画の共同配信を開始する際に、共同配信を行う複数のユーザの各々を特定し、特定した各ユーザのアバターに対応する3Dモデルを特定し、特定した3Dモデルを3DモデルDB413から取得するように構成される。各ユーザのアバターに対応する3Dモデルを特定するための情報は、例えば、ユーザ情報テーブル411において管理される。
また、動画配信制御部45は、複数のアバターの各々を、対応するユーザによってユーザ端末30を介して入力される入力情報に少なくとも基づいて仮想空間において動作させるように構成されている。
このように、本実施形態における動画配信サーバ10は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々の3Dモデルに基づいて各アバターを描画すると共に、当該複数のユーザによってそれぞれ入力される入力情報に基づいて当該複数のアバターの各々の動作を制御し、これらの複数のアバターが含まれる仮想空間に対応する動画を生成して配信するから、例えば、素顔を公開することに対して抵抗を感じるユーザが含まれる場合であっても、複数のユーザによる動画の共同配信を手軽に行うことが可能であり、この結果、動画配信の活性化が促進され得る。
本実施形態において、アバターを動作させるために入力される入力情報は、様々な情報を含み、例えば、ユーザ端末30のタッチパネルに対する操作情報、又は、物理コントローラに対する操作情報等を含む。また、例えば、当該入力情報は、ユーザ端末30のカメラを介して入力される画像を含み、この場合、動画配信制御部45は、当該入力される画像に含まれるユーザの姿勢に基づいてアバターを動作させるように構成され得る。例えば、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々のユーザ端末30から、当該ユーザ端末30のカメラを介して入力(撮影)される画像を受信し、受信した画像に含まれるユーザの姿勢(ボーン)を検出し、検出したユーザの姿勢に基づいて(例えば、ユーザの姿勢と連動するように)対応するアバターの動作を制御するように構成される。画像に含まれるユーザの姿勢の検出は、例えば、公知の人物姿勢推定技術を適用して実現することができる。また、動画配信制御部45は、入力される画像に含まれるユーザの身体の1又は複数の所定の部位(例えば、顔及び両手等)の画像における配置に少なくとも基づいてアバターを動作させるように構成され得る。こうした構成は、現実のユーザの動きに基づいてアバターを動作させることを可能とする。
また、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々によってユーザ端末30を介して入力される音声を含む動画を生成するように構成され得る。例えば、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々のユーザ端末30から、当該ユーザ端末30のマイクを介して入力される音声を受信し、受信した音声が含まれる動画を生成するように構成される。こうした構成は、動画の共同配信を行う各ユーザによって入力される音声を含む動画の配信を可能とする。
この場合、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々によって入力される音声に基づいて対応するアバターの口の動きを制御するように構成され得る。例えば、動画配信制御部45は、特定のユーザによる音声の入力がある期間は、当該特定のユーザのアバターの口を所定のルールに従って動作させる一方、当該特定のユーザによる音声の入力がない期間は、当該特定のユーザのアバターの口を静止させるように構成される。こうした構成は、アバターの口の動きを、現実のユーザの口の動きに近づけることを支援する。
また、動画配信制御部45は、アバターの仮想空間における位置に少なくとも基づいて、対応するユーザによって入力される音声の音量を制御するように構成され得る。例えば、動画配信制御部45は、仮想空間における仮想カメラとアバターとの間の距離が近いほど(又は、遠いほど)、対応するユーザによって入力される音声の音量が大きくなる(又は、小さくなる)ように動画を生成する。また、例えば、動画配信制御部45は、仮想空間における仮想カメラとアバターとの間の位置関係に基づいて、対応するユーザによって入力される音声の左側スピーカー用及び右側スピーカー用それぞれの音量を制御する(例えば、アバターが仮想カメラの左側に位置する場合に、対応する音声の左側用の音量を、右側用の音量と比較して大きくする等)ように構成される。こうした構成は、仮想空間におけるアバターの位置に応じた音量で音声を出力することを可能とする。
次に、このような機能を有する本実施形態の動画配信サーバ10の具体例について説明する。この例において、サーバ10は、ユーザがリアルタイムで動画を配信するためのライブ動画配信サービスを提供する。図3は、この例において、ユーザ情報テーブル411において管理される情報を例示する。ユーザ情報テーブル411は、ライブ動画配信サービスのユーザに関する情報を管理し、この例では、図示するように、個別のユーザを識別する「ユーザアカウント」に対応付けて、当該ユーザのアバターに関する情報である「アバター情報」、ライブ動画の配信履歴に関する情報である「配信履歴情報」、ライブ動画の視聴履歴に関する情報である「視聴履歴情報」等の情報を管理する。
アバター情報は、3DモデルDB413に格納されている複数の3Dモデルのうちユーザによって予め選択されている3Dモデルを特定する情報を含む。3DモデルDB413に格納されている複数の3Dモデルは、相互に外観が異なる複数のアバターにそれぞれ対応しており、ユーザは、これらの複数の3Dモデルの中から所望の3Dモデルを、自身のアバターの3Dモデルとして予め選択することができる。
図4は、この例において、配信情報テーブル412において管理される情報を例示する。配信情報テーブル412は、個別の動画配信に関する情報を管理し、この例では、図示するように、個別の動画配信を識別する「配信ID」に対応付けて、動画を配信する配信ユーザを識別する「配信ユーザアカウント」、この動画配信に参加する参加ユーザを識別する「参加ユーザアカウント」、「配信状況情報」等の情報を管理する。配信状況情報は、同時視聴者数、延べ視聴者数、及び、配信を開始してからの経過時間等の情報を含む。
図5は、この例において、個別の動画配信が行われる際に動画配信サーバ10が実行する処理を例示するフロー図である。ユーザは、例えば、ユーザ端末30において表示される画面を介して、動画配信の開始を指示することができる。サーバ10は、まず、図示するように、配信ユーザのアバターの3Dモデルを3DモデルDB413から取得する(ステップS100)。配信ユーザのアバターの3Dモデルを特定する情報は、ユーザ情報テーブル411のアバター情報において管理されている。
配信ユーザの3Dモデルを取得すると、サーバ10は、配信終了となる迄の間(ステップS130においてNO)、配信ユーザのユーザ端末30(以下、「配信ユーザ端末30」と言うことがある。)から、カメラを介して入力される入力画像、及び、マイクを介して入力される入力音声を受信し、受信した入力画像及び入力音声に基づいて動画を生成及び送信する処理を繰り返す(ステップS110、S120)。
図6は、ライブ動画の配信中において、配信ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザのユーザ端末30(以下、「視聴ユーザ端末30」と言うことがある。)の間で行われる通信を説明するための図である。図示するように、配信ユーザ端末30から動画配信サーバ10に対して、配信ユーザ端末30のカメラを介して入力される入力画像、及び、マイクを介して入力される入力音声が送信される。動画配信サーバ10は、受信する入力画像及び入力音声に基づいて動画を生成し、生成した動画を配信ユーザ端末30及び複数の視聴ユーザ端末30の各々にそれぞれ送信する。配信ユーザ端末30及び複数の視聴ユーザ端末30の各々は、受信した動画を表示する。
図7は、動画配信サーバ10によって生成された動画を受信する視聴ユーザ端末30において表示される視聴用画面60を例示する。当該画面60は、図示するように、画面全体において、仮想空間100を表示し、画面下端の左側に位置するコメント入力領域62と、当該領域62の上側に位置するコメント表示領域63と、画面下端の右側に位置する参加ボタン64とが、当該仮想空間100に重ねて配置されている。コメント入力領域62を介して視聴ユーザがコメントを入力すると、入力されたコメントが、コメント表示領域63において表示される。また、視聴ユーザが、参加ボタン64を選択すると、視聴中のライブ動画への参加要求が行われる。ライブ動画への参加要求の詳細については後述する。
この例において、動画配信サーバ10によって生成される動画は、仮想空間100に対応する。当該仮想空間100は、図7に示すように、略中央にステージ102を有し、ステージ102上には、配信ユーザのアバター110が配置されている。当該アバター110は、配信ユーザのアバターの3Dモデルに基づいて描画される。また、当該アバター110は、配信ユーザ端末30から受信する入力画像に基づいて、その動作が制御され、具体的には、当該入力画像における配信ユーザの顔及び両手の配置に基づいて、その動作が制御される。
図8は、配信ユーザ端末30から受信する入力画像50を模式的に例示する。図示するように、この例では、配信ユーザの右手RHの手の平には、第1の色(例えば、赤色)の円形のマーカーMK1が設けられており、配信ユーザの左手LHの手の平には、第2の色(例えば、黄色)の円形のマーカーMK2が設けられている。これらのマーカーMK1、2は、例えば、手の平に貼り付けるステッカーとして構成され、当該ステッカーは、例えば、ライブ動画配信サービスの提供事業者等によってユーザに提供される。また、マーカーMK1、2は、例えば、手の平にインク等で直接描かれる。この場合、例えば、ライブ動画配信サービスの提供事業者等が配布するインストラクションに従って、ユーザが、両手の手の平にマーカーMK1、2をそれぞれ描く。
図8に示すように、この例では、ユーザの顔FCは、当該顔FCの輪郭を囲う矩形の検出領域DA1として検出及び認識される。また、ユーザの両手RH、LHは、当該両手RH、LHの各々の手の平に設けられているマーカーMK1、2の輪郭を囲う矩形の検出領域DA2、DA3としてそれぞれ検出及び認識される。こうした顔FC、及び、両手RH、LH(マーカーMK1、2)の認識は、公知の物体追跡技術を用いて実現され、例えば、機械学習を介して生成された学習済みモデルを用いて実現される。
このように、配信ユーザ端末30から受信する入力画像におけるユーザの顔及び両手を認識すると、これらの顔及び両手の配置に連動するように、アバター110の動作が制御される。例えば、配信ユーザが万歳の姿勢を取ると、入力画像に含まれる配信ユーザの顔及び両手の配置が万歳の姿勢に対応する配置となり、仮想空間100におけるアバター110は、万歳の姿勢となるようにその動作が制御される。
また、この例において、動画配信サーバ10によって生成される動画は、配信ユーザ端末30から受信する入力音声(配信ユーザの声)を含む。この例において、当該入力音声に基づいて、アバター110の口の動きを制御するようにしても良い。
図9は、配信ユーザ端末30において表示される配信用画面70を例示する。当該画面70は、図示するように、上述した視聴用画面60と同様に、画面全体において、仮想空間100を表示し、画面下端の左側に位置するコメント入力領域72と、当該領域72の上側に位置するコメント表示領域73とが重ねて配置されている。また、配信用画面70の画面下端の右側には、視聴用画面60における参加ボタン64に代えて、配信停止ボタン74が仮想空間100に重ねて配置されている。当該配信停止ボタン74は、ライブ動画の配信を停止するためのオブジェクトである。
配信ユーザは、例えば、スマートフォンとして構成されるユーザ端末30のインカメラの前で身体を動かすことによって、当該インカメラを介して入力(撮影)される入力画像を介してアバター110を操作しつつ、当該ユーザ端末30において表示される配信用画面70を介して、アバター110が含まれる仮想空間100に対応する動画を閲覧することができる。
ここで、ライブ動画に視聴ユーザが参加する際の動作について説明する。この例において、視聴ユーザは、視聴用画面60の参加ボタン64を選択することによって、視聴中のライブ動画に対する参加要求を行うことができる。図10は、視聴ユーザによる参加要求に応じて、動画配信サーバ10が実行する処理を例示するフロー図である。参加ボタン64が選択されると、サーバ10は、まず、図示するように、視聴ユーザによる参加要求を配信ユーザに通知する(ステップS200)。
図11は、視聴ユーザによる参加ボタン64の選択に応じて、配信ユーザ端末30において表示される参加要求通知オブジェクト80を例示する。当該オブジェクト80は、特定のユーザ(図11の例では、ユーザA)から参加要求があった旨を通知すると共に、当該参加要求を許可するための許可ボタン82と、当該参加要求を拒否するための拒否ボタン84とが配置されている。参加要求通知オブジェクト80は、配信用画面70上に重ねて表示される。
そして、サーバ10は、配信ユーザによって許可ボタン82が選択された場合には(ステップS210においてYES)、参加要求を行った視聴ユーザ(参加ユーザ)のアバターの3Dモデルを3DモデルDB413から取得し(ステップS220)、参加ユーザが参加した動画の配信(コラボ配信)を開始する(ステップS230)。なお、配信ユーザによって拒否ボタン84が選択された場合には(ステップS210においてNO)、参加要求が拒否されたので、ステップS220、S230の処理はスキップされる。
図12は、コラボ配信の期間中において、配信ユーザ端末30、参加ユーザのユーザ端末30(以下、「参加ユーザ端末30」と言うことがある。)、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、コラボ配信の期間中においては、配信ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信されると共に、参加ユーザ端末30から動画配信サーバ10に対して、参加ユーザ端末30のカメラを介して入力される入力画像、及び、マイクを介して入力される入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する入力画像及び入力音声に基づいて動画を生成し、生成した動画を配信ユーザ端末30、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々にそれぞれ送信する。配信ユーザ端末30、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々は、受信した動画を表示する。
この例において、コラボ配信の期間中に動画配信サーバ10によって生成される動画は、仮想空間100において参加ユーザのアバターが追加されている。図13は、コラボ配信の期間中における視聴用画面60を例示する。図示するように、コラボ配信の期間中においては、配信ユーザのアバター110のステージ102上における位置が若干左方向にスライドし、参加ユーザのアバター112が、当該アバター110の右側に並ぶように新たに配置(追加)されている。当該アバター112は、参加ユーザのアバターの3Dモデルに基づいて描画され、参加ユーザ端末30から受信する入力画像に基づいて、配信ユーザのアバター110と同様に、その動作が制御される。
また、コラボ配信の期間中において、動画配信サーバ10によって生成される動画は、配信ユーザ端末30から受信する配信ユーザの入力音声に加えて、参加ユーザ端末30から受信する参加ユーザの入力音声(参加ユーザの声)を含む。この例において、アバター110、112の仮想空間100における位置に基づいて、配信ユーザ、参加ユーザそれぞれの入力音声の音量を制御するようにしても良い。例えば、ステージ102上において左側にアバター110が位置する配信ユーザの入力音声は、右側スピーカー用の音量と比較して左側スピーカー用の音量が大きくなるようにする一方、これとは反対に、ステージ102上において右側にアバター112が位置する参加ユーザの入力音声は、左側スピーカー用の音量と比較して右側スピーカー用の音量が大きくなるようにしても良い。
このように、この例では、配信ユーザ及び参加ユーザの各々のアバターが含まれる仮想空間に対応する動画を手軽に生成して複数の視聴ユーザに配信することが可能である。なお、この例では、コラボ配信の期間中において、視聴用画面60の参加ボタン64は選択できないように構成されており、参加ユーザの数は1人に制限されている。しかしながら、本実施形態の他の例では、2以上の参加ユーザが参加するコラボ配信が可能とされ得る。
以上説明した本実施形態に係る動画配信サーバ10は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々の3Dモデルに基づいて各アバターを描画すると共に、当該複数のユーザによってそれぞれ入力される入力情報(例えば、ユーザ端末30のカメラを介して入力される入力画像)に基づいて当該複数のアバターの各々の動作を制御し、これらの複数のアバターが含まれる仮想空間に対応する動画を生成して配信するから、例えば、素顔を公開することに対して抵抗を感じるユーザが含まれる場合であっても、複数のユーザによる動画の共同配信を手軽に行うことが可能であり、この結果、動画配信の活性化が促進され得る。
上述した実施形態では、動画配信サーバ10が動画の生成を行うようにしたが、本発明の他の実施形態において、動画の生成は、配信ユーザ端末30において行われ得る。図14は、当該他の実施形態において、コラボ配信の期間中に、配信ユーザ端末30、参加ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、この実施形態においては、配信ユーザ端末30から動画配信サーバ10に対して、入力画像のみが送信されると共に、参加ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する各入力画像を解析し、各入力画像におけるユーザの顔及び両手の配置に関する配置情報を取得する。そして、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、参加ユーザ端末30から受信した入力音声を配信ユーザ端末30に送信する。配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における入力音声に基づいて動画を生成し、生成した動画を、動画配信サーバ10を経由して、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々に送信する。なお、配信ユーザ端末30は、コラボ配信の開始前において、配信ユーザ及び参加ユーザそれぞれのアバターの3Dモデルを3DモデルDB413から取得する。
また、動画の生成が配信ユーザ端末30において行われる上記実施形態において、各入力画像の解析、及び、上記配置情報の取得は、配信ユーザ端末30及び参加ユーザ端末30の各々において行われ得る。この場合、参加ユーザ端末30から動画配信サーバ10に対して、配置情報及び入力音声が送信される。動画配信サーバ10は、参加ユーザ端末30から受信した配置情報及び入力音声を配信ユーザ端末30に送信する。配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(参加ユーザ)及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における配置情報(配信ユーザ)及び入力音声(配信ユーザ)に基づいて動画を生成し、生成した動画を、動画配信サーバ10を経由して、複数の視聴ユーザ端末30の各々に送信する。
また、本発明の更に他の実施形態において、動画の生成は、配信ユーザ端末30、参加ユーザ端末30、及び、複数の視聴ユーザ端末30の各々において行われ得る。図15は、当該実施形態において、コラボ配信の期間中に、配信ユーザ端末30、参加ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、この実施形態においては、配信ユーザ端末30及び参加ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する各入力画像を解析し、各入力画像におけるユーザの顔及び両手の配置に関する配置情報を取得する。そして、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、参加ユーザ端末30から受信した入力音声を配信ユーザ端末30に送信し、配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における入力音声に基づいて動画を生成する。また、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、配信ユーザ端末30から受信した入力音声を参加ユーザ端末30に送信し、参加ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(配信ユーザ)、並びに、参加ユーザ端末30における入力音声に基づいて動画を生成する。さらに、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信した入力音声を複数の視聴ユーザ端末30の各々に送信し、各視聴ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、入力音声(配信ユーザ)、及び入力音声(参加ユーザ)に基づいて動画を生成する。なお、配信ユーザ端末30、参加ユーザ端末30、及び複数の視聴ユーザ端末30の各々は、コラボ配信の開始前において、配信ユーザ及び参加ユーザそれぞれのアバターの3Dモデルを3DモデルDB413から取得する。
上述した実施形態では、複数のユーザのアバターの画像情報(3Dモデル)を、動画配信サーバ10(3DモデルDB413)において管理するようにしたが、本発明の他の実施形態において、こうしたアバターの画像情報の少なくとも一部は、サーバ10以外の装置おいて管理され、例えば、ユーザ端末30において管理され得る。
本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。
本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。
10 動画配信サーバ
11 コンピュータプロセッサ
30 ユーザ端末
41 情報記憶管理部
411 ユーザ情報テーブル
412 配信情報テーブル
413 3DモデルDB
43 基本機能制御部
45 動画配信制御部
50 入力画像
60 視聴用画面
70 配信用画面
100 仮想空間
110 配信ユーザのアバター
112 参加ユーザのアバター

Claims (8)

  1. サーバと、第1及び第2のユーザ端末と、を備え、動画を配信するためのシステムであって、
    動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置と、前記サーバ並びに前記第1及び第2のユーザ端末のコンピュータプロセッサを含む複数のコンピュータプロセッサと、を備え、
    記複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
    前記第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、
    生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行し、
    前記動画を生成する処理は、
    前記サーバのコンピュータプロセッサが、前記第1及び第2のアバターを前記仮想空間において動作させるための所定情報を、前記第1及び第2のユーザによって前記第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて取得すること、
    前記第1のユーザ端末のコンピュータプロセッサが、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、
    前記第1のユーザ端末のコンピュータプロセッサが、前記第1及び第2のアバターを、前記サーバが取得した前記所定情報に少なくとも基づいて前記仮想空間において動作させることを含
    前記1又は複数の記憶装置は、前記サーバが有し、又は、前記第1及び第2のユーザ端末が有する、
    システム。
  2. 前記入力情報は、カメラを介して入力される画像を含み、
    前記動画を生成する処理は、前記サーバのコンピュータプロセッサが、前記入力される画像に含まれる前記第1又は第2のユーザの姿勢に少なくとも基づいて前記所定情報を取得することを含む、
    請求項1のシステム。
  3. 前記動画を生成する処理は、前記サーバのコンピュータプロセッサが、前記入力される画像に含まれる前記第1又は第2のユーザの身体の1又は複数の所定の部位の前記入力される画像における配置に少なくとも基づいて前記所定情報を取得することを含む、
    請求項2のシステム。
  4. 前記動画を生成する処理は、前記第1のユーザ端末のコンピュータプロセッサが、前記第1又は第2のユーザによって前記第1又は第2のユーザ端末のマイクを介して入力される音声を含む動画を生成することを含む、
    請求項1ないし3何れかのシステム。
  5. 前記動画を生成する処理は、前記第1のユーザ端末のコンピュータプロセッサが、前記入力される音声に少なくとも基づいて前記第1又は第2のアバターの口の動きを制御することを含む、
    請求項4のシステム。
  6. 前記動画を生成する処理は、前記第1のユーザ端末のコンピュータプロセッサが、前記第1又は第2のアバターの前記仮想空間における位置に少なくとも基づいて、前記第1又は第2のユーザによって入力される音声の音量を制御することを含む、
    請求項1ないし5何れかのシステム。
  7. 動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な複数のコンピュータであって、サーバと、第1及び第2のユーザ端末と、を含む前記複数のコンピュータによって実行され、動画を配信するための方法であって、
    前記第1及び第2のアバターが含まれる仮想空間に対応する動画を生成するステップと、
    生成した動画を複数の視聴ユーザの各々に対して提供するステップと、を備え、
    前記動画を生成するステップは、
    前記サーバが、前記第1及び第2のアバターを前記仮想空間において動作させるための所定情報を、前記第1及び第2のユーザによって前記第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて取得すること、
    前記第1のユーザ端末が、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、
    前記第1のユーザ端末が、前記第1及び第2のアバターを、前記サーバが取得した前記所定情報に少なくとも基づいて前記仮想空間において動作させることを含
    前記1又は複数の記憶装置は、前記サーバが有し、又は、前記第1及び第2のユーザ端末が有する、
    方法。
  8. 動画を配信するためのプログラムであって、
    動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な複数のコンピュータであって、サーバと、第1及び第2のユーザ端末と、を含む前記複数のコンピュータ上での実行に応じて、前記複数のコンピュータに、
    前記第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、
    生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行させ、
    前記動画を生成する処理は、
    前記サーバが、前記第1及び第2のアバターを前記仮想空間において動作させるための所定情報を、前記第1及び第2のユーザによって前記第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて取得すること、
    前記第1のユーザ端末が、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、
    前記第1のユーザ端末が、前記第1及び第2のアバターを、前記サーバが取得した前記所定情報に少なくとも基づいて前記仮想空間において動作させることを含
    前記1又は複数の記憶装置は、前記サーバが有し、又は、前記第1及び第2のユーザ端末が有する、
    プログラム。
JP2018098338A 2018-05-22 2018-05-22 動画を配信するためのシステム、方法、及びプログラム Active JP7228338B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018098338A JP7228338B2 (ja) 2018-05-22 2018-05-22 動画を配信するためのシステム、方法、及びプログラム
JP2023019795A JP2023071712A (ja) 2018-05-22 2023-02-13 動画を配信するためのシステム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018098338A JP7228338B2 (ja) 2018-05-22 2018-05-22 動画を配信するためのシステム、方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023019795A Division JP2023071712A (ja) 2018-05-22 2023-02-13 動画を配信するためのシステム、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019204244A JP2019204244A (ja) 2019-11-28
JP7228338B2 true JP7228338B2 (ja) 2023-02-24

Family

ID=68727038

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018098338A Active JP7228338B2 (ja) 2018-05-22 2018-05-22 動画を配信するためのシステム、方法、及びプログラム
JP2023019795A Pending JP2023071712A (ja) 2018-05-22 2023-02-13 動画を配信するためのシステム、方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023019795A Pending JP2023071712A (ja) 2018-05-22 2023-02-13 動画を配信するためのシステム、方法、及びプログラム

Country Status (1)

Country Link
JP (2) JP7228338B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7098676B2 (ja) * 2020-03-24 2022-07-11 グリー株式会社 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
JP7159244B2 (ja) * 2020-06-08 2022-10-24 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム
JP6974550B1 (ja) * 2020-07-17 2021-12-01 グリー株式会社 コンピュータプログラム、方法、及び、サーバ装置
JP2022132896A (ja) 2021-03-01 2022-09-13 トヨタ自動車株式会社 仮想空間共有システム、仮想空間共有方法及び仮想空間共有プログラム
JP7333528B2 (ja) * 2021-12-23 2023-08-25 グリー株式会社 プログラム、情報処理方法及び情報処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194876A (ja) 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab 仮想空間共有装置
JP2014225801A (ja) 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
JP2015184689A (ja) 2014-03-20 2015-10-22 株式会社Mugenup 動画生成装置及びプログラム
JP2019186797A (ja) 2018-04-12 2019-10-24 株式会社バーチャルキャスト コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021215A (ja) * 1996-06-28 1998-01-23 Ritsumeikan サイバースペースの作成方法及びその作成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194876A (ja) 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab 仮想空間共有装置
JP2014225801A (ja) 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
JP2015184689A (ja) 2014-03-20 2015-10-22 株式会社Mugenup 動画生成装置及びプログラム
JP2019186797A (ja) 2018-04-12 2019-10-24 株式会社バーチャルキャスト コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム

Also Published As

Publication number Publication date
JP2023071712A (ja) 2023-05-23
JP2019204244A (ja) 2019-11-28

Similar Documents

Publication Publication Date Title
JP7228338B2 (ja) 動画を配信するためのシステム、方法、及びプログラム
JP6546886B2 (ja) デジタルコンテンツを配信するシステム、方法、及びプログラム
CN111527525A (zh) 混合现实服务提供方法及系统
KR20210135683A (ko) 인터넷 전화 기반 통화 중 리액션을 표시하는 방법, 시스템, 및 컴퓨터 프로그램
JP2017121021A (ja) デジタルコンテンツを配信するシステム、方法、及びプログラム
KR20190029398A (ko) 다중 환경 간 사용자 화면 공유 방법 및 이를 수행하는 서버 시스템
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
JP7134298B2 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP2019097888A (ja) 情報処理装置およびゲーム画像配信方法
JP2017041780A (ja) 動画を特定の視野で表示するシステム、方法、及びプログラム
US10575030B2 (en) System, method, and program for distributing video
KR20150037941A (ko) 협업 환경 및 뷰
JP2022058643A (ja) 動画を配信するためのシステム、方法、及びプログラム
CN109819341B (zh) 视频播放方法、装置、计算设备及存储介质
CN112492328B (zh) 虚拟房间创建方法、装置、终端及存储介质
JP6869291B2 (ja) デジタルコンテンツを配信するシステム、方法、及びプログラム
JP5878671B1 (ja) デジタルコンテンツを配信するシステム、方法、及びプログラム
JP7373599B2 (ja) 動画を作成するためのシステム、方法、及びプログラム
JP2022171661A (ja) 動画を作成するためのシステム、方法、及びプログラム
CN105426039A (zh) 一种推送进场图像的方法和装置
JP6914566B1 (ja) ライブ配信システム
JP6923735B1 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP2017041872A (ja) 動画を特定の視野で表示するシステム、方法、及びプログラム
CN115576631A (zh) 针对视频会议的新手引导方法、装置、设备及存储介质
JP2023123389A (ja) コミュニケーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R150 Certificate of patent or registration of utility model

Ref document number: 7228338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150