JP7430014B1 - 制御装置、制御方法及びコンピュータープログラム - Google Patents

制御装置、制御方法及びコンピュータープログラム Download PDF

Info

Publication number
JP7430014B1
JP7430014B1 JP2023057251A JP2023057251A JP7430014B1 JP 7430014 B1 JP7430014 B1 JP 7430014B1 JP 2023057251 A JP2023057251 A JP 2023057251A JP 2023057251 A JP2023057251 A JP 2023057251A JP 7430014 B1 JP7430014 B1 JP 7430014B1
Authority
JP
Japan
Prior art keywords
distribution
status
unit
content
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023057251A
Other languages
English (en)
Inventor
忠伸 壽藤
Original Assignee
株式会社Hikky
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Hikky filed Critical 株式会社Hikky
Priority to JP2023057251A priority Critical patent/JP7430014B1/ja
Application granted granted Critical
Publication of JP7430014B1 publication Critical patent/JP7430014B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

【課題】ネットワークを介して行われるコンテンツの配信において、配信に関係する者が配信を受けている者の状況をより容易に確認すること。【解決手段】ネットワークを介して配信されるコンテンツを受信する第一端末装置から受信される前記第一端末装置のユーザーの状態を示す状態情報に基づいて、前記コンテンツの配信の盛り上がりの状態を示す配信状態を判定する配信状態判定部と、前記配信状態を示す画像を表す表示情報を生成し、前記コンテンツの配信関係者の第二端末装置に前記表示情報を送信する表示情報制御部と、を備える制御装置。【選択図】図1

Description

本発明は、参加者の状況を伝達するための技術に関する。
従来から、ネットワークを介してライブ動画を配信するためのシステムが提案されている。最近では特に、ライブ動画の配信者と視聴者との間の繋がりを強化することを目的とした技術の提案もされている(例えば特許文献1参照)。
特開2022-186746号公報
しかしながら、ネットワークを介したライブ動画の配信では、配信者側からは各視聴者の状況を知ることが難しい。そのため、配信者において視聴者の盛り上がりの状況を把握することが難しい場合があった。このような問題は、ライブ動画に限った問題ではなく、複数の閲覧者に対してネットワークを介してコンテンツが配信されるシステム全般に共通する問題である。
上記事情に鑑み、本発明は、ネットワークを介して行われるコンテンツの配信において、配信に関係する者が配信を受けている者の状況をより容易に確認することが可能となる技術の提供を目的としている。
本発明の一態様は、ネットワークを介して配信されるコンテンツを受信する第一端末装置から受信される前記第一端末装置のユーザーの状態を示す状態情報に基づいて、前記コンテンツの配信の盛り上がりの状態を示す配信状態を判定する配信状態判定部と、前記配信状態を示す画像を表す表示情報を生成し、前記コンテンツの配信関係者の第二端末装置に前記表示情報を送信する表示情報制御部と、を備える制御装置である。
本発明の一態様は、上記の制御装置であって、前記配信状態を示す画像は、前記ユーザーの単位又は複数のユーザーを含むグループの単位のいずれかで分割された単位領域を有し、前記配信状態判定部は、単位領域毎に前記単位領域に属するユーザーの状態情報に基づいて前記単位に応じた配信状態を判定し、前記表示情報制御部は、前記単位領域に前記配信状態に応じた画像を表示させる。
本発明の一態様は、コンピューターが、ネットワークを介して配信されるコンテンツを受信する第一端末装置から受信される前記第一端末装置のユーザーの状態を示す状態情報に基づいて、前記コンテンツの配信の盛り上がりの状態を示す配信状態を判定する配信状態判定ステップと、コンピューターが、前記配信状態を示す画像を表す表示情報を生成し、前記コンテンツの配信関係者の第二端末装置に前記表示情報を送信する表示情報制御ステップと、を有する制御方法である。
本発明の一態様は、ネットワークを介して配信されるコンテンツを受信する第一端末装置から受信される前記第一端末装置のユーザーの状態を示す状態情報に基づいて、前記コンテンツの配信の盛り上がりの状態を示す配信状態を判定する配信状態判定部と、前記配信状態を示す画像を表す表示情報を生成し、前記コンテンツの配信関係者の第二端末装置に前記表示情報を送信する表示情報制御部と、を備える制御装置、としてコンピューターを機能させるためのコンピュータープログラムである。
本発明により、ネットワークを介して行われるコンテンツの配信において、配信に関係する者が配信を受けている者の状況をより容易に確認することが可能となる。
本発明の配信システム100のシステム構成を示す概略ブロック図である。 第一ユーザー端末30の機能構成の具体例を示す概略ブロック図である。 第二ユーザー端末40の機能構成の具体例を示す概略ブロック図である。 制御装置50の機能構成の具体例を示す概略ブロック図である。 第一表示態様を示す図である。 第一表示態様において視聴者数が増えた場合の画像を示す図である。 第二表示態様を示す図である。 第二表示態様において視聴者数が増えた場合の画像を示す図である。 第三表示態様を示す図である。 第四表示態様を示す図である。 表示態様の変形例を示す図である。 制御装置50の処理の具体例を示すフローチャートである。 配信システム100の変形例を示す図である。 配信システム100の変形例を示す図である。 本実施形態に適用される情報処理装置90のハードウェア構成例の概略を示す図である。
以下、本発明の具体的な構成例について、図面を参照しながら説明する。図1は、本発明の配信システム100のシステム構成を示す概略ブロック図である。配信システム100は、入力機器10、配信サーバー20、複数の第一ユーザー端末30、第二ユーザー端末40及び制御装置50を備える。配信システム100は、配信サーバー20からコンテンツのデータを複数の第一ユーザー端末30にネットワーク60を介して配信する。
配信システム100では、例えば第一ユーザー端末30が配信サーバー20に対してアクセスして配信を受けるための処理を行ってもよいし、第一ユーザー端末30が制御装置50に対してアクセスして配信を受けるための処理を行ってもよい。このような制御装置50の具体例として例えば配信を制御する装置や、メタバースを提供する装置がある。例えば制御装置50がメタバースを提供する装置である場合には、メタバース内にて第一ユーザー端末30のユーザーのアバターがコンテンツ配信の行われる場所に訪れることに応じて配信サーバー20から第一ユーザー端末30へ配信が開始されてもよい。
配信サーバー20から第一ユーザー端末30に配信されるコンテンツは、例えば入力機器10によって取得された演者70の行為に関する映像や音響を含むものであってもよい。配信されるコンテンツは、例えば音楽の演奏、演劇や芸能の実演、スポーツや競技(将棋や囲碁など)やゲームの映像、ショーの映像など、どのような種別のものであってもよい。配信されるコンテンツは、ライブのコンテンツであってもよいし、録画等予め生成されたコンテンツであってもよい。
映像は、カメラで撮影することによって生成される動画像であってもよいし、コンピューターグラフィックスを用いて生成された動画像であってもよいし、これらを組み合わせて生成されたものであってもよい。音響は、マイクで集音することによって生成された音響であってもよいし、コンピューターで生成された音響であってもよいし、これらを組み合わせて生成されたものであってもよい。以下の説明では、演者70の演奏の映像又は音響を入力機器10で取得することによって得られるコンテンツが配信される例を用いて説明する。
入力機器10は、カメラやマイクを用いて構成される。入力機器10は、例えば配信対象領域80における演者70の映像を取得してもよいし、配信対象領域における演者70によって発せられる音響(演奏や歌唱)を取得してもよい入力機器10は、取得された映像や音響を示すコンテンツデータを生成し、生成されたコンテンツデータを配信サーバー20に入力する。
配信サーバー20は、入力機器10から入力されたコンテンツデータを、配信先となる第一ユーザー端末30に対して配信する。例えば第一ユーザー端末30から配信要求を受信した場合に、配信サーバー20は配信要求の送信元である第一ユーザー端末30を配信先として決定してもよい。例えば制御装置50から配信先の第一ユーザー端末30を指定された場合に、配信サーバー20は指定された第一ユーザー端末30を配信先として決定してもよい。配信先となる第一ユーザー端末30はどのような処理によって決定されてもよい。配信サーバー20は、配信先となる第一ユーザー端末30に対してネットワーク60を介してコンテンツデータを配信する。
第一ユーザー端末30は、コンテンツの配信を受ける者(以下「視聴者」という。)によって使用される端末装置である。図2は、第一ユーザー端末30の機能構成の具体例を示す概略ブロック図である。第一ユーザー端末30は、例えばスマートフォン、タブレット、パーソナルコンピューター、携帯ゲーム機、据え置き型ゲーム機、テレビ受像器、ヘッドマウントディスプレイシステム、専用機器などの情報機器を用いて構成される。第一ユーザー端末30は、通信部31、操作部32、出力部33、記憶部34及び制御部35を備える。
通信部31は、通信機器である。通信部31は、例えばネットワークインターフェースとして構成されてもよい。通信部31は、制御部35の制御に応じて、ネットワーク60を介して他の装置とデータ通信する。通信部31は、無線通信を行う装置であってもよいし、有線通信を行う装置であってもよい。
操作部32は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。操作部32に適用される入力装置は、例えばジャイロセンサーや加速度センサーを用いたコントローラーであってもよい。操作部32に適用される入力装置は、例えばジャイロセンサーや加速度センサーを内蔵したヘッドマウントディスプレイであってもよい。このように入力装置が構成されることで、視聴者の動きに関する情報を取得することができる。入力装置としてヘッドマウントディスプレイが用いられる場合には、操作部32と出力部33とが同一の装置として構成されてもよい。
操作部32は、視聴者の指示や視聴者の動きを第一ユーザー端末30に入力する際に視聴者によって使用される。操作部32は、入力装置を第一ユーザー端末30に接続するためのインターフェースであっても良い。この場合、操作部32は、入力装置において視聴者の入力に応じ生成された入力信号を第一ユーザー端末30に入力する。操作部32は、マイク及び音声認識装置を用いて構成されてもよい。この場合、操作部32は視聴者によって発話された文言を音声認識し、認識結果の文字列情報を第一ユーザー端末30に入力する。操作部32は、視聴者によって発せられた音の大きさを判定し、判定結果を第一ユーザー端末30に入力してもよい。このような音声認識や音の大きさの判定は制御部35によって行われてもよい。操作部32は、視聴者の指示や動きを第一ユーザー端末30に入力可能な構成であればどのように構成されてもよい。
出力部33は、出力装置を用いて構成される。出力部33は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置を用いて構成されてもよい。この場合、出力部33は、配信サーバー20から配信されるコンテンツデータの映像を表示する。出力部33は、画像表示装置を第一ユーザー端末30に接続するためのインターフェースであっても良い。この場合、出力部33は、画像データを表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。
出力部33は、例えばスピーカー、ヘッドフォン、イヤフォン等の音響出力装置を用いて構成されてもよい。この場合、出力部33は、配信サーバー20から配信されるコンテンツデータの音響を出力する。出力部33は、音響出力装置を第一ユーザー端末30に接続するためのインターフェースであっても良い。この場合、出力部33は、音響データを出力するための音響信号を生成し、自身に接続されている音響出力装置に音響信号を出力する。
記憶部34は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部34は、制御部35によって使用されるデータを記憶する。記憶部34は、例えばユーザー情報記憶部341として機能してもよい。
ユーザー情報記憶部341は、第一ユーザー端末30を操作するユーザー(視聴者)に関する情報(以下「ユーザー情報」という。)を記憶する。ユーザー情報は、例えば視聴者に対応付けられているユーザー識別情報や属性情報を含んでもよい。属性情報は、例えば視聴者の年齢や性別等に関する情報を含んでもよい。
制御部35は、CPU(Central Processing Unit)等のプロセッサーとメモリーとを用いて構成される。制御部35は、プロセッサーがプログラムを実行することによって、接続制御部351、状態情報制御部352及び出力制御部353として機能する。なお、制御部35の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピューター読み取り可能な記録媒体に記録されても良い。コンピューター読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
制御部35は、例えば予め自装(第一ユーザー端末30)にインストールされたアプリケーションを実行してもよい。このようなアプリケーションの具体例として、配信システム100の専用アプリケーションとして第一ユーザー端末30に提供されるアプリケーションがある。このようなアプリケーションの他の具体例として、WEBブラウザーのアプリケーションがある。このようなアプリケーションの他の具体例として、第一ユーザー端末30がWEBブラウザー等のアプリケーションを用いて所定のアドレスにアクセスしたことに応じて所定のサーバーから提供されるアプリケーションであってもよい。制御部35において実行されるアプリケーションは1つであってもよいし複数であってもよい。このようなアプリケーションの具体例として、WEBブラウザー、メタバースのためのアプリケーション、動画像や音響のコンテンツ配信を受信して再生するためのアプリケーション、等がある。制御部35は、実行中のアプリケーションのプログラムにしたがって動作してもよい。
接続制御部351は、配信サーバー20に対してコンテンツの配信を開始させるための処理を実行する。例えば、接続制御部351は、ユーザー情報記憶部341に記憶されているユーザー識別情報等の情報を配信サーバー20に対して送信することによって、コンテンツの配信を要求してもよい。例えば、接続制御部351は、ユーザー情報記憶部341に記憶されているユーザー識別情報等の情報を制御装置50に対して送信することによってコンテンツの配信を要求してもよい。コンテンツの配信の要求はどのような形で行われてもよい。以下、コンテンツの配信の開始までの処理の具体例を三つ説明する。ただし、コンテンツの配信の開始までの処理は、以下に示した具体例に限定される必要は無い。
第一の具体例について説明する。例えば視聴者が第一ユーザー端末30を操作することによって、演者70の演奏等のコンテンツ配信が予定されているWEBサイトのURLにアクセスし、そのWEBサイトにおいてコンテンツの配信開始を指示するための操作(例えば“配信開始”のボタンを押す操作)を行う。視聴者のこのような動作に応じて、接続制御部351は、WEBサイトから要求された情報(例えばユーザー識別情報やパスワード等)をWEBサイトのサーバーに対して送信する。WEBサイトのサーバーは、認証を行った上で、配信サーバー20に対し、この第一ユーザー端末30への配信を開始することを指示する。この場合、制御装置50がWEBサイトのサーバーとして動作してもよい。
第二の具体例について説明する。例えば視聴者が第一ユーザー端末30を操作することによって、メタバースの仮想空間にアクセスする。視聴者は、メタバースの仮想空間内において自身のアバターを操作することで、演者70の演奏等のコンテンツ配信が予定されている所定の領域にアバターを移動させる。このような処理は、例えば接続制御部351によって実行されてもよい。所定の領域にアバターが侵入したことに応じて、メタバースのサーバーは、配信サーバー20に対し、この第一ユーザー端末30への配信を開始することを指示する。この場合、制御装置50がメタバースのサーバーとして動作してもよい。
第三の具体例について説明する。第三の具体例では、配信サーバー20が上記第一の具体例におけるWEBサイトのサーバーとして動作する。この場合、配信サーバー20は、第一ユーザー端末30からのアクセスに応じてコンテンツの配信を開始する。
状態情報制御部352は、第一ユーザー端末30の視聴者の状態情報を取得する。状態情報は、第一ユーザー端末30において再生されているコンテンツに対する視聴者の状態を直接的又は間接的に示す情報である。状態情報は、例えば視聴者がアバターに対して行った操作に関する情報や、アバターの状態を示す情報であってもよい。例えば、状態情報として、アバターに設定されている感情を示す情報が用いられても良いし、アバターを動かす操作の内容を示す情報が用いられてもよい。状態情報は、例えば視聴者が操作部32を介して入力したテキストチャットの内容を示す情報であってもよい。状態情報は、例えば視聴者が操作部32を介して行った投げ銭に関する情報であってもよい。状態情報は、例えば視聴者が操作部32を介して入力した音声や音響に関する情報であってもよい。状態情報は、例えば視聴者が操作部32を操作することによって得られた視聴者の動きに関する情報(例えばコントローラーやヘッドマウントディスプレイにおいて検出された視聴者の動きに関する情報)であってもよい。
状態情報は、第一ユーザー端末30に備えられたカメラによって撮影された画像に関する情報であってもよい。この場合、例えば画像そのものが状態情報として用いられても良いし、時系列に並んだ各画像において差分情報を取得し、その差分情報が状態情報として用いられても良い。例えば、各画素における画素値の差分が大きいほど視聴者が大きく動いていると判定されてもよいし、画像内のオブジェクトについて動きベクトルを算出することによって動きベクトルの大きさに応じて視聴者の動きの大きさが判定されてもよい。
状態情報制御部352は、取得された状態情報を制御装置50に送信する。このとき、状態情報制御部352は、例えばユーザー情報記憶部341に記憶されているユーザー情報(例えばユーザー識別情報)を状態情報とともに送信してもよい。状態情報制御部352は、第一ユーザー端末30において配信サーバー20から受信しているコンテンツを示すコンテンツ識別情報を状態情報とともに送信してもよい。状態情報制御部352は、第一ユーザー端末30がアクセスしているメタバースにおいてアバターが所属しているインスタンスを示すインスタンス識別情報を状態情報とともに送信してもよい。
出力制御部353は、配信サーバー20から配信されるコンテンツのデータを、ネットワーク60を介して受信する。出力制御部353は、受信されたデータを復号し出力部33において再生する。出力制御部353のこのような処理によって、第一ユーザー端末30の視聴者はコンテンツを視聴することができる。
第二ユーザー端末40は、配信関係者によって使用される端末装置である。配信関係者は、コンテンツの配信に関係する者である。配信関係者は、例えば演者70であってもよいし、演者70の関係者(例えばプロデューサーやマネージャーや監督等)であってもよい。配信関係者は、配信されるコンテンツの編集や作成を行う者であってもよい。配信関係者は、コンテンツの配信者自身であってもよい。配信関係者は、上述した具体例に限定される必要は無い。
図3は、第二ユーザー端末40の機能構成の具体例を示す概略ブロック図である。第二ユーザー端末40は、例えばスマートフォン、タブレット、パーソナルコンピューター、携帯ゲーム機、据え置き型ゲーム機、テレビ受像器、ヘッドマウントディスプレイシステム、専用機器などの情報機器を用いて構成される。第二ユーザー端末40は、通信部41、操作部42、表示部43、記憶部44及び制御部45を備える。
通信部41は、通信機器である。通信部41は、例えばネットワークインターフェースとして構成されてもよい。通信部41は、制御部45の制御に応じて、ネットワーク60を介して他の装置とデータ通信する。通信部41は、無線通信を行う装置であってもよいし、有線通信を行う装置であってもよい。
操作部42は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。操作部42に適用される入力装置は、例えばジャイロセンサーや加速度センサーを用いたコントローラーであってもよい。操作部42は、配信関係者の指示を第二ユーザー端末40に入力する際にユーザー(配信関係者)によって使用される。操作部42は、入力装置を第二ユーザー端末40に接続するためのインターフェースであっても良い。この場合、操作部42は、入力装置において配信関係者の入力に応じ生成された入力信号を第二ユーザー端末40に入力する。操作部42は、マイク及び音声認識装置を用いて構成されてもよい。この場合、操作部42は配信関係者によって発話された文言を音声認識し、認識結果の文字列情報を第二ユーザー端末40に入力する。このような音声認識は制御部45によって行われてもよい。操作部42は、配信関係者の指示や動きを第二ユーザー端末40に入力可能な構成であればどのように構成されてもよい。
表示部43は、表示装置を用いて構成される。表示部43は、例えば液晶ディスプレイ、有機ELディスプレイ等の画像表示装置を用いて構成されてもよい。表示部43は、制御装置50から送信される画像を表示する。表示部43は、画像表示装置を第二ユーザー端末40に接続するためのインターフェースであっても良い。この場合、表示部43は、画像データを表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。
記憶部44は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部44は、制御部45によって使用されるデータを記憶する。
制御部45は、CPU等のプロセッサーとメモリーとを用いて構成される。制御部45は、プロセッサーがプログラムを実行することによって、表示制御部451として機能する。なお、制御部45の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピューター読み取り可能な記録媒体に記録されても良い。コンピューター読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
制御部45は、例えば予め自装(第二ユーザー端末40)にインストールされたアプリケーションを実行してもよい。このようなアプリケーションの具体例として、配信システム100の専用アプリケーションとして第二ユーザー端末40に提供されるアプリケーションがある。このようなアプリケーションの他の具体例として、WEBブラウザーのアプリケーションがある。このようなアプリケーションの他の具体例として、第二ユーザー端末40がWEBブラウザー等のアプリケーションを用いて所定のアドレスにアクセスしたことに応じて所定のサーバーから提供されるアプリケーションであってもよい。制御部45において実行されるアプリケーションは1つであってもよいし複数であってもよい。このようなアプリケーションの具体例として、WEBブラウザーや、制御装置50から受信されるデータに基づいて画像を表示するためのアプリケーション、等がある。制御部45は、実行中のアプリケーションのプログラムにしたがって動作してもよい。
表示制御部451は、制御装置50と通信することによって、配信状態に応じた画像を示すデータを受信する。表示制御部451は、受信された画像を表示部43に表示させる。
図4は、制御装置50の機能構成の具体例を示す概略ブロック図である。制御装置50は、例えばパーソナルコンピューター、サーバー装置などの情報機器を用いて構成される。制御装置50は、通信部51、記憶部52及び制御部53を備える。
通信部51は、通信機器である。通信部51は、例えばネットワークインターフェースとして構成されてもよい。通信部51は、制御部53の制御に応じて、ネットワーク60を介して他の装置とデータ通信する。通信部51は、無線通信を行う装置であってもよいし、有線通信を行う装置であってもよい。
記憶部52は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部52は、制御部53によって使用されるデータを記憶する。記憶部52は、例えばユーザー情報記憶部521、状態情報記憶部522及び配信状態情報記憶部523として機能する。ユーザー情報記憶部521は、配信サーバー20によるコンテンツ配信を受ける第一ユーザー端末30の各視聴者のユーザー情報を記憶する。状態情報記憶部522は、各第一ユーザー端末30から受信された各視聴者の状態情報を記憶する。配信状態情報記憶部523は、後述する所定の単位毎に配信状態情報を記憶する。
制御部53は、CPU等のプロセッサーとメモリーとを用いて構成される。制御部53は、プロセッサーがプログラムを実行することによって、状態情報取得部531、配信状態判定部532及び表示情報制御部533として機能する。
状態情報取得部531は、配信サーバー20からコンテンツの配信を受けている第一ユーザー端末30それぞれから状態情報を受信する。状態情報取得部531は、受信された状態情報を状態情報記憶部522に記録する。このとき、状態情報取得部531は、状態情報とユーザー識別情報とを対応付けて記録してもよいし、状態情報とコンテンツ識別情報とを対応付けて記録してもよい。
配信状態判定部532は、受信された状態情報に基づいて、配信されているコンテンツの配信状態を判定する。配信状態は、コンテンツの配信の盛り上がりの状態を、所定の単位毎に示す。所定の単位は、例えばコンテンツ単位であってもよいし、コンテンツの配信を受けている1又は複数の視聴者が所属するグループ単位であってもよいし、一人一人の視聴者単位であってもよい。視聴者が所属するグループの具体例として、メタバースにおけるインスタンスがある。一つのグループに所属可能な視聴者の数の上限が定められていても良い。各グループには上限まで視聴者が割り当てられ、上限に達した場合には新たなグループに新たな視聴者が割り当てられるように構成されてもよい。このように構成されることにより、生成されたグループの数に基づいて、そのコンテンツの配信を受けている視聴者のおおよその人数を把握することが可能となる。この場合、配信を受けている視聴者が所属しているインスタンス毎に1つの配信状態が判定されてもよい。
配信状態は、所定の基準に基づいて判定される。例えば、配信を受けている視聴者又はグループに所属している視聴者の数が多いほど、大きく盛り上がっていることを示すように配信状態が判定されてもよい。例えば、視聴者が操作しているアバターの状態に応じて配信状態が判定されてもよい。この場合、例えばアバターの感情を示す状態が所定の状態(例えば元気、楽しい、嬉しい等の一般的にポジティブな感情を示す状態)である場合には、そのアバターの数に応じて盛り上がっていると判定されてもよい。逆に、例えばアバターの感情を示す状態が所定の状態(例えばつまらない、悲しい、さみしい等の一般的にネガティブな感情を示す状態)である場合には、そのアバターの数に応じて盛り下がっていると判定されてもよい。ポジティブな感情を示す状態や、ネガティブな感情を示す状態には、それぞれ複数の段階が設けられていてもよい。
例えば、アバターを動かす操作の種類(例えば跳ねる、歩く、走る、踊るなど)に応じて配信状態が判定されてもよい。アバターを動かす操作の頻度に応じて配信状態が判定されてもよい。具体的には、操作の頻度が高い程、より大きく盛り上がっていると判定されてもよい。例えば、入力されるテキストチャットの内容、文字数、投稿される頻度に応じて配信状態が判定されてもよい。例えばテキストチャットの内容は、自然言語処理を実行することによってポジティブな内容かネガティブな内容かが判定されてもよい。例えば、文字数が多いほど、投稿される頻度が高いほど、より大きく盛り上がっていると判定されてもよい。
例えば、配信関係者に対して実施された投げ銭に応じて配信状態が判定されてもよい。例えば、投げ銭の頻度が高いほど、投げ銭の総額が高い程、より大きく盛り上がっていると判定されてもよい。例えば、視聴者が発声した内容や視聴者によって発せられた音(例えば声)の大きさに応じて配信状態が判定されてもよい。例えば視聴者が発声した内容は、音声認識処理及び自然言語処理を実行することによってポジティブな内容かネガティブな内容かが判定されてもよい。例えば、音の大きさ大きいほど、より大きく盛り上がっていると判定されてもよい。
例えば、視聴者の動きに関する情報に応じて配信状態が判定されてもよい。この場合、例えば視聴者の動きが所定の動き(例えば跳ねる、手を挙げる、手を振る等の一般的にポジティブな感情を示す状態)である場合には、その視聴者の数に応じて盛り上がっていると判定されてもよい。視聴者の動きの頻度に応じて配信状態が判定されてもよい。具体的には、動く頻度が高い程、より大きく盛り上がっていると判定されてもよい。視聴者の動きの大きさに応じて配信状態が判定されてもよい。具体的には、動きの大きさ(例えば手の振りの大きさや振る際の加速度の大きさ)が大きい程、より大きく盛り上がっていると判定されてもよい。
配信状態判定部532は、所定の単位毎に、その単位に該当する視聴者の状態情報に基づいて配信状態を判定する。配信状態判定部532は、判定結果を示す情報を所定の単位毎に配信状態情報記憶部523に記録する。
表示情報制御部533は、コンテンツ毎に表示情報を生成し、そのコンテンツの配信関係者の第二ユーザー端末40に表示情報を送信する。表示情報は、第二ユーザー端末40において一つの画面として表示される画像を示す情報である。以下、表示情報制御部533の処理について詳細に説明する。配信状態情報記憶部523から所定の単位毎に配信状態情報を取得する。表示情報制御部533は、所定の単位毎に配信状態情報を示す表示情報を生成する。表示情報は、第二ユーザー端末40において表示される画像に関する情報である。表示情報は、画像を生成するために必要な情報であってもよいし、画像そのもののデータであってもよい。
以下、表示情報制御部533によって生成される表示情報の具体例について説明する。図5は、第一表示態様を示す図である。第一表示態様では、所定の単位は視聴者単位である。表示される画像は、視聴者数に応じて複数の単位領域81に分割される。各単位領域81は同じ大きさ且つ同じ形状の領域であってもよい。一つの画像中に全ての視聴者の単位領域81が表示されることが好ましい。一つの単位領域81には、一人の視聴者が割り当てられる。
各単位領域81には、その領域に割り当てられた視聴者の配信状態に応じた画像が表示される。配信状態に応じた画像は、例えば所定のシンボル画像(例えば人の形をした画像)82を含んでもよいし、単位領域81の全体を所定のパターンや色で埋める画像であってもよいし、他の態様の画像であってもよい。図5の例では、各単位領域81には視聴者の配信状態に応じたシンボル画像82が示される。シンボル画像82は、全ての視聴者において同じ形状であってもよいし、配信状態に応じて複数種類の形状が用いられても良い。シンボル画像82の色は、配信状態に応じた態様(例えば色、変化、パターン等)で表されてもよい。シンボル画像82の背景(すなわち、単位領域81においてシンボル画像82以外の領域)の色は、配信状態に応じた態様(例えば色、変化、パターン等)で表されてもよい。図5の例では、4名の視聴者が同一のコンテンツの配信を受けている状態である。4名の視聴者に割り当てられた各単位領域81には、各視聴者に応じたシンボル画像82や背景が表示される。
図6は、第一表示態様において、図5の場合よりも配信を受けている視聴者数が増えた場合の画像を示す図である。図6では、13名の視聴者が配信を受けている。画像を13個の単位領域81に分割しようとすると、一つ一つの単位領域81の幅が非常に狭くなるおそれがある。単位領域81には、必ずしも視聴者が割り当てられなくてもよい。例えば、単位領域81の縦と横との比が所定の範囲におさまるように単位領域81の形状が定義され、そのような単位領域81を用いて可能な限り視聴者の総数に近い数の単位領域81が生成されるように画像が分割されてもよい。図6の例では、縦4つ横4つで合計16の単位領域81に画像が分割されている。
図7は、第二表示態様を示す図である。第二表示態様では、所定の単位はグループ単位(例えばインスタンス単位)である。表示される画像は、グループ数に応じて複数の単位領域81に分割される。各単位領域81は同じ大きさ且つ同じ形状の領域であってもよい。一つの画像中に全てのグループの単位領域81が表示されることが好ましい。一つの単位領域81には、一つグループが割り当てられる。
各単位領域81には、その領域に割り当てられたグループの配信状態に応じた画像が表示される。グループの配信状態は、例えばそのグループに所属している全視聴者の配信状態に基づいて判定される。例えば全視聴者の配信状態の統計情報に基づいて判定されてもよい。配信状態に応じた画像は、例えば所定のシンボル画像(例えば1又は複数の人の形をした画像)を含んでもよいし、単位領域81の全体を所定のパターンや色で埋める画像であってもよいし、他の態様の画像であってもよい。図7の例では、各単位領域81は配信状態に応じたパターン又は色の画像で埋められている。例えば、盛り上がっているほど濃い赤色で示され、盛り下がっている程濃い青色で示めされていてもよい。図7の例では、配信状態が4つの段階(LV1~LV4)で示されている。配信状態の段階は、4つに限定される必要は無い。このような表示は、第一態様においてシンボル画像ではなく単位領域81を埋める画像が用いられた場合に適用されてもよい。単位領域81の画像としてシンボル画像が用いられた場合には、全てのグループにおいて同じ形状であってもよいし、配信状態に応じて複数種類の形状が用いられても良い。シンボル画像やその背景に関しては、第一態様と同様に構成されてもよい。
図8は、第二表示態様において、図7の場合よりも配信を受けているグループ数が増えた場合の画像を示す図である。図8では、47名のグループに対して配信が行われている。画像の分割に関する処理は、第一態様の視聴者単位をグループ単位に置き換えて同様に構成されてもよい。例えば、画像を47個の単位領域81に分割しようとすると、一つ一つの単位領域81の幅が非常に狭くなるおそれがある。単位領域81には、必ずしもグループが割り当てられなくてもよい。例えば、単位領域81の縦と横との比が所定の範囲におさまるように単位領域81の形状が定義され、そのような単位領域81を用いて可能な限りグループの総数に近い数の単位領域81が生成されるように画像が分割されてもよい。図8の例では、縦6つ横8つで合計48の単位領域81に画像が分割されている。図8では、グループが割り当てられていない単位領域81(図8の最も右下の領域)と、最も盛り下がっている単位領域81とは、表示される際の表示態様が同じであってもよいし異なっていてもよい。
図9は、第三表示態様を示す図である。第三表示態様では、所定の単位はグループ単位(例えばインスタンス単位)である。表示される画像は、グループ数に応じて複数の単位領域81に分割される。ただし、画像上では、各単位領域81の境界(枠)は表示されない。各単位領域81は同じ大きさ且つ同じ形状の領域であってもよい。一つの画像中に全てのグループの単位領域81が表示されることが好ましい。一つの単位領域81には、一つグループが割り当てられる。
各単位領域81には、その領域に割り当てられたグループの配信状態に応じた画像が表示される。グループの配信状態は、第二表示態様の場合と同様に判定される。各単位領域81には、配信状態に応じた画像として、形状が変化するシンボル画像83が表示される。第三表示態様では、配信状態は複数の軸の値を用いて表される。例えば、盛り上がりの質と盛り上がりの量とを用いて配信状態が判定されてもよい。このような配信状態は、所定の基準に基づいて判定される。例えば、上述した配信状態の判定基準となる各要素が、質を示す要素と量を示す要素とに予め分けられており、それぞれの要素に基づいて配信状態が質と量とで判定されてもよい。シンボル画像83は、このような複数の軸の値に基づいて、複数の要素で変化する画像である。例えば、シンボル画像83は第一の軸の値(例えば質)に応じて色や表示パターンが決定され、第二の軸の値(例えば量)に応じて大きさが決定されてもよい。シンボル画像83は、例えば質が高いほど濃い色や表示パターンで示され、量が大きいほど大きい画像として示されても良い。
図10は、第四表示態様を示す図である。第四表示態様では、所定の単位はコンテンツ単位である。表示される画像は単位領域81には分割されない。第四表示態様では、表示される画像は、そのコンテンツの配信を受けている全視聴者の配信状態の統計情報に基づいて判定されてもよい。例えば、統計情報に応じた波形画像84が表示されてもよい。波形画像84は、例えば時系列情報を含まずに、その瞬間の配信状態に基づいて決定されてもよい。その場合、例えば配信状態に基づいて波形画像84の振幅や画像に含まれる波数や波長が決定されても良い。波形画像84は、例えば時系列情報を含むように、縦軸又は横軸に時間軸をもって表現されてもよい。その場合、現時点の振幅は、配信状態に基づいて決定されても良い。
図11は、表示態様の変形例を示す図である。図11では、特に第二表示態様を例に示している。図11に示されるように、各表示態様において、配信状態を示す画像以外の画像が表示されてもよい。このような画像の具体例として、配信に関係する情報を示す画像がある。より具体的には、投げ銭に関する画像や、テキストチャットに関する画像がある。このように一つの画像に配信状態に基づく画像に加えて他の情報を示す画像も合わせて表示されることによって、配信関係者はより容易に様々な情報を取得することが可能となる。
図12は、制御装置50の処理の具体例を示すフローチャートである。まず、状態情報取得部531は、各第一ユーザー端末30から状態情報を取得する(ステップS101)。状態情報の取得は、所定のタイミング(例えば3秒ごと、10秒ごと、1分ごと、第二ユーザー端末40から要求されたタイミング等)で実行される。配信状態判定部532は、取得された状態情報に基づいて所定の単位毎に配信状態を判定する(ステップS102)。表示情報制御部533は、所定の単位毎に判定された配信状態に基づいて、処理対象となっているコンテンツに関する表示内容を決定し(ステップS103)、表示情報を生成する(ステップS104)。そして、表示情報制御部533は、生成された表示情報を、判定対象となっているコンテンツの配信関係者の第二ユーザー端末40に送信する(ステップS105)。第二ユーザー端末40は、表示情報を受信すると、受信された表示情報に応じた画像を表示する。新たな表示情報の生成や送信は、所定のタイミング(例えば3秒ごと、10秒ごと、1分ごと、第二ユーザー端末40から要求されたタイミング等)で実行される。所定のタイミングが第二ユーザー端末40から要求されたタイミングである場合には、第二ユーザー端末40は所定のタイミング(例えば3秒ごと、10秒ごと、1分ごと、配信関係者の操作に応じたタイミング等)で制御装置50に新たな表示情報の送信を要求する。
このように構成された配信システム100では、配信関係者の第二ユーザー端末40において、配信されているコンテンツの配信状態を示す画像が表示される。そのため、ネットワークを介して行われるコンテンツの配信において、配信関係者が配信を受けている者の状況をより容易に確認することが可能となる。
例えば、第二ユーザー端末40において表示される画像には、グループ単位やユーザー単位で配信状態に応じた画像が表示される。そのため、配信関係者は表示された画像を見ることによって配信の視聴者のおおよその数を容易に判断することが可能となる。
例えば、第二ユーザー端末40において表示される画像には、グループ単位やユーザー単位で配信状態に応じた画像が表示される。そのため、配信関係者は表示された画像を見ることによって視聴者の盛り上がりの状態を容易に判断することが可能となる。
(変形例)
図13は、配信システム100の変形例を示す図である。図13に示される配信システム100では、第二ユーザー端末40は配信対象領域80とは離れた場所で使用される。図1で示したように配信対象領域80内で第二ユーザー端末40が使用される場合には、演者70が第二ユーザー端末40を見ることによって視聴者数や盛り上がりについて容易に判断することができたが、図13に示されるように演者70とは物理的に離れた位置で演者70とは異なる配信関係者によって第二ユーザー端末40が使用されてもよい。
図14は、配信システム100の変形例を示す図である。図14に示される配信システム100では、配信サーバー20によって配信されるコンテンツには演者70が含まれない。例えば、定点カメラ(入力機器10)で撮影された風景や動物の画像が配信されてもよい。
配信サーバー20と制御装置50とが同一の情報機器を用いて実装されてもよい。第二ユーザー端末40は、配信関係者とは異なる者によって使用されてもよい。第一ユーザー端末30に対して制御装置50から表示情報が送信されてもよい。この場合は第一ユーザー端末30の出力部33において表示情報の画像が表示されてもよい。制御装置50は、複数の情報機器を用いて実装されてもよい。例えば、制御装置50はクラウドシステムを用いて実装されてもよい。
制御装置50は、コンテンツの配信の盛り上がりの状態(配信状態)に応じて、第一ユーザー端末30に特定の演出を出力させるように構成されてもよい。例えば、第一ユーザー端末30のユーザー(視聴者)の盛り上がりの状態が特定の条件を満たした場合に、条件に応じた演出(例えば、花火を打ち上げる、炎が現れる、煙が出る等)が第一ユーザー端末30の画面に表示されるように制御装置50が動作してもよい。第一ユーザー端末30のユーザー(視聴者)が所属しているグループ(例えばインスタンス)の盛り上がりの状態が特定の条件を満たした場合に、条件に応じた演出が第一ユーザー端末30の画面に表示されるように制御装置50が動作してもよい。
図15は、本実施形態に適用される情報処理装置90のハードウェア構成例の概略を示す図である。情報処理装置90は、プロセッサー91、主記憶装置92、通信インターフェース93、補助記憶装置94、入出力インターフェース95及び内部バス96を備える。プロセッサー91、主記憶装置92、通信インターフェース93、補助記憶装置94及び入出力インターフェース95は、内部バス96を介して互いに通信可能に接続される。情報処理装置90は、例えば配信サーバー20、第一ユーザー端末30、第二ユーザー端末40及び制御装置50に適用されてもよい。この場合、例えば各装置の通信部は通信インターフェース93を用いて構成されてもよい。例えば各装置の記憶部は補助記憶装置94を用いて構成されてもよい。また、各装置の制御部は、プロセッサー91及び主記憶装置92を用いて構成されてもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
10…入力機器、20…配信サーバー、30…第一ユーザー端末、31…通信部、32…操作部、33…出力部、34…記憶部、35…制御部、40…第二ユーザー端末、41…通信部、42…操作部、43…表示部、44…記憶部、45…制御部、50…制御装置、51…通信部、52…記憶部、53…制御部、60…ネットワーク、70…演者、80…配信対象領域、81…単位領域、82…シンボル画像、83…シンボル画像、84…波形画像、100…配信システム、341…ユーザー情報記憶部、351…接続制御部、352…状態情報制御部、353…出力制御部、451…表示制御部、521…ユーザー情報記憶部、522…状態情報記憶部、523…配信状態情報記憶部、531…状態情報取得部、532…配信状態判定部、533…表示情報制御部

Claims (5)

  1. ネットワークを介して配信されるコンテンツを受信する第一端末装置から受信される前記第一端末装置のユーザーの状態を示す状態情報に基づいて、前記コンテンツの配信の盛り上がりの状態を示す配信状態を判定する配信状態判定部と、
    前記配信状態を示す画像を表す表示情報を生成し、前記コンテンツの配信関係者の第二端末装置に前記表示情報を送信する表示情報制御部と、を備え
    前記配信状態を示す画像は、複数のユーザーを含むグループの単位で分割された単位領域を有し、
    前記配信状態判定部は、単位領域毎に前記単位領域に属するユーザーの状態情報に基づいて前記単位に応じた配信状態を判定し、
    前記表示情報制御部は、前記単位領域に前記配信状態に応じた画像を表示させ、
    前記グループに所属可能なユーザーの数の上限が定められている制御装置。
  2. 前記第二端末装置は、前記コンテンツの演者が位置する配信対象領域とは物理的に離れて配置される装置である、請求項1に記載の制御装置。
  3. 前記第一端末装置のユーザーは、前記第一端末装置を操作することによって、前記コンテンツが配信される仮想空間内において自身のアバターを操作し、
    前記配信状態判定部は、前記アバターを動かす操作に応じて前記配信状態を判定する、請求項1に記載の制御装置。
  4. コンピューターが、ネットワークを介して配信されるコンテンツを受信する第一端末装置から受信される前記第一端末装置のユーザーの状態を示す状態情報に基づいて、前記コンテンツの配信の盛り上がりの状態を示す配信状態を判定する配信状態判定ステップと、
    コンピューターが、前記配信状態を示す画像を表す表示情報を生成し、前記コンテンツの配信関係者の第二端末装置に前記表示情報を送信する表示情報制御ステップと、を有し、
    前記配信状態を示す画像は、複数のユーザーを含むグループの単位で分割された単位領域を有し、
    前記配信状態判定ステップにおいて、単位領域毎に前記単位領域に属するユーザーの状態情報に基づいて前記単位に応じた配信状態を判定し、
    前記表示情報制御ステップにおいて、前記単位領域に前記配信状態に応じた画像を表示させ、
    前記グループに所属可能なユーザーの数の上限が定められている制御方法。
  5. ネットワークを介して配信されるコンテンツを受信する第一端末装置から受信される前記第一端末装置のユーザーの状態を示す状態情報に基づいて、前記コンテンツの配信の盛り上がりの状態を示す配信状態を判定する配信状態判定部と、
    前記配信状態を示す画像を表す表示情報を生成し、前記コンテンツの配信関係者の第二端末装置に前記表示情報を送信する表示情報制御部と、を備え
    前記配信状態を示す画像は、複数のユーザーを含むグループの単位で分割された単位領域を有し、
    前記配信状態判定部は、単位領域毎に前記単位領域に属するユーザーの状態情報に基づいて前記単位に応じた配信状態を判定し、
    前記表示情報制御部は、前記単位領域に前記配信状態に応じた画像を表示させ、
    前記グループに所属可能なユーザーの数の上限が定められている制御装置、としてコンピューターを機能させるためのコンピュータープログラム。
JP2023057251A 2023-03-31 2023-03-31 制御装置、制御方法及びコンピュータープログラム Active JP7430014B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023057251A JP7430014B1 (ja) 2023-03-31 2023-03-31 制御装置、制御方法及びコンピュータープログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023057251A JP7430014B1 (ja) 2023-03-31 2023-03-31 制御装置、制御方法及びコンピュータープログラム

Publications (1)

Publication Number Publication Date
JP7430014B1 true JP7430014B1 (ja) 2024-02-09

Family

ID=89806735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023057251A Active JP7430014B1 (ja) 2023-03-31 2023-03-31 制御装置、制御方法及びコンピュータープログラム

Country Status (1)

Country Link
JP (1) JP7430014B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019126101A (ja) 2014-07-18 2019-07-25 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、プログラム、並びに情報処理システム
WO2019234879A1 (ja) 2018-06-07 2019-12-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理方法およびコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019126101A (ja) 2014-07-18 2019-07-25 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、プログラム、並びに情報処理システム
WO2019234879A1 (ja) 2018-06-07 2019-12-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理方法およびコンピュータプログラム

Similar Documents

Publication Publication Date Title
CN103886009B (zh) 基于所记录的游戏玩法自动产生为云游戏建议的小游戏
JP2020096660A (ja) ゲーム動画編集プログラムならびにゲーム動画編集システム
JP2019141162A (ja) コンピュータシステム
US20230057703A1 (en) Method and apparatus for creating interactive video, device, and computer-readable storage medium
WO2022251077A1 (en) Simulating crowd noise for live events through emotional analysis of distributed inputs
JP7430014B1 (ja) 制御装置、制御方法及びコンピュータープログラム
US11845012B2 (en) Selection of video widgets based on computer simulation metadata
JP2022185001A (ja) 観戦システム、観戦システム用のコンピュータプログラム、及び観戦システムの制御方法
US20210402309A1 (en) Generating video clip of computer simulation from multiple views
US20210402297A1 (en) Modifying computer simulation video template based on feedback
JP2014123085A (ja) カラオケにおいて歌唱に合わせて視聴者が行う身体動作等をより有効に演出し提供する装置、方法、およびプログラム
JP2022156117A (ja) コンテンツ配信システム及びプログラム
KR20210068016A (ko) 보행 또는 상호작용 가상 현실을 위한 데이터 관리 및 성과 추적 시스템
US11554324B2 (en) Selection of video template based on computer simulation metadata
CN116097654B (zh) 直播互动方法、装置、设备及存储介质
JP7152644B1 (ja) 応援システム、管理サーバ、端末装置、応援方法および応援プログラム
WO2024101001A1 (en) Information processing system, information processing method, and program for communication points regarding events
WO2021199628A1 (ja) 情報処理システム、情報処理方法、及びプログラム
WO2021199627A1 (ja) 情報処理システム、情報処理方法、及びプログラム
JP6964899B2 (ja) 情報処理システム、情報処理方法、及びプログラム
WO2022113330A1 (ja) 方法、コンピュータ可読媒体、および情報処理装置
WO2022113335A1 (ja) 方法、コンピュータ可読媒体、および情報処理装置
JP2023146391A (ja) サーバシステム、プログラム及びゲーム実況プレイの実況配信方法
JP2022156116A (ja) コンテンツ配信システム及びプログラム
JP2022156119A (ja) コンテンツ配信システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230331

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240123

R150 Certificate of patent or registration of utility model

Ref document number: 7430014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150