JP7300925B2 - キャラクタを使ったライブ通信システム - Google Patents
キャラクタを使ったライブ通信システム Download PDFInfo
- Publication number
- JP7300925B2 JP7300925B2 JP2019141981A JP2019141981A JP7300925B2 JP 7300925 B2 JP7300925 B2 JP 7300925B2 JP 2019141981 A JP2019141981 A JP 2019141981A JP 2019141981 A JP2019141981 A JP 2019141981A JP 7300925 B2 JP7300925 B2 JP 7300925B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- character
- viewer
- distributor
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
配信装置は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者の手の位置に対応する第1手座標を検出する第1手検出部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報、第1手座標および第1メッセージを送信する送信部と、を備える。
視聴装置は、動作情報、第1手座標および第1メッセージを受信する受信部と、視聴者の手の位置に対応する第2手座標を検出する第2手検出部と、視聴装置の画面にキャラクタを動画表示させ、動作情報に応じてキャラクタを動作させる視聴キャラクタ表示部と、キャラクタの動作に合わせて第1メッセージを出力する第1メッセージ出力部と、第1手座標および第2手座標に基づいて、配信者の手画像である第1手および視聴者の手画像である第2手を視聴装置の画面に表示させる手表示部と、を備える。
手表示部は、第1手座標と第2手座標の距離が第1の閾値以内であるとき、第1手と第2手の握手を表示させる。
ライブ通信システム100においては、サーバ102に対して、複数の配信装置104a、104b・・・104m(以下、まとめて言うときや特に区別しないときには「配信装置104」と総称する)および複数の視聴装置108a、108b・・・108n(以下、まとめて言うときや特に区別しないときには「視聴装置108」と総称する)がインターネット106を介して接続される。配信装置104としては、スマートフォンを想定しているが、ラップトップPCなどの汎用コンピュータであってもよい。視聴装置108としては大型のタッチパッドを想定しているが、スマートフォンなどの他の情報機器であってもよい。
本出願人による特許文献2に開示したライブ通信システム100においては、1つの配信装置104に対して多数の視聴装置108が同時接続し、1対多通信を前提として説明した。本実施形態にけるライブ通信システム100は、配信者110と視聴者112が1対1通信にて会話するものとして説明する。
イベント会場には、キャラクタ114ごとに会話ブース302が用意される。視聴者112は、お気に入りのキャラクタ114に対応する会話ブース302に並ぶ。視聴者112はネームプレートをつけておく。視聴者112は順番が来たら会話ブース302に入る。会話ブース302は、衝立により仕切られた半閉鎖空間であり、視聴者112がキャラクタ114との会話に集中しやすい構成となっている。会話ブース302の正面には視聴装置108が設置され、視聴装置108に視聴キャラクタ114bが表示される。会話ブース302においては、視聴者112は、普段は他の視聴者112たちとともに多人数で会話をしているアイドルのようなキャラクタ114との会話時間を独占できる。
配信装置104およびサーバ102の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
視聴装置108およびデジタルサイネージ装置300についても同様である。
配信装置104は、ユーザインタフェース処理部116、撮像部118、データ処理部120、通信部122およびデータ格納部124を含む。
通信部122は、通信処理を担当する。撮像部118は、配信者110を撮像する。ユーザインタフェース処理部116は、配信者110からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部124はキャラクタ114の画像データを含む各種データを格納する。データ処理部120は、通信部122、ユーザインタフェース処理部116、撮像部118により取得されたデータおよびデータ格納部124に格納されているデータに基づいて各種処理を実行する。データ処理部120は、ユーザインタフェース処理部116、撮像部118、通信部122およびデータ格納部124のインタフェースとしても機能する。
入力部126は、動作検出部130と第1メッセージ取得部132を含む。動作検出部130は、撮像部118を介して配信者110の表情や体の動きを検出する。第1メッセージ取得部132は、配信者110の発話から第1メッセージ(音声メッセージ)を取得する。
動作検出部130は、第1手検出部134を含む。第1手検出部134は、配信者110の手の動きを検出する。
配信キャラクタ表示部138は、配信キャラクタ114aを表示させる。第2メッセージ出力部140は視聴者112による第2メッセージ(音声メッセージ)を出力する。手表示部142は、キャラクタ114(配信者110)および視聴者112の手を模した画像(後述)を画面表示させる。装飾部312は、キャラクタ114と視聴者112が握手をしたときなどの所定の機会において視覚的効果として各種装飾画像を表示させる。握手と装飾画像については図9、図10、図11、図13等に関連して後述する。オブジェクト表示部314は、視聴者112からプレゼントされたグッズに対応する画像(以下、「グッズ画像」とよぶ)を画面表示させる。グッズ画像(仮想オブジェクト)の画面表示については図15に関連して後述する。ライブ画像出力部332は視聴者112の撮像画像を動画表示させる(図7に関連して後述する)。
動作情報生成部144は、動作検出部130の検出結果から「動作情報」を生成する。動作情報とは、配信者110の表情を示す特徴ベクトル(例:眉の角度、目や口の開度を示す数値、配信者110と配信装置104との相対的な位置関係(前後左右)を示す数値など、配信者110の動作状態を示す数値データである。
サーバ102は、通信部152、ライブ制御部154およびデータ格納部156を含む。
通信部152は、通信処理を担当する。データ格納部156は各種データを格納する。ライブ制御部154は、通信部152により取得されたデータおよびデータ格納部156に格納されているデータに基づいて配信装置104と視聴装置108のコミュニケーションを仲介・統括する。ライブ制御部154は、通信部152およびデータ格納部156のインタフェースとしても機能する。
データ格納部156は、複数のキャラクタ114のデータを格納するキャラクタ格納部158を含む。また、データ格納部156は、グッズIDとグッズ画像を対応づけて登録する。
視聴装置108は、ユーザインタフェース処理部162、データ処理部166、通信部164、撮像部316およびデータ格納部168を含む。
通信部164は、通信処理を担当する。ユーザインタフェース処理部162は、視聴者112からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。撮像部316は、カメラ304を介して視聴者112を撮像する。データ格納部168はキャラクタ114の画像データを含む各種データを格納する。配信装置104と視聴装置108はどちらもキャラクタ114のデータをそれぞれ格納する。データ処理部166は、通信部164およびユーザインタフェース処理部162により取得されたデータおよびデータ格納部168に格納されているデータに基づいて各種処理を実行する。データ処理部166は、ユーザインタフェース処理部162、通信部164、撮像部316およびデータ格納部168のインタフェースとしても機能する。
入力部170は、第2メッセージ取得部174、第2手検出部318、オブジェクト投入部320およびオブジェクト特定部322を含む。第2メッセージ取得部174は、視聴者112の発話から第2メッセージ(音声メッセージ)を取得する。第2手検出部318は、視聴者112の手の動きを検出する。オブジェクト投入部320は、投入口308へのグッズ(物理オブジェクト)の投入を検出する。オブジェクト特定部322は、投入口308に投入されたグッズのグッズIDを読み取ることにより、グッズの種類を特定する。グッズIDが特定されたとき、通信部164の送信部186はグッズIDをサーバ102に送信する。
視聴キャラクタ表示部180は、視聴装置108に視聴キャラクタ114bを表示させる。第1メッセージ出力部182は配信者110による第1メッセージを視聴装置108から音声出力する。手表示部324は、キャラクタ114(配信者110)および視聴者112の手の画像を画面表示させる。装飾部326は、各種装飾画像を表示させる。オブジェクト表示部328は、視聴者112がプレゼントしたグッズに対応するグッズ画像を画面表示させる。幕表示部330は会話の開始時と終了時に幕を模した画像を表示させる。幕については図12に関連して後述する。
視聴キャラクタ表示部180は、おしゃべりの相手として選ばれた視聴キャラクタ114bを動画表示させる。視聴者112は、視聴装置108において視聴キャラクタ114bとの会話を楽しむ。視聴者112からは配信者110の姿が見えることはない。視聴者112は、配信者110ではなく、視聴キャラクタ114bそのものと会話しているかのような感覚を楽しむことができる。視聴装置108の第1メッセージ出力部182は、視聴キャラクタ114bを担当する配信者110からの音声(第1メッセージ)を出力する。視聴者112は、視聴キャラクタ114bに音声で話しかける(第2メッセージ)。サーバ102のライブ制御部154は、第1メッセージおよび第2メッセージを中継する。
図7に示す配信者会話画面206は、配信キャラクタ114a(視聴キャラクタ114bに対応)を担当する配信者110の配信装置104に表示される。配信者会話画面206は、視聴者表示領域336とキャラクタ表示領域334に上下分割される。配信キャラクタ表示部138は、配信キャラクタ114aをキャラクタ表示領域334に動画表示させる。視聴キャラクタ114bと配信キャラクタ114aは同一キャラクタであり、動きも同じである。配信者110は、自らの分身である配信キャラクタ114aの動きを配信装置104にて確認しながら視聴者112と会話する。配信者110は、配信装置104に向かって音声にて第1メッセージを入力する。送信部148は第1メッセージをサーバ102に送信し、サーバ102のライブ制御部154は第1メッセージを視聴装置108に配信する。
配信装置104の動作検出部130は、配信者110の動作を検出する(S10)。動作情報生成部144は、動作情報を生成する(S12)。動作情報は、配信者110の表情、体の角度、配信者110の撮像部118からの遠近などを示す数値データである(S12)。
視聴者112が視聴装置108の画面(以下、単に「視聴画面」とよぶ)にタッチしたとき、視聴装置108の第2手検出部318はタッチ地点の座標(以下、「第2手座標346」とよぶ)を検出する。配信者110が配信装置104の画面(以下、単に「配信画面」とよぶ)にタッチしたとき、配信装置104の第1手検出部134はタッチ地点の座標(以下、「第1手座標340」とよぶ)を検出する。視聴装置108は第2手座標346を配信装置104に送信し、配信装置104は第1手座標340を視聴装置108に送信する。視聴画面と配信画面には同一の座標系が設定されているものとする。たとえば、配信画面における第1手座標340が(x1,y1)のときには、視聴画面における第1手座標340も(x1,y1)となる。第2手座標346についても同様である。
配信装置104の手表示部142も、配信画面に第1手342と第2手344を表示させる。
握手可能状態にあるときであって、手距離dが第1閾値以内となったとき、手表示部324は第2手344と第1手342が握手する画像である握手画像338を表示させる。すなわち、配信者110と視聴者112がタッチ状態のまま互いの指(タッチ地点)を近づけることで「握手」が成立する。装飾部326は、握手が成立したとき、第1手342および第2手344の周辺に星型の装飾画像360を表示させる。装飾画像360は、握手の達成を演出する。
配信装置104においても同様の処理方法により、握手画像338が表示される。
時刻t1における第1手座標340を「第1手座標340(t1)」のように表記する。時刻t1においては、第1手座標340(t1)と第2手座標346(t1)の握手が成立しているものとする。また、第1手座標340(t1)と第2手座標346(t1)の手距離d(t1)は第2閾値以内であるとする。握手成立後も、手距離dが第2閾値以内である限り握手は継続する。
視聴者112は、会話ブース302に入るとき、視聴装置108の幕表示部330は視聴画面に幕350を表示させる。幕350により視聴キャラクタ114bは当初は遮蔽されている。視聴者がキャラクタ114を呼びかける、会話ブース302への入室を人感センサで検出する、あるいは、配信者110からの開幕指示入力がなされる、などを契機として、幕表示部330は幕350が開く動画像を表示させる。幕350の後ろにキャラクタ114が表示される。幕350が開いてお目当てのキャラクタ114が現れる演出により、視聴者112とキャラクタ114の対面を演出する。
なお、配信装置104にも幕表示部を設け、配信画面においても同様の制御方法により幕350を表示してもよい。
視聴者112は、握手に限らず、視聴キャラクタ114bにタッチすることもできる。視聴者112は、視聴キャラクタ114bの頭部にタッチし、頭部をこする操作をすることで、第2手344(視聴者112の手)で視聴キャラクタ114bを「撫でる」ことができる。より具体的には、第2手検出部318は、タッチに際して第2手座標346を検出し、第2手座標346の検出地点が視聴キャラクタ114bの頭部領域にあるかを判定する。頭部領域をタッチしたときであって、第2手座標346が往復運動をするとき、第2手検出部318は「撫でる」操作がなされていると判定する。
視聴者112は、お気に入りのキャラクタ114のためにグッズをプレゼントすることもできる。イベント会場では、花束、帽子、リボン、お菓子などさまざまなグッズ(物理オブジェクト)が販売されている。これらのグッズは物理的実体であり、グッズIDを記録したタグが貼付されている。このタグはRFID(Radio Frequency IDentifier)タグでもよいし、QRコード(登録商標)を記録したシールであってもよい。
視聴者112は、帽子(物理的実体としてのグッズ)を購入し、これをキャラクタ114にプレゼントしたとする。このとき、オブジェクト表示部314は帽子画像212(仮想的実体としてのグッズ画像)を表示させる。図15においては、視聴キャラクタ114bはプレゼントされた帽子画像212をかぶっている。視聴者112は、自分がプレゼントした帽子をキャラクタ114が着用してくれれば、自分の真心がキャラクタ114に通じたかのような満足感を味わえる。3次元の帽子が2次元の帽子画像212に変換されるため、視聴者112はキャラクタ114との「次元を超えたつながり」をいっそう感じることができる。また、視聴者112は、グッズをプレゼントすることにより、お気に入りのキャラクタ114のファッションの変化を楽しむことができる。視聴者112は、同時に複数種類のグッズをキャラクタ114にプレゼントしてもよい。
デジタルサイネージ装置300は、不特定多数の通行者を対象とした大型の広告表示装置である。本実施形態におけるデジタルサイネージ装置300は、駅や広場などに立てられる自立型の構造物であるとして説明する。
デジタルサイネージ装置300は、通信部352、表示部354およびデータ処理部356を含む。
通信部352は、通信処理を担当する。表示部354は画像を表示する。データ処理部356は、通信部352により取得されたデータに基づいて各種処理を実行する。データ処理部356は、通信部352および表示部354のインタフェースとしても機能する。
以上、実施形態に基づいて、ライブ通信システム100について説明した。
本実施形態によれば、会話ブース302において、視聴者112はキャラクタ114と1対1の会話を楽しめるだけでなく、「握手」を模した操作をできるため、視聴者112とキャラクタ114(配信者110)の親密度をいっそう高めることができる。配信者110と視聴者112が同時に画面にタッチし、かつ、二人が指を近づけることで握手が成立する。握手を成立させるためには視聴者112とキャラクタ114(配信者110)には暗黙の意思疎通が必要となる。握手が成立したときに配信者110はキャラクタ114と呼吸が合ったかのような、意思が疎通したかのような独特の感覚をもつことができる。
<手あそび>
図18は、キャラクタ114との手遊びをするときの視聴装置108の画面図である。
本実施形態においては、配信者110と視聴者112はそれぞれ配信画面と視聴画面にタッチすることで第1手342と第2手344を表示させるとして説明した。変形例として、配信画面等へのタッチではなく、画像認識により配信者110と視聴者112の手の位置を検出してもよい。配信者110と視聴者112は、たとえば、白い手袋を嵌めてもよい。この場合には、第1手検出部134および第2手検出部318は、撮像画像から配信者110と視聴者112の手の位置をより確実に認識しやすくなる。
配信者110はキャラクタ114と記念撮影をしてもよい。視聴装置108の撮像部316は視聴者112を撮像する。視聴装置108のデータ処理部166は「画像生成部」を備えてもよい。画像生成部は、視聴者112の撮像画像とキャラクタ114を合成することで2ショットの記念写真を生成する。視聴装置108の送信部186は、記念写真を視聴者112の携帯端末に送信してもよい。
視聴者112がキャラクタ114をタッチしたときの手の動かし方によって、キャラクタ114への関わり方を表現してもよい。たとえば、視聴者112が視聴画面をタッチしたまま手をゆっくりと左右に動かすときには第2手344によりやさしくキャラクタ114を撫でている様子を表現してもよい。具体的には、第2手検出部318は視聴者112の手の動きを検出し、手の動く速度が所定範囲内であれば「撫でる」と判定してもよい。また、視聴者112が手をすばやく動かすときには、第2手344がキャラクタ114を叩いている様子を表現してもよい。この場合には、不適切行為としてキャラクタ114にペナルティを与えてもよい。キャラクタ114へのタッチ箇所だけでなくタッチ方法によって、装飾部326はさまざまな装飾画像360を画面表示させてもよい。
ライブ制御部154は、不適切行為をしたキャラクタ114をブラックリストに登録してもよい。ライブ制御部154は、キャラクタ114に会いに来た視聴者112、視聴者112から提供されたグッズのほか、視聴者112による不適切行為の有無を登録してもよい。会話の開始にあたっては、ライブ制御部154は配信者110に対して視聴者112に関する各種の属性情報を送信して提示する。配信者110はこの属性情報を参照することにより、初めて会いに来た視聴者112なのか、前回プレゼントをくれた視聴者112なのかなどさまざまな個人情報を確認できるため、多種多様な視聴者112(ファン)に対して適切な対応が可能となる。たとえば、前回の会話のときに帽子をくれた視聴者112であれば、帽子をくれたお礼をすることによりこの視聴者112はキャラクタ114が自分を覚えてくれていたことを知って安心するかもしれない。
ライブ通信システム100は、無人店舗による接客にも利用できる。たとえば、現在、コンビニエンスストアなどで普及しつつあるセルフレジに視聴装置108を設置してもよい。遠隔地にいる店員(配信者110)はキャラクタ114として来店者(視聴者112)と対話する。来店者はキャラクタ114と対話しながら買い物を楽しむことができる。また、服などの買い物についてキャラクタ114(配信者110)からアドバイスを受けてもよい。ライブ通信システム100を応用すれば、来店者は無人店舗であっても接客の温かみを感じることができる。また、配信者110を店舗に常駐させる必要がないため、店舗側としても運営負担を軽減できるメリットがある。
Claims (10)
- 配信者により操作される配信装置と視聴者により操作される視聴装置を含み、
前記配信装置は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者の手の位置に対応する第1手座標を検出する第1手検出部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報、前記第1手座標および前記第1メッセージを送信する送信部と、を備え、
前記視聴装置は、
前記動作情報、前記第1手座標および前記第1メッセージを受信する受信部と、
視聴者の手の位置に対応する第2手座標を検出する第2手検出部と、
前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部と、
前記第1手座標および前記第2手座標に基づいて、配信者の手画像である第1手および視聴者の手画像である第2手を前記視聴装置の画面に表示させる手表示部と、を備え、
前記配信装置の前記第1手検出部は、前記配信装置の画面に配信者がタッチしたときのタッチ地点に基づいて前記第1手座標を検出し、
前記視聴装置の前記第2手検出部は、前記視聴装置の画面に視聴者がタッチしたときのタッチ地点に基づいて前記第2手座標を検出し、
前記視聴装置の前記手表示部は、前記第1手座標と前記第2手座標の距離が第1の閾値以内であるとき、第1手と第2手の握手を表示させることを特徴とするライブ通信システム。 - 前記視聴装置は、
第1手と第2手が握手をするとき、装飾画像を表示させる装飾部、を更に備えることを特徴とする請求項1に記載のライブ通信システム。 - 前記視聴装置の手表示部は、第1手および第2手が握手するときには、前記第1手座標および前記第2手座標の中間に第1手と第2手の握手を表示させ、
前記視聴装置の装飾部は、握手の位置が変化するときに装飾画像を追加し、
前記視聴装置の手表示部は、握手の開始後、前記第1手座標と前記第2手座標の距離が第2の閾値よりも離れたとき第1手と第2手の握手を解消することを特徴とする請求項2に記載のライブ通信システム。 - 前記視聴装置は、前記視聴者から第2メッセージを受け付ける第2メッセージ取得部、を更に備え、
前記配信装置は、
前記第2メッセージを受信する受信部と、
前記第2メッセージを前記配信者に対して出力する第2メッセージ出力部と、を更に備え、
前記視聴装置は、
前記キャラクタを介した配信者と視聴者の会話の開始に際して前記キャラクタを遮蔽する幕を除去し、会話の終了に際して前記幕により前記キャラクタを遮蔽する幕表示部、を更に備え、
前記幕表示部は、幕の除去よりも遮蔽に要する時間を長く設定することを特徴とする請求項1から3のいずれかに記載のライブ通信システム。 - 前記視聴装置の前記視聴キャラクタ表示部は、視聴者が前記視聴装置の画面において前記キャラクタをタッチしたとき、前記キャラクタのタッチ部位およびタッチ態様の双方または一方に応じて前記キャラクタの反応を変化させることを特徴とする請求項1から4のいずれかに記載のライブ通信システム。
- 前記視聴装置は、前記キャラクタを介した配信者と視聴者の会話中において、前記キャラクタの所定部位をタッチしたときには、配信者と視聴者の会話時間を短縮する会話管理部、を更に備えることを特徴とする請求項1から5のいずれかに記載のライブ通信システム。
- 前記配信装置の前記第1手検出部は、更に、配信者の手指の状態を検出し、
前記配信装置の前記送信部は、更に、配信者の手指の状態を示す手指情報を前記視聴装置に送信し、
前記視聴装置の前記第2手検出部は、更に、視聴者の手指の状態を検出し、
前記視聴装置の前記手表示部は、配信者の手指情報に基づいて第1手を変化させるとともに視聴者の手指の状態に基づいて第2手を変化させることを特徴とする請求項1から6のいずれかに記載のライブ通信システム。 - デジタルサイネージ装置を更に備え、
前記デジタルサイネージ装置は、
音声としての前記第1メッセージ、視聴者による音声としての第2メッセージおよび前記動作情報を受信する受信部と、
前記第1メッセージおよび前記第2メッセージを文字変換する文字変換部と、
デジタルサイネージ画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させるキャラクタ表示部と、
文字変換後の第1メッセージおよび第2メッセージを前記デジタルサイネージ画面に表示させるメッセージ表示部と、を備えることを特徴とする請求項1から7のいずれかに記載のライブ通信システム。 - 前記視聴装置は、
視聴者による物理オブジェクトの投入を検出するオブジェクト投入部と、
前記投入された物理オブジェクトのIDを検出するオブジェクト特定部と、
前記検出されたIDに対応する仮想オブジェクトを前記視聴装置の画面に表示させるオブジェクト表示部と、を更に備えることを特徴とする請求項1から8のいずれかに記載のライブ通信システム。 - 配信者を撮像する機能と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、
配信装置の画面に配信者がタッチしたときのタッチ地点に基づいて、配信者の手の位置に対応する第1手座標を検出する機能と、
配信者から第1メッセージを受け付ける機能と、
前記動作情報、前記第1手座標および前記第1メッセージを送信する機能と、を前記配信装置において発揮させる第1のプログラムと、
前記動作情報、前記第1手座標および前記第1メッセージを受信する機能と、
視聴装置の画面に視聴者がタッチしたときのタッチ地点に基づいて、視聴者の手の位置に対応する第2手座標を検出する機能と、
前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する機能と、
前記第1手座標および前記第2手座標に基づいて、配信者の手画像である第1手および視聴者の手画像である第2手を前記視聴装置の画面に表示させる機能と、
前記第1手座標と前記第2手座標の距離が第1の閾値以内であるとき、第1手と第2手の握手を表示させる機能と、を視聴装置において発揮させる第2のプログラムと、を含むことを特徴とするライブ通信プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141981A JP7300925B2 (ja) | 2019-08-01 | 2019-08-01 | キャラクタを使ったライブ通信システム |
JP2023100943A JP2023126237A (ja) | 2019-08-01 | 2023-06-20 | キャラクタを使ったライブ通信システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141981A JP7300925B2 (ja) | 2019-08-01 | 2019-08-01 | キャラクタを使ったライブ通信システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023100943A Division JP2023126237A (ja) | 2019-08-01 | 2023-06-20 | キャラクタを使ったライブ通信システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021027420A JP2021027420A (ja) | 2021-02-22 |
JP7300925B2 true JP7300925B2 (ja) | 2023-06-30 |
Family
ID=74664121
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019141981A Active JP7300925B2 (ja) | 2019-08-01 | 2019-08-01 | キャラクタを使ったライブ通信システム |
JP2023100943A Pending JP2023126237A (ja) | 2019-08-01 | 2023-06-20 | キャラクタを使ったライブ通信システム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023100943A Pending JP2023126237A (ja) | 2019-08-01 | 2023-06-20 | キャラクタを使ったライブ通信システム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7300925B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7012979B1 (ja) | 2021-07-21 | 2022-01-31 | 株式会社WithLIVE | プログラム及び情報処理装置 |
JP2023173388A (ja) * | 2022-05-25 | 2023-12-07 | 株式会社 ディー・エヌ・エー | ライブ配信サービスを提供するためのシステム、方法、及びプログラム |
JP7335572B1 (ja) * | 2022-09-30 | 2023-08-30 | グリー株式会社 | 情報処理システム、制御方法、及びサーバ装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016212564A (ja) | 2015-05-01 | 2016-12-15 | 日本電信電話株式会社 | ソーシャルタッチ制御装置 |
JP2018032384A (ja) | 2017-07-18 | 2018-03-01 | 株式会社コロプラ | 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム |
JP6342024B1 (ja) | 2017-02-10 | 2018-06-13 | 株式会社コロプラ | 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
JP6543403B1 (ja) | 2018-12-12 | 2019-07-10 | グリー株式会社 | 動画配信システム、動画配信方法及び動画配信プログラム |
-
2019
- 2019-08-01 JP JP2019141981A patent/JP7300925B2/ja active Active
-
2023
- 2023-06-20 JP JP2023100943A patent/JP2023126237A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016212564A (ja) | 2015-05-01 | 2016-12-15 | 日本電信電話株式会社 | ソーシャルタッチ制御装置 |
JP6342024B1 (ja) | 2017-02-10 | 2018-06-13 | 株式会社コロプラ | 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
JP2018032384A (ja) | 2017-07-18 | 2018-03-01 | 株式会社コロプラ | 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム |
JP6543403B1 (ja) | 2018-12-12 | 2019-07-10 | グリー株式会社 | 動画配信システム、動画配信方法及び動画配信プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021027420A (ja) | 2021-02-22 |
JP2023126237A (ja) | 2023-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7389855B2 (ja) | 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム | |
JP7238028B2 (ja) | ゲームシステム、ゲーム提供方法及びプログラム | |
JP7300925B2 (ja) | キャラクタを使ったライブ通信システム | |
JP2018094326A (ja) | イベント制御システム、イベント通知システム及びプログラム | |
JP7098676B2 (ja) | 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法 | |
US20160320833A1 (en) | Location-based system for sharing augmented reality content | |
JP2023067892A (ja) | 情報処理プログラム、情報処理方法、情報処理装置 | |
JP6737942B1 (ja) | コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム | |
JP6563580B1 (ja) | コミュニケーションシステム及びプログラム | |
JP2024036381A (ja) | プログラム、情報処理方法、サーバ及びサーバの情報処理方法 | |
JP7277145B2 (ja) | キャラクタを使ったライブ通信システム | |
JP2023143963A (ja) | プログラム、情報処理方法及び情報処理装置 | |
CN116993432A (zh) | 虚拟服饰信息展示方法及电子设备 | |
JP2023095862A (ja) | プログラム及び情報処理方法 | |
JP2021057017A (ja) | コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム | |
JP7379427B2 (ja) | 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム | |
JP7357865B1 (ja) | プログラム、情報処理方法、及び情報処理装置 | |
JP7223834B2 (ja) | プログラム、情報処理方法及び情報処理装置 | |
JP7454166B2 (ja) | 情報処理システム、情報処理方法、及び記憶媒体 | |
JP7333529B1 (ja) | 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法 | |
US20230315370A1 (en) | Control program for terminal device, terminal device, control method for terminal device, control program for server device, server device, and control method for server device | |
JP7104097B2 (ja) | 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム | |
US20240007700A1 (en) | Program, information processing method, and information processing device | |
KR20050077199A (ko) | 아바타서비스 제공시스템 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190827 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210614 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7300925 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |