JP7300925B2 - キャラクタを使ったライブ通信システム - Google Patents

キャラクタを使ったライブ通信システム Download PDF

Info

Publication number
JP7300925B2
JP7300925B2 JP2019141981A JP2019141981A JP7300925B2 JP 7300925 B2 JP7300925 B2 JP 7300925B2 JP 2019141981 A JP2019141981 A JP 2019141981A JP 2019141981 A JP2019141981 A JP 2019141981A JP 7300925 B2 JP7300925 B2 JP 7300925B2
Authority
JP
Japan
Prior art keywords
hand
character
viewer
distributor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019141981A
Other languages
English (en)
Other versions
JP2021027420A (ja
Inventor
徹 井上
大佑 古橋
Original Assignee
株式会社Iriam
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Iriam filed Critical 株式会社Iriam
Priority to JP2019141981A priority Critical patent/JP7300925B2/ja
Publication of JP2021027420A publication Critical patent/JP2021027420A/ja
Priority to JP2023100943A priority patent/JP2023126237A/ja
Application granted granted Critical
Publication of JP7300925B2 publication Critical patent/JP7300925B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 (1)平成30年9月18日にApple Inc.のTestFlight(https://developer.apple.com/jp/testflight/)を介して発表。 (2)平成30年10月4日にhttps://iriam.com/およびhttps://twitter.com/iriam_officialにて発表。 (3)平成30年10月4日にhttps://itunes.apple.com/jp/app/iriam-%E3%82%A4%E3%83%AA%E3%82%A2%E3%83%A0/id1358057296?mt=8にて発表。 (4)平成30年10月4日にhttps://play.google.com/store/apps/details?id=jp.co.duo7.vr.iriamにて発表。 (5)平成31年4月27日および平成31年4月28日に、ニコニコ超会議2019にて発表。 (6)平成31年4月27日および平成31年4月28日に、ニコニコ生放送(https://live.nicovideo.jp/gate/lv319512297およびhttps://live.nicovideo.jp/gate/lv319512342)にて発表。
本発明は、通信ネットワークを介した視覚的なコミュニケーション技術、に関する。
スマートフォンの普及にともない、SNS(Social Networking Service)を介したコミュニケーションが一般化している。SNSでは、テキストだけでなく写真や動画像などさまざまなコンテンツを気軽に共有できる。SNSは、人と人との「絆(つながり)」を強く感じさせるツールである。
一方、コンピュータゲームの分野においては、ユーザがキャラクタ(コンピュータ)と会話をしながらプレイするゲームも多い。ユーザは、現実には存在しないキャラクタに対して強い思い入れをもつことが多い。
特開2012-231281号公報 特願2019-002271号
キャラクタは、ゲームデザイナーによってつくられた仮想的存在であり、人間のような実在感をもたない。その一方、キャラクタは、非実在感に起因する独特の魅力をもつ。本発明者らは、キャラクタ特有の魅力と人間特有の「リアルなつながり」の双方を取り込むことにより、新しいコミュニケーション方法を提案できるのではないかと考えた。
具体的には、配信者(人間)と視聴者(人間)の会話を想定する。配信者は、ちょうどテレビアニメの声優のようにキャラクタの代弁者となり、キャラクタを通して視聴者と会話する。このようなコミュニケーションを想定した場合、視聴者はキャラクタと言葉以上の関わりをもつことができれば、視聴者のキャラクタに対する思い入れをいっそう強めることができると考えられる。
本発明は、上記認識に基づいて完成された発明であり、その主たる目的は、キャラクタを介したコミュニケーションにおいて、特に、キャラクタと視聴者の非言語コミュニケーションを深化させるための技術、を提供することにある。
本発明のある態様におけるライブ通信システムは、配信者により操作される配信装置と視聴者により操作される視聴装置を含む。
配信装置は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者の手の位置に対応する第1手座標を検出する第1手検出部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報、第1手座標および第1メッセージを送信する送信部と、を備える。
視聴装置は、動作情報、第1手座標および第1メッセージを受信する受信部と、視聴者の手の位置に対応する第2手座標を検出する第2手検出部と、視聴装置の画面にキャラクタを動画表示させ、動作情報に応じてキャラクタを動作させる視聴キャラクタ表示部と、キャラクタの動作に合わせて第1メッセージを出力する第1メッセージ出力部と、第1手座標および第2手座標に基づいて、配信者の手画像である第1手および視聴者の手画像である第2手を視聴装置の画面に表示させる手表示部と、を備える。
手表示部は、第1手座標と第2手座標の距離が第1の閾値以内であるとき、第1手と第2手の握手を表示させる。
本発明によれば、キャラクタを介した豊かなコミュニケーションを実現しやすくなる。
ライブ通信システムのハードウェア構成図である。 ライブ通信システムによる会話サービスを説明するための模式図である。 会話ブースの外観図である。 配信装置とサーバの機能ブロック図である。 視聴装置の機能ブロック図である。 視聴装置に表示される視聴者会話画面の画面図である。 配信装置に表示される配信者会話画面の画面図である。 配信装置および視聴装置の双方においてキャラクタを表示させる処理のシーケンス図である。 視聴者がキャラクタと握手する前の視聴装置の画面図である。 視聴者がキャラクタと握手したときの視聴装置の画面図である。 握手の動きを説明するための模式図である。 キャラクタとの会話開始時における視聴装置の画面図である。 視聴者がキャラクタにタッチしたときの視聴装置の画面図である。 キャラクタにグッズをプレゼントしたときの処理過程を示すシーケンス図である。 キャラクタにグッズを提供したときの視聴装置の画面図である。 デジタルサイネージ装置の外観図である。 デジタルサイネージ装置の機能ブロック図である。 キャラクタとの手遊びをするときの視聴装置の画面図である。
図1は、ライブ通信システム100のハードウェア構成図である。
ライブ通信システム100においては、サーバ102に対して、複数の配信装置104a、104b・・・104m(以下、まとめて言うときや特に区別しないときには「配信装置104」と総称する)および複数の視聴装置108a、108b・・・108n(以下、まとめて言うときや特に区別しないときには「視聴装置108」と総称する)がインターネット106を介して接続される。配信装置104としては、スマートフォンを想定しているが、ラップトップPCなどの汎用コンピュータであってもよい。視聴装置108としては大型のタッチパッドを想定しているが、スマートフォンなどの他の情報機器であってもよい。
配信装置104を使用するユーザを「配信者」とよぶ。視聴装置108を使用するユーザを「視聴者」とよぶ。配信者がサービスの提供者となり、視聴者がサービスの享受者となる。
サーバ102には、デジタルサイネージ装置300が接続される。デジタルサイネージ装置300は配信者と視聴者の会話をライブ中継または録画再生する。詳細については図16以降に関連して後述する。ライブ通信システム100にとってデジタルサイネージ装置300は必須構成ではない。
図2は、ライブ通信システム100による会話サービスを説明するための模式図である。
本出願人による特許文献2に開示したライブ通信システム100においては、1つの配信装置104に対して多数の視聴装置108が同時接続し、1対多通信を前提として説明した。本実施形態にけるライブ通信システム100は、配信者110と視聴者112が1対1通信にて会話するものとして説明する。
配信者110にはあらかじめキャラクタが対応づけられる。配信装置104には配信者110に対応づけられる配信キャラクタ114aが表示される。視聴装置108にも視聴キャラクタ114bが表示される。配信キャラクタ114aと視聴キャラクタ114bはまったく同じキャラクタである。以下、配信キャラクタ114aと視聴キャラクタ114bを特に区別しないときには単に「キャラクタ114」とよぶ。
配信者110が配信装置104の前でしゃべると、その音声データは視聴装置108に送信される。配信装置104は配信者110の口の動きを検出し、配信キャラクタ114aの口も動かす。また、これに連動して、視聴装置108は視聴キャラクタ114bの口も動かす。視聴者112には、配信者ではなく、あたかも視聴キャラクタ114bが自らの意思でしゃべっているように見える。いわば、配信者110は「声優」としてキャラクタ114の代弁者となる。以下、配信者110により入力される音声メッセージを「第1メッセージ」とよぶ。
視聴者112が視聴装置108の前でしゃべると、その音声データは視聴者112本人の撮像画像(動画像)とともに配信装置104に送信される。以下、視聴者112により入力される音声メッセージを「第2メッセージ」とよぶ。特許文献2においては、視聴者112はテキストにより第2メッセージを入力するとして説明したが、本実施形態においては配信者110および視聴者112はお互いに音声にて会話をする。配信者110は視聴者112の容姿を見ることができるが(図7に関連して後述)、視聴者112は配信者110が演じる視聴キャラクタ114bだけを視認する。
キャラクタ114の基本設定(キャラクタ114の容姿や表情変化の豊かさなど)と配信者110の声質や会話力によって、キャラクタ114の個性がかたちづくられる。
視聴者112は、普段はスマートフォンなどでキャラクタ114と1対多の会話を楽しみながら、キャラクタ114に対する思い入れを深めていく(特許文献2参照)。本実施形態においては、思い入れを深めたキャラクタ114との「握手会(1対1で会える機会)」を想定する。視聴者112は、ライブ通信システム100の運営者がセッティングする会場(以下、「イベント会場」とよぶ)に来場する。イベント会場では、視聴者112はキャラクタ114と1対1の音声会話を楽しむことができる。ただし、会話の「制限時間」は1分間に設定される。会話においては、後述の方法により会話だけでなく握手も楽しむことができる。
図3は、会話ブース302の外観図である。
イベント会場には、キャラクタ114ごとに会話ブース302が用意される。視聴者112は、お気に入りのキャラクタ114に対応する会話ブース302に並ぶ。視聴者112はネームプレートをつけておく。視聴者112は順番が来たら会話ブース302に入る。会話ブース302は、衝立により仕切られた半閉鎖空間であり、視聴者112がキャラクタ114との会話に集中しやすい構成となっている。会話ブース302の正面には視聴装置108が設置され、視聴装置108に視聴キャラクタ114bが表示される。会話ブース302においては、視聴者112は、普段は他の視聴者112たちとともに多人数で会話をしているアイドルのようなキャラクタ114との会話時間を独占できる。
視聴装置108の上部には視聴者112を撮像するためのカメラ304が取り付けられる。視聴者112の撮像画像は配信装置104に転送される。視聴装置108の下部にはプレゼントボックス306が設置される。視聴者112は、帽子や花束などのプレゼント(以下、「グッズ」とよぶ)をプレゼントボックス306の投入口308に投入できる。グッズ(物理的なオブジェクト)にはタグが設置されており、投入口308の内部にある検出装置310によってグッズのID(以下、「グッズID」とよぶ)が検出される。グッズの投入に関しては図14,図15に関連して後述する。
図4は、配信装置104およびサーバ102の機能ブロック図である。
配信装置104およびサーバ102の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
視聴装置108およびデジタルサイネージ装置300についても同様である。
(配信装置104)
配信装置104は、ユーザインタフェース処理部116、撮像部118、データ処理部120、通信部122およびデータ格納部124を含む。
通信部122は、通信処理を担当する。撮像部118は、配信者110を撮像する。ユーザインタフェース処理部116は、配信者110からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部124はキャラクタ114の画像データを含む各種データを格納する。データ処理部120は、通信部122、ユーザインタフェース処理部116、撮像部118により取得されたデータおよびデータ格納部124に格納されているデータに基づいて各種処理を実行する。データ処理部120は、ユーザインタフェース処理部116、撮像部118、通信部122およびデータ格納部124のインタフェースとしても機能する。
通信部122は、送信部148と受信部150を含む。
ユーザインタフェース処理部116は、配信者110からの入力を受け付ける入力部126と配信者110に各種情報を出力する出力部128を含む。
入力部126は、動作検出部130と第1メッセージ取得部132を含む。動作検出部130は、撮像部118を介して配信者110の表情や体の動きを検出する。第1メッセージ取得部132は、配信者110の発話から第1メッセージ(音声メッセージ)を取得する。
動作検出部130は、第1手検出部134を含む。第1手検出部134は、配信者110の手の動きを検出する。
出力部128は、配信キャラクタ表示部138、第2メッセージ出力部140、手表示部142、装飾部312、オブジェクト表示部314およびライブ画像出力部332を含む。
配信キャラクタ表示部138は、配信キャラクタ114aを表示させる。第2メッセージ出力部140は視聴者112による第2メッセージ(音声メッセージ)を出力する。手表示部142は、キャラクタ114(配信者110)および視聴者112の手を模した画像(後述)を画面表示させる。装飾部312は、キャラクタ114と視聴者112が握手をしたときなどの所定の機会において視覚的効果として各種装飾画像を表示させる。握手と装飾画像については図9、図10、図11、図13等に関連して後述する。オブジェクト表示部314は、視聴者112からプレゼントされたグッズに対応する画像(以下、「グッズ画像」とよぶ)を画面表示させる。グッズ画像(仮想オブジェクト)の画面表示については図15に関連して後述する。ライブ画像出力部332は視聴者112の撮像画像を動画表示させる(図7に関連して後述する)。
データ処理部120は、動作情報生成部144を含む。
動作情報生成部144は、動作検出部130の検出結果から「動作情報」を生成する。動作情報とは、配信者110の表情を示す特徴ベクトル(例:眉の角度、目や口の開度を示す数値、配信者110と配信装置104との相対的な位置関係(前後左右)を示す数値など、配信者110の動作状態を示す数値データである。
(サーバ102)
サーバ102は、通信部152、ライブ制御部154およびデータ格納部156を含む。
通信部152は、通信処理を担当する。データ格納部156は各種データを格納する。ライブ制御部154は、通信部152により取得されたデータおよびデータ格納部156に格納されているデータに基づいて配信装置104と視聴装置108のコミュニケーションを仲介・統括する。ライブ制御部154は、通信部152およびデータ格納部156のインタフェースとしても機能する。
データ格納部156は、複数のキャラクタ114のデータを格納するキャラクタ格納部158を含む。また、データ格納部156は、グッズIDとグッズ画像を対応づけて登録する。
図5は、視聴装置108の機能ブロック図である。
視聴装置108は、ユーザインタフェース処理部162、データ処理部166、通信部164、撮像部316およびデータ格納部168を含む。
通信部164は、通信処理を担当する。ユーザインタフェース処理部162は、視聴者112からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。撮像部316は、カメラ304を介して視聴者112を撮像する。データ格納部168はキャラクタ114の画像データを含む各種データを格納する。配信装置104と視聴装置108はどちらもキャラクタ114のデータをそれぞれ格納する。データ処理部166は、通信部164およびユーザインタフェース処理部162により取得されたデータおよびデータ格納部168に格納されているデータに基づいて各種処理を実行する。データ処理部166は、ユーザインタフェース処理部162、通信部164、撮像部316およびデータ格納部168のインタフェースとしても機能する。
通信部122は、送信部186と受信部190を含む。
ユーザインタフェース処理部162は、視聴者112からの入力を受け付ける入力部170と視聴者112に各種情報を出力する出力部172を含む。
入力部170は、第2メッセージ取得部174、第2手検出部318、オブジェクト投入部320およびオブジェクト特定部322を含む。第2メッセージ取得部174は、視聴者112の発話から第2メッセージ(音声メッセージ)を取得する。第2手検出部318は、視聴者112の手の動きを検出する。オブジェクト投入部320は、投入口308へのグッズ(物理オブジェクト)の投入を検出する。オブジェクト特定部322は、投入口308に投入されたグッズのグッズIDを読み取ることにより、グッズの種類を特定する。グッズIDが特定されたとき、通信部164の送信部186はグッズIDをサーバ102に送信する。
出力部172は、視聴キャラクタ表示部180、第1メッセージ出力部182、手表示部324、装飾部326、オブジェクト表示部328および幕表示部330を含む。
視聴キャラクタ表示部180は、視聴装置108に視聴キャラクタ114bを表示させる。第1メッセージ出力部182は配信者110による第1メッセージを視聴装置108から音声出力する。手表示部324は、キャラクタ114(配信者110)および視聴者112の手の画像を画面表示させる。装飾部326は、各種装飾画像を表示させる。オブジェクト表示部328は、視聴者112がプレゼントしたグッズに対応するグッズ画像を画面表示させる。幕表示部330は会話の開始時と終了時に幕を模した画像を表示させる。幕については図12に関連して後述する。
データ処理部166は、会話管理部290を含む。会話管理部290は、視聴者112とキャラクタ114の会話時間を管理する。会話管理部290は、所定の制限時間、たとえば、1分間が経過したとき視聴者112とキャラクタ114の会話を終了させる。
図6は、視聴装置108に表示される視聴者会話画面196の画面図である。
視聴キャラクタ表示部180は、おしゃべりの相手として選ばれた視聴キャラクタ114bを動画表示させる。視聴者112は、視聴装置108において視聴キャラクタ114bとの会話を楽しむ。視聴者112からは配信者110の姿が見えることはない。視聴者112は、配信者110ではなく、視聴キャラクタ114bそのものと会話しているかのような感覚を楽しむことができる。視聴装置108の第1メッセージ出力部182は、視聴キャラクタ114bを担当する配信者110からの音声(第1メッセージ)を出力する。視聴者112は、視聴キャラクタ114bに音声で話しかける(第2メッセージ)。サーバ102のライブ制御部154は、第1メッセージおよび第2メッセージを中継する。
図7は、配信装置104に表示される配信者会話画面206の画面図である。
図7に示す配信者会話画面206は、配信キャラクタ114a(視聴キャラクタ114bに対応)を担当する配信者110の配信装置104に表示される。配信者会話画面206は、視聴者表示領域336とキャラクタ表示領域334に上下分割される。配信キャラクタ表示部138は、配信キャラクタ114aをキャラクタ表示領域334に動画表示させる。視聴キャラクタ114bと配信キャラクタ114aは同一キャラクタであり、動きも同じである。配信者110は、自らの分身である配信キャラクタ114aの動きを配信装置104にて確認しながら視聴者112と会話する。配信者110は、配信装置104に向かって音声にて第1メッセージを入力する。送信部148は第1メッセージをサーバ102に送信し、サーバ102のライブ制御部154は第1メッセージを視聴装置108に配信する。
第2メッセージ出力部140は、視聴者112からの音声(第2メッセージ)を出力する。視聴者112の撮像画像は視聴装置108からサーバ102を介して配信装置104に送信される。ライブ画像出力部332は視聴者112の撮像画像(動画像)を視聴者表示領域336に表示させる。配信者110は視聴者112の様子(態度や表情)を見ながら、視聴者112と会話できる。
配信装置104のカメラ208(撮像部118)は、配信者110を撮像する。動作検出部130は、撮像画像から配信者110の表情および動作を検出し、動作情報生成部144は動作情報を生成する。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114aの動きを決定する。視聴キャラクタ114bも同じ動作情報に基づいて視聴装置108にて動画表示される。
以上のように、視聴者112は視聴キャラクタ114bと音声にて会話する。配信者110は視聴キャラクタ114bとして視聴者112と会話する。視聴者112は配信者110の姿を見ることはできないが、配信者110は視聴者112と配信キャラクタ114a双方の姿を見ながら会話する。
図8は、配信装置104および視聴装置108の双方においてキャラクタ114を表示させる処理のシーケンス図である。
配信装置104の動作検出部130は、配信者110の動作を検出する(S10)。動作情報生成部144は、動作情報を生成する(S12)。動作情報は、配信者110の表情、体の角度、配信者110の撮像部118からの遠近などを示す数値データである(S12)。
配信装置104の送信部148は、サーバ102経由にて、視聴装置108に動作情報を送信する(S14)。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114aの動画像を生成し(S16)、配信装置104に配信キャラクタ114aを動画表示させる(S18)。
一方、視聴装置108の視聴キャラクタ表示部180も、受信された動作情報に基づいて視聴キャラクタ114bの動画像を生成し(S20)、視聴装置108に視聴キャラクタ114bを動画表示させる(S22)。
配信キャラクタ114aと視聴キャラクタ114bは、同一のキャラクタであり、かつ、同一の動作情報に基づいて動きが決まるため、配信装置104および視聴装置108それぞれにおいて配信キャラクタ114aと視聴キャラクタ114bは同じ姿にて同じ動作を行う。
配信装置104は、キャラクタ114の動画像(キャラクタ画像)そのものを視聴装置108に送信しているのではなく、キャラクタ114の動作を定義する動作情報のみを送信している。動画像そのものを送信するよりも送信データ量が少ないため、配信キャラクタ114aと視聴キャラクタ114bそれぞれの動きを速やかに連動させやすい。いいかえれば、動作情報が配信キャラクタ114aの動きとして反映されるまでの時間と、同じ動作情報が視聴キャラクタ114bの動きとして反映されるまでの時間の差分が小さいため、視聴者112はキャラクタ114(配信者110)との快適な会話を楽しむことができる。
第1メッセージ(音声メッセージ)と動作情報は一体化して配信装置104から視聴装置108に送信されてもよい。この場合には、視聴キャラクタ114bの動作と音声メッセージがずれにくくなる。また、動画像そのものではなく、動画像を決定するための動作情報を送信することは、インターネット106に対する通信負荷を抑制する上でも有効である。
配信者110が体を左右に傾けると、動作検出部130は体の傾斜を検出する。動作情報生成部144は、傾斜角および傾斜方向を動作情報に含める。視聴キャラクタ表示部180は、動作情報にしたがって、視聴キャラクタ114bを傾斜させる。配信キャラクタ表示部138も、同じ動作情報にしたがって配信キャラクタ114aを傾斜させる。このように、配信者110が体を左右に傾けると、配信側と視聴側双方のキャラクタ114は配信者110に合わせて体を傾ける。配信者110が体を前後に傾けたときにも、キャラクタ114は同様にして体を前後させる。動作検出部130は、配信者110の前傾後傾を撮像画像に映る配信者110の大きさから認識すればよい。
一般的には、体の傾斜に人間の心理が現れるといわれる。たとえば、会話に興味をもっているときに人間は前傾姿勢(聞こうという体勢)になりやすく、動揺しているときには体は左右に揺れるともいわれる。配信者110の体の動きをキャラクタ114にも反映させることにより、視聴者112はキャラクタ114(配信者110)の心理を感じ取ることができる。
配信者110が表情を変化させるとき、動作検出部130は配信者110の表情、具体的には、目の大きさ、口の形、眉毛の角度、眉間のシワの深さや方向などを検出する。動作情報生成部144は、これらの検出値に基づいて表情を定義する特徴ベクトルを生成する。特徴ベクトルは動作情報の一部となる。配信者110が片目をつぶったとき(ウィンク)、視聴キャラクタ表示部180は視聴キャラクタ114bをウィンクさせる。配信キャラクタ114aについても同様である。
このほかにも、舌を出す、口角を上げるなど、さまざまな表情を特徴ベクトル(動作情報)で数値表現することにより、配信者110の表情もキャラクタ114に反映させることができる。配信者110が微笑むときにはキャラクタ114も微笑む。配信者110が口をすぼめるとキャラクタ114も口をすぼめる。配信者110の表情とキャラクタ114の表情を連動させることにより、視聴者112はキャラクタ114の存在をいっそう身近に感じることができる。
図9は、視聴者112がキャラクタ114と握手する前の視聴装置108の画面図である。
視聴者112が視聴装置108の画面(以下、単に「視聴画面」とよぶ)にタッチしたとき、視聴装置108の第2手検出部318はタッチ地点の座標(以下、「第2手座標346」とよぶ)を検出する。配信者110が配信装置104の画面(以下、単に「配信画面」とよぶ)にタッチしたとき、配信装置104の第1手検出部134はタッチ地点の座標(以下、「第1手座標340」とよぶ)を検出する。視聴装置108は第2手座標346を配信装置104に送信し、配信装置104は第1手座標340を視聴装置108に送信する。視聴画面と配信画面には同一の座標系が設定されているものとする。たとえば、配信画面における第1手座標340が(x1,y1)のときには、視聴画面における第1手座標340も(x1,y1)となる。第2手座標346についても同様である。
視聴装置108の手表示部324は、第1手座標340に第1手342を表示させる。第1手342は視聴キャラクタ114b(配信者110)の手を模した画像である。図9においては、視聴キャラクタ114bの画像とは別に第1手342を表示しているが、視聴キャラクタ114b本人の手を第1手座標340の位置に動かしてもよい。手表示部324は、また、視聴者112がタッチした地点である第2手座標346に第2手344を表示させる。第2手344は視聴者112の手を模した画像である。
配信装置104の手表示部142も、配信画面に第1手342と第2手344を表示させる。
配信者110と視聴者112の双方がそれぞれ配信画面と視聴画面にタッチしているとき「握手可能状態」となる。一方、いずれか一方が画面から手を離すと「握手不能状態」となる。握手可能状態にあるとき、手表示部142は、第1手座標340と第2手座標346の距離(以下、「手距離d」とよぶ)を定期的に計算する。配信装置104の手表示部142も同様である。
図10は、視聴者112がキャラクタ114と握手したときの視聴装置108の画面図である。
握手可能状態にあるときであって、手距離dが第1閾値以内となったとき、手表示部324は第2手344と第1手342が握手する画像である握手画像338を表示させる。すなわち、配信者110と視聴者112がタッチ状態のまま互いの指(タッチ地点)を近づけることで「握手」が成立する。装飾部326は、握手が成立したとき、第1手342および第2手344の周辺に星型の装飾画像360を表示させる。装飾画像360は、握手の達成を演出する。
このように、配信者110と視聴者112がそれぞれのタッチ地点を近づけることにより、視聴キャラクタ114b(二次元)と視聴者112(三次元)の「次元」を超えた握手が可能となる。会話だけではなく、キャラクタ114の手を握った、キャラクタ114が手を握ってくれたという感覚を視聴者112にもたせることにより、視聴者112とキャラクタ114の出会いをいっそう盛り上げることができる。
配信装置104においても同様の処理方法により、握手画像338が表示される。
図11は、握手の動きを説明するための模式図である。
時刻t1における第1手座標340を「第1手座標340(t1)」のように表記する。時刻t1においては、第1手座標340(t1)と第2手座標346(t1)の握手が成立しているものとする。また、第1手座標340(t1)と第2手座標346(t1)の手距離d(t1)は第2閾値以内であるとする。握手成立後も、手距離dが第2閾値以内である限り握手は継続する。
手表示部142は、第1手座標340(t1)と第2手座標346(t1)の中間点である握手点348(t1)に握手画像338(第1手342と第2手344)を表示させる。第1手座標340と第2手座標346が十分に近づけば、第2手座標346と第1手座標340が完全一致しなくても第1手342と第2手344の握手は成立する。
次に、時刻t2において第1手座標340と第2手座標346はそれぞれ変位したとする。時刻t2における手距離d(t2)も第2閾値以内であるとする。握手は維持され、握手点348は変位する。握手画像338は握手点348(t1)から握手点348(t2)に移動するため、握手の「動き」が表現される。握手画像338が所定距離以上移動したとき、あるいは、握手画像338が所定速度以上で移動したとき、装飾部326は装飾画像360を追加する。このような制御方法によれば、キャラクタ114(配信者110)と視聴者112が息を合わせて第1手342と第2手344をいっしょに動かすことで、いいかえれば、第1手座標340と第2手座標346の手距離dが第2閾値よりも大きくならないようにお互いの手をタイミングよく動かすことで握手を続けることができる。また、握手を続けるほど多数の装飾画像360を出現させることにより、握手の場面を盛り上げることができる。
第1閾値と第2閾値は同一でもよいが、上述したように第1閾値よりも第2閾値を大きく設定してもよい。この場合には、第1手座標340と第2手座標346を十分に近づけなければ握手できないが、いったん握手できればほどけにくいという操作感を実現できる。このような設定によれば、視聴者112はキャラクタ114との握手を継続しやすくなる。
なお、配信装置104においても同様の表示がなされるため、配信者110も視聴者112と握手する感覚を共有する。特に、配信者110は視聴者表示領域336において視聴者112の姿や表情を視認できるため、視聴者112がキャラクタ114と握手をしているときの楽しさや嬉しさを感じとることができる。
図12は、キャラクタ114との会話開始時における視聴装置108の画面図である。
視聴者112は、会話ブース302に入るとき、視聴装置108の幕表示部330は視聴画面に幕350を表示させる。幕350により視聴キャラクタ114bは当初は遮蔽されている。視聴者がキャラクタ114を呼びかける、会話ブース302への入室を人感センサで検出する、あるいは、配信者110からの開幕指示入力がなされる、などを契機として、幕表示部330は幕350が開く動画像を表示させる。幕350の後ろにキャラクタ114が表示される。幕350が開いてお目当てのキャラクタ114が現れる演出により、視聴者112とキャラクタ114の対面を演出する。
幕表示部330は所定の開幕時間をかけて幕350を開ける演出を実行する。本実施形態における開幕時間は3秒間である。幕350の開幕あるいは閉幕に際しては、視聴装置108の出力部172は所定のオープニング音楽を流してもよい。
開幕後、会話管理部290は会話時間を計測する。制限時間(例:1分間)が経過したとき、会話管理部290は幕表示部330に指示して幕350を閉じさせる。幕表示部330は幕350が閉じていく動画像を表示させることでキャラクタ114を徐々に遮蔽する。幕表示部330は所定の閉幕時間をかけて幕350を閉じる演出を実行する。本実施形態における閉幕時間は10秒間であるとする。
開幕時間よりも閉幕時間を長くすることで、視聴者112に「名残惜しい気持ち」をいだかせることができる。ゆっくりと閉幕させてキャラクタ114を少しずつ隠していくことにより、キャラクタ114との別れを惜しむ時間を演出し、キャラクタ114に再会したいという気持ちを視聴者112に喚起させることができる。幕350が完全に閉じるとキャラクタ114が隠され、会話時間は終了する。会話時間が終了すると、配信者110は視聴装置108から出て、次の配信者110が会話ブース302に入室する。
なお、配信装置104にも幕表示部を設け、配信画面においても同様の制御方法により幕350を表示してもよい。
図13は、視聴者112がキャラクタ114にタッチしたときの視聴装置108の画面図である。
視聴者112は、握手に限らず、視聴キャラクタ114bにタッチすることもできる。視聴者112は、視聴キャラクタ114bの頭部にタッチし、頭部をこする操作をすることで、第2手344(視聴者112の手)で視聴キャラクタ114bを「撫でる」ことができる。より具体的には、第2手検出部318は、タッチに際して第2手座標346を検出し、第2手座標346の検出地点が視聴キャラクタ114bの頭部領域にあるかを判定する。頭部領域をタッチしたときであって、第2手座標346が往復運動をするとき、第2手検出部318は「撫でる」操作がなされていると判定する。
視聴キャラクタ114bを撫でるとき、装飾部326は、頭部付近にハート型の装飾画像360を表示させる。視聴キャラクタ114bを撫でれば撫でるほど、装飾部326は多くの装飾画像360を表示させる。視聴者112は、第2手344をつかって視聴キャラクタ114bを撫でることにより、キャラクタ114に対する親愛の情を行動表現できる。視聴キャラクタ表示部180は、視聴者112が視聴キャラクタ114bの頭部を撫でたとき、視聴キャラクタ114bの動作と表情を変化させる。たとえば、眼を閉じる、微笑む、くすぐったがる、肩をすくめるなどの動作や表情により、撫でる操作に対するキャラクタ114のリアクションを表現する。
このほかにも、視聴者112は視聴キャラクタ114bの頬にタッチしてスワイプすることにより、視聴キャラクタ114bの頬を引っ張るアクションを実行してもよい。また、眼や胸のように、視聴キャラクタ114bに触ってはいけない領域(以下、「不適切領域」とよぶ)を設定してもよい。視聴者112が第2手344により不適切領域をタッチしたときには、会話管理部290は会話の制限時間を短縮してもよいし、会話を打ち切って閉幕させてもよい。会話管理部290は不適切領域へのタッチが検出されるごとに会話時間を短縮するとしてもよい。装飾部326は、不適切領域へのタッチが検出されたときには警告を示す装飾画像360を表示させてもよい。このような制御方法によれば、視聴者112は視聴キャラクタ114bを無分別にタッチしなくなるため、視聴者112にキャラクタ114の人格を尊重する気持ちをもたせることができる。視聴者112がキャラクタ114を不快にさせないように関わろうとすることは、キャラクタ114の実在感をいっそう高めることに寄与する。
上述したように会話時間の終了時には幕350がゆっくりと閉幕する。視聴者112は幕350の向こうに消えていくキャラクタ114を幕350の隙間からタッチすることで名残惜しい気持ちを行動表現できる。
図14は、キャラクタ114にグッズをプレゼントしたときの処理過程を示すシーケンス図である。
視聴者112は、お気に入りのキャラクタ114のためにグッズをプレゼントすることもできる。イベント会場では、花束、帽子、リボン、お菓子などさまざまなグッズ(物理オブジェクト)が販売されている。これらのグッズは物理的実体であり、グッズIDを記録したタグが貼付されている。このタグはRFID(Radio Frequency IDentifier)タグでもよいし、QRコード(登録商標)を記録したシールであってもよい。
視聴者112は、購入したグッズをプレゼントボックス306に投入することで、キャラクタ114にグッズをプレゼントする。オブジェクト投入部320は、まず、検出装置310によりグッズの通過を検出する(S30)。オブジェクト特定部322はグッズIDを光学的に読み取る(S32)。視聴装置108の送信部186は、グッズIDをサーバ102に送信する(S34)。サーバ102の通信部152は、グッズ画像(仮想オブジェクト)のデータを配信装置104と視聴装置108に送信する(S36、S37)。
配信装置104のオブジェクト表示部314は、グッズ画像を配信画面に表示させる(S38)。同様にして、視聴装置108のオブジェクト表示部328は、グッズ画像を視聴画面に表示させる(S40)。サーバ102のライブ制御部154は、プレゼントされたグッズについて、グッズID、提供日時、提供した視聴者112のユーザIDと提供された配信者110(キャラクタ114)のキャラクタIDを対応づけて購入履歴として登録する(S42)。以上の処理過程により、視聴者112からキャラクタ114にグッズがプレゼントされる。
図15は、キャラクタ114にグッズを提供したときの視聴装置108の画面図である。
視聴者112は、帽子(物理的実体としてのグッズ)を購入し、これをキャラクタ114にプレゼントしたとする。このとき、オブジェクト表示部314は帽子画像212(仮想的実体としてのグッズ画像)を表示させる。図15においては、視聴キャラクタ114bはプレゼントされた帽子画像212をかぶっている。視聴者112は、自分がプレゼントした帽子をキャラクタ114が着用してくれれば、自分の真心がキャラクタ114に通じたかのような満足感を味わえる。3次元の帽子が2次元の帽子画像212に変換されるため、視聴者112はキャラクタ114との「次元を超えたつながり」をいっそう感じることができる。また、視聴者112は、グッズをプレゼントすることにより、お気に入りのキャラクタ114のファッションの変化を楽しむことができる。視聴者112は、同時に複数種類のグッズをキャラクタ114にプレゼントしてもよい。
グッズの購入金額の一部はキャラクタ114を演じる配信者110に配分される。また、実際に購入されたグッズは配信者110に与えられてもよい。視聴者112はグッズを購入することでキャラクタ114に対する愛情や応援する気持ちを表現できる。グッズ収入をインセンティブとすることにより、配信者110にも会話力向上など「愛されるための努力」を促すことができる。
図16は、デジタルサイネージ装置300の外観図である。
デジタルサイネージ装置300は、不特定多数の通行者を対象とした大型の広告表示装置である。本実施形態におけるデジタルサイネージ装置300は、駅や広場などに立てられる自立型の構造物であるとして説明する。
図1に関連して説明したように、デジタルサイネージ装置300はサーバ102と接続される。デジタルサイネージ装置300は、配信者110(キャラクタ114)と視聴者112の会話をライブ中継する。デジタルサイネージ装置300のには、視聴装置108と同様の表示形式にてキャラクタ114が表示される。画面下部には会話表示領域362が設けられ、第1メッセージ(配信者110の音声)と第2メッセージ(視聴者112の音声)はいずれもテキスト表示される。通行者は、デジタルサイネージ装置300を視認することにより、キャラクタ114(配信者110)と視聴者112の会話を楽しむことができる。デジタルサイネージ装置300で会話を公開することは、配信者110にとってもキャラクタ114の魅力を多くの人にアピールする機会となる。ただし、視聴者112とキャラクタ114の会話をデジタルサイネージ装置300にて公開する場合には、視聴者112の承諾を取ることが必須条件である。
図17は、デジタルサイネージ装置300の機能ブロック図である。
デジタルサイネージ装置300は、通信部352、表示部354およびデータ処理部356を含む。
通信部352は、通信処理を担当する。表示部354は画像を表示する。データ処理部356は、通信部352により取得されたデータに基づいて各種処理を実行する。データ処理部356は、通信部352および表示部354のインタフェースとしても機能する。
通信部352は、送信部358と受信部368を含む。
データ処理部356は、文字変換部366を含む。サーバ102のライブ制御部154は第1メッセージと第2メッセージをデジタルサイネージ装置300にも送信する。文字変換部366は、第1メッセージおよび第2メッセージを音声から文字列(テキスト)に変換する。
表示部354は、キャラクタ表示部370とメッセージ表示部364を含む。キャラクタ表示部370は、サーバ102から動作情報を受信し、キャラクタ114を表示させる。メッセージ表示部364は文字変換された各種メッセージを会話表示領域362に表示させる。
<総括>
以上、実施形態に基づいて、ライブ通信システム100について説明した。
本実施形態によれば、会話ブース302において、視聴者112はキャラクタ114と1対1の会話を楽しめるだけでなく、「握手」を模した操作をできるため、視聴者112とキャラクタ114(配信者110)の親密度をいっそう高めることができる。配信者110と視聴者112が同時に画面にタッチし、かつ、二人が指を近づけることで握手が成立する。握手を成立させるためには視聴者112とキャラクタ114(配信者110)には暗黙の意思疎通が必要となる。握手が成立したときに配信者110はキャラクタ114と呼吸が合ったかのような、意思が疎通したかのような独特の感覚をもつことができる。
また、握手が成立したとき、キャラクタ114(配信者110)と視聴者112はお互いの指が離れすぎないように動かすことで握手を揺らすことができる。握手を揺らすほど、多数の装飾画像360が表示される。視聴者112とキャラクタ114(配信者110)が息を合わせて握手を継続することで、視聴者112はキャラクタ114に対する親近感をいっそう高めることができる。
本実施形態においては、幕350によって会話の開始と終了を演出する。幕350が開いてキャラクタ114を登場させることにより、キャラクタ114と1対1で会話できる貴重な機会に対する視聴者112の期待感を効果的に高めることができる。また、会話終了時には幕350はゆっくりと閉まるので、キャラクタ114と別れることの名残惜しさを演出できる。視聴者112は、幕350によって隠されていくキャラクタ114に対して最後になにか伝えようという気持ちになりやすい。また、この名残惜しさがキャラクタ114との再会を望む気持ちを視聴者112に喚起させることができる。
視聴者112は、キャラクタ114本人にタッチすることにより、握手以外のスキンシップを楽しむことができる。一方、視聴者112がキャラクタ114の不適切領域をタッチしたときには会話時間短縮などのペナルティが与えられる。配信者110は、以後、不適切行為をした視聴者112との握手を拒否することで「拒否感」を表現してもよい。このような制御方法によれば、相手の人格性を尊重したキャラクタ114との関わり方を視聴者112に促すことができる。
デジタルサイネージ装置300において、キャラクタ114と視聴者112の会話をライブ中継または録画表示することにより、キャラクタ114とのライブ通信会話に興味を持たない、あるいは、ライブ通信会話を知らなかったユーザにも、ライブ通信システム100の魅力を広く伝えることができる。また、配信者110にとっても、キャラクタ114の容姿や会話力を広くアピールできる機会となるため、配信者110という仕事に対する誇りを高める上でもデジタルサイネージ装置300は有用と考えられる。
視聴者112は、グッズを購入し、これをキャラクタ114にプレゼントできる。視聴装置108にはグッズ(三次元オブジェクト)に対応するグッズ画像(二次元オブジェクト)が表示される。このため、仮想の世界の住人であるキャラクタ114に対して、実在の世界のグッズをプレゼントすることで、視聴者112にはキャラクタ114に対する親愛の情を示す機会が提供される。
なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
[変形例]
<手あそび>
図18は、キャラクタ114との手遊びをするときの視聴装置108の画面図である。
本実施形態においては、配信者110と視聴者112はそれぞれ配信画面と視聴画面にタッチすることで第1手342と第2手344を表示させるとして説明した。変形例として、配信画面等へのタッチではなく、画像認識により配信者110と視聴者112の手の位置を検出してもよい。配信者110と視聴者112は、たとえば、白い手袋を嵌めてもよい。この場合には、第1手検出部134および第2手検出部318は、撮像画像から配信者110と視聴者112の手の位置をより確実に認識しやすくなる。
第1手検出部134は配信者110の手を画像認識により検出し、手の検出位置に基づいて第1手座標340を特定する。撮像画像に映る物体の位置を画面に投影することで画面上の座標に変換する技術は既知技術の応用により可能である。同様にして、第2手検出部318は視聴者112の手の位置を画像認識により検出し、第2手座標346を特定する。
第1手検出部134は、配信者110の手の位置だけでなく手の形状(手指の状態)を画像認識する。第2手検出部318も、視聴者112の手の形状を画像認識する。手表示部142等は、配信者110および視聴者112それぞれの手の形状に基づいて第1手342および第2手344の手の形状を変化させる。このような制御方法によれば、たとえば、視聴者112はキャラクタ114(配信者110)との「じゃんけん」のような手遊びを楽しむこともできる。
視聴者112の顔の向きは配信者110から視認できる。配信者110の顔の向きはキャラクタ114の動作として反映される。手の形状だけでなく顔の向きも相互認識できれば「あっち向いてホイ」のような体をつかった遊びも可能である。手遊びの勝敗は配信者110と視聴者112が自主的に判断してもよいし、サーバ102に「勝敗判定部」を設けてもよい。勝敗判定部は、たとえば、じゃんけんの場合には配信者110の手の形状と視聴者112の手の形状それぞれから「グー」「チョキ」「パー」を認識し、キャラクタ114(配信者110)と視聴者112のどちらが勝ったかを判定する。
また、勝敗に応じて、視聴者112にメリットまたはデメリットを与えてもよい。たとえば、手遊びに勝てば会話時間を延長してもよいし、視聴者112に頼まれたセリフをキャラクタ114(配信者110)が発話するとしてもよいし、キャラクタ114にキーホルダーなどのノベルティを与えるとしてもよい。
<キャラクタ114との撮影>
配信者110はキャラクタ114と記念撮影をしてもよい。視聴装置108の撮像部316は視聴者112を撮像する。視聴装置108のデータ処理部166は「画像生成部」を備えてもよい。画像生成部は、視聴者112の撮像画像とキャラクタ114を合成することで2ショットの記念写真を生成する。視聴装置108の送信部186は、記念写真を視聴者112の携帯端末に送信してもよい。
記念写真に限らず動画撮影によるショートムービーを作成してもよい。視聴者112は、記念撮影にあたってキャラクタ114にポーズを要求してもよいし、言ってほしいセリフを求めてもよい。キャラクタ114の動画像と視聴者112の撮像画像(動画像)を組み合わせて視聴者112とキャラクタ114が映るショートムービーを来場記念として視聴者112にプレゼントしてもよい。
<手の動かし方>
視聴者112がキャラクタ114をタッチしたときの手の動かし方によって、キャラクタ114への関わり方を表現してもよい。たとえば、視聴者112が視聴画面をタッチしたまま手をゆっくりと左右に動かすときには第2手344によりやさしくキャラクタ114を撫でている様子を表現してもよい。具体的には、第2手検出部318は視聴者112の手の動きを検出し、手の動く速度が所定範囲内であれば「撫でる」と判定してもよい。また、視聴者112が手をすばやく動かすときには、第2手344がキャラクタ114を叩いている様子を表現してもよい。この場合には、不適切行為としてキャラクタ114にペナルティを与えてもよい。キャラクタ114へのタッチ箇所だけでなくタッチ方法によって、装飾部326はさまざまな装飾画像360を画面表示させてもよい。
<その他>
ライブ制御部154は、不適切行為をしたキャラクタ114をブラックリストに登録してもよい。ライブ制御部154は、キャラクタ114に会いに来た視聴者112、視聴者112から提供されたグッズのほか、視聴者112による不適切行為の有無を登録してもよい。会話の開始にあたっては、ライブ制御部154は配信者110に対して視聴者112に関する各種の属性情報を送信して提示する。配信者110はこの属性情報を参照することにより、初めて会いに来た視聴者112なのか、前回プレゼントをくれた視聴者112なのかなどさまざまな個人情報を確認できるため、多種多様な視聴者112(ファン)に対して適切な対応が可能となる。たとえば、前回の会話のときに帽子をくれた視聴者112であれば、帽子をくれたお礼をすることによりこの視聴者112はキャラクタ114が自分を覚えてくれていたことを知って安心するかもしれない。
同様にして、不適切行為(不適切領域へのタッチや不愉快な発言など)をしたことのある視聴者112に対しては、キャラクタ114(配信者110)は握手拒否や会話時間の短縮などにより視聴者112に不快感を伝えることができる。このような方法によれば、キャラクタ114(アイドル)に対する視聴者112(ファン)のマナーが醸成されていくため、視聴者112のキャラクタ114を一人格として尊重する気持ちを高めやすくなる。また、こういったマナーはキャラクタ114の実在感や重要感をいっそう高め点においても有効であると考えられる。
本実施形態においては、キャラクタ114の画像とは別に第1手342を表示するとして説明した。手表示部324等はキャラクタ114そのものを動かすことで視聴者112とキャラクタ114の握手を表現してもよい。また、視聴者112がキャラクタ114の手をタッチすることで握手を成立させてもよい。
視聴装置108の出力部172は、握手が成立したとき効果音を出力してもよいし、内蔵バイブレータにより視聴者112に触感を与えてもよい。また、出力部172は、会話ブース302に設置される照明装置(図示せず)を操作して、握手が成立したときに照明光量や照明色を変化させることで握手を演出してもよい。出力部172は、効果などの演出をキャラクタ114ごと、あるいは、握手の回数や時間ごとに異ならせてもよい。装飾部326はキャラクタ114ごとに複数種類の装飾画像360を表示してもよい。
配信装置104は「文字変換部」を備えてもよい。配信装置104の文字変換部は第1メッセージ(音声)と第2メッセージ(音声)を文字変換し、配信画面に表示させてもよい。このような制御方法によれば配信者110は視聴者112との会話内容を確認しながら会話を続けることができる。ライブ制御部154は、キャラクタ114(配信者110)と視聴者112の会話を文字情報として記録しておき、会話開始時においては配信者110に過去の会話記録を提供してもよい。過去の会話記録を提供することにより配信者110は多数の視聴者112に対してきめ細かい対応をしやすくなる。
本実施形態においては握手について説明したが、握手に限らず手合わせやハイタッチをしてもよい。視聴者112は視聴画面に手のひらを載せる。配信者110も配信画面に手のひらを載せる。二人の手座標が所定範囲内に近づいたとき、手表示部324等は手合わせやハイタッチなどのアニメーションを表示させてもよい。このときにも、装飾部326は装飾画像360を表示させてもよい。
<他の応用例>
ライブ通信システム100は、無人店舗による接客にも利用できる。たとえば、現在、コンビニエンスストアなどで普及しつつあるセルフレジに視聴装置108を設置してもよい。遠隔地にいる店員(配信者110)はキャラクタ114として来店者(視聴者112)と対話する。来店者はキャラクタ114と対話しながら買い物を楽しむことができる。また、服などの買い物についてキャラクタ114(配信者110)からアドバイスを受けてもよい。ライブ通信システム100を応用すれば、来店者は無人店舗であっても接客の温かみを感じることができる。また、配信者110を店舗に常駐させる必要がないため、店舗側としても運営負担を軽減できるメリットがある。
店舗に限らず、老人ホームや幼稚園など、遠隔地からのキャラクタ114を介した会話サービスも考えられる。キャラクタ114という非日常性と配信者110の実在感を融合させることにより、キャラクタ114を相手とする気安さと配信者110の人格性を融合させる。配信者110は同時に複数の視聴者112に対して接客できることもメリットである。
ライブ通信システム100を使った遠隔授業も考えられる。たとえば、英語教師が配信者110となり、生徒が視聴者112となる。配信者110(英語教師)はキャラクタ114として視聴者112(生徒)に遠隔地から英語レッスンサービスを提供してもよい。
ライブ通信システム100により、キャラクタ114同士のディスカッションも可能である。たとえば、ユーザXはキャラクタ114xを演じ、ユーザYはキャラクタ114yを演じるとする。ユーザXの通信端末にはキャラクタ114yが表示され、ユーザYの通信端末にはキャラクタ114xが表示される。このような制御方法によれば、ユーザXとユーザYはお互いにキャラクタ114という「仮面」をかぶった状態で匿名的な会話を楽しむことができる。このほかにも遠隔宴会(合同コンパ)なども考えられる。ユーザはキャラクタ114を介して出会うため容姿ではなく人格本位の会話ができる可能性がある。
100 ライブ通信システム、102 サーバ、104 配信装置、106 インターネット、108 視聴装置、110 配信者、112 視聴者、114 キャラクタ、114a 配信キャラクタ、114b 視聴キャラクタ、116 ユーザインタフェース処理部、118 撮像部、120 データ処理部、122 通信部、124 データ格納部、126 入力部、128 出力部、130 動作検出部、132 第1メッセージ取得部、134 第1手検出部、138 配信キャラクタ表示部、140 第2メッセージ出力部、142 手表示部、144 動作情報生成部、148 送信部、150 受信部、152 通信部、154 ライブ制御部、156 データ格納部、158 キャラクタ格納部、162 ユーザインタフェース処理部、164 通信部、166 データ処理部、168 データ格納部、170 入力部、172 出力部、174 第2メッセージ取得部、180 視聴キャラクタ表示部、182 第1メッセージ出力部、186 送信部、190 受信部、196 視聴者会話画面、206 配信者会話画面、208 カメラ、212 帽子画像、290 会話管理部、300 デジタルサイネージ装置、302 会話ブース、304 カメラ、306 プレゼントボックス、308 投入口、310 検出装置、312 装飾部、314 オブジェクト表示部、316 撮像部、318 第2手検出部、320 オブジェクト投入部、322 オブジェクト特定部、324 手表示部、326 装飾部、328 オブジェクト表示部、330 幕表示部、332 ライブ画像出力部、334 キャラクタ表示領域、336 視聴者表示領域、338 握手画像、340 第1手座標、342 第1手、344 第2手、346 第2手座標、348 握手点、350 幕、352 通信部、354 表示部、356 データ処理部、358 送信部、360 装飾画像、362 会話表示領域、364 メッセージ表示部、366 文字変換部、368 受信部、370 キャラクタ表示部、d 手距離

Claims (10)

  1. 配信者により操作される配信装置と視聴者により操作される視聴装置を含み、
    前記配信装置は、
    配信者を撮像する撮像部と、
    配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
    配信者の手の位置に対応する第1手座標を検出する第1手検出部と、
    配信者から第1メッセージを受け付ける第1メッセージ取得部と、
    前記動作情報、前記第1手座標および前記第1メッセージを送信する送信部と、を備え、
    前記視聴装置は、
    前記動作情報、前記第1手座標および前記第1メッセージを受信する受信部と、
    視聴者の手の位置に対応する第2手座標を検出する第2手検出部と、
    前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
    前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部と、
    前記第1手座標および前記第2手座標に基づいて、配信者の手画像である第1手および視聴者の手画像である第2手を前記視聴装置の画面に表示させる手表示部と、を備え、
    前記配信装置の前記第1手検出部は、前記配信装置の画面に配信者がタッチしたときのタッチ地点に基づいて前記第1手座標を検出し、
    前記視聴装置の前記第2手検出部は、前記視聴装置の画面に視聴者がタッチしたときのタッチ地点に基づいて前記第2手座標を検出し、
    前記視聴装置の前記手表示部は、前記第1手座標と前記第2手座標の距離が第1の閾値以内であるとき、第1手と第2手の握手を表示させることを特徴とするライブ通信システム。
  2. 前記視聴装置は、
    第1手と第2手が握手をするとき、装飾画像を表示させる装飾部、を更に備えることを特徴とする請求項1に記載のライブ通信システム。
  3. 前記視聴装置の手表示部は、第1手および第2手が握手するときには、前記第1手座標および前記第2手座標の中間に第1手と第2手の握手を表示させ、
    前記視聴装置の装飾部は、握手の位置が変化するときに装飾画像を追加し、
    前記視聴装置の手表示部は、握手の開始後、前記第1手座標と前記第2手座標の距離が第2の閾値よりも離れたとき第1手と第2手の握手を解消することを特徴とする請求項2に記載のライブ通信システム。
  4. 前記視聴装置は、前記視聴者から第2メッセージを受け付ける第2メッセージ取得部、を更に備え、
    前記配信装置は、
    前記第2メッセージを受信する受信部と、
    前記第2メッセージを前記配信者に対して出力する第2メッセージ出力部と、を更に備え、
    前記視聴装置は、
    前記キャラクタを介した配信者と視聴者の会話の開始に際して前記キャラクタを遮蔽する幕を除去し、会話の終了に際して前記幕により前記キャラクタを遮蔽する幕表示部、を更に備え、
    前記幕表示部は、幕の除去よりも遮蔽に要する時間を長く設定することを特徴とする請求項1から3のいずれかに記載のライブ通信システム。
  5. 前記視聴装置の前記視聴キャラクタ表示部は、視聴者が前記視聴装置の画面において前記キャラクタをタッチしたとき、前記キャラクタのタッチ部位およびタッチ態様の双方または一方に応じて前記キャラクタの反応を変化させることを特徴とする請求項1から4のいずれかに記載のライブ通信システム。
  6. 前記視聴装置は、前記キャラクタを介した配信者と視聴者の会話中において、前記キャラクタの所定部位をタッチしたときには、配信者と視聴者の会話時間を短縮する会話管理部、を更に備えることを特徴とする請求項1から5のいずれかに記載のライブ通信システム。
  7. 前記配信装置の前記第1手検出部は、更に、配信者の手指の状態を検出し、
    前記配信装置の前記送信部は、更に、配信者の手指の状態を示す手指情報を前記視聴装置に送信し、
    前記視聴装置の前記第2手検出部は、更に、視聴者の手指の状態を検出し、
    前記視聴装置の前記手表示部は、配信者の手指情報に基づいて第1手を変化させるとともに視聴者の手指の状態に基づいて第2手を変化させることを特徴とする請求項1から6のいずれかに記載のライブ通信システム。
  8. デジタルサイネージ装置を更に備え、
    前記デジタルサイネージ装置は、
    音声としての前記第1メッセージ、視聴者による音声としての第2メッセージおよび前記動作情報を受信する受信部と、
    前記第1メッセージおよび前記第2メッセージを文字変換する文字変換部と、
    デジタルサイネージ画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させるキャラクタ表示部と、
    文字変換後の第1メッセージおよび第2メッセージを前記デジタルサイネージ画面に表示させるメッセージ表示部と、を備えることを特徴とする請求項1から7のいずれかに記載のライブ通信システム。
  9. 前記視聴装置は、
    視聴者による物理オブジェクトの投入を検出するオブジェクト投入部と、
    前記投入された物理オブジェクトのIDを検出するオブジェクト特定部と、
    前記検出されたIDに対応する仮想オブジェクトを前記視聴装置の画面に表示させるオブジェクト表示部と、を更に備えることを特徴とする請求項1から8のいずれかに記載のライブ通信システム。
  10. 配信者を撮像する機能と、
    配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、
    配信装置の画面に配信者がタッチしたときのタッチ地点に基づいて、配信者の手の位置に対応する第1手座標を検出する機能と、
    配信者から第1メッセージを受け付ける機能と、
    前記動作情報、前記第1手座標および前記第1メッセージを送信する機能と、を前記配信装置において発揮させる第1のプログラムと、
    前記動作情報、前記第1手座標および前記第1メッセージを受信する機能と、
    視聴装置の画面に視聴者がタッチしたときのタッチ地点に基づいて、視聴者の手の位置に対応する第2手座標を検出する機能と、
    前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、
    前記キャラクタの動作に合わせて前記第1メッセージを出力する機能と、
    前記第1手座標および前記第2手座標に基づいて、配信者の手画像である第1手および視聴者の手画像である第2手を前記視聴装置の画面に表示させる機能と、
    前記第1手座標と前記第2手座標の距離が第1の閾値以内であるとき、第1手と第2手の握手を表示させる機能と、を視聴装置において発揮させる第2のプログラムと、を含むことを特徴とするライブ通信プログラム。
JP2019141981A 2019-08-01 2019-08-01 キャラクタを使ったライブ通信システム Active JP7300925B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019141981A JP7300925B2 (ja) 2019-08-01 2019-08-01 キャラクタを使ったライブ通信システム
JP2023100943A JP2023126237A (ja) 2019-08-01 2023-06-20 キャラクタを使ったライブ通信システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019141981A JP7300925B2 (ja) 2019-08-01 2019-08-01 キャラクタを使ったライブ通信システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023100943A Division JP2023126237A (ja) 2019-08-01 2023-06-20 キャラクタを使ったライブ通信システム

Publications (2)

Publication Number Publication Date
JP2021027420A JP2021027420A (ja) 2021-02-22
JP7300925B2 true JP7300925B2 (ja) 2023-06-30

Family

ID=74664121

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019141981A Active JP7300925B2 (ja) 2019-08-01 2019-08-01 キャラクタを使ったライブ通信システム
JP2023100943A Pending JP2023126237A (ja) 2019-08-01 2023-06-20 キャラクタを使ったライブ通信システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023100943A Pending JP2023126237A (ja) 2019-08-01 2023-06-20 キャラクタを使ったライブ通信システム

Country Status (1)

Country Link
JP (2) JP7300925B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7012979B1 (ja) 2021-07-21 2022-01-31 株式会社WithLIVE プログラム及び情報処理装置
JP2023173388A (ja) * 2022-05-25 2023-12-07 株式会社 ディー・エヌ・エー ライブ配信サービスを提供するためのシステム、方法、及びプログラム
JP7335572B1 (ja) * 2022-09-30 2023-08-30 グリー株式会社 情報処理システム、制御方法、及びサーバ装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212564A (ja) 2015-05-01 2016-12-15 日本電信電話株式会社 ソーシャルタッチ制御装置
JP2018032384A (ja) 2017-07-18 2018-03-01 株式会社コロプラ 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム
JP6342024B1 (ja) 2017-02-10 2018-06-13 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6543403B1 (ja) 2018-12-12 2019-07-10 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212564A (ja) 2015-05-01 2016-12-15 日本電信電話株式会社 ソーシャルタッチ制御装置
JP6342024B1 (ja) 2017-02-10 2018-06-13 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018032384A (ja) 2017-07-18 2018-03-01 株式会社コロプラ 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム
JP6543403B1 (ja) 2018-12-12 2019-07-10 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム

Also Published As

Publication number Publication date
JP2021027420A (ja) 2021-02-22
JP2023126237A (ja) 2023-09-07

Similar Documents

Publication Publication Date Title
JP7389855B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7238028B2 (ja) ゲームシステム、ゲーム提供方法及びプログラム
JP7300925B2 (ja) キャラクタを使ったライブ通信システム
JP2018094326A (ja) イベント制御システム、イベント通知システム及びプログラム
JP7098676B2 (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
US20160320833A1 (en) Location-based system for sharing augmented reality content
JP2023067892A (ja) 情報処理プログラム、情報処理方法、情報処理装置
JP6737942B1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP6563580B1 (ja) コミュニケーションシステム及びプログラム
JP2024036381A (ja) プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP7277145B2 (ja) キャラクタを使ったライブ通信システム
JP2023143963A (ja) プログラム、情報処理方法及び情報処理装置
CN116993432A (zh) 虚拟服饰信息展示方法及电子设备
JP2023095862A (ja) プログラム及び情報処理方法
JP2021057017A (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP7379427B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7357865B1 (ja) プログラム、情報処理方法、及び情報処理装置
JP7223834B2 (ja) プログラム、情報処理方法及び情報処理装置
JP7454166B2 (ja) 情報処理システム、情報処理方法、及び記憶媒体
JP7333529B1 (ja) 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
US20230315370A1 (en) Control program for terminal device, terminal device, control method for terminal device, control program for server device, server device, and control method for server device
JP7104097B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
US20240007700A1 (en) Program, information processing method, and information processing device
KR20050077199A (ko) 아바타서비스 제공시스템 및 그 방법

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190827

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230620

R150 Certificate of patent or registration of utility model

Ref document number: 7300925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150