JP6563580B1 - コミュニケーションシステム及びプログラム - Google Patents
コミュニケーションシステム及びプログラム Download PDFInfo
- Publication number
- JP6563580B1 JP6563580B1 JP2018195458A JP2018195458A JP6563580B1 JP 6563580 B1 JP6563580 B1 JP 6563580B1 JP 2018195458 A JP2018195458 A JP 2018195458A JP 2018195458 A JP2018195458 A JP 2018195458A JP 6563580 B1 JP6563580 B1 JP 6563580B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- avatar
- unit
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Abstract
【解決手段】配信者端末は、撮影手段により撮影された被写体を含む撮影画像を取得する撮影画像取得手段と、撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部に対応する特徴データを取得する特徴取得手段と、特徴取得手段により取得された特徴データを視聴者端末に送信する特徴送信手段を備え、視聴者端末は、特徴送信手段から送信された特徴データを受信する特徴受信手段と、特徴受信手段から受信した特徴データを、アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、アバター画像反映手段により生成されたアバター画像を表示する表示手段とを備える。
【選択図】図1
Description
(1)本発明1のコミュニケーションシステムは、配信者端末及び視聴者端末を有するコミュニケーションシステムであって、配信者端末及び視聴者端末は、配信者端末と視聴者端末との間で通信する通信手段と、被写体の各部について設定された複数のパーツ画像を有するアバター画像を取得するアバター画像取得手段と、を備え、配信者端末は、撮影手段により撮影された被写体を含む撮影画像を取得する撮影画像取得手段と、前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部に対応する特徴データを取得する特徴取得手段と、前記特徴取得手段により取得された特徴データを視聴者端末に送信する特徴送信手段と、前記特徴取得手段により取得された特徴データを、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、 前記アバター画像反映手段により生成されたアバター画像を表示する表示手段と を備え、視聴者端末は、前記特徴送信手段から送信された特徴データを受信する特徴受信手段と、前記特徴受信手段から受信した特徴データを、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、前記アバター画像反映手段により生成されたアバター画像を表示する表示手段とを備えるコミュニケーションシステム。
(2)本発明2のコミュニケーションシステムは、本発明1であって、前記特徴取得手段は、前記特徴データとして、被写体の各部に対応する部分について複数の特徴点を取得し、前記特徴点の位置に基づいて演算された特徴データを取得するコミュニケーションシステム。
(3)本発明3のコミュニケーションシステムは、本発明2であって前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する標準位置取得手段とを備えるコミュニケーションシステム。
(4)本発明4のコミュニケーションシステムは、本発明3であって、前記特徴取得手段により取得された演算結果が、閾値の範囲内か否かを判定する閾値判定手段とを備え、前記パーツ画像反映手段は、前記演算結果が閾値の範囲内か否かに応じて、アバター画像に反映させるパーツ画像を変更するコミュニケーションシステム。
(5)本発明5のコミュニケーションシステムは、本発明4であって、前記標準位置取得手段により被写体の各部の前記標準位置を取得したときに、前記標準位置の状態に応じて取得した仮閾値を前記閾値として仮設定する仮閾値設定手段とを備えるコミュニケーションシステム。
(6)本発明6のコミュニケーションシステムは、本発明5であって、前記特徴取得手段により取得した前記演算結果を蓄積し、前記蓄積した前記演算結果に応じて前記閾値を変更する閾値変更手段とを備えるコミュニケーションシステム。
本発明の第一実施形態のコミュニケーションシステムCを図面に基づいて詳細に説明する。図1は、コミュニケーションシステムCが提供するサービスの概要を示す図である。図2は、情報処理装置1の構成を示すブロック図である。本発明の第一実施形態は、図1に示すように、コミュニケーションシステムCは、例えば、SNS(Social Networking Service)等のオンラインサービスを提供する運営業者が、サーバ装置Sを使用してユーザに応じたアバター画像を提供するシステムである。
図1に示すように、サーバ装置Sは、ネットワークNを介して配信者端末1a、視聴者端末1bと接続され、コミュニケーションシステムを提供している。配信者Aは、配信者端末1aを使用してコミュニケーションシステムCを使用している。視聴者Bは、視聴者端末1bを使用してコミュニケーションシステムCを使用している。ユーザである配信者Aと視聴者Bとは、それぞれの配信者端末1aと視聴者端末1bを使用してコミュニケーションシステムCを通じて、あらかじめサーバ装置Sに保存されているアバター画像をダウンロードする。
情報処理装置1は、被写体を撮影し、ユーザによるアバターの作成を支援するためのコンピュータ装置である。第一実施形態において、情報処理装置1は、図1に示すように、いわゆるスマートフォンであり、データ通信可能な装置である。情報処理装置1は、データ通信可能な装置であれば、スマートフォンに限らず、携帯電話、タブレット端末、パーソナルコンピュータ及びノートパソコン等でも良い。また、情報処理装置1は、頭部に装着したプレイヤの左右の目に視差画像を表示することで立体映像を表示するヘッドマウントディスプレイ(Head Mounted Display、以下、「HMD」という。)でも良い。
なお、アバターとは、ユーザの分身を表すキャラクターであり、ユーザを識別する機能を有するキャラクターである。アバターは、配信者端末1aのユーザ(例えば、配信者A)以外の他のユーザ(例えば、視聴者B)が配信者端末1aのユーザ(配信者A)であることを認識できれば良い。つまり、アバターは、必ずしも配信者A本人に似たキャラクターである必要はない。
制御部10は、記憶部20等が記憶するプログラムを実行することにより、情報処理装置1の各部の動作を制御する装置である。制御部10は、Central Processing Unit(以下、「CPU11」という。)等の演算処理装置を1又は複数備え、このCPU11にデータバス等のバスラインで接続されたROM12及びRAM13とを備えている。CPU11は、アプリケーションプロセッサ、ベースバンドプロセッサ、Graphics Processing Unit(以下、「GPU」という。)等を1つのチップに実装したものであっても良い。制御部10は、Operating System(以下、「OS」という。)やアプリケーションプログラムを実行することにより、所定の機能を実現することが可能である。制御部10は、主記憶装置を含んでいる。
記憶部20は、データを記憶する装置であり、例えば、ハードディスク、フラッシュメモリ及びその他の記憶媒体を備える。記憶部20は、制御部10が実行するプログラムに加え、アバター画像、パーツ画像、標準位置等のデータを記憶している。記憶部20は、いわゆるメモリカードのような、着脱可能な記憶媒体とそのリーダ/ライタを含んで構成されても良い。
入出力部30は、情報を表示し、ユーザ(配信者A、視聴者B)の操作を受け付けるタッチパネルやタッチスクリーン等の装置である。入出力部30は、表示部31と、センサ部32とを含んで構成されている。表示部31は、液晶ディスプレイや有機ELディスプレイによる表示パネルを有し、制御部10から供給された表示データに応じた画像を表示する。センサ部32は、表示パネル上における指示体(例えば、ユーザの指、スタイラス等)の位置を検知するためのセンサを有し、検知した位置を表す座標データを制御部10に供給する。センサ部32を構成するセンサは、例えば、静電容量方式、光感知方式、抵抗膜方式等があるが、これに限定されない。
カメラ部40は、被写体を撮影する装置である。カメラ部40は、画像を電気信号に変換する撮像素子を備え、撮影画像を表す画像データを制御部10に供給する。カメラ部40の撮像素子は、例えば、CMOSイメージセンサやCCDイメージセンサ、距離画像センサなどが使用される。なお、カメラ部40は、複数の撮像素子を備えても良い。例えば、情報処理装置1がスマートフォンの場合、表示部31が設けられた側である表面とその反対の側である裏面とに、カメラ部40として撮像素子をそれぞれに設けても良い。また、情報処理装置1が、被写体を複数の異なる方向から同時に撮影するいわゆるステレオカメラの場合、カメラ部40として撮像素子を2つ設けても良い。
スピーカ部50は、制御部10から供給された音声信号を指示音声として出力する装置である。スピーカ部50は、情報処理装置1のそれぞれ左側及び右側の位置に知覚可能に取り付けられてもよい。図1に示すように、第一実施形態において、視聴者Bは、スマートフォンである視聴者端末1b(情報処理装置1)を使用して、入出力部30を確認しながら、スピーカ部50によって、配信者Aが送信した音声を聞ける。
マイク部60は、ユーザの会話等の音声入力を受け付け、受け付けた音声入力を示す音声データを制御部10へ出力する装置である。マイク部60は、情報処理装置1の内部に取り付けられている。図1に示すように、第一実施形態において、配信者Aは、スマートフォンである配信者端末1a(情報処理装置1)を使用して、入出力部30を確認しながら、マイク部60によって、配信者Aが発することができる。
通信部70は、データを送受信する装置である。通信部70は、例えば、アンテナを備え、ネットワークNを介して、他の端末とデータをやり取りする。
第一実施形態において、配信者端末1aは、視聴者端末1b及びサーバ装置Sとデータをやり取りする。視聴者端末1bは、配信者端末1a及びサーバ装置Sとデータをやり取りする。なお、通信部70は、赤外線通信、Near Field Communication(以下、「NFC」という。)等のその他の無線通信方式により、ネットワークNを介さずに通信しても良いし、有線で通信しても良い。
サーバ装置Sは、配信者端末1aで作成されたアバターを管理すると共に、アバターを配信者端末1aと視聴者端末1bに配信するためのコンピュータ装置である。図2に示すように、サーバ装置Sは、制御部10S、記憶部20S、入力部30S、表示部40S、出力部50S、通信部60S等を備える。サーバ装置Sは、図2に示す構成のほか、マイクロホン、バイブレータ等を備えても良い。
図3は、情報処理装置1の機能的構成を示すブロック図である。図4は、アバターの選択画面を示す図である。図6は、顔の特徴を特定した状態の一例を示す図である。図7は、右目の特徴を特定した状態の一例を示す図である。図8は、右目の特徴を特定した状態の一例を示す図である。図9は、右目の特徴を特定した状態の一例を示す図である。図10は特徴テーブルの一例を示す図である。図11は、標準位置取得画面を示す図である。図12は、標準位置取得画面を出力している状態示す図である。図13は、アバターを出力している状態示す図である。図14は、演出効果を持たせたアバターを出力している状態示す図である。
通信手段100は、無線又は有線で他の端末と通信をする手段である。通信手段100は、制御部10と通信部70が協働して実行する。
アバター画像取得手段110は、生成されたアバター画像が既にある場合には、記憶部20又は記憶部20Sから、アバター画像を取得する手段である。アバター画像取得手段110は、生成されたアバター画像が記憶部20にある場合には、アバター画像を記憶部20から読み込む。アバター画像取得手段110は、アバター画像を記憶部20から読み込むとき、あわせて、パーツ画像と、標準位置を読み込む。アバター画像取得手段110は、生成されたアバター画像が記憶部20Sにある場合には、アバター画像を記憶部20Sからダウンロードする。アバター画像取得手段110は、アバター画像を記憶部20Sから読み込むとき、あわせて、パーツ画像と、標準位置もダウンロードする。
撮影画像取得手段120は、アバター画像の生成に必要な撮影画像を撮影する手段である。撮影画像取得手段120は、制御部10と撮影手段であるカメラ部40が協働して実行する。撮影画像取得手段120は、カメラ部40による撮影の開始及び終了を制御部10が制御する手段である。撮影画像取得手段120は、配信者Aの操作に応じて動画を撮影する。ここでいう動画は、複数の静止画の集合であり、所定のフレームレートで撮影される。撮影画像取得手段120は、例えば、フレームレートが30FPS(frames per second)で撮影される。撮影画像取得手段120による動画の撮影時間は、あらかじめ決められていてもよいし、ユーザの操作によって決められても良い。
特徴取得手段130は、撮影画像から顔に対応する特徴を特定する手段である。特徴は、髪型、輪郭、目、鼻、口等といった頭部の各部位の位置、形状又は色である。例えば、特徴は、耳、首、眉毛、眼鏡又は髭の有無等も、顔の特徴として含まめても良い。特徴取得手段130による特徴の特定方法としては、例えば、撮影画像から人間の顔に対応するもの(以下「顔画像」という。)の検出をし、検出した顔画像に含まれる複数の特徴点を特定することで、顔の各部の特徴を分類する方法がある。
演算手段140は、特徴取得手段で特定された複数の特徴点に基づき演算して演算結果を取得し、演算結果に応じた特徴を特徴データとして取得する手段である。第一実施形態においては、特徴点の標準位置と現在位置との位置関係を比較、演算することで演算結果が得られる。例えば、演算手段140は、図7(a)に示す右目の標準位置と図7(b)に示す右目の現在位置の位置関係を比較して、演算して演算結果を取得する。
特徴送信手段150は、特徴取得手段130により取得された特徴データを視聴者端末に送信する手段である。また、特徴送信手段150は、演算手段140により取得された演算結果を特徴データとして視聴者端末に送信する手段である。特徴送信手段150は、制御部10と通信部70が協働して実行する。なお、特徴送信手段150は、前に送信した特徴データと現在送信しようとしている特徴データを比較し、一定以上の乖離がある場合、異常値として判定する。そして、特徴送信手段150は、現在送信しようとしている特徴データではなく、前に送信した特徴データを送信する。なお、前に送信した特徴データと現在送信しようとしている特徴データの乖離の範囲は、設定が可能である。
特徴受信手段160は、特徴送信手段150から送信された特徴データを受信する手段である。また、特徴受信手段160は、特徴送信手段150から送信された演算結果を特徴データとして受信する手段である。特徴受信手段160は、制御部10と通信部70が協働して実行する。特徴受信手段160は、送信された特徴データの間隔が十分でなかった場合(例えば、30FPSを切った場合)、データ間隔の間をスムーズにするための補完処理を行う。
パーツ画像反映手段170は、取得した特徴データをパーツ画像に反映する手段である。ここにおいて、パーツ画像とは、あらかじめ顔の各部について設定された画像であり、顔の各部毎に用意され、所定の動きをするようにモデルデータを用意されている。パーツ画像反映手段170は、パーツ画像を表すデータを記憶部20から読み出し、特徴取得手段130により特定された特徴データ及び/又は演算手段140により演算された演算結果をパーツ画像に反映する。例えば、パーツ画像として右目は、図7(b)に示すように、右目の開閉がアニメーションでまばたきするようにモデルデータを作成しておき、完全に閉じた状態を0、最大まで開いた状態を1とし、開閉状態を0〜1の小数の間で指定して動かせる。また、閉じた右目の状態は、図8(a)に示すように通常の閉じた状態と、図8(b)に示すように笑顔で閉じた状態と、2つのパターン用意しておくと良い。
アバター画像反映手段180は、取得した特徴データをアバター画像に反映する手段である。また、アバター画像反映手段180は、パーツ画像反映手段により特徴データが反映された各部のパーツ画像を、アバター画像取得手段で取得したアバター画像に反映させる手段である。さらに、アバター画像反映手段180は、組み合わされたパーツ画像の位置に応じてアバター画像の一部の色を決定する手段である。例えば、アバター画像反映手段180は、アバター画像に組み合わされたパーツ画像の肌や髪の色を撮影画像に基づいて決定する。例えば、アバター画像反映手段180は、アバター画像に組み合わされたパーツ画像の重なりに応じて影をつける位置を決定する。
表示手段190は、アバター画像の生成後(又は生成中)に入出力部30にアバター画像を表示する手段である。表示手段190は、制御部10と入出力部30(特に、表示部310)との協働によって実現される。表示手段190は、制御部10によって実現される手段であり、入出力部30による画像の表示を制御する手段である。例えば、図13(a)に示すように、表示手段190は、配信者Aがカメラ部40に向かってウインクをすると、入出力部30に対して、アバター画像がウインクする動作を表示させる。例えば、図13(b)に示すように、表示手段190は、配信者Aがカメラ部40に向かって口を開けると、入出力部30に対して、アバター画像が口を開ける動作を表示させる。
標準位置取得手段200は、撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する手段である。標準位置取得手段200は、制御部10と撮影手段であるカメラ部40が協働して実行する。標準位置取得手段200は、所定のアプリケーションプログラムを実行することや、所定のタイミングによって、図3(a)乃至(c)に示すような画面を入出力部30に表示することができる。標準位置取得手段200は、例えば、入出力部30に配信者の画像を表示するための領域と、顔の位置の認識を容易にするための目印やマークが表示される領域とを表示する。
閾値判定手段210は、特徴取得手段により取得された演算結果が、閾値の範囲内か否かを判定する手段である。閾値判定手段210は、特徴取得手段により取得された演算結果が、所定の閾値を超えた場合、強制的に演算結果の数値を決定する。例えば、演算手段140は、演算結果が0〜1の間になるような演算式を使用しているが、閾値を0.2〜0.8と設定してある場合、閾値判定手段210は、0.8以上は強制的に1として、0.2以下は強制的に0とする。
仮閾値設定手段220は、標準位置取得手段により被写体の各部の標準位置を取得したときに、標準位置の状態に応じて取得した仮閾値を前記閾値として仮設定する手段である。
閾値変更手段230は、特徴取得手段により取得した前記演算結果を蓄積し、前記蓄積した前記演算結果に応じて前記閾値を変更する手段である。
〔アバター画像取得工程SP10〕
メイン処理において、配信者端末1aの制御部10は、アプリケーションのダウンロード時や初回起動時、または配信者Aの操作に応じてアバター画像を取得する(SP10)。制御部10は、生成されたアバター画像が既にある場合には、記憶部20又は記憶部20Sから、アバター画像を取得して、配信者Aにそのアバターを使用するかの確認をする。制御部は、記憶部20又は記憶部20Sに生成されたアバター画像がない場合には、配信者Aにアバター画像を生成するように表示をする。配信者Aがアバター画像を生成した場合は、そのアバター画像を記憶部20又は記憶部20Sに格納する。
メイン処理において、視聴者端末1bの制御部10は、アプリケーションのダウンロード時や初回起動時、または視聴者Bの操作に応じてアバター画像を取得する(SP11)。制御部10は、例えば、配信者AとコミュニケーションシステムCを使用して、アバターを通じたコミュニケーションがされていた場合には、記憶部20又は記憶部20Sから、アバター画像を取得する。
配信者端末1aの制御部10は、アバター画像の生成に必要な撮影画像を撮影する(SP12)。制御部10は、配信者Aの操作に応じて、撮影の開始及び終了を制御をし、動画を撮影する。第一実施形態において、制御部10は、フレームレートが30FPS(frames per second)で撮影をする。
配信者端末1aの制御部10は、撮影画像取得工程SP12で取得した撮影画像から顔に対応する特徴を特徴データとして特定する(SP13)。制御部10は、顔画像の検出をし、検出した顔画像に含まれる複数の特徴点を特定した、顔の各部の特徴を特徴データとして分類する。制御部10は、図6に示すように、顔に対応する部分について30個の特徴点を特徴データとして特定し、これらの特徴点の位置関係に基づいて顔の特徴を特定する。
配信者端末1aの制御部10は、撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する(SP14)。制御部10は、配信者Aが所定のアプリケーションプログラムを実行することや、所定のタイミングによって、標準位置取得工程を実行する。制御部10は、入出力部30にカメラ部40を通じて配信者の画像を表示し、顔の主要な部分(輪郭、目、鼻、口等)を位置合わせするための目印となる点線を表示する。制御部10は、配信者Aが入出力部30に表示されている顔の輪郭、目、鼻、口を目印に合わせて、ボタンを入力したとき、標準位置を計測して、記憶部20の特徴テーブルPTの標準位置に格納する。
配信者端末1aの制御部10は、マイク部60によって取得された配信者Aの音声データを、通信部70を介してサーバ装置Sに送信する(SP15)。
サーバ装置Sの制御部10Sは、配信者端末1aから送信された音声データを受信して、記憶部20Sに格納する(SP16)。
サーバ装置Sの制御部10Sは、配信者端末1aから送信された音声データを、通信部60Sを介して視聴者端末1bに送信する(SP17)。
視聴者端末1bの制御部10は、サーバ装置Sから送信された音声データを受信して、記憶部20に格納する(SP18)。
配信者端末1aの制御部10は、特徴取得工程SP13で特定された複数の特徴点の間の位置関係を演算して演算結果を取得し、演算結果に応じて特徴を特徴データとして取得する(SP19)。第一実施形態においては、制御部10は、特徴点の標準位置と現在位置との位置関係を比較、演算して演算結果を得る。制御部10は、右目の標準位置の特徴点P2と特徴点P3との距離が2cmであり、右目の現在位置の特徴点P2と特徴点P3との距離が0.8cmの場合において、現在位置の距離を標準位置の距離で割った0.4を演算結果とする。制御部10は、記憶部20の特徴テーブルPTに演算結果0.4を格納する。
配信者端末1aの制御部10は、特徴取得工程SP13で取得した特徴及び/又は演算工程SP19で取得した演算結果を、通信部70を介してサーバ装置Sに送信する(SP20)。制御部10は、前に送信した特徴データと現在送信しようとしている特徴データを比較し、一定以上の乖離がある場合、異常値として判定する。そして、制御部10は、現在送信しようとしている特徴データではなく、前に送信した特徴データを送信する。
サーバ装置Sの制御部10Sは、配信者端末1aから送信された特徴及び/又は演算結果を受信して、記憶部20Sに格納する(SP21)。
サーバ装置Sの制御部10Sは、配信者端末1aから送信された特徴及び/又は演算結果を、通信部60Sを介して視聴者端末1bに送信する(SP22)。
視聴者端末1bの制御部10は、サーバ装置Sから送信された特徴及び/又は演算結果を受信して、記憶部20に格納する(SP23)。
配信者端末1a及び視聴者端末1bの制御部10は、取得した特徴及び/又は演算結果に応じてパーツ画像に反映する(SP24)。制御部10は、パーツ画像を表すデータを記憶部20から読み出し、特徴取得工程13により特定された特徴及び/又は演算工程19により演算された演算結果に応じてパーツ画像に反映する。
配信者端末1a及び視聴者端末1bの制御部10は、パーツ画像反映手段により反映された各部のパーツ画像を、アバター画像取得工程SP10で取得したアバター画像に反映させる(SP25)。なお、パーツ画像が全て結合されたアバター画像が配信者端末1a及び視聴者端末1bに既に記憶されており、その中にある該当パーツに特徴データを反映して動かしてもよい。
配信者端末1aの制御部10は、マイク部60によって取得された配信者Aの音声データをスピーカ部50から出力する(SP26)。また、視聴者端末1bの制御部10は、音声データ受信工程SP18で受信した音声データをスピーカ部50から出力する(SP26)。
配信者端末1a及び視聴者端末1bの制御部10は、アバター画像の生成後(又は生成中)に入出力部30にアバター画像を表示する(SP27)。制御部10は、入出力部30によりアバター画像の表示に制御をする。例えば、図13(a)に示すように、制御部10は、配信者Aがカメラ部40に向かってウインクをすると、入出力部30に対して、アバター画像がウインクする動作を表示させる。例えば、図13(b)に示すように、制御部10は、配信者Aがカメラ部40に向かって口を開けると、入出力部30に対して、アバター画像が口を開ける動作を表示させる。例えば、図13(c)に示すように、制御部10は、配信者Aがカメラ部40に向かって笑うと、入出力部30に対して、アバター画像も笑う動作を表示させる。
コミュニケーションシステムCは、アバターの利用に際して、様々な演出をすることもできる。例えば、配信者Aが、マイク部60に対して所定の音声を発したり、入出力部30に対して、所定の動作を行ったときに、アバターやその背景に特別な演出をさせることができる。例えば、図13(a)に示すように、制御部10は、配信者Aがマイク部60に向かって「ウィンク」というと、入出力部30に対して、アバター画像がウインクする動作をすると共に、アバター画像の目から星がでる演出を表示させる。
以上、本発明の実施の形態の説明を行ったが、本発明は、この実施の形態に限定されることはなく、本発明の目的、趣旨を逸脱しない範囲内で変更ができ、以下の変形例に示す態様で実施することも可能である。なお、以下の変形例は、必要に応じて、各々を組み合わせて適用してもよい。
10 :制御部
20 :記憶部
30 :入出力部
40 :カメラ部
50 :スピーカ部
60 :通信部
S :サーバ装置
10S :制御部
20S :記憶部
30S :入出力部
40S :カメラ部
50S :スピーカ部
60S :通信部
Claims (3)
- 配信者端末及び視聴者端末を有するコミュニケーションシステムであって、
配信者端末及び視聴者端末は、
配信者端末と視聴者端末との間で通信する通信手段と、
被写体の各部について設定された複数のパーツ画像を有するアバター画像を取得するアバター画像取得手段と、
を備え、
配信者端末は、
撮影手段により撮影された被写体を含む撮影画像を取得する撮影画像取得手段と、
前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する標準位置取得手段と、
前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部対応する部分について複数の特徴点を取得し、前記特徴点の位置に基づいて演算された演算結果を特徴データとして取得する特徴取得手段と、
前記特徴取得手段により取得された特徴データが閾値の範囲内か否かを判定し、前記閾値の範囲外であると判定した場合、前記特徴データを予め定められた値に変更する閾値判定手段と、
前記特徴取得手段により取得された特徴データを視聴者端末に送信する特徴送信手段と、
前記特徴取得手段により取得された特徴データを、前記パーツ画像に反映するパーツ画像反映手段と、
前記パーツ画像反映手段により前記特徴データが反映された前記パーツ画像を、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、
前記アバター画像反映手段により生成されたアバター画像を表示する表示手段と
を備え、
視聴者端末は、
前記特徴送信手段から送信された特徴データを受信する特徴受信手段と、
前記特徴受信手段から受信した特徴データを、前記パーツ画像に反映するパーツ画像反映手段と、
前記パーツ画像反映手段により前記特徴データが反映された前記パーツ画像を、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、
前記アバター画像反映手段により生成されたアバター画像を表示する表示手段と、
を備えるコミュニケーションシステム。 - 前記標準位置取得手段により被写体の各部の前記標準位置を取得したときに、前記標準位置の状態に応じて取得した仮閾値を前記閾値として仮設定する仮閾値設定手段、
を備える請求項1に記載のコミュニケーションシステム。 - 視聴者端末と通信可能なコンピュータを、
被写体の各部について設定された複数のパーツ画像を有するアバター画像を取得するアバター画像取得手段、
撮影手段により撮影された被写体を含む撮影画像を取得する撮影画像取得手段、
前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する標準位置取得手段、
前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部対応する部分について複数の特徴点を取得し、前記特徴点の位置に基づいて演算された演算結果を特徴データとして取得する特徴取得手段、
前記特徴取得手段により取得された特徴データが閾値の範囲内か否かを判定し、前記閾値の範囲外であると判定した場合、前記特徴データを予め定められた値に変更する閾値判定手段、
前記特徴取得手段により取得された特徴データを前記視聴者端末に送信する特徴送信手段、
前記特徴取得手段により取得された特徴データを、前記パーツ画像に反映するパーツ画像反映手段、
前記パーツ画像反映手段により前記特徴データが反映された前記パーツ画像を、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段、
前記アバター画像反映手段により生成されたアバター画像を表示する表示手段、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195458A JP6563580B1 (ja) | 2018-10-16 | 2018-10-16 | コミュニケーションシステム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195458A JP6563580B1 (ja) | 2018-10-16 | 2018-10-16 | コミュニケーションシステム及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6563580B1 true JP6563580B1 (ja) | 2019-08-21 |
JP2020064426A JP2020064426A (ja) | 2020-04-23 |
Family
ID=67695609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018195458A Active JP6563580B1 (ja) | 2018-10-16 | 2018-10-16 | コミュニケーションシステム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6563580B1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7234187B2 (ja) * | 2020-06-29 | 2023-03-07 | グリー株式会社 | 情報処理プログラム、情報処理方法、情報処理装置 |
CN112102153B (zh) | 2020-08-20 | 2023-08-01 | 北京百度网讯科技有限公司 | 图像的卡通化处理方法、装置、电子设备和存储介质 |
CN112102154B (zh) * | 2020-08-20 | 2024-04-26 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
JP7488210B2 (ja) | 2021-02-24 | 2024-05-21 | Kddi株式会社 | 端末及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4612806B2 (ja) * | 2003-07-18 | 2011-01-12 | キヤノン株式会社 | 画像処理装置、画像処理方法、撮像装置 |
JP2011048469A (ja) * | 2009-08-25 | 2011-03-10 | Seiko Epson Corp | 画像処理装置、画像処理方法および画像処理プログラム |
JP2015172883A (ja) * | 2014-03-12 | 2015-10-01 | 株式会社コナミデジタルエンタテインメント | 端末装置、情報通信方法及び情報通信プログラム |
JP2016018313A (ja) * | 2014-07-07 | 2016-02-01 | 任天堂株式会社 | プログラム、情報処理装置、コミュニケーションシステム及びコミュニケーション方法 |
JP6152125B2 (ja) * | 2015-01-23 | 2017-06-21 | 任天堂株式会社 | プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法 |
-
2018
- 2018-10-16 JP JP2018195458A patent/JP6563580B1/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020064426A (ja) | 2020-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11983830B2 (en) | Systems and methods for generating and facilitating access to a personalized augmented rendering of a user | |
JP6563580B1 (ja) | コミュニケーションシステム及びプログラム | |
KR102581453B1 (ko) | 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리 | |
JP7504968B2 (ja) | アバター表示装置、アバター生成装置及びプログラム | |
US10360715B2 (en) | Storage medium, information-processing device, information-processing system, and avatar generating method | |
WO2018153267A1 (zh) | 群组视频会话的方法及网络设备 | |
JP2024028390A (ja) | 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置 | |
WO2020138107A1 (ja) | 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム | |
US9710974B2 (en) | Video game processing apparatus and video game processing program | |
WO2017137948A1 (en) | Producing realistic body movement using body images | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
US10896322B2 (en) | Information processing device, information processing system, facial image output method, and program | |
US11673054B2 (en) | Controlling AR games on fashion items | |
CN108876878B (zh) | 头像生成方法及装置 | |
US11562548B2 (en) | True size eyewear in real time | |
JP7234187B2 (ja) | 情報処理プログラム、情報処理方法、情報処理装置 | |
JP7300925B2 (ja) | キャラクタを使ったライブ通信システム | |
JP6470387B1 (ja) | ヘッドマウントデバイスを介して情報を提供するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
JP2023095862A (ja) | プログラム及び情報処理方法 | |
JP2019133276A (ja) | 画像処理システム、端末 | |
JP2020039012A (ja) | プログラム、情報処理装置、および方法 | |
JP6937803B2 (ja) | 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム | |
WO2024015220A1 (en) | Method and application for animating computer generated images | |
TW201730734A (zh) | 傳送人形玩偶圖像或影像之通訊系統、通訊方法與伺服器 | |
TWM532129U (zh) | 傳送人形玩偶圖像或影像之通訊系統與伺服器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181213 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181213 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6563580 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |