JP6563580B1 - コミュニケーションシステム及びプログラム - Google Patents

コミュニケーションシステム及びプログラム Download PDF

Info

Publication number
JP6563580B1
JP6563580B1 JP2018195458A JP2018195458A JP6563580B1 JP 6563580 B1 JP6563580 B1 JP 6563580B1 JP 2018195458 A JP2018195458 A JP 2018195458A JP 2018195458 A JP2018195458 A JP 2018195458A JP 6563580 B1 JP6563580 B1 JP 6563580B1
Authority
JP
Japan
Prior art keywords
image
feature
avatar
unit
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018195458A
Other languages
English (en)
Other versions
JP2020064426A (ja
Inventor
幸美 前原
幸美 前原
泰洋 ▲高▼取
泰洋 ▲高▼取
Original Assignee
株式会社アンビリアル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アンビリアル filed Critical 株式会社アンビリアル
Priority to JP2018195458A priority Critical patent/JP6563580B1/ja
Application granted granted Critical
Publication of JP6563580B1 publication Critical patent/JP6563580B1/ja
Publication of JP2020064426A publication Critical patent/JP2020064426A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】アバター画像を動かすに当たって、データ通信量を削減しつつ、配信者のプライバシーに配慮し、人物画像が露出するリスクを排除する。
【解決手段】配信者端末は、撮影手段により撮影された被写体を含む撮影画像を取得する撮影画像取得手段と、撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部に対応する特徴データを取得する特徴取得手段と、特徴取得手段により取得された特徴データを視聴者端末に送信する特徴送信手段を備え、視聴者端末は、特徴送信手段から送信された特徴データを受信する特徴受信手段と、特徴受信手段から受信した特徴データを、アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、アバター画像反映手段により生成されたアバター画像を表示する表示手段とを備える。
【選択図】図1

Description

本発明は、コミュニケーションシステム及びプログラムに関する。
オンラインでのコミュニケーションツールとして、アバターが用いられることがある。アバターは、主にユーザ自身に似せた外見のキャラクターを使用するが、他人、動物、架空のキャラクター等を模して使用することもある。例えば、ユーザは、ユーザ自身に似せたアバターをコミュニケーションツールとして用いることが可能である。ユーザがアバターを使用する場合には、好みのアバターを作成し、ユーザの表情やユーザの動作を検出して、作成したアバターに検出したユーザの表情やユーザの動作を反映してアバター画像を生成して表示する。
複数の端末でアバターを使用する場合、一ユーザの端末と他のユーザの端末との間で、アバター画像を送受信している。複数の端末でアバターを使用する場合は、ユーザの表情やユーザの動作を検出する度に、アバター画像全体を送受信する必要があり、送受信するデータの容量が大きくなってしまう。このため、送受信するデータの容量が大きくなると、通信回線の付加が増大し、アバター画像の送受信の速度が遅くなり、受信した端末でのアバター画像の動きに乱れが生じる。
このような問題に対処するため、抽出された顔部分の特徴部分に基づき、人物画像をアバター画像に変換する会議端末装置の技術が知られている(例えば、特許文献1参照)。
特開2010−213133号公報
しかしながら、特許文献1に記載の技術は、撮影装置で撮影した人物画像を会議端末装置に送信しているので、通信量が大きくなってしまうという問題があった。さらにユーザのプライバシーに配慮し、顔を完全に隠したコミュニケーションを保証できないという問題もあった。
本発明はこのような課題に鑑みてなされたものであり、その目的は、アバター画像を動かすに当たって、データ通信量を削減できるとともに、ユーザのプライバシーに配慮し人物画像を送信しないことを保証することができるコミュニケーションシステムを提供することにある。
本発明は、前記目的を達成するために次の手段をとる。
(1)本発明1のコミュニケーションシステムは、配信者端末及び視聴者端末を有するコミュニケーションシステムであって、配信者端末及び視聴者端末は、配信者端末と視聴者端末との間で通信する通信手段と、被写体の各部について設定された複数のパーツ画像を有するアバター画像を取得するアバター画像取得手段と、を備え、配信者端末は、撮影手段により撮影された被写体を含む撮影画像を取得する撮影画像取得手段と、前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部に対応する特徴データを取得する特徴取得手段と、前記特徴取得手段により取得された特徴データを視聴者端末に送信する特徴送信手段と、前記特徴取得手段により取得された特徴データを、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、 前記アバター画像反映手段により生成されたアバター画像を表示する表示手段と を備え、視聴者端末は、前記特徴送信手段から送信された特徴データを受信する特徴受信手段と、前記特徴受信手段から受信した特徴データを、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、前記アバター画像反映手段により生成されたアバター画像を表示する表示手段とを備えるコミュニケーションシステム。
(2)本発明2のコミュニケーションシステムは、本発明1であって、前記特徴取得手段は、前記特徴データとして、被写体の各部に対応する部分について複数の特徴点を取得し、前記特徴点の位置に基づいて演算された特徴データを取得するコミュニケーションシステム。
(3)本発明3のコミュニケーションシステムは、本発明2であって前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する標準位置取得手段とを備えるコミュニケーションシステム。
(4)本発明4のコミュニケーションシステムは、本発明3であって、前記特徴取得手段により取得された演算結果が、閾値の範囲内か否かを判定する閾値判定手段とを備え、前記パーツ画像反映手段は、前記演算結果が閾値の範囲内か否かに応じて、アバター画像に反映させるパーツ画像を変更するコミュニケーションシステム。
(5)本発明5のコミュニケーションシステムは、本発明4であって、前記標準位置取得手段により被写体の各部の前記標準位置を取得したときに、前記標準位置の状態に応じて取得した仮閾値を前記閾値として仮設定する仮閾値設定手段とを備えるコミュニケーションシステム。
(6)本発明6のコミュニケーションシステムは、本発明5であって、前記特徴取得手段により取得した前記演算結果を蓄積し、前記蓄積した前記演算結果に応じて前記閾値を変更する閾値変更手段とを備えるコミュニケーションシステム。
以上説明したように、本発明のコミュニケーションシステムは、アバター画像を動かすに当たって、データ通信量を削減しつつ、ユーザのプライバシーに配慮し、例えばシステムに不具合が生じた場合でも人物画像を送信しないことを保証する。
図1は、コミュニケーションシステムCが提供するサービスの概要を示す図である。 図2は、情報処理装置1のハードウェア構成を示すブロック図である。 図3は、情報処理装置1の機能的構成を示すブロック図である。 図4は、アバターの選択画面を示す図である。 図5は、メイン処理の一例を示すフローチャートである。
図6は、顔の特徴を特定した状態の一例を示す図である。 図7は、右目の特徴を特定した状態の一例を示す図である。 図8は、右目の特徴を特定した状態の一例を示す図である。 図9は、右目の特徴を特定した状態の一例を示す図である。 図10は特徴テーブルの一例を示す図である。
図11は、標準位置取得画面を示す図である。 図12は、標準位置取得画面を出力している状態示す図である。 図13は、アバターを出力している状態示す図である。 図14は、演出効果を持たせたアバターを出力している状態示す図である。
〔第一実施形態〕
本発明の第一実施形態のコミュニケーションシステムCを図面に基づいて詳細に説明する。図1は、コミュニケーションシステムCが提供するサービスの概要を示す図である。図2は、情報処理装置1の構成を示すブロック図である。本発明の第一実施形態は、図1に示すように、コミュニケーションシステムCは、例えば、SNS(Social Networking Service)等のオンラインサービスを提供する運営業者が、サーバ装置Sを使用してユーザに応じたアバター画像を提供するシステムである。
〔コミュニケーションシステムC〕
図1に示すように、サーバ装置Sは、ネットワークNを介して配信者端末1a、視聴者端末1bと接続され、コミュニケーションシステムを提供している。配信者Aは、配信者端末1aを使用してコミュニケーションシステムCを使用している。視聴者Bは、視聴者端末1bを使用してコミュニケーションシステムCを使用している。ユーザである配信者Aと視聴者Bとは、それぞれの配信者端末1aと視聴者端末1bを使用してコミュニケーションシステムCを通じて、あらかじめサーバ装置Sに保存されているアバター画像をダウンロードする。
配信者端末1aは、カメラ部で配信者の顔の特徴を取得して、ダウンロードしたアバター画像に、取得した特徴を反映して、表示部に表示する。また、配信者端末1aは、取得した特徴を視聴者端末1bに送信する。視聴者端末1bは、ダウンロードしたアバター画像に、取得した特徴を反映して、表示部に表示する。これにより、配信者端末1aと視聴者端末1bとは、コミュニケーションシステムCを使用することで、少ないデータ量で通信回線に負荷をかけることなく高画質で、また配信者の人物画像が誤って露出するリスクもなく、アバター画像によるコミュニケーションを楽しむことができる。なお、コミュニケーションシステムCは、Webブラウザや専用のアプリケーション(以下、専用アプリという)を利用して提供できる。
〔情報処理装置1〕
情報処理装置1は、被写体を撮影し、ユーザによるアバターの作成を支援するためのコンピュータ装置である。第一実施形態において、情報処理装置1は、図1に示すように、いわゆるスマートフォンであり、データ通信可能な装置である。情報処理装置1は、データ通信可能な装置であれば、スマートフォンに限らず、携帯電話、タブレット端末、パーソナルコンピュータ及びノートパソコン等でも良い。また、情報処理装置1は、頭部に装着したプレイヤの左右の目に視差画像を表示することで立体映像を表示するヘッドマウントディスプレイ(Head Mounted Display、以下、「HMD」という。)でも良い。
図2に示すように、情報処理装置1は、制御部10、記憶部20、入出力部30、カメラ部40、スピーカ部50、マイク部60及び通信部70を備える。情報処理装置1は、図2に示す構成のほか、マイクロホン、バイブレータ等を備えても良い。情報処理装置1は、入出力部30以外の入力手段(キーボード等)や出力手段(CRTディスプレイ等)を備えても良い。第一実施形態において、情報処理装置1は、配信者Aが使用するものを配信者端末1aとし、視聴者Bが使用するものを視聴者端末1bとして説明をする。
〔アバター〕
なお、アバターとは、ユーザの分身を表すキャラクターであり、ユーザを識別する機能を有するキャラクターである。アバターは、配信者端末1aのユーザ(例えば、配信者A)以外の他のユーザ(例えば、視聴者B)が配信者端末1aのユーザ(配信者A)であることを認識できれば良い。つまり、アバターは、必ずしも配信者A本人に似たキャラクターである必要はない。
配信者Aは、配信者端末1aを使用して被写体(配信者A本人又は他人)を撮影し、撮影画像に応じたアバター画像を取得することが可能である。また、配信者Aは、配信者端末1aを使用して取得したアバター画像に好みのパーツを選択することができる(図4参照)。なお、ここでいう被写体は、撮影の対象となる人や物であればどんなものでも良い。例えば、被写体は、様々な媒体(テレビや雑誌)に記された人物でもよく、実在する人物であるか否かを問わない。
また、アバターは、3次元又は2次元のキャラクタである。例えば、アバターは、3次元コンピュータグラフィックスを使用して、いわゆるポリゴンの組み合わせて立体的に表しても良い。このように、第一実施形態におけるアバター画像は、3次元又は2次元のキャラクターを画像として表したものである。
〔制御部10〕
制御部10は、記憶部20等が記憶するプログラムを実行することにより、情報処理装置1の各部の動作を制御する装置である。制御部10は、Central Processing Unit(以下、「CPU11」という。)等の演算処理装置を1又は複数備え、このCPU11にデータバス等のバスラインで接続されたROM12及びRAM13とを備えている。CPU11は、アプリケーションプロセッサ、ベースバンドプロセッサ、Graphics Processing Unit(以下、「GPU」という。)等を1つのチップに実装したものであっても良い。制御部10は、Operating System(以下、「OS」という。)やアプリケーションプログラムを実行することにより、所定の機能を実現することが可能である。制御部10は、主記憶装置を含んでいる。
〔記憶部20〕
記憶部20は、データを記憶する装置であり、例えば、ハードディスク、フラッシュメモリ及びその他の記憶媒体を備える。記憶部20は、制御部10が実行するプログラムに加え、アバター画像、パーツ画像、標準位置等のデータを記憶している。記憶部20は、いわゆるメモリカードのような、着脱可能な記憶媒体とそのリーダ/ライタを含んで構成されても良い。
〔入出力部30〕
入出力部30は、情報を表示し、ユーザ(配信者A、視聴者B)の操作を受け付けるタッチパネルやタッチスクリーン等の装置である。入出力部30は、表示部31と、センサ部32とを含んで構成されている。表示部31は、液晶ディスプレイや有機ELディスプレイによる表示パネルを有し、制御部10から供給された表示データに応じた画像を表示する。センサ部32は、表示パネル上における指示体(例えば、ユーザの指、スタイラス等)の位置を検知するためのセンサを有し、検知した位置を表す座標データを制御部10に供給する。センサ部32を構成するセンサは、例えば、静電容量方式、光感知方式、抵抗膜方式等があるが、これに限定されない。
〔カメラ部40〕
カメラ部40は、被写体を撮影する装置である。カメラ部40は、画像を電気信号に変換する撮像素子を備え、撮影画像を表す画像データを制御部10に供給する。カメラ部40の撮像素子は、例えば、CMOSイメージセンサやCCDイメージセンサ、距離画像センサなどが使用される。なお、カメラ部40は、複数の撮像素子を備えても良い。例えば、情報処理装置1がスマートフォンの場合、表示部31が設けられた側である表面とその反対の側である裏面とに、カメラ部40として撮像素子をそれぞれに設けても良い。また、情報処理装置1が、被写体を複数の異なる方向から同時に撮影するいわゆるステレオカメラの場合、カメラ部40として撮像素子を2つ設けても良い。
図1に示すように、第一実施形態において、配信者Aは、スマートフォンである配信者端末1a(情報処理装置1)を使用して、入出力部30を確認しながら、表面に設けられたカメラ部40によって、配信者A自身を撮影する。ただし、配信者Aは、配信者A自身を被写体とせず、他人等を被写体とする場合には、情報処理装置1の裏面に設けられたカメラ部40によって被写体を撮影しても良い。
〔スピーカ部50〕
スピーカ部50は、制御部10から供給された音声信号を指示音声として出力する装置である。スピーカ部50は、情報処理装置1のそれぞれ左側及び右側の位置に知覚可能に取り付けられてもよい。図1に示すように、第一実施形態において、視聴者Bは、スマートフォンである視聴者端末1b(情報処理装置1)を使用して、入出力部30を確認しながら、スピーカ部50によって、配信者Aが送信した音声を聞ける。
〔マイク部60〕
マイク部60は、ユーザの会話等の音声入力を受け付け、受け付けた音声入力を示す音声データを制御部10へ出力する装置である。マイク部60は、情報処理装置1の内部に取り付けられている。図1に示すように、第一実施形態において、配信者Aは、スマートフォンである配信者端末1a(情報処理装置1)を使用して、入出力部30を確認しながら、マイク部60によって、配信者Aが発することができる。
〔通信部70〕
通信部70は、データを送受信する装置である。通信部70は、例えば、アンテナを備え、ネットワークNを介して、他の端末とデータをやり取りする。
第一実施形態において、配信者端末1aは、視聴者端末1b及びサーバ装置Sとデータをやり取りする。視聴者端末1bは、配信者端末1a及びサーバ装置Sとデータをやり取りする。なお、通信部70は、赤外線通信、Near Field Communication(以下、「NFC」という。)等のその他の無線通信方式により、ネットワークNを介さずに通信しても良いし、有線で通信しても良い。
〔サーバ装置S〕
サーバ装置Sは、配信者端末1aで作成されたアバターを管理すると共に、アバターを配信者端末1aと視聴者端末1bに配信するためのコンピュータ装置である。図2に示すように、サーバ装置Sは、制御部10S、記憶部20S、入力部30S、表示部40S、出力部50S、通信部60S等を備える。サーバ装置Sは、図2に示す構成のほか、マイクロホン、バイブレータ等を備えても良い。
制御部10Sは、記憶部20S等が記憶するプログラムを実行することにより、サーバ装置Sの各部の動作を制御する装置である。第一本実施形態では、CPU41は、配信者端末1aからアバター画像を受信して、アバター画像の管理を行ったり、配信者端末1aと視聴者端末1bにアバター画像を送信したりする。なお、CPU11Sの構成は、CPU11と同様であるため詳細な説明は省略する。
記憶部20Sは、例えば、ハードディスク、フラッシュメモリ及びその他の記憶媒体を備える。記憶部20Sは、制御部10Sが実行するプログラムに加え、アバター画像、パーツ画像、標準位置、閾値、仮閾値等のデータを記憶している。入力部30Sは、担当者の操作を受け付けるキーボード、タッチパネル等の装置である。表示部40Sは、液晶ディスプレイ、有機ELディスプレイ又はCRTディスプレイ等による表示パネルを有し、制御部10Sから供給された表示データに応じた画像を表示する。出力部50Sは、印刷装置等である。
通信部70Sは、データを送受信する装置である。通信部70Sは、例えば、アンテナを備え、ネットワークNを介して、他の端末とデータをやり取りする。第一実施形態において、サーバ装置Sは、配信者端末1a及び視聴者端末1b及びサーバ装置Sとデータをやり取りする。
〔機能的構成〕
図3は、情報処理装置1の機能的構成を示すブロック図である。図4は、アバターの選択画面を示す図である。図6は、顔の特徴を特定した状態の一例を示す図である。図7は、右目の特徴を特定した状態の一例を示す図である。図8は、右目の特徴を特定した状態の一例を示す図である。図9は、右目の特徴を特定した状態の一例を示す図である。図10は特徴テーブルの一例を示す図である。図11は、標準位置取得画面を示す図である。図12は、標準位置取得画面を出力している状態示す図である。図13は、アバターを出力している状態示す図である。図14は、演出効果を持たせたアバターを出力している状態示す図である。
情報処理装置1は、その構成を機能的に分類すると、通信手段100、アバター画像取得手段110、撮影画像取得手段120、特徴取得手段130、演算手段140、特徴送信手段150、特徴受信手段160、パーツ画像反映手段170、アバター画像反映手段180、表示手段190、標準位置取得手段200、閾値判定手段210、仮閾値設定手段220、閾値変更手段230、に大別される。
〔通信手段100〕
通信手段100は、無線又は有線で他の端末と通信をする手段である。通信手段100は、制御部10と通信部70が協働して実行する。
〔アバター画像取得手段110〕
アバター画像取得手段110は、生成されたアバター画像が既にある場合には、記憶部20又は記憶部20Sから、アバター画像を取得する手段である。アバター画像取得手段110は、生成されたアバター画像が記憶部20にある場合には、アバター画像を記憶部20から読み込む。アバター画像取得手段110は、アバター画像を記憶部20から読み込むとき、あわせて、パーツ画像と、標準位置を読み込む。アバター画像取得手段110は、生成されたアバター画像が記憶部20Sにある場合には、アバター画像を記憶部20Sからダウンロードする。アバター画像取得手段110は、アバター画像を記憶部20Sから読み込むとき、あわせて、パーツ画像と、標準位置もダウンロードする。
アバター画像取得手段110は、生成されたアバター画像がない場合には、アバター画像を生成して、記憶部20又は記憶部20Sにアバター画像を格納する手段である。例えば、アバター画像取得手段110は、配信者Aの撮影画像を元にして所定のプログラムでアバター画像を生成する。例えば、アバター画像取得手段110は、図4に示すように、あらかじめ記憶部20又は記憶部20Sに格納されているパーツ画像を入出力部30に表示し、配信者Aが好みで選択したパーツ画像を組み合わせてアバター画像を生成する。
図4(a)に示すように、配信者Aが選択できるパーツ画像には、例えば髪型、輪郭、目、鼻及び口等がある。図4(b)に示すように、配信者Aが選択できるパーツ画像には、例えば、服、スカート、パンツ、イヤリング及びネックレス等がある。アバター画像取得手段110は、アバター画像が生成された場合、記憶部20及び/又は記憶部20Sにアバター画像を格納する。
〔撮影画像取得手段120〕
撮影画像取得手段120は、アバター画像の生成に必要な撮影画像を撮影する手段である。撮影画像取得手段120は、制御部10と撮影手段であるカメラ部40が協働して実行する。撮影画像取得手段120は、カメラ部40による撮影の開始及び終了を制御部10が制御する手段である。撮影画像取得手段120は、配信者Aの操作に応じて動画を撮影する。ここでいう動画は、複数の静止画の集合であり、所定のフレームレートで撮影される。撮影画像取得手段120は、例えば、フレームレートが30FPS(frames per second)で撮影される。撮影画像取得手段120による動画の撮影時間は、あらかじめ決められていてもよいし、ユーザの操作によって決められても良い。
〔特徴取得手段130〕
特徴取得手段130は、撮影画像から顔に対応する特徴を特定する手段である。特徴は、髪型、輪郭、目、鼻、口等といった頭部の各部位の位置、形状又は色である。例えば、特徴は、耳、首、眉毛、眼鏡又は髭の有無等も、顔の特徴として含まめても良い。特徴取得手段130による特徴の特定方法としては、例えば、撮影画像から人間の顔に対応するもの(以下「顔画像」という。)の検出をし、検出した顔画像に含まれる複数の特徴点を特定することで、顔の各部の特徴を分類する方法がある。
図6に示すように、特徴取得手段130は、例えば、顔に対応する部分について複数の特徴点(例えば、30個)を特定し、これらの特徴点の位置に基づいた特徴データ、具体的には特徴点の位置座標に基づいて演算(算出)された顔の特徴を特徴データ(例えば座標や座標間の距離等)として特定する。図7乃至9に示すように、特徴取得手段130は、例えば、目に対応する部分について複数の特徴点(例えば、上下左右の4つ端点)を特定し、これらの特徴点の位置に基づいて演算された目の特徴を特徴データとして特定する。特徴取得手段130は、特徴点を取得した場合、記憶部20の特徴テーブルPTの現在位置に格納する。例えば、図10に示すように、特徴取得手段130は、右目の特徴点を取得した場合、特徴テーブルPTの現在位置(右目)に特徴点P1乃至P4のX座標及びY座標を格納する。
特に図示していないが、特徴取得手段130は、目以外の各部(例えば、髪型、輪郭、目、鼻、口)についても、同様にして特徴を特定及び分類し、それぞれの特徴点を取得し、特徴テーブルPTに特徴点に基づいた特徴を特徴データとして格納する。なお、撮影画像は、顔画像が必ず含まれるとは限らず、被写体が不鮮明な場合もあり、特徴取得手段130は、顔画像の検出に失敗することがある。このような場合、特徴取得手段130は、別の撮影画像(例えば、顔画像の検出に失敗した撮影画像の1〜数フレーム後の撮影画像)を用いて顔画像の検出を試みてもよい。なお、特徴取得手段130が特定する特徴点の数は、30個に限らず、使用する端末や環境によって変えても良い。
〔演算手段140〕
演算手段140は、特徴取得手段で特定された複数の特徴点に基づき演算して演算結果を取得し、演算結果に応じた特徴を特徴データとして取得する手段である。第一実施形態においては、特徴点の標準位置と現在位置との位置関係を比較、演算することで演算結果が得られる。例えば、演算手段140は、図7(a)に示す右目の標準位置と図7(b)に示す右目の現在位置の位置関係を比較して、演算して演算結果を取得する。
例えば、演算手段140は、右目の標準位置の特徴点P2と特徴点P3との距離が2cmであり、右目の現在位置の特徴点P2と特徴点P3との距離が0.8cmの場合において、現在位置の距離を標準位置の距離で割った0.4を演算結果とする。演算手段140は、記憶部20の特徴テーブルPTに演算結果0.4を格納する。第一実施形態において、演算手段140は、演算結果が0〜1の間になるような演算式を使用しているが、他の検算結果がでるような演算式を使用しても良い。特に図示していないが、演算手段140は、目以外の各部(例えば、髪型、輪郭、目、鼻、口)についても、同様にして演算結果を取得し、特徴テーブルPTに演算結果を特徴データとして格納する。
〔特徴送信手段150〕
特徴送信手段150は、特徴取得手段130により取得された特徴データを視聴者端末に送信する手段である。また、特徴送信手段150は、演算手段140により取得された演算結果を特徴データとして視聴者端末に送信する手段である。特徴送信手段150は、制御部10と通信部70が協働して実行する。なお、特徴送信手段150は、前に送信した特徴データと現在送信しようとしている特徴データを比較し、一定以上の乖離がある場合、異常値として判定する。そして、特徴送信手段150は、現在送信しようとしている特徴データではなく、前に送信した特徴データを送信する。なお、前に送信した特徴データと現在送信しようとしている特徴データの乖離の範囲は、設定が可能である。
〔特徴受信手段160〕
特徴受信手段160は、特徴送信手段150から送信された特徴データを受信する手段である。また、特徴受信手段160は、特徴送信手段150から送信された演算結果を特徴データとして受信する手段である。特徴受信手段160は、制御部10と通信部70が協働して実行する。特徴受信手段160は、送信された特徴データの間隔が十分でなかった場合(例えば、30FPSを切った場合)、データ間隔の間をスムーズにするための補完処理を行う。
〔パーツ画像反映手段170〕
パーツ画像反映手段170は、取得した特徴データをパーツ画像に反映する手段である。ここにおいて、パーツ画像とは、あらかじめ顔の各部について設定された画像であり、顔の各部毎に用意され、所定の動きをするようにモデルデータを用意されている。パーツ画像反映手段170は、パーツ画像を表すデータを記憶部20から読み出し、特徴取得手段130により特定された特徴データ及び/又は演算手段140により演算された演算結果をパーツ画像に反映する。例えば、パーツ画像として右目は、図7(b)に示すように、右目の開閉がアニメーションでまばたきするようにモデルデータを作成しておき、完全に閉じた状態を0、最大まで開いた状態を1とし、開閉状態を0〜1の小数の間で指定して動かせる。また、閉じた右目の状態は、図8(a)に示すように通常の閉じた状態と、図8(b)に示すように笑顔で閉じた状態と、2つのパターン用意しておくと良い。
また、パーツ画像反映手段170は、パーツ画像を表すデータを記憶部20から読み出し、特徴取得手段130により特定された特徴点等の特徴データをパーツ画像に反映しても良い。例えば、口は、口を閉じた標準位置を0とし、「あ」「い」「う」「え」「お」等へ変化するアニメーションをそれぞれ0〜1の小数の間で指定して動かせように、モデルデータを用意しておくと良い。なお、口の形状のパターンは、人種、環境及び言語によって、その状態定義は変化する。例えば、眉は、顔の中で上下の移動ができるように、モデルデータを用意しておくと良く、下端の位置を0、上端の位置を1として、0〜1の小数の間で指定して動かせると良い。
例えば、首は、X座標、Y座標、Z座標に対応して軸回転できるように動かせるように、モデルデータを用意しておくと良い。例えば、虹彩は、目の下端の位置を0、上端の位置を1として、0〜1の小数の間で指定して動かせるように、モデルデータを用意しておくと良い。また、虹彩は、目の左端の位置を0、上端の位置を1として、0〜1の小数の間で指定して動かせると良い。例えば、顔の遠近は、輪郭の特徴点と輪郭の標準位置とを比較し、その広がりの差によって遠近を判定すると良い。なお、パーツ画像は、ビットマップ画像であってもよいし、ベクタ画像であってもよい。また、パーツ画像は、顔の各部の特徴データ毎に用意いても良いし、顔を表す画像がパーツ毎に分かれていなくても良い。
〔アバター画像反映手段180〕
アバター画像反映手段180は、取得した特徴データをアバター画像に反映する手段である。また、アバター画像反映手段180は、パーツ画像反映手段により特徴データが反映された各部のパーツ画像を、アバター画像取得手段で取得したアバター画像に反映させる手段である。さらに、アバター画像反映手段180は、組み合わされたパーツ画像の位置に応じてアバター画像の一部の色を決定する手段である。例えば、アバター画像反映手段180は、アバター画像に組み合わされたパーツ画像の肌や髪の色を撮影画像に基づいて決定する。例えば、アバター画像反映手段180は、アバター画像に組み合わされたパーツ画像の重なりに応じて影をつける位置を決定する。
例えば、アバター画像反映手段180は、輪郭に重なる髪に応じて輪郭に影の色をつける位置を決定する。アバター画像反映手段180は、顔画像のうちの対象とする領域の階調値(例えば、RGB表色系の階調値)に応じた色を当該領域の色として決定する。なお、アバター画像反映手段180は、パーツ画像に色があらかじめ設定されていない場合には、撮影画像に基づいてパーツ画像の色を決定しても良い。
〔表示手段190〕
表示手段190は、アバター画像の生成後(又は生成中)に入出力部30にアバター画像を表示する手段である。表示手段190は、制御部10と入出力部30(特に、表示部310)との協働によって実現される。表示手段190は、制御部10によって実現される手段であり、入出力部30による画像の表示を制御する手段である。例えば、図13(a)に示すように、表示手段190は、配信者Aがカメラ部40に向かってウインクをすると、入出力部30に対して、アバター画像がウインクする動作を表示させる。例えば、図13(b)に示すように、表示手段190は、配信者Aがカメラ部40に向かって口を開けると、入出力部30に対して、アバター画像が口を開ける動作を表示させる。
例えば、図13(c)に示すように、表示手段190は、配信者Aがカメラ部40に向かって笑うと、入出力部30に対して、アバター画像も笑う動作を表示させる。表示手段190は、アバター画像の表示領域が表示するアバター画像の大きさに応じてアバター画像をスクロール表示しても良い。また、表示手段190は、表示されているアバター画像を正面からだけではなく、異なる方向から表示させても良い。例えば、表示手段190は、ユーザによって所定の操作が実行された場合に、所定のカメラワークでアバターを表示させても良い。
表示手段190がアバター画像に使用するカメラワークとしては、固定撮影(フィクス)、カメラを振る(パン、ティルト)、カメラレンズの動き(ズーム・イン/アウト、フォーカス・イン/アウト)及び移動撮影(トラック、ドリー・イン/アウト)等がある。また、表示手段190は、アバター画像に加え、撮影中の動画をいわゆるライブビュー画像として表示することも可能である。
〔標準位置取得手段200〕
標準位置取得手段200は、撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する手段である。標準位置取得手段200は、制御部10と撮影手段であるカメラ部40が協働して実行する。標準位置取得手段200は、所定のアプリケーションプログラムを実行することや、所定のタイミングによって、図3(a)乃至(c)に示すような画面を入出力部30に表示することができる。標準位置取得手段200は、例えば、入出力部30に配信者の画像を表示するための領域と、顔の位置の認識を容易にするための目印やマークが表示される領域とを表示する。
図11に示すように、第一実施形態において、標準位置取得手段200は、顔の認識をより容易にするために、顔の主要な部分(輪郭、目、鼻、口等)を位置合わせするための目印となる点線を表示する。また、標準位置取得手段200は、配信者Aが標準位置を決定したときに、標準位置の計測をするためのカメラ形状のボタンを、入出力部30に表示する。図12に示すように、配信者Aは、入出力部30に表示されている顔の輪郭、目、鼻、口を目印に合わせて、ボタンを入力することで、標準位置が計測されて、記憶部20の特徴テーブルPTの標準位置に格納する。
計測される標準位置は、いわゆる真顔の状態が良く、例えば、「輪郭:カメラからほどよく距離を置き、傾いていない状態」、「目:開いている状態、かつ力を抜いた通常の状態」、「鼻:力を抜いた通常の状態」及び「口:閉じた状態、かつ力を抜いた通常の状態」が良い。また、これらの状態について、撮影者に気づかせるために、入出力部30に説明文を表示させても良い。なお、第一実施形態の標準位置取得手段200は、被写体の標準位置を様々な角度から計測するように、正面、右側面、左側面を計測するように構成されているが、正面のみの標準位置を計測しても良い。
〔閾値判定手段210〕
閾値判定手段210は、特徴取得手段により取得された演算結果が、閾値の範囲内か否かを判定する手段である。閾値判定手段210は、特徴取得手段により取得された演算結果が、所定の閾値を超えた場合、強制的に演算結果の数値を決定する。例えば、演算手段140は、演算結果が0〜1の間になるような演算式を使用しているが、閾値を0.2〜0.8と設定してある場合、閾値判定手段210は、0.8以上は強制的に1として、0.2以下は強制的に0とする。
例えば、右目の開閉について、閾値の設定がない場合、配信者Aは、右目を完全に開かないと、アバターの目も完全に開かない。しかし、右目の開閉について、閾値を0.2〜0.8と設定した場合、配信者Aは、右目を完全に開かなくても、演算結果が0.8以上になれば、図9(a)に示すように、アバターの目は完全に開く。つまり、図9(a)に示す破線部分が演算結果0.8で実際に表示される部分であるが、閾値の設定があるため、入出力部30には実線部分が表示される。
また、右目の開閉について、閾値を0.2〜0.8と設定した場合、配信者Aは、右目を完全に閉じなくても、演算結果が0.2以下になれば、図9(a)に示すように、アバターの目は完全に閉じる。つまり、図9(b)に示す破線部分が演算結果0.2で実際に表示される部分であるが、閾値の設定があるため、入出力部30には実線部分が表示される。さらに、右目の開き具合について、閾値を0.4〜0.6と設定した場合、配信者Aは右目の開き具合が常に一定でなくても、演算結果が0.4〜0.6以内の場合、アバターの目が半開きになるように表示しても良い。
閾値が設定されることによって、配信者Aは、大げさに表情を変えることなく、アバターの表情をしやすくなる。このため、配信者Aは、屋外で使用する場合も人目を気にせず使用することができる。また、配信者Aは、完全に目を閉じることなく、アバターの表情を変えることができるため、配信者端末1aや周りの状況から目をそらすことなく使用することができる。
〔仮閾値設定手段220〕
仮閾値設定手段220は、標準位置取得手段により被写体の各部の標準位置を取得したときに、標準位置の状態に応じて取得した仮閾値を前記閾値として仮設定する手段である。
〔閾値変更手段230〕
閾値変更手段230は、特徴取得手段により取得した前記演算結果を蓄積し、前記蓄積した前記演算結果に応じて前記閾値を変更する手段である。
図5は、メイン処理の一例を示すフローチャートである。
〔アバター画像取得工程SP10〕
メイン処理において、配信者端末1aの制御部10は、アプリケーションのダウンロード時や初回起動時、または配信者Aの操作に応じてアバター画像を取得する(SP10)。制御部10は、生成されたアバター画像が既にある場合には、記憶部20又は記憶部20Sから、アバター画像を取得して、配信者Aにそのアバターを使用するかの確認をする。制御部は、記憶部20又は記憶部20Sに生成されたアバター画像がない場合には、配信者Aにアバター画像を生成するように表示をする。配信者Aがアバター画像を生成した場合は、そのアバター画像を記憶部20又は記憶部20Sに格納する。
〔アバター画像取得工程SP11〕
メイン処理において、視聴者端末1bの制御部10は、アプリケーションのダウンロード時や初回起動時、または視聴者Bの操作に応じてアバター画像を取得する(SP11)。制御部10は、例えば、配信者AとコミュニケーションシステムCを使用して、アバターを通じたコミュニケーションがされていた場合には、記憶部20又は記憶部20Sから、アバター画像を取得する。
〔撮影画像取得工程SP12〕
配信者端末1aの制御部10は、アバター画像の生成に必要な撮影画像を撮影する(SP12)。制御部10は、配信者Aの操作に応じて、撮影の開始及び終了を制御をし、動画を撮影する。第一実施形態において、制御部10は、フレームレートが30FPS(frames per second)で撮影をする。
〔特徴取得工程SP13〕
配信者端末1aの制御部10は、撮影画像取得工程SP12で取得した撮影画像から顔に対応する特徴を特徴データとして特定する(SP13)。制御部10は、顔画像の検出をし、検出した顔画像に含まれる複数の特徴点を特定した、顔の各部の特徴を特徴データとして分類する。制御部10は、図6に示すように、顔に対応する部分について30個の特徴点を特徴データとして特定し、これらの特徴点の位置関係に基づいて顔の特徴を特定する。
〔標準位置取得工程SP14〕
配信者端末1aの制御部10は、撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する(SP14)。制御部10は、配信者Aが所定のアプリケーションプログラムを実行することや、所定のタイミングによって、標準位置取得工程を実行する。制御部10は、入出力部30にカメラ部40を通じて配信者の画像を表示し、顔の主要な部分(輪郭、目、鼻、口等)を位置合わせするための目印となる点線を表示する。制御部10は、配信者Aが入出力部30に表示されている顔の輪郭、目、鼻、口を目印に合わせて、ボタンを入力したとき、標準位置を計測して、記憶部20の特徴テーブルPTの標準位置に格納する。
〔音声データ送信工程SP15〕
配信者端末1aの制御部10は、マイク部60によって取得された配信者Aの音声データを、通信部70を介してサーバ装置Sに送信する(SP15)。
〔音声データ受信工程SP16〕
サーバ装置Sの制御部10Sは、配信者端末1aから送信された音声データを受信して、記憶部20Sに格納する(SP16)。
〔音声データ送信工程SP17〕
サーバ装置Sの制御部10Sは、配信者端末1aから送信された音声データを、通信部60Sを介して視聴者端末1bに送信する(SP17)。
〔音声データ受信工程SP18〕
視聴者端末1bの制御部10は、サーバ装置Sから送信された音声データを受信して、記憶部20に格納する(SP18)。
〔演算工程SP19〕
配信者端末1aの制御部10は、特徴取得工程SP13で特定された複数の特徴点の間の位置関係を演算して演算結果を取得し、演算結果に応じて特徴を特徴データとして取得する(SP19)。第一実施形態においては、制御部10は、特徴点の標準位置と現在位置との位置関係を比較、演算して演算結果を得る。制御部10は、右目の標準位置の特徴点P2と特徴点P3との距離が2cmであり、右目の現在位置の特徴点P2と特徴点P3との距離が0.8cmの場合において、現在位置の距離を標準位置の距離で割った0.4を演算結果とする。制御部10は、記憶部20の特徴テーブルPTに演算結果0.4を格納する。
〔特徴送信工程SP20〕
配信者端末1aの制御部10は、特徴取得工程SP13で取得した特徴及び/又は演算工程SP19で取得した演算結果を、通信部70を介してサーバ装置Sに送信する(SP20)。制御部10は、前に送信した特徴データと現在送信しようとしている特徴データを比較し、一定以上の乖離がある場合、異常値として判定する。そして、制御部10は、現在送信しようとしている特徴データではなく、前に送信した特徴データを送信する。
〔特徴受信工程SP21〕
サーバ装置Sの制御部10Sは、配信者端末1aから送信された特徴及び/又は演算結果を受信して、記憶部20Sに格納する(SP21)。
〔特徴送信工程SP22〕
サーバ装置Sの制御部10Sは、配信者端末1aから送信された特徴及び/又は演算結果を、通信部60Sを介して視聴者端末1bに送信する(SP22)。
〔特徴受信工程SP23〕
視聴者端末1bの制御部10は、サーバ装置Sから送信された特徴及び/又は演算結果を受信して、記憶部20に格納する(SP23)。
〔パーツ画像反映工程SP24〕
配信者端末1a及び視聴者端末1bの制御部10は、取得した特徴及び/又は演算結果に応じてパーツ画像に反映する(SP24)。制御部10は、パーツ画像を表すデータを記憶部20から読み出し、特徴取得工程13により特定された特徴及び/又は演算工程19により演算された演算結果に応じてパーツ画像に反映する。
〔アバター画像反映工程SP25〕
配信者端末1a及び視聴者端末1bの制御部10は、パーツ画像反映手段により反映された各部のパーツ画像を、アバター画像取得工程SP10で取得したアバター画像に反映させる(SP25)。なお、パーツ画像が全て結合されたアバター画像が配信者端末1a及び視聴者端末1bに既に記憶されており、その中にある該当パーツに特徴データを反映して動かしてもよい。
〔音声出力工程SP26〕
配信者端末1aの制御部10は、マイク部60によって取得された配信者Aの音声データをスピーカ部50から出力する(SP26)。また、視聴者端末1bの制御部10は、音声データ受信工程SP18で受信した音声データをスピーカ部50から出力する(SP26)。
〔表示工程SP27〕
配信者端末1a及び視聴者端末1bの制御部10は、アバター画像の生成後(又は生成中)に入出力部30にアバター画像を表示する(SP27)。制御部10は、入出力部30によりアバター画像の表示に制御をする。例えば、図13(a)に示すように、制御部10は、配信者Aがカメラ部40に向かってウインクをすると、入出力部30に対して、アバター画像がウインクする動作を表示させる。例えば、図13(b)に示すように、制御部10は、配信者Aがカメラ部40に向かって口を開けると、入出力部30に対して、アバター画像が口を開ける動作を表示させる。例えば、図13(c)に示すように、制御部10は、配信者Aがカメラ部40に向かって笑うと、入出力部30に対して、アバター画像も笑う動作を表示させる。
配信者Aは、このようなコミュニケーションシステムCを使用して、少ないデータ通信量で、かつ高画質なアバターを利用してコミュニケーションをとることが可能である。また、映像データを用いないため、コミュニケーションの過程で配信者Aの人物画像が露出するリスクもない。配信者Aは、アバターをさまざまな用途に用いることが可能である。配信者Aは、例えば、アバター画像をSNS(Social Networking Service)等のオンラインサービスにおいて、自己を表す画像として使用して、視聴者Bに対し、配信者Aの表情やアバターを通じて表現することが可能である。また、配信者Aは、視聴者Bに対して目の前で直接話せないことについて、アバターを通じて伝えることができる。
〔他の実施形態〕
コミュニケーションシステムCは、アバターの利用に際して、様々な演出をすることもできる。例えば、配信者Aが、マイク部60に対して所定の音声を発したり、入出力部30に対して、所定の動作を行ったときに、アバターやその背景に特別な演出をさせることができる。例えば、図13(a)に示すように、制御部10は、配信者Aがマイク部60に向かって「ウィンク」というと、入出力部30に対して、アバター画像がウインクする動作をすると共に、アバター画像の目から星がでる演出を表示させる。
例えば、図13(b)に示すように、制御部10は、配信者Aがマイク部60に向かって歌手の名前と曲の名前を言うと、入出力部30に対して、アバター画像が歌を歌う動作を表示させ、その曲が流れる。例えば、図13(c)に示すように、制御部10は、配信者Aがマイク部60に向かって「好き」というと、入出力部30に対して、アバター画像が笑う動作をすると共に、アバター画像の周りがハートで埋め尽くされる演出を表示させる。
以上、本発明の実施形態によれば、アバター画像を動かすに当たって、データ通信量を削減でき、同時に画質を向上させ、さらにユーザのプライバシーに配慮し人物画像を送信しないことを保証することができる。
〔変形例〕
以上、本発明の実施の形態の説明を行ったが、本発明は、この実施の形態に限定されることはなく、本発明の目的、趣旨を逸脱しない範囲内で変更ができ、以下の変形例に示す態様で実施することも可能である。なお、以下の変形例は、必要に応じて、各々を組み合わせて適用してもよい。
例えば、制御装置10は、撮影画像から顔に対応する部分について複数の特徴点を特定し、これらの特徴点の位置関係に基づいて特徴データを特定しているが、他の方法で特徴を特定しても良い。例えば、制御装置10は、中心位置に基づいて撮影画像の動きを検出した移動ベクトルを特徴データとして特定しても良い。例えば、口の特徴データの演算は、撮影画像からではなくマイク部60から入力された音声を元に行っても良い。その場合、入力された音声から設定した言語の文字列を取得し、その文字と紐づけた口の動き(例えば「あ」「い」「う」「え」「お」)の値を特徴テーブルPTの演算結果に格納する。
アバターは、顔のみではなく全身を表現したものであってもよい。この場合、情報処理装置1は、撮影画像に基づいて衣服の画像を生成してもよい。ここでいう衣服の画像は、上述したパーツ画像のように、あらかじめ用意されたものの中から選択されてもよい。また、被写体は、外観に一定の特徴を有するものであればよく、必ずしも顔に対応するものを含まなくてもよい。この場合、情報処理装置1は、顔認識処理に代えて所定のパターンマッチ等の解析処理を実行して被写体の特徴を特定できればよい。
また、配信者Aは、複数の装置の協働によって、コミュニケーションシステムCを使用しても良い。例えば、撮影手段を備えるカメラと、表示手段を備えるディスプレイと、画像生成手段を備える情報処理装置とを備える情報処理システムによって実現されてもよい。また、コミュニケーションシステムCは、システムを構成する各装置を、ネットワークを介して接続した構成であってもよく、その一部がユーザによって所持、携帯されない構成であってもよい。また、コミュニケーションシステムCは、配信者から視聴者へ1方向にデータ送信する形式だけでなく、双方が配信者であり視聴者となり、双方向にデータを送受信するシステムによって実現されても良い。例えば、人物画像によるビデオチャットではなく、アバター画像によるビデオチャットを行うシステムである。
1 :情報処理装置
10 :制御部
20 :記憶部
30 :入出力部
40 :カメラ部
50 :スピーカ部
60 :通信部
S :サーバ装置
10S :制御部
20S :記憶部
30S :入出力部
40S :カメラ部
50S :スピーカ部
60S :通信部

Claims (3)

  1. 配信者端末及び視聴者端末を有するコミュニケーションシステムであって、
    配信者端末及び視聴者端末は、
    配信者端末と視聴者端末との間で通信する通信手段と、
    被写体の各部について設定された複数のパーツ画像を有するアバター画像を取得するアバター画像取得手段と、
    を備え、
    配信者端末は、
    撮影手段により撮影された被写体を含む撮影画像を取得する撮影画像取得手段と、
    前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する標準位置取得手段と、
    前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部対応する部分について複数の特徴点を取得し、前記特徴点の位置に基づいて演算された演算結果を特徴データとして取得する特徴取得手段と、
    前記特徴取得手段により取得された特徴データが閾値の範囲内か否かを判定し、前記閾値の範囲外であると判定した場合、前記特徴データを予め定められた値に変更する閾値判定手段と、
    前記特徴取得手段により取得された特徴データを視聴者端末に送信する特徴送信手段と、
    前記特徴取得手段により取得された特徴データを、前記パーツ画像に反映するパーツ画像反映手段と、
    前記パーツ画像反映手段により前記特徴データが反映された前記パーツ画像を、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、
    前記アバター画像反映手段により生成されたアバター画像を表示する表示手段と
    を備え、
    視聴者端末は、
    前記特徴送信手段から送信された特徴データを受信する特徴受信手段と、
    前記特徴受信手段から受信した特徴データを、前記パーツ画像に反映するパーツ画像反映手段と、
    前記パーツ画像反映手段により前記特徴データが反映された前記パーツ画像を、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段と、
    前記アバター画像反映手段により生成されたアバター画像を表示する表示手段と、
    を備えるコミュニケーションシステム。
  2. 前記標準位置取得手段により被写体の各部の前記標準位置を取得したときに、前記標準位置の状態に応じて取得した仮閾値を前記閾値として仮設定する仮閾値設定手段、
    を備える請求項に記載のコミュニケーションシステム。
  3. 視聴者端末と通信可能なコンピュータを、
    被写体の各部について設定された複数のパーツ画像を有するアバター画像を取得するアバター画像取得手段、
    撮影手段により撮影された被写体を含む撮影画像を取得する撮影画像取得手段、
    前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部の標準位置を取得する標準位置取得手段、
    前記撮影画像取得手段により取得された撮影画像の所定の撮影タイミングにおける画像から、被写体の各部対応する部分について複数の特徴点を取得し、前記特徴点の位置に基づいて演算された演算結果を特徴データとして取得する特徴取得手段、
    前記特徴取得手段により取得された特徴データが閾値の範囲内か否かを判定し、前記閾値の範囲外であると判定した場合、前記特徴データを予め定められた値に変更する閾値判定手段、
    前記特徴取得手段により取得された特徴データを前記視聴者端末に送信する特徴送信手段、
    前記特徴取得手段により取得された特徴データを、前記パーツ画像に反映するパーツ画像反映手段、
    前記パーツ画像反映手段により前記特徴データが反映された前記パーツ画像を、前記アバター画像取得手段で取得したアバター画像に反映させるアバター画像反映手段、
    前記アバター画像反映手段により生成されたアバター画像を表示する表示手段、
    として機能させるためのプログラム。
JP2018195458A 2018-10-16 2018-10-16 コミュニケーションシステム及びプログラム Active JP6563580B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018195458A JP6563580B1 (ja) 2018-10-16 2018-10-16 コミュニケーションシステム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018195458A JP6563580B1 (ja) 2018-10-16 2018-10-16 コミュニケーションシステム及びプログラム

Publications (2)

Publication Number Publication Date
JP6563580B1 true JP6563580B1 (ja) 2019-08-21
JP2020064426A JP2020064426A (ja) 2020-04-23

Family

ID=67695609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018195458A Active JP6563580B1 (ja) 2018-10-16 2018-10-16 コミュニケーションシステム及びプログラム

Country Status (1)

Country Link
JP (1) JP6563580B1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7234187B2 (ja) * 2020-06-29 2023-03-07 グリー株式会社 情報処理プログラム、情報処理方法、情報処理装置
CN112102153B (zh) 2020-08-20 2023-08-01 北京百度网讯科技有限公司 图像的卡通化处理方法、装置、电子设备和存储介质
CN112102154B (zh) * 2020-08-20 2024-04-26 北京百度网讯科技有限公司 图像处理方法、装置、电子设备和存储介质
JP7488210B2 (ja) 2021-02-24 2024-05-21 Kddi株式会社 端末及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4612806B2 (ja) * 2003-07-18 2011-01-12 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置
JP2011048469A (ja) * 2009-08-25 2011-03-10 Seiko Epson Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2015172883A (ja) * 2014-03-12 2015-10-01 株式会社コナミデジタルエンタテインメント 端末装置、情報通信方法及び情報通信プログラム
JP2016018313A (ja) * 2014-07-07 2016-02-01 任天堂株式会社 プログラム、情報処理装置、コミュニケーションシステム及びコミュニケーション方法
JP6152125B2 (ja) * 2015-01-23 2017-06-21 任天堂株式会社 プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法

Also Published As

Publication number Publication date
JP2020064426A (ja) 2020-04-23

Similar Documents

Publication Publication Date Title
US11983830B2 (en) Systems and methods for generating and facilitating access to a personalized augmented rendering of a user
JP6563580B1 (ja) コミュニケーションシステム及びプログラム
KR102581453B1 (ko) 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리
JP7504968B2 (ja) アバター表示装置、アバター生成装置及びプログラム
US10360715B2 (en) Storage medium, information-processing device, information-processing system, and avatar generating method
WO2018153267A1 (zh) 群组视频会话的方法及网络设备
JP2024028390A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
WO2020138107A1 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
US9710974B2 (en) Video game processing apparatus and video game processing program
WO2017137948A1 (en) Producing realistic body movement using body images
KR102491140B1 (ko) 가상 아바타 생성 방법 및 장치
US10896322B2 (en) Information processing device, information processing system, facial image output method, and program
US11673054B2 (en) Controlling AR games on fashion items
CN108876878B (zh) 头像生成方法及装置
US11562548B2 (en) True size eyewear in real time
JP7234187B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置
JP7300925B2 (ja) キャラクタを使ったライブ通信システム
JP6470387B1 (ja) ヘッドマウントデバイスを介して情報を提供するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
JP2023095862A (ja) プログラム及び情報処理方法
JP2019133276A (ja) 画像処理システム、端末
JP2020039012A (ja) プログラム、情報処理装置、および方法
JP6937803B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
WO2024015220A1 (en) Method and application for animating computer generated images
TW201730734A (zh) 傳送人形玩偶圖像或影像之通訊系統、通訊方法與伺服器
TWM532129U (zh) 傳送人形玩偶圖像或影像之通訊系統與伺服器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181213

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181213

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190724

R150 Certificate of patent or registration of utility model

Ref document number: 6563580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350