JP7162737B2 - コンピュータプログラム、サーバ装置、端末装置、システム及び方法 - Google Patents

コンピュータプログラム、サーバ装置、端末装置、システム及び方法 Download PDF

Info

Publication number
JP7162737B2
JP7162737B2 JP2021520695A JP2021520695A JP7162737B2 JP 7162737 B2 JP7162737 B2 JP 7162737B2 JP 2021520695 A JP2021520695 A JP 2021520695A JP 2021520695 A JP2021520695 A JP 2021520695A JP 7162737 B2 JP7162737 B2 JP 7162737B2
Authority
JP
Japan
Prior art keywords
specific
score
emotion
performer
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021520695A
Other languages
English (en)
Other versions
JPWO2020235346A1 (ja
Inventor
匡志 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Publication of JPWO2020235346A1 publication Critical patent/JPWO2020235346A1/ja
Priority to JP2022166878A priority Critical patent/JP2023015074A/ja
Application granted granted Critical
Publication of JP7162737B2 publication Critical patent/JP7162737B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations

Description

本件出願に開示された技術は、動画及びゲーム等において表示される仮想的なキャラクターの表情を演者(ユーザ)の表情に基づいて制御する、コンピュータプログラム、サーバ装置、端末装置、システム及び方法に関する。
アプリケーションにおいて表示される仮想的なキャラクターの表情を演者の表情に基づいて制御する技術を利用したサービスとしては、まず「アニ文字」と称されるサービスが知られている(非特許文献1)。このサービスでは、ユーザは、顔の形状の変形を検知するカメラを搭載したスマートフォンを見ながら表情を変化させることにより、メッセンジャーアプリケーションにおいて表示されるアバターの表情を変化させることができる。
さらに、別のサービスとしては、「カスタムキャスト」と称されるサービスが知られている(非特許文献2)。このサービスでは、ユーザは、スマートフォンの画面に対する複数のフリック方向の各々に対して、用意された多数の表情のうちのいずれかの表情を割り当てる。さらに、ユーザは、動画の配信の際には、所望する表情に対応する方向に沿って画面をフリックすることにより、その動画に表示されるアバターにその表情を表現させることができる。
なお、上記非特許文献1及び2は、引用によりその全体が本明細書に組み入れられる。
"iPhone X 以降でアニ文字を使う"、[online]、2018年10月24日、アップルジャパン株式会社、[2019年3月12日検索]、インターネット(URL: https://support.apple.com/ja-jp/HT208190) "カスタムキャスト"、[online]、2018年10月3日、株式会社ドワンゴ、[2019年3月12日検索]、インターネット(URL: https://customcast.jp/)
仮想的なキャラクター(アバター等)を表示させるアプリケーションにおいて、そのキャラクターに、印象的な表情を表現させることが望まれている。ここで、印象的な表情は、以下の3つの例を含む。第1の例は、喜怒哀楽を含む感情を表現する表情である。第2の例は、顔の形状が漫画のように非現実的に変形した表情である。この表情は例えば、両目が顔面から飛び出した表情等を含む。第3の例は、記号、図形及び/又は色が顔に付加された表情である。この表情は、例えば、涙がこぼれた表情、顔が真っ赤になった表情、目を三角形状にして怒った表情等、を含む。印象的な表情は、これらに限定されない。
しかしながら、まず、特許文献1に記載された技術は、ユーザ(演者)の顔の形状の変化に追従するように仮想的なキャラクターの表情を変化させるに過ぎないため、ユーザの顔が実際に表現困難な表情を、仮想的なキャラクターの表情に反映させることはできない可能性がある。したがって、特許文献1に記載された技術は、ユーザの顔が実際に表現することが困難な、上記のような印象的な表情を、仮想的なキャラクターの表情において表現することは困難である。
次に、特許文献2に記載された技術にあっては、複数のフリック方向の各々に対して、仮想的なキャラクターに表現させるべき表情を予め割り当てておく必要がある。このため、ユーザ(演者)は用意されている表情をすべて認識している必要がある。さらには、複数のフリック方向に対して割り当てて一度に使用することが可能な表情の総数は、10に満たない程度に限定され充分ではない。
したがって、本件出願において開示された幾つかの実施形態は、演者が表現しようとする表情を簡易な手法により仮想的なキャラクターに表現させる、コンピュータプログラム、サーバ装置、端末装置、システム及び方法を提供する。
一態様に係るコンピュータプログラムは、「プロセッサにより実行されることにより、
センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得し、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得し、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得し、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、ように前記プロセッサを機能させる」ことを特徴とする。
一態様に係る端末装置は、「プロセッサを具備し、該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得し、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得し、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得し、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する」ことを特徴とする。
一態様に係るサーバ装置は、「プロセッサを具備し、該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得し、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得し、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得し、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する」ことを特徴とする。
一態様に係る方法は、「コンピュータにより読み取り可能な命令を実行するプロセッサにより実行される方法であって、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する変化量取得工程と、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する第1スコア取得工程と、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する第2スコア取得工程と、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する選択工程と、を含む」ことを特徴とする。
一態様に係るシステムは、「第1のプロセッサを含む第1の装置と、第2のプロセッサを含み該第1の装置に通信回線を介して接続可能な第2の装置と、を具備するシステムであって、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する、変化量取得処理、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する、第1スコア取得処理、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する、第2スコア取得処理、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、選択処理、及び、選択された前記感情に基づく画像を生成する画像生成処理、のうち、前記第1の装置に含まれた前記第1のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記変化量取得処理から少なくとも1つの処理を順次実行し、前記第1のプロセッサにより実行されていない残りの処理が存在する場合には、前記第2の装置に含まれた前記第2のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記残りの処理を実行する」ことを特徴とする。
別の態様に係る方法は、「第1のプロセッサを含む第1の装置と、第2のプロセッサを含み該第1の装置に通信回線を介して接続可能な第2の装置と、を具備するシステムにおいて実行される方法であって、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する、変化量取得工程、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する、第1スコア取得工程、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する、第2スコア取得工程、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、選択工程、及び、選択された前記感情に基づく画像を生成する画像生成工程、のうち、前記第1の装置に含まれた前記第1のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記変化量取得工程から少なくとも1つの工程を順次実行し、前記第1のプロセッサにより実行されていない残りの工程が存在する場合には、前記第2の装置に含まれた前記第2のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記残りの工程を実行する」ことを特徴とする。
図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。 図2は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。 図3は、図3は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。 図4は、図1に示した通信システム1全体において行われる動作の一例を示すフロー図である。 図5は、図4に示した動作のうち動画の生成及び送信に関する動作の具体例を示すフロー図である。 図6は、図1に示した通信システムにおいて取得される第1のスコアの1つの具体例を概念的に示す模式図である。 図7は、図1に示した通信システムにおいて取得される第1のスコアの別の具体例を概念的に示す模式図である。 図8は、図1に示した通信システムにおいて取得される第1のスコアのさらに別の具体例を概念的に示す模式図である。 図9は、図1に示した通信システムにおいて取得される第2のスコアの1つの具体例を概念的に示す模式図である。
以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。
1.通信システムの例
図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。図1に示すように、通信システム1は、通信網10に接続される1又はそれ以上の端末装置20と、通信網10に接続される1又はそれ以上のサーバ装置30と、を含むことができる。なお、図1には、端末装置20の例として、3つの端末装置20A~20Cが例示され、サーバ装置30の例として、3つのサーバ装置30A~30Cが例示されているが、端末装置20として、これら以外の1又はそれ以上の端末装置20が通信網10に接続され得るし、サーバ装置30として、これら以外の1又はそれ以上のサーバ装置30が通信網10に接続され得る。
また、通信システム1は、通信網10に接続される1又はそれ以上のスタジオユニット40を含むことができる。なお、図1には、スタジオユニット40の例として、2つのスタジオユニット40A及び40Bが例示されているが、スタジオユニット40として、これら以外の1又はそれ以上のスタジオユニット40が通信網10に接続され得る。
「第1の態様」では、図1に示す通信システム1では、演者により操作され所定のアプリケーション(動画配信用のアプリケーション等)を実行する端末装置20(例えば端末装置20A)が、端末装置20Aに対向する演者に関するデータを取得することができる。さらに、この端末装置20は、この取得したデータに従って表情を変化させた仮想的なキャラクターの動画を、通信網10を介してサーバ装置30(例えばサーバ装置30A)に送信することができる。さらに、サーバ装置30Aは、端末装置20Aから受信した仮想的なキャラクターの動画を、通信網10を介して他の1又はそれ以上の端末装置20であって所定のアプリケーション(動画視聴用のアプリケーション等)を実行して動画の配信を要求する旨を送信した端末装置20に配信することができる。ここで、端末装置20が、表情を変化させた仮想的なキャラクターの動画をサーバ装置30に送信する構成に代えて、端末装置20が、演者に関するデータ又はこれに基づくデータをサーバ装置30に送信する構成を採用してもよい。この場合、サーバ装置30が、端末装置20から受信したデータに従って表情を変化させた仮想的なキャラクターの動画を生成することができる。或いはまた、端末装置20が、演者に関するデータ又はこれに基づくデータをサーバ装置30に送信し、サーバ装置30が端末装置20から受信した演者に関するデータ又はこれに基づくデータを別の端末装置(視聴者の端末装置)20に送信する構成を採用してもよい。この場合、この別の端末装置20が、サーバ装置30から受信したデータに従って表情を変化させた仮想的なキャラクターの動画を生成及び再生することができる。
「第2の態様」では、図1に示す通信システム1では、例えばスタジオ等又は他の場所に設置されたサーバ装置30(例えばサーバ装置30B)が、上記スタジオ等又は他の場所に居る演者に関するデータを取得することができる。さらにこのサーバ装置30は、この取得したデータに従って表情を変化させた仮想的なキャラクターの動画を、通信網10を介して1又はそれ以上の端末装置20であって所定のアプリケーション(動画視聴用のアプリケーション等)を実行して動画の配信を要求する旨を送信した端末装置20に配信することができる。
「第3の態様」では、図1に示す通信システム1では、例えばスタジオ等又は他の場所に設置されたスタジオユニット40が、上記スタジオ等又は他の場所に居る演者に関するデータを取得することができる。さらに、このスタジオユニット40は、この取得したデータに従って表情を変化させた仮想的なキャラクターの動画を生成してサーバ装置30に送信することができる。さらに、サーバ装置30は、スタジオユニット40から取得(受信)した動画を、通信網10を介して1又はそれ以上の端末装置20であって所定のアプリケーション(動画視聴用のアプリケーション等)を実行して動画の配信を要求する旨を送信した端末装置20に配信することができる。ここで、スタジオユニット40が、表情を変化させた仮想的なキャラクターの動画をサーバ装置30に送信する構成に代えて、スタジオユニット40が、演者に関するデータ又はこれに基づくデータをサーバ装置30に送信する構成を採用してもよい。この場合、サーバ装置30が、スタジオユニット40から受信したデータに従って表情を変化させた仮想的なキャラクターの動画を生成することができる。或いはまた、スタジオユニット40が、演者に関するデータ又はこれに基づくデータをサーバ装置30に送信し、サーバ装置30がスタジオユニット40から受信した演者に関するデータ又はこれに基づくデータを端末装置(視聴者の端末装置)20に送信する構成を採用してもよい。この場合、この端末装置20が、サーバ装置30から受信したデータに従って表情を変化させた仮想的なキャラクターの動画を生成及び再生することができる。
通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット及び/又はイーサネット等をこれらに限定することなく含むことができる。
端末装置20は、インストールされた特定のアプリケーションを実行することにより、その演者に関するデータを取得する、という動作等を実行することができる。さらに、この端末装置20は、この取得したデータに従って表情を変化させた仮想的なキャラクターの動画を、通信網10を介してサーバ装置30に送信する、という動作等を実行することができる。或いはまた、端末装置20は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。
端末装置20は、このような動作を実行することができる任意の端末装置であって、スマートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコンピュータ等を、これらに限定することなく含むことができる。
サーバ装置30は、「第1の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20から仮想的なキャラクターの動画を、通信網10を介して受信し、受信した動画を(他の動画とともに)通信網10を介して各端末装置20に配信する、という動作等を実行することができる。或いはまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することにより、各端末装置20に送信するウェブページを介して、同様の動作を実行することができる。
サーバ装置30は、「第2の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、このサーバ装置30が設置されたスタジオ等又は他の場所に居る演者に関するデータを取得し、取得したデータに従って表情を変化させた仮想的なキャラクターの動画を(他の動画とともに)通信網10を介して各端末装置20に配信する、という動作等を実行することができる。或いはまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20に送信するウェブページを介して、同様の動作を実行することができる。さらにまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、スタジオ等又は他の場所に設置されたスタジオユニット40からこのスタジオ等に居る演者に関するデータに従って表情を変化させた仮想的なキャラクターの動画を取得(受信)する、という動作等を実行することができる。さらに、サーバ装置30は、この動画を通信網10を介して各端末装置20に配信する、という動作等を実行することができる。
スタジオユニット40は、インストールされた特定のアプリケーションを実行する情報処理装置として機能することができる。これにより、スタジオユニット40は、このスタジオユニット40が設置されたスタジオ等又は他の場所に居る演者に関するデータを取得することができる。さらに、スタジオユニット40は、この取得したデータに従って表情を変化させた仮想的なキャラクターの動画を(他の動画とともに)通信網10を介してサーバ装置30に送信することができる。
2.各装置のハードウェア構成
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有するハードウェア構成の一例について説明する。
2-1.端末装置20のハードウェア構成
各端末装置20のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するように各サーバ装置30に関連して記載されている。)
図2に示すように、各端末装置20は、主に、中央処理装置21と、主記憶装置22と、入出力インタフェイス装置23と、入力装置24と、補助記憶装置25と、出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置21は、「CPU」と称され、主記憶装置22に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置22に記憶させる。さらに、中央処理装置21は、入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置26等を制御することができる。端末装置20は、1又はそれ以上のこのような中央処理装置21を含むことが可能である。
主記憶装置22は、「メモリ」と称され、入力装置24、補助記憶装置25及び通信網10等(サーバ装置30等)から、入出力インタフェイス装置23を介して受信した命令及びデータ、並びに、中央処理装置21の演算結果を記憶する。主記憶装置22は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。
補助記憶装置25は、主記憶装置22よりも大きな容量を有する記憶装置である。上記特定のアプリケーションやウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶しておき、中央処理装置21により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を入出力インタフェイス装置23を介して主記憶装置22に送信することができる。補助記憶装置25は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。
入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含む。センサは、後述するように、1又はそれ以上のカメラ等を含む第1のセンサ、及び/又は、1又はそれ以上のマイク等を含む第2のセンサをこれらに限定することなく含むことができる。
出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。
このようなハードウェア構成にあっては、中央処理装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信網10を介して、他の装置(例えばサーバ装置30及び他の端末装置20等)との間で様々な情報の送受信を行うことができる。
これにより、端末装置20は、インストールされた特定のアプリケーションを実行することにより、その演者に関するデータを取得し、取得したデータに従って表情を変化させた仮想的なキャラクターの動画を、通信網10を介してサーバ装置30に送信する、という動作等(後に詳述する様々な動作を含む)を実行することができる。或いはまた、端末装置20は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。
なお、端末装置20は、中央処理装置21に代えて又は中央処理装置21とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでもよい。
2-2.サーバ装置30のハードウェア構成
各サーバ装置30のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置30のハードウェア構成としては、例えば、上述した各端末装置20のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置30が有する構成要素に対する参照符号は、図2において括弧内に示されている。
図2に示すように、各サーバ装置30は、主に、中央処理装置31と、主記憶装置32と、入出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助記憶装置35及び出力装置36は、それぞれ、上述した各端末装置20に含まれる、中央処理装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26と略同一とすることができる。
このようなハードウェア構成にあっては、中央処理装置31が、補助記憶装置35に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置32にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェイス装置33及び通信網10を介して、他の装置(例えば各端末装置20等)との間で様々な情報の送受信を行うことができる。
これにより、サーバ装置30は、「第1の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20から仮想的なキャラクターの動画を、通信網10を介して受信し、受信した動画を(他の動画とともに)通信網10を介して各端末装置20に配信する、という動作等(後に詳述する様々な動作を含む)を実行することができる。或いはまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20に送信するウェブページを介して、同様の動作を実行することができる。
また、サーバ装置30は、「第2の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、このサーバ装置30が設置されたスタジオ等又は他の場所に居る演者に関するデータを取得する、という動作等を実行することができる。さらに、サーバ装置30は、この取得したデータに従って表情を変化させた仮想的なキャラクターの動画を(他の動画とともに)通信網10を介して各端末装置20に配信する、という動作等(後に詳述する様々な動作を含む)を実行することができる。或いはまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20に送信するウェブページを介して、同様の動作を実行することができる。
さらにまた、サーバ装置30は、「第3の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、スタジオユニット40が設置されたスタジオ等又は他の場所に居る演者に関するデータを(他の動画とともに)通信網10を介してスタジオユニット40から取得(受信)するという動作等を実行することができる。さらに、サーバ装置30は、この画像を通信網10を介して各端末装置20に配信する、という動作等(後に詳述する様々な動作を含む)を実行することもできる。
なお、サーバ装置30は、中央処理装置31に代えて又は中央処理装置31とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでもよい。
2-3.スタジオユニット40のハードウェア構成
スタジオユニット40は、パーソナルコンピュータ等の情報処理装置により実装可能であって、図示はされていないが、上述した端末装置20及びサーバ装置30と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイス装置と、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
スタジオユニット40は、インストールされた特定のアプリケーションを実行して情報処理装置として機能することができる。これにより、スタジオユニット40は、このスタジオユニット40が設置されたスタジオ等又は他の場所に居る演者に関するデータを取得することができる。さらに、スタジオユニット40は、この取得したデータに従って表情を変化させた仮想的なキャラクターの動画を(他の動画とともに)通信網10を介してサーバ装置30に送信することができる。
3.各装置の機能
次に、端末装置20及びサーバ装置30の各々が有する機能の一例について説明する。
3-1.端末装置20の機能
端末装置20の機能の一例について図3を参照して説明する。図3は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である(なお、図3において、括弧内の参照符号は、後述するようにサーバ装置30に関連して記載されている。)。
図3に示すように、端末装置20は、センサ部100と、変化量取得部110と、第1スコア取得部120と、第2スコア取得部130と、感情選択部140と、を含むことができる。センサ部100は、センサから演者顔に関するデータを取得することができる。変化量取得部110は、センサ部100から取得したデータに基づいて、演者に関連する複数の特定部分の各々の変化量を取得することができる。第1スコア取得部120は、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、この特定部分の変化量に基づく第1のスコアを取得することができる。第2スコア取得部130は、複数の特定感情の各々について、この各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得することができる。感情選択部140は、複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、演者により表現された感情として選択することができる。
端末装置20は、さらに、動画生成部150と、表示部160と、記憶部170と、通信部180と、を含むことができる。動画生成部150は、感情選択部140により選択された感情を仮想的なキャラクターに表現させた動画を生成することができる。表示部160は、動画生成部150により生成された動画を表示することができる。記憶部170は、動画生成部150により生成された動画を記憶することができる。通信部180は、動画生成部150により生成された動画を、通信網10を介してサーバ装置30に送信等することができる。
(1)センサ部100
センサ部100は、様々なタイプのカメラ及び/又はマイクロフォン等のセンサにより構成される。このセンサ部100は、このセンサ部100に対向する演者に関するデータ(画像及び/又は音声等)を取得して、このデータに対する情報処理を実行することが可能である。具体的には、例えば、センサ部100は、様々なタイプのカメラを用いて、単位時間区間ごとに演者に関する画像データを取得し、このように取得した画像データを用いて、単位時間区間ごとに演者に関連する複数の特定部分の位置を特定することができる。ここで、複数の特定部分とは、演者の右目、左目、右頬、左頬、鼻、右眉毛、左眉毛、顎、右耳及び/又は左耳等を、これらに限定することなく含むことができる。また、単位時間区間は、ユーザ・演者等によりユーザインタフェイスを介して任意のタイミングにおいて任意の長さに設定・変更可能である。
1つの好ましい実施形態では、センサ部100は、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。このようなカメラとしては、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラに含まれたカメラを用いることが可能である。なお、トゥルーデプス(True Depth)については、https://developer.apple.com/documentation/arkit/arfaceanchorに開示されたものを利用することができ、引用によりその全体が本明細書に組み入れられる。
RGBカメラに関して、センサ部100は、RGBカメラにより取得された画像をタイムコードに対応付けて単位時間区間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。上記タイムコードは、取得した時間を示すコードである。さらに、センサ部100は、近赤外線カメラにより取得された所定数の深度を示す数値を上記タイムコードに対応付けて単位時間区間にわたって記録したデータを生成することができる。上記所定数は例えば51個である。上記深度を示す数値は、例えば浮動小数点の数値である。センサ部100により生成される上記データは、例えばTSVファイルである。このTSVファイルは、データ間をタブで区切って複数のデータを記録する形式のファイルである。
近赤外線カメラに関して、具体的には、ドットプロジェクタがドット(点)パターンを含む赤外線レーザーを演者の顔に放射し、近赤外線カメラが、演者の顔に投影され反射した赤外線ドットを捉え、このように捉えた赤外線ドットの画像を生成する。センサ部100は、予め登録されているドットプロジェクタにより放射されたドットパターンの画像と、近赤外線カメラにより捉えられた画像とを比較する。これにより、センサ部100は、両画像における各ポイントにおける位置のずれを用いて、各ポイントの深度を算出することができる。上述したポイントは、特定部分と称されることがある。両画像におけるポイントは、例えば51個である。上記各ポイントの深度は、各ポイント(各特定部分)と近赤外線カメラとの間の距離である。センサ部100は、このように算出された深度を示す数値を、上記のようにタイムコードに対応付けて単位時間区間にわたって記録したデータを生成することができる。
これにより、センサ部100は、タイムコードに対応付けて、単位時間区間ごとに、MPEGファイル等の動画と、各特定部分の位置(座標等)とを、演者に関するデータとして取得することができる。
このような実施形態によれば、センサ部100は、例えば、演者の上半身(顔等)における各特定部分について、単位時間区間ごとに、演者の上半身等をキャプチャしたMPEGファイル等と、各特定部分の位置(座標)と、を含むデータを取得することができる。具体的には、センサ部100は、単位時間区間ごとに、例えば右目という特定部分については、右目の位置(座標)を示す情報を含むことができる。また、センサ部100は、単位時間区間ごとに、例えば顎という特定部分については、顎の位置(座標)を示す情報を含むことができる。
別の好ましい実施形態では、センサ部100は、Argumented Facesという技術を利用することができる。Argumented Facesとしては、https://developers.google.com/ar/develop/java/augmented-faces/において開示されたものを利用することができ、引用によりその全体が本明細書に組み入れられる。
Argumented Facesを利用することにより、センサ部100は、カメラにより撮像された画像を用いて、以下に示す事項を単位時間区間ごとに取得することができる。
(i)演者の頭蓋骨の物理的な中心位置
(ii)演者の顔を構成する何百もの頂点を含み上記中心位置に対して定義される顔メッシュ
(iii)上記(i)及び(ii)に基づいて識別された、演者の顔における特定部分(例えば、右頬、左頬、鼻の頂点)の位置
センサ部100は、この技術を用いることにより、単位時間区間ごとに、演者の上半身(顔等)における特定部分の位置(座標)を取得することができる。
(2)変化量取得部110
変化量取得部110は、センサ部100により取得された演者に関するデータに基づいて、演者に関連する複数の特定部分の各々の変化量を取得する。具体的には、変化量取得部110は、例えば、右頬という特定部分について、単位時間区間1において取得された位置(座標)と、単位時間区間2において取得された位置(座標)と、の差分をとることができる。これにより、変化量取得部110は、単位時間区間1と単位時間区間2との間において、右頬という特定部分の変化量を取得することができる。変化量取得部110は、他の特定部分についても同様にその特定部分の変化量を取得することができる。
なお、変化量取得部110は、各特定部分の変化量を取得するために、任意の単位時間区間において取得された位置(座標)と、別の任意の単位時間区間において取得された位置(座標)との間における差分を用いることが可能である。また、単位時間区間は、固定、可変又はこれらの組み合わせであってもよい。
(3)第1スコア取得部120
第1スコア取得部120は、(例えば任意に設定可能な単位時間区間ごとに)複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、この特定部分の変化量に基づく第1のスコアを取得する。具体的には、まず、第1スコア取得部120は、複数の特定感情として、例えば、「恐れ」、「驚き」、「悲しみ」、「嫌悪」、「怒り」、「期待」、「喜び」及び/又は「信頼」といった特定感情を、これらに限定することなく用いることができる。
さらに、第1スコア取得部120は、例えば、右目尻という特定部分に関しては、この特定部分に対応付けられた「喜び」という特定感情について、この特定部分の単位時間区間当たりの変化量に基づく第1のスコアを取得することができる。さらに、第1スコア取得部120は、この特定部分に対応付けられた「悲しみ」という特定感情について、この特定部分の単位時間区間当たりの変化量に基づく第1のスコアを取得することができる。ここで、第1スコア取得部120は、右目尻という特定部分の単位時間区間当たりの変化量が同一(例えばX1)であっても、「喜び」という特定感情については、この変化量(X1)に基づいてより大きな第1のスコアを取得し、「悲しみ」という特定感情については、この変化量(X1)に基づいてより小さな第1スコアを取得することができる。
第1スコア取得部120は、右目尻という特定部分と同様に、他の特定部分についても、同様に、この特定部分に対応付けられた少なくとも1つの特定感情について、この特定部分の単位時間区間当たりの変化量に基づく第1のスコアを取得することができる。この結果、第1スコア取得部120は、単位時間区間ごとに、複数の特定感情の各々について、第1のスコアを取得することができる。
ここで、例えば、A1という特定部分に対して例えばB1、B5という2つの特定感情が対応付けられ、A5という特定部分に対して例えばB3、B5、B8という3つの特定感情が対応付けられることが考えられる。この場合、B5という特定感情については、A1という特定部分の変化量に基づく第1のスコアと、A5という特定部分の変化量に基づく第1のスコアと、が少なくとも取得されることになる。このように、同一の特定感情について、1又はそれ以上の特定部分の変化量に基づく第1のスコアが算出される可能性がある、ということに留意されたい。
(4)第2スコア取得部130
第2スコア取得部130は、(例えば任意に設定可能な単位時間区間ごとに)複数の特定感情の各々について、この各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する。具体的には、第2スコア取得部130は、例えば、ある特定感情について、複数の特定部分の変化量に基づく第1のスコアが取得されている場合には、これら複数の第1のスコアを合計した値を、その特定感情についての第2のスコアとして取得することができる。また、第2のスコア取得部130は、例えば、別の特定感情について、1つの特定部分の変化量に基づく第1のスコアしか取得されていない場合には、その第1のスコアをそのまま、その別の特定感情についての第2のスコアとして取得することができる。
一実施形態では、第2スコア取得部130は、ある特定感情について、1又はそれ以上の特定部分の変化量に基づく第1のスコアを合計した値をそのまま、この特定感情についての第2のスコアとして取得することに代えて、当該第1のスコアに所定の係数を掛けた値を、この特定感情についての第2のスコアとして取得することも可能である。第2スコア取得部130は、このように第1のスコアの合計値に対して所定の係数を掛けた値を適用すべき特定感情としては、複数の特定感情のすべてに対してであってもよいし、複数の特定感情のうち選択された1又はそれ以上の特定感情に対してであってもよい。
(5)感情選択部140
感情選択部140は、(例えば任意に設定可能な単位時間区間ごとに)複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、演者により表現された感情として選択する。具体的には、感情選択部140は、単位時間区間ごとに、複数の特定感情について取得された第2のスコアを用いて、例えば設定された閾値を上回る第2のスコアを有する特定感情を、その単位時間区間において演者により表現された感情として選択することができる。上記閾値は、可変、固定又はこれらの組み合わせであってもよい。
(6)動画生成部150
動画生成部150は、(例えば任意に設定可能な単位時間区間ごとに)感情選択部140により選択された感情を仮想的なキャラクターに表現させた動画を生成することができる。上記動画は静止画であってもよい。具体的には、例えば、ある単位時間区間において、閾値を上回る第2のスコアが存在することに起因して複数の特定感情の中から感情選択部140によりその第2のスコアを有する感情が選択される場合が考えられる。この場合には、動画生成部150は、そのように選択された感情に対応する表情を仮想的なキャラクターに表現させた動画を生成することができる。ここで、上記選択された感情に対応する表情は、演者の表情が実際には表現することが不可能な表情であってもよい。上記不可能な表情は、例えば、両目が×で表現された表情、及び、口がアニメのように飛び出した表情等を含む。この場合、具体的には、動画生成部150は、演者が示した実際の表情の上に、漫画のような動画を重ねた動画を生成すること、及び/又は、演者が示した実際の表情のうちの一部を書き換えた動画を生成することができる。上記漫画のような動画は、例えば、両目が通常の状態から×に変化する動画、及び、口が通常の状態から飛び出した状態に変化する動画等を含む。
また、別の実施形態では、動画生成部150は、例えば、”Blend Shapes”と称する技術を用いて、感情選択部140により選択された感情を仮想的なキャラクターに表現させた動画を生成することも可能である。この技術を用いる場合には、動画生成部150は、顔の複数の特定部分のうち、感情選択部140により選択された特定感情に対応する1以上の特定部分の各々のパラメータを調整することができる。これにより、動画生成部150は、上記漫画のような動画を生成することができる。
なお、”Blend Shapes”については、下記URLにより特定されるウェブサイトに記載された技術を用いることが可能である。
https://developer.apple.com/documentation/arkit/arfaceanchor/2928251-blendshapes
このウェブサイトに記載された内容は、引用よりその全体が本明細書に組み入れられる。
一方、別の単位時間区間において、閾値を上回る第2のスコアが存在しないことに起因して複数の特定感情の中から感情選択部140により何らの感情も選択されない場合が考えられる。例えば、演者が真顔を維持して単に瞬きをした場合、又は、演者が真顔を維持して単に俯いた場合等であって、いずれかの第2のスコアが閾値を上回る程度には演者が表情を変化させなかった場合が考えられる。この場合には、動画生成部150は、例えば、演者の動作に追従した仮想的なキャラクターの動画を生成することが可能である。上記仮想的なキャラクターの動画は、例えば、仮想的なキャラクターが真顔を維持して単に瞬きをした動画、仮想的なキャラクターが真顔を維持して単に俯いた動画、及び、仮想的なキャラクターが演者の動きに合わせて口や目を動かした動画等を含む。このような動画を作成する手法は、周知技術であるので、その詳細については省略する。なお、かかる周知技術には、上述した”Blend Shapes”が含まれる。この場合、動画生成部150は、顔の複数の特定部分のうち、演者の動作に対応する1以上の特定部分の各々のパラメータを調整することができる。これにより、動画生成部150は、演者の動作に追従した仮想的なキャラクターの動画を生成することができる。
これにより、動画生成部150は、演者がいずれかの第2のスコアが閾値を上回る程度までには表情を変化させない単位時間区間については、演者の動作・表情に追従した仮想的なキャラクターの動画を生成することができる。一方、動画生成部150は、演者がいずれかの第2のスコアが閾値を上回る程度にまで表情を変化させた単位時間区間については、演者の示した特定感情に対応する表情を表現した仮想的なキャラクターの動画を生成することができる。
(7)表示部160、記憶部170及び通信部180
表示部160は、(例えば任意に設定可能な単位時間区間ごとに)動画生成部150により生成された動画を、端末装置20のディスプレイ(タッチパネル)及び/又は端末装置20に接続された(他の端末装置の)ディスプレイ等に表示することができる。表示部160は、センサ部100が演者に関するデータを取得する動作と並行して、動画生成部150により生成された動画を順次表示することもできる。また、表示部160は、上記データを取得する動作と並行して、動画生成部150により生成され記憶部170に記憶された動画を、演者の指示に従って上記ディスプレイ等に表示することもできる。さらに、表示部160は、上記データを取得する動作と並行して、通信網10を介してサーバ装置30から通信部180により受信され(さらに記憶部170に記憶され)た動画を生成することもできる。
記憶部170は、動画生成部150により生成された動画、及び/又は、通信網10を介してサーバ装置30から受信した動画等を記憶することができる。
通信部180は、動画生成部150により生成され(さらに記憶部170に記憶され)た動画を、通信網10を介してサーバ装置30に送信することもできる。上記動画は静止画であってもよい。さらに、通信部180は、サーバ装置30により送信された画像を通信網10を介して受信(して記憶部170に記憶)することもできる。
上述した各部の動作は、演者の端末装置20にインストールされた所定のアプリケーションがこの端末装置20により実行されることにより、この端末装置20により実行され得る。上記所定のアプリケーションは、例えば動画配信用のアプリケーションである。或いはまた、上述した各部の動作は、演者の端末装置20にインストールされたブラウザが、サーバ装置30により提供されるウェブサイトにアクセスすることにより、この端末装置20により実行され得る。
3-2.サーバ装置30の機能
サーバ装置30の機能の具体例について同じく図3を参照して説明する。サーバ装置30の機能としては、例えば、上述した端末装置20の機能の一部を用いることが可能である。したがって、サーバ装置30が有する構成要素に対する参照符号は、図3において括弧内に示されている。
まず、上述した「第2の態様」では、サーバ装置30は、以下に述べる相違点を除き、センサ部200~通信部280として、それぞれ、端末装置20に関連して説明したセンサ部100~通信部180と同一のものを有することができる。
但し、この「第2の態様」では、サーバ装置30は、スタジオ等又は他の場所に配置され、複数の演者(ユーザ)により用いられることが想定され得る。したがって、センサ部200を構成する様々なセンサは、サーバ装置30が設置されるスタジオ等又は他の場所において、演者が演技を行う空間において演者に対向して配置され得る。同様に、表示部160を構成するディスプレイやタッチパネル等もまた、演者が演技を行う空間において演者に対向して又は演者の近くに配置され得る。
通信部280は、各演者に対応付けて記憶部270に記憶された動画を格納したファイルを、通信網10を介して複数の端末装置20に配信することができる。これら複数の端末装置20の各々は、インストールされた所定のアプリケーションを実行して、サーバ装置30に対して所望の動画の配信を要求する信号(リクエスト信号)を送信することができる。これにより、これら複数の端末装置20の各々は、この信号に応答したサーバ装置30から所望の動画を当該所定のアプリケーションを介して受信することができる。なお、上記所定のアプリケーションは、例えば動画視聴用のアプリケーションである。
なお、記憶部270に記憶される情報は、当該サーバ装置30に通信網10を介して通信可能な1又はそれ以上の他のサーバ装置(ストレージ)30に記憶されるようにしてもよい。なお、記憶部270に記憶される上記情報は、動画を格納したファイル等である。
一方、上述した「第1の態様」では、上記「第2の態様」において用いられたセンサ部200~動画生成部250をオプションとして用いることができる。通信部280は、上記のように動作することに加えて、各端末装置20により送信され通信網10から受信した、動画を格納したファイルを、記憶部270に記憶させた上で、複数の端末装置20に対して配信することができる。
他方、「第3の態様」では、上記「第2の態様」において用いられたセンサ部200~動画生成部250をオプションとして用いることができる。通信部280は、上記のように動作することに加えて、スタジオユニット40により送信され通信網10から受信した、動画を格納したファイルを、記憶部270に記憶させた上で、複数の端末装置20に対して配信することができる。
3-3.スタジオユニット40の機能
スタジオユニットは、図3に示した端末装置20又はサーバ装置30と同様の構成を有することにより、端末装置20又はサーバ装置30と同様の動作を行うことが可能である。但し、通信部180(280)は、動画生成部150(250)により生成され記憶部170(270)に記憶された動画を、通信網10を介してサーバ装置30に送信することができる。
特に、センサ部100(200)を構成する様々なセンサは、スタジオユニット40が設置されるスタジオ等又は他の場所において、演者が演技を行う空間において演者に対向して配置され得る。同様に、表示部160(260)を構成するディスプレイやタッチパネル等もまた、演者が演技を行う空間において演者に対向して又は演者の近くに配置され得る。
4.通信システム1全体の動作
次に、上述した構成を有する通信システム1全体の動作の具体例について、図4を参照して説明する。図4は、図1に示した通信システム1全体において行われる動作の一例を示すフロー図である。
まず、ステップ(以下「ST」という。)402において、端末装置20(第1の態様の場合)、サーバ装置30(第2の態様の場合)又はスタジオユニット40(第3の態様の場合)が、演者に関するデータに基づいて、仮想的なキャラクターの表情を変化させた動画を生成する。
次に、ST404において、端末装置20(第1の態様の場合)又はスタジオユニット40(第3の態様の場合)が、生成した動画をサーバ装置30に送信する。第2の態様の場合には、サーバ装置30は、ST404を実行しないか、又は、サーバ装置30は、生成した動画を別のサーバ装置30に送信することができる。なお、ST402及びST404において実行される動作の具体例については、図5等を参照して後述する。
ST406において、第1の態様の場合、サーバ装置30が端末装置20から受信した動画を他の端末装置20に送信することができる。第2の態様の場合、サーバ装置30(又は別のサーバ装置30)が端末装置20から受信した動画を他の端末装置20に送信することができる。第3の態様の場合、サーバ装置30がスタジオユニット40から受信した動画を他の端末装置20に送信することができる。
ST408において、第1の態様及び第3の態様の場合、他の端末装置20が、サーバ装置30により送信された動画を受信してその端末装置20のディスプレイ等又はその端末装置20に接続されたディスプレイ等に表示することができる。第2の態様の場合、他の端末装置20が、サーバ装置30又は別のサーバ装置30により送信された動画を受信してその端末装置20のディスプレイ等又はその端末装置20に接続されたディスプレイ等に表示することができる。
5.端末装置20等により行われる動画の生成及び送信に関する動作
次に、図4を参照して上述した動作のうち、ST402及びST404において端末装置20(サーバ装置30又はスタジオユニット40でも同様)により行われる動画の生成及び送信に関する動作の具体的な例について、図5を参照して説明する。図5は、図4に示した動作のうち動画の生成及び送信に関する動作の具体例を示すフロー図である。
以下、説明を簡単にするために、動画を生成する主体が端末装置20である場合(すなわち、第1の態様の場合)について説明する。しかし、動画を生成する主体は、サーバ装置30であってもよい(第2の態様の場合)し、スタジオユニット40であってもよい(第3の態様の場合)。
まず、ST502において、上記「3-1(1)」において説明したように、端末装置20のセンサ部100が(例えば任意に設定可能な単位時間区間ごとに)演者に関するデータを取得する。
次に、ST504において、上記「3-1(2)」において説明したように、端末装置20の変化量取得部110が、(例えば任意に設定可能な単位時間区間ごとに)センサ部100から取得したデータに基づいて、演者に関連する複数の特定部分の各々の変化量を取得する。
次に、ST506において、上記「3-1(3)」において説明したように、端末装置20の第1スコア取得部120が、(例えば任意に設定可能な単位時間区間ごとに)各特定部分に対応付けられた1又はそれ以上の特定感情について、その特定部分の変化量に基づく第1のスコアを取得する。ここで、第1のスコアの具体例について、図6~図8をも参照して説明する。図6は、図1に示した通信システムにおいて取得される第1のスコアの1つの具体例を概念的に示す模式図である。図7は、図1に示した通信システムにおいて取得される第1のスコアの別の具体例を概念的に示す模式図である。図8は、図1に示した通信システムにおいて取得される第1のスコアのさらに別の具体例を概念的に示す模式図である。
図6の上段に示すように、演者の1つの特定部分である右目尻(又は左目尻)の形状が単位時間区間において(a)から(b)に推移して大きく上がった場合を考える。この場合、第1スコア取得部120は、この特定部分に対応付けられた「喜び」という特定感情については、この特定部分の変化量に基づいた第1のスコアを取得する。また、第1スコア取得部120は、この特定部分に対応付けられた「悲しみ」という特定感情については、この特定部分の変化量に基づいた第1のスコアを取得する。一実施形態では、図6の下段に示すように、第1スコア取得部120は、「喜び」という特定感情については、より大きな値を有する第1のスコア601を取得することができる。また、第1スコア取得部120は、「悲しみ」という特定感情については、より小さな値を有する第1のスコア602を取得することができる。なお、図6の下段において、中心に向かう程、第1のスコアは大きく、外縁に向かう程、第1のスコアは小さい。
別の事例では、図7の上段に示すように、演者の1つの特定部分である右頬(又は左頬)の形状が単位時間区間において(a)から(b)に推移して大きく膨らんだ場合を考える。この場合、第1スコア取得部120は、この特定部分に対応付けられた「怒り」という特定感情については、この特定部分の変化量に基づいた第1のスコアを取得する。また、第1スコア取得部120は、この特定部分に対応付けられた「警戒」という特定感情については、この特定部分の変化量に基づいた第1のスコアを取得する。一実施形態では、図6の下段に示すように、第1スコア取得部120は、「怒り」という特定感情については、より大きな値を有する第1のスコア701を取得することができる。また、第1スコア取得部120は、「警戒」という特定感情については、より小さな値を有する第1のスコア702を取得することができる。なお、図7の下段においても、中心に向かう程、第1のスコアは大きく、外縁に向かう程、第1のスコアは小さい。
さらに別の事例では、図8の上段に示すように、演者の1つの特定部分である左外眉毛(又は右外眉毛)の形状が単位時間区間において(a)から(b)に推移して大きく下がった場合を考える。この場合、第1スコア取得部120は、この特定部分に対応付けられた「悲しみ」という特定感情については、この特定部分の変化量に基づいた第1のスコアを取得する。また、第1スコア取得部120は、この特定部分に対応付けられた「嫌悪」という特定感情については、この特定部分の変化量に基づいた第1のスコアを取得する。一実施形態では、図8の下段に示すように、第1スコア取得部120は、「悲しみ」という特定感情については、より大きな値を有する第1のスコア801を取得することができる。また、第1スコア取得部120は、「嫌悪」という特定感情については、より小さな値を有する第1のスコア802を取得することができる。なお、図7の下段においても、中心に向かう程、第1のスコアは大きく、外縁に向かう程、第1のスコアは小さい。
上述したように、感情選択部140は、複数の特定感情のうち閾値を上回る第2のスコア(第1のスコアの合計値に基づいて取得される第2のスコア)を有する特定感情を、演者により表現された感情として選択することができる。したがって、ある特定部分に対応付けられた1又はそれ以上の特定感情について取得される第1のスコアは、このような1又はそれ以上の特定感情に対する寄与度の大きさを示す、ということができる。
図5に戻り、次に、ST508において、端末装置20の第2スコア取得部130が、上記「3-1(4)」において説明したように、(例えば任意に設定可能な単位時間区間ごとに)複数の特定感情の各々について、この各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する。ここで、第2のスコアの具体例について図9をも参照して説明する。図9は、図1に示した通信システムにおいて取得される第2のスコアの1つの具体例を概念的に示す模式図である。なお、図9においても、中心に向かう程、第2のスコアは大きく、外縁に向かう程、第2のスコアは小さい。
図9(a)には、ST508において第2スコア取得部130により各特定感情について取得された第2のスコアが示されている。ここで、各特定感情について取得された第2のスコアは、その特定感情について第1スコア取得部120により取得された第1のスコアに基づいて得られる。一実施形態では、第2スコアは、その特定感情について第1スコア取得部120により取得された第1のスコアの合計値そのものである。別の実施形態では、第2スコアは、その特定感情について第1スコア取得部120により取得された第1のスコアの合計値に対して所定の係数が掛けられることにより得られる。
図5に戻り、次に、ST510において、端末装置20の感情選択部140が、上記「3-1(5)」において説明したように、(例えば任意に設定可能な単位時間区間ごとに)複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、演者により表現された感情として選択する。例えば、図9(b)に示すように、複数の特定感情の各々(に対応する第2のスコア)に対して、閾値が、端末装置20を操作する演者により(及び/又は、サーバ装置30及び/又はスタジオユニット40を操作する演者及び/又はオペレータ等により)任意のタイミングにおいて個別に設定及び変更され得る。
端末装置20の感情選択部140は、各特定感情について取得された(例えば図9(a)に例示される)第2のスコアと、その特定感情について設定された(例えば図9(b)に例示される)閾値とを比較し、閾値を上回る第2のスコアを有する特定感情を、演者により表現された感情として選択することができる。図9に示した例では、「驚き」という特定感情について取得された第2のスコアのみが、この特定感情について設定された閾値を上回っている。よって、感情選択部140は、「驚き」という特定感情を、演者により表現された感情として選択することができる。一実施形態では、感情選択部140は、「驚き」という特定感情だけでなく、この「驚き」という特定感情に対して第2のスコアをも組み合わせたものを、演者により表現された感情として選択することも可能である。すなわち、感情選択部140は、第2のスコアが比較的に小さい場合には、比較的に小さな「驚き」という感情を、演者により表現された感情として選択することもできる。第2のスコアが比較的に大きい場合には、感情選択部140は、比較的に大きな「驚き」という感情を、演者により表現された感情として選択することもできる。
なお、閾値を上回る第2のスコアを有する特定感情が複数存在する場合には、感情選択部140は、これら複数の特定感情のうち最も大きい第2のスコアを有する1つの特定感情を、演者により表現された感情として選択することができる。
さらに、最も大きい「同一の」第2のスコアを有する複数の特定感情が存在する場合には、第1の例では、感情選択部140は、複数の特定の感情の各々に対して予め演者及び/又はオペレータにより定められた優先度に従い、これら最も大きい「同一の」第2のスコアを有する複数の特定感情のうち、最も大きい優先度を有する特定感情を、演者により表現された感情として選択することができる。具体的には、例えば、各演者が、自己のアバター等に対して、用意された複数の性格の中から自己の性格に対応する又は近似する性格(例えば「怒りっぽい」性格等)を設定しておいた場合が考えられる。この場合には、複数の特定感情のうち、このように設定された性格(例えば「怒りっぽい」性格)に対応する又は近似する特定感情(例えば「怒り」等)に対して高い優先度が付与され得る。このような優先度に基づいて、感情選択部140は、同一の第2のスコアを有する複数の特定感情のうち、最も高い優先度を有する特定感情を、演者により選択された感情として選択することができる。これに加えて及び/又はこれに代えて、複数の特定感情のうちこのように設定された性格(例えば「怒りっぽい」性格)に対応する又は近似する特定感情に対する閾値は、他の特定感情に対する閾値よりも小さくなるように変更されてもよい。
さらにまた、最も大きい「同一の」第2のスコアを有する複数の特定感情が存在する場合には、第2の例では、感情選択部140は、複数の特定感情の各々に対してその特定感情が過去に選択された頻度を履歴として保持しておき、これら最も大きい「同一の」第2のスコアを有する複数の特定感情のうち、最も大きい頻度を有する特定感情を、演者により表現された感情として選択することができる。
図5に戻り、次に、ST512において、端末装置20の動画生成部150が、上記「3-1(6)」において説明したように、(例えば任意に設定可能な単位時間区間ごとに)感情選択部140により選択された感情を仮想的なキャラクターに表現させた動画を生成することができる。なお、動画生成部150は、感情選択部140により選択された感情のみを用いる(単に「悲しみ」という感情のみを用いる)ことに代えて、その感情とその感情に対応する第2のスコアの大きさとを用いて(大きな「悲しみ」~小さな「悲しみ)、その感情を仮想的なキャラクターに表現させた動画を生成することができる。
なお、動画生成部150は、感情選択部140により選択された特定感情に対応する表情を仮想的なキャラクターに表現させた画像を生成する。この画像は、予め定められた時間だけ仮想的なキャラクターがその表情を持続させた動画であってもよい。この予め定められた時間は、端末装置20のユーザ、演者等(サーバ装置30のユーザ、演者、オペレータ等、スタジオユニットのユーザ、オペレータ等)によりユーザインタフェイスを介して任意のタイミングで設定・変更可能であってもよい。
さらに、ST512において、端末装置20の通信部180が、上記「3-1(7)」において説明したように、動画生成部150により生成された動画を、通信網10を介してサーバ装置30に送信することができる。
次に、ST514において、端末装置20が処理を継続するか否かを判定する。端末装置20が処理を継続すると判定した場合には、処理は上述したST502に戻ってST502以降の処理を繰り返す。一方、端末装置20が処理を修了すると判定した場合には、処理は終了する。
なお、一実施形態では、ST502~ST512のすべてが端末装置20(スタジオユニット40)により実行され得る。別の実施形態では、ST502のみ、ST502~ST504のみ、ST502~506のみ、ST502~ST508のみ、又は、ST502~ST510のみが、端末装置20(又はスタジオユニット40)により実行され、残りの工程がサーバ装置30により実行されてもよい。
別言すれば、別の実施形態では、ST502~ST512のうち、ST502から少なくとも1つの工程が順次端末装置20(又はスタジオユニット40)により実行され、残りの工程がサーバ装置30により実行されてもよい。この場合、端末装置20(又はスタジオユニット40)は、ST502~ST512のうち最後に実行した工程において取得したデータ等を、サーバ装置30に送信する必要がある。例えば、端末装置20(又はスタジオユニット40)は、ST502まで実行した場合には、ST502において取得した「演者に関するデータ」をサーバ装置30に送信する必要がある。また、端末装置20(又はスタジオユニット40)は、ST504まで実行した場合には、ST504において取得した「変化量」をサーバ装置30に送信する必要がある。同様に、端末装置20(又はスタジオユニット40)は、ST506(又はST508)まで実行した場合には、ST506(又はST508)において取得した「第1のスコア」(又は「第2のスコア」)をサーバ装置30に送信する必要がある。また、端末装置20(又はスタジオユニット40)は、ST510まで実行した場合には、ST510において取得した「感情」をサーバ装置30に送信する必要がある。端末装置20(又はスタジオユニット40)がST512より前のいずれかの処理までしか実行しない場合には、サーバ装置30が端末装置20(又はスタジオユニット40)から受信したデータ等に基づいて画像を生成することになる。
さらに別の実施形態では、ST502のみ、ST502~ST504のみ、ST502~506のみ、ST502~ST508のみ、又は、ST502~ST510のみが、端末装置20(又はスタジオユニット40)により実行され、残りの工程が別の端末装置(視聴者の端末装置)20により実行されてもよい。
別言すれば、さらに別の実施形態では、ST502~ST512のうち、ST502から少なくとも1つの工程が順次端末装置20(又はスタジオユニット40)により実行され、残りの工程が別の端末装置(視聴者の端末装置)20により実行されてもよい。この場合、端末装置20(又はスタジオユニット40)は、ST502~ST512のうち最後に実行した工程において取得したデータ等を、サーバ装置30を介して別の端末装置20に送信する必要がある。例えば、端末装置20(又はスタジオユニット40)は、ST502まで実行した場合には、ST502において取得した「演者に関するデータ」を、サーバ装置30を介して別の端末装置20に送信する必要がある。また、端末装置20(又はスタジオユニット40)は、ST504まで実行した場合には、ST504において取得した「変化量」を、サーバ装置30を介して別の端末装置20に送信する必要がある。同様に、端末装置20(又はスタジオユニット40)は、ST506(又はST508)まで実行した場合には、ST506(又はST508)において取得した「第1のスコア」(又は「第2のスコア」)を、サーバ装置30を介して別の端末装置20に送信する必要がある。また、端末装置20(又はスタジオユニット40)は、ST510まで実行した場合には、ST510において取得した「感情」を、サーバ装置30を介して別の端末装置20に送信する必要がある。端末装置20(又はスタジオユニット40)がST512より前のいずれかの処理までしか実行しない場合には、別の端末装置20がサーバ装置30を介して受信したデータ等に基づいて画像を生成して再生することができる。
6.変形例について
複数の特定感情(に対応する第2のスコア)に対して個別に設定された閾値は、端末装置20のユーザ、演者等により、サーバ装置30のユーザ、演者、オペレータ等により、スタジオユニット40のユーザ、オペレータ等により、これらの装置・ユニットにより表示部に表示されるユーザインタフェイスを介して任意のタイミングで変更されるようにしてもよい。
また、端末装置20、サーバ装置30及び/又はスタジオユニット40は、複数の性格の各々に対応付けて、複数の特定感情の各々に対して個別に閾値を記憶部170(270)に保持しておくことができる。これにより、端末装置20、サーバ装置30及び/又はスタジオユニット40は、これら複数の性格のうち、ユーザ、演者、オペレータ等によりユーザインタフェイスを介して選択された性格に対応する閾値を、記憶部170(270)から読み出して用いるようにしてもよい。上記複数の性格は、明るい、暗い、積極的及び/又は消極的等をこれらに限定することなく含む。さらに、端末装置20及び/又はスタジオユニット40は、複数の性格に対応付けられた、複数の特定感情の各々に個別に定められた閾値を、サーバ装置30から受信して記憶部170(270)に記憶することも可能である。さらにまた、端末装置20及び/又はスタジオユニット40は、複数の性格に対応付けられた、複数の特定の感情の各々に対して個別に定められた閾値であって、それらのユーザ、演者、オペレータ等により設定・変更された閾値を、サーバ装置30に送信することができる。また、サーバ装置30は、このような閾値を他の端末装置20等に送信して使用させることも可能である。
さらに、上記様々な実施形態では、感情選択部140(240)が、複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、演者により表現された感情として選択する場合について説明した。これに組み合わせて、感情選択部140(240)は、演者・ユーザにより任意のタイミングにおいてユーザインタフェイスを介して特定感情を指定された場合には、そのように指定された特定感情を、演者により表現された感情として「優先的に」選択してもよい。これにより、演者・ユーザは、感情選択部140(240)により自己が意図していない特定感情が誤って選択されてしまった場合等に、自己が本来意図した特定感情を適切に指定することができる。このような演者・ユーザによる特定感情の指定は、端末装置20等が、センサ部100を利用して演者に関するデータを取得する動作と並行してリアルタイムで動画を生成する態様において適用可能である。これに加えて又はこれに代えて、このような演者・ユーザによる特定感情の指定は、端末装置20等が、既に生成され記憶部170に記憶された画像を、読み出して表示部160に表示する態様において、適用可能である。いずれの態様においても、端末装置20等は、演者・ユーザにより指定された感情に対応する表情を仮想的なキャラクターに表現させた画像を、その指定がなされたことに応答して即座に生成して表示部160に表示することができる。
さらにまた、端末装置20等(の例えば、感情選択部140)は、現在選択されている特定感情に対して第1の関係(相反・否定する関係)を有する特定感情については、この特定感情の第2のスコアに対する閾値を大きく設定することができる。上記第1の関係は、相反又は否定する関係である。これにより、現在選択されている(表示部160に表示されている表情に対応する)特定感情が例えば「悲しみ」である場合に、感情選択部140は、次に、この「悲しみ」に相反する関係を有する例えば「喜び」を選択する可能性を低くすることができる。これにより、最終的に動画生成部150により生成される画像において、仮想的なキャラクターが例えば「悲しみ」を表現した表情から即座に「喜び」を表現した表情に不自然に移行する、という現象の発生を抑えることができる。
これとは逆に、端末装置20等(の例えば、感情選択部140)は、現在選択されている特定感情に対して第2の関係を有する特定感情については、この特定感情の第2のスコアに対する閾値を小さく設定することができる。上記第2の関係は、類似又は近似する関係である。これにより、現在選択されている(表示部160に表示されている表情に対応する)特定感情が例えば「悲しみ」である場合に、感情選択部140は、次に、この「悲しみ」に類似する関係を有する例えば「驚き」及び「嫌悪」等を選択する可能性を高くすることができる。これにより、最終的に動画生成部150により生成される画像において、仮想的なキャラクターが例えば「悲しみ」を表現した表情から即座に「驚き」及び「嫌悪」等を表現した表情に自然に移行する、という現象の発生を許容することができる。
さらにまた、上述した様々な実施形態では、演者に関連する複数の特定部分とは、演者の右目、左目、右頬、左頬、鼻、右眉毛、左眉毛、顎、右耳及び/又は左耳等を、これらに限定することなく含むことができる、ということを説明した。しかし、別の実施形態では、演者に関連する複数の特定部分には、演者が発した音声、演者の血圧、演者の脈拍、演者の体温等を含む様々な要素であってもよい。これらの場合には、センサ部100(200)は、それぞれ、マイクロフォン、血圧計、脈拍計及び体温計を用いることができる。また、変化量取得部110(210)は、それぞれ、単位時間区間ごとに、音声の周波数の変化量、血圧の変化量、脈拍の変化量及び体温の変化量を取得することができる。
以上のように、様々な実施形態によれば、演者の顔が実際に表現することが不可能な表情であっても、複数の特定感情のうちの少なくとも1つの特定感情に対応する表情として予め設定しておくことにより、そのような表情を仮想的なキャラクターに表現させた動画を簡単に生成することが可能となる。なお、上記不可能な表情は、例えば、演者の上半身の一部が記号等により置換された表情や演者の上半身の一部がアニメのように非現実的に飛び出した表情等を含む。
さらに、様々な実施形態によれば、複数の特定感情の各々に対して対応する表情を予め定めておくことができる。これにより、かかる複数の特定感情の中から、第1のスコア及び第2のスコアに基づいて、演者に表現された特定感情を選択し、選択された特定感情に対応する表情を仮想的なキャラクターに表現させた動画を生成することができる。この結果、演者は、用意されている表情を必ずしもすべて認識していなくとも、端末装置20等に対向して、表情、音声、血圧、脈拍及び体温等を含む特定部分を変化させることができる。これにより、端末装置20等が、複数の特定感情の中から適切な特定感情を選択し、選択した特定感情に対応する表情を仮想的なキャラクターに表現させた動画を生成することができる。
したがって、様々な実施形態によれば、演者が表現しようとする表情を簡易な手法により仮想的なキャラクターに表現させる、コンピュータプログラム、サーバ装置、端末装置、システム及び方法を提供することができる。
7.様々な態様について
第1の態様に係るコンピュータプログラムは、「プロセッサにより実行されることにより、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得し、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得し、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得し、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、ように前記プロセッサを機能させる」ことを特徴とする。
第2の態様に係るコンピュータプログラムは、上記第1の態様において「前記閾値が、前記複数の特定感情の各々の第2のスコアに対して個別に設定される」ことを特徴とする。
第3の態様に係るコンピュータプログラムは、上記第1の態様又は上記第2の態様において「前記閾値が、前記演者又はユーザによりユーザインタフェイスを介して任意のタイミングで変更される」ことを特徴とする。
第4の態様に係るコンピュータプログラムは、上記第1の態様から上記第3の態様のいずれかにおいて「前記閾値が、複数の性格の各々に対応付けて用意された閾値のうち、前記演者又はユーザによりユーザインタフェイスを介して選択された性格に対応する閾値である」ことを特徴とする。
第5の態様に係るコンピュータプログラムは、上記第1の態様から上記第4の態様のいずれかにおいて「前記プロセッサが、選択された前記特定感情に対応する表情を予め定められた時間だけ仮想的なキャラクターが表現した画像を生成する」ことを特徴とする。
第6の態様に係るコンピュータプログラムは、上記第5の態様において「前記予め定められた時間が、前記演者又はユーザによりユーザインタフェイスを介して任意のタイミングで変更される」ことを特徴とする。
第7の態様に係るコンピュータプログラムは、上記第1の態様から上記第6の態様のいずれかにおいて「ある特定部分に対応付けられた第1の特定感情について該特定部分の変化量に基づいて取得される第1のスコアと、該特定部分に対応付けられた第2の特定感情について該特定部分の変化量に基づいて取得される第1のスコアとが、相互に異なる」ことを特徴とする。
第8の態様に係るコンピュータプログラムは、上記第1の態様から上記第7の態様のいずれかにおいて「前記プロセッサが、前記複数の特定感情のうち、現在選択されている特定感情に対して第1の関係を有する特定感情については、該特定感情の第2のスコアに対する閾値を大きく設定し、前記複数の特定感情のうち、現在選択されている特定感情に対して第2の関係を有する特定感情については、該特定感情の第2のスコアに対する閾値を小さく設定する」ことを特徴とする。
第9の態様に係るコンピュータプログラムは、上記第8の態様において「前記第1の関係が相反する関係であり、前記第2の関係が類似する関係である」ことを特徴とする。
第10の態様に係るコンピュータプログラムは、上記第1の態様から上記第9の態様のいずれかにおいて「前記第1のスコアが、前記特定部分に対応付けられた前記少なくとも1つの特定感情に対する寄与度の大きさを示す」ことを特徴とする。
第11の態様に係るコンピュータプログラムは、上記第1の態様から上記第10の態様のいずれかにおいて「前記データが、単位時間区間に前記センサにより取得されたデータである」ことを特徴とする。
第12の態様に係るコンピュータプログラムは、上記第11の態様において「前記単位時間区間が前記演者又はユーザにより設定される」ことを特徴とする。
第13の態様に係るコンピュータプログラムは、上記第1の態様から上記第12の態様のいずれかにおいて「前記複数の特定部分が、右目、左目、右頬、左頬、鼻、右眉毛、左眉毛、顎、右耳、左耳及び音声を含む群から選択される」ことを特徴とする。
第14の態様に係るコンピュータプログラムは、上記第1の態様から上記第13の態様のいずれかにおいて「前記複数の特定感情が、前記演者によりユーザインタフェイスを介して選択される」ことを特徴とする。
第15の態様に係るコンピュータプログラムは、上記第1の態様から上記第14の態様のいずれかにおいて「前記プロセッサが、前記閾値を上回る第2のスコアを有する複数の特定感情のうち、最も大きい第2のスコアを有する特定感情を、前記演者により表現された感情として選択する」ことを特徴とする。
第16の態様に係るコンピュータプログラムは、上記第1の態様から上記第15の態様のいずれかにおいて「前記プロセッサが、前記複数の特定感情の各々に対応付けて記憶された優先度を取得し、前記閾値を上回る第2のスコアを有する複数の特定感情のうち、最も高い優先度を有する特定感情を、前記演者により表現された感情として選択する」ことを特徴とする。
第17の態様に係るコンピュータプログラムは、上記第1の態様から上記第15の態様のいずれかにおいて「前記プロセッサが、前記複数の特定感情の各々に対応付けて記憶された、該各特定感情が前記演者により表現された感情として選択された頻度を取得し、前記閾値を上回る第2のスコアを有する複数の特定感情のうち、最も高い頻度を有する特定感情を、前記演者により表現された感情として選択する」ことを特徴とする。
第18の態様に係るコンピュータプログラムは、上記第1の態様から上記第17の態様のいずれかにおいて「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ことを特徴とする。
第19の態様に係るコンピュータプログラムは、上記第1の態様から上記第18の態様のいずれかにおいて「前記プロセッサが、スマートフォン、タブレット、携帯電話若しくはパーソナルコンピュータ、又は、サーバ装置に搭載される」ことを特徴とする。
第20の態様に係る端末装置は、「プロセッサを具備し、該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得し、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得し、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得し、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する」ことを特徴とする。
第21の態様に係る端末装置は、上記第20の態様において「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ことを特徴とする。
第22の態様に係る端末装置は、上記第20の態様又は上記第21の態様において「スマートフォン、タブレット、携帯電話又はパーソナルコンピュータである」ことを特徴とする。
第23の態様に係る端末装置は、上記第20の態様から上記第22の態様のいずれかにおいて「スタジオに設置される」ことを特徴とする。
第24の態様に係るサーバ装置は、「プロセッサを具備し、該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得し、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得し、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得し、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する」ことを特徴とする。
第25の態様に係るサーバ装置は、上記第24の態様において「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ことを特徴とする。
第26の態様に係るサーバ装置は、上記第24の態様又は上記第25の態様において「前記複数の特定部分が、右目、左目、右頬、左頬、鼻、右眉毛、左眉毛、顎、右耳、左耳及び音声を含む群から選択される」ことを特徴とする。
第27の態様に係るサーバ装置は、上記第24の態様から上記第26の態様のいずれかにおいて「スタジオに配置される」ことを特徴とする。
第28の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行するプロセッサにより実行される方法であって、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する変化量取得工程と、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する第1スコア取得工程と、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する第2スコア取得工程と、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する選択工程と、を含む」ことを特徴とする。
第29の態様に係る方法は、上記第28の態様において「各工程が、スマートフォン、タブレット、携帯電話及びパーソナルコンピュータを含む群から選択される端末装置に搭載されたプロセッサにより実行される」ことを特徴とする。
第30の態様に係る方法は、上記第28の態様において「前記変化量取得工程、前記第1スコア取得工程、前記第2スコア取得工程及び前記選択工程のうち、前記変化量取得工程のみ、前記変化量取得工程及び前記第1スコア取得工程のみ、又は、前記変化量取得工程、前記第1スコア取得工程及び前記第2スコア取得工程のみが、スマートフォン、タブレット、携帯電話及びパーソナルコンピュータを含む群から選択される端末装置に搭載されたプロセッサにより実行され、残りの工程が、サーバ装置に搭載されたプロセッサにより実行される」ことを特徴とする。
第31の態様に係る方法は、上記第28の態様から上記第30の態様のいずれかにおいて「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ことを特徴とする。
第32の態様に係る方法は、上記第28の態様から上記第31の態様のいずれかにおいて「前記複数の特定部分が、右目、左目、右頬、左頬、鼻、右眉毛、左眉毛、顎、右耳、左耳及び音声を含む群から選択される」ことを特徴とする。
第33の態様に係るシステムは、「第1のプロセッサを含む第1の装置と、第2のプロセッサを含み該第1の装置に通信回線を介して接続可能な第2の装置と、を具備するシステムであって、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する、変化量取得処理、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する、第1スコア取得処理、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する、第2スコア取得処理、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、選択処理、及び、選択された前記感情に基づく画像を生成する画像生成処理、のうち、前記第1の装置に含まれた前記第1のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記変化量取得処理から少なくとも1つの処理を順次実行し、前記第1のプロセッサにより実行されていない残りの処理が存在する場合には、前記第2の装置に含まれた前記第2のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記残りの処理を実行する」ことを特徴とする。
第34の態様に係るシステムは、上記第33の態様において「前記第2のプロセッサが、前記第1のプロセッサにより生成された前記画像を、通信回線を介して受信する」ことを特徴とする。
第35の態様に係るシステムは、上記第33の態様又は上記第34の態様において「第3のプロセッサを含み前記第2の装置に通信回線を介して接続可能な第3の装置をさらに具備し、前記第2のプロセッサが、生成された前記画像を、通信回線を介して前記第3の装置に送信し、該第3の装置に含まれた前記第3のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記第2のプロセッサにより送信された前記画像を、通信回線を介して受信し、受信された前記画像を表示部に表示する」ことを特徴とする。
第36の態様に係るシステムは、上記第33の態様から上記第35の態様のいずれかにおいて「前記第1の装置及び前記第3の装置が、それぞれ、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ及びサーバ装置を含む群から選択され、前記第2の装置がサーバ装置である」ことを特徴とする。
第37の態様に係るシステムは、上記第33の態様において「第3のプロセッサを含み前記第1の装置及び前記第2の装置に通信回線を介して接続可能な第3の装置をさらに具備し、前記第1の装置及び前記第2の装置が、それぞれ、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ及びサーバ装置を含む群から選択され、前記第3の装置がサーバ装置であり、該第3の装置は、前記第1の装置が前記変化量取得処理のみを実行する場合には、該第1の装置により取得された前記変化量を前記第2の装置に送信し、前記第1の装置が前記変化量取得処理から前記第1スコア取得処理までを実行する場合には、該第1の装置により取得された前記第1スコアを前記第2の装置に送信し、前記第1の装置が前記変化量取得処理から前記第2スコア取得処理までを実行する場合には、該第1の装置により取得された前記第2スコアを前記第2の装置に送信し、前記第1の装置が前記変化量取得処理から前記選択処理までを実行する場合には、該第1の装置により取得された前記演者により表現された感情を、前記第2の装置に送信し、前記第1の装置が前記変化量取得処理から前記画像生成処理までを実行する場合には、該第1の装置により生成された前記画像を、前記第2の装置に送信する」ことを特徴とする。
第38の態様に係るシステムは、上記第33の態様から上記第37の態様のいずれかにおいて「前記通信回線がインターネットを含む」ことを特徴とする。
第39の態様に係るシステムは、上記第33の態様から上記第38の態様のいずれかにおいて「前記画像が動画像及び/又は静止画像を含む」ことを特徴とする。
第40の態様に係る方法は、「第1のプロセッサを含む第1の装置と、第2のプロセッサを含み該第1の装置に通信回線を介して接続可能な第2の装置と、を具備するシステムにおいて実行される方法であって、センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する、変化量取得工程、複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する、第1スコア取得工程、前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する、第2スコア取得工程、前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、選択工程、及び、選択された前記感情に基づく画像を生成する画像生成工程、のうち、前記第1の装置に含まれた前記第1のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記変化量取得工程から少なくとも1つの工程を順次実行し、前記第1のプロセッサにより実行されていない残りの工程が存在する場合には、前記第2の装置に含まれた前記第2のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記残りの工程を実行する」ことを特徴とする。
第41の態様に係る方法は、上記第40の態様において「前記第2のプロセッサが、前記第1のプロセッサにより生成された前記画像を、通信回線を介して受信する」ことを特徴とする。
第42の態様に係る方法は、上記第40の態様又は上記第41の態様において「前記システムが、第3のプロセッサを含み前記第2の装置に通信回線を介して接続可能な第3の装置をさらに具備し、前記第2のプロセッサが、生成された前記画像を、通信回線を介して前記第3の装置に送信し、該第3の装置に含まれた前記第3のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記第2のプロセッサにより送信された前記画像を、通信回線を介して受信し、受信された前記画像を表示部に表示する」ことを特徴とする。
第43の態様に係る方法は、上記第40の態様から上記第42の態様のいずれかにおいて「前記第1の装置及び前記第3の装置が、それぞれ、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ及びサーバ装置を含む群から選択され、前記第2の装置がサーバ装置である」ことを特徴とする。
第44の態様に係る方法は、上記第40の態様において「前記システムが、第3のプロセッサを含み前記第1の装置及び前記第2の装置に通信回線を介して接続可能な第3の装置をさらに具備し、前記第1の装置及び前記第2の装置が、それぞれ、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ及びサーバ装置を含む群から選択され、前記第3の装置がサーバ装置であり、該第3の装置は、前記第1の装置が前記変化量取得工程のみを実行する場合には、該第1の装置により取得された前記変化量を前記第2の装置に送信し、前記第1の装置が前記変化量取得工程から前記第1スコア取得工程までを実行する場合には、該第1の装置により取得された前記第1スコアを前記第2の装置に送信し、前記第1の装置が前記変化量取得工程から前記第2スコア取得工程までを実行する場合には、該第1の装置により取得された前記第2スコアを前記第2の装置に送信し、前記第1の装置が前記変化量取得工程から前記選択工程までを実行する場合には、該第1の装置により取得された前記演者により表現された感情を、前記第2の装置に送信し、前記第1の装置が前記変化量取得工程から前記画像生成工程までを実行する場合には、該第1の装置により生成された前記画像を、前記第2の装置に送信する」ことを特徴とする。
第45の態様に係る方法は、上記第40の態様から上記第44の態様のいずれかにおいて「前記通信回線がインターネットを含む」ことを特徴とする。
第46の態様に係る方法は、上記第40の態様から上記第45の態様のいずれかにおいて「前記画像が動画像及び/又は静止画像を含む」ことを特徴とする。
8.本件出願に開示された技術が適用される分野
本件出願に開示された技術は、例えば、次のような分野において適用することが可能である。
(1)仮想的なキャラクターが登場するライブ動画を配信するアプリケーション・サービス
(2)文字及びアバター(仮想的なキャラクター)を用いてコミュニケーションすることができるアプリケーション・サービス(チャットアプリケーション、メッセンジャー、メールアプリケーション等)
(3)表情を変化させることが可能な仮想的なキャラクターを操作するゲーム・サービス(シューティングゲーム、恋愛ゲーム及びロールプレイングゲーム等)
本出願は、「コンピュータプログラム、サーバ装置、端末装置、システム及び方法」と題して2019年5月20日に提出された日本国特許出願第2019-094557に基づいており、この日本国特許出願による優先権の利益を享受する。この日本国特許出願の全体の内容が引用により本明細書に組み入れられる。
1 通信システム
10 通信網
20(20A~20C) 端末装置
30(30A~30C) サーバ装置
40(40A、40B) スタジオユニット
100(200) センサ部
110(210) 変化量取得部
120(220) 第1スコア取得部
130(230) 第2スコア取得部
140(240) 感情選択部
150(250) 動画生成部
160(260) 表示部
170(270) 記憶部
180(280) 通信部

Claims (42)

  1. プロセッサにより実行されることにより、
    センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得し、
    複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得し、
    前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得し、
    前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、
    ように前記プロセッサを機能させる、ことを特徴とするコンピュータプログラム。
  2. 前記閾値が、前記複数の特定感情の各々の第2のスコアに対して個別に設定される、請求項1に記載のコンピュータプログラム。
  3. 前記閾値が、前記演者又はユーザによりユーザインタフェイスを介して任意のタイミングで変更される、請求項1又は請求項2に記載のコンピュータプログラム。
  4. 前記閾値は、複数の性格の各々に対応付けて用意された閾値のうち、前記演者又はユーザによりユーザインタフェイスを介して選択された性格に対応する閾値である、請求項1から請求項3のいずれかに記載のコンピュータプログラム。
  5. 前記プロセッサが、選択された前記特定感情に対応する表情を予め定められた時間だけ仮想的なキャラクターが表現した画像を生成する、請求項1から請求項4のいずれかに記載のコンピュータプログラム。
  6. 前記予め定められた時間が、前記演者又はユーザによりユーザインタフェイスを介して任意のタイミングで変更される、請求項5に記載のコンピュータプログラム。
  7. ある特定部分に対応付けられた第1の特定感情について該特定部分の変化量に基づいて取得される第1のスコアと、該特定部分に対応付けられた第2の特定感情について該特定部分の変化量に基づいて取得される第1のスコアとが、相互に異なる、請求項1から請求項6のいずれかに記載のコンピュータプログラム。
  8. 前記プロセッサが、
    前記複数の特定感情のうち、現在選択されている特定感情に対して第1の関係を有する特定感情については、該特定感情の第2のスコアに対する閾値を大きく設定し、
    前記複数の特定感情のうち、現在選択されている特定感情に対して第2の関係を有する特定感情については、該特定感情の第2のスコアに対する閾値を小さく設定する、請求項1から請求項7のいずれかに記載のコンピュータプログラム。
  9. 前記第1の関係が相反する関係であり、前記第2の関係が類似する関係である、請求項8に記載のコンピュータプログラム。
  10. 前記第1のスコアは、前記特定部分に対応付けられた前記少なくとも1つの特定感情に対する寄与度の大きさを示す、請求項1から請求項9のいずれかに記載のコンピュータプログラム。
  11. 前記データは、単位時間区間に前記センサにより取得されたデータである、請求項1から請求項10のいずれかに記載のコンピュータプログラム。
  12. 前記単位時間区間が前記演者又はユーザにより設定される、請求項11に記載のコンピュータプログラム。
  13. 前記複数の特定部分が、右目、左目、右頬、左頬、鼻、右眉毛、左眉毛、顎、右耳、左耳及び音声を含む群から選択される、請求項1から請求項12のいずれかに記載のコンピュータプログラム。
  14. 前記複数の特定感情が、前記演者によりユーザインタフェイスを介して選択される、請求項1から請求項13のいずれかに記載のコンピュータプログラム。
  15. 前記プロセッサは、
    前記閾値を上回る第2のスコアを有する複数の特定感情のうち、最も大きい第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、請求項1から14のいずれかに記載のコンピュータプログラム。
  16. 前記プロセッサは、
    前記複数の特定感情の各々に対応付けて記憶された優先度を取得し、
    前記閾値を上回る第2のスコアを有する複数の特定感情のうち、最も高い優先度を有する特定感情を、前記演者により表現された感情として選択する、請求項1から請求項15のいずれかに記載のコンピュータプログラム。
  17. 前記プロセッサは、
    前記複数の特定感情の各々に対応付けて記憶された、該各特定感情が前記演者により表現された感情として選択された頻度を取得し、
    前記閾値を上回る第2のスコアを有する複数の特定感情のうち、最も高い頻度を有する特定感情を、前記演者により表現された感情として選択する、請求項1から請求項15のいずれかに記載のコンピュータプログラム。
  18. 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項1から請求項17のいずれかに記載のコンピュータプログラム。
  19. 前記プロセッサが、スマートフォン、タブレット、携帯電話若しくはパーソナルコンピュータ、又は、サーバ装置に搭載される、請求項1から請求項18のいずれかに記載のコンピュータプログラム。
  20. プロセッサを具備し、
    該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
    センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得し、
    複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得し、
    前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得し、
    前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、ことを特徴とするサーバ装置。
  21. 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項20に記載のサーバ装置。
  22. 前記複数の特定部分が、右目、左目、右頬、左頬、鼻、右眉毛、左眉毛、顎、右耳、左耳及び音声を含む群から選択される、請求項20又は請求項21に記載のサーバ装置。
  23. スタジオに配置される、請求項20から請求項22のいずれかに記載のサーバ装置。
  24. コンピュータにより読み取り可能な命令を実行するプロセッサにより実行される方法であって、
    センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する変化量取得工程と、
    複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する第1スコア取得工程と、
    前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する第2スコア取得工程と、
    前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する選択工程と、
    を含むことを特徴とする方法。
  25. 各工程が、スマートフォン、タブレット、携帯電話及びパーソナルコンピュータを含む群から選択される端末装置に搭載されたプロセッサにより実行される、請求項24に記載の方法。
  26. 前記変化量取得工程、前記第1スコア取得工程、前記第2スコア取得工程及び前記選択工程のうち、
    前記変化量取得工程のみ、前記変化量取得工程及び前記第1スコア取得工程のみ、又は、前記変化量取得工程、前記第1スコア取得工程及び前記第2スコア取得工程のみが、スマートフォン、タブレット、携帯電話及びパーソナルコンピュータを含む群から選択される端末装置に搭載されたプロセッサにより実行され、
    残りの工程が、サーバ装置に搭載されたプロセッサにより実行される、請求項24に記載の方法。
  27. 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項24から請求項26のいずれかに記載の方法。
  28. 前記複数の特定部分が、右目、左目、右頬、左頬、鼻、右眉毛、左眉毛、顎、右耳、左耳及び音声を含む群から選択される、請求項24から請求項27のいずれかに記載の方法。
  29. 第1のプロセッサを含む第1の装置と、第2のプロセッサを含み該第1の装置に通信回線を介して接続可能な第2の装置と、を具備するシステムであって、
    センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する、変化量取得処理、
    複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する、第1スコア取得処理、
    前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する、第2スコア取得処理、
    前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、選択処理、及び、
    選択された前記感情に基づく画像を生成する画像生成処理、のうち、
    前記第1の装置に含まれた前記第1のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記変化量取得処理から少なくとも1つの処理を順次実行し、
    前記第1のプロセッサにより実行されていない残りの処理が存在する場合には、前記第2の装置に含まれた前記第2のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記残りの処理を実行する、ことを特徴とするシステム。
  30. 前記第2のプロセッサが、前記第1のプロセッサにより生成された前記画像を、通信回線を介して受信する、請求項29に記載のシステム。
  31. 第3のプロセッサを含み前記第2の装置に通信回線を介して接続可能な第3の装置をさらに具備し、
    前記第2のプロセッサが、生成された前記画像を、通信回線を介して前記第3の装置に送信し、
    該第3の装置に含まれた前記第3のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記第2のプロセッサにより送信された前記画像を、通信回線を介して受信し、受信された前記画像を表示部に表示する、請求項29又は請求項30に記載のシステム。
  32. 前記第1の装置及び前記第3の装置が、それぞれ、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ及びサーバ装置を含む群から選択され、
    前記第2の装置がサーバ装置である、請求項31に記載のシステム。
  33. 第3のプロセッサを含み前記第1の装置及び前記第2の装置に通信回線を介して接続可能な第3の装置をさらに具備し、
    前記第1の装置及び前記第2の装置が、それぞれ、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ及びサーバ装置を含む群から選択され、
    前記第3の装置がサーバ装置であり、
    該第3の装置は、
    前記第1の装置が前記変化量取得処理のみを実行する場合には、該第1の装置により取得された前記変化量を前記第2の装置に送信し、
    前記第1の装置が前記変化量取得処理から前記第1スコア取得処理までを実行する場合には、該第1の装置により取得された前記第1スコアを前記第2の装置に送信し、
    前記第1の装置が前記変化量取得処理から前記第2スコア取得処理までを実行する場合には、該第1の装置により取得された前記第2スコアを前記第2の装置に送信し、
    前記第1の装置が前記変化量取得処理から前記選択処理までを実行する場合には、該第1の装置により取得された前記演者により表現された感情を、前記第2の装置に送信し、
    前記第1の装置が前記変化量取得処理から前記画像生成処理までを実行する場合には、該第1の装置により生成された前記画像を、前記第2の装置に送信する、
    請求項29に記載のシステム。
  34. 前記通信回線がインターネットを含む、請求項29から請求項33のいずれかに記載のシステム。
  35. 前記画像が動画像及び/又は静止画像を含む、請求項29から請求項34のいずれかに記載のシステム。
  36. 第1のプロセッサを含む第1の装置と、第2のプロセッサを含み該第1の装置に通信回線を介して接続可能な第2の装置と、を具備するシステムにおいて実行される方法であって、
    センサにより取得された演者に関するデータに基づいて、前記演者に関連する複数の特定部分の各々の変化量を取得する、変化量取得工程、
    複数の特定感情のうち各特定部分に対応付けられた少なくとも1つの特定感情について、該特定部分の変化量に基づく第1のスコアを取得する、第1スコア取得工程、
    前記複数の特定感情の各々について、該各特定感情について取得された第1のスコアの合計に基づく第2のスコアを取得する、第2スコア取得工程、
    前記複数の特定感情のうち閾値を上回る第2のスコアを有する特定感情を、前記演者により表現された感情として選択する、選択工程、及び、
    選択された前記感情に基づく画像を生成する画像生成工程、のうち、
    前記第1の装置に含まれた前記第1のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記変化量取得工程から少なくとも1つの工程を順次実行し、
    前記第1のプロセッサにより実行されていない残りの工程が存在する場合には、前記第2の装置に含まれた前記第2のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記残りの工程を実行する、ことを特徴とする方法。
  37. 前記第2のプロセッサが、前記第1のプロセッサにより生成された前記画像を、通信回線を介して受信する、請求項36に記載の方法。
  38. 前記システムが、第3のプロセッサを含み前記第2の装置に通信回線を介して接続可能な第3の装置をさらに具備し、
    前記第2のプロセッサが、生成された前記画像を、通信回線を介して前記第3の装置に送信し、
    該第3の装置に含まれた前記第3のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、前記第2のプロセッサにより送信された前記画像を、通信回線を介して受信し、受信された前記画像を表示部に表示する、請求項36又は請求項37に記載の方法。
  39. 前記第1の装置及び前記第3の装置が、それぞれ、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ及びサーバ装置を含む群から選択され、
    前記第2の装置がサーバ装置である、請求項38に記載の方法。
  40. 前記システムが、第3のプロセッサを含み前記第1の装置及び前記第2の装置に通信回線を介して接続可能な第3の装置をさらに具備し、
    前記第1の装置及び前記第2の装置が、それぞれ、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ及びサーバ装置を含む群から選択され、
    前記第3の装置がサーバ装置であり、
    該第3の装置は、
    前記第1の装置が前記変化量取得工程のみを実行する場合には、該第1の装置により取得された前記変化量を前記第2の装置に送信し、
    前記第1の装置が前記変化量取得工程から前記第1スコア取得工程までを実行する場合には、該第1の装置により取得された前記第1スコアを前記第2の装置に送信し、
    前記第1の装置が前記変化量取得工程から前記第2スコア取得工程までを実行する場合には、該第1の装置により取得された前記第2スコアを前記第2の装置に送信し、
    前記第1の装置が前記変化量取得工程から前記選択工程までを実行する場合には、該第1の装置により取得された前記演者により表現された感情を、前記第2の装置に送信し、
    前記第1の装置が前記変化量取得工程から前記画像生成工程までを実行する場合には、該第1の装置により生成された前記画像を、前記第2の装置に送信する、
    請求項36に記載の方法。
  41. 前記通信回線がインターネットを含む、請求項36から請求項40のいずれかに記載の方法。
  42. 前記画像が動画像及び/又は静止画像を含む、請求項36から請求項41のいずれかに記載の方法。
JP2021520695A 2019-05-20 2020-05-07 コンピュータプログラム、サーバ装置、端末装置、システム及び方法 Active JP7162737B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022166878A JP2023015074A (ja) 2019-05-20 2022-10-18 コンピュータプログラム、サーバ装置、端末装置、システム及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019094557 2019-05-20
JP2019094557 2019-05-20
PCT/JP2020/018556 WO2020235346A1 (ja) 2019-05-20 2020-05-07 コンピュータプログラム、サーバ装置、端末装置、システム及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022166878A Division JP2023015074A (ja) 2019-05-20 2022-10-18 コンピュータプログラム、サーバ装置、端末装置、システム及び方法

Publications (2)

Publication Number Publication Date
JPWO2020235346A1 JPWO2020235346A1 (ja) 2020-11-26
JP7162737B2 true JP7162737B2 (ja) 2022-10-28

Family

ID=73458472

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021520695A Active JP7162737B2 (ja) 2019-05-20 2020-05-07 コンピュータプログラム、サーバ装置、端末装置、システム及び方法
JP2022166878A Pending JP2023015074A (ja) 2019-05-20 2022-10-18 コンピュータプログラム、サーバ装置、端末装置、システム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022166878A Pending JP2023015074A (ja) 2019-05-20 2022-10-18 コンピュータプログラム、サーバ装置、端末装置、システム及び方法

Country Status (3)

Country Link
US (1) US20220083766A1 (ja)
JP (2) JP7162737B2 (ja)
WO (1) WO2020235346A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014526829A (ja) 2011-09-09 2014-10-06 クゥアルコム・インコーポレイテッド 触覚フィードバックとしての感情の伝送
JP2014211719A (ja) 2013-04-17 2014-11-13 キヤノン株式会社 情報処理装置およびその方法
JP2016126500A (ja) 2014-12-26 2016-07-11 Kddi株式会社 ウェアラブル端末装置およびプログラム
JP2016149063A (ja) 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法
JP2016162001A (ja) 2015-02-26 2016-09-05 Kddi株式会社 業務支援装置および業務支援プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014526829A (ja) 2011-09-09 2014-10-06 クゥアルコム・インコーポレイテッド 触覚フィードバックとしての感情の伝送
JP2014211719A (ja) 2013-04-17 2014-11-13 キヤノン株式会社 情報処理装置およびその方法
JP2016126500A (ja) 2014-12-26 2016-07-11 Kddi株式会社 ウェアラブル端末装置およびプログラム
JP2016149063A (ja) 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法
JP2016162001A (ja) 2015-02-26 2016-09-05 Kddi株式会社 業務支援装置および業務支援プログラム

Also Published As

Publication number Publication date
WO2020235346A1 (ja) 2020-11-26
JPWO2020235346A1 (ja) 2020-11-26
JP2023015074A (ja) 2023-01-31
US20220083766A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
US10097492B2 (en) Storage medium, communication terminal, and display method for enabling users to exchange messages
JP2016528571A (ja) パーソナル感情アイコンを提供するための方法及びシステム
EP3383036A2 (en) Information processing device, information processing method, and program
US20160231878A1 (en) Communication system, communication terminal, storage medium, and display method
CN107085495B (zh) 一种信息展示方法、电子设备及存储介质
US20160320833A1 (en) Location-based system for sharing augmented reality content
WO2022252866A1 (zh) 一种互动处理方法、装置、终端及介质
JP2021108030A (ja) コンピュータプログラム、サーバ装置及び方法
CN110148191A (zh) 视频虚拟表情生成方法、装置及计算机可读存储介质
JP2019537397A (ja) 映像のための効果共有方法およびシステム
US20220172440A1 (en) Extended field of view generation for split-rendering for virtual reality streaming
WO2022204674A1 (en) True size eyewear experience in real-time
CN108846881B (zh) 一种表情图像的生成方法及装置
CN107204026B (zh) 一种用于显示动画的方法和装置
JP7162737B2 (ja) コンピュータプログラム、サーバ装置、端末装置、システム及び方法
US20230120037A1 (en) True size eyewear in real time
CN115225948A (zh) 直播间互动方法、装置、设备及介质
CN115220613A (zh) 一种事件提示处理方法、装置、设备及介质
JP7184835B2 (ja) コンピュータプログラム、方法及びサーバ装置
CN106780676B (zh) 一种用于显示动画的方法和装置
JP7129463B2 (ja) コンピュータプログラム、方法、及び、サーバ装置
US20100073399A1 (en) Methods and devices for controlling a presentation of an object
JP7113065B2 (ja) コンピュータプログラム、方法、及び、サーバ
CN116597050A (zh) 动画数据的响应方法及相关装置
JP2024044908A (ja) 方法、プログラム、及び端末装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221018

R150 Certificate of patent or registration of utility model

Ref document number: 7162737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150