JP7253269B2 - 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム - Google Patents

顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム Download PDF

Info

Publication number
JP7253269B2
JP7253269B2 JP2020181126A JP2020181126A JP7253269B2 JP 7253269 B2 JP7253269 B2 JP 7253269B2 JP 2020181126 A JP2020181126 A JP 2020181126A JP 2020181126 A JP2020181126 A JP 2020181126A JP 7253269 B2 JP7253269 B2 JP 7253269B2
Authority
JP
Japan
Prior art keywords
facial expression
expression parameter
dialogue
facial
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020181126A
Other languages
English (en)
Other versions
JP2022071968A (ja
Inventor
一星 吉田
光理 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Embodyme
Original Assignee
Embodyme
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Embodyme filed Critical Embodyme
Priority to JP2020181126A priority Critical patent/JP7253269B2/ja
Priority to US18/250,251 priority patent/US20230317054A1/en
Priority to PCT/JP2020/041819 priority patent/WO2022091426A1/ja
Publication of JP2022071968A publication Critical patent/JP2022071968A/ja
Application granted granted Critical
Publication of JP7253269B2 publication Critical patent/JP7253269B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラムに関し、特に、合成ターゲットの顔画像に対して他者の顔の表情を付与することにより、他者の表情で調整した顔画像を生成することができるようになされたシステムに用いて好適なものである。
従来、合成ターゲットとする人の顔画像(以下、ターゲット顔画像ということがある)に対して他者の顔画像の表情を合成して表示する技術が提供されている(例えば、非特許文献1参照)。この非特許文献1に記載の技術では、合成ターゲットの顔画像から顔の位置および表情を表すいくつかの表情パラメータを抽出する一方、他者の顔が含まれる動画像から当該他者の顔の表情を表すいくつかの表情パラメータを抽出し、他者の表情パラメータを用いてターゲット顔画像の表情パラメータを調整することにより、ターゲット顔画像の目、鼻、口などの各部位を変形させる。
また、音声から顔の表情を推定し、推定した顔の表情をターゲットの顔画像に合成して表示する技術も知られている(例えば、特許文献1,2参照)。特許文献1に記載のテレビ電話端末装置では、音声入力部から入力された音声信号に基づいて、顔画像に表情を付加するための表情データを生成する一方、ユーザ操作に基づいて輪郭、目、口などの顔の各部分のサイズや位置などを示す基本顔データを生成する。そして、基本顔データと表情データとを組み合わせることにより、話者の似顔絵画像を動画として作成する。
特許文献2に記載の顔画像伝送システムでは、話者の発する音声から話者の表情を推定するニューラルネットワークの表情推定モデルを機械学習して受信側に設定し、話者の発する音声を送信側から受信側に送信して表情推定モデルに与えることにより、話者の表情を推定し、推定した話者の表情の動画像を生成する。
顔の表情と口の形状を別のパラメータから再現するようにしたシステムも知られている(例えば、特許文献3参照)。特許文献3に記載のシステムでは、顔原画像に対して表情分析および表情パラメータ変換の処理を行うことにより、3次元モデルに対する表情変形パラメータ(口以外)を求める一方、原音声に対して特徴抽出、音素認識、口形状パラメータ変換の処理を行うことにより、口形状パラメータを求める。そして、表情変形パラメータと口形状パラメータにより3次元モデルを変形することにより、復号画像を得る。
特開2005-57431号公報 特許第3485508号公報 特開平5-153581号公報
"Xpression:mobile real-time facial expression transfer"(SA'18:SIGGRAPH Asia 2018 Emerging Technologies, December 2018, Article No.18)
上記特許文献1~3または非特許文献1に記載の技術を用いることにより、ターゲット顔画像に話者の表情を合成した顔画像を生成して表示することが可能である。本発明は、これらの技術を更に発展させ、対話が行われているときの状況に応じて表情を調整した顔画像を表示させることができるようにすることを目的とする。
上記した課題を解決するために、本発明の顔画像処理システムでは、サーバ装置において、クライアント装置から送られてくるユーザによる対話情報に応じて生成される対話用音声に基づいて、当該対話用音声から推定される顔の表情を表す推定表情パラメータを生成する一方、人間の顔を撮影して得られる撮影顔画像に基づいて、当該撮影顔画像に現れている顔の表情を表す現出表情パラメータを生成し、推定表情パラメータまたは現出表情パラメータの何れかを選択してクライアント装置に送信する。そして、クライアント装置において、サーバ装置から送信された表情パラメータに基づき特定される表情をターゲット顔画像に与えることにより、サーバ装置のコンピュータにより生成される対話用音声または人間の撮影顔画像に対応した表情の顔画像を生成するようにしている。
上記のように構成した本発明によれば、クライアント装置のユーザとサーバ装置のコンピュータとの間で対話が行われているか、クライアント装置のユーザとサーバ装置側の人間との間で対話が行われているかの状況において、コンピュータの対話用音声または人間の撮影顔画像の何れかに対応するように表情を調整した顔画像をクライアント装置にて生成することが可能となる。これにより、本発明によれば、対話が行われているときの状況に応じて表情を調整した顔画像をクライアント装置に表示させることができる。
本実施形態による顔画像処理システムの構成例を示す図である。 本実施形態によるサーバ装置の機能構成例を示すブロック図である。 本実施形態によるクライアント装置の機能構成例を示すブロック図である。 本実施形態によるサーバ装置の動作例を示すフローチャートである。
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による顔画像処理システムの構成例を示す図である。図1に示すように、本実施形態による顔画像処理システムは、サーバ装置100とクライアント装置200とがインターネットや携帯電話網等の通信ネットワーク300を介して接続されて構成される。
本実施形態による顔画像処理システムでは、一例として、クライアント装置200のユーザとサーバ装置100のコンピュータとの間で、音声および画像を用いた対話を行う。例えば、クライアント装置200からユーザがサーバ装置100に対して任意の質問や要求(特許請求の範囲の対話情報に相当)を送り、サーバ装置100が質問や要求に対する回答を生成してクライアント装置200に返信する。このためにサーバ装置100は、いわゆるチャットボット機能を備えている。
ここで、クライアント装置200から送信する質問や要求は、ユーザがキーボードやタッチパネル等の操作デバイスを用いてクライアント装置200に入力したテキスト情報であってもよいし、ユーザがマイクを用いてクライアント装置200に入力した発話音声情報であってもよい。あるいは、所定の質問や要求に対応付けられた電話のダイヤルキーを操作したときに発信されるトーン信号や、所定の操作に応じて発信される制御信号などであってもよい。一方、サーバ装置100から返信する回答は、所定のルールベースまたは機械学習された解析モデルを用いて生成される応答用のテキスト情報から変換した合成音声情報である。なお、合成音声情報と共にテキスト情報を返信するようにしてもよい。
ここでは、サーバ装置100からクライアント装置200への回答として合成音声を用いる例について説明したが、これに限定されない。例えば、所定の質問や要求に対して固定内容の回答を返信すればよいケースのために、その回答内容を人間が発話した音声をあらかじめ録音してデータベースに記憶しておき、この録音音声をデータベースから読み出して返信するようにしてもよい。なお、以下では説明を簡略化するため、サーバ装置100からクライアント装置200への返信には合成音声情報を用いるものとして説明する。
本実施形態では、サーバ装置100からクライアント装置200に回答を返信するのに合わせて、回答の合成音声に合わせて表情が変化する顔画像をクライアント装置200に表示させる。本実施形態では特に、サーバ装置100から表情に関するいくつかのパラメータ(以下、表情パラメータという)をクライアント装置200に送信し、クライアント装置200においてあらかじめ用意されたターゲット顔画像の表情を表情パラメータによって調整することにより、回答の合成音声に対応する表情の顔画像を生成して表示させる。これについての詳細は後述する。
なお、ここでは一例として、クライアント装置200のユーザからサーバ装置100に質問や要求を行い、サーバ装置100のチャットボットが回答を行うものとして説明したが、対話の内容はこれに限定されるものではない。例えば、サーバ装置100のチャットボットからクライアント装置200のユーザに質問を行い、クライアント装置200のユーザが回答を行うといった内容が、繰り返される一連の対話の中に含まれていてもよい。また、クライアント装置200のユーザとサーバ装置100のチャットボットとが質疑応答形式ではない対話を行うようにしてもよい。
本実施形態では、クライアント装置200のユーザとサーバ装置100のチャットボットとの対話に加え、クライアント装置200のユーザとサーバ装置100側のオペレータとの対話も行う。すなわち、チャットボットとの対話とオペレータとの対話を適宜切り替えて行うようにしている。ユーザとオペレータとの間で対話を行う場合、オペレータがユーザに対して応答するのに合わせて表情が変化する顔画像をクライアント装置200に表示させる。この場合も、サーバ装置100から表情パラメータをクライアント装置200に送信し、あらかじめ用意されたターゲット顔画像の表情を表情パラメータによって調整することにより、オペレータの応答に合わせた表情の顔画像を生成して表示させる。
図2は、本実施形態によるサーバ装置100の機能構成例を示すブロック図である。図2に示すように、本実施形態によるサーバ装置100は、機能構成として、対話情報受信部101、対話用音声生成部102、対話用音声送信部103、推定表情パラメータ生成部104、撮影顔画像入力部105、音声入力部106、現出表情パラメータ生成部107、表情パラメータ選択部108、状態判定部109および表情パラメータ送信部110を備えている。
ここで、対話情報受信部101、対話用音声生成部102および対話用音声送信部103により提供される機能は、チャットボット機能であり、公知の技術を適用可能である。また、推定表情パラメータ生成部104、現出表情パラメータ生成部107、表情パラメータ選択部108、状態判定部109および表情パラメータ送信部110は、本発明による顔画像生成用情報提供装置の構成要素に相当する。
上記各機能ブロック101~110は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック101~110は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。特に、機能ブロック104,107~110の機能は、顔画像生成用情報提供プログラムが動作することによって実現される。
図3は、本実施形態によるクライアント装置200の機能構成例を示すブロック図である。図3に示すように、本実施形態によるクライアント装置200は、機能構成として、対話情報送信部201、対話用音声受信部202、音声出力部203、表情パラメータ受信部204、顔画像生成部205および画像出力部206を備えている。顔画像生成部205は、より具体的な機能構成として、表情パラメータ検出部205A、表情パラメータ調整部205Bおよびレンダリング部205Cを備えている。また、クライアント装置200は、記憶媒体として、ターゲット顔画像記憶部210を備えている。
上記各機能ブロック201~206は、ハードウェア、DSP、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック201~206は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
クライアント装置200の対話情報送信部201は、ユーザによりクライアント装置200に入力された対話情報をサーバ装置100に送信する。対話情報は、上述したように、サーバ装置100に対する質問や要求、サーバ装置100からの質問に対する回答、雑談などの自然会話に関する情報であり、情報の形式は、テキスト情報、発話音声情報、トーン信号その他の制御信号などである。
サーバ装置100の対話情報受信部101は、クライアント装置200から送られてきた対話情報を受信する。対話用音声生成部102は、対話情報受信部101にて受信した対話情報に対する応答に用いるための対話用音声を生成する。上述したように、対話用音声生成部102は、所定のルールベースまたは機械学習された解析モデルを用いて、クライアント装置200から送られてきた対話情報を解析し、当該対話情報に対応する応答用のテキスト情報を生成する。そして、対話用音声生成部102は、そのテキスト情報から合成音声を生成し、この合成音声を対話用音声として出力する。以下、このようにサーバ装置100のチャットボット機能を用いて生成される対話用音声を「ボット音声」ということがある。
対話用音声送信部103は、対話用音声生成部102により生成された対話用音声(ボット音声)をクライアント装置200に送信する。クライアント装置200の対話用音声受信部202は、サーバ装置100から送信された対話用音声(ボット音声)を受信する。音声出力部203は、対話用音声受信部202にて受信した対話用音声(ボット音声)を図示しないスピーカから出力する。
サーバ装置100の推定表情パラメータ生成部104は、対話用音声生成部102により生成される対話用音声に基づいて、当該対話用音声から推定される顔の表情を表す推定表情パラメータを生成する。例えば、推定表情パラメータ生成部104は、対話用音声から顔の表情を推定して表情パラメータを出力するようにニューラルネットワークを機械学習した表情推定モデルを設定しておく。そして、推定表情パラメータ生成部104は、対話用音声生成部102により生成された対話用音声をこの表情推定モデルに入力することにより、対話用音声から推定される顔の表情を表す推定表情パラメータを生成する。
推定表情パラメータ生成部104により生成する推定表情パラメータは、例えば、目、鼻、口、眉、頬などの顔の各部位の動きを特定可能な情報である。各部位の動きとは、あるサンプリング時刻tにおける各部位の位置および形状と、次のサンプリング時刻t+1における各部位の位置および形状との変化である。この動きを特定可能な表情パラメータは、例えば、サンプリング時刻ごとの顔の各部位の位置および形状を表す情報であってよい。あるいは、サンプリング時刻間の位置および形状の変化を表すベクトル情報であってもよい。
推定表情パラメータ生成部104は、例えば、対話用音声を音声認識および自然言語解析することによって対話内容を特定し、その対話内容を表す情報を表情推定モデルに入力することにより、対話内容に応じた口の動きを表す推定表情パラメータを生成する。また、推定表情パラメータ生成部104は、対話用音声に対して音響的解析を行うことによって感情を推定し、その感情を表す情報を表情推定モデルに入力することにより、感情に応じた各部位の動きを表す推定表情パラメータを生成する。感情の推定は、対話用音声に対する音響的解析の結果に加えて、対話用音声を音声認識および自然言語解析することによって特定される対話内容も考慮して行うようにしてもよい。
撮影顔画像入力部105は、図示しないカメラによって人間の顔を撮影して得られる撮影顔画像を入力する。本実施形態において人間は、チャットボット(対話用音声生成部102により生成される対話用音声)に代わってクライアント装置200のユーザとの間で対話を行うオペレータである。後述するように、本実施形態では一例として、初期状態ではチャットボットがユーザと対話を行うが、所定の状態になった場合に、オペレータがチャットボットに代わってユーザと対話を行う。撮影顔画像入力部105は、オペレータがユーザと対話を行っているときの撮影顔画像をカメラ(オペレータがいる場所に設置される)より動画像として入力する。
音声入力部106は、オペレータがチャットボットに代わってユーザと対話を行っているときに、図示しないマイク(オペレータがいる場所に設置される)からオペレータの発話音声を入力する。以下、このようにオペレータがクライアント装置200のユーザと対話を行っているときに音声入力部106により入力される対話用音声を「オペレータ音声」ということがある。音声入力部106により入力された対話用音声(オペレータ音声)は、対話用音声送信部103によりクライアント装置200に送信される。
現出表情パラメータ生成部107は、撮影顔画像入力部105により入力された撮影顔画像に基づいて、当該撮影顔画像に現れている顔の表情を表す現出表情パラメータを生成する。特に、現出表情パラメータ生成部107は、音声入力部106によりオペレータの発話音声が入力されているときにおける撮影顔画像を解析することにより、当該撮影顔画像に現れている顔の表情を表す現出表情パラメータを生成する。
例えば、現出表情パラメータ生成部107は、顔画像から顔の各部位の位置および形状を表す表情パラメータを出力するようにニューラルネットワークを機械学習した表情検出モデルを設定しておく。そして、現出表情パラメータ生成部107は、撮影顔画像入力部105により動画像として入力される撮影顔画像をフレームごとにこの表情検出モデルに入力することにより、撮影顔画像から顔の表情を表す表情パラメータをフレームごとに検出する。この場合の表情パラメータは、フレームごとの顔の各部位の位置および形状を表す情報である。
なお、現出表情パラメータ生成部107は、フレームごとの顔の各部位の位置および形状を表す情報を用いて、各部位の位置および形状についてフレーム間の変化を表すベクトル情報を生成し、これを現出表情パラメータとして生成するようにしてもよい。
表情パラメータ選択部108は、推定表情パラメータ生成部104により生成された推定表情パラメータまたは現出表情パラメータ生成部107により生成された現出表情パラメータの何れかを選択する。表情パラメータ選択部108は、一例として、初期状態においてチャットボットがユーザと対話を行っているときは推定表情パラメータを選択し、オペレータがユーザと対話を行っているときは現出表情パラメータを選択する。
チャットボットによる対話からオペレータによる対話への切り替えは、状態判定部109による判定の結果に基づいて行う。状態判定部109は、対話情報受信部101がクライアント装置200から受信する対話情報および対話用音声生成部102により生成される対話用音声の少なくとも一方に関連して所定の状態であるかを判定する。表情パラメータ選択部108は、初期状態では推定表情パラメータを選択しており、状態判定部109により所定の状態であると判定された場合に、推定表情パラメータから現出表情パラメータへと選択を切り替える。
例えば、状態判定部109は、対話情報に対応して対話用音声を生成不可能な状態か否かを判定する。一例として、クライアント装置200から送信される対話情報が、ユーザがマイクを用いてクライアント装置200に入力した発話音声情報である場合において、状態判定部109は、その発話音声を音声認識して意味を解釈可能か否かを判定する。そして、対話用音声を生成可能な状態ではないと状態判定部109により判定された場合に、表情パラメータ選択部108は、推定表情パラメータから現出表情パラメータへと選択を切り替える。
状態判定部109は、例えば次のような場合に、対話用音声を生成できない状態と判定する。
(1)対話情報受信部101により受信された発話音声の音量が小さくて音声認識をすることができない場合。
(2)発話音声の訛りが強くて音声認識をすることができない場合。
(3)音声認識はできるものの、あらかじめ用意された辞書データだけでは発話内容の意味を解釈できない場合。
(4)チャットボットに対してあらかじめ与えられたタスクに関連のない発話内容であるために意味を解釈できない場合。この(4)に関しては、対話情報がテキスト情報として送られている場合にも適用可能な判定条件である。
別の例として、状態判定部109は、対話情報受信部101により受信された対話情報の内容が、対話用音声による応答ではなくオペレータによる応答を求める内容であるか否かを判定するようにしてもよい。表情パラメータ選択部108は、対話情報がオペレータによる応答を求める内容であると状態判定部109により判定された場合に、推定表情パラメータから現出表情パラメータへと選択を切り替える。
更に別の例として、状態判定部109は、対話情報受信部101により受信された対話情報の内容または対話用音声生成部102により生成された対話用音声の内容が、あらかじめ定められた条件を満たすか否かを判定するようにしてもよい。例えば、対話情報の内容に応じて、チャットボットが対応する条件とオペレータが対応する条件とを設定しておき、状態判定部109はどちらの条件を満たすかを判定する。あるいは、対話用音声の内容に応じて、チャットボットが引き続き対応を継続する条件とオペレータの対応に切り替える条件とを設定しておき、状態判定部109はどちらの条件を満たすかを判定する。そして、表情パラメータ選択部108は、オペレータが対応する条件を満たすと状態判定部109により判定された場合に、推定表情パラメータから現出表情パラメータへと選択を切り替える。
状態判定部109は、推定表情パラメータから現出表情パラメータへと選択を切り替えることを表情パラメータ選択部108に指示すると同時に、対話用音声生成部102による処理の停止を対話用音声生成部102に指示するとともに、クライアント装置200に送信する対話用音声をボット音声からオペレータ音声に切り替えることを対話用音声送信部103に指示する。この指示を受けて、対話用音声送信部103は、対話用音声生成部102により生成されるボット音声に代えて、音声入力部106により入力されるオペレータ音声をクライアント装置200に送信する。
なお、クライアント装置200に送信する対話用音声をボット音声からオペレータ音声に切り替える際に、その旨のアナウンス音声を対話用音声送信部103からクライアント装置200に送信するようにしてもよい。また、待機中のオペレータが複数人いる場合は、チャットボットから対話を引き継がせるオペレータを検索して選定し、選定したオペレータに通知を行うようにしてもよい。この場合、通知を受けて了解の操作をしたオペレータが使用する端末に対して、チャットボットによる対話履歴や、チャットボットによる対話中にユーザから収集された情報などを表示させるようにしてもよい。
ユーザとの対話相手をチャットボットからオペレータに切り替えた後は、対話情報受信部101により受信される対話情報をオペレータが認識できるようにする。例えば、対話情報受信部101により受信される対話情報がユーザの発話音声情報の場合は、その発話音声をオペレータ用のスピーカから出力する。また、対話情報がテキスト情報やトーン信号または制御信号の場合は、これらの情報で示される内容をオペレータ用のディスプレイに表示させる。これにより、オペレータは、クライアント装置200から引き続いて送られてくるユーザによる対話情報に対して対話を継続することが可能である。
表情パラメータ送信部110は、表情パラメータ選択部108により選択された推定表情パラメータまたは現出表情パラメータの何れかをクライアント装置200に送信する。ここで、推定表情パラメータは、対話用音声送信部103により送信されるボット音声に基づいて生成されたものである。そこで、表情パラメータ送信部110は、対話用音声送信部103により送信されるボット音声と同期するように(あるいはボット音声と対応付けて)、推定表情パラメータ生成部104により生成された推定表情パラメータをクライアント装置200に送信する。
また、現出表情パラメータは、音声入力部106からオペレータ音声が入力されているときに撮影顔画像入力部105より入力された撮影顔画像から生成されたものである。そこで、表情パラメータ送信部110は、対話用音声送信部103により送信されるオペレータ音声と同期するように(あるいはオペレータ音声と対応付けて)、推定表情パラメータ生成部104により生成された現出表情パラメータをクライアント装置200に送信する。
クライアント装置200の表情パラメータ受信部204は、サーバ装置100から送信された推定表情パラメータまたは現出表情パラメータの何れかを受信する。顔画像生成部205は、ターゲット顔画像記憶部210にあらかじめ記憶されているターゲット顔画像に対して、表情パラメータ受信部204により受信された推定表情パラメータまたは現出表情パラメータの何れかに基づき特定される表情を与えることにより、ボット音声またはオペレータの撮影顔画像に対応した表情の顔画像を生成する。画像出力部206は、顔画像生成部205により生成された顔画像を図示しないディスプレイに表示させる。
ターゲット顔画像記憶部210にあらかじめ記憶されているターゲット顔画像は、例えば、任意の人物の撮影画像である。ターゲット顔画像の表情はどんなものであってもよいが、例えば喜怒哀楽のない無表情の顔画像とすることが可能である。ターゲット顔画像は、ユーザが所望するものを設定できるようにしてもよい。例えば、自分の顔画像、好みの有名人の顔画像、好みの絵画の顔画像などを自由に設定することを可能としてもよい。なお、ここでは撮影画像を用いる例について説明したが、好みのマンガに登場するキャラクタの顔画像、CG画像を用いてもよい。
顔画像生成部205の表情パラメータ検出部205Aは、ターゲット顔画像記憶部210に記憶されているターゲット顔画像を解析することにより、ターゲット顔画像の顔の表情を表す表情パラメータを検出する。例えば、表情パラメータ検出部205Aは、顔画像から顔の各部位の位置および形状を表す表情パラメータを出力するようにニューラルネットワークを機械学習した表情検出モデルを設定しておく。そして、表情パラメータ検出部205Aは、ターゲット顔画像記憶部210に記憶されているターゲット顔画像をこの表情検出モデルに入力することにより、ターゲット顔画像から顔の表情を表す表情パラメータを検出する。
表情パラメータ調整部205Bは、表情パラメータ検出部205Aにより検出されたターゲット顔画像の表情パラメータを、表情パラメータ受信部204により受信された推定表情パラメータまたは現出表情パラメータによって調整する。例えば、表情パラメータ調整部205Bは、ターゲット顔画像における顔の各部位が、推定表情パラメータまたは現出表情パラメータにより示される顔の各部位の動きに応じて変形するように、ターゲット顔画像の表情パラメータに変更を加える。
レンダリング部205Cは、ターゲット顔画像記憶部210に記憶されているターゲット顔画像および表情パラメータ調整部205Bにより調整されたターゲット顔画像の表情パラメータを用いて、ボット音声またはオペレータの撮影顔画像に対応する表情がターゲット顔画像に対して付与された顔画像(すなわち、ターゲット顔画像の表情が、ボット音声から推定された表情またはオペレータの実際の表情に対応する表情に修正された顔画像)を生成する。
レンダリング部205Cは、表情パラメータで示される各部位の位置、形状、大きさを修正するのみならず、当該各部位の修正に合わせてその周辺領域も修正することにより、顔画像の全体が自然な動きとなるようにする。また、ターゲット顔画像が口を閉じた状態のものであるのに対し、表情パラメータに基づいて調整される口が開いた状態になる場合は、口の中の画像を補完して生成する。
図4は、以上のように構成した本実施形態によるサーバ装置100の動作例を示すフローチャートである。図4に示すフローチャートは、サーバ装置100が初期状態として待機中のときに、クライアント装置200から最初の対話情報を受信することをトリガとして開始する。なお、初期状態において、表情パラメータ選択部108は、推定表情パラメータをクライアント装置200に送信することを選択した状態に設定されている。
まず、サーバ装置100の対話情報受信部101は、クライアント装置200からユーザによる対話情報を受信したか否かを判定する(ステップS1)。対話情報を受信していない場合、対話情報受信部101はステップS1の判定を継続する。
一方、対話情報受信部101がクライアント装置200から対話情報を受信した場合、対話用音声生成部102は、当該受信された対話情報に対する応答に用いるための対話用音声(ボット音声)を生成する(ステップS2)。また、推定表情パラメータ生成部104は、対話用音声生成部102により生成されたボット音声に基づいて、当該ボット音声から推定される顔の表情を表す推定表情パラメータを生成する(ステップS3)。
次いで、対話用音声生成部102により生成されたボット音声を対話用音声送信部103がクライアント装置200に送信するとともに(ステップS4)、推定表情パラメータ生成部104により生成された推定表情パラメータを表情パラメータ送信部110がクライアント装置200に送信する(ステップS5)。
その後、状態判定部109は、ユーザによる対話情報およびそれから生成されたボット音声の少なくとも一方に関連して所定の状態であるかを判定する(ステップS6)。ここで、状態判定部109により所定の状態ではないと判定された場合、処理はステップS1に戻る。
一方、状態判定部109により所定の状態であると判定された場合、対話用音声生成部102は状態判定部109からの指示に応じてボット音声の生成処理を停止し(ステップS7)、表情パラメータ選択部108は状態判定部109からの指示に応じて、初期状態で選択していた推定表情パラメータから現出表情パラメータへと選択を切り替える(ステップS8)。
次いで、撮影顔画像入力部105がオペレータの撮影顔画像をカメラより入力するとともに(ステップS9)、音声入力部106がオペレータの発話音声をマイクより入力する(ステップS10)。そして、現出表情パラメータ生成部107は、撮影顔画像入力部105により入力された撮影顔画像に基づいて、当該撮影顔画像に現れている顔の表情を表す現出表情パラメータを生成する(ステップS11)。
そして、音声入力部106により入力されたオペレータ音声を対話用音声送信部103がクライアント装置200に送信するとともに(ステップS12)、現出表情パラメータ生成部107により生成された現出表情パラメータを表情パラメータ送信部110がそれまでの推定表情パラメータに代えてクライアント装置200に送信する(ステップS13)。
このようにオペレータがチャットボットから引き継いでユーザとの対話を行っている間、対話情報受信部101により受信されるユーザによる対話情報はオペレータに提示される。すなわち、対話情報受信部101により受信された対話情報がユーザの発話音声情報の場合はその発話音声がオペレータ用のスピーカから出力され、対話情報がテキスト情報の場合はそれがオペレータ用のディスプレイに表示される。これにより、オペレータは、ユーザによる対話情報に対して対話を継続することが可能である。
上記ステップS13の処理の後、サーバ装置100は、クライアント装置200との対話処理を終了するか否かを判定する(ステップS14)。対話処理を終了する場合とは、例えば、一連の対話処理によって、ユーザが求めるタスクが終了したこと、またはタスクの継続が困難であることなどをユーザまたはオペレータが判断し、ユーザまたはオペレータによって対話処理を終了することが指示された場合である。対話処理を終了することが指示されていない場合、処理はステップS9に戻る。一方、対話処理を終了することが指示された場合、図4に示すフローチャートの処理を終了する。
なお、ここでは、ユーザとチャットボットとの対話からユーザとオペレータとの対話に切り替えられた後、ユーザまたはオペレータの指示によって対話処理を終了する例について説明したが、これに限定されない。例えば、ユーザが求めるタスクが最後まで終了したとき、または、ユーザが求めるタスクの一部が終了したとき(例えば、チャットボットでは対応が困難な部分のタスクがオペレータとの対話で終了した場合など)に、オペレータとの対話からチャットボットの対話に戻すようにしてもよい。
この場合、対話用音声生成部102はボット音声の生成処理を再開し、表情パラメータ選択部108は現出表情パラメータから推定表情パラメータへと選択を切り替える。対話用音声生成部102の処理を再開するに当たり、最初に生成するボット音声をオペレータが指定できるようにしてもよい。一例として、あらかじめ設定されている対話シナリオの中の何れかの段階のボット音声をオペレータが指定するといったことが考えられる。対話用音声生成部102の処理を再開した後に最初に生成するボット音声をオペレータが指定することに代えて、所定のルールに従ってボット音声の内容を対話用音声生成部102が自動的に決定するようにしてもよい。
以上詳しく説明したように、本実施形態では、クライアント装置200のユーザとサーバ装置100のチャットボットとの間で対話が行われているときは、サーバ装置100において、クライアント装置200から送られてくるユーザによる対話情報に応じて生成される対話用音声(ボット音声)に基づいて、当該対話用音声から推定される顔の表情を表す推定表情パラメータを推定表情パラメータ生成部104にて生成してクライアント装置200に送信する。一方、クライアント装置200のユーザとサーバ装置100側のオペレータとの間で対話が行われているときは、サーバ装置100において、オペレータの顔を撮影して得られる撮影顔画像に基づいて、当該撮影顔画像に現れている顔の表情を表す現出表情パラメータを現出表情パラメータ生成部107にて生成してクライアント装置200に送信する。そして、クライアント装置200において、サーバ装置100から送信された表情パラメータに基づき特定される表情をターゲット顔画像に与えることにより、ボット音声またはオペレータの撮影顔画像に対応した表情の顔画像を生成して表示させるようにしている。
以上のように構成した本実施形態によれば、クライアント装置200のユーザとサーバ装置100のチャットボットとの間で対話が行われているか、クライアント装置200のユーザとサーバ装置100側のオペレータとの間で対話が行われているかの状況において、ボット音声またはオペレータの撮影顔画像の何れかに対応するように表情を調整した顔画像をクライアント装置200にて生成することが可能となる。これにより、本実施形態によれば、対話が行われているときの状況に応じて表情を調整した顔画像をクライアント装置200に表示させることができる。このとき、ユーザが選んだ好みのターゲット顔画像について表情を調整した顔画像を生成して表示させることができる。
また、本実施形態では、クライアント装置200のユーザとサーバ装置100側のオペレータとの間で対話が行われているときに、オペレータ音声から推定される顔の表情を表す推定表情パラメータを生成するのではなく、オペレータの顔を撮影して得られる撮影顔画像に基づいて、オペレータの実際の顔の表情を表す現出表情パラメータを生成するようにしている。これにより、ユーザがオペレータとの間で対話を行っているときに、そのときの対話の内容や雰囲気、話者の感情などに応じたよりリアルな表情の顔画像を表示させることができる。
なお、上記実施形態では、ターゲット顔画像をクライアント装置200のターゲット顔画像記憶部210にあらかじめ記憶しておく例について説明したが、本発明はこれに限定されない。例えば、ターゲット顔画像を表情パラメータと共にサーバ装置100からクライアント装置200に送信するようにしてもよい。
また、上記実施形態では、対話の初期状態においてユーザとの対話相手がチャットボットであり、チャットボットからオペレータへの切り替えを行う例について説明したが、本発明はこれに限定されない。例えば、上記実施形態は、対話の初期状態においてユーザとの対話相手がオペレータであり、オペレータからチャットボットへの切り替えを行う場合にも適用可能である。また、チャットボットとオペレータとを交互に切り替えて対話を続ける場合にも適用可能である。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
100 サーバ装置
101 対話情報受信部
102 対話用音声生成部
103 対話用音声送信部
104 推定表情パラメータ生成部
105 撮影顔画像入力部
106 音声入力部
107 現出表情パラメータ生成部
108 表情パラメータ選択部
109 状態判定部
110 表情パラメータ送信部
200 クライアント装置
201 対話情報送信部
202 対話用音声受信部
203 音声出力部
204 表情パラメータ受信部
205 顔画像生成部
205A 表情パラメータ検出部
205B 表情パラメータ調整部
205C レンダリング部
206 画像出力部
210 ターゲット顔画像記憶部

Claims (9)

  1. サーバ装置とクライアント装置とが通信ネットワークを介して接続されて成る顔画像処理システムであって、
    上記サーバ装置は、
    上記クライアント装置から送られてくるユーザによる対話情報に対する応答に用いるための対話用音声を生成する対話用音声生成部と、
    上記対話用音声生成部により生成された対話用音声に基づいて、当該対話用音声から推定される顔の表情を表す推定表情パラメータを生成する推定表情パラメータ生成部と、
    人間の顔を撮影して得られる撮影顔画像を入力する撮影顔画像入力部と、
    上記撮影顔画像入力部により入力された上記撮影顔画像に基づいて、当該撮影顔画像に現れている顔の表情を表す現出表情パラメータを生成する現出表情パラメータ生成部と、
    上記推定表情パラメータ生成部により生成された上記推定表情パラメータまたは上記現出表情パラメータ生成部により生成された上記現出表情パラメータの何れかを選択する表情パラメータ選択部と、
    上記表情パラメータ選択部により選択された上記推定表情パラメータまたは上記現出表情パラメータの何れかを上記クライアント装置に送信する表情パラメータ送信部とを備え、
    上記クライアント装置は、
    上記サーバ装置から送信された上記推定表情パラメータまたは上記現出表情パラメータの何れかを受信する表情パラメータ受信部と、
    上記表情パラメータ受信部により受信された上記推定表情パラメータまたは上記現出表情パラメータの何れかに基づき特定される表情をターゲットの顔画像に対して与えることにより、上記対話用音声または上記撮影顔画像に対応した表情の顔画像を生成する顔画像生成部とを備えた
    ことを特徴とする顔画像処理システム。
  2. 上記サーバ装置は、
    上記対話情報および上記対話用音声の少なくとも一方に関連して所定の状態であるかを判定する状態判定部を更に備え、
    上記表情パラメータ選択部は、上記状態判定部による判定の結果に応じて、上記推定表情パラメータまたは上記現出表情パラメータの何れかを選択する
    ことを特徴とする請求項1に記載の顔画像処理システム。
  3. 上記状態判定部は、上記対話情報に対応して上記対話用音声を生成不可能か否かを判定し、
    上記表情パラメータ選択部は、上記対話情報に対応して上記対話用音声を生成不可能であると上記状態判定部により判定された場合に、上記現出表情パラメータを選択する
    することを特徴とする請求項2に記載の顔画像処理システム。
  4. 上記状態判定部は、上記対話情報の内容が、上記対話用音声による応答ではなく上記人間による応答を求める内容であるか否かを判定し、
    上記表情パラメータ選択部は、上記対話情報の内容が、上記人間による応答を求める内容であると上記状態判定部により判定された場合に、上記現出表情パラメータを選択する
    ことを特徴とする請求項2に記載の顔画像処理システム。
  5. 上記状態判定部は、上記対話情報の内容または上記対話用音声の内容が、あらかじめ定められた条件を満たすか否かを判定し、
    上記表情パラメータ選択部は、上記対話情報の内容または上記対話用音声の内容が、あらかじめ定められた条件を満たすと上記状態判定部により判定された場合に、上記現出表情パラメータを選択する
    することを特徴とする請求項2に記載の顔画像処理システム。
  6. クライアント装置が表情パラメータに基づき特定される表情の顔画像を生成することができるようにするために、顔画像生成用の表情パラメータを上記クライアント装置に提供する顔画像生成用情報提供装置であって、
    コンピュータにより生成される対話用音声に基づいて、当該対話用音声から推定される顔の表情を表す推定表情パラメータを生成する推定表情パラメータ生成部と、
    人間の顔を撮影して得られる撮影顔画像に基づいて、当該撮影顔画像に現れている顔の表情を表す現出表情パラメータを生成する現出表情パラメータ生成部と、
    上記推定表情パラメータ生成部により生成された上記推定表情パラメータまたは上記現出表情パラメータ生成部により生成された上記現出表情パラメータの何れかを選択する表情パラメータ選択部と、
    上記表情パラメータ選択部により選択された上記推定表情パラメータまたは上記現出表情パラメータの何れかを上記クライアント装置に送信する表情パラメータ送信部とを備えた
    ことを特徴とする顔画像生成用情報提供装置。
  7. 上記クライアント装置から送られてくるユーザによる対話情報に対する応答に用いるための上記対話用音声を生成する対話用音声生成部と、
    上記対話情報および上記対話用音声の少なくとも一方に関連して所定の状態であるかを判定する状態判定部とを更に備え、
    上記表情パラメータ選択部は、上記状態判定部による判定の結果に応じて、上記推定表情パラメータまたは上記現出表情パラメータの何れかを選択する
    ことを特徴とする請求項6に記載の顔画像生成用情報提供装置。
  8. クライアント装置が表情パラメータに基づき特定される表情の顔画像を生成することができるようにするために、顔画像生成用の表情パラメータを上記クライアント装置に提供する顔画像生成用情報提供方法であって、
    コンピュータの対話用音声生成部が、上記クライアント装置から送られてくるユーザによる対話情報に対する応答に用いるための対話用音声を生成する第1のステップと、
    上記コンピュータの推定表情パラメータ生成部が、上記対話用音声生成部により生成された対話用音声に基づいて、当該対話用音声から推定される顔の表情を表す推定表情パラメータを生成する第2のステップと、
    上記コンピュータの表情パラメータ送信部が、上記推定表情パラメータ生成部により生成された上記推定表情パラメータを上記クライアント装置に送信する第3のステップと、
    上記コンピュータの状態判定部が、上記対話情報および上記対話用音声の少なくとも一方に関連して所定の状態であるかを判定する第4のステップと、
    上記状態判定部により上記所定の状態であると判定された場合に、上記コンピュータの表情パラメータ選択部が、上記推定表情パラメータから現出表情パラメータへと選択を切り替える第5のステップと、
    上記状態判定部により上記所定の状態であると判定された場合に、上記コンピュータの撮影顔画像入力部が、人間の顔を撮影して得られる撮影顔画像を入力する第6のステップと、
    上記コンピュータの現出表情パラメータ生成部が、上記撮影顔画像入力部により入力された上記撮影顔画像に基づいて、当該撮影顔画像に現れている顔の表情を表す上記現出表情パラメータを生成する第7のステップと、
    上記コンピュータの上記表情パラメータ送信部が、上記推定表情パラメータに代えて上記現出表情パラメータを上記クライアント装置に送信する第8のステップとを有する
    ことを特徴とする顔画像生成用情報提供方法。
  9. クライアント装置が表情パラメータに基づき特定される表情の顔画像を生成することができるようにするために、顔画像生成用の表情パラメータを上記クライアント装置に提供する処理をコンピュータに実行させる顔画像生成用情報提供プログラムであって、
    コンピュータにより生成される対話用音声に基づいて、当該対話用音声から推定される顔の表情を表す推定表情パラメータを生成する推定表情パラメータ生成手段、
    人間の顔を撮影して得られる撮影顔画像に基づいて、当該撮影顔画像に現れている顔の表情を表す現出表情パラメータを生成する現出表情パラメータ生成手段、
    上記推定表情パラメータ生成手段により生成された上記推定表情パラメータまたは上記現出表情パラメータ生成手段により生成された上記現出表情パラメータの何れかを選択する表情パラメータ選択手段、および
    上記表情パラメータ選択手段により選択された上記推定表情パラメータまたは上記現出表情パラメータの何れかを上記クライアント装置に送信する表情パラメータ送信手段
    としてコンピュータを機能させるための顔画像生成用情報提供プログラム。
JP2020181126A 2020-10-29 2020-10-29 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム Active JP7253269B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020181126A JP7253269B2 (ja) 2020-10-29 2020-10-29 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム
US18/250,251 US20230317054A1 (en) 2020-10-29 2020-11-10 Face image processing system, face image generation information providing apparatus, face image generation information providing method, and face image generation information providing program
PCT/JP2020/041819 WO2022091426A1 (ja) 2020-10-29 2020-11-10 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020181126A JP7253269B2 (ja) 2020-10-29 2020-10-29 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム

Publications (2)

Publication Number Publication Date
JP2022071968A JP2022071968A (ja) 2022-05-17
JP7253269B2 true JP7253269B2 (ja) 2023-04-06

Family

ID=81382145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020181126A Active JP7253269B2 (ja) 2020-10-29 2020-10-29 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム

Country Status (3)

Country Link
US (1) US20230317054A1 (ja)
JP (1) JP7253269B2 (ja)
WO (1) WO2022091426A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445933B2 (ja) 2022-06-02 2024-03-08 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209820A (ja) 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2002165194A (ja) 2000-11-28 2002-06-07 Omron Corp 情報提供システム及び方法
JP2020047240A (ja) 2018-09-20 2020-03-26 未來市股▲ふん▼有限公司 インタラクティブ応答方法及びそれを利用するコンピュータ・システム
JP2020113857A (ja) 2019-01-10 2020-07-27 株式会社Zizai キャラクタを使ったライブ通信システム
US20200279553A1 (en) 2019-02-28 2020-09-03 Microsoft Technology Licensing, Llc Linguistic style matching agent

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153581A (ja) * 1991-12-02 1993-06-18 Seiko Epson Corp 顔画像符号化方式
JP2005057431A (ja) * 2003-08-01 2005-03-03 Victor Co Of Japan Ltd テレビ電話端末装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209820A (ja) 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2002165194A (ja) 2000-11-28 2002-06-07 Omron Corp 情報提供システム及び方法
JP2020047240A (ja) 2018-09-20 2020-03-26 未來市股▲ふん▼有限公司 インタラクティブ応答方法及びそれを利用するコンピュータ・システム
JP2020113857A (ja) 2019-01-10 2020-07-27 株式会社Zizai キャラクタを使ったライブ通信システム
US20200279553A1 (en) 2019-02-28 2020-09-03 Microsoft Technology Licensing, Llc Linguistic style matching agent

Also Published As

Publication number Publication date
US20230317054A1 (en) 2023-10-05
WO2022091426A1 (ja) 2022-05-05
JP2022071968A (ja) 2022-05-17

Similar Documents

Publication Publication Date Title
US11894014B2 (en) Audio-visual speech separation
CN111933110B (zh) 视频生成方法、生成模型训练方法、装置、介质及设备
JP6447578B2 (ja) 音声対話装置および音声対話方法
CN110446000B (zh) 一种生成对话人物形象的方法和装置
JP6819672B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018072876A (ja) 感情推定システム、感情推定モデル生成システム
CN111508511A (zh) 实时变声方法及装置
JP6585733B2 (ja) 情報処理装置
CN1922653A (zh) 语音接收设备与视位提取方法和装置
JP7279494B2 (ja) 会議支援装置、および会議支援システム
US20230047858A1 (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program product for video communication
CN110874137A (zh) 一种交互方法以及装置
CN113689879A (zh) 实时驱动虚拟人的方法、装置、电子设备及介质
JP7253269B2 (ja) 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム
JP2003037826A (ja) 代理画像表示装置およびテレビ電話装置
WO2021153101A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2018198791A1 (ja) 信号処理装置および方法、並びにプログラム
JP2006065683A (ja) アバタ通信システム
JP2020067562A (ja) ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法
JP7423490B2 (ja) ユーザの感情に応じたキャラクタの傾聴感を表現する対話プログラム、装置及び方法
JPH10293860A (ja) 音声駆動を用いた人物画像表示方法およびその装置
KR100395491B1 (ko) 아바타 기반 음성 언어 번역 시스템에서의 화상 통신 방법
CN112632262A (zh) 一种对话方法、装置、计算机设备及存储介质
JP2002215180A (ja) 通信装置
KR20220007490A (ko) 가족 관계에 기초하여 음성 데이터를 생성하는 장치, 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230301

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230317

R150 Certificate of patent or registration of utility model

Ref document number: 7253269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150