JP6656447B1 - 動画出力システム - Google Patents

動画出力システム Download PDF

Info

Publication number
JP6656447B1
JP6656447B1 JP2019061491A JP2019061491A JP6656447B1 JP 6656447 B1 JP6656447 B1 JP 6656447B1 JP 2019061491 A JP2019061491 A JP 2019061491A JP 2019061491 A JP2019061491 A JP 2019061491A JP 6656447 B1 JP6656447 B1 JP 6656447B1
Authority
JP
Japan
Prior art keywords
voice
deceased
moving image
sound
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019061491A
Other languages
English (en)
Other versions
JP2020160341A (ja
Inventor
扇間 敬幸
敬幸 扇間
Original Assignee
ダイコク電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイコク電機株式会社 filed Critical ダイコク電機株式会社
Priority to JP2019061491A priority Critical patent/JP6656447B1/ja
Priority to JP2020017514A priority patent/JP6902127B2/ja
Application granted granted Critical
Publication of JP6656447B1 publication Critical patent/JP6656447B1/ja
Publication of JP2020160341A publication Critical patent/JP2020160341A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】情報入手が難しい人物であっても、見る側がより身近に感じられるように表現できる動画出力システムを提供すること。【解決手段】デジタルポートレート1は、人の顔の撮像画像である静止画に画像処理を施して目のまばたきや口の開閉や表情の変化等を伴う動画を生成する動画生成部と、外部マイクで入力された音声を加工して声色を変える音声変換部と、を含んでおり、動画生成部が音声に同期して変化するように生成した動画を音声と共に出力する。【選択図】図1

Description

本発明は、動画出力システムに関する。
身近な人物であれば実際にコミュニケーションをとることが可能である一方、故人や有名人等が対象である場合、実際のコミュニケーションをとることは難しい。例えば下記の特許文献1には、故人や有名人など実際のコミュニケーションが困難な対象人物に関する情報をホームページサーバに登録しておき、人物毎のホームページの閲覧により対象人物に関する情報をインターネット上で閲覧可能とする技術的思想が記載されている。
特開2009−187514号公報
しかしながら、例えば対象人物が故人であれば生前に得た情報しか入手できず、有名人であれば一般に公開されている写真などの汎用的な情報以外は入手が難しいため、ホームページで閲覧可能な情報が限られた情報のみとなり、対象人物を身近に感じることが難しいという問題がある。
本案は上記事情に鑑み、情報入手が難しい人物であっても、見る側がより身近に感じられるように表現できる動画出力システムを提供することを目的とするものである。
本発明の動画出力システムは、集音マイクを介して入力された音声を加工し、声色及び話し方の少なくともいずれかが異なる音声に変換して出力可能である。さらに、この動画出力システムは、年代の異なる同一の人物の顔が撮像された複数の静止画を元にして音声に同期して変化する同一人物の年代別の動画を生成する。この動画出力システムによれば、同一人物の年代別の動画を音声と共出力可能である。
本発明の動画出力システムによれば、入力する音声次第で、多様な意味内容の音声を出力可能である。したがって、この動画出力システムによれば、限られた情報しか入手できない人物であっても、多様な情報を含む音声を動画と共に出力可能である。このように動画と共に音声を出力すれば、見る側にとって、その人物をより身近に感じられるようになる。
このように本発明の動画出力システムは、情報入手が難しい人物であっても、見る側がより身近に感じられるように表現できる優れた特性の動画出力システムである。
実施例1における、デジタルポートレート(動画出力システム)の斜視図。 実施例1における、デジタルポートレートの運用状況の説明図。 実施例1における、デジタルポートレートの電気的構成を示すブロック図。 実施例1における、特徴点抽出処理の説明図。 実施例1における、故人をモデル化する手順を示すフロー図。 実施例1における、話者情報抽出処理の流れを示すフロー図。 実施例1における、動画生成処理、音声変換処理の流れを示すフロー図。 実施例2における、話者情報抽出処理の流れを示すフロー図。 実施例2における、音声変換処理の流れを示すフロー図。 実施例4における、動画出力システムの説明図。 実施例5における、動画出力システムの説明図。 実施例6における、動画生成処理の流れを示すフロー図。 実施例7における、立体表示部の説明図。 実施例7における、立体像を例示する説明図。 実施例7における、他の立体表示部の説明図。 実施例7における、立体像を例示する説明図。 実施例8における、デジタルポートレートを示す図。 実施例8における、立体表示部の構造の説明図。 実施例8における、他のデジタルポートレートを示す図。
本発明の実施の形態につき、以下の実施例を用いて具体的に説明する。
(実施例1)
本例は、音声と共に動画を出力可能なデジタルポートレート1に関する例である。この内容について、図1〜図7を用いて説明する。
動画出力システムの一例をなすデジタルポートレート1は、音声付の動画による故人の遺影として利用される。デジタルポートレート1は、遺影の故人が参列者の問掛けに受け答えする高機能の出力装置として機能する。
デジタルポートレート1(図1)は、漆塗の黒色のフレーム1Fを有し、フレーム1Fの内側に液晶ディスプレイ21(図3参照。)の表示画面210が配置されている。デジタルポートレート1の背面側には、フレーム1Fよりもひと回り小さい筐体13が設けられ、電気的な構成の収容スペースが確保されている。
筐体13(図1及び図2)の外周では、内蔵スピーカ223が左右両側の側面に設けられているほか、電源スイッチ131や、外部端子132〜135などが配設されている。外部端子としては、スピーカ端子134や、マイク端子135や、USB端子133や、外部モニタ端子132などがある。また、フレーム1Fの前面には、内蔵カメラ221、内蔵マイク222が埋設されている。内蔵マイク222は、例えば葬儀の参列者等が個人に問掛ける音声を取得するための集音マイクである。内蔵カメラ221は、故人に向かって問掛ける参列者を撮像するための撮像カメラである。
USB端子133には、USB規格のキーボードやマウスなどを接続可能である。キーボードやマウスを接続すれば、一般的なPCと同様にデジタルポートレート1を操作でき、各種の設定操作が可能である。設定操作の際には、黒塗りのフレーム1Fに囲まれた表示画面210をモニタとして利用することも可能である。さらに、USB端子133には、一般的なUSBメモリ等の外付メモリ39(図3)を装着可能である。USBメモリなどの記憶媒体を利用すれば、動画の元になる故人の静止画の画像データや、故人の音声データや、デジタルポートレート1の機能を高めるためのソフトウェアなどの転送が可能である。
マイク端子135には、外部マイク(集音マイク)31を接続可能である。外部マイク31を利用すれば、バックヤードに控えたオペレータ300が音声を入力可能である。マイク端子135を複数系統設けることも良い。この場合には、参列者が音声を入力するための外部マイクを接続できる。祭壇に飾られた遺影の間近に参列者が近づけない場合であっても、参列者用の外部マイクがあれば、問掛け音声を確実性高く入力できる。
スピーカ端子134には、外部スピーカ32を接続可能である。例えば、参列者の問掛け音声に対応するオペレータ300が控えるバックヤードに外部スピーカ32を設置すると良い。問掛け音声を出力する外部スピーカ32を設定すれば、問掛け音声に対応するオペレータ300が控えるバックヤードの設置自由度が高くなる。
外部モニタ端子132には、汎用のPCモニタを接続可能である。例えば、オペレータ300が控えるバックヤードに外部モニタ33を設置し、内蔵カメラ221による参列者の撮像画像を表示することも良い。参列者を表示する外部モニタ33をバックヤードに設置すれば、オペレータ300が参列者の表情やしぐさを確認しながら、参列者の問掛けに対してより的確に対応できる。また例えば、デジタルポートレート1の設定操作を実施する際、例えばオペレータ300が作業する机上に、キーボード、マウス、外部モニタが揃っていれば、デジタルポートレート1の各種の設定操作や機能の切替操作などをバックヤードから実施できる。また、バックヤードに2台目の外部モニタを設置することも良い。参列者の問掛け音声に対する対応作業と並行して、デジタルポートレート1の設定操作等を実施できる。
なお、外部端子の機能は、全て、Bluetooth(登録商標)やワイヤレスディスプレイなど、無線技術によって代替可能である。無線技術によれば、設定操作や、問掛け音声に応答するオペレータ300が控えるバックヤードの設置自由度を格段に向上できる。オペレータ300が控えるバックヤードを遠隔地に設けることも可能である。例えばインターネットを利用すれば、遠隔地のオペレータ300が問掛け音声に対応可能である。
筐体13には、図3のごとく、動画生成部202や音声変換部204等としての機能を実現するメイン基板2や、液晶ディスプレイ21を制御する表示制御基板211や、ハードディスク(HD)24などの記憶装置や、内蔵スピーカ223や内蔵マイク222のアンプ基板22や、内蔵カメラ221、図示しない電源回路などが収容されている。
メイン基板2は、各種の演算処理を実行するCPU(Central Processing Unit)20、ROM207やRAM208などの記憶素子や、入出力を制御するI/Oコントローラ209などが実装された電子基板である。デジタルポートレート1は、ディスプレイ一体型のPC(Personal Computer)と同様のハードウェア構成を備えている。デジタルポートレート1には、ウィンドウズ(登録商標)やLinux(登録商標)などの汎用OS(Operating System)を組込みしても良く、独自のOSを組込みしても良い。
ハードディスク24は、メイン基板2のCPU20が読み出し可能な記憶領域をなし、故人情報記憶部240としての機能を備えている。故人情報記憶部240は、故人の静止画及び音声データのほか、故人に関わる各種の情報を記憶するための記憶領域をなしている。
CPU20は、ハードディスク24に格納されたソフトウェアプログラムを実行することで、故人の3次元モデルを生成する故人モデル化部201、故人の動画を生成する動画生成部202、故人の声色情報(話者情報の一例)を抽出する話者情報抽出部203、オペレータの返答音声の声色を変換する音声変換部204、音声認識部205等としての各種の機能を実現する。
次に、(1)故人情報記憶部240、(2)故人モデル化部201、(3)動画生成部202、(4)話者情報抽出部203、(5)音声変換部204、(6)音声認識部205の各機能について説明する。
(1)故人情報記憶部(話者情報記憶部)
故人情報記憶部240は、例えば、故人に関わる以下の各情報を記憶している。
(1.1)故人の静止画:予め撮影された故人の静止画。
(1.2)故人の音声データ:予め録音された故人の音声データ。
(1.3)故人の声色情報:故人の声色を特定する声色情報。
(1.4)故人の3次元モデルデータ:故人の静止画に基づく3次元モデル(ワイヤフレームモデル)のデータ。
(1.5)故人の情報:故人の趣味や好物や交友関係や姻戚関係等の情報。故人と交友関係や姻戚関係を有する人物の顔画像や個人情報などを、故人の情報に含めることも良い。なお、故人の情報は、オペレータによる操作に応じて適宜、参照可能に構成しておくと良い。故人の情報があれば、オペレータが参列者の問掛けに対してより的確に対応できる。
(2)故人モデル化部
故人モデル化部201は、顔の特徴点を抽出する特徴点抽出部、3次元モデル生成部により構成されている。
(2.1)特徴点抽出部
特徴点抽出部は、故人の静止画の顔領域について、目、鼻、唇、眉などの特徴点FP(図4参照。)を抽出する特徴点抽出処理(画像処理の一例)を実行する。例えば目については、目頭、目尻、黒目、目の輪郭をなす点などが特徴点FPとして抽出される。例えば口については、口角、上唇の輪郭をなす点、下唇の輪郭をなす点などが特徴点FPとして抽出される。
(2.2)3次元モデル生成部
3次元モデル生成部は、故人の3次元モデルを生成する3次元モデル生成処理を実行する。画像処理の一例をなす3次元モデル生成処理は、標準的な顔(標準顔)の3次元的な形状を表すワイヤフレームモデルである標準3次元モデルを故人に適合するように変形させることで、故人の3次元モデルを生成する処理である。
標準3次元モデルは、例えば、目、鼻、唇、眉などに対応する特徴点が、頂点あるいは交点として規定されたワイヤフレームモデルである。3次元モデル生成処理では、故人の静止画から抽出された特徴点と、標準3次元モデルの特徴点と、の対応付けが行われる。故人に係る特徴点の位置関係に合致するように標準3次元モデルを変形することで、故人の3次元モデルを生成できる。故人の3次元モデルをなすワイヤフレームモデルの各サーフェスには、静止画の対応領域の色やテクスチャーを割り付けると良い。
(3)動画生成部
動画生成部202は、故人の3次元モデルを変形させて動きを生み出す動画生成処理を実行する。この動画生成処理では、3次元モデルをなすワイヤフレームモデルを局所的あるいは全体的に変形させる処理が行われる。例えば、瞼を閉じる動作を実現する際には、目を構成する特徴点などワイヤフレームモデルの頂点あるいは交点を変位させると良い。例えば、口を開く動作を実現する際には、口を構成する特徴点を変位させる処理が行われる。さらに例えば、頷く動作を実現する際には、故人の3次元モデルをなすワイヤフレームモデルの局所的な変形に代えて、軽く前回りさせるようにワイヤフレームモデル全体を回転変位させた後、すぐに元の位置に戻す処理が行われる。さらに、怒りの表情を故人に行わせる際には、眉や目尻を吊り上げるようなワイヤフレームモデルの変形処理が行われる。例えば故人の発話中では、目のまばたきや、口の開閉や、頷きなどを適宜組み合わせることで、故人の自然な発話動作を再現できる。
(4)話者情報抽出部
話者情報抽出部203は、予め録音された故人の音声データから声色情報を分離、抽出する話者情報抽出処理を実行する。音声データに信号処理を施すと、声帯の振動に由来する音源情報と、話者のあごの骨格や口腔形状等が反映された声色情報に分解できる。音源情報は、音の強弱や音程など、音源から発生する音の特性を表す情報である。声色情報は、音源から生じた音が伝達される経路の特性を表す情報である。声色情報は、声質を表す情報であり、声帯の振動が伝わる口腔の形状などが反映される情報である。話者情報抽出部203によって抽出された声色情報は、故人の声色の特徴を表す情報として、故人情報記憶部240としてのハードディスク24に保存される。
(5)音声変換部
音声変換部204は、バックヤードに控えるオペレータの返答音声の声色を変換(加工)する音声変換処理を実行する。音声変換部204は、返答音声の音声データから音源情報を抽出する音源情報抽出部、音源情報に対して故人に係る声色情報を組み合わせる音声合成部、を含んで構成される。
(5.1)音源情報抽出部
音源情報抽出部は、外部マイク31を利用して入力されたオペレータの音声データ(返答音声)から音源情報を分離、抽出する音源情報抽出処理を実行する。この音源情報抽出部は、上記の話者情報抽出部203と構成が似通っている。音源情報抽出部は、音声データを音源情報と声色情報とに分解する点において、話者情報抽出部203と同様の技術的構成を備えている。話者情報抽出部203が声色情報を分離、抽出するのに対して、音源情報抽出部は、音源情報を分離、抽出する点が相違している。
(5.2)音声合成部
音声合成部は、音源情報抽出部によって抽出された音源情報に対して、故人に係る声色情報を組み合わせて新たな音声を生成する音声合成処理を実行する。音声合成部によって合成された音声データは、内蔵スピーカ223から出力される。
(6)音声認識部
音声認識部205は、参列者の問掛け音声及びオペレータの返答音声の意味内容を特定するための音声認識処理を実行する。本例の音声認識部205は、音声の意味内容を厳密に特定するものではなく、穏やかなものか、ユーモラスなものか、シリアスなものか、悲しみを含むものか、等を特定するものである。本例の音声認識処理では、例えば、音韻論で分析される最小の音韻的単位である音素の単位時間当たりの個数(発話速度)、音声の音程や、音声の音量、笑い声の有無、等によって、上記のような意味内容が特定される。
以上のような構成のデジタルポートレート1は、例えば、故人の葬儀が執り行われる祭場において、祭壇の遺影とは別に、故人を偲ぶための遺影として活用される。デジタルポートレート1は、例えば、故人を偲ぶために設けられたスペースの壁面に取り付けられ、参列者は、デジタルポートレート1の故人との対話が可能である。デジタルポートレート1による音声は、バックヤードに控えるオペレータ300(図2参照。)の音声が故人の声色に変換されたものである。参列者にとっては、生前の故人と対話するように感じられ、故人を懐かしむことが可能である。
次に、このようなデジタルポートレート1の運用を可能とするための(a)準備作業、(b)運用について、順番に説明する。
(a)準備作業
デジタルポートレート1を運用する際には、故人の静止画及び音声データを予め、故人情報記憶部240としてのハードディスク24に保存しておく必要がある。例えば、故人の静止画及び音声データを保存したUSBメモリ等の外付メモリ39を利用すれば、静止画等のデータをデジタルポートレート1に容易に転送できる。なお、精度の高い声色情報を抽出するためには、故人の存命中に、所定パターンの会話文を音読させて記録しておくと良い。所定パターンの会話文には、声色情報を精度高く抽出可能な会話のパターンを設定すると良い。
さらに、故人情報記憶部240としてのハードディスク24には、上記の(1.5)故人の情報を保存しておくと良い。故人の情報は、参列者の問掛け音声にオペレータが返答する際の参考情報として有用である。なお、上記の通り、故人情報記憶部240に記憶させる故人に係る情報(静止画、音声データ、故人の情報)は、例えばUSBメモリを利用してデジタルポートレート1に転送可能である。USBメモリ等に代えて、フラッシュROMを内蔵するSDカードを利用することも良い。さらに、デジタルポートレート1がWiFi(登録商標)などの無線通信機能を備えていれば、別体のPC装置から無線でデータ転送することも良い。さらにデジタルポートレート1がWiFi(登録商標)等を介してインターネットに接続可能であれば、インターネットを介してデジタルポートレート1と接続可能な別体のPC装置あるいはサーバ装置からデータ転送することも良い。
デジタルポートレート1を運用可能な状態に設定するためには、ハードディスク24に保存されたスタンバイプログラムによる所定のスタンバイ処理の実行が必要である。このスタンバイ処理は、上記の特徴点抽出処理、3次元モデル生成処理、及び話者情報抽出処理を含む処理である。スタンバイ処理の内容について図5及び図6を参照して説明する。
スタンバイ処理では、図5のごとく、メイン基板2のCPU20が、まず、故人情報記憶部240としてのハードディスク24から故人の静止画の画像データを読み込む(S101)。そして、故人の静止画について特徴点FPを抽出する特徴点抽出処理を実行する(S102、図4参照。)。
メイン基板2のCPU20は、抽出された故人の特徴点FPによって標準3次元モデルを変形する処理を実行し、故人の3次元モデルを生成する(S103、3次元モデル生成処理)。CPU20は、故人情報記憶部240としてのハードディスク24に故人の3次元モデルを書き込む(S104)。これにより、デジタルポートレート1の運用中に、CPU20が故人の3次元モデルを利用可能になる。
さらにスタンバイ処理では、図6のごとく、メイン基板2のCPU20が、故人情報記憶部240としてのハードディスク24から故人の音声データを読み込む(S201)。そして、CPU20は、故人の音声データから声色情報を分離、抽出する話者情報抽出処理を実行する(S202)。CPU20は、故人情報記憶部240としてのハードディスク24に故人の声色情報を書き込む(S203)。これにより、デジタルポートレート1の運用中に、CPU20が故人の声色情報を利用可能になる。
(b)運用
デジタルポートレート1は、所定の運用プログラムの実行によって運用される。デジタルポートレート1の運用中では、故人の動画が表示画面210に表示され、対話も可能である。デジタルポートレート1の故人は、まばたきや、時折、頭を傾けたり、顔の向きを変えるといった動作を行う。特に、会話中の故人は、発話に合わせて口を開閉したり、話の内容に応じて軽く頷くといった様々な動作を行う。
デジタルポートレート1の故人に対面する参列者は、フレーム1Fに埋設された内蔵カメラ221によって撮像されてバックヤードの外部モニタ33に表示される。また、その参列者が故人に問掛けた音声は、フレーム1Fに埋設された内蔵マイク222によって電気信号に変換され、デジタルポートレート1を経由して、バックヤードの外部スピーカ32から出力される。
参列者に応対するオペレータが控えるバックヤードには、上記のごとく、外部スピーカ32のほかに、オペレータの音声を電気信号に変換する外部マイク31や、参列者の撮像画像を表示する外部モニタ33等が設置されている。オペレータは、外部モニタ33に表示された参列者を視認しながら、問掛け音声に対して適宜、返答できる。オペレータによる返答音声は、音声合成により故人の声色に変換されて内蔵スピーカ223から出力される。
上記のようなデジタルポートレート1の動作の流れを、図7のフロー図を参照して説明する。メイン基板2のCPU20は、デジタルポートレート1の運用開始時に、まず、故人情報記憶部240としてのハードディスク24から故人の3次元モデル及び声色情報を読み込む(S301)。
続いてCPU20は、参列者の音声あるいはオペレータの音声の有無、すなわち音声の入力状態であるか否かを判断する(S302)。音声としては、参列者の問掛け音声、問掛け音声に対するオペレータの返答音声、オペレータの挨拶音声等がある。挨拶音声は、定型文の読み上げ音声などである。定型文としては、例えば「本日は、私の葬儀に御列席頂き、まことにありがとうございます。・・・・」等の挨拶文などがある。
いずれかの音声が有る場合には(S302:有)、CPU20は、その音声の音声データの取込を実行する(S303)。CPU20は、音声の発話元がオペレータであるか参列者であるかを判断する(S304)。バックヤードのオペレータが発話元であるとき、CPU20は、音声データに対して上記の音源情報抽出処理を適用して、オペレータの音声から音源情報を分離、抽出する(S304:YES→S305)。そして、CPU20は、オペレータの音声から抽出された音源情報に対して、故人の声色情報を組み合わせる音声合成を実行する(S306)。一方、音声の発話元がオペレータではなく参列者であったとき(S304:NO)、CPU20は、故人の声を音声合成によって再現するための上記のS305、S306の処理を迂回する。
CPU20は、音声の発話元がオペレータであるか参列者であるかに関わらず、上記のS303で取り込みした音声に対して音声認識処理を適用し、音声の意味内容を特定する(S307)。なお上記の通り、このときの音声認識は、音声の意味内容を厳密に特定するものではない。例えば、単位時間当たりの音素の数(発話速度)、音声の音程や、音声の音量、笑い声の有無、等によって、音声の意味内容が、穏やかか、ユーモラスか、シリアスか、悲しみを含むものか、等の意味内容を特定するのみである。
続いてCPU20は、デジタルポートレート1に表示された故人に動きを与えるために、上記のS301で読み込んだ故人の3次元モデルを適宜、変形させる処理を実行する(S308)。上記のごとく、3次元モデルの変形態様としては、目のまばたきや、口の開閉や、頷きや、顔の向きの変更や、顔の表情の変化などがある。
参列者の音声もオペレータの音声も入力されていない場合(S302:無)、故人の動作は、目のまばたき、辺りを見まわすような顔の向きの変更などが主体的になる。参列者の問掛け音声の入力中(S302:有→S304:NO)における故人の動作は、問掛け音声の時間的な間や区切り等に応じた頷き、問掛け音声の意味内容に応じた故人の表情変化などがある。また、オペレータの発話中(S302:有→・・・→S304:YES)における故人の動作は、返答音声の発話に応じた口の開閉や、返答音声の意味内容に応じた表情変化などがある。
例えば、発話に合わせて口を開閉させる際には、例えば、返答音声を構成する音源データの強弱や音源情報の種別(母音か子音か等)に応じて口を開閉させるための変形処理を故人の3次元モデルに適用すると良い。変形処理は、3次元モデルをなすワイヤフレームモデルの頂点あるいは交点の一部または全部を変位させる処理である。例えば、口を開閉させる際には、CPU20は、口の輪郭を形成するワイヤフレームモデルの頂点あるいは交点を適宜、変位させることで、口の開閉動作を実現する。
CPU20は、故人の3次元モデルを正面から見た2次元画像に随時、変換し、表示画面210の故人の画像を更新する。これにより、デジタルポートレート1に故人の動画を表示できる(S309)。オペレータが発話中のとき、CPU20は、故人の動画と同期して、上記のS306で音声合成した故人の音声を内蔵スピーカ223から出力する。故人の音声としては、参列者の問掛け音声に対する返答音声と、定型の挨拶文の読み上げ音声等がある。
以上のように構成されたデジタルポートレート1は、デジタル技術を利用して故人を動画で表示すると共に、故人との対話が可能な高機能の遺影である。このデジタルポートレート1を活用すれば、故人との対話を通じて故人を偲び懐かしむことができる。故人との対話中では、参列者からの問掛けに応じて故人が頷いたり、話の内容に応じて故人の表情が変わることもある。問掛ける側の参列者にとっては、自分の問掛けに応じて故人が反応を示すように感じられ、故人を身近に感じることができる。
さらに参列者は、故人に問掛けたとき、故人の声色で返答を受けることができる。さらに、デジタルポートレート1の故人は、返答する際に口を開閉させたり、返答の内容によって笑ったり怒ったり等、様々な表情を見せる。参列者にとっては、自分の問掛けに応じて故人が生前と同様、誠実に返答してくれるように感じられ、故人に対して親しみを感じることができる。
なお、内蔵カメラ221による撮像画像に画像処理を施し、デジタルポートレート1の前を通り過ぎる参列者や、立ち止まる参列者を検出することも良い。通り過ぎる参列者を目で追うような動きをデジタルポートレート1の故人に行わせることも良く、前を通る参列者に対して会釈する動作を故人に行わせることも良い。
メイン基板2のCPU20の機能として、参列者を特定するための人物特定処理を実行する人物特定部としての機能を追加することも良い。この人物特定部は、例えば、内蔵カメラ221による参列者の撮像画像から顔領域を切り出し、故人に縁のある人物の顔画像等を故人の情報として記憶するハードディスク24の記憶領域を参照することで、参列者を特定する。参列者を特定したとき、メイン基板2のCPU20が、その参列者に関する情報をハードディスク24から読み出してオペレータに提示すると良い。提示方法としては、参列者の撮像画像を表示する外部モニタ33の表示画面の一部を占有する表示窓を設け、参列者に関する情報を表示することも良い。この場合には、バックヤードのオペレータは、参列者の様子を視認すると共に、参列者に関する情報を把握した上で、参列者の問掛けに対して適切に返答できる。参列者と故人との関係や参列者の情報等を把握していれば、問掛け音声に対してオペレータが的確に返答可能である。なお、オペレータの操作に応じて、表示窓の表示内容が外部モニタ33の表示画面に大きく表示されるように切り替えることも良い。参列者を特定できたとき、参列者に関する情報が有る旨をオペレータに報知する手段を設けることも良い。この場合、参列者の情報を求めるオペレータの切替操作に応じて、外部モニタ33の表示画面を参列者に関する情報の表示画面に切り替えると良い。
本例では、予め故人の音声データをハードディスク24等に保存しておき、スタンバイ処理の実行により故人の声色情報(話者情報の一例)を生成してハードディスク24に保存している。これに代えて、故人の音声データを取得したとき、直ちにその声色情報を分離、抽出しておくことも良い。そして、故人情報記憶部240としてのハードディスク24に、故人の声色情報を保存しておくことも良い。
本例では、故人の存命中に所定パターンの会話文を音読させることで音声データを収集する例を説明している。これに代えて、生前の故人が撮影されたビデオ画像等の中から故人の音声データを切り出し、声色情報を抽出することも可能である。あるいは、兄弟や親子など声質の似た親族に所定パターンの会話文を音読させ、声色情報を抽出することも良い。近親者の場合、声質を左右する口腔形状や骨格の形状が似通っていることが多いため、故人の声色情報として利用できる可能性がある。
また、本例では、予め故人の静止画をハードディスク24等に保存しておき、スタンバイ処理の実行により、故人の3次元モデルを生成してハードディスク24に保存する例を説明している。これに代えて、静止画に基づく故人の3次元モデルを予め生成しておき、ハードディスク24に保存しておくことも良い。
本例では、参列者による問掛け音声に対してオペレータが考えて返答する構成を例示している。さらに、オペレータを補助する機能として、参列者の撮像画像を外部モニタ33に表示する機能や、参列者に関する情報や、故人の情報などのテキスト表示を外部モニタ33に表示する機能等を例示している。これに代えて、メイン基板2のCPU20が返答テキストを生成し、外部モニタ33にテキスト表示する構成を採用しても良い。メイン基板2のCPU20が返答のテキストを生成するための構成としては、例えば、問掛け音声の意味内容を音声認識によって特定し、その認識結果に応じて返答例を生成する構成がある。このときの音声認識により特定する意味内容としては、問掛け音声に対する対話が可能なレベルであると良い。対話可能なレベルまで問掛け音声の意味内容を特定できた場合、メイン基板2のCPU20が、ハードディスク24に保存された故人の情報の中から、問掛け音声の意味内容に対応する情報を選択的に取得できる。問掛け音声の意味内容に対応する故人の情報を取得できれば、その情報を反映させた返答例のテキストを生成できる。なお、問掛け音声の意味内容の特定(音声認識)、故人の情報の選択的な取得、故人の情報に基づく返答例のテキスト生成、などの各処理については、例えば機械学習を利用する人工知能的なアプローチを適用できる。人工知能の技術を活用すれば、これらの処理を効率的、かつ精度高く実行できる。
故人の音声データから音声合成に必要な音素を切り出し、故人の音素データとしてハードディスク24に保存しておくことも良い。この場合には、故人の音素データに基づく音声合成により、予め用意された挨拶文等のテキストや、メイン基板2のCPU20が生成した返答のテキスト等を、故人の声色で読み上げできる。オペレータが返答テキストを打ち込み、CPU20がそのテキストを音声合成する態様を採用することも良い。
なお、本例では、参列者の問掛け音声に対して故人が返答するデジタルポートレート1を例示しているが、デジタルポートレート1の故人が返答せず、微笑むだけといったように音声出力しないようにしても良いし、あるいは定型の挨拶を行うだけの態様であっても良い。故人が微笑む表情を行う動作は、周囲の音に反応して実行しても良く、一定時間毎に実行しても良く、前を通過する人の検出を契機として実行しても良く、参列者の問掛け音声の入力を契機として実行しても良い。
本例は、デジタルポートレート1を遺影として利用する例である。動画出力システム1Sの一例であるデジタルポートレート1は、遺影のほか、芸能人や文化人などの有名人のポートレートや、会社や店の経営者のポートレートや、デパートや会社の受付嬢のポートレート等として幅広く活用できる。例えば、会社等の受付嬢のポートレートとして活用する場合であれば、インターネットを利用してバックヤードを遠隔地に設け、一人のオペレータが複数の会社の受付業務を兼業することも可能である。
本例では、音声に合わせた動画を生成する構成を例示したが、例えば笑った表情や悲しい表情等の表情のパターンを指定することで、その指定された表情のパターンにて動画生成しても良く、この場合、音声に合わせて指定された表情での動画としても良い。
また、本例では、例えば遺影への適用において、遺影となる1枚の静止画に基づいて動画を生成する構成を例示している。この場合、遺影となる静止画としては、故人に対する親しみを感じられるよう、亡くなるよりも少し前の故人の撮像画像が選ばれることが多い。亡くなるよりも少し前の故人の静止画に基づく動画生成に加えて、例えば、故人の10代の頃の静止画や、20代の頃の静止画や、30代の頃の静止画などに基づき、若い年代の頃の故人の動画を生成することも良い。この場合には、遺影だけでなく故人の人生を年代別に顧みたり、思い出深い年代における故人を偲んだりすることが可能となる。このような運用は、遺影だけでなく、上述した有名人のような他のポートレートを対象とした運用においても有用である。
(実施例2)
本例は、実施例1のデジタルポートレートに基づいて、故人の話し方を話者情報に含めた例である。本例の構成のうち、故人の音声データから話者情報を抽出する話者情報抽出部、及びオペレータの音声を変換する音声変換部の構成が実施例1とは相違している。本例の内容について、図8及び図9を参照して説明する。図8は、話者情報抽出部による処理の流れを示すフロー図である。図9は、音声変換部による処理の流れを示すフロー図である。
実施例1では、故人の話者情報として、故人の声色を特定可能な声色情報を例示している。これに対して、本例は、声色情報に加えて、故人の話し方を特定可能な話し方情報を話者情報に含める構成例である。本例の話し方情報は、標準語を含めて秋田弁や熊本弁や名古屋弁などの話し方の種別情報である。
次に、図8を参照して話者情報抽出部が話者情報を抽出する手順を説明する。話者情報抽出部は、まず、所定パターンの会話文の音読による故人の音声データを読み込む(S401)。そして、故人の音声データに話者情報抽出処理を適用することで、声色情報、話し方情報を抽出する(S402)。
話者情報抽出部は、音声データを音素に分解して音声認識処理を施すことで、音声をテキスト化する。そして、特定の単語をなす音素列や、特定の文節をなす音素列を切り出し、そのイントネーションから方言の種別を特定する。例えば、地名である「なごや」に対応する音素列について、1文字目の「な」にアクセントがあったり、「あんたぁなにいっとるの」の音素列のなかで3文字目の「た」と最後から3文字目の「と」にアクセントがある等の音声データについては、名古屋弁に分類できる。
話者情報抽出部は、実施例1と同様、声色情報及び話し方情報を、話者情報としてハードディスクに書き込む(S403)。例えば、名古屋弁に分類された音声データについては、声色情報に加えて、名古屋弁を表す話し方の種別情報を含む話者情報がハードディスクに保存される。
次に、図9を参照して本例の音声変換部が音声を変換する手順を説明する。音声変換部は、実施例1と同様、まず、オペレータの音声を取り込み(S501)、音源情報を分離、抽出する(S502)。そして、抽出された音源情報に対して、故人の声色情報を組み合わせる音声合成を実行すると共に(S503)、話し方の変換処理を実行する(S504)。
なお、S504の話し方の変換処理では、オペレータの音声を音素に分解して音声認識処理を施すことで、音声をテキスト化する。そして、特定の単語や特定の文節等が現れたとき、その単語に所定パターンのイントネーションを割り当てる。例えば、「あんた、なにいってるの」という文節に対しては、3文字目の「た」と、最後から3文字目の「て」にアクセントを付けると良い。さらに、「た」を「たぁ」と音を伸ばすと共に、「て」の発音を(te)から(to)に近づけるように変更すると、名古屋弁らしくなる。なお、イントネーションを変更する対象の上記の特定の単語あるいは文節は、話し方情報が表す話し方の種別(方言の種類)に応じて異なる。話し方の種別によって、特徴ある単語や文節が相違するからである。
本例のデジタルポートレート(動画出力システム)は、オペレータの音声の声色を変換すると共に話し方も変換する。このデジタルポートレートによれば、出力する音声を故人の音声により近づけることで、生前の故人の再現性を向上できる。
なお、話者情報として、故人の話し方のうちの特徴あるイントネーションのパターンを音声データから抽出しておき、話者情報としてハードディスクに保存しておくことも良い。さらに、イントネーションのパターンには、テキストを対応付けておくと良い。音声変換部は、オペレータの音声を処理して得られたテキストを元にして、音声合成によりオペレータの音声を故人の音声に変換すると良い。テキストのうち、イントネーションのパターンに該当しない部分については、標準語に近いイントネーションを割り当てると良い。一方、イントネーションのパターンに係るテキストに該当する部分については、話者情報をなすイントネーションのパターンを割り当てると良い。
なお、その他の構成及び作用効果については実施例1と同様である。
(実施例3)
本例は、実施例1のデジタルポートレート(動画出力システム)に基づいて、バックヤードのオペレータを必要としない構成例である。
本例の構成では、デジタルポートレートのハードディスクが、音声パターンを記憶する音声パターン記憶部としての機能を備えている。音声パターン記憶部としてのハードディスクには、故人が自発的に発話するパターン(自発パターン)や、問掛けに対する返答パターンなどの音声パターンが記録されている。デジタルポートレートは、音声パターンの音源情報に対して故人の声色情報を組み合わせる(加工)ことで、故人の音声を生成する。なお、音声パターンは、予め録音されたアナウンサーなどの音声でも良く、音声から分離、抽出された音源情報であっても良い。
自発パターンとしては、例えば、「おはようございます。」、「ようこそお越し頂きました。」等の挨拶のパターンなどがある。自発パターンに基づく故人の音声は、所定の時刻になったときなどに出力しても良く、デジタルポートレートの前を誰かが横切ったときに出力しても良い。誰かが前を横切ったときの挨拶のパターンは、朝であれば「おはようございます。」、昼であれば「こんにちは。」等、時間帯に応じて変えると良い。デジタルポートレートは、選択された自発パターンの音源情報に対して、故人の声色情報を組み合わせることで故人の音声を生成し、出力する。
返答パターンとしては、参列者との間で想定される問答に対応するパターンが用意される。デジタルポートレートは、参列者の問掛け音声の意味内容を特定し(音声認識処理)、対応する返答パターンを選択する。そして、返答パターンの音源情報に対して故人の声色情報を組み合わせることで返答パターンの故人の返答音声を生成し、出力する。
本例のデジタルポートレートでは、オペレータが音声を入力しなくても、故人の声による発話、対話が可能である。
なお、自発パターンや返答パターンは、テキストであっても良い。故人の声色情報を利用し、故人の声色でテキストを読み上げることで故人の音声を生成できる。
自発パターンや返答パターンに係る故人の音声は、発話する際に音声合成等により生成しても良いが、各パターンを予め故人の音声に変換しておき、音声パターン記憶部としてのハードディスクに保存しておくことも良い。この場合には、各パターンが必要になったとき、ハードディスクから読み出して直ちに出力可能できる。故人の音声への変換処理は、デジタルポートレート本体で行っても良いが、別体のPC装置で変換した音声をデジタルポートレートに転送しても良い。音声の転送は、例えばUSBメモリなどの記録媒体を利用しても良く、WiFi(登録商標)等の無線通信を利用して転送しても良い。インターネットを経由して遠隔地のサーバ装置等から故人の音声をデジタルポートレートに転送しても良い。
なお、その他の構成及び作用効果については実施例1と同様である。
(実施例4)
本例は、実施例1に基づいて、別体のPC装置100にて生成された動画をデジタルポートレート1が表示するように構成された動画出力システム1Sの例である。本例の内容について、図10を参照して説明する。
本例のデジタルポートレート1は、業者が利用者に提供して運用されるレンタル機器である。デジタルポートレート1の利用者は、故人の静止画等を保存したUSBメモリ391等を一旦、業者に送るか引き渡すと、別体のPC装置100で生成された動画等が保存されたUSBメモリ391の返却を受けることができる。USBメモリ391を利用してやり取りする情報には、動画に加えて、音声を含めても良い。
デジタルポートレート1を利用するに当たって、利用者は、デジタルポートレート1のUSB端子に、業者から返却されたUSBメモリ391を装着するだけで良い。USBメモリ391に保存された動画等は、出力装置としてのデジタルポートレート1のCPUによって自動的に読み出され、出力可能な状態になる。
業者が予め用意する動画としては、目のまばたきのパターン、口の開閉パターン、微笑みのパターン、頷きのパターンなど、各種の動作パターンがある。デジタルポートレート1は、問掛け音声や、故人が発話する音声等の内容や、周囲の状況に応じて、動作パターンを組み合わせることで、故人を動画で表示する。
本例は、デジタルポートレート1と別体のPC装置100との組み合わせにより動画出力システム1Sを構成した例である。本例の構成では、故人の静止画から3次元モデルを生成する故人モデル化部、故人の動画を生成する動画生成部などの機能を、外部のPC装置100に持たせている。本例の動画出力システム1Sでは、デジタルポートレート1の処理負担を軽減でき、製品コストを低減できる。
なお、本例の構成では、デジタルポートレート1、及び外部のPC装置100の双方が、データのやり取りを実現するための構成を備えている必要がある。USBメモリ391等の記録媒体を利用してデータをやり取りする場合であれば、双方がUSBメモリ等の記録媒体から直接的あるいは間接的にデータを読み取るための構成が必要である。
本例では、静止画や動画等のデータの記録媒体としてUSBメモリ391を例示しているが、記録媒体はUSBメモリ391に限定されず、SDカード、CD−Rなど様々な記録媒体を利用できる。
利用者から業者への静止画等のデータ供給、及び業者から利用者への動画等のデータ供給のうちの少なくともいずれか一方については、USBメモリ391等の記録媒体を利用する態様に代えて、インターネットを利用する通信による態様により実現することも良い。
デジタルポートレート1がWiFiあるいは有線LAN等の通信機能を備えており、インターネットに接続された状態であっても良い。この場合には、静止画あるいは音声のデータを保存するUSBメモリ391がUSB端子に装着されたとき、静止画等を自動的に読み出し、インターネット経由で業者が運用する専用サイトに静止画等のデータを送信すると良い。専用サイトにて、静止画に基づく動画等を生成して、送信元のデジタルポートレート1に返信するように構成すると良い。デジタルポートレート1では、専用サイトから受信した動画や音声を出力できる。この場合には、故人の静止画や故人の音声データを保存するUSBメモリ391をUSB端子に装着するだけで、デジタルポートレート1が故人の動画や音声を出力できるようになる。
なお、静止画に基づいて動画を生成するアプリケーションソフト、あるいはそのアプリケーションソフトがインストールされたPC装置を、販売、貸与等により利用者に提供することも良い。この場合には、デジタルポートレート1の利用者が、自分のPC装置あるいは提供を受けたPC装置を利用して動画等を生成できる。生成した動画は、デジタルポートレート1にて出力可能である。
なお、本例では、各種の動画パターンを保存したUSBメモリ391を利用者に返却しているが、動画生成に必要な故人の3次元モデルを保存したUSBメモリを利用者に返却することも良い。この場合には、デジタルポートレート1側で3次元モデルを適宜、変形させる処理を実行することで、故人の動画を生成できる。
なお、その他の構成及び作用効果については実施例1と同様である。
(実施例5)
本例は、実施例1のデジタルポートレートに基づいて、インターネット101を介在してデジタルポートレート1を運用する動画出力システム1Sの例である。この内容について、図11を参照して説明する。
本例の動画出力システム1Sでは、故人の動画や音声を出力する出力装置であるデジタルポートレート1と、動画や音声を生成するサーバ装置100と、が別の場所に設置され、両者がインターネット101を介して通信可能に接続されている。オペレータ300は、サーバ装置100と通信可能に接続されたPC装置(図示略)を利用して、参列者の問掛け音声に対する返答が可能である。
なお、オペレータ300のPC装置は、サーバ装置100とは別の場所に設置することも良い。インターネット101を利用すれば、サーバ装置100とPC装置との間でのデータ通信が可能になる。オペレータ300のPC装置を省略し、サーバ装置100に外部マイク31や外部モニタ33や外部スピーカ32等を設けることも良い。
動画出力システム1Sでは、デジタルポートレート1にサーバ装置100が管理する専用サイトが登録されている。デジタルポートレート1は、例えばUSBメモリ391等の記録媒体から故人の静止画や、故人の音声データや、故人の情報等を読み込むと、上記の専用サイトに自動的にアクセスするアクセス手段を備えている。サーバ装置100が管理する専用サイトへの自動アクセスに応じて、USBメモリ391等の記録媒体に保存された故人の静止画や、故人の音声データや、故人の情報等が、サーバ装置100にアップロードされる。
また、参列者がデジタルポートレート1の故人に問い掛けると、その問掛け音声や、参列者の撮像画像等がサーバ装置100にアップロードされ、オペレータ300のPC装置に転送される。また、オペレータの音声は、サーバ装置100に送信され、故人の音声に変換された上でデジタルポートレート1に送信される。デジタルポートレート1は、このようにサーバ装置100から受信した音声や動画を出力する。本例の動画出力システム1Sにおけるデジタルポートレート1は、参列者の問掛け音声や撮像画像をアップロードし、インターネット101を介して受信する動画や故人の音声等を出力するのみの端末となる。
サーバ装置100は、故人情報記憶部、故人モデル化部、動画生成部、話者情報抽出部、音声変換部、音声認識部、としての機能を備えている。サーバ装置100は、参列者の問掛け音声の意味内容の特定、故人の3次元モデルの生成、故人の動画生成、オペレータの返答音声の変換等の処理を実行する。特に、故人の動画の生成に当たっては、音声の意味内容に応じた動作あるいは表情を実現できるように故人の動画を生成する。
本例の構成では、例えば、故人の静止画や音声や情報を保存したUSBメモリ391等の記録媒体をデジタルポートレート1に装着したとき、インターネット経由で故人の静止画等がサーバ装置に送信されると良い。この構成では、USB端子、USBメモリからデータを読み取るCPU等が、故人の静止画を取得するための静止画取得部を構成している。この静止画取得部によって取得された静止画等は、デジタルポートレート1の識別情報を対応付けて、動画生成部としてのサーバ装置100にアップロードすると良い。サーバ装置100側では、動画生成部が生成する動画に対して、元データである静止画に係る識別情報を対応付けると良い。出力装置であるデジタルポートレート1の識別情報が動画に対応付けされていれば、対応するデジタルポートレート1に確実に動画を送信できる。
なお、デジタルポートレート1から故人の静止画等が自動的あるい半自動的にサーバ装置100にアップロードされる構成に代えて、デジタルポートレート1の操作によりサーバ装置が管理する専用サイトにアクセスし、故人の静止画や音声をアップロードする構成を採用しても良い。故人の静止画等のアップロードの際、対応するデジタルポートレート1の識別情報を対応付けると良い。
なお、その他の構成及び作用効果については実施例1と同様である。
(実施例6)
本例は、実施例1を元にして、動画の生成方法を変更した構成例である。この内容について、図12を参照して説明する。
本例の動画出力システムをなすデジタルポートレートには、バックヤードのオペレータを撮像する外部カメラが接続されている。デジタルポートレートは、オペレータの撮像画像を利用して、故人の動画を生成する構成を備えている。
本例のデジタルポートレートが動画を生成する動作について、図12のフロー図を参照して説明する。同図は、故人の3次元データを読み込み済みであることを前提とした処理の流れを説明するためのフロー図である。ここでは、デジタルポートレートが備えるメイン基板のCPU(図3中の符号20)を主体として処理の内容を説明する。
メイン基板のCPUは、バックヤードのオペレータの撮像画像を取り込み(S601)、撮像画像から顔領域の切り出しを実行する(S602)。そして、CPUは、オペレータの顔の特徴点を抽出し(S603)、故人の特徴点と、の対応付けを実行する(S604)。特徴点の対応付けは、例えば、オペレータの口元と故人の口元との対応付け、オペレータの目と故人の目との対応付け等、対応する部位の特徴点が対応付けられる。
このような特徴点の対応付けがなされた状態で、CPUは、オペレータの撮像画像(動画)について、特徴点の動きを検出する(S605)。そしてCPUは、オペレータに係る各特徴点の動きの情報に基づき、故人に係る各特徴点に同様の動きが生じるように故人の3次元モデルを変形させる(S606)。そして、この3次元モデルに基づく動画を表示する(S607)。
本例の構成によれば、オペレータと同様の表情および動作を、デジタルポートレートの中の故人に行わせることが可能である。例えば、参列者との会話中にオペレータが微笑めば、デジタルポートレートの故人も微笑むことになる。また、例えば、参列者との会話中にオペレータが頷けば、デジタルポートレートの故人が同様に頷くことになる。
なお、その他の構成及び作用効果については実施例1と同様である。
(実施例7)
本例は、実施例1のデジタルポートレートに基づいて、動画の立体表示を可能とした構成例である。この内容について、図13〜図16を参照して説明する。
本例は、故人を立体的に表示するための立体表示部5が組み込まれたデジタルポートレートの例である。
立体表示部5(図13)は、ハーフミラー50を利用して故人511を立体的に表示させるように構成されている。さらに、この立体表示部5では、立体的に表示された故人511と重ねて像531が表示される。
立体表示部5は、参列者等の観者に対面して配設される透明なガラスパネル500の内側に、ハーフミラー50が斜めに配設された空間を有している。この空間の底面には、ハーフミラー50に対して斜めに対面するように液晶ディスプレイ51が配設されている。観者の視線は、ハーフミラー50によって曲げられて液晶ディスプレイ51に向かう。
ハーフミラー50を介して観者と対面する空間の奥側の壁面53には、各種の像531が描かれている。本例では、仏様の背景に描かれることが多い蓮、鳥などの像531が壁面53に描かれている。観者は、ハーフミラー50を透して像531を見込むことが可能である。
本例の立体表示部5では、ガラスパネル500の内側を見込む観者の視線の一部がハーフミラー50によって曲げられ、空間の底面に沿うように配設された液晶ディスプレイ51の故人511に向かう。一方、観者の視線の一部は、ハーフミラー50を通過して壁面53に向かっている。このとき、ガラスパネル500に対面している観者の目には、故人の立体像511Aと像531とが重なって視認される(図14)。
壁面53の奥行き方向の位置を調整することで、図14のように観者に視認される像に奥行感を持たせることも可能である。例えば、壁面53を奥側に移動させれば、像531に対して故人511が飛び出しているように観者に感じさせることができる。
空間の底面に配設される液晶ディスプレイ51に代えて、液晶プロジェクターと映像を映し出すスクリーンとの組み合わせを採用することもできる。この場合、液晶ディスプレイ51に代えてスクリーンを配置すると共に、スクリーンと対面する空間の天井に液晶プロジェクターを配設すれば良い。
本例では、壁面53として、像531を描いた壁面を例示しているが、これに代えて、液晶ディスプレイを壁面に設けることも良い。液晶ディスプレイを壁面に設ければ、故人の立体像511Aの背景の像の変更表示が可能である。
本例に代えて、図15の立体表示部5を採用しても良い。同図の立体表示部5では、ハーフミラー50の斜めの角度が変更されており、故人511を表示する液晶ディスプレイ51が空間の天井に沿って配設されている。また、観者と対面する壁面には、表示パネル53が配設されている。同図の表示パネル53は、光源となるLEDがちりばめて配置された光源パネルである。この表示パネル53では、一部または全部のLEDを選択的に点灯できる。
さらに、図15の立体表示部5では、ハーフミラー50が配設された空間が奥行き方向に延長されている。この立体表示部5では、故人511の立体像511Aの背面側に光源となるLEDが位置している。それ故、この立体表示部5では、故人511の立体像511Aが、表示パネル53の手前側に結像する。
図15の立体表示部5では、観者が、背面側に光源であるLED538が位置する状態で、故人511の立体像511Aを視認できる(図16)。観者側から見て、立体像511Aよりも離れた位置で点灯するLED538は、立体像511Aに一層の奥行感を与えるという効果を生じさせる。例えば、図16のLED538を結ぶ多角形状の相似形を維持したまま、多角形状の大きさが次第に小さくなるように点灯状態のLEDを切り替えることも良い。この場合には、背景が遠ざかるのに相対して、立体像511Aが手前側にせり出すように観者に感じさせることができる。なお、LED538をちりばめた表示パネル53に代えて、液晶ディスプレイを採用することも良い。
なお、その他の構成及び作用効果については実施例1と同様である。
(実施例8)
本例は、実施例7のデジタルポートレートに基づいて、故人の全身表示の動画を立体的に表示可能に構成した例である。この内容について、図17及び図18を参照して説明する。本例のデジタルポートレート1は、図17のように故人の全身表示が可能であるうえ、故人を立体的に表示可能である。
デジタルポートレート1が備える立体表示部5の構造について、図17中のA−A矢視断面の構造を示す図18の断面図を参照して説明する。立体表示部5は、参列者等の観者に対面して配設される透明なガラスパネル500の内側に、ハーフミラー50が斜めに配設された空間を有している。この空間の側面には、ハーフミラー50に対して斜めに対面するように故人511の全身を動画表示する液晶ディスプレイ51が配設されている。
この立体表示部5によれば、ハーフミラー50の裏側に結像する立体像511Aを観者に視認させることができる。このデジタルポートレート1は、例えば、葬儀会場のエントランス等への設置に好適である。
本例に代えて、透明スクリーン52と、下方から斜め上方に向けて透明スクリーン52に像を投影するプロジェクタ521と、を備える図19のデジタルポートレート1を採用することも良い。このデジタルポートレート1では、透明スクリーン52に、故人の像521Aを結像できる。観者にとっては、故人の像521Aが空間に浮かぶ立体像として視認できる。
なお、その他の構成及び作用効果については実施例7と同様である。
以上、実施例のごとく本発明の具体例を詳細に説明したが、これらの具体例は、特許請求の範囲に包含される技術の一例を開示しているにすぎない。言うまでもなく、具体例の構成や数値等によって、特許請求の範囲が限定的に解釈されるべきではない。特許請求の範囲は、公知技術や当業者の知識等を利用して前記具体例を多様に変形、変更あるいは適宜組み合わせた技術を包含している。
1 デジタルポートレート(出力装置)
1S 動画出力システム
13 筐体
133 USB端子
201 故人モデル化部
202 動画生成部
203 話者情報抽出部
204 音声変換部
205 音声認識部
21 液晶ディスプレイ
210 表示画面
221 内蔵カメラ
222 内蔵マイク
223 内蔵スピーカ
24 ハードディスク(HD)
240 故人情報記憶部
300 オペレータ
31 外部マイク(集音マイク)
32 外部スピーカ
33 外部モニタ
39 外付メモリ
391 USBメモリ
5 立体表示部
50 ハーフミラー
511A、521A 立体像

Claims (5)

  1. 音を電気信号に変換する集音マイクを介して入力された音声を加工し、声色及び話し方のうちの少なくともいずれかが異なる音声に変換する音声変換部と、
    年代の異なる同一の人物の顔が撮像された複数の静止画に対して画像処理を施すことにより、顔の表情の変化、目のまばたき、口の動き、及び顔の向きの変化のうちの少なくともいずれかを含む動画を年代別に生成する動画生成部と、
    前記動画生成部により生成された動画、及び前記音声変換部により変換された音声を出力する出力装置と、を含み、
    前記動画生成部は、前記出力装置によって出力される音声に同期して変化する動画であって、同一人物の年代別の動画を生成する動画出力システム。
  2. 音声の意味内容を特定する音声認識部を含み、
    前記動画生成部は、集音マイクを介して問掛け音声入力された場合に、前記音声変換部により変換された音声に同期して変化させることで返答する第1の動画と、前記音声認識部により特定される当該問掛け音声の意味内容に応じた表情変化により反応する第2の動画と、を生成可能であるように構成されている請求項1に記載の動画出力システム。
  3. 前記動画生成部は、予め設けられる複数の表情のパターンの内から指定された表情のパターンで前記出力装置によって出力される音声に同期して変化する動画を生成するように構成されている請求項1又は2に記載の動画出力システム。
  4. 前記動画生成部による動画の生成対象となる人物の趣味、好物、交友関係、或いは姻戚関係を示す個人情報を記憶する情報記憶部を含み、
    前記出力装置は、前記音声変換部の変換対象となる音声を入力するオペレータに対して前記個人情報を提示するように構成されている請求項1〜3のいずれか1項に記載の動画出力システム。
  5. 前記静止画における顔の特徴点を抽出する特徴点抽出部を含み、
    前記動画生成部は、前記特徴点抽出部により抽出された特徴点を変位させることで、前記音声変換部により変換された音声に同期して変化する動画を生成するように構成されている請求項1〜4のいずれか1項に記載の動画出力システム。
JP2019061491A 2019-03-27 2019-03-27 動画出力システム Expired - Fee Related JP6656447B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019061491A JP6656447B1 (ja) 2019-03-27 2019-03-27 動画出力システム
JP2020017514A JP6902127B2 (ja) 2019-03-27 2020-02-04 動画出力システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019061491A JP6656447B1 (ja) 2019-03-27 2019-03-27 動画出力システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020017514A Division JP6902127B2 (ja) 2019-03-27 2020-02-04 動画出力システム

Publications (2)

Publication Number Publication Date
JP6656447B1 true JP6656447B1 (ja) 2020-03-04
JP2020160341A JP2020160341A (ja) 2020-10-01

Family

ID=69997862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019061491A Expired - Fee Related JP6656447B1 (ja) 2019-03-27 2019-03-27 動画出力システム

Country Status (1)

Country Link
JP (1) JP6656447B1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723898A (zh) * 2020-05-25 2020-09-29 成都时空穿梭智能科技有限公司 一种模拟人类的智能机器人
CN111857343A (zh) * 2020-07-21 2020-10-30 潘晓明 一种能部分实现数字永生并可与用户交互的系统
CN112367526A (zh) * 2020-10-26 2021-02-12 联想(北京)有限公司 视频生成方法、装置、电子设备及存储介质
CN113035198A (zh) * 2021-02-26 2021-06-25 北京百度网讯科技有限公司 三维人脸的唇动控制方法、设备和介质
JP7024027B1 (ja) 2020-09-11 2022-02-22 株式会社セガトイズ 動画作成装置、動画作成システム及び動画作成プログラム
CN115700873A (zh) * 2022-07-01 2023-02-07 南京硅基智能科技有限公司 一种智能人物复刻终端

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112286366B (zh) 2020-12-30 2022-02-22 北京百度网讯科技有限公司 用于人机交互的方法、装置、设备和介质
JP7339615B2 (ja) * 2021-01-12 2023-09-06 智久 末重 対話システム
CN113450759A (zh) * 2021-06-22 2021-09-28 北京百度网讯科技有限公司 语音生成方法、装置、电子设备以及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179576A (ja) * 1995-12-21 1997-07-11 Toshiba Corp 音声合成方法
JP3884851B2 (ja) * 1998-01-28 2007-02-21 ユニデン株式会社 通信システムおよびこれに用いられる無線通信端末装置
JP2005051554A (ja) * 2003-07-29 2005-02-24 Mitsubishi Electric Corp 応答コールセンターシステムの顧客端末及びオペレータ端末
JP2006053403A (ja) * 2004-08-12 2006-02-23 Sony Corp 立体画像表示装置、光反射装置及び立体画像表示方法
JP4508917B2 (ja) * 2005-03-24 2010-07-21 株式会社ケンウッド 情報呈示装置、情報呈示方法、および、情報呈示用プログラム
JP4343201B2 (ja) * 2006-08-25 2009-10-14 富士通株式会社 キャラクタインタフェースシステム
JP2008085421A (ja) * 2006-09-26 2008-04-10 Asahi Kasei Corp テレビ電話機、通話方法、プログラム、声質変換・画像編集サービス提供システム、および、サーバ
JP2009038708A (ja) * 2007-08-03 2009-02-19 Kddi Corp 故人情報管理システム
JP2010141447A (ja) * 2008-12-10 2010-06-24 Casio Computer Co Ltd カメラ付携帯情報端末
JP2010171573A (ja) * 2009-01-21 2010-08-05 Epson Imaging Devices Corp 3次元画像表示・撮像装置、通信システム、および表示装置
JP6465398B6 (ja) * 2015-03-13 2019-03-13 Dynabook株式会社 電子機器、表示方法及びプログラム
JP6708865B2 (ja) * 2017-11-02 2020-06-10 株式会社UsideU 顧客応対システム及び顧客応対方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723898A (zh) * 2020-05-25 2020-09-29 成都时空穿梭智能科技有限公司 一种模拟人类的智能机器人
CN111857343A (zh) * 2020-07-21 2020-10-30 潘晓明 一种能部分实现数字永生并可与用户交互的系统
CN111857343B (zh) * 2020-07-21 2024-04-19 心行者科技(杭州)有限责任公司 一种能部分实现数字永生并可与用户交互的系统
JP7024027B1 (ja) 2020-09-11 2022-02-22 株式会社セガトイズ 動画作成装置、動画作成システム及び動画作成プログラム
JP2022047036A (ja) * 2020-09-11 2022-03-24 株式会社セガトイズ 動画作成装置、動画作成システム及び動画作成プログラム
CN112367526A (zh) * 2020-10-26 2021-02-12 联想(北京)有限公司 视频生成方法、装置、电子设备及存储介质
CN112367526B (zh) * 2020-10-26 2022-03-25 联想(北京)有限公司 视频生成方法、装置、电子设备及存储介质
CN113035198A (zh) * 2021-02-26 2021-06-25 北京百度网讯科技有限公司 三维人脸的唇动控制方法、设备和介质
CN113035198B (zh) * 2021-02-26 2023-11-21 北京百度网讯科技有限公司 三维人脸的唇动控制方法、设备和介质
CN115700873A (zh) * 2022-07-01 2023-02-07 南京硅基智能科技有限公司 一种智能人物复刻终端

Also Published As

Publication number Publication date
JP2020160341A (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
JP6656447B1 (ja) 動画出力システム
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
WO2022116977A1 (zh) 目标对象的动作驱动方法、装置、设备及存储介质及计算机程序产品
US20220150285A1 (en) Communication assistance system, communication assistance method, communication assistance program, and image control program
TWI681317B (zh) 人機互動方法及系統
US8224652B2 (en) Speech and text driven HMM-based body animation synthesis
EP2849087B1 (en) A computer generated emulation of a subject
EP3198589B1 (en) Method and apparatus to synthesize voice based on facial structures
CN103218842B (zh) 一种语音同步驱动三维人脸口型与面部姿势动画的方法
CN113454708A (zh) 语言学风格匹配代理
US20180277093A1 (en) Sensor based text-to-speech emotional conveyance
CN102568023A (zh) 用于富于表情的化身的实时动画
KR102098734B1 (ko) 대화 상대의 외형을 반영한 수어 영상 제공 방법, 장치 및 단말
CN111145777A (zh) 一种虚拟形象展示方法、装置、电子设备及存储介质
KR102174922B1 (ko) 사용자의 감정 또는 의도를 반영한 대화형 수어-음성 번역 장치 및 음성-수어 번역 장치
CN110162598B (zh) 一种数据处理方法和装置、一种用于数据处理的装置
CN110148406B (zh) 一种数据处理方法和装置、一种用于数据处理的装置
GB2510201A (en) Animating a computer generated head based on information to be output by the head
US20200342896A1 (en) Conference support device, conference support system, and conference support program
KR20110081364A (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
JP6201212B2 (ja) キャラクタ生成装置およびプログラム
JP6902127B2 (ja) 動画出力システム
CN113205569A (zh) 图像绘制方法及装置、计算机可读介质和电子设备
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
Verma et al. Animating expressive faces across languages

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190724

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R150 Certificate of patent or registration of utility model

Ref document number: 6656447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees