JP2012160082A - 入力支援装置、入力支援方法及びプログラム - Google Patents

入力支援装置、入力支援方法及びプログラム Download PDF

Info

Publication number
JP2012160082A
JP2012160082A JP2011020101A JP2011020101A JP2012160082A JP 2012160082 A JP2012160082 A JP 2012160082A JP 2011020101 A JP2011020101 A JP 2011020101A JP 2011020101 A JP2011020101 A JP 2011020101A JP 2012160082 A JP2012160082 A JP 2012160082A
Authority
JP
Japan
Prior art keywords
command
character
data
action
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011020101A
Other languages
English (en)
Other versions
JP4725936B1 (ja
Inventor
Hiromi Furukawa
ひろ美 古川
Hiroyuki Sato
寛之 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOND KK
Original Assignee
BOND KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOND KK filed Critical BOND KK
Priority to JP2011020101A priority Critical patent/JP4725936B1/ja
Application granted granted Critical
Publication of JP4725936B1 publication Critical patent/JP4725936B1/ja
Priority to PCT/JP2012/050937 priority patent/WO2012105318A1/ja
Priority to CN201280012777.9A priority patent/CN103430217B/zh
Priority to US13/983,100 priority patent/US9898850B2/en
Priority to KR20137022633A priority patent/KR101492359B1/ko
Priority to TW101101888A priority patent/TWI436808B/zh
Publication of JP2012160082A publication Critical patent/JP2012160082A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【目的】 視聴者にコンテンツを紹介するためのキャラクタの動作を、適切かつ簡易に作成可能な入力支援装置等を提供する。
【構成】 入力支援装置3の利用者は、入力装置5に、キャラクタの動作を指定する指定コマンドの入力処理をする。このキャラクタの動作は、コンテンツを紹介するためのものである。入力支援装置3は、指定コマンドの入力処理を支援する。コンテンツは、素材データ29と言葉データ31を含む。言葉データ31は、キャラクタが発する音声を含む。感情識別部41は、素材データ29及び言葉データ31を分析して、キャラクタが表現すべき感情類型を推論する。コマンド抽出部43は、コマンド抽出手段は、キャラクタの動作を、指定コマンド及び音声だけでなく、推論された感情類型にも基づいて決定して、動作コマンドを生成する。確認再生部47は、コマンド抽出部43が作成した番組案を表示装置7に表示させて、利用者に確認させる。
【選択図】 図1

Description

本発明は、入力支援装置、入力支援方法及びプログラムに関し、特に、コンテンツを紹介するためのキャラクタの動作を指定する指定コマンドの入力処理を支援する入力支援装置等に関する。
特許文献1には、コンピュータグラフィックスで人物キャラクタを作成するときに、メニューから動作を選択し、選択された項目に対応する動作をさせて作成することが記載されている。
また、特許文献2には、ゲーム分野において、音声を発する人の顔を表示することなく、感情の伝達を可能とするための技術が記載されている。すなわち、ゲーム端末のユーザは、マイクより音声データを入力する。画像作成装置は、音声データを基準音声データに分類して、予め記憶されたキャラクタの表情から選択して表示するものである。
特開2005−266912号公報 特開2003−248837号公報
しかしながら、特許文献1にあるように、人物キャラクタを作成する場合には、人物キャラクタの動作を細かく指定する必要がある。そのため、専門家に依頼して作成する必要があった。専門家による作成は、各素材(写真、ビデオ、音声、音楽、文字など)を完成させてから、組み込み、作成する。そのため、一度完成してしまうと、変更はできない。よって、素人が、人物キャラクタのアニメーションを簡易かつ適切に生成することは困難であった。
また、特許文献2は、ゲーム端末のユーザが発した音声を伝達する際に、ユーザを秘匿するためのものである。人物キャラクタは、ユーザの置き換えにすぎない。
したがって、本発明は、視聴者にコンテンツを紹介するためのキャラクタの動作を、適切かつ簡易に作成可能な入力支援装置等を提供することを目的とする。
請求項1に係る発明は、コンテンツを紹介するためのキャラクタの動作を指定する指定コマンドの入力処理を支援する入力支援装置であって、前記コンテンツは、素材データと言葉データを含み、前記言葉データは、前記キャラクタが発する音声を示す音声データを含み、前記素材データ及び前記言葉データを分析して前記キャラクタが表現すべき感情類型を推論する感情類型推論手段と、前記キャラクタの動作を示す動作コマンドを生成するコマンド抽出手段と、表示装置に対して、前記コンテンツと、前記動作コマンドによる前記キャラクタの動作とを同期して再生させる確認再生手段を備え、前記コマンド抽出手段は、前記キャラクタが前記音声を発するための動作については前記音声データに基づき決定し、前記キャラクタが前記音声を発するための動作以外の動作については表現要素記憶手段に記憶された前記キャラクタの動作パターンから前記指定コマンドに基づき決定し、さらに、前記キャラクタの動作を前記推論された感情類型にも基づいて決定して、前記動作コマンドを生成するものである。
請求項2に係る発明は、請求項1記載の入力支援装置であって、前記感情類型推論手段は、前記素材データ及び前記言葉データを分析して、複数の基本的感情類型から一つ又は複数を選択して、前記選択された基本的感情類型及びその度合いを、前記キャラクタが表現すべき感情類型とするものであって、複数の前記基本的感情類型を選択したときは、前記言葉データの分析により選択された前記基本的感情類型から優性演出処理を決定し、その他の前記選択された基本的感情類型から補助的演出処理を決定するものであり、前記コマンド抽出手段は、基本的感情類型とその度合いの組合せにより前記動作を決定するものであって、前記一つの基本的感情類型が選択されたときは、選択された前記基本的感情類型及びその度合いに対応して、前記動作を決定するものであり、前記複数の基本的感情類型が選択されたときは、前記優性演出処理を、前記補助的演出処理よりも大きい比重で参照して前記動作を決定するものである。
請求項3に係る発明は、請求項2記載の入力支援装置であって、前記動作パターンには、待機動作が含まれており、前記コマンド抽出手段により前記感情類型による修正を許可するか否かを指定する修正許可コマンドが入力されるものであり、前記指定コマンドの入力がなく、前記素材データも前記言葉データもない場合には、前記コマンド抽出手段は、前記待機動作をさせる前記動作コマンドを生成し、前記指定コマンドの入力がなく、前記言葉データ又は/及び前記素材データがある場合には、前記感情類型推論手段は、前記言葉データ又は/及び前記素材データを分析して前記感情類型を識別して前記動作コマンドを生成し、前記指定コマンドの入力があり、前記素材データ及び前記言葉データがない場合には、前記コマンド抽出手段は、前記指定コマンドにより指定された動作をさせる前記動作コマンドを生成し、前記指定コマンドの入力があり、前記素材データ及び/又は前記言葉データがある場合に、前記修正許可コマンドが修正を許可しないときは、前記コマンド抽出手段は、前記指定コマンドにより指定された動作をさせる前記動作コマンドを生成し、前記修正許可コマンドが修正を許可するときは、前記感情類型推論手段は、前記言葉データ又は/及び前記素材データを分析して前記感情類型を識別し、前記コマンド抽出手段は、前記指定コマンドにより指定された動作を修正して前記動作コマンドを生成するものである。
請求項4に係る発明は、請求項1から3のいずれかに記載の入力支援装置であって、過去に行われた動作コマンドの修正処理を示す修正履歴を記憶する修正履歴記憶手段を備え、前記コマンド抽出手段は、前記修正履歴も用いて、前記動作コマンドを生成するものであり、前記コマンド抽出手段は、前記感情類型推論手段により識別された感情類型がシナリオデータ上で次の感情類型に推移した時点又は/及び前記指定コマンドがシナリオデータ上で次の指定コマンドに推移した時点において最も感情が強くなり、シナリオデータ上での時間の経過と共にその感情を減衰させて前記動作コマンドを生成するものである。
請求項5に係る発明は、請求項1から4のいずれかに記載の入力支援装置であって、前記動作コマンドを含むシナリオデータを生成するシナリオデータ生成手段と、前記コンテンツと、前記動作コマンドによる前記キャラクタの動作とを同期して再生して動画データを生成する動画データ生成手段を備え、前記シナリオデータは、遠隔再生処理装置が、前記コンテンツ及び前記キャラクタ画像とともにこれを受信して、前記コンテンツと、前記シナリオデータによる前記キャラクタの動作とを同期して再生するものであり、前記動画データは、遠隔再生装置がこれを受信して再生するものである。
請求項6に係る発明は、入力支援装置において、コンテンツを紹介するためのキャラクタの動作を指定する指定コマンドの入力処理を支援する入力支援方法であって、前記コンテンツは、素材データと言葉データを含み、前記言葉データは、前記キャラクタが発する音声を示す音声データを含み、前記入力支援装置は、感情類型推論手段と、コマンド抽出手段と、確認再生手段を備えるものであり、前記感情類型推論手段が、前記素材データ及び前記言葉データを分析して前記キャラクタが表現すべき感情類型を推論する感情類型推論ステップと、前記コマンド抽出手段が、前記キャラクタが前記音声を発するための動作については前記音声データに基づき決定し、前記キャラクタが前記音声を発するための動作以外の動作については表現要素記憶手段に記憶された前記キャラクタの動作パターンから前記指定コマンドに基づき決定し、さらに、前記キャラクタの動作を前記推論された感情類型にも基づいて決定して、前記キャラクタの動作を示す動作コマンドを生成するコマンド抽出ステップと、前記確認再生手段が、表示装置に対して、前記コンテンツと、前記動作コマンドによる前記キャラクタの動作とを同期して再生させる確認再生ステップと、前記入力支援装置が、前記指定コマンドが追加又は変更された場合、追加又は変更後の前記指定コマンドに対して処理を行うステップを含むものである。
請求項7に係る発明は、コンピュータにおいて、請求項6記載の入力支援方法を実現するためのプログラムである。
なお、本願発明において、単にキャラクタの動作を生成するだけでなく、例えばカメラワーク、照明、背景色、効果音なども生成するようにしてもよい。
また、本願発明を、請求項7記載のプログラムを定常的に記録するコンピュータ読み取り可能な記録媒体として捉えてもよい。
本願発明において、表現要素記憶手段には、専門家が作成したキャラクタの動作パターンが予め組込み記憶されている。入力支援装置のユーザは、指定コマンドを入力して、キャラクタの動作を指定する。入力支援装置は、この指定に併せて、コンテンツの分析により得られる感情類型により、キャラクタの動作を決定する。これにより、ユーザは、キャラクタの動作を簡易に決定でき、さらに、何回でも決定した動作を実施させて修正を行うことも簡易にでき、よって、キャラクタに、コンテンツに合った感情表現を行わせることが可能になる。そして、指定コマンドが追加、変更等された場合には、追加、変更等の後の指定コマンドに対して処理を行う。よって、本願発明により、視聴者へのコンテンツの紹介を、キャラクタを用いて適切かつ簡易に行うことが可能になる。
従来、特許文献1では、キャラクタの動作のみを指定するものである。この場合、キャラクタが指定以外の動作を行うことは、ユーザにとって不適切な処理となる。また、特許文献2では、ユーザが感情データを入力することも記載されているが、これを修正すること等については記載されていない。ユーザによる指定がない場合に、音声データを感情データに分類する。分析の対象となるデータも、音声データという、キャラクタの動作に直結するものに限定されている。これは、特許文献2記載の技術において、キャラクタがユーザの代わりをなすものであり、ユーザの指定以外の動作を行うことは、ユーザにとって不適切な処理となるためである。このように、背景技術は、キャラクタの動作が、ユーザの意に反しないという単に消極的なものにとどまる。その動作指定を自動的に変更することは、ユーザの意に反することとなり、不適切な処理となる。そのため、特許文献1及び2には、動作指定があった場合には、その指定を変更することは記載されていない。
これに対し、本願発明は、視聴者にコンテンツを紹介することを目的とする。キャラクタの動作は、このコンテンツの紹介をサポートするためのものである。背景技術とは、目的が異なる。そのため、背景技術と異なり、ユーザがキャラクタを意のままに動作させる必要はない。むしろ、コンテンツの紹介という目的に合ったものとして適切な動作にすることが、ユーザの希望に沿ったものになる。本願発明では、専門家により動作パターンが予め組み込まれている。ユーザは、指定コマンドを入力して、この動作パターンを用いて簡易にキャラクタを動作させることができる。さらに、本願発明は、コンテンツに合った動作を自動生成する。これにより、適切な動作を自動生成することが可能になる。さらに、確認再生手段は、ユーザに対して、自動生成した動作案を提案する。これにより、ユーザは、より適切な指定コマンドを入力し直す等により、キャラクタの動作に、自分の考えをより明確に反映させることが可能になる。専門家に依頼した場合には、各素材が完成品として納入されてしまい、全体的な整合性からユーザの考えを反映することが困難になる。本願発明は、背景技術のように、単にキャラクタの動作がユーザの意に反するものでない、というような消極的なものではない。本願発明は、コンテンツの紹介という基準に適した指定コマンドの入力を実現するという、より積極的な意義を有するものである。
本願請求項2に係る発明によれば、素材データ及び言葉データを分析して、複数の基本的感情類型が選択された場合には、音声データというキャラクタの動作に近い情報を含む言葉データを優先して演出処理を決定する。これにより、コンテンツが複数の基本的感情類型を伝達しようとする場合にも、キャラクタの動作に近い情報から、優先的な演出処理を決定することが可能になる。
本願請求項3に係る発明によれば、指定コマンドの入力がない場合にもキャラクタの動作を自動生成することが可能になる。そのため、指定コマンドが削除された場合にも、削除後の状態に対して処理を行うことができる。さらに、ユーザが指定コマンドによる指定どおりの動作をさせることもできる。
本願請求項4に係る発明によれば、時間経過に伴い感情表現の影響を減衰させることにより、自然な感情表現の伝達が可能になる。
本願請求項5に係る発明によれば、シナリオデータの配信について、遠隔再生処理装置のように一定の処理が可能な場合には、装置側での処理によりコンテンツの再生を行う。これにより、装置が設置された場所に適したキャラクタを動作させるなど、情報の受け手に着目したシナリオデータの再生が可能になる。他方、遠隔再生装置のように、動画像を再生するだけの端末の場合には、入力支援装置において動画データを生成して再生させる。これにより、処理能力が不足している装置でも、コンテンツの紹介が可能になる。
本発明の実施例1による番組生成システム1の構成及び動作を説明するための概念ブロック図である。 図1の感情識別部41、コマンド抽出部43及び確認再生部47の動作の概要を示すフロー図である。 図1の感情識別部41により決定される基本的感情類型及び感情レベルの組合せと表現要素記憶部25との関係を示す図である。 図1の感情識別部41による基本的感情類型及び感情レベルの組合せと、その相互関係の決定の関係を示す図である。 図1のコマンド抽出部43によるキャラクタの動作の決定処理を示す図である。 図1のコマンド抽出部43において感情類型の影響を示す図である。 図1の入力支援装置3により生成される番組の一例を示す図である。 図1の番組生成システム51におけるシナリオデータ及び動画データの配信について説明するための概念ブロック図である。 図8の端末番組画像生成部73の構成及び動作を説明するための概念ブロック図である。 図8の動画データ生成部49の構成及び動作を説明するための概念ブロック図である。
以下、図面を参照して、本発明を実施するための形態について説明する。なお、本発明は、以下の実施例に限定されるものではない。
図1は、本発明の実施例による番組生成システム1の構成及び動作を説明するための概念ブロック図である。番組生成システム1は、入力支援装置3(本願請求項の「入力支援装置」の一例)と、入力装置5と、表示装置7(本願請求項の「表示装置」の一例)と、遠隔再生処理装置9と、遠隔再生装置11を備える。入力支援装置3は、コンテンツを紹介するためのキャラクタ(登場人物や動物などの動作の主体)の動作を指定する指定コマンドの入力処理を支援する。入力装置5は、入力支援装置3のユーザがコンテンツ及び指定コマンドの入力処理をする。表示装置7は、入力支援装置3により生成された番組案を表示する。遠隔再生処理装置9及び遠隔再生装置11は、入力支援装置3により生成された番組を再生する。
入力支援装置3は、コンテンツ記憶部21と、指定コマンド記憶部23と、表現要素記憶部25(本願請求項の「表現要素記憶手段」の一例)と、キャラクタ画像記憶部27を備える。コンテンツ記憶部21は、入力装置5から入力されたコンテンツを記憶する。ここで、コンテンツは、素材データ29と言葉データ31を含む。素材データ29は、遠隔再生処理装置9及び遠隔再生装置11の視聴者に対して伝達したい一連の情報を構成する。素材データは、画像・映像素材と音楽素材を含む。言葉データ31は、キャラクタが発する音声(本願発明の「音声データ」の一例)と、言葉による説明を含む。指定コマンド記憶部23は、入力装置5から入力された指定コマンドを記憶する。表現要素記憶部25は、専門家により予め作成されたキャラクタの動作パターンが予め組込み記憶されている。キャラクタ画像記憶部27は、キャラクタの画像を記憶する。
入力支援装置3は、さらに、感情識別部41(本願請求項の「感情類型推論手段」の一例)と、コマンド抽出部43(本願請求項の「コマンド抽出手段」の一例)と、動作コマンド記憶部45と、確認再生部47(本願請求項の「確認再生手段」の一例)を備える。感情識別部41は、指定コマンド記憶部23に記憶された指定コマンドと素材データ29及び言葉データ31を分析して、キャラクタが表現すべき感情類型を推論する。コマンド抽出部43は、表現要素記憶部25に記憶された動作パターンを参照して、キャラクタの動作を示す動作コマンドを生成する。なお、入力装置からは、修正許可コマンドも入力される。これは、コマンド抽出部43において、感情類型による修正を許可するか否かを指定するものである。この修正許可コマンドが修正を許可しないようにしている場合には、コマンド抽出部43は、キャラクタに対して、待機演出又は指定コマンドにより指定された動作をさせる。この修正許可コマンドが修正を許可するようにしている場合に、以下の修正処理を行うようにする。確認再生部47は、表示装置7に対して、コンテンツと、キャラクタ画像記憶部27のキャラクタの画像に基づき、動作コマンドによりキャラクタを動作させて、同期して再生させる。入力支援装置3のユーザは、表示装置7の表示を参考にして、指定コマンドを追加、変更、削除等を行うことにより、より適切なキャラクタの動作を簡易に実現することができる。
入力支援装置3は、さらに、シナリオデータ生成部51(本願請求項の「シナリオデータ生成手段」の一例)と、動画データ生成部49(本願請求項の「動画データ生成手段」の一例)を備える。シナリオデータ生成部51は、動作コマンドを含むシナリオデータを生成する。動画データ生成部49は、コンテンツと、動作コマンドによるキャラクタの動作とを同期して再生して動画データを生成する。遠隔再生処理装置9は、例えばパソコン(PC)の機能を備えたもののように、一定の情報処理を行うことが可能である。これは、シナリオデータに基づき端末機で情報処理を行う配信に適したものである。これにより、各端末が存在する時間・場所に応じて、番組を配信することが可能になる。他方、遠隔再生装置11は、単に表示機能のみを備えるモニタ等である。遠隔再生装置11は、動画を再生することは可能である。しかし、シナリオデータを配信しただけでは、番組配信を実現することができない。そのため、入力支援装置3は、動画データ生成部49が生成した動画データを用いて、遠隔再生装置11に対する番組配信を実現する。
続いて、図2を参照して、図1の感情識別部41、コマンド抽出部43及び確認再生部47の動作の概要を説明する。図1の感情識別部41は、指定コマンドが入力されているか否かを判断する(ステップST1)。入力されている場合、指定コマンドにより主演出(最も高い割合で勘案されて表現される一つ又は複数の基本的感情類型)を決定する(ステップST2)。続いて、言葉データ31が入力されているか否かを判断する(ステップST3)。言葉データ31が入力されている場合、言葉データ31により副演出(主演出の次に高い割合で勘案されて表現される一つ又は複数の基本的感情類型)を決定する(ステップST4)。続いて、素材データ29が入力されているか否かを判断する(ステップST5)。素材データ29が入力されている場合、素材データ29により補助演出(副演出の次に高い割合で勘案されて表現される一つ又は複数の基本的感情類型)を決定する。これにより、指定コマンド、言葉データ31及び素材データ29が入力されている場合には、それぞれに一つ又は複数の基本的感情類型が決定され、この順に高い割合で勘案されてキャラクタの動作が決定される。
指定コマンドも言葉データ31も素材データ29も入力がない場合(ステップST1、7及び8でNoの場合)、待機演出を行う(ステップST9)。待機演出は、表現要素記憶部25の動作パターンの一つとして、予め定められているものである。指定コマンドと言葉データ31の入力がなく、素材データ29が入力されている場合には、素材データ29により主演出、副演出及び補助演出を決定する(ステップST10)。指定コマンドの入力がなく、言葉データ31が入力されている場合には、言葉データ31により主演出及び副演出を決定する(ステップST11)。そして、ステップST5の判断ステップに進み、素材データ29が入力されていないときには、指定コマンド又は/及び言葉データ31により補助演出を決定する(ステップST12)。指定コマンドの入力があり、言葉データ31の入力がない場合には、素材データ29が入力されている場合には、素材データ29により副演出及び補助演出を決定する(ステップST14)。素材データ29が入力されていない場合には、指定コマンドにより副演出及び補助演出も決定する(ステップST15)。コマンド抽出部43は、決定された待機演出、又は、主演出、副演出及び補助演出により、動作コマンドを生成する(ステップST15)。確認再生部47は、表示装置7に対して、動作案を提示する。ユーザは、動作案を参照して、指定コマンド等の入力処理を行う。入力支援装置3は、修正後の指定コマンド等に基づき、動作コマンドの生成処理等を行う。
続いて、図3から図6を参照して、図1の感情識別部41及びコマンド抽出部43の動作について、具体的に説明する。コンテンツには、素材データ29と言葉データ31が含まれている。これを単純に視聴者に配信したとしても、視聴者には単なる情報として届くのみである。コンテンツに併せて、キャラクタを動作させて、感情を伝えるための情報を付加することにより、視聴者の評価判断を促し、視聴者に対して、感性的に伝えることができる。本願発明は、背景技術と異なり、コンテンツを一方的に伝えるだけでなく、視聴者がコンテンツに対して行う評価判断をもサポートできるように、キャラクタを動作させるためのものである。
図1の表現要素記憶部25には、例えば、動作データとして、両手を斜めにあげるなど、キャラクタのパーツごと(例えば、眉、目、肩、手など)の動作パターン(本願請求項の「動作パターン」の一例)が記憶されている。照明データとして、環境光20%(白)など、照明光、環境光などの色合い・明るさ・鮮やかさが記憶されている。カメラワークデータとして、上半身など、カメラの位置・時間・角度が記憶されている。なお、その他のデータも記憶していてもよい。
図3を参照して、基本的感情類型(本願請求項の「基本的感情類型」の一例)及び感情レベル(本願請求項の「基本的感情類型の度合い」の一例)について説明する。基本的感情類型には、例えば、ジョイ(喜びなど)、トラスト(信任、信頼、信用など)、アンガー(怒りなど)などがある。それぞれに感情レベルが設定されている。感情識別部41は、指定コマンド及びコンテンツを分析して、一つ又は複数の基本的感情類型を選択し、選択された基本的感情類型ごとに感情レベルを分析する。基本的感情類型と感情レベルの組合せにより、表現要素記憶部25に記憶された動作データ、照明データ、カメラワークデータなどの各データについて、一つ又は複数が対応付けられている。例えば、基本的感情類型ジョイに対応して、感情レベルが低い時には、動作データとして(2)手をたたくが、照明データとして(2)環境光50%(白)+(3)全身スポットライト(白)が、カメラワークデータとして(3)全身+(6)正面が選択される。感情レベルが高くなると、動作データとして(1)両手を斜め上にあげる+(3)何度も小さく飛び跳ねるが、照明データとして(1)環境光20%(白)+(3)前身スポットライト(白)が、カメラワークデータとして(2)顔アップ+(6)正面が選択される。さらに感情レベルが高くなると、動作データとして(2)手をたたく+(3)何度も小さく飛び跳ねる+(6)右手を真上にあげるが、照明データとして(2)環境光50%(白)+(3)全身スポットライト(白)+(4)上半身スポットライトが、カメラワークデータとして(2)顔アップ+(4)ズームイン+(6)正面が選択される。
図4を参照して、動作パターンの生成について説明する。コマンド抽出部43は、口元の動きのように、キャラクタが音声を発するための動作については、コンテンツの言葉データ31の音声に基づき決定する。これは、自然な発声のためである。それ以外の動作については、指定コマンドと、表現要素記憶部25に記憶されたキャラクタの動作パターンから決定する。コマンド抽出部43は、さらに、感情識別部41により推論された感情類型にも基づいて、キャラクタの動作を決定して、動作コマンドを生成するものである。
例えば、言葉データの説明として、「とっても楽しいですよ。」と記載された場合、形態素解析からは、「楽しい」という単語からジョイという基本的感情類型(感情C)が一つのみ選択される。これは、図4の単純表現である。演出としては、一つの基本的感情類型のみに基づいてキャラクタを動作させれば足りる。
しかしながら、本願発明では、背景技術と異なり、複数の基本的感情類型が自動的に選択され得る。そのため、例えばジョイやトラストのようなプラスの感情類型だけでなく、同時に、アンガーのようなマイナスの感情をも選択される可能性がある。これが、図4の複合表現にあたる。例えば、説明として、「私は笑顔で答えましたが、無礼な行動に怒りを抑えきれませんでした。」と記載されている場合、「私は笑顔で答えました」という部分の形態素解析では、プラスの感情Aが選択される。感情レベルに関する情報はなく、例えば平均値を設定する。他方、「無礼な行動に怒りを抑えきれませんでした。」という部分の形態素解析では、マイナスの感情Bが選択される。感情レベルは大きいものである。このように複数の基本的感情類型が選択された場合、さらに文字解析を行うことにより、基本的感情類型の主格判断を行う。この場合、例えば、「が」という接続詞に着目したり、「笑顔」という外形の表現と「怒り」という内心の表現とに着目したりして、感情Aが優性であり、感情Bが補助的と判断される。そのため、コマンド抽出部43は、感情Aとその感情レベルに対応する動作を、感情B及びその感情レベルに対応する動作よりも大きい割合で勘案して、キャラクタの動作を決定する。図5にあるように、キャラクタの各パーツについて、その勘案する割合に応じて、形状(ポーズ)及び時間(動きスピード)を決定する。口元のデータなども、必要に応じて修正する。さらに、キャラクタの動作にとどまらず、照明データ、カメラワークデータなどについても同様に決定する。
図4では、同じ言葉データ31内での優性演出動作と補助的演出動作に関して説明をした。本実施例では、図2にあるように、指定コマンド、言葉データ31及び素材データ29の順に優先して(すなわち、より大きい割合で勘案して)、キャラクタの動作を決定する。そのため、指定コマンド、言葉データ31及び素材データ29では、コンテンツの紹介に適合させつつ、ユーザによるキャラクタの動作の指定に直接的なものほど大きい割合で勘案することとなる。
続いて、図6を参照して、感情の影響について説明する。図6において、最初は、待機動作として「直立(気を付け)」であったとする。(1)の動作選択(ある指定コマンドの入力による指定)から(7)の動作選択(他の指定コマンドの入力による指定)の時点までに10秒あり、その間、感情影響は減少するとする。コマンド抽出部43は、キャラクタの動作に、(1)の動作選択の時点で最大の影響があり、次のコマンドの指定までの10秒間、影響が自動的に減少するようにする。そのため、コマンド抽出部43は、(7)の動作選択の時点で(1)の動作選択から9秒経過していたとすると、(1)の動作からの感情の影響は10%程度にとどまる。すなわち、コマンド抽出部43は、感情類型がシナリオデータ上で次の感情類型に推移した時点又は/及び指定コマンドがシナリオデータ上で次の指定コマンドに推移した時点において最も感情が強くなり、時間の経過と共にその感情が減衰するように、動作コマンドを生成する。この修正処理は、例えば図6にあるように、キャラクタの動作、素材データ31の再生、言葉データ29の再生、及びBGMの再生について、独立に感情の影響を考慮するようにしてもよい。また、図1の入力支援装置3は、修正履歴記憶部44(本願請求項の「修正履歴記憶手段」の一例)を備える。修正履歴記憶部44は、過去に行われた感情類型をどのように考慮してきたかを示す修正履歴を記憶する。コマンド抽出部43は、この修正履歴により、入力支援装置3のユーザの嗜好・好みを参照して、動作コマンドを生成する。図7は、図1の入力支援装置3により生成される番組の一例を示す図である。
続いて、図8〜10を参照して、シナリオデータ及び動画データによる番組配信について説明する。図8〜10では、入力支援装置3のユーザは、図1の言葉データ31の音声として、マイク等の音声入力手段によりキャラクタを担当する声優が話す音声を入力する場合について、具体的に説明する。
図8の番組生成システム1において、シナリオデータの配信は、遠隔再生処理装置9のように一定の処理が可能な場合には、装置側での処理によりコンテンツの再生を行う。これにより、装置が設置された場所に適したキャラクタを動作させるなど、情報の受け手に着目したシナリオデータの再生が可能になる。他方、遠隔再生装置11のように、動画像を再生するだけの端末の場合には、入力支援装置において動画データを生成して再生させる。これにより、処理能力が不足している装置でも、コンテンツの紹介が可能になる。
図8の番組生成システム1には、2つの遠隔再生処理装置91及び92(本願請求項の「遠隔再生処理装置」の一例)(以下、添え字は、複数のものを示す場合は省略する。)並びに遠隔再生装置11(本願請求項の「遠隔再生装置」の一例)が存在するとする。遠隔再生処理装置9及び遠隔再生装置11は、複数あってもよい。
図8を参照して、入力支援装置3は、音声量子化部61と、音声量子記憶部62と、データ送信部63と、動画データ送信部65を備える。
音声量子化部61は、コンテンツの言葉データ31の音声を分割して、その一部又は全部を音声要素として抽出して、量子化して、量子化データを生成する(以下、この量子化データを「音声量子」という。)。音声量子は、例えば、「久しぶりね」というCGキャラクタのセリフについて、「ひ」「さ」「し」「ぶ」「り」「ね」のように個々の音声や無音状態を基準にして量子化する。音声量子記憶部62は、生成された各音声量子を記憶する。コマンド抽出部43は、音声量子記憶部62に記憶された音声量子を、画像用に周波数解析を行い、さらに、音量を解析することによってキャラクタの口元の画像を決定する。このキャラクタの口元の画像は、図1のキャラクタ画像記憶部27に、他の画像とは区別して記憶されているとする。
データ送信部63は、遠隔再生処理装置9に対し、シナリオデータ生成部51が生成したシナリオデータと、コンテンツ記憶部21に記憶されたコンテンツを送信する。図8では、言葉データ31の音声に代えて、音声量子を送信するものとする。また、遠隔再生処理装置9は、独自のキャラクタ画像を記憶している場合には、そのキャラクタ画像を使って、コンテンツとキャラクタの動作を同期して再生する。遠隔再生処理装置9が独自のキャラクタ画像を記憶していない場合には、データ送信部63がキャラクタ画像記憶部27に記憶されたキャラクタの画像を送信する。動画データ送信部65は、遠隔再生装置11に対し、動画データ生成部49が生成した動画データを送信する。
遠隔再生処理装置9は、データ送信部63から送信された情報を受信する受信部71と、スピーカ76に対して受信した各音声量子を再生させつつ、モニタ75に対してコンテンツとキャラクタ画像を同期して再生して番組画像を表示させる端末番組画像生成部73を有する。遠隔再生装置11は、動画データを受信する動画データ受信部81と、受信した動画データを再生するモニタ83を備える。
図9は、図8の端末番組画像生成部73の構成及び動作を説明するための概念ブロック図である。端末番組画像生成部73は、シナリオデータ記憶部101と、音楽素材記憶部103と、キャラクタ画像記憶部105と、画像・映像素材記憶部107を備える。シナリオデータ記憶部101は、受信したシナリオデータを記憶する。音楽素材記憶部103は、音楽素材を記憶する。キャラクタ画像記憶部105は、キャラクタの画像を記憶する。画像・映像素材記憶部107は、画像・映像素材を記憶する。
キャラクタ画像記憶部105に記憶されるキャラクタの画像は、遠隔再生処理装置9ごとに異なっていてもよい。例えば、遠隔再生処理装置91に対しては、特別の種類の要素画像データ(例えばパンダの種類)を送信し、他の遠隔再生処理装置92等には送信せず、別の種類の要素画像データ(例えばネコの種類)を送信する。この選択は、入力装置5のユーザが指定することにより、入力支援装置5が特別のキャラクタの画像を送信し、他の遠隔再生処理装置に対しては送信させないようにしてもよい。また、遠隔再生処理装置9のユーザが指定して、特別のキャラクタの画像を送信させるようにしてもよい。これにより、遠隔再生処理装置91と92では、異なるキャラクタにより同じコンテンツを再生することが可能になる。従来、番組配信は、一方的な情報の流れであった。これに対し、本願発明の番組配信は、各遠隔再生処理装置9の設置場所・再生時間等に合わせた番組画像の配信処理を可能にするものである。また、特別のキャラクタの画像は、各遠隔再生処理装置で用意されたものであってもよい。
まず、端末番組画像生成部73の音声再生について説明する。端末番組画像生成部73は、端末音声同期部109と、音声再生部111と、音声送出部113を備える。端末音声同期部109は、各音声量子と音楽素材とを同期させる。音声再生部111は、同期後の各音声量子及び音楽素材を再生させる。音声送出部113は、スピーカ76に対して音声を送信して再生させる。
続いて、端末番組画像生成部73が備える画像生成部115による画像表示について説明する。画像生成部115は、キャラクタ動画像生成部137と、番組画像作成部139を備える。キャラクタ動画像生成部137は、シナリオデータに基づき、3Dベクトルデータ処理により、キャラクタの画像からキャラクタのアニメーション画像を作成する。番組画像作成部139は、作成したキャラクタ動画像と画像・映像素材を合成して番組画像を作成する。
ある音声量子に対しては、画像生成部115による番組画像の作成処理の終了後に、画像の表示と音声の再生が行われる場合がありうる。この場合、音声再生部111により再生される音声量子と、画像生成部115による番組画像の作成処理の基礎となる音声量子とは異なる。そのため、端末番組画像生成部73は、音声再生部111による再生と、画像生成部115による番組画像の表示とを同期させる同期部119を備える。同期部119は、音声用周波数解析部131と、タイミング制御部133を備える。音声用周波数解析部131は、音声再生部111で再生される音声量子の周波数を解析して再生時間データを検出する。タイミング制御部133は、再生時間データと、画像生成部115からの番組画像の生成処理に必要な時間とを比較して、音声再生部111に対して再生のタイミングを制御する。
図10は、図8の動画データ生成部49の構成及び動作を説明するための概念ブロック図である。動画データ生成部49は、音声量子記憶部62に記憶された各音声量子、シナリオデータ生成部51により生成されたシナリオデータ、キャラクタ画像記憶部27に記憶されたキャラクタの画像データ、コンテンツ記憶部21に記憶されたコンテンツを用いて、動画データを作成する。動画データ生成部49は、音声同期部159と、画像生成部161と、2Dベクトル量子化部163と、連像画像記憶部165と、合成部167と、動画データ記憶部169を備える。音声同期部159は、各音声量子と音楽素材を同期する。画像生成部161は、番組画像を生成する(図9の画像生成部115参照)。2Dベクトル量子化部163は、生成された番組画像に対して2Dベクトル処理を行い連続画像である画像1、・・・、画像nを生成する。連像画像記憶部165は、連続画像を記憶する。合成部167は、音声同期部159により同期された音声と連続画像を合成して動画データを生成する。動画データ記憶部169は、生成された動画データを記憶する。
なお、遠隔再生処理装置9は、動画データを再生することも可能である。そのため、入力支援装置3や遠隔再生処理装置9のユーザの指示により、遠隔再生装置11だけでなく、遠隔再生処理装置9に対しても動画データを送信するようにしてもよい。これにより、例えば入力支援装置3のユーザが、複数の端末に同時に同じ表示をさせる場合などに、遠隔再生処理装置9の処理を軽減することが可能になる。ただし、動画データは、送信データ量が大きくなる可能性がある。そのため、データ送信部63と動画データ送信部65が、データ量や通信状況により、シナリオデータ等の送信とするか、又は、動画データを送信するかを自動的に選択するようにしてもよい。
また、音声量子は、例えば、「ひさしぶりね」という、発声されてから音声が一時的に途切れるまでの一連の音声を基準にして量子化したりするように、入力された音声を基準にして量子化されたものであってもよい。また、音声量子は、一定の時間(例えば、30分の1秒など)を基準にして量子化されたものであってもよい。
さらに、図8のコマンド抽出部43は、入力された音声の振幅を検出して、口の開き具合を検出してキャラクタ画像を生成することも可能である。
このような遠隔再生が可能になることにより、例えば、遠隔再生処理装置9等の前に人がいたときに、CGキャラクタの音声として「久しぶりね」と入力することにより、遠隔再生処理装置9等でCGキャラクタが「久しぶりね」と話すように表示することができる。これにより、リアルタイムなコンテンツの演出だけでなく、視聴者が参加する形でのコンテンツが実現可能になる。さらに、注目度・話題性・認知度も上がり、さらに、実写との連携を図ることから、臨場感が向上する。さらに、疑似的な会話が可能になり、人の誘導など、場面に合ったコンテンツを実現することが可能になる。
1 番組生成システム、3 入力支援装置、5 入力装置、7 表示装置、9 遠隔再生処理装置、11 遠隔再生装置、21 コンテンツ記憶部、23 指定コマンド記憶部、25 表現要素記憶部、27 キャラクタ画像記憶部、29 素材データ、31 言葉データ、41 感情識別部、43 コマンド抽出部、44 修正履歴記憶部、45 動作コマンド記憶部、47 確認再生部、49 動画データ生成部、51 シナリオデータ生成部

Claims (7)

  1. コンテンツを紹介するためのキャラクタの動作を指定する指定コマンドの入力処理を支援する入力支援装置であって、
    前記コンテンツは、素材データと言葉データを含み、
    前記言葉データは、前記キャラクタが発する音声を示す音声データを含み、
    前記素材データ及び前記言葉データを分析して前記キャラクタが表現すべき感情類型を推論する感情類型推論手段と、
    前記キャラクタの動作を示す動作コマンドを生成するコマンド抽出手段と、
    表示装置に対して、前記コンテンツと、前記動作コマンドによる前記キャラクタの動作とを同期して再生させる確認再生手段を備え、
    前記コマンド抽出手段は、
    前記キャラクタが前記音声を発するための動作については前記音声データに基づき決定し、
    前記キャラクタが前記音声を発するための動作以外の動作については表現要素記憶手段に記憶された前記キャラクタの動作パターンから前記指定コマンドに基づき決定し、
    さらに、前記キャラクタの動作を前記推論された感情類型にも基づいて決定して、前記動作コマンドを生成する、入力支援装置。
  2. 前記感情類型推論手段は、
    前記素材データ及び前記言葉データを分析して、複数の基本的感情類型から一つ又は複数を選択して、前記選択された基本的感情類型及びその度合いを、前記キャラクタが表現すべき感情類型とするものであって、
    複数の前記基本的感情類型を選択したときは、前記言葉データの分析により選択された前記基本的感情類型から優性演出処理を決定し、その他の前記選択された基本的感情類型から補助的演出処理を決定するものであり、
    前記コマンド抽出手段は、基本的感情類型とその度合いの組合せにより前記動作を決定するものであって、
    前記一つの基本的感情類型が選択されたときは、選択された前記基本的感情類型及びその度合いに対応して、前記動作を決定するものであり、
    前記複数の基本的感情類型が選択されたときは、前記優性演出処理を、前記補助的演出処理よりも大きい比重で参照して前記動作を決定する、請求項1記載の入力支援装置。
  3. 前記動作パターンには、待機動作が含まれており、
    前記コマンド抽出手段により前記感情類型による修正を許可するか否かを指定する修正許可コマンドが入力されるものであり、
    前記指定コマンドの入力がなく、前記素材データも前記言葉データもない場合には、前記コマンド抽出手段は、前記待機動作をさせる前記動作コマンドを生成し、
    前記指定コマンドの入力がなく、前記言葉データ又は/及び前記素材データがある場合には、前記感情類型推論手段は、前記言葉データ又は/及び前記素材データを分析して前記感情類型を識別して前記動作コマンドを生成し、
    前記指定コマンドの入力があり、前記素材データ及び前記言葉データがない場合には、前記コマンド抽出手段は、前記指定コマンドにより指定された動作をさせる前記動作コマンドを生成し、
    前記指定コマンドの入力があり、前記素材データ及び/又は前記言葉データがある場合に、
    前記修正許可コマンドが修正を許可しないときは、前記コマンド抽出手段は、前記指定コマンドにより指定された動作をさせる前記動作コマンドを生成し、
    前記修正許可コマンドが修正を許可するときは、前記感情類型推論手段は、前記言葉データ又は/及び前記素材データを分析して前記感情類型を識別し、前記コマンド抽出手段は、前記指定コマンドにより指定された動作を修正して前記動作コマンドを生成する、請求項2記載の入力支援装置。
  4. 過去に行われた動作コマンドの修正処理を示す修正履歴を記憶する修正履歴記憶手段を備え、
    前記コマンド抽出手段は、前記修正履歴も用いて、前記動作コマンドを生成するものであり、
    前記コマンド抽出手段は、前記感情類型推論手段により識別された感情類型がシナリオデータ上で次の感情類型に推移した時点又は/及び前記指定コマンドがシナリオデータ上で次の指定コマンドに推移した時点において最も感情が強くなり、シナリオデータ上での時間の経過と共にその感情を減衰させて前記動作コマンドを生成する、請求項1から3のいずれかに記載の入力支援装置。
  5. 前記動作コマンドを含むシナリオデータを生成するシナリオデータ生成手段と、前記コンテンツと、前記動作コマンドによる前記キャラクタの動作とを同期して再生して動画データを生成する動画データ生成手段を備え、
    前記シナリオデータは、遠隔再生処理装置が、前記コンテンツ及び前記キャラクタ画像とともにこれを受信して、前記コンテンツと、前記シナリオデータによる前記キャラクタの動作とを同期して再生するものであり、
    前記動画データは、遠隔再生装置がこれを受信して再生するものである、請求項1から4のいずれかに記載の入力支援装置。
  6. 入力支援装置において、コンテンツを紹介するためのキャラクタの動作を指定する指定コマンドの入力処理を支援する入力支援方法であって、
    前記コンテンツは、素材データと言葉データを含み、
    前記言葉データは、前記キャラクタが発する音声を示す音声データを含み、
    前記入力支援装置は、感情類型推論手段と、コマンド抽出手段と、確認再生手段を備えるものであり、
    前記感情類型推論手段が、前記素材データ及び前記言葉データを分析して前記キャラクタが表現すべき感情類型を推論する感情類型推論ステップと、
    前記コマンド抽出手段が、
    前記キャラクタが前記音声を発するための動作については前記音声データに基づき決定し、
    前記キャラクタが前記音声を発するための動作以外の動作については表現要素記憶手段に記憶された前記キャラクタの動作パターンから前記指定コマンドに基づき決定し、
    さらに、前記キャラクタの動作を前記推論された感情類型にも基づいて決定して、前記キャラクタの動作を示す動作コマンドを生成するコマンド抽出ステップと、
    前記確認再生手段が、表示装置に対して、前記コンテンツと、前記動作コマンドによる前記キャラクタの動作とを同期して再生させる確認再生ステップと、
    前記入力支援装置が、前記指定コマンドが追加又は変更された場合、前記追加又は変更された指定コマンドに対して処理を行うステップを含む入力支援方法。
  7. コンピュータにおいて、請求項6記載の入力支援方法を実現するためのプログラム。
JP2011020101A 2011-02-01 2011-02-01 入力支援装置、入力支援方法及びプログラム Active JP4725936B1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011020101A JP4725936B1 (ja) 2011-02-01 2011-02-01 入力支援装置、入力支援方法及びプログラム
PCT/JP2012/050937 WO2012105318A1 (ja) 2011-02-01 2012-01-18 入力支援装置、入力支援方法及び記録媒体
CN201280012777.9A CN103430217B (zh) 2011-02-01 2012-01-18 输入支持装置、输入支持方法及记录介质
US13/983,100 US9898850B2 (en) 2011-02-01 2012-01-18 Support and complement device, support and complement method, and recording medium for specifying character motion or animation
KR20137022633A KR101492359B1 (ko) 2011-02-01 2012-01-18 입력 지원 장치, 입력 지원 방법 및 기록 매체
TW101101888A TWI436808B (zh) 2011-02-01 2012-01-18 Input support device, input support method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011020101A JP4725936B1 (ja) 2011-02-01 2011-02-01 入力支援装置、入力支援方法及びプログラム

Publications (2)

Publication Number Publication Date
JP4725936B1 JP4725936B1 (ja) 2011-07-13
JP2012160082A true JP2012160082A (ja) 2012-08-23

Family

ID=44350539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011020101A Active JP4725936B1 (ja) 2011-02-01 2011-02-01 入力支援装置、入力支援方法及びプログラム

Country Status (6)

Country Link
US (1) US9898850B2 (ja)
JP (1) JP4725936B1 (ja)
KR (1) KR101492359B1 (ja)
CN (1) CN103430217B (ja)
TW (1) TWI436808B (ja)
WO (1) WO2012105318A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085952A (ja) * 2012-10-25 2014-05-12 Kddi Corp 表情生成装置およびプログラム
CN103785171A (zh) * 2014-01-23 2014-05-14 北京智明星通科技有限公司 一种集成单击自感应及滑动操作模式的游戏系统及方法
JP2014167737A (ja) * 2013-02-28 2014-09-11 Kddi Corp 仕草生成装置およびプログラム
CN109979592A (zh) * 2019-03-25 2019-07-05 广东邮电职业技术学院 心理健康预警方法、用户终端、服务器与系统
US12002487B2 (en) 2019-02-22 2024-06-04 Sony Group Corporation Information processing apparatus and information processing method for selecting a character response to a user based on emotion and intimacy

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103369289B (zh) * 2012-03-29 2016-05-04 深圳市腾讯计算机系统有限公司 一种视频模拟形象的通信方法和装置
CN104424955B (zh) * 2013-08-29 2018-11-27 国际商业机器公司 生成音频的图形表示的方法和设备、音频搜索方法和设备
WO2016035069A1 (en) * 2014-09-01 2016-03-10 Beyond Verbal Communication Ltd System for configuring collective emotional architecture of individual and methods thereof
US10366689B2 (en) * 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
US10293260B1 (en) * 2015-06-05 2019-05-21 Amazon Technologies, Inc. Player audio analysis in online gaming environments
JP6782173B2 (ja) * 2017-01-11 2020-11-11 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および音声データ通信管理方法
CN108038160B (zh) * 2017-12-06 2019-03-08 央视动画有限公司 动态动画保存方法、动态动画调用方法及装置
US10546409B1 (en) * 2018-08-07 2020-01-28 Adobe Inc. Animation production system
JP6993314B2 (ja) * 2018-11-09 2022-01-13 株式会社日立製作所 対話システム、装置、及びプログラム
WO2021039924A1 (ja) 2019-08-29 2021-03-04 有限会社Bond 番組制作装置、番組制作方法及び記録媒体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3592194B2 (ja) * 2000-01-21 2004-11-24 株式会社リコー 映像内容説明文生成方法、映像内容説明文生成装置及び記録媒体
KR20020022504A (ko) * 2000-09-20 2002-03-27 박종만 3차원 캐릭터의 동작, 얼굴 표정, 립싱크 및 립싱크된음성 합성을 지원하는 3차원 동영상 저작 도구의 제작시스템 및 방법
KR100374914B1 (ko) * 2000-08-30 2003-03-06 송대호 출판만화를 이용한 애니메이션 제작방법
JP2003248837A (ja) 2001-11-12 2003-09-05 Mega Chips Corp 画像作成装置、画像作成システム、音声生成装置、音声生成システム、画像作成用サーバ、プログラム、および記録媒体
DE60224776T2 (de) * 2001-12-20 2009-01-22 Matsushita Electric Industrial Co., Ltd., Kadoma-shi Virtuelles Bildtelefon
WO2004023451A1 (en) * 2002-09-09 2004-03-18 Ingeeni Studios, Inc. Artificial intelligence platform
US7257538B2 (en) * 2002-10-07 2007-08-14 Intel Corporation Generating animation from visual and audio input
JP2005266912A (ja) 2004-03-16 2005-09-29 Nara Institute Of Science & Technology 人物アニメーション作成システム及びそのユーザインタフェース
TWI263156B (en) 2004-12-17 2006-10-01 Shiau-Ming Wang Automatic program production system and method thereof
JP2008046425A (ja) * 2006-08-17 2008-02-28 National Institute Of Information & Communication Technology 印象表現出力装置及び方法
CN101145244A (zh) * 2006-09-12 2008-03-19 叶琦 网络传播的数码动漫真人秀照片连环画
US20090128567A1 (en) * 2007-11-15 2009-05-21 Brian Mark Shuster Multi-instance, multi-user animation with coordinated chat
US20090135177A1 (en) * 2007-11-20 2009-05-28 Big Stage Entertainment, Inc. Systems and methods for voice personalization of video content
KR101334066B1 (ko) * 2008-02-11 2013-11-29 이점식 진화하는 사이버 로봇 시스템 및 그 제공 방법
JP5363797B2 (ja) * 2008-12-22 2013-12-11 任天堂株式会社 ゲームプログラムおよびゲーム装置
KR20100112764A (ko) * 2009-04-10 2010-10-20 엘지이노텍 주식회사 동작교정장치 및 그 제어방법과 이를 이용한 동작교정 서비스시스템
US9665563B2 (en) * 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085952A (ja) * 2012-10-25 2014-05-12 Kddi Corp 表情生成装置およびプログラム
JP2014167737A (ja) * 2013-02-28 2014-09-11 Kddi Corp 仕草生成装置およびプログラム
CN103785171A (zh) * 2014-01-23 2014-05-14 北京智明星通科技有限公司 一种集成单击自感应及滑动操作模式的游戏系统及方法
CN103785171B (zh) * 2014-01-23 2016-08-17 北京智明星通科技有限公司 一种集成单击自感应及滑动操作模式的游戏系统及方法
US12002487B2 (en) 2019-02-22 2024-06-04 Sony Group Corporation Information processing apparatus and information processing method for selecting a character response to a user based on emotion and intimacy
CN109979592A (zh) * 2019-03-25 2019-07-05 广东邮电职业技术学院 心理健康预警方法、用户终端、服务器与系统

Also Published As

Publication number Publication date
WO2012105318A1 (ja) 2012-08-09
US9898850B2 (en) 2018-02-20
JP4725936B1 (ja) 2011-07-13
KR101492359B1 (ko) 2015-02-10
CN103430217B (zh) 2016-06-08
KR20130116349A (ko) 2013-10-23
TW201233413A (en) 2012-08-16
US20140002464A1 (en) 2014-01-02
TWI436808B (zh) 2014-05-11
CN103430217A (zh) 2013-12-04

Similar Documents

Publication Publication Date Title
JP4725936B1 (ja) 入力支援装置、入力支援方法及びプログラム
US10901687B2 (en) Apparatus, systems and methods for presenting content reviews in a virtual world
US20160110922A1 (en) Method and system for enhancing communication by using augmented reality
US8830244B2 (en) Information processing device capable of displaying a character representing a user, and information processing method thereof
US9667574B2 (en) Animated delivery of electronic messages
US20150287403A1 (en) Device, system, and method of automatically generating an animated content-item
US11005796B2 (en) Animated delivery of electronic messages
CN104994921A (zh) 用于分布式故事阅读的视觉内容修改
JP2004128614A (ja) 画像表示制御装置及び画像表示制御プログラム
JP2016511837A (ja) 分散型ストーリーリーディングのための音声変更
US10812430B2 (en) Method and system for creating a mercemoji
US11354871B2 (en) Head-mountable apparatus and methods
JP7502354B2 (ja) 3次元(3d)環境用の統合された入出力(i/o)
CN112819933A (zh) 一种数据处理方法、装置、电子设备及存储介质
JP2011055483A (ja) 番組画像配信システム、番組画像配信方法及びプログラム
WO2020039702A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2012166072A1 (en) Apparatus, systems and methods for enhanced viewing experience using an avatar
US11183219B2 (en) Movies with user defined alternate endings
KR20230127792A (ko) 3d 기반 영상 콘텐츠 제작 시스템
US11330307B2 (en) Systems and methods for generating new content structures from content segments
JP5777233B1 (ja) 動画生成装置及び動画生成方法
WO2023282049A1 (ja) 情報処理装置、情報処理方法、情報処理システム、コンピュータプログラム及び記録媒体
CN117173295A (zh) 一种基于交互平台实现数字人与用户的交互方法
WO2019026397A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

R150 Certificate of patent or registration of utility model

Ref document number: 4725936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250