JPWO2020039702A1 - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2020039702A1
JPWO2020039702A1 JP2020538191A JP2020538191A JPWO2020039702A1 JP WO2020039702 A1 JPWO2020039702 A1 JP WO2020039702A1 JP 2020538191 A JP2020538191 A JP 2020538191A JP 2020538191 A JP2020538191 A JP 2020538191A JP WO2020039702 A1 JPWO2020039702 A1 JP WO2020039702A1
Authority
JP
Japan
Prior art keywords
data
program content
information
information processing
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020538191A
Other languages
English (en)
Inventor
倉田 宜典
宜典 倉田
城井 学
学 城井
一真 高橋
一真 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020039702A1 publication Critical patent/JPWO2020039702A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

制御文字が含まれる文章データを含む素材データを取得し、前記素材データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する制御部を備える情報処理装置である。図16

Description

本開示は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。
近年、情報処理技術の進歩に伴い、テレビ、ラジオ又はインターネットの動画配信サイト等で放送される番組コンテンツについて、様々な生成方法又は提供方法が開発されている。例えば、以下の特許文献1には、ニュース、天気、ツイッタフィードなど、ウェブサイトで提供される各種テキスト情報を、楽曲などのオーディオデータと組み合わせて番組コンテンツを生成する技術及び生成された番組コンテンツを音声出力する技術が開示されている。
特許第6065019号公報
このような分野では、例えば、専門的な知識を有しないユーザであっても、番組コンテンツを容易に作成、編集等できることが望まれる。
本開示は、専門的な知識を有しないユーザであっても、番組コンテンツを容易に作成、編集等することができる情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することを目的の一つとする。
本開示は、例えば、
制御文字が含まれる文章データを含む素材データを取得し、素材データを解析し、文章データに基づく出力がなされ、且つ、制御文字に基づく制御が反映された番組コンテンツデータを自動生成する制御部を備える
情報処理装置である。
本開示は、例えば、
任意の端末から送信された、制御文字が含まれる文章データを含むメッセージ情報を受信する通信部と、
受信したメッセージ情報のアカウント情報が予め設定されたアカウント情報である場合に、文章データを解析し、文章データに基づく出力がなされ、且つ、制御文字に基づく制御が反映された番組コンテンツデータを自動生成する制御部と
を備える情報処理システムである。
本開示は、例えば、
制御部が、制御文字が含まれる文章データを含む素材データを取得し、素材データを解析し、文章データに基づく出力がなされ、且つ、制御文字に基づく制御が反映された番組コンテンツデータを自動生成する
情報処理方法である。
本開示は、例えば、
制御部が、制御文字が含まれる文章データを含む素材データを取得し、素材データを解析し、文章データに基づく出力がなされ、且つ、制御文字に基づく制御が反映された番組コンテンツデータを自動生成する
情報処理方法をコンピュータに実行させるプログラムである。
少なくとも一つの実施の形態によれば、番組コンテンツを容易に作成、編集等することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であっても良い。また、例示された効果により本開示の内容が限定して解釈されるものではない。
図1は、本開示の実施の形態に係る番組提供システムの構成を示す図である。 図2は、番組コンテンツの作成者によって入力される情報である「ジャンル」の一例を示す図である。 図3は、番組コンテンツの作成者によって入力される情報である「種別」の一例を示す図である。 図4Aから図4Cは、番組コンテンツの作成者によって入力される情報である「テンプレート」の一例を示す図である。 図5は、ある伝達情報に対して再生時間が異なる複数の原稿データが生成された場合についての、複数の原稿データの一例を示す図である。 図6A及び図6Bは、伝達される情報又は再生日時等に、視覚情報を適応させる機能を説明するための図である。 図7は、キャラクターの動作を自動的に付加する機能を説明するための図である。 図8は、配信装置が備える機能構成の一例を示すブロック図である。 図9は、ユーザ端末が備える機能構成の一例を示すブロック図である。 図10は、配信装置の動作の一例を示すフローチャートである。 図11は、ユーザ端末の動作の一例を示すフローチャートである。 図12は、配信装置及びユーザ端末のハードウェア構成の一例を示すブロック図である。 図13は、番組コンテンツデータを自動生成する上での各種の設定を行うための設定画面の一例を示す図である。 図14は、ユーザ端末で作成されるメールの画面例を示す図である。 図15A及び図15Bは、メールに添付される画像の一例を示す図である。 図16は、第2の実施の形態で配信装置が行う動作例を説明するためのフローチャートである。 図17A及び図17Bを参照して、自動生成された番組コンテンツの具体例を説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を適宜、省略する。
なお、説明は以下の順序で行うものとする。
<第1の実施の形態>
<第2の実施の形態>
<変形例>
<第1の実施の形態>
[背景]
まず、本開示の背景について説明する。テレビ、ラジオ又はインターネットの動画配信サイト等で放送される番組コンテンツは、予め作成された原稿と話者(例えば、アナウンサー、司会者又はラジオパーソナリティ等)のアドリブ等によって構成されている。
より具体的には、話者は、自らのスキル及び経験等に基づいて、伝達する内容の追加、変更又は削除等を行うことによって、番組コンテンツが予め決められた放送時間に終了するように調整している。例えば、原稿の内容が残りの放送時間に伝達可能な量よりも多い場合には、話者は、より優先度が低い内容を省略したり、より短い表現に変更したりすること等によって、より優先度が高い情報を伝達しつつ番組コンテンツを放送時間に終了させるように調整している。
また、原稿が複数存在する場合、話者は、ある原稿を読み終えて、次の原稿を読み始めるまでの間に、接続詞(例えば、「さて」、「続いて」、「それでは」、「ところで」等)又はアドリブ等を適宜挿入することによって、ある原稿から次の原稿への移行を円滑に行っている。
また、話者は、ユーザの視聴状況に応じてアドリブを入れる場合がある。例えば、過去に伝達された情報が再び伝達される場合、話者は、「お伝えしているとおり」等のように原稿の内容への導入部分としてアドリブを入れる場合がある。また、過去に伝達されていない新規情報が伝達される場合、話者は、「について新たな情報が入ってきました。」等のアドリブを入れる場合がある。
また、緊急情報(災害情報、その他重要度の高い情報等)を伝達する必要が生じた場合には、話者は、伝達中の情報の途中に緊急情報を伝達したり、伝達する情報の順番を入れ替えることによって優先的に緊急情報を伝達したりしていた。
また、話者は、伝達する情報の内容に応じて身振り手振り等のジェスチャーを交えながら情報を伝達することがある。例えば、天気予報において、話者が指示棒で天気図の一部を指し示しながら情報を伝達したり、表示された動画又は静止画に視線を向けながら情報を伝達したりする場合がある。
また、話者は、伝達する内容に基づいて表情又は声のトーン等を適宜変える。例えば、伝達する内容が悲報(例えば、事故もしくは災害の発生又は人の死去等)である場合には、話者は、表情を暗く変え、声のトーンを低く変えて情報を伝達する。逆に、伝達する内容が朗報(例えば、結婚、出産又は大会での優勝等)である場合には、話者は、表情を明るく変え、声のトーンを高く変えて情報を伝達する。また、表情又は声のトーンだけでなく、例えば、話者の衣装、BGM又は背景等が、伝達される内容に基づいて変更される場合もある。
また、BGM、背景、話者の表情、声のトーンもしくは衣装等は、伝達される内容だけでなく、番組コンテンツが再生される日時もしくは地域、又は、再生時の季節、天気もしくは気温にも基づいて変更される場合がある。例えば、再生時の季節が夏である場合には、話者の衣装が夏服にされ、BGM及び背景が夏を連想させる曲及び背景に変更される場合がある。
以上も踏まえて、一つの番組コンテンツが作成されるまでには、原稿の作成、衣装の決定及び調達、BGMの決定及び編集、背景の決定、作成及び設置、カメラワークの決定、話者のキャスティング、話者との打ち合わせ、話者によるアドリブの内容の検討等、リハーサル、本番撮影、編集及び放送等のように、多くの作業が行われることによって、番組コンテンツの作成コストは大きくなる傾向にあった。また、番組コンテンツの品質(視聴者が心地よく視聴可能か否か、アドリブが適切であるか否か等)及び番組コンテンツが放送時間に終了するか否か等については話者のスキル又は経験等に依存していた。
本件の開示者は、上記事情に鑑み、本開示を創作するに至った。本開示は、素材データを取得し、素材データの内容を解析し、その内容に基づいて視覚情報を含む番組コンテンツを自動生成することができる。以降では、本開示の実施の形態に係る番組提供システムの詳細について説明していく。
[番組提供システムの構成]
上記では、本開示の背景について説明した。続いて、図1を参照して、本開示の実施の形態に係る番組提供システムの構成について説明する。
図1に示すように、本実施の形態に係る番組提供システムは、配信装置100と、ユーザ端末200とを備え、配信装置100及びユーザ端末200はネットワーク300によって接続されている。
配信装置100は、番組コンテンツを自動生成し、配信する機能を有する情報処理装置である。より具体的には、番組コンテンツの作成者が番組コンテンツの元となる素材データを配信装置100に対して入力すると、配信装置100は、素材データの内容に基づいて視覚情報を含む番組コンテンツを自動生成する。
例えば、配信装置100は、素材データとして入力された文章データに基づいて原稿データを生成する。そして、配信装置100は、当該原稿データと、素材データとして入力された動画データ又は静止画データ等に基づいて視覚情報を含む番組コンテンツを生成する。ここで、番組コンテンツは、原稿データに対して音声合成処理が施されることによって音声を出力可能なものであっても良いし、原稿データを字幕として表示可能なものであっても良いし、入力された動画データ又は静止画データ以外の、例えば、任意のキャラクターを表示可能なものであっても良い。また、番組コンテンツは、テレビで放送されるコンテンツ、インターネットの動画配信サイトで配信されるコンテンツ、所定の広告媒体に表示されるコンテンツ又はラジオで放送されるコンテンツ等を含み、且つ、これらに限定されない。番組コンテンツの内容及び生成方法等の詳細については後述する。
そして、配信装置100は、生成した番組コンテンツをユーザ端末200に提供することで視聴者に対して番組コンテンツを提供する。より具体的には、配信装置100は、ユーザ端末200がアクセス可能なサーバ(例えば、インターネット上の特定のWEB(World Wide Web)サイトを管理するWEBサーバ等)に番組コンテンツをアップロードし、ユーザ端末200が当該サーバから番組コンテンツをダウンロードする。なお、番組コンテンツの提供方法はこれに限定されない。例えば、ユーザ端末200がネットワーク300を介して配信装置100に直接アクセスして、番組コンテンツを取得しても良い。また、ユーザ端末200が番組コンテンツをダウンロードするプル型配信ではなく、プッシュ型配信が行われても良い。
ユーザ端末200は、配信装置100によって配信された番組コンテンツを再生する機能を有する情報処理装置である。より具体的には、ユーザ端末200は、視聴者の操作に基づいて選択された番組コンテンツを、自装置に備えられる出力部(例えば、ディスプレイ、スピーカー等)を用いて再生する。
また、ユーザ端末200は、配信装置100によって生成された番組コンテンツを編集する機能を有する。例えば、ユーザ端末200は、視聴者による設定、又は、視聴者の嗜好情報等に基づいて番組コンテンツの内容(原稿データ、動画データ、静止画データ又はBGMの内容等)又は再生方法(例えば、表示サイズ、音量、速度等)を編集する機能を有する。また、ユーザ端末200は、配信装置100が途中まで加工した素材データを用いて番組コンテンツを生成する機能も有する。例えば、ユーザ端末200は、配信装置100が、フィルタリングによるノイズ除去、トリミング、フォーマット変換等を施した素材データを用いて番組コンテンツを生成する機能を有する。
なお、本明細書では一例として、上記のように、配信装置100が生成した番組コンテンツを、ユーザ端末200が再生したり編集したりする場合を説明するが、各種処理は配信装置100及びユーザ端末200のどちらで実行されても良い(換言すると、配信装置100とユーザ端末200は互いに同一の機能構成を備え得る。)。例えば、配信装置100が番組コンテンツの元となるデータ(素材データ自体、又は、素材データが加工されたデータ)を配信し、ユーザ端末200が当該データ及び視聴者の嗜好情報等を用いて番組コンテンツを自動生成して再生しても良い。また、ユーザ端末200が視聴者の嗜好情報等を配信装置100に提供し、配信装置100が当該情報を用いて自動生成した番組コンテンツをユーザ端末200に配信しても良い。
配信装置100及びユーザ端末200は、例えば、デスクトップ型、ノート型もしくはタブレット型のPC(Personal Computer)、スマートフォン、汎用コンピュータ、各種ウェアラブル端末(例えば、メガネ型端末、時計型端末、衣服型端末、指輪型端末、ブレスレット型端末、イヤリング型端末、ネックレス型端末等)、ヘッドマウント型ディスプレイ等であるが、これらに限定されない。
ネットワーク300は、ネットワーク300に接続されている配信装置100及びユーザ端末200によって通信される情報のための有線、又は無線の伝送路である。例えば、ネットワーク300は、インターネットなどの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでも良い。また、ネットワーク300は、IP−VPN(Internet Protocol−Virtual PrivateNetwork)などの専用回線網や、Bluetooth(登録商標)などの近距離無線通信網を含んでも良い。
なお、図1の構成はあくまで一例であり、本実施の形態に係る番組提供システムの構成は、これに限定されない。例えば、上記のとおり、本実施の形態に係る番組提供システムは、配信装置100又はユーザ端末200のいずれかによって構成されても良い。
[機能概要]
上記では、本開示の実施の形態に係る番組提供システムの構成について説明した。続いて、実施の形態に係る番組提供システムの機能概要について説明する。
(原稿生成機能)
本実施の形態に係る番組提供システムは、放送される原稿データを自動生成する機能を有する。
より具体的に説明すると、まず、配信装置100は、素材データとして文章データ、及び、当該文章データの内容についてのジャンルもしくは種別、又は、テンプレートに関する情報を入力される。
ここで、文章データは、テキストファイル、ワープロソフト等で生成されたデータファイルを想定しているが、これに限定されない。例えば、文章データは、文章が表示された画像ファイルであり、配信装置100が当該画像ファイルを解析することで文章を抽出しても良い。また、文章データは単数であっても良いし、複数であっても良い。
また、文章データの内容についてのジャンルとは、伝達される情報の分類であり、例えば、図2に示すように、「政治」、「経済」、「エンターテインメント」、「スポーツ」、「国際」、「天気」等であるがこれに限定されない。例えば、ジャンルとは、「全国の天気」、「東京都の天気」、「1週間の天気」、「1日の天気」等のように、上記のジャンル(例えば、「天気」等)を細分化したものであっても良い。なお、当該ジャンルの入力は必須ではない。
また、文章データの内容についての種別とは、伝達される情報が何らかの種類によって区別されたものであり、例えば、図3に示すように、「世界」、「全国」、「県」、「市」、「区町村」、「個人」等のように情報伝達の対象範囲の種類によって区別されたもの等であるがこれに限定されない。例えば、文章データの内容についての種別とは、「男性」、「女性」、「老人」、「子供」等のように情報伝達の対象者の種類によって区別されたものであっても良いし、「緊急」又は「通常」等のように情報伝達の緊急性の種類によって区別されたものであっても良いし、「悲報」又は「朗報」等のように情報内容によって区別されたものであっても良い。なお、当該種別の入力は必須ではない。
テンプレートとは、番組コンテンツの構成パターンを示す情報である。例えば、テンプレートとは、図4に示すように、「オープニング(4A)」、「トピック(4B)」、「エンディング(4C)」という構成パターンである。なお、テンプレートは、図4の例に限定されず、例えば、「オープニング(4A)」、「トピック(4B)」、「エンディング(4C)」のいずれかが省略された構成パターンであっても良いし、これら以外の構成が追加された構成パターンであっても良い。また、テンプレートは、カメラワーク、画面構成(キャラクター、動画、静止画又はテロップの位置関係等)、キャラクターの有無、キャラクターの属性(性別、年齢、声質、衣装、キャラクターが人間以外(動物等)である場合にはその種類等)、音声の有無等の設定が付加された情報であっても良い。当該テンプレートは、作成者によって作成されても良いし、既存の番組(例えば、テレビ番組、インターネット配信番組、ラジオ番組等)の学習結果に基づいて自動生成されても良い。作成者は、このようなテンプレートを選択することによって、所望の番組コンテンツを配信装置100に生成させることができる。なお、テンプレートの入力は必須ではない。
配信装置100は、入力された上記の各種情報に基づいて原稿データを自動生成する。より具体的には、配信装置100は、入力された文章データを解析し文章データの内容を把握する。例えば、配信装置100は、文章データに含まれる単語を抽出し、自装置に記憶されている情報又は外部装置(例えば、外部のWEBサーバ等)から取得した情報等を用いて当該単語の内容を認識する。これによって、配信装置100は、入力されたジャンル又は種別だけでなく、文章データを自ら解析した結果に基づいて、文章データの内容についてのジャンル又は種別等を認識し、この後の処理に用いることができる。
そして、配信装置100は、ジャンル、種別、テンプレート、文章データの解析結果等に基づいて放送される原稿データを自動生成する。より具体的には、配信装置100は、入力された文章データの一部の削除もしくは変更、又は、文章データに含まれない情報の追加等を行うことで原稿データを自動生成する。
ここで、図4のテンプレートが用いられる場合を一例として、原稿データの自動生成について説明する。例えば、トピック(4B)で放送される情報についての文章データが配信装置100に入力されたとする。配信装置100は、入力された文章データを用いて、トピック(4B)で放送される原稿データを自動生成するとともに、オープニング(4A)及びエンディング(4C)で放送される原稿データも自動生成する。
配信装置100は、オープニング(4A)、トピック(4B)及びエンディング(4C)にて放送される原稿データを生成するにあたり、伝達される情報の内容、番組コンテンツデータが再生される日時もしくは地域、又は、再生時の季節、天気もしくは気温に基づいて、入力された文章データに含まれない内容を追加する。例えば、配信装置100は、オープニング(4A)に「明けましておめでとうございます。2017年1月1日のニュースをお伝えします。」等のように番組コンテンツデータが再生される日時に基づく内容を追加しても良い。また、配信装置100は、トピック(4B)の冒頭に「早速ですが、悲報が入ってきました。」等のように伝達される情報の内容に基づく内容を追加しても良い。また、配信装置100は、エンディング(4C)に「この後、午前10時から午後15時までに、東京都では強い雨が降ることが予想されます。雨具をお忘れなく。」等のように再生される地域及び再生時の天気に基づく内容を追加しても良い。
また、視聴者の行動又は視聴者が置かれた状況(又は環境)等に応じた内容が追加されても良い。より具体的には、配信装置100(又はユーザ端末200)が、視聴者によって装着されているウェアラブル端末の各種センサ(例えば、加速度センサ、ジャイロセンサ又は気圧センサ等)によって取得されたデータを解析することで、視聴者の行動又は視聴者が置かれた状況等を認識し、これらに応じた内容を追加しても良い。例えば、配信装置100等は、視聴者が通勤中であると認識した場合には、エンディング(4C)に「今日もお仕事頑張ってください。」等の内容を追加しても良い。
また、配信装置100等は、未来のある時点における視聴者の行動又は視聴者が置かれる状況(又は環境)等を、上記のセンシングデータ等を解析することで予測し、当該予測結果に応じた内容を追加しても良い。例えば、配信装置100等は、視聴者が通勤時に乗り物(例えば、電車又は自動車等)に乗ったことを認識した場合、過去の行動履歴に基づいて予測した降車時間において、「今日もお仕事頑張ってください。」等の内容を追加しても良い。なお、上記のように追加される内容は、予め、他の文章データが入力されることによって自動生成されたものであっても良い。
また、配信装置100は、入力された文章データの一部の削除又は変更を行う。例えば、上記のように追加された内容の中に、入力された文章データと重複する内容が含まれる場合(例えば、「2017年1月1日のニュースをお伝えします。」という内容が追加され、同様の趣旨の内容が文章データにも含まれる場合)、配信装置100は、文章データにおける重複部分の削除又は変更を適宜行っても良い。また、配信装置100は、同一の単語が頻発したり難解な単語が存在したりする場合に適宜別の表現に変更しても良い。
なお、配信装置100は、素材データである文章データを変更することなく原稿データを生成しても良い。例えば、何らかの理由で文章データの変更が禁止されている場合(例えば、文章データが著作権で保護されている場合等)において、配信装置100は、入力された文章データを変更することなく、文章データの前後に付加する内容を調整することで原稿データを生成しても良い。その際、配信装置100は、原稿の読み上げ速度を調整したり、適宜間を設けたりすることで、視聴者が違和感を受けにくくすることができる(なお、再生時間の調整については後述する)。
これによって、配信装置100は、話者(例えば、アナウンサー、司会者又はラジオパーソナリティ等)がアドリブを交えつつ提供するような品質の高い番組コンテンツを生成することができ、かつ、番組コンテンツの生成コストを削減することができる。また、番組コンテンツの作成者は、核となる情報である文章データの作成に注力することができる。
また、予め放送時間が決められている番組コンテンツにおいて、配信装置100は、放送時間に番組コンテンツが終了するように、原稿データを生成することができる。より具体的には、配信装置100は、原稿データを生成する際に、音声データの再生時間を算出する。例えば、配信装置100は、音声合成に用いられる各種パラメータの内容に基づいて、原稿データの音声合成後の音声データの再生時間を算出する。
そして、生成された原稿データ(又は生成中の原稿データ)の再生時間が予め決められた放送時間よりも長い場合、配信装置100は、原稿データを編集する。例えば、配信装置100は、入力された文章データにおいて優先度の低い情報を削除したり、文章データとは異なる表現に変更したり、追加した内容の削除又は変更等によって、原稿データの再生時間が予め決められた放送時間になるように原稿データを編集する。逆に、生成された原稿データ(又は生成中の原稿データ)の再生時間が予め決められた放送時間よりも短い場合、配信装置100は、入力された文章データとは異なる表現に変更したり、追加した内容を変更したり、新たに別の内容を追加すること等によって、原稿データの再生時間が予め決められた放送時間になるように原稿データを編集する。
ここで、配信装置100は、ある伝達情報に対して再生時間が異なる複数の原稿データを生成し、当該複数の原稿データの中から適切な原稿データを選択することで、放送時間に終了する原稿データの生成を実現しても良い。例えば、配信装置100は、入力された文章データを解析し、その解析結果に基づいて、図5に示すような、再生時間が互いに異なり、かつ、視聴者が理解し得る複数の原稿データを生成する。そして、配信装置100は、放送時間又は他の伝達情報の原稿データ等に基づいて、複数の原稿データの中から適切な原稿データを選択することで、放送時間に終了する原稿データの生成を実現しても良い。なお、配信装置100は、図5に示すようなリストを作成者に提示することによって、作成者に複数の原稿データの中から所望の原稿データを選択させても良い。
以上によって、配信装置100は、話者(例えば、アナウンサー、司会者又はラジオパーソナリティ等)が、伝達すべき情報と残りの放送時間に基づいて伝達する内容、表現方法又は話す速度等を変えるように動作することができ、番組コンテンツを放送時間に終了させることができる。
(音又は視覚情報の生成機能)
また、本実施の形態に係る番組提供システムは、番組コンテンツの音又は視覚情報を自動生成する機能を有する。
より具体的に説明すると、配信装置100は、素材データとして動画データ又は静止画データ等を入力される。そして、配信装置100は、これらのデータと、上記で設定された情報(ジャンル、種別又はテンプレート等)及び上記で生成した原稿データを用いて、音又は視覚情報を含む番組コンテンツを自動生成する。
例えば、配信装置100は、生成した原稿データを用いて音声合成処理を行うことによって、音声データを含む番組コンテンツを生成する。また、配信装置100は、音声だけでなく、何らかの音(例えば、BGM、効果音等)を付加することもできる。また、配信装置100は、入力された素材データの解析結果に基づいて何らかの音を付加しても良い。例えば、素材データがスポーツ大会に関する動画データ等であると解析された場合、配信装置100は、当該スポーツ大会のテーマ曲をBGMとして付加しても良い。
また、配信装置100は、設定されたテンプレートに基づいて番組コンテンツの構成パターン(カメラワーク、画面構成(キャラクター、動画、静止画又はテロップの位置関係等)、キャラクターの有無、キャラクターの属性(性別、年齢、声質、衣装、キャラクターが人間以外(動物等)である場合にはその種類等)、音声の有無等の設定が付加された情報を含む)を決定する。そして、配信装置100は、入力された動画データ又は静止画データを構成パターンにおける所定のタイミング及び位置に挿入する。図4を参照して具体的に説明すると、配信装置100は、入力された動画データ又は静止画データをトピック(4B)における、画面左上の位置に挿入する。
このとき、配信装置100は、入力された動画データ又は静止画データを適宜編集しても良い。より具体的には、配信装置100は、動画データ又は静止画データを解析して動画データ又は静止画データにおいてより重要度が高い部分を認識する。なお、配信装置100は、動画データ又は静止画データの解析にあたり、原稿データの内容を参照しても良い。例えば、原稿データに「宇宙飛行士」という単語が存在する場合に、配信装置100は、動画データ又は静止画データに含まれる宇宙飛行士の重要度がより高いと認識しても良い。そして、配信装置100は、より重要度が高い部分が視認され易いように動画データ又は静止画データを編集(例えば、トリミング、縦横比の変更等)することで、動画データ又は静止画データがより適切に画面中に挿入されるようにしても良い。
これによって、配信装置100は、番組コンテンツの品質を高く維持しつつ、音又は視覚情報を含む番組コンテンツの生成コストを削減することができる。
なお、番組コンテンツに表示されるキャラクターの生成方法は特に限定されず、2次元のアニメーションを生成する任意の技術が用いられ得る。例えば、任意のソフトウェアによって生成されたイラストにおいて複数の特徴点を指定し、各特徴点の位置座標の時間的変化を指定することによって2次元のアニメーションを生成する技術が用いられても良い。また、任意の3次元モデリング技術(例えば、モデリング、レンダリング又はレタッチ等)が併用されることで、3次元のアニメーションが生成されても良い。
(伝達される情報又は再生日時等に、音又は視覚情報を適応させる機能)
また、本実施の形態に係る番組提供システムは、伝達される情報の内容又は再生日時等に、音又は視覚情報を適応させる機能を有する。
より具体的に説明すると、配信装置100は、伝達される情報の解析結果又は設定された情報(ジャンル、種別又はテンプレート等)によって、伝達される情報の内容を認識し、番組コンテンツの音又は視覚情報を当該内容に適応させる。例えば、伝達される情報の内容が朗報に関するものであった場合、図6Aに示すように、配信装置100は、視聴者に明るい印象を与えるような衣装をキャラクターの衣装として決定する。逆に、伝達される情報の内容が悲報に関するものであった場合、図6Bに示すように、配信装置100は、視聴者に暗い印象(又は改まった印象)を与えるような衣装をキャラクターの衣装として決定する。もちろん、衣装の具体的内容は図6に限定されない。例えば、伝達される情報の内容がスポーツの大会に関するものであれば、キャラクターの衣装はスポーツチームのユニフォーム等であっても良い。
なお、配信装置100は、キャラクターの衣装だけでなく、BGM、背景又はキャラクターの属性、表情もしくは声のトーン等を適応させることができる。例えば、配信装置100は、伝達される情報が朗報である場合には、配信装置100は、BGM、背景及びキャラクターを、明るい印象を与える曲、背景及びキャラクターにし、キャラクターの表情を明るい表情にし、キャラクターの声のトーンを高くしても良い。
また、配信装置100は、音又は視覚情報を、番組コンテンツデータが再生される日時もしくは地域、又は、再生時の季節、天気もしくは気温等に適応させる。例えば、放送時の季節が夏である場合には、配信装置100は、BGM及び背景を、夏を連想させる曲及び背景にし、キャラクターの衣装を夏服にし、キャラクターの肌を日焼けさせた状態にしても良い。なお、上記はあくまで一例であり、配信装置100は、番組コンテンツデータが再生される日時もしくは地域、又は、再生時の季節、天気もしくは気温以外の情報に基づいて音又は視覚情報を制御しても良い。
また、配信装置100は、音又は視覚情報を、視聴者の行動又は視聴者が置かれた状況(又は環境)等に適応させる。より具体的には、配信装置100が、視聴者によって装着されているウェアラブル端末の各種センサ(例えば、加速度センサ、ジャイロセンサ又は気圧センサ等)によって取得されたデータを解析することで、視聴者の行動又は視聴者が置かれた状況等を認識し、これらに音又は視覚情報を適応させる。例えば、配信装置100は、視聴者がリラックスした状態で休日を過ごしていると認識した場合、BGM及び背景を、リラクゼーション効果の高い曲及び背景にし、キャラクターの衣装を、よりカジュアルな衣装にしても良い。また、配信装置100は、未来のある時点における視聴者の行動又は視聴者が置かれる状況(又は環境)等を、上記のセンシングデータ等を解析することで予測し、当該予測結果に音又は視覚情報を適応させても良い。
また、上記において制御される対象は、BGM、背景又はキャラクターの属性、衣装、表情もしくは声のトーンだけに限定されず、番組コンテンツの音又は視覚情報に関するものであれば何でも良い。
これによって、配信装置100は、伝達される情報の内容又は再生日時等に基づいて話者(例えば、アナウンサー、司会者又はラジオパーソナリティ等)が表情及び声のトーンを変えたり、話者の衣装、BGM又は背景等が変更されたりすることと同様の効果を生じさせることができる。
(キャラクターの動作付加機能)
また、本実施の形態に係る番組提供システムは、キャラクターの動作を自動的に付加する機能を有する。
より具体的に説明すると、配信装置100は、入力された動画データ又は静止画データを解析し、動画データ又は静止画データに含まれる対象の表示位置に連動するようにキャラクターの動作を制御する。例えば、図7に示すように、天気図の遷移に関する動画データが入力された場合、配信装置100は、当該動画データを解析し、天気図に表示されている台風の目の表示位置を認識する。そして、配信装置100は、台風の目の表示位置に指示棒の先が位置するように、天気図の遷移に連動してキャラクターの手を動作させても良い。
もちろん、動作の制御内容は図7の例に限定されない。例えば、配信装置100は、スポーツの動画データが入力された場合、ハイライトシーンが再生されるタイミングでキャラクターに喜ぶリアクションをとらせても良い。また、キャラクターの動作が連動する対象は特に限定されない。例えば、キャラクターの動作が連動する対象は、動画データもしくは静止画データに含まれる人間、動物、物、光(例えば、花火又はイルミネーション等)、イラスト又は文字等であっても良い。
これによって、配信装置100は、話者(例えば、アナウンサー、司会者又はラジオパーソナリティ等)が、実際に、動画又は静止画に反応して動作することと同様の効果を生じさせることができる。
(各種情報の要求機能)
また、本実施の形態に係る番組提供システムは、番組コンテンツの自動生成に用いられる情報を要求する機能を有する。
より具体的に説明すると、配信装置100は、上記で説明してきた、番組コンテンツの自動生成に用いられる各種情報(例えば、ジャンル、種別、テンプレート、文章データ、動画データ又は静止画データ等)が不足している場合、又は、情報が不適切である場合(動画又は静止画が鮮明でない場合、又は、動画が短過ぎたり長過ぎたりする場合等)等において、不足している情報、又は、より品質の高い新たな情報を作成者に要求することができる。
ここで、不足している情報等の要求方法は特に限定されない。例えば、配信装置100は、自装置に備えられる出力部(例えば、ディスプレイ又はスピーカー等)を用いて不足している情報等の要求を行っても良い。その際、配信装置100は、単に「情報が不足している」又は「情報が不適切である」という情報を通知するだけでなく、不足している情報の内容又は適切な情報の内容を明示することによって、作成者に対してより明確な要求を行っても良い。
これによって、配信装置100は、より円滑に番組コンテンツを自動生成することができる。また、配信装置100は、より適切な情報を用いて番組コンテンツを自動生成することができるため、番組コンテンツの品質を向上させることができる。
(再生状況に応じた原稿生成(編集)機能)
また、本実施の形態に係る番組提供システムは、ユーザによる番組コンテンツの再生状況に応じて原稿データを自動生成する機能(又は自動編集する機能)を有する。
より具体的に説明すると、ユーザ端末200は、視聴者による番組コンテンツの再生状況を把握する。例えば、ユーザ端末200は、既に全て再生された番組コンテンツにてユーザに伝達された情報の内容、又は、再生中の番組コンテンツの再生済み部分にて視聴者に伝達された情報の内容等を把握する。
そして、その後に番組コンテンツにて伝達される情報の内容が、既に伝達された情報と同一であったり類似していたりする場合、ユーザ端末200は原稿データを自動編集することで、例えば、「お伝えしているとおり」等のコメントを原稿データに追加することができる。また、その後に番組コンテンツにて伝達される情報の内容が、未だ伝達されていない情報である場合、ユーザ端末200は原稿データを自動編集することで、例えば、「について新たな情報が入ってきました。」等のコメントを原稿データに追加しても良い。なお、原稿データの編集内容は、これらに限定されない。
また、ユーザ端末200だけでなく、配信装置100が当該機能を実現しても良い。例えば、ある番組コンテンツの中で、同一又は類似の内容の情報が複数回にわたって伝達される場合、配信装置100は、原稿データの自動生成の際に、例えば、「お伝えしているとおり」等のコメントを原稿データに追加しても良い。
これによって、番組提供システムは、話者(例えば、アナウンサー、司会者又はラジオパーソナリティ等)が、情報の伝達状況に応じて適宜アドリブを入れることと同様の効果を生じさせることができる。
(別内容の情報の挿入機能)
また、本実施の形態に係る番組提供システムは、再生中の番組コンテンツ(又は、再生予定の番組コンテンツ)に、別内容の情報(又は別の番組コンテンツ)を挿入する機能を有する。
より具体的に説明すると、番組提供システムは、原稿データ中に別内容の情報を挿入可能な位置を設定することができる(以降、「挿入可能位置」と呼称する)。ここで、挿入可能位置は、例えば、番組コンテンツの終了位置、番組コンテンツの内容の区切りとなる位置(例えば、話題が転換する位置等)、又は、句点の位置等であるが、これらに限定されない。
そして、例えば、ユーザ端末200が番組コンテンツを再生している途中に、緊急情報(例えば、災害情報、その他重要度の高い情報等)が配信された場合、ユーザ端末200は、再生中の番組コンテンツの挿入可能位置に緊急情報を挿入することができる。このとき、緊急情報の冒頭部分に「番組の途中ですが、緊急情報をお伝えします。」等のコメントが適宜追加されても良い。なお、上記はあくまで一例であり、挿入される情報は緊急情報に限定されない。
また、別内容の情報が挿入される場合、再生中だった番組コンテンツ内で別内容の情報が伝達されても良いし(例えば、再生中だった番組コンテンツのキャラクターが変更されることなく、緊急情報を伝達する場合等)、再生中だった番組コンテンツが別の番組コンテンツに切り替わることで別内容の情報が伝達されても良い。
なお、挿入された別内容の情報の後に再生される番組コンテンツ(換言すると、挿入前に再生中だった番組コンテンツの未再生部分)の内容は、適宜編集され得る。例えば、挿入された別内容の情報の後に再生される番組コンテンツは、内容の区切りとなる位置(例えば、話題が転換する位置等)から再生されるように編集されても良い。また、挿入された別内容の情報の後に再生される番組コンテンツの冒頭部分に「以上、緊急情報をお伝えしました。では、元の番組に戻ります。」等のコメントが適宜追加されても良い。また、別内容の情報が挿入された後には、元の番組コンテンツが再生されるのではなく、別の新たな番組コンテンツが再生されても良い。
なお、単に、アラームの鳴動と共にディスプレイの一部に緊急情報等が表示される場合(すなわち、キャラクターの音声による緊急情報等の伝達が行われない場合)においては、上記のように原稿データへの挿入等は不要である。
これによって、番組提供システムは、視聴者に対して違和感を与えることなく、再生中の番組コンテンツに対して別内容の情報を挿入することができる。
(未再生の番組コンテンツの提供機能)
また、本実施の形態に係る番組提供システムは、未再生の番組コンテンツを視聴者に対して提供する機能を有する。
例えば、上記のように、緊急情報が番組コンテンツの途中に挿入されること等によって、番組コンテンツにおいて再生されなかった部分が生じた場合、番組提供システムは、視聴者に対して当該未再生部分(又は未再生部分を含む番組コンテンツ全体)を提供することができる。なお、緊急情報等の挿入ではなくても、番組コンテンツが何らかの理由によって全て再生されなかった場合に、当該機能が使用されても良い。
ここで、未再生の番組コンテンツの提供方法は特に限定されない。例えば、所定のアプリケーション(例えば、ユーザ端末200にインストールされた所定のアプリケーション、又は、所定のWEBサイトにおけるマイページ等)に対して未再生の番組コンテンツが提供されても良い。また、音又は視覚情報を含む番組コンテンツが提供されても良いが、テキストファイルのみ(例えば、トピック部分のテキストファイルのみ等)が提供されても良い。また、視聴者が提供方法を所定の方法で指定することができても良い。
これによって、番組提供システムは、視聴者が何らかの理由により再生できなかった番組コンテンツを視聴者に提供することができ、視聴者の利便性を向上させることができる。
(スキップ等に伴う番組コンテンツの編集機能等)
また、本実施の形態に係る番組提供システムは、スキップ等に伴う番組コンテンツの編集機能等を有する。
より具体的に説明すると、視聴者は、番組コンテンツを視聴する際、途中で番組コンテンツの内容又はコマーシャル等をスキップすること(又は、早送りすること、倍速再生すること等)ができる。
例えば、予め放送時間が決められており、その放送時間に終了するように1又は2以上の番組コンテンツが再生される場合、上記のスキップ等によって放送時間よりも早く番組コンテンツが終了することになる。
本機能は、スキップ等によって当初予定されていた番組コンテンツの再生時間が短縮された場合、再生が予定されていなかった別の番組コンテンツの自動追加等を行うことで、放送時間よりも早く番組コンテンツが終了することを防ぐことができる。
なお、当該別の番組コンテンツが追加されるタイミングは特に限定されない。例えば、当該別の番組コンテンツは、当初再生が予定されていた番組コンテンツの最後のタイミングで追加されても良いし、複数の番組コンテンツの途中のタイミングで追加されても良い。
また、別の番組コンテンツが追加されるのではなく、再生中の番組コンテンツの未再生部分もしくは再生が予定されている別の番組コンテンツの自動編集が行われても良い。例えば、再生中の番組コンテンツの未再生部分の再生時間が拡大されても良い。この場合、番組コンテンツの未再生部分の原稿データ、音又は視覚情報が編集される。例えば、原稿データが編集され、より再生時間が長くなる表現方法が採用されたり、新たな内容が追加されたりしても良い。
なお、ユーザが同一の番組コンテンツを繰り返し再生すること(又は、巻き戻しすること、スロー再生すること等)によって、当初予定されていた番組コンテンツの再生時間が延長された場合には、再生が予定されていた番組コンテンツの削除又は短縮化が行われても良い。
これによって、番組提供システムは、視聴者がスキップ等の操作を行った場合であっても、番組コンテンツを予定された放送時間に終了させることができる。また、番組提供システムは、予め決められた放送時間内にできる限り多くの情報を視聴者に伝達することができる。
[機能構成]
上記では、本実施の形態に係る番組提供システムの機能概要について説明した。続いて、本実施の形態に係る配信装置100及びユーザ端末200の機能構成について説明する。
上記のとおり、配信装置100及びユーザ端末200は、同一の機能構成を備え得るが、以降では、一例として、配信装置100及びユーザ端末200の機能構成が異なる場合について説明する。より具体的には、配信装置100については番組コンテンツを生成する機能構成を説明し、ユーザ端末200については配信装置100によって提供された情報を用いて番組コンテンツを生成(又は編集)する機能構成を説明する。
(配信装置100の機能構成)
まず、図8を参照して、配信装置100の機能構成について説明する。
図8に示すように、配信装置100は、制御部110と、通信部120と、入力部130と、出力部140と、記憶部150と、を備える。
(制御部)
制御部110は、配信装置100の処理全般を統括的に制御する。例えば、制御部110は、以降で説明する番組コンテンツの自動生成処理を統括的に制御したり、生成された番組コンテンツデータの配布等を行ったりする。制御部110は、図8に示すように、原稿生成部111と、原稿解析部112と、音声合成部113と、要求管理部114と、構成生成部115と、動画生成部116と、を備える。以降では、制御部110が備える各機能構成について説明する。
(原稿生成部)
原稿生成部111は、原稿データを自動生成する機能構成である。例えば、原稿生成部111は、後述する入力部130から入力された1又は2以上の文章データを編集することによって原稿データを生成する。
なお、原稿データの生成の際、原稿生成部111は、後述する構成生成部115の制御に基づいて適宜原稿データの再生成を行っても良い。例えば、原稿データが生成された後の原稿データの解析結果等に基づいて、構成生成部115が原稿データの変更が必要であると判断した場合、原稿生成部111は、構成生成部115の制御に基づいて原稿データの再生成を行う。原稿生成部111は、生成した原稿データを原稿解析部112及び音声合成部113に提供する。
(原稿解析部)
原稿解析部112は、原稿生成部111によって生成された原稿データを解析する。より具体的には、原稿解析部112は、原稿データを分解することで単語の抽出等を行ったりすることによって、原稿データの内容に関する情報を抽出する。これによって、原稿解析部112は、ユーザに入力される各種情報(例えば、ジャンル又は種別等)には含まれない情報を後述する構成生成部115に提供することができる。
なお、原稿解析部112が原稿データの解析によって抽出する情報は特に限定されない。例えば、原稿解析部112は、原稿データに含まれる単語(例えば、「海」等)、当該単語から連想される情報(例えば、「海」から連想される「海水浴」又は「夏」等の別の単語、「海」から連想される「広い」又は「青い」等のイメージ等)、又は、上記で説明したジャンル又は種別と同様の情報等を抽出しても良い。
また、原稿解析部112は、原稿データを解析するにあたり、外部から取得した情報を使用しても良い。例えば、原稿解析部112は、インターネット上に存在する情報を取得し、原稿データに含まれる単語の意味、当該単語から連想される情報等を自動的に判断しても良い。また、原稿解析部112は、原稿データの解析に用いられる情報を作成者に対して要求しても良い。例えば、原稿解析部112は、原稿データに含まれる単語の内容に関する情報又は当該単語から連想される情報を作成者に対して要求しても良い。また、原稿解析部112は、原稿データの解析に用いた情報を学習することによって、解析ロジックを更新しても良い。これによって、原稿解析部112は、使用されるにつれて、解析精度を向上させることができる。原稿解析部112は、解析結果を構成生成部115に提供する。
(音声合成部)
音声合成部113は、原稿生成部111によって生成された原稿データを用いて音声合成処理を行うことで、原稿データに対応する音声データを生成する機能構成である。なお、音声合成の手法は特に限定されない。例えば、音声合成部113は、波形接続型音声合成又はフォルマント合成等の任意の音声合成手法を用いることができる。音声合成部113は、生成した音声データを構成生成部115に提供する。
(要求管理部)
要求管理部114は、番組コンテンツの作成者からの要求を受け付け、当該要求を管理する機能構成である。例えば、要求管理部114は、番組コンテンツの生成に関する各種設定情報を受け付ける。ここで、要求管理部114が受け付ける設定情報は、上記で説明したジャンル、種別又はテンプレート等であるが、これらに限定されない。例えば、設定情報は、番組コンテンツの対象者、放送時間、データ量、画面サイズ、解像度、音量、字幕情報等(例えば、字幕の有無、言語等)を含んでも良い。要求管理部114は、これらの要求に関する情報を構成生成部115に提供する。
(構成生成部)
構成生成部115は、番組コンテンツ全体の構成を生成する機能構成である。構成生成部115は、人工知能技術によって実現される番組コンテンツの生成ロジックを有している。より具体的には、構成生成部115は、要求管理部114から提供される作成者の要求に関する情報、原稿解析部112から提供される解析結果、音声合成部113から提供される音声データ、後述する記憶部150から取得する各種情報及び外部(例えば、視聴者によって装着されているウェアラブル端末等を含む)から取得する任意の情報等(放送時の日時、季節、天気、気温、放送される地域、各種センサ(例えば、加速度センサ、ジャイロセンサ又は気圧センサ等)のセンシングデータ、視聴者の行動、視聴者が置かれた状況(又は環境)等に関する情報)を、生成ロジックに入力することによって番組コンテンツの構成を出力する。
番組コンテンツの生成ロジックは、事前に大量の番組コンテンツを学習することによって、上記の各種情報に基づいて、最適と考えられる番組コンテンツの構成を出力する。なお、当該学習方法は特に限定されず、機械学習に用いられる任意の方法が使用され得る。
ここで、構成生成部115が生成する「構成」とは、原稿データの内容、音もしくは視覚情報の内容もしくは設定(例えば、音質、音量、音声合成の方法、BGMの内容、動画もしくは静止画の内容、キャラクターの属性、衣装もしくは表情等)、又は、番組コンテンツデータのフォーマット、サイズもしくはセキュリティ設定等(例えば、アクセス権等)、番組コンテンツを構成する全ての情報を含む概念である。
なお、構成生成部115によって生成される番組コンテンツの構成は、入力された各種情報によって何ら制限を受けない。例えば、構成生成部115は、入力されたテンプレートに基づいて番組コンテンツの構成を生成するが、必ずテンプレート通りの構成を生成しなければならないわけではなく、テンプレートの内容を一部変更したテンプレートを新たに生成し、当該新たに生成したテンプレートに基づいて構成を生成しても良い。これによって、例えば、入力されたテンプレートの一部に誤りが含まれる場合、構成生成部115は、過去の学習結果に基づいて誤りが含まれないテンプレートを生成することができるため、より適切な番組コンテンツの構成を生成することができる。
構成生成部115は、生成した番組コンテンツの構成に基づいて、原稿データ又は音声データ等の再生成(又は編集等)が必要であると判断した場合、原稿生成部111、原稿解析部112及び音声合成部113を制御することで、原稿データの再生成、原稿データの解析、音声データの再生成等を行わせても良い。また、構成生成部115は、生成した番組コンテンツの構成に基づいて、動画データ又は静止画データ等の再生成(又は編集等)が必要であると判断した場合、構成生成部115は、動画データ又は静止画データ等の再生成(又は編集等)を行っても良い。構成生成部115は、番組コンテンツの構成に関する情報、音データ(音声データを含む)、動画データ又は静止画データを動画生成部116に提供する。
(動画生成部)
動画生成部116は、構成生成部115から提供された、番組コンテンツの構成に関する情報、音データ(音声データを含む)、動画データ又は静止画データを用いて番組コンテンツデータを自動生成する機能構成である。より具体的には、動画生成部116は、番組コンテンツの構成に関する情報に基づいて、番組コンテンツデータのフォーマット、サイズ、セキュリティ設定(例えば、アクセス権等)等を決定し、音データ、動画データ又は静止画データの統合及びパッケージングを行うことで、番組コンテンツデータを生成する。
(通信部)
通信部120は、外部装置との通信を行う機能構成である。例えば、通信部120は、制御部110が番組コンテンツデータの生成に用いる各種情報(例えば、原稿解析部112が原稿データの解析に用いる情報、又は、構成生成部115が番組コンテンツの構成の生成に用いる情報等)を外部装置(例えば、インターネット上のWEBサーバ等)から受信する。また、制御部110によって生成された番組コンテンツデータが外部装置を介してユーザ端末200に配信される場合、通信部120は、番組コンテンツデータを当該外部装置へ送信する。
なお、通信部120の通信方式は特に限定されない。例えば、通信部120の通信方式には、いかなる有線通信方式又は無線通信方式が用いられても良い。
(入力部)
入力部130は、作成者による入力を受ける機能構成である。例えば、入力部130はマウス、キーボード、タッチパネル又はボタン等の入力手段を備えており、作成者がこれらの入力手段を用いて各種操作を行うことによって、各種情報(例えば、ジャンル、種別、テンプレート、文章データ、動画データ又は静止画データ等)が入力される。
(出力部)
出力部140は、各種情報を出力する機能構成である。例えば、出力部140は、ディスプレイ等の表示手段及びスピーカ等の音声出力手段を備えており、制御部110からの制御信号に基づいて各種視覚情報をディスプレイ等に表示させたり、各種音をスピーカ等によって発生させたりする。
(記憶部)
記憶部150は、各種情報を記憶する機能構成である。例えば、記憶部150は、作成者によって入力された各種情報(例えば、ジャンル、種別、テンプレート、文章データ、動画データ、静止画データ等)、配信装置100によって生成された各種情報(原稿データ、音声データ、動画データ、静止画データ又は番組コンテンツデータ等)等を記憶する。
ここで、構成生成部115は、記憶部150が記憶している過去の番組コンテンツデータを学習することによって生成ロジックを更新しても良い。また、記憶部150は、配信装置100による各種処理に使用されるプログラム、パラメータを記憶する。なお、記憶部150が記憶する情報は上記に限定されない。
(ユーザ端末200の機能構成)
続いて、図9を参照して、ユーザ端末200の機能構成について説明する。
図9に示すように、ユーザ端末200は、制御部210と、通信部220と、入力部230と、出力部240と、記憶部250と、を備える。
(制御部)
制御部210は、ユーザ端末200の処理全般を統括的に制御する。例えば、制御部210は、以降で説明する番組コンテンツの自動生成処理を統括的に制御したり、生成された番組コンテンツデータの再生等を行ったりする。制御部210は、図9に示すように、要求管理部211と、構成生成部212と、動画生成部213と、を備える。以降では、制御部210が備える各機能構成について説明する。
(要求管理部)
要求管理部211は、番組コンテンツの視聴者からの要求を受け付け、当該要求を管理する機能構成である。例えば、要求管理部211は、視聴者によって選択された番組コンテンツ、再生中の番組コンテンツのスキップ、繰り返し再生、早送りもしくは巻き戻しに関する要求、番組コンテンツデータの編集に関する要求(例えば、キャラクターの属性、字幕の内容、BGMの内容、背景の内容等)、番組コンテンツの視聴に伴う各種設定(例えば、表示サイズ、音量、速度等)等に関する情報を受け付け、管理する。要求管理部211は、これらの要求に関する情報を視聴者の嗜好情報として管理しても良い。なお、要求管理部211によって受け付けられ、管理される情報はこれらに限定されない。要求管理部211は、これらの要求に関する情報を構成生成部212に提供する。
(構成生成部)
構成生成部212は、番組コンテンツ全体の構成を生成する機能構成である。上記のとおり、ユーザ端末200は、視聴者の要求及び配信装置100によって提供された各種情報を用いて番組コンテンツの生成を行うことができる。ここでは、原稿データ、その解析結果、原稿データに基づいて生成された音声データ等が配信装置100によって提供され、ユーザ端末200がこれらの情報を用いて番組コンテンツを生成する例について説明する。
構成生成部212は、配信装置100の構成生成部115と同様に、人工知能技術によって実現される番組コンテンツの生成ロジックを有している。そして、構成生成部212は、配信装置100によって提供される各種情報(原稿データ、その解析結果、原稿データに基づいて生成された音声データ等)、要求管理部211から提供される視聴者の要求に関する情報、後述する記憶部250から取得する各種情報及び外部から取得する任意の情報等(放送時の日時、季節、天気、気温、放送される地域等の情報)を生成ロジックに入力することによって番組コンテンツの構成を出力する。
なお、図9には示していないが、ユーザ端末200が、配信装置100の原稿生成部111、原稿解析部112又は音声合成部113と同様の機能構成を備えることによって、構成生成部212は、必要に応じてこれらの機能構成を制御して、原稿データの生成、原稿データの解析及び音声データの生成等を実現しても良い。構成生成部212は、番組コンテンツの構成に関する情報、音データ(音声データを含む)、動画データ又は静止画データを動画生成部213に提供する。
(動画生成部)
動画生成部213は、構成生成部212から提供された、番組コンテンツの構成に関する情報、音データ(音声データを含む)、動画データ又は静止画データを用いて番組コンテンツデータを自動生成する機能構成である。より具体的には、動画生成部213は、番組コンテンツの構成に関する情報に基づいて、番組コンテンツデータのフォーマット、サイズ、セキュリティ設定(例えば、アクセス権等)等を決定し、音データ、動画データ又は静止画データの統合及びパッケージングを行うことで、番組コンテンツデータを生成する。
(通信部)
通信部220は、外部装置との通信を行う機能構成である。例えば、ユーザ端末200が、配信装置100によって生成された番組コンテンツデータをダウンロードして再生する場合には、通信部220は、配信装置100を含む外部装置から番組コンテンツデータを受信する。また、ユーザ端末200が、配信装置100によって提供された各種情報を用いて番組コンテンツを生成する場合には、通信部220は、配信装置100を含む外部装置から当該各種情報を受信する。なお、これらの情報の受信は、視聴者による操作に基づいて行われても良いし、通信部220によって所定のタイミングで行われても良い。例えば、通信部220は、所定のタイミングで配信装置100を含む外部装置にアクセスし、新規情報が生成されている場合には当該情報を受信しても良い。
なお、通信部220の通信方式は特に限定されない。例えば、通信部220の通信方式には、いかなる有線通信方式又は無線通信方式が用いられても良い。
(入力部)
入力部230は、視聴者による入力を受ける機能構成である。例えば、入力部230はタッチパネル又はボタン等の入力手段を備えており、作成者がこれらの入力手段を用いて各種操作を行うことによって、視聴する番組コンテンツの選択、番組コンテンツの視聴に伴う各種設定等を行う。
(出力部)
出力部240は、各種情報を出力する機能構成である。例えば、出力部240は、ディスプレイ等の表示手段及びスピーカ等の音声出力手段を備えており、制御部210からの制御信号に基づいて各種視覚情報をディスプレイ等に表示させたり、各種音をスピーカ等によって発生させたりする。
(記憶部)
記憶部250は、各種情報を記憶する機能構成である。例えば、記憶部250は、番組コンテンツデータ等を記憶する。また、記憶部250は、視聴者の嗜好情報を記憶しても良い。例えば、記憶部250は、視聴者が番組コンテンツの視聴に伴い行った各種設定に関する情報、視聴者が視聴した番組コンテンツの特徴等を視聴者の嗜好情報として記憶しても良い。また、記憶部250は、ユーザ端末200による各種処理に使用されるプログラム、パラメータを記憶する。なお、記憶部250が記憶する情報は上記に限定されない。
[動作]
上記では、本実施の形態に係る配信装置100及びユーザ端末200の機能構成について説明した。続いて、配信装置100及びユーザ端末200の動作について説明する。
(配信装置の動作)
まず、図10を参照して、配信装置100が番組コンテンツを生成する動作について説明する。ステップS1000では、番組コンテンツの作成者によって入力部130に文章データが入力される。ステップS1004では、原稿生成部111が入力された文章データを用いて原稿データを生成する。ステップS1008では、原稿解析部112が、生成された原稿データを解析する。また、ステップS1012では、音声合成部113が原稿データを用いて音声合成処理を行うことで、原稿データに対応する音声データを生成する。なお、ステップS1008の処理及びステップS1012の処理は、互いに並行して実行されることを想定しているが、これに限定されない。
ステップS1016では、要求管理部114が、番組コンテンツの生成に関する各種設定情報等の、作成者からの要求に関する情報を取得する。ステップS1016の処理は、ステップS1012までの処理と並行して実行されることを想定しているが、これに限定されない。
ステップS1020では、構成生成部115が、要求管理部114から提供される作成者の要求に関する情報、原稿解析部112から提供される解析結果、音声合成部113から提供される音声データ等を生成ロジックに入力することによって番組コンテンツの構成を生成する。
生成された番組コンテンツの構成に基づいて原稿データの再生成が必要である場合(ステップS1024/yes)、処理がステップS1004へ移動し、原稿生成部111が原稿データの再生成を行う。原稿データの再生成が必要でない場合(ステップS1024/no)、ステップS1028にて、動画生成部116が、番組コンテンツの構成に関する情報、音データ(音声データを含む)、動画データ又は静止画データを用いて番組コンテンツデータを生成することで処理が終了する。
(ユーザ端末の動作)
続いて、図11を参照して、ユーザ端末200が、配信装置100から提供された各種情報を用いて番組コンテンツを生成する動作について説明する。
ステップS1100では、構成生成部212が、通信部220を介して配信装置100から提供される、番組コンテンツの生成に用いられる各種情報(原稿データ、その解析結果、原稿データに基づいて生成された音声データ等)を取得する。
ステップS1104では、要求管理部211が、番組コンテンツの生成に関する各種設定情報等の、視聴者からの要求に関する情報を取得する。ステップS1104の処理は、ステップS1100の処理と並行して実行されることを想定しているが、これに限定されない。
ステップS1112では、構成生成部212が、配信装置100から提供された各種情報(原稿データ、その解析結果、原稿データに基づいて生成された音声データ等)及び要求管理部211から提供される視聴者の要求に関する情報等を生成ロジックに入力することによって番組コンテンツの構成を生成する。
ステップS1116では、動画生成部213が、番組コンテンツの構成に関する情報等を用いて番組コンテンツデータを生成することで処理が終了する。
なお、図11には記載していないが、原稿データ又は音声データ等の再生成が必要な場合、ユーザ端末200は、適宜、配信装置100へこれらの各データの再生成の依頼を行っても良いし、配信装置100の原稿生成部111、原稿解析部112又は音声合成部113と同様の機能構成を備えることによって各データの再生成を行っても良い。
[ハードウェア構成]
上記では、本実施の形態に係る配信装置100及びユーザ端末200の動作について説明した。続いて、配信装置100及びユーザ端末200のハードウェア構成について説明する。
上記の各種処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。図12は、配信装置100及びユーザ端末200を具現する情報処理装置900のハードウェア構成を示す図である。
情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置(HDD)910と、ドライブ911と、通信装置912とを備える。
CPU901は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであっても良い。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。当該CPU901、ROM902及びRAM903の協働により、配信装置100の制御部110及びユーザ端末200の制御部210の各機能が実現される。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905及び外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装しても良い。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900を使用するユーザは、該入力装置908を操作することにより、各装置に対して各種のデータを入力したり処理動作を指示したりすることができる。該入力装置908により、配信装置100の入力部130及びユーザ端末200の入力部230の各機能が実現される。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置及びランプなどの表示装置を含む。さらに、出力装置909は、スピーカ及びヘッドホンなどの音声出力装置を含む。出力装置909は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキスト又はイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。該出力装置909により、配信装置100の出力部140及びユーザ端末200の出力部240の各機能が実現される。
ストレージ装置910はデータ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでも良い。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。該ストレージ装置910により、配信装置100の記憶部150及びユーザ端末200の記憶部250の各機能が実現される。
ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記憶媒体913に記録されている情報を読み出して、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体913に情報を書き込むこともできる。
通信装置912は、例えば、通信網914に接続するための通信デバイス等で構成された通信インタフェースである。該通信装置912により、配信装置100の通信部120及びユーザ端末200の通信部220の各機能が実現される。
[むすび]
以上で説明してきたように、本開示に係る番組提供システムは、放送される原稿データを自動生成する機能、番組コンテンツの音又は視覚情報を自動生成する機能、伝達される情報又は再生日時等に音又は視覚情報を適応させる機能、キャラクターの動作を自動的に付加する機能、番組コンテンツの自動生成に用いられる情報を要求する機能、番組コンテンツの再生状況に応じて原稿を自動生成する機能、再生中の番組コンテンツに別内容の情報を挿入する機能、未再生の番組コンテンツをユーザに対して提供する機能、スキップ等に伴う番組コンテンツの編集機能等を実現することができる。これによって、本開示に係る番組提供システムは、音又は視覚情報を含む番組コンテンツの品質を高く維持しつつ、番組コンテンツの生成コストを削減することができる。
<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、上述した第1の実施の形態で説明した事項(例えば、番組提供システムの構成、配信装置100の構成及び機能、ユーザ端末200の構成及び機能等)は、特に断らない限り、第2の実施の形態にも適用することができる。
[概要]
始めに、第2の実施の形態の概要について説明する。第2の実施の形態では、例えば、ユーザ端末200から配信装置100に対して、制御文字が含まれる文章データを含む素材データが送信される。素材データは、例えば、電子メールシステムを利用して送信される。メールデータを受信した配信装置100は、当該メールデータのアドレス情報が、予め設定されたアドレス情報である場合に、メールデータに含まれる素材データを解析し、素材データに基づく番組コンテンツデータを自動生成する。以下、第2の実施の形態について詳細に説明する。
[設定例について]
始めに、番組コンテンツデータを自動生成する上での各種の設定がなされる。係る設定は、例えば、配信装置100で行われる。設定者は、例えば、番組コンテンツデータを提供するサービス提供者である。なお、番組コンテンツデータの自動生成は、ユーザ端末200でも行い得る。係る場合は、以下に説明する設定がユーザ端末200で行われ、設定者は、ユーザ端末200の所有者等になる。また、ユーザ端末200で各種の設定がなされ、設定内容が配信装置100に送信されるようにし、送信された設定内容に応じた番組コンテンツデータを配信装置100が自動生成するようにしても良い。
図13は、番組コンテンツデータを自動生成する上での各種の設定を行うための設定画面(設定画面400)の一例を示している。設定画面400は、例えば、配信装置100の出力部140(具体的には、ディスプレイ)に表示される。以下、設定画面400における設定項目及び当該設定項目にて設定可能な内容の一例について説明する。
設定項目401は、番組コンテンツを表示するディスプレイのアスペクト比に関する設定を行うための項目である。図示の例では「横(16:9)」が設定されている。設定項目402は、効果音を再生するか否かに関する設定を行うための項目である。設定項目402におけるチェックボックスにチェックが付された場合には効果音が再生され、チェックが付されていない場合には効果音は再生されない。なお、本実施の形態に係る効果音は、プリセットされているデータである。設定項目403は、字幕を表示するか否かに関する設定を行うための項目である。設定項目403におけるチェックボックスにチェックが付された場合にはキャラクターが発する音声に対応する字幕が表示され、チェックが付されていない場合には字幕は表示されない。
設定項目404は、キャラクターの種類及びキャラクターの衣装に関する設定を行うための項目である。図示の例では、キャラクターの種類として「AA」(例えば、女性のキャラクター)、キャラクターの衣装として「夏服」が設定されている。設定項目405は、背景テーマ(背景色)に関する設定を行うための項目である。図示の例では、背景テーマとして「ブルー」が設定されている。設定項目406は、背景モード(例えば、背景の変化パターン)に関する設定を行うための項目である。図示の例では、背景モードとして「通常」が設定されている。なお、背景モードとしては、所定の背景モードである「通常」とは異なる複数のパターンの選択が可能とされている。設定項目407は、動画出力形式に関する設定を行うための項目である。詳細は後述するが、配信装置100で自動生成された番組コンテンツデータは、配信装置100が有する記憶装置等に出力される。出力する際のファイル形式を、設定項目407を使用して設定することができる。図示の例では、動画出力形式として「mp4」が設定されている。設定項目407を操作することにより他の動画出力形式(avi等)を選択することが可能とされる。
設定項目408〜410は、配信装置100が有するメール連携機能に関する設定を行うための項目である。メール連携機能とは、メールの内容を番組コンテンツの自動生成に反映させる機能である(詳細は、後述する。)。各項目の具体的内容について説明する。
設定項目408は、メールアドレスに関する設定を行うための項目である。図示の例では、設定項目408に1つのメールアドレスが示されているが、複数のメールアドレスが設定されていても構わない。配信装置100は、設定項目408で設定されたメールアドレスを有するメールデータを受信した場合に、番組コンテンツデータを自動生成する。他のメールアドレスを有するメールデータを受信した場合には、配信装置100は、番組コンテンツデータを自動生成しない。図示の例では、メールアドレスとして「AAA@.co.jp」が設定されている。
設定項目409は、メールデータを受信(送受信でも良い)する周期(ポーリングする周期)に関する設定を行うための項目である。図示の例では、確認周期として「10分」が設定されているが、確認周期として任意の時間を設定することができる。設定項目410は、配信装置100が自動生成した番組コンテンツデータを書き出す記憶装置、より具体的な例としては、共有フォルダのアドレスに関する設定を行うための項目である。設定項目410で設定された共有フォルダに、自動生成された番組コンテンツデータが記憶される。なお、設定項目410で設定された共有フォルダは、所定のユーザ端末200がアクセス可能とされており、当該所定のユーザ端末200は、共有フォルダに格納された番組コンテンツデータに対応する番組コンテンツを視聴することができる。
設定項目411は、TTS(Text to Speech)の抑揚に関する設定を行うための項目である。ここでは、TTSの抑揚に関してユーザによる定義がなされたユーザ辞書を取り込むことが可能とされている。なお、図示の例では、TTSの抑揚に関するユーザ辞書が「なし」として設定されている。
設定画面400において、保存アイコン412は、設定画面400を使用した設定が完了した場合に選択される。戻るアイコン413は、表示内容を設定画面400から他の画面に遷移させる際に選択される。
なお、上述した各設定を行うための表示は、例えば、設定画面400における右側に表示される。設定画面400の左側には、例えば、確認画面415が表示される。確認画面415は、各設定内容を確認することができる画面である。例えば、確認画面415には、キャラクター等が表示され、キャラクターの種類や服装に関する設定がなされると、確認画面415におけるキャラクターの種類や服装が変化する。背景テーマ等についても同様である。係る確認画面415を表示することにより、設定者は、設定内容に応じた具体的な表示を確認することができる。
[メールの内容例について]
次に、ユーザ端末200で作成されるメッセージ情報に含まれる文章データの一例について説明する。本実施の形態では、メッセージ情報の一例としてメールデータを使用して説明し、文章データがメールに記述される例について説明する。また、アカウント情報の一例として、個々のメールデータを識別するメールアドレスを使用して説明する。なお、以下に説明するメールデータは、配信装置100で作成され、配信装置100自身に送信するようにされても良い。
図14は、ユーザ端末200で作成されるメールの画面例(メール画面420)を示している。メール画面420は、ユーザ端末200の出力部240(具体的には、ディスプレイ)に表示される。メールの入力は、例えば、入力部230を使用してなされる。
メール画面420の上段側には、送信アドレス(メール作成者のユーザ端末200が有するメールアドレス)421が表示される。図示の例では、送信アドレス421は、例えば、「AAA@co.jp」であり、上述したメール連携機能に関する項目で設定されたメールアドレスを想定している。
送信アドレス421の下側には、メールの送信先である受信アドレス422が表示される。図示の例では、受信アドレス422として「BBB@co.jp」が表示されている。受信アドレス422「BBB@co.jp」は、例えば、配信装置100が有するメールアドレスである。
受信アドレス422の下側には、ユーザによって入力された文章(メッセージ)423が表示される。図示の例では、文章423は、件名424と、本文425とを含む。なお、件名424は、空欄でも良い。本文425は、例えば、第1本文425a、第2本文425b及び第1本文425aと第2本文425bとの間に入力された制御文字425cを含む。
第1本文425aは、例えば「関東地方の今晩は晴れで、最高気温は25度、明け方まで気温が下がりにくい、熱帯夜になりそうです。」という文章である。第2本文425bは、例えば「ところで、この暑い中、街ではかき氷の売れ行きが順調のようです。」という、第1本文425aとは文章内容が変わる文章である。なお、図示の例では、第1、第2本文425a、425bが共に1センテンスの文章となっているが、これに限定されるものではなく任意の数のセンテンスの文章で良い。また、図示の例では、制御文字425cの後に空白の1行が挿入されているが、当該1行は必ずしも必要ではなく、第1本文425a、制御文字425c及び第2本文425bが連続的に入力されても良い。
制御文字425cは、例えば、「@@」という2文字であり、第1本文425aの末尾に入力される。制御文字425cは「@@」とは異なる文字列でも良いが、入力の利便性の観点から、比較的よく用いられる文字であり、文字数が比較的少ない(例えば、1文字以上16文字以下)ことが好ましい。制御文字425cは、文字でも良いし、記号でも良いし、数字でも良いし、これらの組み合わせでも良い。配信装置100で自動生成された番組コンテンツでは、制御文字425cが規定された位置に対応するタイミングで、所定の制御がなされる。本実施の形態では、制御文字425cが規定された位置に対応するタイミングで画像が切り替えられる。制御文字425cに対応する制御内容は、制御部110に予めプログラミングされている。なお、例えば設定画面400を使用して、複数の制御内容の中から制御文字425cに対応する制御内容を選択できるようにしても良い。
図14に示すように、本実施の形態に係るメールデータには、例えば、2つの画像データ(画像データ431及び画像データ432)が添付されている。即ち、本実施の形態に係る素材データは、制御文字425cが含まれる文章データ(第1、第2本文425a、425bに対応する文章データ)及び画像データを含む。図15は、添付されている画像の一例を示している。図15Aは、画像データ431の一例を示している。画像データ431は、関東地方の天気概況及び関東地方の都道府県別の最高/最低気温等を示す画像であり、第1本文425aの内容に対応する画像である。画像データ432は、複数のかき氷を示す画像であり、第2本文425bの内容に対応する画像である。
ユーザ端末200のユーザ、図14に例示された内容のメールを作成した後、当該メールを配信装置100に送信する。メールは汎用的に使用されているツールであるため、ユーザ端末200は、図14に例示されたメールを容易に作成することができる。
[動作]
メールを受信した配信装置100は、メールに含まれる素材データを解析し、番組コンテンツデータを自動生成する。以下、配信装置100が番組コンテンツデータを自動生成する処理について、図16に示すフローチャートを参照して説明する。
ステップS1201では、メール連携機能等に関する設定が、上述した設定画面400を使用して行われる。そして、処理がステップS1202に進む。
ステップS1202では、配信装置100が通信部120を介して、ユーザ端末200から送信されたメールを受信する。そして、処理がステップS1203に進む。
ステップS1203では、配信装置100の制御部110が、受信したメールが有するメールアドレスが設定画面400(より具体的には、設定画面400におけるメール連携機能に関する設定項目408)で登録したメールアドレスで否かが判断される。ここで、受信したメールのメールアドレスが登録したメールアドレスと異なる場合(ステップS1203の否定判断)には、処理がステップS1202に戻る。受信したメールのメールアドレスが登録したメールアドレスと一致する場合(ステップS1203の肯定判断)には、処理がステップS1204に進む。
ステップS1204では、配信装置100の制御部110、具体的には、音声合成部113が、メールデータに含まれる本文の文章データに対応する音声データを生成する。このとき、音声合成部113は、制御文字425c(「@@」との文字)を除いた文章データに対応する音声データを生成する。そして、処理がステップS1205に進む。
ステップS1205では、番組コンテンツデータが生成される。番組コンテンツデータは、構成生成部115によって生成された番組コンテンツの構成に基づいて、動画生成部116により自動生成される。構成生成部115は、設定画面400により設定された内容に基づいて、番組コンテンツデータの構成を生成する。具体的には、構成生成部115は、設定画面400で設定されたキャラクターやキャラクターの衣装、背景に関する設定、効果音等のプリセットされている画像や音データが番組コンテンツデータに反映されるように構成を生成する。更に、構成生成部115は、制御文字425cが規定された位置において、メールデータに添付された画像データに対応する画像が切り替わるような構成を生成し、番組コンテンツの構成に関する情報として出力する。構成生成部115は、番組コンテンツの構成に関する情報、メールの文章データに対応する音声データ、メールに添付された画像データ、設定画面400にて表示等の出力をすることが設定されたプリセットされているデータ等を動画生成部116に出力する。
そして、動画生成部116は、構成生成部115から供給された情報、データに基づいて番組コンテンツデータを自動生成する。このように、動画生成部116は、制御文字が含まれる文章データを含む素材データを取得し、素材データを解析し、文章データに基づく出力がなされ、且つ、制御文字に基づく制御が反映された番組コンテンツデータを自動生成する。なお、文章データに基づく出力とは、本例では音声出力を想定しているが、表示、番組コンテンツの視聴者への振動等のフィードバックであっても良い。そして、処理がステップS1206に進む。
ステップS1206では、動画生成部116は、自動生成した番組コンテンツデータを例えば記憶部150に書き出して記憶する。ここで、番組コンテンツデータが記憶される記憶部150は、例えば、NAS(Network Attached Storage)等のネットワーク上に接続することができる記憶装置である。配信装置100にメールを送信した送信者は、当該記憶装置に接続し、格納されている番組コンテンツデータを再生することにより、自身が作成したメールによりどのような番組コンテンツが作成されたのかを確認することができる。なお、自動作成された番組コンテンツデータが格納される記憶装置は、記憶部150に限らず、クラウド上の機器が有する記憶装置であっても良い。
[番組コンテンツの具体例]
図17A及び図17Bを参照して、自動生成された番組コンテンツの具体例について説明する。自動生成された番組コンテンツに対する再生指示がなされ、番組コンテンツが再生される。図17Aに示すように、画面に向かって右側にキャラクター450が表示される。キャラクター450の種類、衣装等は、設定画面400で設定された通りとなっている。背景等についても同様である。また、画面に向かって左側には、メールデータに添付された画像データ431に対応する画像(天気画像)が表示される。画面の左上側には、メールの件名に記載されている内容が、番組コンテンツのタイトルとして表示される。このように、本実施の形態では、メールの件名に対応する文章データが表示されるようにしており、係る設定内容が、動画生成部116が実行するプログラムに記述されている。なお、メールの件名がない場合は、何も表示されないようにしても良い。
図17Aに示す画像が表示されると、例えば、オープニングテーマが再生される。オープニングテーマの再生は、例えば、設定画面400で効果音ありが設定されている場合に、プリセットされている音声データを再生することにより行われる。オープニングテーマの再生が終了すると、キャラクター450が話す。話の内容は、メールの本文に記載された第1本文425aの内容である。キャラクター450は、話している間、口元が動くように表示される。第1の実施の形態で説明したように、キャラクター450の表情が変化したり、声の抑揚が変化するようにしても良い。
第1本文425aに対応する音声の再生が終了すると、キャラクター450が話す内容が第2本文425bの内容に遷移する。上述したように、メールの第1本文425aと第2本文425bとの間には、画像の切り替わりを示す制御文字425cが入力されている。従って、番組コンテンツでは、当該制御文字425cに基づく制御が反映される。具体的には、第1本文425aに対応する音声の再生が終了すると、図17Bに示すように、表示画像が画像データ432に対応する画像(かき氷の画像)に変化する。そして、キャラクター450が、第2本文425bに対応する内容を話す。以上のように、メールに記載した内容(制御の内容を含む)が反映された番組コンテンツが再生される。
[むすび]
第2の実施の形態では、文章データに制御文字を含ませるだけで、当該制御文字に基づく制御が反映された番組コンテンツデータを自動生成することができる。
また、汎用性のあるメールを使用することにより、特別なスキルを有しないユーザであっても制御文字を含む文章データを容易に作成できる。また、番組コンテンツを制作するための特別なツールを作成する必要も無く、誰もが番組コンテンツの制作に携わることができる。
また、ユーザは、番組コンテンツデータを自動生成する装置にメールを送信するだけで、自身が所望する制御が反映された番組コンテンツデータを得ることができる。
また、自動生成された番組コンテンツデータがNAS等に出力され、番組コンテンツデータに対してアクセス可能とすることにより、ユーザは、自身が所望する制御が反映された番組コンテンツを視聴することができる。番組コンテンツを視聴したユーザは、その出来(例えば、画像の切り替わりタイミング)に不満があれば、再度、メール内容を編集して配信装置に送信するだけで番組コンテンツの内容を容易に編集、修正することができる。
また、番組コンテンツデータでユーザが使用したい音声、画像等があれば、それらをメールに添付するだけで良い。更に、制御文字を入力するだけで、メールに添付した音声や画像を再生するタイミングを規定することができる。
[第2の実施の形態の変形例]
第2の実施の形態の内容は、例えば、以下のようにその内容を変形することができる。
上述した説明では、制御文字に対応する制御の内容が画像の切り替わりであったが、これに限定されるものではない。制御文字に対応する制御の内容は適宜、設定することができる。制御文字に対応する制御の内容は、例えば、番組コンテンツにおけるキャラクターに所定の動作を行わせるものでも良い。この場合は、メールの文章で制御文字が規定された位置に対応するタイミングで、キャラクターが所定の動作を行うような番組コンテンツが自動生成される。制御文字に対応する制御の内容が、設定画面400を使用等して定義可能とされても良い。また、制御文字に対応する制御の内容が、送信されるメールの中で定義されるようにしても良い。
上述した説明では、制御文字を「@@」として説明したが、これに限定されるものではなく、他の文字や数字でも良い。但し、簡易な入力を可能とし、ユーザにとって覚えやすい文字数(例えば、16文字以下)や文字種であることが好ましい。なお、制御文字としてどのような文字が使いやすく且つ覚えやすいはユーザによって異なる。従って、制御文字そのものをユーザが定義できるようにしても良い。
上述した説明では、メールに画像データが添付されていたが、画像データが添付されていなくても良く、素材データが文章データのみであっても良い。なお、画像データ等の添付データの有無に応じて、異なる番組コンテンツが自動生成されるようにしても良い。例えば、上述した説明では、メールに添付されていた画像データに対応する画像を表示するために、キャラクターが画面に向かって右側に表示される番組コンテンツが自動生成されるようにした。しかしながら、メールに例えば画像データが添付されていない場合は、キャラクターの表示位置を右側にする必要がない。そこで、メールに例えば画像データが添付されていない場合には、例えば、キャラクターの立ち位置が正面となるような番組コンテンツが自動生成されるようにしても良い。また、画像データの添付の有無に応じて、配信装置の制御部が、制御文字に対応する制御の内容を変更するようにしても良い。
上述した説明では、自動生成された番組コンテンツデータが記憶部に記憶されるようにした。記憶された番組コンテンツデータに対するアクセスが制限されるようにしても良い。例えば、記憶された番組コンテンツデータに対して、メール送信者や特定のユーザのみしかアクセスできないような制限が設定されても良い。また、自動生成された番組コンテンツデータが不特定多数のユーザに対して公開されても良い。この場合には、番組コンテンツの閲覧期間等に関する制限が設定されても良い。番組コンテンツの公開が有償でなされても良い。また、番組コンテンツを閲覧したユーザからのフィードバック(例えば、感想、評価等)がなされても良い。作成された番組コンテンツデータが特定のユーザ端末に自動で配信されるようにしても良い。
上述した説明の処理を行う場合に、制御文字の挿入し忘れも想定される。従って、制御文字がない場合であっても画像が適切に切り替わるようにするための処理が行われても良い。例えば、制御部が話題の切り替わりを示す用語(例えば「ここからは」)があるにも関わらずその前に制御文字が挿入されていない場合には、制御文字の有無に関わらず画像を切り替える処理が行われるようにしても良い。また、画像の内容を解析し、解析結果と文章データとのマッチングを行い、マッチング度が一定以上である場合に、制御文字がない場合であっても画像を切り替える処理が行われるようにしても良い。
自動生成された番組コンテンツデータが、所定の時刻に自動的に配信されても良い。所定の時刻は、設定画面400等を使用して設定することもできる。
上述したメールに含まれる文章データは、複数のユーザによって入力されたものであっても良い。例えば、所定の制御が反映された1つの番組コンテンツデータを、複数のユーザにより分担して作成することも可能となる。
上述した説明では、メッセージ情報の一例として電子メールシステムを利用して送信されるメールデータを説明し、文章データ(メッセージ)がメールに記述される例について説明したが、これに限定されるものではない。メッセージ情報としては、SMS(Short Message Service)、MMS(Multimedia Messaging Service)、チャット、コメント、ネットワークを介して提供される掲示板等であっても良く、文章データはそれらに対して入力されたものであっても良い。例えば、配信装置側で書き込み可能なネットワーク上の掲示板が用意され、ユーザは、当該掲示板にログイン等した上で掲示板に制御文字を含む文章データを入力するようにしても良い。掲示板に入力された文章データ等に応じて、配信装置が番組コンテンツデータを自動生成する。また、上述した説明では、アカウント情報の一例としてメールアドレスを用いて説明したが、電話番号、パスワード、ユーザID(Identification)等、送信者を識別することが可能な情報であれば何でも良い。
上述した配信装置で行われる処理がユーザ端末で行われても良い。また、上述した処理は、方法、プログラムによっても実現することが可能である。ユーザは、プログラムをダウンロードしインストールすることにより、自身が有する端末で番組コンテンツデータを自動生成することが可能となる。
例えば、上記の各フローチャートに示した各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理される必要はない。すなわち、各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されても良い。
また、配信装置又はユーザ端末の機能構成は適宜変更されても良い。例えば、配信装置又はユーザ端末の機能構成の一部は、適宜外部装置に備えられても良い。また、配信装置の制御部が、通信部、入力部、出力部の一部の機能を実現しても良い。また、ユーザ端末の制御部が、通信部、入力部、出力部の一部の機能を実現しても良い。
なお、本開示は、以下の構成をとることも可能である。
(1)
制御文字が含まれる文章データを含む素材データを取得し、前記素材データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する制御部を備える
情報処理装置。
(2)
前記制御部は、所定のアカウント情報を有するメッセージ情報を受信した場合に、当該メッセージ情報に含まれる前記素材データを解析する
(1)に記載の情報処理装置。
(3)
前記メッセージ情報は、件名に対応する第1の文章データと本文に対応する第2の文章データとを含み、
前記制御部は、少なくとも、前記第1の文章データが表示され、前記第2の文章データに対応する音声出力がなされる番組コンテンツデータを自動生成する
(2)に記載の情報処理装置。
(4)
前記第2の文章データに前記制御文字が含まれる場合に、前記制御部は、制御文字を除いた前記第2の文章データに対応する音声出力がなされる番組コンテンツデータを自動生成する
(3)に記載の情報処理装置。
(5)
前記制御部は、前記制御文字が規定された位置に対応するタイミングで画像が切り替えられる番組コンテンツデータを自動生成する
(2)から(4)までの何れかに記載の情報処理装置。
(6)
前記画像は、前記メッセージ情報に添付された複数の画像である
(5)に記載の情報処理装置。
(7)
前記制御部は、前記制御文字が規定された位置に対応するタイミングでキャラクターが所定の動作を行う番組コンテンツデータを自動生成する
(2)から(6)までの何れかに記載の情報処理装置。
(8)
前記制御部は、前記メッセージ情報の添付データの有無に応じて、異なる番組コンテンツデータを自動生成する
(2)から(7)までの何れかに記載の情報処理装置。
(9)
前記制御部は、自動生成した前記番組コンテンツデータを記憶装置に記憶する
(1)から(8)までの何れかに記載の情報処理装置。
(10)
前記記憶装置を有する
(9)に記載の情報処理装置。
(11)
前記記憶装置に記憶された番組コンテンツデータに対して、ユーザ端末からのアクセスが可能とされている
(9)に記載の情報処理装置。
(12)
前記ユーザ端末からのアクセスに対する制限が設定される
(11)に記載の情報処理装置。
(13)
前記制限は、前記番組コンテンツデータの閲覧者に関する制限及び前記番組コンテンツデータの閲覧期間に関する制限の少なくとも一つである
(12)に記載の情報処理装置。
(14)
前記制御部は、プリセットされているコンテンツデータを含む前記番組コンテンツデータを自動生成する
(1)から(13)までの何れかに記載の情報処理装置。
(15)
前記制御文字は、1文字以上16文字以下の文字、記号、数字又はこれらの組み合わせである
(1)から(14)までの何れかに記載の情報処理装置。
(16)
任意の端末から送信された、制御文字が含まれる文章データを含むメッセージ情報を受信する通信部と、
前記受信したメッセージ情報のアカウント情報が所定のアカウント情報である場合に、前記文章データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する制御部と
を備える情報処理システム。
(17)
制御部が、制御文字が含まれる文章データを含む素材データを取得し、前記素材データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する
情報処理方法。
(18)
制御部が、制御文字が含まれる文章データを含む素材データを取得し、前記素材データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する
情報処理方法をコンピュータに実行させるプログラム。
100 配信装置
110 制御部
111 原稿生成部
112 原稿解析部
113 音声合成部
114 要求管理部
115 構成生成部
116 動画生成部
120 通信部
130 入力部
140 出力部
150 記憶部
200 ユーザ端末
210 制御部
211 要求管理部
212 構成生成部
213 動画生成部
220 通信部
230 入力部
240 出力部
250 記憶部
300 ネットワーク

Claims (18)

  1. 制御文字が含まれる文章データを含む素材データを取得し、前記素材データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する制御部を備える
    情報処理装置。
  2. 前記制御部は、所定のアカウント情報を有するメッセージ情報を受信した場合に、当該メッセージ情報に含まれる前記素材データを解析する
    請求項1に記載の情報処理装置。
  3. 前記メッセージ情報は、件名に対応する第1の文章データと本文に対応する第2の文章データとを含み、
    前記制御部は、少なくとも、前記第1の文章データが表示され、前記第2の文章データに対応する音声出力がなされる番組コンテンツデータを自動生成する
    請求項2に記載の情報処理装置。
  4. 前記第2の文章データに前記制御文字が含まれる場合に、前記制御部は、制御文字を除いた前記第2の文章データに対応する音声出力がなされる番組コンテンツデータを自動生成する
    請求項3に記載の情報処理装置。
  5. 前記制御部は、前記制御文字が規定された位置に対応するタイミングで画像が切り替えられる番組コンテンツデータを自動生成する
    請求項2に記載の情報処理装置。
  6. 前記画像は、前記メッセージ情報に添付された複数の画像である
    請求項5に記載の情報処理装置。
  7. 前記制御部は、前記制御文字が規定された位置に対応するタイミングでキャラクターが所定の動作を行う番組コンテンツデータを自動生成する
    請求項2に記載の情報処理装置。
  8. 前記制御部は、前記メッセージ情報の添付データの有無に応じて、異なる番組コンテンツデータを自動生成する
    請求項2に記載の情報処理装置。
  9. 前記制御部は、自動生成した前記番組コンテンツデータを記憶装置に記憶する
    請求項1に記載の情報処理装置。
  10. 前記記憶装置を有する
    請求項9に記載の情報処理装置。
  11. 前記記憶装置に記憶された番組コンテンツデータに対して、ユーザ端末からのアクセスが可能とされている
    請求項9に記載の情報処理装置。
  12. 前記ユーザ端末からのアクセスに対する制限が設定される
    請求項11に記載の情報処理装置。
  13. 前記制限は、前記番組コンテンツデータの閲覧者に関する制限及び前記番組コンテンツデータの閲覧期間に関する制限の少なくとも一つである
    請求項12に記載の情報処理装置。
  14. 前記制御部は、プリセットされているコンテンツデータを含む前記番組コンテンツデータを自動生成する
    請求項1に記載の情報処理装置。
  15. 前記制御文字は、1文字以上16文字以下の文字、記号、数字又はこれらの組み合わせである
    請求項1に記載の情報処理装置。
  16. 任意の端末から送信された、制御文字が含まれる文章データを含むメッセージ情報を受信する通信部と、
    前記受信したメッセージ情報のアカウント情報が所定のアカウント情報である場合に、前記文章データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する制御部と
    を備える情報処理システム。
  17. 制御部が、制御文字が含まれる文章データを含む素材データを取得し、前記素材データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する
    情報処理方法。
  18. 制御部が、制御文字が含まれる文章データを含む素材データを取得し、前記素材データを解析し、前記文章データに基づく出力がなされ、且つ、前記制御文字に基づく制御が反映された番組コンテンツデータを自動生成する
    情報処理方法をコンピュータに実行させるプログラム。
JP2020538191A 2018-08-21 2019-06-11 情報処理装置、情報処理システム、情報処理方法及びプログラム Pending JPWO2020039702A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018154623 2018-08-21
JP2018154623 2018-08-21
PCT/JP2019/023004 WO2020039702A1 (ja) 2018-08-21 2019-06-11 情報処理装置、情報処理システム、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2020039702A1 true JPWO2020039702A1 (ja) 2021-08-26

Family

ID=69592534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020538191A Pending JPWO2020039702A1 (ja) 2018-08-21 2019-06-11 情報処理装置、情報処理システム、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US20210176539A1 (ja)
JP (1) JPWO2020039702A1 (ja)
CN (1) CN112567761A (ja)
WO (1) WO2020039702A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4246422A4 (en) * 2020-11-13 2024-04-24 Sony Group Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
USD988358S1 (en) * 2021-01-19 2023-06-06 Fujitsu Limited Display screen with animated graphical user interface
CN117274006B (zh) * 2023-11-21 2024-03-12 山东山大鸥玛软件股份有限公司 一种命题方法、系统、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869520A (ja) * 1994-08-30 1996-03-12 Fuji Photo Film Co Ltd 合体型画像ファイルを利用した分岐方法およびシステム,ならびに分岐画面作成方法
JP2001109612A (ja) * 1999-10-06 2001-04-20 Internatl Business Mach Corp <Ibm> 音声読み上げ範囲の指定方法および装置
JP2003348525A (ja) * 2002-05-27 2003-12-05 Hitachi Kokusai Electric Inc 番組蓄積送出装置及びその装置を用いた送受信システム
JP2004164134A (ja) * 2002-11-11 2004-06-10 Just Syst Corp 電子文書作成装置、電子文書作成方法およびその方法をコンピュータに実行させるプログラム
JP2004318292A (ja) * 2003-04-11 2004-11-11 Toshiaki Ueno 携帯通信端末装置の通信データの管理方法および電子メールサーバ装置、携帯通信端末装置の自動操作装置、着信情報管理装置、記録媒体並びに通信端末装置
JP2006120016A (ja) * 2004-10-22 2006-05-11 Starboard Kk データ引用システム
JP2006344026A (ja) * 2005-06-09 2006-12-21 Nippon Hoso Kyokai <Nhk> クライアント端末、管理サーバ、利用プログラム、及び管理プログラム
JP2007529055A (ja) * 2003-10-27 2007-10-18 松下電器産業株式会社 データ受信端末及びメール作成方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100720133B1 (ko) * 2003-12-27 2007-05-18 삼성전자주식회사 휴대단말기의 문자 메시지 처리 방법
US8443390B2 (en) * 2008-12-05 2013-05-14 Qualcomm Incorporated Enhanced method and apparatus for enhancing support for service delivery
US11062497B2 (en) * 2017-07-17 2021-07-13 At&T Intellectual Property I, L.P. Structuralized creation and transmission of personalized audiovisual data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869520A (ja) * 1994-08-30 1996-03-12 Fuji Photo Film Co Ltd 合体型画像ファイルを利用した分岐方法およびシステム,ならびに分岐画面作成方法
JP2001109612A (ja) * 1999-10-06 2001-04-20 Internatl Business Mach Corp <Ibm> 音声読み上げ範囲の指定方法および装置
JP2003348525A (ja) * 2002-05-27 2003-12-05 Hitachi Kokusai Electric Inc 番組蓄積送出装置及びその装置を用いた送受信システム
JP2004164134A (ja) * 2002-11-11 2004-06-10 Just Syst Corp 電子文書作成装置、電子文書作成方法およびその方法をコンピュータに実行させるプログラム
JP2004318292A (ja) * 2003-04-11 2004-11-11 Toshiaki Ueno 携帯通信端末装置の通信データの管理方法および電子メールサーバ装置、携帯通信端末装置の自動操作装置、着信情報管理装置、記録媒体並びに通信端末装置
JP2007529055A (ja) * 2003-10-27 2007-10-18 松下電器産業株式会社 データ受信端末及びメール作成方法
JP2006120016A (ja) * 2004-10-22 2006-05-11 Starboard Kk データ引用システム
JP2006344026A (ja) * 2005-06-09 2006-12-21 Nippon Hoso Kyokai <Nhk> クライアント端末、管理サーバ、利用プログラム、及び管理プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
横山啓(外2名): "簡単なテキスト台本からの映像生成", 電子情報通信学会2009年総合大会講演論文集 情報・システム2, JPN6019034260, 4 March 2009 (2009-03-04), JP, pages 181, ISSN: 0005006437 *
田中紀成(外3名): "インターネット放送局Intebroにおける自動ニュース番組制作と送出", 電子情報通信学会2003年総合大会講演論文集 基礎・境界, JPN6019034258, 3 March 2003 (2003-03-03), JP, pages 325, ISSN: 0005006436 *

Also Published As

Publication number Publication date
US20210176539A1 (en) 2021-06-10
WO2020039702A1 (ja) 2020-02-27
CN112567761A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
US20220230374A1 (en) User interface for generating expressive content
US10357881B2 (en) Multi-segment social robot
US10360716B1 (en) Enhanced avatar animation
CN110782900B (zh) 协作ai讲故事
US20150287403A1 (en) Device, system, and method of automatically generating an animated content-item
JP4725936B1 (ja) 入力支援装置、入力支援方法及びプログラム
JP2019521449A (ja) 永続的コンパニオンデバイス構成及び配備プラットフォーム
US20210272569A1 (en) Voice feedback for user interface of media playback device
WO2016011159A1 (en) Apparatus and methods for providing a persistent companion device
WO2020039702A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2015517684A (ja) コンテンツのカスタマイズ
CN107038197A (zh) 情境及活动驱动的内容传送和交互
EP4144095B1 (en) Text-to-speech audio segment retrieval
KR100856786B1 (ko) 3d 버추얼 에이전트를 사용한 멀티미디어 나레이션 저작시스템 및 그 제공 방법
JP2015115892A (ja) コメント作成装置およびその制御方法
US20220246135A1 (en) Information processing system, information processing method, and recording medium
Stephenson Web-empower your church: Unleashing the power of Internet ministry
JP2023506364A (ja) メッセージングプラットフォーム上のオーディオメッセージングインターフェース
US20230027035A1 (en) Automated narrative production system and script production method with real-time interactive characters
JP2008523759A (ja) 映像メッセージを合成する方法及びシステム
JP7176519B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7290154B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20220391441A1 (en) Content providing system, content providing method, and storage medium
US20230396729A1 (en) System and methods for evoking authentic emotions from live photographic and video subjects
Kunc et al. Talking head as life blog

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307