JP2010021991A - 情報提示装置および情報提示方法 - Google Patents

情報提示装置および情報提示方法 Download PDF

Info

Publication number
JP2010021991A
JP2010021991A JP2009132489A JP2009132489A JP2010021991A JP 2010021991 A JP2010021991 A JP 2010021991A JP 2009132489 A JP2009132489 A JP 2009132489A JP 2009132489 A JP2009132489 A JP 2009132489A JP 2010021991 A JP2010021991 A JP 2010021991A
Authority
JP
Japan
Prior art keywords
image
display
generation unit
images
subtitle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009132489A
Other languages
English (en)
Other versions
JP4618384B2 (ja
Inventor
Tetsujiro Kondo
哲二郎 近藤
Kazutaka Uchida
和隆 内田
Yoshihiro Hayashi
良拓 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009132489A priority Critical patent/JP4618384B2/ja
Priority to US12/479,198 priority patent/US8436941B2/en
Publication of JP2010021991A publication Critical patent/JP2010021991A/ja
Application granted granted Critical
Publication of JP4618384B2 publication Critical patent/JP4618384B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Abstract

【課題】番組の少し先(将来)の展開が予測でき、取り逃がした情報を再度確認することができ、視聴者が提示された番組情報を余裕を持って視聴できるようにする。
【解決手段】入力された映像データから、当該映像データの一部を抽出し、複数のサムネイル画像(主画像)を生成する。また、映像データに対応づけられた情報から複数の字幕画像(副画像)を生成する。そして、複数のサムネイル画像を時系列に配置すると共に、複数の字幕画像の各々を前記サムネイル画像に対応させて時系列に配置した仮想空間(3次元)を生成、表示する。
【選択図】図2

Description

本発明は、情報提示装置及び情報提示方法に関し、特に映像とともに字幕を表示させる情報提示装置及び情報提示方法に関する。
従来、テレビジョン放送等において、映像の表示と同時に音声情報(もしくはその要約した内容)を文字として提供することが行われている。このような文字は、字幕やテロップ等と称されており、視聴者による映像コンテンツの理解を助ける役割を果たしている。
例えば特許文献1に、複数の画面上で複数の番組を表示する場合において、一方の画面においては音声出力を行い、もう一方の画面においては字幕表示を行うようにすることが記載されている。
特開2007−13725号公報
ところで、特許文献1に記載されたように表示画面に単に現在の番組映像と字幕の表示を行った場合、視聴者は現在提示されている情報しか取得することができない。視聴者は番組の少し先(将来)の展開が予測できず、余裕を持って番組を視聴することができなかった。そのため、番組の内容を整理する余裕が持てず、番組の内容をよく理解することができないという問題があった。
さらに、情報を取り逃がしてしまった場合には、取り逃がした情報を再度確認することができず、ますます番組を理解しにくくなってしまうという問題があった。
本発明は、このような状況に鑑みてなされたものであり、視聴者が提示された情報を余裕を持って視聴できるようにするものである。
本発明の第1の側面の情報提示装置は、入力部より入力された映像データから、当該映像データの一部を抽出し、複数の主画像を生成する第1の画像生成部と、前記映像データに対応づけられた情報から複数の副画像を生成する第2の画像生成部と、前記複数の主画像を時系列に配置するとともに、前記複数の副画像の各々を前記主画像に対応させて時系列に配置した表示画像を生成して出力する画像出力部とを含むことを特徴とする。
上述の情報提示装置において、画像出力部は一例として、複数の主画像のうち、注目されている主画像と、時間方向において先に位置する画像とが並べられる表示画像を生成する。ここで、時間方向において先に位置するとは、現在を基点として未来を指している。
また上述の情報提示装置において、画像出力部は一例として、複数の主画像のうち、注目されている主画像と、時間方向において先に位置する画像と、時間方向において後ろに位置する画像とが並べられる表示画像を生成する。ここで、時間方向において後ろに位置するとは、現在を基点として過去を指している。
また上述の情報提示装置において、画像出力部は一例として、複数の主画像のうち、注目されている主画像と、時間方向において後ろに位置する画像とが並べられる表示画像を生成する。
本発明の第1の側面の情報提示方法は、映像データから、当該映像データの一部を抽出し、複数の主画像を生成し、前記映像データに対応づけられた情報から複数の副画像を生成し、前記複数の主画像を時系列に配置すると共に、前記複数の副画像の各々を前記主画像に対応させて時系列に配置した表示画像を生成することを特徴とする。
本発明の第1の側面においては、再生対象の現在の情報に加え、未来の情報を予め画面に時系列に提示することができる。その結果、視聴者は、未来の主画像・副画像を見通しながら視聴できるようになり、提示された情報の先の展開を予測しつつ視聴することができる。それゆえ提示された情報、例えば番組展開を余裕を持って視聴できる。また、再生対象の現在の情報に加え、過去の情報を画面に時系列に提示することができる。その結果、視聴者は、過去の主画像・副画像を視聴できるようになり、過去の情報の内容や流れを確認することができる。それゆえ提示された情報について過去の情報を参照しつつ余裕を持って視聴できる。
以上のように、本発明によれば、視聴者が提示された情報を余裕を持って視聴することができる。
自動車の車窓からの景色を説明するための図である。 本発明の第1の実施の形態に係る表示の概要を示した図である。 本発明の第1の実施の形態に係る番組映像の表示例を示す図である。 本発明の第1の実施の形態に係るシステムの内部構成例を示すブロック図である。 本発明の第1の実施の形態に係る表示映像生成部の内部構成例を示すブロック図である。 本発明の第1の実施の形態に係る表示映像生成部の処理例を示すフローチャートである。 本発明の第1の実施の形態に係るサムネイル画像の説明に供する図である。 本発明の第1の実施の形態に係るサムネイル生成部の処理例を示すフローチャートである。 本発明の第1の実施の形態に係る字幕情報のテーブルの例を示す図である。 本発明の第1の実施の形態に係る字幕画像の例を示す図である。 本発明の第1の実施の形態に係る字幕画像生成部の処理例を示すフローチャートである。 本発明の第1の実施の形態に係る仮想空間の3Dモデル(1)を示す図であり、Aは側面図、Bは上面図である。 本発明の第1の実施の形態に係る仮想空間の3Dモデル(2)を示す図である。 本発明の第1の実施の形態に係る仮想空間の3Dモデル(3)を示す図である。 本発明の第1の実施の形態に係る仮想空間生成部の処理例を示すフローチャートである。 本発明の第1の実施の形態に係るレンダリング部の処理例を示すフローチャートである。 本発明の第1の実施の形態に係るレンダリングの説明に供する図である。 本発明の第1の実施の形態に係る表示映像生成部の内部構成の他の例を示すブロック図である。 本発明の第1の実施の形態の第1変形例に係るテロップ検出部の処理例を示すフローチャートである。 本発明の第1の実施の形態の第1変形例に係るテロップ用テーブルの例を示す図である。 本発明の第1の実施の形態の第1変形例に係る顔検出部の処理例を示すフローチャートである。 本発明の第1の実施の形態の第1変形例に係る顔用テーブルの例を示す図である。 本発明の第1の実施の形態の第1変形例に係るPinP表示の例を示す図である。 本発明の第1の実施の形態の第2変形例に係る2番組表示例を示す図である。 本発明の第1の実施の形態の第3変形例に係るn番組表示例を示す図である。 本発明の第1の実施の形態の第4変形例に係る複数個の表示装置による表示例を示す図である。 本発明の第1の実施の形態の第4変形例に係る複数カメラによる仮想空間の3Dモデルを示す図である。 本発明の第2の実施の形態に係る番組映像の表示例を示す図である。 本発明の第2の実施の形態に係るシステムの内部構成例を示すブロック図である。 本発明の第2の実施の形態に係る表示映像生成部の内部構成例を示すブロック図である。 本発明の第2の実施の形態に係る表示映像生成部の処理例を示すフローチャートである。 本発明の第2の実施の形態に係るサムネイル画像の座標を説明するための図である。 本発明の第2の実施の形態に係るサムネイル生成部の処理例を示すフローチャートである。 本発明の第2の実施の形態に係る字幕情報のテーブルの例を示す図である。 本発明の第2の実施の形態に係る字幕画像の座標を説明するための図である。 本発明の第2の実施の形態に係る字幕画像生成部の処理例を示すフローチャートである。 本発明の第2の実施の形態に係る音声波形画像の座標を説明するための図である。 本発明の第2の実施の形態に係る音声波形画像生成部の処理例を示すフローチャートである。 本発明の第2の実施の形態に係る現在画像生成部の処理例を示すフローチャートである。 本発明の第2の実施の形態に係る画像合成部の処理例を示すフローチャートである。 本発明の第2の実施の形態に係る番組映像の表示例を示す図である。 本発明の第2の実施の形態の第1変形例に係る2画面による表示例を示す図である。 本発明の第2の実施の形態の第2変形例に係る6画面による表示例を示す図である。 本発明の第2の実施の形態の第2変形例に係る2画面を用いたドラマ番組の表示例を示すブロック図である。 本発明の第2の実施の形態の第3変形例に係る発話タイミング通知の説明に供する図である。 本発明の第2の実施の形態の第3変形例に係る発話タイミング通知の表示例を示す図である。 本発明の第2の実施の形態の第3変形例に係る人物登場通知の説明に供する図である。 本発明の第2の実施の形態の第3変形例に係るトピック通知の内容通知の説明に供する図である。 汎用コンピュータの内部構成例を示すブロック図である。
以下、本発明を実施するための形態の例について、添付図面を参照しながら説明する。説明は下記項目の順に行う。
1.第1の実施の形態(移動体の車窓に見立てた映像提示:再生対象の現在の情報に加え、未来の情報(映像)を予め画面に提示する例)
2.第2の実施の形態(移動体の車窓に見立てた映像提示:再生対象の現在の情報に加え、過去及び未来の情報(映像)を予め画面に提示する例)
以下に述べる実施の形態は、本発明を実施するための好適な形態の具体例であるから、技術的に好ましい種々の限定が付されている。ただし、本発明は、以下の実施の形態の説明において特に本発明を限定する旨の記載がない限り、これらの実施の形態に限られるものではない。したがって、例えば、以下の説明で挙げる使用材料とその使用量、処理時間、処理順序および各パラメータの数値的条件等は好適例に過ぎず、また、説明に用いた各図における寸法、形状および配置関係等も実施の形態の一例を示す概略的なものである。
[第1の実施の形態]
はじめに、本発明の第1の実施の形態の例について図1〜図27を参照して説明する。
本実施の形態に係る情報提示装置は、コンテンツの先の展開を予測しながら視聴できるよう再生対象の現在の情報に加え、未来の情報(映像)を予め画面に提示しておくように構成したものである。その際、仮想空間内にコンテンツの要素(画像、字幕など)を配置し、空間配置のコンテンツの関連付けを行いやすくするとともに自然な物理運動を取り入れた映像提示を行うことで、視聴者のコンテンツの理解を助けるとともに脳や目への負担を減らすようにしている。本実施の形態では、自然な物理運動として自動車などの移動体に着目し、その移動体の車窓からの景色に見立てた映像提示を行うようにする。なお、以下の実施の形態では、コンテンツの一例として、テレビジョン放送番組(以下、単に「番組」という。)を例に説明するが、この例に限られるものではない。
図1は、自動車の車窓からの景色を説明するための図である。この図1を参照して、車を運転する時の状況を説明する。
自動車を運転する際、運転手は車窓1越しに見える車道の路面2L,2Rや道路標識4a,4b、車道脇の街路樹3L,3Rを確認しながら進む自動車を運転する。このとき運転手は、進行方向5へ進みながら空間的に点在する非常に大量の情報を、並列かつ瞬時に処理する必要がある。このように大量の情報を瞬時に並列に処理する状況は、画面に表示された番組の映像を理解する場合と似ている。
しかし、番組を長い時間視聴する場合はすぐに疲労感を感じてしまう一方で、車の運転はあまり疲れずに比較的長時間続けることが可能である。この差の原因として、処理する視覚情報の違いが考えられる。つまり、自動車の運転のように自然な物理運動の視覚情報を処理する場合はあまり疲れない。これに対し、複数の番組が同時に提示されるなどのように、非常に人工的で不自然な視覚情報を処理する場合は、脳に大きな負荷がかかって容易に疲労してしまうということである。この考えに従えば、複数の番組映像を「自然な物理運動に則る映像」に変換することで、視聴者の疲労感を軽減することができると期待できる。
ここで、図2に示した表示例の概要を参照して、番組映像を「自然な物理運動に則る映像」に変換する手法を説明する。
提案する変換の手法は、まず「番組視聴」と「自動車の運転」との類似性を利用して、仮想空間にカメラ視点の進行方向DCを設定する。そして、「路面」に相当する部分に番組映像のサムネイル画像一覧Im0〜Imnを、また「道路標識」に相当する部分に番組内の字幕画像C0,C1を表示画面10に配置し、カメラ視点が前方(仮想空間の遠方)へ移動するような映像に変換する。すなわち、仮想空間を移動しながら、番組を視聴するという映像提示の手法である。このようにすることで、視聴者は番組(映像)の要素を自然な物理運動の視覚情報として捉えることができ、脳への負荷が少ない映像提示を実現することができる。
図3は、上記の変換方式を実際のテレビジョン放送番組に適用した例を示す図である。
この例は、二人のキャスターによって進行されているニュース番組の映像の表示例であり、番組映像のサムネイル画像Im0〜Im6の一覧と字幕画像C0〜C3が、仮想空間の奥から手前に向かって移動するようにして、各画像が時系列に表示されている。以下に、このような映像提示を実現するためのシステムについて説明する。なお、図2に示す符号ImbおよびCbはそれぞれ、サムネイル画像および字幕画像の背景色を表している。
図4は、上記映像提示を実現させる情報提示装置の内部構成例を示すブロック図である。
情報提示装置100は、映像・字幕入力部20、符号化・復号処理部30、蓄積部40、情報処理部50、制御部80、ユーザI/F90を含むように構成される。
映像・字幕入力部20は、映像データや音声データ、字幕情報等のメタデータの入力を受け付け、情報提示装置100内に取り込む処理を行う。映像データや音声データ、字幕情報等は、例えばテレビジョン受像機のチューナや、ネットワークを介した通信の制御を行う通信制御部、映像コンテンツを記録した記録媒体とのインタフェース部分等から入力されるものとする。
符号化・復号処理部30は、映像・字幕入力部20から入力された映像データや音声データ、字幕情報等を符号化して蓄積部40に蓄積する。また、蓄積部40に蓄積された、符号化映像データや符号化音声データ等を読み出して復号し、復号して得た映像データ、音声データ、字幕情報等を情報処理部50に出力する。
蓄積部40は、例えばHDD(Hard Disc Drive)やDVD(Digital Versatile Disc)等で構成してあり、符号化・復号処理部30で符号化された映像データや音声データ、字幕情報などを蓄積する。この蓄積部40には、1つ又は複数の番組が蓄積されており、それらの番組の映像は、情報処理部50によって「自然な物理運動に則る映像」に変換された後に表示装置へ出力される。
情報処理部50は、表示映像生成部60及び音声処理部70から構成される。
表示映像生成部60は、蓄積部40から読み出された映像データと字幕情報、もしくは映像・字幕入力部20を介して入力された映像データと字幕情報を用いて、表示装置に表示させる映像データ(表示画像)を生成し、1台又は複数台の表示装置へ出力する。このとき、表示映像生成部60は、蓄積部40に蓄積された番組の映像を「自然な物理運動に則る映像」に変換する。一方、音声処理部70は、表示映像生成部60から出力される映像データと同期した音声データを表示装置へ出力する。表示映像生成部60及び音声処理部70の詳細については後述する。
制御部80は、MPU(Micro Processing Unit)等で構成され、情報提示装置100の各部の制御、表示映像生成部60による映像レンダリング時におけるパラメータ設定、並びに、ユーザI/F90との入出力の制御等を行う。
表示装置110−1〜110−nはそれぞれ、情報処理部50から送られてくる映像データに基づいて表示画面を表示するものであり、LCD(Liquid Crystal Display)等が適用される。
次に、図5を参照して、表示映像生成部60の内部構成例について説明する。
表示映像生成部60は、データメモリ61、第1の画像生成部としてのサムネイル生成部62、第2の画像生成部としての字幕画像生成部63、仮想空間生成部64、レンダリング部65−1〜65−n(nは自然数)、画像合成部66を含むようにして構成される。
データメモリ61は、サムネイル生成部62や字幕画像生成部63、仮想空間生成部64での処理を行う際に、蓄積部40から読み出した映像データや音声データ、字幕情報を、一時的に蓄積するための領域であり、半導体メモリ等で構成される。
サムネイル生成部62は、表示装置の表示画面に時系列に表示するサムネイル画像の一覧を生成し、仮想空間生成部64に出力する。またサムネイル生成部62は、サムネイル画像を一時的に蓄積しておく領域としての出力用画像メモリ62aを備える。サムネイル生成部62の詳細については後述する。
字幕画像生成部63は、映像・字幕入力部20を介してメタデータとして入力された字幕情報を一連の字幕画像に変換し、仮想空間生成部64へ出力する。また字幕画像生成部63は、字幕情報を、字幕の内容や出現時間によって区分することにより生成した字幕情報テーブル63aと、字幕画像の生成に用いる字幕情報を一時的に蓄積しておく領域としての出力用画像メモリ63bも備える。字幕画像生成部63の詳細については後述する。
仮想空間生成部64は、サムネイル生成部62から供給されるサムネイル画像の一覧と字幕画像生成部63から供給される字幕画像を利用して仮想空間(3次元モデル)を構築し、3次元データとして出力するものである。仮想空間を構築する方法の詳細は後述する。
レンダリング部65−1〜65−nは、仮想空間生成部64により構築された仮想空間の所定の位置にカメラ(視点)を設定し、表示装置の画面に表示する画像を生成して出力する。
画像合成部66は、レンダリング部65−1〜65−nのそれぞれから出力された画像を合成して、表示装置110−1〜110−nに表示させるための表示画像を生成する。また、画像合成部66は、画像合成しない旨の指示を受けた場合、画像合成を行うことなく、各レンダリング部から供給された画像を対応する表示装置へ出力する。
このように構成された表示映像生成部60による表示映像生成処理例を、図6のフローチャートを参照して説明する。
ステップS1において、表示映像生成部60は、まず蓄積部40(図4参照)からサムネイル画像や字幕画像の生成に必要なデータを取得し、取得したデータをデータメモリ61に蓄積する。
次に、ステップS2において、データメモリ61に蓄積されたデータを用いて、サムネイル生成部62によりサムネイル画像の一覧(出力画像)が生成され、仮想空間生成部64へ出力される。
また、ステップS3において、データメモリ61に蓄積されたデータを用いて、字幕画像生成部63により字幕画像が生成され、仮想空間生成部64へ出力される。
続いて、ステップS4において、サムネイル生成部62で生成されたサムネイル画像の一覧と字幕画像生成部63で生成された字幕画像に基づいて、仮想空間生成部64によって仮想空間(3次元モデル)が構築される。
さらに、ステップS5において、レンダリング部65−1〜65−nの各々では、仮想空間生成部64で構築された仮想空間にカメラ(視点)を設定し、3次元グラフィックス画像を生成して出力する。
そして、ステップS6において、レンダリング部65−1〜65−nの各々から供給される3次元グラフィックス画像は、画像合成部66によって適宜合成され、合成して生成された表示画像が、表示装置110−1〜110−nの各々に出力される。あるいは、レンダリング部65−1〜65−nの各々から供給される3次元グラフィックス画像は表示画像として、画像合成部66を介して表示装置110−1〜110−nの各々の中から対応する表示装置に出力される。
最後に、ステップS7において、制御部80は映像の提示を終了するか否か、すなわち映像データの入力が終了したか否か又は映像提示の終了指示があったか否かの判断が行われる。映像提示を終了する場合には一連の処理は終了となる。映像提示が継続している場合には、ステップS1に戻ってさらに処理が続けられる。
次に、図7及び図8を参照して、サムネイル生成部62の詳細について説明する。
このサムネイル生成部62は、入力される映像データから所定の間隔でサムネイル画像を順に1枚(1フレーム)ずつ生成するものである。
図7は、サムネイル生成部62から出力されるサムネイル画像の構成を示す模式図である。
図7に示した例では、サムネイル画像の一覧としての出力画像Imに対し、時間にしてS間隔ごとの映像のサムネイル画像Im0〜Imnが原点120を始点にして縦間隔VSごとに配置される。ここで、V(pixel/s)は後述するレンダリング用カメラ(視点)の移動速度(画素単位に変換したもの)である。また、Sはサムネイル時間間隔である。
このとき、隣接するサムネイル画像同士を接合した状態に配置すると、サムネイル画像が連続して切れ目なく表示され非常に見づらいものになる。したがって、実際に出力画像Imのサムネイル画像位置に貼り付けられるサムネイル画像の縦方向(視点移動方向)の長さ(ピクセル数)は、隣接するサムネイル画像間で所定のマージン(隙間)を持たせることが好適である。そのため、貼り付けられるサムネイル画像の視点移動方向の長さは、縦間隔VSより短くすることが望ましい。
なお、サムネイル時間間隔ついては、予め10秒などの適切な間隔に固定しておいてもよいし、ユーザI/F90へのユーザ入力により視聴者が所望するサムネイル間隔を選択できるようにしてもよい。このようにした場合、視聴者は、好みの時間間隔でサムネイル画像を表示させることができるので、自身の情報取得能力に合わせて提示された情報を効率よく取得できる。
図8に、サムネイル生成部62によるサムネイル画像生成処理の例をフローチャートで示してある。
ステップS11において、サムネイル生成部62は、まず出力画像Imのサムネイル画像の通し番号iを0とし、また、出力用画像メモリ62aを、表示画面10の背景色Imb(図2参照)を適用して初期化する。この処理が終了後、ステップS12の処理に進む。
ステップS12において、サムネイル生成部62は、通し番号i(iは0以上の整数)のサムネイル画像の配置位置Piを計算する。配置位置Piは次式で表すことができる。
Pi=iVS
この計算式から理解できるように配置位置Piは原点120からの距離を表すものであり、具体的には通し番号iのサムネイル画像の下辺(下端)と原点120との距離である(図7参照)。i=0の場合、配置位置P0=0となって原点120と一致する。この処理が終了後、ステップS13の処理に進む。
ステップS13において、サムネイル生成部62は、データメモリ61に蓄積された映像データの基準時刻からの時刻iS(再生開始からの経過時間)に対応する画像を取得する。なお、i=0のときは時刻iS=0となり対応する画像がない。そこで、このような場合は、基準時刻(再生開始)からサムネイル時間間隔よりもずっと短い時間、例えば1.2秒後の画像を取得するようにしてもよい。この処理が終了後、ステップS14の処理に進む。
ステップS14において、サムネイル生成部62は、取得した画像を縮小してサムネイル画像を作成する。この処理が終了後、ステップS15の処理に進む。
ステップS15において、サムネイル生成部62は、作成したサムネイル画像を出力用画像メモリ62aの出力画像Imの座標(0,P)に相当する位置に貼り付ける。すなわち、作成した時刻iSにおけるサムネイル画像の左下角の頂点が、出力画像Imの対応する座標(配置位置Piにおけるサムネイル画像Imiの左下角の頂点)と重なるように貼り付ける。例えばi=0のときは、取得したサムネイル画像の左下角の頂点を出力画像Imの座標(0,0)の位置に合わせて貼り付けるようにする。この処理が終了後、ステップS16の処理に進む。
ステップS16において、サムネイル生成部62は、出力画像Imの先頭(原点120側)からi番目の配置位置Piへのサムネイル画像の貼り付けが終了した後、続いて、通し番号i←i+1とする。すなわち、出力画像Imの先頭からi+1番目の配置位置Pi+1へのサムネイル画像の貼り付けを行う。例えば、通し番号i=0であった場合にはi←0+1=1とする。この処理が終了後、ステップS17の処理に進む。
ステップS17において、サムネイル生成部62は、時刻iSがデータメモリ61に蓄積された映像データの再生時間の終了後の時刻であるか否かを判定する。時刻iSが再生時間の終了後の時刻である場合には、ステップS18の処理に進む。一方、時刻iSが再生時間の終了後の時刻ではない、すなわち再生時間が残っている場合には、ステップS12の処理に移行し、上記ステップS12〜S17の処理を繰り返す。このような手順を、通し番号i=nとなるまで繰り返すことにより、サムネイル画像の一覧が貼り付けられた出力画像Imを作成し、出力用画像メモリ62aに蓄積する。
最後にステップS18において、サムネイル生成部62は、出力用画像メモリ62aに蓄積された出力画像Imを仮想空間生成部64へ出力する。この処理が終了後、サムネイル画像生成処理を終了する。
なお、本実施の形態の例では、図7に示した出力画像Imは1列(1レーン)であるが、後述するような1つの表示装置又は複数の表示装置を用いて複数の番組の映像を同時に表示する場合、図8のフローチャートに示す処理を複数の番組の映像に適用する。すなわち、表示する番組数に対応して複数の出力画像を生成する。
次に、図9〜図11を参照して、字幕画像生成部63の詳細について説明する。
この字幕画像生成部63は、映像データが蓄積されたデータメモリ61から字幕情報を順に一つずつ取り出して、その字幕内容を画像に変換するものである。
図9は、字幕画像生成部63内に設けられた字幕情報テーブル63aの構成例を示す図である。
字幕情報テーブル63aは、例えば1つの番組中にメタデータとして含まれるすべての字幕情報を、字幕のひとまとまり毎に区切り、区切られた字幕のまとまり毎に、画面への表示開始時刻Tsと、表示終了時刻Teと、字幕の内容を示したものである。表示開始時間Tsと表示終了時刻Teとは、番組等のコンテンツが開始されてからの経過秒数で示してある。字幕Noとは、各字幕のまとまりに対して、表示開始時間の早いものから順に割り振った通し番号である。
図9に示した例では、字幕No0には、「お昼のニュースを」で始まる字幕のひとまとまりについての情報が記載されている。そしてこの記載の内容から、この字幕が、番組開始後1.2秒の時点(表示開始時刻Ts)で画面上に表示され、5.5秒を経過した時点(表示終了時刻Te)で表示が終了となることが分かる。この次に表示される字幕の情報は、字幕No1として登録されている。字幕No1には、表示開始時刻Tsが7.3秒、表示終了時刻Teは12.1秒、字幕内容は「今日の午前、千葉県・・・」という字幕の情報が記述されている。つまり、番組開始後7.3秒が経過した時点から12.1秒の時点までは「今日の午前、千葉県」で始まる字幕のひとまとまりが表示されることが分かる。
なお、字幕画像の時間間隔もしくは表示時間は、ユーザI/F90へのユーザ入力により視聴者が所望する時間間隔又は表示時間を選択できるようにしてもよい。このようにした場合、視聴者は、好みの時間間隔又は表示時間で字幕画像を表示させることができるので、自身の情報取得能力に合わせて提示された情報を効率よく取得できる。
図10は、図9に示す字幕情報テーブル63aの字幕情報を基に生成した字幕画像の例を示すものである。
字幕画像生成部63では、一つの字幕のまとまりについて、字幕画像を1枚(1フレーム)生成する。この字幕画像は、字幕画像0,1,2・・・といったように字幕情報の通し番号に対応している。これらすべての字幕画像の画像サイズは固定されている。換言すれば字幕の長短にかかわらず一定の大きさ(長さ)ということであり、一つの字幕画像に表示できる字幕の長さに制限が設けられているということである。このように制限を設けることにより、字幕が長くなり過ぎることがなく、視聴者が適切かつ効率よく映像を視聴することが可能になる。
図11に、字幕画像生成部63による字幕画像生成処理の例をフローチャートで示してある。
ステップS21において、字幕画像生成部63は、まず対象とする字幕の通し番号iを0にする。この処理が終了後、ステップS22の処理に進む。
ステップS22において、字幕画像生成部63は、出力用画像用メモリ63aを、任意色例えば透明色を適用することによって初期化する。この処理が終了後、ステップS23の処理に進む。
ステップS23において、字幕画像生成部63は、データメモリ61に蓄積された映像データからi番目の字幕情報を取得する。すなわち、図9に示した字幕情報テーブルからi番目の字幕情報を取得する。例えば通し番号i=0の場合、字幕No0の「お昼のニュースを・・・」という内容の字幕情報を抽出し、出力用画像メモリ63bに保存する。この処理が終了後、ステップS24の処理に進む。
ステップS24において、字幕画像生成部63は、取得すべき字幕情報が残っているかどうかを判定する。取得する字幕情報があると判定された場合、ステップS25の処理に進む。一方、取得する字幕情報がないと判定された場合、ステップS27の処理に進む。例えば通し番号i=0の場合、まだ取得すべき字幕情報ありと判定されてステップS25の処理に移る。
ステップS25において、字幕画像生成部63は、該当通し番号の字幕情報における字幕内容を画像として、すなわち字幕画像として生成する。この処理が終了後、ステップS26の処理に移行する。
ステップS26において、字幕画像生成部63は、対象とする通し番号i←i+1とする。すなわち、字幕情報テーブルから抽出する字幕情報の通し番号をi+1とする。例えば、通し番号i=0であった場合にはi←0+1=1とする。この処理が終了後、ステップS23の処理に移行し、上記ステップS23〜S26の処理を繰り返す。このような手順を、通し番号i=nとなるまで繰り返すことにより、一連の字幕画像0〜nを出力用画像メモリ63aに蓄積する。
最後にステップS27において、字幕画像生成部63は、ステップS24の判定処理においてこれ以上取得する字幕情報がないと判定された場合、出力用画像メモリ63bに蓄積した一連の字幕画像0〜nを仮想空間生成部64へ出力する。この処理が終了後、字幕画像生成処理を終了する。
なお、発言者IDなど、発言者を識別できる情報が字幕情報に含まれている場合、発言者によって字幕の色を変えるなどしてもよい。
また、例えば情報提示装置本体又は遠隔操作装置にユーザ・インタフェースとして字幕ボタンを設け、視聴者が字幕ボタンを押下した場合にだけ字幕画像生成部63が動作して、字幕画像が表示されるようにしてもよい。字幕ボタンなどの手段を用いて字幕画像表示のオン・オフを切り替えられるようにした場合、視聴者は自身の状況に合わせて視聴状態を切り替えることができる。例えば、映像の視聴に集中したい場合には字幕画像の表示をオフにするなどの利用形態が考えられる。
また、本実施の形態では、図7に示した出力画像Imは1列(1レーン)であるが、後述するような1つの表示装置又は複数の表示装置を用いて複数の番組(コンテンツ)の映像を同時に表示する場合、図11のフローチャートに示す処理を複数の番組の映像に対応づけられた各々の字幕情報に適用する。すなわち、表示する番組数に対応して一連の字幕画像を複数生成する。
さらに、本実施の形態では、映像データに含まれて画像と対応づけられている字幕情報から字幕画像を生成し副画像として利用しているが、これに限られるものではない。例えば、テロップや登場人物の顔、PinP画像を副画像として表示するようにしてもよい。テロップや顔、PinPの検出手法については後述する。
次に、図12〜図15を参照して、仮想空間生成部64の詳細について説明する。
まず、図12〜図14を参照して仮想空間生成部64により構築される仮想空間について簡単に説明する。図12は、カメラが始点(再生開始位置)にある場合の仮想空間の3次元モデル(以下、「3Dモデル」という。)の例を示す図であり、Aは側面図、Bは上面図である。図13は、図12に示す状態から所定時間経過後における仮想空間の3Dモデルの例を示す図である。さらに、図14は、カメラが終点(再生終了位置)に到達した場合の仮想空間の3Dモデルの例を示す図である。
仮想空間は一つの番組(コンテンツ)につき一つの「サムネイル表示用オブジェクト」と、複数の「字幕表示用オブジェクト」で構成される。「サムネイル表示用オブジェクト」は出力画像Im(図7参照)から、また「字幕表示用オブジェクト」は字幕画像(図10参照)からそれぞれ作成される。この「サムネイル表示用オブジェクト」が図1に示した「路面」に、「字幕表示用オブジェクト」が「道路標識」に相当する。
図12A,Bに示すように、番組の映像の時間長をLとすると、サムネイル表示用オブジェクト130の長さはVLである。ここでVはレンダリング用カメラ(以下、「カメラ」と称する。)RCの移動速度(pixel/s)である。また字幕表示用オブジェクトCo0〜Co5は、カメラRCが該当字幕表示用オブジェクトの下を通過する時刻と字幕の表示終了時刻Teが一致するように、各々の表示終了時刻Teに基づいたVTeの位置に順に配置される。なお本実施の形態の例では、サムネイル表示用オブジェクト130から各字幕表示用オブジェクトCo0〜Co5の下辺(下端)までの距離(高さ)をhとしてある。図12A,Bに示す例では、カメラRCが始点にあるため、最も近くかつ初めに見えるのは字幕表示用オブジェクトCo0である。
図13に示す例では、カメラRCが終点方向へ移動し、字幕表示用オブジェクトCo0を通過して次の字幕表示用オブジェクトCo1の手前に位置している状態を表している。
図14に示す例では、再生動作を継続したときに、カメラRCが図13に示した状態からさらに移動して仮想空間の終点に達した状態を表している。カメラRCが終点に到達すると、サムネイル表示用オブジェクト130及び字幕表示用オブジェクトCo0〜Co5の表示が終了する。なお、図12〜図14の示す例では、字幕表示用オブジェクトの数が字幕表示用オブジェクトCo0〜Co5の6個であるが、この例に限られるものではない。
上記仮想空間を生成するための、仮想空間生成部64による仮想空間生成処理の例を図15に示すフローチャートを参照して説明する。
ステップS31において、仮想空間生成部64は、まず対象とする通し番号iを0にして仮想空間を初期化する。この処理が終了後、ステップS32の処理に進む。
ステップS32において、仮想空間生成部64は、字幕画像生成部63から供給される各々の字幕画像に対応してそれぞれに字幕表示用オブジェクト(図12〜図13参照)を生成する。この処理が終了後、ステップS33の処理に進む。
ステップS33において、仮想空間生成部64は、データメモリ61に蓄積された映像データからi番目の字幕情報を取得する。例えばi=0の場合、「お昼のニュースを・・・」という内容の字幕情報(図9,図10参照)を抽出する。この処理が終了後、ステップS34の処理に進む。
ステップS34において、仮想空間生成部64は、取得する字幕情報が残っているかどうかを判定する。取得する字幕情報があると判定された場合、ステップS35の処理に進む。一方、取得する字幕情報がないと判定された場合、ステップS38の処理に進む。例えば通し番号i=0の場合、まだ取得すべき字幕情報ありと判定されてステップS35の処理に移る。
ステップS35において、仮想空間生成部64は、ステップS32の処理で生成した字幕表示用オブジェクトの表面に、字幕画像生成部63から受信した通し番号iの字幕画像をテクスチャとしてマッピングする。通し番号iの字幕画像は、映像データの再生開始時点からの経過時間(再生時間)に対応するものである。例えば通し番号i=0の場合、字幕No0の「お昼のニュースを・・・」という内容の字幕画像C0を字幕表示用オブジェクトの表面にマッピングする。この処理が終了後、ステップS36の処理に進む。
ステップS36において、仮想空間生成部64はさらに、表面に字幕画像がマッピングされた字幕表示用オブジェクトを、仮想空間内の高さh、かつ、字幕情報の表示終了時刻Teに基づく奥行きVTeに配置する(図12A,B参照)。例えば通し番号i=0の場合、字幕表示用オブジェクトCo0を図12Bに示す位置に配置する。この処理が終了後、ステップS37の処理に進む。
ステップS37において、仮想空間生成部64は、対象とする通し番号i←i+1とする。すなわち、データメモリ61から受信する字幕情報の通し番号をi+1とする。例えば、通し番号i=0であった場合にはi←0+1=1とする。この処理が終了後、ステップS33の処理に移行し、上記ステップS33〜S37の処理を繰り返す。このような手順を、通し番号i=nとなるまで繰り返すことにより、一連の字幕画像0〜nを各字幕表示用オブジェクトにマッピングすることができる。
ステップS38において、仮想空間生成部64は、ステップS34の判定処理においてこれ以上取得する字幕情報がないと判定された後、番組の映像の時間長L及びカメラRCの移動速度Vに基づき、長さVLのサムネイル表示用オブジェクト130(図12B参照)を生成する。この処理が終了後、ステップS39の処理に進む。
ステップS39において、仮想空間生成部64は、サムネイル生成部62から受信したサムネイル画像の一覧を含む出力画像Im(図7参照)を、サムネイル表示用オブジェクト130にテクスチャとしてマッピングする。この処理が終了後、仮想空間生成処理を終了する。
上述した処理を経て、映像データのサムネイル画像の一覧がテクスチャとしてマッピングされたサムネイル表示用オブジェクトと、映像データの字幕画像がテクスチャとしてマッピングされた字幕表示用オブジェクトを含む仮想空間が構築される。
次に、図16及び図17を参照して、レンダリング部65−1〜65−nの詳細について説明する。
レンダリング部65−1〜65−nは、制御部80の指示に基づいて動作する。例えば表示する番組数が1つの場合は、仮想空間生成部64から仮想空間のデータが1つのレンダリング部に供給される。あるいは、2つの番組を同時に表示する場合には、仮想空間生成部64から仮想空間のデータが2つのレンダリング部に供給される。2番組以上を同時に表示する場合の詳細は後述する。なお、各レンダリング部65−1〜65−nの構成は同一であるから、レンダリング部65−1についてのみ説明を行い、他のレンダリング部については説明を割愛する。
図16は、レンダリング部65−1によるレンダリング処理の例をフローチャートで示したものである。図16に示したフローチャートについて、図17を参照しながら説明する。
まずステップS51において、レンダリング部65−1は、制御部80からパラメータを取得する。このパラメータには、例えば番組の種類、番組の開始時刻及び終了時刻、もしくは再生時間、視点(レンダリング用カメラRC)の高さなどの設定値が含まれる。この処理が終了後、ステップS52の処理に進む。
ステップS52において、レンダリング部65−1は、制御部80から受信したパラメータに基づいて、仮想空間生成部64で生成された仮想空間内の所定位置にカメラRC(図17参照)を配置する。この処理が終了後、ステップS53の処理に進む。
ステップS53において、レンダリング部65−1は、カメラRCから仮想空間(三次元世界)を観測したときに得られる情報に基づいて仮想空間をレンダリング(投影処理)し、2次元の平面(表示画像)に描画する。図17に示す例では、仮想空間140内のカメラRCのある瞬間における情報として、例えば仮想空間サムネイル表示用オブジェクト130上の観測点141,142、仮想空間140の天井部分の観測点143、字幕表示用オブジェクトCo2の字幕画像上の観測点144の情報などが、カメラRC前面の投影面に得られる。その投影面に得られた情報が、そのカメRCから見える情景や物体(あるいはその一部)ということになる。実際にはカメラRCで観測される無数の情報を利用してレンダリングが行われる。このような仮想空間(ワールド座標系)から2次元の平面(視点座標系)に変換するレンダリング技術は周知慣用の技術である。この処理が終了後、ステップS54の処理に進む。
ステップS54において、レンダリング部65−1は、得られた画像を画像合成部66へ出力する。この処理が終了後、ステップS55の処理に進む。
ステップS55において、レンダリング部65−1は、制御部80からの指示に基づいて番組の表示を終了するか否か、すなわち映像データの入力が終了したか否か又は映像提示の終了指示があったか否かを判定する。表示を終了しないと判定された場合、ステップS51へ移行し、上述したステップS51〜S55の処理を繰り返して表示を継続する。一方、表示を終了すると判定された場合、レンダリング処理を終了する。
次に、画像合成部66について説明する。
画像合成部66は、制御部80からの指示に基づいて動作するものである。例えば表示する番組数が1つの場合は、1つのレンダリング部から受信した画像を1つの表示装置へ出力する。また、2つの番組を同時に別々の表示装置で表示する場合には、別個のレンダリング部から受信した画像をそれぞれの表示装置へ出力する。一方、2つの番組を同一の表示装置で表示する場合には、2つのレンダリング部から受信した各番組の画像を並べた表示画面の画像を生成し、その画面を一つの表示装置へ出力する。3つ以上の番組についても同様の手法で処理できる。なお、2つ又はそれ以上の番組の表示例については後述する。
上述した実施の形態によれば、自然な物理運動として自動車などの移動体に着目し、その移動体の車窓からの景色に見立てた映像提示を行うことができる。具体的には表示画面に、車窓から見える路面に相当するサムネイル表示用オブジェクトに番組(コンテンツ)のサムネイル画像(主画像)を配し、道路標識に相当する字幕表示用オブジェクトに字幕画像(副画像)を表示する。
このような構成により、再生対象の現在の情報(手前の画像)に加え、未来の情報(遠方の画像)を予め画面に時系列に提示することができる。その結果、視聴者は、前方(未来の主画像・副画像)を見通しながら視聴できるようになり、番組の先の展開を予測しつつ視聴することができるため、番組展開を余裕を持って視聴できる。
また、上述した実施の形態によれば、車窓からの景色に見立てた自然な物理運動を取り入れた映像提示、すなわち自然な景色の流れを表現することにより、視聴者の番組(コンテンツ)の理解を助けるとともに脳や目への負担を軽減することができる。
また、上述した実施の形態によれば、字幕が近づいてくるという表示形態としたことによって、視聴者の字幕の見逃しを減少させることができる。
上述した実施の形態によれば、仮想空間内に番組(コンテンツ)の要素(画像、字幕など)を配置し、空間配置のコンテンツの関連付けを行いやすくなったので、2以上の番組を同時に表示した場合であっても内容の混同が減少する。
[第1の実施の形態の第1変形例]
次に、本発明の第1の実施の形態の第1変形例について、図18〜図23を参照して説明する。
番組の映像データにメタデータとして与えられる字幕情報以外にも、映像データから取得した情報を副画像として利用することができる。本実施の形態の変形例は、情報提示装置100の表示映像生成部が、字幕画像生成部63で生成された字幕画像の代わりに、映像から切り出したテロップ画像や顔画像、PinP(Picture In Picture)の子画面を副画像として利用できるように構成したものである。以下では、図18〜図23において、上記既出図面に対応する部分には同一符号を付して示し、詳細な説明を省略する。
図18は、第1の実施の形態の第1変形例における表示映像生成部60Aの内部構成を示した図である。
表示映像生成部60Aは、データメモリ61、第1の画像生成部としてのサムネイル生成部62、第2の画像生成部としてのテロップ検出部150、顔検出部160及びPinP検出部170、仮想空間生成部64、レンダリング部65−1〜65−n(nは自然数)、画像合成部66とを有する。
次に、図19及び図20を参照して、テロップ検出部150について詳細に説明する。
テロップ検出部150は、データメモリ61から受信する映像データからテロップを検出してテロップ画像(副画像)に変換し、仮想空間生成部64へ出力する。テロップ検出の技術は周知であり、例えば特開2006−331057号公報などに記載された技術を利用できる。またテロップ検出部150は、テロップの内容や出現時間によって区分することにより生成したテロップ用テーブル150aと、テロップ画像の生成に用いるテロップ情報を一時的に蓄積しておく領域としての出力用画像メモリ150bも備える。
図19のフローチャートを参照して、テロップ検出部150によるテロップ検出処理の例を説明する。
ステップS61において、まずテロップ検出部150は、データメモリ61から番組(コンテンツ)の映像データを取得する。この処理が終了後、ステップS62の処理に進む。
ステップS62において、テロップ検出部150は、テロップ番号を0に設定して初期化する。この処理が終了後、ステップS63の処理に進む。
ステップS63において、テロップ検出部150は、取得した映像データの最初のフレームについてテロップが出現したか否かを判定する。テロップが出現した場合はステップS64へ進む。一方、テロップが出願しなかった場合はステップS67へ進む。
ステップS64において、テロップ検出部150は、検出したテロップの表示画面上での座標を取得する。この座標を取得する際にテロップのどの部分を基準とするかは任意であるが、通常はテロップの中心を基準にする。この処理が終了後、ステップS65の処理に進む。
ステップS65において、テロップ検出部150は、検出したテロップの位置を上記座標を用いて特定し、当該テロップを含む画像を切り出す。この処理が終了後、ステップS66の処理に進む。
ステップS66において、テロップ検出部150は、検出したテロップの出現時刻を取得する。この処理が終了後、ステップS67の処理に進む。
ステップS67において、テロップ検出部150は、検出したテロップが消滅したか否かを判定する。テロップが消滅した場合はステップS68へ進む。一方、テロップが消滅しなかった場合は次のフレームについてテロップ検出処理を実施する。
上記ステップS63〜ステップS70の処理を映像の最初のフレームから最後のフレームまで実施する。
そして、テロップ検出部150は、映像データの最後のフレームについてのテロップ検出処理が終了した後、テロップ情報を記述したテロップ用テーブル150aすなわちテロップ画像T0,T1,T2,T3,・・・を仮想空間生成部64へ出力する。この処理が終了した後、一連のテロップ検出処理を終了する。
図20は、テロップ情報が記述されたテロップ用テーブルの例を示す図である。
テロップ用テーブルは、上記の一連のテロップ検出処理によって生成される。例えば1つの番組の映像に含まれるすべてのテロップ画像毎に区切り、区切られたテロップ画像毎に、画面への表示開始時刻Tsと、表示終了時刻Teと、テロップの内容を示したものである。つまり、検出したテロップ画像T0,T1,T2,T3,・・・が集められたテーブルである。表示開始時間Tsと表示終了時刻Teとは、字幕の場合と同様に、番組等のコンテンツが開始されてからの経過秒数で示してある。テロップNoとは、各テロップ画像に対して、表示開始時間の早いものから順に割り振った通し番号である。
図20に示した例では、テロップNo0には、「お昼のニュース」のテロップ画像T0に関する情報が記載されている。そしてこの記載の内容から、このテロップ画像T0が、番組開始後1.2秒の時点(表示開始時刻Ts)で画面上に表示され、5.5秒を経過した時点(表示終了時刻Te)で表示が終了となることが分かる。この次に表示されるテロップ画像T1は、テロップNo1として登録されている。テロップNo1には、表示開始時刻Tsが7.3秒、表示終了時刻Teは12.1秒、テロップ内容は「千葉通り魔」が記述されている。つまり、番組開始後7.3秒が経過した時点から12.1秒の時点までは「千葉 通り魔」のテロップ画像T1が表示されることが分かる。
上述のようにして、仮想空間生成部64に出力されたテロップ画像T0,T1,T2,T3,・・・は、それぞれ字幕画像の代わりに仮想空間の各字幕表示用オブジェクトの表面にマッピングされる。さらに、レンダリング部においてレンダリング処理されることにより、2次元の平面(表示画像)に描画され、それら表示画像が画像合成部66を介して適切な表示装置に送信され、表示装置の表示画面に表示される。このようにして、テロップ画像が字幕画像の代わりに仮想空間の各字幕表示用オブジェクトに副画像として表示される。
次に、図21及び図22を参照して、顔検出部160について詳細に説明する。
顔検出部160は、データメモリ61から受信する映像データから登場人物の顔部分の画像を検出し、顔画像(副画像)として仮想空間生成部64へ出力する。顔検出の技術は周知であり、例えば特開2007−241496号公報などに記載された技術を利用できる。また顔検出部160は、顔の内容や出現時間によって区分することにより生成した顔用テーブル160aと、顔画像の生成に用いる顔情報を一時的に蓄積しておく領域としての出力用画像メモリ160bも備える。
図21のフローチャートを参照して、顔検出部160による顔検出処理の例を説明する。
ステップS81において、まず顔検出部160は、データメモリ61から番組(コンテンツ)の映像データを取得する。この処理が終了後、ステップS82の処理に進む。
ステップS82において、顔検出部160は、顔番号を0に設定して初期化する。この処理が終了後、ステップS83の処理に進む。
ステップS83において、顔検出部160は、取得した映像データの最初のフレームについて顔が出現したか否かを判定する。顔が出現した場合はステップS84へ進む。一方、顔が出願しなかった場合はステップS87へ進む。
ステップS84において、顔検出部160は、検出した顔の表示画面上での座標を取得する。この座標を取得する際に顔のどの部分を基準とするかは任意である。この処理が終了後、ステップS85の処理に進む。
ステップS85において、顔検出部160は、検出した顔の位置を上記座標を用いて特定し、当該顔を含む画像を切り出す。この処理が終了後、ステップS86の処理に進む。
ステップS86において、顔検出部160は、検出した顔の出現時刻を取得する。この処理が終了後、ステップS87の処理に進む。
ステップS87において、顔検出部160は、検出した顔が消滅したか否かを判定する。顔が消滅した場合はステップS88へ進む。一方、顔が消滅しなかった場合は次のフレームについて顔検出処理を実施する。
上記ステップS83〜ステップS90の処理を映像の最初のフレームから最後のフレームまで実施する。
そして、顔検出部160は、映像データの最後のフレームについての顔検出処理が終了した後、顔情報を記述した顔用テーブル160aすなわち顔画像F0,F1,F2,F3,・・・を仮想空間生成部64へ出力する。この処理が終了した後、一連の顔検出処理を終了する。
図22は、顔情報が記述された顔用テーブルの例を示す図である。
顔用テーブルは、上記の一連の顔検出処理によって生成される。例えば1つの番組の映像に含まれるすべての顔画像毎に区切り、区切られた顔画像毎に、画面への表示開始時刻Tsと、表示終了時刻Teと、顔の内容を示したものである。つまり、検出した顔画像F0,F1,F2,F3,・・・が集められたテーブルである。表示開始時間Tsと表示終了時刻Teとは、字幕及びテロップの場合と同様に、番組等のコンテンツが開始されてからの経過秒数で示してある。顔Noとは、各顔画像に対して、表示開始時間の早いものから順に割り振った通し番号である。
図22に示した例では、顔No0には、顔画像F0に関する情報が記載されている。そしてこの記載の内容から、この顔画像F0が、番組開始後30.3秒の時点(表示開始時刻Ts)で画面上に表示され、45.2秒を経過した時点(表示終了時刻Te)で表示が終了となることが分かる。この次に表示される顔画像F1は、顔No1として登録されている。顔No1には、表示開始時刻Tsが120.5秒、表示終了時刻Teは134.2秒、顔画像F2が記述されている。つまり、番組開始後120.5秒が経過した時点から134.2秒の時点までは顔画像F1が表示されることが分かる。
上述のようにして、仮想空間生成部64に出力された顔画像F0,F1,F2,F3,・・・は、それぞれ字幕画像の代わりに仮想空間の各字幕表示用オブジェクトの表面にマッピングされる。さらに、レンダリング部においてレンダリング処理されることにより、2次元の平面(表示画像)に描画され、それら表示画像が画像合成部66を介して適切な表示装置に送信され、表示装置の表示画面に表示される。このようにして、顔画像が字幕画像の代わりに仮想空間の各字幕表示用オブジェクトに副画像として表示される。
次に、PinP検出部170について説明する。
PinP検出部170は、映像データの通常の画像上に、PinPの子画面として重畳するように合成して表示されたPinP領域内の画像を検出及び抽出するものである。このPinP検出部170は、抽出した画像を縮小して小画像を生成し、その小画像(副画像)を仮想空間生成部64へ出力する。また、PinP検出部170は、PinPの子画面としての画像を一時的に蓄積しておく領域としての出力用画像メモリ170aを備える。
図23は、PinP検出部170から出力された画像が表示された表示画面10Aの例を示す図である。
図23に示す例は、表示画面10Aに、主画像としてのサムネイル画像Im0〜Im5と副画像としての字幕画像C0〜C5がそれぞれ、車窓から見た路面と道路標識に見たてて表示され、空いている任意の領域にPinPによる子画面180が表示されている。すなわち、表示画像10Aは、図3に示した表示画面10に子画面180を表示させたものである。このように子画面を表示することにより、視聴者はより多くの情報を取得することができる。
また、サムネイル表示用オブジェクト上のサムネイル画像の一覧に、テレビジョン番組を表示している場合などには、その時点で他の放送局で放映されている別のテレビジョン番組等を表示させるようにしてもよい。
上述した第1の実施の形態に係る第1変形例では、字幕画像生成部63の代わりに、テロップ検出部150、顔検出部160、PinP検出部170のいずれかを備えていればよい。また、字幕画像生成部63を含まないこれらの組合せ、あるいは、字幕画像生成部63を含んだ組合せから構成してもよい。
[第1の実施の形態の第2変形例]
次に、本発明の第1の実施の形態の第2変形例について、図24を参照して説明する。
ここまでは1つの番組に関しての映像生成手順について説明したが、複数番組の映像も同様に生成することができる。この第1の実施の形態の第2変形例では、1つの表示装置の表示画面に2番組の映像を同時に表示するようにしている。つまり、表示画面の左右にそれぞれの番組のレーンを設置し、カメラ(視点)はその中央を移動しながら2番組を同時に視聴できるようにしたものである。
図24は、第1の実施の形態の第2変形例に係る2番組表示の例を示す図である。
図24において、表示画面10Bに、第1番組用の第1レーン(サムネイル表示用オブジェクト)191と第2番組用の第2レーン(サムネイル表示用オブジェクト)192が並列に表示されている。第1番組については、例えば主画像としてサムネイル画像Im1−0〜Im1−4、副画像として字幕画像C1−0〜C1−4が表示してある。また第2番組については、例えば主画像としてサムネイル画像Im2−0〜Im2−4、副画像として字幕画像C2−0〜C2−4が表示してある。
このように1つの表示装置に2番組の映像を表示するには、表示映像生成部60の仮想空間生成部64において、2つの番組の映像データを基にして1つの仮想空間にそれぞれの番組映像のサムネイル表示用オブジェクトと字幕表示用オブジェクトを左右に並列に配置する。そして、この仮想空間を1つのレンダリング部例えばレンダリング65−1でレンダリング処理し、画像合成部66を経て表示装置110−1に表示画面10Cを表示する。なお、仮想空間に配置するカメラRC(図12〜図14参照)は2番組の映像の接合部分、すなわち左右のほぼ中央が好ましいが中央には限られない。
上述した第1の実施の形態の第2変形例によれば、視聴者は左右に隣接する2つの番組の空間配置(位置関係)がしっかり認識できるので、番組間で内容を混同しにくくなる。
また、先を見通しながら番組を視聴できるので、視聴者は同時に2番組を視聴しても余裕を持って視聴することができる。
また、サムネイル画像や字幕画像の提示方法を自動車の車窓からの景色に見立てた表示としていることにより、サムネイル画像や字幕画像の動きが自然であるため、視聴者は長時間視聴しても疲れにくい。
また、字幕が物理的に近づいて来る感覚があるので、無意識のうちに注目し、どちらか片方の番組の内容に集中しているときであっても、もう一方の番組の字幕を見落とすことが少なくなる。
[第1の実施の形態の第3変形例]
次に、本発明の第1の実施の形態の第3変形例について、図25を参照して説明する。
この第1の実施の形態の第3変形例では、1つの表示装置の表示画面に3以上の複数の番組の映像を同時に並列に表示するようにしたものである。
図25は、第1の実施の形態の第3変形例に係る複数番組表示の例を示す図である。
図25に示す例では、表示画面10Cに少なくとも第1〜第5の5番組のレーン(サムネイル表示用オブジェクト)201〜205が表示されている。また、各番組のレーンに対応して各字幕画像が表示される。この例では、第1レーン201に対応して字幕画像C1−0〜C1−2が、第2レーン202に対応してC2−0が、第3レーンに対応してC3−0が、第4レーンに対応してC4−0が、さらに第5レーンに対応してC5−0が表示されている。
このように1つの表示装置に複数の番組の映像を表示するには、表示映像生成部60の仮想空間生成部64において、表示対象の複数の番組の映像データを基にして1つの仮想空間にそれぞれの番組映像のサムネイル表示用オブジェクトと字幕表示用オブジェクトを含むレーンを隣り合わせて配置する。そして、この仮想空間を1つのレンダリング部例えばレンダリング65−1でレンダリング処理し、画像合成部66を経て表示装置110−1に表示画面10Cを表示する。なお、仮想空間に配置するカメラRC(図12〜図14参照)は複数番組のレーンの中央であって、かつ、視聴者が注目する番組を中央レーンに配置するのが好ましいと推測されるが、この例には限られない。
このような情報提示を行うことにより、複数の番組を同時に視聴したり、また、周囲を見渡す感覚で興味ある番組を探したりするという使い方が可能になる。この場合、カメラRC(視点)の左右への動き方向に関する指示を視聴者がユーザI/F90を介して制御部80(図4)に対し入力することで、番組のレーンを変えながら、いろいろな番組を視聴できるようにする。さらに、複数の番組のなかから選択した番組のレーンを表示画面10Cの中心に配置するようにすると、所望する番組を視聴しやすくなる。
[第1の実施の形態の第4変形例]
次に、本発明の第1の実施の形態の第4変形例について、図26,図27を参照して説明する。
この第1の実施の形態の第4変形例では、複数の表示装置を用いることによって、仮想空間の奥行き感を増長したり、遠方にある字幕を読みやすくしたりするものである。
図26は、第1の実施の形態の第4変形例に係る複数個の表示装置による表示例を示す図である。
図26に示す例では、複数の表示装置211〜214,221〜224が手前から奥にかけて上がるように段差を付けた階段状に配置してある。また左右方向の表示装置はレーンごとに分かれており、表示装置211〜214が同一番組を表示し、表示装置221〜224は別の同一番組を表示する。複数の表示装置211〜214,221〜224は、手前方向(下側)の表示装置には近距離(過去)の映像が、奥行き方向(上側)の表示装置には遠距離(未来)の映像が提示される。
図27は、第1の実施の形態の第4変形例に係る複数カメラによる仮想空間の3Dモデルを示す図である。
図27に示すように、表示装置211〜214に表示される番組映像の仮想空間に対して4個のカメラRC1〜RC4を、それぞれ場所を変えて配置する。カメラRC1の視点に基づいて生成される画像は手前方向(下側)の表示装置214に表示され、4個のカメラのうち最も進んだ位置にあるカメラRC4の視点に基づいて生成される画像は奥行き方向(上側)の表示装置211に表示されるようにしてある。このようにすると、カメラRC1から見て遠方にある字幕表示用オブジェクトCo2は、カメラRC2から見て近距離に位置する。そのため、表示装置214で見て遠距離にある字幕の文字が、表示装置211では大きく表示される。
なお、図26,図27に示した例では、表示装置とカメラが一対一に対応しており、2番組・8個の表示装置に対して8個のカメラ及び8個のレンダリング部(図5,図18参照)が必要である。よって、仮想空間生成部64で生成された2番組の映像の仮想空間の情報は、1番組につき4個のレンダリング部に出力される。そして、8個のレンダリング部から出力された画像が画像合成部66を介して表示装置211〜214,221〜224にそれぞれ入力されて表示される。
このような情報提示を行うことによって、視聴者はより奥行き感を感じられるという利点がある。また1画面(例えば図3)の場合と比べて、遠距離にある字幕の文字が大きくなるので見やすくなる。
[音声の提示]
ここで、番組映像(コンテンツ)に付随する音声の提示方法について説明する。音声の提示方法には、以下のようなものが考えられる。
<仮想空間での音声を提示>
各番組のサムネイル画像の部分から音声が出ていると想定して、カメラ位置で聴こえる音をシミュレーションにより生成して提示する。これは、音声処理部70において、映像データから分離された音声信号に対し表示時間(表示終了時刻Te−表示開始時刻Ts)に比例して音量を大きくし、該音声信号を各表示装置のスピーカに供給することにより実現できる。
あるいは、情報処理部50において符号化・復号処理部30より受信した映像データに対し、表示映像生成部60と音声処理部70から出力される画像と音声の同期をとって各表示装置のスピーカへ出力するようにしてもよい。すなわち、音声処理部70は、入力された映像データから分離された音声信号に対し所定の音声処理を実施し、その後に情報処理部50が通常のとおり画像と音声を各表示装置のスピーカへ出力すればよい。サムネイル画像が遠方から近づいてくるので、音声を普通に再生しているだけでも視聴者はあたかもサムネイル画像から音声が出ているかのような感覚になるからである。
以上のような音声の提示を行うことにより、画面での見た目と音声の聴こえ方が一致するので、視聴者にとって違和感のない理解しやすいものとなる。
<すべての音声を提示>
すべての音声、例えばサムネイル画像に対応する音声と字幕に対応する音声(言葉)を同時に提示した場合、字幕についての音声は聞き取りにくくなる。しかし、字幕の提示と音声が同期しているので、視聴者が注意を向ければ、声質や調子などは聞き取ることができる。また背景音、効果音やBGMなどは、比較的に音が混ざらずに聴けるので、番組の雰囲気を聞き取ることが可能である。
<1つの音声を提示>
複数の番組映像が提示されている場合、視聴者が選んだ番組や、カメラがある位置の番組の音声を提示する。または視聴者の視線を周知の視線検出センサで取得し、視線のある番組の音声を提示したりする。このようにした場合、視聴者の興味ある側の音声が聴けるので、視聴者の満足度が高い提示形態とすることができる。
<無音>
複数の番組の内容を理解するには、視聴者は集中を維持する必要がある。音声が提示されると集中を乱されることも多いので、音声は提示せずに映像だけを提示することの方がよい場合もある。
<その他>
上述したような複数の音声提示形態を用意しておき、制御部80が視聴者の指示を検出したり視聴環境を検出したりすることによって音声提示方法を決定する。また、上述した実施の形態の例では、音声信号を各表示装置に設置されたスピーカに供給するようにしたが、図示しない音声出力端子と接続されたイヤホンに供給するようにしてもよい。
[第2の実施の形態]
以下、本発明の第2の実施の形態の例について図28〜図48を参照して説明する。
本実施の形態に係る情報提示装置は、コンテンツの先の展開を予測しながら視聴できるよう再生対象の現在の情報に加え、過去及び未来の情報(映像)を予め画面に提示しておくように構成するものである。
図28は、本発明の第2の実施の形態に係る番組映像の表示例を示す図である。
図中の表示画面230において、番組(コンテンツ)の音声内容が字幕(過去)Cp及び字幕(未来)Cfとして表示されている。また、画面右側に映像のサムネイル画像が、サムネイル画像231−1〜231−5のように縦方向に過去から未来にわたって提示されている。また、字幕については過去の字幕と未来の字幕で表示色を替えている。さらに、音声信号の波形が表示され、この音声波形においても、音声波形(過去)Ap、音声波形(未来)Af、現在音声位置234といったように、過去から未来にわたって提示されている。そして、字幕の現在音声位置に対応する部分には、現在の再生時刻に対応する現在画像233が重畳して表示されている。
上記表示画面230の映像提示の特徴としては、以下のものがある。
(1)音声内容を字幕で表示している。そのため、現在の字幕位置が色の変化などで示され、どこを読むべきかがわかりやすい。
(2)映像のサムネイル画像が、過去から現在、そして未来にわたって提示されている。そのため、番組の次の展開や過去の話の流れが確認しやすい。
(3)字幕についても、過去から現在、そして未来にわたって提示されている。そのため、余裕をもって視聴することができる。
(4)字幕に対応する音声の波形が、過去から現在位置、そして未来にわたって表示されている。そのため、発言のタイミングを確認でき、視聴に余裕が生まれる。
情報提示装置に入力された番組(映像データ)を、上記のような特徴を持つ映像に変換して提示することにより、複数番組を同時視聴しても、視聴者は内容を理解することができるようになる。以下に、この映像提示を実現するためのシステムについて述べる。
図29は、第2の実施の形態に係るシステムの内部構成例を示すブロック図である。
情報提示装置100Aは、第1の実施形態に係る情報提示装置100と比較して、情報処理部240−1〜240−nが各表示装置110−1〜110−nと一対一に対応して設けられている点が相違し、その他については同一である。以下、第2の実施の形態についての説明に用いる図面において、既述した第1の実施の形態の説明に用いた図面に対応する部分には同一符号を付し、詳細な説明は割愛する。
図30は、第2の実施の形態に係る情報処理部内の表示映像生成部の内部構成例を示すブロック図である。各情報処理部240−1〜240−nの構成は同一であるから、情報処理部240−1についてのみ説明を行い、他の情報処理部については説明を割愛する。
情報処理部240−1内の表示映像生成部241−1は、データメモリ61、第1の画像生成部としてのサムネイル生成部62A、第2の画像生成部としての字幕画像生成部63A、音声波形画像生成部250、現在画像生成部260、画像合成部270とを含むようにして構成される。サムネイル生成部62Aは主画像(サムネイル画像)を作成し、他の生成部は副画像(字幕画像、音声波形画像、現在画像)を生成するものである。なお、副画像を生成する各部は、少なくともいずれか一つ備えていればよく、もしくはそれらの組合せでもよい。
データメモリ61は、サムネイル生成部62Aや字幕画像生成部63A、音声波形画像生成部250、現在画像生成部260での処理を行う際に、蓄積部40から読み出した映像データや音声データ、字幕情報を、一時的に蓄積するための領域であり、半導体メモリ等で構成される。
サムネイル生成部62Aは、表示装置の表示画面に時系列に表示するサムネイル画像の一覧を生成し、画像合成部270に出力する。またサムネイル生成部62Aは、サムネイル画像を一時的に蓄積しておく領域としての出力用画像メモリ62aを備える。サムネイル生成部62Aの詳細については後述する。
字幕画像生成部63Aは、映像・字幕入力部20を介してメタデータとして入力された字幕情報を一連の字幕画像に変換し、画像合成部270へ出力する。また字幕画像生成部63Aは、字幕情報を、字幕の内容や出現時間によって区分することにより生成した字幕情報テーブル63aと、字幕画像の生成に用いる字幕情報を一時的に蓄積しておく領域としての出力用画像メモリ63bも備える。字幕画像生成部63Aの詳細については後述する。
音声波形画像生成部250は、後述する方法により音声データに含まれる音声信号の波形を画像に変換して画像合成部270へ出力する。また、音声波形画像生成部250は、作成した音声波形を一時的に蓄積しておく領域としての出力用画像メモリ250aを備える。
現在画像生成部260は、後述する方法により、現在の再生時刻に対応する番組映像を縮小した画像(以下、「現在画像」という。)に変換して画像合成部270へ出力する。また、現在画像生成部260は、作成した現在画像を一時的に蓄積しておく領域としての出力用画像メモリ260aを備える。
上記各生成部の後段の画像合成部270は、各生成部で生成された各画像を合成して当該情報処理部240−1と対応づけられている表示装置110−1へ出力する。
次に、図31に示すフローチャートを参照して、上記構成の表示映像生成部241−1による処理例を説明する。
ステップS101において、表示映像生成部241−1は、まず蓄積部40(図4参照)からサムネイル画像や字幕画像等の生成に必要なデータを取得し、取得したデータをデータメモリ61に蓄積する。
次に、ステップS102において、データメモリ61に蓄積されたデータを用いて、サムネイル生成部62Aによりサムネイル画像の一覧が生成され、画像合成部270へ出力される。
また、ステップS103において、データメモリ61に蓄積されたデータを用いて、字幕画像生成部63Aにより字幕画像が生成され、画像合成部270へ出力される。
また、ステップS104において、データメモリ61に蓄積されたデータを用いて、音声波形画像生成部250により音声波形の画像が生成され、画像合成部270へ出力される。
また、ステップS105において、データメモリ61に蓄積されたデータを用いて、現在画像生成部260により現在映像の画像が生成され、画像合成部270へ出力される。
また、ステップS106において、画像合成部270により、各生成部で作成された各画像を合成する。
そして、ステップS107において、画像合成部270より、合成した画像を対応づけられている表示装置へ出力する。
その後、ステップS108において、制御部80は映像の提示を終了するか否かを判定する。すなわち映像データの入力が終了したか否か又はユーザI/F90から映像提示の終了指示があったか否かの判定が行われる。映像提示を終了する場合には一連の処理は終了となる。映像提示が継続している場合には、ステップS101に戻ってさらに処理が続けられる。
次に、図32及び図33を参照して、サムネイル生成部62Aの詳細について説明する。
このサムネイル生成部62Aは、入力される映像データから所定の間隔でサムネイル画像を順に1枚(1フレーム)ずつ生成するものである。
図32は、サムネイル画像の座標を説明するための図である。
ここで便宜上、「仮想メモリ」という画像メモリを想定する。この仮想メモリには、S(s)間隔ごとのサムネイル画像282が開始位置(原点)から、横位置W(pixel)に配置され、サムネイル画像ごとの縦間隔はVS(pixel)である。ここでV(pixel/s)は後述するスクロールの速さ(画面遷移速度)を表す。
また、この仮想メモリから出力される出力画像281は、開始位置(原点)からの距離が(VT−Hp)から(VT−Hp+H)の間に含まれる部分に相当する。ここでTは現在の再生時刻、Hpは出力画像281の上辺から現在地点(破線部)の表示位置までの距離、Hは出力画像281の高さを表す。つまり出力画像281は、再生開始後、速さV(pixel/s)で仮想メモリの下方へ移動することになり、出力画像281を基準としてみると、サムネイル画像282は上方へ速度V(pixel/s)でスクロールすることになる。
図33は、サムネイル生成部62Aの処理例を示すフローチャートである。
ステップS111において、サムネイル生成部62Aは、まず出力画像281のサムネイル画像282の通し番号iを0とし、出力用画像メモリ62aを初期化する。この処理が終了後、ステップS112の処理に進む。
ステップS112において、サムネイル生成部62Aは、開始位置(原点)から順に付けた通し番号i(iは0以上の整数)のサムネイル画像の位置Piを計算する。位置Piは次式で表すことができる。
Pi=iVS−VT+Hp
この計算式から理解できるように位置Piは開始位置からの距離を表す。この処理が終了後、ステップS113の処理に進む。なお、このサムネイル画像の位置を取得する際にサムネイル画像のどの部分を基準とするかは任意であるが、通常は画像中心を基準にする。
ステップS113において、サムネイル生成部62Aは、位置Piのサムネイル画像が出力画像281に表示されるか否かを判定する。位置Piが出力画像281にかかる場合には、ステップS114に進む。一方、位置Piが出力画像281にかからない場合には、ステップS118に進む。
ステップS114において、サムネイル生成部62Aは、データメモリ61に蓄積された映像データから時刻iSに対応する画像を取得する。この処理が終了後、ステップS115の処理に進む。
ステップS115において、サムネイル生成部62Aは、ステップS114の処理により取得した画像を縮小してサムネイル画像を作成する。この処理が終了後、ステップS116の処理に進む。
ステップS116において、サムネイル生成部62Aは、作成したサムネイル画像を出力用画像メモリ62a上の仮想メモリ座標(W,Pi)に相当する位置に貼り付ける。この処理が終了後、ステップS118の処理に進む。
ステップS117において、サムネイル生成部62Aは、開始位置(原点)からi番目の位置Piへのサムネイル画像の貼り付けが終了した後、続いて、通し番号i←i+1とする。すなわち、出力画像Imの先頭からi+1番目の位置Pi+1へのサムネイル画像の貼り付けを行う。例えば、通し番号i=0であった場合にはi←0+1=1とする。この処理が終了後、ステップS112の処理に移行し、少なくとも上記ステップS112,S113の処理を繰り返す。
ステップS118において、サムネイル生成部62Aは、時刻iSがデータメモリ61に蓄積された映像データの再生時間の終了後の時刻であるか否かを判定する。時刻iSが再生時間の終了後の時刻である場合には、ステップS119の処理に進む。一方、時刻iSが再生時間の終了後の時刻ではない、すなわち再生時間が残っている場合には、ステップS117の処理に移行し、少なくとも上記ステップS112,S113の処理を繰り返す。このような手順を、通し番号i=nとなるまで繰り返すことにより、サムネイル画像の一覧の画像を作成し、出力用画像メモリ62aに蓄積する。
最後にステップS119において、サムネイル生成部62Aは、出力用画像メモリ62aに蓄積されたサムネイル画像の一覧の画像を画像合成部270へ出力する。この処理が終了後、サムネイル画像生成処理を終了する。
次に、図34〜図36を参照して、字幕画像生成部63Aの詳細について説明する。
図34は、字幕情報のテーブルの例を示す図である。
データメモリ61から受信する字幕情報には少なくとも、字幕の通し番号、字幕の表示開始時刻Tsと表示終了時刻Te、及び字幕内容が含まれている。なお、この図34に示した字幕情報テーブルの例は、図9に示した例と同じである。
図35は、字幕にかかわる座標を説明するための図である。
ここでも上記サムネイル画像(図32参照)の場合と同様に、便宜上、仮想メモリ290という画像メモリを想定する。図35に示した例におけるそれぞれの記号(座標)の意味は、上記サムネイル画像の場合と同一の記号については同様の意味である。なお、Wtは、字幕の出力画像291における現在の横位置を表す。図35に示す例ではこのWtの位置が棒状の記号で表現されているが、実際の画面には表示しなくてもよい。
本実施の形態において、字幕を描画するフォントは少なくとも2種類用意し、現在地点(破線部)よりも以前(上方)にある字幕(過去)Cpの場合には「過去フォント」で、一方、それ以降(下方)にある字幕(未来)Cfの場合には「未来フォント」を使って描画する。例えば過去フォントとしては青色の文字フォント、未来フォントとしては黄色の文字フォント等を適用する。文字形式・字体を変えてもよい。このようにすることによって、どの字幕が過去、現在、未来のそれぞれに対応しているのかを一目で分かりやすくする。
図36は、字幕画像生成部63Aによる処理例を示すフローチャートである。
ステップS121において、字幕画像生成部63Aは、まず対象とする字幕の通し番号iを0とし、出力用画像用メモリ63aを、任意色例えば透明色を適用することによって初期化する。この処理が終了後、ステップS122の処理に進む。
ステップS122において、字幕画像生成部63Aは、データメモリ61に蓄積された映像データからi番目の字幕情報を取得する。すなわち、図34に示した字幕情報テーブルからi番目の字幕情報を取得する。例えば通し番号i=0の場合、字幕No0の「お昼のニュースを・・・」という内容の字幕情報を抽出し、出力用画像メモリ63bに保存する。この処理が終了後、ステップS123の処理に進む。
ステップS123において、字幕画像生成部63Aは、取得すべき字幕情報が残っているかどうかを判定する。取得する字幕情報があると判定された場合、ステップS124の処理に進む。一方、取得する字幕情報がないと判定された場合、ステップS137の処理に進む。例えば通し番号i=0の場合、まだ取得すべき字幕情報ありと判定されてステップS124の処理に移る。
ステップS124において、字幕画像生成部63Aは、字幕情報テーブルから取得したi番目の字幕情報が有する表示開始時刻Tsと表示終了時刻Teを読み出す。この処理が終了後、ステップS125の処理に進む。
ステップS125において、字幕画像生成部63Aは、開始位置(原点)から順に付けた通し番号iの字幕の表示位置Pi(=iVS−VT+Hp)を計算する。この処理が終了後、ステップS126の処理に進む。
ステップS126において、字幕画像生成部63Aは、表示位置Piの字幕が出力画像291に表示されるか否かを判定する。表示位置Piが出力画像291にかかる場合には、ステップS127に進む。一方、表示位置Piが出力画像291にかからない場合には、ステップS136に進む。
ステップS136において、字幕画像生成部63Aは、対象とする字幕の通し番号i←i+1とする。例えば、通し番号i=0であった場合にはi←0+1=1とする。この処理が終了後、ステップS122の処理に移行し、少なくとも上記ステップS122,S123の処理を繰り返す。
一方、ステップS127において、字幕画像生成部63Aは、現在時刻Tより対象字幕の表示開始時刻Tsが大きいか否か、すなわち再生時刻であるか否かを判定する。表示開始時刻Tsの方が大きい場合はステップS128に進む。一方、表示開始時刻Tsの方が小さい場合はステップS129に進む。
ステップS128において、字幕画像生成部63Aは、字幕の文字フォントとして未来フォントを選択する。この処理が終了後、ステップS132の処理に進む。
ステップS129において、字幕画像生成部63Aは、現在時刻Tが対象字幕の表示終了時刻Teより大きいか否か、すなわち再生時刻を過ぎているか否かを判定する。現在時刻Tの方が大きい場合はステップS130に進む。一方、現在時刻Tの方が小さい場合はステップS131に進む。
ステップS130において、字幕画像生成部63Aは、字幕の文字フォントとして過去フォントを選択する。この処理が終了後、ステップS132の処理に進む。
ステップS131において、字幕画像生成部63Aは、上述した過去フォントと未来フォントとを、読み出した字幕情報を構成する各字幕に適応させる処理を行う。具体的には、文字数×(現在時刻T−表示開始時刻Ts)/(表示終了時刻Te−表示開始時刻Ts)の式で算出される位置よりも、前(左方向もしくは上方向)に配置されている文字には過去フォントを適用する。また、文字数×(現在時刻T−表示開始時刻Ts)/(表示終了時刻Te−表示開始時刻Ts)の式で算出される位置よりも、後(右方向もしくは下方向)に配置されている文字には未来フォントを適用する処理を行う。この処理が終了後、ステップS132の処理に進む。
ステップS132において、字幕画像生成部63Aは、設定したフォントを用いて対象字幕の画像を作成する。この処理が終了後、ステップS133の処理に進む。
ステップS133において、字幕画像生成部63Aは、作成した字幕画像を出力用画像メモリ63b上の仮想メモリの座標(Wt,Pi)に貼り付ける。この処理が終了後、ステップS134の処理に進む。
ステップS134において、字幕画像生成部63Aは、字幕画像上の字幕の途中に現在地点があるか否かを判定する。現在地点がある場合にはステップS135の処理に進む。一方、現在地点がない場合にはステップS136の処理に進む。
ステップS135において、字幕画像生成部63Aは、現在地点の座標を現在画像生成部260に送信する。この処理が終了後、ステップS136の処理に進む。
最後にステップS137において、字幕画像生成部63Aは、ステップS123の判定処理においてこれ以上取得する字幕情報がないと判定された場合、出力用画像メモリ63bに蓄積した字幕画像を画像合成部270へ出力する。この処理が終了後、字幕画像生成処理を終了する。
以上のとおり、本実施の形態の字幕画像生成処理において、字幕情報をデータメモリ61から1つずつ取り出し、字幕表示開始時刻Tsから字幕の表示位置Piを計算する。字幕が出力画像291にかかる場合は、字幕を描画する。このとき現在時刻よりも前の字幕は「過去フォント」で、後の字幕は「未来フォント」で描画するようにする。字幕途中に現在地点がある場合には、その位置に対応する出力画像上の座標を「現在画像生成部」へ送信する。これはユーザが字幕を目で追っている部分に、縮小した現在画像を提示するためである。
なお、発言者IDなどの発言者を識別できる字幕情報に含まれている場合、発言者によって字幕の色を変えるなどしてもよい。これについては後述する。
次に、図37,図38を参照して、音声波形画像生成部250の詳細について説明する。
図37は、音声波形画像の座標を説明するための図である。
ここでも上記サムネイル画像(図32参照)及び字幕画像(図37)の場合と同様に、便宜上、仮想メモリ300という画像メモリを想定する。図37に示した例におけるそれぞれの記号(座標)の意味は、上記サムネイル画像及び字幕画像の場合と同一の記号については同様の意味である。なお、Wsは、音声波形の出力画像301における現在の横位置を表す。図37に示す例ではこのWsの位置が棒状の記号で表現されているが、実際の画面には表示しなくてもよい。
本実施の形態において、音声波形を描画するラインの色は少なくとも2種類用意し、現在地点Wsよりも以前(上方)にある音声波形(過去)Wpの場合には「過去色」で、一方、それ以降(下方)にある音声波形(未来)Wfの場合には「未来色」を使って描画する。例えば過去色としては青色、未来色としては黄色等を適用する。線種や太さなどを変えてもよい。このようにすることによって、どの音声波形が過去、現在、未来のそれぞれに対応しているのかを一目で分かりやすくする。
図38は、音声波形画像生成部250による処理例を示すフローチャートである。
ステップS141において、音声波形画像生成部250は、まず対象とするサンプルの通し番号iを0とし、出力用画像用メモリ250aを初期化する。このとき、音声波形画像生成部250は、当該情報提示装置100Aにおける音声処理のサンプリングレートを取得するとともに、現在位置を示す棒状の記号の位置(カーソル位置)を(Ws,0)に設定する。この処理が終了後、ステップS142の処理に進む。
ステップS142において、音声波形画像生成部250は、第iサンプル目の音声データがデータメモリ61にあるか否かを判定する。音声データがある場合にはステップS143に進む。一方、音声データがない場合にはステップS150に進む。
第iサンプル目の音声が仮想メモリ300上で対応する位置は、iV/Fsの計算値より得られる。
そこで、ステップS143において、音声波形画像生成部250は、iV/Fs>=VT−HpかつiV/Fs<=VT−Hp+Hの条件を満たすか否かを判定する。この条件を満たす場合には音声波形が出力画像301の範囲内に含まれる。iV/Fsがこの条件を満たす場合にはステップS144に進む。一方、iV/Fsがこの条件を満たさない場合にはステップS149に進む。
ステップS144において、音声波形画像生成部250は、データメモリ61から音声波形の第iサンプル目の振幅Aiを取得する。この処理が終了後、ステップS145の処理に進む。
ステップS145において、音声波形画像生成部250は、i/Fの計算値が現在時刻Tより小さいか否かを判定する。i/Fsが現在時刻Tより小さい場合にはステップS146に進む。一方、i/Fsが現在時刻Tより大きい場合にはステップS147に進む。
ステップS146において、音声波形画像生成部250は、音声波形のラインの色を過去色に設定する。この処理が終了後、ステップS148の処理に進む。
ステップS147において、音声波形画像生成部250は、音声波形のラインの色を未来色に設定する。この処理が終了後、ステップS148の処理に進む。
ステップS148において、音声波形画像生成部250は、座標(Ws+αAi,iV/Fs−VT+Hp)まで音声波形のラインを引く。この処理が終了後、ステップS149の処理に進む。
ステップS149において、音声のサンプルの通し番号iをi+1に設定する。この処理が終了後、ステップS142の処理に移行し、上述した処理を繰り返す。
最後にステップS150において、音声波形画像生成部250は、ステップS142の判定処理においてこれ以上取得する音声のサンプルがないと判定された場合、出力用画像メモリ250aに蓄積した音声波形画像を画像合成部270へ出力する。この処理が終了後、音声波形画像生成処理を終了する。
以上のとおり、本実施の形態の音声波形画像生成処理において、音声データを1サンプルずつデータメモリ61から取り出して処理する。音声のサンプリングレートをFs(例えば48kHz)とすると、第iサンプル目の音声が仮想メモリ300上で対応する位置はiV/Fsとなるので、これが出力画像301にかかるか否かを判定する。出力画像301にかかる場合、振幅データAiに適当な係数αを乗じて画像上での振幅を計算し、音声波形をラインで描画していく。またこのときラインの色は、前述の方法で設定する。最後に、生成した音声波形画像を画像合成部270へ出力する。
次に、図39に示すフローチャートを参照して、現在画像生成部260の詳細について説明する。
ステップS161において、現在画像生成部260は、まず出力用画像メモリ260aを透明色を適用して初期化する。この処理が終了後、ステップS162の処理に進む。
ステップS162において、現在画像生成部260は、まずデータメモリ61に蓄積された映像データから現在時刻Tにおける画像を取得する。この処理が終了後、ステップS163の処理に進む。
ステップS163において、現在画像生成部260は、取得した現在画像を、予め設定した大きさに縮小し、出力用画像メモリ260aに保存する。この処理が終了後、ステップS164の処理に進む。
ステップS164において、現在画像生成部260は、字幕画像生成部63Aから字幕の現在位置の座標が送信されてきたか否かを判定する。現在位置の座標が送信されてきた場合はステップS165の処理に進む。一方、現在位置の座標が送信されてこない場合はステップS166の処理に進む。
ステップS165において、現在画像生成部260は、送られてきた現在座標に縮小画像を配置する。この処理が終了後、ステップS167の処理に進む。
ステップS166において、現在画像生成部260は、座標(Wt,Hp)の位置に縮小画像を配置する。この操作により、視聴者が目で字幕を追っている位置に、現在画像の縮小画像を提示することができる。この処理が終了後、ステップS167の処理に進む。
最後にステップS167において、現在画像生成部260は、出力画像の所定の座標に配置された縮小画像を画像合成部270へ出力する。この処理が終了後、現在画像生成処理を終了する。
次に、図40に示すフローチャートを参照して、画像合成部270の詳細について説明する。
ステップS171において、画像合成部270は、出力用画像メモリ270aを初期化する。この処理が終了後、ステップS172の処理に進む。
ステップS172において、画像合成部270は、サムネイル生成部62Aから受信したサムネイル画像を出力用画像メモリ270aの所定位置に配置する。この処理が終了後、ステップS173の処理に進む。
ステップS173において、画像合成部270は、音声波形画像生成部250から受信した音声波形画像を出力用画像メモリ270aに配置する。この処理が終了後、ステップS174の処理に進む。
ステップS174において、画像合成部270は、現在画像生成部260から受信した縮小画像を現在画像として出力用画像メモリ270aに配置する。この処理が終了後、ステップS175の処理に進む。
ステップS175において、画像合成部270は、字幕画像生成部63Aから受信した字幕画像を出力用画像メモリ270aに配置する。この処理が終了後、ステップS176の処理に進む。
そしてステップS176において、画像合成部270は、出力用画像メモリ270aに配置したサムネイル画像、音声波形画像、現在画像及び字幕画像を合成した合成画像を表示装置へ出力する。
その後ステップS177において、画像合成部270は、映像の提示を終了するか否かを判定する。すなわち表示すべき画像の入力が終了したか否か又は制御部80から映像提示の終了指示があったか否かの判定が行われる。映像提示を終了する場合には画像合成処理は終了となる。映像提示が継続している場合には、ステップS171に戻ってさらに処理が続けられる。
以上のとおり、画像合成部270は、受信したサムネイル画像、音声波形画像、現在画像、字幕画像を次々に重畳していく。それぞれの画像の背景部分には、透明色が設定されているので、背後の画像を上書きすることなく重畳することができる。最後に、出力用画像メモリ270a上で合成した画像を表示装置へ出力する。以上の動作を映像が終了するまで繰り返す。
図41は、上述した第2の実施の形態に係る番組映像の表示例を示す図である。
図41の上段に示す表示画面230は、図28に示した表示画面230と同一である。図41の下段に示す表示画面230Aは、上段の表示画面230の状態から僅かに時間が経過した後の表示例である。表示画面230Aでは、字幕(過去)Cpと字幕(未来)Cfの接合部に配置される現在画像233が、再生時刻の進行とともに移動する様子が表されている。なおこの例では、サムネイル画像(静止画)は一例として7.5秒おきに作成され、画像が下から上にスクロールするようになっている。
[第2の実施の形態の第1変形例]
次に、本発明の第2の実施の形態の第1変形例について、図42を参照して説明する。
この第2の実施の形態の第1変形例では、複数の番組を複数の表示装置で同時に視聴する場合について説明する。
図42は、第2の実施の形態の第1変形例に係る2画面による表示例を示す図である。
左右に配置した2つの表示装置を用いて2番組を同時に提示している。これは情報処理部240−1,240−2にそれぞれ別の番組を入力し、各情報処理部240−1,240−2から出力される各々の画像をそれぞれ表示装置110−1,110−2へ出力することにより実現される。
左側の表示画面230は図28に示した表示画面230と同一の表示内容である(符号は一部変更してあるが同一内容)。一方、右側の表示画面310は、番組(コンテンツ)の音声内容が字幕(過去)Cp2及び字幕(未来)Cf2として表示されている。また、画面左側に映像のサムネイル画像群311が過去から未来にわたって提示されている。また、字幕については過去の字幕と未来の字幕で表示色を替えている。さらに、音声信号の波形が表示され、この音声波形においても、音声波形(過去)Ap2、音声波形(未来)Af2、現在音声位置314と、過去から未来にわたって提示されている。そして、字幕の現在音声位置314に対応する部分には、現在の再生時刻に対応する現在画像313が重畳して表示されている。
なお、2画面による表示の場合、左側の表示画面230と右側の表示画面310との間で画面配置を左右対称にし、双方のサムネイル画像群231,311が中央寄りとなるように画面を構成するとよい。そのようにすることにより、双方のサムネイル画像群が互いに近傍に表示され、かつ、双方のサムネイル画像群を対比したような状態で表示がなされるので、サムネイル画像群の一覧性を良くすることができる。
[第2の実施の形態の第2変形例]
次に、本発明の第2の実施の形態の第2変形例について、図43を参照して説明する。
この第2の実施の形態の第2変形例は、複数の番組を当該番組数より多い表示装置で同時に視聴する場合の例である。
図43は、第2の実施の形態の第2変形例に係る6画面による表示例を示す図である。
6つの表示装置を用いて2番組を同時に提示するようにしている。これは、基本的な提示は図42と同様だが、さらにその上下にも表示装置を配置して、過去・未来の情報をより多く提示することを実現している。この例では、左側に3つの表示画面410,420,430を、右側に3つの表示画面440,450,460をそれぞれ縦方向に配設し、各々3つの表示画面の表示面全体を利用してそれぞれの番組の過去、現在、未来の情報を表している。
左側の表示画面410,420,430においては、中段の表示画面420に現在位置424と現在画像423があり、表示画面420に現在位置を含む現在に近いサムネイル画像群421を、表示画面410に過去のサムネイル画像群411を、そして表示画面430に過去のサムネイル画像群431を表示している。さらに、表示画面410,420にまたがって字幕(過去)Cp1−1〜Cp1−2を、また表示画面420,430にまたがって字幕(未来)Cf1−1〜Cf1−2を表示している。同様に、表示画面410,420にまたがって音声波形(過去)Ap1−1〜Ap1−2を、また表示画面420,430にまたがって音声波形(未来)Af1−1〜Af1−2を表示している。
右側の表示画面440,450,460も同様である。すなわち、中段の表示画面450に現在位置454と現在画像453があり、表示画面450に現在位置を含む現在に近いサムネイル画像群451を、表示画面440に過去のサムネイル画像群441を、そして表示画面460に過去のサムネイル画像群461を表示している。さらに、表示画面440,460にまたがって字幕(過去)Cp2−1〜Cp2−2を、また表示画面450,460にまたがって字幕(未来)Cf2−1〜Cf2−2を表示している。同様に、表示画面440,450にまたがって音声波形(過去)Ap2−1〜Ap2−2を、また表示画面440,450にまたがって音声波形(未来)Af2−1〜Af2−2を表示している。
以上のように、画面位置に応じて各画像パーツ(サムネイル画像、字幕画像、音声波形画像、現在画像)の配置を適宜設定し、視聴者が情報取得を行いやすくすることができる。
複数の表示装置を利用する主な利点としては、
・ 画面の自由な配置
・ 解像度の確保
が挙げられるが、以上の条件を満たせるのであれば、複数の画面を1つの表示装置に表示しても構わない。
[第2の実施の形態の第3変形例]
次に、本発明の第2の実施の形態の第3変形例について、図44を参照して説明する。
この第2の実施の形態の第3変形例は、2画面を用いたドラマ番組の表示例であり、発言者ごとに字幕を色分けして情報の取得効率を向上させたものである。
図44において、左側の表示画面470において、画面右側にサムネイル画像群471、画面左側に音声波形Ap1,Af1が表示されている。また、現在位置474を分岐点として上に字幕(過去)Cp1−1〜Cp1−3が、下に字幕(未来)Cf1−1〜Cf1−2が表示されている。字幕の現在位置には、現在画像473が配置されている。
右側に表示画面480には別のドラマ番組が表示されており、画面左側にサムネイル画像群481、画面右側に音声波形Ap2,Af2が表示されている。また、現在位置484を分岐点として上に字幕(過去)Cp2−1〜Cp2−4が、下に字幕(未来)Cf2−1〜Cf2−3が表示されている。字幕の現在位置には、現在画像483が配置されている。
本実施の形態においては、発言者ごとに字幕の表示色を変えるようにしたので、発言者の発言内容が他の発言者と混同することがない。よって、ドラマに登場する発言者を整理しやすい。したがって、効率の良い情報の取得が実現できる。
[第2の実施の形態の第4変形例]
次に、本発明の第2の実施の形態の第4変形例について、図45〜ズ48を参照して説明する。
この第2の実施の形態の第4変形例は、番組展開の予測に利用できる情報の表示形態として、字幕に関する情報を補助的に通知(表示)するようにしたものである。
図45は、発話タイミング通知の説明に供する図である。
出力画像501〜503のそれぞれについて字幕の発言者を特定できる情報が表示される。この発話タイミング通知は、字幕画像生成部63Aにおいて生成する字幕の一部に、発言開始マークを表示させるようにして実現する。また字幕情報に発言者IDが含まれている場合、誰の発言かも表示するとより効率のよい情報取得が可能である。
図46は、発話タイミング通知の表示例を示す図である。
図46に示す表示画面230Bは、基本の表示内容は図28に示した表示画面230と同様であるが、発話タイミングが通知されている点で異なる。この例では、上段の字幕「お昼のニュースを・・・」に対してA氏が発言したという発話タイミング通知511、中段の字幕「今日午前、千葉県千葉市の・・・」に対してA氏が発言したという発話タイミング通知512が表示されている。さらに、下段の字幕「今日午前、千葉県千葉市の・・・」に対してB氏が発言したという発言タイミング通知513が表示されている。
図47は、人物登場通知の説明に供する図である。
出力画像501〜503のそれぞれについて、新たに人物が登場する字幕箇所にマークを表示させる。字幕画像生成部63Aにおいて生成する字幕の一部に、人物登場開始マークを表示させるようにして実現する。新たな人物が登場したかどうかの情報は、放送からメタ情報として提供されたものを用いる。人物認識をできるモジュールを情報提示装置100Aに組み込む場合は、人物認識の結果を用いて表示に反映させる。
図48は、トピックの内容通知の説明に供する図である。
出力画像501〜503のそれぞれについて、ニュース番組などにおいて、新しいトピックの開始位置のマークを表示させる。または番組の切り変わりなどの意味的な区切りを表示させる。字幕画像生成部63Aにおいて生成する字幕の一部に、トピック開始位置マークを表示させるようにして実現する。各トピックの始まりは放送からメタ情報として提供されたものを用いる。またEPG(電子番組ガイド)などで番組の開始が分かる場合は、その情報を利用してもよい。
上述した実施の形態によれば、再生対象の現在の情報(サムネイル画像、字幕画像、音声波形画像)に加え、過去の情報と未来の情報を予め画面に提示することができる。それにより、字幕を追っていても自然に現在映像の全体が目に入り、文字情報と映像情報を同時に理解することができる。
また、過去と未来の情報が豊富に表示されているので、複数番組(コンテンツ)を余裕を持って同時に視聴することができる。すなわち、視聴者は、未来の情報を確認しながら見られるので、番組展開を予測できる。また、過去の情報も確認しながら見られるため、番組の過去の展開をフォローすることができる。したがって、番組の先の展開を予測しつつかつ過去の展開を確認しつつ視聴できるため、番組展開を余裕を持って視聴できる。
[音声の提示]
ここで、番組映像(コンテンツ)に付随する音声の提示方法について説明する。音声の提示方法には、以下のようなものが考えられる。
<すべての音声を提示>
すべての音声、例えばサムネイル画像に対応する音声と字幕に対応する音声(言葉)を同時に提示した場合、字幕についての音声は聞き取りにくくなる。しかし、字幕の提示と音声が同期しているので、視聴者が注意を向ければ、声質や調子などは聞き取ることができる。また背景音、効果音やBGMなどは、比較的に音が混ざらずに聴けるので、番組の雰囲気を聞き取ることが可能である。
<1つの音声を提示>
複数の番組映像が提示されている場合、視聴者が選んだ番組の音声を提示する。または視聴者の視線を周知の視線検出センサで取得し、視線のある番組の音声を提示したりする。このようにした場合、視聴者の興味ある側の音声が聴けるので、視聴者の満足度が高い提示形態とすることができる。
<無音>
複数の番組の内容を理解するには、視聴者は集中を維持する必要がある。音声が提示されると集中を乱されることも多いので、音声は提示せずに映像だけを提示することの方がよい場合もある。
<その他>
上述したような複数の音声提示形態を用意しておき、制御部80が視聴者の指示を検出したり視聴環境を検出したりすることによって音声提示方法を決定する。また、上述した実施の形態の例では、音声信号を各表示装置に設置されたスピーカに供給するようにしたが、図示しない音声出力端子と接続されたイヤホンに供給するようにしてもよい。
このように、上述した第1の実施の形態では、再生対象の現在、注目されている情報に加え、未来の情報を予め画面に提示することができる。上述した第2の実施の形態では、再生対象の現在、注目されている情報に加え、過去の情報と未来の情報を画面に提示することができる。更に、再生対象の現在、注目されている情報に加え、過去の情報のみを提示しても構わない。
なお、上述した情報処理装置で行われる一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。また、これらの処理を実行する機能はハードウェアとソフトウェアの組み合わせによっても実現できることは言うまでもない。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム記録媒体からインストールされる。
図49は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示すブロック図である。このコンピュータ600は、例えば一連の処理を実行するために高性能化した専用コンピュータの他、一定の性能を備えるパーソナルコンピュータなどでもよい。
コンピュータ600のCPU(Central Processing Unit)601は、ROM(Read Only Memory)602、または記録部608に記録されているプログラムに従って、上記一連の処理の他、各種の処理を実行する。RAM(Random Access Memory)603には、CPU601が実行するプログラムやデータなどが適宜記憶される。これらのCPU601、ROM602、およびRAM603は、バス614により相互に接続されている。
CPU601にはまた、バス604を介して入出力インタフェース605が接続されている。入出力インタフェース605には、キーボード、マウス、マイクロホンなどよりなる入力部606、ディスプレイ、スピーカなどよりなる出力部607が接続されている。CPU601は、入力部606から入力される指令に対応して各種の処理を実行する。そして、CPU601は、処理の結果を出力部607に出力する。
入出力インタフェース605に接続されている記録部608は、例えばハードディスクからなり、CPU601が実行するプログラムや各種のデータを記録する。
通信部609は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。また通信部609を介してプログラムを取得し、記録部608に記録してもよい。
入出力インタフェース605に接続されているドライブ610は、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどのリムーバブルメディア620が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部608に転送され、記録される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図49に示すように、リムーバブルメディア620によりパッケージメディアとして提供される。リムーバブルメディア620としては、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD−ROM(Compact Disc - Read Only Memory),DVD(Digital Versatile Disc),光磁気ディスクを含む)、もしくは半導体メモリなどを適用することができる。あるいは、プログラム記録媒体は、プログラムが一時的もしくは永続的に格納(記録)されるROM602や、記録部608を構成するハードディスクなどにより構成される。
このプログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部609を介して、ローカルエリアネットワーク(LAN:Local Area Network)、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述する処理ステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)をも含むものである。
また、プログラムは、一つのコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
10…表示画面、20…映像・字幕入力部、30…符号化・復号処理部、40…蓄積部、50…情報処理部、60,60A…表示映像生成部、61…データメモリ、62,62A…サムネイル生成部、62a…出力用画像メモリ、63,63A…字幕画像生成部、63a…字幕情報テーブル、63b…出力用画像メモリ、64…仮想空間生成部、65−1〜3…レンダリング部、66…画像合成部、70…音声処理部、80…制御部、110−1〜100−3…表示装置、111−1〜111−3…スピーカ、150…テロップ検出部、150a…テロップ用テーブル、150b…出力用画像メモリ、160…顔検出部、160a…顔用テーブル、160b…出力用画像メモリ、170…PinP検出部、170a…出力用画像メモリ、234…現在音声位置、231−1〜5…サムネイル画像、233…現在映像、241−1〜241−n…表示映像生成部、250…音声波形生成部、250a…出力用画像生成部、260…現在画像生成部、260a…出力用画像メモリ、270…画像合成部、270a…出力用画像メモリ、Ap…音声波形(過去)、Af…音声波形(未来)、C0〜C5…字幕画像、Co0〜Co5…字幕表示用オブジェクト、Cp…字幕(過去)、Cf…字幕(未来)、DC…カメラ視点進行方向、Im0〜Imn…サムネイル画像、RC…レンダリング用カメラ

Claims (15)

  1. 入力部より入力された映像データから、当該映像データの一部を抽出し、複数の主画像を生成する第1の画像生成部と、
    前記映像データに対応づけられた情報から複数の副画像を生成する第2の画像生成部と、
    前記複数の主画像を時系列に配置するとともに、前記複数の副画像の各々を前記主画像に対応させて時系列に配置した表示画像を生成して出力する画像出力部と、を含む
    情報提示装置。
  2. 前記画像出力部は、
    前記複数の主画像を車窓から見た場合の路面に見立てた第1の仮想オブジェクトを生成し、前記複数の副画像を前記車窓から見た場合の道路標識に見立てた第2の仮想オブジェクトを生成し、前記第1及び第2の仮想オブジェクトを含む仮想空間から前記表示画像を生成する
    請求項1に記載の情報提示装置。
  3. 前記画像出力部は、
    前記複数の主画像を時系列に配列した主画像オブジェクトを生成するとともに、各々の副画像から副画像オブジェクトを生成し、前記主画像オブジェクトの上方かつ前記主画像の配列方向と平行に前記複数の副画像オブジェクトを時系列に配置して前記仮想空間を生成する仮想空間生成部と、
    前記主画像オブジェクトと前記複数の副画像オブジェクトの間に視点を設定し、前記視点を前記主画像の配列方向と平行、かつ、現在から未来の方向に移動させて前記仮想空間から前記表示画像を生成するレンダリング部と、を備える
    請求項2に記載の情報提示装置。
  4. 前記第2の画像生成部は、
    前記入力部に入力された映像データに含まれる字幕情報を基に、前記副画像として字幕画像を生成する字幕画像生成部、を備える
    請求項3に記載の情報提示装置。
  5. 前記第2の画像生成部は、
    前記入力部に入力された映像データによる画像から前記副画像としてテロップ画像を検出するテロップ検出部、を備える
    請求項3に記載の情報提示装置。
  6. 前記第2の画像生成部は、
    前記入力部に入力された映像データによる画像から前記副画像として顔画像を検出するする顔検出部、を備える
    請求項3に記載の情報提示装置。
  7. 前記第2の画像生成部は、
    前記入力部に入力された映像データから、前記副画像として前記映像データによる画像に重畳して合成されている子画面領域内で表示されている画像を検出する子画面画像検出部、を備える
    請求項3に記載の情報提示装置。
  8. 前記レンダリング部を複数備え、
    各レンダリング部から供給される、前記主画像オブジェクトと前記複数の副画像オブジェクトを含む画像を複数合成し、一つの表示画像を生成する画像合成部、をさらに備える
    請求項3に記載の情報提示装置。
  9. 前記第2の画像生成部は、
    前記入力部に入力された映像データに含まれる字幕情報を基に、第1副画像として字幕画像を生成するとともに、前記主画像中の発話内容と対応する前記字幕画像中の位置を現在位置として算出し、前記現在位置を基点に前記字幕画像を異なる形態で出力する字幕画像生成部と、
    前記入力部に前記映像データとともに入力される音声データの音声波形画像を第2副画像として生成するとともに、前記主画像中の発話内容と対応する前記音声波形画像中の位置を現在位置として算出し、前記現在位置を基点に前記音声波形画像を異なる形態で出力する音声波形画像生成部、を備え、
    前記画像出力部は、前記複数の主画像、前記字幕画像及び前記音声波形画像がそれぞれ、前記現在位置を基点に過去・現在・未来の時系列に配置されるように合成して前記表示画像を生成する
    請求項1に記載の情報提示装置。
  10. 前記字幕画像生成部は、前記現在位置を基点として過去に相当する字幕と未来に相当する字幕の表示色を替え、
    前記音声波形画像生成部は、前記現在位置を基点として過去に相当する音声波形と未来に相当する音声波形の表示色を替える
    請求項9に記載の情報提示装置。
  11. 前記第2の画像生成部は、
    前記第1の画像生成部が生成する主画像の表示サイズよりも小さな表示サイズの小画像を生成する現在画像生成部、を備え、
    前記画像出力部は、前記現在画像生成部で生成された小画像を、前記字幕画像生成部より出力された前記字幕画像中の現在位置に配置する
    請求項10に記載の情報提示装置。
  12. 前記画像出力部は、
    前記複数の主画像のうち、注目されている主画像と、時間方向において先に位置する画像とが並べられる表示画像を生成する
    請求項1に記載の情報提示装置。
  13. 前記画像出力部は、
    前記複数の主画像のうち、注目されている主画像と、時間方向において後ろに位置する画像とが並べられる表示画像を生成する
    請求項12に記載の情報提示装置。
  14. 前記画像出力部は、
    前記複数の主画像のうち、注目されている主画像と、時間方向において後ろに位置する画像とが並べられる表示画像を生成する
    請求項1に記載の情報提示装置。
  15. 映像データから、当該映像データの一部を抽出し、複数の主画像を生成し、
    前記映像データに対応づけられた情報から複数の副画像を生成し、
    前記複数の主画像を時系列に配置すると共に、前記複数の副画像の各々を前記主画像に対応させて時系列に配置した表示画像を生成する
    情報提示方法。
JP2009132489A 2008-06-09 2009-06-01 情報提示装置および情報提示方法 Expired - Fee Related JP4618384B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009132489A JP4618384B2 (ja) 2008-06-09 2009-06-01 情報提示装置および情報提示方法
US12/479,198 US8436941B2 (en) 2008-06-09 2009-06-05 Information presenting device and information presenting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008150962 2008-06-09
JP2009132489A JP4618384B2 (ja) 2008-06-09 2009-06-01 情報提示装置および情報提示方法

Publications (2)

Publication Number Publication Date
JP2010021991A true JP2010021991A (ja) 2010-01-28
JP4618384B2 JP4618384B2 (ja) 2011-01-26

Family

ID=41414397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009132489A Expired - Fee Related JP4618384B2 (ja) 2008-06-09 2009-06-01 情報提示装置および情報提示方法

Country Status (2)

Country Link
US (1) US8436941B2 (ja)
JP (1) JP4618384B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012142881A (ja) * 2011-01-06 2012-07-26 Kddi Corp 字幕編集装置、字幕編集方法、及びコンピュータプログラム
JP2012209776A (ja) * 2011-03-30 2012-10-25 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012147354A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 映像処理装置及び映像処理方法
WO2013054371A1 (ja) * 2011-10-11 2013-04-18 パナソニック株式会社 立体字幕処理装置および立体字幕処理方法
US9407897B2 (en) 2011-09-30 2016-08-02 Panasonic Intellectual Property Management Co., Ltd. Video processing apparatus and video processing method
WO2016136468A1 (ja) * 2015-02-23 2016-09-01 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、情報処理装置および情報処理方法
WO2018078904A1 (ja) * 2016-10-31 2018-05-03 シャープ株式会社 光出力システム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011139262A (ja) * 2009-12-28 2011-07-14 Sony Corp 画像処理装置、画像処理方法、およびプログラム
KR101759943B1 (ko) * 2010-01-11 2017-07-20 엘지전자 주식회사 방송 수신기 및 3d 이미지 디스플레이 방법
KR20120004203A (ko) * 2010-07-06 2012-01-12 삼성전자주식회사 디스플레이 방법 및 장치
US20120236201A1 (en) * 2011-01-27 2012-09-20 In The Telling, Inc. Digital asset management, authoring, and presentation techniques
EP2527992A1 (en) * 2011-05-23 2012-11-28 Sony Ericsson Mobile Communications AB Generating content data for a video file
WO2013061526A1 (ja) * 2011-10-26 2013-05-02 パナソニック株式会社 放送受信装置、放送受信方法およびプログラム
US8695048B1 (en) * 2012-10-15 2014-04-08 Wowza Media Systems, LLC Systems and methods of processing closed captioning for video on demand content
US9077891B1 (en) * 2013-03-06 2015-07-07 Amazon Technologies, Inc. Depth determination using camera focus
US8782722B1 (en) * 2013-04-05 2014-07-15 Wowza Media Systems, LLC Decoding of closed captions at a media server
US9716919B2 (en) * 2013-09-30 2017-07-25 Hulu, LLC Queue to display additional information for entities in captions
US9773349B2 (en) * 2014-02-19 2017-09-26 Daqri, Llc Active parallax correction
TWI543612B (zh) * 2014-09-18 2016-07-21 晨星半導體股份有限公司 影片字幕處理裝置與方法,以及解析影片字幕之方法
TWI533240B (zh) * 2014-12-31 2016-05-11 拓邁科技股份有限公司 資料顯示方法及系統,及相關電腦程式產品
US9900665B2 (en) 2015-06-16 2018-02-20 Telefonaktiebolaget Lm Ericsson (Publ) Caption rendering automation test framework
US9652683B2 (en) 2015-06-16 2017-05-16 Telefonaktiebolaget Lm Ericsson (Publ) Automatic extraction of closed caption data from frames of an audio video (AV) stream using image filtering
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
WO2018080447A1 (en) 2016-10-25 2018-05-03 Rovi Guides, Inc. Systems and methods for resuming a media asset
CN110168528A (zh) * 2016-10-25 2019-08-23 乐威指南公司 用于恢复媒体资产的系统和方法
KR101924634B1 (ko) * 2017-06-07 2018-12-04 네이버 주식회사 콘텐츠 제공 서버, 콘텐츠 제공 단말 및 콘텐츠 제공 방법
CN110971951B (zh) * 2018-09-29 2021-09-21 阿里巴巴(中国)有限公司 弹幕展示方法及装置
US11526544B2 (en) * 2020-05-07 2022-12-13 International Business Machines Corporation System for object identification

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191248A (ja) * 1996-10-22 1998-07-21 Hitachi Denshi Ltd 映像編集方法およびその方法の手順を記録した記録媒体
JP2002052254A (ja) * 2000-08-10 2002-02-19 Sony Corp 対戦ゲーム装置、対戦ゲーム管理装置、対戦ゲーム実行方法および記憶媒体
JP2002074322A (ja) * 2000-08-31 2002-03-15 Sony Corp 情報処理装置及び情報処理方法並びにデータ記録媒体
JP2004080156A (ja) * 2002-08-12 2004-03-11 Sony Corp 画像処理装置、画像処理方法、プログラム及び記録媒体並びに画像処理システム
JP2005058383A (ja) * 2003-08-08 2005-03-10 Sega Corp ゲーム情報処理装置及びそのコンピュータプログラム
JP2005215375A (ja) * 2004-01-30 2005-08-11 Pioneer Plasma Display Corp 表示装置及び表示方法
JP2005275885A (ja) * 2004-03-25 2005-10-06 Nec Personal Products Co Ltd 情報処理装置、プログラム
JP2006135942A (ja) * 2004-10-06 2006-05-25 Matsushita Electric Ind Co Ltd 字幕隠蔽放送に係る送信装置、再生装置、それらの方法
JP2006180231A (ja) * 2004-12-22 2006-07-06 Sony Corp 画像編集装置及びビデオ編集装置
JP2006339817A (ja) * 2005-05-31 2006-12-14 Toshiba Corp 情報処理装置およびその表示方法
JP2007027990A (ja) * 2005-07-13 2007-02-01 Canon Inc 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体
JP2008118232A (ja) * 2006-11-01 2008-05-22 Hitachi Ltd 映像再生装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3150246B2 (ja) * 1993-12-09 2001-03-26 キヤノン株式会社 データ管理方法及び装置
US7596755B2 (en) * 1997-12-22 2009-09-29 Ricoh Company, Ltd. Multimedia visualization and integration environment
JP2007013725A (ja) 2005-06-30 2007-01-18 Toshiba Corp 映像表示装置及び映像表示方法
JP4543261B2 (ja) * 2005-09-28 2010-09-15 国立大学法人電気通信大学 再生装置
KR101152064B1 (ko) * 2005-11-02 2012-06-11 엘지디스플레이 주식회사 화상 구현 장치 및 그 구동방법
CN101375310A (zh) * 2006-01-24 2009-02-25 日本电气株式会社 图像再生系统、图像再生方法及图像再生程序
JP5055018B2 (ja) * 2006-06-14 2012-10-24 キヤノン株式会社 画像処理装置、撮像装置、及び画像処理装置の制御方法
US7747968B2 (en) * 2006-09-11 2010-06-29 Apple Inc. Content abstraction presentation along a multidimensional path
US20090289955A1 (en) * 2008-05-22 2009-11-26 Yahoo! Inc. Reality overlay device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191248A (ja) * 1996-10-22 1998-07-21 Hitachi Denshi Ltd 映像編集方法およびその方法の手順を記録した記録媒体
JP2002052254A (ja) * 2000-08-10 2002-02-19 Sony Corp 対戦ゲーム装置、対戦ゲーム管理装置、対戦ゲーム実行方法および記憶媒体
JP2002074322A (ja) * 2000-08-31 2002-03-15 Sony Corp 情報処理装置及び情報処理方法並びにデータ記録媒体
JP2004080156A (ja) * 2002-08-12 2004-03-11 Sony Corp 画像処理装置、画像処理方法、プログラム及び記録媒体並びに画像処理システム
JP2005058383A (ja) * 2003-08-08 2005-03-10 Sega Corp ゲーム情報処理装置及びそのコンピュータプログラム
JP2005215375A (ja) * 2004-01-30 2005-08-11 Pioneer Plasma Display Corp 表示装置及び表示方法
JP2005275885A (ja) * 2004-03-25 2005-10-06 Nec Personal Products Co Ltd 情報処理装置、プログラム
JP2006135942A (ja) * 2004-10-06 2006-05-25 Matsushita Electric Ind Co Ltd 字幕隠蔽放送に係る送信装置、再生装置、それらの方法
JP2006180231A (ja) * 2004-12-22 2006-07-06 Sony Corp 画像編集装置及びビデオ編集装置
JP2006339817A (ja) * 2005-05-31 2006-12-14 Toshiba Corp 情報処理装置およびその表示方法
JP2007027990A (ja) * 2005-07-13 2007-02-01 Canon Inc 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体
JP2008118232A (ja) * 2006-11-01 2008-05-22 Hitachi Ltd 映像再生装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012142881A (ja) * 2011-01-06 2012-07-26 Kddi Corp 字幕編集装置、字幕編集方法、及びコンピュータプログラム
JP2012209776A (ja) * 2011-03-30 2012-10-25 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012147354A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 映像処理装置及び映像処理方法
US9357200B2 (en) 2011-04-28 2016-05-31 Panasonic Intelectual Property Management Co., Ltd. Video processing device and video processing method
US9407897B2 (en) 2011-09-30 2016-08-02 Panasonic Intellectual Property Management Co., Ltd. Video processing apparatus and video processing method
WO2013054371A1 (ja) * 2011-10-11 2013-04-18 パナソニック株式会社 立体字幕処理装置および立体字幕処理方法
WO2016136468A1 (ja) * 2015-02-23 2016-09-01 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、情報処理装置および情報処理方法
JPWO2016136468A1 (ja) * 2015-02-23 2017-11-30 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、情報処理装置および情報処理方法
US10582270B2 (en) 2015-02-23 2020-03-03 Sony Corporation Sending device, sending method, receiving device, receiving method, information processing device, and information processing method
WO2018078904A1 (ja) * 2016-10-31 2018-05-03 シャープ株式会社 光出力システム
JP2018074410A (ja) * 2016-10-31 2018-05-10 シャープ株式会社 光出力システム
US10708535B2 (en) 2016-10-31 2020-07-07 Sharp Kabushiki Kaisha Light output system

Also Published As

Publication number Publication date
US8436941B2 (en) 2013-05-07
JP4618384B2 (ja) 2011-01-26
US20090310021A1 (en) 2009-12-17

Similar Documents

Publication Publication Date Title
JP4618384B2 (ja) 情報提示装置および情報提示方法
US20220286728A1 (en) Information processing apparatus and information processing method, display equipped with artificial intelligence function, and rendition system equipped with artificial intelligence function
JP5239469B2 (ja) 情報提示装置及び情報提示方法
JP4430036B2 (ja) 拡張型字幕ファイルを用いて付加情報を提供する装置及び方法
JPH11289555A (ja) 立体映像表示装置
KR101899588B1 (ko) 수어 애니메이션 데이터를 자동으로 생성하는 시스템과 이를 이용한 방송시스템 및 방송방법
KR20100002048A (ko) 영상 처리 방법, 영상 출력 방법 및 그 장치
CN102137270A (zh) 字幕的3d显示处理
TW201036437A (en) Systems and methods for providing closed captioning in three-dimensional imagery
EP2665290A1 (en) Simultaneous display of a reference video and the corresponding video capturing the viewer/sportsperson in front of said video display
KR20110062982A (ko) 실시간 방송 컨텐츠의 방송 요약 정보 생성 방법 및 장치와, 그 제공방법 및 방송 수신 장치
JP5166611B2 (ja) 番組情報表示装置、テレビジョン受像機、番組情報表示方法、番組情報表示プログラム、記憶媒体
JP4238371B2 (ja) 画像表示方法
KR101927965B1 (ko) 광고 동영상 제작 시스템 및 방법
WO2013046281A1 (ja) 映像処理装置及び映像処理方法
KR100669269B1 (ko) 텔레비젼 방송 송신/수신 시스템, 텔레비젼 방송 송신/수신 방법
WO2020234939A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004328788A (ja) 記録済みの背景映像に別途撮影された人物映像を合成して表示出力する方法およびその方法を採用したカラオケ装置
WO2021124680A1 (ja) 情報処理装置及び情報処理方法
US20230031160A1 (en) Information processing apparatus, information processing method, and computer program
KR20130122349A (ko) 영상표시장치 및 휴대 단말기의 동작 방법
KR101817757B1 (ko) 동영상 자막과 IoT 디바이스의 연동 방법 및 시스템
JP2013027049A (ja) 3dディスプレイ装置及びコンテンツ出力方法
JP2011061670A (ja) 要約コンテンツを表示する表示装置、方法及びプログラム
US20220360844A1 (en) Accessibility Enhanced Content Rendering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100928

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4618384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees