JP2005341398A - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2005341398A
JP2005341398A JP2004159708A JP2004159708A JP2005341398A JP 2005341398 A JP2005341398 A JP 2005341398A JP 2004159708 A JP2004159708 A JP 2004159708A JP 2004159708 A JP2004159708 A JP 2004159708A JP 2005341398 A JP2005341398 A JP 2005341398A
Authority
JP
Japan
Prior art keywords
display
video
display device
frame
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004159708A
Other languages
English (en)
Inventor
Shoji Shiomoto
祥司 塩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004159708A priority Critical patent/JP2005341398A/ja
Publication of JP2005341398A publication Critical patent/JP2005341398A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 ユーザが着目するオブジェクトを適切な大きさで表示させることができるようにする。
【解決手段】 映像主処理部21は、映像データ記憶部11に記憶されている動画像を全画面表示装置13に全画面表示させる。即ち、全画面表示装置13には動画像を構成するフレームのうちの所定のフレーム51が所定のタイミングで表示される。この所定のタイミングで、映像主処理部21はまた、フレーム51内のオブジェクト61を含む部分領域52を部分画面拡大表示装置14に全画面表示させる。さらに、全画面表示装置13による動画像の再生中にオブジェクト61がその画面内にて動く場合、ユーザは、UI12を利用して、全画面表示装置13に全画面表示されるフレームのうちの、部分画面拡大表示装置52に表示される範囲(部分画面枠53)の移動やサイズ変更を操作する。本発明は、映像処理装置に適用可能である。
【選択図】図1

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、ユーザが着目するオブジェクトをユーザが満足する大きさで表示させることができる情報処理装置および方法、並びにプログラムに関する。
近年、空間イメージを動画像データとしてキャプチャーするCCD(Charged Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)センサの高解像度対応化や、その動画像データを再生する表示デバイスの高解像度対応化が進んでいる。
一方で、MPEG(Moving Picture Experts Group )2, MPEG4, H.264などの規格に見られるように動画像データの圧縮符号化技術の高効率化も今なお進んでいる。
このような背景により、デジタル領域で処理する映像処理装置(例えば特許文献1参照)内で取り扱われる各映像フレームの高解像度化が進んでいる。
例えば、次のような映像処理装置を実現する技術は既に確立されている。即ち、既に実現されている映像処理装置とは、BS(Broadcasting Satellite)デジタルテレビジョン放送などのように、MPEG2のMP@HL(メインプロファイル@ハイレベル)という方式によって圧縮され多重伝送されたビデオストリームを受信し、デコード処理し、その結果得られる高解像度(1920 x 1080)の映像(ビデオストリーム)を映像モニタに出力する映像処理装置である。
今後もますます映像フレームはさらに高解像度化が進み、4000 x 2000程度の映像フレームも取り扱われるようになると予想される。このため、そのような高解像度の映像フレームを取り込んだり表示したりする必要が生じ、その結果、イメージキャプチャーデバイスや表示デバイスにおける高解像度対応技術が確立していくものと予想される。
特開2004-140670号公報
しかしながら、現状、このような高解像度の映像フレームを取り扱うことが可能な映像処理装置が映像フレームを表示モニタに表示させている場合、その映像フレーム全体としては、ユーザの目に鮮明に映る大きさ、即ち、ユーザが満足する大きさで表示されていたとしても、ユーザが着目するオブジェクトについては、ユーザが満足する大きさで表示されているとは限らない、という課題があった。特に、その表示モニタのサイズが小さい場合等においてこの課題は顕著になる。
例えば、スポーツの試合風景が撮影された映像などにおいて、その試合に参加する全選手が画面内に入るように撮影された遠景のイメージからなる映像フレームが表示モニタの全画面に表示される場合に、この課題が発生する。即ち、この場合、注目する個々の選手の大きさはユーザの満足する大きさで再生されるとは限らないという課題が発生する。
また、定点観測するような監視カメラを利用する映像処理装置の場合、その監視カメラの位置や、ズームやパン、チルド等の操作を必要としない撮影の手法自体は存在する。しかしながら、その監視カメラにより撮影された各映像フレームのそれぞれが全画面で連続再生される(動画像として再生される)場合にも、この課題が発生する。即ち、この場合、注目するオブジェクトの大きさが常にユーザの満足するものとは限らないという課題が発生する。
さらに、上の例において、表示モニタの解像度が仮に高くない場合には、個々の人物やオブジェクトは解像度が落とされて再生されることになり、この課題はより顕著なものとなる。
なお、動画像の全画面再生中の所定のタイミングで、即ち、所定の映像フレームが表示されている時点で、その映像フレームの中から特定のオブジェクトを含む部分領域を指定して静止画として拡大表示する手法も考えられるが、この手法では、上述した課題を充分に解決できるとは言い難い。この手法では、動きのあるオブジェクトには対応できないからである。即ち、そのオブジェクトを常に追尾し、そのオブジェクトをリアルタイムかつ継続して拡大表示させることは困難であるからである。
本発明は、このような状況に鑑みてなされたものであり、ユーザが着目するオブジェクトをユーザが満足する大きさで表示させることができるようにするものである。
本発明の情報処理装置は、複数のアクセスユニットから構成される動画像の表示を制御する情報処理装置であって、動画像を構成する複数のアクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御する第1の表示制御手段と、複数のアクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲を設定する設定手段と、複数のアクセスユニットのそれぞれから、設定手段により設定された表示範囲で特定される部分領域を順次切り出し、切り出された複数の部分領域のそれぞれに対して、第2の表示装置の表示形式に対応する画像に変換させる画像処理を順次施す画像処理手段と、画像処理手段により画像処理が施された複数の部分領域のそれぞれを第2の表示装置に順次表示させることを制御する第2の表示制御手段とを備えることを特徴とする。
複数のアクセスユニットのそれぞれについて、設定手段により設定された表示範囲で特定される部分領域の上に、その部分領域を囲む枠を合成させる合成手段をさらに設け、第1の表示制御手段は、合成手段により枠がそれぞれ合成された複数のアクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御するようにすることができる。
第1の表示制御手段の制御により第1の表示装置に実際に表示されている枠の配置位置とサイズとのうちの少なくとも一方を更新するユーザからの指令を入力する入力手段をさらに設け、設定手段は、入力手段により入力された指令に基づいて、複数のアクセスユニットのそれぞれのうちの第1の表示装置にこれから表示されるアクセスユニットについての表示範囲を設定するようにすることができる。
設定手段は、さらに、第1の表示制御手段の制御により第1の表示装置に所定の時点で表示される枠内に存在するオブジェクトを追尾対象とし、複数のアクセスユニットのうちの第1の表示装置にこれから表示されるアクセスユニット間でのそのオブジェクトの動きを追尾する追尾処理を実行し、第1の表示装置にこれから表示されるアクセスユニットのそれぞれについて、対応するアクセスユニットの中からオブジェクトを含む所定の範囲を追尾処理の結果に基づいて特定し、特定された前記所定の範囲を前記表示範囲として設定するようにすることができる。
第1の表示制御手段の制御により第1の表示装置に所定の時点で表示される枠内に存在するオブジェクトを追尾対象とし、複数のアクセスユニットのうちの第1の表示装置にこれから表示されるアクセスユニット間でのオブジェクトの動きを追尾する追尾処理を実行するために必要なソフトウエアと情報を他の情報処理装置に送信し、他の情報処理装置により追尾処理が実行されその結果が送信されてきた場合、追尾処理の結果を受信する通信手段をさらに設け、設定手段は、第1の表示装置にこれから表示されるアクセスユニットのそれぞれについて、通信手段に受信された追尾処理の結果に基づいて、対応するアクセスユニットの中からオブジェクトを含む所定の範囲を特定し、特定された所定の範囲を表示範囲として設定するようにすることができる。
所定のオブジェクトのメタデータとして、複数のアクセスユニットのそれぞれにおける所定のオブジェクトの配置位置とサイズを特定可能な情報を保持している他の情報処理装置との間で通信を行い、所定のオブジェクトのメタデータを取得する取得手段をさらに設け、設定手段は、複数のアクセスユニットのそれぞれについて、取得手段により取得された所定のオブジェクトのメタデータに基づいて、対応するアクセスユニットの中から所定のオブジェクトを含む所定の範囲を特定し、特定された所定の範囲を表示範囲として設定するようにすることができる。
本発明の情報処理方法は、複数のアクセスユニットから構成される動画像の表示を制御する情報処理装置の情報処理方法であって、動画像を構成する複数のアクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御する第1の表示制御ステップと、複数のアクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲を設定する設定ステップと、複数のアクセスユニットのそれぞれから、設定ステップの処理により設定された表示範囲で特定される部分領域を順次切り出し、切り出された複数の部分領域のそれぞれに対して、第2の表示装置の表示形式に対応する画像に変換させる画像処理を順次施す画像処理ステップと、画像処理ステップの処理により画像処理が施された複数の部分領域のそれぞれを第2の表示装置に順次表示させることを制御する第2の表示制御ステップとを含むことを特徴とする。
本発明のプログラムは、複数のアクセスユニットから構成される動画像の表示を制御する処理をコンピュータに実行させるプログラムであって、動画像を構成する複数のアクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御する第1の表示制御ステップと、複数のアクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲を設定する設定ステップと、複数のアクセスユニットのそれぞれから、設定ステップの処理により設定された表示範囲で特定される部分領域を順次切り出し、切り出された複数の部分領域のそれぞれに対して、第2の表示装置の表示形式に対応する画像に変換させる画像処理を順次施す画像処理ステップと、画像処理ステップの処理により画像処理が施された複数の部分領域のそれぞれを第2の表示装置に順次表示させることを制御する第2の表示制御ステップとを含むことを特徴とする。
本発明の情報処理装置および方法、プログラムにおいては、動画像を構成する複数のアクセスユニットのそれぞれが第1の表示装置に順次表示される。また、複数のアクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲が設定され、複数のアクセスユニットのそれぞれから、設定された表示範囲で特定される部分領域が順次切り出され、切り出された複数の部分領域のそれぞれに対して、第2の表示装置の表示形式に対応する画像に変換させる画像処理が順次施され、画像処理が施された複数の部分領域のそれぞれが第2の表示装置に順次表示される。
以上のごとく、本発明によれば、2以上の映像フレーム(アクセスユニットの一形態)で構成される映像(動画像)の再生が可能になる。特に、各映像フレームのうちのユーザが着目するオブジェクトをユーザが満足する大きさで表示させることができる。
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
本発明によれば、情報処理装置が提供される。この情報処理装置(例えば、図1の映像処理装置1(図1の表示設定部23の代わりに図9の表示設定/自動追尾アルゴリズム実行部123が搭載される場合も含む)、図10の映像処理装置201、または、図14の映像処理装置401A)は、複数のアクセスユニットから構成される動画像の表示を制御する情報処理装置であって、前記動画像を構成する複数の前記アクセスユニットのそれぞれを第1の表示装置(例えば、図1の全画面表示装置13、図10の全画面表示装置213、または、図14の全画面表示装置412)に順次表示させることを制御する第1の表示制御手段(例えば、図1の映像出力処理部35、図10の映像出力処理部235、または図15の映像出力621を実行する図14の情報処理コントローラ421)と、複数の前記アクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置(例えば、図1の部分画面拡大表示装置14、図10の部分画面拡大表示装置214、または、図14の部分画面拡大表示装置413)に表示させるべき表示範囲(例えば、後述する部分画面枠、即ち、部分領域の配置位置とサイズ)を設定する設定手段(例えば、図1の表示設定部23、図10のメタデータ解析部223、または、図15の表示設定614を実行する図14の情報処理コントローラ421)と、複数の前記アクセスユニットのそれぞれから、前記設定手段により設定された前記表示範囲で特定される部分領域を順次切り出し、切り出された複数の前記部分領域のそれぞれに対して、前記第2の表示装置の表示形式に対応する画像に変換させる画像処理(例えば後述するサンプリングレートコンバート処理)を順次施す画像処理手段(例えば、図1の表示装置適合処理部36、図10の表示装置適合処理部236、または、図15の表示装置適合処理615を実行する図14の情報処理コントローラ421)と、前記画像処理手段により前記画像処理が施された複数の前記部分領域のそれぞれを前記第2の表示装置に順次表示させることを制御する第2の表示制御手段(例えば、図1の映像出力処理部37、図10の映像出力処理部237、または、図15の映像出力622を実行する図14の情報処理コントローラ)とを備えることを特徴とする。
この情報処理装置は、前記複数の前記アクセスユニットのそれぞれについて、前記設定手段により設定された前記表示範囲で特定される前記部分領域の上に、その部分領域を囲む枠(ここでは、後述するように、部分画面枠と称しており、例えば、図1の部分領域52を囲む部分画面枠53)を合成させる合成手段(例えば、図1の映像データ重畳部34、図10の映像データ重畳部234、または、図15の映像データ重畳613を実行する図14の情報処理コントローラ421)をさらに備え、前記第1の表示制御手段は、前記合成手段により前記枠がそれぞれ合成された複数の前記アクセスユニットのそれぞれを前記第1の表示装置に順次表示させることを制御するようにすることができる。
この情報処理装置(例えば、図1の映像処理装置1または図14の映像処理装置401A)は、前記第1の表示制御手段の制御により前記第1の表示装置に実際に表示されている前記枠の配置位置とサイズとのうちの少なくとも一方を更新するユーザからの指令(例えば、図1のUI12または図14のUI411からの指令)を入力する入力手段(例えば、図1のUI入力処理部22、または、図15のUI入力処理625を実行する図14の情報処理コントローラ421)をさらに備え、前記設定手段は、前記入力手段により入力された前記指令に基づいて、複数の前記アクセスユニットのそれぞれのうちの前記第1の表示装置にこれから表示されるアクセスユニットについての前記表示範囲を設定するようにすることができる。
この情報処理装置(例えば、図1の映像処理装置1)において、前記設定手段(例えば、図9の表示設定/自動追尾アルゴリズム実行部123)は、さらに、前記第1の表示制御手段の制御により前記第1の表示装置に所定の時点で表示される前記枠内に存在するオブジェクトを追尾対象とし、複数の前記アクセスユニットのうちの前記第1の表示装置にこれから表示されるアクセスユニット間での前記オブジェクトの動きを追尾する追尾処理(後述する自動追尾アルゴリズムに従った処理)を実行し、前記第1の表示装置にこれから表示される前記アクセスユニットのそれぞれについて、対応するアクセスユニットの中から前記オブジェクトを含む所定の範囲を前記追尾処理の結果に基づいて特定し、特定された前記所定の範囲を前記表示範囲として設定するようにすることができる。
この情報処理装置(例えば、図14の映像処理装置401A)は、前記第1の表示制御手段の制御により前記第1の表示装置に所定の時点で表示される前記枠内に存在するオブジェクトを追尾対象とし、複数の前記アクセスユニットのうちの前記第1の表示装置にこれから表示されるアクセスユニット間での前記オブジェクトの動きを追尾する追尾処理を実行するために必要なソフトウエアと情報(例えば、図19のステップS118で生成されステップS119で送信されるソフトウエアセル)を他の情報処理装置(例えば、図14の映像処理装置401C)に送信し、前記他の情報処理装置により前記追尾処理が実行されその結果が送信されてきた場合、前記追尾処理の結果を受信する通信手段(例えば、図15のネットワーク入出力処理624を実行する図14の情報処理コントローラ421)をさらに備え、前記設定手段は、前記第1の表示装置にこれから表示される前記アクセスユニットのそれぞれについて、前記通信手段に受信された前記追尾処理の結果に基づいて、対応するアクセスユニットの中から前記オブジェクトを含む所定の範囲を特定し、特定された前記所定の範囲を前記表示範囲として設定するようにすることができる。
この情報処理装置(例えば、図10の映像処理装置201)において、所定のオブジェクト(例えば、図12のobja,objb,objc)のメタデータとして、複数の前記アクセスユニットのそれぞれにおける前記所定のオブジェクトの配置位置とサイズを特定可能な情報(例えば、図12のメタデータ351A乃至メタデータ351C)を保持している他の情報処理装置(例えば、図10と図11のメタデータ生成装置202)との間で通信を行い(例えば、図10のネットワーク203を介在する通信を行い)、前記所定のオブジェクトの前記メタデータを取得する取得手段(例えば、図10のネットワーク入出力処理部224)をさらに備え、前記設定手段は、複数の前記アクセスユニットのそれぞれについて、前記取得手段により取得された前記所定のオブジェクトの前記メタデータに基づいて、対応するアクセスユニットの中から前記所定のオブジェクトを含む所定の範囲を特定し、特定された前記所定の範囲を前記表示範囲として設定するようにすることができる。
本発明によれば、情報処理方法が提供される。この情報処理方法は、複数のアクセスユニットから構成される動画像の表示を制御する情報処理装置(例えば、図1の映像処理装置1)の情報処理方法であって、前記動画像を構成する複数の前記アクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御する第1の表示制御ステップ(例えば、図8のステップS2の処理)と、複数の前記アクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲を設定する設定ステップ(例えば、図8のステップS4とS7の処理のうちの図1表示設定部23が実行する処理)と、複数の前記アクセスユニットのそれぞれから、前記設定ステップの処理により設定された前記表示範囲で特定される部分領域を順次切り出し、切り出された複数の前記部分領域のそれぞれに対して、前記第2の表示装置の表示形式に対応する画像に変換させる画像処理を順次施す画像処理ステップ(例えば、図8のステップS5の処理のうちの表示装置適合処理部36が実行する処理)と、前記画像処理ステップの処理により前記画像処理が施された複数の前記部分領域のそれぞれを前記第2の表示装置に順次表示させることを制御する第2の表示制御ステップ(例えば、図8のステップS5の処理のうちの図1の映像出力処理部37が実行する処理)とを含むことを特徴とする。
本発明によれば、プログラムが提供される。このプログラムは、複数のアクセスユニットから構成される動画像の表示を制御する処理をコンピュータ(例えば、図14の情報処理コントローラ421)に実行させるプログラム(例えば、図15の構成のプログラム)であって、前記動画像を構成する複数の前記アクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御する第1の表示制御ステップ(例えば、図15の映像出力621)と、複数の前記アクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲を設定する設定ステップ(例えば、図15の表示設定614)と、複数の前記アクセスユニットのそれぞれから、前記設定ステップの処理により設定された前記表示範囲で特定される部分領域を順次切り出し、切り出された複数の前記部分領域のそれぞれに対して、前記第2の表示装置の表示形式に対応する画像に変換させる画像処理を順次施す画像処理ステップ(例えば、図15の表示装置適合処理615)と、前記画像処理ステップの処理により前記画像処理が施された複数の前記部分領域のそれぞれを前記第2の表示装置に順次表示させることを制御する第2の表示制御ステップ(例えば、図15の映像出力622)とを含むことを特徴とする。
次に、図面を参照して、本発明の実施の形態について説明する。
なお、本発明が適用される情報処理装置は、以上のような特徴を有していればその形態は特に限定されず、様々な実施の形態を取ることが可能である。そこで、以下、これらの様々な実施の形態のうちの4つについて特に説明する。即ち、以下、これらの4つの実施の形態のそれぞれを第1実施形態乃至第4実施形態のそれぞれと称し、その順番で個別に説明していく。
(第1実施形態)
はじめに、図1乃至図8を参照して、第1実施形態の情報処理装置について説明する。
図1は、第1実施形態の情報処理装置である映像処理装置の機能的構成例を示す図である。
図1に示されるように、映像処理装置1には、映像データ記憶部11、ユーザインタフェース(以下、UIと称する)12、全画面表示装置13、および、部分画面拡大表示装置14が接続されている。
映像データ記憶部11は、例えばハードディスクドライブ装置のような据置型記録装置やリムーバブル記録媒体等で構成され、1以上の映像ソースデータを記憶する。なお、ここでは、映像データ記憶部11は、映像処理装置1から見て外部機器とされているが、映像処理装置1の内蔵機器とされてもよい。
なお、映像とは、一般的に、動画像と音声との組み合わせを指す。従って、映像ソースデータとは、一般的に、動画像とそれに対応する音声とのそれぞれが所定の符号化形式(例えばMPEG2等)で圧縮符号化された圧縮符号化データを指す。ただし、以下においては、説明の簡略上、映像データ記憶部11には、動画像単体が所定の符号化形式(例えばMPEG2等)で圧縮符号化された圧縮符号化データが映像ソースデータとして記憶されているとする。
また、ここでは、動画像(映像)に対しては、例えばフレームを単位とした処理が施される。即ち、第1実施形態の映像処理装置1は、映像データ記憶部11に記憶された映像ソースデータに対して各種の映像処理を施す場合、フレームを単位とする。ただし、当然ながら、映像処理装置1は、フィールドを単位とする映像処理の実行も可能である。このことは、後述する他の第2実施形態乃至第4実施形態の各装置についても同様とされる。
換言すると、フレームやフィールドと言った動画像(映像)の単位をまとめてアクセスユニットと称すると、映像処理装置1を含む本発明が適用される装置の全ては、アクセスユニットを単位とする映像処理の実行が可能であると言える。ただし、ここでは、説明の簡略上、映像処理装置1は、そのような様々な種類のアクセスユニットのうちの特にフレームを単位とする映像処理を実行するとする。このことは、後述する他の第2実施形態乃至第4実施形態の各装置についても同様とされる。
ところで、UI12は、例えば、リモートコントローラ(受光部含む)、キーボード、マウス、その他入力インタフェースで構成される。従って、ユーザはUI12を操作することで、様々な情報(指令等)を映像処理装置1に入力させることができる。
全画面表示装置13と部分画面拡大表示装置14とのそれぞれは、例えば、CRT(Cathode Ray Tub)や液晶型表示装置で構成され、映像処理装置1から出力される映像信号(デジタル信号若しくはアナログ信号)に対応する映像を表示する。即ち、映像処理装置1は、後述するように、映像データ記憶部11に記憶された映像ソースデータに対して各種映像処理を施す装置である。従って、全画面表示装置13と部分画面拡大表示装置14とのそれぞれは、映像データ記憶部11に記憶された映像ソースデータに対応する映像を表示することになる。
具体的には例えば、図1に示されるように、全画面表示装置13は、映像データ記憶部11に記憶された映像ソースデータに対応する映像を全画面表示する。即ち、全画面表示装置13は、その映像を構成する各フレームのそれぞれを順次全画面表示していく。例えば図1の例では、各フレームのうちの所定のフレーム51が表示されている。
これに対して、部分画面拡大表示装置14は、全画面表示装置13に表示されているフレームのうちの、ユーザが着目するオブジェクトを含む領域(以下、部分領域と称する)を全画面表示する。例えば図1の例では、部分画面拡大表示装置14には、全画面表示装置13に表示されているフレーム51のうちの、オブジェクト61を含む部分領域52が拡大されて表示されている。
なお、全画面表示装置13には、フレーム51の上に、部分画面拡大表示装置14の表示範囲を示す枠53も表示されているが、この枠53については後述する。
また、全画面表示装置13と部分画面拡大表示装置14とは、モニタ機能さえ有していればその形態は特に限定されない。例えば、全画面表示装置13と部分画面拡大表示装置14とのうちの一方を、チューナ機能も有するテレビジョン受像機で構成し、他方を、チューナ機能を有しない表示モニタで構成してもよい。或いは、2つの画面を有する1台の表示装置で、全画面表示装置13と部分画面拡大表示装置14とを構成してもよい。さらにまた、図示はしないが、映像データ記憶部11と同様に、映像処理装置1の内蔵機器として、画面表示装置13と部分画面拡大表示装置14とを構成してもよい。ただし、以下、説明の簡略上、全画面表示装置13と部分画面拡大表示装置14とは同一形態の2台の表示装置であって、複数の解像度が設定可能な表示装置で構成されているとする。
このような映像データ記憶部11、UI12、全画面表示装置13、および部分画面拡大表示装置14に接続された映像処理装置1は、次のような機能を有している。即ち、映像処理装置1は、映像データ記憶部11に記憶されている映像ソースデータ(圧縮符号化データ)をデコードして、さらに必要に応じて各種の映像処理を施し、その結果得られる映像信号に対応する映像を全画面表示装置13と部分画面拡大表示装置14のそれぞれに表示させる機能である。詳細には、映像処理装置13が有する機能とは次の第1の機能乃至第3の機能である。
第1の機能とは、映像を構成する各フレームのそれぞれを全画面表示装置13に全画面表示させる機能である。
第2の機能とは、全画面表示装置13に順次全画面表示されていく各フレームのそれぞれについて、対応するフレーム(図1の例ではフレーム51)の中から、部分画面拡大表示装置14に表示させる表示範囲(図1の例では部分領域52に対応する範囲)を設定し、特定された範囲を囲む枠(以下、部分画面枠と称する。図1の例では部分画面枠53)を生成して、生成された部分画面枠を、全画面表示装置13に全画面表示されるフレーム上の対応する位置に表示させる機能である。この場合、後述するように、表示範囲として、ユーザが所望するオブジェクト(図1の例ではオブジェクト61)を含む範囲が設定されることが多い。
第3の機能とは、全画面表示装置13に全画面表示される各フレームのそれぞれについて、対応するフレーム(図1の例ではフレーム51)の中から、第2の機能で設定された表示範囲に対応する部分領域(図1の例では部分領域52)を切り出して、部分画面拡大表示装置14の表示形式に対応する画像に変換させる画像処理を施した上で、例えば、部分画面拡大表示装置14で設定されている解像度に変換する画像処理を施した上で、部分画面拡大表示装置14に全画面表示(部分領域の拡大表示)させる機能である。
なお、第1実施形態においては、第2の機能の実現に必要となる情報、即ち、表示範囲の設定に必要となる情報は、UI12から入力される情報に基づいて生成される。即ち、第1実施形態では、ユーザは、着目しているオブジェクトの時間変化(移動やサイズ変化)を全画面表示装置13で確認しながらUI12を操作することで、部分画面枠の配置位置やサイズの更新を指定することができる。これにより、そのオブジェクトの動きに追従するように部分画面枠が移動したり拡大縮小する。さらに、部分画面枠とは部分画面拡大表示装置14の表示範囲そのものを示すので、結果として、部分画面拡大表示装置14にオブジェクトが適切な大きさで表示されるのである。
かかる機能により、全画面表示装置13に全画面表示されたフレームのうちの、部分画面枠内の部分領域(図1の例では、部分領域52)、即ち、全画面表示装置13の画面においては小さく表示されている部分領域は、部分画面拡大表示装置14においては、それが有する最高解像度で全画面表示される(大きく表示される)のである。従って、ユーザが着目するオブジェクトをこの部分領域に内在させることで、ユーザが着目するオブジェクト、即ち、全画面表示装置13においては、ユーザが所望する大きさよりも小さく表示されているオブジェクトも、部分画面拡大表示装置14においては、ユーザが所望する大きさで鮮明に表示されるのである。
かかる機能を有する映像処理装置1には、映像処理部21乃至表示設定部23が設けられている。また、この映像処理部21には、データ入出力処理部31乃至映像出力処理部37が設けられている。
映像処理部21乃至表示設定部23のそれぞれは、構成が可能であれば、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組合せで構成してもよい。また、映像処理部21がハードウエアとソフトウエアの組合せで構成されている場合、その構成要素であるデータ入出力処理部31乃至映像出力処理部37のそれぞれは、構成が可能であれば、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組合せで構成してもよい。
データ入出力部31は、映像データ記憶部11に対するデータの読み出しや書き込みを制御する。例えば、データ入出力部31は、映像データ記憶部11に記憶されている所定の映像ソースデータを映像データ記憶部11から読み出して、復号処理部32に供給する。
復号処理部32は、映像ソースデータ(圧縮符号化データ)をデコード(復号)し、その結果得られる映像ストリームデータ、即ち、各フレームのそれぞれのビットマップイメージデータ(フレームデータ)を表示装置適合処理部33に順次供給する。
なお、以下、復号処理部32から出力された段階の映像ストリームデータ、即ち、後述する解像度変換等の各種映像処理が施されていない映像ストリームデータに対応する映像を構成する各フレームを、オリジナルフレームまたはオリジナル画面と称する。これに対して、全画面表示装置13に全画面表示されるフレーム、即ち、全画面表示装置13で現在設定されている解像度(以下、表示解像度と称する)に変換されたフレームを、表示フレームまたは表示画面と称する。
表示装置適合処理部33、その後段に接続される全画面表示装置13の表示解像度に関する情報を保持しており、復号処理部32から供給されたオリジナル画面のビットマップイメージデータの解像度を、オリジナル解像度から、全画面表示装置13の表示解像度に変換して、映像データ重畳部34に供給する。
具体的には例えばいま、オリジナルフレーム(オリジナル画面)の解像度(即ち、オリジナルフレームの画素数を指す)が2048(横) x 1536(縦)であり、全画面表示装置13の表示解像度が1024(横) x 768(縦) であるとする。この場合、復号処理部32から表示装置適合処理部33に対して、2048(横) x 1536(縦)のオリジナルフレームのビットマップイメージデータが入力される。そこで、表示装置適合処理部33は、2048(横) x 1536(縦)に対して、画素数を横方向と縦方向とともに1/2ずつ減らしたフレーム(ビットマップイメージデータ)を生成し、さらに、生成されたフレームに対して2次元のローパスフィルタリング処理を施し、画面イメージの平滑化処理を行うことで、1024(横) x 768(縦)のフレーム(ビットマップイメージデータ)を生成する。そして、表示装置適合処理部33は、1024(横) x 768(縦)のフレーム(ビットマップイメージデータ)を映像データ重畳部34に供給する。
映像データ重畳部34には、表示装置適合処理部33から出力されるフレーム(ビットマップイメージデータ)の他、部分画面拡大表示装置14に表示させる表示範囲の設定情報(これらの設定情報の詳細については後述する)も表示設定部23から供給される。そこで、映像データ重畳部34は、表示設定部23から供給された設定情報に基づいて、部分画面拡大表示装置14で再現される部分領域(表示範囲)と同形状の部分画面枠(ビットマップイメージデータ)を生成する。そして、映像データ重畳部34は、生成された部分画面枠を、表示装置適合処理部33から供給されたフレーム(ビットマップイメージデータ)の対応する位置の上に重ね合わせ、その結果得られるフレーム(ビットマップイメージデータ)を映像出力処理部35に供給する。
例えば、図1の例では、オブジェクト61を含む部分領域52の配置位置やサイズを特定可能な各種情報が設定情報として表示設定部23から供給されることになる。そこで、映像データ重畳部34は、表示設定部23から供給された各種情報に基づいて、部分領域52と同形状の部分画面枠53(ビットマップイメージデータ)を生成し、その部分画面枠53をフレーム51の対応する位置(図1の全画面表示装置13内に示される位置)の上に重ね合わせ、その結果得られるフレーム(ビットマップイメージデータ)を映像出力処理部35に供給する。
映像出力処理部35は、映像データ重畳部34から供給されたフレーム(ビットマップイメージデータ)を、全画面表示装置13の入力形式の映像信号に変換して全画面表示装置13に供給する。例えば、全画面表示装置13の入力形式がアナログ映像信号の場合、映像出力処理部35は、映像データ重畳部34から供給されたビットマップイメージデータ(フレーム)をアナログ映像信号に変換して、全画面表示装置13に出力する。すると、全画面表示装置13は、上述したように、映像出力処理部35から供給されたアナログ映像信号に対応する映像(フレーム)を全画面表示で表示する。具体的には例えば図1の例では、オブジェクト61を含む部分領域52と同一形状の部分画面枠53が右下方に配置された(図1に示される位置に配置された)フレーム51が、全画面表示装置13に表示されるのである。
ところで、UI入力処理部22は、UI12からの出力コードを受け、次のような2つのユーザ要求に対する処理を行う。一つは、所望の映像ソースを選択し、その再生を開始させたり、終了させたりする要求である。もう一つは、各表示画面(各表示フレーム)全体の中から所望のオブジェクトを含む部分領域を別モニタ(図1の例では部分画面拡大表示装置14)に表示させる要求である。
このようなユーザ要求に対する処理を実現可能なUI入力処理部22の詳細な構成例が図2に示されている。そこで、以下、図2を参照して、UI入力処理部22の詳細な構成例について説明する。
図2に示されるように、UI入力処理部22には、コマンド解析部71乃至部分画面設定処理部73が設けられている。
コマンド解析部71は、UI12からの出力コード(コマンドコード)を解釈することで、その出力コードに対応するコマンドを生成する。コマンド解析部71により生成されたコマンドは、ストリーム制御処理部72と部分画面設定処理部73に分配される。
ストリーム制御処理部72は、コマンド解析部71からのコマンドに従って、そのコマンドで指定されている映像ソースを選択したり、その映像ソースの再生や停止の制御を行う。
具体的には例えば、ユーザが所望する映像ソースの選択コマンドがコマンド解析部71から供給されてきた場合には、ストリーム制御処理部72は、映像データ記憶部11から読み出す映像ストリーム(映像ソースデータ)を特定する。さらにその後、再生コマンドがコマンド解析部71から供給されてきた場合には、ストリーム制御処理部72は、先の選択コマンドに従って特定された映像ストリームの読み出しを行うためのコマンドを生成し、データ入出力処理部31に対して発行する。すると、データ入出力処理部31は、そのコマンドで指定されている映像ストリーム(映像ソースデータ)を映像データ記憶部11から読み出し、上述した各種処理を施した後、復号処理部32に供給する。
このようなストリーム制御処理部72に対して、部分画面設定処理部73は、コマンド解析部71からのコマンドに従って、全画面表示装置13(図1)で再生される映像ストリームの各表示画面(各表示フレーム)における、ユーザが着目するオブジェクトを含む部分領域の配置位置およびサイズの設定(初期化または更新)を行うためのコマンドを生成し、表示設定部23に供給する。
具体的には例えば、コマンド解析部71は、映像ストリームのフレーム周期(再生フレームの表示間隔)である33msec 毎の各時点で、UI12からの出力コードの取得の試みを行い、その結果(出力コードが取得された場合にはその出力コードそのもの)をコマンドとして部分画面設定処理部73に供給するとする。
また、この出力コードには、部分画面枠表示のon/offを示すパラメータ, x軸方向移動を示すパラメータ, y軸方向移動を示すパラメータ, 拡大縮小を示すパラメータ等が含まれているとする。そこで、以下、部分画面枠表示のon/offを示すパラメータ, x軸方向移動を示すパラメータ, y軸方向移動を示すパラメータ, 拡大縮小を示すパラメータのそれぞれについてその順番に個別に説明していく。
はじめに、部分画面枠表示のon/offを示すパラメータについて説明する。
部分画面枠表示のon/offを示すパラメータとは、部分画面枠を図1の全画面表示装置13に表示させるか否か、即ち、その部分画面枠に対応する部分領域を部分画面拡大表示装置14に表示させるか否かを定めるパラメータを指す。
従って、部分画面設定処理部73は、33msec毎の各時点で、部分画面枠表示のon/offを示すパラメータがUI12からコマンド解析部71を介して供給されたか否かを判定し、供給されたと判定した場合には、次のような処理を実行する。
即ち、例えばいま現在、全画面表示装置13に部分画面枠が表示されていない状態、即ち、部分画面拡大表示装置14に部分領域が表示されていない状態であるときには、部分画面設定処理部73は、部分画面枠を全画面表示装置13に表示させるコマンド、即ち、その部分画面枠に対応する部分領域を部分画面拡大表示装置14に表示させるコマンドを生成し、表示設定部23に供給する。
これに対して、全画面表示装置13に部分画面枠が既に表示されている状態、例えば図1に示されるような部分画面枠53が既に表示されている状態、即ち、部分画面拡大表示装置14に部分領域が既に表示されている状態であるときには、部分画面設定処理部73は、部分画面枠を全画面表示装置13から消去するコマンド、即ち、部分画面拡大表示装置14の表示停止のコマンドを生成し、表示設定部23に供給する。
なお、部分画面設定処理部73は、33msec毎の各時点で、部分画面枠表示のon/offを示すパラメータがUI12からコマンド解析部71を介して供給されていないと判定した場合には、部分画面表示枠の表示状態、即ち、その部分画面枠に対応する部分領域の表示状態を保持させる制御を行う(上述したコマンドの発行を禁止する)。
以上、UI12からの出力コードのうちの、部分画面枠表示のon/offを示すパラメータについて説明した。次に、その出力コードのうちの、x軸方向移動を示すパラメータと、y軸方向移動を示すパラメータとについて説明する。
x軸方向移動を示すパラメータと、y軸方向移動を示すパラメータとは次のようなパラメータを指す。
即ち、例えばここでは、x,y座標の基点座標(0, 0)は、全画面表示装置13の表示画面の左上頂点に位置するものとする。そして、その表示画面の水平方向であって、左から右に向かう方向をx軸の正方向とする。また、その画面の垂直方向であって、上から下に向かう方向をy軸の正方向とする。
この場合、x軸方向移動を示すパラメータとして、例えば正負の値KがUI12から供給される。この値Kのうちの符号(+ or ―)は、部分画面枠の移動方向がx軸正方向であるのか或いは負方向であるのかを示す。また、値Kのうちの絶対値は、部分画面枠の移動量を示す。ただし、絶対値(単位量)1とは、全画面表示装置13の表示解像度(全画面表示装置13における表示フレームの画素数)に換算するとnx画素となる。なお、値nxは固定値であってもよいが、ユーザが自在に設定可能な値であると好適である。ユーザの操作性が高まるからである。
同様に、y軸方向を示すパラメータとして、例えば正負の値LがUI12から供給される。この値Lのうちの符号(+ or ―)は、部分画面枠の移動方向がy軸正方向であるのか或いは負方向であるのかを示す。また、値Lのうちの絶対値は、部分画面枠の移動量を示す。ただし、絶対値1とは、全画面表示装置13の表示解像度に換算するとny画素となる。なお、値nyも固定値であってもよいが、ユーザが自在に設定可能な値であると好適である。ユーザの操作性が高まるからである。
従って、部分画面設定処理部73は、33msec毎の各時点で、x軸方向移動を示すパラメータ、またはy軸方向移動を示すパラメータがUI12からコマンド解析部71を介して供給されたか否かを判定し、供給されたと判定した場合には、次のような処理を実行する。
即ち、具体的には例えばいま、図示はしないが、UI12に上下左右ボタンのそれぞれが設けられているとする。この場合、例えば33msec内に右ボタンが1回だけ押下されると、x軸方向移動を示すパラメータ(値)Kとして「+1」がUI12からコマンド解析部71を介して部分画面設定処理部73に供給されることになる。
すると、部分画面設定処理部73は、「全画面表示装置13において、部分画面枠をx軸正方向(右方)にnx画素(例えばnx=24)だけ移動させる」という内容のコマンドを生成し、表示設定部23に供給する。
なお、このとき、y軸方向移動を示すパラメータ(値)Lは部分画面設定処理部73に供給されないので、部分画面設定処理部73は、部分画面枠のy軸方向の移動を禁止する制御を行う(例えば、後述するy軸方向の移動についてのコマンドの発行を禁止する)。
その後(33msecより長時間経過後)、例えば33msec以内に下ボタンが1回だけ押下されると、y軸方向移動を示すパラメータ(値)Lとして「+1」がUI12からコマンド解析部71を介して部分画面設定処理部73に供給されることになる。
すると、部分画面設定処理部73は、「全画面表示装置13において、部分画面枠をy軸正方向(下方)にny画素(例えばny=16)だけ移動させる」という内容のコマンドを生成し、表示設定部23に供給する。
なお、このとき、x軸方向移動を示すパラメータ(値)Kは部分画面設定処理部73に供給されないので、部分画面設定処理部73は、今度は、部分画面枠のx軸方向の移動を禁止する制御を行う(例えば、上述したx軸方向の移動についてのコマンドの発行を禁止する)。
ところで、上述した例では、33msec内に上下左右ボタンのうちのいずれかひとつが押下されるとしたが、33msec内に上下左右ボタンのうちの任意のボタン(複数もあり得る)が任意の回数押下される場合もあり得る。また、コマンド解析部71の処理間隔は、上述した例では33msecとされたが、33msecに特に限定されず、例えばさらに長時間となる場合もあり得る。
従って、部分画面設定処理部73は、結局、その処理間隔(上述した例では33msec)の間に入力されたx軸方向移動を示すパラメータ(値)Kの総計値と、y軸方向移動を示すパラメータ(値)Lの総計値とに基づいて、即ち、処理間隔の間に上下左右ボタンのそれぞれが何回押下されたのかに基づいて、部分画面枠のx軸方向とy軸方向とのそれぞれの移動方向と移動量(距離)とを決定し、その決定結果をコマンドとして表示設定部23に供給することになる。
このため、処理間隔(上述した例では33msec)の間にx軸方向移動を示すパラメータ(値)Kと、y軸方向移動を示すパラメータ(値)Lとのいずれも入力されない場合、即ち、処理間隔の間に上下左右ボタンのいずれも押下されない場合、部分画面設定処理部73は、部分画面枠のx軸方向とy軸方向とのそれぞれの移動量(距離)は0である(移動を禁止する)と決定し、例えば、x軸とy軸の移動についてのコマンドの表示設定部23に対する発行を禁止する。
以上、UI12からの出力コードのうちの、部分画面枠表示のon/offを示すパラメータ、x軸方向移動を示すパラメータ、およびy軸方向移動を示すパラメータについて説明した。最後に、その出力コードのうちの拡大縮小を示すパラメータについて説明する。
拡大縮小を示すパラメータとして、例えば正負の値MがUI12から供給される。この値Mのうちの符号(+ or ―)は、部分画面枠のサイズを拡大するのか或いは縮小するのかを示す。また、値Mのうちの絶対値は、部分画面枠のサイズの拡大縮小量を示す。ただし、絶対値(単位量)1とは、全画面表示装置13の表示解像度に換算すると、左右方向(x軸正負方向)にそれぞれmx/2画素拡大し、かつ、上下方向(y軸正負方向)にそれぞれmy/2画素拡大することを示す。なお、値mxと値myは固定値であってもよいが、ユーザが自在に設定可能な値であると好適である。ユーザの操作性が高まるからである。また、値mxと値myの比は、部分画面拡大表示装置14の表示解像度における横方向画素数と縦方向画素数の比に等しいと好適である。部分画面拡大表示装置14に表示されるオブジェクト(図1の例ではオブジェクト61)の縦横比を、オリジナル画面におけるそのオブジェクトの縦横比と同一にすることができるからである。
従って、部分画面設定処理部73は、33msec毎の各時点で、拡大縮小を示すパラメータがUI12からコマンド解析部71を介して供給されたか否かを判定し、供給されたと判定した場合には、次のような処理を実行する。
即ち、具体的には例えばいま、図示はしないが、UI12に拡大ボタンと縮小ボタンのそれぞれが設けられているとする。この場合、例えば33msec以内に拡大ボタンが1回だけ押下されると、拡大縮小を示すパラメータ(値)Mとして「+1」がUI12からコマンド解析部71を介して部分画面設定処理部73に供給されることになる。
すると、部分画面設定処理部73は、「全画面表示装置13において、左右方向(x軸正負方向)にそれぞれmx/2(例えばmx=48)画素拡大し、かつ、上下方向(y軸正負方向)にそれぞれmy/2(例えばmy=36)画素拡大する」という内容のコマンドを生成し、表示設定部23に供給する。
その後(33msecより長時間経過後)、例えば33msec以内に縮小ボタンが押下されると、拡大縮小を示すパラメータ(値)Mとして「−1」がUI12からコマンド解析部71を介して部分画面設定処理部73に供給されることになる。
すると、部分画面設定処理部73は、「全画面表示装置13において、左右方向(x軸正負方向)にmx/2(例えばmx=48)画素縮小し、かつ、上下方向(y軸正負方向)にmy/2(例えばmy=36)画素縮小する」という内容のコマンドを生成し、表示設定部23に供給する。
ところで、上述した例では、33msec内に拡大ボタンと縮小ボタンのうちのいずれかひとつが押下されるとしたが、33msec内に拡大ボタンと縮小ボタンのうちの任意のボタン(両者もあり得る)が任意の回数押下される場合もあり得る。また、コマンド解析部71の処理間隔は、上述した例では33msecとされたが、33msecに特に限定されず、例えばさらに長時間となる場合もあり得る。
従って、部分画面設定処理部73は、結局、その処理間隔(上述した例では33msec)の間に入力された拡大縮小を示すパラメータ(値)Mの総計値に基づいて、即ち、処理間隔の間に拡大ボタンと縮小ボタンのそれぞれが何回押下されたのかに基づいて、部分画面枠の拡大縮小量を決定し、その決定結果をコマンドとして表示設定部23に供給することになる。
このため、処理間隔(上述した例では33msec)の間に拡大縮小を示すパラメータ(値)Mが入力されない場合、即ち、処理間隔の間に拡大ボタンと縮小ボタンのいずれも押下されない場合、部分画面設定処理部73は、部分画面枠の拡大縮小量は0である(拡大縮小を禁止する)と決定し、拡大縮小についてのコマンドの表示設定部23への発行を禁止する。
さらに言えば、処理間隔内に、拡大ボタンと縮小ボタンのうちの任意のボタン(両者もあり得る)が任意の回数だけ押下されるとともに、上下左右ボタンのうちの任意のボタン(複数もあり得る)が任意の回数だけ押下される場合もあり得る。
従って、部分画面設定処理部73は、結局、前回の処理から所定の処理間隔が経過すると、その処理間隔の間にUI12から供給された出力コードの全てに基づいて、部分画面枠についてのコマンドとして次の第1のコマンド乃至第3のコマンドのうちの必要なコマンド(複数となることもあり得る)を生成し、表示設定部23に供給することになる。即ち、第1のコマンドとは、部分画面枠の表示状態(onまたはoff)を更新するコマンドである。第2のコマンドとは、x軸方向とy軸方向とのそれぞれについての部分画面枠の移動方向と移動距離を示すコマンドである。第3のコマンドとは、部分画面枠の拡大縮小量を示すコマンドである。
ただし、部分画面設定処理部73の上述した処理は、部分画面枠の表示状態の保持(表示状態の更新の禁止)、部分画面枠の移動の禁止、および、部分画面枠の拡大縮小の禁止のそれぞれが決定された場合には、第1のコマンド、第2のコマンド、および第3のコマンドのそれぞれは発行されないことが前提とされる処理である。
しかしながら、部分画面枠の表示状態の保持(表示状態の更新の禁止)、部分画面枠の移動の禁止、および、部分画面枠の拡大縮小の禁止のそれぞれも、第1のコマンド、第2のコマンド、および第3のコマンドのそれぞれの一形態として表現することは可能である。従って、以下、部分画面設定処理部73は、部分画面枠の表示状態の保持(表示状態の更新の禁止)、部分画面枠の移動の禁止、および、部分画面枠の拡大縮小の禁止のそれぞれも、第1のコマンド、第2のコマンド、および第3のコマンドのそれぞれの一形態として表示設定部23に対して発行するとする。換言すると、以下、部分画面設定処理部73は、前回の処理から所定の処理間隔が経過すると、その処理間隔の間にUI12から供給された出力コードの全てに基づいて、第1のコマンド乃至第3のコマンドのそれぞれを生成し、表示設定部23に供給するとする。
以上、図2を参照して、UI入力処理部22の詳細な構成例について説明した。次に、図1に戻り、表示設定部23について説明する。
表示設定部23は、全画面表示装置13の現在の表示画面(表示フレーム)における部分画面枠(部分画面拡大表示装置14に表示させるべき表示範囲)の設定情報、即ち、部分画面枠の表示のon/off 情報、部分画面枠の位置情報、および、部分画面枠のサイズ情報を保持する。
部分画面枠の表示のon/off 情報として、例えば、現在の表示画面に部分画面枠が表示されている場合には「on」が、現在の表示画面に部分画面枠が表示されていない場合には「off」が、表示設定部23に保持される。
部分画面枠の位置情報として、例えば、次のx,y座標系における、部分画面枠の中心位置の座標が表示設定部23に保持される。即ち、部分画面枠の中心位置が表現される座標系とは、上述したように、基点座標(0, 0)が、全画面表示装置13の表示画面の左上頂点に位置され、その表示画面の水平方向であって、左から右に向かう方向をx軸の正方向とされ、かつ、その画面の垂直方向であって、上から下に向かう方向をy軸の正方向とされた場合のx,y座標系である。
部分画面枠のサイズ情報としては、例えば、部分画面枠のx軸方向の長さとy軸方向の長さが表示設定部23に保持される。ただし、部分画面枠のx軸方向の長さとy軸方向の長さのそれぞれは、全画面表示装置13の表示解像度(表示フレームの画素数)に対する相対値(画素数)で表現される。
その後、次のフレームにおける部分画面枠についてのコマンド(上述した第1のコマンド乃至第3のコマンド)がUI入力処理部22の図2の部分画面設定処理部73から供給されてくると、表示設定部23は、部分画面枠の表示のon/off 情報、部分画面枠の位置情報、および、部分画面枠のサイズ情報を更新し、それらの更新された情報を、次のフレームにおける部分画面枠の設定情報として保持するとともに、映像データ重畳部34と表示装置適合処理部36に供給する。
なお、ここで言う次のフレームとは、全画面表示装置13の現在の表示画面(表示フレーム)の次に表示される(33msec後に表示される)予定のフレームではなく、上述したUI入力処理部22の処理間隔後に表示される予定のフレームを指す。ただし、上述した例のように、処理間隔がフレーム周期と同一の33msecである場合には、次のフレームとは、全画面表示装置13の現在の表示画面(表示フレーム)の次に表示される予定のフレームそのものを指す。
また、映像処理装置1の図示せぬ電源状態がON状態にされた直後、または、部分画面枠の表示状態がoff状態にされた後に、UI入力処理部22から部分画面枠の表示状態をon状態にさせるコマンド(上述した第1のコマンド)が入力された場合、次のフレームにおける部分画面枠の設定情報(初期値)は次の通りとされる。即ち、部分画面枠の位置情報(初期位置を示す情報)は、例えば「部分画面枠の中心位置は、表示画面(表示フレーム)における中心位置である」という内容の情報である。また、部分画面枠のサイズ情報(初期サイズを示す情報)は、例えば「部分画面枠のx軸方向およびy軸方向のそれぞれの長さは256, 192画素のそれぞれである」という内容の情報である。
以下、図3を参照して、表示設定部23の処理の具体例について説明する。
例えばいま、上述したように、全画面表示装置13の現在の表示解像度が1024 x 768であるとする。また、映像ソースデータに対応する映像を構成する各フレームのうちの第1のフレームが全画面表示装置13に表示されるとともに、その第1のフレームの上には図3中点線で示される部分画面枠53Aも表示されているとする。
この場合、表示設定部23は、第1のフレームにおける部分画面枠53Aの設定情報として次のような情報を保持していることになる。即ち、部分画面枠53Aの表示のon/off 情報は「on」という情報である。部分画面枠53Aの位置情報は「部分画面枠53Aの中心位置は、表示画面(第1のフレーム)における中心位置(512,384)である」という内容の情報である。また、部分画面枠53Aのサイズ情報は「部分画面枠53Aのx軸方向およびy軸方向のそれぞれの長さは256, 192画素のそれぞれである」という内容の情報である。
ところで、図3中黒丸61Aと黒丸61Bは、図1のオブジェクト61と同一のオブジェクト(現実世界においては)を示している。ただし、オブジェクト61Aは第1のフレームに含まれるオブジェクト画像(現実世界のオブジェクトが射影された画像)である。一方、オブジェクト61Bは第2のフレームに含まれるオブジェクト画像(現実世界のオブジェクトが射影された画像)である。即ち、オブジェクト61Aとオブジェクト61Bとは現実世界では同一のオブジェクトであって、図3は、全画面表示装置13の表示画面が第1のフレームから第2のフレームに変わると、そのオブジェクトが表示画面中右斜め上方向(図3中、オブジェクト61Aからオブジェクト61Bまで引かれた矢印の方向)に移動し、さらに表示画面中サイズが大きくなる(表示画面に占めるオブジェクト画像の割合が大きくなる)ことを示している。この表示画面内の移動と大きさの変化は継続して行われているとする。即ち、第1のフレームよりも前のフレームが全画面表示装置13に表示されている状態からユーザはこのオブジェクト(オブジェクト61A,61B)を継続して着目しており、そのオブジェクトの表示画面内の移動と大きさの変化を把握しているとする。
この場合、ユーザは、全画面表示装置13の表示画面内のオブジェクトの変化(移動とサイズ変化)を確認しながらUI12を操作して、部分画面枠の移動とサイズ変化を指示することになる。具体的には、例えばいま、第1のフレームから第2のフレームが表示されるまでの期間に、ユーザは、UI12のうちの右ボタンを2回だけ、上ボタンが1回だけ、かつ、拡大ボタンを1回だけ、それぞれ押下したとする。
すると、上述したように、UI入力処理部22の図2の部分画面設定処理部73は、「第2のフレームにおける部分画面枠(後述する図3の実線で示される部分画面枠53B)の表示状態はon状態のまま保持する」という内容の第1のコマンド、「第2のフレームにおける部分画面枠53Bを、第1のフレームにおける部分画面枠53Aの配置位置に対して、xの正(+)方向に2単位だけ移動させ、かつ、yの負(−)方向に1単位だけ移動させる」という内容の第2のコマンド、および、「第2のフレームにおける部分画面枠53Bのサイズを、第1のフレームにおける部分画面枠53Aのサイズに対して1単位だけ拡大させる」という内容の第3のコマンドを生成し、表示設定部23に供給することになる。
なお、上述した単位nxが例えば「24」とされると、「xの正(+)方向に2単位だけの移動」とは、xの正(+)方向がここでは右方向とされているので、「全画面表示装置13の表示画面において右方向に48(=2×24)画素分だけの移動」を指す。同様に、上述した単位nyが例えば「16」とされると、「yの負(−)方向に1単位だけの移動」とは、yの負(−)方向がここでは上方向とされているので、「全画面表示装置13の表示画面において上方向に16(=1×16)画素分だけの移動」を指す。また、上述した単位mxが「48」とされ、かつ単位myが「36」とされると、「1単位だけ拡大する」とは、「全画面表示装置13の表示画面において、左右方向にそれぞれ24(=48/2)画素拡大し、かつ、上下方向にそれぞれ18(=36/2)画素拡大する」ことを指す。
このような第1のコマンド乃至第3のコマンドが供給されると、表示設定部23は、これらの第1のコマンド乃至第3のコマンドに従って、第1のフレームにおける部分画面枠の設定情報を次のような情報に更新し、更新されたそれらの情報を第2のフレームにおける部分画面枠の設定情報として保持するとともに、図1の映像データ重畳部34と表示装置適合処理部36に供給する。
即ち、第2のフレームにおける部分画面枠53Bの設定情報とは、第2のフレームにおける部分画面枠53Bの表示のon/off 情報(更新情報)、第2のフレームにおける部分画面枠53Bの位置情報(更新情報)、および、第2のフレームにおける部分画面枠53Bのサイズ情報(更新情報)である。具体的には、第2のフレームにおける部分画面枠53Bの表示のon/off 情報(更新情報)は「on」という情報である。第2のフレームにおける部分画面枠53Bの位置情報(更新情報)は「部分画面枠53Bの中心位置は、全画面(フレーム)における中心位置(512,384)から、右方向に48画素分だけ移動され、かつ、上方向に16画素分だけ移動された位置(560,368)である」という内容の情報である。また、第2のフレームにおける部分画面枠53Bのサイズ情報(更新情報)は「部分画面枠53Bのx軸方向およびy軸方向のそれぞれの長さは304(=256+48),228(=192+36)画素のそれぞれである」という内容の情報である。
従って、このような第2のフレームにおける部分画面枠53Bの設定情報が映像データ重畳部34に供給され、映像データ重畳部34と映像出力処理部35により上述した処理が実行されると、全画面表示装置13には、第2のフレームが表示されるとともに、その第2のフレームの上には、図3に実線で示される部分画面枠53Bが表示されるのである。即ち、全画面表示装置13の表示画面が第1のフレームから第2のフレームに更新されると、部分画面枠も点線枠53Aから実線枠53Bに更新されるのである。
なお、このとき、図1の表示装置適合処理部36と映像出力処理部37の後述する処理により、部分画面拡大表示装置14の表示画面も、図3中点線の部分画面枠53A内の部分領域から同図中実線の部分枠53B内の部分領域に更新されるのである。
以上、図3を参照して、図1の表示設定部23の処理の具体例について説明した。
次に、図1に戻り、表示装置適合処理部36について説明する。
表示装置適合処理部36は、復号処理部32から順次出力されてくる各オリジナルフレーム(ビットマップイメージデータ)の中から、表示設定部23により配置位置とサイズが設定(更新)された部分画面枠内の部分領域(ビットマップイメージデータ)を抽出し、その部分領域に対して表示装置適合処理部33と同様の処理を実行する。
具体的には例えばいま、上述したように、オリジナル画面の解像度(映像データ記憶部11に記憶されている映像ソースデータが有する解像度であって、以下、オリジナル解像度と称する)が2048x1536とされ、全画面表示装置13の表示解像度が1024x768とされ、かつ、部分画面拡大表示装置14の表示解像度が512x384とされているとする。
また、部分画面枠の設定情報として、例えば図3の実線で示される部分画面枠53Bを特定可能な上述した情報が、表示設定部23から表示装置適合処理部32に供給されたとする。
即ち、第2のフレームにおける部分画面枠53Bの表示のon/off 情報(更新情報)として「on」という情報が、第2のフレームにおける部分画面枠53Bの位置情報(更新情報)として「部分画面枠53Bの中心位置は、全画面(フレーム)における中心位置(512,384)から、右方向に48画素分だけ移動され、かつ、上方向に16画素分だけ移動された位置(560,368)である」という内容の情報が、第2のフレームにおける部分画面枠53Bのサイズ情報(更新情報)として「部分画面枠53Bのx軸方向およびy軸方向のそれぞれの長さは304(=256+48),228(=192+36)画素のそれぞれである」という内容の情報が、それぞれ表示装置適合処理部36に供給されたとする。
また、オリジナル解像度である2048x1536の第2のフレーム(ビットマップイメージデータ)が、復号処理部32から表示装置適合処理部36に供給されたとする。
このように、表示設定部23から供給される部分画面枠53Bの設定情報は、全画面表示装置13の表示解像度である1024x768に基づく情報とされている。これに対して、第2のフレームの解像度は、オリジナル解像度である2048x1536である。
そこで、表示装置適合処理部36は、オリジナル解像度である2048x1536の第2のフレームの中から、部分画面枠53Bに対応する部分領域を切り出すために次のような処理を実行する。
即ち、表示装置適合処理部36は、表示設定部23から供給された部分画面枠53Bのサイズ情報(更新情報)に基づいて、第2のフレームの解像度が1024x768に変換された場合における部分画面枠53Bのサイズ、即ち、全画面表示装置13の表示画面に表示される場合の部分画面枠53Bのサイズは、304×228であると認識する。
次に、表示装置適合処理部36は、部分画面枠53Bのサイズを、上述したようにして認識されたサイズ304×228から、オリジナル解像度である2048x1536の第2のフレームに対する相対サイズに変換する。具体的には、表示装置適合処理部36は、全画面表示装置13の表示解像度である1024x768の第2のフレームにおける部分画面枠53Bの画素数を、縦横ともに(オリジナル解像度)/(全画面表示装置13の表示解像度)の分だけに乗算する。即ち、横方向画素数が304 x 2048 / 1024 = 608、縦方向画素数が228 x 1536 / 768 = 456 と変換され、変換されたサイズ608×456が、オリジナル解像度である2048x1536の第2のフレームにおける部分画面枠53Bのサイズとして決定される。
また、表示装置適合処理部36は、表示設定部23から供給された部分画面枠53Bのサイズ情報(更新情報)に基づいて、全画面表示装置13の表示解像度である1024x768の第2のフレームにおける部分画面枠53Bの中心位置を、オリジナル解像度である2048x1536の第2のフレームにおける部分画面枠53Bの中心位置に変換する。即ち、x軸方向が536 x 2048 / 1024 = 1072, y軸方向が392 x 1536 / 768 = 784 と変換され、その結果得られる座標(1072,784)が、オリジナル解像度である2048x1536の第2のフレームにおける部分画面枠53Bの中心位置として決定される。
表示装置適合処理部36は、このようにして、オリジナル解像度である2048x1536の第2のフレームにおける部分画面枠53Bのサイズと中心位置とを決定すると、次のような処理を実行する。即ち、表示装置適合処理部36は、オリジナル解像度である2048x1536の第2のフレーム(ビットマップイメージデータ)から、決定されたサイズと中心位置に基づいて部分画面枠53Bに対応する部分領域(ビットマップイメージデータ)を特定して切り出す。
いまの場合、608×456の部分領域が切り出されることになる。これに対して、部分画面拡大表示装置14の表示解像度は、上述したように512x384とされている。
そこで、表示装置適合処理部36はさらに、608×456の部分領域(ビットマップイメージデータ)に対して画素数比 608:512(=19:16)のサンプリングレートコンバート処理を施して、その結果得られる512×384の部分領域(ビットマップイメージデータ)を映像出力処理部37に供給する。
ここで、図4乃至図7を参照して、サンプリングレートコンバート処理について説明する。なお、ここでは、説明の簡略上、画素数比が3:2の場合のサンプリングレートコンバート処理について説明する。
図4は、サンプリングレートコンパレート処理が施される前の画像のうちの所定のラインに並ぶ6つの画素からなる画素群、即ち、y=一定値におけるx軸方向に連続して並ぶ6つの画素からなる画素群を示している。
なお、ここでは、画素数比が3:2の場合のサンプリングレートコンバート処理について説明するため、先頭の3つの画素81乃至画素83からなる画素群に着目して説明するが、そのラインの右方の3つの画素からなる画素群等、その他図示せぬ3つの画素がx軸方向に連続して並んで形成される全ての画素群のそれぞれに対して、次のような1番目の処理乃至3番目の処理が施されることになる。
即ち、1番目の処理とは、3と2の最小公倍数は6であることを利用し、画素81乃至画素83といった3画素の並びを、図5に示されるように、画素81乃至画素83のそれぞれの間に画素91乃至画素93のそれぞれを等間隔で挿入することで、2倍の6画素の並びとする処理である。即ち、画素81,画素91,画素82,画素92,画素83,画素93といった連続する6つの画素を等間隔に並べる処理である。
2番目の処理とは、追加された画素91乃至画素93についての輝度を最も平滑化された形で確定させるために施される処理であって、図5の6つの画素(画素81,画素91,画素82,画素92,画素83,画素93)からなる画素群にローパスフィルタをかける処理である。このような2番目の処理の結果、図6に示されるような、6つの画素101乃至画素106からなる画素群が得られる。
3番目の処理(最後の処理)とは、画素数を1/3に間引く処理である。3番目の処理の結果、図7に示されるような2つの画素101と画素104のみが残った画素群が得られる。なお、2番目の実際の処理では、3番目の処理によって残る画素についてのみローパスフィルタ処理をかければよい。
なお、その他の画素数比(例えば上述した608:512(=19:16))の場合のサンプリグレートコンバート処理の流れについても以上の流れと同様になる。
以上、図4乃至図7を参照して、図1の表示装置適合処理部36が実行する処理のひとつであるサンプリングレートコンバート処理について説明した。
次に、この表示装置適合処理部36の後段の映像出力処理部37について説明する。
映像出力処理部37は、上述した映像出力処理部35と同様の機能と構成を有している。即ち、映像出力処理部37は、表示装置適合処理部36から供給された部分領域(全画面表示装置13にほぼ同時に表示される表示フレーム内のうちの、ユーザが着目するオブジェクトを含む部分領域)を、部分画面拡大表示装置14の入力形式に適する映像信号に変換して部分画面拡大表示装置14に供給する。例えば、部分画面拡大表示装置14の入力形式がアナログ映像信号の場合、映像出力処理部37は、表示装置適合処理部36から供給されたビットマップイメージデータ(部分領域)をアナログ映像信号に変換して部分画面拡大表示装置14に出力する。すると、部分画面拡大表示装置14は、上述したように、映像出力処理部37から供給されたアナログ映像信号に対応する映像(部分領域)を全画面表示で表示する。具体的には例えば図1の例では、全画面表示装置13に表示されているフレーム51上の部分画面枠53内の部分領域52、即ち、オブジェクト61を含む部分領域52が、部分画面拡大表示装置14に全画面表示されるのである。
以上、図1の映像処理装置1の機能的構成例について説明した。
次に、図8のフローチャートを参照して、かかる機能的構成を有する映像処理装置1が実行する処理のうちの、2つの画面のうちの一方にフレームを全画面表示させ、他方にそのフレームの部分領域を全画面表示させる処理(以下、2画面表示制御処理と称する)について説明する。
ステップS1において、映像主処理部21(特にデータ入出力処理部31)は、再生コマンドが発行されたか否かを判定する。
ステップS1において、再生コマンドが発行されていないと判定されると、処理はステップS1に戻され、再生コマンドが発行されたか否かが再度判定される。即ち、映像主処理部21(特にデータ入出力処理部31)は、再生コマンドの発行を常時監視している。
上述したように、ユーザがUI12を操作して、映像データ記憶部11に記憶されている映像ソース(データ)の中から所定の1つを選択し、さらにその再生を指示すると、UI入力処理部22は、再生コマンドをデータ入出力処理部31に対して発行する。
すると、ステップS1において、映像主処理部21(特にデータ入出力処理部31)は、再生コマンドが発行されたと判定し、再生コマンドで指定されている映像ソース(データ)を映像データ記憶部11から取得すると、処理をステップS2に進める。
ステップS2において、映像主処理部21(特に復号処理部32乃至映像出力処理部35)は、映像ソースの再生を開始し、その映像ソースを構成する各フレームのそれぞれを全画面表示装置13に順次全画面表示させる。
ステップS3において、表示設定部23は、部分画面枠表示コマンドが発行されたか否かを判定する。
ステップS3において、部分画面枠表示コマンドが発行されていないと判定されると、処理はステップS3に戻され、部分画面枠表示コマンドが発行されたか否かが再度判定される。即ち、表示設定部23は、部分画面枠表示コマンドの発行を常時監視している。
上述したように、UI12からの出力コードのうちの、部分画面枠表示のon/offを示すパラメータがUI入力処理部22に供給されると、UI入力処理部22は、部分画面枠表示コマンド、即ち、上述した第1のコマンドを生成し、表示設定部23に対して発行する。
すると、ステップS3において、表示設定部23は、部分画面枠表示コマンドが発行されたと判定して、部分画面枠の設定情報を生成(更新)し、即ち、上述したように、部分画面枠の表示状態が「on」であることを示す情報、部分画面枠の位置情報、および、部分画面枠のサイズ情報を生成し、映像データ重畳部34と表示装置適合処理部36に供給する。これにより、処理はステップS4に進められる。
ステップS4において、映像主処理部21(特に映像データ重畳部34と映像出力処理部35)は、表示設定部23から供給された部分画面枠の設定情報に基づいて、全画面表示装置13に表示されている映像ソース(フレーム)内の所定の配置位置に所定のサイズで部分画面枠を表示させる。
ステップS5において、映像主処理部21(特に表示装置適合処理部36と映像出力処理部37)は、ステップS4の処理で全画面表示装置13に表示された部分画面枠内の映像(即ち、部分領域)を拡大して、部分画面拡大表示装置14に表示させる。
即ち、表示装置適合処理部36は、表示設定部23から供給された部分画面枠の設定情報に基づいて、復号処理部32から供給されるフレームの中から、ステップS4の処理で全画面表示装置13に表示された部分画面枠に対応する部分領域を切り出し、切り出された部分領域に対して、部分画面拡大表示装置14の表示形式に対応する画像に変換させる画像処理(例えば上述したサンプリングレートコンバート処理)を施して、映像出力処理部37に供給する。映像出力処理部37は、表示装置適合処理部36により画像処理が施された部分領域を、部分画面拡大表示装置14に全画面表示する。
なお、ステップS4とステップS5の処理は実際には並行して実行される。即ち、ステップS4とS5の処理の順番は特に限定されない。
ステップS6において、表示設定部23は、部分画面枠の移動または拡大のコマンドが発行されたか否かを判定する。
上述したように、UI入力処理部22から発行される第2のコマンドが「部分画面枠の位置を保持する(移動を禁止する)」という内容のコマンドであり、かつ、第3のコマンドが「部分画面枠のサイズを保持する(サイズ変更を禁止する)」という内容のコマンドである場合、ステップS6において、部分画面枠の移動または拡大のコマンドが発行されていないと判定され、処理はステップS8に進められる。
ステップS8において、表示設定部23は、部分画面枠の消去コマンドが発行されたか否かを判定する。
いまの場合、即ち、部分画面枠が全画面表示装置13に表示され、かつ、その部分画面枠内の部分領域が部分画面拡大表示装置14に表示されている状態の場合、上述した部分画面枠表示のon/offを示すパラメータがUI入力処理部22に供給されない限り、ステップS8において、部分画面枠の消去コマンドが発行されていないと判定され、処理はステップS4に戻され、それ以降の処理が繰り返される。
即ち、部分画面枠の移動コマンド、拡大コマンド、および消去コマンドのいずれも発行されない場合、全画面表示装置13には、映像ソースが再生され続け(各フレームが順次表示され)、かつ、部分画面枠が表示画面中同一位置に同一サイズで表示され続ける。また、部分画面拡大表示装置14には、各フレームのそれぞれについての、全画面表示装置13の表示画面中同一位置の同一サイズの部分画面枠内の映像(部分領域)が表示されることになる。従って、オブジェクトが移動するような場合、部分画面拡大表示装置14において、そのオブジェクトがたとえ最初に表示されていたとしても、時間が経過すると表示されなくなってしまう。
そこで、ユーザは、着目するオブジェクトの変化(移動やサイズ変化)を全画面表示装置13で確認しながら、UI12を操作することで、部分画面枠の移動やサイズの更新を指示することになる。このユーザの指示は、x軸方向移動を示すパラメータ,y軸方向移動を示すパラメータ,拡大縮小を示すパラメータのうちの少なくともひとつとしてUI12からUI入力処理部22に供給されることになる。
そして、x軸方向移動を示すパラメータ,y軸方向移動を示すパラメータ,拡大縮小を示すパラメータのうちの少なくともひとつが供給されると、UI入力処理部22は、部分画面枠の移動または拡大のコマンドを表示設定部23に発行することになる。
なお、ここでいう部分画面枠の移動コマンドとは、上述した第2のコマンドのうちの、例えば「部分画面枠の位置をx軸の正または負方向に所定の単位分だけ移動させる」、「部分画面枠の位置をy軸の正または負方向に所定の単位分だけ移動させる」、或いは、「部分画面枠の位置をx軸の正または負方向に所定の単位分だけ移動させ、かつ、y軸の正または負方向に所定の単位分だけ移動させる」という内容のコマンドを指す。
また、ここでいう部分画面枠の拡大コマンドとは、上述した第3のコマンドのうちの、例えば「部分画面枠のサイズを左右方向に所定の単位分だけ拡大または縮小させ、かつ、上下方向に所定の単位分だけ拡大または縮小させる」という内容のコマンドを指す。
このような内容の第2のコマンド(部分画面枠の移動コマンド)または第3のコマンド(部分画面枠の拡大コマンド)がUI入力処理部22から表示設定部23に発行されると、ステップS6において、部分画面枠の移動または拡大のコマンドが発行されたと判定され、処理はステップS7に進められる。
ステップS7において、表示設定部23は、部分画面枠の配置位置とサイズとのうちの少なくとも一方の設定を更新し、その更新内容を、次のフレームにおける部分画面枠の設定情報として映像データ重畳部34と表示装置適合処理部36に供給する。これにより、処理はステップS8に進められる。
その後、ステップS8において、部分画面枠の消去コマンドが発行されていないと判定されると、処理はステップS4に戻され、それ以降の処理が繰り返される。
即ち、部分画面枠の移動コマンドまたは拡大コマンドが発行された場合、全画面表示装置13には、映像ソースが再生され続け(各フレームが順次表示され)、かつ、部分画面枠が、ユーザが着目するオブジェクトの動きに追従して移動したりサイズを変更しながら表示されていくことになる。また、部分画面拡大表示装置14には、各フレームのそれぞれについての、移動されたりサイズが変更された部分画面枠内の部分領域が順次表示されることになる。即ち、部分画面拡大表示装置14には、ユーザが着目するオブジェクトがユーザにとって適切なサイズで常時表示され続けるのである(ユーザがUI12を操作して、部分画面枠の移動やサイズの更新指示を継続する限り)。
ところで、部分画面枠が全画面表示装置13に表示されている状態、即ち、その部分画面枠内の部分領域が部分画面拡大表示装置14に表示されている状態で、上述した部分画面枠表示のon/offを示すパラメータがUI入力処理部22に供給されると、UI入力処理部22は、部分画面枠の消去コマンド、即ち、上述した第1のコマンドを生成し、表示設定部23に対して発行する。
すると、ステップS8において、表示設定部23は、部分画面枠表示コマンドが発行されたと判定して、部分画面枠の設定情報を更新し、即ち、上述したように、部分画面枠の表示状態が「off」であることを示す情報を含む設定情報に更新し、その設定情報を映像データ重畳部34と表示装置適合処理部36に供給する。これにより、処理はステップS9に進められる。
ステップS9において、映像主処理部21は、全画面表示装置13から部分画面枠を消去し、部分画面枠拡大表示装置14の映像表示を停止する。
これにより2画面表示制御処理は終了となる。
ただし、2画面表示制御処理が終了しても、全画面表示装置13における映像ソースの全画面再生は引き続き行われることになる。即ち、映像ソースの最後のフレームまで再生されるか、或いは、映像ソースの停止指令がUI12から入力されると、全画面表示装置13における映像ソースの全画面再生は終了することになる。
なお、図8の例では、説明の簡略上、2画面表示制御処理が一度終了すると、その映像ソースの再生中は、2画面表示制御処理は再開できない処理とされているが、実際には、映像ソースの再生中に、部分画面枠表示コマンドが再発行された時点で、部分画面枠の表示やその内部の部分領域の拡大表示を再開させればよい。このことは、映像ソース自体の再生処理(ステップS1とS2の処理)と、部分画面枠の表示やその内部の部分領域の拡大表示の処理(ステップS3乃至S9の処理)とを相互に独立した処理として並行に実行させれば容易に実現可能である。また、このことは、後述するその他の実施形態における2画面表示制御処理についても同様である。
以上、第1実施形態の情報処理装置について説明した。
(第2実施形態)
次に、第2実施形態の情報処理装置について説明する。
第1実施形態においては、ユーザがUI12を常時手動操作することで、即ち、UI12からの入力により、部分画面枠の配置位置とサイズが更新されていたが、第2実施形態においては、部分画面枠の配置位置とサイズは、初期時のみ手動で設定され(即ち、第1実施形態同様、ユーザの手動操作に基づくUI12からの入力に基づいて初期設定が行われ)、それ以降、オブジェクトを自動追尾するアルゴリズム(以下、自動追尾アルゴリズムと称する)により自動的に更新される。
なお、自動的とは、ユーザの操作を介在することなく、即ち、UI12からの入力が無くとも、映像処理装置1が自分自身の判断(ここでは自動追尾アルゴリズムに従った判断)で処理を実行することを指す。
このような第2実施形態の情報処理装置としての映像処理装置の機能的構成例は、例えば、第1実施形態の図1の映像処理装置1に対して、表示設定部23の代わりに図9に示されるような表示設定/自動追尾アルゴリズム実行部123を搭載させればよい。
なお、表示設定/自動追尾アルゴリズム実行部123は、構成が可能であれば、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組合せで構成してもよい。
以下、表示設定/自動追尾アルゴリズム実行部123について説明する。
表示設定/自動追尾アルゴリズム実行部123は、図1の表示設定部23の機能の他、さらに、自動追尾アルゴリズムの実行機能を有している。なお、以下、前者の機能に対応するモードを表示設定モードと称し、後者の機能に対応するモードを自動追尾モードと称する。
例えば、ユーザは、着目するオブジェクト全体が全画面表示装置13に表示されるまでは、第1実施形態と同様の手法により部分画面枠の移動やサイズ変更の指示操作を手動で行うことができる。この場合、表示設定/自動追尾アルゴリズム実行部123は、表示設定モードで動作する。即ち、表示設定/自動追尾アルゴリズム実行部123は、図1の表示設定部23と同様の処理を実行することで、部分画面枠の位置情報やサイズ情報等を更新し、その更新結果を、部分画面枠の設定(更新)情報として映像データ重畳部34と表示装置適合処理部36に供給する。
その後、着目するオブジェクト全体が全画面表示装置13に表示されたら、ユーザはUI12のうちの図示せぬ自動表示ボタン等を押下する。すると、UI入力処理部22は、自動表示コマンドを、表示設定/自動追尾アルゴリズム実行部123に対して発行する
表示設定/自動追尾アルゴリズム実行部123は、この自動表示コマンドを受け取ると、その動作モードを自動追尾モードに遷移させる。即ち、表示設定/自動追尾アルゴリズム実行部123は、自動追尾アルゴリズムを実行し、全画面表示装置13の表示画面(各表示フレーム)の中で、ユーザが着目するオブジェクトの動きを追尾し、その追尾結果に基づいて、部分画面枠の配置位置とサイズを順次決定(更新)し、順次決定(更新)される情報を、部分画面枠の設定(更新)情報として映像データ重畳部34と表示装置適合処理部36に供給する。
ここで、自動追尾アルゴリズムの概略について説明する。
自動追尾アルゴリズムとしては、目標物の移動に伴ってカメラの撮像方向を自動的に追尾するような目的で数多くの手法が考案されている。例えば、目標物の移動を検出するためにブロックマッチングの方法が知られている。ブロックマッチングとは、目標物の周辺画像又は特徴部分の画像によって定義したオリジナルブロックに対して相関が最大になるブロックを対象画面中から検出する手法であり、オリジナルブロックの各画素と画素同士の差の絶対値和が最小になるブロツックの位置を目標物の位置として検出するものである
その他、自動追尾アルゴリズムの手法としては、例えば、特開平6−30318号公報、特開2000−78563号公報、特開平7−30796号公報、特開平9−205575号公報、および、特開平9−205576号公報により開示されている。
ところで、ユーザは、部分画面枠の配置位置とサイズの設定を自動設定から手動設定に再度変更させたい場合、UI12のうちの図示せぬ自動表示解除ボタン等を押下すればよい。すると、UI入力処理部22は、自動表示解除コマンドを、表示設定/自動追尾アルゴリズム実行部123に対して発行する。表示設定/自動追尾アルゴリズム実行部123は、この自動表示コマンドを受け取ると、その動作モードを表示設定モードに再度遷移させる。
以上、第2実施形態の情報処理装置について説明した。
(第3実施形態)
次に、図10乃至図13を参照して、第3実施形態の情報処理装置について説明する。
図10は、第3実施形態の情報処理装置としての映像処理装置を含む映像処理システムの機能的構成例を示す図である。即ち、第1実施形態と第2実施形態は、ユーザが使用する映像処理装置1台で本発明が実現される実施の形態であり、第3実施形態は、ユーザが使用する映像処理装置と、他の情報処理装置とからなる映像処理システムで本発明が実現される実施の形態である。
図10に示されるように、映像処理装置201には、映像データ記憶部211、UI212、全画面表示装置213、および、部分画面拡大表示装置214が接続されている。
映像データ記憶部211、UI212、全画面表示装置213、および、部分画面拡大表示装置214のそれぞれは、図1における、映像データ記憶部11、UI12、全画面表示装置13、および、部分画面拡大表示装置14のそれぞれと基本的に同様の機能と構成を有することができる。従って、これらのブロックの説明については省略する。
映像処理装置201にはさらに、ネットワーク203を介してメタデータ生成装置202が接続されている。
なお、ネットワーク203の形態は特に限定されず、IPプロトコルを用いたインターネットでもよいし、ATM(Asynchronous Transfer Mode)でもよい。また、ネットワーク203は、この映像処理システムにおいて特に必須な構成要素ではない。即ち、映像処理装置201とメタデータ生成装置202とは、ネットワーク203を介さずに直接通信を行ってもよい。
ところで、第3実施形態の目的とは、次のように他の実施の形態(上述した第1実施形態と第2実施形態の他、後述する第4実施形態)と同一の目的である。即ち、ユーザが使用する映像処理装置201が、そのユーザが着目するオブジェクトを含むフレーム全体を全画面表示しているモニタ(図10の例では全画面表示装置213)とは異なる別モニタ(図10の例では部分画面拡大表示装置214)に、そのオブジェクト(正確には、それを含む部分領域)を全画面高解像度表示させることを目的としている。
しかしながら、この目的達成の手法が、第3実施形態と他の実施の形態とでは異なる。即ち、第3実施形態とは、この目的達成のために必要な情報、即ち、映像ソース(各フレーム)中の部分画面枠(それに含めるべきオブジェクト)の配置位置とサイズを特定可能な情報を、他の情報処理装置(図10の例ではメタデータ生成装置202)から取得する(ネットワークサービスを利用して取得する)実施の形態である。
このため、ユーザ側で必要となるローカルシステムの構成は、映像処理装置201、映像データ記憶部211、UI212、全画面表示装置213、および、部分画面拡大表示装置214となる。
そして、このユーザ側のローカルシステムがネットワーク203を介してメタデータ生成装置202に接続されているのである。メタデータ生成装置202は、部分画面枠(それに含めるべきオブジェクト)の配置位置やサイズを特定可能な情報(第3実施形態の説明中においては、このような情報をメタデータと称する)を生成し、ネットワーク203を介してユーザ側のローカルシステムに供給する。
従って、第3の実施形態とは、メタデータ生成装置202により生成されたメタデータ(ネットワークサービスにより配信されたメタデータ)に基づいて、部分画面枠の配置位置とサイズを更新する実施の形態であるとも言える。
このため、メタデータ生成装置202はメタデータを事前に生成しておく必要があるが、このようなメタデータ生成装置202の説明は後述し、その前にユーザ側のローカルシステムの一構成要素である映像処理装置201の機能的構成例について説明する。
図10に示されるように、映像処理装置201には、映像処理部221乃至ネットワーク入出力処理部224が設けられている。また、この映像処理部221には、データ入出力処理部231乃至映像出力処理部237が設けられている。
映像処理部221乃至ネットワーク入出力処理部224のそれぞれは、構成が可能であれば、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組合せで構成してもよい。また、映像処理部221がハードウエアとソフトウエアの組合せで構成されている場合、その構成要素であるデータ入出力処理部231乃至映像出力処理部237のそれぞれは、構成が可能であれば、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組合せで構成してもよい。
映像主処理部221は、図1の映像主処理部21と基本的に同様の機能と構成を有することができる。従って、映像主処理部221の詳細な説明については省略する。
UI入力処理部222は、UI212からの出力コードを受け、次のような2つのユーザ要求に対する処理を行う。一つは、所望の映像ソースを選択し、その再生を開始させたり、終了させたりする要求である。もう一つは、各表示画面(各表示フレーム)全体の中から所望のオブジェクトを含む部分領域を別モニタ(図10の例では部分画面拡大表示装置214)に表示させる要求である。
前者のユーザ要求に対応する処理は、図1のUI入力処理部22の処理と基本的に同様の処理であるので、その説明については省略する。そこで、以下、後者のユーザ要求に対応する処理について説明する。なお、その説明の合間にさらに、ネットワーク入出力処理部224の説明も併せて行う。
例えばいま、後述するメタデータ生成装置202には、映像データ記憶部211に記憶されている映像ソースデータ(映像ストリーム)のそれぞれについて、対応する映像ストリームに含まれるオブジェクトのうちの部分拡大が可能なオブジェクトを特定可能な情報(その名称やID)が羅列されたリスト(以下、オブジェクトリストと称する)がメタデータのひとつとして記憶されているとする。さらに、メタデータ生成装置202には、そのオブジェクトリストに含まれる各オブジェクトのそれぞれについて、対応するオブジェクトの配置位置とサイズ(正確には、そのオブジェクトを囲む部分画面枠の配置位置とサイズ)もメタデータのひとつとして記憶されているとする。
この場合、UI入力処理部222は、これから再生させる映像ストリーム(映像ソースデータ)を選択した後、その再生を開始させる前に、選択された映像ストリームについてのメタデータの取得要求を、ネットワーク入出力処理部224とネットワーク203を介してメタデータ生成装置202に対して行う。すると、メタデータ生成装置202は、その映像ストリームについての上述したメタデータをネットワーク203を介して送信してくるので、UI入力処理部222は、そのメタデータをネットワーク入出力処理部224を介して受信する。
このように、ネットワーク入出力処理部224は、ネットワーク203経由でリモートシステム(図10の例ではメタデータ生成装置202)にメタデータの取得要求を行ったり、その取得要求に対する応答としてメタデータ生成装置202から送信されてくるメタデータをネットワーク203を介して受信する。ネットワーク入出力処理部224は、受信されたメタデータを、上述したUI入力処理部222の他、メタデータ解析部223にも供給する。
ところで、このようにしてメタデータがUI入力処理部222に受信されると、UI入力処理部222は、受信されたメタデータのうちのオブジェクトリストを、全画面表示装置213または部分画面拡大表示装置214に表示させる(ただし、図10においては、対応する矢印は図示せず)。
ユーザは、このオブジェクトリストを見ながらUI212を操作することで、着目するオブジェクト(部分画面拡大表示装置214に拡大表示させたいオブジェクト)を選択することができる。即ち、UI212は、選択されたオブジェクトを示す信号(以下、オブジェクト選択信号と称する)をUI入力処理部222に供給する。
なお、ここでは、オブジェクトリストには、各オブジェクトのそれぞれに付されたIDが少なくとも含まれているとする。この場合、UI入力処理部222は、供給されたオブジェクト選択信号で特定されるオブジェクトのIDをオブジェクトリストから取得し、メタデータ解析部223に供給する。
なお、上述した例では、オブジェクトリストも含めてメタデータの一括取得要求がなされたが、後述する図13のフローチャートに示されるように、オブジェトリストの取得要求と、その他のメタデータの取得要求とが個別に発行されてもよい。
以上、UI入力処理部222とネットワーク入出力処理部224について説明した。次に、メタデータ解析部223について説明する。
メタデータ解析部223は、上述したように、ユーザが着目するオブジェクト、即ち、これから部分画面表示が行われるオブジェクトのIDをUI入力処理部222から取得する。
また、メタデータ解析部223は、上述したように、再生映像ストリーム(映像データ記憶部211に記憶されている映像ソースデータのうちの、ユーザにより選択された映像ソースデータ)についてのメタデータをネットワーク入出力処理部224(出力元はメタデータ生成装置202)から取得する。即ち、メタデータ解析部223は、再生映像ストリームを構成する各フレームのそれぞれについてのメタデータ(対応するフレームにおける部分画面枠の配置位置とサイズを特定可能な情報)をネットワーク入出力処理部224から入手する。
さらに、メタデータ解析部223は、再生映像ストリーム(映像データ記憶部212からデータ入出力処理部231により取得された映像ソースデータが、復号処理部232によりデコードされ、その結果得られるストリームデータ)を構成する各フレームのそれぞれの再生時刻とフレーム番号を示す情報を取得する。
そして、メタデータ解析部223は、このようにして取得した各種情報に基づいて、各フレームのそれぞれ毎(再生時刻毎)に、部分画面枠の設定情報、即ち、部分画面枠の表示のon/off 情報、部分画面枠の位置情報、部分画面枠のサイズ情報を更新していき、その更新結果(設定情報)を映像データ重畳部234および表示装置適合処理部236に順次供給する。
即ち、第1実施形態の図1の映像処理装置1では、ユーザの手動操作に対応する情報に基づいて、部分画面枠の設定情報を生成する(更新する)表示設定部23が設けられていた。これに対して、第3実施形態の図10の映像処理装置201では、表示設定部23の代わりに、メタデータ生成装置202により生成されたメタデータ等に基づいて、部分画面枠の設定情報を生成するメタデータ解析部223が設けられているのである。
以上、ユーザ側のローカルシステムにおける映像処理装置201の機能的構成例について説明した。
次に、図11を参照して、リモート側にあるメタデータ生成装置202の機能的構成例について説明する。即ち、図11は、メタデータ生成装置202の機能的構成例を示している。
なお、以下、メタデータ生成装置202を使用する者(主に自然人)をメタデータ作成者と称する。メタデータ作成者は、一般的にローカル側のユーザ(図10の映像処理装置201を使用する者)とは異なる者であるが、ローカル側のユーザ自身となることもあり得る。なお、メタデータ作成者とローカル側のユーザとが一致する場合、即ち、ローカル側のユーザがメタデータを作成する場合、図10のように、映像処理装置201とメタデータ生成装置202とを個別に設けてもよいが、メタデータ生成装置202の機能を映像処理装置201にさらに搭載させると好適である。ユーザにとっては1台の映像処理装置201を用意すればよいからである。
ところで、メタデータ作成者は、メタデータ生成装置202を用いて、ローカル側のユーザが視聴する可能性のある映像について、その映像に含まれるオブジェクトの中から、そのユーザが着目する可能性のあるオブジェクトを選択し、選択されたオブジェクトについてのメタデータを1以上作成する。このため、リモート側ではメタデータ作成者がユーザとなり、対象の映像ソース(データ)を再生させ、UI312を用いて、第1実施形態のユーザ(図1の映像処理装置1を使用するユーザ)と同様に、先に選択されたオブジェクトの変化(移動やサイズ変更)に追従させるように、即ち、そのオブジェクトを囲むように、部分画面枠の動き(移動方向や移動量、サイズ変更等)を操作する。
このため、図11に示されるように、メタデータ生成装置202には、映像処理部321乃至ネットワーク入出力処理部325が設けられている。また、この映像処理部321には、データ入出力処理部331乃至映像出力処理部337が設けられている。
映像処理部321乃至ネットワーク入出力処理部325のそれぞれは、構成が可能であれば、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組合せで構成してもよい。また、映像処理部321がハードウエアとソフトウエアの組合せで構成されている場合、その構成要素であるデータ入出力処理部331乃至映像出力処理部337のそれぞれは、構成が可能であれば、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組合せで構成してもよい。
映像主処理部321は、図1の映像主処理部21と基本的に同様の機能と構成を有することができる。従って、映像主処理部321の詳細な説明については省略する。
同様に、UI入力処理部322と表示設定部323とのそれぞれも、図1のUI入力処理部22と表示設定部23のそれぞれと基本的に同様の機能と構成を有している。従って、UI入力処理部322と表示設定部323の詳細な説明については省略する。
換言すると、メタデータ生成装置202とは、図1の映像処理装置1に対してさらにメタデータの生成機能が搭載された映像処理装置であると言え、このため、メタデータ生成装置202には、オブジェクトメタデータ生成部324とネットワーク入出力処理部325がさらに設けられているとも言える。
従って、メタデータ生成装置202は、上述した図8の2画面表示制御処理を実行することができる。
オブジェクトメタデータ生成部324は、このような図8の2画面表示制御処理が実行されている最中にメタデータを生成する。即ち、図8の2画面表示制御処理が実行されている間、表示設定部323は、全画面表示装置313の表示画面として順次表示される各フレーム(図11の例ではフレーム251)のそれぞれについて、部分画面枠(図11の例ではオブジェクト261を含む部分領域252と同一形状の部分画面枠253)の設定情報を順次生成(更新)している。そこで、オブジェクトメタデータ生成部324は、各フレームのそれぞれについての部分画面枠の設定情報のうちの、部分画面枠の位置情報とサイズ情報を表示設定部323からその都度受け取り、それらの情報に基づいて、各フレームのそれぞれについてのメタデータを順次生成していく。
なお、1つの映像ストリームの中には、ローカル側のユーザが着目し得るオブジェクトは複数個含まれていることが多い。このような場合、メタデータ作成者は、複数のオブジェクトのそれぞれ毎に、図8の2画面表示制御処理を繰り返し実行させることで、複数のオブジェクトのそれぞれについてのメタデータをオブジェクトメタデータ生成部324に生成させればよい。
具体的には例えばいま、1つの映像ストリーム(各フレーム)内に、ユーザが着目し得るオブジェクトが3個含まれているとする。この場合、オブジェクトメタデータ生成部324は、その映像ストリームを構成する各フレームのそれぞれ毎に、図12に示されるようなメタデータを生成することになる。即ち、図12は、メタデータの具体例を示している。
図12において、フレーム251A乃至フレーム2511Cのそれぞれは、その順番に連続して再生されるフレームを示している。また、ユーザが着目し得るオブジェクトは、obja,objb,objcと記述されているので、ここでもそのように称する。
例えば、最初にobjaに対する図8の2画面表示制御処理が実行されたとする。この場合、図11のオブジェクトメタデータ生成部324は、例えばフレーム251Aが全画面表示装置313に表示されるとき若しくはその近傍に、objaを囲む部分画面枠253aの位置情報とサイズ情報を表示設定部323から取得する。そして、オブジェクトメタデータ生成部324は、objaのID(例えば図12に示されるように、「obja」)、フレーム251Aのフレーム番号(例えば図12に示されるように#1)、部分画面枠253aの中心点を示す座標(x1, y1)、および、部分画面枠253aのサイズを示すx軸方向およびy軸方向の画素数(lx1, ly1)を含むメタデータを生成する(後述するメタデータ351Aの上から1行目の情報を生成する)。
なお、部分画面枠253aの中心点を示す座標(x1, y1)と、部分画面枠253aのサイズを示すx軸方向およびy軸方向の画素数(lx1, ly1)とは、図11の全画面表示装置313の表示解像度での換算値(即ち、表示設定部323から供給される設定情報そのもの)であってもよいが、オリジナル解像度(映像データ記憶部311に記憶されている映像ソースデータが有する解像度)での換算値の方が好適である。全画面表示装置313の表示解像度と図10の全画面表示装置213(ローカル側のユーザが使用するモニタ)の表示解像度とは必ずしも一致しないからである。このことは、後述する部分画面枠253bや部分画面枠253cを含むその他の部分画面枠についても同様である。
オブジェクトメタデータ生成部324は、その他のフレーム(例えば図12に示されるフレーム251Bやフレーム251C)についても全く同様の処理を実行することで、対応するフレームにおけるobjaについてのメタデータ(部分画面枠253aの配置位置とサイズを特定可能な情報)を生成していく。
その次に、例えばobjbに対する図8の2画面表示制御処理が実行されたとする。この場合、オブジェクトメタデータ生成部324は、例えばフレーム251Aが全画面表示装置313に表示されているとき若しくはその近傍に、objbを囲む部分画面枠253bの位置情報とサイズ情報を表示設定部323から取得する。そして、オブジェクトメタデータ生成部324は、objbのID(例えば図12に示されるように、「objb」)、フレーム251Aのフレーム番号(例えば図12に示されるように#1)、部分画面枠253bの中心点を示す座標(x2, y2)、および、部分画面枠253bのサイズを示すx軸方向およびy軸方向の画素数(lx2, ly2)を含むメタデータを生成する(後述するメタデータ351Aの上から2行目の情報を生成する)。
オブジェクトメタデータ生成部324は、その他のフレーム(例えば図12に示されるフレーム251Bやフレーム251C)についても全く同様の処理を実行することで、対応するフレームにおけるobjbについてのメタデータ(部分画面枠253bの配置位置とサイズを特定可能な情報)を生成していく。
そして最後に、例えばobjcに対する図8の2画面表示制御処理が実行されたとする。この場合、オブジェクトメタデータ生成部324は、例えばフレーム251Aが全画面表示装置313に表示されているとき若しくはその近傍に、objcを囲む部分画面枠253cの位置情報とサイズ情報を表示設定部323から取得する。そして、オブジェクトメタデータ生成部324は、objcのID(例えば図12に示されるように、「objc」)、フレーム251Aのフレーム番号(例えば図12に示されるように#1)、および、部分画面枠253cの中心点を示す座標(x3, y3)、部分画面枠253cのサイズを示すx軸方向およびy軸方向の画素数(lx3, ly3)を含むメタデータを生成する(後述するメタデータ351Aの上から3行目の情報を生成する)。
オブジェクトメタデータ生成部324は、その他のフレーム(例えば図12に示されるフレーム251Bやフレーム251C)についても全く同様の処理を実行することで、対応するフレームにおけるobjcについてのメタデータ(部分画面枠253cの配置位置とサイズを特定可能な情報)を生成していく。
以上のオブジェクトメタデータ生成部324の処理の結果、フレーム251C乃至フレーム251Cを含む映像ストリームのメタデータとして、図12に示されるような、フレーム251Aについてのメタデータ351A、フレーム251Bについてのメタデータ351B、および、フレーム251Cについてのメタデータ351Cを含む各フレームのそれぞれについてのメタデータが生成される。
さらに、オブジェクトメタデータ生成部324は、上述したように、obj1,obj2,obj3のそれぞれのIDを少なくとも含むオブジェクトリストもメタデータの一つとして生成する。
図11に戻り、このようにしてオブジェクトメタデータ生成部324により生成されたメタデータは、データ入出力処理部331を介して映像データ記憶部311に記憶される。
以上、オブジェクトメタデータ生成部324について説明した。次に、残りのネットワーク入出力処理部325について説明する。
ネットワーク入出力処理部325は、ネットワーク203経由でローカルシステム(ここでは図10の映像処理装置201)からのメタデータの取得要求を受信する。ネットワーク入出力処理部325はまた、その取得要求に対応するメタデータをデータ入出力処理部331を介して映像データ記憶部311から取得し、ネットワーク203経由でローカルシステム(ここでは図10の映像処理装置201)に送信する。
以上、図10と図11を参照して、ローカルシステム側の映像処理装置201の機能的構成例と、リモートシステム側のメタデータ生成装置202の機能的構成例について説明した。
次に、図13のフローチャートを参照して、ローカルシステム側の映像処理装置201の2画面表示制御処理例と、リモートシステム側のメタデータ生成装置202の対応する処理例について説明する。
なお、リモートシステム側のメタデータ生成装置202においては、上述した図8の2画面表示制御処理が繰り返し実行され、その結果として、上述した各種メタデータが予め生成され保持されているとする。
また、コマンドは、ユーザ操作に基づくUI212から出力される出力コード(パラメータ等)に基づいてUI入力処理部222により生成されるが、以下、説明の簡略上、UI212から直接供給されるとみなして説明していく。
ステップS41において、映像処理装置201は、映像ソース選択コマンドがUI212から発行されたか否かを判定する。
ステップS41において、映像ソース選択コマンドが発行されていないと判定されると、処理はステップS41に戻され、映像ソース選択コマンドが発行されたか否かが再度判定される。
映像ソース選択コマンドがUI212から発行されると、ステップS41の処理でYESであると判定されて、処理はステップS42に進む。
ステップS42において、映像処理装置201は、選択された映像ソースのオブジェクトリスト要求をネットワーク203を介してメタデータ生成装置202に発行する。
なお、図13中、左側のフローチャートと右側のフローチャートのうちの一方から他方へ引かれた矢印は、情報の流れを示している。例えば、ステップS42のブロックから引かれた矢印は、オブジェクトリスト要求が、映像処理装置201からメタデータ生成装置202に送信されたことを示している。このことは、後述する他のフローチャートやアローチャートでも同様とされる。
ところで、このようにして、ステップS42の処理でオブジェクトリスト要求が発行されるまで、メタデータ生成装置202は、ステップS61において、オブジェクトリスト要求が発行されていないと判定し、処理をステップS61に戻し、オブジェクトリスト要求が発行されたか否かを再度判定する、といった処理を繰り返している。
そして、ステップS42の処理でオブジェクトリスト要求が発行されると、ステップS61でYESであると判定されて、処理はステップS62に進む。
ステップS62において、メタデータ生成装置202は、オブジェクトリストをネットワーク203を介して映像処理装置201に送信する。
すると、映像処理装置201は、ステップS43において、オブジェクトリストを受信し、ステップS44において、そのオブジェクトリストを例えば全画面表示装置213に表示させる。
ステップS45において、映像処理装置201は、オブジェクト決定コマンドが発行されたか否かを判定する。
ステップS45において、オブジェクト決定コマンドが発行されていないと判定された場合、処理はステップS45に戻され、オブジェクト決定コマンドが発行されたか否かが再度判定される。
ユーザが、UI212を操作して、オブジェクトリストに含まれる所定のオブジェクトを選択すると、ステップS45において、オブジェクトリスト決定コマンドが発行されたと判定されて、処理はステップS46に進む。
ステップS46において、映像処理装置201は、ユーザにより決定されたオブジェクトに対応するメタデータ取得要求を、ネットワーク203を介してメタデータ生成装置202に発行する。
ところで、このようにして、ステップS46の処理でメタデータ取得要求が発行されるまで、メタデータ生成装置202は、ステップS63において、メタデータ取得要求が発行されていないと判定し、処理をステップS63に戻し、メタデータ取得要求が発行されたか否かを再度判定する、といった処理を繰り返している。
そして、ステップS46の処理でメタデータ取得要求が発行されると、ステップS63でYESであると判定されて、処理はステップS64に進む。
ステップS64において、メタデータ生成装置202は、メタデータをネットワーク203を介して映像処理装置201に送信する。これにより、メタデータ生成装置202側の処理は終了となる。
すると、映像処理装置201は、ステップS47において、メタデータを受信し、ステップS48において、メタデータ受信終了のメッセージを例えば全画面表示装置213に表示させる。
なお、このとき映像処理装置201に受信されるメタデータとは、ローカル側のユーザ(映像処理装置201を使用するユーザ)により選択された映像ソースを構成する各フレームのそれぞれについてのメタデータ(例えば、上述した図12のメタデータ351A乃至メタデータ351C等)である。ただし、この時点で、ユーザが着目するオブジェクトは既に決定されているので、決定されたオブジェクトについてのメタデータだけが受信されてもよい。具体的には例えば図12の例では、ユーザが着目するオブジェクトがobjaとされると、メタデータ351A乃至メタデータ351Cの全てではなく、それらのうちの1行目の情報(その上のフレーム番号も含む)だけが受信されてもよい。
その後、図13のステップS49において、映像処理装置201は、再生コマンドが発行されたか否かを判定する。
ステップS49において、再生コマンドが発行されていないと判定された場合、処理はステップS49に戻され、再生コマンドが発行されたか否かが再度判定される。
ユーザが、UI212を操作して、ステップS41の処理で選択された映像ソースの再生を指示すると、ステップS49において、再生コマンドが発行されたと判定されて、処理はステップS50に進む。
ステップS50において、映像処理装置201は、映像ソースの再生を開始し、全画面表示装置213に表示させる。
そして、ステップS51において、映像処理装置201は、ステップS47の処理で受信されたメタデータに基づいて、全画面表示装置213に表示されているフレーム内のオブジェクト(ステップS45の処理でユーザにより決定されたオブジェクト)の周囲に部分画面枠を表示させる。また、ステップS52において、映像処理装置201は、部分画面枠内の映像(即ち部分領域)を拡大して、部分画面拡大表示装置214に表示させる
なお、ステップS51とS52の処理の順番は、図8のステップS4とS5と同様に特に限定されない。
ステップS53において、映像処理装置201は、全フレーム再生したか否かを判定する。
ステップS53において、全フレーム再生していないと判定されると、処理はステップS51に戻され、それ以降の処理が繰り返される。即ち、各フレームが全画面表示装置213に順次表示される毎に、上述したステップS51とS52の処理により、部分画面枠が全画面表示装置13の対応する位置に表示されるとともに、その部分画面枠内の部分領域が部分画面拡大装置214に全画面表示されるのである。
そして、全フレームの再生が終了すると、ステップS53の処理でYESであると判定されて、映像処理装置201の2画面表示制御処理も終了となる。
以上、第3実施形態の情報処理装置について説明した。
(第4実施形態)
次に、第4実施形態の情報処理装置について説明する。
第4実施形態とは、リアルタイムで所望のメタデータを生成する(後述するソフトウエアセルを使用する)実施の形態である。詳細には、第4実施形態とは次のような処理を実行する情報処理装置(ローカル機器)の実施の一形態である。
即ち、ローカル機器側では、特定のオブジェクトを含む部分画面枠の表示範囲(配置位置とサイズ)の初期値をユーザが指定する。所定の処理能力を有し、処理資源を確保可能なリモート機器(詳細は後述する)に対して、部分画面枠を表示させるオリジナル映像ストリームの符号化データ、その符号化データを復号するアルゴリズム、および上述した自動追尾アルゴリズム(その他必要なプログラム)を含む情報(以下、このような情報をソフトウエアセルと称する)をあらかじめ配布する。ローカル機器では、ユーザインタフェースにより、部分画面枠の表示範囲の初期値のみを設定し、その設定値と、そのときの時刻情報(フレームのタイムスタンプ等)とを合わせた情報(以下、部分画面情報と称する)を上述したリモート機器へ送る。リモート機器では、上述した符号化データを復号しながら、特定オブジェクトを追尾するアルゴリズムを動作させることにより、部分画面枠の移動量や拡大量を更新させる。そして、リモート機器が、移動量、拡大量、および時刻情報を含む情報をローカル機器に送ることにより、ローカル機器側では部分画面枠を表示させる。ローカル機器側では、オブジェクトの指定を変更する場合には、ユーザインタフェースにより、部分画面枠の表示範囲の初期値の再設定を行う。この場合は上述した初期値が最初に設定されたときの上述した処理と同様の処理が実行される。このような処理を実行するローカル機器が、第4実施形態の情報処理装置である。
換言すると、上述した第1実施形態乃至第3実施形態とは、次のような機能を、映像処理装置(例えば図1の映像処理装置1等)1台に搭載させる実施の形態であった。
即ち、外部に接続されている記憶媒体(例えば図1の映像データ記憶部11等)に保存されている符号化された映像ソースデータを復号し、その結果得られる映像ストリームを外部のモニタ(例えば図1の全画面表示装置13)に表示させながら、そのモニタの表示画面(表示フレーム)のうちのユーザが着目するオブジェクトを含む部分領域(部分画面枠)の位置情報やサイズ情報を抽出し、映像ストリーム(ソース映像)から対応する部分領域を切り出し、別の表示モニタ(例えば図1の部分画面拡大表示装置14等)に最高解像度で全画面再生を行う機能である。
これに対して、第4実施形態とは、このような機能をソフトウエアセルを用いて複数の情報処理装置に分散させて実現させる実施の形態であると言える。即ち、第4実施形態の情報処理装置(ローカル機器)と、他の情報処理装置(リモート機器)とが分散処理を行うことで、このような機能を実現させる。
このような第4実施形態の映像処理装置のハードウエア構成例と、その映像処理装置を一構成要素として含む映像処理システムが図14に示されている。そこで、図14を参照して、第4実施形態の映像処理装置のハードウエア構成例と、その映像処理装置一構成要素として含む映像処理システムについて説明する。
図14に示されるように、この映像処理システムにおいては、映像処理装置401A乃至映像処理装置401Cがネットワーク402を介して相互に接続されている。
映像処理装置401Aは、所定の分散処理の実行が指示されると、要求された処理を実行するために必要なデータおよびプログラムを含むソフトウエアセルを生成し、生成されたソフトウエアセルをネットワーク402を介して映像処理装置401Bまたは映像処理装置401Cに送信する。
映像処理装置401Bおよび映像処理装置401Cのそれぞれは、映像処理装置401Aから送信されてきたソフトウエアセルを受信し、受信されたソフトウエアセルに基づいて、要求された処理を実行する。映像処理装置401Bおよび映像処理装置401Cのそれぞれは、要求された処理を実行してから、要求された処理の結果得られたデータを、ネットワーク402を介して映像処理装置401Aに送信する。
映像処理装置401Aは、映像処理装置401Bまたは映像処理装置401Cから送信されてきたデータを受信し、受信されたデータに基づいて、所定の処理を実行するか、或いは受信されたデータを記録する。
映像処理装置401Aは、情報処理コントローラ421、メインメモリ422、外部記録装置423、バス424、映像出力I/F425、映像出力I/F426、UI入力I/F427、ネットワーム入出力I/F428、および、ドライブ429を含むように構成される。
情報処理コントローラ421は、メインメモリ422に記録されている各種のプログラムを実行し、映像処理装置401A全体を制御する。情報処理コントローラ421は、ソフトウエアセルを生成し、生成されたソフトウエアセルを、バス424を介してネットワーク入出力I/F428に供給する。情報処理コントローラ421は、ネットワーク入出力I/F428から供給されたデータを外部記録装置423に供給する。情報処理コントローラ421は、UI411からの指令をUI入力I/F427とバス424を介して取得し、その指令に基づいて、指定されたデータを、メインメモリ422または外部記録装置423から取得し、取得されたデータをバス424を介して、映像出力I/F425、映像出力I/F426、ネットワーク入出力I/F428、およびドライブ429のうちの少なくとも一つに供給する。
また、情報処理コントローラ421には、ネットワーク402全体を通して一意的に映像処理装置401A自身を特定できる装置IDが割り当てられている。
情報処理コントローラ421は、メインCPU(Central Processing Unit)431、DMAC(Direct Memory Access Controller)432、DC(Disk Controller)433、サブプロセッサ434乃至サブプロセッサ436、およびバス437を備えている。
メインCPU431、サブプロセッサ434乃至サブプロセッサ436、DMAC432、およびDC433は、バス437を介して相互に接続されている。また、メインCPU431には、自分自身を特定するためのメインプロセッサIDが識別子として割り当てられる。同様に、サブプロセッサ434乃至サブプロセッサ436のそれぞれには、自分自身を特定するためのサブプロセッサIDのそれぞれが識別子として割り当てられる。
メインCPU431は、サブプロセッサ434乃至サブプロセッサ436によるプログラムの実行のスケジュール管理、および情報処理コントローラ421(映像処理装置401A)の全体の管理を行う。メインCPU431は、ローカルストレージ(以下LSと称する)441を備え、メインメモリ422からロードしたデータおよびプログラムを、LS441に一時的に記憶させる。メインCPU431は、LS441からデータおよびプログラムを読み込み、読み込んだデータおよびプログラムに基づいて各種の処理を実行する。
メインCPU431は、ネットワーク402を介して接続されている映像処理装置401Bまたは映像処理装置401Cに分散処理を実行させる場合、ソフトウエアセルを生成し、生成されたソフトウエアセルを、バス437およびバス424を介して、ネットワーク入出力I/F428に供給する。また、メインCPU431は、管理のためのプログラム以外のプログラムを実行するように構成することもできる。この場合、メインCPU431は、サブプロセッサとして機能する。
サブプロセッサ434乃至サブプロセッサ436は、メインCPU431の制御に基づいて、並列的かつ独立にプログラムを実行してデータを処理する。さらに、必要に応じて、メインCPU431が実行するプログラムが、サブプロセッサ434乃至サブプロセッサ436のそれぞれが実行するプログラムのそれぞれと連携して動作するように構成することも可能である。
サブプロセッサ434乃至サブプロセッサ436のそれぞれはLSを備える。ただし、図14の例では、サブプロセッサ434のLS442のみ図示されている。サブプロセッサ434乃至サブプロセッサ436のそれぞれは、自分自身内部のLSのそれぞれに、必要に応じて、データおよびプログラムを一時的に記憶させる。サブプロセッサ434乃至サブプロセッサ436のそれぞれは、自分自身内部のLSのそれぞれからデータおよびプログラムを読み込み、読み込んだデータおよびプログラムを基に、各種の処理を実行する。
DMAC432は、図示せぬキー管理テーブル記録部(情報処理コントローラ421に設けられることが多い)に記録されている、メインプロセッサキー、サブプロセッサキー、およびアクセスキーを基に、メインCPU431およびサブプロセッサ434乃至サブプロセッサ436からのメインメモリ422に記憶されているプログラムおよびデータへのアクセスを管理する。
DC433は、メインCPU431およびサブプロセッサ434乃至サブプロセッサ436からの外部記録装置423へのアクセスを管理する。
メインメモリ422は、例えばRAM(Random Access Memory)から構成される。メインメモリ422は、メインCPU431およびサブプロセッサ434乃至サブプロセッサ436が実行する各種のプログラムおよびデータを一時的に記憶している。
外部記録装置423は、例えばハードディスクなどにより構成される。外部記録装置423は、メインCPU431およびサブプロセッサ434乃至サブプロセッサ436が実行する各種のプログラムおよびデータを記録している。また、外部記録装置423は、情報処理コントローラ421から供給されたデータを記録する。さらに、外部記録装置423には、映像データ記憶部451が設けられている。この映像データ記憶部451には、上述した他の実施の形態の映像データ記憶部(例えば図1の映像データ記憶部11等)と同様に、映像ソースデータが記憶される。
また、情報処理コントローラ421には、バス437とバス424とを介して、映像出力I/F425、映像出力I/F426、UI入力I/F427、および、ネットワーク入出力I/F428が接続されている。なお、I/Fとは、インタフェースの略記である。
映像出力I/F425には、全画面表示装置412が接続されている。全画面表示装置412は、上述した他の実施の形態の全画面表示装置(例えば図1の全画面表示装置13)と基本的に同様に機能と構成を有しているので、ここではその説明については省略する。
映像出力I/F426には、部分画面拡大表示装置413が接続されている。部分画面拡大表示装置413は、上述した他の実施の形態の部分画面拡大表示装置(例えば図1の部分画面拡大表示装置14)と基本的に同様に機能と構成を有しているので、ここではその説明については省略する。
UI入力I/F427には、UI411が接続されている。UI411は、上述した他の実施の形態のUI(例えば図1のUI12)と基本的に同様に機能と構成を有しているので、ここではその説明については省略する。
ネットワーク入出力I/F428は、情報処理コントローラ421から供給されたソフトウエアセルを、ネットワーク402を介して映像処理装置401Bまたは映像処理装置401Cに送信する。また、ネットワーク入出力I/F428は、映像処理装置401Bまたは映像処理装置401Cからネットワーク402を介して送信されてきたデータを受信し、バス424とバス437とを介して、情報処理コントローラ421に供給する。
さらに、情報処理コントロール421には、バス437とバス424を介してドライブ429が必要に応じて接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブル記録媒体414が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて外部記録装置423等にインストールされる。
なお、映像処理装置401Bと映像処理装置401Cのそれぞれは、映像処理装置401Aと同様に構成されるので、その説明は省略する。映像処理装置401A乃至映像処理装置401Cのそれぞれは、上述した構成に限らず、必要に応じて、機能を追加したり削除したりすることは可能であり、その機能に対応した構成をもつことが可能である。
このような映像処理装置401Aの情報処理コントローラ421で処理するソフトウエアの構成例が図15に示されている。そこで、以下、図15を参照して、情報処理コントローラ421で処理するソフトウエアについて説明する。
図15に示されるように、情報処理コントローラ421で処理するソフトウエアは、制御プログラム501、機能プログラム502、および、デバイスドライバ503に大別できる。
制御プログラム501は、情報処理コントローラ421のメインCPU431が実行するプログラムであって、能力交換プログラム601とMS(マスタ/スレーブ)マネージャ602とを含むプログラムである。なお、能力交換プログラム601とMSマネージャ602については後述する。
機能プログラム502は、復号処理611乃至表示装置適合処理615を含むプログラムである。デバイスドライバ503は、映像出力621乃至UI入力処理625を含むプログラムである。
以下、機能プログラム502に含まれる復号処理611乃至表示装置適合処理615と、デバイスドライバ503に含まれる映像出力621乃至UI入力処理625とについて順不同に個別に説明していく。
データ入出力処理623は、情報処理コントローラ421の外部に接続されている外部記録装置423に対するデータの読出しや書込みの制御をDC433を介して行う。即ち、データ入出力処理623は、例えば、ユーザにより選択された映像ソースデータ(圧縮符号化データ)を外部記録装置423の映像データ記憶部451から読み出し、後述する復号処理611へ供給する。換言すると、データ入出力処理623とは、上述した他の実施の形態のデータ入出力処理部(例えば図1のデータ入出力処理部31)の機能を有するプログラムであると言える。
復号処理611は、データ入出力処理623から供給された映像ソースデータ(圧縮符号化データ)をデコード(復号)し、その結果得られる映像ストリーム(データ)を表示装置適合処理612や表示装置適合処理615へ供給する。換言すると、復号処理611とは、上述した他の実施の形態の復号処理部(例えば図1の復号処理部32)の機能を有するプログラムであると言える。
表示装置適合処理612は、全画面表示装置412の表示解像度に関する情報を保持しており、復号処理611から供給された映像ストリームを構成する各フレーム、即ち、オリジナル画面のビットマップイメージデータの解像度を、オリジナル解像度から、全画面表示装置13の表示解像度に変換して、後述する映像データ重畳613に供給する。換言すると、表示装置適合処理612とは、上述した他の実施の形態の全画面表示装置(例えば図1の全画面表示装置13)に対する表示装置適合処理部(例えば図1の表示装置適合処理部33)の機能を有するプログラムであると言える。
映像データ重畳613には、表示適合処理612から出力されるフレーム(ビットマップイメージデータ)の他、部分画面枠(即ち部分領域)の設定情報も後述する表示設定614から供給される。そこで、映像データ重畳613は、表示設定614から供給された設定情報に基づいて、部分画面拡大表示装置413で再現される部分領域(表示範囲)と同形状の部分画面枠(ビットマップイメージデータ)を生成する。そして、映像データ重畳613は、生成された部分画面枠を、表示適合処理612から供給されたフレーム(ビットマップイメージデータ)の対応する位置の上に重ね合わせ、その結果得られるフレーム(ビットマップイメージデータ)を後述する映像出力621に供給する。換言すると、映像データ重畳613とは、上述した他の実施の形態の映像データ重畳部(例えば図1の映像データ重畳部34)の機能を有するプログラムであると言える。
映像出力621は、映像データ重畳613から供給されたフレームを、全画面表示装置412の入力形式に適する映像信号に変換して全画面表示装置412に供給する。換言すると、映像出力621とは、上述した他の実施の形態の全画面表示装置(例えば図1の全画面表示装置13)に対する映像出力処理部(例えば図1の映像出力処理部35)の機能を有するプログラムであると言える。
UI入力処理625は、UI411からの出力コードを受け、次のような2つのユーザ要求に対する処理を行う。一つは、所望の映像ソースを選択し、その再生を開始させたり、終了させたりする要求である。もう一つは、各表示画面(各表示フレーム)全体の中から所望のオブジェクトを含む部分領域を別モニタ(図14の例では部分画面拡大表示装置413)に表示させる要求である。換言すると、UI入力処理625とは、上述した他の実施の形態のUI入力処理部(例えば図1のUI入力処理部22)の機能を有するプログラムであると言える。従って、図1のUI入力処理部22には、図2に示されるコマンド解析部71乃至部分画面設定処理部73が設けられていたように、UI入力処理625にも、図16に示されるような、コマンド解析6251乃至部分画面設定処理6253が設けられる。即ち、コマンド解析6251乃至部分画面設定処理6253とは、コマンド解析部71乃至部分画面設定処理部73のそれぞれの機能を有するプログラムであると言えるので、ここでは、それらの詳細な説明については省略する。
図15に戻り、表示設定614は、全画面表示装置412の現在の表示画面(表示フレーム)における部分画面枠(部分画面拡大表示装置413に表示させるべき表示範囲)の設定情報、即ち、部分画面枠の表示のon/off 情報、部分画面枠の位置情報、および、部分画面枠のサイズ情報を保持する。そして、次のフレームにおける部分画面枠についてのコマンド(上述した第1実施形態と同様の第1のコマンド乃至第3のコマンド)がUI入力処理625の図16の部分画面設定処理6253から供給されてくると、表示設定614は、部分画面枠の表示のon/off 情報、部分画面枠の位置情報、および、部分画面枠のサイズ情報を更新し、それらの更新された情報を、次のフレームにおける部分画面枠の設定情報として保持するとともに、映像データ重畳613と表示装置適合処理615に供給する。換言すると、表示設定614とは、上述した第1実施の形態の図1の表示設定部23の機能を有するプログラムであると言える。
表示装置適合処理615は、復号処理611から順次出力されてくる各オリジナルフレーム(ビットマップイメージデータ)の中から、表示設定614により配置位置とサイズが設定(更新)された部分画面枠内の部分領域(ビットマップイメージデータ)を抽出し、その部分領域に対して表示装置適合処理612と同様の処理を実行する。換言すると、表示装置適合処理615とは、上述した他の実施の形態の部分画面拡大表示装置(例えば図1の部分画面拡大表示装置14)に対する表示装置適合処理部(例えば図1の表示装置適合処理部36)の機能を有するプログラムであると言える。
映像出力622は、上述した映像出力621と同様の機能を有している。即ち、映像出力622は、表示装置適合処理615から供給された部分領域(全画面表示装置412にほぼ同時に表示されるフレーム内のうちの、ユーザが着目するオブジェクトを含む部分領域)を、部分画面拡大表示装置413の入力形式に適する映像信号に変換して部分画面拡大表示装置413に供給する。換言すると、映像出力622とは、上述した他の実施の形態の部分画面拡大表示装置(例えば図1の部分画面拡大表示装置14)に対する映像出力処理部(例えば図1の映像出力処理部37)の機能を有するプログラムであると言える。
このように、機能プログラム502とデバイスドライバ503とは、第1実施形態の映像処理装置1の映像主処理部21乃至表示設定部23の全てをソフトウエアとハードウエアの組合せで構成した場合におけるソフトウエアの構成例を示しているとも言える。そして、図14の映像処理装置401Aがハードウエアの構成例を示しているとも言える。従って、映像処理装置401Aが、後述するように映像処理装置401Bや映像処理装置401Cと分散処理を行わずに、単独で全ての処理を実行する場合の実施の形態が、上述した第1実施形態に他ならないと言える。
以上、図14の映像処理装置401Aの情報処理コントローラ421で処理するソフトウエアの構成例について説明した。
次に、図17を参照して、映像処理装置401Bまたは映像処理装置401Cの図示せぬ情報コントローラで処理するソフトウエアの構成例について説明する。即ち、図17は、映像処理装置401Bまたは映像処理装置401Cの図示せぬ情報コントローラで処理するソフトウエアの構成例を示している。
図17に示されるように、映像処理装置401または映像処理装置401Cの図示せぬ情報処理コントローラで処理するソフトウエアは、制御プログラム504、機能プログラム505、および、デバイスドライバ506に大別できる。
なお、ここでは、映像処理装置401Bと映像処理装置401Cとのそれぞれには、制御プログラム504とデバイスドライバ506のうちのデータ入出力処理705のみが予め設けられており(インストールされており)、機能プログラム505とデバイスドライバ506のうちのネットワーク入出力処理706については、映像処理装置401Aから必要に応じてソフトウエアセルとして供給されるとする。即ち、機能プログラム505に含まれる復号処理703および自動追尾アルゴリズム704、並びに、デバイスドライバ506に含まれるネットワーク入出力処理706を含むソフトウエアセルが映像処理装置401Aから供給され、映像処理装置401Bまたは映像処理装置401Cの図示せぬメインメモリ等にロードされた段階で、図17に示されるプログラムの構成が完成されるとする。
制御プログラム504は、図15の制御プログラム501と同様の機能を有するプログラムである。このため、制御プログラム504にも、能力交換プログラム701とMSマネージャ702とが含まれている。なお、能力交換プログラム701とMSマネージャ702については後述する。
機能プログラム505は、復号処理703と自動追尾アルゴリズム704を含むプログラムである。デバイスドライバ506は、データ入出力処理705とネットワーク入出力処理706を含むプログラムである。
以下、機能プログラム505に含まれる復号処理703および自動追尾アルゴリズム704、並びに、デバイスドライバ506に含まれるデータ入出力処理705およびネットワーク入出力処理706について順不同に個別に説明していく。
データ入出力処理705は、映像処理装置401Bまたは映像処理装置401Cの情報処理コントローラの外部に接続されている図示せぬ外部記録装置(図14の外部記録装置423に相当)に対するデータの読出しや書込みの制御を図示せぬDC(図14のDC433に相当)を介して行う。
具体的には例えばいま、ユーザにより選択された映像ソースデータ(圧縮符号化データ)が映像処理装置401Aの外部記録装置423から読み出されてネットワーク402を介して映像処理装置401Bに供給されてきたとする(後述するように、ソフトウエアセルの一部として供給されてくる場合もある)。この場合、この映像ソースデータは、映像処理装置401Bの後述するネットワーク入出力処理706により受信されデータ入出力処理705に供給されてくる。そこで、データ入出力処理705は、その映像ソースデータを図示せぬ外部記録装置に記憶させる。さらに、データ入出力処理705は必要に応じて、その映像ソースデータを図示せぬ外部記録装置から読み出し、後述する復号処理703に供給する。
復号処理703は、データ入出力処理705から供給された映像ソースデータ(圧縮符号化データ)をデコード(復号)し、その結果得られる映像ストリーム(データ)を、時刻情報(各フレームの基準時刻に対する相対表示時刻を示す情報)とともに自動追尾アルゴリズム704に供給する。
自動追尾アルゴリズム704は、第2実施形態の図9の表示設定/自動追尾アルゴリズム実行部123の自動追尾モードを実現する機能を有するプログラムである。
具体的には例えばいま、部分画面枠の初期値としての位置情報やサイズ情報が、映像処理装置401Aからネットワーク402を介して映像処理装置401Bに送信されてきたとする。この場合、部分画面枠の初期値としての位置情報やサイズ情報は、映像処理装置401Bの後述するネットワーク入出力処理706により受信され自動追尾アルゴリズム704に供給されてくる。
自動追尾アルゴリズム704は、部分画面枠の初期値としての位置情報やサイズ情報を受け取った後は、その動作モードを第2実施形態で説明した自動追尾モードに推移させ、自動追尾アルゴリズムを動作させる。即ち、自動追尾アルゴリズム704は、復号処理703から供給された映像ストリームを構成する各フレームの中で、ユーザが着目するオブジェクトの動きを追尾し、その追尾結果に基づいて、部分画面枠の配置位置とサイズを順次決定(更新)し、順次決定(更新)される情報を、部分画面枠についての設定情報(更新情報)として後述するネットワーク入出力処理706に供給する。
ネットワーク入出力処理706は、映像処理装置401Aとの間でネットワーク402を介してやり取りされる上述した各種情報の送受信を制御する。
以上、図14の映像処理装置401Bや映像処理装置401Cの情報処理コントローラで処理するソフトウエアの構成例について説明した。
次に、図18のフローチャートを参照して、以上のようなプログラムにより実現される、映像処理装置401Aの2画面表示制御処理、映像処理装置401Bの対応する処理、および、映像処理装置401Cの対応する処理の一例について説明する
ステップS101において、映像処理装置401Aは、前準備処理を実行する。同様に、映像処理装置401Bと映像処理装置401Cのそれぞれも、ステップS201とステップS301のそれぞれにおいて、前準備処理を実行する。
このような前準備処理の詳細例が図19のフローチャートに示されている。そこで、以下、図19のフローチャートを参照して、映像処理装置401A乃至映像処理装置401Cのそれぞれの前準備処理について説明する。
はじめに、ステップS111において、映像処理装置401Aは、図15のMSマネージャ602を実行する。同様に、映像処理装置401Bと映像処理装置401Cのそれぞれも、ステップS211とS311のそれぞれにおいて、自分自身が保持する図17のMSマネージャ702のそれぞれを実行する。
即ち、ステップS111、S211、およびS311の処理で、各MSマネージャ(MSマネージャ602またはMSマネージャ702)が実行され、その結果として、映像処理装置401A乃至映像処理装置401Cのうちのいずれの装置がマスタ装置になって、いずれの装置がスレーブ装置になるのかが決定される。
ここでは、図18乃至図19に示されるように、映像処理装置401Bがマスタ装置となり、その他の映像処理装置401Aと映像処理装置401Cとがスレーブ装置となったとする。
次に、ステップS112において、映像処理装置401Aは、図15の能力交換プログラム601を実行する。同様に、映像処理装置401Bと映像処理装置401Cのそれぞれも、ステップS212とS312のそれぞれにおいて、自分自身が保持する図17の能力交換プログラム701のそれぞれを実行する。
即ち、ステップS112、S212、およびS312の処理で、各能力交換プログラム(能力交換プログラム601または能力交換プログラム701)が実行されることで、マスタ装置およびスレーブ装置における装置情報の取得がそれぞれ行われる。
以上の処理により、映像処理装置401A乃至映像処理装置401Cでの分散処理の実行が可能になる。
ところで、例えばここでは、第2実施形態の映像処理装置が実行する2画面表示制御処理と同様の処理が映像処理システム全体で分散されて実行されるとする。詳細には、その処理全体のうちの自動追尾モードに対応する処理(以下、部分画面追尾処理と称する)が、映像処理装置401Bまたは映像処理装置401Cにより実行され、それ以外の処理が、映像処理装置401Aにより実行されるとする。
従って、その後、UI411から部分画面追尾処理依頼コマンドが発行されると、映像処理装置401Aは、ステップS113において、それを受信し、ステップS114において、部分画面追尾処理確保コマンドを映像処理装置401B(マスタ)に送信する。
すると、映像処理装置401Bは、ステップS213において、部分画面追尾処理確保コマンドを受信し、ステップS214において、部分画面追尾処理を実行するスレーブを確定する。
なお、映像処理装置401A自身が部分画面追尾処理を実行するスレーブとして決定されてもよいが、この場合、第2実施形態の映像処理装置が実行する2画面表示制御処理と同様の処理の全てが、映像処理装置401Aのみにより実行されることになる。即ち、そのような処理は、第2実施形態の処理そのものであり、第4実施形態の特徴である分散処理は実現されない。そこで、ここでは、映像処理装置401Cが、部分画面追尾処理を実行するスレーブとして決定されるとする。
この場合、映像処理装置401Bは、ステップS215において、部分画面追尾返信コマンドを情報処理装置401Aに送信し、また、ステップS216において、部分画面追尾処理決定コマンドを映像処理装置401Cにより送信する。
すると、映像処理装置401Aは、ステップS115において、部分画面追尾返信コマンドを受信し、また、映像処理装置401Cは、ステップS313において、部分画面追尾処理決定コマンドを受信する。
その後、映像処理装置401Aは処理を待機する一方、映像処理装置401Cは処理をステップS314に進める。
映像処理装置401Cは、ステップS314において、部分画面追尾処理の実行に必要となる資源を確保すると、ステップS315において、部分画面追尾処理決定返信コマンドを映像処理装置401Bに送信する。
すると、映像処理装置401Bは、ステップS217において、部分画面追尾処理決定返信コマンドを受信し、ステップS218において、その部分画面追尾処理決定返信コマンドを映像処理装置401Aに送信する。即ち、映像処理装置401Cから送信された部分画面追尾処理決定返信コマンドは、映像処理装置401Bを介して映像処理装置401Aに供給される。これにより、映像処理装置401BのステップS201の前準備処理は終了となる。
ステップS116において、映像処理装置401Aは、部分画面追尾処理決定返信コマンドを受信する。
その後、UI411から映像ソース選択コマンドが発行されると、映像処理装置401Aは、ステップS117においてそれを受信し、映像ソース選択コマンドで指定された映像ソース(圧縮符号化データ)を図14の映像データ記憶部451から取得する。
そして、映像処理装置401Aは、ステップS118において、取得された映像ソース(符号化データ)、図17の自動追尾アルゴリズム(プログラム)704、復号処理(プログラム)703、ネットワーク入出力処理(プログラム)706を含むソフトウエアセルを生成し、ステップS119において、そのソフトウエアセルを映像処理装置401Cに送信する。
すると、映像処理装置401Cは、ステップS316において、そのソフトウエアセルを受信し、ステップS317において、そのソフトウエアセルに含まれるプログラムを図示せぬメインメモリ等へロードする。これにより、映像処理装置401Cにおいて、上述した図17のプログラム構成が完成するので、部分画面追尾処理の実行が何時でも可能になる。そこで、映像処理装置401Cは、ステップS318において、部分画面追尾処理レディコマンドを映像処理装置401Aに送信する。これにより、映像処理装置401CのステップS301の前準備処理は終了となる。
また、映像処理装置401Aは、ステップS120において、部分画面追尾処理レディコマンドを受信すると、ステップS101の前準備処理を終了させる。
図18に戻り、このようにして、ステップS101、S201、およびS301の前準備処理が終了すると、映像処理装置401Aにおいては、処理はステップS102に進められ、映像処理装置401Bにおいては、全体の処理が終了し、映像処理装置401Cにおいては、処理が待機される。
ステップS102において、映像処理装置401Aは、再生コマンドがUI411から発行されたか否かを判定する。
ステップS102において、再生コマンドがUI411から発行されていないと判定されると、処理はステップS102に戻され、再生コマンドがUI411から発行されたか否かが再度判定される。
その後、再生コマンドがUI411から発行されると、ステップS102でYESであると判定され、処理はステップS103に進む。
ステップS103において、映像処理装置401Aは、上述した図15の機能プログラム502とデバイスドライバ503とを利用して、第2実施形態の情報処理装置が実行する2画面表示制御処理と同様の処理のうちの部分画面追尾処理を除く処理を実行する。なお、以下、このようなステップS103の処理を映像表示制御処理と称する。
この間、映像処理装置401Cは、上述した図17の機能プログラム505とデバイスドライバ506とを利用して、部分画面追尾処理を実行する。なお、以下、このようなステップS302の部分画面追尾処理は、ステップS103の映像表示制御処理の補助処理であると言える。そこで、以下、ステップS302の処理を映像表示補助処理と称する。
このようなステップS103の映像表示制御処理とステップS302の映像表示補助処理の詳細例、換言すると、映像処理装置401Aと映像処理装置401Cとの分散処理の詳細例が、図20のフローチャートに示されている。そこで、以下、図20のフローチャートを参照して、映像処理装置401AのステップS103の映像表示制御処理と、映像処理装置401CのステップS302の映像表示補助処理の一例について説明する。
はじめに、映像処理装置401Aは、S141において、映像ソースの再生を開始する。即ち、図14の全画面表示装置412への映像ソースの表示が開始される。
その後、UI411から部分画面枠表示コマンドが発行されると、映像処理装置401Aは、ステップS142において、それを受信し、ステップS143において、全画面表示装置412に表示されているフレーム内の所定の位置に所定のサイズで部分画面枠を表示させる。
その後、ユーザは、UI411を手動操作することで、部分画面枠の配置位置とサイズを変更させる。即ち、映像処理装置401Aは、第2実施形態で説明した表示設定モードで動作することになる。
そして、ユーザが着目するオブジェクトを囲むような部分画面枠が全画面表示装置412に表示され、ユーザが、UI411を利用して、その部分画面枠を決定する指示操作を行うと、UI411は、部分画面枠決定コマンドを映像処理装置401Aに対して発行する。
すると、映像処理装置401Aは、ステップS144において、その部分画面枠決定コマンドを受信し、その動作モードを自動追尾モードに遷移させる。
ただし、上述したように、第4実施形態においては分散処理が行われるので、自動追尾モードに対応する部分画面追尾処理は、映像処理装置401A自身ではなく映像処理装置401Cにより実行される。
そこで、映像処理装置401Aは、ステップS145において、決定された部分画面枠の配置位置とサイズの初期値、および時刻情報(そのフレームの基準時刻に対する相対時刻を示す情報)を含む自動追尾アルゴリズム開始コマンドを映像処理装置401Cに送信する。
映像処理装置401Cは、ステップS341において、部分画面枠の配置位置とサイズの初期値、および時刻情報を含む自動追尾アルゴリズム開始コマンドを受信すると、ステップS342において、ソフトウエアセルとして既に供給されている映像ソース(図19のステップS316参照)の復号処理と自動追尾処理(部分画面追尾処理であって、ユーザが着目するオブジェクトを追尾する処理)を開始する。
映像処理装置401Cは、ステップS343において、自動追尾処理の結果に基づいて、表示対象フレームにおける、直前フレームに対する部分画面枠の移動量および拡大量を決定する。
なお、表示対象フレームとは、全画面表示装置412にこれから表示される所定のフレームを指す。ただし、表示対象フレームは、必ずしも現在の表示フレームの1つ後のフレーム(33msec後に表示予定のフレーム)とはならない。また、直前フレームとは、部分画面枠の更新間隔(時間間隔)だけ前に全画面表示装置412に表示されたフレームであって、必ずしも表示対象フレームの1つ前のフレームとはならない。
そして、ステップS344において、映像処理装置401Cは、表示対象フレームにおける部分画面枠の移動量および拡大量、並びに、時刻情報(表示対象フレームの基準時刻に対する相対表示時刻)を映像処理装置401Aに送信する。
すると、映像処理装置401Aは,ステップS146において、部分画面枠の移動量および拡大量、並びに時刻情報を受信し、ステップS147において、部分画面枠の移動量および拡大量、並びに時刻情報に基づき、表示対象フレームにおける部分画面枠の配置位置とサイズを決定する。
そして、映像処理装置401Aは、ステップS147において、部分画面枠を含む表示対象フレームを全画面表示装置412に全画面表示させ、また、ステップS148において、部分画面枠内の拡大映像(部分領域)を部分画面拡大表示装置413に全画面表示させる。
ステップS149において、映像処理装置401Aは、部分画面停止コマンドがUI411より発行されたか否かを判定する。
ステップS149において、部分画面停止コマンドがUI411より発行されていないと判定されると、処理はステップS146に戻され、それ以降の処理が繰り返される。
ところで、この間、映像処理装置401Cも、ステップS345において、部分画面停止コマンドが受信されたか否かを判定している。従って、映像処理装置401A側で、部分画面停止コマンドがUI411より発行されない限り、映像処理装置401C側でも、ステップS345において、部分画面停止コマンドが受信されていないと判定され、処理はステップS343に戻され、それ以降の処理が繰り返される。
即ち、映像処理装置401C側で復号された映像ストリーム(映像ソース)を構成する各フレームが順次表示対象フレームに設定され、継続して実行されている自動追尾処理の結果に基づいて、その表示対象フレームにおける部分画面枠の移動量と拡大量が決定され、それが映像処理装置401Aに順次送信される。
映像処理装置401A側では、映像ソースを構成する各フレームを全画面表示装置412に表示させていく。このとき、それらの各フレーム上に表示される部分画面枠は、オブジェクトに追従して移動したりサイズが変化されていくのである。また、各フレームのそれぞれの部分画面枠に対応する部分領域のそれぞれも、部分画面拡大表示装置413に表示される。即ち、部分画面拡大表示装置413には、ユーザが着目するオブジェクトがユーザに適する大きさで表示され続けるのである。
その後、UI411から部分画面停止コマンドが発行されると、ステップS149において、YESであると判定され、処理はステップS150に進む。
ステップS150において、映像処理装置401Aは、部分画面停止コマンドを映像処理装置401Cに送信する。
すると、映像処理装置401Cは、ステップS345において、部分画面停止コマンドを受信したと判定し、ステップS346において、映像ソースの復号処理と自動追尾処理を停止させる。そして、映像処理装置401Cは、ステップS347において、部分画面停止返信コマンドを映像処理装置401Aに送信する。これにより、映像処理装置401C側のステップS302の映像表示補助処理は終了となり、さらに、図18に示されるように、全体の処理も終了となる。
映像処理装置401Aも、ステップS151において、部分画面停止返信コマンドを受信すると、ステップS152において、全画面表示装置412における部分画面枠を消去し、また、部分画面拡大表示装置413の映像表示も停止させる。これにより、映像処理装置401A側のステップS103の映像表示制御処理は終了となり、さらに、図18に示されるように、2画面表示制御処理自体も終了となる。
以上、図面を参照して、第1実施形態乃至第4実施形態のそれぞれについて、その順番に個別に説明した。
ところで、上述した一連の処理は、上述したようにハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。
この場合、図1の映像処理装置1は、上述したように図14の映像処理装置401Aと同様のハードウエア構成とすることができる。同様に、図10の映像処理装置201、図11のメタデータ生成装置202、並びに、図14の映像処理装置401Bおよび映像処理装置401Cのそれぞれも、図14の映像処理装置401Aと同様のハードウエア構成とすることができる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
このようなプログラムを含む記録媒体は、図14に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブル記録媒体(パッケージメディア)414により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているメインメモリ422や、外部記録装置423に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。
本発明が適用される映像処理装置の機能的構成の一例を示すブロック図である。 図1のUI入力処理部の機能的構成の詳細例を示す機能ブロック図である。 図1の表示設定部の処理結果例を説明する図である。 図1の表示装置適合処理部が実行する処理のうちのサンプリングレートコンバート処理を説明する図である。 図1の表示装置適合処理部が実行する処理のうちのサンプリングレートコンバート処理を説明する図である。 図1の表示装置適合処理部が実行する処理のうちのサンプリングレートコンバート処理を説明する図である。 図1の表示装置適合処理部が実行する処理のうちのサンプリングレートコンバート処理を説明する図である。 図1の映像処理装置の2画面表示制御処理例を説明するフローチャートである。 図1の表示設定部の代わりに、図1の映像処理装置に搭載可能な表示設定/自動追尾アルゴ 本発明が適用される映像処理システムと、その一構成要素である映像処理装置の機能的構成の一例を示すブロック図である。 図10の映像処理システムの一構成要素であるメタデータ生成装置の機能的構成の一例を示すブロック図である。 図11のメタデータ生成装置により生成されるメタデータの例を示す図である。 図10の映像処理システムにおいて、映像処理装置の2画面表示制御処理例と、それに対応するメタデータ生成装置の処理例とを説明するフローチャートである。 本発明が適用される映像処理システムの構成と、その一構成要素である映像処理装置のハードウエア構成の一例を示すブロック図である。 図14の映像処理装置の情報コントローラが実行するプログラムの構成例を示す図である。 図15のUI入力(プログラム)の詳細な構成例を示す図である。 図14の他の映像処理装置(図15に対応する映像処理装置とは異なる映像処理装置)が実行するプログラムの構成例を示す図である。 図14の映像処理システムにおいて、映像処理装置の2画面表示制御処理例と、2台の他の映像処理装置の対応する処理例とを説明するフローチャートである。 図18の前準備処理の詳細例を説明するアローフローチャートである。 図18の映像表示制御処理例と映像表示補助処理例とを説明するアローフローチャートである。
符号の説明
1 映像処理装置, 11 映像データ記憶部, 12 UI, 13 全画面表示装置, 14 部分画面拡大表示装置, 21 映像主処理部, 22 UI入力処理部, 23 表示設定部, 31 データ入出力処理部, 32 復号処理部, 33 表示装置適合処理部, 34 映像データ重畳部, 35 映像出力処理部, 36 表示装置適合処理部, 37 映像出力処理部, 51 フレーム, 52 部分領域, 53 部分画面枠, 61 オブジェクト, 71 コマンド解析部, 72 ストリーム制御処理部, 73 部分画面設定処理部, 123 表示設定/自動追尾アルゴリズム, 201 映像処理装置, 202 メタデータ生成装置, 211 映像データ記憶部, 212 UI, 213 全画面表示装置, 214 部分画面拡大表示装置, 221 映像主処理部, 222 UI入力処理部, 223 メタデータ解析部, 224 ネットワーク入出力処理部, 231 データ入出力処理部, 232 復号処理部, 233 表示装置適合処理部, 234 映像データ重畳部, 235 映像出力処理部, 236 表示装置適合処理部, 237 映像出力処理部, 251 フレーム, 252 部分領域, 253 部分画面枠, 261 オブジェクト, 311 映像データ記憶部, 312 UI, 313 全画面表示装置, 314 部分画面拡大表示装置, 321 映像主処理部, 322 UI入力処理部, 323 表示設定部234 オブジェクトメタデータ生成部, 325 ネットワーク入出力部, 331 データ入出力処理部, 332 復号処理部, 333 表示装置適合処理部, 334 映像データ重畳部, 335 映像出力処理部, 336 表示装置適合処理部, 337 映像出力処理部, 401A乃至401C 映像処理装置, 411 UI, 412 全画面表示装置, 413 部分画面表示装置, 414 リムーバブル記録媒体, 421 情報処理コントローラ, 422 メインメモリ, 423 外部記録装置, 429 ドライブ, 501 制御プログラム, 502 機能プログラム, 503 デバイスドライバ, 504 制御プログラム, 505 機能プログラム, 506 デバイスドライバ, 601 能力交換プログラム, 602 MSマネージャ, 611 復号処理, 612 表示装置適合処理, 613 映像データ重畳, 614 表示設定, 615 表示装置適合処理, 621 映像出力, 622 映像出力, 623 データ入出力処理, 624 ネットワーク入出力処理, 625 UI入力処理, 701 能力交換プログラム, 702 MSマネージャ, 703 復号処理, 704 自動追尾アルゴリズム, 705 データ入出力処理, 706 ネットワーク入出力処理, 6251 コマンド解析, 6252 ストリーム制御処理, 6253 部分画面設定処理

Claims (8)

  1. 複数のアクセスユニットから構成される動画像の表示を制御する情報処理装置において、
    前記動画像を構成する複数の前記アクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御する第1の表示制御手段と、
    複数の前記アクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲を設定する設定手段と、
    複数の前記アクセスユニットのそれぞれから、前記設定手段により設定された前記表示範囲で特定される部分領域を順次切り出し、切り出された複数の前記部分領域のそれぞれに対して、前記第2の表示装置の表示形式に対応する画像に変換させる画像処理を順次施す画像処理手段と、
    前記画像処理手段により前記画像処理が施された複数の前記部分領域のそれぞれを前記第2の表示装置に順次表示させることを制御する第2の表示制御手段と
    を備えることを特徴とする情報処理装置。
  2. 前記複数の前記アクセスユニットのそれぞれについて、前記設定手段により設定された前記表示範囲で特定される前記部分領域の上に、その部分領域を囲む枠を合成させる合成手段をさらに備え、
    前記第1の表示制御手段は、前記合成手段により前記枠がそれぞれ合成された複数の前記アクセスユニットのそれぞれを前記第1の表示装置に順次表示させることを制御する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1の表示制御手段の制御により前記第1の表示装置に実際に表示されている前記枠の配置位置とサイズとのうちの少なくとも一方を更新するユーザからの指令を入力する入力手段をさらに備え、
    前記設定手段は、前記入力手段により入力された前記指令に基づいて、複数の前記アクセスユニットのそれぞれのうちの前記第1の表示装置にこれから表示されるアクセスユニットについての前記表示範囲を設定する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記設定手段は、
    さらに、前記第1の表示制御手段の制御により前記第1の表示装置に所定の時点で表示される前記枠内に存在するオブジェクトを追尾対象とし、複数の前記アクセスユニットのうちの前記第1の表示装置にこれから表示されるアクセスユニット間での前記オブジェクトの動きを追尾する追尾処理を実行し、
    前記第1の表示装置にこれから表示される前記アクセスユニットのそれぞれについて、対応するアクセスユニットの中から前記オブジェクトを含む所定の範囲を前記追尾処理の結果に基づいて特定し、特定された前記所定の範囲を前記表示範囲として設定する
    ことを特徴とする請求項2に記載の情報処理装置。
  5. 前記第1の表示制御手段の制御により前記第1の表示装置に所定の時点で表示される前記枠内に存在するオブジェクトを追尾対象とし、複数の前記アクセスユニットのうちの前記第1の表示装置にこれから表示されるアクセスユニット間での前記オブジェクトの動きを追尾する追尾処理を実行するために必要なソフトウエアと情報を他の情報処理装置に送信し、前記他の情報処理装置により前記追尾処理が実行されその結果が送信されてきた場合、前記追尾処理の結果を受信する通信手段をさらに備え、
    前記設定手段は、前記第1の表示装置にこれから表示される前記アクセスユニットのそれぞれについて、前記通信手段に受信された前記追尾処理の結果に基づいて、対応するアクセスユニットの中から前記オブジェクトを含む所定の範囲を特定し、特定された前記所定の範囲を前記表示範囲として設定する
    ことを特徴とする請求項2に記載の情報処理装置。
  6. 所定のオブジェクトのメタデータとして、複数の前記アクセスユニットのそれぞれにおける前記所定のオブジェクトの配置位置とサイズを特定可能な情報を保持している他の情報処理装置との間で通信を行い、前記所定のオブジェクトの前記メタデータを取得する取得手段をさらに備え、
    前記設定手段は、複数の前記アクセスユニットのそれぞれについて、前記取得手段により取得された前記所定のオブジェクトの前記メタデータに基づいて、対応するアクセスユニットの中から前記所定のオブジェクトを含む所定の範囲を特定し、特定された前記所定の範囲を前記表示範囲として設定する
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 複数のアクセスユニットから構成される動画像の表示を制御する情報処理装置の情報処理方法において、
    前記動画像を構成する複数の前記アクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御する第1の表示制御ステップと、
    複数の前記アクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲を設定する設定ステップと、
    複数の前記アクセスユニットのそれぞれから、前記設定ステップの処理により設定された前記表示範囲で特定される部分領域を順次切り出し、切り出された複数の前記部分領域のそれぞれに対して、前記第2の表示装置の表示形式に対応する画像に変換させる画像処理を順次施す画像処理ステップと、
    前記画像処理ステップの処理により前記画像処理が施された複数の前記部分領域のそれぞれを前記第2の表示装置に順次表示させることを制御する第2の表示制御ステップと
    を含むことを特徴とする情報処理方法。
  8. 複数のアクセスユニットから構成される動画像の表示を制御する処理をコンピュータに実行させるプログラムであって、
    前記動画像を構成する複数の前記アクセスユニットのそれぞれを第1の表示装置に順次表示させることを制御する第1の表示制御ステップと、
    複数の前記アクセスユニットのそれぞれについて、対応するアクセスユニットのうちの第2の表示装置に表示させるべき表示範囲を設定する設定ステップと、
    複数の前記アクセスユニットのそれぞれから、前記設定ステップの処理により設定された前記表示範囲で特定される部分領域を順次切り出し、切り出された複数の前記部分領域のそれぞれに対して、前記第2の表示装置の表示形式に対応する画像に変換させる画像処理を順次施す画像処理ステップと、
    前記画像処理ステップの処理により前記画像処理が施された複数の前記部分領域のそれぞれを前記第2の表示装置に順次表示させることを制御する第2の表示制御ステップと
    を含むことを特徴とするプログラム。
JP2004159708A 2004-05-28 2004-05-28 情報処理装置および方法、並びにプログラム Withdrawn JP2005341398A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004159708A JP2005341398A (ja) 2004-05-28 2004-05-28 情報処理装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004159708A JP2005341398A (ja) 2004-05-28 2004-05-28 情報処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2005341398A true JP2005341398A (ja) 2005-12-08

Family

ID=35494421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004159708A Withdrawn JP2005341398A (ja) 2004-05-28 2004-05-28 情報処理装置および方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP2005341398A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231988A (ja) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd 画像処理装置
JP2010245863A (ja) * 2009-04-07 2010-10-28 Canon Inc 放送受信装置及びその制御方法
JP2010268071A (ja) * 2009-05-12 2010-11-25 Canon Inc 映像表示装置およびその制御方法
WO2011007970A1 (en) * 2009-07-17 2011-01-20 Samsung Electronics Co.,Ltd. Method and apparatus for processing image
JP2011114349A (ja) * 2009-11-23 2011-06-09 Masahide Tanaka 画像情報出力装置
JP2012234562A (ja) * 2012-07-25 2012-11-29 Toshiba Corp 電子機器、電子機器の制御方法、およびプログラム
WO2013046910A1 (ja) * 2011-09-30 2013-04-04 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理システム、画像処理方法、情報記録媒体、ならびに、プログラム
JP2015142185A (ja) * 2014-01-27 2015-08-03 日本電信電話株式会社 視聴方法、視聴端末及び視聴プログラム
WO2023015961A1 (zh) * 2021-08-12 2023-02-16 荣耀终端有限公司 一种播放界面的显示方法及电子设备

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231988A (ja) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd 画像処理装置
JP2010245863A (ja) * 2009-04-07 2010-10-28 Canon Inc 放送受信装置及びその制御方法
JP2010268071A (ja) * 2009-05-12 2010-11-25 Canon Inc 映像表示装置およびその制御方法
WO2011007970A1 (en) * 2009-07-17 2011-01-20 Samsung Electronics Co.,Ltd. Method and apparatus for processing image
US8934025B2 (en) 2009-07-17 2015-01-13 Samsung Electronics Co., Ltd. Method and apparatus for processing image
JP2011114349A (ja) * 2009-11-23 2011-06-09 Masahide Tanaka 画像情報出力装置
WO2013046910A1 (ja) * 2011-09-30 2013-04-04 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理システム、画像処理方法、情報記録媒体、ならびに、プログラム
JP2013077974A (ja) * 2011-09-30 2013-04-25 Konami Digital Entertainment Co Ltd 画像処理装置、画像処理システム、画像処理方法、ならびに、プログラム
JP2012234562A (ja) * 2012-07-25 2012-11-29 Toshiba Corp 電子機器、電子機器の制御方法、およびプログラム
JP2015142185A (ja) * 2014-01-27 2015-08-03 日本電信電話株式会社 視聴方法、視聴端末及び視聴プログラム
WO2023015961A1 (zh) * 2021-08-12 2023-02-16 荣耀终端有限公司 一种播放界面的显示方法及电子设备

Similar Documents

Publication Publication Date Title
JP4556146B2 (ja) 情報処理装置および方法、プログラム、並びに情報処理システム
JP3992045B2 (ja) 映像信号処理装置及び該方法並びに仮想現実感生成装置
JP5029429B2 (ja) サーバ装置及びそれを備えたプロジェクタ及び表示システム
US20060139321A1 (en) Display status modifying apparatus and method, display status modifying program and storage medium storing the same, picture providing apparatus and method, picture providing program and storage medium storing the same, and picture providing system
US9065986B2 (en) Imaging apparatus and imaging system
JP5838925B2 (ja) 通信システム、端末装置、動画の表示方法、及びプログラム
JP5835932B2 (ja) 画像処理装置、及びその制御方法
JP2002335444A (ja) マルチ画面表示装置、マルチ画面表示方法、記録媒体、及びプログラム
JP2004357239A (ja) 映像システムの映像表示方法及び画像処理装置
JP2006094458A (ja) 映像信号処理装置および仮想現実感生成装置ならびに記録媒体
US20150110469A1 (en) Communication System, Terminal Device, Registration Method, and Storage Medium
JP2006270187A (ja) 撮影装置、情報処理装置、情報処理方法、プログラム、およびプログラム記録媒体
JP2005341398A (ja) 情報処理装置および方法、並びにプログラム
WO2019123957A1 (ja) 表示制御装置、表示制御方法
US20090214179A1 (en) Display processing apparatus, control method therefor, and display processing system
JP2006041884A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2008301191A (ja) 映像監視システム、映像監視制御装置、映像監視制御方法、及び映像監視制御用プログラム
JP2012120031A (ja) 映像処理装置及びその制御方法
WO2009113676A1 (ja) 画像表示システム及び同システムに用いる表示装置、並びに情報処理方法
JP2008035124A (ja) 画像再生装置及び画像再生方法
JP2000270261A (ja) 撮像装置及び画像合成方法並びに記録媒体
JP2011066585A (ja) 通信端末装置、通信制御方法、及び通信制御プログラム、
JP2002262190A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP3600555B2 (ja) 動画像編集装置及び動画像編集方法
JP2008153876A (ja) 画像表示システム、カメラ装置、表示処理装置、および、表示倍率変更方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807