JP2009246917A - Video display device, and video processing apparatus - Google Patents
Video display device, and video processing apparatus Download PDFInfo
- Publication number
- JP2009246917A JP2009246917A JP2008094472A JP2008094472A JP2009246917A JP 2009246917 A JP2009246917 A JP 2009246917A JP 2008094472 A JP2008094472 A JP 2008094472A JP 2008094472 A JP2008094472 A JP 2008094472A JP 2009246917 A JP2009246917 A JP 2009246917A
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- highlight
- input
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、入力映像におけるハイライト領域についての映像処理に関する。 The present invention relates to video processing for a highlight area in an input video.
映像表示装置の背景技術として、特許文献1には、1台の監視ビデオカメラの使用の下に、低解像度の全体画像および高解像度の部分画像を記録し、監視操作者の指示に応じて、高精細あるいは拡大して再生表示する技術が開示されている。特許文献2には、会鉛直方向を中心もしくは軸とした広角画像を入力する双曲面ミラーと、音声を入力する複数のマイクロフォンと、マイクロフォンに入力された音声に基づいて音源方向を検出する音源方向検出部と、広角画像と音声と音源方向を記録する記録部を有するテレビ会議システムが、記録された広角画像のうち、音源方向に対応する方向の所定領域の画像を矩形の出力画像となるように変形する技術が開示されている。
As background art of a video display device,
特許文献1に開示される技術にでは、ユーザが着目する領域を監視操作者が手動で設定する必要があるという課題があった。
In the technique disclosed in
また、特許文献2は、ユーザの着目する方向の決定に音声が必要であるという課題があった。
In addition,
本発明は上記課題を鑑みてなされたものであり、その目的は、ユーザの効率的な映像視聴を可能にすることである。 The present invention has been made in view of the above problems, and an object thereof is to enable efficient video viewing by the user.
本発明の一実施の形態は、例えば特許請求の範囲に記載されるように構成すればよい。 The embodiment of the present invention may be configured as described in the claims, for example.
本発明によれば、ユーザの効率的な映像視聴が可能である。 According to the present invention, the user can efficiently view the video.
以下、本発明による機器操作装置の実施形態(実施例)を図面を用いて説明する。ただし、本発明は以下の実施例に限定されるものではない。 Embodiments (examples) of an apparatus operating device according to the present invention will be described below with reference to the drawings. However, the present invention is not limited to the following examples.
なお、本願の各実施例において、「ハイライト領域」とは、映像の観視者(ユーザー)が注目すべき映像特徴を有する映像領域を意味する。すなわち注目度の高い映像領域、重要度の高い領域ともいえる。また、盛り上がり領域とも表現できる。 In each embodiment of the present application, the “highlight area” means a video area having a video feature that should be noted by a video viewer (user). In other words, it can be said that the video area has a high degree of attention and a high importance area. It can also be expressed as a rising area.
また、本願の各実施例において、「ハイライト得点」とは、映像中の領域ごとの、映像の観視者(ユーザー)が注目すべき指数であり、注目度、重要度ともいえる。また、盛り上がり度とも表現できる。 In each embodiment of the present application, the “highlight score” is an index that should be noticed by the viewer (user) of the image for each region in the image, and can be said to be the degree of attention and importance. It can also be expressed as a degree of excitement.
すなわち、「ハイライト得点」が高い領域ほど、注目すべき領域、重要度が高い領域といえる。 That is, it can be said that the region where the “highlight score” is higher is the region to be noted and the region having higher importance.
実施例1は、映像の同一画面内においてハイライト領域を検出し、ハイライト領域のみに高解像度化処理に行った映像を表示することで、ユーザの着目位置の喚起や、高解像度化処理に必要となる計算リソースの低減、ユーザの効率的な映像視聴などを可能とするものである。 In the first embodiment, a highlight area is detected within the same screen of the video, and the video that has been subjected to the high resolution processing is displayed only in the highlight area. This makes it possible to reduce the required computing resources and to allow users to efficiently view images.
図1は、実施例1の映像表示装置のハードウェア構成の一例を示した図である。 FIG. 1 is a diagram illustrating an example of a hardware configuration of the video display apparatus according to the first embodiment.
本例の装置は、映像入力装置101と、中央処理装置102と、指示入力装置103と、記憶装置104と、二次記憶装置105と、表示装置106を有する。各装置は、内部バス107によって接続され、各装置間で相互にデータの送受信が可能である。
The apparatus of this example includes a
映像入力装置101は、映像データを入力する。映像入力装置101は、例えば装置に接続したビデオカメラであったり、後述する記憶装置104あるいは二次記憶装置105に記憶されている映像データを読み込む装置としたり、テレビ放送等を受信する場合には、テレビのチューナとすることが出来る。
The
また、ネットワーク経由でweb動画等の映像を入力する場合には、本映像入力装置101をLANカード等のネットワークカードとすることが出来る。
In addition, when a video such as a web video is input via a network, the
中央処理装置102は、マイクロプロセッサを主体に構成され、記憶装置104や二次記憶装置105に格納されているプログラムを実行する。
The
指示入力装置103は、例えばリモコン、キーボード、マウス等のポインティングデバイスである。これは、ユーザの画像入力や表示の指示等を受け付ける。
The
表示装置106は、例えばディスプレイアダプタと液晶パネルやプロジェクタ等によって実現され、指示入力装置103によって入力した映像を表示する。
The
記憶装置104は、例えばランダムアクセスメモリ(RAM)やリードオンリーメモリ(ROM)等によって実現され、中央処理装置102 によって実行されるプログラムや本動画再生装置において処理されるデータ、あるいは再生対象の動画データやランキングデータ等を格納する。
The
二次記憶装置105は、例えばハードディスクやDVDあるいはCDとそれらのドライブ、あるいはフラッシュメモリ等の不揮発性メモリにより構成され、中央処理装置102によって実行されるプログラムや本動画再生装置において処理されるデータ、あるいは再生対象の映像データを格納する。
The
図2は、実施例1に係る映像表示装置の機能ブロック図の一例である。これらの機能ブロックの一部あるいは全部は、図1で示したハードウェアに加えてハードウェアとして実現されてもよいが、中央処理装置102によって実行されるソフトウェアプログラムとして実現されてもよい。なお、以下の説明では、一例として、これらの機能ブロックの全てが中央処理装置102によって実行されるソフトウェアプログラムであるものとして説明する。
FIG. 2 is an example of a functional block diagram of the video display apparatus according to the first embodiment. Some or all of these functional blocks may be realized as hardware in addition to the hardware shown in FIG. 1, or may be realized as a software program executed by the
図2に示す通り、映像入力再生装置は、映像入力部201と、指示入力部202と、ハイライト検出部203と、ハイライト得点テーブル記憶部204と、映像生成部205と、表示部206を有する。ハイライト検出部203は映像取得部207と、映像分割部208と、ハイライト得点算出部209と、ハイライト得点テーブル生成部210から構成される。映像生成部205は、高解像度化処理部211と、表示映像生成部212から構成される。
As shown in FIG. 2, the video input / playback apparatus includes a
映像入力部201は、高解像度化処理を行う映像を映像入力装置202より入力する。なお、映像入力部201は、指示入力部202からユーザによって映像の入力が指示された場合、あるいは図示しないスケジューラによって指示された場合に、中央処理装置102によって実行される。
The
ハイライト検出部203の映像取得部207は、映像入力部201が入力した映像から、後述するハイライト検出処理の対象とする時刻のフレームの映像を取得する。以降、映像に対応する時刻を指定するタイムスタンプをPTS(Presentation Time Stamp)とする。この映像の領域ごとのハイライト得点を算出し、ハイライト得点の一番高い領域のみを高解像度化処理するために、映像分割部208は、映像を複数の領域に分割する。ハイライト得点算出部209は、それぞれの分割領域に対して後述するハイライト得点を算出する。ハイライト得点テーブル生成部は、算出されたハイライト得点を、該当するPTSとそれぞれの分割領域とに対応させて、ハイライト得点テーブルに記録する。当該ハイライト得点テーブルは、ハイライト得点テーブル記憶部204に保持される。尚、ハイライト検出部203を構成する各部の処理は中央処理装置102によって実行される。
The
映像生成部205は、ハイライト得点テーブルを参照して入力した映像を処理し、出力映像を生成する。映像生成部205の高解像度化処理部211は、ハイライト得点テーブル記憶部204に保持されたハイライト得点テーブルを参照して、各PTSに対応するフレームにおけるハイライト得点の最も高い分割領域を判断し、該当画像に高解像度化処理を行う。表示映像生成部212は、高解像度化された分割領域と高解像度化されていない分割領域の合成を行い、表示する映像を生成する。尚、映像生成部205を構成する各部の処理は、中央処理装置102によって実行される。
The
表示部206は、映像生成部205で生成した映像を表示装置106に表示する。表示部206は、表示映像生成部が生成した映像を1フレームごとに表示装置106に表示する。この場合、表示部206の処理は、表示映像生成部によって1フレーム分の映像が生成されるごとに中央処理装置102によって実行される。
The
図3は、高解像度化処理部201による高解像度化処理の一例を説明する図である。
FIG. 3 is a diagram for explaining an example of the resolution enhancement processing by the resolution
まず(a)のように、時系列で隣接する、つまり連続するフレームの、複数(ここでは3枚)の原画像301〜303を準備し、小数精度で位置合わせを行う。(b)は、基準位置とする画像301に対して他の画像302,303を位置合わせした状態を示す。位置合わせは、回転や拡大・縮小などの動きも考慮する。こうして標本化位置が整数画素位置からずれた1枚の合成画像を生成する。その後(c)のように、目的とする解像度で再度サンプリングしなおして高解像画像304を生成する。再サンプリングにあたっては、ローパスフィルタを用いて画素数(サンプリング点)を補間して増やす方法、あるいは点広がり関数の逆関数を適用するなどの方法で周辺画素の影響を畳み込みながら、画素値を決定する。その結果、原画像の高周波成分を復元し、原画像に対して解像度が2倍程度の高解像度画像を生成する。この高解像度化処理は、画像の中の被写体が移動している連続画像に対して有効である。
First, as shown in (a), a plurality (three in this case) of
なお、高解像度化処理部201による高解像度化処理は上記の方法に限られず、その他従来の高解像度化処理を用いてもかまわない。
Note that the resolution enhancement processing by the resolution
図4は、実施例1に係る映像分割の一例である。 FIG. 4 is an example of video division according to the first embodiment.
映像入力部201が入力し、映像取得部207が取得した入力映像401は、一フレーム分の映像内で領域ごとのハイライト得点を算出するために、映像分割部208が2個以上の複数個の画像に分割する。例えば図4に示すように、分割領域A402、分割領域B203、分割領域C404、分割領域D405、の4個に分割する。入力映像401は、必ずしも矩形である必要はなく、他の形でもよく、例えば全周囲映像や魚眼映像のように円形であってもよい。また、分割領域の形は矩形でもよいし、他の形であってもよい。また、各分割領域の大きさや形は全て同じであってもよいし、異なっていてもよい。
The
ハイライト得点とは、映像の重要度を示す得点である。図4に示すように、映像のある一フレームを複数の領域に分割し、それぞれの分割領域のハイライト得点を算出する。これにより、ハイライト得点の一番高い分割領域をそのフレームでもっとも重要な領域、すなわちハイライト領域であるとすることができる。 A highlight score is a score indicating the importance of a video. As shown in FIG. 4, a certain frame of video is divided into a plurality of areas, and the highlight score of each divided area is calculated. As a result, the divided area having the highest highlight score can be regarded as the most important area in the frame, that is, the highlighted area.
図5は、ハイライト得点算出部におけるハイライト得点を算出する方法の一例を示す図である。 FIG. 5 is a diagram illustrating an example of a method for calculating a highlight score in the highlight score calculation unit.
まず、(a)は映像分割部208がN−1フレームの映像を分割して得た、N−1フレームの分割領域A501であり、同様に(b)はNフレームの分割領域A502である。この連続する2フレームの分割領域Aの画像を2値化し、各画素を比較し、画像のフレーム間差分を検出する。差分の有る画素は「1」、無い画素は「0」として2値画像を生成し、これを(c)の差分画像503とする。「1」で示される、差分の有る画素の合計を、Nフレームにおける分割領域A502のハイライト得点となる。また、この両フレームにおいて差分画像503から特定の移動物体を検出し、移動距離の大きさをハイライト得点に反映させてもよい。以上の説明のように、ハイライト得点は動物体の面積や移動距離を示すことから、ハイライト得点の高い分割領域ほど、ユーザの着目の度合いの大きいハイライトとなる領域であるとすることができる。
First, (a) is an N-1 frame divided area A501 obtained by dividing the video of the N-1 frame by the
以上の、ハイライト得点を算出する方法の一例を示す図5では、画像のフレーム間差分を用いて動物体の面積と移動量からハイライト得点を算出する方法を説明した。しかし本実施例ではこの方法に限られず、例えば、テンプレートマッチングによりあらかじめ想定した画像にマッチする分割領域に高いハイライト得点を与える方法を用いてもよい。また、映像や番組ジャンルに応じてハイライト得点の算出法を定義してもよい。例えば野球の試合の映像であれば、あらかじめボールの画像をテンプレートとして保持し、テンプレートマッチングを用いる方法でハイライト得点を算出する。これにより、常にボールを含む領域をハイライト領域とし、ユーザの着目する映像の領域として表示することができる。その他、人間の目が着目する輝度や彩度の高い領域を含む分割領域に高いハイライト得点を与える、などの画像処理を用いた方法によりハイライト得点の算出を行ってもよい。また、映像に付随する映像以外のデータ、例えば音響のデータなどから映像の盛り上がった領域を推定し、ハイライト領域としてもよい。 In FIG. 5 showing an example of the method for calculating the highlight score, the method for calculating the highlight score from the area of the moving object and the movement amount using the inter-frame difference of the image has been described. However, the present embodiment is not limited to this method. For example, a method of giving a high highlight score to a divided region that matches an image assumed in advance by template matching may be used. Also, a method for calculating the highlight score may be defined according to the video or program genre. For example, in the case of a video of a baseball game, an image of the ball is stored in advance as a template, and a highlight score is calculated by a method using template matching. Thereby, the area including the ball can always be used as the highlight area and can be displayed as the area of the video image which the user pays attention. In addition, the highlight score may be calculated by a method using image processing such as giving a high highlight score to a divided region including a luminance or high-saturation region focused on by human eyes. Further, a region where the image is raised may be estimated from data other than the image accompanying the image, for example, audio data, and may be used as a highlight region.
次に、ハイライト得点テーブル生成部210が生成する、ハイライト得点テーブルのデータ構造について説明する。
Next, the data structure of the highlight score table generated by the highlight score
図6は、実施例1におけるハイライト得点テーブルのデータ構造の一例である。ハイライト得点テーブル生成部210は、ハイライト得点算出部209が算出したハイライト得点を、該当するPTSと各分割領域とに対応させて、ハイライト得点テーブル記憶部204が保持するハイライト得点テーブルに記録する。
FIG. 6 is an example of the data structure of the highlight score table in the first embodiment. The highlight score
図6に示したハイライト得点テーブル601において、PTS602は、ハイライト得点算出部209が、ハイライト得点を算出したフレームのPTSである。全てのフレームの各分割領域のハイライト得点を記録してもよい。また、処理量削減の為に特定の時間(例えば5秒)おきにハイライト得点算出部209がハイライト得点を算出し、ハイライト得点テーブル生成部210が記録してもよい。分割領域の得点603は、PTS602に対応する各分割領域のハイライト得点である。高解像度化処理部211は、このハイライト得点テーブル601を参照し、あるPTSに対応するフレームにおいて最もハイライト得点の高い分割領域に対し高解像度化処理を行う。
In the highlight score table 601 shown in FIG. 6,
図7は、実施例1に係る入力画像のハイライト得点を決定する処理のフローの一例を示す図である。本処理はハイライト得点算出部209によって行われ、映像分割部208により得た特定のフレームの映像の特定の分割領域に対してハイライト得点を算出する。ハイライト得点が高いほどユーザがその分割領域をハイライト領域として着目する度合いが大きいことを示す。
FIG. 7 is a diagram illustrating an example of a processing flow for determining a highlight score of an input image according to the first embodiment. This processing is performed by the highlight
ハイライト得点算出部209は、あるフレーム(N−1フレームとする)の特定の分割領域(分割領域Aとする)を取得し(S701)、次に同様に、時系列で隣接するフレーム(Nフレームとする)の分割領域Aを取得する(S702)。続いてN−1フレームとNフレームの分割領域を比較し(S703)、図5で示した方法にしたがって、差分画像を生成する(S704)。生成した差分画像の、差分となった画素数を算出し(S705)、算出された画素数をNフレームのハイライト得点として、ハイライト得点テーブル記憶部204のハイライト得点テーブルに記録する(S706)。分割領域の大きさが全て同じでない場合は、ハイライト得点は各分割領域自体の画素数に応じて正規化してもよい。ハイライト得点が等しい分割領域が存在する場合は、そのひとつ前のPTSに対応するフレームおけるハイライト得点算出時の得点を加算して、新たなハイライト得点を算出してもよい。
The highlight
次に、実施例1における映像の入力から表示までの処理方法について説明する。 Next, a processing method from video input to display in the first embodiment will be described.
図8は、実施例1における、映像の入力から表示までの処理を示すフローの一例を示す図である。 FIG. 8 is a diagram illustrating an example of a flow showing processing from video input to display in the first embodiment.
図8に示すとおり、映像入力部201は、実施例1による高解像度化処理の対象となる映像を入力する(S801)。映像取得部207は、入力されたPTSに応じた一フレーム分の映像を取得する(S802)。映像分割部208は、取得した映像を複数の領域に分割し、分割領域を生成する(S803)。ハイライト得点算出部209は、分割領域のそれぞれに対して、後述するハイライト得点算出処理を用いてハイライト得点を算出する(S804)。ハイライト得点テーブル生成部210は、算出したそれぞれの分割領域のハイライト得点を、ハイライト得点テーブル記憶部204に保持されるハイライト得点テーブル601に記録する(S805)。高解像度化処理部211は、ハイライト得点テーブル601を参照し、あるPTSに対応するフレームにおいてハイライト得点の最も高い分割領域をハイライト領域に設定し(S806)、図3において説明した高解像度化処理を行う(S807)。表示映像生成部212は高解像度化処理されたハイライト領域と高解像度化処理されていない領域を結合して、表示するフレームの映像を生成する(S808)。表示部206は生成された映像を表示装置106に表示する(S809)。ユーザが処理を終了する指示を出さなければ、または入力映像が終了した為に処理を終了するのでなければ(S810)、映像の入力を継続し、次のフレームの処理を継続し、終了指示があれば処理を終了する(S810)。
As shown in FIG. 8, the
以上の図8に示す入力から表示までの処理のフロー図では、入力された映像の全てのフレームに対しハイライト得点算出処理を行う。ここで処理量軽減のために、例えばあらかじめ指定した特定のフレームの映像をハイライト得点算出の対象とし、例えば15フレームおきの映像に対してハイライト得点の算出をして、その間のフレームのハイライト得点は直前に算出したフレームの得点を継続してもよい。 In the flowchart of processing from input to display shown in FIG. 8 above, highlight score calculation processing is performed for all frames of the input video. Here, in order to reduce the processing amount, for example, an image of a specific frame specified in advance is used as a highlight score calculation target, for example, a highlight score is calculated for an image every 15 frames, and a frame in the meantime is highlighted. As for the light score, the score of the frame calculated immediately before may be continued.
高解像度化処理されたハイライト領域と高解像度化処理されていない領域を結合して表示するフレームの映像を生成する(S808)際に、表示映像生成部212は、結合した分割領域の境界に解像度が滑らかになるよう段階的に解像度を変化させる処理を行っても良い。また、解像度の変化が目立たないように、高解像度化処理の必要が無くなった分割領域に対して徐々に解像度を落とす処理を行っても良い。
When generating a frame image to be displayed by combining the highlight region that has been subjected to the high resolution processing and the region that has not been subjected to the high resolution processing (S808), the display
図9は、結合した分割領域の境界に、解像度が滑らかになるように段階的に解像度を変化させる処理を行った映像の一例を示した図である。 FIG. 9 is a diagram illustrating an example of an image obtained by performing a process of changing the resolution stepwise so that the resolution becomes smooth at the boundary of the combined divided regions.
図9の(a)の映像において、分割領域A901は高解像度化処理を行った領域であり、分割領域B902は高解像度化処理を行っていない領域であり、分割領域A901と分割領域B902は、表示映像生成部212により結合される。入力映像および高解像度化処理されていない分割領域B902の解像度はJであり、高解像度化処理された分割領域A901の解像度は(2×J)とする。解像度境界線903は分割領域A901と分割領域B902の境界である。表示映像生成部212は、解像度境界線903から分割領域A901側の領域の解像度を段階的に変化させ、解像度の変化の目立たない滑らかな(b)の映像を生成する。例えば解像度境界線903から分割領域A901側に、H画素範囲内の領域904を、解像度((5/3)×J)、さらにH以上(2×H)画素範囲内の領域905を、解像度((4/3)×J)で表示する。
In the video of FIG. 9A, the divided area A901 is an area that has undergone high resolution processing, the divided area B902 is an area that has not been subjected to high resolution processing, and the divided area A901 and the divided area B902 are: The images are combined by the display
以上の処理により、高解像度化処理された分割領域A901と高解像度化処理されていない分割領域B902の境界は、解像度が段階的に変化することで、解像度の変化の目立たない滑らかな映像を生成することが可能である。 As a result of the above processing, the resolution of the boundary between the divided region A901 that has been subjected to the high resolution processing and the divided region B902 that has not been subjected to the high resolution processing generates a smooth image that is inconspicuous in the resolution change. Is possible.
以上説明した本発明の実施例1の映像表示装置は、入力映像のハイライト領域を検出して高解像度化を行う領域を制御することにより、ユーザの着目をハイライト位置に促す映像を表示することが可能となる。また、高解像表示が必要なハイライトとなる領域だけに高解像度化処理を行うよう制御することにより、高解像度化処理に用いる計算リソースを低減することが可能となる。 The video display device according to the first embodiment of the present invention described above displays a video that prompts the user to pay attention to the highlight position by detecting a highlight region of the input video and controlling a region where resolution is increased. It becomes possible. Further, it is possible to reduce the calculation resources used for the high resolution processing by performing the control so that the high resolution processing is performed only in a highlight area that requires high resolution display.
実施例2では、映像表示装置は、ある映像に対応するハイライト・メタデータをサーバよりダウンロードし、高解像度化処理を行う。 In the second embodiment, the video display device downloads highlight metadata corresponding to a certain video from the server, and performs a resolution enhancement process.
図10は、実施例2の映像表示装置のハードウェア構成の一例を示した図である。図10の構成では、図1に示した実施例1のハードウェア構成に加えて、サーバから後述するハイライト・メタデータをダウンロードするためのネットワークI/F1001を有する。 FIG. 10 is a diagram illustrating an example of a hardware configuration of the video display apparatus according to the second embodiment. In the configuration of FIG. 10, in addition to the hardware configuration of the first embodiment shown in FIG. 1, a network I / F 1001 for downloading highlight metadata described later from the server is provided.
図11は、実施例2に係る映像表示装置の機能ブロック図の一例である。 FIG. 11 is an example of a functional block diagram of the video display apparatus according to the second embodiment.
図11は図2に示した実施例1に係る機能ブロック図に加え、サーバからハイライト・メタデータをダウンロードするための通信装置1101を有する。また実施例1に係るハイライト得点算出部209、ハイライト得点テーブル生成部210は有さず、ハイライト・メタデータ解析部1102を有する。また、また実施例1に係るハイライト得点テーブル記憶部204は有さず、ハイライトメタデータ記憶部1103を有する。これにより、映像表示装置自体はハイライト検出処理を行わず、あらかじめ定義され、ダウンロードしたハイライト・メタデータを、ハイライトメタデータ解析部1102が解析することで、映像のハイライトを識別する。
FIG. 11 includes a
図11の映像表示装置において、図2の各構成要素と同じ符号を付した構成要素の機能及び動作は、実施例1と同様であるので説明を省略する。 In the video display device of FIG. 11, the functions and operations of the constituent elements having the same reference numerals as those of the constituent elements of FIG.
次に、通信装置1101がサーバするダウンロードする、ハイライト・メタデータのデータ構造について説明する。
Next, the data structure of the highlight metadata downloaded by the
図12は、実施例2におけるハイライト・メタデータのデータ構造の一例である。ハイライトメタデータ解析部1102は、あらかじめサーバに保持され、通信装置1101がダウンロードしたハイライト・メタデータ1201を解析し、対応する映像に関連付ける。ハイライト・メタデータは、任意の作成者が手動で作成してサーバに保持してもよいし、サーバが実施例1の図2に示したハイライト検出部203を持つ構成として作成してもよい。
FIG. 12 is an example of a data structure of highlight metadata in the second embodiment. The highlight
PTS1202は対応する映像のフレームのタイムスタンプである。ハイライト座標U1203及びハイライト座標V1204は、映像のハイライトとなる領域を示す座標である。ハイライト座標U1203とハイライト座標V1204を対角線の両端とする矩形が、対応するPTS1201のフレームの映像のハイライト領域である。ハイライト領域は必ずしも矩形である必要はなく、例えば円形であってもよい。この場合、円形の中心座標と半径を指定してハイライト領域とする。PTS1202とハイライト座標U1203、ハイライト座標V1204は、全てのフレームに対し設定してもよいし、特定のフレームおき、例えば5秒間隔のフレームおきに設定してもよい。この場合、その間のフレームのハイライト領域は、直前に設定されたハイライト領域を継続してもよい。また、連続(パン)で切り替えるなど、ハイライト領域切換法1205の指定にしたがってもよい。
The
以上に説明したハイライト・メタデータをネットワークを介したサーバからダウンロードすることにより、ユーザは本映像表示装置でハイライトとなる領域を検出する計算リソースを削減することが可能となる。また、ハイライト・メタデータにより、映像の任意の時刻の任意の領域をハイライトとすることが可能となる。例えば広告主は、映像の任意の領域をハイライトとなる領域であるとしてユーザに与えることが可能となる。また、ひとつの映像に対して、サーバが異なるメタデータを複数保持してもよい。これにより、ユーザは、それぞれのユーザの主観に応じたハイライト・メタデータを利用し映像を視聴することが可能となる。 By downloading the highlight metadata described above from the server via the network, the user can reduce the calculation resources for detecting the highlight area in the video display apparatus. In addition, it is possible to highlight an arbitrary area of an image at an arbitrary time by highlight metadata. For example, the advertiser can give an arbitrary area of the video to the user as an area to be highlighted. Moreover, a server may hold a plurality of different metadata for one video. Thereby, the user can view the video by using the highlight metadata corresponding to each user's subjectivity.
図13は、実施例2に係る、あるPTSに対応するフレームにおける映像のハイライト領域の一例である。 FIG. 13 is an example of a video highlight area in a frame corresponding to a certain PTS according to the second embodiment.
映像生成部205の高解像度化処理部211は、ハイライトメタデータ解析部1102は、映像の特定のPTSに対応するフレーム1301を用いて、ハイライト・メタデータに示されたハイライト座標U1302とハイライト座標V1303を対角線の両端とする矩形をこのフレームの映像におけるハイライト領域1304であると判断する。ハイライト領域は必ず矩形とする必要はなく、円形など他の形であってもよい。
The resolution
次に、実施例2における映像の入力から表示までの処理方法について説明する。 Next, a processing method from video input to display in the second embodiment will be described.
図14は、実施例1における映像の入力から表示までの処理を示すフロー図の一例である。 FIG. 14 is an example of a flowchart illustrating processing from video input to display in the first embodiment.
図14に示すとおり、指示入力部202は、実施例2による高解像度化処理の対象となる映像指定する外部からの指示を入力する(S1401)。次に、映像に対応するハイライト・メタデータの要求を通信装置1001がサーバに送信し(S1402)、サーバからハイライト・メタデータを受信する(S1403)。次に、映像入力部201は映像の入力を開始し(S1404)、映像取得部207は映像を取得する(S1405)。ハイライトメタデータ解析部1002は、受信したハイライト・メタデータを解析し(S1406)、ハイライト・メタデータに記載されるPTSに対応するフレームのハイライト領域を判断する。以降、図8にて説明した実施例1の処理と同様に、S807〜S810の処理により、映像の生成と表示を行う。
As illustrated in FIG. 14, the
以上説明した本発明の実施例2の映像表示装置は、ハイライト・メタデータをサーバからダウンロードして利用する。これにより、ハイライト検出処理をクライアントとなる映像表示装置で行う必要がないため、映像表示装置の計算リソースの低減が可能となる。また、任意に作成されたハイライト・メタデータを、ネットワークを通して複数のユーザが共有することができる。 The video display apparatus according to the second embodiment of the present invention described above uses the highlight metadata downloaded from the server. As a result, it is not necessary to perform highlight detection processing in the video display device serving as a client, so that the calculation resources of the video display device can be reduced. In addition, arbitrarily created highlight metadata can be shared by a plurality of users through a network.
例えば、ある映像に対して、広告主が、PTSとハイライト位置の座標を示したハイライト・メタデータを作成しサーバに保持させる。その後、このハイライト・メタデータをダウンロードしたユーザに、広告主が意図した特定の画像の領域に着目させることが可能となる。 For example, for a certain video, the advertiser creates highlight metadata indicating the coordinates of the PTS and the highlight position and causes the server to store the highlight metadata. Thereafter, the user who has downloaded the highlight metadata can be made to focus on a specific image area intended by the advertiser.
また、例えば、サーバが、同一の映像に対してハイライトの決定基準の違う複数のハイライト・メタデータを保持するように構成してもよい。この場合、ユーザは個人それぞれの嗜好に応じたハイライト・メタデータを選択して、映像を高解像度化処理し視聴することが可能となる。 For example, the server may be configured to hold a plurality of highlight metadata having different highlight determination criteria for the same video. In this case, the user can select highlight / metadata according to each individual's preference, increase the resolution of the video, and view the video.
実施例3では、映像表示装置は入力映像のハイライト領域を検出し、ハイライト領域を中心にした映像を再生成することで、ユーザが着目するハイライト領域を中心にした映像を表示することが可能となる。 In the third embodiment, the video display device detects the highlight area of the input video and regenerates the video centered on the highlight area, thereby displaying the video centered on the highlight area focused on by the user. Is possible.
実施例3にかかるハードウェア構成は、実施例3では、実施例1の同様の構成であるとして説明する。映像入力部201は、実施例1同様、例えば装置に接続したビデオカメラであったり、後述する記憶装置104あるいは二次記憶装置105に記憶されている映像データを読み込む装置としたり、テレビ放送等を受信する場合には、テレビのチューナとすればよい。本実施例では、映像入力部201は、全周囲画像センサであるとして説明する。全周囲画像センサは、特定の一方向でなく全周囲を同時に撮影対象とするカメラである。
The hardware configuration according to the third embodiment will be described as the same configuration as that of the first embodiment in the third embodiment. As in the first embodiment, the
図15は、実施例3に係る映像入力部の映像撮影の一例と撮影され本映像表示装置に入力される映像の一例とを表す図である。 FIG. 15 is a diagram illustrating an example of video shooting of the video input unit according to the third embodiment and an example of video shot and input to the video display device.
図15の(a)のように、撮影対象とする空間に、映像入力部201である全周囲画像センサ1501を設置する。全周囲画像センサにより撮影された映像は、(b)のように、極座標で示される円形の映像であり、この画像が、実施例3に係る映像表示装置の入力映像1502である。入力映像は極座標(r、θ)1503で示す。全周囲画像センサ1501は一方向のみでなく全周囲の映像が得られるという面で優れており、監視カメラ用途などで頻繁に用いられるが、一般的にユーザが映像を直感的理解することが困難である。
As shown in FIG. 15A, an
以下に説明する本実施例の構成により、入力映像のハイライト領域を検出し、入力映像の座標変換処理を行ってハイライト領域を中心とした表示映像を生成することで、ユーザに直感的理解の容易な映像を提供することが可能となる。 With the configuration of the present embodiment described below, the highlight area of the input video is detected, and the input video is subjected to coordinate conversion processing to generate a display video centered on the highlight area, so that the user can intuitively understand It is possible to provide an easy video.
図16は、実施例3に係る映像表示装置の機能ブロック図の一例である。 FIG. 16 is an example of a functional block diagram of the video display apparatus according to the third embodiment.
図16に示す通り、映像入力再生装置は、実施例1と同様に映像入力部201と、指示入力部202と、ハイライト検出部203と、ハイライト得点テーブル記憶部204と、表示部206を有し、ハイライト検出部203は映像取得部207と、映像分割部208と、ハイライト得点算出部209と、ハイライト得点テーブル生成部210から構成される。
As shown in FIG. 16, the video input / playback apparatus includes a
本実施例では、映像生成部1601は、映像座標変換部1602と、表示映像制御部1603から構成される。
In this embodiment, the
図16の映像表示装置において、図2の各構成要素と同じ符号を付した構成要素の機能及び動作は、実施例1と同様であるので説明を省略する。 In the video display device of FIG. 16, the functions and operations of the constituent elements having the same reference numerals as those of the constituent elements of FIG.
図17は、実施例3にかかる、入力映像1502の分割の一例である。
FIG. 17 is an example of division of the
映像入力部201が入力して映像取得部207が取得した入力映像に対して、映像分割部208は、入力映像を2個以上の複数個の領域に分割する。例えば、分割領域A1701、分割領域B1702、分割領域C1703、分割領域D1704、の4個の領域に分割する。
For the input video input by the
ハイライト検出部203は、実施例1と同じく、図7に示すハイライト得点の算出方法にしたがって、各分割領域のハイライト得点を算出し、図6に示すハイライト得点テーブル601に記録する。
As in the first embodiment, the
映像生成部1601は、ハイライト得点テーブルを参照して入力映像を処理し、表示部206に表示する映像を生成する。映像生成部1601の映像座標変換部1602は、記憶部に保持されたハイライト得点テーブルを参照して、各PTSに対応するフレームにおけるハイライト得点の最も高い分割領域がハイライト領域であると判断する。次に、ハイライト領域が中心となるように入力映像1502の座標変換処理を行う。表示映像制御部1603は、ハイライト領域が変化した際の座標変換の制御を行う。ハイライト得点テーブル601より判断できるハイライト領域が変化したPTSの時刻で、表示する画像を切り替えてもよいし、表示映像が滑らかに変化するよう、ハイライト領域が連続的に移動しているように座標変換のパラメータを連続的に変化させる制御を行って、表示映像を生成してもよい。即ち映像生成部1601は映像取得部207から取得した映像に、座標変換を行って再構成し、新たな映像を生成するものである。
The
なお、以上説明した図17の構成例では、実施例1と同様にハイライト得点算出部209と、ハイライト得点テーブル生成部210を備えて、ハイライト領域の検出を行い、検出したハイライト領域をハイライト得点テーブル記憶部204に記憶している。
In the configuration example of FIG. 17 described above, a highlight
しかし、実施例3に係る映像表示装置の構成はこれに限られず、例えば、実施例3に係る映像表示装置のハードウェア構成を、図10に示す実施例2と同様、ハイライト・メタデータをダウンロードするためのネットワークI/F1001を有するハードウェア構成としてもよい。 However, the configuration of the video display apparatus according to the third embodiment is not limited to this. For example, the hardware configuration of the video display apparatus according to the third embodiment is the same as in the second embodiment illustrated in FIG. A hardware configuration having a network I / F 1001 for downloading may be used.
この場合、図16に示す実施例3に係る映像表示装置の機能ブロックは、実施例2と同様に、通信装置1101、ハイライト・メタデータ解析部1102、ハイライトメタデータ記憶部1103を備える構成として、映像表示装置自体でハイライト検出処理を行わない構成としてもよい。この場合実施例2と同様に、あらかじめ定義されたハイライト・メタデータをサーバからダウンロードし、ハイライトメタデータ解析部1102において解析することで、映像のハイライトを識別する。この場合の詳細な動作は、実施例2において説明したとおりであるので説明を省略する。
In this case, the functional block of the video display apparatus according to the third embodiment illustrated in FIG. 16 includes a
また、表示映像制御部1603に、実施例1または実施例2で説明した高解像度化処理部211の機能を持たせることにより、ハイライト領域が中心となるように座標変換することに加えて、ハイライト領域の高解像度化を行うことも可能である。この場合、ユーザの着目する領域を中心に再構成したうえで、当該領域をより高解像な映像としてユーザに提供することができる。
Further, by providing the display
図18は、実施例3に係る、映像の入力から表示までの処理のフローの一例を示す図である。 FIG. 18 is a diagram illustrating an example of a processing flow from video input to display according to the third embodiment.
図18に示すとおり、映像の入力(S801)からハイライト得点算出(S801)までの処理は、図8に示す実施例1のフローと同様である。次に、映像座標変換部1602は、ハイライト得点テーブル601を参照し、あるPTSに対応するフレームにおけるハイライト得点の最も高い分割領域を中心とし、後述する映像を座標変換して表示映像を生成する方法にしたがい、表示映像を生成する(S1801)。表示部206は生成された映像を表示装置106に表示する(S1802)。ユーザが処理を終了する指示を出さなければ、または入力映像が終了した為に処理を終了するのでなければ(S1803)、映像の入力を継続し、次のフレームの処理を継続し、終了指示があれば処理を終了する。
As shown in FIG. 18, the processing from video input (S801) to highlight score calculation (S801) is the same as the flow of the first embodiment shown in FIG. Next, the video coordinate conversion unit 1602 refers to the highlight score table 601 and generates a display video by performing coordinate conversion on the video to be described later, centering on the divided region having the highest highlight score in a frame corresponding to a certain PTS. In accordance with this method, a display image is generated (S1801). The
図19は、映像生成部1601による、映像を座標変換して表示映像を生成する方法の一例を説明する図である。
FIG. 19 is a diagram for explaining an example of a method for generating a display image by converting the coordinates of the image by the
映像入力部201が入力した入力映像1901は、(a)に示すように、映像取得部207が取得し、(a)に示すように極座標(r、θ)1902で認識する。網掛けで示す 0<θ<2/π の領域1903をハイライト領域とする。極座標は、(1)式により直交座標に変換する。
The
x−y直交座標における変換後の座標を(Xa,Ya)とする。次に、(b)に示すように、ハイライト領域の中心がy軸と重なるように、4/π 回転する。回転後の映像の座標を(Xb、Yb1904とすると、回転による座標変換は(2)式で示される。 The coordinates after conversion in the xy orthogonal coordinates are assumed to be (Xa, Ya). Next, as shown in (b), the highlight area is rotated by 4 / π so that the center of the highlight area overlaps the y-axis. If the coordinates of the image after rotation are (Xb, Yb1904), coordinate conversion by rotation is expressed by equation (2).
次に、(c)のようにz軸を設定し、ハイライト領域を、x2+y2+z2=r2、r>0で示すの半球面に射影する。球面上に射影された映像の座標は(Xc、Yc、Zc)1905は、(3)式で示される。 Next, as shown in (c), the z-axis is set, and the highlight region is projected onto a hemisphere represented by x 2 + y 2 + z 2 = r 2 , r> 0. The coordinates of the image projected on the spherical surface (Xc, Yc, Zc) 1905 are expressed by the equation (3).
(c)で球面上に投影された映像を、(d)のようにx−z平面1906に正射影し生成した映像(Xd、Zd)1907を表示画像とし、表示部206がユーザに提供する。
The image (Xd, Zd) 1907 generated by orthogonally projecting the image projected on the spherical surface in (c) onto the
図20は、実施例3に係る、ユーザに映像を表示する画面の一例である。 FIG. 20 is an example of a screen for displaying video to the user according to the third embodiment.
2001は、図19により説明した座標変換により映像を生成する方法を用いて、映像生成部1601が生成した映像の表示画面の例である。2002の画面例ように、正射影を透視法射影としてもよいし、2003の画面例のように、さらに矩形に座標変換処理を行って表示してもよい。さらに、「盛り上がった領域」を中心に生成した映像に高解像度化処理を行ってもよい。また、入力画像における「盛り上がり領域」をしめす画像2004を重畳して表示してもよい。これにより、必要があれば全周囲映像における方向の情報を失わず、また立体感のある表示で、ユーザが着目するハイライト領域を理解が容易な映像で表示することが可能になる。
実施例3により、例えば監視カメラや車載カメラの全周囲映像による入力映像に対し、ハイライト領域、すなわちユーザが着目すべき映像特徴を持つ映像領域を中心に再構成した映像を表示することができる。また、テレビ番組やホームビデオの映像を入力映像とした場合においても、同様の効果が得られる。 According to the third embodiment, for example, a reconstructed image centered on a highlight region, that is, a video region having a video feature that a user should pay attention to, can be displayed with respect to an input image that is an all-around video of a surveillance camera or an in-vehicle camera. . The same effect can be obtained when the video of a TV program or home video is used as the input video.
以上説明した本発明の実施例3の映像表示装置により、入力映像からハイライト領域を検出し、ハイライト領域を中心とした映像を再構成して表示することで、映像のPTSごとに、ユーザの着目すべき領域を中心に再構成した映像を、ユーザに提供することが可能となる。 The video display device according to the third embodiment of the present invention described above detects a highlight area from an input video and reconstructs and displays a video centering on the highlight area, so that the user can display the video for each PTS. It is possible to provide the user with an image reconstructed around the area to be focused on.
101…映像入力装置
102…中央処理装置
103…指示入力装置
104…記憶装置
105…二次記憶装置
106…表示装置
201…映像入力部
202…指示入力部
203…ハイライト検出部
204…ハイライト得点記憶部
205…映像生成部
206…表示部
207…映像取得部
208…映像分割部
209…ハイライト得点算出部
210…ハイライト得点テーブル生成部
211…高解像度化処理部
212…表示映像生成部
901…ネットワークI/F
1001…通信装置
1002…ハイライト・メタデータ解析部
1003…ハイライト・メタデータ記憶部
1601…映像生成部
1602…映像座標変換部
1603…表示映像制御部
DESCRIPTION OF
DESCRIPTION OF SYMBOLS 1001 ... Communication apparatus 1002 ... Highlight / metadata analysis part 1003 ... Highlight /
Claims (10)
前記映像入力部に入力された映像を複数の領域に分割する映像分割部と、
前記映像入力部に入力された映像を高解像度化する高解像処理部とを備え、
前記高解像処理部は、前記映像入力部に入力された映像のうち、前記映像分割部が分割した一部の領域を高解像化することを特徴とする映像表示装置。 A video input unit to which video is input;
A video dividing unit that divides the video input to the video input unit into a plurality of regions;
A high resolution processing unit for increasing the resolution of the video input to the video input unit,
The video display device, wherein the high resolution processing unit performs high resolution on a part of the video divided by the video dividing unit in the video input to the video input unit.
前記映像分割部により分割された複数の領域についての重要度を算出する重要度算出部を備え、
前記高解像処理部は、前記重要度算出部が算出した重要度に応じて、前記前記映像分割部が分割した複数の領域の解像度を異ならせることを特徴とする映像表示装置。 The video display device according to claim 1,
An importance calculation unit for calculating importance for a plurality of areas divided by the video dividing unit;
The video display device, wherein the high-resolution processing unit varies the resolution of the plurality of regions divided by the video dividing unit according to the importance calculated by the importance calculating unit.
前記高解像処理部の処理により互いに解像度の異なる領域となった複数の領域を含む表示映像を表示する映像表示部を備えることを特徴とする映像表示装置。 The video display device according to claim 2,
An image display device comprising: an image display unit that displays a display image including a plurality of areas having different resolutions by processing of the high resolution processing unit.
前記映像表示部は、前記互いに解像度の異なる領域となった複数の境界における解像度を段階的に変化させて表示することを特徴とする映像表示装置。 The video display device according to claim 3,
The video display device is characterized in that the video display unit displays the resolution at a plurality of boundaries that are different in resolution from each other in stages.
前記入力映像の重要度が高い領域を示すハイライト・メタデータを解析する解析部と、
前記入力映像のうち、前記解析部により解析されたハイライト・メタデータにより指定された映像領域を他の映像領域よりも高解像度化する高解像処理部と、
前記高解像処理部により高解像度化された映像領域を含む表示映像を表示する映像表示部とを備えることを特徴とする映像表示装置。 A video input section for input video;
An analysis unit that analyzes highlight metadata indicating a region of high importance of the input video;
Among the input video, a high-resolution processing unit that makes the video region specified by the highlight metadata analyzed by the analysis unit higher resolution than other video regions,
A video display device comprising: a video display unit that displays a display video including a video region that has been increased in resolution by the high resolution processing unit.
前記映像表示部は、前記高解像処理部により高解像度化された領域と、前記高解像処理部により高解像度化されていない領域との境界における解像度を段階的に変化させた表示映像を表示することを特徴とする映像表示装置。 The video display device according to claim 5,
The video display unit displays a display video in which the resolution at a boundary between a region whose resolution has been increased by the high resolution processing unit and a region whose resolution has not been increased by the high resolution processing unit is changed stepwise. A video display device characterized by displaying.
前記入力映像におけるハイライト領域に関する情報を記憶する記憶部と、
前記入力映像のうち、前記記憶部に記憶されたハイライト領域に関する情報により指定される領域の映像を座標変換して新たな映像に再構成する映像再構成部とを備えることを特徴とする映像処理装置。 A video input section for input video;
A storage unit for storing information on a highlight area in the input video;
A video reconstructing unit that coordinates-transforms a video in an area specified by information on a highlight area stored in the storage unit from the input video and reconstructs the video into a new video; Processing equipment.
前記映像入力部に入力された映像を複数の領域に分割する映像分割部と、
前記映像分割部により分割された複数の領域についての重要度を算出する重要度算出部を備え、
前記記憶部に記憶部に記憶されるハイライト領域に関する情報は、前記重要度算出部により算出された前記分割された複数の領域における重要度の情報であることを特徴とする映像処理装置。 The video processing device according to claim 7,
A video dividing unit that divides the video input to the video input unit into a plurality of regions;
An importance calculation unit for calculating importance for a plurality of areas divided by the video dividing unit;
The video processing apparatus characterized in that the information on the highlight area stored in the storage unit in the storage unit is information on the importance in the plurality of divided areas calculated by the importance calculation unit.
前記入力映像の重要度が高い領域を示すハイライト・メタデータを解析する解析部を備え、
前記記憶部に記憶部に記憶されるハイライト領域に関する情報は、前記解析部により解析されたハイライト・メタデータにより指定されたハイライト領域に関する情報であることを特徴とする映像処理装置。 The video processing device according to claim 7,
An analysis unit for analyzing highlight metadata indicating a region of high importance of the input video;
The video processing apparatus according to claim 1, wherein the information related to the highlight area stored in the storage unit in the storage unit is information related to the highlight area specified by the highlight metadata analyzed by the analysis unit.
前記映像再構成部が再構成した映像における、前記ハイライト領域に関する情報により指定される領域に対応する領域について高解像度化する高解像度化処理部を備えることを特徴とする映像処理装置。 The video processing device according to claim 7,
An image processing apparatus, comprising: a resolution enhancement processing unit configured to increase a resolution of an area corresponding to an area specified by information on the highlight area in the image reconstructed by the image reconstruction unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008094472A JP2009246917A (en) | 2008-04-01 | 2008-04-01 | Video display device, and video processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008094472A JP2009246917A (en) | 2008-04-01 | 2008-04-01 | Video display device, and video processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009246917A true JP2009246917A (en) | 2009-10-22 |
Family
ID=41308310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008094472A Pending JP2009246917A (en) | 2008-04-01 | 2008-04-01 | Video display device, and video processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009246917A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011121741A1 (en) * | 2010-03-30 | 2011-10-06 | 富士通株式会社 | Image generation device, image generation program, synthesis table generation device, and synthesis table generation program |
JP2012175631A (en) * | 2011-02-24 | 2012-09-10 | Mitsubishi Electric Corp | Video monitoring device |
JP2018113618A (en) * | 2017-01-12 | 2018-07-19 | 三菱電機インフォメーションシステムズ株式会社 | Video stream processing device, video stream processing program, and video monitoring system |
JP2018519773A (en) * | 2015-06-15 | 2018-07-19 | コヒーレント シンクロ エス.エル. | Method, apparatus and equipment for configuring a video signal |
JP2019513275A (en) * | 2016-02-26 | 2019-05-23 | アイオムニセント ピーティーワイ リミテッド | Monitoring method and device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003111050A (en) * | 2001-09-27 | 2003-04-11 | Olympus Optical Co Ltd | Video distribution server and video reception client system |
JP2004357239A (en) * | 2003-05-30 | 2004-12-16 | Canon Inc | Method for displaying image of image system and image processing device |
JP2005109725A (en) * | 2003-09-29 | 2005-04-21 | Victor Co Of Japan Ltd | Video image monitoring system |
JP2006092450A (en) * | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | Image processor and image processing method |
JP2006099404A (en) * | 2004-09-29 | 2006-04-13 | Sanyo Electric Co Ltd | Image display device |
JP2006101075A (en) * | 2004-09-29 | 2006-04-13 | Sanyo Electric Co Ltd | Image compression apparatus |
JP2006121320A (en) * | 2004-10-20 | 2006-05-11 | Fuji Photo Film Co Ltd | Omnidirectional monitor camera device |
-
2008
- 2008-04-01 JP JP2008094472A patent/JP2009246917A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003111050A (en) * | 2001-09-27 | 2003-04-11 | Olympus Optical Co Ltd | Video distribution server and video reception client system |
JP2004357239A (en) * | 2003-05-30 | 2004-12-16 | Canon Inc | Method for displaying image of image system and image processing device |
JP2005109725A (en) * | 2003-09-29 | 2005-04-21 | Victor Co Of Japan Ltd | Video image monitoring system |
JP2006092450A (en) * | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | Image processor and image processing method |
JP2006099404A (en) * | 2004-09-29 | 2006-04-13 | Sanyo Electric Co Ltd | Image display device |
JP2006101075A (en) * | 2004-09-29 | 2006-04-13 | Sanyo Electric Co Ltd | Image compression apparatus |
JP2006121320A (en) * | 2004-10-20 | 2006-05-11 | Fuji Photo Film Co Ltd | Omnidirectional monitor camera device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011121741A1 (en) * | 2010-03-30 | 2011-10-06 | 富士通株式会社 | Image generation device, image generation program, synthesis table generation device, and synthesis table generation program |
US9030524B2 (en) | 2010-03-30 | 2015-05-12 | Fujitsu Limited | Image generating apparatus, synthesis table generating apparatus, and computer readable storage medium |
JP2012175631A (en) * | 2011-02-24 | 2012-09-10 | Mitsubishi Electric Corp | Video monitoring device |
JP2018519773A (en) * | 2015-06-15 | 2018-07-19 | コヒーレント シンクロ エス.エル. | Method, apparatus and equipment for configuring a video signal |
JP2019513275A (en) * | 2016-02-26 | 2019-05-23 | アイオムニセント ピーティーワイ リミテッド | Monitoring method and device |
JP7036493B2 (en) | 2016-02-26 | 2022-03-15 | アイオムニセント ピーティーワイ リミテッド | Monitoring method and equipment |
US11670147B2 (en) | 2016-02-26 | 2023-06-06 | Iomniscient Pty Ltd | Method and apparatus for conducting surveillance |
JP2018113618A (en) * | 2017-01-12 | 2018-07-19 | 三菱電機インフォメーションシステムズ株式会社 | Video stream processing device, video stream processing program, and video monitoring system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6627861B2 (en) | Image processing system, image processing method, and program | |
US10762653B2 (en) | Generation apparatus of virtual viewpoint image, generation method, and storage medium | |
JP7017175B2 (en) | Information processing equipment, information processing method, program | |
US20220207645A1 (en) | Dynamically cropping digital content for display in any aspect ratio | |
US11107195B1 (en) | Motion blur and depth of field for immersive content production systems | |
JP5634111B2 (en) | Video editing apparatus, video editing method and program | |
US10846535B2 (en) | Virtual reality causal summary content | |
US11244423B2 (en) | Image processing apparatus, image processing method, and storage medium for generating a panoramic image | |
JP4414708B2 (en) | Movie display personal computer, data display system, movie display method, movie display program, and recording medium | |
JP6628343B2 (en) | Apparatus and related methods | |
JP4451892B2 (en) | Video playback device, video playback method, and video playback program | |
JP2009246917A (en) | Video display device, and video processing apparatus | |
CN110730340B (en) | Virtual audience display method, system and storage medium based on lens transformation | |
US10789987B2 (en) | Accessing a video segment | |
CN108156512B (en) | Video playing control method and device | |
JP2004007284A (en) | Video recording system, its program, and recording medium | |
US10687040B2 (en) | Capturing and displaying a video in an immersive reality environment | |
JP5787930B2 (en) | Virtual navigation system for video | |
JP2009258862A (en) | Video display device and image display method | |
EP4350626A1 (en) | Image processing system, method for controlling the same, and program | |
JP2022158615A (en) | Image processing device, image processing method, and program | |
JP2023500450A (en) | Fixed rendering of audio and video streams based on device rotation metrics | |
JP5854019B2 (en) | Terminal device and program | |
JP5089648B2 (en) | Video comparison device, video comparison method, video comparison program, and video comparison program recording medium | |
JP2007180920A (en) | Image processor, electronic equipment, program, information storage medium and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130212 |