JP2009246917A - Video display device, and video processing apparatus - Google Patents

Video display device, and video processing apparatus Download PDF

Info

Publication number
JP2009246917A
JP2009246917A JP2008094472A JP2008094472A JP2009246917A JP 2009246917 A JP2009246917 A JP 2009246917A JP 2008094472 A JP2008094472 A JP 2008094472A JP 2008094472 A JP2008094472 A JP 2008094472A JP 2009246917 A JP2009246917 A JP 2009246917A
Authority
JP
Japan
Prior art keywords
video
unit
highlight
input
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008094472A
Other languages
Japanese (ja)
Inventor
Minako Toba
美奈子 鳥羽
Junichi Kimura
淳一 木村
Masahiro Kato
雅弘 加藤
Kazue Hiroi
和重 廣井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008094472A priority Critical patent/JP2009246917A/en
Publication of JP2009246917A publication Critical patent/JP2009246917A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to efficiently view video images by displaying a video image for which resolution improvement processing has been performed only upon a highlight region. <P>SOLUTION: A video display device includes: a video input unit to which a video image is inputted; a video dividing unit 206 for dividing the video image inputted to the video input unit into a plurality of regions; and a resolution improvement processing unit 211 for improving a resolution of the video image inputted to the video input unit. The resolution improvement processing unit improves a resolution for partial regions, divided by the video dividing unit, in the video image inputted to the video input unit. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、入力映像におけるハイライト領域についての映像処理に関する。   The present invention relates to video processing for a highlight area in an input video.

映像表示装置の背景技術として、特許文献1には、1台の監視ビデオカメラの使用の下に、低解像度の全体画像および高解像度の部分画像を記録し、監視操作者の指示に応じて、高精細あるいは拡大して再生表示する技術が開示されている。特許文献2には、会鉛直方向を中心もしくは軸とした広角画像を入力する双曲面ミラーと、音声を入力する複数のマイクロフォンと、マイクロフォンに入力された音声に基づいて音源方向を検出する音源方向検出部と、広角画像と音声と音源方向を記録する記録部を有するテレビ会議システムが、記録された広角画像のうち、音源方向に対応する方向の所定領域の画像を矩形の出力画像となるように変形する技術が開示されている。   As background art of a video display device, Patent Document 1 records a low-resolution whole image and a high-resolution partial image under the use of a single surveillance video camera, and according to instructions from a surveillance operator, A technique for reproducing and displaying in high definition or enlarged is disclosed. In Patent Document 2, a hyperboloid mirror that inputs a wide-angle image centered on or about the meeting vertical direction, a plurality of microphones that input sound, and a sound source direction that detects a sound source direction based on the sound input to the microphone A video conference system having a detection unit and a recording unit that records a wide-angle image, audio, and a sound source direction so that an image of a predetermined area in a direction corresponding to the sound source direction among the recorded wide-angle images becomes a rectangular output image. The technique which deform | transforms into is disclosed.

特開2006−33793号JP 2006-33793 A 特開2003−18561号JP 2003-18561 A

特許文献1に開示される技術にでは、ユーザが着目する領域を監視操作者が手動で設定する必要があるという課題があった。   In the technique disclosed in Patent Literature 1, there is a problem that the monitoring operator needs to manually set the region to which the user pays attention.

また、特許文献2は、ユーザの着目する方向の決定に音声が必要であるという課題があった。   In addition, Patent Document 2 has a problem that a voice is required to determine a direction in which a user focuses attention.

本発明は上記課題を鑑みてなされたものであり、その目的は、ユーザの効率的な映像視聴を可能にすることである。   The present invention has been made in view of the above problems, and an object thereof is to enable efficient video viewing by the user.

本発明の一実施の形態は、例えば特許請求の範囲に記載されるように構成すればよい。   The embodiment of the present invention may be configured as described in the claims, for example.

本発明によれば、ユーザの効率的な映像視聴が可能である。   According to the present invention, the user can efficiently view the video.

以下、本発明による機器操作装置の実施形態(実施例)を図面を用いて説明する。ただし、本発明は以下の実施例に限定されるものではない。   Embodiments (examples) of an apparatus operating device according to the present invention will be described below with reference to the drawings. However, the present invention is not limited to the following examples.

なお、本願の各実施例において、「ハイライト領域」とは、映像の観視者(ユーザー)が注目すべき映像特徴を有する映像領域を意味する。すなわち注目度の高い映像領域、重要度の高い領域ともいえる。また、盛り上がり領域とも表現できる。   In each embodiment of the present application, the “highlight area” means a video area having a video feature that should be noted by a video viewer (user). In other words, it can be said that the video area has a high degree of attention and a high importance area. It can also be expressed as a rising area.

また、本願の各実施例において、「ハイライト得点」とは、映像中の領域ごとの、映像の観視者(ユーザー)が注目すべき指数であり、注目度、重要度ともいえる。また、盛り上がり度とも表現できる。   In each embodiment of the present application, the “highlight score” is an index that should be noticed by the viewer (user) of the image for each region in the image, and can be said to be the degree of attention and importance. It can also be expressed as a degree of excitement.

すなわち、「ハイライト得点」が高い領域ほど、注目すべき領域、重要度が高い領域といえる。   That is, it can be said that the region where the “highlight score” is higher is the region to be noted and the region having higher importance.

実施例1は、映像の同一画面内においてハイライト領域を検出し、ハイライト領域のみに高解像度化処理に行った映像を表示することで、ユーザの着目位置の喚起や、高解像度化処理に必要となる計算リソースの低減、ユーザの効率的な映像視聴などを可能とするものである。   In the first embodiment, a highlight area is detected within the same screen of the video, and the video that has been subjected to the high resolution processing is displayed only in the highlight area. This makes it possible to reduce the required computing resources and to allow users to efficiently view images.

図1は、実施例1の映像表示装置のハードウェア構成の一例を示した図である。   FIG. 1 is a diagram illustrating an example of a hardware configuration of the video display apparatus according to the first embodiment.

本例の装置は、映像入力装置101と、中央処理装置102と、指示入力装置103と、記憶装置104と、二次記憶装置105と、表示装置106を有する。各装置は、内部バス107によって接続され、各装置間で相互にデータの送受信が可能である。   The apparatus of this example includes a video input device 101, a central processing device 102, an instruction input device 103, a storage device 104, a secondary storage device 105, and a display device 106. Each device is connected by an internal bus 107, and data can be transmitted and received between the devices.

映像入力装置101は、映像データを入力する。映像入力装置101は、例えば装置に接続したビデオカメラであったり、後述する記憶装置104あるいは二次記憶装置105に記憶されている映像データを読み込む装置としたり、テレビ放送等を受信する場合には、テレビのチューナとすることが出来る。   The video input device 101 inputs video data. The video input device 101 is, for example, a video camera connected to the device, a device that reads video data stored in the storage device 104 or the secondary storage device 105 described later, or a television broadcast or the like. Can be a TV tuner.

また、ネットワーク経由でweb動画等の映像を入力する場合には、本映像入力装置101をLANカード等のネットワークカードとすることが出来る。   In addition, when a video such as a web video is input via a network, the video input device 101 can be a network card such as a LAN card.

中央処理装置102は、マイクロプロセッサを主体に構成され、記憶装置104や二次記憶装置105に格納されているプログラムを実行する。   The central processing unit 102 is mainly composed of a microprocessor, and executes a program stored in the storage device 104 or the secondary storage device 105.

指示入力装置103は、例えばリモコン、キーボード、マウス等のポインティングデバイスである。これは、ユーザの画像入力や表示の指示等を受け付ける。   The instruction input device 103 is a pointing device such as a remote controller, a keyboard, and a mouse. This accepts a user's image input, display instruction, and the like.

表示装置106は、例えばディスプレイアダプタと液晶パネルやプロジェクタ等によって実現され、指示入力装置103によって入力した映像を表示する。   The display device 106 is realized by, for example, a display adapter, a liquid crystal panel, a projector, and the like, and displays an image input by the instruction input device 103.

記憶装置104は、例えばランダムアクセスメモリ(RAM)やリードオンリーメモリ(ROM)等によって実現され、中央処理装置102 によって実行されるプログラムや本動画再生装置において処理されるデータ、あるいは再生対象の動画データやランキングデータ等を格納する。   The storage device 104 is realized by, for example, a random access memory (RAM), a read-only memory (ROM), and the like. The storage device 104 is a program executed by the central processing unit 102, data processed in the moving image reproducing device, or moving image data to be reproduced. And ranking data.

二次記憶装置105は、例えばハードディスクやDVDあるいはCDとそれらのドライブ、あるいはフラッシュメモリ等の不揮発性メモリにより構成され、中央処理装置102によって実行されるプログラムや本動画再生装置において処理されるデータ、あるいは再生対象の映像データを格納する。   The secondary storage device 105 is composed of, for example, a hard disk, a DVD or a CD and their drives, or a nonvolatile memory such as a flash memory. The secondary storage device 105 is a program executed by the central processing unit 102 or data processed in the video playback device. Alternatively, video data to be reproduced is stored.

図2は、実施例1に係る映像表示装置の機能ブロック図の一例である。これらの機能ブロックの一部あるいは全部は、図1で示したハードウェアに加えてハードウェアとして実現されてもよいが、中央処理装置102によって実行されるソフトウェアプログラムとして実現されてもよい。なお、以下の説明では、一例として、これらの機能ブロックの全てが中央処理装置102によって実行されるソフトウェアプログラムであるものとして説明する。   FIG. 2 is an example of a functional block diagram of the video display apparatus according to the first embodiment. Some or all of these functional blocks may be realized as hardware in addition to the hardware shown in FIG. 1, or may be realized as a software program executed by the central processing unit 102. In the following description, as an example, it is assumed that all of these functional blocks are software programs executed by the central processing unit 102.

図2に示す通り、映像入力再生装置は、映像入力部201と、指示入力部202と、ハイライト検出部203と、ハイライト得点テーブル記憶部204と、映像生成部205と、表示部206を有する。ハイライト検出部203は映像取得部207と、映像分割部208と、ハイライト得点算出部209と、ハイライト得点テーブル生成部210から構成される。映像生成部205は、高解像度化処理部211と、表示映像生成部212から構成される。   As shown in FIG. 2, the video input / playback apparatus includes a video input unit 201, an instruction input unit 202, a highlight detection unit 203, a highlight score table storage unit 204, a video generation unit 205, and a display unit 206. Have. The highlight detection unit 203 includes a video acquisition unit 207, a video division unit 208, a highlight score calculation unit 209, and a highlight score table generation unit 210. The video generation unit 205 includes a high resolution processing unit 211 and a display video generation unit 212.

映像入力部201は、高解像度化処理を行う映像を映像入力装置202より入力する。なお、映像入力部201は、指示入力部202からユーザによって映像の入力が指示された場合、あるいは図示しないスケジューラによって指示された場合に、中央処理装置102によって実行される。   The video input unit 201 inputs a video for high resolution processing from the video input device 202. The video input unit 201 is executed by the central processing unit 102 when a video input is instructed by the user from the instruction input unit 202 or when instructed by a scheduler (not shown).

ハイライト検出部203の映像取得部207は、映像入力部201が入力した映像から、後述するハイライト検出処理の対象とする時刻のフレームの映像を取得する。以降、映像に対応する時刻を指定するタイムスタンプをPTS(Presentation Time Stamp)とする。この映像の領域ごとのハイライト得点を算出し、ハイライト得点の一番高い領域のみを高解像度化処理するために、映像分割部208は、映像を複数の領域に分割する。ハイライト得点算出部209は、それぞれの分割領域に対して後述するハイライト得点を算出する。ハイライト得点テーブル生成部は、算出されたハイライト得点を、該当するPTSとそれぞれの分割領域とに対応させて、ハイライト得点テーブルに記録する。当該ハイライト得点テーブルは、ハイライト得点テーブル記憶部204に保持される。尚、ハイライト検出部203を構成する各部の処理は中央処理装置102によって実行される。   The video acquisition unit 207 of the highlight detection unit 203 acquires, from the video input by the video input unit 201, a video of a frame at a time targeted for highlight detection processing described later. Hereinafter, a time stamp designating a time corresponding to a video is referred to as a PTS (Presentation Time Stamp). The video dividing unit 208 divides the video into a plurality of areas in order to calculate the highlight score for each area of the video and to perform the resolution enhancement processing only on the area with the highest highlight score. The highlight score calculation unit 209 calculates a highlight score to be described later for each divided region. The highlight score table generation unit records the calculated highlight score in the highlight score table in association with the corresponding PTS and each divided area. The highlight score table is held in the highlight score table storage unit 204. Note that the processing of each unit constituting the highlight detection unit 203 is executed by the central processing unit 102.

映像生成部205は、ハイライト得点テーブルを参照して入力した映像を処理し、出力映像を生成する。映像生成部205の高解像度化処理部211は、ハイライト得点テーブル記憶部204に保持されたハイライト得点テーブルを参照して、各PTSに対応するフレームにおけるハイライト得点の最も高い分割領域を判断し、該当画像に高解像度化処理を行う。表示映像生成部212は、高解像度化された分割領域と高解像度化されていない分割領域の合成を行い、表示する映像を生成する。尚、映像生成部205を構成する各部の処理は、中央処理装置102によって実行される。   The video generation unit 205 processes the input video with reference to the highlight score table to generate an output video. The high resolution processing unit 211 of the video generation unit 205 refers to the highlight score table stored in the highlight score table storage unit 204 to determine the divided region with the highest highlight score in the frame corresponding to each PTS. Then, the high resolution processing is performed on the corresponding image. The display video generation unit 212 synthesizes the divided area with high resolution and the divided area without high resolution, and generates a video to be displayed. Note that the processing of each unit constituting the video generation unit 205 is executed by the central processing unit 102.

表示部206は、映像生成部205で生成した映像を表示装置106に表示する。表示部206は、表示映像生成部が生成した映像を1フレームごとに表示装置106に表示する。この場合、表示部206の処理は、表示映像生成部によって1フレーム分の映像が生成されるごとに中央処理装置102によって実行される。   The display unit 206 displays the video generated by the video generation unit 205 on the display device 106. The display unit 206 displays the video generated by the display video generation unit on the display device 106 frame by frame. In this case, the processing of the display unit 206 is executed by the central processing unit 102 every time one frame worth of video is generated by the display video generation unit.

図3は、高解像度化処理部201による高解像度化処理の一例を説明する図である。   FIG. 3 is a diagram for explaining an example of the resolution enhancement processing by the resolution enhancement processing unit 201.

まず(a)のように、時系列で隣接する、つまり連続するフレームの、複数(ここでは3枚)の原画像301〜303を準備し、小数精度で位置合わせを行う。(b)は、基準位置とする画像301に対して他の画像302,303を位置合わせした状態を示す。位置合わせは、回転や拡大・縮小などの動きも考慮する。こうして標本化位置が整数画素位置からずれた1枚の合成画像を生成する。その後(c)のように、目的とする解像度で再度サンプリングしなおして高解像画像304を生成する。再サンプリングにあたっては、ローパスフィルタを用いて画素数(サンプリング点)を補間して増やす方法、あるいは点広がり関数の逆関数を適用するなどの方法で周辺画素の影響を畳み込みながら、画素値を決定する。その結果、原画像の高周波成分を復元し、原画像に対して解像度が2倍程度の高解像度画像を生成する。この高解像度化処理は、画像の中の被写体が移動している連続画像に対して有効である。   First, as shown in (a), a plurality (three in this case) of original images 301 to 303 adjacent to each other in time series, that is, continuous frames are prepared, and alignment is performed with decimal precision. (B) shows a state in which the other images 302 and 303 are aligned with the image 301 as the reference position. Positioning also takes into account movements such as rotation and enlargement / reduction. In this way, one composite image with the sampling position shifted from the integer pixel position is generated. Thereafter, as shown in (c), the high-resolution image 304 is generated by sampling again at the target resolution. In resampling, the pixel value is determined while convolving the influence of surrounding pixels by a method of interpolating and increasing the number of pixels (sampling points) using a low-pass filter or by applying an inverse function of a point spread function. . As a result, the high-frequency component of the original image is restored, and a high-resolution image having a resolution about twice that of the original image is generated. This high resolution processing is effective for continuous images in which a subject in the image is moving.

なお、高解像度化処理部201による高解像度化処理は上記の方法に限られず、その他従来の高解像度化処理を用いてもかまわない。   Note that the resolution enhancement processing by the resolution enhancement processing unit 201 is not limited to the above method, and other conventional resolution enhancement processing may be used.

図4は、実施例1に係る映像分割の一例である。   FIG. 4 is an example of video division according to the first embodiment.

映像入力部201が入力し、映像取得部207が取得した入力映像401は、一フレーム分の映像内で領域ごとのハイライト得点を算出するために、映像分割部208が2個以上の複数個の画像に分割する。例えば図4に示すように、分割領域A402、分割領域B203、分割領域C404、分割領域D405、の4個に分割する。入力映像401は、必ずしも矩形である必要はなく、他の形でもよく、例えば全周囲映像や魚眼映像のように円形であってもよい。また、分割領域の形は矩形でもよいし、他の形であってもよい。また、各分割領域の大きさや形は全て同じであってもよいし、異なっていてもよい。   The input video 401 input by the video input unit 201 and acquired by the video acquisition unit 207 has a plurality of two or more video dividing units 208 to calculate a highlight score for each area in one frame of video. Divide into images. For example, as shown in FIG. 4, the image is divided into four areas: a divided area A 402, a divided area B 203, a divided area C 404, and a divided area D 405. The input image 401 does not necessarily have to be a rectangle, and may have another shape, for example, a circle such as an all-around image or a fisheye image. Further, the shape of the divided area may be a rectangle or other shapes. Further, the size and shape of each divided region may be the same or different.

ハイライト得点とは、映像の重要度を示す得点である。図4に示すように、映像のある一フレームを複数の領域に分割し、それぞれの分割領域のハイライト得点を算出する。これにより、ハイライト得点の一番高い分割領域をそのフレームでもっとも重要な領域、すなわちハイライト領域であるとすることができる。   A highlight score is a score indicating the importance of a video. As shown in FIG. 4, a certain frame of video is divided into a plurality of areas, and the highlight score of each divided area is calculated. As a result, the divided area having the highest highlight score can be regarded as the most important area in the frame, that is, the highlighted area.

図5は、ハイライト得点算出部におけるハイライト得点を算出する方法の一例を示す図である。   FIG. 5 is a diagram illustrating an example of a method for calculating a highlight score in the highlight score calculation unit.

まず、(a)は映像分割部208がN−1フレームの映像を分割して得た、N−1フレームの分割領域A501であり、同様に(b)はNフレームの分割領域A502である。この連続する2フレームの分割領域Aの画像を2値化し、各画素を比較し、画像のフレーム間差分を検出する。差分の有る画素は「1」、無い画素は「0」として2値画像を生成し、これを(c)の差分画像503とする。「1」で示される、差分の有る画素の合計を、Nフレームにおける分割領域A502のハイライト得点となる。また、この両フレームにおいて差分画像503から特定の移動物体を検出し、移動距離の大きさをハイライト得点に反映させてもよい。以上の説明のように、ハイライト得点は動物体の面積や移動距離を示すことから、ハイライト得点の高い分割領域ほど、ユーザの着目の度合いの大きいハイライトとなる領域であるとすることができる。   First, (a) is an N-1 frame divided area A501 obtained by dividing the video of the N-1 frame by the video dividing unit 208. Similarly, (b) is an N frame divided area A502. The image of the divided area A of two continuous frames is binarized, each pixel is compared, and an inter-frame difference of the image is detected. A binary image is generated with “1” for pixels having a difference and “0” for pixels having no difference, and this is defined as a difference image 503 in (c). The sum of the pixels having a difference indicated by “1” becomes the highlight score of the divided area A502 in N frames. Further, a specific moving object may be detected from the difference image 503 in both frames, and the magnitude of the moving distance may be reflected in the highlight score. As described above, since the highlight score indicates the area of the moving object and the moving distance, it is assumed that a divided region having a higher highlight score is a region that becomes a highlight with a higher degree of user attention. it can.

以上の、ハイライト得点を算出する方法の一例を示す図5では、画像のフレーム間差分を用いて動物体の面積と移動量からハイライト得点を算出する方法を説明した。しかし本実施例ではこの方法に限られず、例えば、テンプレートマッチングによりあらかじめ想定した画像にマッチする分割領域に高いハイライト得点を与える方法を用いてもよい。また、映像や番組ジャンルに応じてハイライト得点の算出法を定義してもよい。例えば野球の試合の映像であれば、あらかじめボールの画像をテンプレートとして保持し、テンプレートマッチングを用いる方法でハイライト得点を算出する。これにより、常にボールを含む領域をハイライト領域とし、ユーザの着目する映像の領域として表示することができる。その他、人間の目が着目する輝度や彩度の高い領域を含む分割領域に高いハイライト得点を与える、などの画像処理を用いた方法によりハイライト得点の算出を行ってもよい。また、映像に付随する映像以外のデータ、例えば音響のデータなどから映像の盛り上がった領域を推定し、ハイライト領域としてもよい。   In FIG. 5 showing an example of the method for calculating the highlight score, the method for calculating the highlight score from the area of the moving object and the movement amount using the inter-frame difference of the image has been described. However, the present embodiment is not limited to this method. For example, a method of giving a high highlight score to a divided region that matches an image assumed in advance by template matching may be used. Also, a method for calculating the highlight score may be defined according to the video or program genre. For example, in the case of a video of a baseball game, an image of the ball is stored in advance as a template, and a highlight score is calculated by a method using template matching. Thereby, the area including the ball can always be used as the highlight area and can be displayed as the area of the video image which the user pays attention. In addition, the highlight score may be calculated by a method using image processing such as giving a high highlight score to a divided region including a luminance or high-saturation region focused on by human eyes. Further, a region where the image is raised may be estimated from data other than the image accompanying the image, for example, audio data, and may be used as a highlight region.

次に、ハイライト得点テーブル生成部210が生成する、ハイライト得点テーブルのデータ構造について説明する。   Next, the data structure of the highlight score table generated by the highlight score table generating unit 210 will be described.

図6は、実施例1におけるハイライト得点テーブルのデータ構造の一例である。ハイライト得点テーブル生成部210は、ハイライト得点算出部209が算出したハイライト得点を、該当するPTSと各分割領域とに対応させて、ハイライト得点テーブル記憶部204が保持するハイライト得点テーブルに記録する。   FIG. 6 is an example of the data structure of the highlight score table in the first embodiment. The highlight score table generation unit 210 associates the highlight score calculated by the highlight score calculation unit 209 with the corresponding PTS and each divided area, and the highlight score table stored in the highlight score table storage unit 204. To record.

図6に示したハイライト得点テーブル601において、PTS602は、ハイライト得点算出部209が、ハイライト得点を算出したフレームのPTSである。全てのフレームの各分割領域のハイライト得点を記録してもよい。また、処理量削減の為に特定の時間(例えば5秒)おきにハイライト得点算出部209がハイライト得点を算出し、ハイライト得点テーブル生成部210が記録してもよい。分割領域の得点603は、PTS602に対応する各分割領域のハイライト得点である。高解像度化処理部211は、このハイライト得点テーブル601を参照し、あるPTSに対応するフレームにおいて最もハイライト得点の高い分割領域に対し高解像度化処理を行う。   In the highlight score table 601 shown in FIG. 6, PTS 602 is the PTS of the frame for which the highlight score calculation unit 209 has calculated the highlight score. You may record the highlight score of each divided area of all the frames. Alternatively, the highlight score calculation unit 209 may calculate the highlight score every specific time (for example, 5 seconds) to reduce the processing amount, and the highlight score table generation unit 210 may record the highlight score. The segment score 603 is a highlight score of each segment corresponding to the PTS 602. The high resolution processing unit 211 refers to the highlight score table 601 and performs high resolution processing on the divided region having the highest highlight score in a frame corresponding to a certain PTS.

図7は、実施例1に係る入力画像のハイライト得点を決定する処理のフローの一例を示す図である。本処理はハイライト得点算出部209によって行われ、映像分割部208により得た特定のフレームの映像の特定の分割領域に対してハイライト得点を算出する。ハイライト得点が高いほどユーザがその分割領域をハイライト領域として着目する度合いが大きいことを示す。   FIG. 7 is a diagram illustrating an example of a processing flow for determining a highlight score of an input image according to the first embodiment. This processing is performed by the highlight score calculation unit 209, and the highlight score is calculated for a specific divided region of the video of the specific frame obtained by the video dividing unit 208. The higher the highlight score, the greater the degree of attention that the user pays attention to the divided area as the highlight area.

ハイライト得点算出部209は、あるフレーム(N−1フレームとする)の特定の分割領域(分割領域Aとする)を取得し(S701)、次に同様に、時系列で隣接するフレーム(Nフレームとする)の分割領域Aを取得する(S702)。続いてN−1フレームとNフレームの分割領域を比較し(S703)、図5で示した方法にしたがって、差分画像を生成する(S704)。生成した差分画像の、差分となった画素数を算出し(S705)、算出された画素数をNフレームのハイライト得点として、ハイライト得点テーブル記憶部204のハイライト得点テーブルに記録する(S706)。分割領域の大きさが全て同じでない場合は、ハイライト得点は各分割領域自体の画素数に応じて正規化してもよい。ハイライト得点が等しい分割領域が存在する場合は、そのひとつ前のPTSに対応するフレームおけるハイライト得点算出時の得点を加算して、新たなハイライト得点を算出してもよい。   The highlight score calculation unit 209 acquires a specific divided region (referred to as divided region A) of a certain frame (referred to as N-1 frame) (S701), and then similarly, adjacent frames (N A divided area A of a frame is acquired (S702). Subsequently, the divided areas of the N-1 frame and the N frame are compared (S703), and a difference image is generated according to the method shown in FIG. 5 (S704). The number of pixels that are the difference of the generated difference image is calculated (S705), and the calculated number of pixels is recorded in the highlight score table of the highlight score table storage unit 204 as an N frame highlight score (S706). ). If the sizes of the divided areas are not all the same, the highlight score may be normalized according to the number of pixels in each divided area itself. When there is a divided area having the same highlight score, a new highlight score may be calculated by adding the score at the time of calculating the highlight score in the frame corresponding to the previous PTS.

次に、実施例1における映像の入力から表示までの処理方法について説明する。   Next, a processing method from video input to display in the first embodiment will be described.

図8は、実施例1における、映像の入力から表示までの処理を示すフローの一例を示す図である。   FIG. 8 is a diagram illustrating an example of a flow showing processing from video input to display in the first embodiment.

図8に示すとおり、映像入力部201は、実施例1による高解像度化処理の対象となる映像を入力する(S801)。映像取得部207は、入力されたPTSに応じた一フレーム分の映像を取得する(S802)。映像分割部208は、取得した映像を複数の領域に分割し、分割領域を生成する(S803)。ハイライト得点算出部209は、分割領域のそれぞれに対して、後述するハイライト得点算出処理を用いてハイライト得点を算出する(S804)。ハイライト得点テーブル生成部210は、算出したそれぞれの分割領域のハイライト得点を、ハイライト得点テーブル記憶部204に保持されるハイライト得点テーブル601に記録する(S805)。高解像度化処理部211は、ハイライト得点テーブル601を参照し、あるPTSに対応するフレームにおいてハイライト得点の最も高い分割領域をハイライト領域に設定し(S806)、図3において説明した高解像度化処理を行う(S807)。表示映像生成部212は高解像度化処理されたハイライト領域と高解像度化処理されていない領域を結合して、表示するフレームの映像を生成する(S808)。表示部206は生成された映像を表示装置106に表示する(S809)。ユーザが処理を終了する指示を出さなければ、または入力映像が終了した為に処理を終了するのでなければ(S810)、映像の入力を継続し、次のフレームの処理を継続し、終了指示があれば処理を終了する(S810)。   As shown in FIG. 8, the video input unit 201 inputs a video to be subjected to a resolution enhancement process according to the first embodiment (S801). The video acquisition unit 207 acquires video for one frame corresponding to the input PTS (S802). The video dividing unit 208 divides the acquired video into a plurality of areas, and generates divided areas (S803). The highlight score calculation unit 209 calculates a highlight score for each of the divided areas using a highlight score calculation process described later (S804). The highlight score table generation unit 210 records the calculated highlight score of each divided area in the highlight score table 601 held in the highlight score table storage unit 204 (S805). The high resolution processing unit 211 refers to the highlight score table 601 and sets the divided region having the highest highlight score in the frame corresponding to a certain PTS as the highlight region (S806), and the high resolution described in FIG. (S807). The display video generation unit 212 combines the highlight region that has been subjected to the high resolution processing and the region that has not been subjected to the high resolution processing, and generates a video of a frame to be displayed (S808). The display unit 206 displays the generated video on the display device 106 (S809). If the user does not give an instruction to end the processing, or if the input video is not finished and the processing is not finished (S810), the video input is continued and the next frame processing is continued. If so, the process ends (S810).

以上の図8に示す入力から表示までの処理のフロー図では、入力された映像の全てのフレームに対しハイライト得点算出処理を行う。ここで処理量軽減のために、例えばあらかじめ指定した特定のフレームの映像をハイライト得点算出の対象とし、例えば15フレームおきの映像に対してハイライト得点の算出をして、その間のフレームのハイライト得点は直前に算出したフレームの得点を継続してもよい。   In the flowchart of processing from input to display shown in FIG. 8 above, highlight score calculation processing is performed for all frames of the input video. Here, in order to reduce the processing amount, for example, an image of a specific frame specified in advance is used as a highlight score calculation target, for example, a highlight score is calculated for an image every 15 frames, and a frame in the meantime is highlighted. As for the light score, the score of the frame calculated immediately before may be continued.

高解像度化処理されたハイライト領域と高解像度化処理されていない領域を結合して表示するフレームの映像を生成する(S808)際に、表示映像生成部212は、結合した分割領域の境界に解像度が滑らかになるよう段階的に解像度を変化させる処理を行っても良い。また、解像度の変化が目立たないように、高解像度化処理の必要が無くなった分割領域に対して徐々に解像度を落とす処理を行っても良い。   When generating a frame image to be displayed by combining the highlight region that has been subjected to the high resolution processing and the region that has not been subjected to the high resolution processing (S808), the display video generation unit 212 sets the boundary between the combined divided regions. You may perform the process which changes a resolution in steps so that resolution may become smooth. Further, in order to prevent the change in resolution from being noticeable, a process of gradually lowering the resolution may be performed on the divided areas that do not require the high resolution process.

図9は、結合した分割領域の境界に、解像度が滑らかになるように段階的に解像度を変化させる処理を行った映像の一例を示した図である。   FIG. 9 is a diagram illustrating an example of an image obtained by performing a process of changing the resolution stepwise so that the resolution becomes smooth at the boundary of the combined divided regions.

図9の(a)の映像において、分割領域A901は高解像度化処理を行った領域であり、分割領域B902は高解像度化処理を行っていない領域であり、分割領域A901と分割領域B902は、表示映像生成部212により結合される。入力映像および高解像度化処理されていない分割領域B902の解像度はJであり、高解像度化処理された分割領域A901の解像度は(2×J)とする。解像度境界線903は分割領域A901と分割領域B902の境界である。表示映像生成部212は、解像度境界線903から分割領域A901側の領域の解像度を段階的に変化させ、解像度の変化の目立たない滑らかな(b)の映像を生成する。例えば解像度境界線903から分割領域A901側に、H画素範囲内の領域904を、解像度((5/3)×J)、さらにH以上(2×H)画素範囲内の領域905を、解像度((4/3)×J)で表示する。   In the video of FIG. 9A, the divided area A901 is an area that has undergone high resolution processing, the divided area B902 is an area that has not been subjected to high resolution processing, and the divided area A901 and the divided area B902 are: The images are combined by the display image generation unit 212. The resolution of the input video and the divided area B902 that has not been subjected to the high resolution processing is J, and the resolution of the divided area A901 that has been subjected to the high resolution processing is (2 × J). A resolution boundary line 903 is a boundary between the divided area A 901 and the divided area B 902. The display video generation unit 212 changes the resolution of the area on the divided area A 901 side from the resolution boundary line 903 in a stepwise manner, and generates a smooth video (b) in which the change in resolution is not noticeable. For example, from the resolution boundary line 903 to the divided area A 901 side, an area 904 in the H pixel range is set to a resolution ((5/3) × J), and an area 905 in the H or more (2 × H) pixel range is set to the resolution ( (4/3) × J).

以上の処理により、高解像度化処理された分割領域A901と高解像度化処理されていない分割領域B902の境界は、解像度が段階的に変化することで、解像度の変化の目立たない滑らかな映像を生成することが可能である。   As a result of the above processing, the resolution of the boundary between the divided region A901 that has been subjected to the high resolution processing and the divided region B902 that has not been subjected to the high resolution processing generates a smooth image that is inconspicuous in the resolution change. Is possible.

以上説明した本発明の実施例1の映像表示装置は、入力映像のハイライト領域を検出して高解像度化を行う領域を制御することにより、ユーザの着目をハイライト位置に促す映像を表示することが可能となる。また、高解像表示が必要なハイライトとなる領域だけに高解像度化処理を行うよう制御することにより、高解像度化処理に用いる計算リソースを低減することが可能となる。   The video display device according to the first embodiment of the present invention described above displays a video that prompts the user to pay attention to the highlight position by detecting a highlight region of the input video and controlling a region where resolution is increased. It becomes possible. Further, it is possible to reduce the calculation resources used for the high resolution processing by performing the control so that the high resolution processing is performed only in a highlight area that requires high resolution display.

実施例2では、映像表示装置は、ある映像に対応するハイライト・メタデータをサーバよりダウンロードし、高解像度化処理を行う。   In the second embodiment, the video display device downloads highlight metadata corresponding to a certain video from the server, and performs a resolution enhancement process.

図10は、実施例2の映像表示装置のハードウェア構成の一例を示した図である。図10の構成では、図1に示した実施例1のハードウェア構成に加えて、サーバから後述するハイライト・メタデータをダウンロードするためのネットワークI/F1001を有する。   FIG. 10 is a diagram illustrating an example of a hardware configuration of the video display apparatus according to the second embodiment. In the configuration of FIG. 10, in addition to the hardware configuration of the first embodiment shown in FIG. 1, a network I / F 1001 for downloading highlight metadata described later from the server is provided.

図11は、実施例2に係る映像表示装置の機能ブロック図の一例である。   FIG. 11 is an example of a functional block diagram of the video display apparatus according to the second embodiment.

図11は図2に示した実施例1に係る機能ブロック図に加え、サーバからハイライト・メタデータをダウンロードするための通信装置1101を有する。また実施例1に係るハイライト得点算出部209、ハイライト得点テーブル生成部210は有さず、ハイライト・メタデータ解析部1102を有する。また、また実施例1に係るハイライト得点テーブル記憶部204は有さず、ハイライトメタデータ記憶部1103を有する。これにより、映像表示装置自体はハイライト検出処理を行わず、あらかじめ定義され、ダウンロードしたハイライト・メタデータを、ハイライトメタデータ解析部1102が解析することで、映像のハイライトを識別する。   FIG. 11 includes a communication device 1101 for downloading highlight metadata from a server in addition to the functional block diagram according to the first embodiment shown in FIG. Further, the highlight score calculation unit 209 and the highlight score table generation unit 210 according to the first embodiment are not provided, but a highlight / metadata analysis unit 1102 is provided. Further, the highlight score table storage unit 204 according to the first embodiment is not provided, but a highlight metadata storage unit 1103 is provided. Accordingly, the video display device itself does not perform highlight detection processing, and the highlight metadata analysis unit 1102 analyzes the highlight metadata that has been defined and downloaded in advance, thereby identifying the video highlight.

図11の映像表示装置において、図2の各構成要素と同じ符号を付した構成要素の機能及び動作は、実施例1と同様であるので説明を省略する。   In the video display device of FIG. 11, the functions and operations of the constituent elements having the same reference numerals as those of the constituent elements of FIG.

次に、通信装置1101がサーバするダウンロードする、ハイライト・メタデータのデータ構造について説明する。   Next, the data structure of the highlight metadata downloaded by the communication device 1101 will be described.

図12は、実施例2におけるハイライト・メタデータのデータ構造の一例である。ハイライトメタデータ解析部1102は、あらかじめサーバに保持され、通信装置1101がダウンロードしたハイライト・メタデータ1201を解析し、対応する映像に関連付ける。ハイライト・メタデータは、任意の作成者が手動で作成してサーバに保持してもよいし、サーバが実施例1の図2に示したハイライト検出部203を持つ構成として作成してもよい。   FIG. 12 is an example of a data structure of highlight metadata in the second embodiment. The highlight metadata analysis unit 1102 analyzes the highlight metadata 1201 previously stored in the server and downloaded by the communication device 1101 and associates it with the corresponding video. The highlight metadata may be manually created by any creator and stored in the server, or may be created as a configuration in which the server has the highlight detection unit 203 shown in FIG. 2 of the first embodiment. Good.

PTS1202は対応する映像のフレームのタイムスタンプである。ハイライト座標U1203及びハイライト座標V1204は、映像のハイライトとなる領域を示す座標である。ハイライト座標U1203とハイライト座標V1204を対角線の両端とする矩形が、対応するPTS1201のフレームの映像のハイライト領域である。ハイライト領域は必ずしも矩形である必要はなく、例えば円形であってもよい。この場合、円形の中心座標と半径を指定してハイライト領域とする。PTS1202とハイライト座標U1203、ハイライト座標V1204は、全てのフレームに対し設定してもよいし、特定のフレームおき、例えば5秒間隔のフレームおきに設定してもよい。この場合、その間のフレームのハイライト領域は、直前に設定されたハイライト領域を継続してもよい。また、連続(パン)で切り替えるなど、ハイライト領域切換法1205の指定にしたがってもよい。   The PTS 1202 is a time stamp of a corresponding video frame. A highlight coordinate U1203 and a highlight coordinate V1204 are coordinates indicating a region to be a video highlight. A rectangle having the highlight coordinate U1203 and the highlight coordinate V1204 at both ends of the diagonal line is the highlight region of the image of the corresponding PTS 1201 frame. The highlight area does not necessarily have to be rectangular, and may be circular, for example. In this case, a circular center coordinate and a radius are designated as a highlight area. The PTS 1202, the highlight coordinate U1203, and the highlight coordinate V1204 may be set for all frames, or may be set every specific frame, for example, every 5 seconds. In this case, the highlight area of the frame in between may continue the highlight area set immediately before. Alternatively, the highlight area switching method 1205 may be specified, such as switching continuously (panning).

以上に説明したハイライト・メタデータをネットワークを介したサーバからダウンロードすることにより、ユーザは本映像表示装置でハイライトとなる領域を検出する計算リソースを削減することが可能となる。また、ハイライト・メタデータにより、映像の任意の時刻の任意の領域をハイライトとすることが可能となる。例えば広告主は、映像の任意の領域をハイライトとなる領域であるとしてユーザに与えることが可能となる。また、ひとつの映像に対して、サーバが異なるメタデータを複数保持してもよい。これにより、ユーザは、それぞれのユーザの主観に応じたハイライト・メタデータを利用し映像を視聴することが可能となる。   By downloading the highlight metadata described above from the server via the network, the user can reduce the calculation resources for detecting the highlight area in the video display apparatus. In addition, it is possible to highlight an arbitrary area of an image at an arbitrary time by highlight metadata. For example, the advertiser can give an arbitrary area of the video to the user as an area to be highlighted. Moreover, a server may hold a plurality of different metadata for one video. Thereby, the user can view the video by using the highlight metadata corresponding to each user's subjectivity.

図13は、実施例2に係る、あるPTSに対応するフレームにおける映像のハイライト領域の一例である。   FIG. 13 is an example of a video highlight area in a frame corresponding to a certain PTS according to the second embodiment.

映像生成部205の高解像度化処理部211は、ハイライトメタデータ解析部1102は、映像の特定のPTSに対応するフレーム1301を用いて、ハイライト・メタデータに示されたハイライト座標U1302とハイライト座標V1303を対角線の両端とする矩形をこのフレームの映像におけるハイライト領域1304であると判断する。ハイライト領域は必ず矩形とする必要はなく、円形など他の形であってもよい。   The resolution enhancement processing unit 211 of the video generation unit 205 and the highlight metadata analysis unit 1102 use the frame 1301 corresponding to the specific PTS of the video and the highlight coordinates U1302 indicated in the highlight metadata. A rectangle having the highlight coordinate V1303 at both ends of the diagonal line is determined to be the highlight area 1304 in the video of this frame. The highlight area does not necessarily have to be a rectangle, and may be another shape such as a circle.

次に、実施例2における映像の入力から表示までの処理方法について説明する。   Next, a processing method from video input to display in the second embodiment will be described.

図14は、実施例1における映像の入力から表示までの処理を示すフロー図の一例である。   FIG. 14 is an example of a flowchart illustrating processing from video input to display in the first embodiment.

図14に示すとおり、指示入力部202は、実施例2による高解像度化処理の対象となる映像指定する外部からの指示を入力する(S1401)。次に、映像に対応するハイライト・メタデータの要求を通信装置1001がサーバに送信し(S1402)、サーバからハイライト・メタデータを受信する(S1403)。次に、映像入力部201は映像の入力を開始し(S1404)、映像取得部207は映像を取得する(S1405)。ハイライトメタデータ解析部1002は、受信したハイライト・メタデータを解析し(S1406)、ハイライト・メタデータに記載されるPTSに対応するフレームのハイライト領域を判断する。以降、図8にて説明した実施例1の処理と同様に、S807〜S810の処理により、映像の生成と表示を行う。   As illustrated in FIG. 14, the instruction input unit 202 inputs an instruction from the outside that designates an image to be subjected to the high resolution processing according to the second embodiment (S1401). Next, the communication device 1001 transmits a request for highlight metadata corresponding to the video to the server (S1402), and receives highlight metadata from the server (S1403). Next, the video input unit 201 starts input of video (S1404), and the video acquisition unit 207 acquires video (S1405). The highlight metadata analysis unit 1002 analyzes the received highlight metadata (S1406), and determines the highlight area of the frame corresponding to the PTS described in the highlight metadata. Thereafter, similar to the processing of the first embodiment described with reference to FIG. 8, the video is generated and displayed by the processing of S807 to S810.

以上説明した本発明の実施例2の映像表示装置は、ハイライト・メタデータをサーバからダウンロードして利用する。これにより、ハイライト検出処理をクライアントとなる映像表示装置で行う必要がないため、映像表示装置の計算リソースの低減が可能となる。また、任意に作成されたハイライト・メタデータを、ネットワークを通して複数のユーザが共有することができる。   The video display apparatus according to the second embodiment of the present invention described above uses the highlight metadata downloaded from the server. As a result, it is not necessary to perform highlight detection processing in the video display device serving as a client, so that the calculation resources of the video display device can be reduced. In addition, arbitrarily created highlight metadata can be shared by a plurality of users through a network.

例えば、ある映像に対して、広告主が、PTSとハイライト位置の座標を示したハイライト・メタデータを作成しサーバに保持させる。その後、このハイライト・メタデータをダウンロードしたユーザに、広告主が意図した特定の画像の領域に着目させることが可能となる。   For example, for a certain video, the advertiser creates highlight metadata indicating the coordinates of the PTS and the highlight position and causes the server to store the highlight metadata. Thereafter, the user who has downloaded the highlight metadata can be made to focus on a specific image area intended by the advertiser.

また、例えば、サーバが、同一の映像に対してハイライトの決定基準の違う複数のハイライト・メタデータを保持するように構成してもよい。この場合、ユーザは個人それぞれの嗜好に応じたハイライト・メタデータを選択して、映像を高解像度化処理し視聴することが可能となる。   For example, the server may be configured to hold a plurality of highlight metadata having different highlight determination criteria for the same video. In this case, the user can select highlight / metadata according to each individual's preference, increase the resolution of the video, and view the video.

実施例3では、映像表示装置は入力映像のハイライト領域を検出し、ハイライト領域を中心にした映像を再生成することで、ユーザが着目するハイライト領域を中心にした映像を表示することが可能となる。   In the third embodiment, the video display device detects the highlight area of the input video and regenerates the video centered on the highlight area, thereby displaying the video centered on the highlight area focused on by the user. Is possible.

実施例3にかかるハードウェア構成は、実施例3では、実施例1の同様の構成であるとして説明する。映像入力部201は、実施例1同様、例えば装置に接続したビデオカメラであったり、後述する記憶装置104あるいは二次記憶装置105に記憶されている映像データを読み込む装置としたり、テレビ放送等を受信する場合には、テレビのチューナとすればよい。本実施例では、映像入力部201は、全周囲画像センサであるとして説明する。全周囲画像センサは、特定の一方向でなく全周囲を同時に撮影対象とするカメラである。   The hardware configuration according to the third embodiment will be described as the same configuration as that of the first embodiment in the third embodiment. As in the first embodiment, the video input unit 201 is, for example, a video camera connected to a device, a device that reads video data stored in the storage device 104 or the secondary storage device 105, which will be described later, or a television broadcast or the like. When receiving, it may be a TV tuner. In the present embodiment, the video input unit 201 will be described as an all-around image sensor. The all-around image sensor is a camera that captures the entire periphery at the same time instead of a specific direction.

図15は、実施例3に係る映像入力部の映像撮影の一例と撮影され本映像表示装置に入力される映像の一例とを表す図である。   FIG. 15 is a diagram illustrating an example of video shooting of the video input unit according to the third embodiment and an example of video shot and input to the video display device.

図15の(a)のように、撮影対象とする空間に、映像入力部201である全周囲画像センサ1501を設置する。全周囲画像センサにより撮影された映像は、(b)のように、極座標で示される円形の映像であり、この画像が、実施例3に係る映像表示装置の入力映像1502である。入力映像は極座標(r、θ)1503で示す。全周囲画像センサ1501は一方向のみでなく全周囲の映像が得られるという面で優れており、監視カメラ用途などで頻繁に用いられるが、一般的にユーザが映像を直感的理解することが困難である。   As shown in FIG. 15A, an omnidirectional image sensor 1501, which is a video input unit 201, is installed in a space to be imaged. The video imaged by the omnidirectional image sensor is a circular video image represented by polar coordinates as shown in (b), and this image is an input video image 1502 of the video display device according to the third embodiment. The input video is indicated by polar coordinates (r, θ) 1503. The omnidirectional image sensor 1501 is excellent in that it can obtain images not only in one direction but also in all directions, and is frequently used in surveillance camera applications, etc., but it is generally difficult for the user to intuitively understand the images. It is.

以下に説明する本実施例の構成により、入力映像のハイライト領域を検出し、入力映像の座標変換処理を行ってハイライト領域を中心とした表示映像を生成することで、ユーザに直感的理解の容易な映像を提供することが可能となる。   With the configuration of the present embodiment described below, the highlight area of the input video is detected, and the input video is subjected to coordinate conversion processing to generate a display video centered on the highlight area, so that the user can intuitively understand It is possible to provide an easy video.

図16は、実施例3に係る映像表示装置の機能ブロック図の一例である。   FIG. 16 is an example of a functional block diagram of the video display apparatus according to the third embodiment.

図16に示す通り、映像入力再生装置は、実施例1と同様に映像入力部201と、指示入力部202と、ハイライト検出部203と、ハイライト得点テーブル記憶部204と、表示部206を有し、ハイライト検出部203は映像取得部207と、映像分割部208と、ハイライト得点算出部209と、ハイライト得点テーブル生成部210から構成される。   As shown in FIG. 16, the video input / playback apparatus includes a video input unit 201, an instruction input unit 202, a highlight detection unit 203, a highlight score table storage unit 204, and a display unit 206, as in the first embodiment. The highlight detection unit 203 includes a video acquisition unit 207, a video division unit 208, a highlight score calculation unit 209, and a highlight score table generation unit 210.

本実施例では、映像生成部1601は、映像座標変換部1602と、表示映像制御部1603から構成される。   In this embodiment, the video generation unit 1601 includes a video coordinate conversion unit 1602 and a display video control unit 1603.

図16の映像表示装置において、図2の各構成要素と同じ符号を付した構成要素の機能及び動作は、実施例1と同様であるので説明を省略する。   In the video display device of FIG. 16, the functions and operations of the constituent elements having the same reference numerals as those of the constituent elements of FIG.

図17は、実施例3にかかる、入力映像1502の分割の一例である。   FIG. 17 is an example of division of the input video 1502 according to the third embodiment.

映像入力部201が入力して映像取得部207が取得した入力映像に対して、映像分割部208は、入力映像を2個以上の複数個の領域に分割する。例えば、分割領域A1701、分割領域B1702、分割領域C1703、分割領域D1704、の4個の領域に分割する。   For the input video input by the video input unit 201 and acquired by the video acquisition unit 207, the video dividing unit 208 divides the input video into two or more regions. For example, the image is divided into four areas: a divided area A1701, a divided area B1702, a divided area C1703, and a divided area D1704.

ハイライト検出部203は、実施例1と同じく、図7に示すハイライト得点の算出方法にしたがって、各分割領域のハイライト得点を算出し、図6に示すハイライト得点テーブル601に記録する。   As in the first embodiment, the highlight detection unit 203 calculates the highlight score of each divided area according to the highlight score calculation method shown in FIG. 7, and records it in the highlight score table 601 shown in FIG.

映像生成部1601は、ハイライト得点テーブルを参照して入力映像を処理し、表示部206に表示する映像を生成する。映像生成部1601の映像座標変換部1602は、記憶部に保持されたハイライト得点テーブルを参照して、各PTSに対応するフレームにおけるハイライト得点の最も高い分割領域がハイライト領域であると判断する。次に、ハイライト領域が中心となるように入力映像1502の座標変換処理を行う。表示映像制御部1603は、ハイライト領域が変化した際の座標変換の制御を行う。ハイライト得点テーブル601より判断できるハイライト領域が変化したPTSの時刻で、表示する画像を切り替えてもよいし、表示映像が滑らかに変化するよう、ハイライト領域が連続的に移動しているように座標変換のパラメータを連続的に変化させる制御を行って、表示映像を生成してもよい。即ち映像生成部1601は映像取得部207から取得した映像に、座標変換を行って再構成し、新たな映像を生成するものである。   The video generation unit 1601 processes the input video with reference to the highlight score table, and generates a video to be displayed on the display unit 206. The video coordinate conversion unit 1602 of the video generation unit 1601 refers to the highlight score table stored in the storage unit and determines that the divided region with the highest highlight score in the frame corresponding to each PTS is the highlight region. To do. Next, coordinate conversion processing of the input video 1502 is performed so that the highlight area is centered. A display video control unit 1603 controls coordinate conversion when the highlight area changes. The image to be displayed may be switched at the time of the PTS at which the highlight area changes that can be determined from the highlight score table 601, and the highlight area is continuously moved so that the display image changes smoothly. The display image may be generated by performing control to continuously change the parameter of the coordinate conversion. That is, the video generation unit 1601 performs coordinate transformation on the video acquired from the video acquisition unit 207 and reconstructs it to generate a new video.

なお、以上説明した図17の構成例では、実施例1と同様にハイライト得点算出部209と、ハイライト得点テーブル生成部210を備えて、ハイライト領域の検出を行い、検出したハイライト領域をハイライト得点テーブル記憶部204に記憶している。   In the configuration example of FIG. 17 described above, a highlight score calculation unit 209 and a highlight score table generation unit 210 are provided in the same manner as in the first embodiment to detect a highlight region, and the detected highlight region. Is stored in the highlight score table storage unit 204.

しかし、実施例3に係る映像表示装置の構成はこれに限られず、例えば、実施例3に係る映像表示装置のハードウェア構成を、図10に示す実施例2と同様、ハイライト・メタデータをダウンロードするためのネットワークI/F1001を有するハードウェア構成としてもよい。   However, the configuration of the video display apparatus according to the third embodiment is not limited to this. For example, the hardware configuration of the video display apparatus according to the third embodiment is the same as in the second embodiment illustrated in FIG. A hardware configuration having a network I / F 1001 for downloading may be used.

この場合、図16に示す実施例3に係る映像表示装置の機能ブロックは、実施例2と同様に、通信装置1101、ハイライト・メタデータ解析部1102、ハイライトメタデータ記憶部1103を備える構成として、映像表示装置自体でハイライト検出処理を行わない構成としてもよい。この場合実施例2と同様に、あらかじめ定義されたハイライト・メタデータをサーバからダウンロードし、ハイライトメタデータ解析部1102において解析することで、映像のハイライトを識別する。この場合の詳細な動作は、実施例2において説明したとおりであるので説明を省略する。   In this case, the functional block of the video display apparatus according to the third embodiment illustrated in FIG. 16 includes a communication device 1101, a highlight / metadata analyzing unit 1102, and a highlight metadata storage unit 1103, as in the second embodiment. Alternatively, the video display device itself may be configured not to perform highlight detection processing. In this case, as in the second embodiment, the highlight metadata defined in advance is downloaded from the server and analyzed by the highlight metadata analysis unit 1102 to identify video highlights. Since the detailed operation in this case is as described in the second embodiment, the description is omitted.

また、表示映像制御部1603に、実施例1または実施例2で説明した高解像度化処理部211の機能を持たせることにより、ハイライト領域が中心となるように座標変換することに加えて、ハイライト領域の高解像度化を行うことも可能である。この場合、ユーザの着目する領域を中心に再構成したうえで、当該領域をより高解像な映像としてユーザに提供することができる。   Further, by providing the display video control unit 1603 with the function of the high resolution processing unit 211 described in the first or second embodiment, in addition to performing coordinate conversion so that the highlight area is centered, It is also possible to increase the resolution of the highlight area. In this case, after reconstructing the area focused on by the user, the area can be provided to the user as a higher resolution video.

図18は、実施例3に係る、映像の入力から表示までの処理のフローの一例を示す図である。   FIG. 18 is a diagram illustrating an example of a processing flow from video input to display according to the third embodiment.

図18に示すとおり、映像の入力(S801)からハイライト得点算出(S801)までの処理は、図8に示す実施例1のフローと同様である。次に、映像座標変換部1602は、ハイライト得点テーブル601を参照し、あるPTSに対応するフレームにおけるハイライト得点の最も高い分割領域を中心とし、後述する映像を座標変換して表示映像を生成する方法にしたがい、表示映像を生成する(S1801)。表示部206は生成された映像を表示装置106に表示する(S1802)。ユーザが処理を終了する指示を出さなければ、または入力映像が終了した為に処理を終了するのでなければ(S1803)、映像の入力を継続し、次のフレームの処理を継続し、終了指示があれば処理を終了する。   As shown in FIG. 18, the processing from video input (S801) to highlight score calculation (S801) is the same as the flow of the first embodiment shown in FIG. Next, the video coordinate conversion unit 1602 refers to the highlight score table 601 and generates a display video by performing coordinate conversion on the video to be described later, centering on the divided region having the highest highlight score in a frame corresponding to a certain PTS. In accordance with this method, a display image is generated (S1801). The display unit 206 displays the generated video on the display device 106 (S1802). If the user does not give an instruction to end the process, or if the input video is not finished and the process is not finished (S1803), the video input is continued and the next frame is continued. If there is, the process is terminated.

図19は、映像生成部1601による、映像を座標変換して表示映像を生成する方法の一例を説明する図である。   FIG. 19 is a diagram for explaining an example of a method for generating a display image by converting the coordinates of the image by the image generation unit 1601.

映像入力部201が入力した入力映像1901は、(a)に示すように、映像取得部207が取得し、(a)に示すように極座標(r、θ)1902で認識する。網掛けで示す 0<θ<2/π の領域1903をハイライト領域とする。極座標は、(1)式により直交座標に変換する。   The input video 1901 input by the video input unit 201 is acquired by the video acquisition unit 207 as shown in (a), and is recognized by polar coordinates (r, θ) 1902 as shown in (a). A region 1903 indicated by shading 0 <θ <2 / π is a highlight region. Polar coordinates are converted into orthogonal coordinates by equation (1).

Figure 2009246917
Figure 2009246917

x−y直交座標における変換後の座標を(Xa,Ya)とする。次に、(b)に示すように、ハイライト領域の中心がy軸と重なるように、4/π 回転する。回転後の映像の座標を(Xb、Yb1904とすると、回転による座標変換は(2)式で示される。 The coordinates after conversion in the xy orthogonal coordinates are assumed to be (Xa, Ya). Next, as shown in (b), the highlight area is rotated by 4 / π so that the center of the highlight area overlaps the y-axis. If the coordinates of the image after rotation are (Xb, Yb1904), coordinate conversion by rotation is expressed by equation (2).

Figure 2009246917
Figure 2009246917

次に、(c)のようにz軸を設定し、ハイライト領域を、x2+y2+z2=r2、r>0で示すの半球面に射影する。球面上に射影された映像の座標は(Xc、Yc、Zc)1905は、(3)式で示される。 Next, as shown in (c), the z-axis is set, and the highlight region is projected onto a hemisphere represented by x 2 + y 2 + z 2 = r 2 , r> 0. The coordinates of the image projected on the spherical surface (Xc, Yc, Zc) 1905 are expressed by the equation (3).

Figure 2009246917
Figure 2009246917

(c)で球面上に投影された映像を、(d)のようにx−z平面1906に正射影し生成した映像(Xd、Zd)1907を表示画像とし、表示部206がユーザに提供する。 The image (Xd, Zd) 1907 generated by orthogonally projecting the image projected on the spherical surface in (c) onto the xz plane 1906 as shown in (d) is used as a display image, and the display unit 206 provides the image to the user. .

Figure 2009246917
Figure 2009246917

図20は、実施例3に係る、ユーザに映像を表示する画面の一例である。   FIG. 20 is an example of a screen for displaying video to the user according to the third embodiment.

2001は、図19により説明した座標変換により映像を生成する方法を用いて、映像生成部1601が生成した映像の表示画面の例である。2002の画面例ように、正射影を透視法射影としてもよいし、2003の画面例のように、さらに矩形に座標変換処理を行って表示してもよい。さらに、「盛り上がった領域」を中心に生成した映像に高解像度化処理を行ってもよい。また、入力画像における「盛り上がり領域」をしめす画像2004を重畳して表示してもよい。これにより、必要があれば全周囲映像における方向の情報を失わず、また立体感のある表示で、ユーザが着目するハイライト領域を理解が容易な映像で表示することが可能になる。   Reference numeral 2001 denotes an example of a video display screen generated by the video generation unit 1601 using the method of generating a video by coordinate conversion described with reference to FIG. As in the screen example 2002, the orthographic projection may be a perspective projection, or as shown in the screen example 2003, a coordinate conversion process may be further performed on the rectangle. Furthermore, high resolution processing may be performed on the video generated centering on the “swelled area”. In addition, an image 2004 indicating a “swelling area” in the input image may be superimposed and displayed. Thereby, if necessary, the direction information in the all-around video is not lost, and it is possible to display the highlight area focused by the user in an easily understandable video with a stereoscopic display.

実施例3により、例えば監視カメラや車載カメラの全周囲映像による入力映像に対し、ハイライト領域、すなわちユーザが着目すべき映像特徴を持つ映像領域を中心に再構成した映像を表示することができる。また、テレビ番組やホームビデオの映像を入力映像とした場合においても、同様の効果が得られる。   According to the third embodiment, for example, a reconstructed image centered on a highlight region, that is, a video region having a video feature that a user should pay attention to, can be displayed with respect to an input image that is an all-around video of a surveillance camera or an in-vehicle camera. . The same effect can be obtained when the video of a TV program or home video is used as the input video.

以上説明した本発明の実施例3の映像表示装置により、入力映像からハイライト領域を検出し、ハイライト領域を中心とした映像を再構成して表示することで、映像のPTSごとに、ユーザの着目すべき領域を中心に再構成した映像を、ユーザに提供することが可能となる。   The video display device according to the third embodiment of the present invention described above detects a highlight area from an input video and reconstructs and displays a video centering on the highlight area, so that the user can display the video for each PTS. It is possible to provide the user with an image reconstructed around the area to be focused on.

実施例1の映像表示装置のハードウェア構成の一例を示す図。1 is a diagram illustrating an example of a hardware configuration of a video display device according to Embodiment 1. FIG. 実施例1の映像表示装置のソフトウェア構成の一例を示す図。FIG. 3 is a diagram illustrating an example of a software configuration of the video display apparatus according to the first embodiment. 高解像度化処理部211による高解像度化処理の方法の一例を説明する図。The figure explaining an example of the method of the high resolution process by the high resolution process part. 実施例1の入力映像の分割の一例を示す図。FIG. 3 is a diagram illustrating an example of division of input video according to the first embodiment. 実施例1のフレーム間差分映像の一例を示す図。FIG. 6 is a diagram illustrating an example of an inter-frame difference video according to the first embodiment. ハイライト得点テーブルのデータ構造の一例を示す図。The figure which shows an example of the data structure of a highlight score table. 入力映像の分割領域のハイライト得点の算出処理のフローの一例を示す図。The figure which shows an example of the flow of a calculation process of the highlight score of the division area of an input image | video. 入力映像からハイライト領域を検出し高解像度化処理するフローの一例を示す図。The figure which shows an example of the flow which detects a highlight area | region from an input image | video and performs high resolution processing. 結合した分割領域の境界に、解像度が滑らかになるように段階的に解像度を変化させる処理を行った映像の一例を示す図。The figure which shows an example of the image | video which performed the process which changes the resolution in steps so that the resolution may become smooth in the boundary of the combined division area. 実施例2の映像表示装置のハードウェア構成の一例を示す図。FIG. 6 is a diagram illustrating an example of a hardware configuration of a video display device according to a second embodiment. 実施例2の映像表示装置のソフトウェア構成の一例を示す図。FIG. 6 is a diagram illustrating an example of a software configuration of a video display device according to a second embodiment. ハイライト・メタデータのデータ構造の一例を示す図。The figure which shows an example of the data structure of highlight metadata. ハイライト・メタデータに指定されたハイライト領域の一例を示す図。The figure which shows an example of the highlight area | region designated by highlight metadata. ハイライト・メタデータに指定されたハイライト領域を高解像度化処理するフローの一例を示す図。The figure which shows an example of the flow which carries out high resolution processing of the highlight area | region designated by highlight metadata. 実施例3の映像の入力方法と入力映像の一例を示す図。FIG. 10 is a diagram illustrating an example of an image input method and an input image according to the third embodiment. 実施例3の映像表示装置のソフトウェア構成の一例を示す図。FIG. 10 is a diagram illustrating an example of a software configuration of a video display device according to a third embodiment. 実施例3の入力映像の分割の一例を示す図。FIG. 10 is a diagram illustrating an example of division of an input video according to the third embodiment. 入力映像からハイライト領域を中心とした映像を生成する処理のフローの一例を示す図。The figure which shows an example of the flow of a process which produces | generates the image | video centering on a highlight area | region from an input image | video. ハイライト領域を中心とする映像を生成する方法の方法の一例を示す図。The figure which shows an example of the method of the method of producing | generating the image | video centering on a highlight area | region. 表示部206が表示する、生成した映像の提示画面の一例を示す図。The figure which shows an example of the presentation screen of the produced | generated image | video which the display part 206 displays.

符号の説明Explanation of symbols

101…映像入力装置
102…中央処理装置
103…指示入力装置
104…記憶装置
105…二次記憶装置
106…表示装置
201…映像入力部
202…指示入力部
203…ハイライト検出部
204…ハイライト得点記憶部
205…映像生成部
206…表示部
207…映像取得部
208…映像分割部
209…ハイライト得点算出部
210…ハイライト得点テーブル生成部
211…高解像度化処理部
212…表示映像生成部
901…ネットワークI/F
1001…通信装置
1002…ハイライト・メタデータ解析部
1003…ハイライト・メタデータ記憶部
1601…映像生成部
1602…映像座標変換部
1603…表示映像制御部
DESCRIPTION OF SYMBOLS 101 ... Video input device 102 ... Central processing unit 103 ... Instruction input device 104 ... Storage device 105 ... Secondary storage device 106 ... Display device 201 ... Video input unit 202 ... Instruction input unit 203 ... Highlight detection unit 204 ... Highlight score Storage unit 205 ... Video generation unit 206 ... Display unit 207 ... Video acquisition unit 208 ... Video division unit 209 ... Highlight score calculation unit 210 ... Highlight score table generation unit 211 ... High resolution processing unit 212 ... Display video generation unit 901 ... Network I / F
DESCRIPTION OF SYMBOLS 1001 ... Communication apparatus 1002 ... Highlight / metadata analysis part 1003 ... Highlight / metadata storage part 1601 ... Video | video production | generation part 1602 ... Video coordinate conversion part 1603 ... Display video control part

Claims (10)

映像が入力される映像入力部と、
前記映像入力部に入力された映像を複数の領域に分割する映像分割部と、
前記映像入力部に入力された映像を高解像度化する高解像処理部とを備え、
前記高解像処理部は、前記映像入力部に入力された映像のうち、前記映像分割部が分割した一部の領域を高解像化することを特徴とする映像表示装置。
A video input unit to which video is input;
A video dividing unit that divides the video input to the video input unit into a plurality of regions;
A high resolution processing unit for increasing the resolution of the video input to the video input unit,
The video display device, wherein the high resolution processing unit performs high resolution on a part of the video divided by the video dividing unit in the video input to the video input unit.
請求項1に記載の映像表示装置であって、
前記映像分割部により分割された複数の領域についての重要度を算出する重要度算出部を備え、
前記高解像処理部は、前記重要度算出部が算出した重要度に応じて、前記前記映像分割部が分割した複数の領域の解像度を異ならせることを特徴とする映像表示装置。
The video display device according to claim 1,
An importance calculation unit for calculating importance for a plurality of areas divided by the video dividing unit;
The video display device, wherein the high-resolution processing unit varies the resolution of the plurality of regions divided by the video dividing unit according to the importance calculated by the importance calculating unit.
請求項2に記載の映像表示装置であって、
前記高解像処理部の処理により互いに解像度の異なる領域となった複数の領域を含む表示映像を表示する映像表示部を備えることを特徴とする映像表示装置。
The video display device according to claim 2,
An image display device comprising: an image display unit that displays a display image including a plurality of areas having different resolutions by processing of the high resolution processing unit.
請求項3に記載の映像表示装置であって、
前記映像表示部は、前記互いに解像度の異なる領域となった複数の境界における解像度を段階的に変化させて表示することを特徴とする映像表示装置。
The video display device according to claim 3,
The video display device is characterized in that the video display unit displays the resolution at a plurality of boundaries that are different in resolution from each other in stages.
入力映像が入力される映像入力部と、
前記入力映像の重要度が高い領域を示すハイライト・メタデータを解析する解析部と、
前記入力映像のうち、前記解析部により解析されたハイライト・メタデータにより指定された映像領域を他の映像領域よりも高解像度化する高解像処理部と、
前記高解像処理部により高解像度化された映像領域を含む表示映像を表示する映像表示部とを備えることを特徴とする映像表示装置。
A video input section for input video;
An analysis unit that analyzes highlight metadata indicating a region of high importance of the input video;
Among the input video, a high-resolution processing unit that makes the video region specified by the highlight metadata analyzed by the analysis unit higher resolution than other video regions,
A video display device comprising: a video display unit that displays a display video including a video region that has been increased in resolution by the high resolution processing unit.
請求項5に記載の映像表示装置であって、
前記映像表示部は、前記高解像処理部により高解像度化された領域と、前記高解像処理部により高解像度化されていない領域との境界における解像度を段階的に変化させた表示映像を表示することを特徴とする映像表示装置。
The video display device according to claim 5,
The video display unit displays a display video in which the resolution at a boundary between a region whose resolution has been increased by the high resolution processing unit and a region whose resolution has not been increased by the high resolution processing unit is changed stepwise. A video display device characterized by displaying.
入力映像が入力される映像入力部と、
前記入力映像におけるハイライト領域に関する情報を記憶する記憶部と、
前記入力映像のうち、前記記憶部に記憶されたハイライト領域に関する情報により指定される領域の映像を座標変換して新たな映像に再構成する映像再構成部とを備えることを特徴とする映像処理装置。
A video input section for input video;
A storage unit for storing information on a highlight area in the input video;
A video reconstructing unit that coordinates-transforms a video in an area specified by information on a highlight area stored in the storage unit from the input video and reconstructs the video into a new video; Processing equipment.
請求項7に記載の映像処理装置であって、
前記映像入力部に入力された映像を複数の領域に分割する映像分割部と、
前記映像分割部により分割された複数の領域についての重要度を算出する重要度算出部を備え、
前記記憶部に記憶部に記憶されるハイライト領域に関する情報は、前記重要度算出部により算出された前記分割された複数の領域における重要度の情報であることを特徴とする映像処理装置。
The video processing device according to claim 7,
A video dividing unit that divides the video input to the video input unit into a plurality of regions;
An importance calculation unit for calculating importance for a plurality of areas divided by the video dividing unit;
The video processing apparatus characterized in that the information on the highlight area stored in the storage unit in the storage unit is information on the importance in the plurality of divided areas calculated by the importance calculation unit.
請求項7に記載の映像処理装置であって、
前記入力映像の重要度が高い領域を示すハイライト・メタデータを解析する解析部を備え、
前記記憶部に記憶部に記憶されるハイライト領域に関する情報は、前記解析部により解析されたハイライト・メタデータにより指定されたハイライト領域に関する情報であることを特徴とする映像処理装置。
The video processing device according to claim 7,
An analysis unit for analyzing highlight metadata indicating a region of high importance of the input video;
The video processing apparatus according to claim 1, wherein the information related to the highlight area stored in the storage unit in the storage unit is information related to the highlight area specified by the highlight metadata analyzed by the analysis unit.
請求項7に記載の映像処理装置であって、
前記映像再構成部が再構成した映像における、前記ハイライト領域に関する情報により指定される領域に対応する領域について高解像度化する高解像度化処理部を備えることを特徴とする映像処理装置。
The video processing device according to claim 7,
An image processing apparatus, comprising: a resolution enhancement processing unit configured to increase a resolution of an area corresponding to an area specified by information on the highlight area in the image reconstructed by the image reconstruction unit.
JP2008094472A 2008-04-01 2008-04-01 Video display device, and video processing apparatus Pending JP2009246917A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008094472A JP2009246917A (en) 2008-04-01 2008-04-01 Video display device, and video processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008094472A JP2009246917A (en) 2008-04-01 2008-04-01 Video display device, and video processing apparatus

Publications (1)

Publication Number Publication Date
JP2009246917A true JP2009246917A (en) 2009-10-22

Family

ID=41308310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094472A Pending JP2009246917A (en) 2008-04-01 2008-04-01 Video display device, and video processing apparatus

Country Status (1)

Country Link
JP (1) JP2009246917A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121741A1 (en) * 2010-03-30 2011-10-06 富士通株式会社 Image generation device, image generation program, synthesis table generation device, and synthesis table generation program
JP2012175631A (en) * 2011-02-24 2012-09-10 Mitsubishi Electric Corp Video monitoring device
JP2018113618A (en) * 2017-01-12 2018-07-19 三菱電機インフォメーションシステムズ株式会社 Video stream processing device, video stream processing program, and video monitoring system
JP2018519773A (en) * 2015-06-15 2018-07-19 コヒーレント シンクロ エス.エル. Method, apparatus and equipment for configuring a video signal
JP2019513275A (en) * 2016-02-26 2019-05-23 アイオムニセント ピーティーワイ リミテッド Monitoring method and device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111050A (en) * 2001-09-27 2003-04-11 Olympus Optical Co Ltd Video distribution server and video reception client system
JP2004357239A (en) * 2003-05-30 2004-12-16 Canon Inc Method for displaying image of image system and image processing device
JP2005109725A (en) * 2003-09-29 2005-04-21 Victor Co Of Japan Ltd Video image monitoring system
JP2006092450A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Image processor and image processing method
JP2006099404A (en) * 2004-09-29 2006-04-13 Sanyo Electric Co Ltd Image display device
JP2006101075A (en) * 2004-09-29 2006-04-13 Sanyo Electric Co Ltd Image compression apparatus
JP2006121320A (en) * 2004-10-20 2006-05-11 Fuji Photo Film Co Ltd Omnidirectional monitor camera device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111050A (en) * 2001-09-27 2003-04-11 Olympus Optical Co Ltd Video distribution server and video reception client system
JP2004357239A (en) * 2003-05-30 2004-12-16 Canon Inc Method for displaying image of image system and image processing device
JP2005109725A (en) * 2003-09-29 2005-04-21 Victor Co Of Japan Ltd Video image monitoring system
JP2006092450A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Image processor and image processing method
JP2006099404A (en) * 2004-09-29 2006-04-13 Sanyo Electric Co Ltd Image display device
JP2006101075A (en) * 2004-09-29 2006-04-13 Sanyo Electric Co Ltd Image compression apparatus
JP2006121320A (en) * 2004-10-20 2006-05-11 Fuji Photo Film Co Ltd Omnidirectional monitor camera device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121741A1 (en) * 2010-03-30 2011-10-06 富士通株式会社 Image generation device, image generation program, synthesis table generation device, and synthesis table generation program
US9030524B2 (en) 2010-03-30 2015-05-12 Fujitsu Limited Image generating apparatus, synthesis table generating apparatus, and computer readable storage medium
JP2012175631A (en) * 2011-02-24 2012-09-10 Mitsubishi Electric Corp Video monitoring device
JP2018519773A (en) * 2015-06-15 2018-07-19 コヒーレント シンクロ エス.エル. Method, apparatus and equipment for configuring a video signal
JP2019513275A (en) * 2016-02-26 2019-05-23 アイオムニセント ピーティーワイ リミテッド Monitoring method and device
JP7036493B2 (en) 2016-02-26 2022-03-15 アイオムニセント ピーティーワイ リミテッド Monitoring method and equipment
US11670147B2 (en) 2016-02-26 2023-06-06 Iomniscient Pty Ltd Method and apparatus for conducting surveillance
JP2018113618A (en) * 2017-01-12 2018-07-19 三菱電機インフォメーションシステムズ株式会社 Video stream processing device, video stream processing program, and video monitoring system

Similar Documents

Publication Publication Date Title
JP6627861B2 (en) Image processing system, image processing method, and program
US10762653B2 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
JP7017175B2 (en) Information processing equipment, information processing method, program
US20220207645A1 (en) Dynamically cropping digital content for display in any aspect ratio
US11107195B1 (en) Motion blur and depth of field for immersive content production systems
JP5634111B2 (en) Video editing apparatus, video editing method and program
US10846535B2 (en) Virtual reality causal summary content
US11244423B2 (en) Image processing apparatus, image processing method, and storage medium for generating a panoramic image
JP4414708B2 (en) Movie display personal computer, data display system, movie display method, movie display program, and recording medium
JP6628343B2 (en) Apparatus and related methods
JP4451892B2 (en) Video playback device, video playback method, and video playback program
JP2009246917A (en) Video display device, and video processing apparatus
CN110730340B (en) Virtual audience display method, system and storage medium based on lens transformation
US10789987B2 (en) Accessing a video segment
CN108156512B (en) Video playing control method and device
JP2004007284A (en) Video recording system, its program, and recording medium
US10687040B2 (en) Capturing and displaying a video in an immersive reality environment
JP5787930B2 (en) Virtual navigation system for video
JP2009258862A (en) Video display device and image display method
EP4350626A1 (en) Image processing system, method for controlling the same, and program
JP2022158615A (en) Image processing device, image processing method, and program
JP2023500450A (en) Fixed rendering of audio and video streams based on device rotation metrics
JP5854019B2 (en) Terminal device and program
JP5089648B2 (en) Video comparison device, video comparison method, video comparison program, and video comparison program recording medium
JP2007180920A (en) Image processor, electronic equipment, program, information storage medium and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130212