WO2006072985A1 - 映像表示装置 - Google Patents

映像表示装置 Download PDF

Info

Publication number
WO2006072985A1
WO2006072985A1 PCT/JP2005/000076 JP2005000076W WO2006072985A1 WO 2006072985 A1 WO2006072985 A1 WO 2006072985A1 JP 2005000076 W JP2005000076 W JP 2005000076W WO 2006072985 A1 WO2006072985 A1 WO 2006072985A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
window
compressed
video window
display
Prior art date
Application number
PCT/JP2005/000076
Other languages
English (en)
French (fr)
Inventor
Toshiyuki Hagiwara
Atsushi Tanaka
Manami Naito
Yasunori Tsubaki
Original Assignee
Mitsubishi Denki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Denki Kabushiki Kaisha filed Critical Mitsubishi Denki Kabushiki Kaisha
Priority to JP2006550562A priority Critical patent/JPWO2006072985A1/ja
Priority to PCT/JP2005/000076 priority patent/WO2006072985A1/ja
Priority to US11/794,762 priority patent/US20080129648A1/en
Priority to CNA2005800461257A priority patent/CN101099193A/zh
Priority to EP05703344A priority patent/EP1843322A1/en
Publication of WO2006072985A1 publication Critical patent/WO2006072985A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/0806Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division the signals being two or more video signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling
    • G09G2360/122Tiling

Definitions

  • the present invention relates to a video display device for simultaneously displaying a plurality of video windows on a single display screen.
  • a monitoring system is used.
  • a display device used in this monitoring system there is a multi-large screen display device that is a combination of multiple large-sized projection display devices such as 50-inch and 70-inch. There are the following two methods.
  • One method is a method in which a video signal sent via a cable from a surveillance camera cable is combined with a screen signal of a computer by a video synthesizing device and displayed.
  • the video composition by the video composition device has a problem that the number of images that can be displayed is limited by the specifications of the video composition device.
  • the other method is to digitally display the video captured from the surveillance camera, perform compression encoding using video encoding methods such as JPEG, MPEG2, MPEG4, etc.
  • video encoding methods such as JPEG, MPEG2, MPEG4, etc.
  • the latter method is increasing.
  • an overlap window type multi-window system is mainly used.
  • a multi-window system multiple display areas called windows can be displayed at the same time, and applications can draw on their own windows without being aware of overlapping with other windows. It is. More specifically, if the windows overlap, they are exposed on the screen The force that needs to perform clip processing that only draws the part The system itself does the processing, so the application itself does not need to be aware of it.
  • the user's degree of interest in the image is obtained from the display state such as the overlapping order of the images on the screen and the display area of the image, and the compression rate, the number of frames, and the image are displayed according to the level of interest.
  • a video display processing method and system for reducing the load on a computer for monitoring and controlling a communication channel by changing the prime number see, for example, Patent Document 1).
  • Patent Document 1 Japanese Patent Laid-Open No. 6-324662
  • the conventional video display device is configured as described above, it is not displayed when the windows overlap with each other. As a result, there was a problem that the processing load increased.
  • the priority of the entire window is not necessarily lowered, and only a part of the window needs to be visible. In some cases.
  • the lower window is considered to have a low priority, and its image quality, number of frames, and number of pixels are reduced, which hinders monitoring work. This is the problem.
  • the present invention has been made to solve the above-described problems, and does not perform video expansion processing only on portions that are not displayed due to overlapping of windows or protruding outside the screen. By doing so, it is an object to obtain a video display device that reduces useless video expansion processing and reduces processing load. Disclosure of the invention
  • a video display device updates a video window management table for managing video window information related to a video window, and updates video window information in the video window management table by detecting a change in the display state of the video window.
  • Video window change detection means compressed video area cutout means for cutting out part of the image area of the digital video displayed in the video window according to the video window information, and digital video image area cut out by the compressed video cutout means
  • a video display means for displaying the digital video expanded by the compressed video expansion means in a video window on the display screen.
  • the visible region information is displayed.
  • the video window information including the image data is managed by the video window management table, and only the compressed video data in the visible area is cut out before the video decompression process. There is.
  • FIG. 1 is a configuration diagram of a video display apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing a state in which an image is divided into a plurality of image areas by tiles in the first embodiment of the present invention.
  • FIG. 3 is a JPEG2000 code format compressed video format according to Embodiment 1 of the present invention.
  • FIG. 4 is an explanatory diagram of the video window management table in FIG. 1.
  • FIG. 5 is a diagram showing an example of a visible region in the first embodiment of the present invention.
  • FIG. 6 is a diagram showing a processing flow of the video display device of FIG. 1.
  • FIG. 7 is a diagram showing an example of a video window management table in the processing flow of FIG.
  • FIG. 8 is a flowchart showing a processing flow of compressed video area cutout means in FIG. 1.
  • FIG. 9 is a flowchart showing a more detailed processing flow of step ST401 in FIG.
  • FIG. 10 is a diagram showing an example in which the processing flow of FIG. 9 is applied to video B of FIG.
  • FIG. 11 is a diagram showing a process of step ST4015 in the example of FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a configuration diagram of a video display apparatus according to the first embodiment.
  • the video display device includes a video window management table 2, a video window change detection unit 3, a compressed video area cutout unit 4, a compressed video expansion unit 5, and a video display unit 6. Details of each component will be described later.
  • compressed video data 1 is obtained by dividing a digital video into a plurality of image areas in units of one frame and compressing them.
  • video compression encoding methods such as PEG, MPEG2, and MPEG4.
  • the PEG2000 encoding method handles video as a collection of continuous still images called frames, and compresses video in independent frame units. This is generally called intra-frame code ⁇ .
  • JPEG is also an intraframe code.
  • MPEG2 and MPEG4 are methods of compression using the correlation between consecutive frames, and are called interframe codes.
  • the JPEG2000 encoding method can store a frame by dividing a plurality of image areas into compression codes.
  • FIG. 2 is a diagram showing a state in which the video is divided into a plurality of image areas by tiles in the first embodiment.
  • the JPEG2000 encoding method there are two methods for dividing video into multiple image areas: tile and precinct.
  • tile is used as the image region dividing method.
  • Figure 2 shows a case where an image with a resolution of 640 x 480 pixels is divided into tiles of 160 x 120 pixels. Image area division by tile is divided into 160 x 120 pixels from the upper left corner of the video, and divided into 16 tiles.
  • the tile number is a combination of horizontal and vertical numbers.
  • FIG. 3 shows a compressed video format of the JPEG2000 encoding method in the first embodiment.
  • the format of one frame of the compressed video data 1 is as shown in FIG.
  • JPEG2000 encoded video data starts with a marker called SOC and ends with a marker called EOC.
  • Marker is 2 bytes long data Yes, it consists of 1 byte (Oxff) of marker pref status indicating the marker and 1 byte of marker identifier.
  • the SOC marker is 0xff4f.
  • the main header stores information about the image. Since the detailed contents of the main header are not related to the first embodiment, the explanation is omitted.
  • tiles are used to divide image areas, but precinct can also be used.
  • FIG. 4 is an explanatory diagram of the video window management table 2 in FIG.
  • the video window management table 2 stores information on video windows on the display screen (hereinafter referred to as video window information). That is, the video window management table 2 is a list of video window information.
  • the video window information includes a video identifier for identifying the video, a display position DX, DY that is the coordinate value of the upper left corner of the video window on the screen, and a video size DW, DH that is the number of pixels in the horizontal and vertical directions of the video.
  • visible area information which is information related to the visible area of the video window.
  • the visible area is the area that is actually displayed on the screen except for the entire area of the video window that is not visible because it overlaps with other windows or protrudes outside the screen.
  • video window information of all video windows is managed by one video window management table 2, but a video window management table may be provided for each video window.
  • FIG. 5 is a diagram illustrating an example of a visible region in the first embodiment.
  • two video windows are displayed on the display screen, and video window 1 is overlaid on video window 2.
  • video window 2 has a right edge that protrudes outside the screen.
  • the visible areas of the video window 1 and the video window 2 are as shown in FIG.
  • the visible region is expressed as a combination of multiple rectangles. Rectangle No. 0 and Rectangle No. 1 in video window 2 are visible areas, and the other parts are invisible areas.
  • the visible area information includes the number N of rectangles constituting the visible area and rectangle information relating to each rectangle (see Fig. 4).
  • the rectangle information is the local of the video window with the upper left corner of the video window as the origin.
  • it has Xi and Yi which are the coordinate values of the rectangle start position, a rectangle width Wi which is the number of pixels in the horizontal direction of the rectangle, and a rectangle height Hi which is the number of pixels in the vertical direction of the rectangle.
  • i is the rectangle number (see Figure 4).
  • video window change detection means 3 detects display changes related to windows such as movement, display size change, and vertical relation change of all video windows displayed on the display screen, When the video window information related to the video window changes, the contents of the video window management table 2 are updated.
  • the compressed video area extraction means 4 is stored in the video window management table 2 and corresponds to the area to be displayed in units of one frame of compressed video data based on the visible area information of the video window corresponding to the digital video. Take out the tile and reconstruct the compressed video data in units of rectangles.
  • the compressed video decompression means 5 decompresses the compressed video data in units of one frame from the JPEG2000 video in the visible area cut out in rectangular units by the compressed video area cutout means 4.
  • the video display means 6 is decompressed by the compressed video decompression means 5 and displays the JPEG2000 video on the display screen.
  • FIG. 6 is a diagram showing a processing flow of the video display device of FIG.
  • the video window 701 that displays the video A overlaps the video window 7002 that displays the video B.
  • the compressed video data la is the compressed video data of video A, and is composed of N frame cameras.
  • Compressed video data lb is the compressed video data of video B and consists of N frames.
  • the compressed video data la and lb of video A and video B have a resolution of 640 ⁇ 480 and are divided into 160 ⁇ 120 pixel tiles and compressed by the JPEG2000 encoding method.
  • the format of the compressed video data is the same as in Fig. 2.
  • FIG. 7 is a diagram showing an example of a video window management table in the processing flow of FIG.
  • the contents of the video window management table 2 are as shown in FIG.
  • the video window change detection means 3 detects a change in the display state of the video window, it first determines whether or not the video window that has changed is outside the display screen. Only the area within the display screen is determined as the visible area. Next, the overlapping area with all windows positioned above the changed video window is excluded, and the visible area of the changed video window is obtained. In addition, for all video windows other than the video window that has changed, the visible area information is obtained in the same manner, and the video window management table 2 is updated.
  • video window information 1 and 2 are information relating to video windows 701 and 702, respectively.
  • the rectangle information is information about each rectangle in the video window.
  • frame 1 of compressed video data lb of video B is input to compressed video area cutout means 4.
  • the compressed video area extraction means 4 extracts compressed video data for a part of the image areas according to the video window information corresponding to the video B in the video window management table 2.
  • FIG. 8 is a flowchart showing a processing flow of the compressed video area cutout means 4 in FIG.
  • step ST400 the compressed video area cutout unit 4 acquires video window information from the video window management table 2 for the video window displaying the video B.
  • step ST401 using the visible region information of the video window information acquired in step ST400, all tiles that overlap the visible region are obtained, and the tiles are classified into a plurality of groups in units of rectangles.
  • step ST402 for the group classified in step ST401, JPEG200
  • FIG. 9 is a flowchart showing a more detailed processing flow of step ST401 in FIG. With reference to Fig. 9, the processing flow for obtaining tiles that overlap the visible area from the visible area information will be described.
  • XTNum and YTNum which are the numbers of tiles in the horizontal and vertical directions of the video, are obtained from the following equations.
  • XTNum ceiling (DW / XTSiz)
  • DW and DH indicate the horizontal size and vertical size of the video
  • XTS iz and YTSiz indicate the horizontal size and vertical size of the tile, respectively.
  • XTSiz and YTSiz are included in the main header part of the compressed video data. A detailed description of the main header is omitted.
  • Ceiling (X) is a function that outputs the smallest integer equal to or greater than X.
  • step ST4011 a two-dimensional array TI [XTNum] [YTNum] is prepared to indicate whether the value of the array with the tile number as an index overlaps the visible region, and the two-dimensional array TI [XTNum] [YTNum] All elements of] are initialized to 0.
  • step ST4012 when the value of array TI [K] [L] is ⁇ , tile (K, L) does not overlap the visible region, and the value of array TI [K] [L] is (i + 1) ), Tile (K, L) overlaps the visible region.
  • 0 is substituted as the initial value of i.
  • i is a rectangle number.
  • step ST4013 the tile number (Plu, Qlu) of the tile into which the upper left corner of the rectangle enters is obtained from the following equation.
  • Xi and Yi are the rectangle start positions in the horizontal and vertical directions of rectangle No. i, respectively.
  • step ST4014 the tile number (Prl, Qrl) of the tile into which the lower right corner of rectangle No. i enters is obtained from the following equation.
  • Prl and Qrl are integers.
  • Wi and Hi are the width and height of rectangle No. i, respectively.
  • step ST4015 tile numbers of tiles belonging to a rectangle composed of a plurality of tiles are generated such that the upper left tile number is (Plu, Qlu) and the lower right tile number is (Prl, Qrl).
  • the value of the corresponding array position of the two-dimensional array TI [XTNum] [YTNum] is (i + 1). This As a result, the value (i + 1) is stored in the array position with the tile number of the tile overlapping the rectangle No. i as an index in the two-dimensional array TI [XTNum] [YTNum].
  • step ST4016 i ⁇ 1 is added to obtain the next rectangular number.
  • step ST4017 it is determined whether i exceeds the number N of rectangles. If i exceeds the number of rectangles N, the process of obtaining tiles that overlap for all rectangles ends, and the process is completed because all tile numbers of tiles that overlap the visible region have been obtained. If the rectangle number i is less than the number N of rectangles, return to step ST4013 and step ST40 for the new rectangle.
  • the 13 forces are also processed by ST4016.
  • FIG. 10 is a diagram showing an example in which the processing flow of FIG. 9 is applied to video B of FIG. Fig. 10 (a) shows the relationship between the rectangles and tiles that make up the visible region in video B.
  • step ST4010 of Fig. 9 the number of tiles in the horizontal and vertical directions is obtained.
  • DW 640
  • DH 480
  • XTSiz 160
  • YTSiz 120
  • step ST4011 a two-dimensional array TI [4] [4] is prepared, and all array values are initialized to zero.
  • step ST4012 i representing the rectangle number is initialized to zero.
  • the tile number where the lower left corner of rectangle No. 0 enters is (3, 2).
  • step ST4015 a tile number belonging to a rectangle that also includes a plurality of tile forces such that the tile number at the upper left corner is (2, 0) and the tile number at the lower right corner is (3, 2) is generated. Then, the value of the array position corresponding to the generated tile number is set to 1 in the two-dimensional array TI [4] [4]. As a result, the two-dimensional array TI [4] [4] becomes as shown in Fig. 11 (a). The array value is 1. The tile with the array index as the tile number is the tile that overlaps rectangle No. 0.
  • Step ST4017 N and i, which are the number of rectangles included in the visible region, are compared.
  • step ST4013 the tile number (Plu, Qlu) into which the upper left corner of rectangle No. 1 enters is obtained from the following equation. From the information of rectangle No. 1 in the visible area information in Fig. 7,
  • the tile number in which the upper left corner of rectangle No. 1 enters is (0, 2).
  • step ST4014 the tile number (Prl, Qrl) into which the lower right corner of rectangle No. 1 enters is obtained from the following equation.
  • the tile number in which the lower left corner of rectangle No. 1 enters is (3, 3).
  • step ST4015 tile numbers belonging to a rectangle that also includes a plurality of tile forces such that the tile number at the upper left corner is (0, 2) and the tile number at the lower right corner is (3, 3) are generated.
  • the value of the array position corresponding to the generated tile number is set to 2.
  • the two-dimensional array TI [4] [4] becomes as shown in Fig. 11 (b).
  • the array value is 2.
  • the tile with the array index as the tile number is the tile that overlaps rectangle No. 1.
  • the value of the array position corresponding to tile (2, 2) and tile (3, 2) in Fig. 10 (a) is updated from 1 in Fig. 11 (a) to 2 in Fig. 11 (b).
  • FIG. 10B is a diagram showing tiles grouped in video B. Tiles with the same hatching are in the same group.
  • ⁇ tile (2, 0), tile (3, 0), tile (2, 1), tile (3, 1) ⁇ with value 1 is the first group and has value 2 ⁇ tile (0, 2), tile d, 2), tile (2, 2), tile (3, 2), tile (0, 3), tile d, 3), tile (2, 3), tile (3 , 3) ⁇ is the second group.
  • Fig. 10 (c) shows how the compressed video data of the JPEG2000 code format is reconstructed for each of the first group and the second group in accordance with the grouping in Fig. 10 (b).
  • RU Finally, in step ST402 shown in FIG. 8, the processing by the compressed video region segmentation means 4 is completed by reconstructing the compressed video data of the JPEG2000 encoding method in each group.
  • the compressed video data cut out by the compressed video area cutout unit 4 is delivered to the compressed video decompression unit 5.
  • the compressed video decompression means 5 decompresses the extracted compressed video data.
  • JPEG2000 code compressed video data is decompressed by a JPEG2000 decoder.
  • the video display means 6 displays on the display screen according to the display position of the corresponding video window information in the video window management table.
  • Video window information including visible area information
  • the video display device according to the present invention can be applied to a multi-channel video display system and a multi-large screen display device used for a high-resolution video display system.

Abstract

 この発明に係る映像表示装置は、映像ウインドウ情報を管理する映像ウインドウ管理テーブル2と、映像ウインドウの表示状態を検知して映像ウインドウ管理テーブル2の映像ウインドウ情報を更新する映像ウインドウ変更検知手段3と、映像ウインドウ情報に従って映像ウインドウに表示するデジタル映像の画像領域の一部を切り出す圧縮映像領域切り出し手段4と、圧縮映像切り出し手段によって切り出されたデジタル映像の画像領域を伸張する圧縮映像伸張手段5と、圧縮映像伸張手段5によって伸張されたデジタル映像を表示画面上に他のデジタル映像と共に映像ウインドウに表示する映像表示手段6を備えている。

Description

映像表示装置
技術分野
[0001] この発明は、複数の映像ウィンドウを同時に 1つの表示画面に表示するための映像 表示装置に関するものである。
背景技術
[0002] 従来、監視業務の省力化や効率化を目的として、監視制御用計算機の表示画面 上に、様々な監視情報と共に複数の監視カメラからの映像を同時に表示することによ り、集中監視を行なう監視システムが採用されている。この監視システムで使用される 表示装置としては、 50インチや 70インチ等の大型の投射型表示装置を複数組合せ たマルチ大画面表示装置があり、表示画面上への映像の表示方式としては大きく分 けて以下の 2つの方式がある。
[0003] 1つの方式は、監視カメラカゝらケーブルにて送られてきた映像信号を、映像合成装 置で計算機の画面信号と合成して表示する方法である。但し、映像合成装置による 映像合成では、表示できる映像の数は映像合成装置の仕様によって制限されてしま うという問題があった。
[0004] もう 1つの方式は監視カメラから取り込まれた映像を、ー且デジタルィ匕し、 JPEG、 M PEG2、 MPEG4等の映像符号ィ匕方式により圧縮符号ィ匕を行ない、圧縮映像データ として計算機用通信ネットワークを利用して中央監視室の監視制御用計算機に送り、 監視制御用計算機上で映像の伸張処理を行ない、表示装置の画面上に映像の表 示を行なう方法がある。近年、映像のデジタル化に伴い、後者の方式が増えつつあ る。
[0005] 一方、計算機の画面表示方法としてはオーバーラップウィンドウ方式のマルチウイ ンドウシステムが主流である。マルチウィンドウシステムでは、ウィンドウと呼ばれる表 示領域を複数同時に重ね合せて表示することが可能であり、アプリケーションは他の ウィンドウとの重なりを意識することなぐ自分のウィンドウへの描画を行なうことが可 能である。より詳細には、ウィンドウが重なっている場合には、画面上で露出している 部分のみ描画処理を行なうクリップ処理というものを行なう必要がある力 システム自 体がその処理を行なってくれるため、アプリケーション自体はそのことを意識する必要 はない。
[0006] しかし、圧縮されたデジタル映像を表示する場合、表示を行なう前に圧縮されたデ ジタル映像を元に戻すための伸張処理が必要になる。圧縮されたデジタル映像の伸 張処理は、他のウィンドウの下に隠れている領域も含めた全部の領域に対して行なう 必要があり、伸張処理後表示する際に、露出する部分のみを表示するようにクリップ 処理を行なっていた。従って、隠れている領域に対して行なったデジタル映像の伸 張処理が無駄になっていた。また、ウィンドウの一部が画面外にはみ出して表示され ない領域においても、伸張処理が必要であり、同様の問題があった。
[0007] これに対して、画面上での映像の重なり順位や映像の表示面積等の表示状態から ユーザーの映像に対する関心度を求め、関心度の高さに応じて圧縮率やコマ数、画 素数を変更することにより、通信路ゃ監視制御用計算機の負荷を下げる映像表示処 理方法及びシステムが提供されている (例えば、特許文献 1参照)。
[0008] 特許文献 1:特開平 6— 324662号公報
[0009] 従来の映像表示装置は、以上のように構成されて 、たので、ウィンドウが重なって V、る場合に、表示されな!、部分にっ ヽても映像の伸張処理を行なう必要があるので 処理負荷が大きくなるという課題があった。
また、特許文献 1の映像表示処理方法及びシステムにおいて、重なって下にあるゥ インドウについては、そのウィンドウ全体の優先度が低くなつたとは限らず、ウィンドウ の一部だけが見えていればよいという場合もある。し力しながら、本映像表示処理方 法及びシステムにおいては、下にあるウィンドウは優先順位が低いとみなされ、その 画質やコマ数、画素数が減ってしまうために、監視業務に支障をきたすという課題が めつに。
[0010] この発明は上記のような課題を解決するためになされたもので、ウィンドウ同士の重 なりや、画面外へのはみ出しにより表示されない部分に対してのみ、映像の伸張処 理を行なわないようにすることにより、無駄な映像伸張処理を省き、処理負荷を軽減 した映像表示装置を得ることを目的とする。 発明の開示
[0011] この発明に係る映像表示装置は、映像ウィンドウに関する映像ウィンドウ情報を管 理する映像ウィンドウ管理テーブルと、映像ウィンドウの表示状態の変更を検知して 映像ウィンドウ管理テーブルの映像ウィンドウ情報を更新する映像ウィンドウ変更検 知手段と、映像ウィンドウ情報に従って映像ウィンドウに表示するデジタル映像の画 像領域の一部を切り出す圧縮映像領域切り出し手段と、圧縮映像切り出し手段によ つて切り出されたデジタル映像の画像領域を伸張する圧縮映像伸張手段と、圧縮映 像伸張手段によって伸張されたデジタル映像を表示画面上の映像ウィンドウに表示 する映像表示手段を備えて ヽる。
[0012] この発明に係る映像表示装置によれば、デジタル映像を表示する映像ウィンドウを 重ねることによって、同一表示画面上に複数のデジタル映像を表示可能な映像表示 装置にお 、て、可視領域情報を含む映像ウィンドウ情報を映像ウィンドウ管理テープ ルで管理し、映像伸張処理前に可視領域の圧縮映像データのみを切り出して、映像 伸張を行なうようにしたことで、映像伸張処理の負荷を軽減する効果がある。
図面の簡単な説明
[0013] [図 1]この発明の実施の形態 1に係る映像表示装置の構成図である。
[図 2]この発明の実施の形態 1において、映像が tileにより複数の画像領域へ分割さ れた状態を示す図である。
[図 3]この発明の実施の形態 1における、 JPEG2000符号ィ匕方式の圧縮映像フォー マットである。
[図 4]図 1中の映像ウィンドウ管理テーブルの説明図である。
[図 5]この発明の実施の形態 1における、可視領域の例を示す図である。
[図 6]図 1の映像表示装置の処理フローを示す図である。
[図 7]図 6の処理フローにおける映像ウィンドウ管理テーブルの例を示す図である。
[図 8]図 1中の圧縮映像領域切り出し手段の処理フローを示すフローチャートである。
[図 9]図 8中のステップ ST401のより詳細な処理フローを示すフローチャートである。
[図 10]図 9の処理フローを図 7の映像 Bに適用した例を示す図である。
[図 11]図 10の例におけるステップ ST4015の処理を示す図である。 発明を実施するための最良の形態
[0014] 以下、この発明をより詳細に説明するために、この発明を実施するための最良の形 態について、添付の図面に従って説明する。
実施の形態 1.
以下、実施の形態 1について説明する。図 1は実施の形態 1に係る映像表示装置 の構成図である。映像表示装置は、映像ウィンドウ管理テーブル 2、映像ウィンドウ変 更検知手段 3、圧縮映像領域切り出し手段 4、圧縮映像伸張手段 5、映像表示手段 6 を備えている。なお、個々の構成要素の詳細については後述する。
図 1において、圧縮映像データ 1は、デジタル映像を 1フレーム単位で複数の画像 領域に分割し、圧縮符号ィ匕したものである。映像の圧縮符号ィ匕方式として〖お PEG、 MPEG2、 MPEG4といった様々な方式がある力 実施の形態 1で ίお PEG2000符 号化方式を採用して 、る。 JPEG2000符号ィ匕方式では映像をフレームと呼ばれる連 続する静止画の集まりとして扱っており、独立したフレーム単位で映像の圧縮を行な う。これを一般的にフレーム内符号ィ匕と呼ぶ。 JPEGもフレーム内符号ィ匕である。これ に対して、 MPEG2、 MPEG4は連続するフレーム間の相関関係も利用して圧縮す る方式であり、フレーム間符号ィ匕と呼ぶ。 JPEG2000符号ィ匕方式は 1フレームを複数 の画像領域を分割して圧縮符号ィ匕して格納することが可能である。
[0015] 図 2は、実施の形態 1において、映像が tileにより複数の画像領域へ分割された状 態を示す図である。 JPEG2000符号ィ匕方式において、映像を複数の画像領域に分 割する方法としては、 tileと precinctという 2つの方法がある。実施の形態 1では、画 像領域の分割方法として tileを使うことにする。図 2は、解像度 640 X 480画素の映 像を 160 X 120画素の tileに分割した場合を示している。 tileによる画像領域分割は 映像の左上端から 160 X 120画素毎に分割され、 16個の tileに分割される。 tile番 号は水平方向及び垂直方向の番号を組み合わせたものとする。
[0016] 図 3は、実施の形態 1における、 JPEG2000符号ィ匕方式の圧縮映像フォーマットで ある。図 2の画像領域分割時には、圧縮映像データ 1の 1フレームのフォーマットは図 3のようになる。 JPEG2000符号ィ匕方式の圧縮映像データは SOCと呼ばれるマーカ 一で始まり、 EOCと呼ばれるマーカーで終わる。マーカーとは 2バイト長のデータで あり、マーカーであることを示すマーカープレフイツタス 1バイト (Oxff)とマーカー識別 子 1バイトから構成される。 SOCマーカーは 0xff4fとなる。 main headerは画像に ついての情報を格納している。 main headerの詳細な内容は実施の形態 1とは関 係ないため説明を省略する。 SOCと EOCの間には図 2に示す tile (0, 0)から tile (3 , 3)までの画像領域に対応する、符号化された圧縮映像データが存在する。実施の 形態 1では tileを使って画像領域の分割を行なって ヽるが、 precinctを使うことも可 能である。
[0017] 図 4は、図 1中の映像ウィンドウ管理テーブル 2の説明図である。図 1において、映 像ウィンドウ管理テーブル 2は、表示画面上の映像ウィンドウに関する情報 (以下、映 像ウィンドウ情報)を格納している。即ち、映像ウィンドウ管理テーブル 2は、映像ウイ ンドウ情報のリストである。映像ウィンドウ情報は、映像を識別するための映像識別子 、画面上における映像ウィンドウの左上端の座標値である表示位置 DX, DYと、映像 の水平及び垂直方向の画素数である映像サイズ DW, DHと、映像ウィンドウの可視 領域に関する情報である可視領域情報を有している。可視領域とは、映像ウィンドウ の全領域のうち、他のウィンドウと重なったり画面外にはみ出したりして見えない領域 を除ぐ画面上に実際に表示されている領域のことである。
なお、図 4では全ての映像ウィンドウの映像ウィンドウ情報を 1つの映像ウィンドウ管 理テーブル 2で管理して 、るが、映像ウィンドウ毎に映像ウィンドウ管理テーブルを設 けてもよい。
[0018] 図 5は、実施の形態 1における可視領域の例を示す図である。図 5 (a)に示すように 、表示画面上には、 2つの映像ウィンドウが表示されており、映像ウィンドウ 1が映像 ウィンドウ 2の上に重なった状態となっている。また、映像ウィンドウ 2は画面外に右端 がはみ出している。この時、映像ウィンドウ 1及び映像ウィンドウ 2の可視領域は図 5 ( b)に示す通りになる。図 5 (b)に示すように、可視領域は複数の矩形の組合せとして 表現される。映像ウィンドウ 2中の矩形 No. 0と矩形 No. 1は可視領域であり、その他 の部分は非可視領域である。可視領域情報は、可視領域を構成する矩形数 Nと各 矩形に関する矩形情報を有する(図 4を参照)。
更に、矩形情報は、映像ウィンドウの左上端を原点とする映像ウィンドウのローカル 座標系において、矩形開始位置の座標値である Xi, Yiと、矩形の水平方向の画素 数である矩形幅 Wi、矩形の垂直方向の画素数である矩形高さ Hiを有する。ここで i は矩形番号である(図 4を参照)。
[0019] 図 1において、映像ウィンドウ変更検知手段 3は、表示画面上に表示されている全 ての映像ウィンドウの移動、表示サイズ変更、上下関係変更等のウィンドウに関する 表示上の変更を検知し、映像ウィンドウに関する映像ウィンドウ情報の変更が発生し た場合、映像ウィンドウ管理テーブル 2の内容を更新する。
圧縮映像領域切り出し手段 4は、映像ウィンドウ管理テーブル 2に格納されて 、る デジタル映像に対応する映像ウィンドウの可視領域情報を元に、圧縮映像データ 1 力 1フレーム単位で表示すべき領域に対応する tileを取り出し、矩形単位で圧縮映 像データを再構築する。
圧縮映像伸張手段 5は、圧縮映像領域切り出し手段 4にて矩形単位で切り出され た可視領域の JPEG2000映像にぉ 、て、 1フレーム単位で圧縮映像データを伸張 処理する。
映像表示手段 6は、圧縮映像伸張手段 5にて伸張され^ JPEG2000映像を表示画 面上に表示する。
[0020] 次に、実施の形態 1に係る映像表示装置の動作について、図 6を用いて説明する。
図 6は、図 1の映像表示装置の処理フローを示す図である。図 6の表示画面 700上に おいて、映像 Aを表示する映像ウィンドウ 701は、映像 Bを表示する映像ウィンドウ 7 02の上に重なっている。
圧縮映像データ laは、映像 Aの圧縮映像データであり、 N個のフレームカゝら構成さ れる。圧縮映像データ lbは映像 Bの圧縮映像データであり、 N個のフレームから構 成される。
図 6において、映像 A及び映像 Bの圧縮映像データ la, lbは解像度 640 X 480で あり、 160 X 120画素の tileに画像分割され JPEG2000符号化方式にて圧縮されて いる。圧縮映像データのフォーマットは図 2と同様である。
[0021] 図 7は、図 6の処理フローにおける映像ウィンドウ管理テーブルの例を示す図であ る。図 6の場合、映像ウィンドウ管理テーブル 2の内容は図 7に示すようになる。 映像ウィンドウ変更検知手段 3は、映像ウィンドウの表示状態の変更を検知すると、 先ず、変更のあった映像ウィンドウについて、表示画面外にはみ出しているかどうか 判定し、表示画面外にはみ出している場合には、表示画面内に入っている領域のみ を可視領域として求める。続いて、変更のあった映像ウィンドウより上に位置する全て のウィンドウとの重なり領域を除外し、変更のあった映像ウィンドウの可視領域を求め る。更に、変更のあった映像ウィンドウ以外の全ての映像ウィンドウについても、同様 に可視領域情報を求め、映像ウィンドウ管理テーブル 2を更新する。
図 7中の映像ウィンドウ管理テーブルで、映像ウィンドウ情報 1, 2はそれぞれ映像 ウィンドウ 701, 702に関する情報である。また、矩形情報は映像ウィンドウ中のそれ ぞれの矩形に関する情報である。
[0022] 先ず、映像 Bの処理の流れについて説明する。図 6において、映像 Bの圧縮映像デ ータ lbのフレーム 1が圧縮映像領域切り出し手段 4に入力される。圧縮映像領域切り 出し手段 4では、映像ウィンドウ管理テーブル 2の映像 Bに対応する映像ウィンドウ情 報に従って、一部の画像領域について圧縮映像データの切り出しを行なう。
[0023] 図 8は、図 1中の圧縮映像領域切り出し手段 4の処理フローを示すフローチャートで ある。
ステップ ST400では、圧縮映像領域切り出し手段 4は、映像 Bを表示する映像ウイ ンドウにつ 、て、映像ウィンドウ管理テーブル 2から映像ウィンドウ情報を取得する。
[0024] ステップ ST401では、ステップ ST400で取得した映像ウィンドウ情報の可視領域 情報を使って、可視領域と重なる tileを全て求め、矩形単位で tileを複数のグループ に分類にする。
[0025] ステップ ST402では、ステップ ST401で分類されたグループに対して、 JPEG200
0符号ィ匕方式の圧縮映像データを構築して出力する。
[0026] 図 9は、図 8中のステップ ST401のより詳細な処理フローを示すフローチャートであ る。図 9を用いて、可視領域情報から可視領域と重なる tileを求める処理フローにつ いて説明する。
[0027] ステップ ST4010では、映像の水平、垂直それぞれの方向の tile数である XTNum 、 YTNumを以下の式から求める。 XTNum = ceiling (DW/XTSiz)
YTNum = ceiling (DH/YTSiz)
上記式において、 DW, DHは映像の水平方向サイズ、垂直方向サイズを示し、 XTS iz, YTSizはそれぞれ tileの水平方向サイズ、垂直方向サイズを示す。 XTSiz及び Y TSizは圧縮映像データの main header部に含まれる。 main header部の詳細な 説明については省略する。また、 ceiling (X)は、 X以上の最小の整数を出力する関 数である。
[0028] ステップ ST4011では、 tile番号をインデックスとして持つ配列の値が可視領域と重 なっているかどうかを表す 2次元配列 TI [XTNum] [YTNum]を用意し、 2次元配列 TI [XTNum] [YTNum]の全ての要素を 0に初期化しておく。
[0029] ステップ ST4012では、配列 TI[K] [L]の値力^の時は、 tile (K, L)は可視領域と 重なり無し、配列 TI[K] [L]の値が(i+ 1)の時は、 tile (K, L)は可視領域と重なり有 りとする。次に、 iの初期値として 0を代入する。ここで、 iは矩形番号である。
[0030] ステップ ST4013では、矩形の左上端が入る tileの tile番号(Plu, Qlu)を以下の 式から求める。
Plu=Xi/XTSiz
Qlu =Yi/ YTSiz
Plu, Qluは整数をとるものとする。上記式において、 Xi, Yiはそれぞれ矩形 No. iの 水平方向、垂直方向の矩形開始位置である。
[0031] ステップ ST4014では、矩形 No. iの右下端が入る tileの tile番号(Prl, Qrl)を以 下の式から求める。
Prl= (Xi+Wi-1) /XTSiz
Qrl= (Yi+Hi-1) /YTSiz
Prl, Qrlは整数をとるものとする。上記式において、 Wi, Hiはそれぞれ矩形 No. iの 幅、高さである。
[0032] ステップ ST4015では、左上端の tile番号が(Plu, Qlu)、同右下端の tile番号が( Prl, Qrl)となるような複数の tileから構成される矩形に属する tileの tile番号を生成し 、 2次元配列 TI [XTNum] [YTNum]の対応する配列位置の値を (i+ 1)とする。こ の結果、 2次元配列 TI[XTNum] [YTNum]には矩形 No. iと重なる tileの tile番号 をインデックスとする配列位置に値 (i+ 1)が格納される。
[0033] ステップ ST4016では、 i〖こ 1を加算して、次の矩形番号とする。
[0034] ステップ ST4017では、 iが矩形数 Nを超えたかどうか判定する。 iが矩形数 Nを超え た場合は、全ての矩形について重なる tileを求める処理が終了し、可視領域と重なる tileの tile番号を全て求めたことになるので処理は完了する。新し 、矩形番号 iが矩 形数 N未満の場合は、ステップ ST4013〖こ戻り、新しい矩形についてステップ ST40
13力も ST4016の処理を行なう。
[0035] 上記ステップ ST4010から ST4017のステップが全て終了した時点で、得られた 2 次元配列 TIにおいて、同じ値を持つ tile同士が矩形単位の同じグループに所属する tileとなる。
[0036] 次に、圧縮映像領域切り出し手段 4の動作について、図 7の映像 Bを例として説明 する。図 10は、図 9の処理フローを図 7の映像 Bに適用した例を示す図である。そし て、図 10 (a)は、映像 Bにおける可視領域を構成する矩形と tileの関係を示した図で ある。
[0037] 図 9のステップ ST4010では、水平、垂直方向の tile数を求める。映像 Bにおいて、 DW=640、 DH=480、 XTSiz= 160、 YTSiz= 120である力も、
XTNum = Ceiling (640/ 160) =4
YTNum = Ceiling (480/120) =4
となる。
[0038] ステップ ST4011では、 2次元配列 TI [4] [4]を準備し、配列の値を全て 0に初期 化する。
[0039] ステップ ST4012では、矩形番号を表わす iを 0に初期化する。
[0040] ステップ ST4013では、図 7より X0=400、 Y0 = 0であるので、矩形 No. 0の左上 端が入る tile番号(Plu, Qlu)を以下のように求める。
Plu=400/160 = 2
Qlu=0/120 = 0
従って、矩形 No. 0の左上端が入る tileの番号は(2, 0)となる。 [0041] ステップ ST4014では、図 7より W0 = 240、 HO = 280であるので、矩形 No. 0の右 下端が入る tile番号 (Prl, Qrl)を以下のように求める。
Prl= (400 + 240— 1)Z 160 = 3
Qrl= (0 + 280-1) /120 = 2
従って、矩形 No. 0の左下端が入る tileの番号は(3, 2)となる。
[0042] ステップ ST4015では、左上端の tile番号が(2, 0)、右下端の tile番号が(3, 2)と なるような複数の tile力も構成される矩形に属する tile番号を生成する。そして、 2次 元配列 TI[4] [4]において、生成した tile番号に対応する配列位置の値を 1とする。 その結果、 2次元配列 TI[4] [4]は図 11 (a)のようになる。配列の値が 1となっている 配列のインデックスを tile番号として持つ tileが、矩形 No. 0と重なる tileとなる。
[0043] 続いて、ステップ ST4016では、 iに 1をカ卩算して i= 1となる。
[0044] ステップ ST4017では、可視領域に含まれる矩形の数である Nと iを比較する。映像 Bにおける可視領域に含まれる矩形の数は N = 2であり、 i= l <N = 2が成り立つ。即 ち、まだ矩形が残っていることを示しているので、再びステップ ST4013に戻る。
[0045] 次に i= l、つまり、矩形 No. 1と重なる tileを求める。ステップ ST4013において、 矩形 No. 1の左上端が入る tile番号(Plu, Qlu)を以下の式から求める。図 7の可視 領域情報の矩形 No. 1の情報から、
Plu=0/160 = 0
Qlu = 280/ 120 = 2
従って、矩形 No. 1の左上端が入る tile番号は(0, 2)となる。
[0046] 次に、ステップ ST4014において、矩形 No. 1の右下端が入る tile番号(Prl, Qrl) を以下の式から求める。
Prl= (0 + 640-1) /160 = 3
Qrl= (200 + 280-1) /120 = 3
従って、矩形 No. 1の左下端が入る tile番号は(3, 3)となる。
[0047] ステップ ST4015では、左上端の tile番号が(0, 2)、右下端の tile番号が(3, 3)と なるような複数の tile力も構成される矩形に属する tile番号を生成する。そして、 2次 元配列 TI[4] [4]において、生成した tile番号に対応する配列位置の値を 2とする。 その結果、 2次元配列 TI[4] [4]は図 11 (b)のようになる。配列の値が 2となっている 配列のインデックスを tile番号として持つ tileが矩形 No. 1と重なる tileとなる。なお、 図 10 (a)の tile (2, 2)、tile (3, 2)に対応する配列位置の値力 図 11 (a)の 1から図 11 (b)の 2へ更新される。
[0048] ステップ ST4016では、 iに 1をカ卩算して i= 2となる。
[0049] ステップ ST4017において、 i<Nの比較を行なう。 N= 2であるので、 i=Nが成り立 ち、 i<Nは" NO"となる。この結果、 2次元配列 TI[4] [4]において、 0以外の値を持 つ配列インデックス番号に対応する tile番号を持つ tileが、映像 Bの映像ウィンドウの 可視領域と重なる tileとなる。
[0050] 図 10 (b)は、映像 Bにおいてグループ分けされた tileを示す図である。同じハッチ ングがされている tileが同じグループである。映像 Bの場合、値 1を持つ {tile (2, 0) , tile (3, 0) , tile (2, 1) , tile (3, 1) }が第 1グループであり、値 2を持つ {tile (0, 2) , tile d, 2) , tile (2, 2) , tile (3, 2) , tile (0, 3) , tile d, 3) , tile (2, 3) , tile (3, 3 ) }が第 2グループとなる。
[0051] 図 10 (c)は、図 10 (b)でのグループ分けに伴い、第 1グループと第 2グループ毎に J PEG2000符号ィ匕方式の圧縮映像データが再構築される様子を示して 、る。最後に 、図 8に示すステップ ST402において、各グループで JPEG2000符号化方式の圧 縮映像データを再構築することにより、圧縮映像領域切り出し手段 4による処理が完 了する。
[0052] 圧縮映像領域切り出し手段 4により切り出された圧縮映像データは、圧縮映像伸張 手段 5に渡される。圧縮映像伸張手段 5では、切り出された圧縮映像データを伸張処 理する。実施の形態 1では、 JPEG2000符号ィ匕方式の圧縮映像データを、 JPEG20 00デコーダにより伸張処理を行なう。最後に、映像表示手段 6にて、映像ウィンドウ管 理テーブルの対応する映像ウィンドウ情報の表示位置に従って、表示画面上に表示 を行なう。
[0053] 以上のように、この実施の形態 1によれば、デジタル映像を表示する映像ウィンドウ を重ねることによって、同一表示画面上に複数のデジタル映像を表示可能な映像表 示装置にお!、て、可視領域情報を含む映像ウィンドウ情報を映像ウィンドウ管理テ 一ブルで管理し、映像伸張処理前に可視領域の圧縮映像データのみを切り出して、 映像伸張を行なうようにしたことで、映像伸張処理の負荷を軽減する効果がある。 産業上の利用可能性
以上のように、この発明に係る映像表示装置は、多チャンネル映像表示システムや 、高解像映像表示システムに用 、られるマルチ大画面表示装置に適用することが出 来る。

Claims

請求の範囲
[1] デジタル映像を表示する映像ウィンドウを表示画面上に複数個重ねて表示可能な 映像表示装置において、
前記映像ウィンドウに関する映像ウィンドウ情報を管理する映像ウィンドウ管理テー ブルと、
前記映像ウィンドウの表示状態の変更を検知して前記映像ウィンドウ管理テーブル の前記映像ウィンドウ情報を更新する映像ウィンドウ変更検知手段と、
前記映像ウィンドウ情報に従って前記映像ウィンドウに表示するデジタル映像の画 像領域の一部を切り出す圧縮映像領域切り出し手段と、
前記圧縮映像切り出し手段によって切り出された前記デジタル映像の画像領域を 伸張する圧縮映像伸張手段と、
前記圧縮映像伸張手段によって伸張されたデジタル映像を前記表示画面上の前 記映像ウィンドウに表示する映像表示手段とを備えることを特徴とする映像表示装置
[2] 前記デジタル映像は、フレーム単位で複数の画像領域に分割されて圧縮符号化さ れた圧縮映像データであることを特徴とする請求項 1記載の映像表示装置。
[3] 前記映像ウィンドウ情報は、前記映像ウィンドウについての映像識別子、映像表示 位置、映像表示サイズ、他のウィンドウとの重なり順位、及び可視領域情報を有する ことを特徴とする請求項 2記載の映像表示装置。
[4] 前記圧縮映像領域切り出し手段は、前記可視領域情報から、表示画面上で実際 に表示されている可視領域に含まれる圧縮映像データの抽出を行なうことを特徴と する請求項 3記載の映像表示装置。
[5] 前記可視領域情報は、前記可視領域を分割構成する矩形に関する情報を有する ことを特徴とする請求項 4記載の映像表示装置。
PCT/JP2005/000076 2005-01-06 2005-01-06 映像表示装置 WO2006072985A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006550562A JPWO2006072985A1 (ja) 2005-01-06 2005-01-06 映像表示装置
PCT/JP2005/000076 WO2006072985A1 (ja) 2005-01-06 2005-01-06 映像表示装置
US11/794,762 US20080129648A1 (en) 2005-01-06 2005-01-06 Video Display Apparatus
CNA2005800461257A CN101099193A (zh) 2005-01-06 2005-01-06 影像显示装置
EP05703344A EP1843322A1 (en) 2005-01-06 2005-01-06 Video display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/000076 WO2006072985A1 (ja) 2005-01-06 2005-01-06 映像表示装置

Publications (1)

Publication Number Publication Date
WO2006072985A1 true WO2006072985A1 (ja) 2006-07-13

Family

ID=36647473

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/000076 WO2006072985A1 (ja) 2005-01-06 2005-01-06 映像表示装置

Country Status (5)

Country Link
US (1) US20080129648A1 (ja)
EP (1) EP1843322A1 (ja)
JP (1) JPWO2006072985A1 (ja)
CN (1) CN101099193A (ja)
WO (1) WO2006072985A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101230129B1 (ko) 2010-05-28 2013-02-05 라쿠텐 인코포레이티드 콘텐츠 표시 장치, 콘텐츠 표시 방법, 기록 매체, 서버 장치 및 콘텐츠 제공 방법
WO2015093113A1 (ja) * 2013-12-16 2015-06-25 三菱電機株式会社 映像処理装置及び映像表示装置
JP2016531356A (ja) * 2013-08-20 2016-10-06 華為技術有限公司Huawei Technologies Co.,Ltd. ウィジェットエリアの調整方法および調整装置
US20190379897A1 (en) * 2007-04-12 2019-12-12 Dolby Laboratories Licensing Corporation Tiling in video encoding and decoding
US10872440B2 (en) 2017-07-10 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Image signal processing device, and image signal transmission system

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200714032A (en) * 2005-09-16 2007-04-01 Tatung Co Ltd Single-to-multiple image division method
JP2007232846A (ja) * 2006-02-28 2007-09-13 Toshiba Corp 情報処理装置および制御方法
US8306522B1 (en) * 2008-12-23 2012-11-06 Sprint Communications Company L.P. Dynamic interface for mobile devices
JP5366662B2 (ja) * 2009-06-01 2013-12-11 キヤノン株式会社 映像出力装置及び映像出力方法
CN101794206A (zh) * 2010-03-11 2010-08-04 深圳市同洲电子股份有限公司 一种窗口分割方法及系统
US20150201199A1 (en) * 2011-12-07 2015-07-16 Google Inc. Systems and methods for facilitating video encoding for screen-sharing applications
RU2651201C2 (ru) * 2012-11-30 2018-04-18 Сони Корпорейшн Устройство обработки изображения и способ
JP6446217B2 (ja) * 2014-09-24 2018-12-26 株式会社スクウェア・エニックス 画像表示プログラム、画像表示方法、及び、画像表示システム
CN112703742B (zh) * 2018-09-14 2023-03-31 华为技术有限公司 视频译码中的分块指示
CN117082294B (zh) * 2023-10-18 2024-02-02 广东视腾电子科技有限公司 一种视频一体机切换方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03114096A (ja) * 1989-06-12 1991-05-15 Nippon Telegr & Teleph Corp <Ntt> 画像復号化装置
JPH08123651A (ja) * 1994-10-27 1996-05-17 Fuji Electric Co Ltd マルチウィンドウディスプレイ装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146671A (ja) * 1993-06-16 1995-06-06 Mitsubishi Electric Corp 大型映像表示装置
JP3339284B2 (ja) * 1996-01-29 2002-10-28 三菱電機株式会社 大画面表示方式

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03114096A (ja) * 1989-06-12 1991-05-15 Nippon Telegr & Teleph Corp <Ntt> 画像復号化装置
JPH08123651A (ja) * 1994-10-27 1996-05-17 Fuji Electric Co Ltd マルチウィンドウディスプレイ装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190379897A1 (en) * 2007-04-12 2019-12-12 Dolby Laboratories Licensing Corporation Tiling in video encoding and decoding
RU2721941C1 (ru) * 2007-04-12 2020-05-25 Долби Интернэшнл Аб Мозаичное расположение при кодировании и декодировании видео
US10764596B2 (en) * 2007-04-12 2020-09-01 Dolby Laboratories Licensing Corporation Tiling in video encoding and decoding
KR101230129B1 (ko) 2010-05-28 2013-02-05 라쿠텐 인코포레이티드 콘텐츠 표시 장치, 콘텐츠 표시 방법, 기록 매체, 서버 장치 및 콘텐츠 제공 방법
JP2016531356A (ja) * 2013-08-20 2016-10-06 華為技術有限公司Huawei Technologies Co.,Ltd. ウィジェットエリアの調整方法および調整装置
US10331317B2 (en) 2013-08-20 2019-06-25 Huawei Technologies Co., Ltd. Widget area adjustment method and apparatus
US10901587B2 (en) 2013-08-20 2021-01-26 Huawei Technologies Co., Ltd. Widget area adjustment method and apparatus
WO2015093113A1 (ja) * 2013-12-16 2015-06-25 三菱電機株式会社 映像処理装置及び映像表示装置
JP6049910B2 (ja) * 2013-12-16 2016-12-21 三菱電機株式会社 映像処理装置及び映像表示装置
US10872440B2 (en) 2017-07-10 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Image signal processing device, and image signal transmission system

Also Published As

Publication number Publication date
CN101099193A (zh) 2008-01-02
EP1843322A1 (en) 2007-10-10
JPWO2006072985A1 (ja) 2008-06-12
EP1843322A8 (en) 2008-02-20
US20080129648A1 (en) 2008-06-05

Similar Documents

Publication Publication Date Title
WO2006072985A1 (ja) 映像表示装置
JP5527588B2 (ja) 情報処理装置および方法
US9756328B2 (en) System, terminal, and method for dynamically adjusting video
CN101262597B (zh) 图像显示系统、装置和方法,图像发送装置和方法
CN101589626B (zh) 用于处理组合的图像数据和深度数据的图像处理系统
US20040165789A1 (en) Method of displaying a thumbnail image, server computer, and client computer
US20090016622A1 (en) Image transmitting apparatus, image transmitting method, receiving apparatus, and image transmitting system
EP2364023B1 (en) Partial decoding method of encoded images and image processing apparatus
CN105959724B (zh) 一种视频数据处理方法以及装置
JP2013131990A (ja) 情報処理装置及びプログラム
US9699477B2 (en) Manipulating sub-pictures of a compressed video signal
JP2004086550A (ja) 表示画面更新システム
US8724912B2 (en) Method, apparatus, and program for compressing images, and method, apparatus, and program for decompressing images
US8463062B2 (en) Image transmission apparatus, method, recording medium, image output apparatus and image transmission system including pattern determination unit
CN111752513A (zh) 图像处理方法及装置
JPH11112964A (ja) 画像伝送装置
JP3300228B2 (ja) 画像通信システム
US6965642B2 (en) Method and device for compressing and decompressing moving image data and information recording medium
JP4960433B2 (ja) 画像処理装置、受信装置および表示装置
JP5328549B2 (ja) 画像処理装置及びその制御方法
KR102290566B1 (ko) 비-네트워크 기반에서 영상화면 분석 정보 전송 방법
JP2010161670A (ja) 画像送信装置及び画像表示システム
JP2008011191A (ja) 映像符号化合成装置、映像符号化合成方法及び映像伝送システム
JPH07162691A (ja) 静止画像伝送装置及びその伝送方法
JP2000013803A (ja) 複数番組を表示するデジタル放送受信機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006550562

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005703344

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11794762

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580046125.7

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005703344

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11794762

Country of ref document: US