WO2014013613A1 - 映像表示装置 - Google Patents

映像表示装置 Download PDF

Info

Publication number
WO2014013613A1
WO2014013613A1 PCT/JP2012/068469 JP2012068469W WO2014013613A1 WO 2014013613 A1 WO2014013613 A1 WO 2014013613A1 JP 2012068469 W JP2012068469 W JP 2012068469W WO 2014013613 A1 WO2014013613 A1 WO 2014013613A1
Authority
WO
WIPO (PCT)
Prior art keywords
menu
video
image
display
plane memory
Prior art date
Application number
PCT/JP2012/068469
Other languages
English (en)
French (fr)
Inventor
小谷 亮
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2012/068469 priority Critical patent/WO2014013613A1/ja
Priority to JP2014525668A priority patent/JP5901769B2/ja
Publication of WO2014013613A1 publication Critical patent/WO2014013613A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Definitions

  • the present invention relates to a video display device that displays a screen in which video and menu images are superimposed.
  • video display devices such as a television receiver and a BD (Blu-ray Disc) player are widely used that have a function of displaying a menu necessary for controlling the device by a user operation.
  • BD Blu-ray Disc
  • a menu call operation is executed during the display of the video from the source, the menu image displayed by the video display device itself is superimposed on the video from the source.
  • Patent Document 1 discloses a display device that changes the layout in each plane so that button images do not overlap each other.
  • Patent Document 1 In the conventional technique represented by Patent Document 1, it is possible to prevent the images from being overlapped by shifting the position of the image in each plane. However, the brightness and hue of the video from the source and the menu image are similar and the visibility is low. The problem of lowering cannot be solved.
  • the present invention has been made to solve the above-described problems, and provides a video display device capable of preventing a decrease in visibility due to similarity in image characteristics with an image superimposed on a video. With the goal.
  • the video display device includes an operation unit that receives an operation input, a video plane memory that stores a video display image, and a video display processing unit that stores a video display image input from a video source in the video plane memory.
  • a menu plane memory that stores a display image of the operation menu
  • a menu display processing unit that stores a display image of the operation menu according to a display request received by the operation unit in the menu plane memory, a video plane memory, and a menu plane
  • a video display device comprising: a superimposition calculation unit that performs a superimposition operation on each display image stored in a memory, and generates a display image on which these are superimposed; and a display unit that displays the display image generated by the superimposition calculation unit The display image stored in the video plane memory.
  • the menu display processing unit has a plurality of menu designs with different image features. Based on the feature information extracted by the feature extraction unit, the menu display processing unit has a plurality of menu designs. A menu design having an image feature opposite to the video is selected, and a display image of the menu design is stored in a menu plane memory.
  • FIG. 4 is an enlarged view showing an upper left 4 ⁇ 4 pixel region of the menu design of FIG. It is a figure which shows the pixel value in the area
  • FIG. 10 is a flowchart showing the operation of the video display apparatus according to the second embodiment.
  • FIG. 1 is a block diagram showing a configuration of a video display apparatus according to Embodiment 1 of the present invention.
  • a video display device 1 according to Embodiment 1 is a video display device that displays a menu image superimposed on a video input from a video source, and includes an operation unit 10, a video plane memory 11, and a video display processing unit 12.
  • the operation unit 10 is an operation unit that receives an operation input from a user. For example, it can be realized by a touch panel mounted on the screen of the display unit 16, hardware keys, a voice input device and a voice recognition device, a remote controller, and the like.
  • the video plane memory 11 is a plane memory in which video display images are stored, and has a display area for one screen of video.
  • the video display processing unit 12 has a function of storing a video display image input from a video source in the video plane memory 11. For example, pixel information indicating a display image for one screen of video is developed in the video plane memory 11. Further, examples of the video source include a television receiver and a BD player.
  • the menu plane memory 13 is a plane memory that stores an operation menu display image.
  • the operation menu refers to an operation menu displayed for the video display device 1 itself to perform various processes.
  • the video display apparatus 1 executes the control regardless of the video source, such as “video adjustment” for adjusting the image quality of the video displayed on the display unit 16 and “input switching” for switching the input of the video source.
  • This is a function operation menu.
  • the menu display processing unit 14 has a function of storing, in the menu plane memory 13, an operation menu display image corresponding to a display request received by the operation unit 10.
  • the menu display processing unit 14 has a plurality of menu designs having different image features, and based on the feature information extracted by the feature extraction unit 17, image features that conflict with video from the plurality of menu designs. The menu design is selected, and the display image of the menu design is stored in the menu plane memory 13.
  • the superimposition calculation unit 15 has a function of performing a superimposition operation on each display image stored in the video plane memory 11 and the menu plane memory 13 and generating a display image in which these are superimposed. For example, a display image in which a display image of an operation menu is superimposed on a video display image is generated.
  • the display unit 16 is a display unit realized by a liquid crystal display, a plasma display, or the like, and displays the display image generated in the superimposition calculation unit 15.
  • the feature extraction unit 17 has a function of extracting video feature information from the display image stored in the video plane memory 11.
  • video feature information include luminance information (such as spatial average of luminance) or hue information (such as spatial average of hue). Further, information other than luminance information and hue information may be used as long as it represents information on a video image.
  • FIG. 2 is a flowchart showing the operation of the video display apparatus according to Embodiment 1, and shows the main processing until a display image in which the menu image of the menu plane is superimposed on the video is displayed.
  • the display request is notified to the menu display processing unit 14.
  • the video display processing unit 12 stores a video display image input from the video source in the video plane memory 11.
  • the feature extraction unit 17 extracts video feature information from the display image stored in the video plane memory 11 (step ST2).
  • the feature information it is possible to use video luminance information.
  • the feature extraction unit 17 calculates the average value of the luminance of each pixel from the display image stored in the video plane memory 11, and sends this to the menu display processing unit 14 as feature information.
  • the menu display processing unit 14 selects a menu design of an image feature that is inconsistent with the video based on the feature information extracted by the feature extraction unit 17 from a plurality of menu designs having different image features (step ST3).
  • the feature information is luminance information
  • the average value of luminance takes a value from 0 to 255, and the larger the average value, the brighter the image. Therefore, for example, when the threshold value is set to 128 and the average luminance value input from the feature extraction unit 17 is 128 or more (the video is bright), the menu display processing unit 14 selects a menu design with low luminance.
  • the menu display processing unit 14 selects a menu design with high luminance if the average luminance value input from the feature extraction unit 17 is less than 128 (video is dark).
  • the menu display processing unit 14 transfers the display image of the selected menu design to the menu plane memory 13 and stores it (step ST4).
  • the superimposition calculation unit 15 performs a superimposition operation on each display image stored in the video plane memory 11 and the menu plane memory 13, and generates a display image in which these are superimposed.
  • the display unit 16 displays the display image generated by the superimposition calculation unit 15.
  • FIG. 3 is a diagram showing an example of the menu design in the first embodiment.
  • the menu design shown in FIG. 3A includes a button image to which the “video adjustment” function is assigned, a button image to which the “input switching” function is assigned, and a rectangular image that is an outer frame surrounding them.
  • the white background portion in this menu design is a transparent color, and is a portion where the color of the video can be seen through when superimposed on the display image of the video stored in the video plane memory 11.
  • black portions indicating characters, rectangles, and oval shapes are opaque and are portions that are displayed by being overwritten with the color of the video.
  • the menu design shown in FIG. 3B is similar to that shown in FIG. 3A.
  • the button image to which the “video adjustment” function is assigned, the button image to which the “input switching” function is assigned, and the surroundings of these buttons are displayed. It consists of a rectangular image that becomes a frame.
  • the opaque part corresponding to the black part in the menu design of FIG. 3A is expressed in a lighter color than the design of FIG.
  • FIG. 4 is an enlarged view showing an area of the upper left 4 pixels ⁇ 4 pixels of the menu design of FIG.
  • a white rectangular area is a transparent color portion.
  • the black part corresponds to a part of the upper left of the outer frame of the menu design in FIG.
  • FIG. 5 is a diagram illustrating pixel values in the upper left 4 ⁇ 4 pixel region of the menu design of FIGS. 3 (a) and 3 (b).
  • FIG. 5A is a diagram illustrating pixel values of the rectangular area illustrated in FIG. The pixel value is 4 bytes and is expressed in the format of RGBB ⁇ . For example, the upper left point is black, but is 00-00-00-FF.
  • FIG. 4 since the point represented by white is a transparent color, 00-00-00-00, that is, the RGB value is “0” and the ⁇ value is “0” (completely transparent). .
  • FIG. 5B shows pixel values in the upper left 4 ⁇ 4 pixel region of the menu design of FIG. 3B.
  • the opaque part is C0-C0-C0-FF, and the luminance of the RGB value is high (light gray).
  • the menu display processing unit 14 selects a menu design as shown in FIG. If the average value is less than 128 (the image is dark), a menu design as shown in FIG. 3B is selected.
  • the feature extraction unit 17 calculates the average of the difference between the R value and the G value based on the RGB value of each pixel in the display image stored in the video plane memory 11, and displays the menu as feature information. The data is sent to the processing unit 14.
  • the average value of the difference between the R value and the G value takes a value from ⁇ 255 to 255, and the larger this average value is, the more red the image becomes.
  • the menu display processing unit 14 selects the menu design of the green hue feature. To do. Further, the menu display processing unit 14 selects a menu design of a red hue feature if the average value of the differences input from the feature extraction unit 17 is less than 0, that is, the green color of the video is strong. In this way, by selecting a menu design having a strong hue opposite to the video, for example, a strong opposite color with a hue circle of 180 degrees, the difference in hue between the video and the operation menu is markedly improved.
  • the feature extraction unit 17 that extracts video feature information from the display image stored in the video plane memory 11 is provided, and the menu display processing unit 14 has an image feature. Based on the feature information extracted by the feature extraction unit 17 having a plurality of different menu designs, a menu design having an image feature that is inconsistent with the video is selected from the plurality of menu designs, and this menu design is displayed. The image is stored in the menu plane memory 13. By doing in this way, the fall of visibility by the image feature with the image superimposed on an image
  • the feature extraction unit 17 extracts the luminance information of the video as the feature information
  • the menu display processing unit 14 uses the plurality of menus based on the luminance information extracted by the feature extraction unit 17. Since a menu design having a luminance characteristic that is inconsistent with the video is selected from the design and stored in the menu plane memory 13, the difference in luminance between the video and the operation menu is conspicuous, thereby improving the visibility.
  • the feature extraction unit 17 extracts the hue information of the video as the feature information, and the menu display processing unit 14 selects a plurality of menus based on the hue information extracted by the feature extraction unit 17. Since a menu design having a hue characteristic that is inconsistent with the video is selected from the design and stored in the menu plane memory 13, the difference in hue between the video and the operation menu is conspicuous, and the visibility can be improved.
  • the menu display processing unit 14 holds a plurality of menu designs in the bitmap format. In this case, the degree of freedom of menu designs that can be selected is increased, but bitmap data corresponding to the number of menu designs is required, and the amount of data increases. Therefore, the menu display processing unit 14 may hold a plurality of menu designs as a look-up table indicating image characteristics of each menu design. By doing so, the amount of data to be held can be reduced.
  • FIG. 6 is a diagram showing pixel values in an upper left 4 ⁇ 4 pixel area of a menu design held using a color lookup table (hereinafter referred to as CLUT).
  • the menu design shown in FIG. 6 differs from the case of FIG. 5 in that the pixel is expressed by a numerical value of 1 byte.
  • FIG. 7 is a diagram illustrating an example of a color lookup table.
  • the CLUT shown in FIG. 7A the “00” pixel shown in FIG. 6 is associated with 00-00-00-00 as a 4-byte RGBA-format pixel value.
  • 00-00-00-FF is associated with the pixel “01” shown in FIG. That is, by selecting the CLUT shown in FIG. 7A, the menu design shown in FIG.
  • the 00-00-00-00 pixel value in the 4-byte RGBB- ⁇ format corresponds to the “00” pixel shown in FIG.
  • C0-C0-C0-FF is associated with the pixel “01” shown in FIG. That is, by selecting the CLUT of FIG. 7B, the menu design (brightness) of FIG. 5B is selected.
  • the menu display processing unit 14 selects the CLUT in FIG. 7A and displays the luminance feature indicated by the CLUT.
  • a menu design display image is stored in the menu plane memory 13.
  • the menu display processing unit 14 selects the CLUT in FIG.
  • a display image of the menu design of the luminance feature to be shown is stored in the menu plane memory 13.
  • the menu display processing unit 14 holds a color lookup table as shown in FIG. 7A and FIG. 7B, respectively.
  • a menu design each pixel is color-looked up as shown in FIG. A value expressed by a numerical value (1 byte) corresponding to the RGBB- ⁇ format pixel value set in the table is held. That is, by using the CLUT, it is not necessary to hold the two menu designs shown in FIGS. 5A and 5B, and only the menu design shown in FIG. 6 needs to be held. Furthermore, since this menu design has a data amount of 1 byte instead of 4 bytes per pixel, the data amount of the menu design can be greatly reduced.
  • FIG. FIG. 8 is a block diagram showing the configuration of the video display apparatus according to Embodiment 2 of the present invention.
  • the video display device 1A according to the second embodiment includes an image drawn on the video input from the video source based on the data input from the video source, and a menu displayed by the video display device 1A regardless of the video source.
  • a video display device that superimposes and displays an image includes an operation unit 10, a video plane memory 11, a graphic plane memory 11A, a video display processing unit 12A, a menu plane memory 13, a menu display processing unit 14A, a superimposition calculation unit 15A, and a display unit 16. And a feature extraction unit 17A.
  • FIG. 8 components having the same functions as those in FIG.
  • the graphic plane memory 11A is a memory that stores a display image of an image drawn based on data input from a video source. Further, when drawing an image based on data input from a video source, the video display processing unit 12A stores the display image of the image in the graphic plane memory 11A.
  • three types of planes that is, a video plane, a graphic plane, and a menu plane are superimposed and displayed. In this case, depending on how to create video content, the coordinate position of the menu displayed on the graphic plane and the menu displayed on the menu plane may overlap, making it difficult for the user to distinguish between the two menus. obtain.
  • the graphic plane is a plane for displaying menus included in video content input from media such as DVD and BD.
  • media such as DVD and BD
  • the media itself includes functions for selecting a video and changing the motion of the video.
  • the user can visually operate using the operation unit 10.
  • captions can be displayed on the graphic plane.
  • the menu display processing unit 14A stores the display image of the operation menu according to the display request received by the operation unit 10 in the menu plane memory 13 as in the first embodiment.
  • the menu display processing unit 14A has a plurality of menu designs with different display positions of menu images in addition to a plurality of menu designs with different image features, and is based on the position information extracted by the feature extraction unit 17A.
  • a menu design in which the menu image does not overlap the graphic plane image is selected from the plurality of menu designs and stored in the menu plane memory 13.
  • FIG. 10 is a diagram illustrating a state of the graphic plane according to the second embodiment.
  • the menu display processing unit 14A selects a menu design in which the menu image does not overlap with the position of the image displayed on the graphic plane.
  • the example shown in FIG. 10 is a display image in which a button image for selecting a video source chapter is displayed at the bottom of the screen.
  • the menu display processing unit 14A has a plurality of menu designs with different display positions of menu images as shown in FIGS. 11 (a) and 11 (b).
  • a button image for “video adjustment” and a button image for “input switching” are displayed at the bottom of the screen.
  • a button image for “video adjustment” and a button image for “input switching” are displayed at the top of the screen.
  • the superimposition calculation unit 15A has a function of performing a superimposition operation on each display image stored in the video plane memory 11, the graphic plane memory 11A, and the menu plane memory 13, and generating a display image in which these are superimposed.
  • the feature extraction unit 17A extracts video feature information from the display image stored in the video plane memory 11, as in the first embodiment.
  • the feature extraction unit 17A extracts position information indicating the position of the image in the display image particularly when the display image is stored in the graphic plane memory 11A. For example, the centroid of all the pixels in the display image area of the graphic plane memory 11A is calculated, and the centroid position is set as the image position.
  • FIG. 12 is a flowchart showing the operation of the video display device according to the second embodiment. Main operations until a display image in which a graphic image of a graphic plane and a menu image of a menu plane are superimposed on the video are displayed. Processing is shown. First, when the user operates the operation unit 10 to instruct menu display (step ST1), this display request is notified to the menu display processing unit 14A.
  • the video display processing unit 12A stores the video display image input from the video source in the video plane memory 11, and draws an image as shown in FIG. 10 based on the data input from the video source. The display image of this image is stored in the graphic plane memory 11A.
  • the feature extraction unit 17A extracts position information indicating the position of the image in the display image (step ST2a). For example, the centroid of all the pixels in the display image area of the graphic plane memory 11A is calculated, and the centroid position is sent to the menu display processing unit 14A as position information indicating the position of the image.
  • position information indicating the lower side of the screen is sent to the menu display processing unit 14A.
  • the feature extraction unit 17A may extract video feature information from the display image stored in the video plane memory 11 and send it to the menu display processing unit 14A. .
  • the menu display processing unit 14A selects a menu design in which the menu image does not overlap the graphic plane image based on the position information extracted by the feature extraction unit 17A from among a plurality of menu designs having different display positions of the menu image. (Step ST3a). For example, when the image position of the graphic plane is in the upper half of the screen, a menu design having a menu image as shown in FIG. 11A at the bottom of the screen is selected. When the image position of the graphic plane is in the lower half of the screen, the menu design having the menu image as shown in FIG. 11B at the top of the screen is selected. In the graphic plane of FIG. 10, the menu design shown in FIG. 11B is selected.
  • the menu display processing unit 14A has a menu design in which the menu image does not overlap the graphic plane image based on the feature information and the position information extracted by the feature extraction unit 17, and the image feature is in conflict with the video. You may choose a menu design.
  • the menu display processing unit 14A transfers the display image of the selected menu design to the menu plane memory 13 and stores it (step ST4a). Thereafter, the superimposition calculation unit 15A performs a superimposition operation on each display image stored in the video plane memory 11, the graphic plane memory 11A, and the menu plane memory 13, and generates a display image in which these are superimposed.
  • the display unit 16 displays the display image generated by the superimposition calculation unit 15A. In this way, the menu of the video processing apparatus 1A can be displayed at a position that does not overlap the menu of content drawn on the graphic plane.
  • the menu design is such that the menu image does not overlap with the graphic plane image, and the menu design has an image feature that is inconsistent with the image, the image feature is similar to the image superimposed on the image. Therefore, it is possible to prevent a decrease in visibility due to the fact that the graphic plane image and the menu plane image overlap each other.
  • the graphic plane memory 11A that stores the display image of the image to be drawn based on the data input from the video source
  • the video display processing unit 12A is connected to the video source.
  • the display image of the image is stored in the graphic plane memory 11A
  • the feature extraction unit 17A indicates position information indicating the position of the image in the display image stored in the graphic plane memory 11A.
  • the menu display processing unit 14A has a plurality of menu designs with different display positions of the menu image, and the menu is displayed on the image from the plurality of menu designs based on the position information extracted by the feature extraction unit 17A.
  • convolution unit 15A is, video plane memory 11, performs a convolution on each display image stored in the graphics plane memory 11A and menu plane memory 13, generates a display image which they are superimposed. By doing so, it is possible to prevent a decrease in visibility due to the overlap of the graphic plane image and the menu plane image.
  • the video display device can prevent a decrease in visibility due to the similarity of the image characteristics with the image superimposed on the video
  • the menu is displayed by a user operation such as a television receiver or a BD player. This is suitable for a video display device that displays an image superimposed on the video.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 映像プレーンメモリ11に格納されている表示イメージにおける映像の特徴情報を抽出する特徴抽出部17を備え、メニュー表示処理部14が、画像特徴が異なる複数のメニューデザインを有しており、特徴抽出部17が抽出した特徴情報に応じて複数のメニューデザインの中から映像とは相反する画像特徴のメニューデザインを選択して、このメニューデザインの表示イメージをメニュープレーンメモリ13に格納する。

Description

映像表示装置
 この発明は、映像とメニュー画像を重畳させた画面を表示する映像表示装置に関する。
 テレビジョン受像機やBD(Blu-ray Disc)プレーヤなどの映像表示装置において、近年、ユーザの操作によって当該装置の制御に必要なメニューを表示する機能を有したものが普及している。例えば、ソースからの映像の表示中に、メニュー呼び出し操作が実行されると、ソースからの映像上に、映像表示装置自体が表示するメニュー画像が重畳表示される。
 上述の場合、表示している映像によってはメニュー画像の画像特徴と類似して、映像とメニューとの見分けがつきにくくなり、映像やメニューの視認性が低下する場合がある。なお、異なるプレーン上の画像同士の重なりを防ぐ従来の技術としては、特許文献1に、ボタン画像などが互いに重ならないように各プレーンでのレイアウトを変更する表示装置が開示されている。
国際公開第2006/100904号
 特許文献1に代表される従来の技術では、各プレーンにおける画像の位置をずらすことで画像同士の重畳を防ぐことはできるが、ソースからの映像とメニュー画像の輝度や色相が類似して視認性が低下する課題は解消できない。
 この発明は、上記のような課題を解決するためになされたもので、映像上に重畳される画像との画像特徴が類似することによる視認性の低下を防ぐことができる映像表示装置を得ることを目的とする。
 この発明に係る映像表示装置は、操作入力を受け付ける操作部と、映像の表示イメージが格納される映像プレーンメモリと、映像ソースから入力した映像の表示イメージを映像プレーンメモリに格納する映像表示処理部と、操作メニューの表示イメージが格納されるメニュープレーンメモリと、操作部が受け付けた表示要求に応じた操作メニューの表示イメージをメニュープレーンメモリに格納するメニュー表示処理部と、映像プレーンメモリとメニュープレーンメモリに格納されている各表示イメージに重畳演算を行い、これらが重畳された表示イメージを生成する重畳演算部と、重畳演算部によって生成された表示イメージを表示する表示部とを備える映像表示装置において、映像プレーンメモリに格納されている表示イメージから映像の特徴情報を抽出する特徴抽出部を備え、メニュー表示処理部は、画像特徴が異なる複数のメニューデザインを有しており、特徴抽出部が抽出した特徴情報に基づいて複数のメニューデザインの中から映像とは相反する画像特徴のメニューデザインを選択し、このメニューデザインの表示イメージをメニュープレーンメモリに格納することを特徴とする。
 この発明によれば、映像上に重畳される画像との画像特徴が類似することによる視認性の低下を防ぐことができるという効果がある。
この発明の実施の形態1に係る映像表示装置の構成を示すブロック図である。 実施の形態1に係る映像表示装置の動作を示すフローチャートである。 実施の形態1におけるメニューデザインの例を示す図である。 図3(a)のメニューデザインの左上4画素×4画素の領域を示す拡大図である。 図3(a)および図3(b)のメニューデザインの左上4画素×4画素の領域における画素値を示す図である。 カラールックアップテーブルを利用して保持するメニューデザインの左上4画素×4画素の領域における画素値を示す図である。 カラールックアップテーブルの例を示す図である。 この発明の実施の形態2に係る映像表示装置の構成を示すブロック図である。 実施の形態2におけるプレーン構成を示す図である。 実施の形態2におけるグラフィックプレーンの状態を示す図である。 実施の形態2におけるメニューデザイン(2パターン)の例を示す図である。 実施の形態2に係る映像表示装置の動作を示すフローチャートである。
 以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係る映像表示装置の構成を示すブロック図である。図1において、実施の形態1に係る映像表示装置1は、映像ソースから入力した映像上にメニュー画像を重畳表示する映像表示装置であり、操作部10、映像プレーンメモリ11、映像表示処理部12、メニュープレーンメモリ13、メニュー表示処理部14、重畳演算部15、表示部16および特徴抽出部17を備えて構成される。
 操作部10は、ユーザからの操作入力を受け付ける操作部である。例えば、表示部16の画面上に搭載されたタッチパネル、ハードウェアキー、音声入力装置と音声認識装置、リモートコントローラなどによって実現することができる。
 映像プレーンメモリ11は、映像の表示イメージが格納されるプレーンメモリであり、映像の一画面分の表示領域を有する。
 映像表示処理部12は、映像ソースから入力した映像の表示イメージを、映像プレーンメモリ11に格納する機能を有する。例えば、映像の一画面分の表示イメージを示す画素情報が映像プレーンメモリ11に展開される。
 また、映像ソースとしては、テレビジョン受像機やBDプレーヤなどが挙げられる。
 メニュープレーンメモリ13は、操作メニューの表示イメージが格納されるプレーンメモリである。ここで、操作メニューとは、映像表示装置1自体が各種の処理を行うために表示する操作メニューをいう。例えば、表示部16が表示している映像の画質を調整する“映像調整”や、映像ソースの入力を切り換える“入力切換”のように、映像ソースとは無関係に、映像表示装置1が実行する機能の操作メニューである。
 メニュー表示処理部14は、操作部10が受け付けた表示要求に応じた操作メニューの表示イメージを、メニュープレーンメモリ13に格納する機能を有する。
 例えば、映像表示装置1があらかじめ用意している操作メニューのうち、操作部10を用いたメニュー呼び出し操作に応じた操作メニューが呼び出されて、その表示イメージを示す画素情報がメニュープレーンメモリ13に展開される。
 また、メニュー表示処理部14は、画像特徴が異なる複数のメニューデザインを有しており、特徴抽出部17が抽出した特徴情報に基づいて、複数のメニューデザインの中から映像とは相反する画像特徴のメニューデザインを選択し、このメニューデザインの表示イメージをメニュープレーンメモリ13に格納する。
 重畳演算部15は、映像プレーンメモリ11とメニュープレーンメモリ13に格納されている各表示イメージに重畳演算を行い、これらが重畳された表示イメージを生成する機能を有する。例えば、映像の表示イメージ上に操作メニューの表示イメージが重畳された表示イメージが生成される。
 表示部16は、液晶表示ディスプレイやプラズマディスプレイなどで実現される表示部であり、重畳演算部15に生成された表示イメージを表示する。
 特徴抽出部17は、映像プレーンメモリ11に格納されている表示イメージから映像の特徴情報を抽出する機能を有する。映像の特徴情報としては、例えば、輝度情報(輝度の空間平均など)または色相情報(色相の空間平均など)が挙げられる。また、輝度情報や色相情報以外であっても、映像の画像上の特徴を表す情報であればよい。
 次に動作について説明する。
 図2は、実施の形態1に係る映像表示装置の動作を示すフローチャートであり、映像上にメニュープレーンのメニュー画像を重畳させた表示イメージを表示するまでの主な処理を示している。
 まず、ユーザが操作部10を操作してメニュー表示を指示すると(ステップST1)、この表示要求は、メニュー表示処理部14に通知される。また、映像表示処理部12は、映像ソースから入力した映像の表示イメージを映像プレーンメモリ11に格納する。
 次に、特徴抽出部17は、映像プレーンメモリ11に格納される表示イメージから映像の特徴情報を抽出する(ステップST2)。特徴情報としては映像の輝度情報を利用することが可能である。この場合、特徴抽出部17は、映像プレーンメモリ11に格納されている表示イメージから各画素の輝度の平均値を計算し、これを特徴情報としてメニュー表示処理部14へ送る。
 メニュー表示処理部14は、画像特徴が異なる複数のメニューデザインの中から、特徴抽出部17が抽出した特徴情報に基づいて映像とは相反する画像特徴のメニューデザインを選択する(ステップST3)。
 特徴情報が輝度情報である場合、輝度の平均値は、0から255までの値をとり、この平均値が大きければ大きいほど明るい映像となる。
 そこで、メニュー表示処理部14は、例えば、閾値を128とし、特徴抽出部17から入力した輝度の平均値が128以上(映像が明るい)場合、輝度が低いメニューデザインを選択する。
 また、メニュー表示処理部14は、特徴抽出部17から入力した輝度の平均値が128未満(映像が暗い)であれば、輝度が高いメニューデザインを選択する。
 このように映像とは相反する画像特徴のメニューデザインを選択することにより、映像と操作メニューの輝度の違いが際立って視認性が向上する。
 次に、メニュー表示処理部14は、選択したメニューデザインの表示イメージをメニュープレーンメモリ13に転送して格納する(ステップST4)。
 この後、重畳演算部15は、映像プレーンメモリ11とメニュープレーンメモリ13に格納されている各表示イメージに重畳演算を行い、これらが重畳された表示イメージを生成する。表示部16は、重畳演算部15によって生成された表示イメージを表示する。
 図3は、実施の形態1におけるメニューデザインの例を示す図である。図3(a)に示すメニューデザインは、“映像調整”の機能が割り当てられたボタン画像、“入力切換”の機能が割り当てられたボタン画像と、これらを囲む外枠となる矩形画像からなる。
 なお、このメニューデザインにおける白地部分は、透明色であり、映像プレーンメモリ11に格納される映像の表示イメージと重畳されたときに、映像の色が透過されてみえる部分である。また、文字、矩形およびオーバル形状を示す黒色部分は不透明であり、映像の色に上書きされて表示される部分である。
 図3(b)に示すメニューデザインは、図3(a)と同様に、“映像調整”の機能が割り当てられたボタン画像、“入力切換”の機能が割り当てられたボタン画像およびこれらを囲む外枠となる矩形画像からなる。また、図3(b)では、図3(a)のメニューデザインにおける黒色部分に対応する不透明な部分が、図3(a)のデザインよりも明るい色で表現されている。これらのメニューデザインは、メニュー表示処理部14にあらかじめ保持される。
 図4は、図3(a)のメニューデザインの左上4画素×4画素の領域を示す拡大図である。図4において、白色の矩形領域は、透明色の部分である。また、黒色の部分は、図3(a)のメニューデザインの外枠の左上の一部に相当する。
 図5は、図3(a)および図3(b)のメニューデザインの左上4画素×4画素の領域における画素値を示す図である。図5(a)は、図4に示す矩形領域の画素値を示す図である。画素値は、4バイトで、R-G-B-αの形式で表現している。
 例えば、左上の点は黒色であるが、00-00-00-FFとなっている。この場合、RGB値がそれぞれ“0”であり、透明度を示すα値が“FF”、すなわち、0xFF=256(完全に不透明)を表している。
 また、図4において、白色で表されている点は透明色であるので、00-00-00-00、すなわちRGB値がそれぞれ“0”かつα値も“0”(完全に透明)となる。
 図5(b)は、図3(b)のメニューデザインの左上4画素×4画素の領域における画素値を示している。図5(a)との違いは、不透明な部分が、C0-C0-C0-FFとなっており、RGB値の輝度が高い(明るい灰色)。
 図2において、メニュー表示処理部14は、特徴抽出部17から入力した輝度の平均値が128以上(映像が明るい)の場合、図3(a)に示すようなメニューデザインを選択し、輝度の平均値が128未満(映像が暗い)であれば、図3(b)に示すようなメニューデザインを選択する。
 特徴情報として輝度情報を用いる場合を示したが、映像の色相情報を用いることも可能である。この場合は、特徴抽出部17が、映像プレーンメモリ11に格納されている表示イメージにおける各画素のRGB値を基にR値とG値の差分の平均を算出し、これを特徴情報としてメニュー表示処理部14へ送る。
 R値とG値の差分の平均値は、-255から255までの値をとり、この平均値が大きければ大きいほど、赤色が強くなる映像となる。
 メニュー表示処理部14は、例えば、閾値を0とし、特徴抽出部17から入力した上記差分の平均値が0以上、すなわち映像の赤色が強い場合には、緑系の色相特徴のメニューデザインを選択する。
 また、メニュー表示処理部14は、特徴抽出部17から入力した上記差分の平均値が0未満、すなわち映像の緑色が強ければ、赤系の色相特徴のメニューデザインを選択する。
 このように、映像とは相反する色相特徴、例えば色相環が180度異なる反対色が強いメニューデザインを選択することで、映像と操作メニューの色相の違いが際立って視認性が向上する。
 以上のように、この実施の形態1によれば、映像プレーンメモリ11に格納されている表示イメージから映像の特徴情報を抽出する特徴抽出部17を備え、メニュー表示処理部14が、画像特徴が異なる複数のメニューデザインを有しており、特徴抽出部17が抽出した特徴情報に基づいて、複数のメニューデザインの中から映像とは相反する画像特徴のメニューデザインを選択し、このメニューデザインの表示イメージをメニュープレーンメモリ13に格納する。このようにすることで、映像上に重畳される画像との画像特徴が類似することによる視認性の低下を防ぐことができる。
 また、この実施の形態1によれば、特徴抽出部17が、映像の輝度情報を特徴情報として抽出し、メニュー表示処理部14が、特徴抽出部17が抽出した輝度情報に基づいて複数のメニューデザインの中から映像とは相反する輝度特徴のメニューデザインを選択し、メニュープレーンメモリ13に格納するので、映像と操作メニューの輝度の違いが際立って視認性を向上させることができる。
 さらに、この実施の形態1によれば、特徴抽出部17が、映像の色相情報を特徴情報として抽出し、メニュー表示処理部14が、特徴抽出部17が抽出した色相情報に基づいて複数のメニューデザインの中から映像とは相反する色相特徴のメニューデザインを選択し、メニュープレーンメモリ13に格納するので、映像と操作メニューの色相の違いが際立って視認性を向上させることができる。
 なお、上記実施の形態1では、メニュー表示処理部14が、複数のメニューデザインをビットマップ形式で保持する場合を示した。この場合、選択が可能なメニューデザインの自由度は高くなるが、メニューデザインの数だけのビットマップデータが必要となって、データ量が大きくなる。
 そこで、メニュー表示処理部14が、複数のメニューデザインを、各メニューデザインの画像特徴を示すルックアップテーブルとして保持してもよい。このようにすることで、保持すべきデータ量を低減できる。
 図6は、カラールックアップテーブル(以下、CLUTと記載する)を利用して保持するメニューデザインの左上4画素×4画素の領域における画素値を示す図である。図6に示すメニューデザインは、図5の場合と異なり、画素が1バイトの数値で表現される。
 図7は、カラールックアップテーブルの例を示す図である。図7(a)に示すCLUTでは、図6で示した“00”の画素に対して、4バイトのR-G-B-α形式の画素値で00-00-00-00を対応付けており、図6で示した“01”の画素に対して00-00-00-FFを対応付けている。すなわち、図7(a)のCLUTを選択することにより、図5(a)のメニューデザイン(輝度が低い)が選択される。
 また、図7(b)に示すCLUTでは、図6で示した“00”の画素に対して、4バイトのR-G-B-α形式の画素値で00-00-00-00を対応付けており、図6で示した“01”の画素に対してC0-C0-C0-FFを対応付けている。すなわち、図7(b)のCLUTを選択することにより、図5(b)のメニューデザイン(輝度が高い)が選択される。
 特徴抽出部17が抽出した映像の輝度平均値が閾値128以上である場合(映像が明るい)、メニュー表示処理部14は、図7(a)のCLUTを選択し、このCLUTが示す輝度特徴のメニューデザインの表示イメージをメニュープレーンメモリ13に格納する。
 また、特徴抽出部17が抽出した映像の輝度平均値が閾値128未満である場合(映像が暗い)には、メニュー表示処理部14は、図7(b)のCLUTを選択し、このCLUTが示す輝度特徴のメニューデザインの表示イメージをメニュープレーンメモリ13に格納する。
 メニュー表示処理部14は、図7(a)、図7(b)に示すようなカラールックアップテーブルをそれぞれ保持し、メニューデザインとしては、図6に示したように各画素を、カラールックアップテーブルに設定されたR-G-B-α形式の画素値に対応する、数値(1バイト)で表現したものを保持する。
 すなわち、CLUTを利用することにより、図5(a)と図5(b)に示した2つ分のメニューデザインを保持する必要がなく、図6に示したメニューデザインだけを保持すればよい。さらに、このメニューデザインは、1画素あたりが4バイトではなく、1バイトのデータ量であることから、メニューデザインのデータ量を大幅に低減することが可能である。
実施の形態2.
 図8は、この発明の実施の形態2に係る映像表示装置の構成を示すブロック図である。実施の形態2に係る映像表示装置1Aは、映像ソースから入力した映像上に、映像ソースから入力したデータに基づいて描画される画像と、映像ソースとは無関係に映像表示装置1Aが表示するメニュー画像を重畳表示する映像表示装置であり、操作部10、映像プレーンメモリ11、グラフィックプレーンメモリ11A、映像表示処理部12A、メニュープレーンメモリ13、メニュー表示処理部14A、重畳演算部15A、表示部16および特徴抽出部17Aを備えて構成される。なお、図8において、図1と同一機能の構成要素には同一符号を付して説明を省略する。
 グラフィックプレーンメモリ11Aは、映像ソースから入力したデータに基づいて描画される画像の表示イメージが格納されるメモリである。
 また、映像表示処理部12Aは、映像ソースから入力したデータに基づいて画像を描画する場合、当該画像の表示イメージをグラフィックプレーンメモリ11Aに格納する。
 図9に示すように、この実施の形態2では、映像プレーン、グラフィックプレーン、メニュープレーンの3種類のプレーンが重畳表示される。
 この場合に、映像コンテンツの作り方によっては、グラフィックプレーンに表示されるメニューとメニュープレーンに表示されるメニューの座標位置が重なってしまい、ユーザにとっては、2つのメニューの判別が困難となる状況があり得る。
 なお、グラフィックプレーンは、DVDやBDなどのメディアから入力した映像コンテンツに含まれるメニューを表示するためのプレーンである。DVDやBDなどのメディアでは、メディア自体の中に、映像を選択したり、映像の動きを変更する機能が含まれている。上記のような機能を示す操作メニューの画像をグラフィックプレーンに表示することにより、ユーザが、操作部10を用いて視覚的に操作が可能となる。
 また、グラフィックプレーンには、字幕を表示することも可能である。
 メニュー表示処理部14Aは、上記実施の形態1と同様に、操作部10が受け付けた表示要求に応じた操作メニューの表示イメージをメニュープレーンメモリ13に格納する。
 また、メニュー表示処理部14Aは、画像特徴が異なる複数のメニューデザインの他に、メニュー画像の表示位置が異なる複数のメニューデザインを有しており、特徴抽出部17Aが抽出した位置情報に基づいて、複数のメニューデザインの中から、グラフィックプレーンの画像にメニュー画像が重ならないメニューデザインを選択し、メニュープレーンメモリ13に格納する。
 図10は、実施の形態2におけるグラフィックプレーンの状態を示す図である。メニュー表示処理部14Aは、グラフィックプレーンに表示される画像の位置にメニュー画像が重ならないメニューデザインを選択する。図10に示す例は、映像ソースのチャプターを選択するためのボタン画像を画面の下部に表示する表示イメージである。
 また、メニュー表示処理部14Aは、図11(a)および図11(b)に示すような、メニュー画像の表示位置が異なる複数のメニューデザインを有している。
 図11(a)に示すメニューデザインは、“映像調整”のボタン画像と“入力切換”のボタン画像が画面の下部に表示される。また、図11(b)に示すメニューデザインは、“映像調整”のボタン画像と“入力切換”のボタン画像が画面の上部に表示されている。
 重畳演算部15Aは、映像プレーンメモリ11、グラフィックプレーンメモリ11Aおよびメニュープレーンメモリ13に格納されている各表示イメージに重畳演算を行い、これらが重畳された表示イメージを生成する機能を有する。
 特徴抽出部17Aは、上記実施の形態1と同様に、映像プレーンメモリ11に格納される表示イメージから映像の特徴情報を抽出する。
 また、特徴抽出部17Aは、特に、グラフィックプレーンメモリ11Aに表示イメージが格納されている場合には、この表示イメージにおける画像の位置を示す位置情報を抽出する。例えば、グラフィックプレーンメモリ11Aの表示イメージ領域における全画素の重心を算出し、その重心位置を画像位置とする。
 次に動作について説明する。
 図12は、実施の形態2に係る映像表示装置の動作を示すフローチャートであり、映像上に、グラフィックプレーンのメニュー画像とメニュープレーンのメニュー画像とを重畳させた表示イメージを表示するまでの主な処理を示している。
 まず、ユーザが操作部10を操作してメニュー表示を指示すると(ステップST1)、この表示要求は、メニュー表示処理部14Aに通知される。また、映像表示処理部12Aは、映像ソースから入力した映像の表示イメージを映像プレーンメモリ11に格納するとともに、映像ソースから入力したデータを基に図10に示したような画像を描画して、この画像の表示イメージをグラフィックプレーンメモリ11Aに格納する。
 次に、特徴抽出部17Aは、グラフィックプレーンメモリ11Aに表示イメージが格納されている場合、この表示イメージにおける画像の位置を示す位置情報を抽出する(ステップST2a)。例えば、グラフィックプレーンメモリ11Aの表示イメージ領域における全画素の重心を算出し、その重心位置を画像の位置を示す位置情報としてメニュー表示処理部14Aへ送る。図10の場合は、チャプターを選択するボタン画像が画面の下段に表示されているので、画面の下段側に全画素の重心がある。従って、画面の下段側を示す位置情報がメニュー表示処理部14Aへ送られる。
 このとき、上記実施の形態1と同様に、特徴抽出部17Aが、映像プレーンメモリ11に格納される表示イメージから映像の特徴情報を抽出して、メニュー表示処理部14Aへ送るようにしてもよい。
 メニュー表示処理部14Aは、メニュー画像の表示位置が異なる複数のメニューデザインの中から、特徴抽出部17Aが抽出した位置情報に基づいて、グラフィックプレーンの画像にメニュー画像が重ならないメニューデザインを選択する(ステップST3a)。
 例えば、グラフィックプレーンの画像位置が画面の上半分にあった場合、図11(a)に示したようなメニュー画像が画面の下部にあるメニューデザインが選択される。また、グラフィックプレーンの画像位置が画面の下半分にあった場合は、図11(b)に示したようなメニュー画像が画面の上部にあるメニューデザインが選択される。図10のグラフィックプレーンでは、図11(b)に示すメニューデザインが選択される。
 また、このとき、メニュー表示処理部14Aが、特徴抽出部17が抽出した特徴情報と位置情報に基づいてグラフィックプレーンの画像にメニュー画像が重ならないメニューデザインであり、かつ映像とは相反する画像特徴のメニューデザインを選択してもよい。
 次に、メニュー表示処理部14Aは、選択したメニューデザインの表示イメージをメニュープレーンメモリ13に転送して格納する(ステップST4a)。
 この後、重畳演算部15Aは、映像プレーンメモリ11、グラフィックプレーンメモリ11Aおよびメニュープレーンメモリ13に格納されている各表示イメージに重畳演算を行い、これらが重畳された表示イメージを生成する。表示部16は、重畳演算部15Aによって生成された表示イメージを表示する。
 このようにすることで、グラフィックプレーンに描画されているコンテンツのメニューに重ならない位置に、映像処理装置1Aのメニューを表示することが可能となる。
 また、グラフィックプレーンの画像にメニュー画像が重ならないメニューデザインであり、かつ映像とは相反する画像特徴のメニューデザインが選択された場合には、映像上に重畳される画像との画像特徴が類似することによる視認性の低下を防ぐことができ、さらにグラフィックプレーンの画像とメニュープレーンの画像とが重なり合うことによる視認性の低下を防ぐことができる。
 以上のように、この実施の形態2によれば、映像ソースから入力したデータを基に描画する画像の表示イメージが格納されるグラフィックプレーンメモリ11Aを備え、映像表示処理部12Aが、映像ソースから入力したデータを基に画像を描画する場合、当該画像の表示イメージをグラフィックプレーンメモリ11Aに格納し、特徴抽出部17Aが、グラフィックプレーンメモリ11Aに格納される表示イメージにおける画像の位置を示す位置情報を抽出し、メニュー表示処理部14Aが、メニュー画像の表示位置が異なる複数のメニューデザインを有しており、特徴抽出部17Aが抽出した位置情報に基づいて複数のメニューデザインの中から画像にメニュー画像が重ならないメニューデザインを選択し、メニュープレーンメモリ13に格納し、重畳演算部15Aが、映像プレーンメモリ11、グラフィックプレーンメモリ11Aおよびメニュープレーンメモリ13に格納されている各表示イメージに重畳演算を行い、これらが重畳された表示イメージを生成する。
 このようにすることで、グラフィックプレーンの画像とメニュープレーンの画像が重なり合うことによる視認性の低下を防止することができる。
 なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせあるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る映像表示装置は、映像上に重畳される画像との画像特徴が類似することによる視認性の低下を防ぐことができるので、テレビジョン受像機やBDプレーヤなどのユーザ操作によりメニューを映像に重畳表示する映像表示装置に好適である。
 1,1A 映像表示装置、10 操作部、11 映像プレーンメモリ、11A グラフィックプレーンメモリ、12,12A 映像表示処理部、13 メニュープレーンメモリ、14,14A メニュー表示処理部、15,15A 重畳演算部、16 表示部、17,17A 特徴抽出部。

Claims (5)

  1.  操作入力を受け付ける操作部と、
     映像の表示イメージが格納される映像プレーンメモリと、
     映像ソースから入力した映像の表示イメージを前記映像プレーンメモリに格納する映像表示処理部と、
     操作メニューの表示イメージが格納されるメニュープレーンメモリと、
     前記操作部が受け付けた表示要求に応じて操作メニューの表示イメージを前記メニュープレーンメモリに格納するメニュー表示処理部と、
     前記映像プレーンメモリと前記メニュープレーンメモリに格納されている各表示イメージに重畳演算を行い、これらが重畳された表示イメージを生成する重畳演算部と、
     前記重畳演算部によって生成された表示イメージを表示する表示部とを備える映像表示装置において、
     前記映像プレーンメモリに格納されている表示イメージから映像の特徴情報を抽出する特徴抽出部を備え、
     前記メニュー表示処理部は、画像特徴が異なる複数のメニューデザインを有しており、前記特徴抽出部が抽出した特徴情報に基づいて前記複数のメニューデザインの中から映像とは相反する画像特徴のメニューデザインを選択し、このメニューデザインの表示イメージを前記メニュープレーンメモリに格納することを特徴とする映像表示装置。
  2.  前記特徴抽出部は、前記映像の輝度情報を特徴情報として抽出し、
     前記メニュー表示処理部は、前記特徴抽出部が抽出した輝度情報に基づいて前記複数のメニューデザインの中から前記映像とは相反する輝度特徴のメニューデザインを選択し、前記メニュープレーンメモリに格納することを特徴とする請求項1記載の映像表示装置。
  3.  前記特徴抽出部は、前記映像の色相情報を特徴情報として抽出し、
     前記メニュー表示処理部は、前記特徴抽出部が抽出した色相情報に基づいて前記複数のメニューデザインの中から前記映像とは相反する色相特徴のメニューデザインを選択し、前記メニュープレーンメモリに格納することを特徴とする請求項1記載の映像表示装置。
  4.  前記メニュー表示処理部は、前記複数のメニューデザインの各画像特徴をカラールックアップテーブルで有しており、前記特徴抽出部が抽出した特徴情報に基づいて複数のカラールックアップテーブルの中から映像とは相反する画像特徴を示すカラールックアップテーブルを選択し、当該カラールックアップテーブルが示す画像特徴のメニューデザインの表示イメージを前記メニュープレーンメモリに格納することを特徴とする請求項1記載の映像表示装置。
  5.  映像ソースから入力したデータを基に描画する画像の表示イメージが格納されるグラフィックプレーンメモリを備え、
     前記映像表示処理部は、前記映像ソースから入力したデータを基に前記画像を描画する場合、当該画像の表示イメージを前記グラフィックプレーンメモリに格納し、
     前記特徴抽出部は、前記グラフィックプレーンメモリに格納されている表示イメージにおける前記画像の位置を示す位置情報を抽出し、
     前記メニュー表示処理部は、メニュー画像の表示位置が異なる複数のメニューデザインを有しており、前記特徴抽出部が抽出した前記位置情報に基づいて前記複数のメニューデザインの中から前記画像にメニュー画像が重ならないメニューデザインを選択して、前記メニュープレーンメモリに格納し、
     前記重畳演算部は、前記映像プレーンメモリ、前記グラフィックプレーンメモリおよび前記メニュープレーンメモリに格納されている各表示イメージに重畳演算を行い、これらが重畳された表示イメージを生成することを特徴とする請求項1記載の映像表示装置。
PCT/JP2012/068469 2012-07-20 2012-07-20 映像表示装置 WO2014013613A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2012/068469 WO2014013613A1 (ja) 2012-07-20 2012-07-20 映像表示装置
JP2014525668A JP5901769B2 (ja) 2012-07-20 2012-07-20 映像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/068469 WO2014013613A1 (ja) 2012-07-20 2012-07-20 映像表示装置

Publications (1)

Publication Number Publication Date
WO2014013613A1 true WO2014013613A1 (ja) 2014-01-23

Family

ID=49948465

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/068469 WO2014013613A1 (ja) 2012-07-20 2012-07-20 映像表示装置

Country Status (2)

Country Link
JP (1) JP5901769B2 (ja)
WO (1) WO2014013613A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7547542B2 (ja) 2017-09-09 2024-09-09 アップル インコーポレイテッド アフォーダンスを背景に表示するためのデバイス、方法、及びグラフィカルユーザインターフェース

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08195968A (ja) * 1995-01-19 1996-07-30 Kyocera Corp スーパーインポーズ表示装置
JPH11112949A (ja) * 1997-10-06 1999-04-23 Sanyo Electric Co Ltd データ多重送信器、データ多重受信器、およびそれらを用いたデータ多重送受信システム
WO2005062605A1 (ja) * 2003-12-18 2005-07-07 Mitsubishi Denki Kabushiki Kaisha 画像表示制御装置及び画像表示システム
WO2010026745A1 (ja) * 2008-09-02 2010-03-11 パナソニック株式会社 コンテンツ表示処理装置及びコンテンツ表示処理方法
JP2011199857A (ja) * 2010-02-26 2011-10-06 Sharp Corp 画像表示装置およびオンスクリーン表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08195968A (ja) * 1995-01-19 1996-07-30 Kyocera Corp スーパーインポーズ表示装置
JPH11112949A (ja) * 1997-10-06 1999-04-23 Sanyo Electric Co Ltd データ多重送信器、データ多重受信器、およびそれらを用いたデータ多重送受信システム
WO2005062605A1 (ja) * 2003-12-18 2005-07-07 Mitsubishi Denki Kabushiki Kaisha 画像表示制御装置及び画像表示システム
WO2010026745A1 (ja) * 2008-09-02 2010-03-11 パナソニック株式会社 コンテンツ表示処理装置及びコンテンツ表示処理方法
JP2011199857A (ja) * 2010-02-26 2011-10-06 Sharp Corp 画像表示装置およびオンスクリーン表示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7547542B2 (ja) 2017-09-09 2024-09-09 アップル インコーポレイテッド アフォーダンスを背景に表示するためのデバイス、方法、及びグラフィカルユーザインターフェース
US12086398B2 (en) 2017-09-09 2024-09-10 Apple Inc. Device, method, and graphical user interface for adjusting a display property of an affordance over changing background content

Also Published As

Publication number Publication date
JP5901769B2 (ja) 2016-04-13
JPWO2014013613A1 (ja) 2016-06-30

Similar Documents

Publication Publication Date Title
JP4872982B2 (ja) 画像処理回路および画像表示装置
US20070052733A1 (en) Image display device and projector
JP5509729B2 (ja) 画像表示装置、画像表示方法及び画像処理装置
JP2003271125A (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
WO2015159543A1 (ja) 表示システム、表示装置、及び、表示制御方法
JP2017191146A (ja) 画像表示装置及び画像表示方法
CN107817924B (zh) 显示装置和显示装置的控制方法
JP2020042322A (ja) 画像表示装置及びその制御方法
JP4788248B2 (ja) 画像表示装置、プロジェクタおよび画像表示方法
JP2013009057A (ja) マルチディスプレイシステム
JP2003076355A (ja) 画像表示装置、画像表示方法、記録媒体およびプログラム
US20060139493A1 (en) Displaying apparatus and control method thereof
US20060125809A1 (en) Displaying apparatus and control method thereof
WO2005006772A1 (ja) 画像表示装置及び画像表示方法
US20210397400A1 (en) Image display system and image display method
JP5901769B2 (ja) 映像表示装置
JP2011040958A (ja) 画像表示装置及び画像表示方法
JP2009276557A (ja) 映像処理デバイス、映像処理lsi、表示装置、カーナビゲーションシステム、混合比情報生成方法、プログラム、および記録媒体
JP2006195771A (ja) 画像表示装置
JP6409312B2 (ja) 表示システム、表示装置、及び、表示制御方法
JP2016163099A (ja) 画像処理装置および画像表示装置
JP5131310B2 (ja) 画像表示装置、プロジェクタおよび画像表示方法
US20060103681A1 (en) Display apparatus and control method thereof
JP2016085364A (ja) 画像表示装置及び画像表示方法
JP3834322B2 (ja) 画像表示装置及び画像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12881384

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014525668

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12881384

Country of ref document: EP

Kind code of ref document: A1