WO2014192044A1 - 画像処理装置、画像処理システム及び画像処理方法 - Google Patents

画像処理装置、画像処理システム及び画像処理方法 Download PDF

Info

Publication number
WO2014192044A1
WO2014192044A1 PCT/JP2013/003441 JP2013003441W WO2014192044A1 WO 2014192044 A1 WO2014192044 A1 WO 2014192044A1 JP 2013003441 W JP2013003441 W JP 2013003441W WO 2014192044 A1 WO2014192044 A1 WO 2014192044A1
Authority
WO
WIPO (PCT)
Prior art keywords
window
image
mask
superimposed
unit
Prior art date
Application number
PCT/JP2013/003441
Other languages
English (en)
French (fr)
Inventor
洋平 三木
泰範 椿
吉田 浩
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US14/785,928 priority Critical patent/US9898837B2/en
Priority to PCT/JP2013/003441 priority patent/WO2014192044A1/ja
Priority to CN201380075637.0A priority patent/CN105122345B/zh
Priority to JP2015519500A priority patent/JP5968533B2/ja
Publication of WO2014192044A1 publication Critical patent/WO2014192044A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to an image processing apparatus, an image processing system, and an image processing method for generating an image by chroma key composition.
  • an image processing apparatus such as a PC (Personal Computer) has a content of a video created by an image creating apparatus (hardware) such as an accelerator or a still image created by a GUI (Graphical user interface) in a window. It is possible to display on the screen and browse simultaneously (note that, in the following description, a window for displaying a still image is referred to as a "still image window” and a window for displaying a video is referred to as "video window”). Chroma key composition is known as a technique for simultaneously displaying such content.
  • the chroma key composition is a method of displaying a video window on a main image by setting a specific color (color key) in a region for displaying a video window on a main image drawn by a GUI or the like and displaying the video window.
  • a specific color color key
  • the color key of the still picture window is used. Even the part you are doing will be transparent.
  • the correct composite image can be obtained by masking the area (superimposed area) where the window displaying the video and the window displaying the still image overlap (processing to prevent the color key from transmitting).
  • Patent Document 1 for example, Patent Document 1
  • Patent Document 1 the image processing apparatus of Patent Document 1 is premised that the still image window is superimposed on the video window, and the mask processing is performed only when the still image window is superimposed on the bottom of the video window. If this method is implemented, although it is desired to display the video window in the area where the still picture window and the video window overlap, the overlapping area is not transmitted by the mask processing, so there is a problem that a desired composite image can not be obtained.
  • the present invention has an object to obtain a desired composite image when a still picture window and a video window are superimposed, regardless of which of the still picture window and the video window is superimposed.
  • the image processing apparatus superimposes a first layer image in which a first window for displaying a still image is drawn and a second layer image in which a second window for displaying a moving image is drawn,
  • an image processing apparatus that performs chromakey composition to transmit a layer image and display the second window, the overlapping relationship between the first window and the second window in an area where the first window and the second window overlap. If it is determined that the first window is superimposed on the upper side based on the determination of the mask determination unit that determines the second mask and the mask determination unit, the mask processing is performed on the area on which the first window is superimposed on the upper side. When it is determined that the second window is superimposed on the upper side, the mask process is not performed on the area where the second window overlaps on the upper side. Characterized in that it comprises a part.
  • the image processing system superimposes a first layer image on which a first window for displaying a still image is drawn and a second layer image on which a second window for displaying a moving image is drawn,
  • an image processing system that performs chromakey composition to transmit a layer image and display the second window, the overlapping relationship between the first window and the second window in an area where the first window and the second window overlap. If it is determined that the first window is superimposed on the upper side based on the determination of the mask determination unit that determines the second mask and the mask determination unit, the mask processing is performed on the area on which the first window is superimposed on the upper side.
  • Combining unit for combining the first layer image dividing unit for dividing the first layer image, the first layer image divided, and the second layer image corresponding to the first layer image And a plurality of display devices for displaying an image combined by the combining device, wherein the display device forms a single screen.
  • a first layer image in which a first window for displaying a still image is drawn and a second layer image in which a second window for displaying a moving image is drawn are overlapped
  • an image processing method for performing chromakey composition to transmit a layer image and display the second window the overlapping relationship between the first window and the second window in an area where the first window and the second window overlap. If it is determined that the first window is superimposed on the upper side based on the determination in the mask determination step of determining the second mask position and the mask determination step, the mask processing is performed on the area where the first window is superimposed on the upper side. If it is determined that the second window is superimposed on the upper side, the mask processing is performed on a region where the second window overlaps on the upper side. Characterized in that it had and a mask processing step
  • the image processing apparatus includes a mask determination unit that determines the vertical relationship of the overlapping area when the video window and the still image window overlap, and it is determined that the still image window is superimposed on the upper as a result of the determination. When it is judged, the mask processing is performed, and when it is judged that the still image window is superimposed below, the mask processing is not performed. Therefore, appropriate composition is performed regardless of the vertical relation in the overlapping area of the video window and the still image window. You can get an image.
  • FIG. 1 shows a configuration of an image processing apparatus according to a first embodiment.
  • FIG. 5 is a diagram for explaining position information of a window position management unit according to the first embodiment.
  • FIG. 7 is a diagram for explaining superposition information of a window superposition area calculation unit according to the first embodiment. A figure explaining a color key field. The figure explaining a background image.
  • 6 is an operation flowchart of the image processing apparatus according to the first embodiment.
  • 6 is an operation flowchart of a mask determination unit according to the first embodiment.
  • 6 shows an example of a main image created by a main image creation unit according to the first embodiment.
  • 7 shows an example of a composite image created by the image combining unit according to Embodiment 1.
  • FIG. 7 shows an example of a combined image that can be created by the image combining unit according to Embodiment 1.
  • FIG. 8 is a diagram for explaining a superimposed region and a mask region in Embodiment 2; 10 is an operation flowchart of a mask determination unit according to the second embodiment.
  • FIG. 7 is a diagram showing the configuration of an image processing apparatus according to a third embodiment.
  • FIG. 7 is a diagram showing the configuration of an image display system using an image processing apparatus according to a third embodiment.
  • FIG. 1 is a diagram showing the configuration of the image processing apparatus according to the first embodiment.
  • FIG. 2 is a diagram for explaining position information of the window position management unit according to the first embodiment.
  • FIG. 3 is a diagram for explaining superposition information of the window superposition area calculation unit according to the first embodiment.
  • FIG. 4 is a diagram for explaining the color key area.
  • FIG. 5 is a view for explaining the background image.
  • FIG. 6 is an operation flowchart of the image processing apparatus according to the first embodiment.
  • FIG. 7 is an operation flowchart of the mask determination unit according to the first embodiment.
  • FIG. 8 is an example of a main image created by the main image creation unit according to the first embodiment.
  • FIG. 9 is an example of a combined image created by the image combining unit according to the first embodiment.
  • FIG. 10 shows an example of a composite image that can be created by the image combining unit according to the first embodiment.
  • the image processing apparatus 1 includes an information calculation unit 11, a main image creation unit 12, and a combination processing unit 13.
  • the image processing apparatus 1 is configured such that the still image window moved from the window position operation unit 2 or the moved video window is moved when the window position is moved by the window position operation unit 2 (for example, a mouse or the like in a PC).
  • Position information is acquired, and a main image (first layer image) having a still image window (first window) is created.
  • a composite image is created by combining the created main image and a video image (second layer image) having a video window, and the composite image is output to the display device 4.
  • the information calculation unit 11 calculates information for creating a main image.
  • the information calculation unit 11 includes a window position management unit 111, a window overlap area calculation unit 112, a mask determination unit 113, and a color key area calculation unit 114.
  • the window position management unit 111 holds position information of all windows displayed on the composite image. Further, the position information is acquired from the window position operation unit 2 and the position information of the window to be displayed is updated.
  • the window position information used in the description of the image processing apparatus 1 according to the first embodiment will be described below.
  • the window position information is information for specifying the window order, coordinates, and window type.
  • the window order indicates the order in which the windows overlap. For example, in FIG. 2A, the vertical axis indicates the window order when the windows overlap. This window order indicates that the one with the lower number is displayed in the overlapping area at the top, ie, preferentially. For example, when the window A and the window B overlap, the window order of the window A is “1”, and the window order of the window B is “2”. Therefore, when the window A and the window B overlap, the window A is displayed in the overlapping area.
  • the coordinates of the window indicate the coordinates of the window displayed on the display device 4.
  • the coordinates of window B are represented by [(2.5, 2.5) (7.5, 7.5)]. “(2.5, 2.5)” is an XY coordinate of the lower left corner of the window B, and “(7.5, 7.5)” is an XY coordinate of the upper right corner of the window B. From the coordinates of the window, each component in the image processing apparatus 1 can determine at which position on the display device 4 the window is to be displayed.
  • the window type is an identifier indicating whether the window is a still picture window or a video window. For example, S indicates a still image and V indicates a video.
  • window position information is displayed in the order of window order, window type, and coordinates.
  • window B when window B is a video window, the position information of window B is represented by 2V [(2.5, 2.5) (7.5, 7.5)].
  • window position information is described in the method described with reference to FIG.
  • the method of expressing the window position information is not limited to this, and any method may be used as long as the window order, the window type, and the window coordinates can be identified.
  • the coordinates may be represented by the vertical and horizontal lengths of the window and the XY coordinates of one corner.
  • the window superposition area calculation unit 112 acquires window position information from the window position management unit 111, and calculates a window superposition area. Also, the calculated overlapping area of the window is stored as the overlapping information.
  • the overlapping area refers to an area in which two windows overlap.
  • superposition information is what represented the superposition area
  • the mask determination unit 113 determines the vertical relation of the windows in the overlapping area from the position information of the windows and the overlapping information, and determines whether or not the mask process is necessary. Also, the mask area is calculated from the window position information and the superposition information.
  • the mask process refers to a process in which the main image is not transmitted. Specifically, it refers to processing of invalidating a transmission flag of transmission setting described later.
  • region means the area
  • the area in which the mask process is performed is an area where the still image is superimposed at the top in the overlapping area. That is, the mask area means an area in which the still image window is displayed in the overlapping area.
  • the mask determination unit 113 holds the calculated mask area as mask area information.
  • the mask area information represents the mask area in a data format such as coordinates.
  • a color key area calculation unit 114 calculates an area (color key area) in which a color key is to be set in a portion through which the video window on the main image is to be transmitted, from the window position information and superposition information. Specifically, when the video window is superimposed on the still image window, the color key area calculation unit 114 sets the shaded portion in FIG. 4A as a color key area. Further, when the video window is superimposed below the still image window, the color key area calculation unit 114 excludes the superimposed area of the video window and the still image window from the area of the entire video window (hatched portion in FIG. 4B ) Is a color key area. When the color key area is calculated, the color key area calculation unit 114 holds information on the color key area as color key area information.
  • the color key area information represents the color key area in a data format such as coordinates.
  • the main image creation unit 12 creates a main image. Further, the main image creation unit 12 includes a content data storage unit 121, a window drawing unit 122, a mask processing unit 123, and a color key setting unit 124.
  • the content data storage unit 121 holds data of a main image and data of a still image window (first window) drawn on the main image.
  • the data of the main image means information for drawing the main image.
  • information constituting a desktop image corresponds to data of a main image.
  • data of the still picture window refers to data of contents such as a picture drawn in the window of the main image.
  • the window drawing unit 122 acquires the data of the main image and the data of the still image window stored in the content data storage unit 121, and draws the main image. Also, the window drawing unit 122 draws a window of a still image on the main image. Furthermore, the position of the still image window is determined by acquiring position information of the still image window from the window position management unit 111.
  • the mask processing unit 123 acquires mask area information from the mask determination unit 113 and executes mask processing.
  • the mask processing unit 123 determines that the mask process is necessary, and performs the mask process on the mask area. Further, when the mask area information is not output from the mask determination unit 113, the mask processing unit 123 determines that the mask processing is unnecessary, and does not execute the mask processing.
  • the mask processing unit 123 not only determines the necessity of the mask processing based on the presence or absence of the mask area information from the mask determination unit 113, but switches the on / off of the mask processing by the 1 and 0 bits. You may In this case, the mask determination unit 113 needs to output mask area information and a bit indicating whether or not mask processing is necessary.
  • the color key setting unit 124 acquires color key area information from the color key area calculation unit 114, and sets the color key on the main image. In addition, after setting the color key, the color key setting unit 124 performs the transparency setting.
  • the transmission setting means enabling a flag (transmission flag) for transmitting the color key area when the composite image is displayed on the display device 4. The transmission flag is invalidated in the area where the mask processing is performed in the mask processing unit 123.
  • the combining processing unit 13 processes the video data acquired from the video creating unit 3 into a video image, and combines the video image with the main image created by the main image creating unit 12. Also, the composition processing unit 13 is configured of a video reception processing unit 131, a background creation unit 132, and an image combining unit 133.
  • the video reception processing unit 131 receives video window data and creates a video image.
  • the background creating unit 132 creates a background image.
  • the background image is image data present in layers below the main image and the video image.
  • FIG. 5 shows an image of a layer synthesized by the image processing apparatus 1 according to the first embodiment.
  • the composition processing unit 13 arranges the main image, the video image, and the background image in order from the top. At this time, a color key is arranged on the main image at a position where the video is displayed. Also, in the video image, the area other than the video window is arranged to be transparent. At this time, the background image is composed of the same color as the color key.
  • the image combining unit 133 combines the main image, the video image, and the background image.
  • the layers of the images to be combined are combined in the order of the main image, the video image, and the background image from the top as shown in FIG. Further, the image combining unit 133 transmits the combined image data to the display device 4. Furthermore, the display device 4 receives and displays the image data after composition.
  • the operation of the image processing apparatus 1 according to the first embodiment will be described using FIG. 6, FIG. 7, and FIG.
  • the case where the number of windows is two will be described as an example.
  • two windows are a still picture window and a video window.
  • the description starts when the still picture window is moved to the top of the video window.
  • the coordinates of each window are represented by XY coordinates of the lower left corner and the upper right corner of the window.
  • the position information of the still image window before the start of S1 is 1S [(19, 9) (28, 15)]
  • the position information of the video window is 1V [(3, 3) (12, 9) ] Shall be.
  • the position of the still image window is operated by the window position operation unit 2.
  • the still image window is moved to the coordinates [(10, 1) (19, 7)].
  • the window position operation unit 2 outputs the position information 1S [(10, 1) (19, 7)] of the moved still image window to the window position management unit 111. Since the moved still picture window is superimposed above the video window, the window order is 1 which indicates the top.
  • the window position management unit 111 acquires 1S [(10, 1) (19, 7)] which is position information of the still image window, and updates the position information of the still image window. Also, the window position management unit 111 updates the window order of the video window to 2.
  • the reason why the window order of the video window is 2 is that the video window is superimposed below the still image window due to the movement of the still image window.
  • the window superposition area calculation unit 112 In S3, the window superposition area calculation unit 112 generates the still image window position information 1S [(10, 1) (19, 7)] and the video window position information 2V [(3, 3) (12, 9)]. Based on the window overlap information [(10, 3) (12, 7)] is calculated (FIG. 8B). Note that, in FIG. 8B, a shaded portion indicates a superimposed region.
  • the color key area calculation unit 114 calculates the still image window position information 1S [(10, 1) (19, 7)] held by the window position management unit 111 and the video window position information 2V [(3, 3). And (12, 9)], and acquires window superposition information [(10, 3) (12, 7)] from the window superposition area calculation unit 112, and calculates a color key area.
  • the color key area is a part of the entire position where the video window is displayed excluding the overlapping area of the window.
  • the color key area is the position information [(3, 3) (12, 9)] of the video window and the overlapping area [(10, 3) (12, 7)] of the window [(3, 3) It is assumed that (12, 9)]-[(10, 3) (12, 7)].
  • the color key area in the case of this example is an area shown by the hatched portion in FIG. 8C. If the still picture window is superimposed below the video window, the entire position where the video window is displayed becomes the color key area as shown in FIG. 8D.
  • the mask determination unit 113 determines a window superimposed on the still image window and the video window.
  • the mask determination process of S5 will be described in detail below with reference to FIG.
  • step S51 the mask determination unit 113 receives the position information 1S [(10, 1) (19, 7)] of the still image window from the window position management unit 111 and the position information 2V [(3, 3) (12, 9)] and get.
  • the mask determination unit 113 selects one of the two windows. In this example, it is assumed that the mask determination unit 113 selects from among the coordinates of each window, the one with the largest X coordinate in the upper right corner. Therefore, it is assumed that the mask determination unit 113 selects the still image window [(10, 1) (19, 7)] among the two windows.
  • step S52 the mask determination unit 113 determines whether the window selected in step S51 is a video window or a still image window. Since the mask determination unit 113 selects the still image window in S51, the process proceeds to S53. At this time, if the video window is selected in S51, the process proceeds to S55.
  • the mask determination unit 113 determines whether the video window is superimposed below the still image window determined in S52. In this example, the window order of the still picture window is “1”, and the window order of the video window is “2”. Therefore, the mask determination unit 113 determines that the video window is superimposed below the selected still image window. Therefore, it progresses to S54. If the mask determination unit 113 determines that the video window is superimposed on the still image window, the process proceeds to step S55.
  • the mask determination unit 113 obtains window overlap information [(10, 3) (12, 7)] from the window overlap region calculation unit 112, and calculates a mask region.
  • the area where the window of the still image is superimposed at the top in the overlapping area is the same as the overlapping area of the window [(10, 3) (12, 7)] (shaded area in FIG. 8B).
  • the mask determination unit 113 outputs the calculated mask area to the mask processing unit 123 as mask area information [(10, 3) (12, 7)].
  • the window drawing unit 122 acquires the data of the main image and the data of the still image window from the content data storage unit 121. Further, the window drawing unit 122 acquires the still image window position information 1S [(10, 1) (19, 7)] from the window position management unit 111. Furthermore, the window drawing unit 122 draws a still picture window at the coordinates [(10, 1) (19, 7)] indicated by the window position information on the main image (FIG. 8E).
  • the mask processing unit 123 since the mask processing unit 123 determines in S5 that the mask processing is necessary, the mask processing unit 123 masks the main image based on the mask area information [(10, 3) (12, 7)] (FIG. 8F) Within the dotted line of).
  • the color key setting unit 124 sets the color key area [(3, 3) (12, 9)]-[(10, 3) (12, 7)] calculated by the color key area calculation unit 114 in S4. Based on the color key is set to the main image (FIG. 8G). Further, after setting the color key, the color key setting unit 124 applies the transparency setting to the main image (broken line in FIG. 9A). The color key setting unit 124 outputs the created main image to the image combining unit 133. When S8 ends, the main image is completed (FIG. 9A).
  • the video reception processing unit 131 receives the video data from the video creation unit 3.
  • the video reception processing unit 131 receives video data and creates a video image (FIG. 9B). It is assumed that the video reception processing unit 131 has acquired the video window position information from the window position management unit 111 (not shown).
  • the video reception processing unit 131 outputs the created video image to the image combining unit 133.
  • the background creating unit 132 creates a background image (FIG. 9C). Also, the background creating unit 132 outputs the created background image to the image combining unit 133.
  • the image combining unit 133 combines the main image, the video image, and the background image created through the steps of S1 to S10.
  • the image combining unit 133 outputs the combined image to the display device 4.
  • the display device 4 displays the composite image created by the image processing device 1 (FIG. 9D). This is the end of the operation of the image processing apparatus 1 according to the first embodiment.
  • the content displayed in the window drawn on the main image may be a moving image as long as it is drawn by the image processing apparatus 1.
  • the content displayed in the video window is a video, ie, a moving image, but the moving image generating apparatus 3 such as an accelerator or the like and external hardware similar to this Still images may be used.
  • the window position operation unit 2 and the display device 4 are described as being outside the image processing apparatus 1, but the present invention is not limited to this. It may be provided.
  • the mask determination unit 113 acquires the window position information from the window overlapping area calculation unit 112.
  • the present invention is not limited thereto.
  • the position information of may be acquired.
  • the color key area calculation unit 114 acquires the window position information from the window position management unit 111 and the superposition information from the window superposition area calculation unit 112 to calculate the color key area.
  • the position information may be acquired from the window position information management unit 111, and the superposition information may be calculated.
  • the mask determination unit 113 is to select from among the coordinates of each window that the X coordinate of the upper right corner is largest.
  • the present invention is not limited to this, as long as all windows are selected at the start of S7 in the step of determining the necessity of the mask processing of S5.
  • the mask determination unit 113 may select from among those with the smallest X coordinate in the lower left corner.
  • the image processing apparatus 1 is configured to determine that the mask processing is necessary when the still image window is superimposed on the upper portion in the region where the video window and the still image window overlap. Even when the video window and the still image window overlap, a desired image can be obtained.
  • the mask determination unit 113 selects the still image window one by one in S51 illustrated in FIG. 7 and determines the superimposition relationship between the video window and the still image window, 1 Even in the case where a plurality of still images are superimposed on one video window, it is possible to determine whether or not mask processing is necessary for each still image. For example, when multiple still images are superimposed on the video window (FIG. 10A), one still image window is superimposed on the video window, and the other still image window is below the video window. Even in the case of overlapping (FIG. 10B), the image processing apparatus 1 according to Embodiment 1 can create a desired composite image. Even when there are two sets of superimposed still image windows and video windows, it is possible to determine the mask processing according to the operation flowchart of the mask determination unit shown in FIG. 7 (FIG. 10C).
  • FIG. 11 is a diagram for explaining the overlapping area and the mask area in the second embodiment.
  • FIG. 12 is an operation flowchart of the mask determination unit according to the second embodiment.
  • parts corresponding to the configuration of the image processing apparatus 1 according to the first embodiment are assigned the same reference numerals as in FIG.
  • the image processing apparatus is characterized in that the necessity of the mask processing is determined when another window is further superimposed on the overlapping region of the windows. For example, in the composite image shown in FIG. 11A, the still image window is superimposed on the video window A, and the video window B is further superimposed on the superimposed region.
  • the image processing apparatus 1 according to the second embodiment executes the image processing in such a case.
  • the configuration of the image processing apparatus 1 according to the second embodiment is the same as the configuration of the image processing apparatus 1 according to the first embodiment, so the description will be omitted.
  • the operations of the image processing apparatus 1 according to the second embodiment are S1 to S4 (from the operation of the window to the step of calculating the color key area) shown in FIG. 6 and FIG. From the drawing step to the step where the main image, video image and background image are combined, and S51 to S53 of S5 (after the window is selected by the mask determination unit 113, the video window is superimposed below the selected window Until the step of determining whether it is done.
  • S531 and S532 in FIG. 12 will be described in detail.
  • the image processing apparatus 1 according to the second embodiment will be described taking creation of a composite image shown in FIG. 11A as an example.
  • step S531 the mask determination unit 113 determines whether another video window, that is, a video window other than the video window A is superimposed on the selected still image window.
  • the video window B of FIG. 11A is superimposed on the still picture window. Therefore, it progresses to S532. If the video window B is not superimposed on the still picture window at this time, the overlapping method is the same as that in FIG. 8C of the first embodiment, so the process proceeds to S54.
  • the subsequent processes are the same as the operations described in the first embodiment.
  • the mask determination unit 113 sets, as a mask area, an area in which the still image is superimposed on the top among the areas in which another video window is superimposed on the still image window.
  • the calculation of the mask area can be easily calculated by the position information of the window acquired in S51 and the superposition information of the window acquired in S53.
  • the area shown in FIG. 11B is a mask area.
  • the image processing apparatus 1 even in the case where the still image window is superimposed on the video window and another video window is superimposed on the upper side in the superimposed region, The superimposition relationship between the video window and the still image window is determined, and determination of necessity of mask processing and calculation of a mask area are executed. Therefore, a desired composite image can be obtained even when the still picture window is superimposed on the video window, and another video window is superimposed on the upper side in the superimposed area.
  • An image processing apparatus 1a according to the third embodiment is characterized in that a main image displayed by a plurality of display devices 4a to 4h constituting a large screen is divided, and the divided main image is transmitted to a plurality of combining devices. Do.
  • FIG. 13 is a diagram showing the configuration of the image processing apparatus according to the third embodiment.
  • FIG. 14 is a diagram showing the configuration of an image display system using the image processing apparatus according to the third embodiment.
  • the parts corresponding to the configurations of the image processing apparatus 1 in the first embodiment and the second embodiment have the same reference numerals as in FIG. I omit it.
  • the image processing apparatus 1a according to the third embodiment does not include the combining processing unit 13 of the image processing apparatus 1a according to the first embodiment.
  • the image processing apparatus 1 a according to the third embodiment includes the main image division unit 125 and the main image transmission unit 126 in the main image generation unit 12.
  • the main image division unit 125 divides the main image into a plurality of images.
  • the divided main image (divided main image) is output to the main image transmission unit 126.
  • the main image transmission unit 126 transmits the divided main image from the main image division unit 125 to the plurality of synthesizing devices 13a to 13h.
  • the image display system using the image processing apparatus 1a according to the third embodiment includes an image processing apparatus 1a, combining devices 13a to 13h, a switch 7, and a video transmission device 5.
  • the switch 7 distributes the divided main images transmitted from the image processing device 1a to the corresponding combining devices 13a to 13h.
  • the video transmission device 5 is a device for transmitting video images to a plurality of synthesizing devices 13a to 13h.
  • the synthesizers 13a to 13h receive the divided main image output from the main image transmission unit 126 and the video image output from the video generation unit 3. Further, the synthesizing devices 13a to 13h extract a portion corresponding to the divided main image from the video image to create a divided synthesized image (divided synthesized image).
  • the divided composite image is obtained by dividing one composite image into a plurality of images. Each divided composite image is displayed on a plurality of display devices 4a to 4h described later to form one composite image.
  • the display devices 4a to 4h respectively display the divided composite images transmitted from the combining devices 13a to 13h. That is, the display devices 4a to 4h can display the same image as the composite image displayed on the display device 4 according to the first embodiment on one large screen using the plurality of display devices 4a to 4h.
  • the image processing apparatus 1a according to the third embodiment is configured to have the combining devices 13a to 13h and the switch 7 outside, it may be configured internally.
  • synthesizing devices 13a to 13h extract and synthesize the video image outputted from the video transmission device 5, they may be configured to receive the synthesized image divided in advance. Further, although the combining devices 13a to 13h are configured to receive the divided main image, they may be configured to be divided after receiving the main image.
  • the image processing apparatus 1a since the image processing apparatus 1a according to the third embodiment is configured to divide the main image and transmit it to the plurality of display devices 4a to 4h, the image processing device 1a is configured by the plurality of display devices 4a to 4h. It can be applied to screen systems.
  • Reference Signs List 1 image processing apparatus, 2 window position operation unit, 3 video creation unit, 4 display device, 11 information calculation unit, 12 main image creation unit, 13 synthesis processing unit, 111 window position management unit, 112 window overlap area calculation unit, 113 Mask judgment unit 114 Color key area calculation unit 121 Content data storage unit 122 Window drawing unit 123 Mask processing unit 124 Color key setting unit 131 Video reception processing unit 132 Background creation unit 133 Image composition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

 本発明の画像処理装置、画像処理システム及び画像処理方法は、ビデオウィンドウと静止画ウィンドウとが重畳する場合に、重畳領域の上下関係を判定するマスク判定部を備え、判定の結果、静止画ウィンドウが上に重畳していると判定した場合はマスク処理をし、静止画ウィンドウが下に重畳していると判断した場合はマスク処理をしない構成としたので、ビデオウィンドウと静止画ウィンドウの重畳領域における上下関係にかかわらず適切な合成画像を得ることができる。

Description

画像処理装置、画像処理システム及び画像処理方法
 本発明は、クロマキー合成によって画像を生成する画像処理装置、画像処理システム及び画像処理方法に関するものである。
 従来から、PC(Personal Computer)等の画像処理装置は、アクセラレータ等の画像作成装置(ハードウェア)で作成されるビデオやGUI(Graphical user interface)で作成される静止画等のコンテンツをそれぞれウィンドウ内に表示して同時に閲覧することが可能である(なお、以下の説明において、静止画を表示するウィンドウを「静止画ウィンドウ」、ビデオを表示するウィンドウを「ビデオウィンドウ」とする。)。このようなコンテンツを同時に表示する技術としてクロマキー合成が知られている。クロマキー合成とは、GUI等によって描画されるメイン画像上のビデオウィンドウを表示する領域に特定の色(カラーキー)を設定して透過させ、ビデオウィンドウをメイン画像上に表示する方式である。しかし、クロマキー合成において、ビデオウィンドウの上に静止画ウィンドウが重畳する場合で、さらにこの重畳する領域上の静止画ウィンドウにカラーキーを使用しているような場合、静止画ウィンドウのカラーキーを使用している部分までも透過してしまう。この問題を解決するため、ビデオを表示するウィンドウと静止画を表示するウィンドウとが重畳する領域(重畳領域)をマスク処理(カラーキーを透過させないようにする処理)することによって、正しい合成画像を得る技術がある。(例えば、特許文献1)
特許第4541482号公報
 しかしながら、特許文献1の画像処理装置は静止画ウィンドウがビデオウィンドウの上に重畳していることが前提となっており、静止画ウィンドウがビデオウィンドウの下に重畳している場合にまでマスク処理を実施すると、静止画ウィンドウとビデオウィンドウが重畳する領域においてビデオウィンドウを表示したいにもかかわらず、マスク処理によって重畳領域は透過されないため、所望の合成画像が得られないという問題があった。
 そこで、本発明は静止画ウィンドウとビデオウィンドウが重畳する場合において、静止画ウィンドウとビデオウィンドウのどちらが上に重畳しているかにかかわらず、所望の合成画像を得ることを目的とする。
 本発明の画像処理装置は、静止画を表示する第一ウィンドウが描画された第一レイヤ画像と、動画像を表示する第二ウィンドウが描画された第二レイヤ画像とを重ね、前記第一のレイヤ画像を透過させて前記第二ウィンドウを表示させるクロマキー合成を実行する画像処理装置において、前記第一ウィンドウと前記第二ウィンドウとが重畳する領域において前記第一ウィンドウと前記第二ウィンドウの重畳関係を判定するマスク判定部と、前記マスク判定部の判定に基づいて、前記第一ウィンドウが上に重畳すると判定された場合には、前記第一ウィンドウが上に重畳する領域にマスク処理を実施し、前記第二ウィンドウが上に重畳すると判定された場合には前記第二ウィンドウが上に重畳する領域に前記マスク処理を実施しないマスク処理部とを備えることを特徴とする。
 本発明の画像処理システムは、静止画を表示する第一ウィンドウが描画された第一レイヤ画像と、動画像を表示する第二ウィンドウが描画された第二レイヤ画像とを重ね、前記第一のレイヤ画像を透過させて前記第二ウィンドウを表示させるクロマキー合成を実行する画像処理システムにおいて、前記第一ウィンドウと前記第二ウィンドウとが重畳する領域において前記第一ウィンドウと前記第二ウィンドウの重畳関係を判定するマスク判定部と、前記マスク判定部の判定に基づいて、前記第一ウィンドウが上に重畳すると判定された場合には、前記第一ウィンドウが上に重畳する領域にマスク処理を実施し、前記第二ウィンドウが上に重畳すると判定された場合には前記第二ウィンドウが上に重畳する領域に前記マスク処理を実施しないマスク処理部と、前記第一レイヤ画像を分割する第一レイヤ画像分割部と、分割された前記第一レイヤ画像と、前記第一レイヤ画像と対応する前記第二レイヤ画像とを合成する合成装置と、前記合成装置で合成された画像を表示する複数の表示装置と、を備え、前記表示装置は複数で一つの画面を形成することを特徴とする。
 本発明の画像処理方法は、静止画を表示する第一ウィンドウが描画された第一レイヤ画像と、動画像を表示する第二ウィンドウが描画された第二レイヤ画像とを重ね、前記第一のレイヤ画像を透過させて前記第二ウィンドウを表示させるクロマキー合成を実行する画像処理方法において、前記第一ウィンドウと前記第二ウィンドウとが重畳する領域において前記第一ウィンドウと前記第二ウィンドウの重畳関係を判定するマスク判定ステップと、前記マスク判定ステップの判定に基づいて、前記第一ウィンドウが上に重畳すると判定された場合には、前記第一ウィンドウが上に重畳する領域にマスク処理を実施し、前記第二ウィンドウが上に重畳すると判定された場合には前記第二ウィンドウが上に重畳する領域に前記マスク処理を実施しないマスク処理ステップとを有することを特徴とする
 本発明の画像処理装置は、ビデオウィンドウと静止画ウィンドウとが重畳する場合に、重畳領域の上下関係を判定するマスク判定部を備え、判定の結果、静止画ウィンドウが上に重畳していると判断した場合はマスク処理し、静止画ウィンドウが下に重畳していると判断した場合はマスク処理をしない構成としたので、ビデオウィンドウと静止画ウィンドウの重畳領域における上下関係にかかわらず適切な合成画像を得ることができる。
実施の形態1に係る画像処理装置の構成を示す図。 実施の形態1に係るウィンドウ位置管理部の位置情報を説明する図。 実施の形態1に係るウィンドウ重畳領域算出部の重畳情報を説明する図。 カラーキー領域を説明する図。 背景画像を説明する図。 実施の形態1に係る画像処理装置の動作フローチャート。 実施の形態1に係るマスク判定部の動作フローチャート。 実施の形態1に係るメイン画像作成部で作成されるメイン画像の例。 実施の形態1に係る画像合成部で作成される合成画像の例。 実施の形態1に係る画像合成部で作成可能な合成画像の例。 実施の形態2における重畳領域及びマスク領域を説明する図。 実施の形態2に係るマスク判定部の動作フローチャート。 実施の形態3に係る画像処理装置の構成を示す図。 実施の形態3に係る画像処理装置を用いた画像表示システムの構成を示す図。
実施の形態1.
 以下、図1から図10を用いて実施の形態1に係る画像処理装置について説明する。図1は実施の形態1に係る画像処理装置の構成を示す図である。図2は実施の形態1に係るウィンドウ位置管理部の位置情報を説明する図である。図3は実施の形態1に係るウィンドウ重畳領域算出部の重畳情報を説明する図である。図4はカラーキー領域を説明する図である。図5は背景画像を説明する図である。図6は実施の形態1に係る画像処理装置の動作フローチャートである。図7は実施の形態1に係るマスク判定部の動作フローチャートである。図8は実施の形態1に係るメイン画像作成部で作成されるメイン画像の例である。図9は実施の形態1に係る画像合成部で作成される合成画像の例である。図10は実施の形態1に係る画像合成部で作成可能な合成画像の例である。
 以下、図1を用いて実施の形態1に係る画像処理装置1の構成を説明する。
 実施の形態1に係る画像処理装置1は、情報算出部11とメイン画像作成部12と合成処理部13とから構成される。画像処理装置1は、ウィンドウ位置操作部2(例えば、PCにおいてはマウス等)によってウィンドウの位置が移動された場合に、ウィンドウ位置操作部2から移動された静止画ウィンドウ又は移動されたビデオウィンドウの位置情報を取得し、静止画ウィンドウ(第一ウィンドウ)を有するメイン画像(第一レイヤ画像)を作成する。さらに、作成したメイン画像とビデオウィンドウを有するビデオ画像(第二レイヤ画像)とを合成して合成画像を作成し、表示装置4に出力する。
 次に情報算出部11の構成について説明する。情報算出部11はメイン画像を作成するための情報を算出する。情報算出部11はウィンドウ位置管理部111、ウィンドウ重畳領域算出部112、マスク判定部113、カラーキー領域算出部114から構成される。
 ウィンドウ位置管理部111は、合成画像上に表示する全てのウィンドウの位置情報を保持している。また、ウィンドウ位置操作部2から位置情報を取得し、表示するウィンドウの位置情報を更新する。以下、実施の形態1に係る画像処理装置1の説明で使用するウィンドウの位置情報について説明する。
 ウィンドウの位置情報とは、ウィンドウ順序と座標とウィンドウの種別を特定するための情報である。また、ウィンドウ順序とは、ウィンドウの重畳する順序を示す。例えば、図2Aにおいて、縦軸はウィンドウが重畳した場合のウィンドウ順序を示す。このウィンドウ順序は番号が若い方が重畳領域において上、すなわち、優先的に表示させることを示す。例えば、ウィンドウAとウィンドウBが重畳する場合、ウィンドウAのウィンドウ順序は「1」であり、ウィンドウBのウィンドウ順序は「2」である。したがって、ウィンドウAとウィンドウBが重畳した場合、その重畳領域ではウィンドウAが表示される。
 また、ウィンドウの座標とは、表示装置4上に表示するウィンドウの座標を示す。例えば、図2Bにおいて、ウィンドウBの座標は[(2.5、2.5)(7.5、7.5)]で表される。「(2.5、2.5)」はウィンドウBの左下角のXY座標、「(7.5、7.5)」はウィンドウBの右上角のXY座標である。ウィンドウの座標により、画像処理装置1内の各構成はウィンドウを表示装置4のどの位置に表示させるかを判断することができる。
 さらに、ウィンドウの種別とは、ウィンドウが静止画ウィンドウであるかビデオウィンドウであるかを示す識別子である。例えば、静止画である場合にはS、ビデオである場合にはVで示す。
 また、ウィンドウの位置情報は、ウィンドウ順序、ウィンドウの種別、座標の順で表示される。例えば、図2Bにおいて、ウィンドウBがビデオウィンドウである場合、ウィンドウBの位置情報は2V[(2.5、2.5)(7.5、7.5)]で表される。
 なお、以下の説明において、ウィンドウの位置情報は図2で説明した方法で表記する。ただし、実施の形態1に係る画像処理装置1について、ウィンドウの位置情報の表現方法はこれに限られるものではなく、ウィンドウ順序、ウィンドウの種別、ウィンドウの座標が識別できるものであれば何でも良い。例えば、座標はウィンドウの縦横長と角1点のXY座標で表してもよい。
 ウィンドウ重畳領域算出部112は、ウィンドウ位置管理部111からウィンドウの位置情報を取得し、ウィンドウの重畳領域を算出する。また、算出したウィンドウの重畳領域を重畳情報として記憶する。ここで、重畳領域とは、2つのウィンドウが重なり合う領域をいう。また、重畳情報とは、重畳領域を座標等のデータ形式で表したものである。例えば、図3において、ウィンドウAの座標は[(5、5)(10、10)]、ウィンドウBの座標は[(2.5、2.5)(7.5、7.5)]である。したがって、重畳領域は図3の点線内となり、重畳情報は[(5、5)(7.5、7.5)]となる。
 マスク判定部113は、ウィンドウの位置情報及び重畳情報から重畳領域におけるウィンドウの上下関係を判断し、マスク処理の要否を判定する。また、ウィンドウの位置情報及び重畳情報からマスク領域を算出する。ここで、マスク処理とは、メイン画像を透過させない処理のことをいう。具体的には、後述する透過設定の透過させるフラグを無効にする処理のことをいう。また、マスク領域とは、マスク処理を行う領域のことをいう。マスク処理を行う領域は、重畳領域において静止画が一番上に重畳している領域である。すなわち、マスク領域は、重畳領域において静止画ウィンドウを表示させる領域を意味する。マスク判定部113は、算出したマスク領域をマスク領域情報として保持する。マスク領域情報は、マスク領域を座標等のデータ形式で表したものである。
 カラーキー領域算出部114はウィンドウの位置情報及び重畳情報からメイン画像上のビデオウィンドウを透過させる部分にカラーキーを設定する領域(カラーキー領域)を算出する。具体的には、カラーキー領域算出部114は、ビデオウィンドウが静止画ウィンドウの上に重畳している場合は図4Aの斜線部分をカラーキー領域とする。また、ビデオウィンドウが静止画ウィンドウの下に重畳している場合、カラーキー領域算出部114は、ビデオウィンドウ全体の領域からビデオウィンドウと静止画ウィンドウの重畳領域を除いた領域(図4Bの斜線部)をカラーキー領域とする。カラーキー領域算出部114は、カラーキー領域を算出した場合、カラーキー領域の情報をカラーキー領域情報として保持する。カラーキー領域情報は、カラーキー領域を座標等のデータ形式で表したものである。
 次にメイン画像作成部12の構成について説明する。メイン画像作成部12はメイン画像を作成する。また、メイン画像作成部12は、コンテンツデータ格納部121、ウィンドウ描画部122、マスク処理部123、カラーキー設定部124から構成される。
 コンテンツデータ格納部121はメイン画像のデータや、メイン画像に描画する静止画ウィンドウ(第一ウィンドウ)のデータを保持している。メイン画像のデータとは、メイン画像を描画するための情報をいう。例えば、PCにおいて、デスクトップ画像を構成する情報がメイン画像のデータにあたる。また、静止画ウィンドウのデータはメイン画像のウィンドウに描画する写真等のコンテンツのデータをいう。
 ウィンドウ描画部122は、コンテンツデータ格納部121に保持されているメイン画像のデータと静止画ウィンドウのデータとを取得し、メイン画像を描画する。また、ウィンドウ描画部122はメイン画像上に静止画のウィンドウを描画する。さらに、静止画ウィンドウの位置は、ウィンドウ位置管理部111から静止画ウィンドウの位置情報を取得することによって決定される。
 マスク処理部123は、マスク判定部113からマスク領域情報を取得してマスク処理を実行する。なお、マスク処理部123はマスク判定部113からマスク領域情報が出力された場合にマスク処理が必要と判断し、マスク領域にマスク処理を実行する。また、マスク処理部123は、マスク判定部113からマスク領域情報が出力されなかった場合にはマスク処理が不要であると判断し、マスク処理を実行しない。ただし、マスク処理部123は、マスク処理の要否をマスク判定部113からのマスク領域情報の有無で判断するだけでなく、1、0のビットによって、マスク処理のオン/オフを切り替えるように構成してもよい。この場合、マスク判定部113は、マスク領域情報とマスク処理の要否を示すビットを出力する必要がある。
 カラーキー設定部124は、カラーキー領域算出部114からカラーキー領域情報を取得し、メイン画像にカラーキーを設定する。また、カラーキー設定部124はカラーキーを設定した後、透過設定を実行する。透過設定とは、合成画像を表示装置4で表示する際にカラーキー領域を透過させるフラグ(透過フラグ)を有効にすることをいう。なお、マスク処理部123においてマスク処理が施されている領域は、透過フラグが無効となる。
 次に合成処理部13の構成について説明する。合成処理部13は、ビデオ作成部3から取得したビデオデータを処理してビデオ画像とし、このビデオ画像とメイン画像作成部12で作成されたメイン画像とを合成する。また、合成処理部13は、ビデオ受信処理部131、背景作成部132、画像合成部133で構成される。
 ビデオ受信処理部131は、ビデオウィンドウのデータを受信し、ビデオ画像を作成する。
 背景作成部132は、背景画像を作成する。ここで背景画像とは、メイン画像とビデオ画像の下のレイヤに存在する画像データである。図5は実施の形態1に係る画像処理装置1によって合成されるレイヤの画像を示している。合成処理部13は上から、メイン画像、ビデオ画像、背景画像の順に配置する。このとき、メイン画像上にはビデオを表示させる位置にカラーキーを配置している。また、ビデオ画像はビデオウィンドウが配置された以外の領域が透明に構成されている。このとき、背景画像はカラーキーと同じ色で構成される。このように構成することで、メイン画像上でカラーキー領域以外の部分にカラーキーと同じ色の模様等があった場合においても、カラーキーと同じ色の模様は、透過されるが、背景を映すので正しく表示される。
 画像合成部133は、メイン画像、ビデオ画像、背景画像を合成する。なお、合成する画像のレイヤは図5に示すように、上からメイン画像、ビデオ画像、背景画像の順で合成する。また、画像合成部133は、合成後の画像データを表示装置4へ送信する。さらに、表示装置4は合成後の画像データを受信して表示する。
 次に、図6、図7、図8を用いて実施の形態1に係る画像処理装置1の動作を説明する。なお、実施の形態1に係る画像処理装置1の動作の説明において、ウィンドウの数が2つの場合を例として説明する。また、2つのウィンドウは静止画ウィンドウとビデオウィンドウである場合を例とする。さらに、静止画ウィンドウがビデオウィンドウの上に移動された時点から説明を開始する。なお、実施の形態1に係る画像処理装置1の動作の説明において、各ウィンドウの座標はウィンドウの左下角及び右上角をそれぞれXY座標で表されるものとする。また、以下の説明において、S1開始前の静止画ウィンドウの位置情報は1S[(19、9)(28、15)]、ビデオウィンドウの位置情報は1V[(3、3)(12、9)]であるものとする。
 S1において、ウィンドウ位置操作部2により、静止画ウィンドウの位置が操作される。この例の場合、図8Aに示すように、静止画ウィンドウが座標[(10、1)(19、7)]へ移動される。このとき、ウィンドウ位置操作部2は移動した静止画ウィンドウの位置情報1S[(10、1)(19、7)]をウィンドウ位置管理部111へ出力する。なお、移動した静止画ウィンドウはビデオウィンドウよりも上に重畳するので、ウィンドウ順序は一番上を示す1となる。
 S2において、ウィンドウ位置管理部111は、静止画ウィンドウの位置情報である1S[(10、1)(19、7)]を取得し、静止画ウィンドウの位置情報を更新する。また、ウィンドウ位置管理部111はビデオウィンドウのウィンドウ順位を2に更新する。ここで、ビデオウィンドウのウィンドウ順位を2としたのは、静止画ウィンドウが移動したことによってビデオウィンドウが静止画ウィンドウの下に重畳するからである。
 S3において、ウィンドウ重畳領域算出部112は静止画ウィンドウの位置情報1S[(10、1)(19、7)]と、ビデオウィンドウの位置情報2V[(3、3)(12、9)]に基づいて、ウィンドウの重畳情報[(10、3)(12、7)]を算出する(図8B)。なお、図8Bにおいて、網掛け部は重畳領域を示す。
 S4において、カラーキー領域算出部114はウィンドウ位置管理部111が保持する静止画ウィンドウの位置情報1S[(10、1)(19、7)]と、ビデオウィンドウの位置情報2V[(3、3)(12、9)]とを取得し、ウィンドウ重畳領域算出部112からウィンドウの重畳情報[(10、3)(12、7)]を取得し、カラーキー領域を算出する。この場合、静止画ウィンドウのウィンドウ順序は「1」であるため、カラーキー領域はビデオウィンドウを表示する位置全体からウィンドウの重畳領域を除いた部分となる。ここで、カラーキー領域はビデオウィンドウの位置情報[(3、3)(12、9)]とウィンドウの重畳領域[(10、3)(12、7)]を用いて[(3、3)(12、9)]―[(10、3)(12、7)]で表すものとする。なお、この例の場合のカラーキー領域は図8Cの斜線部で示される領域である。なお、仮に静止画ウィンドウがビデオウィンドウの下に重畳していた場合、図8Dに示すように、ビデオウィンドウを表示する位置全体がカラーキー領域となる。
 S5において、マスク判定部113は静止画ウィンドウとビデオウィンドウのうち上に重畳しているウィンドウを判定する。以下に、S5のマスク判定処理について図7を用いて詳細に説明する。
 S51において、マスク判定部113はウィンドウ位置管理部111から静止画ウィンドウの位置情報1S[(10、1)(19、7)]と、ビデオウィンドウの位置情報2V[(3、3)(12、9)]とを取得する。次にマスク判定部113は2つのウィンドウのうち、ウィンドウを1つ選択する。この例では、マスク判定部113は、各ウィンドウの座標のうち、右上角のX座標が一番大きいものから選択していくものとする。したがって、マスク判定部113は2つのウィンドウのうち、静止画ウィンドウ[(10、1)(19、7)]を選択したものとする。
 S52において、マスク判定部113はS51で選択したウィンドウがビデオウィンドウか又は静止画ウィンドウかを判定する。S51においてマスク判定部113は静止画ウィンドウを選択したので、S53へ進む。このとき、仮にS51においてビデオウィンドウを選択していた場合、S55へ進む。
 S53において、マスク判定部113は、S52で判定された静止画ウィンドウの下にビデオウィンドウが重畳しているか否かを判定する。この例の場合、静止画ウィンドウのウィンドウ順位は「1」、ビデオウィンドウのウィンドウ順位は「2」である。したがって、マスク判定部113は選択した静止画ウィンドウの下にビデオウィンドウが重畳していると判定する。よって、S54へ進む。なお、仮にマスク判定部113は静止画ウィンドウの上にビデオウィンドウが重畳していると判断した場合はS55へ進む。
 S54において、マスク判定部113はウィンドウ重畳領域算出部112からウィンドウの重畳情報[(10、3)(12、7)]を取得し、マスク領域を算出する。この例において、重畳領域において静止画のウィンドウが一番上に重畳する領域はウィンドウの重畳領域と同じく[(10、3)(12、7)]となる(図8Bの網掛部)。また、マスク判定部113は算出したマスク領域をマスク領域情報[(10、3)(12、7)]としてマスク処理部123へ出力する。
 S55において、マスク判定部113がS51で全てのウィンドウを選択している場合にはS6へ進む。一方、選択していないウィンドウがある場合にはS51へ戻り、S51からS55のステップを繰り返す。この例の場合、S51でビデオウィンドウがまだ選択されていないので、S51へ戻る。以後、マスク判定部113は全てのウィンドウを選択するまで、S51からS55を繰り返し実行する。
 S6において、ウィンドウ描画部122はコンテンツデータ格納部121からメイン画像のデータ及び静止画ウィンドウのデータを取得する。また、ウィンドウ描画部122はウィンドウ位置管理部111から静止画ウィンドウの位置情報1S[(10、1)(19、7)]を取得する。さらに、ウィンドウ描画部122はメイン画像上のウィンドウ位置情報で示される座標[(10、1)(19、7)]に静止画ウィンドウを描画する(図8E)。
 S7において、マスク処理部123は、S5でマスク処理が必要と判定されたので、マスク領域情報[(10、3)(12、7)]に基づいて、メイン画像にマスク処理をする(図8Fの点線内)。
 S8において、カラーキー設定部124はS4のカラーキー領域算出部114で算出されたカラーキー領域[(3、3)(12、9)]―[(10、3)(12、7)]に基づいて、メイン画像にカラーキーを設定する(図8G)。また、カラーキー設定部124はカラーキーを設定した後、透過設定をメイン画像に施す(図9Aの破線部)。カラーキー設定部124は、作成されたメイン画像を画像合成部133へ出力する。S8が終了すると、メイン画像は完成する(図9A)。
 S9において、ビデオ受信処理部131はビデオ作成部3からビデオデータを受信する。ビデオ受信処理部131は、ビデオデータを受信してビデオ画像を作成する(図9B)。なお、ビデオ受信処理部131はウィンドウ位置管理部111からビデオウィンドウの位置情報を取得しているものとする(図示せず)。ビデオ受信処理部131は作成したビデオ画像を画像合成部133へ出力する。
 S10において、背景作成部132は背景画像を作成する(図9C)。また、背景作成部132は作成した背景画像を画像合成部133へ出力する。
 S11において、画像合成部133は、S1~S10のステップを経て作成されたメイン画像とビデオ画像と背景画像とを合成する。画像合成部133は合成画像を表示装置4へ出力する。S11の動作が終了すると、表示装置4は画像処理装置1で作成された合成画像を表示する(図9D)。以上で実施の形態1の画像処理装置1の動作は終了する。
 なお、実施の形態1に係る画像処理装置1において、メイン画像上に描画されるウィンドウに表示されるコンテンツは、画像処理装置1で描かれるものであれば動画でも良い。
 また、実施の形態1に係る画像処理装置1の説明において、ビデオウィンドウに表示されるコンテンツはビデオすなわち動画としたが、アクセラレータ等の動画作成装置3及びこれに類する外部ハードウェアで作成されるものであれば静止画でも良い。
 さらに、実施の形態1に係る画像処理装置1において、ウィンドウ位置操作部2、表示装置4は画像処理装置1の外部にある構成として説明したが、これに限らず、画像処理装置1の内部に設けられてもよい。
 また、実施の形態1に係る画像処理装置1において、マスク判定部113はウィンドウ重畳領域算出部112からウィンドウの位置情報を取得する構成としたが、これに限らず、ウィンドウ位置管理手段111からウィンドウの位置情報を取得してもよい。
 さらに、実施の形態1に係る画像処理装置1において、カラーキー領域算出部114はウィンドウ位置管理部111からウィンドウの位置情報、ウィンドウ重畳領域算出部112から重畳情報を取得してカラーキー領域を算出する構成としたが、これに限らず、ウィンドウ位置情報管理部111から位置情報を取得し、重畳情報を算出しても良い。
 なお、実施の形態1に係るマスク判定部113は、S51のウィンドウを選択するステップにおいて、各ウィンドウの座標のうち、右上角のX座標が一番大きいものから選択していくものとしたが、本発明はこれに限られず、S5のマスク処理の要否を判定するステップにおいてS7開始時に全てのウィンドウが選択されていればよい。例えば、マスク判定部113は、S51において、左下角のX座標が一番小さいものから選択してもよい。
 実施の形態1に係る画像処理装置1は、ビデオウィンドウと静止画ウィンドウの重畳する領域において、静止画ウィンドウが上に重畳している場合にマスク処理が必要であると判定するように構成したので、ビデオウィンドウと静止画ウィンドウとが重畳する場合においても、所望の画像を得ることができる。
 また、実施の形態1に係るマスク判定部113は、図7に示したS51で1つずつ静止画ウィンドウを選択してビデオウィンドウと静止画ウィンドウとの重畳関係を判定する構成としたので、1つのビデオウィンドウに複数の静止画が重畳しているような場合においてもそれぞれの静止画についてマスク処理の要否判定を行うことができる。例えば、ビデオウィンドウの上に複数の静止画が重畳している場合(図10A)や、1つの静止画ウィンドウがビデオウィンドウの上に重畳しており、もう一つの静止画ウィンドウがビデオウィンドウの下に重畳している場合(図10B)においても、実施の形態1に係る画像処理装置1は、所望の合成画像を作成することが可能である。なお、静止画ウィンドウとビデオウィンドウが重畳するものが2組あるような場合も、図7に示したマスク判定部の動作フローチャートに従ってマスク処理の判定を行うことが可能である(図10C)。
実施の形態2.
 以下、図11、図12を用いて実施の形態2に係る画像処理装置1について説明する。図11は実施の形態2における重畳領域及びマスク領域を説明する図である。図12は実施の形態2に係るマスク判定部の動作フローチャートである。なお、実施の形態2に係る画像処理装置1の構成について、実施の形態1の画像処理装置1の構成に相当する部分には図1と同一符号を付してその説明を省略する。
 実施の形態2に係る画像処理装置は、ウィンドウの重畳領域に他のウィンドウがさらに重畳する場合にマスク処理の要否を判定することを特徴とする。例えば、図11Aに示す合成画像は、ビデオウィンドウAの上に静止画ウィンドウが重畳しており、その重畳領域にさらにビデオウィンドウBが重畳している。このような場合の画像処理を実施の形態2に係る画像処理装置1は実行する。
 実施の形態2に係る画像処理装置1の構成は実施の形態1に係る画像処理装置1と同じ構成であるため、説明を省略する。
 次に実施の形態2に係る画像処理装置1の動作について説明する。実施の形態2に係る画像処理装置1の動作は、図6及び図7に示したS1~S4(ウィンドウが操作されてからカラーキー領域を算出するステップまで)、S6~11(静止画ウィンドウを描画するステップからメイン画像、ビデオ画像、背景画像が合成されるステップまで)、及びS5のS51~S53(マスク判定部113によってウィンドウが選択されてから、選択されたウィンドウの下にビデオウィンドウが重畳されているか判断するステップまで)と同じである。以下、図12におけるS531、S532について詳細に説明する。なお、以下の説明において、実施の形態2に係る画像処理装置1は、図11Aに示す合成画像の作成を例として説明する。
 まず、S531の説明の前提として、S52及びS53において、「Yes」が選択されているものとする。すなわち、S51において図11Aの静止画ウィンドウが選択され、S52において、S51で選択されたウィンドウが静止画ウィンドウであると判定され、さらに、S53において静止画ウィンドウの下にビデオウィンドウAが重畳していると判断されたことを前提とする。
 S531において、マスク判定部113は選択した静止画ウィンドウの上に他のビデオウィンドウ、すなわち、ビデオウィンドウA以外のビデオウィンドウが重畳しているか否かを判定する。この例では図11AのビデオウィンドウBが静止画ウィンドウの上に重畳している。したがって、S532へ進む。なお、このときにビデオウィンドウBが静止画ウィンドウの上に重畳していなかった場合、実施の形態1の図8Cと同じ重なり方であるのでS54へ進む。S54へ進んだ場合、以後の処理は実施の形態1で説明した動作と同じ処理である。
 S532において、マスク判定部113は静止画ウィンドウに他のビデオウィンドウが重畳している領域のうち静止画が一番上に重畳している領域をマスク領域とする。なお、マスク領域の算出はS51で取得したウィンドウの位置情報と、S53で取得したウィンドウの重畳情報によって容易に算出することができる。この例の場合、図11Bに示す領域がマスク領域となる。
 以下の動作については、実施の形態1に係る画像処理装置1の動作と同じであるため、省略する。
 以上のように、実施の形態2に係る画像処理装置1は、ビデオウィンドウの上に静止画ウィンドウが重畳され、この重畳領域内においてさらに上に他のビデオウィンドウが重畳している場合においても、ビデオウィンドウと静止画ウィンドウの重畳関係を判定し、マスク処理の要否判断とマスク領域の算出を実行する。よって、ビデオウィンドウの上に静止画ウィンドウが重畳され、この重畳領域内においてさらに上に他のビデオウィンドウが重畳している場合においても、所望の合成画像を得ることができる。
実施の形態3.
 実施の形態3に係る画像処理装置1aは、大画面を構成する複数の表示装置4a~4hで表示するメイン画像を分割し、この分割したメイン画像を複数の合成装置へ送信することを特徴とする。
 以下、図13、図14を用いて実施の形態3に係る画像処理装置1aについて説明する。図13は実施の形態3に係る画像処理装置の構成を示す図である。図14は実施の形態3に係る画像処理装置を用いた画像表示システムの構成を示す図である。なお、実施の形態3に係る画像処理装置1aの構成について、実施の形態1及び実施の形態2の画像処理装置1の構成に相当する部分には図1と同一符号を付してその説明を省略する。
 実施の形態3に係る画像処理装置1aは、実施の形態1に係る画像処理装置1aの合成処理部13を備えていない。また、実施の形態3に係る画像処理装置1aは、メイン画像作成部12にメイン画像分割部125とメイン画像送信部126を備える。
 メイン画像分割部125は、メイン画像を複数の画像に分割する。分割されたメイン画像(分割メイン画像)は、メイン画像送信部126へ出力される。
 メイン画像送信部126は、メイン画像分割部125から分割メイン画像を複数の合成装置13a~13hへ送信する。
 次に、図14を用いて実施の形態3に係る画像処理装置1aを用いた画像表示システムについて説明する。
 実施の形態3に係る画像処理装置1aを用いた画像表示システムは、画像処理装置1a、合成装置13a~13h、スイッチ7、ビデオ送信装置5を有する。
 以下、図14を用いて実施の形態3に係る画像処理システムの構成を説明する。
 スイッチ7は、画像処理装置1aから送信された分割メイン画像をそれぞれ対応する合成装置13a~13hへ分配する。
 ビデオ送信装置5は、ビデオ画像を複数の合成装置13a~13hへ送信する装置である。
 合成装置13a~13hは、メイン画像送信部126から出力された分割メイン画像とビデオ作成部3から出力されるビデオ画像を受信する。また、合成装置13a~13hは、ビデオ画像から分割メイン画像に対応する部分を抜き出して、分割された合成画像(分割合成画像)を作成する。分割合成画像は、1つの合成画像を複数の画像に分割したものである。分割合成画像を後述する複数の表示装置4a~4hでそれぞれ表示することによって、1つの合成画像となる。
 表示装置4a~4hは合成装置13a~13hから送信された分割合成画像をそれぞれ表示する。すなわち、表示装置4a~4hは実施の形態1に係る表示装置4で表示した合成画像と同様の画像を複数の表示装置4a~4hを用いて1つの大画面で表示することができる。
 なお、実施の形態3に係る画像処理装置1aは、合成装置13a~13hとスイッチ7を外部に有する構成としたが、内部に構成してもよい。
 また、合成装置13a~13hは、ビデオ送信装置5から出力されるビデオ画像を抜き出して合成したが、予め分割された合成画像を受信するように構成してもよい。また、合成装置13a~13hは、分割メイン画像を受信するように構成したが、メイン画像を受信してから分割するように構成してもよい。
 以上のように実施の形態3に係る画像処理装置1aは、メイン画像を分割して複数の表示装置4a~4hへ送信するように構成したので、複数の表示装置4a~4hで構成される大画面システムに適用することができる。
1 画像処理装置、2 ウィンドウ位置操作部、3 ビデオ作成部、4 表示装置、11 情報算出部、12 メイン画像作成部、13 合成処理部、111 ウィンドウ位置管理部、112 ウィンドウ重畳領域算出部、113 マスク判定部、114 カラーキー領域算出部、121 コンテンツデータ格納部、122 ウィンドウ描画部、123 マスク処理部、124 カラーキー設定部、131 ビデオ受信処理部、132 背景作成部、133 画像合成部

Claims (7)

  1. 静止画を表示する第一ウィンドウが描画された第一レイヤ画像と、
    動画像を表示する第二ウィンドウが描画された第二レイヤ画像とを重ね、
    前記第一のレイヤ画像を透過させて前記第二ウィンドウを表示させるクロマキー合成を実行する画像処理装置において、
    前記第一ウィンドウと前記第二ウィンドウとが重畳する領域において前記第一ウィンドウと前記第二ウィンドウの重畳関係を判定するマスク判定部と、
    前記マスク判定部の判定に基づいて、前記第一ウィンドウが上に重畳すると判定された場合には、前記第一ウィンドウが上に重畳する領域にマスク処理を実施し、前記第二ウィンドウが上に重畳すると判定された場合には前記第二ウィンドウが上に重畳する領域に前記マスク処理を実施しないマスク処理部と
    を備えることを特徴とする画像処理装置。
  2. 前記第一ウィンドウ及び前記第二ウィンドウを表示する位置が変更された場合に、
    前記第一ウィンドウと前記第二ウィンドウとを表示する位置情報を変更された位置情報に更新するウィンドウ位置管理部を備え、
    前記マスク判定部は、
    前記位置情報に基づいて、前記第一ウィンドウが上に重畳する領域の有無を判定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記位置情報に基づいて、
    前記第一レイヤ画像上で前記第二ウィンドウを透過させる領域に特定の色を設定し、前記特定の色を透過させる透過フラグを有効にするカラーキー設定部を備えることを特徴とする請求項1又は請求項2に記載の画像処理装置。
  4. 前記マスク処理部は、
    前記透過フラグを無効とすることで、前記マスク処理を実施することを特徴とする請求項3に記載の画像処理装置。
  5. 前記位置情報は、表示するウィンドウの位置を示す情報と、ウィンドウに表示するコンテンツが静止画又は動画像であるかを識別するコンテンツの種別と、前記ウィンドウの重畳する順序から構成されることを特徴とする請求項2から請求項4のいずれかに記載の画像処理装置。
  6. 静止画を表示する第一ウィンドウが描画された第一レイヤ画像と、
    動画像を表示する第二ウィンドウが描画された第二レイヤ画像とを重ね、
    前記第一のレイヤ画像を透過させて前記第二ウィンドウを表示させるクロマキー合成を実行する画像処理システムにおいて、
    前記第一ウィンドウと前記第二ウィンドウとが重畳する領域において前記第一ウィンドウと前記第二ウィンドウの重畳関係を判定するマスク判定部と、
    前記マスク判定部の判定に基づいて、前記第一ウィンドウが上に重畳すると判定された場合には、前記第一ウィンドウが上に重畳する領域にマスク処理を実施し、前記第二ウィンドウが上に重畳すると判定された場合には前記第二ウィンドウが上に重畳する領域に前記マスク処理を実施しないマスク処理部と、
    前記第一レイヤ画像を分割する第一レイヤ画像分割部と、
    分割された前記第一レイヤ画像と、前記第一レイヤ画像と対応する前記第二レイヤ画像とを合成する合成装置と、
    前記合成装置で合成された画像を表示する複数の表示装置と、
    を備え、
    前記表示装置は複数で一つの画面を形成することを特徴とする画像処理システム。
  7. 静止画を表示する第一ウィンドウが描画された第一レイヤ画像と、
    動画像を表示する第二ウィンドウが描画された第二レイヤ画像とを重ね、
    前記第一のレイヤ画像を透過させて前記第二ウィンドウを表示させるクロマキー合成を実行する画像処理方法において、
    前記第一ウィンドウと前記第二ウィンドウとが重畳する領域において前記第一ウィンドウと前記第二ウィンドウの重畳関係を判定するマスク判定ステップと、
    前記マスク判定ステップの判定に基づいて、前記第一ウィンドウが上に重畳すると判定された場合には、前記第一ウィンドウが上に重畳する領域にマスク処理を実施し、前記第二ウィンドウが上に重畳すると判定された場合には前記第二ウィンドウが上に重畳する領域に前記マスク処理を実施しないマスク処理ステップと
    を有することを特徴とする画像処理方法。
PCT/JP2013/003441 2013-05-31 2013-05-31 画像処理装置、画像処理システム及び画像処理方法 WO2014192044A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/785,928 US9898837B2 (en) 2013-05-31 2013-05-31 Image processing system
PCT/JP2013/003441 WO2014192044A1 (ja) 2013-05-31 2013-05-31 画像処理装置、画像処理システム及び画像処理方法
CN201380075637.0A CN105122345B (zh) 2013-05-31 2013-05-31 图像处理装置、图像处理系统和图像处理方法
JP2015519500A JP5968533B2 (ja) 2013-05-31 2013-05-31 画像処理装置、画像処理システム及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/003441 WO2014192044A1 (ja) 2013-05-31 2013-05-31 画像処理装置、画像処理システム及び画像処理方法

Publications (1)

Publication Number Publication Date
WO2014192044A1 true WO2014192044A1 (ja) 2014-12-04

Family

ID=51988129

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003441 WO2014192044A1 (ja) 2013-05-31 2013-05-31 画像処理装置、画像処理システム及び画像処理方法

Country Status (4)

Country Link
US (1) US9898837B2 (ja)
JP (1) JP5968533B2 (ja)
CN (1) CN105122345B (ja)
WO (1) WO2014192044A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039867A1 (en) 2013-03-15 2017-02-09 Study Social, Inc. Mobile video presentation, digital compositing, and streaming techniques implemented via a computer network
WO2016147576A1 (ja) * 2015-03-13 2016-09-22 パナソニックIpマネジメント株式会社 電子機器及びその制御方法
TWI546772B (zh) * 2015-11-18 2016-08-21 粉迷科技股份有限公司 影像疊層處理方法與系統
JP6936018B2 (ja) 2017-02-21 2021-09-15 ソニーセミコンダクタソリューションズ株式会社 映像送信装置および映像受信装置
JP6848837B2 (ja) * 2017-11-30 2021-03-24 京セラドキュメントソリューションズ株式会社 画像処理装置
JP6979471B2 (ja) * 2018-01-30 2021-12-15 富士フイルム株式会社 電子アルバム装置、電子アルバム装置の作動方法および作動プログラム
CN110830736B (zh) * 2018-08-09 2022-05-13 广州小鹏汽车科技有限公司 一种用于视频合成的方法、电子设备及计算机可读存储介质
CN110503702A (zh) * 2019-08-19 2019-11-26 武汉蓝星科技股份有限公司 一种全液晶数字仪表硬件图层分层处理方法及装置
CN112199068B (zh) * 2020-09-27 2023-05-16 长沙景嘉微电子股份有限公司 图形叠加处理方法以及装置、存储介质、电子装置
CN113590251B (zh) * 2021-08-05 2024-04-12 四川艺海智能科技有限公司 单屏多窗口的数字化互动展示系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05207368A (ja) * 1992-01-27 1993-08-13 Hitachi Ltd 重ね合わせ表示装置
JPH05316425A (ja) * 1992-05-11 1993-11-26 Sony Corp クロマキー装置におけるキー信号発生装置
JP2001242848A (ja) * 2000-02-29 2001-09-07 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2003348447A (ja) * 2002-05-29 2003-12-05 Sony Corp 画像出力装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3451722B2 (ja) * 1994-05-13 2003-09-29 セイコーエプソン株式会社 映像データ転送装置
JP3792826B2 (ja) * 1997-03-28 2006-07-05 キヤノン株式会社 画像処理方法及び画像処理装置
JPH1138951A (ja) 1997-07-15 1999-02-12 Mitsubishi Electric Corp 大画面ビデオ表示装置およびその装置における大画面ビデオ表示方法
JP3935605B2 (ja) 1998-05-15 2007-06-27 三菱電機株式会社 マルチディスプレイビデオ表示装置
JP2000078527A (ja) 1998-08-31 2000-03-14 Matsushita Electric Ind Co Ltd Mpeg再生装置
US7623140B1 (en) * 1999-03-05 2009-11-24 Zoran Corporation Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics
JP2005250500A (ja) * 2005-03-29 2005-09-15 Fuji Xerox Co Ltd 画像処理装置及び画像処理方法
JP2008009140A (ja) * 2006-06-29 2008-01-17 Fujitsu Ltd 画像処理装置および画像処理方法
CN101271680A (zh) * 2008-05-16 2008-09-24 华硕电脑股份有限公司 视频串行数据处理方法
JP2010109932A (ja) 2008-10-31 2010-05-13 Toshiba Corp マルチディスプレイシステム及び符号化制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05207368A (ja) * 1992-01-27 1993-08-13 Hitachi Ltd 重ね合わせ表示装置
JPH05316425A (ja) * 1992-05-11 1993-11-26 Sony Corp クロマキー装置におけるキー信号発生装置
JP2001242848A (ja) * 2000-02-29 2001-09-07 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2003348447A (ja) * 2002-05-29 2003-12-05 Sony Corp 画像出力装置

Also Published As

Publication number Publication date
JP5968533B2 (ja) 2016-08-10
CN105122345A (zh) 2015-12-02
CN105122345B (zh) 2017-10-13
JPWO2014192044A1 (ja) 2017-02-23
US9898837B2 (en) 2018-02-20
US20160093071A1 (en) 2016-03-31

Similar Documents

Publication Publication Date Title
WO2014192044A1 (ja) 画像処理装置、画像処理システム及び画像処理方法
JP5263049B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP4695474B2 (ja) 合成映像制御装置、合成映像制御方法およびプログラム
WO2016152633A1 (ja) 画像処理システムおよび画像処理方法、並びにプログラム
CN103680470B (zh) 大屏控制的图像显示方法及系统
JP2010146504A (ja) 情報処理システム及び表示制御方法
JP4998021B2 (ja) サーバ装置、クライアント装置及びプログラム
CN105426146B (zh) 拼接处理器及其处理方法
JP2008116874A (ja) マルチディスプレイシステム、及びこのシステム上で実行されるプログラム
JP2015102567A (ja) マルチビジョン用表示制御装置およびマルチビジョンシステム
WO2012176926A1 (ja) 情報処理装置、情報処理システム、サーバ、情報処理方法、および、コンピュータ・プログラム
TWM516205U (zh) 視訊矩陣控制設備
US20170139573A1 (en) Method and system for processing composited images
JP2013017182A (ja) 3d映像変換装置、その具現方法及びその記憶媒体
JP2017108263A (ja) 端末、位置関係算出プログラムおよび位置関係算出方法
JP5875415B2 (ja) 画像合成装置
US9305327B2 (en) Image processing apparatus and control method thereof
WO2009081650A1 (ja) 画像表示システム、画像表示方法及び記録媒体
US10623610B2 (en) Display processing device and display processing method
JP5375489B2 (ja) 画像信号処理装置、画像信号処理方法、プログラム、および画像信号処理システム
JP2000035843A (ja) ハイパーテキスト表示装置及びシステム
JP5916607B2 (ja) 複数のコンピュータデバイスを操作するためのシステム、方法及びコンピュータプログラム
JP2005084089A (ja) 画像比較表示方法及びその装置並びに画像比較表示プログラム
JP5743691B2 (ja) 液晶表示装置及びその制御方法、画像表示システム
US8466926B2 (en) Renderer for presenting an image frame by help of a set of displaying commands

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13885800

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015519500

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14785928

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13885800

Country of ref document: EP

Kind code of ref document: A1