WO2014184956A1 - 映像合成装置および方法 - Google Patents

映像合成装置および方法 Download PDF

Info

Publication number
WO2014184956A1
WO2014184956A1 PCT/JP2013/063819 JP2013063819W WO2014184956A1 WO 2014184956 A1 WO2014184956 A1 WO 2014184956A1 JP 2013063819 W JP2013063819 W JP 2013063819W WO 2014184956 A1 WO2014184956 A1 WO 2014184956A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
timing
unit
graphic
request information
Prior art date
Application number
PCT/JP2013/063819
Other languages
English (en)
French (fr)
Inventor
水口 武尚
武史 三井
英樹 福原
康明 瀧本
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112013007092.8T priority Critical patent/DE112013007092B4/de
Priority to JP2015516863A priority patent/JP5881897B2/ja
Priority to CN201380076684.7A priority patent/CN105229722B/zh
Priority to PCT/JP2013/063819 priority patent/WO2014184956A1/ja
Priority to US14/787,442 priority patent/US20160078664A1/en
Publication of WO2014184956A1 publication Critical patent/WO2014184956A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay

Definitions

  • the present invention relates to a video composition apparatus and method for synthesizing and displaying graphic images drawn by a plurality of apparatuses.
  • the image drawn by the device A and the device B drawn By simply compositing the image as it is, the image can be displayed without any problem as expected after the composition.
  • the images drawn by multiple devices are graphic images such as animations
  • the images (videos) after the synthesis will not be as expected and will shift if the timing at the time of synthesis does not match. There was a problem.
  • Patent Documents 1 and 2 as a technique for synthesizing and displaying a video captured from the outside, the video received from the outside is enlarged / reduced and synthesized with a graphic drawn inside (the device itself).
  • a synthesizing apparatus is described in which the synthesizing timing is adjusted in consideration of the time required for enlarging / reducing an image captured from the outside.
  • the present invention has been made to solve the above-described problems, and displays graphic images drawn by a plurality of devices in a synthesized manner in accordance with the timings of animation changes that are continuously sent.
  • An object of the present invention is to provide a video synthesizing apparatus and method thereof.
  • a video synthesizing apparatus that synthesizes and displays graphic images drawn by a plurality of drawing apparatuses
  • the control unit that controls the operation of the video synthesizing apparatus and the plurality of drawing apparatuses include A timing request information generating unit that generates timing request information for designating timing for synthesizing a graphic image to be drawn; a communication unit that transmits the timing request information generated by the timing request information generating unit to the plurality of drawing devices; A video input unit that receives a graphic video drawn by the drawing device transmitted from the plurality of drawing devices, and a video synthesis unit that synthesizes the graphic video received by the video input unit in response to an instruction from the control unit And a display output unit for displaying a graphic video synthesized by the video synthesis unit, and the control unit , When it becomes the same timing as the timing request information transmitted to the plurality of drawing device via the communication unit, characterized in that direct the synthesis of the graphic image relative to the image
  • the images can be combined and displayed in accordance with the timing of the animation change. Can do.
  • FIG. 3 is a block diagram illustrating a configuration of a video composition device, a first drawing device, and a second drawing device in Embodiment 1.
  • FIG. 3 is a flowchart showing operations of a first drawing device (video composition device) and a second drawing device in the first embodiment.
  • 4 is a timing chart showing operation timings of the first drawing device (video composition device) and the second drawing device in the first embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of a video composition device, a first drawing device, and a second drawing device in Embodiment 2.
  • 10 is a flowchart illustrating operations of a first drawing device (video composition device) and a second drawing device according to Embodiment 2.
  • 10 is a timing chart showing operation timings of the first drawing device (video composition device) and the second drawing device in the second embodiment.
  • FIG. 11 is a diagram illustrating an example of a video frame drawn by the second drawing device in the second embodiment. It is a figure which shows another example of the video frame which the 2nd drawing apparatus in Embodiment 2 draws.
  • FIG. 10 is a block diagram illustrating a configuration of a video composition device, a first drawing device, and a second drawing device in a third embodiment.
  • FIG. 10 is a flowchart showing operations of a first drawing device (video composition device) and a second drawing device in Embodiment 3.
  • 12 is a timing chart illustrating operation timings of the first drawing device (video composition device) and the second drawing device according to Embodiment 3.
  • FIG. 10 is a block diagram illustrating a configuration of a video composition device, a first drawing device, and a second drawing device in a fourth embodiment.
  • 14 is a flowchart illustrating operations of the video composition device, the first drawing device, and the second drawing device in the fourth embodiment.
  • 10 is a timing chart illustrating operation timings of the video composition device, the first drawing device, and the second drawing device according to Embodiment 4.
  • FIG. 10 is a diagram showing an overview of a video composition system in a fifth embodiment.
  • FIG. 2 is an explanatory diagram showing an example of a conventional synthesized image when a graphic image drawn by a plurality of devices is synthesized.
  • a synthesized image as shown in FIG. 2A from a graphic image drawn by the device A and a graphic image drawn by the device B
  • the images are continuously obtained from the respective devices A and B.
  • FIGS. 2 (b) and 2 (c) it is sometimes impossible to synchronize with the timing of the change of the animation that is sent, resulting in an image with the composition timing shifted.
  • timing request information is transmitted from the video composition device side to the drawing device that draws the graphic images before composition.
  • the present invention provides a video composition apparatus and method that enables a video composition apparatus to acquire and synthesize a graphic image with a proper timing from each drawing apparatus and to present it.
  • FIG. 3 is a block diagram showing the configuration of the video composition device, the first drawing device, and the second drawing device according to Embodiment 1 of the present invention.
  • the first drawing device the image composition device.
  • the first drawing device (video composition device) 1 includes a control unit 11, a communication unit 12, a drawing unit 13, a video input unit 14, a video composition unit 15, a display output unit (display unit) 16, and an operation unit 17. .
  • the control unit 11 controls the operation of the first drawing device (video composition device) 1, draws a video frame by the first drawing device (video composition device) 1, and receives the video frame from the second drawing device 2.
  • the first drawing device (video composition device) 1 control the composition of the video frames.
  • control unit 11 includes a timing request information generation unit 10.
  • the timing request information generation unit 10 generates timing request information for designating the timing for synthesizing graphic images drawn by a plurality of drawing devices in the control unit 11. Specifically, timing request information indicating timing for switching screen drawing and frame buffer in the second drawing apparatus 2 is generated.
  • the communication unit 12 transmits and receives an operation instruction and a response to the second drawing apparatus 2. That is, at least the timing request information generated by the timing request information generation unit 10 is transmitted to the second drawing device 2.
  • Examples of the implementation method include serial communication, USB, wireless LAN, and Bluetooth (registered trademark).
  • the drawing unit 13 draws a graphic image for display on the screen.
  • the drawing unit 13 manages a plurality (two in FIG. 3) of frame buffers, and draws a graphic image in the frame buffer (memory).
  • the video input unit 14 periodically receives video frames from the second drawing device 2 (graphic images drawn by the drawing device 2 transmitted from the second drawing device 2).
  • Examples of methods for receiving video frames include HDMI (registered trademark / hereinafter, omitted), DVI, composite, RGB, and the like. It has a plurality of frame buffers (memory) for receiving video frames, and the received video frames are recorded in it.
  • the video synthesis unit 15 synthesizes the graphic video drawn by the drawing unit 13 and the video frame (graphic video) received by the video input unit 14.
  • the display output unit 16 outputs the video frame (graphic video) synthesized by the video synthesis unit 15 to a display or the like and displays it.
  • the operation unit 17 receives an operation from the user.
  • the second drawing device 2 includes a control unit 21, a communication unit 22, a drawing unit 23, and a video output unit 24.
  • the control unit 21 controls the operation of the second drawing device 2, draws a graphic image by the second drawing device 2, and a video frame from the second drawing device 2 to the first drawing device (video composition device) 1. Control the transmission of.
  • the communication unit 22 transmits / receives an operation instruction, a response, and the like to / from the first drawing device (video composition device) 1.
  • the drawing unit 23 draws a graphic image to be displayed on the screen.
  • the video output unit 24 periodically transmits video frames from the second drawing device 2. Examples of a method for receiving video include HDMI and composite.
  • FIG. 4 is a flowchart showing operations of the first drawing device (video composition device) and the second drawing device in the first embodiment.
  • FIG. 5 is a timing chart showing operation timings of the first drawing device (video composition device) and the second drawing device in the first embodiment.
  • control unit 11 of the first drawing device (video composition device) 1 receives an event of a user operation from the operation unit 17 (step ST1).
  • a screen change is determined from the accepted event (step ST2), and timing request information for performing the screen change is generated (step ST3).
  • This timing request information indicates a time for performing screen composition, which will be described later, in consideration of a drawing time and a video frame transmission time by the first drawing device (video composition device) 1 and the second drawing device 2.
  • the timing request information is information for generating information indicating at which timing the first drawing device (video composition device) 1 wants to draw, and transmitting the information to the second drawing device 2.
  • any designation may be used as long as the timing can be clearly specified, such as designation by time, designation by elapsed time from the communication start time by the communication unit 12, designation by video frame number, and the like.
  • step ST4 the screen change including the timing request information generated in step ST3 from the control unit 11 of the first drawing device (video composition device) 1 to the control unit 21 of the second drawing device 2 via the communication units 12 and 22 A request is transmitted (step ST4).
  • the control unit 11 of the first drawing device (video composition device) 1 causes the drawing unit 13 to draw the screen in the drawing frame buffer (step ST5).
  • drawing frame buffers there are a plurality of drawing frame buffers, and drawing is performed in one of them. This is a technique commonly called double buffering or triple buffering.
  • double buffering or triple buffering By separately preparing a drawn frame buffer and a drawing frame buffer, the video output for display and the drawing process are parallelized. It is a technique to do.
  • the first drawing device (video composition device) 1 waits until the timing of the timing request information generated in step ST3 (the time in the first embodiment), and then performs the timing adjustment (“timing adjustment X shown in FIG. 5). (Refer to step ST6). That is, when the timing request information is designated by time, the video composition instruction is delayed until the time indicated by the timing request information.
  • the second drawing device 2 draws the screen in the drawing frame buffer by the drawing unit 23 (step ST12).
  • the screen change request received from the first drawing device (video composition device) 1 in step ST11 also includes timing request information generated by the first drawing device (video composition device) 1 in step ST3.
  • the second drawing apparatus 2 waits until a time obtained by subtracting the time required for video frame transmission from the time indicated by the timing request information, and performs timing adjustment (see “timing adjustment Y” shown in FIG. 5) ( After that, the drawing frame buffer to be output by the video output unit 24 is switched (step ST14).
  • the video output unit 24 periodically transmits video frames from the drawing frame buffer to the video input unit 14 of the first drawing device (video composition device) 1 (step ST15).
  • the video input unit 14 of the first drawing device (video synthesis device) 1 receives the video frame from the video output unit 24 of the second drawing device 2 (step ST16), and the received video frame is converted into the video input unit. 14 input frame buffers.
  • control unit 11 of the first drawing device (video composition device) 1 receives the timing request information transmitted to the second drawing device 2 via the communication unit 12 at the timing (time) of the timing request information.
  • the video composition unit 15 is instructed to synthesize a graphic image (step ST17).
  • the video composition unit 15 synthesizes the drawing frame buffer newly drawn by the drawing unit 13 and the input frame buffer received from the second drawing device 2 by the video input unit 14 (step ST18).
  • the synthesized video is output to a display or the like by the display output unit 16 and displayed (step ST19).
  • the timing request information is transmitted together with the screen change request from the first drawing device (video composition device) to the second drawing device, and the first drawing device (video composition device).
  • the graphic images drawn by the plurality of apparatuses can be combined and displayed at the same timing.
  • the timing request information has been described by way of example in which the time at which video composition is started is specified.
  • the video frame number or the like that is periodically transmitted by the video input unit or the video output unit is specified. May be instructed.
  • the timing request information is not the time, but the frame number of the video transmission between the first drawing device (video composition device) and the second drawing device, and the elapsed time from the communication start time by the communication unit. Any other method may be used as long as the timing can be shared between the first drawing device (video composition device) and the second drawing device, such as time.
  • the case where an event is received by a user operation and the screen is changed has been described as an example.
  • a trigger for the screen change a state change event received from another device, a timer, or the like can be used. It may be due to an event.
  • symbol is attached
  • the first drawing device (video composition device) 1 further includes an input video analysis unit 18 at the drawing completion timing on the second drawing device 2 side.
  • the difference is that they are combined.
  • the input video analysis unit 18 analyzes the video frame (graphic video) received by the video input unit 14 from the second drawing device 2 and extracts timing information indicating the timing at which the video frame is drawn.
  • FIG. 7 is a flowchart showing operations of the first drawing device (video composition device) and the second drawing device in the second embodiment.
  • FIG. 8 is a timing chart showing operation timings of the first drawing device (video composition device) and the second drawing device in the second embodiment.
  • steps ST21 to ST22 is the same as that in steps ST1 and ST2 in FIG. Further, the process for generating timing request information for changing the screen (step ST23) is the same as that in step ST3.
  • the timing request information in the second embodiment will be described assuming that it is a video frame number instead of indicating the time of screen composition as in the first embodiment.
  • the timing request information can be generated by identifying the video frame number requesting the screen change.
  • the apparatus 2 transmits a screen change request including a timing information drawing position (details will be described later; see FIGS. 9 and 10) for designating a position for drawing timing information on the video frame (step ST24).
  • the position where the timing information is drawn is selected from an area that is not used for video composition in the video frame drawn by the second drawing device 2.
  • the control unit 11 of the first drawing device (video composition device) 1 causes the drawing unit 13 to draw the screen in the drawing frame buffer (step ST25). Thereafter, the first drawing device (video composition device) 1 waits until a video frame of timing information corresponding to the timing request information is received from the second drawing device 2 (details will be described later).
  • the second drawing device 2 When receiving the screen change request from the first drawing device (video composition device) 1 (step ST31), the second drawing device 2 draws the screen in the drawing frame buffer by the drawing unit 23 (step ST32). Further, the timing information is drawn at the timing information drawing position on the drawing frame buffer (step ST33).
  • timing information drawing method for example, the following may be considered.
  • a two-dimensional code such as a barcode or QR code (registered trademark) that can be easily analyzed is drawn as timing information. This is suitable for video transmission in an analog format such as a composite method.
  • a part of the video frame of the second drawing device 2 is not lost, and it is possible to display all the video frames of the second drawing device 2.
  • the timing information drawing position need not be transferred, and the timing information may be drawn at a fixed position such as the upper right or upper left of the video frame.
  • the second drawing apparatus 2 switches the drawing frame buffer output by the video output unit 24 (step ST34).
  • the video output unit 24 periodically transmits video frames from the drawing frame buffer to the video input unit 14 of the first drawing device (video composition device) 1 (step ST35).
  • the video input unit 14 of the first drawing device (video synthesis device) 1 receives the video frame from the video output unit 24 of the second drawing device 2 (step ST36), and the received video frame is converted into the video input unit. 14 input frame buffers.
  • the input video analysis unit 18 of the first drawing device (video synthesis device) 1 analyzes the video frame (graphic video) received by the video input unit from the second drawing device 2 and transmits it via the communication unit 12.
  • the timing information drawn at the timing information drawing position is acquired (step ST37).
  • the position in the video frame to be analyzed is the timing information drawing position transmitted from the first drawing device (video composition device) 1 to the second drawing device 2. Then, the input video analysis unit 18 passes the timing information obtained by the analysis to the control unit 11.
  • the control unit 11 acquires timing information from the input video analysis unit 18 (step ST38), and compares whether or not the acquired timing information matches the timing request information transmitted to the second drawing device 2 in step ST24. (Step ST39).
  • step ST39 When the acquired timing information matches the timing request information, that is, when the acquired timing information has the same timing as the timing request information (in the case of YES in step ST39), a graphic is displayed to the video composition unit 15. A video composition is instructed (step ST40). On the other hand, when they do not coincide, that is, when the timing is not the same (NO in step ST39), the process waits until a video frame having timing information of the same timing as the timing request information is received.
  • the video synthesis unit 15 synthesizes the drawing frame buffer newly drawn by the drawing unit 13 and the input frame buffer received from the second drawing device 2 by the video input unit 14 (step ST41).
  • the synthesized video is output and displayed on the display or the like by the display output unit 16 (step ST42).
  • drawing in the first drawing device (video composition device) 1 is 60 frames per second and drawing in the second drawing device 2 is 30 frames per second. It is effective in some cases. For example, when the frame number according to the timing request information is 10, even if the first drawing device (video composition device) 1 has already drawn the video frame of frame number 10, the video acquired from the second drawing device 2 When the frame timing information is frame number 8, no compositing instruction is given, and a video frame whose timing information is frame number 10 is acquired and then video compositing is performed and displayed.
  • FIG. 9 is a diagram illustrating an example of a video frame drawn by the second drawing device according to the second embodiment. This figure shows a state in which the timing information 3 is drawn at the timing information drawing position Z designated by the first drawing device (video composition device) 1.
  • FIG. 10 is a diagram illustrating another example of a video frame drawn by the second drawing device according to the second embodiment.
  • the timing information 3 is drawn at the timing information drawing position Z.
  • the timing information 3 is drawn at a fixed position (for example, upper left) of the video frame, and the video that should have been drawn at the fixed position instead. 4 may be drawn at the timing information drawing position Z.
  • the timing information 3 is drawn at the upper left of the video frame, and the video 4 originally at the upper left of the video frame is drawn at the timing information drawing position Z.
  • the timing information may be always analyzed with respect to a fixed position (upper left in FIG. 10).
  • the subsequent processing video composition
  • the timing request information and the timing information drawing position are transmitted together with the screen change request from the first drawing device (video composition device) to the second drawing device, and the second drawing device.
  • the timing information is drawn in the video frame to be transmitted to the first drawing device (video synthesizer) and analyzed by the first drawing device (video synthesizer).
  • the video is synthesized at that timing.
  • the graphic images drawn by the first drawing device (video combining device) and the second drawing device can be combined and displayed at the same timing.
  • the timing information is transmitted in synchronization with the video frame transmission. It has the feature that no special communication path is required. Further, since the notification is made together with the video, the timing can be accurately transmitted.
  • the control unit of the second drawing apparatus can be implemented as a general application such as a PC or a smartphone.
  • symbol is attached
  • the timing information drawing position is transmitted from the first drawing device (video composition device) 1 to the second drawing device 2, but in the third embodiment, the timing information drawing position is set to the second drawing device 2. And is transmitted from the second drawing device 2 to the first drawing device (video composition device) 1.
  • the block diagram (system configuration diagram) shown in FIG. 11 is substantially the same as the block diagram (system configuration diagram) shown in FIG. 6 of the second embodiment, but the control unit 11 of the first drawing device (video composition device) 1.
  • the communication unit 12, the control unit 21 of the second drawing apparatus 2, and the communication unit 22 are different in that the communication direction is bidirectional.
  • FIG. 12 is a flowchart illustrating operations of the first drawing device (video composition device) and the second drawing device according to the third embodiment.
  • FIG. 13 is a timing chart showing operation timings of the first drawing device (video composition device) and the second drawing device in the third embodiment.
  • the difference from the second embodiment is that the timing information drawing position is not included in the screen change request transmitted from the first drawing device (video composition device) 1 to the second drawing device 2 in step ST54. Instead, the timing information drawing position is only transmitted from the second drawing device 2 to the first drawing device (video composition device) 1.
  • steps ST51 to ST54 and ST61 are the same as steps ST21 to ST24 and ST31 in FIG. 7 of the second embodiment, but when the second drawing apparatus 2 receives the screen change request, it determines the timing information drawing position.
  • the first drawing device video composition device 1
  • step ST62 This tells the first drawing device (image composition device) that the second drawing device 2 knows the position not used for the image, and draws and transmits the timing information there.
  • the first drawing device (video composition device) 1 receives this timing information drawing position from the second drawing device 2 (step ST55), and when the timing information is compared, information drawn at that position, The timing request information generated in step ST53 is compared (see step ST70).
  • step ST56 and steps ST63 to ST73 only the position where the timing information is drawn when comparing the timing information in step ST70 is different from that of the second embodiment as described above. Since this is the same as step ST25 and steps ST32 to ST42 in FIG. 7 of the second embodiment, description thereof is omitted. In the third embodiment, the same effect as in the second embodiment can be obtained.
  • FIG. 14 is a block diagram showing the configuration of the video composition device, the first drawing device, and the second drawing device according to Embodiment 4 of the present invention. Note that the same components as those described in the first to third embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • the first drawing device (video composition device) 1 of the second embodiment is divided into a first drawing device 200 and a video composition device 100 which are separate devices
  • the first drawing device (video composition device) 1 may be divided into the first drawing device 200 and the video composition device 100 which are separate devices. Needless to say.
  • the second drawing device 2 is the same as the second drawing device 2 in the first to third embodiments.
  • the first drawing device 200 has the same configuration as the second drawing device 2.
  • the video synthesizing apparatus 100 removes the drawing unit 13 from the first drawing apparatus (video synthesizing apparatus) 1 according to the second embodiment, and the video input unit and the input video analyzing unit are the first drawing apparatus 200 and the second drawing apparatus 2. Different points are provided for each.
  • the video composition device 100 includes a control unit 101, a communication unit 102, a first video input unit 141, a second video input unit 142, a video synthesis unit 105, a display output unit (display unit) 16, An operation unit 17, a first input video analysis unit 181, and a second input video analysis unit 182 are provided.
  • the control unit 101 controls the operation of the video synthesizing device 100 and controls the synthesis of video frames received from the first drawing device 200 and the second drawing device 2. Further, the control unit 11 includes a timing request information generation unit 10.
  • the communication unit 102 transmits and receives an operation instruction and a response to the first drawing apparatus 200 and the second drawing apparatus 2.
  • the first video input unit 141 and the second video input unit 142 periodically receive video frames from the first drawing device 200 and the second drawing device 2, respectively.
  • the first input video analysis unit 181 and the second input video analysis unit 182 analyze the video frames received by the first video input unit 141 and the second video input unit 142, respectively, and detect timing information.
  • the video composition unit 105 synthesizes the video frames of the first video input unit 141 and the second video input unit 142.
  • the display output unit 16 outputs and displays the video frame of the video composition unit 105 to a display or the like.
  • the operation unit 17 receives an operation from the user.
  • FIG. 15 is a flowchart illustrating operations of the video composition device, the first drawing device, and the second drawing device according to the fourth embodiment.
  • FIG. 16 is a timing chart showing operation timings of the video composition device, the first drawing device, and the second drawing device in the fourth embodiment.
  • steps ST81 to ST83 is the same as that in steps ST21 to ST23 in FIG. And it produced
  • the screen change request including the timing request information and the timing information drawing position at which the first drawing device 200 and the second drawing device 2 draw the timing information on the video frame is transmitted (step ST84).
  • the video composition device 100 waits until receiving a video frame of timing information corresponding to the timing request information from the first drawing device 200 and the second drawing device 2 (details will be described later).
  • the drawing unit 203 and the drawing unit 23 draw the screen in the drawing frame buffer (step ST91).
  • ST92A, ST92B Further, the timing information is drawn at the timing information drawing position on the drawing frame buffer (steps ST93A and ST93B).
  • the first drawing device 200 and the second drawing device 2 switch the drawing frame buffers output by the video output unit 204 and the video output unit 24, respectively (steps ST94A and ST94B).
  • the video output unit 204 and the video output unit 24 periodically transmit video frames from the drawing frame buffer to the first video input unit 141 and the second video input unit 142 of the video composition device 100 (steps ST95A and ST95B).
  • the video input unit 141 and the second video input unit 142 of the video composition device 100 respectively receive video frames from the video output unit 204 of the first drawing device and the video output unit 24 of the second drawing device 2 (steps).
  • the received video frame is stored in the input frame buffers of the first video input unit 141 and the second video input unit 142.
  • the first input video analysis unit 181 and the second input video analysis unit 182 of the video composition device 100 analyze the video frames (graphic video) received by the first video input unit 141 and the second video input unit 142, respectively. Then, the timing information drawn at the timing information drawing position transmitted via the communication unit 12 is acquired (steps ST97A and ST97B).
  • the position in the video frame to be analyzed is the timing information drawing position transmitted from the video composition device 100 to the first drawing device 200 and the second drawing device 2. Then, the first input video analysis unit 181 and the second input video analysis unit 182 pass the timing information obtained by the analysis to the control unit 101.
  • the control unit 101 acquires timing information from the first input video analysis unit 181 and the second input video analysis unit 182 (step ST98), and the acquired timing information is obtained from the first drawing device 200 and the second drawing in step ST84. It is compared whether or not it matches the timing request information transmitted to the device 2 (step ST99).
  • step ST99 the video composition unit 105 is instructed to synthesize a graphic image (step ST100).
  • step ST100 the video composition unit 105 is instructed to synthesize a graphic image.
  • the video composition unit 105 synthesizes the input frame buffer received from the first drawing device 200 by the first video input unit 141 and the input frame buffer received from the second drawing device 2 by the second video input unit 142 (Ste ST101).
  • the synthesized video is output to a display or the like by the display output unit 16 and displayed (step ST102).
  • the timing request information and the timing information drawing position are transmitted together with the screen change request from the video composition device to the first drawing device and the second drawing device, and the first drawing device,
  • the video frame corresponding to the request from the video synthesizer is received by drawing timing information in the video frame transmitted from the second drawing device to the video synthesizer and analyzing the timing information by the video synthesizer.
  • the video is synthesized at that timing.
  • a special method for transmitting the timing information in synchronization with the video frame transmission is used. There is a feature that does not require a mechanism.
  • Embodiment 5 FIG.
  • the video composition apparatus has been described as including the display output unit (display unit) 16.
  • the video composition apparatus can be applied to a server of a video composition system, You may make it apply to the application of a video composition system etc. which are installed in personal digital assistants, such as a smart phone, tablet PC, and a cellular phone, and may be made to output to a display device.
  • personal digital assistants such as a smart phone, tablet PC, and a cellular phone
  • FIG. 17 is a diagram showing an outline of a video composition system in Embodiment 5 of the present invention.
  • a display device 300 having only a display function such as display / audio performs video composition processing in cooperation with at least one of a portable information terminal 301 such as a smartphone and a server 302, or a mobile device such as a smartphone.
  • a portable information terminal 301 such as a smartphone and a server 302
  • a mobile device such as a smartphone.
  • At least one of the information terminal 301 and the server 302 can take various forms such as performing a video composition process and causing the display device 300 to display a composite video.
  • the server 302 when the server 302 performs video composition processing and provides the composite video to the user by displaying it on the display device 300, and when the portable information terminal 301 cooperates with the server 302 to perform video composition processing.
  • the synthesized video is displayed on the display device 300 and provided to the user.
  • the server 302 performs video composition processing and displays the recognition result on the display device 300.
  • the display device 300 may directly communicate with the server 302 or the display device 300 may communicate with the server 302 via the portable information terminal 301.
  • the server 302 functions as the video composition device described in the first to fourth embodiments.
  • the display device 300 has only the function and communication function of the display output unit (display unit) 16 for providing the synthesized video synthesized by the server 302 to the user, and the synthesized video synthesized by the server 302 is displayed. Receive and provide to users. Even with this configuration, the same effects as those of the first to fourth embodiments can be obtained.
  • the portable information terminal 301 performs video composition processing in cooperation with the server 302 and the display device 300 provides the composite video to the user.
  • the display device 300 may communicate with the server 302 via the portable information terminal 301, and the application of the portable information terminal 301 performs video composition processing in cooperation with the server 302.
  • the display device 300 basically has only a display function and a communication function, receives a composite video synthesized by cooperation between the portable information terminal 301 and the server 302 and provides it to the user. That is, the composite image obtained by combining the graphic images drawn by the plurality of drawing devices is displayed on the display device 300 by the application of the portable information terminal 301. Even with this configuration, the same effects as those of the first to fourth embodiments can be obtained.
  • the video composition device of the present invention can be applied even when there is a difference in the number of frames in which graphic images drawn by a plurality of devices are continuously sent, and the timing of animation change can be adjusted. Can be combined and displayed.
  • 1st drawing device (video composition device), 2nd drawing device, 3 timing information, 4 drawing information to be displayed at the position where timing information is drawn, 10 timing request information generating unit, 11, 21, 101, 201 control unit, 12, 22, 102, 202 communication unit, 13, 23, 203 drawing unit, 14 video input unit, 15, 105 video composition unit, 16 display output unit (display unit), 17 operation unit, 18 input video Analysis unit, 24, 204 Video output unit, 100 Video composition device, 141 First video input unit, 142 Second video input unit, 181 First input video analysis unit, 182 Second input video analysis unit, 300 Display device, 301 Mobile information terminal, 302 server.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 この発明の映像合成装置によれば、複数の装置が描画するグラフィック映像を合成する場合に、映像合成装置から各描画装置にタイミング要求情報を送信してタイミングをはかるようにしたので、複数の装置が描画するグラフィック映像が連続的に送られてくるフレーム数に違いがあるような場合であっても、アニメーションの変化のタイミングまで合わせて合成して表示させることができる。

Description

映像合成装置および方法
 この発明は、複数の装置が描画するグラフィック映像を合成して表示させる映像合成装置およびその方法に関するものである。
 一般的に、複数の装置が描画した画像を合成して表示させる場合、その画像が静止画である場合には、例えば図1に示すように、装置Aが描画した画像と装置Bが描画した画像とをそのまま合成するだけで、合成後に画像を期待どおり問題なく表示できる。
 しかし、複数の装置が描画する画像がアニメーション等のグラフィック映像である場合には、合成したときのタイミングが合わないと、合成後の画像(映像)が期待したものにはならず、ずれてしまうという問題があった。
 外部から取り込んだ映像を合成して表示させる技術として、例えば、特許文献1,2には、外部から受信した映像を拡大・縮小し、内部(自装置)で描画するグラフィックと合成する際に、外部から取り込んだ映像の拡大・縮小に要する時間を考慮して、合成タイミングを合わせる合成装置が記載されている。
特開2004-302361号公報 特許国際公開2008/139730号公報
 しかしながら、例えば特許文献1,2のような従来の合成装置では、外部から受信した映像をそのまま内部(自装置)で描画した映像と合成する場合や、複数の外部装置から受信した映像を合成する場合のタイミングのずれについては考慮していないため、それぞれの装置で描画されて連続的に送られてくるアニメーションの変化のタイミングまで合わせて合成することはできないという課題があった。
 この発明は、上記のような課題を解決するためになされたものであり、複数の装置が描画するグラフィック映像を、連続的に送られてくるアニメーションの変化のタイミングまで合わせて合成して表示させることができる映像合成装置およびその方法を提供することを目的とする。
 上記目的を達成するため、この発明は、複数の描画装置が描画するグラフィック映像を合成して表示させる映像合成装置において、前記映像合成装置の動作を制御する制御部と、前記複数の描画装置が描画するグラフィック映像を合成するタイミングを指定するためのタイミング要求情報を生成するタイミング要求情報生成部と、前記タイミング要求情報生成部が生成したタイミング要求情報を前記複数の描画装置に送信する通信部と、前記複数の描画装置から送信される当該描画装置が描画したグラフィック映像を受け取る映像入力部と、前記制御部からの指示を受けて、前記映像入力部が受け取ったグラフィック映像を合成する映像合成部と、前記映像合成部が合成したグラフィック映像を表示させる表示出力部とを備え、前記制御部は、前記通信部を介して前記複数の描画装置に送信された前記タイミング要求情報と同じタイミングになったときに、前記映像合成部に対して前記グラフィック映像の合成を指示することを特徴とする。
 この発明によれば、複数の装置が描画するグラフィック映像が連続的に送られてくるフレーム数に違いがあるような場合であっても、アニメーションの変化のタイミングまで合わせて合成して表示させることができる。
複数の装置が描画する静止画を合成した場合の合成画像の一例を示す説明図である。 複数の装置が描画するグラフィック映像を合成した場合の従来の合成画像の例を示す説明図である。 実施の形態1における映像合成装置、第1描画装置、第2描画装置の構成を示すブロック図である。 実施の形態1における第1描画装置(映像合成装置)および第2描画装置の動作を示すフローチャートである。 実施の形態1における第1描画装置(映像合成装置)および第2描画装置の動作のタイミングを示すタイミングチャートである。 実施の形態2における映像合成装置、第1描画装置、第2描画装置の構成を示すブロック図である。 実施の形態2における第1描画装置(映像合成装置)および第2描画装置の動作を示すフローチャートである。 実施の形態2における第1描画装置(映像合成装置)および第2描画装置の動作のタイミングを示すタイミングチャートである。 実施の形態2における第2描画装置が描画する映像フレームの一例を示す図である。 実施の形態2における第2描画装置が描画する映像フレームの別の例を示す図である。 実施の形態3における映像合成装置、第1描画装置、第2描画装置の構成を示すブロック図である。 実施の形態3における第1描画装置(映像合成装置)および第2描画装置の動作を示すフローチャートである。 実施の形態3における第1描画装置(映像合成装置)および第2描画装置の動作のタイミングを示すタイミングチャートである。 実施の形態4における映像合成装置、第1描画装置、第2描画装置の構成を示すブロック図である。 実施の形態4における映像合成装置、第1描画装置および第2描画装置の動作を示すフローチャートである。 実施の形態4における映像合成装置、第1描画装置および第2描画装置の動作のタイミングを示すタイミングチャートである。 実施の形態5における映像合成システムの概要を示す図である。
 以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
 図2は、複数の装置が描画するグラフィック映像を合成した場合の従来の合成画像の例を示す説明図である。例えば、装置Aが描画したグラフィック映像と装置Bが描画したグラフィック映像から図2(a)に示すような合成後の映像を得たい場合に、従来では、それぞれの装置A,Bから連続的に送られてくるアニメーションの変化のタイミングまで合わせることができずに、図2(b)や図2(c)に示すように、合成のタイミングがずれた映像になってしまうことがあった。
 そこで、この発明では、複数の描画装置が描画するグラフィック映像を合成して表示させる映像合成装置において、合成前のグラフィック映像を描画する描画装置に対して映像合成装置側からタイミング要求情報を送信し、映像合成装置が各描画装置からタイミングの合ったグラフィック映像を取得して合成して提示することができる映像合成装置および方法を提供する。
 図3は、この発明の実施の形態1における映像合成装置、第1描画装置、第2描画装置の構成を示すブロック図である。なお、この実施の形態1では、第1描画装置=映像合成装置であるものとする。
 第1描画装置(映像合成装置)1は、制御部11、通信部12、描画部13、映像入力部14、映像合成部15、表示出力部(表示部)16、操作部17を備えている。
 制御部11は、第1描画装置(映像合成装置)1の動作を制御するものであり、第1描画装置(映像合成装置)1による映像フレームの描画、第2描画装置2から受信した映像フレームと第1描画装置(映像合成装置)1による映像フレームの合成などを制御する。
 また、制御部11は、タイミング要求情報生成部10を備えている。
 このタイミング要求情報生成部10は、制御部11において、複数の描画装置が描画するグラフィック映像を合成するタイミングを指定するためのタイミング要求情報を生成する。具体的には、第2描画装置2における画面描画やフレームバッファを切り替えるタイミングを示すタイミング要求情報を生成する。
 通信部12は、動作の指示やその応答などを第2描画装置2と送受信する。すなわち、少なくともタイミング要求情報生成部10が生成したタイミング要求情報を、第2描画装置2に送信する。実現方式としては、例えば、シリアル通信、USB、無線LAN、Bluetooth(登録商標)などがある。
 描画部13は、画面に表示するためのグラフィック映像を描画する。この描画部13は複数(図3においては2つ)のフレームバッファを管理しており、このフレームバッファ(メモリ)にグラフィック映像を描画する。
 映像入力部14は、第2描画装置2からの映像フレーム(第2描画装置2から送信される当該描画装置2が描画したグラフィック映像)を周期的に受信する。映像フレームを受信する方法には、例えば、HDMI(登録商標/以下、記載を省略)、DVI、コンポジット、RGBなどがある。映像フレームを受信するための複数のフレームバッファ(メモリ)を持ち、これに受信した映像フレームを記録する。
 映像合成部15は、制御部11からの指示を受けて、描画部13で描画したグラフィック映像と映像入力部14が受け取った映像フレーム(グラフィック映像)を合成する。
 表示出力部16は、映像合成部15が合成した映像フレーム(グラフィック映像)を、ディスプレイ等へ出力し、表示する。
 操作部17は、ユーザからの操作を受け付ける。
 第2描画装置2は、制御部21、通信部22、描画部23、映像出力部24を備えている。
 制御部21は、第2描画装置2の動作を制御するものであり、第2描画装置2によるグラフィック映像の描画、第2描画装置2から第1描画装置(映像合成装置)1への映像フレームの送信などを制御する。
 通信部22は、動作の指示やその応答などを第1描画装置(映像合成装置)1と送受信する。
 描画部23は、画面に表示するためのグラフィック映像を描画する。
 映像出力部24は、第2描画装置2からの映像フレームを周期的に送信する。映像を受信する方法には、例えば、HDMI、コンポジットなどがある。
 次に、動作について、図4および図5を参照しながら説明する。
 図4は、実施の形態1における第1描画装置(映像合成装置)および第2描画装置の動作を示すフローチャートである。
 また、図5は、実施の形態1における第1描画装置(映像合成装置)および第2描画装置の動作のタイミングを示すタイミングチャートである。
 まず初めに、第1描画装置(映像合成装置)1の制御部11は、操作部17からユーザ操作のイベントを受け付ける(ステップST1)。次に、その受け付けたイベントから画面変更を判断し(ステップST2)、その画面変更を行うタイミング要求情報を生成する(ステップST3)。
 このタイミング要求情報とは、第1描画装置(映像合成装置)1と第2描画装置2による描画時間、映像フレーム伝送時間を考慮し、後述の画面合成を行う時間を示すものである。
 一般的に、第1描画装置(映像合成装置)1が画面を描画するに要する時間と、第2描画装置2が画面を描画し第1描画装置(映像合成装置)1へその画面イメージを伝送するに要する時間は異なるからである。
 すなわち、タイミング要求情報とは、第1描画装置(映像合成装置)1がどのタイミングで描画させたいかという情報を生成して、その情報を第2描画装置2へ送信するためのものであり、例えば、時刻による指定、通信部12による通信開始時刻からの経過時間による指定、映像フレーム番号による指定など、タイミングを明確に指定できるものであれば、いずれであってもよい。
 次に、第1描画装置(映像合成装置)1の制御部11から第2描画装置2の制御部21へ、通信部12および22を介して、ステップST3で生成したタイミング要求情報を含む画面変更要求を送信する(ステップST4)。
 次に、第1描画装置(映像合成装置)1の制御部11は、描画部13に画面を描画フレームバッファへ描画させる(ステップST5)。ここで、描画フレームバッファは複数あり、そのうちの1つへ描画するものとする。これは、一般的にダブルバッファリングやトリプルバッファリングなどと呼ばれる手法で、描画済みのフレームバッファと、描画中のフレームバッファを別に用意することで、表示のための映像出力と描画処理を並列して行うための手法である。
 その後、第1描画装置(映像合成装置)1は、ステップST3で生成したタイミング要求情報のタイミング(この実施の形態1では、その時間)まで待って、タイミング調整(図5に示す「タイミング調整X」参照)を行う(ステップST6)。すなわち、タイミング要求情報が時刻で指定されていた場合には、そのタイミング要求情報の示す時刻まで、映像合成の指示を遅延させる。
 第2描画装置2は、第1描画装置(映像合成装置)1から画面変更要求を受信すると(ステップST11)、描画部23により画面を描画フレームバッファへ描画する(ステップST12)。
 なお、ステップST11において第1描画装置(映像合成装置)1から受信する画面変更要求には、第1描画装置(映像合成装置)1がステップST3で生成したタイミング要求情報も含まれている。
 その後、第2描画装置2は、タイミング要求情報により指示された時刻から、映像フレーム伝送に要する時間を差し引いた時刻まで待って、タイミング調整(図5に示す「タイミング調整Y」参照)を行い(ステップST13)、その後、映像出力部24により出力する描画フレームバッファを切り替える(ステップST14)。
 映像出力部24は、周期的に描画フレームバッファから映像フレームを第1描画装置(映像合成装置)1の映像入力部14へ伝送する(ステップST15)。
 ここで、第1描画装置(映像合成装置)1の映像入力部14は、第2描画装置2の映像出力部24から映像フレームを受信し(ステップST16)、受信した映像フレームを、映像入力部14の入力フレームバッファへ格納する。
 そして、第1描画装置(映像合成装置)1の制御部11は、タイミング要求情報のタイミング(時刻)になると、すなわち、通信部12を介して第2描画装置2に送信されたタイミング要求情報と同じタイミングになったときに、映像合成部15に対してグラフィック映像の合成を指示する(ステップST17)。
 映像合成部15は、描画部13で新たに描画した描画フレームバッファと、映像入力部14で第2描画装置2から受信した入力フレームバッファを合成する(ステップST18)。合成された映像は表示出力部16により、ディスプレイなどへ出力され、表示される(ステップST19)。
 以上のように、この実施の形態1によれば、第1描画装置(映像合成装置)から第2描画装置へ、画面変更要求と共にタイミング要求情報を送信し、第1描画装置(映像合成装置)、第2描画装置ともにそれに合わせて、合成対象となるフレームバッファを切替えるタイミングを合わせることにより、複数の装置がそれぞれ描画したグラフィック映像をタイミングを合わせて合成し、表示することができる。
 この結果、複数の装置が描画するグラフィック映像が連続的に送られてくるフレーム数に違いがあるような場合であっても、アニメーションの変化のタイミングまで合わせて合成して表示させることができる。
 なお、この実施の形態1では、タイミング要求情報として、映像合成を開始する時刻を指定する場合を例として説明したが、映像入力部や映像出力部が周期的に伝送する映像フレーム番号などを指定して指示するようにしてもよい。
 また、前述のとおり、タイミング要求情報は、時刻でなくても、第1描画装置(映像合成装置)と第2描画装置間の映像伝送のフレーム番号や、通信部による通信開始の時刻からの経過時間など、第1描画装置(映像合成装置)と第2描画装置間でタイミングを共有できるものであれば、他の方法であっても構わない。
 なお、この実施の形態1では、ユーザ操作によってイベントを受け付けて画面変更する場合を例に説明したが、画面変更のトリガーとしては、他の機器から受信した状態変更イベントや、タイマーなど、他のイベントによるものとしてもよい。
実施の形態2.
 図6は、この発明の実施の形態2における映像合成装置、第1描画装置、第2描画装置の構成を示すブロック図である。また、この実施の形態2においても、実施の形態1と同様に第1描画装置=映像合成装置であるものとする。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
 以下に示す実施の形態2では、実施の形態1と比べると、第1描画装置(映像合成装置)1が、入力映像解析部18をさらに備え、第2描画装置2側の描画完了のタイミングに合わせて合成を行う点が異なる。
 入力映像解析部18は、映像入力部14が第2描画装置2から受信した映像フレーム(グラフィック映像)を解析し、その映像フレームが描画されたタイミングを示すタイミング情報を抽出する。
 この実施の形態2における動作について、図7および図8を参照しながら説明する。
 図7は、実施の形態2における第1描画装置(映像合成装置)および第2描画装置の動作を示すフローチャートである。
 また、図8は、実施の形態2における第1描画装置(映像合成装置)および第2描画装置の動作のタイミングを示すタイミングチャートである。
 ステップST21~ST22の処理については、実施の形態1の図4におけるステップST1~ST2と同じであるので、説明を省略する。
 また、その後、画面変更を行うタイミング要求情報を生成する(ステップST23)処理についても、ステップST3と同じである。
 ただし、この実施の形態2におけるタイミング要求情報は、実施の形態1のように画面合成を行う時刻を示すものではなく、映像フレーム番号であるものとして説明する。この場合、ステップST22において画面変更を判断した結果、画面変更を要求する映像フレーム番号を識別することによりタイミング要求情報を生成することができる。
 そして、第1描画装置(映像合成装置)1の制御部11から第2描画装置2の制御部21へ、通信部12および22を介して、ステップST23で生成したタイミング要求情報とともに、第2描画装置2が映像フレーム上のタイミング情報を描画する位置を指定するタイミング情報描画位置(詳細については後述する。図9、図10参照)を含む画面変更要求を送信する(ステップST24)。
 このタイミング情報を描画する位置は、第2描画装置2が描画した映像フレームにおいて、映像合成で用いられない領域から選択される。
 次に、第1描画装置(映像合成装置)1の制御部11は、描画部13に画面を描画フレームバッファへ描画させる(ステップST25)。
 その後、第1描画装置(映像合成装置)1は、タイミング要求情報に対応するタイミング情報の映像フレームを第2描画装置2から受信するまで待つ(詳細は後述する)。
 第2描画装置2は、第1描画装置(映像合成装置)1から画面変更要求を受信すると(ステップST31)、描画部23により画面を描画フレームバッファへ描画する(ステップST32)。
 さらに、描画フレームバッファ上のタイミング情報描画位置に、タイミング情報を描画する(ステップST33)。
 タイミング情報の描画方法としては、例えば次のようなものが考えられる。
(1)バーコードやQRコード(登録商標)など、画像解析が容易な2次元コード(図9、図10参照)をタイミング情報として描画する。これは、コンポジット方式など、アナログ形式で映像を伝送する場合に適している。
(2)文字形式(文字列)でタイミング情報を描画する。これは、人間が解読できるため、デバックなどが容易である。
(3)描画ID(バイナリ値)をそのままビットマップ画像に変換してタイミング情報として描画する。これは、HDMIなど、デジタルで映像フレームを伝送する場合に適しており、特別な変換は不要である。
(4)電子すかしなど、人間の目には見えないように映像フレームにタイミング情報を埋め込む。この場合には、図9や図10に示すように第2描画装置2の映像フレームの一部が欠けてしまうことがなく、第2描画装置2の映像フレームをすべて表示することも可能である。また、この場合には、タイミング情報描画位置を転送する必要はなく、映像フレームの右上や左上など、固定の位置にタイミング情報を描画してもよい。
 その後、第2描画装置2は、映像出力部24により出力する描画フレームバッファを切り替える(ステップST34)。
 映像出力部24は、周期的に描画フレームバッファから映像フレームを第1描画装置(映像合成装置)1の映像入力部14へ伝送する(ステップST35)。
 ここで、第1描画装置(映像合成装置)1の映像入力部14は、第2描画装置2の映像出力部24から映像フレームを受信し(ステップST36)、受信した映像フレームを、映像入力部14の入力フレームバッファへ格納する。
 次に、第1描画装置(映像合成装置)1の入力映像解析部18は、映像入力部が第2描画装置2から受信した映像フレーム(グラフィック映像)を解析し、通信部12を介して送信したタイミング情報描画位置に描画されているタイミング情報を取得する(ステップST37)。
 すなわち、解析対象とする映像フレーム内の位置は、第1描画装置(映像合成装置)1から第2描画装置2へ送信したタイミング情報描画位置である。そして、入力映像解析部18は、解析によって得られたタイミング情報を制御部11へ渡す。
 制御部11は、入力映像解析部18からタイミング情報を取得し(ステップST38)、その取得したタイミング情報が、ステップST24において第2描画装置2へ送信したタイミング要求情報と一致するか否か比較する(ステップST39)。
 そして、取得したタイミング情報がタイミング要求情報と一致した場合、すなわち、取得したタイミング情報がタイミング要求情報と同じタイミングになったとき(ステップST39のYESの場合)に、映像合成部15に対してグラフィック映像の合成を指示する(ステップST40)。一方、一致しない場合、すなわち、同じタイミングではないとき(ステップST39のNOの場合)には、タイミング要求情報と同じタイミングのタイミング情報を持った映像フレームを受信するまで待つ。
 その後、映像合成部15は、描画部13で新たに描画した描画フレームバッファと、映像入力部14で第2描画装置2から受信した入力フレームバッファを合成する(ステップST41)。合成された映像は表示出力部16により、ディスプレイなどへ出力され、表示される(ステップST42)。
 具体的には、例えば、第1描画装置(映像合成装置)1における描画が1秒間に60フレームで、第2描画装置2における描画が1秒間に30フレームであるなど、描画速度に差がある場合などに有効である。例えば、タイミング要求情報によるフレーム番号が10である場合に、第1描画装置(映像合成装置)1では既にフレーム番号10の映像フレームが描画されていたとしても、第2描画装置2から取得した映像フレームのタイミング情報がフレーム番号8である場合には、合成指示は行わず、タイミング情報がフレーム番号10である映像フレームを取得してから映像合成を行って表示する。
 図9は、実施の形態2における第2描画装置が描画する映像フレームの一例を示す図である。
 この図は、第1描画装置(映像合成装置)1が指定したタイミング情報描画位置Zに、タイミング情報3が描画されている状態を示している。
 また、図10は、実施の形態2における第2描画装置が描画する映像フレームの別の例を示す図である。
 図9に示す例では、タイミング情報描画位置Zにタイミング情報3を描画したが、タイミング情報3を映像フレームの固定位置(例えば左上)に描画し、代わりにその固定位置に描画するはずだった映像4をタイミング情報描画位置Zに描画するようにしてもよい。
 ここでは、映像フレームの左上にタイミング情報3を、本来映像フレームの左上にある映像4を、タイミング情報描画位置Zに描画している。
 この場合、映像フレーム解析処理では、タイミング情報の解析を常に固定位置(図10では左上)に対して行うようにすればよい。また、解析処理後、タイミング情報描画位置にある画像領域を、タイミング情報の位置にコピーすることで、以後の処理(映像合成)を同様に行うことができる。
 以上のように、この実施の形態2によれば、第1描画装置(映像合成装置)から第2描画装置へ、画面変更要求と共にタイミング要求情報とタイミング情報描画位置を送信し、第2描画装置から第1描画装置(映像合成装置)へ送信する映像フレーム内にタイミング情報を描画し、それを第1描画装置(映像合成装置)で解析することにより、第1描画装置(映像合成装置)からの要求に対応する映像フレームを受信したことを判断するとそのタイミングで映像を合成する。この構成により、第1描画装置(映像合成装置)と第2描画装置がそれぞれ描画したグラフィック映像を、タイミングを合わせて合成し、表示することができる。
 また、この方法では、第2描画装置側から第1描画装置(映像合成装置)側への映像フレーム上にタイミング情報を描画するため、映像フレーム伝送とタイミングを合わせてタイミング情報を送信するための特別な通信路を必要としないという特長がある。また、映像と合わせて通知するため、タイミングを正確に伝えることができる。
 例えば、第2描画装置の制御部は、PCやスマートフォン等の一般的なアプリケーションとして実装することも可能である。
実施の形態3.
 図11は、この発明の実施の形態3における映像合成装置、第1描画装置、第2描画装置の構成を示すブロック図である。また、この実施の形態3においても、実施の形態1,2と同様に第1描画装置=映像合成装置であるものとする。なお、実施の形態1,2で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。また、処理についても、実施の形態2と同様の部分については図示および説明を省略し、実施の形態2と異なる部分についてのみ説明する。
 実施の形態2では、タイミング情報描画位置を、第1描画装置(映像合成装置)1から第2描画装置2へ送信したが、この実施の形態3は、タイミング情報描画位置を第2描画装置2側で決定し、第2描画装置2から第1描画装置(映像合成装置)1へ送信するよう構成したものである。
 図11に示すブロック図(システム構成図)は、実施の形態2の図6に示すブロック図(システム構成図)とほぼ同じであるが、第1描画装置(映像合成装置)1の制御部11、通信部12、第2描画装置2の制御部21、通信部22の通信方向が双方向である点が異なる。
 この実施の形態3における動作について、図12および図13を参照しながら説明する。
 図12は、実施の形態3における第1描画装置(映像合成装置)および第2描画装置の動作を示すフローチャートである。
 また、図13は、実施の形態3における第1描画装置(映像合成装置)および第2描画装置の動作のタイミングを示すタイミングチャートである。
 動作について、実施の形態2と比較した場合の相違点は、ステップST54において第1描画装置(映像合成装置)1から第2描画装置2へ送信される画面変更要求にタイミング情報描画位置が含まれず、代わりにタイミング情報描画位置が第2描画装置2から第1描画装置(映像合成装置)1へ送信される点のみである。
 すなわち、ステップST51~ST54およびST61は、実施の形態2の図7におけるステップST21~ST24およびST31と同じであるが、第2描画装置2は、画面変更要求を受信すると、タイミング情報描画位置を決めて第1描画装置(映像合成装置)1へ送信する(ステップST62)。
 これは、第2描画装置2側で、映像に使用しない位置がわかるため、そこにタイミング情報を描画して送信することを、第1描画装置(映像合成装置)に伝えるものである。
 第1描画装置(映像合成装置)1は、このタイミング情報描画位置を第2描画装置2から受信して(ステップST55)、タイミング情報の比較の際に、その位置に描画されている情報と、ステップST53で生成したタイミング要求情報とを比較する(ステップST70参照)。
 なお、ステップST56、ステップST63~ST73については、上述のとおりステップST70でタイミング情報を比較する際にタイミング情報が描画されている位置が実施の形態2とは異なるのみであり、その他の動作については、実施の形態2の図7におけるステップST25およびステップST32~ST42と同じであるので、説明を省略する。
 この実施の形態3においても、実施の形態2と同様の効果を得ることができる。
実施の形態4.
 図14は、この発明の実施の形態4における映像合成装置、第1描画装置、第2描画装置の構成を示すブロック図である。なお、実施の形態1~3で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
 実施の形態1~3はいずれも、第1描画装置=映像合成装置であるものとして説明したが、この実施の形態4では、2つの画面描画と、映像合成とを、それぞれ別々の装置で行うように構成する。すなわち、例えば2つの描画装置が接続されているサーバを映像合成装置として使用する場合などに、この実施の形態4を適用することができる。
 なお、この実施の形態4では、実施の形態2の第1描画装置(映像合成装置)1を、別々の装置である第1描画装置200と映像合成装置100とに分けた場合を例に説明するが、実施の形態1または3に対応する構成について、第1描画装置(映像合成装置)1を、別々の装置である第1描画装置200と映像合成装置100とに分けてもよいことは言うまでもない。
 第2描画装置2は、実施の形態1~3における第2描画装置2と同様である。また、第1描画装置200は、第2描画装置2と同様の構成である。
 映像合成装置100は、実施の形態2における第1描画装置(映像合成装置)1から描画部13を取り除き、かつ、映像入力部と入力映像解析部が第1描画装置200と第2描画装置2それぞれについて備えられている点が異なる。
 すなわち、この実施の形態4における映像合成装置100は、制御部101、通信部102、第1映像入力部141、第2映像入力部142、映像合成部105、表示出力部(表示部)16、操作部17、第1入力映像解析部181、第2入力映像解析部182を備えている。
 制御部101は、映像合成装置100の動作を制御するものであり、第1描画装置200および第2描画装置2から受信した映像フレームの合成などを制御する。また、制御部11は、タイミング要求情報生成部10を備えている。
 通信部102は、動作の指示やその応答などを第1描画装置200および第2描画装置2と送受信する。
 第1映像入力部141および第2映像入力部142はそれぞれ、第1描画装置200および第2描画装置2からの映像フレームを周期的に受信する。
 第1入力映像解析部181および第2入力映像解析部182はそれぞれ、第1映像入力部141および第2映像入力部142が受信した映像フレームを解析し、タイミング情報を検出する。
 映像合成部105は、第1映像入力部141および第2映像入力部142の映像フレームを合成する。
 表示出力部16は、映像合成部105の映像フレームをディスプレイ等へ出力し、表示する。
 操作部17は、ユーザからの操作を受け付ける。
 次に、この実施の形態4における動作について、図15および図16を参照しながら説明する。
 図15は、実施の形態4における映像合成装置、第1描画装置および第2描画装置の動作を示すフローチャートである。
 また、図16は、実施の形態4における映像合成装置、第1描画装置および第2描画装置の動作のタイミングを示すタイミングチャートである。
 ステップST81~ST83の処理については、実施の形態2の図7におけるステップST21~ST23と同じであるので、説明を省略する。
 そして、映像合成装置100の制御部101から第1描画装置200の制御部201および第2描画装置2の制御部21へ、通信部102および通信部202,22を介して、ステップST83で生成したタイミング要求情報と、第1描画装置200および第2描画装置2が映像フレーム上のタイミング情報を描画するタイミング情報描画位置を含む画面変更要求を送信する(ステップST84)。
 その後、映像合成装置100は、タイミング要求情報に対応するタイミング情報の映像フレームを第1描画装置200および第2描画装置2から受信するまで待つ(詳細は後述する)。
 第1描画装置200および第2描画装置2はそれぞれ、映像合成装置100から画面変更要求を受信すると(ステップST91A,ST91B)、描画部203および描画部23により画面を描画フレームバッファへ描画する(ステップST92A,ST92B)。
 さらに、描画フレームバッファ上のタイミング情報描画位置に、タイミング情報を描画する(ステップST93A,ST93B)。
 その後、第1描画装置200および第2描画装置2はそれぞれ、映像出力部204および映像出力部24により出力する描画フレームバッファを切り替える(ステップST94A,ST94B)。
 映像出力部204および映像出力部24はそれぞれ、周期的に描画フレームバッファから映像フレームを映像合成装置100の第1映像入力部141および第2映像入力部142へ伝送する(ステップST95A,ST95B)。
 ここで、映像合成装置100の映像入力部141および第2映像入力部142はそれぞれ、第1描画装置の映像出力部204および第2描画装置2の映像出力部24から映像フレームを受信し(ステップST96A,ST96B)、受信した映像フレームを、第1映像入力部141および第2映像入力部142の入力フレームバッファへ格納する。
 次に、映像合成装置100の第1入力映像解析部181および第2入力映像解析部182は、第1映像入力部141および第2映像入力部142が受信した映像フレーム(グラフィック映像)をそれぞれ解析し、通信部12を介して送信したタイミング情報描画位置に描画されているタイミング情報を取得する(ステップST97A,ST97B)。
 すなわち、解析対象とする映像フレーム内の位置は、映像合成装置100から第1描画装置200および第2描画装置2へ送信したタイミング情報描画位置である。そして、第1入力映像解析部181および第2入力映像解析部182は、解析によって得られたタイミング情報を制御部101へ渡す。
 制御部101は、第1入力映像解析部181および第2入力映像解析部182からタイミング情報を取得し(ステップST98)、その取得したタイミング情報が、ステップST84において第1描画装置200および第2描画装置2へ送信したタイミング要求情報と一致するか否か比較する(ステップST99)。
 そして、第1描画装置200から受信したタイミング情報と第2描画装置2から受信したタイミング情報の両方がタイミング要求情報と一致した場合、すなわち、取得したタイミング情報がタイミング要求情報と同じタイミングになったとき(ステップST99のYESの場合)に、映像合成部105に対してグラフィック映像の合成を指示する(ステップST100)。一方、一致しない場合、すなわち、同じタイミングではないとき(ステップST99のNOの場合)には、タイミング要求情報と同じタイミングのタイミング情報を持った映像フレームを受信するまで待つ。
 その後、映像合成部105は、第1映像入力部141で第1描画装置200から受信した入力フレームバッファと、第2映像入力部142で第2描画装置2から受信した入力フレームバッファを合成する(ステップST101)。合成された映像は表示出力部16により、ディスプレイなどへ出力され、表示される(ステップST102)。
 以上のように、この実施の形態4によれば、映像合成装置から第1描画装置および第2描画装置へ、画面変更要求と共にタイミング要求情報とタイミング情報描画位置を送信し、第1描画装置および第2描画装置から映像合成装置へ送信する映像フレーム内にタイミング情報を描画し、それを映像合成装置で解析することにより、映像合成装置からの要求に対応する映像フレームを受信したことを判断するとそのタイミングで映像を合成する。この構成により、第1描画装置と第2描画装置がそれぞれ描画したグラフィック映像を、映像合成装置によりタイミングを合わせて合成し、表示することができる。
 また、この方法では、第1描画装置および第2描画装置から映像合成装置側への映像フレーム上にタイミング情報を描画するため、映像フレーム伝送とタイミングを合わせてタイミング情報を送信するための特別な機構を必要としないという特長がある。
実施の形態5.
 以上の実施の形態1~4では、この発明における映像合成装置が、表示出力部(表示部)16を備えるものとして説明したが、この映像合成装置を、映像合成システムのサーバに適用したり、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされる映像合成システムのアプリケーション等にも適用して、表示装置に出力するようにしてもよい。
 図17は、この発明の実施の形態5における映像合成システムの概要を示す図である。この映像合成システムは、例えばディスプレイ・オーディオ等の表示機能のみを有する表示装置300が、スマートフォンなどの携帯情報端末301およびサーバ302の少なくとも一方と連携して映像合成処理を行ったり、スマートフォンなどの携帯情報端末301およびサーバ302の少なくとも一方が映像合成処理を行い、表示装置300に合成映像を表示させる等、様々な形態をとることができる。
 この実施の形態5では、サーバ302が映像合成処理を行い、その合成映像を表示装置300に表示させることによりユーザに提供する場合、および、携帯情報端末301がサーバ302と連携して映像合成処理を行い、その合成映像を表示装置300に表示させることによりユーザに提供する場合について説明する。
 まず、サーバ302が映像合成処理を行い、その認識結果を表示装置300に表示させる場合について説明する。
 この構成においては、表示装置300がサーバ302と直接通信するか、または、表示装置300が携帯情報端末301を経由してサーバ302と通信する場合が考えられる。サーバ302は、上記実施の形態1~4で説明した映像合成装置として機能する。
 この場合、表示装置300は、サーバ302により合成された合成映像をユーザに提供するための表示出力部(表示部)16の機能および通信機能のみを有し、サーバ302により合成された合成映像を受信してユーザに提供する。
 このように構成しても、実施の形態1~4と同様の効果を得ることができる。
 また、携帯情報端末301がサーバ302と連携して映像合成処理を行い、その合成映像を表示装置300がユーザに提供する場合について説明する。
 この構成においては、表示装置300が携帯情報端末301を経由してサーバ302と通信する場合が考えられ、携帯情報端末301のアプリケーションが、サーバ302と連携して映像合成処理を行う。
 この場合にも、表示装置300は、基本的に表示機能および通信機能のみを有し、携帯情報端末301とサーバ302との連携により合成された合成映像を受信してユーザに提供する。
 すなわち、携帯情報端末301のアプリケーションにより、複数の描画装置で描画されたグラフィック映像を合成した合成映像を表示装置300に表示させる。
 このように構成しても、実施の形態1~4と同様の効果を得ることができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明の映像合成装置は、複数の装置が描画するグラフィック映像が連続的に送られてくるフレーム数に違いがあるような場合であっても適用することができ、アニメーションの変化のタイミングまで合わせて合成して表示させることができる。
 1 第1描画装置(映像合成装置)、2 第2描画装置、3 タイミング情報、4 タイミング情報が描画される位置に表示されるべき描画情報、10 タイミング要求情報生成部、11,21,101,201 制御部、12,22,102,202 通信部、13,23,203 描画部、14 映像入力部、15,105 映像合成部、16 表示出力部(表示部)、17 操作部、18 入力映像解析部、24,204 映像出力部、100 映像合成装置、141 第1映像入力部、142 第2映像入力部、181 第1入力映像解析部、182 第2入力映像解析部、300 表示装置、301 携帯情報端末、302 サーバ。

Claims (8)

  1.  複数の描画装置が描画するグラフィック映像を合成して表示させる映像合成装置において、
     前記映像合成装置の動作を制御する制御部と、
     前記複数の描画装置が描画するグラフィック映像を合成するタイミングを指定するためのタイミング要求情報を生成するタイミング要求情報生成部と、
     前記タイミング要求情報生成部が生成したタイミング要求情報を前記複数の描画装置に送信する通信部と、
     前記複数の描画装置から送信される当該描画装置が描画したグラフィック映像を受け取る映像入力部と、
     前記制御部からの指示を受けて、前記映像入力部が受け取ったグラフィック映像を合成する映像合成部と、
     前記映像合成部が合成したグラフィック映像を表示させる表示出力部とを備え、
     前記制御部は、前記通信部を介して前記複数の描画装置に送信された前記タイミング要求情報と同じタイミングになったときに、前記映像合成部に対して前記グラフィック映像の合成を指示する
     ことを特徴とする映像合成装置。
  2.  前記映像入力部が前記複数の描画装置から受け取ったグラフィック映像を解析し、当該グラフィック映像が描画されたタイミングを示すタイミング情報を抽出する入力映像解析部をさらに備え、
     前記通信部は、前記タイミング要求情報とともに、前記タイミング情報を描画する位置を指定するタイミング情報描画位置を、前記複数の描画装置に対して送信し、
     前記入力映像解析部は、前記映像入力部が前記複数の描画装置から受け取ったグラフィック映像から、前記通信部が送信したタイミング情報描画位置に描画されているタイミング情報を取得し、
     前記制御部は、前記入力映像解析部が取得したタイミング情報が前記タイミング要求情報と同じタイミングになったときに、前記映像合成部に対して前記グラフィック映像の合成を指示する
     ことを特徴とする請求項1記載の映像合成装置。
  3.  前記映像入力部が前記複数の描画装置から受け取ったグラフィック映像を解析し、当該グラフィック映像が描画されたタイミングを示すタイミング情報を抽出する入力映像解析部をさらに備え、
     前記通信部は、前記複数の描画装置から、前記タイミング情報を描画する位置を指定するタイミング情報描画位置を受信し、
     前記入力映像解析部は、前記映像入力部が前記複数の描画装置から受け取ったグラフィック映像から、前記通信部が受信したタイミング情報描画位置に描画されているタイミング情報を取得し、
     前記制御部は、前記入力映像解析部が取得したタイミング情報が前記タイミング要求情報と同じタイミングになったときに、前記映像合成部に対して前記グラフィック映像の合成を指示する
     ことを特徴とする請求項1記載の映像合成装置。
  4.  前記複数の描画装置のうちの1つは、前記映像合成装置の内部に含まれていることを特徴とする請求項1記載の映像合成装置。
  5.  前記タイミング要求情報は、時刻、前記通信部による通信開始時刻からの経過時間、映像フレーム番号のいずれかであることを特徴とする請求項1記載の映像合成装置。
  6.  前記グラフィック映像に描画されているタイミング情報は、2次元コード、文字列、バイナリ値、電子すかしのいずれかであることを特徴とする請求項2記載の映像合成装置。
  7.  複数の描画装置が描画するグラフィック映像を合成して表示装置に表示させる映像合成装置において、
     前記映像合成装置の動作を制御する制御部と、
     前記複数の描画装置が描画するグラフィック映像を合成するタイミングを指定するためのタイミング要求情報を生成するタイミング要求情報生成部と、
     前記タイミング要求情報生成部が生成したタイミング要求情報を前記複数の描画装置に送信する通信部と、
     前記複数の描画装置から送信される当該描画装置が描画したグラフィック映像を受け取る映像入力部と、
     前記制御部からの指示を受けて、前記映像入力部が受け取ったグラフィック映像を合成する映像合成部とを備え、
     前記制御部は、前記通信部を介して前記複数の描画装置に送信された前記タイミング要求情報と同じタイミングになったときに、前記映像合成部に対して前記グラフィック映像の合成を指示する
     ことを特徴とする映像合成装置。
  8.  映像合成装置が、複数の描画装置が描画するグラフィック映像を合成して表示装置に表示させる映像合成方法であって、
     タイミング要求情報生成部が、前記複数の描画装置が描画するグラフィック映像を合成するタイミングを指定するためのタイミング要求情報を生成するステップと、
     通信部が、前記タイミング要求情報生成部が生成したタイミング要求情報を前記複数の描画装置に送信するステップと、
     映像入力部が、前記複数の描画装置から送信される当該描画装置が描画したグラフィック映像を受け取るステップと、
     映像合成部が、前記映像合成装置の動作を制御する制御部からの指示を受けて、前記映像入力部が受け取ったグラフィック映像を合成するステップと、
     前記制御部が、前記通信部を介して前記複数の描画装置に送信された前記タイミング要求情報と同じタイミングになったときに、前記映像合成部に対して前記グラフィック映像の合成を指示するステップと
     を備えたことを特徴とする映像合成方法。
PCT/JP2013/063819 2013-05-17 2013-05-17 映像合成装置および方法 WO2014184956A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112013007092.8T DE112013007092B4 (de) 2013-05-17 2013-05-17 Bildsynthetisiervorrichtung und Verfahren
JP2015516863A JP5881897B2 (ja) 2013-05-17 2013-05-17 映像合成装置および方法
CN201380076684.7A CN105229722B (zh) 2013-05-17 2013-05-17 视频合成装置及方法
PCT/JP2013/063819 WO2014184956A1 (ja) 2013-05-17 2013-05-17 映像合成装置および方法
US14/787,442 US20160078664A1 (en) 2013-05-17 2013-05-17 Image synthesizing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/063819 WO2014184956A1 (ja) 2013-05-17 2013-05-17 映像合成装置および方法

Publications (1)

Publication Number Publication Date
WO2014184956A1 true WO2014184956A1 (ja) 2014-11-20

Family

ID=51897961

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/063819 WO2014184956A1 (ja) 2013-05-17 2013-05-17 映像合成装置および方法

Country Status (5)

Country Link
US (1) US20160078664A1 (ja)
JP (1) JP5881897B2 (ja)
CN (1) CN105229722B (ja)
DE (1) DE112013007092B4 (ja)
WO (1) WO2014184956A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017101303A1 (zh) * 2015-12-15 2017-06-22 乐视控股(北京)有限公司 一种视频画面的绘制方法及装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078485B2 (en) * 2015-03-13 2018-09-18 Kabushiki Kaisha Toshiba Display apparatus and display system
JP7048256B2 (ja) * 2017-10-27 2022-04-05 古野電気株式会社 船舶情報表示装置及び船舶情報表示方法
KR20220018849A (ko) * 2020-08-07 2022-02-15 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR20220056404A (ko) * 2020-10-28 2022-05-06 삼성전자주식회사 디스플레이장치 및 그 제어방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133936A (ja) * 1997-10-31 1999-05-21 Mitsubishi Electric Corp 画像合成装置
JP2003299046A (ja) * 2002-04-05 2003-10-17 Nippon Telegr & Teleph Corp <Ntt> 映像伝送装置及び方法並びにプログラム及び記録媒体
JP2003316347A (ja) * 2002-04-25 2003-11-07 Toshiba Corp 情報処理装置の表示制御装置および複数画像データの合成方法
JP2013125141A (ja) * 2011-12-14 2013-06-24 Sony Corp 表示装置、表示方法、送信装置および送信方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3796776B2 (ja) * 1995-09-28 2006-07-12 ソニー株式会社 映像音声再生装置
JP3832895B2 (ja) * 1996-05-28 2006-10-11 キヤノン株式会社 画像合成装置及び画像合成システム
JP2940545B1 (ja) 1998-05-28 1999-08-25 日本電気株式会社 画像変換方法および画像変換装置
JP3090709U (ja) * 2002-06-13 2002-12-26 船井電機株式会社 放送記録装置
JP4161770B2 (ja) 2003-04-01 2008-10-08 ソニー株式会社 データ合成装置およびデータ合成方法
JP5108877B2 (ja) 2007-05-08 2012-12-26 パナソニック株式会社 表示装置
KR100924687B1 (ko) * 2007-12-15 2009-11-03 한국전자통신연구원 올라타기 동작을 이용한 이동 동작 애니메이션 제작 시스템및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133936A (ja) * 1997-10-31 1999-05-21 Mitsubishi Electric Corp 画像合成装置
JP2003299046A (ja) * 2002-04-05 2003-10-17 Nippon Telegr & Teleph Corp <Ntt> 映像伝送装置及び方法並びにプログラム及び記録媒体
JP2003316347A (ja) * 2002-04-25 2003-11-07 Toshiba Corp 情報処理装置の表示制御装置および複数画像データの合成方法
JP2013125141A (ja) * 2011-12-14 2013-06-24 Sony Corp 表示装置、表示方法、送信装置および送信方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017101303A1 (zh) * 2015-12-15 2017-06-22 乐视控股(北京)有限公司 一种视频画面的绘制方法及装置

Also Published As

Publication number Publication date
DE112013007092T5 (de) 2016-01-28
DE112013007092B4 (de) 2018-06-14
CN105229722B (zh) 2017-10-10
US20160078664A1 (en) 2016-03-17
JPWO2014184956A1 (ja) 2017-02-23
CN105229722A (zh) 2016-01-06
JP5881897B2 (ja) 2016-03-09

Similar Documents

Publication Publication Date Title
US11222410B2 (en) Image display apparatus
JP5881897B2 (ja) 映像合成装置および方法
CN108510929B (zh) 一种显示装置及其控制方法
US20140285505A1 (en) Image processing apparatus and image display system
US20170344330A1 (en) Multi-display device
US20190037100A1 (en) Image processing device, image processing method, and program
US10868968B2 (en) Display apparatus and control method thereof
US20230209126A1 (en) Display device and operating method therefor
US20140198115A1 (en) Image processing apparatus and control method thereof
JP5408906B2 (ja) 画像処理装置
JP2012212061A (ja) マルチディスプレイ装置
US7509442B2 (en) Informational-signal-processing apparatus, functional block, and method of controlling the functional block
JP6422620B2 (ja) 表示制御装置、表示制御方法及び表示制御プログラム
JP5765963B2 (ja) 画像処理装置および画像処理方法
JP2018007133A (ja) 画像処理装置とその制御方法及びプログラム
JP5890688B2 (ja) 情報処理装置、制御方法及びプログラム
US8279207B2 (en) Information processing apparatus, information processing method, and program
US9118955B2 (en) Stereo image handling device and method
JP2005322233A (ja) 大型のオーバーレイされたカメラ画像を圧縮符号化するためのメモリ効率の良い方法及び装置
JP5669456B2 (ja) 画像表示装置及びその制御方法
JP2007201816A (ja) 映像表示システム及び映像受信装置
US8677407B2 (en) Image display apparatus and method for controlling the same
JP2022028978A (ja) 映像処理装置、表示装置、および映像処理方法
JP2005086822A (ja) ビデオ・データおよびグラフィックス・データ処理用装置
JP2015171041A (ja) 映像表示装置、映像受信装置及び映像送信装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380076684.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13884922

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015516863

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14787442

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112013007092

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13884922

Country of ref document: EP

Kind code of ref document: A1