WO2015163251A1 - 画像出力装置、画像出力方法、および記録媒体 - Google Patents

画像出力装置、画像出力方法、および記録媒体 Download PDF

Info

Publication number
WO2015163251A1
WO2015163251A1 PCT/JP2015/061807 JP2015061807W WO2015163251A1 WO 2015163251 A1 WO2015163251 A1 WO 2015163251A1 JP 2015061807 W JP2015061807 W JP 2015061807W WO 2015163251 A1 WO2015163251 A1 WO 2015163251A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
output
information
unit
image output
Prior art date
Application number
PCT/JP2015/061807
Other languages
English (en)
French (fr)
Inventor
近藤 哲二郎
Original Assignee
アイキューブド研究所株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイキューブド研究所株式会社 filed Critical アイキューブド研究所株式会社
Priority to EP15783362.5A priority Critical patent/EP3136716B1/en
Priority to KR1020167029695A priority patent/KR102364409B1/ko
Priority to CN201580021243.6A priority patent/CN106233715B/zh
Priority to US15/305,744 priority patent/US20170048483A1/en
Publication of WO2015163251A1 publication Critical patent/WO2015163251A1/ja
Priority to US15/816,806 priority patent/US20180077379A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/32Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00129Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a display device, e.g. CRT or LCD monitor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0428Gradation resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0082Image hardcopy reproducer

Definitions

  • the present invention relates to an image output device that outputs an image.
  • Patent Document 1 Conventionally, there has been an image processing apparatus that generates a higher-quality second moving image from a first moving image (see, for example, Patent Document 1).
  • the image output device is the same as the first band or the first band by using the first image information and the receiving unit that receives the first image information that is information related to the first image of the first band.
  • a plurality of image output units that output a second image that is an image in a second band narrower than the first band, and a third image that is a result of output from each of the plurality of image output units is compared with the first image
  • the image output apparatus is an image that has been subjected to output control so as to be spatially, temporally, or gradation wide.
  • the image output apparatus is the image output apparatus according to the second aspect, wherein the third image is an image zoomed, panned or tilted with respect to the first image, or a slow motion with respect to the first image And an image output device that is an image in which a gradation of a part of the first image is expanded.
  • the reception unit receives an instruction for output control, and at least one of the plurality of image output units. Is an image output device that performs output control of the second image in accordance with the instruction.
  • the image output device of the fourth invention is an image output device in which the image output unit optically outputs the second image with respect to any one of the first to third inventions.
  • the image output device is an image output device for printing the second image with respect to any one of the first to third aspects of the invention.
  • the image output device of the sixth aspect of the invention relates to any one of the first to fifth aspects of the invention by associating at least one image output unit among the plurality of image output units with the position of the image output unit.
  • the image output apparatus further includes one or more drive units capable of changing the above.
  • the image output apparatus is an image output apparatus according to the sixth aspect, wherein the drive unit changes at least one image output unit to a different position in accordance with an instruction for output control. .
  • the image output apparatus of the present invention it is possible to realize output of a wideband image having a new value for the user in a narrowband.
  • Block diagram of image output apparatus 1 according to Embodiment 1 Block diagram of the image output apparatus 1 having the other configuration
  • a flowchart for explaining the operation of the image output apparatus 1 Block diagram of the specific image output apparatus 1 Block diagram of the specific image output apparatus 1 Block diagram of the specific image output apparatus 1 Block diagram of the specific image output apparatus 1 Block diagram of the specific image output apparatus 1 Block diagram of the specific image output apparatus 1 Block diagram of the specific image output apparatus 1 Block diagram of the specific image output apparatus 1 Block diagram of the specific image output apparatus 1
  • Conceptual diagram of an image output apparatus 1 in which the projector is arranged on a movable shelf Conceptual diagram of the projection range of the multiple projectors Conceptual diagram of the projection range of the multiple projectors Conceptual diagram where the projectors are arranged on a movable shelf
  • Conceptual diagram of the projection range of the multiple projectors Conceptual diagram of image output apparatus 1 in which the projector is supported by an arm
  • Conceptual diagram of the projection range of the multiple projectors Conceptual diagram of image output apparatus 1 in which the projector
  • an image output apparatus including a plurality of image output units that receive a first image in a first band and output a second image in a second band will be described.
  • the 3rd image which is the result which the said several image output part output is an image of a 3rd zone
  • the second band is the same band as the first band or a narrower band than the first band.
  • control unit determines an image to be given to each of the plurality of image output units, and each of the plurality of image output units outputs the determined image.
  • an image output apparatus in which the image output unit optically outputs the second image will be described. Further, in the present embodiment, images output from two or more image output units overlap at least partially, when the output positions of some image output units 13 are shifted with a predetermined accuracy, etc. An image output apparatus that devises a method of outputting a second image of two or more image output units will be described.
  • an image output apparatus having a mechanism for performing image processing such as resolution creation on an image in association with each image output unit will be described.
  • an image output apparatus that includes a drive unit and can move the position of the image output unit will be described.
  • the drive unit may be moved by hand or may be moved by the control unit.
  • a first image received in the first band and a third image that is an output-controlled image that is spatially, temporally, or gradationally widened are output.
  • the image output apparatus to be performed will be described.
  • an image output apparatus that realizes zoom, pan, tilt, slow motion, or multi-gradation with respect to an accepted image by output control will be described.
  • FIG. 1 is a block diagram of the image output apparatus 1 in the present embodiment.
  • the image output device 1 includes a reception unit 11, a control unit 12, and a plurality of image output units 13.
  • the image output unit 13 includes an image processing unit 131 and an image output unit 132. Note that the image output unit 13 may not include the image processing unit 131.
  • the reception unit 11 constituting the image output device 1 receives the first image information.
  • the first image information is information related to the first image in the first band.
  • the first image information may be a first image, a trigger signal of the first image, or the like.
  • the first image is, for example, a high-vision image, a 4K image, an 8K image, or the like.
  • An image such as the first image is usually a video having two or more still images. However, the image such as the first image may be a still image.
  • the trigger signal of the first image is information acquired from the first image information, and is obtained by extracting significant information from the first image.
  • the trigger signal for the first image is, for example, information obtained by compressing the first image, information obtained by sub-sampling the first image, or the like.
  • the bandwidth is generally equivalent to the amount of information. That is, a broadband image is usually an image with a large amount of information. A narrow-band image is usually an image with a small amount of information.
  • the bandwidth may be referred to as a data amount.
  • Japanese Patent Application No. 2012-184921 discloses a process for converting received first image information (for example, 4K image) into an HD band trigger signal. Further, the reception unit 11 may be considered to include a receiving unit that receives the first image information.
  • the accepting unit 11 may accept a change instruction for changing the position of the image output unit 13.
  • the change instruction usually includes information for specifying a position to be changed.
  • the change instruction may include operation and control information for changing the position.
  • the change instruction may include information for specifying the image output unit 13 whose position is to be changed.
  • the accepting unit 11 may accept an instruction for output control.
  • the output control instruction includes, for example, an instruction to zoom the output third image, an instruction to pan the output third image, an instruction to tilt the output third image, and a third image.
  • panning is a technique for shooting a video that shakes the camera left and right
  • an instruction to pan is an instruction to output a third image so that the image is as if the camera is shaken left and right
  • tilt is a technique for photographing a video in which the camera is shaken up and down
  • an instruction to tilt is an instruction to output a third image so that the image is as if the camera is shaken up and down.
  • the instruction to extend a part of the gradation of the third image is to extend the gradation of a part of the pixels constituting the image with respect to the input image, and output the image to obtain the third image.
  • the accepting unit 11 may be considered to include instruction accepting means for accepting instructions such as the change instruction and the output control instruction.
  • reception refers to reception of images transmitted via wired or wireless communication lines, reception of broadcast images, reception of information read from recording media such as optical disks, magnetic disks, and semiconductor memories.
  • the concept includes reception of information input from an input device such as a keyboard, a mouse, or a touch panel.
  • the accepting unit 11 can be realized by a wired or wireless communication means, a broadcast receiving means, or the like.
  • the reception unit 11 can be realized by a device driver for input means such as a keyboard and a remote controller, control software for a menu screen, and the like.
  • the control unit 12 determines information to be given to each of the plurality of image output units 13.
  • the information is an image or a trigger signal.
  • the control unit 12 is an image using the first image information received by the receiving unit 11 and determines an image to be given to each of the plurality of image output units 13.
  • the control unit 12 determines an image to be given to each of the plurality of image output units 13 so that the third image that is a result of the output of the second image by each of the plurality of image output units 13 becomes an image assumed in advance.
  • the image using the first image information is, for example, a part of the first image.
  • the control unit 12 determines an image to be given to each of the plurality of image output units 13 in order to give a part of the first image received by the reception unit 11 to the plurality of image output units 13, for example. For example, the control unit 12 divides the first image received by the receiving unit 11, and gives the obtained two or more first divided images to the plurality of image output units 13.
  • the control unit 12 cuts out the first image corresponding to the region and outputs the obtained first divided image as the image output Part 13 is given.
  • the control unit 12 may perform a predetermined process on the first image information received by the receiving unit 11.
  • the predetermined process is, for example, a process of acquiring a trigger signal from the first image information received by the receiving unit 11.
  • the first image information received by the receiving unit 11 is a 4K image, an 8K image, or the like, and the control unit 12 acquires an HD band trigger signal from the first image information, for example.
  • the control unit 12 instructs the drive unit 14 to change the position or direction of the image output unit 13, or the position and direction, for example, according to the change instruction received by the reception unit 11.
  • the control unit 12 instructs the drive unit 14 to perform an optical operation of the image output unit 13 according to the change instruction received by the reception unit 11, for example.
  • the optical operation includes, for example, enlargement / reduction and focus adjustment by a zoom lens provided in the image output unit 13, and a change operation of a projection position by changing the direction of a mirror installed in front of the lens. is there.
  • control unit 12 may instruct the plurality of projectors 132 such that the plurality of projectors 132 output the second image with a predetermined accuracy.
  • the predetermined accuracy is usually a shift of less than one pixel, but may be a shift of non-integer pixel accuracy of one pixel or more, such as 1.5 pixels, 2.8 pixels.
  • control unit 12 instructs the image output unit 13 to output the second image in accordance with the output control instruction received by the receiving unit 11.
  • the control unit 12 When the output control instruction received by the reception unit 11 is zoom, the control unit 12 outputs a second image to each of the plurality of image output units 13 according to the zoom area information included in the output control instruction. Information is acquired, and the acquired information is passed to each image output unit 13.
  • the control unit 12 may include a pan or tilt position information group or pan or tilt movement information included in the output control instruction. Accordingly, information about the second image to be output is acquired for each of the plurality of image output units 13, and the acquired information is passed to each image output unit 13.
  • the control unit 12 when the output control instruction received by the reception unit 11 is a slow motion instruction, the control unit 12 has a plurality of image output units 13 at a speed according to information indicating the degree of slow motion included in the instruction. Instructs the plurality of image output units 13 to output the second image.
  • control unit 12 may instruct the drive unit 14 to change the position and direction of the image output unit 13 in accordance with the output control instruction received by the reception unit 11. For example, it goes without saying that the position change instruction issued by the drive unit 14 to the image output unit 13 differs depending on whether the output control instruction is zoom or slow motion.
  • the control unit 12 can be usually realized by an MPU, a memory, or the like.
  • the processing procedure of the control unit 12 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • Each of the plurality of image output units 13 outputs a second image.
  • the second image is, for example, an image of a partial region of the first image corresponding to the first image information.
  • the second image is, for example, a partial time image of the first image corresponding to the first image information.
  • the image output unit 13 optically outputs the second image, for example.
  • the image output unit 13 prints out the second image, for example.
  • the second image is an image in a second band that is the same as or narrower than the first band.
  • all of the plurality of image output units 13 normally output the second image.
  • some of the image output units 13 among the plurality of image output units 13 may not output the second image.
  • some of the image output units 13 among the plurality of image output units 13 may not temporarily output the second image.
  • the image output unit 13 outputs the second image using the first image information.
  • Each of the plurality of image output units 13 outputs a second image using information determined by the control unit 12.
  • the information determined by the control unit 12 is information related to the first image information.
  • the information determined by the control unit 12 is, for example, information configured from a part of the first image information.
  • each of the plurality of image output units 13 may output a second image that is an image delivered from the control unit 12.
  • one image that is a result output by each of the plurality of image output units 13 is a third image.
  • the third image is an image in a third band that is wider than the first band.
  • the third image may be an image that has been subjected to output control so as to have a wide band in at least one of spatial, temporal, and gradation as compared with the first image. good.
  • output control refers to control for outputting a zoomed, panned or tilted image, control for outputting an image realizing slow motion, or outputting an image realizing high frame rate. For example, control for outputting a multi-tone image from the first image.
  • the third band is, for example, spatially wider than the first band. That is, for example, the number of pixels in the third image in the third band is larger than the number of pixels in the first image in the first band.
  • the first image has HD resolution (1920 pixels ⁇ 1080 pixels), whereas the third image has 8K resolution (7680 pixels ⁇ 4320 pixels).
  • the third band is, for example, wider than the first band in terms of time. That is, for example, the first image in the first band is an image having a time resolution of 30 Hz or 60 Hz, and the third image in the third band is an image having a time resolution of 120 Hz or 240 Hz.
  • the control unit 12 In order to realize a third image at a normal speed of 240 Hz, a plurality of image output units 13 are instructed to output a second image, and each of the plurality of image output units 13 realizes a high frame rate in accordance with the instructions. You may do it.
  • the control unit 12 In order to realize a 1/4 image at 60 Hz, a plurality of image output units 13 are instructed to output a second image, and each of the plurality of image output units 13 outputs a second image in accordance with the instructions. It is also possible to output and output a third image of slow motion.
  • the third band is, for example, wider than the first band in terms of gradation. That is, for example, the first image in the first band is an image having a gradation of 4 bits or 8 bits, and the third image in the third band is an image having a gradation of 16 bits or 32 bits.
  • the output of the plurality of second images is, for example, an optical output and an analog output
  • the third image as a final output result is also an analog output
  • the third image has the same output as when digital information such as a spatial resolution of 16K, a temporal resolution of 240 Hz, and a gradation of 16 bits is optically output. That is, the third image can be said to be an image having a third band that is wider than the first band.
  • the analog output is a continuous output that is not discretized.
  • output refers to projection using a projector, printing on a printer, display on a display, transmission to an external display device, storage on a recording medium, processing result to another processing device or other program, etc. It is a concept that includes the delivery of
  • the plurality of image output units 13 may output the second image while being shifted from each other with a predetermined accuracy. “Shifting with a predetermined accuracy” is the same as shifting a predetermined distance.
  • the image output unit 13 can be realized by, for example, a projector and its driver software.
  • the image output unit 13 can be realized by, for example, a printer and its driver software.
  • the image output unit 13 can be realized by, for example, an output device such as a display and its driver software.
  • the image processing means 131 constituting the image output unit 13 performs predetermined image processing on the first image information and generates a second image to be output.
  • the image processing unit 131 uses the first image information to generate a second image obtained by increasing the resolution of a part of the first image.
  • the second image has the same or less number of pixels than the first image.
  • the image processing means 131 performs a process of doubling the resolution on a 960 pixel ⁇ 540 pixel area, which is a quarter of the first image, and 1920 pixels A second image of ⁇ 1080 pixels is generated. Since the resolution creation technique is a known technique, detailed description thereof is omitted.
  • the image processing unit 131 may perform processes other than the process of creating resolution, such as a process of removing noise, on the first image information, for example.
  • the image processing unit 131 can usually be realized by an MPU, a memory, or the like.
  • the processing procedure of the image processing means 131 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • the image output unit 132 outputs the second image generated by the image processing unit 131.
  • the image output unit 132 can be realized by a projector, for example. Further, the image output unit 132 can be realized by a printer, for example. In particular, the image output unit 132 can be realized by, for example, a toner ejection unit of a printer and its control unit. Note that the image output unit 132 may output the second image passed from the control unit 12.
  • output refers to projection using a projector, printing on a printer, display on a display, transmission to an external display device, storage on a recording medium, processing result to another processing device or other program, etc. It is a concept that includes the delivery of
  • the image output means 132 may or may not include an output device such as a display or a printer.
  • the image output unit 132 can be realized by driver software of an output device, driver software of an output device, an output device, or the like.
  • the image output apparatus 1 may include one or more drive units 14 in association with at least one image output unit 13 among the plurality of image output units 13.
  • a block diagram of the image output apparatus 1 in such a case is shown in FIG.
  • the image output apparatus 1 includes a reception unit 11, a control unit 12, a plurality of image output units 13, and one or a plurality of drive units 14.
  • the drive unit 14 corresponds to the image output unit 13. However, it is not necessary for the drive unit 14 to be associated with all the image output units 13.
  • the drive unit 14 may exist in association with only one image output unit 13.
  • One drive unit may correspond to two or more image output units 13.
  • the driving unit 14 can change the position of the corresponding image output unit 13.
  • the drive unit 14 changes the position of the image output unit 13 according to the position determined by the control unit 12. Further, the drive unit 14 may change the position of the image output unit 13 in accordance with the instruction received by the receiving unit 11. Note that the change in the position of the image output unit 13 may be a change in the position of the image output unit 132.
  • the drive unit 14 can be usually realized by an actuator.
  • the actuator here can change the position of the image output unit 13.
  • Step S301 The receiving unit 11 determines whether or not first image information, an instruction for output control, or an instruction for first image information and output control has been received. If first image information or / and output control instructions are accepted, the process goes to step S302; otherwise, the process goes to step S310.
  • Step S302 The control unit 12 assigns 1 to the counter i.
  • Step S303 The control unit 12 determines whether or not the i-th image output unit 13 exists. If the i-th image output part 13 exists, it will go to step S304, and if it does not exist, it will go to step S310.
  • Step S304 The control unit 12 acquires information of the i-th image output unit 13.
  • the information of the image output unit 13 is normally held in advance in a buffer (not shown) by the control unit 12, but may be acquired from the i-th image output unit 13.
  • the information of the image output unit 13 is the position of the image output unit 13 or information on the second image to be output.
  • the information related to the second image to be output is, for example, information on a region in charge (usually a rectangular region) in the first image information.
  • Step S305 The control unit 12 determines information to be given to the i-th image output unit 13 using the output control instruction and the information of the i-th image output unit 13 acquired in Step S304. For example, from the output control instruction and the position of the i-th image output unit 13, the control unit 12 acquires an image region to be given to the i-th image output unit 13 among all regions of the first image.
  • region is the information of (x1, y1) (x2, y2), for example, and is information which specifies a rectangular area.
  • (x1, y1) indicates the upper left coordinates of the rectangle
  • (x2, y2) indicates the lower right coordinates of the rectangle.
  • control unit 12 uses the information of the i-th image output unit 13 acquired in step S304 to provide information to be given to the i-th image output unit 13. You may decide.
  • Step S306 The control unit 12 acquires the information determined in step S305 using the first image information.
  • Step S307 The image processing means 131 constituting the i-th image output unit 13 performs predetermined image processing on the information (usually an image) acquired in Step S306 and outputs the second image. Is generated.
  • the information acquired in step S306 is not an image, it is information about the image.
  • a predetermined process for information related to the image is also referred to as an image process.
  • Step S308 The image output unit 132 constituting the i-th image output unit 13 outputs the second image generated by the image processing unit 131 in step S307.
  • Step S309 The control unit 12 increments the counter i by one. The process returns to step S303.
  • Step S310 The receiving unit 11 determines whether a change instruction has been received. If a change instruction is accepted, the process proceeds to step S311. If a change instruction is not accepted, the process returns to step S301.
  • Step S311) In response to the change instruction received in step S310, the control unit 12 instructs one or two or more drive units 14 to change the position.
  • Step S312 The drive unit 14 changes the position of the image output unit 13 in accordance with the instruction in step S311. The process returns to step S301.
  • the driving unit 14 may change the positions of all the image output units 13 or may change the positions of only the image output units 13 indicated in the change instruction.
  • step S304 to step S306 is executed before the processing of each of the plurality of image output units 13.
  • the position of the image output unit 13 is changed in accordance with the instruction received by the receiving unit 11.
  • the drive unit 14 may change the position of the image output unit 13 according to the position determined by the control unit 12.
  • the position of the image output unit 13 is changed so that the image output unit 13 can be assigned to the part intensively.
  • the position of the other image output unit 13 is changed so as to compensate for it.
  • the image processing unit 131 may not operate, and the image output unit 132 may output a second image that is information passed from the control unit 12.
  • the processing is terminated by powering off or interruption for aborting the processing.
  • the image output apparatus 1 includes a plurality of projectors.
  • the projector corresponds to the image output unit 132 of the image output unit 13.
  • Specific example 1 to specific example 3 are specific examples for explaining variations of the bands of the first image, the second image, and the third image.
  • Specific examples 4 to 8 are specific examples for explaining variations in the position of the projector in which the image output unit 13 includes the projector 132.
  • Specific examples 9 to 13 are specific examples in which the image output unit 13 includes the projector 132 and the light output is controlled by moving the position of the projector and the optical device (usually a mirror) by the drive unit 14 or the like.
  • Specific examples 14 to 17 are specific examples in which the third image of the third band wider than the first band is output by devising the output method of the second image by the image output unit 13.
  • Specific examples 18 to 21 are specific examples of receiving a command for output control and outputting a third image in which value creation has been performed.
  • Specific example 1 is a case where the first image information that is information relating to the input image is a high-definition (hereinafter also referred to as “HD”) image, and the third image that is the output image is a 16K image.
  • HD high-definition
  • the image output means 132 constituting the image output unit 13 is a projector.
  • FIG. 4 shows a block diagram of the image output apparatus 1 in the first specific example.
  • the reception unit 11 receives first image information that is an HD image.
  • the control unit 12 acquires information of two or more image processing units 131 from a buffer (not shown).
  • the buffer which is not illustrated is a buffer which the control part 12 hold
  • the information of each image processing unit 131 is, for example, an identifier of the image processing unit 131, information indicating the installation position of the image processing unit 131, information indicating an area of an image to be projected by the image processing unit 131, and the like.
  • the information of the image processing unit 131 is information for specifying an image or trigger signal used for output by the image processing unit 131, and is appropriately referred to as specifying information.
  • control unit 12 determines information to be given to each image processing unit 131 using specific information corresponding to two or more image processing units 131.
  • the information given to each image processing means 131 is an image of a partial spatial region of the input HD image.
  • control unit 12 acquires, for each image processing unit 131, an image of a partial spatial region of the HD image that is the determined information from the first image, and passes it to each image processing unit 131.
  • each of the two or more image processing units 131 performs predetermined image processing (for example, resolution creation processing or noise removal processing) on the delivered image and outputs the second image. Is generated.
  • the two or more image output units 132 optically output the second image generated by the image processing unit 131.
  • the plurality of second images output by the plurality of image output means 132 are optically combined on a screen that projects the image, and the third image that is the output image is displayed on the screen.
  • the third image is an image having a spatial resolution of 16K, for example.
  • the screen may be a wall of a room.
  • the image output apparatus 1 does not include the drive unit 14, but may include the drive unit 14.
  • a block diagram in such a case is shown in FIG.
  • the control unit 12 instructs the drive unit 14 so that the position of the projector 132 is controlled.
  • the drive unit 14 is an actuator.
  • the first image information which is information of the input image is a 4K image
  • the received 4K image is converted into, for example, an HD band trigger signal.
  • the control unit 12 passes the trigger signal to each of the plurality of image processing units 131.
  • each image processing means 131 processes the passed trigger signal to generate a second image.
  • the plurality of image output units 132 output the second image.
  • the 3rd image which is an output image displayed by the output of the several image output means 132 turns into a 16K image.
  • the image output means 132 constituting the image output unit 13 is a projector.
  • FIG. 6 shows a block diagram of the image output apparatus 1 in the second specific example.
  • the first image information that is an input image is, for example, a 4K image.
  • the reception part 11 receives the 1st image information which is a 4K image.
  • the converting means included in the receiving unit 11 converts the 4K image into an HD band trigger signal.
  • the conversion method is not limited.
  • control unit 12 acquires two or more pieces of specific information from a buffer (not shown). Note that each of the two or more pieces of specific information is information corresponding to each image processing unit 131.
  • control unit 12 determines information to be given to each image processing unit 131 using two or more pieces of specific information.
  • control unit 12 acquires a trigger signal corresponding to the determined information for each image processing unit 131 and passes it to each image processing unit 131.
  • each of the two or more image processing means 131 performs predetermined image processing on the passed trigger signal and generates a second image to be output.
  • the two or more image output units 132 optically output the second image generated by the image processing unit 131.
  • the plurality of second images output by the plurality of image output means 132 are optically combined on a screen that projects the image, and the third image that is the output image is displayed on the screen.
  • the third image is an image having a spatial resolution of 16K, for example.
  • the image output apparatus 1 does not include the drive unit 14, but may include the drive unit 14.
  • FIG. 7 is a block diagram in such a case.
  • the image output apparatus 1 includes the drive unit 14, for example, the position of the drive unit 14 is controlled by the control unit 12.
  • the drive unit 14 is an actuator.
  • Specific example 3 is a case where the first image information that is information of the input image is, for example, a trigger signal in the HD band extracted from the 4K image, and the third image that is the output image is a 16K image.
  • the process of extracting the trigger signal in the HD band from the 4K image was performed by the image output apparatus 1.
  • the process of extracting the trigger signal in the HD band from the 4K image is performed by a communication device or a broadcasting device that transmits information to the image output device 1.
  • a block diagram of the image output apparatus 1 in such a case is shown in FIG.
  • the operation of the image output apparatus 1 in the specific example 3 is as follows. First, the reception unit 11 receives a trigger signal in the HD band.
  • control unit 12 acquires two or more pieces of specific information from a buffer (not shown). Note that each of the two or more pieces of specific information is information corresponding to each image processing unit 131.
  • control unit 12 determines a trigger signal to be given to each image processing unit 131 using two or more pieces of specific information.
  • the trigger signal given to each image processing unit 131 is usually all or part of the trigger signal received by the receiving unit 11.
  • control unit 12 passes the determined trigger signal to each image processing unit 131 for each image processing unit 131.
  • each of the two or more image processing means 131 performs predetermined image processing on the passed trigger signal and generates a second image to be output.
  • the two or more image output units 132 optically output the second image generated by the image processing unit 131.
  • the plurality of second images output by the plurality of image output means 132 are optically combined on a screen that projects the image, and the third image that is the output image is displayed on the screen.
  • the third image is an image having a spatial resolution of 16K, for example.
  • Specific example 4 is a case where the image output unit 13 includes the projector 132, the projector 132 is installed on the shelf 901, and the projection ranges of the plurality of projectors 132 do not overlap.
  • a conceptual diagram in which a plurality of projectors 132 are arranged on the shelf 901 is shown in FIG.
  • the block diagram of the image output apparatus 1 in the specific example 4 is, for example, one of FIGS. 4 to 8.
  • the image output apparatus 1 includes 16 projectors 132, but the number of projectors 132 included in the image output apparatus 1 does not matter.
  • the control unit 12 holds specific information in association with each image processing unit 131.
  • the specification information is information for specifying an image used by two or more image processing units 131 for projection, or information for specifying a trigger signal used by two or more image processing units 131 for projection.
  • the identification information is information that identifies a spatial region in the first image received by the reception unit 11, for example, and includes, for example, two coordinate points that specify a rectangle (for example, an upper left coordinate point and a lower right coordinate) Information).
  • the specification information corresponding to each of the two or more image processing units 131 is information for specifying the rectangle of the area that each image processing unit 131 is in charge of, and 2 of the coordinates described in FIG. The coordinate value of the point.
  • the identification information may be an ID of each rectangular area shown in FIG.
  • the operation of the image output apparatus 1 is the same as that of any one of the specific examples 1 to 3.
  • Specific example 5 is a case where the image output unit 13 includes the projector 132, the projector is installed on the shelf 1201, and there are a plurality of projectors 132 having overlapping projection ranges.
  • FIG. 12 shows a conceptual diagram in which a plurality of projectors 132 are arranged on the shelf 1201 in the fifth specific example.
  • the projection ranges of a plurality of projectors overlap.
  • the block diagram of the image output apparatus 1 in the specific example 5 is, for example, one of FIGS. 4 to 8.
  • the operation of the image output apparatus 1 is the same as that of any one of the specific examples 1 to 3.
  • Specific Example 6 is a case where the image output unit 13 includes the projector 132, the projector 132 is supported and arranged by the arm 1401, and the projection ranges of the plurality of projectors 132 do not overlap.
  • FIG. 14 shows a conceptual diagram of the image output apparatus 1 in the specific example 6. Here, as shown in FIG. 15, the projection ranges of a plurality of projectors do not overlap.
  • the operation of the image output apparatus 1 is the same as that of any one of the specific examples 1 to 3, and the description thereof will be omitted here.
  • the arm 1401 may be extendable / contractible, for example. In such a case, according to the change instruction received by the receiving unit 11, the driving unit 14 extends and contracts the arm 1401 to change the position of the projector 132.
  • Specific example 7 is a case where the image output unit 13 includes the projector 132, the projector 132 is supported and arranged by the arm 1601, and there are a plurality of projectors having overlapping projection ranges.
  • FIG. 16 shows a conceptual diagram of the image output apparatus 1 in the specific example 7. Here, as shown in FIG. 17, some projection ranges of the plurality of projectors 132 overlap.
  • the operation of the image output apparatus 1 is the same as that of any one of the specific examples 1 to 3, and the description thereof will be omitted here.
  • the arm 1601 may be extendable / contractible, for example. In such a case, according to the change instruction received by the receiving unit 11, the driving unit 14 extends and contracts the arm 1601 to change the position of the projector 132.
  • the image output unit 13 includes the projector 132, and the projector 132 is installed on the shelf 901 (see FIG. 9), and the projection range is controlled by controlling the zoom of the projector. This is a case where the projection ranges 132 do not overlap (see FIG. 10).
  • the operation of the image output apparatus 1 after the processing for controlling the zoom of the projector 132 is the same as that of any one of the specific examples 1 to 3.
  • the image output unit 13 includes the projector 132, and the projector 132 is installed on the shelf 1801. By controlling the zoom of the projector 132, the projection range is controlled, and a plurality of overlapping projection ranges are obtained. This is a case where a projector exists.
  • a conceptual diagram of the image output apparatus 1 in the specific example 9 is shown in FIG. Here, as shown in FIG. 19, some of the projection ranges of the plurality of projectors overlap.
  • the block diagram of the image output apparatus 1 in the specific example 9 is, for example, one of FIGS. 4 to 8.
  • the operation of the image output apparatus 1 is the same as that of any one of the specific examples 1 to 3.
  • Specific Example 10 is a case where the image output unit 13 includes a projector 132, the projector 132 is installed on the movable shelf 2001, and the position of the projector 132 can be changed by the movement of the movable shelf 2001 by the driving unit 14. .
  • a conceptual diagram of the image output apparatus 1 in such a case is shown in FIG.
  • the movable shelf 2001 can be moved back and forth as indicated by an arrow 2002, or up and down, as shown by an arrow 2003, or forward and backward and up and down. Further, as indicated by an arrow 2004, it is assumed that the projector 132 is movable left and right.
  • the user has input a change instruction for moving the movable shelf 1201 according to the distance between the image output device 1 and the projection plane and the size of the projection plane, for example.
  • the reception unit 11 receives the change instruction.
  • the drive unit 14 moves the movable shelf 1201 and changes the position of the projector 132 in accordance with the received change instruction.
  • the change instruction here includes information such as a distance to move the movable shelf 2001, information indicating the movement position of the movable shelf 2001, and the position of the projector 132.
  • the user is a person who performs maintenance of the image output apparatus 1, for example.
  • the projection plane is a screen, a wall or the like on which the third image is displayed.
  • the operation of the image output apparatus 1 after moving the movable shelf 1201 is the same as the operation of any one of the specific examples 1 to 3.
  • FIGS. 9 and 10 the arrangement as shown in FIGS. 9 and 10 (see the specific example 4), the arrangement as shown in FIGS. 12 and 13 (see the specific example 5), FIGS.
  • the position of the projector 132 can be controlled in such an arrangement as shown in FIG.
  • the image output unit 13 includes a projector 132, the projector 132 is supported and installed by the robot arm 2101, and the position of the projector 132 can be changed by the drive unit 14 including the robot arm 2101. (See FIG. 21). Further, in Specific Example 11, the projection range of the projector 132 partially overlaps (see FIG. 22).
  • the operation of the image output apparatus 1 after moving the robot arm 2101 is the same as any one of the specific examples 1 to 3.
  • the position of the projector 132 can be controlled in an arrangement as shown in FIGS. 14 and 15 (see specific example 6).
  • the image output unit 13 includes the projector 132, and the projector 132 is installed on the movable shelf 2301, and the optical path can be controlled by moving the optical device 2302 included in the image output unit 13 (see FIG. 23). This is a case where the projection ranges of a plurality of projectors do not overlap (see FIG. 24).
  • the optical device 2302 is usually a mirror.
  • the user inputs a change instruction to rotate the optical device 2302 according to the distance between the image output apparatus 1 and the projection plane and the size of the projection plane, for example.
  • the reception unit 11 receives the change instruction.
  • the control unit 12 instructs the drive unit 14 to rotate the optical device 2302 in accordance with the received change instruction.
  • the drive unit 14 rotates the optical device 2302 in response to the instruction.
  • the optical device 2302 rotates so as to change the optical path of the image (light) projected by the projector 132.
  • the change instruction to rotate the optical device 2302 is included in the instruction to move the optical device 2302 for changing the optical path.
  • the rotation of the optical device 2302 is a rotation around one side of the mirror.
  • FIG. 25 is a diagram for explaining processing for controlling the projection position by installing the optical device 2302 in front of the projector 132 and changing the angle of the optical device 2302 two-dimensionally.
  • the coordinate axis of the surface of the screen 2501 is taken as the XY axis
  • the coordinate axis perpendicular to the surface of the screen 2501 is taken as the Z axis.
  • the optical axis of the projector 132 is parallel to the X axis
  • the optical device 2302 rotates ( ⁇ / 2, ⁇ / 2) around the Y axis and the Z axis.
  • the distance L 0 between the projector 132 and the optical device 2302 is assumed to be negligible with respect to the projection distance L. That is, L 0 is treated as approximately 0.
  • rotating the optical device 2302 can be treated equivalently to rotating the projector 132 two-dimensionally (see FIG. 26).
  • FIG. 26 when the optical device 2302 rotates ( ⁇ / 2, ⁇ / 2) about the Y axis and the Z axis, the projector 132 rotates ⁇ around the X axis and ⁇ around the Y axis, as shown in FIG. It can be considered that
  • Equation 1 The relationship between the pixel position (x, y, L) and the pixel position (u, v, L) in this case is shown in Equation 1.
  • K is a correction coefficient for correcting the position of the pixel.
  • control unit 12 sets the projection point (x, y, L) of one pixel when the optical device 2302 is not rotated and the target projection point (u, v, L) of the one pixel to Equation 1. Substituting and calculating ⁇ and ⁇ . Then, the control unit 12 instructs the drive unit 14 to rotate the optical device 2302 according to the calculated ⁇ and ⁇ . Then, the drive unit 14 rotates the optical device 2302 in response to the instruction. Then, the optical device 2302 rotates so as to change the optical path of the image (light) projected by the projector 132.
  • Equation 1 the equation for calculating ⁇ and ⁇ by the control unit 12 is not limited to the above Equation 1, and may be an equation based on a more strict model or the like.
  • the operation of the image output apparatus 1 after moving the optical device 2302 and performing optical path control is the same as the operation of any one of the specific examples 1 to 3.
  • the image output unit 13 includes a projector 132, and the projector 132 is installed on the movable shelf 2301, and the optical path can be controlled by moving the optical device 2302 (mirror) included in the image output unit 13 (FIG. 23), there are a plurality of projectors with overlapping projection ranges (see FIG. 28).
  • the operation of the image output apparatus 1 after moving the optical device 2302 and performing optical path control is the same as the operation of any one of the specific examples 1 to 3.
  • the specific example 14 is a case where the image output unit 13 includes the projector 132 and the second image output from the plurality of projectors 132 is overlapped to output a third image having a broadband gradation.
  • a broadband gradation means a multi-gradation as compared with a narrow-band gradation.
  • the projection surface becomes brighter and the second image output does not overlap.
  • the tone increases (see FIG. 29).
  • FIG. 29 there are two projectors 132 (132 (1) and 132 (2)). Further, when a plurality of projectors 132 output the same second image, the gradation does not increase.
  • each projector 132 in FIG. 29 outputs a second image having an 8-bit gradation (the pixel value of each pixel is 0 to 255).
  • the vertical axis indicates the brightness
  • the horizontal axis indicates the projection position of the projector 132.
  • Reference numeral 3001 denotes an increase in the brightness of each position (region) due to the second image output from the projector 132 (1)
  • 3002 denotes the brightness of each position (region) according to the second image output from the projector 132 (2). Indicates the increase.
  • the pixel value of each pixel of the third image which is the result of the output of the two second images, can take 0 to 510, and its gradation is 511 gradation. That is, the pixel value of each pixel of the second image (1) output from the projector 132 (1) can take 0 to 255, and the pixel value of each pixel of the second image (2) output from the projector 132 (2). Can take from 0 to 255, so the pixel value of each pixel in the region where the two second images overlap can take from 0 to 510. As shown in FIG. 30, the gradation value of the third image can be increased by increasing or decreasing the pixel value of the second image, which is the output of one of the two projectors 132, by one.
  • the control unit 12 reads the specific information corresponding to each projector 132 from a buffer (not shown), and, as shown in FIG. 29, each projector 132 overlaps the second image output from each projector 132.
  • Information to be given to 132 is determined.
  • the specific information is information associated with each projector 132, for example, information indicating an area in which each projector 132 outputs the second image.
  • the image processing means 131 performs predetermined image processing on the information (usually an image) determined by the control unit 12 and generates a second image output from each projector 132.
  • Each projector 132 outputs the second image generated by the image processing unit 131.
  • a third image with an increased gradation is displayed on the screen or the wall as compared with the first image and / or the second image.
  • the image output unit 13 includes a projector 132, and each of the plurality of projectors 132 outputs a second image with a predetermined accuracy, thereby generating a third image having a wide spatial resolution. This is a case of outputting (see FIG. 31).
  • FIG. 31 there are two projectors 132 (132 (1) and 132 (2)).
  • each projector 132 in FIG. 31 shifts the output position of the second image by less than one pixel (for example, 0.6 pixel) and outputs the second image. Then, as shown in FIG. 32, the pixel of the second image output from the projector 132 (2) enters between the pixels of the second image output from the projector 132 (1).
  • a third image with increased spatial resolution is displayed.
  • the image of the third image with the increased spatial resolution is 3301 in the graph of FIG. In the third image, the brightness of each pixel usually increases.
  • the shift amount of the pixel position of the second image output from each of the plurality of projectors 132 may exceed one pixel. In that case, after correcting the shift of the pixel unit in advance with the second image, the processing for the shift of less than one pixel is similarly performed.
  • a specific example 16 is a case where the image output unit 13 includes a plurality of projectors 132 and the pixel structure of each projector 132 is a Bayer array.
  • the image output unit 13 includes a plurality of projectors 132 and the pixel structure of each projector 132 is a Bayer array.
  • an image of a band corresponding to the Bayer array of the projector is input as the first image.
  • each of the plurality of projectors 132 outputs a third image having a wide spatial resolution by shifting the second image by one pixel and outputting the second image, for example.
  • Each projector has a green pixel (G), a red pixel (R), and a blue pixel (B) arranged in a checkered pattern.
  • G green pixel
  • R red pixel
  • B blue pixel
  • the projector 132 (1), the projector 132 (2), the projector 132 (3), and the projector 132 (4) which are arranged at different positions, output the second image, for example, shifted by one pixel.
  • the projector 132 (1) and the projector 132 (4) are green pixels (G)
  • the projector 132 (2) is a red pixel (R)
  • the projector 132 (3) is assigned a blue pixel (B).
  • a specific example 17 is a case where the image output unit 13 includes a projector 132, and each of the plurality of projectors 132 outputs a second image in a time division manner, thereby outputting a third image having a wide-band time resolution.
  • each of the plurality of projectors 132 outputs the second image with a time resolution of 60 Hz.
  • the control unit 12 determines that each of the two projectors 132 is sequentially and repeatedly in a time division manner. Control to output two images.
  • the control unit 12 specifies the specific information (for example, “ON” or “1”) of the projector 132 (1) and the specific information (for example, the projector 132 (2) at the time of display start (0/120 (s)). , “OFF” or “0”) is read from a buffer (not shown). Then, in accordance with the specific information (for example, “ON”) of the projector 132 (1), the control unit 12 acquires an image at time 0/120 (s) in the first image information received by the receiving unit 11. Then, the image is transferred to the image processing means 131 corresponding to the projector 132 (1).
  • the image processing means 131 performs a predetermined process on the delivered image to generate a second image.
  • the projector 132 (1) outputs the second image (see FIG. 36).
  • the control unit 12 does not pass the information to the image processing unit 131 corresponding to the projector 132 (2) according to the information (for example, “OFF”) of the projector 132 (2). Note that the control unit 12 may take measures to block the output of the projector 132 (2) (see FIG. 36).
  • control unit 12 obtains an image at 1/120 (s) of the first image information received by the receiving unit 11 at the time of “1/120 (s)” from the start of display.
  • the image is transferred to the image processing unit 131 corresponding to the projector 132 (2).
  • the image processing unit 131 performs a predetermined process on the delivered image to generate a second image.
  • the projector 132 (2) outputs the second image (see FIG. 37).
  • the control unit 12 does not pass information to the image processing unit 131 corresponding to the projector 132 (1). Note that the control unit 12 may take measures to block the output of the projector 132 (1) (see FIG. 37).
  • the control unit 12 and the image output unit 13 alternately repeat the processes described with reference to FIGS.
  • the time resolution of the second image output from each projector 132 is “60 Hz”, but the time resolution of the third image is “120 Hz” (see FIG. 38).
  • 3801 is the output of the projector 132 (1)
  • 3802 is the output of the projector 132 (2).
  • a third image with an increased time resolution is displayed as compared with the first image and / or the second image.
  • Specific Example 18 to Specific Example 19 are cases where the processing illustrated in FIG. 39 is realized.
  • the first image is an HD image, for example.
  • the third image displayed by the output of the second image by the plurality of image output units 13 is an image obtained by increasing the resolution of a part of the first image. For example, if the resolution of the first image is quadrupled in each of the horizontal and vertical directions, and half of each horizontal and vertical area is displayed as the third image, the third image increases the resolution of the first image to an image equivalent to 8K. A part of the zoom is displayed as a 4K image.
  • the remote controller in FIG. 40 is, for example, a so-called smartphone.
  • the remote controller may be a mobile terminal, a mobile phone, a dedicated remote controller, or the like.
  • reference numeral 4001 denotes a button for realizing zooming.
  • Reference numeral 4002 denotes a button for realizing panning.
  • Reference numeral 4003 denotes a button for realizing tilt.
  • Reference numeral 4004 denotes a button for realizing slow motion.
  • This output control instruction is a zoom instruction and has information on the area of the zoom window 4005.
  • control unit 12 acquires information on the positions of the four projectors (132 (1), 132 (2), 132 (3), 132 (4)) from a buffer (not shown).
  • control unit 12 acquires information on the second image output by each projector 132 using the output control instruction and the acquired information on each projector 132.
  • the control unit 12 uses the acquired information of the second image to issue an instruction to acquire an image of the area surrounded by 132 (1) in FIG. 41 to the image processing unit 131 corresponding to the projector 132 (1). To do. Further, the control unit 12 uses the acquired information to instruct the image processing unit 131 corresponding to the projector 132 (2) to acquire an image of the area surrounded by 132 (2) in FIG. Further, the control unit 12 uses the acquired information to instruct the image processing unit 131 corresponding to the projector 132 (3) to acquire an image of the area surrounded by 132 (3) in FIG. Further, using the acquired information, the control unit 12 instructs the image processing unit 131 corresponding to the projector 132 (4) to acquire an image of the area surrounded by 132 (4) in FIG.
  • each image processing means 131 corresponding to each projector 132 performs predetermined image processing and generates a second image to be output.
  • each projector 132 outputs the second image generated by each image processing means 131. Then, as shown in FIG. 42, a 4K zoomed third image 4201 is output.
  • control unit 12 acquires information on the positions of the four projectors (132 (1), 132 (2), 132 (3), 132 (4)) from a buffer (not shown).
  • the control unit 12 acquires information on the second image output by each projector 132 using the output control instruction and the acquired information on each projector 132.
  • the control unit 12 instructs the projector 132 (1) to acquire an image of the area indicated by 132 (1) in FIG.
  • the control unit 12 instructs the projector 132 (2) to acquire an image of the area indicated by 132 (2) in FIG. 41 using the acquired information.
  • the control unit 12 instructs the projector 132 (3) to acquire an image of the area indicated by 132 (3) in FIG. 41 using the acquired information.
  • the control unit 12 instructs the projector 132 (4) to acquire an image of the area indicated by 132 (4) in FIG.
  • Each image processing means 131 corresponding to each projector 132 performs predetermined image processing and generates a second image to be output.
  • Each projector 132 outputs the second image generated by each image processing means 131. Then, the zoom position is changed, and the process returns to (A). In other words, panning or tilting can be realized by moving the zoom position.
  • the 4K zoomed third image 4201 is sequentially output to realize panning or tilting.
  • the accepting unit 11 accepts the output control instruction.
  • control unit 12 acquires information on the positions of the four projectors (132 (1), 132 (2), 132 (3), 132 (4)) from a buffer (not shown).
  • control unit 12 determines information to be given to each image output unit 13 using the output control instruction and the acquired information of each projector 132.
  • control unit 12 acquires the determined information using the first image information. That is, the control unit 12 acquires information to be given to each image processing unit 131 corresponding to each projector 132.
  • each of the four image processing means 131 performs predetermined image processing on the information acquired by the control unit 12 and generates a second image to be output.
  • each projector (132 (1), 132 (2), 132 (3), 132 (4)) optically outputs the second image generated by the corresponding image processing means 131.
  • each of the four projectors 132 outputs the second image in a time-division manner, so that a third image having a fourfold time resolution can be output.
  • zooming can be realized when the image acquired by the control unit 12 is an image of a region indicated by a zoom instruction.
  • FIG. 44 A conceptual diagram in such a case is shown in FIG. In FIG. 44, the first image is a 60 Hz HD image, and the third image is a 240 Hz HD image.
  • the gradation extension output instruction is an instruction to extend a part of the gradation of the third image. It can be said that the gradation extension output instruction is an instruction to extend and output a part of gradation of the image output from the image output apparatus 1.
  • the output with the gradation extended is, for example, as shown in FIG. 45, when the receiving unit 11 receives an input image that is 8-bit first image information, 0 to 127 of the input signal level. The range is converted to 0 to 255 and output, or the range of 128 to 255 is converted to 0 to 255 and output. At this time, it is preferable to perform gradation creation by signal processing.
  • the receiving unit 11 receives an input image that is 8-bit first image information, for example, the receiving unit 11 receives a gradation extended output instruction from a user.
  • control unit 12 acquires information on the positions of the four projectors (132 (1), 132 (2), 132 (3), 132 (4)) from a buffer (not shown).
  • control unit 12 determines information to be given to each image output unit 13 using the gradation extended output instruction and the acquired information of each projector 132.
  • control unit 12 acquires the determined information using the first image information. That is, the control unit 12 acquires information to be given to each image processing unit 131 corresponding to each projector 132.
  • each of the four image processing means 131 performs the above-described expansion processing of a part of the gradation of the input image on the information acquired by the control unit 12, and generates a second image to be output.
  • each projector (132 (1), 132 (2), 132 (3), 132 (4)) optically outputs the second image generated by the corresponding image processing means 131.
  • a third image in which some gradations are expanded is output.
  • the 8-bit input image (a) in FIG. 45 is converted and output in the range of 0 to 127 of the input signal level to 0 to 255 (in the case of (b) in FIG. 45)
  • the input image The third image is displayed without smashing the dark part.
  • the 8-bit input image (a) in FIG. 45 is converted from 0 to 255 in the range of 128 to 255 of the input signal level and output (in the case of (c) in FIG. 45)
  • the input image The third image is displayed without skipping the bright spot.
  • the image output apparatus 1 that realizes wideband image output in a narrow band.
  • narrowband means that, for example, the spatial resolution is large, the temporal resolution is large, and the number of gradations is large compared to the narrow band.
  • the number of image processing units 131 such as projectors is normally a power of 2, but it goes without saying that it is not necessarily a power of 2.
  • the output area when the plurality of image output units 132 output the second image may have no overlap as shown in FIG. 11, for example, or may have an overlap.
  • the case where there is an overlap is, for example, a case where almost the entire output areas of the plurality of image output units 132 overlap as shown in FIG.
  • there is an overlap for example, as shown in FIG. 49, only a part outside the area output by each of the two or more image processing means 131 overlaps (in the case of blending).
  • the image output apparatus 1 performs light output by a projector, but may perform printing by a printer or the like.
  • the printer may be an ink jet printer, a laser printer, or the like, and the type thereof is not limited.
  • the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded on a recording medium such as a CD-ROM and distributed. This also applies to other embodiments in this specification.
  • the software that realizes the image output apparatus 1 in the present embodiment is the following program. In other words, the program uses the first image information to receive the first image information that is information related to the first image of the first band, and the first band information is the same as the first band or the first band.
  • a plurality of image output units that output a second image that is an image in a second band that is narrower than one band, and the third image that is the result of output from each of the plurality of image output units is the first image
  • the third image is an image that is zoomed, panned, or tilted with respect to the first image, an image that realizes slow motion with respect to the first image, or a part of the first image. It is preferable that the program is a program that causes a computer to function as an image in which the gradation is expanded.
  • the reception unit receives an instruction for output control, and at least one of the plurality of image output units performs output control of a second image according to the instruction.
  • the program is a program that causes a computer to function.
  • the image output unit is a program that causes a computer to function as optically outputting the second image.
  • the computer is further caused to function as one or more drive units capable of changing a position of the image output unit in association with at least one of the plurality of image output units. It is preferable that it is a program.
  • the drive unit is a program that causes a computer to function as changing the at least one image output unit to a different position in accordance with an instruction of the output control.
  • FIG. 50 shows the external appearance of a computer that executes the program described in this specification and realizes the image output apparatus 1 according to various embodiments described above.
  • the above-described embodiments can be realized by computer hardware and a computer program executed thereon.
  • FIG. 50 is an overview diagram of the computer system 300
  • FIG. 51 is a block diagram of the system 300.
  • the computer system 300 includes a computer 301 including a CD-ROM drive, a keyboard 302, a mouse 303, and a monitor 304.
  • the computer 301 includes an MPU 3013, a bus 3014, a ROM 3015, a RAM 3016, and a hard disk 3017 in addition to the CD-ROM drive 3012.
  • the bus 3014 is connected to the MPU 3013 and the CD-ROM drive 3012.
  • the ROM 3015 stores a program such as a bootup program.
  • the RAM 3016 is connected to the MPU 3013 and temporarily stores application program instructions and provides a temporary storage space.
  • the hard disk 3017 is for storing application programs, system programs, and data.
  • the computer 301 may further include a network card that provides connection to a LAN.
  • a program that causes the computer system 300 to execute the functions of the image output apparatus 1 according to the above-described embodiment may be stored in the CD-ROM 3101, inserted into the CD-ROM drive 3012, and further transferred to the hard disk 3017.
  • the program may be transmitted to the computer 301 via a network (not shown) and stored in the hard disk 3017.
  • the program is loaded into the RAM 3016 at the time of execution.
  • the program may be loaded directly from the CD-ROM 3101 or the network.
  • the program does not necessarily include an operating system or a third-party program that causes the computer 301 to execute the functions of the image output apparatus 1 according to the above-described embodiment.
  • the program only needs to include an instruction portion that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 300 operates is well known and will not be described in detail.
  • the computer that executes the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • two or more communication means terminal information transmission unit, terminal information reception unit, etc.
  • terminal information transmission unit terminal information transmission unit, terminal information reception unit, etc.
  • each process may be realized by centralized processing by a single device (system), or by distributed processing by a plurality of devices. May be.
  • the image output apparatus has an effect that a wide-band image output having a new value for the user can be realized in a narrow band, and is useful as a television apparatus or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)

Abstract

第一の帯域の第一画像に関する情報である第一画像情報を受け付ける受付部と、第一画像情報を用いて、第一の帯域と同一または第一の帯域より狭い第二の帯域の画像である第二画像を出力する複数の画像出力部とを具備し、複数の各画像出力部が出力した結果である第三画像は、第一画像と比較して、空間的または時間的または階調的に広帯域となるような出力制御が施された画像である画像出力装置により、ユーザにとって新たな価値を有する広帯域の画像の出力を狭帯域で実現できる。

Description

画像出力装置、画像出力方法、および記録媒体
 本発明は、画像を出力する画像出力装置等に関するものである。
 従来、第1の動画像から、より高品質な第2の動画像を生成する画像処理装置があった(例えば、特許文献1参照)。
特開2010-118940号公報
 しかしながら、従来技術においては、ユーザにとって新たな価値を有する広帯域の画像の出力を狭帯域で実現できながった。
 本第一の発明の画像出力装置は、第一の帯域の第一画像に関する情報である第一画像情報を受け付ける受付部と、第一画像情報を用いて、第一の帯域と同一または第一の帯域より狭い第二の帯域の画像である第二画像を出力する複数の画像出力部とを具備し、複数の各画像出力部が出力した結果である第三画像は、第一画像と比較して、空間的または時間的または階調的に広帯域となるような出力制御が施された画像である画像出力装置である。
 かかる構成により、ユーザにとって新たな価値を有する広帯域の画像の出力を狭帯域で実現できる。
 また、本第二の発明の画像出力装置は、第一の発明に対して、第三画像は、第一画像に対してズームまたはパンまたはチルトされた画像、または第一画像に対してスローモーションを実現する画像、第一画像の一部の階調を拡張した画像である画像出力装置である。
 かかる構成により、ズームまたはパンまたはチルトされた広帯域の画像等の出力を狭帯域で実現できる。
 また、本第三の発明の画像出力装置は、第一または第二の発明に対して、受付部は、出力制御の指示を受け付け、複数の画像出力部のうちの、少なくとも一の画像出力部は、指示に従った第二画像の出力制御を行う画像出力装置である。
 かかる構成により、ユーザの指示に従って、ズームまたはパンまたはチルトされた広帯域の画像の出力を狭帯域で実現できる。
 また、本第四の発明の画像出力装置は、第一から第三いずれかの発明に対して、画像出力部は、第二画像を光出力する画像出力装置である。
 かかる構成により、ユーザにとって新たな価値を有する広帯域の画像の光出力を狭帯域で実現できる。
 また、本第五の発明の画像出力装置は、第一から第三いずれかの発明に対して、画像出力部は、第二画像を印刷する画像出力装置である。
 かかる構成により、ユーザにとって新たな価値を有する広帯域の画像の印刷を狭帯域で実現できる。
 また、本第六の発明の画像出力装置は、第一から第五いずれかの発明に対して、複数の画像出力部のうちの少なくとも一の画像出力部に対応づけて、画像出力部の位置を変更可能な1または2以上の駆動部をさらに具備する画像出力装置である。
 かかる構成により、ユーザにとって新たな価値を有する広帯域の画像の出力を狭帯域で実現できる。
 また、本第七の発明の画像出力装置は、第六の発明に対して、駆動部は、出力制御の指示に応じて、少なくとも一の画像出力部を異なる位置に変更する画像出力装置である。
 かかる構成により、ユーザにとって新たな価値を有する広帯域の画像の出力を狭帯域で実現できる。
 本発明による画像出力装置によれば、ユーザにとって新たな価値を有する広帯域の画像の出力を狭帯域で実現できる。
実施の形態1における画像出力装置1のブロック図 同他の構成の画像出力装置1のブロック図 同画像出力装置1の動作について説明するフローチャート 同具体的な画像出力装置1のブロック図 同具体的な画像出力装置1のブロック図 同具体的な画像出力装置1のブロック図 同具体的な画像出力装置1のブロック図 同具体的な画像出力装置1のブロック図 同プロジェクタが可動棚に配置されている画像出力装置1の概念図 同複数のプロジェクタの投影範囲の概念図 同複数のプロジェクタの投影範囲の概念図 同複数のプロジェクタが可動棚に配置されている概念図 同複数のプロジェクタの投影範囲の概念図 同プロジェクタがアームにより支持されている画像出力装置1の概念図 同複数のプロジェクタの投影範囲の概念図 同プロジェクタがアームにより支持されている画像出力装置1の概念図 同複数のプロジェクタの投影範囲の概念図 同プロジェクタが可動棚に配置されている画像出力装置1の概念図 同複数のプロジェクタの投影範囲の概念図 同プロジェクタが可動棚に配置されている画像出力装置1の概念図 同プロジェクタがロボットアームにより支持されている画像出力装置1の概念図 同複数のプロジェクタの投影範囲の概念図 同光学デバイスによる光路制御が可能な画像出力装置1の概念図 同複数のプロジェクタの投影範囲の概念図 同光学デバイスの制御について説明する図 同光学デバイスの制御について説明する図 同光学デバイスの制御について説明する図 同複数のプロジェクタの投影範囲の概念図 同複数のプロジェクタの投影範囲の概念図 同多階調化を実現する理論を説明する図 同複数のプロジェクタの投影範囲の概念図 同広帯域な空間解像度を実現する理論を説明する図 同広帯域な空間解像度を実現する理論を説明する図 同広帯域な空間解像度を実現する理論を説明する図 同広帯域な空間解像度を実現する理論を説明する図 同広帯域な時間解像度を実現する理論を説明する図 同広帯域な時間解像度を実現する理論を説明する図 同広帯域な時間解像度を実現する理論を説明する図 同価値創造が行われた第三画像を出力する処理の概念図 同リモコンの例を示す図 同ズームの処理を説明する図 同ズームの処理を説明する図 同パンまたはチルトの処理を説明する図 同スローモーションおよびズームの処理を説明する図 同入力画像の一部の階調を拡張して出力する処理を説明する図 同複数のプロジェクタの投影範囲の概念図 同複数のプロジェクタの投影範囲の概念図 同複数のプロジェクタの投影範囲の概念図 同複数のプロジェクタの投影範囲の概念図 同コンピュータシステムの概観図 同コンピュータシステムのブロック図
 以下、画像出力装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
 (実施の形態1)
 本実施の形態において、第一の帯域の第一画像を受け付け、第二の帯域の第二画像を出力する複数の画像出力部を具備する画像出力装置について説明する。そして、当該複数の画像出力部が出力した結果である第三画像は、第三の帯域の画像である。なお、第二の帯域は、第一の帯域と同一または第一の帯域より狭い帯域である。また、第三の帯域は、第一の帯域より広帯域である。つまり、上記の3つの帯域の間には、「第二の帯域=<第一の帯域<第三の帯域」という関係が成り立つ。
 また、本実施の形態において、制御部が、複数の各画像出力部に与える画像を決定し、複数の各画像出力部は、決定された画像を出力する画像出力装置について説明する。
 また、本実施の形態において、例えば、画像出力部が第二画像を光出力する画像出力装置について説明する。また、本実施の形態において、2以上の画像出力部から出力される画像は、少なくとも一部には重なる場合、一部の画像出力部13の出力位置を予め決められた精度でずらす場合等、2以上の画像出力部の第二画像の出力方法を工夫している画像出力装置について説明する。
 また、本実施の形態において、各画像出力部に対応付けて、画像に対して解像度創造等の画像処理を施す機構を有する画像出力装置について説明する。
 また、本実施の形態において、駆動部を具備し、画像出力部の位置を動かせる画像出力装置について説明する。なお、駆動部は手で動かされても良いし、制御部により動かされても良い。
 また、本実施の形態において、第一の帯域で受け付けられた第一画像と、空間的または時間的または階調的に広帯域となるような出力制御が施された画像である第三画像を出力する画像出力装置について説明する。
 また、本実施の形態において、出力制御により、受け付けられた画像に対して、ズームまたはパンまたはチルトまたはスローモーションまたは多階調化を実現する画像出力装置について説明する。
 図1は、本実施の形態における画像出力装置1のブロック図である。画像出力装置1は、受付部11、制御部12、および複数の画像出力部13を備える。また、画像出力部13は、画像処理手段131、および画像出力手段132を備える。なお、画像出力部13は、画像処理手段131を具備しなくても良い。
 画像出力装置1を構成する受付部11は、第一画像情報を受け付ける。第一画像情報は、第一の帯域の第一画像に関する情報である。第一画像情報は、第一画像でも良いし、第一画像のトリガ信号等でも良い。第一画像は、例えば、ハイビジョン画像、4K画像、8K画像等である。第一画像等の画像は、通常、2以上の静止画を有する映像である。ただし、第一画像等の画像は静止画でも良い。また、第一画像のトリガ信号とは、第一画像情報から取得される情報であり、第一画像から有意な情報を抽出したものである。第一画像のトリガ信号とは、例えば第一画像を圧縮した情報や第一画像をサブサンプリングした情報等である。また、ここで、帯域は、通常、情報量と同意義である。つまり、広帯域の画像とは、通常、情報量が多い画像である。狭帯域の画像とは、通常、情報量が少ない画像である。また、帯域は、データ量と言っても良い。なお、受け付けられた第一画像情報(例えば、4K画像)が、HD帯域のトリガ信号に変換される処理について、特願2012-184921等に記載されている。また、受付部11は、第一画像情報を受信する受信手段を具備する、と考えても良い。
 受付部11は、画像出力部13の位置を変更する変更指示を受け付けても良い。変更指示は、通常、変更する位置を特定する情報を含む。変更指示は、位置の変更のための動作や制御の情報を有しても良い。また、変更指示は、位置を変更する画像出力部13を特定する情報を含んでも良い。
 受付部11は、出力制御の指示を受け付けても良い。出力制御の指示とは、例えば、出力される第三画像をズームする指示、出力される第三画像に対してパンする指示、出力される第三画像に対してチルトする指示、第三画像をスローモーションで出力する指示、第三画像の階調の一部を拡張する指示等である。なお、パンとは、カメラを左右に振る映像の撮影技法であり、パンする指示とは、カメラが左右に振られたような画像となるように、第三画像を出力する指示である。また、チルトとは、カメラを上下に振る映像の撮影技法であり、チルトする指示とは、カメラが上下に振られたような画像となるように、第三画像を出力する指示である。さらに、第三画像の階調の一部を拡張する指示とは、入力画像に対して、画像を構成する画素の一部の階調を拡張して、画像を出力し、第三画像を得る指示である。なお、受付部11は、上記の変更指示や出力制御の指示等の指示を受け付ける指示受付手段を具備する、と考えても良い。
 また、受け付けとは、有線または無線の通信回線を介して送信された画像等の受信、放送された画像等の受信、光ディスクや磁気ディスクや半導体メモリなどの記録媒体から読み出された情報の受け付け、キーボードやマウスやタッチパネルなどの入力デバイスから入力された情報の受け付け等を含む概念である。
 受付部11は、有線もしくは無線の通信手段、放送受信手段等で実現され得る。また、受付部11は、キーボード、リモコン等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
 制御部12は、複数の各画像出力部13に与える情報を決定する。ここで、情報は、画像またはトリガ信号等である。例えば、制御部12は、受付部11が受け付けた第一画像情報を用いた画像であり、複数の各画像出力部13に与える画像を決定する。複数の各画像出力部13が第二画像を出力した結果である第三画像が、予め想定されている画像となるように、制御部12は、複数の各画像出力部13に与える画像を決定する。なお、第一画像情報を用いた画像とは、例えば、第一画像の一部の画像である。
 制御部12は、例えば、受付部11が受け付けた第一画像の一部を複数の各画像出力部13に与えるために、複数の各画像出力部13に与える画像を決定する。制御部12は、例えば、受付部11が受け付けた第一画像を分割し、得られた2以上の各第一分割画像を、複数の各画像出力部13に与える。
 制御部12は、例えば、画像出力部13が空間的に第三画像の一部の範囲を出力する場合、その領域に対応する第一画像を切り出し、得られた第一分割画像を当該画像出力部13に与える。
 制御部12は、受付部11が受け付けた第一画像情報に対して、予め決められた処理を行っても良い。予め決められた処理とは、例えば、受付部11が受け付けた第一画像情報から、トリガ信号を取得する処理である。例えば、受付部11が受け付けた第一画像情報が4K画像または8K画像等であり、制御部12は、例えば、当該第一画像情報からHD帯域のトリガ信号を取得する。
 制御部12は、受付部11が受け付けた変更指示に従って、例えば、駆動部14に対して画像出力部13の位置、または方向、または位置と方向を変更する指示を行う。また、制御部12は、受付部11が受け付けた変更指示に従って、例えば、駆動部14に対して画像出力部13の光学的操作の指示を行う。ここで、光学的操作とは、例えば、画像出力部13に備え付けられたズームレンズによる拡大・縮小およびフォーカス調整、レンズの前に設置された鏡の向きを変えることによる投影位置の変更操作などである。
 また、制御部12は、複数の各プロジェクタ132が予め決められた精度でずらして第二画像を出力するように、複数の各プロジェクタ132に指示しても良い。なお、予め決められた精度とは、通常、1画素未満のずれであるが、1.5画素、2.8画素等、1画素以上の非整数画素精度のずれでも良い。
 また、制御部12は、受付部11が受け付けた出力制御の指示に従って、画像出力部13に第二画像の出力の指示を行う。
 受付部11が受け付けた出力制御の指示がズームである場合、制御部12は、当該出力制御の指示が有するズームの領域情報に従って、複数の各画像出力部13に対して、出力する第二画像に関する情報を取得し、当該取得した情報を、各画像出力部13に渡す。
 また、受付部11が受け付けた出力制御の指示がパンまたはチルトの指示である場合、制御部12は、当該出力制御の指示が有するパンまたはチルトの位置の情報群またはパンまたはチルトの動きの情報に従って、複数の各画像出力部13に対して、出力する第二画像に関する情報を取得し、当該取得した情報を、各画像出力部13に渡す。
 また、受付部11が受け付けた出力制御の指示がスローモーションの指示である場合、制御部12は、当該指示が有するスローモーションの度合いを示す情報に従ったスピードで、複数の各画像出力部13が第二画像を出力するように、複数の各画像出力部13に対して指示をする。
 さらに、制御部12は、受付部11が受け付けた出力制御の指示に従って、駆動部14に対して、画像出力部13の位置および方向を変更する指示を行っても良い。例えば、出力制御の指示がズームである場合とスローモーションである場合とでは、駆動部14が画像出力部13に対して発行する位置の変更指示は異なることは言うまでもない。
 制御部12は、通常、MPUやメモリ等から実現され得る。制御部12の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 複数の各画像出力部13は、第二画像を出力する。なお、第二画像は、例えば、第一画像情報に対応する第一画像の一部の領域の画像である。また、第二画像は、例えば、第一画像情報に対応する第一画像の一部の時間の画像である。
 画像出力部13は、例えば、第二画像を光出力する。また、画像出力部13は、例えば、第二画像を印刷出力する。なお、第二画像は、第一の帯域と同一または第一の帯域より狭い第二の帯域の画像である。また、複数の画像出力部13のすべては、通常、第二画像を出力する。ただし、複数の画像出力部13のうちの、一部の画像出力部13は、第二画像を出力しなくても良い。複数の画像出力部13のうち、動作していない画像出力部13が存在しても良い。また、複数の画像出力部13のうちの、一部の画像出力部13は、一時的に第二画像を出力しなくても良い。
 画像出力部13は、第一画像情報を用いて、第二画像を出力する。また、複数の各画像出力部13は、制御部12が決定した情報を用いて、第二画像を出力する。なお、制御部12が決定した情報は、第一画像情報に関する情報である。制御部12が決定した情報は、例えば、第一画像情報の一部の情報から構成される情報である。
 また、複数の各画像出力部13は、制御部12から渡された画像である第二画像を出力しても良い。
 また、複数の各画像出力部13が出力した結果である一の画像は第三画像である。第三画像は、第一の帯域より広帯域の第三の帯域の画像である。また、第三画像は、第一画像と比較して、空間的、時間的、階調的のうちの少なくともいずれか一つにおいて、広帯域となるような出力制御が施された画像であっても良い。なお、ここで、出力制御とは、ズームまたはパンまたはチルトされた画像を出力するための制御、またはスローモーションを実現する画像を出力するための制御、またはハイフレームレート化を実現する画像を出力するための制御、第一画像より多階調の画像を出力するための制御等である。
 第三の帯域は、例えば、空間的に第一の帯域より広帯域である。つまり、例えば、第一の帯域の第一画像の画素数よりも、第三の帯域の第三画像の画素数の方が多い。例えば、第一の画像がHD解像度(1920画素×1080画素)の場合に対して、第三の画像が8K解像度(7680画素×4320画素)の場合などである。
 また、第三の帯域は、例えば、時間的に第一の帯域より広帯域である。つまり、例えば、第一の帯域の第一画像が30Hzや60Hzの時間解像度を有する画像であり、第三の帯域の第三画像が120Hzや240Hzの時間解像度を有する画像である。また、例えば、第一の帯域の第一画像が60Hzの画像であり、複数の各画像出力部13の第二画像の出力により4倍の時間解像度の画像をクリエーションできる場合に、制御部12は、240Hzで等倍速の第三画像を実現するために、複数の各画像出力部13に第二画像の出力を指示し、複数の各画像出力部13は、当該指示に従ってハイフレームレート化を実現しても良い。また、例えば、第一の帯域の第一画像が60Hzの画像であり、複数の各画像出力部13の第二画像の出力により4倍の時間解像度の画像をクリエーションできる場合に、制御部12は、60Hzで1/4倍速の第三画像を実現するために、複数の各画像出力部13に第二画像の出力を指示し、複数の各画像出力部13は、当該指示に従って第二画像を出力し、スローモーションの第三画像を出力しても良い。
 また、第三の帯域は、例えば、階調的に第一の帯域より広帯域である。つまり、例えば、第一の帯域の第一画像が4bitや8bitの階調を有する画像であり、第三の帯域の第三画像が16bitや32bitの階調を有する画像である。
 さらに、複数の第二画像の出力は、例えば、光出力であり、アナログ的な出力であり、最終的な出力結果である第三画像もアナログ的なものである。ここで第三画像は、例えば、16Kという空間解像度、240Hzという時間解像度、16bitという階調等のデジタル的な情報を光出力した場合と同等の出力となる。すなわち、第三画像は、第一の帯域よりも広帯域な第三の帯域を有する画像であると言える。なお、アナログ的な出力とは、離散化されていない連続的な出力である。
 ここで、出力とは、プロジェクタを用いた投影、プリンタでの印字、ディスプレイへの表示、外部の表示装置への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。
 また、複数の画像出力部13は、相互に、予め決められた精度でずらして第二画像を出力しても良い。「予め決められた精度でずらす」とは、予め決められた距離をずらすことと同様である。
 画像出力部13は、例えば、プロジェクタとそのドライバーソフト等で実現され得る。また、画像出力部13は、例えば、プリンタとそのドライバーソフト等で実現され得る。また、画像出力部13は、例えば、ディスプレイ等の出力デバイスとそのドライバーソフト等で実現され得る。
 画像出力部13を構成する画像処理手段131は、第一画像情報に対して、予め決められた画像処理を行い、出力する第二画像を生成する。画像処理手段131は、例えば、第一画像情報を用いて、第一画像の一部の領域を高解像度化した第二画像を生成する。ここで、第二画像は第一画像と比べて画素数は同じまたは少ないものとする。例えば、第一画像がHD(1920画素×1080画素)の場合、画像処理手段131は、その1/4にあたる960画素×540画素の領域に対して、解像度を2倍する処理を施し、1920画素×1080画素の第二画像を生成する。なお、解像度創造の技術は公知技術であるので、詳細な説明を省略する。また、画像処理手段131は、例えば、第一画像情報に対して、ノイズを除去する処理等の、解像度を創造する処理以外の処理を行っても良い。
 画像処理手段131は、通常、MPUやメモリ等から実現され得る。画像処理手段131の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 画像出力手段132は、画像処理手段131が生成した第二画像を出力する。画像出力手段132は、例えば、プロジェクタにより実現され得る。また、画像出力手段132は、例えば、プリンタにより実現され得る。特に、画像出力手段132は、例えば、プリンタのトナーの噴出部およびその制御部により実現され得る。なお、画像出力手段132は、制御部12から渡された第二画像を出力しても良い。
 ここで、出力とは、プロジェクタを用いた投影、プリンタでの印字、ディスプレイへの表示、外部の表示装置への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。
 画像出力手段132は、ディスプレイやプリンタ等の出力デバイスを含むと考えても含まないと考えても良い。画像出力手段132は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 なお、画像出力装置1は、複数の画像出力部13のうちの少なくとも一の画像出力部13に対応づけて、1または2以上の駆動部14を備えても良い。かかる場合の画像出力装置1のブロック図を図2に示す。かかる場合の画像出力装置1は、受付部11、制御部12、複数の画像出力部13、および1または複数の駆動部14を備える。駆動部14は、画像出力部13に対応付いている。ただし、すべての画像出力部13に対応付けて、駆動部14が存在する必要はない。駆動部14は、一の画像出力部13のみに対応付けて、存在しても良い。また、1つの駆動部が2以上の画像出力部13に対応づいていてもよい。
 駆動部14は、対応する画像出力部13の位置を変更できる。駆動部14は、制御部12によって決定された位置に従って画像出力部13の位置を変更する。また、駆動部14は、受付部11が受け付けた指示に応じて、画像出力部13の位置を変更しても良い。なお、画像出力部13の位置の変更とは、画像出力手段132の位置の変更でも良い。
 駆動部14は、通常、アクチュエータにより実現され得る。ここでのアクチュエータは、画像出力部13の位置を変更できる。
 次に、画像出力装置1の動作について、図3のフローチャートを用いて説明する。
 (ステップS301)受付部11は、第一画像情報、または出力制御の指示、または第一画像情報と出力制御の指示を受け付けたか否かを判断する。第一画像情報または/および出力制御の指示を受け付ければステップS302に行き、受け付けなければステップS310に行く。
 (ステップS302)制御部12は、カウンタiに1を代入する。
 (ステップS303)制御部12は、i番目の画像出力部13が存在するか否かを判断する。i番目の画像出力部13が存在すればステップS304に行き、存在しなければステップS310に行く。
 (ステップS304)制御部12は、i番目の画像出力部13の情報を取得する。なお、この画像出力部13の情報は、通常、制御部12が、図示しないバッファに予め保持しているが、i番目の画像出力部13から取得しても良い。また、画像出力部13の情報とは、画像出力部13の位置、または出力する第二画像に関する情報等である。出力する第二画像に関する情報とは、例えば、第一画像情報のうちで、担当する領域の情報(通常、矩形の領域)である。
 (ステップS305)制御部12は、出力制御の指示、およびステップS304で取得したi番目の画像出力部13の情報を用いて、i番目の画像出力部13に与える情報を決定する。制御部12は、例えば、出力制御の指示とi番目の画像出力部13の位置から、第一画像の全領域のうち、i番目の画像出力部13に与える画像の領域を取得する。なお、この領域の情報は、例えば、(x1,y1)(x2,y2)の情報であり、矩形領域を特定する情報である。ここで、例えば、(x1,y1)は矩形の左上座標、(x2,y2)は矩形の右下座標を示す。
 なお、ステップS301で出力制御の指示が受け付けられなかった場合、制御部12は、ステップS304で取得したi番目の画像出力部13の情報を用いて、i番目の画像出力部13に与える情報を決定しても良い。
 (ステップS306)制御部12は、ステップS305で決定した情報を、第一画像情報を用いて取得する。
 (ステップS307)i番目の画像出力部13を構成する画像処理手段131は、ステップS306で取得された情報(通常、画像)に対して、予め決められた画像処理を行い、出力する第二画像を生成する。なお、ここで、ステップS306で取得された情報が画像でない場合でも、画像に関する情報である。そして、かかる画像に関する情報に対する所定の処理も画像処理と言うこととする。
 (ステップS308)i番目の画像出力部13を構成する画像出力手段132は、ステップS307で画像処理手段131が生成した第二画像を出力する。
 (ステップS309)制御部12は、カウンタiを1、インクリメントする。ステップS303に戻る。
 (ステップS310)受付部11は、変更指示を受け付けたか否かを判断する。変更指示を受け付ければステップS311に行き、変更指示を受け付けなければステップS301に戻る。
 (ステップS311)制御部12は、ステップS310で受け付けられた変更指示に応じて、1または2以上の各駆動部14に位置の変更を指示する。
 (ステップS312)駆動部14は、ステップS311における指示に応じて、画像出力部13の位置を変更する。ステップS301に戻る。なお、駆動部14は、すべての画像出力部13の位置を変更しても良いし、変更指示に示された画像出力部13のみの位置を変更しても良い。
 なお、図3のフローチャートにおいて、複数の各画像出力部13の処理は並行処理されても良いことは言うまでもない。かかる場合、ステップS304~ステップS306の処理が、複数の各画像出力部13の処理の前に実行される。
 また、図3のフローチャートにおいて、受付部11が受け付けた指示に応じて、画像出力部13の位置を変更した。しかし、駆動部14は、制御部12によって決定された位置に従って画像出力部13の位置を変更しても良い。
 例えば、第一画像の一部分が高輝度の場合、その部分に集中的に画像出力部13を割り当てられるように画像出力部13の位置を変更する。
 例えば、画像出力部13のうち1つが故障した場合、それを補うように他の画像出力部13の位置を変更する。
 また、図3のフローチャートにおいて、画像処理手段131は動作せず、画像出力手段132は、制御部12から渡された情報である第二画像を出力しても良い。
 さらに、図3のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 以下、本実施の形態における画像出力装置1の具体的な動作について説明する。ここで、画像出力装置1は、複数のプロジェクタを具備する。プロジェクタは、画像出力部13の画像出力手段132に該当する。
 以下、21の具体例について説明する。具体例1から具体例3は、第一画像、第二画像、および第三画像の帯域のバリエーションについて説明するための具体例である。具体例4から具体例8は、画像出力部13がプロジェクタ132を有し、プロジェクタの位置のバリエーションについて説明するための具体例である。具体例9から具体例13は、画像出力部13がプロジェクタ132を有し、駆動部14等により、プロジェクタの位置や光学デバイス(通常、鏡)を動かして、光出力を制御する具体例である。具体例14から具体例17は、画像出力部13による第二画像の出力方法の工夫により、第一の帯域より広帯域の第三の帯域の第三画像を出力する具体例である。また、具体例18から具体例21は出力制御の指示を受け付け、価値創造が行われた第三画像を出力する具体例である。
(具体例1)
 具体例1は、入力画像に関する情報である第一画像情報がハイビジョン(以下、「HD」とも言う)画像であり、出力画像である第三画像が16Kの画像である場合である。
 具体例1において、画像出力部13を構成する画像出力手段132はプロジェクタである。具体例1における画像出力装置1のブロック図を図4に示す。図4において、受付部11はHD画像である第一画像情報を受け付ける。次に、制御部12は、2以上の各画像処理手段131の情報を、図示しないバッファから取得する。なお、図示しないバッファは、例えば、制御部12が保持しているバッファである。また、各画像処理手段131の情報は、例えば、画像処理手段131の識別子、画像処理手段131の設置位置を示す情報、画像処理手段131が投影すべき画像の領域を示す情報等である。また、画像処理手段131の情報は、画像処理手段131が出力に使用する画像またはトリガ信号を特定する情報であり、適宜、特定情報と言う。
 次に、制御部12は、2以上の各画像処理手段131に対応する特定情報を用いて、各画像処理手段131に与える情報を決定する。ここでは、各画像処理手段131に与える情報は、入力のHD画像の一部の空間領域の画像である、とする。
 次に、制御部12は、画像処理手段131ごとに、決定した情報であるHD画像の一部の空間領域の画像を第一画像から取得し、各画像処理手段131に渡す。
 次に、2以上の各画像処理手段131は、渡された画像に対して、予め決められた画像処理(例えば、解像度創造の処理、またはノイズ除去の処理等)を行い、出力する第二画像を生成する。そして、2以上の各画像出力手段132は、画像処理手段131が生成した第二画像を光出力する。
 そして、複数の画像出力手段132が出力した複数の第二画像は、画像を投影するスクリーンで光学合成され、出力画像である第三画像がスクリーン上に表示される。なお、第三画像は、例えば、16Kの空間解像度を有する画像である。なお、スクリーンは、部屋の壁等でも良い。
 なお、図4において、画像出力装置1は駆動部14を具備しなかったが、駆動部14を具備しても良い。かかる場合のブロック図は、図5である。画像出力装置1が、駆動部14を具備する場合、例えば、制御部12は、プロジェクタ132の位置が制御されように、駆動部14に指示する。なお、ここでの駆動部14は、アクチュエータである。
(具体例2)
 具体例2は、入力画像の情報である第一画像情報が4K画像であり、受け付けられた4K画像が、例えば、HD帯域のトリガ信号に変換される。そして、制御部12は、当該トリガ信号を、複数の各画像処理手段131に渡す。次に、各画像処理手段131は、渡されたトリガ信号を処理し、第二画像を生成する。次に、複数の画像出力手段132は、当該第二画像を出力する。そして、複数の画像出力手段132の出力により表示された出力画像である第三画像が16Kの画像となる。
 具体例2において、画像出力部13を構成する画像出力手段132はプロジェクタである。具体例2における画像出力装置1のブロック図を図6に示す。
 図6において、入力画像である第一画像情報は、例えば、4K画像である。そして、受付部11は4K画像である第一画像情報を受け付ける。次に、受付部11が具備する変換手段は、4K画像をHD帯域のトリガ信号に変換する。なお、変換方法は問わない。
 次に、制御部12は、2以上の特定情報を、図示しないバッファから取得する。なお、2以上の各特定情報は、各画像処理手段131に対応する情報である。
 次に、制御部12は、2以上の各特定情報を用いて、各画像処理手段131に与える情報を決定する。
 次に、制御部12は、画像処理手段131ごとに、決定した情報に対応するトリガ信号を取得し、各画像処理手段131に渡す。
 次に、2以上の各画像処理手段131は、渡されたトリガ信号に対して、予め決められた画像処理を行い、出力する第二画像を生成する。そして、2以上の各画像出力手段132は、画像処理手段131が生成した第二画像を光出力する。
 そして、複数の画像出力手段132が出力した複数の第二画像は、画像を投影するスクリーンで光学合成され、出力画像である第三画像がスクリーン上に表示される。なお、第三画像は、例えば、16Kの空間解像度を有する画像である。
 なお、図6において、画像出力装置1は駆動部14を具備しなかったが、駆動部14を具備しても良い。かかる場合のブロック図は、図7である。画像出力装置1が、駆動部14を具備する場合、例えば、制御部12により駆動部14の位置が制御される。なお、ここでは、駆動部14は、アクチュエータである。
(具体例3)
 具体例3は、入力画像の情報である第一画像情報が、例えば、4K画像から抽出されたHD帯域のトリガ信号であり、出力画像である第三画像が16Kの画像である場合である。
 具体例2において、4K画像からHD帯域のトリガ信号を抽出する処理は、画像出力装置1が行った。しかし、具体例3では、4K画像からHD帯域のトリガ信号を抽出する処理は、画像出力装置1に対して情報を送信する通信装置または放送装置等が行う。かかる場合の画像出力装置1のブロック図を図8に示す。
 具体例3における画像出力装置1の動作は、以下である。まず、受付部11はHD帯域のトリガ信号を受け付ける。
 次に、制御部12は、2以上の特定情報を、図示しないバッファから取得する。なお、2以上の各特定情報は、各画像処理手段131に対応する情報である。
 次に、制御部12は、2以上の各特定情報を用いて、各画像処理手段131に与えるトリガ信号を決定する。なお、各画像処理手段131に与えるトリガ信号は、通常、受付部11が受け付けたトリガ信号の全部または一部である。
 次に、制御部12は、画像処理手段131ごとに、決定したトリガ信号を各画像処理手段131に渡す。
 次に、2以上の各画像処理手段131は、渡されたトリガ信号に対して、予め決められた画像処理を行い、出力する第二画像を生成する。そして、2以上の各画像出力手段132は、画像処理手段131が生成した第二画像を光出力する。
 そして、複数の画像出力手段132が出力した複数の第二画像は、画像を投影するスクリーンで光学合成され、出力画像である第三画像がスクリーン上に表示される。なお、第三画像は、例えば、16Kの空間解像度を有する画像である。
(具体例4)
 具体例4は、画像出力部13がプロジェクタ132を有し、プロジェクタ132が棚901に設置されており、複数のプロジェクタ132の投影範囲が重複しない場合である。複数のプロジェクタ132が棚901に配置されている概念図を図9に示す。また、ここでは、図10、および図11に示すように、複数のプロジェクタの投影範囲は重複しない。また、具体例4における画像出力装置1のブロック図は、例えば、図4から図8のいずれかである。なお、具体例4において、画像出力装置1は、16個のプロジェクタ132を有するが、画像出力装置1が有するプロジェクタ132の数は問わない。
 具体例4において、制御部12は、特定情報を各画像処理手段131に対応付けて保持している。なお、特定情報は、2以上の各画像処理手段131が投影に使用する画像を特定する情報、または2以上の各画像処理手段131が投影に使用するトリガ信号を特定する情報である。また、特定情報は、例えば、受付部11が受け付けた第一画像のうちの空間領域を特定する情報であり、例えば、矩形を特定する2つの座標点(例えば、左上座標の点、右下座標の点)の情報である。そして、例えば、2以上の各画像処理手段131に対応する特定情報は、各画像処理手段131が担当する領域の矩形を特定する情報であり、図11に記載されている座標のうちの、2点の座標値である。また、特定情報は、図11に示す各矩形領域のID等でも良い。
 そして、画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様である。
(具体例5)
 具体例5は、画像出力部13がプロジェクタ132を有し、プロジェクタが棚1201に設置されており、投影範囲が重複する複数のプロジェクタ132が存在する場合である。具体例5において、複数のプロジェクタ132が棚1201に配置されている概念図を図12に示す。また、ここでは、図13に示すように、複数のプロジェクタの投影範囲は重複する。また、具体例5における画像出力装置1のブロック図は、例えば、図4から図8のいずれかである。
 そして、画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様である。
(具体例6)
 具体例6は、画像出力部13がプロジェクタ132を有し、プロジェクタ132がアーム1401により支持され、配置されており、複数のプロジェクタ132の投影範囲が重複しない場合である。具体例6における画像出力装置1の概念図を図14に示す。また、ここでは、図15に示すように、複数のプロジェクタの投影範囲は重複しない。
 なお、画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様であるので、ここでの説明は省略する。また、アーム1401は、例えば、伸縮可能であっても良い。かかる場合、受付部11が受け付けた変更指示に応じて、駆動部14は、アーム1401を伸縮させ、プロジェクタ132の位置を変更する。
(具体例7)
 具体例7は、画像出力部13がプロジェクタ132を有し、プロジェクタ132がアーム1601により支持され、配置されており、投影範囲が重複する複数のプロジェクタが存在する場合である。具体例7における画像出力装置1の概念図を図16に示す。また、ここでは、図17に示すように、複数のプロジェクタ132のうちの一部の投影範囲は重複する。
 なお、画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様であるので、ここでの説明は省略する。また、アーム1601は、例えば、伸縮可能であっても良い。かかる場合、受付部11が受け付けた変更指示に応じて、駆動部14は、アーム1601を伸縮させ、プロジェクタ132の位置を変更する。
(具体例8)
 具体例8は、画像出力部13がプロジェクタ132を有し、プロジェクタ132が棚901に設置されており(図9参照)、プロジェクタのズームを制御することにより、投影範囲を制御し、複数のプロジェクタ132の投影範囲が重複しない場合である(図10参照)。
 具体例8において、ユーザは、例えば、画像出力装置1と投影面との距離、投影面の大きさに応じて、プロジェクタ132のズームを制御する指示を入力した、とする。すると、受付部11は、当該指示を受け付ける。次に、制御部12は、受け付けられた指示に応じて、プロジェクタ132のズームを制御する。なお、プロジェクタ132のズームを制御する処理は公知技術であるので、詳細な説明は省略する。
 そして、プロジェクタ132のズームを制御する処理後の画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様である。
(具体例9)
 具体例9は、画像出力部13がプロジェクタ132を有し、プロジェクタ132が棚1801に設置されており、プロジェクタ132のズームを制御することにより、投影範囲を制御し、投影範囲が重複する複数のプロジェクタが存在する場合である。具体例9における画像出力装置1の概念図を図18に示す。また、ここでは、図19に示すように、複数のプロジェクタの投影範囲のうちの一部が重複する。また、具体例9における画像出力装置1のブロック図は、例えば、図4から図8のいずれかである。
 そして、画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様である。
(具体例10)
 具体例10は、画像出力部13がプロジェクタ132を有し、プロジェクタ132が可動棚2001に設置されており、駆動部14による可動棚2001の移動により、プロジェクタ132の位置を変更可能な場合である。かかる場合の画像出力装置1の概念図を図20に示す。
 図20において、可動棚2001は、例えば、矢印2002に示すように前後、または矢印2003に示すように上下、または前後と上下に移動可能である、とする。また、矢印2004に示すように、プロジェクタ132が左右に移動可能である、とする。
 かかる状況において、ユーザは、例えば、画像出力装置1と投影面との距離、投影面の大きさに応じて、可動棚1201を移動させる変更指示を入力した、とする。すると、受付部11は、当該変更指示を受け付ける。次に、駆動部14は、受け付けられた変更指示に応じて、可動棚1201を移動させ、プロジェクタ132の位置を変更する。なお、ここでの変更指示は、可動棚2001を移動させる距離、または可動棚2001の移動位置を示す情報、プロジェクタ132の位置などの情報を有する。なお、ユーザとは、例えば、画像出力装置1のメンテナンスをする者である。また、投影面とは、第三画像が表示されるスクリーン、壁等である。
 そして、可動棚1201を移動させた後の画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様である。
 なお、このような画像出力装置1によって、図9、図10に示すような配置(具体例4参照)、図12、図13に示すような配置(具体例5参照)、図18、図19に示すような配置(具体例9参照)などに、プロジェクタ132の位置を制御可能であることは言うまでもない。
(具体例11)
 具体例11は、画像出力部13がプロジェクタ132を有し、プロジェクタ132がロボットアーム2101により支持さて、設置されており、ロボットアーム2101を含む駆動部14により、プロジェクタ132の位置を変更可能な場合である(図21参照)。また、具体例11において、プロジェクタ132の投影範囲が一部に重複する場合である(図22参照)。
 具体例11において、ユーザは、例えば、画像出力装置1と投影面との距離、投影面の大きさに応じて、ロボットアーム2101を伸縮させる変更指示を入力した、とする。すると、受付部11は、当該変更指示を受け付ける。次に、駆動部14は、受け付けられた変更指示に応じて、ロボットアーム2101を移動させ、プロジェクタ132の位置を変更する。
 そして、ロボットアーム2101を移動させた後の画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様である。
 なお、ロボットアーム2101および画像出力部13を制御することで、例えば図14、図15のような配置(具体例6参照)に、プロジェクタ132の位置を制御可能であることは言うまでもない。
(具体例12)
 具体例12は、画像出力部13がプロジェクタ132を含み、プロジェクタ132が可動棚2301に設置されており、画像出力部13が有する光学デバイス2302を動かして光路制御が可能であり(図23参照)、複数のプロジェクタの投影範囲が重複しない場合である(図24参照)。なお、光学デバイス2302は、通常、鏡である。
 具体例12において、ユーザは、例えば、画像出力装置1と投影面との距離、投影面の大きさに応じて、光学デバイス2302を回転させる変更指示を入力した、とする。すると、受付部11は、当該変更指示を受け付ける。次に、制御部12は、受け付けられた変更指示に応じて、駆動部14に光学デバイス2302を回転させる指示を行う。そして、駆動部14は、当該指示に応じて、光学デバイス2302を回転させる。そして、光学デバイス2302は、プロジェクタ132が投影する画像(光)の光路を変更するように回転する。なお、光学デバイス2302を回転させる変更指示は、光路を変更するための光学デバイス2302を移動させる指示に含まれる、とする。また、光学デバイス2302の回転は、ここでは、鏡の1辺を軸とした回転である。
 以下、上述した光学デバイス2302の制御について、図25から図27を用いて説明する。
 図25は、プロジェクタ132の前に光学デバイス2302を設置して、その光学デバイス2302の角度を2次元的に変えることにより、投影位置を制御する処理を説明する図である。図25において、スクリーン2501の面の座標軸をX-Y軸、スクリーン2501の面と垂直な座標軸をZ軸とする。また、プロジェクタ132の光軸はX軸と平行とし、光学デバイス2302はY軸およびZ軸周りに(φ/2,θ/2)回転するものとする。さらに、投影距離Lに対して、プロジェクタ132と光学デバイス2302との間の距離Lは無視できる程度に短いものとするものとする。つまり、Lは、近似的に0として扱うものとする。なお、光学デバイス2302を回転させることは、プロジェクタ132を2次元的に回転させることと等価的に扱うことができる(図26参照)。図26において、光学デバイス2302がY軸およびZ軸周りに(φ/2,θ/2)回転した場合、図28に示すように、プロジェクタ132をX軸周りにθ、Y軸周りにφ回転させたとみなすことができる。
 また、図27に示すように、θ=0、φ=0の時に、プロジェクタ132から投影された一の画素のスクリーン上における投影位置が(x,y,L)であったとする。そして、図28に示すように、この一の画素の投影位置が、プロジェクタ132が回転することにより(u,v,L)に移動する。
 かかる場合の画素の位置(x,y,L)と、画素の位置(u,v,L)との関係を数式1に示す。なお、数式1において、Kは画素の位置を補正するための補正係数である。
Figure JPOXMLDOC01-appb-M000001
 つまり、制御部12は、光学デバイス2302を回転させない場合の一の画素の投影点(x,y,L)と、当該一の画素の目標投影点(u,v,L)とを数式1に代入し、θとφとを算出する。そして、制御部12は、駆動部14に、算出したθとφとに従って、光学デバイス2302を回転させる指示を行う。そして、駆動部14は、当該指示に応じて、光学デバイス2302を回転させる。そして、光学デバイス2302は、プロジェクタ132が投影する画像(光)の光路を変更するように回転する。
 なお、制御部12がθとφとを算出する式は、上記の数式1には限らず、さらに厳密なモデル等に基づく式等でも良い。
 そして、光学デバイス2302を動かして光路制御を行った後の画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様である。
(具体例13)
 具体例13は、画像出力部13がプロジェクタ132を含み、プロジェクタ132が可動棚2301に設置されており、画像出力部13が有する光学デバイス2302(鏡)を動かして光路制御が可能であり(図23参照)、投影範囲が重複する複数のプロジェクタが存在する場合である(図28参照)。
 具体例13において、ユーザは、例えば、画像出力装置1と投影面との距離、投影面の大きさに応じて、光学デバイス2302を回転させる変更指示を入力した、とする。すると、受付部11は、当該変更指示を受け付ける。次に、駆動部14は、受け付けられた変更指示に応じて、光学デバイス2302を回転させ、プロジェクタ132が投影する画像(光)の光路を変更する。
 そして、光学デバイス2302を動かして光路制御を行った後の画像出力装置1の動作は、具体例1から具体例3のいずれかの動作と同様である。
(具体例14)
 具体例14は、画像出力部13がプロジェクタ132を有し、複数のプロジェクタ132が出力する第二画像が重なることにより、広帯域な階調を有する第三画像を出力する場合である。なお、広帯域な階調とは、狭帯域の階調と比較して、多階調であることを言う。
 具体例14において、複数のプロジェクタ132が、少なくとも一部に重なる領域に、異なる第二画像を出力することにより、投影面が明るくなり、第二画像の出力が重ならない場合と比較して、階調が増加する(図29参照)。なお、図29において、プロジェクタ132は二つ(132(1)、132(2))である。また、複数のプロジェクタ132が同じ第二画像を出力する場合は、階調は増加しない。
 また、かかる場合の理論を図30のグラフを用いて説明する。図29の各プロジェクタ132が8bitの階調(各画素の画素値は0~255)の第二画像を出力する、とする。そして、図30のグラフにおいて、縦軸が明るさ、横軸がプロジェクタ132の投影位置を示す。また、3001はプロジェクタ132(1)が出力する第二画像による各位置(領域)の明るさの増加分、3002はプロジェクタ132(2)が出力する第二画像による各位置(領域)の明るさの増加分を示す。そして、2つの第二画像の出力の結果である第三画像の各画素の画素値は0~510を採り得、その階調は511階調になる。つまり、プロジェクタ132(1)が出力する第二画像(1)の各画素の画素値は0から255を採り得、プロジェクタ132(2)が出力する第二画像(2)の各画素の画素値は0から255を採り得るので、2つの第二画像が重なった領域の各画素の画素値は0から510を採り得る。図30に示すように、2つのプロジェクタ132のうちの一方プロジェクタ132の出力である第二画像の画素値を1増減させることにより、第三画像の階調を増やすことが可能となる。
 なお、具体例14において、制御部12は、各プロジェクタ132に対応する特定情報を図示しないバッファから読み出し、図29に示すように、各プロジェクタ132が出力する第二画像が重なるように、各プロジェクタ132に与える情報を決定する。ここで、特定情報は、各プロジェクタ132に対応付けられている情報であり、例えば、各プロジェクタ132が第二画像を出力する領域を示す情報である。
 次に、画像処理手段131は、制御部12が決定した情報(通常、画像)に対して、予め決められた画像処理を行い、各プロジェクタ132が出力する第二画像を生成する。そして、各プロジェクタ132は、画像処理手段131が生成した第二画像を出力する。その結果、スクリーンまたは壁等に、第一画像または/および第二画像と比較して、階調が増加した第三画像が表示される。
(具体例15)
 具体例15は、画像出力部13がプロジェクタ132を有し、複数の各プロジェクタ132が、予め決められた精度でずらして第二画像を出力することにより、広帯域な空間解像度を有する第三画像を出力する場合である(図31参照)。なお、図31において、プロジェクタ132は二つ(132(1)、132(2))である。
 また、かかる場合の理論を図32、図33のグラフを用いて説明する。図31の各プロジェクタ132が、例えば、第二画像の出力位置を1画素未満(例えば、0.6画素)ずらして、第二画像を出力する。すると、図32のように、プロジェクタ132(1)が出力した第二画像の画素と画素の間に、プロジェクタ132(2)が出力した第二画像の画素が入り込む態様になり、第二画像と比較して、空間解像度が増加した第三画像が表示される。空間解像度が増加した第三画像のイメージは、図33のグラフの3301である。第三画像において、通常、各画素の明るさも増加する。
 なお、ここで、複数の各プロジェクタ132が出力する第二画像の画素位置のずれ量は1画素を超えていてもよい。その場合は、画素単位のずれを予め第二画像で補正した上で、1画素未満のずれに対する処理を同様に行う。
(具体例16)
 具体例16は、画像出力部13が複数のプロジェクタ132を有し、各プロジェクタ132の画素構造がベイヤ配列になっている場合である。また、ここで第一画像は、このプロジェクタのベイヤ配列に対応した帯域の画像が入力されるものとする。そして、複数の各プロジェクタ132が、例えば、第二画像を1画素ずらして、第二画像を出力することにより、広帯域な空間解像度を有する第三画像を出力する場合である図34に示すように、各プロジェクタは緑の画素(G)、赤の画素(R)、青の画素(B)が市松状に配置されている。図34において、各々異なる位置に配置されたプロジェクタ132(1)、プロジェクタ132(2)、プロジェクタ132(3)、およびプロジェクタ132(4)が、例えば、各々1画素ずらして、第二画像を出力する、とする。すると、図35に示すイメージのように、例えばある場所においてはプロジェクタ132(1)およびプロジェクタ132(4)が緑の画素(G)、プロジェクタ132(2)が赤の画素(R)、プロジェクタ132(3)が青の画素(B)が割り当てられる。その結果、第一画像または/および第二画像と比較して、空間解像度が増加した第三画像が表示される。
(具体例17)
 具体例17は、画像出力部13がプロジェクタ132を有し、複数の各プロジェクタ132が第二画像を時分割で出力することにより、広帯域な時間解像度を有する第三画像を出力する場合である。
 通常、例えば、複数の各プロジェクタ132は、60Hzの時間解像度で、第二画像を出力する、とする。
 そして、例えば、画像出力装置1が2つのプロジェクタ132(132(1)、132(2))を有する場合、制御部12は、2つの各プロジェクタ132が、時分割で、順次、かつ繰り返し、第二画像を出力するように制御する。
 かかる制御を、図36、図37を用いて説明する。制御部12は、表示開始時(0/120(s))の時点において、プロジェクタ132(1)の特定情報(例えば、「ON」または「1」)、プロジェクタ132(2)の特定情報(例えば、「OFF」または「0」)を図示しないバッファから読み出す。そして、制御部12は、プロジェクタ132(1)の特定情報(例えば、「ON」)に従って、受付部11が受け付けた第一画像情報のうちの、0/120(s)時点の画像を取得し、プロジェクタ132(1)に対応する画像処理手段131に渡す。
 次に、当該画像処理手段131は、渡された画像に対して、予め決められた処理を行い、第二画像を生成する。次に、プロジェクタ132(1)は当該第二画像を出力する(図36参照)。また、制御部12は、プロジェクタ132(2)の情報(例えば、「OFF」)に従って、プロジェクタ132(2)に対応する画像処理手段131には情報を渡さない。なお、制御部12は、プロジェクタ132(2)の出力を遮る処置を施しても良い(図36参照)。
 次に、制御部12は、表示開始から「1/120(s)」の時点において、受付部11が受け付けた第一画像情報のうちの、1/120(s)時点の画像を取得し、プロジェクタ132(2)に対応する画像処理手段131に渡す。次に、当該画像処理手段131は、渡された画像に対して、予め決められた処理を行い、第二画像を生成する。次に、プロジェクタ132(2)は当該第二画像を出力する(図37参照)。また、制御部12は、プロジェクタ132(1)に対応する画像処理手段131には情報を渡さない。なお、制御部12は、プロジェクタ132(1)の出力を遮る処置を施しても良い(図37参照)。
 また、受付部11が画像を受け付けている間、制御部12および画像出力部13は、図36、図37で説明した処理を交互に繰り返し行う。その結果、各プロジェクタ132から出力される第二画像の時間解像度は「60Hz」であるが、第三画像の時間解像度は「120Hz」となる(図38参照)。なお、図38において、3801はプロジェクタ132(1)の出力であり、3802はプロジェクタ132(2)の出力である。
 つまり、具体例17において、第一画像または/および第二画像と比較して、時間解像度が増加した第三画像が表示される。
(具体例18)
 具体例18から具体例19は、図39に示す処理を実現する場合である。図39において、第一画像が、例えば、HD画像である、とする。そして、複数の画像出力部13による第二画像の出力により表示された第三画像は、第一画像の一部分を高解像度化した画像である。例えば、第一画像を水平垂直それぞれに解像度を4倍にし、そのうちの水平垂直それぞれ半分の領域を第三画像として表示した場合、第三画像は第一画像を8K相当の画像に高解像度化しつつ、その一部を4K画像としてズーム表示していることになる。
 今、ユーザは、図40のリモコンを用いて、画像出力装置1が出力する画像を操作する、とする。図40のリモコンは、例えば、いわゆるスマートフォンである。なお、リモコンは、携帯端末、携帯電話、専用のリモコン等でも良い。また、図40のリモコンにおいて、4001はズームを実現するボタンである。また、4002はパンを実現するボタンである。また、4003はチルトを実現するボタンである。また、4004はスローモーションを実現するボタンである。
 ここで、ユーザは、ズームボタン4001を押下し、かつズーム窓4005の大きさ、位置を、図40に示すように設定した、とする。なお、リモコンの画面部分には、4006に示すように、画像出力装置1が出力され得る画像が表示されている。
 次に、受付部11は、出力制御の指示を受け付ける。この出力制御の指示は、ズームの指示であり、かつズーム窓4005の領域の情報を有する。
 次に、制御部12は、4つの各プロジェクタ(132(1)、132(2)、132(3)、132(4))の位置の情報を図示しないバッファから取得する。
 次に、制御部12は、出力制御の指示、および取得した各プロジェクタ132の情報を用いて、各プロジェクタ132が出力する第二画像の情報を取得する。
 次に、制御部12は、取得した第二画像の情報を用いて、図41の132(1)で囲まれた領域の画像を取得する指示をプロジェクタ132(1)に対応する画像処理手段131に対して行う。また、制御部12は、取得した情報を用いて、図41の132(2)で囲まれた領域の画像を取得する指示をプロジェクタ132(2)に対応する画像処理手段131に対して行う。また、制御部12は、取得した情報を用いて、図41の132(3)で囲まれた領域の画像を取得する指示をプロジェクタ132(3)に対応する画像処理手段131に対して行う。さらに、制御部12は、取得した情報を用いて、図41の132(4)で囲まれた領域の画像を取得する指示をプロジェクタ132(4)に対応する画像処理手段131に対して行う。
 次に、各プロジェクタ132に対応する各画像処理手段131は、予め決められた画像処理を行い、出力する第二画像を生成する。
 次に、各プロジェクタ132は、各画像処理手段131が生成した第二画像を出力する。そして、図42に示すように、4Kのズームされた第三画像4201が出力される。
(具体例19)
 具体例19において、ユーザは、図40のリモコンを用いて、画像出力装置1が出力する画像のパンまたはチルトの指示を入力した(4003または4004のボタンを押下した)、とする。 次に、受付部11は、パンまたはチルトの指示を受け付ける。この出力制御の指示は、ズーム窓4005の領域および当該領域の動きの情報を有する。
 次に、制御部12は、4つの各プロジェクタ(132(1)、132(2)、132(3)、132(4))の位置の情報を図示しないバッファから取得する。
 そして、以下、(A)から(D)の処理を、パンまたはチルトの終了まで、繰り返して行う。
(A)制御部12は、出力制御の指示、および取得した各プロジェクタ132の情報を用いて、各プロジェクタ132が出力する第二画像の情報を取得する。
(B)制御部12は、取得した第二画像の情報を用いて、図41の132(1)で示された領域の画像を取得する指示をプロジェクタ132(1)に対して行う。また、制御部12は、取得した情報を用いて、図41の132(2)で示された領域の画像を取得する指示をプロジェクタ132(2)に対して行う。また、制御部12は、取得した情報を用いて、図41の132(3)で示された領域の画像を取得する指示をプロジェクタ132(3)に対して行う。さらに、制御部12は、取得した情報を用いて、図41の132(4)で示された領域の画像を取得する指示をプロジェクタ132(4)に対して行う。
(C)各プロジェクタ132に対応する各画像処理手段131は、予め決められた画像処理を行い、出力する第二画像を生成する。
(D)各プロジェクタ132は、各画像処理手段131が生成した第二画像を出力する。そして、ズームする位置を変更して、(A)に戻る。つまり、ズーム位置を移動させると、パンまたはチルトが実現できる。
 そして、図43に示すように、4Kのズームされた第三画像4201が順次、出力され、パンまたはチルトが実現される。
(具体例20)
 具体例20において、ユーザは、図40のリモコンを用いて、画像出力装置1が出力する画像のスローモーションおよびズームの2つの指示を入力した(4001、および4004のボタンを押下した)、とする。また、この指示は、1/4倍速のスローモーションの指示であり、ズームの指示であった、とする。
 次に、受付部11は、当該出力制御の指示を受け付ける。
 次に、制御部12は、4つの各プロジェクタ(132(1)、132(2)、132(3)、132(4))の位置の情報を図示しないバッファから取得する。
 次に、制御部12は、出力制御の指示、および取得した各プロジェクタ132の情報を用いて、各画像出力部13に与える情報を決定する。次に、制御部12は、決定した情報を、第一画像情報を用いて取得する。つまり、制御部12は、各プロジェクタ132に対応する各画像処理手段131に与える情報を取得する。
 次に、4つの各画像処理手段131は、制御部12が取得した情報に対して、予め決められた画像処理を行い、出力する第二画像を生成する。
 次に、各プロジェクタ(132(1)、132(2)、132(3)、132(4))は、対応する画像処理手段131が生成した第二画像を光出力する。なお、本具体例において、具体例17で説明したように、4つの各プロジェクタ132が第二画像を時分割で出力することにより、4倍の時間解像度を有する第三画像を出力できる。また、制御部12が取得した画像がズームの指示が示す領域の画像であることにより、ズームが実現できる。かかる場合の概念図を図44に示す。図44において、第一画像が60HzのHD画像であり、第三画像が240HzのHD画像であることを示す。
 なお、本具体例において、第三画像を60Hzで再生した場合、スローモーションが実現できる。
(具体例21)
 具体例21において、ユーザは、出力制御の指示の一種である、階調拡張出力指示を画像出力装置1に対して入力した、とする。階調拡張出力指示とは、第三画像の階調の一部を拡張する指示である。階調拡張出力指示とは、画像出力装置1が出力する画像の、一部の階調を拡張して出力することの指示であるとも言える。ここで、階調を拡張して出力するとは、例えば、図45のように、受付部11が8ビットの第一画像情報である入力画像を受け付けた時に、入力信号レベルのうち0~127の範囲を0~255に変換して出力したり、128~255の範囲を0~255に変換して出力したりすることである。この際、信号処理によって階調クリエーションを行うことは好適である。
 受付部11が8ビットの第一画像情報である入力画像を受け付けている際に、受付部11は、例えば、ユーザから階調拡張出力指示を受け付けた、とする。
 次に、制御部12は、4つの各プロジェクタ(132(1)、132(2)、132(3)、132(4))の位置の情報を図示しないバッファから取得する。
 次に、制御部12は、階調拡張出力指示、および取得した各プロジェクタ132の情報を用いて、各画像出力部13に与える情報を決定する。次に、制御部12は、決定した情報を、第一画像情報を用いて取得する。つまり、制御部12は、各プロジェクタ132に対応する各画像処理手段131に与える情報を取得する。
 次に、4つの各画像処理手段131は、制御部12が取得した情報に対して、上述した、入力画像の一部の階調の拡張処理を行い、出力する第二画像を生成する。
 次に、各プロジェクタ(132(1)、132(2)、132(3)、132(4))は、対応する画像処理手段131が生成した第二画像を光出力する。
 そして、図45に示すように、一部の階調を拡張した第三画像が出力される。なお、図45における8bitの入力画像(a)について、その入力信号レベルのうち0~127の範囲を0~255に変換して出力する場合(図45の(b)の場合)は、入力画像のうちの暗い箇所が潰れずに、第三画像が表示される。また、図45における8bitの入力画像(a)について、その入力信号レベルのうち128~255の範囲を0~255に変換して出力する場合(図45の(c)の場合)は、入力画像のうちの明るい箇所が飛ばずに、第三画像が表示される。
 以上、本実施の形態において、広帯域の画像出力を狭帯域で実現する画像出力装置1を提供する。なお、ここで、広帯域とは、例えば、狭帯域と比較して、空間解像度が大きいこと、時間解像度が大きいこと、多階調であること等である。
 なお、本実施の形態の具体例において、通常、プロジェクタ等の画像処理手段131の数は2のべき乗であったが、2のべき乗であるとは限らないことは言うまでもない。
 また、本実施の形態において、複数の画像出力手段132が第二画像を出力する場合の出力領域は、例えば、図11に示したように重なりが無くても良いし、重なりがあっても良い。なお、重なりがある場合は、例えば、図46のように、複数の各画像出力手段132の出力領域の概ね全体が重なる場合である。また、重なりがある場合は、例えば、図47のように、2以上の領域に分割され、かつその一部に重なりがあり、かつ輝度が均一である場合である。また、重なりがある場合は、例えば、図48のように、2以上の領域に分割され、かつその一部に重なり、かつ輝度が不均一である場合である。また、重なりがある場合は、例えば、図49のように、2以上の各画像処理手段131が出力する領域の外側一部のみが重複している場合(ブレンディングの場合)である。
 また、本実施の形態の具体例において、画像出力装置1はプロジェクタによる光出力を行ったが、プリンタによる印刷等を行うものでも良い。なお、プリンタはインクジェットプリンタでも、レーザープリンタ等でも良く、その種類は問わない。
 さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における画像出力装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、第一の帯域の第一画像に関する情報である第一画像情報を受け付ける受付部と、前記第一画像情報を用いて、前記第一の帯域と同一または前記第一の帯域より狭い第二の帯域の画像である第二画像を出力する複数の画像出力部とを具備し、前記複数の各画像出力部が出力した結果である第三画像は、前記第一画像と比較して、空間的または時間的または階調的に広帯域となるような出力制御が施された画像であるものとしてコンピュータを機能させるためのプログラムである。
 また、上記プログラムにおいて、前記第三画像は、前記第一画像に対してズームまたはパンまたはチルトされた画像、または前記第一画像に対してスローモーションを実現する画像、前記第一画像の一部の階調を拡張した画像であるものとして、コンピュータを機能させるプログラムであることは好適である。
 また、上記プログラムにおいて、前記受付部は、出力制御の指示を受け付け、前記複数の画像出力部のうちの、少なくとも一の画像出力部は、前記指示に従った第二画像の出力制御を行うものとして、コンピュータを機能させるプログラムであることは好適である。
 また、上記プログラムにおいて、前記画像出力部は、前記第二画像を光出力するものとして、コンピュータを機能させるプログラムであることは好適である。
 また、上記プログラムにおいて、前記複数の画像出力部のうちの少なくとも一の画像出力部に対応づけて、当該画像出力部の位置を変更可能な1または2以上の駆動部として、コンピュータをさらに機能させるプログラムであることは好適である。
 また、上記プログラムにおいて、前記駆動部は、前記出力制御の指示に応じて、前記少なくとも一の画像出力部を異なる位置に変更するものとして、コンピュータを機能させるプログラムであることは好適である。
 また、図50は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態の画像出力装置1を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図50は、このコンピュータシステム300の概観図であり、図51は、システム300のブロック図である。
 図50において、コンピュータシステム300は、CD-ROMドライブを含むコンピュータ301と、キーボード302と、マウス303と、モニタ304とを含む。
 図51において、コンピュータ301は、CD-ROMドライブ3012に加えて、MPU3013と、バス3014と、ROM3015と、RAM3016と、ハードディスク3017とを含む。なお、バス3014は、MPU3013やCD-ROMドライブ3012に接続されている。また、ROM3015には、ブートアッププログラム等のプログラムが記憶されている。また、RAM3016は、MPU3013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのものである。また、ハードディスク3017は、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのものである。ここでは、図示しないが、コンピュータ301は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。
 コンピュータシステム300に、上述した実施の形態の画像出力装置1の機能を実行させるプログラムは、CD-ROM3101に記憶されて、CD-ROMドライブ3012に挿入され、さらにハードディスク3017に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されても良い。プログラムは実行の際にRAM3016にロードされる。プログラムは、CD-ROM3101またはネットワークから直接、ロードされても良い。
 プログラムは、コンピュータ301に、上述した実施の形態の画像出力装置1の機能を実行させるオペレーティングシステム、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム300がどのように動作するかは周知であり、詳細な説明は省略する。
 また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 また、上記各実施の形態において、一の装置に存在する2以上の通信手段(端末情報送信部、端末情報受信部など)は、物理的に一の媒体で実現されても良いことは言うまでもない。
 また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
 本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
 以上のように、本発明にかかる画像出力装置は、ユーザにとって新たな価値を有する広帯域の画像の出力を狭帯域で実現できるという効果を有し、テレビジョン装置等として有用である。
 1 画像出力装置
 11 受付部
 12 制御部
 13 画像出力部
 14 駆動部
 131 画像処理手段
 132 画像出力手段

Claims (9)

  1. 第一の帯域の第一画像に関する情報である第一画像情報を受け付ける受付部と、
    前記第一画像情報を用いて、前記第一の帯域と同一または前記第一の帯域より狭い第二の帯域の画像である第二画像を出力する複数の画像出力部とを具備し、
    前記複数の各画像出力部が出力した結果である第三画像は、前記第一画像と比較して、空間的または時間的または階調的に広帯域となるような出力制御が施された画像である画像出力装置。
  2. 前記第三画像は、
    前記第一画像に対してズームまたはパンまたはチルトされた画像、または前記第一画像に対してスローモーションを実現する画像、前記第一画像の一部の階調を拡張した画像である請求項1記載の画像出力装置。
  3. 前記受付部は、
    出力制御の指示を受け付け、
    前記複数の画像出力部のうちの、少なくとも一の画像出力部は、前記指示に従った第二画像の出力制御を行う請求項1または請求項2記載の画像出力装置。
  4. 前記画像出力部は、
    前記第二画像を光出力する請求項1一項に記載の画像出力装置。
  5. 前記画像出力部は、
    前記第二画像を印刷する請求項1一項に記載の画像出力装置。
  6. 前記複数の画像出力部のうちの少なくとも一の画像出力部に対応づけて、当該画像出力部の位置を変更可能な1または2以上の駆動部をさらに具備する請求項1記載の画像出力装置。
  7. 前記駆動部は、
    前記出力制御の指示に応じて、前記少なくとも一の画像出力部を異なる位置に変更する請求項6記載の画像出力装置。
  8. 受付部、および複数の画像出力部により実現され得る画像出力方法であって、
    前記受付部が、第一の帯域の第一画像に関する情報である第一画像情報を受け付ける受付ステップと、
    前記複数の各画像出力部が、前記第一画像情報を用いて、前記第一の帯域と同一または前記第一の帯域より狭い第二の帯域の画像である第二画像を出力する画像出力ステップとを具備し、
    前記複数の各画像出力部が出力した結果である第三画像は、前記第一画像と比較して、空間的または時間的または階調的に広帯域となるような出力制御が施された画像である画像出力方法。
  9. コンピュータを、
    第一の帯域の第一画像に関する情報である第一画像情報を受け付ける受付部と、
    前記第一画像情報を用いて、前記第一の帯域と同一または前記第一の帯域より狭い第二の帯域の画像である第二画像を出力する複数の画像出力部として機能させ、
    前記複数の各画像出力部が出力した結果である第三画像は、前記第一画像と比較して、空間的または時間的または階調的に広帯域となるような出力制御が施された画像であるものとしてコンピュータを機能させるためのプログラム。
PCT/JP2015/061807 2014-04-23 2015-04-17 画像出力装置、画像出力方法、および記録媒体 WO2015163251A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP15783362.5A EP3136716B1 (en) 2014-04-23 2015-04-17 Image output apparatus, image output method, and storage medium
KR1020167029695A KR102364409B1 (ko) 2014-04-23 2015-04-17 화상 출력 장치, 화상 출력 방법 및 기록 매체
CN201580021243.6A CN106233715B (zh) 2014-04-23 2015-04-17 图像输出装置、图像输出方法以及存储介质
US15/305,744 US20170048483A1 (en) 2014-04-23 2015-04-17 Image output apparatus, image output method, and storage medium
US15/816,806 US20180077379A1 (en) 2014-04-23 2017-11-17 Image output apparatus, image output method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-089494 2014-04-23
JP2014089494A JP6604710B2 (ja) 2014-04-23 2014-04-23 画像出力装置、画像出力方法、およびプログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/305,744 A-371-Of-International US20170048483A1 (en) 2014-04-23 2015-04-17 Image output apparatus, image output method, and storage medium
US15/816,806 Division US20180077379A1 (en) 2014-04-23 2017-11-17 Image output apparatus, image output method, and storage medium

Publications (1)

Publication Number Publication Date
WO2015163251A1 true WO2015163251A1 (ja) 2015-10-29

Family

ID=54332417

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/061807 WO2015163251A1 (ja) 2014-04-23 2015-04-17 画像出力装置、画像出力方法、および記録媒体

Country Status (6)

Country Link
US (2) US20170048483A1 (ja)
EP (1) EP3136716B1 (ja)
JP (1) JP6604710B2 (ja)
KR (1) KR102364409B1 (ja)
CN (1) CN106233715B (ja)
WO (1) WO2015163251A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017080048A (ja) * 2015-10-27 2017-05-18 京楽産業.株式会社 遊技機
JP2019125830A (ja) * 2018-01-11 2019-07-25 キヤノン株式会社 画像出力装置、投影装置およびそれらの制御方法、システム並びにプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125317A (ja) * 2001-10-11 2003-04-25 Sony Corp 映像投影システム、映像投影方法、映像信号処理装置、映像信号処理方法、映像投影装置、及び映像投影方法
JP2004023460A (ja) * 2002-06-17 2004-01-22 Matsushita Electric Ind Co Ltd ビデオプロジェクタシステム
JP2010243545A (ja) * 2009-04-01 2010-10-28 Seiko Epson Corp プロジェクターの光変調素子位置調整方法およびプロジェクター
JP2012035413A (ja) * 2010-08-03 2012-02-23 Nk Works Kk インクジェットプリンタ
JP2013167660A (ja) * 2012-02-14 2013-08-29 Seiko Epson Corp プロジェクター、及び、画像表示システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3706264B2 (ja) * 1998-12-21 2005-10-12 日本放送協会 投射型マルチ画面ディスプレイ装置
JP2001242435A (ja) * 2000-02-25 2001-09-07 Hitachi Ltd 液晶マルチディスプレイ表示装置
EP1300011B1 (en) * 2000-07-03 2010-08-25 Imax Corporation Processing techniques for superimposing images for image projection
JP2005149322A (ja) * 2003-11-18 2005-06-09 Canon Inc 表示装置、情報処理装置、表示システムおよびそれらの制御方法
JP4586389B2 (ja) * 2004-03-22 2010-11-24 セイコーエプソン株式会社 マルチ画面映像再生装置およびマルチ画面映像再生装置における映像再生方法
JP2006349791A (ja) * 2005-06-14 2006-12-28 Seiko Epson Corp マルチディスプレイ装置
US20070104392A1 (en) * 2005-11-07 2007-05-10 Chi Lin Technology Co., Ltd. Image enlarging method and TV wall using the same
JP2007193135A (ja) * 2006-01-19 2007-08-02 Canon Inc 表示制御装置及び表示制御方法
JP4238901B2 (ja) * 2006-08-17 2009-03-18 セイコーエプソン株式会社 プロジェクションシステム、情報処理装置、情報処理プログラム、その記録媒体、プロジェクタ、そのプログラム、及びその記録媒体
US20080143969A1 (en) * 2006-12-15 2008-06-19 Richard Aufranc Dynamic superposition system and method for multi-projection display
JP2008268557A (ja) * 2007-04-20 2008-11-06 Sony Corp 画像生成装置及び方法、プログラム、並びに記録媒体
JP5072742B2 (ja) * 2008-07-02 2012-11-14 シャープ株式会社 画像処理装置及び画像処理方法
JP2010134396A (ja) * 2008-11-10 2010-06-17 Seiko Epson Corp マルチディスプレイシステム、情報処理装置及びマルチディスプレイシステムにおける画像データ処理方法
JP2010118940A (ja) 2008-11-13 2010-05-27 Sony Corp 画像処理装置、画像処理方法、及びプログラム
US8515171B2 (en) * 2009-01-09 2013-08-20 Rochester Institute Of Technology Methods for adaptive and progressive gradient-based multi-resolution color image segmentation and systems thereof
JP2011029727A (ja) * 2009-07-21 2011-02-10 Canon Inc 画像投射装置
JP5495951B2 (ja) * 2010-05-28 2014-05-21 キヤノン株式会社 投影システム
US8941751B2 (en) * 2011-05-06 2015-01-27 Empire Technology Development Llc Higher resolution still image generation from lower resolution video camera frames
CN102209222B (zh) * 2011-05-25 2014-01-01 笔特尔(厦门)电子科技有限公司 超大屏幕无物理缝隙显示屏
GB2502578B (en) * 2012-05-31 2015-07-01 Canon Kk Method, device, computer program and information storage means for transmitting a source frame into a video display system
JP6164820B2 (ja) * 2012-10-11 2017-07-19 キヤノン株式会社 プロジェクタ、その制御方法、及び画像投影システム
CN203102729U (zh) * 2012-11-22 2013-07-31 北京欧本科技有限公司 一种展示高分辨率图像的系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125317A (ja) * 2001-10-11 2003-04-25 Sony Corp 映像投影システム、映像投影方法、映像信号処理装置、映像信号処理方法、映像投影装置、及び映像投影方法
JP2004023460A (ja) * 2002-06-17 2004-01-22 Matsushita Electric Ind Co Ltd ビデオプロジェクタシステム
JP2010243545A (ja) * 2009-04-01 2010-10-28 Seiko Epson Corp プロジェクターの光変調素子位置調整方法およびプロジェクター
JP2012035413A (ja) * 2010-08-03 2012-02-23 Nk Works Kk インクジェットプリンタ
JP2013167660A (ja) * 2012-02-14 2013-08-29 Seiko Epson Corp プロジェクター、及び、画像表示システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3136716A4 *

Also Published As

Publication number Publication date
KR20160146733A (ko) 2016-12-21
JP6604710B2 (ja) 2019-11-13
US20180077379A1 (en) 2018-03-15
US20170048483A1 (en) 2017-02-16
CN106233715B (zh) 2020-06-19
EP3136716A1 (en) 2017-03-01
JP2015211230A (ja) 2015-11-24
KR102364409B1 (ko) 2022-02-16
EP3136716A4 (en) 2018-02-28
CN106233715A (zh) 2016-12-14
EP3136716B1 (en) 2021-01-13

Similar Documents

Publication Publication Date Title
JP5842694B2 (ja) 画像処理装置、プロジェクター、およびプロジェクターの制御方法
EP1998572B1 (en) Image processor for converting the resolution of an image
JP4578341B2 (ja) 画像投射方法、プロジェクタ、及びコンピュータプログラム
US11184549B2 (en) Image-capturing system, information processing apparatus, control method of information processing apparatus, and storage medium
JP6604710B2 (ja) 画像出力装置、画像出力方法、およびプログラム
US10638087B2 (en) Image output apparatus, image output method, and storage medium
JP2003348500A (ja) 投射画像の調整方法、画像投射方法および投射装置
WO2015087772A1 (ja) 画像処理装置及び方法、並びにプログラム及び記録媒体
JP6980450B2 (ja) 制御装置、制御方法、及びプログラム
JP7459644B2 (ja) 投影システム、投影方法、プログラム
JP2019033339A (ja) 情報処理装置、投影装置、情報処理方法、及び、プログラム
JP2021064848A (ja) 制御装置、投影装置、投影システム、投影装置の制御方法、プログラム、および記憶媒体
JP6700955B2 (ja) 投影装置及び投影方法
JP2020191586A (ja) 投影装置
JP2013085041A (ja) 情報処理装置、その処理方法及びプログラム
JP5268839B2 (ja) 投写型映像表示装置
JP2018121194A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2023136450A (ja) 画像補正装置、撮像システム、制御方法、並びにプログラム
JP2017062350A (ja) 表示制御装置及びその制御方法、表示装置、コンピュータプログラム
JP2021089313A (ja) 画像投射装置
JP2021040256A (ja) 幾何学歪補正装置、幾何学歪補正方法、プログラム及びプロジェクタ
JP2023102634A (ja) 制御装置、画像投射システム、制御方法、およびプログラム
JP2023176702A (ja) 撮像装置、情報処理装置、制御方法、プログラム及び記憶媒体
JP2019134205A (ja) 投影装置およびその制御方法
JP2011123136A (ja) マルチプロジェクションシステムの制御装置、制御方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15783362

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15305744

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20167029695

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015783362

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015783362

Country of ref document: EP