WO2022004570A1 - 撮像装置、撮像方法、及びプログラム - Google Patents
撮像装置、撮像方法、及びプログラム Download PDFInfo
- Publication number
- WO2022004570A1 WO2022004570A1 PCT/JP2021/024053 JP2021024053W WO2022004570A1 WO 2022004570 A1 WO2022004570 A1 WO 2022004570A1 JP 2021024053 W JP2021024053 W JP 2021024053W WO 2022004570 A1 WO2022004570 A1 WO 2022004570A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- moving image
- image data
- processor
- setting condition
- imaging device
- Prior art date
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 18
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 61
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Definitions
- the present invention relates to an image pickup device, an image pickup method, and a program.
- the image pickup device and an external recorder may be connected and the moving image data may be recorded in the storage area of the external recorder.
- the live view image captured by the image pickup apparatus is generally displayed on the display unit (monitor) of the external recorder.
- Patent Document 1 describes a technique of displaying a relationship diagram to show the relationship before and after conversion of an image signal.
- the relationship between the signal scale before and after the conversion of the image signal and the relationship between the signal values before and after the conversion of the image signal are shown by bar graphs displayed on the left and right. The user can know the relationship before and after the conversion of the image signal from this relationship diagram.
- One embodiment according to the technique of the present disclosure is an imaging device, an imaging method, and an imaging method capable of visually and easily discriminating the difference by displaying moving image data showing the difference between the setting conditions. Provide a program.
- the image pickup device is an image pickup device including a connection unit that can be connected to an external device and a processor, and the processor is a first image based on the first setting condition from the captured moving image data.
- a third process showing the difference between the process of generating moving image data, the process of generating second moving image data from captured moving image data based on the second setting condition, and the first setting condition and the second setting condition. The process of generating the moving image data based on the first moving image data and the second moving image data, and the process of outputting the third moving image data to an external device via the connection unit are performed.
- the first setting condition is the condition set in the image pickup apparatus
- the second setting condition is the condition set in the external device.
- the processor generates the third moving image data by alternately arranging the frames constituting the first moving image data and the frames constituting the second moving image data.
- the processor generates the third moving image data by alternately arranging a plurality of frames constituting the first moving image data and a plurality of frames constituting the second moving image data.
- the processor generates the third moving image data by synthesizing the frame constituting the first moving image data and the frame constituting the second moving image data.
- the processor generates the third moving image data by synthesizing the frame constituting the first moving image data and the frame constituting the second moving image data side by side.
- the processor superimposes and generates the third moving image data by superimposing the frame constituting the first moving image data and the frame constituting the second moving image data.
- the processor generates the third moving image data by synthesizing a part of the frame constituting the first moving image data and a part of the frame constituting the second moving image data.
- a display unit for displaying display data is provided under the control of the processor, and the processor compares the first setting condition with the second setting condition and displays the comparison result on the display unit.
- the processor compares the first setting condition and the second setting condition, and displays the difference between the first setting condition and the second setting condition on the display unit as a comparison result.
- the processor when the processor receives the signal of the recording start instruction of the external device via the connection portion, the processor outputs the first moving image data instead of the third moving image data.
- the processor generates the third moving image data after generating the first moving image data and the second moving image data.
- the processor alternately generates the first moving image data and the second moving image data in accordance with the third moving image data.
- connection part is wirelessly connected to an external device.
- the imaging method is an imaging method using an imaging device including a connection unit that can be connected to an external device and a processor, and is a first setting condition from the moving image data captured by the processor.
- the program according to another aspect of the present invention is a program for performing an imaging method using a connection portion that can be connected to an external device and an imaging device including a processor, and is a program that performs an imaging method from moving image data captured by the processor.
- Step to generate the first moving image data based on the setting condition the step to generate the second moving image data from the captured moving image data based on the second setting condition, the first setting condition and the second setting.
- the third moving image data indicating the difference from the conditions is generated based on the first moving image data and the second moving image data, and the third moving image data is output to an external device via the connection portion. Let them do the steps.
- FIG. 1 is a diagram conceptually showing an image pickup apparatus and an external recorder connected to the image pickup apparatus.
- FIG. 2 is a block diagram showing the main functions of the image pickup apparatus and the external recorder.
- FIG. 3 is a block diagram showing a function of processing moving image data realized by a CPU.
- FIG. 4 is a schematic diagram showing an example of the third moving image data.
- FIG. 5 is a flow chart illustrating an imaging method.
- FIG. 6 is a flow chart illustrating an imaging method.
- FIG. 7 is a schematic diagram showing an example of the third moving image data.
- FIG. 8 is a schematic diagram showing an example of the third moving image data.
- FIG. 9 is a schematic diagram showing an example of the third moving image data.
- FIG. 10 is a flow chart illustrating an imaging method.
- FIG. 11 is a diagram showing a comparison result displayed on the rear monitor of the image pickup apparatus.
- FIG. 12 is a block diagram showing the functions of the image pickup apparatus and the external recorder.
- FIG. 1 is a diagram conceptually showing an image pickup device and an external recorder connected to the image pickup device.
- the image pickup device (digital camera) 1 is connected to the external recorder 3 with an HDMI (registered trademark) (High-Definition Multimedia Interface (high-definition multimedia interface)) cable 5.
- the image pickup apparatus 1 captures moving images (moving image data) and still images in response to a command from an operation unit such as a shutter button. Further, in the shooting preparation state, the live view image, which is the display data, is displayed on the rear monitor (not shown) provided on the back surface of the image pickup device 1 and / or on the view finder (not shown) of the image pickup device 1.
- the image pickup apparatus 1 has an HDMI output terminal which is an example of the connection portion 109 (FIG. 2), and is connected to the external recorder 3 via the HDMI cable 5.
- the image pickup device 1 outputs the captured moving image data to the external recorder 3 via the HDMI cable 5.
- the external recorder 3 is an example of an external device that can be connected to the image pickup device 1.
- the external recorder 3 has an HDMI input terminal which is an example of the connection unit 203 (FIG. 2), and is connected to the image pickup apparatus 1 by an HDMI cable 5.
- the external recorder 3 acquires the moving image data captured by the image pickup device 1 via the HDMI cable 5 and records it in the recording unit 209. Further, the external recorder 3 acquires the moving image data captured by the image pickup device 1 via the HDMI cable 5 and displays it on the display unit 207.
- the connection between the image pickup apparatus 1 and the external recorder 3 has been described as an example in which the HDMI cable 5 is used, but the connection is not limited to this example.
- the image pickup apparatus 1 and the external recorder 3 may be connected by a USB (Universal Serial Bus) cable, or may be connected by a radio such as Wi-Fi as described later.
- USB Universal Serial Bus
- BT. 709 and BT. There are many types and settings for processing moving image data.
- BT. 709 and BT. There are 2100, or Log video and video RAW that are independently specified by each camera manufacturer. Therefore, in order to display the moving image data captured by the image pickup device 1 on the display unit (monitor) 207 of the external recorder 3 with the correct color and brightness, the external recorder is set according to the moving image quality setting of the image pickup device 1. It is necessary to change the monitor image quality setting of 3.
- the "moving image quality setting" and the “monitor image quality setting" are at least one of a color gamut, a gamma, a video range, a LookUpTable, and a brightness setting.
- the video image quality setting of the image pickup device 1 and the monitor image quality setting of the external recorder 3 may not match.
- the moving image quality setting of the image pickup device 1 is set to BT. While it is 2100, the monitor image quality setting of the external recorder 3 is BT. It may be 709. In this case, BT. 2100 and BT.
- the processing in the gamma and the color gamut is significantly different from that of the 709. Therefore, BT.
- the live view image displayed on the external recorder 3 processed by the 709 is BT.
- the exposure is darker and the saturation is lower than the moving image data of the image pickup apparatus 1 processed by the 2100.
- the user looks at the live view image displayed on the display unit 207 of the external recorder 3 and changes the moving image quality setting of the image pickup device 1 to take an image. Specifically, the image is taken with the moving image quality setting with increased saturation or increased exposure. Then, BT. In the image pickup apparatus 1 in which the moving image data is generated by the setting of 2100, the moving image data is too saturated or too exposed.
- the user needs to confirm whether or not the image quality setting of the display unit 207 of the external recorder 3 is correctly set with respect to the moving image quality setting of the image pickup device 1. Therefore, in the present embodiment, it is possible to easily visually determine whether or not the monitor image quality setting of the display unit 207 of the external recorder 3 is correctly set with respect to the moving image quality setting of the image pickup device 1. do.
- FIG. 2 is a block diagram showing the main functions of the image pickup apparatus 1 and the external recorder 3.
- the image pickup device 1 mainly includes a lens 103, an image pickup element 105, a CPU (Central Processing Unit) (processor) 107, a display unit 113, a memory 111, and a connection unit 109.
- the external recorder 3 mainly includes a connection unit 203, a CPU 205, a display unit 207, and a recording unit 209.
- the lens 103 forms a subject image (optical image) on the image pickup device 105.
- the lens 103 has a control mechanism such as an aperture, and the image pickup device 1 has a shutter or the like for controlling the image formation of a subject image on the image pickup element 105.
- the image pickup element 105 includes a light receiving surface in which a large number of light receiving elements are arranged in a matrix. The light corresponding to the subject image formed on the light receiving surface of the image pickup element 105 is received by each light receiving element and converted into an electric signal. R (red), G (green), and B (blue) color filters are provided on the light receiving surface of the image sensor 105, and a color image of the subject can be acquired based on the signals of each color.
- various image pickup devices such as CMOS (Complementary Metal-Oxide Semiconductor) and CCD (Charge-Coupled Device) can be used.
- CMOS Complementary Metal-Oxide Semiconductor
- CCD Charge-Coupled Device
- the image sensor 105 performs noise removal, amplification, and the like of the analog image signal via the internal AFE (Analog Front End) (not shown), and also performs internal A / D converter (Analog / Digital conversion). It is converted into a digital image signal with a gradation width via an instrument) (not shown).
- the AFE and the A / D converter may be externally connected.
- the moving image data captured by the image pickup apparatus 1 is composed of data composed of a plurality of frames, and each frame is generated as a digital image signal as described above.
- the digital image signal (a signal composed of frames constituting the moving image data) is image-processed by the CPU 107.
- the CPU 107 performs image processing such as color signal separation, white balance adjustment, and gamma correction on the digital image signal.
- the CPU 107 performs each image processing on the digital image signal according to the type and setting of the moving image described above. The image processing performed by the CPU 107 will be described later.
- the CPU 107 performs general control of the other image pickup apparatus 1.
- the CPU 107 reads necessary programs and information used for various controls from the memory 111, and performs various processes and various controls.
- the memory 111 is an internal memory of the image pickup apparatus 1, and stores various programs necessary for imaging of the image pickup apparatus 1.
- the CPU 107 controls the display of the display unit 113. Specific examples of the display unit 113 are a rear monitor and an electronic viewfinder of the image pickup apparatus 1.
- connection portion 109 of the image pickup apparatus 1 and the connection portion 203 of the external recorder 3 are connected by an HDMI cable 5.
- Moving image data is input from the image pickup apparatus 1 to the connection portion 203 of the external recorder 3.
- the external recorder 3 records the input moving image data in the recording unit 209.
- the CPU 205 displays the input moving image data on the display unit 207.
- the display unit 207 is connected from the connection unit via the CPU 205, but the display unit 207 and the connection unit 203 may be connected, for example, the CPU 205 may control the display unit.
- the CPU 205 performs general control including recording control to the recording unit 209 described above for the external recorder 3.
- the CPU 205 reads necessary programs and information used for various controls from the memory (not shown) of the external recorder 3 and performs various processes and various controls performed by the CPU 205.
- Programmable processors include CPUs, which are general-purpose processors that execute software (programs) and act as various functional units, and programmable processors whose circuit configurations can be changed after manufacturing, such as FPGAs (Field Programmable Gate Arrays). It includes a dedicated electric circuit which is a processor having a circuit configuration specially designed for executing a specific process such as a logic device (Programmable Logic Device: PLD) and an ASIC (Application Specific Integrated Circuit).
- PLD Programmable Logic Device
- ASIC Application Specific Integrated Circuit
- One functional unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of functional units may be configured by one processor. As an example of configuring a plurality of functional units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer used for a client or a server. , There is a form in which this processor acts as a plurality of functional parts.
- SoC System On Chip
- FIG. 3 is a block diagram showing a function of processing moving image data realized by the CPU 107.
- the CPU 107 includes a first moving image data processing unit 121, a second moving image data processing unit 123, and a third moving image data processing unit 125.
- the first moving image data processing unit 121 processes the moving image data (RAW) based on the moving image image quality setting (first setting condition).
- the moving image data (RAW) is moving image data that has not been image-processed yet, and is data that has the information of the subject image that captures the image pickup element 105 as it is.
- the moving image quality setting is a condition set in the image pickup apparatus 1, and the first moving image data processed by the moving image quality setting is used as the recorded moving image data or the live view image.
- the video image quality setting is set to BT. 2100 HLG (HybridLogGamma) and PQ (Perceptual Quantization).
- the second moving image data processing unit 123 processes the moving image data (RAW) based on the monitor image quality setting (second setting condition).
- the monitor image quality setting is a condition set in the external recorder 3, and the display unit 207 of the external recorder 3 displays the second moving image data processed by the monitor image quality setting.
- the monitor image quality setting of the display unit 207 of the external recorder 3 is set to BT.
- the second moving image data processing unit 123 has a BT.
- the moving image data (RAW) is processed based on 709.
- the third moving image data processing unit 125 generates the third moving image data indicating the difference between the moving image image quality setting and the monitor image quality setting based on the first moving image data and the second moving image data. By looking at the third moving image data, the user can visually easily determine the difference between the moving image quality setting and the monitor image quality setting.
- the first moving image data and the second moving image data have different image quality. Therefore, the user can easily visually discriminate the different image quality by looking at the third moving image data displayed on the display unit 207.
- the moving image quality setting of the image pickup apparatus 1 and the monitor image quality setting of the display unit 207 of the external recorder 3 match, the first moving image data and the second moving image data have the same image quality. Become. Therefore, the user can easily visually determine the same image quality by looking at the third moving image data displayed on the display unit 207.
- FIG. 4 is a schematic diagram showing an example of the third moving image data.
- the third moving image data V3 (1) alternately alternates a plurality of first frame VF1s constituting the first moving image data V1 and a plurality of second frames VF2 constituting the second moving image data V2 in chronological order. Generated side by side.
- the first frame VF1 and the second frame VF2 are arranged every 5 frames in chronological order.
- the first frame VF1 is processed by the moving image quality setting
- the second frame VF2 is processed by the monitor image quality setting.
- the image quality of the first frame VF1 and the second frame VF2 is different.
- the third moving image data V3 (1) is displayed on the display unit 207
- the first frame VF1 and the second frame VF2 having different image quality are repeatedly displayed at predetermined intervals. Therefore, since the image quality of the displayed third moving image data V3 (1) changes repeatedly, the user can easily visually determine that the moving image image quality setting and the monitor image quality setting are different.
- the moving image image quality setting and the monitor image quality setting are the same, the image quality of the first frame VF1 and the second frame VF2 is the same. Therefore, since the image quality of the third moving image data V3 (1) is stably displayed without being changed, the user can easily visually determine that the video image quality setting and the monitor image quality setting are the same. be able to.
- the third moving image data V3 (1) a plurality of first frame VF1 and a plurality of second frame VF2 are alternately arranged along a time series as shown in the figure.
- the first moving image data a plurality of first frame VF1
- the second moving image data a plurality of second frame VF2
- the third moving image data V3 (1) may be configured by alternately arranging the first frame VF1 and the second frame VF2 for each single frame.
- FIG. 5 is a flow chart illustrating an image pickup method (and a program for executing the image pickup method) using the image pickup apparatus 1 to which the external recorder 3 is connected.
- the first moving image data processing unit 121 of the image pickup device 1 acquires the moving image quality setting "MV_SET” of the image pickup device 1 (step S101).
- the monitor image quality setting "MON_SET” of the external recorder 3 is transmitted from the external recorder 3 (CPU 205) to the image pickup device 1 via the HDMI cable 5, and the second moving image data processing unit 123 of the image pickup device 1 monitors. Acquire the image quality setting "MON_SET" (step S102).
- the CPU 107 acquires moving image data (RAW) from the image sensor 105 (step S103). Specifically, the frames constituting the moving image data (RAW) are acquired in the order of frame numbers in chronological order. After that, the CPU 107 receives the signal of the recording start instruction and determines whether or not the moving image is being recorded (step S104). When the CPU 107 determines that the moving image is being recorded, the first moving image data processing unit 121 of the imaging device 1 generates the first moving image data corresponding to "MV_SET", and the first moving image data is used as an external recorder. Send to 3 (step S105). On the other hand, when the CPU 107 determines that the moving image recording has not been performed, the third moving image data processing unit 125 determines whether or not the number calculated by the following equation is an even number (step S111).
- Int (Flame / n) Int (Flame / n)
- Int ( ⁇ ) in the formula means that the decimal number of the number ⁇ in parentheses is truncated
- Flame means the frame number of the moving image data (RAW)
- n means the frame period of processing switching.
- the frame period n for processing switching can be arbitrarily determined by the user.
- the first moving image data processing unit 121 when the CPU 107 determines that the number calculated by the equation is an even number, the first moving image data processing unit 121 generates the first moving image data corresponding to "MV_SET" and the third moving image data. It is sent to the processing unit 125 (step S112).
- the second moving image data processing unit 123 when the CPU 107 determines that the number calculated by the equation is not an even number, the second moving image data processing unit 123 generates the second moving image data corresponding to "MON_SET", and the third moving image data. It is sent to the processing unit 125 (step S113).
- the third moving image data processing unit 125 generates the third moving image data from the generated first moving image data and the second moving image data, and sends the third moving image data to the external recorder 3 (the third moving image data).
- Step S114 the first moving image data and the second moving image data are switched and generated according to the number of Frame (frame number) / n (frame cycle of processing switching), and then the third moving image data is generated. Generate moving image data. As a result, it is possible to efficiently perform the process of generating the first moving image data and the process of generating the second moving image data for the moving image data (RAW).
- RAW moving image data
- the CPU 107 determines whether or not the moving image quality setting of the image pickup apparatus 1 has been updated (step S106). Then, when the moving image quality setting of the image pickup apparatus 1 is updated, the CPU 107 updates the “MV_SET” of the image pickup apparatus 1 (step S107).
- the CPU 107 determines whether or not the monitor image quality setting of the external recorder 3 has been updated (step S108). After that, the updated "MON_SET" is transmitted from the external recorder 3 to the image pickup apparatus 1 (step S109). After that, the CPU 107 determines whether or not the moving image mode has ended (step S110), and if the moving image mode has not ended, the process returns to step S103 for the next frame of the moving image data (RAW). Will be done.
- the third moving image data processing unit 125 generates third moving image data in which a plurality of first frame VF1s and a plurality of second frame VF2s are alternately arranged. .. Then, the user can easily visually determine whether or not the moving image quality setting and the monitor image quality setting are correctly set by looking at the third moving image data displayed on the display unit 207 of the external recorder 3. be able to.
- each of the above configurations and functions can be appropriately realized by any hardware, software, or a combination of both.
- the CPU 107 may perform the moving image data processing instead of each moving image data processing unit.
- a computer-readable recording medium non-temporary recording medium that records such a program, or a computer on which such a program can be installed.
- the first moving image data or the second moving image data is generated for the frame constituting the moving image data (RAW) according to the frame number (steps S111 to step 5 in FIG. 5). See S113).
- both the first moving image data and the second moving image data are generated for the frames constituting the moving image data (RAW).
- FIG. 6 is a flow chart illustrating an image pickup method (and a program for executing the image pickup method) using the image pickup apparatus 1 to which the external recorder 3 is connected.
- the first moving image data processing unit 121 of the image pickup device 1 acquires the moving image quality setting "MV_SET” of the image pickup device 1 (step S201).
- the monitor image quality setting "MON_SET” of the external recorder 3 is transmitted from the external recorder 3 (CPU 205) to the image pickup device 1 via the HDMI cable 5, and the second moving image data processing unit 123 of the image pickup device 1 monitors. Acquire the image quality setting "MON_SET" (step S202).
- the CPU 107 acquires moving image data (RAW) from the image sensor 105 (step S203). After that, the first moving image data processing unit 121 generates the first moving image data of "MV_SET” (step S204). Further, the second moving image data processing unit 123 generates the second moving image data of "MON_SET" (step S205).
- RAW moving image data
- the CPU 107 receives the signal of the recording start instruction and determines whether or not the moving image is being recorded (step S206).
- the first moving image data processing unit 121 generates the first moving image data corresponding to "MV_SET" and sends it to the external recorder 3 (step S207).
- the third moving image data processing unit 125 determines whether or not the number calculated by the above equation (see step S111 in FIG. 5) is an even number. A determination is made (step S213).
- the first moving image data processing unit 121 of the image pickup apparatus 1 transfers the first moving image data corresponding to "MV_SET" to the third moving image. It is sent to the image data processing unit 125 (step S214).
- the second moving image data processing unit 123 of the image pickup apparatus 1 uses the second moving image data corresponding to "MON_SET" as the third moving image. It is sent to the data processing unit 125 (step S215).
- the third moving image data processing unit 125 generates the third moving image data from the generated first moving image data and the second moving image data, and sends the third moving image data to the external recorder 3 (step S216).
- both the first moving image data and the second moving image data are generated for the frames constituting the moving image data (RAW).
- the first moving image data and the second moving image data are provided for all the frames constituting the moving image data (RAW).
- the plurality of first frame VF1s constituting the first moving image data V1 and the plurality of second frame VF2s are alternately arranged by the third moving image data processing unit 125.
- the third moving image data is generated.
- the user can correctly set the video image quality setting of the image pickup device 1 and the monitor image quality setting of the display unit 207 of the external recorder 3. It can be easily visually determined whether or not it is present.
- the first frame VF1 and the second frame VF2 are combined to generate the third moving image data (third frame VF3). That is, in the present embodiment, by synthesizing the first frame and the second frame, the third moving image data showing the difference between the moving image quality setting and the monitor image quality setting is generated.
- FIG. 7 is a schematic diagram showing an example of the third moving image data of the present embodiment.
- the third frame VF3 (2) constituting the third moving image data shown in FIG. 7 includes a first frame VF1 constituting the first moving image data and a second frame VF2 constituting the second moving image data.
- the first frame VF1 is arranged on the left side and the second frame VF2 is arranged side by side on the right side to synthesize the third frame VF3 (2).
- FIG. 8 is a schematic diagram showing an example of the third moving image data of the present embodiment.
- the third frame VF3 (3) constituting the third moving image data shown in FIG. 8 includes a first frame VF1 constituting the first moving image data and a second frame VF2 constituting the second moving image data.
- the second frame VF2 is superimposed and displayed on a part of the region of the first frame VF1 to form the third frame VF3 (3).
- the user can easily visually determine the difference between the moving image quality setting and the monitor image quality setting. ..
- FIG. 9 is a schematic diagram showing an example of the third moving image data of the present embodiment.
- the third frame VF3 (4) constituting the third moving image data shown in FIG. 9 is a part of the first frame VF1 constituting the first moving image data and the second frame constituting the second moving image data. Combine with a part of frame VF2.
- the image of the left half of the first frame VF1 and the image of the right half of the second frame VF2 are arranged side by side on the left side to form the third frame VF3 (4).
- the user can easily visually discriminate the difference between the video image quality setting and the monitor image quality setting. can do.
- FIG. 10 is a flow chart illustrating the imaging method (and the program for executing the imaging method) of the present embodiment.
- the first moving image data processing unit 121 of the image pickup device 1 acquires the moving image quality setting "MV_SET” of the image pickup device 1 (step S301).
- the monitor image quality setting "MON_SET” of the external recorder 3 is transmitted from the external recorder 3 (CPU 205) to the image pickup device 1 via the HDMI cable 5, and the second moving image data processing unit 123 of the image pickup device 1 monitors. Acquire the image quality setting "MON_SET" (step S302).
- the CPU 107 acquires moving image data (RAW) from the image sensor 105 (step S303). Then, the first moving image data processing unit 121 generates the first moving image data corresponding to "MV_SET” (step S304). Further, the second moving image data processing unit 123 generates the second moving image data corresponding to "MON_SET" (step S305).
- RAW moving image data
- the CPU 107 determines whether or not the video recording is being performed by receiving the signal of the recording start instruction (step S306).
- the first moving image data processing unit 121 sends the first moving image data to the external recorder 3 (step S307).
- the third moving image data processing unit 125 generates the third moving image data by synthesizing the first moving image data and the second moving image data (step S313). ). After that, the third moving image data is transmitted from the image pickup apparatus 1 to the external recorder 3 (step S314).
- the third moving image data processing unit 125 generates the third moving image data in which the first frame VF1 and the second frame VF2 are combined. Then, the user correctly sets the moving image quality setting of the image pickup apparatus 1 and the monitor image quality setting of the display unit 207 of the external recorder 3 by checking the third moving image data displayed on the display unit 207 of the external recorder 3. It can be easily visually determined whether or not it is made.
- the CPU 107 displays the comparison result between the moving image quality setting and the monitor image quality setting on the display unit (rear monitor or electronic viewfinder) 113 of the image pickup device 1.
- FIG. 11 is a diagram showing a comparison result displayed on the rear monitor of the image pickup apparatus 1.
- the CPU 107 displays the comparison result 7 between the moving image quality setting and the monitor image quality setting on the rear monitor.
- the moving image mode is "BT.2100” and the video range is “Limited” in the moving image quality setting of the image pickup apparatus 1.
- the monitor image quality setting of the external recorder 3 the moving image mode is "BT.709” and the video range is “Limited”. If the video image quality setting of the image pickup device 1 and the monitor image quality setting of the external recorder 3 match, " ⁇ " (or "OK") is displayed, and if they do not match, "x” is displayed. "(Or” NG ”) is attached. In this way, by indicating whether or not the setting conditions are met, that is, by indicating the difference in the setting conditions, the user can easily determine which setting of the external recorder 3 should be changed to match the moving image quality setting of the image pickup apparatus 1. can do.
- the image pickup device 1 and the external recorder 3 are wirelessly connected.
- FIG. 12 is a block diagram showing the functions of the image pickup device 1 and the external recorder 3 of this example.
- the parts already described in FIG. 2 are designated by the same reference numerals and the description thereof will be omitted.
- the image pickup device 1 and the external recorder 3 are wirelessly connected.
- the connection unit 109 has a communication unit (antenna) 110A, is wirelessly connected to the communication unit (antenna) 110B, and transmits the imaged moving image data to the external recorder 3. .
- Specific examples of wireless connection include Wi-Fi, UWB (Ultra Wide Band), wireless HDMI, and wireless SDI (Serial Digital Interface) connection.
- the image pickup device 1 controls the image so that the exposure and color can be confirmed as a live view image.
- this example is effective when there is no monitor image quality setting of the external recorder 3 that matches the moving image quality setting of the image pickup device 1.
- FIG. 13 is a flow chart illustrating the imaging method (and the program for executing the imaging method) of this example.
- the first moving image data processing unit 121 of the image pickup device 1 acquires the moving image quality setting "MV_SET” of the image pickup device 1 (step S401). After that, the monitor image quality setting "MON_SET” of the external recorder 3 is transmitted from the external recorder 3 to the image pickup device 1, and the second moving image data processing unit 123 of the image pickup device 1 acquires the monitor image quality setting "MON_SET” (step). S402).
- the image pickup device 1 acquires moving image data (RAW) from the image pickup element 105 (step S403).
- the first moving image data processing unit 121 generates the first moving image data by the first image processing corresponding to "MV_SET” (step S404).
- the second moving image data processing unit 123 generates the second moving image data by the second image processing corresponding to "MON_SET” (step S405).
- the first moving image data is transmitted from the image pickup apparatus 1 to the external recorder 3 (step S406).
- the second moving image data is transmitted from the image pickup apparatus 1 to the external recorder 3 (step S407).
- the CPU 107 determines whether or not the moving image is being recorded (step S408).
- the external recorder 3 records the first moving image data (step S409).
- the external recorder 3 displays the second moving image data on the display unit (monitor) 207 (step S410).
- the image pickup device 1 generates the first moving image data of the moving image quality setting and the second moving image data of the monitor image quality setting, and sends them to the external recorder 3. Then, the external recorder 3 records the first moving image data when recording a moving image, and displays the second moving image data on the display unit (monitor) 207. As a result, even if the monitor image quality setting of the external recorder 3 that matches the moving image quality setting of the image pickup apparatus 1 does not exist, the live view image whose exposure and color can be confirmed can be displayed on the display unit 207.
- Image pickup device 3 External recorder 5: HDMI cable 103: Lens 105: Image sensor 107: CPU 109: Connection unit 111: Memory 113: Display unit 121: First moving image data processing unit 123: Second moving image data processing unit 125: Third moving image data processing unit 203: Connection unit 205: CPU 207: Display unit 209: Recording unit
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本開示の技術に係る一つの実施形態は、各設定条件の差異を示す動画像データを表示することにより、ユーザは、視覚的に容易にその差異を判別することができる撮像装置、撮像方法、及びプログラムを提供する。撮像装置(1)は、外部機器(3)と接続可能な接続部(109)と、プロセッサ(107)を備える撮像装置1である。プロセッサ(107)は、撮像された動画像データから第1設定条件に基づいて第1動画像データを生成する処理と、撮像された動画像データから第2設定条件に基づいて第2動画像データを生成する処理と、第1設定条件と第2設定条件との差異を示す第3動画像データを、第1動画像データと第2動画像データとに基づいて生成する処理と、接続部を介して、第3動画像データを外部機器(3)に出力する処理と、を行う。
Description
本発明は、撮像装置、撮像方法、及びプログラムに関する。
撮像装置(例えばデジタルカメラ)で動画像を撮影する際に、撮像装置と外部レコーダとを接続し、外部レコーダの記憶領域に動画像データを記録することがある。その際、外部レコーダの表示部(モニタ)には、撮像装置で撮像されたライブビュー画像が表示されるのが一般的である。
特許文献1には、関係図を表示して画像信号の変換前後の関係を示す技術が記載されている。特許文献1の関係図では、画像信号の変換前後における信号の尺度の関係、及び画像信号の変換前後における信号値の関係が左右に表示された棒グラフにより示されている。ユーザは、この関係図により画像信号の変換前後の関係を知ることができる。
本開示の技術に係る一つの実施形態は、各設定条件の差異を示す動画像データを表示することにより、ユーザが視覚的に容易にその差異を判別することができる撮像装置、撮像方法、及びプログラムを提供する。
本発明の一の態様である撮像装置は、外部機器と接続可能な接続部と、プロセッサを備える撮像装置であって、プロセッサは、撮像された動画像データから第1設定条件に基づいて第1動画像データを生成する処理と、撮像された動画像データから第2設定条件に基づいて第2動画像データを生成する処理と、第1設定条件と第2設定条件との差異を示す第3動画像データを、第1動画像データと第2動画像データとに基づいて生成する処理と、接続部を介して、第3動画像データを外部機器に出力する処理と、を行う。
好ましくは、第1設定条件は、撮像装置において設定された条件であり、第2設定条件は、外部機器において設定された条件である。
好ましくは、プロセッサは、第3動画像データを、第1動画像データを構成するフレームと、第2動画像データを構成するフレームとを交互に並べて生成する。
好ましくは、プロセッサは、第3動画像データを、第1動画像データを構成する複数のフレームと、第2動画像データを構成する複数のフレームとを交互に並べて生成する。
好ましくは、プロセッサは、第3動画像データを、第1動画像データを構成するフレームと、第2動画像データを構成するフレームとを合成して生成する。
好ましくは、プロセッサは、第3動画像データを、第1動画像データを構成するフレームと、第2動画像データを構成するフレームとを並べて合成して生成する。
好ましくは、プロセッサは、第3動画像データを、第1動画像データを構成するフレームと、第2動画像データを構成するフレームとを重畳して合成して生成する。
好ましくは、プロセッサは、第3動画像データを、第1動画像データを構成するフレームの一部と、第2動画像データを構成するフレームの一部とを合成して生成する。
好ましくは、プロセッサの制御により表示用データを表示する表示部を備え、プロセッサは、第1設定条件と第2設定条件とを比較し、比較結果を表示部に表示させる。
好ましくは、プロセッサは、第1設定条件と第2設定条件とを比較し、第1設定条件と第2設定条件との差異を比較結果として表示部に表示させる。
好ましくは、プロセッサは、接続部を介して外部機器の記録開始指示の信号を受信した場合には、第3動画像データに代えて第1動画像データを出力する。
好ましくは、プロセッサは、第1動画像データ及び第2動画像データを生成した後に、第3動画像データを生成する。
好ましくは、プロセッサは、第1動画像データと第2動画像データとを第3動画像データに合わせて交互に生成する。
好ましくは、接続部は、無線により外部機器と接続する。
本発明の他の態様である撮像方法は、外部機器と接続可能な接続部と、プロセッサを備える撮像装置を使用した撮像方法であって、プロセッサにより、撮像された動画像データから第1設定条件に基づいて第1動画像データを生成するステップと、撮像された動画像データから第2設定条件に基づいて第2動画像データを生成するステップと、第1設定条件と第2設定条件との差異を示す第3動画像データを、第1動画像データと第2動画像データとに基づいて生成するステップと、接続部を介して、第3動画像データを外部機器に出力するステップと、を行わせる。
本発明の他の態様であるプログラムは、外部機器と接続可能な接続部と、プロセッサを備える撮像装置を使用した撮像方法を行わせるプログラムであって、プロセッサにより、撮像された動画像データから第1設定条件に基づいて第1動画像データを生成するステップと、撮像された動画像データから第2設定条件に基づいて第2動画像データを生成するステップと、第1設定条件と第2設定条件との差異を示す第3動画像データを、第1動画像データと第2動画像データとに基づいて生成するステップと、接続部を介して、第3動画像データを外部機器に出力するステップと、を行わせる。
以下、添付図面にしたがって本発明に係る撮像装置、撮像方法及びプログラムの好ましい実施の形態について説明する。
図1は、撮像装置と接続された外部レコーダとを概念的に示す図である。
撮像装置(デジタルカメラ)1は、外部レコーダ3とHDMI(登録商標)(High-Definition Multimedia Interface(高精細度マルチメディアインターフェース))ケーブル5で接続している。撮像装置1は、シャッターボタンなどの操作部からの指令に応じて、動画(動画像データ)及び静止画を撮像する。また、撮影準備状態では、表示用データであるライブビュー画像を撮像装置1の背面に設けられた背面モニタ(不図示)、及び/又は撮像装置1のビューファインダ(不図示)に表示する。撮像装置1は、接続部109(図2)の一例であるHDMI出力端子を有し、HDMIケーブル5を介して外部レコーダ3に接続されている。撮像装置1は、HDMIケーブル5を介して、撮像した動画像データを外部レコーダ3に出力する。
外部レコーダ3は、撮像装置1に接続可能な外部機器の一例である。なお、外部機器の他の例としては、外部モニタ等が挙げられる。外部レコーダ3は、接続部203(図2)の一例であるHDMI入力端子を有し、HDMIケーブル5により撮像装置1と接続されている。外部レコーダ3は、撮像装置1で撮像された動画像データをHDMIケーブル5を介して取得し、記録部209に記録する。また、外部レコーダ3は、撮像装置1で撮像された動画像データをHDMIケーブル5を介して取得し、表示部207に表示する。なお、本例では撮像装置1と外部レコーダ3との接続は、HDMIケーブル5で行われる例を説明したがこの例に限定されない。例えば、撮像装置1と外部レコーダ3とは、USB(Universal Serial Bus)ケーブルにより接続されてもよいし、後で説明するようにWi-Fi等の無線により接続されてもよい。
ここで、動画像データの処理の種類(規格)及び設定に関して説明する。動画像データの処理の種類及び設定は多数存在する。例えばITU-R(International Telecommunication Union-Radiocommunication Sector)で勧告されているBT.709やBT.2100、又はカメラメーカ各社が独自で規定しているLog動画や動画RAWなどがある。したがって、撮像装置1で撮像された動画像データを外部レコーダ3の表示部(モニタ)207に、正しい色や明るさで表示するためには、撮像装置1の動画画質設定に応じて、外部レコーダ3のモニタ画質設定を変える必要がある。なお、「動画画質設定」及び「モニタ画質設定」は、色域、ガンマ、ビデオレンジ、LookUpTable、輝度設定、のうち少なくとも1つである。
ところが、撮像装置1の動画画質設定と、外部レコーダ3のモニタ画質設定が一致しない場合がある。例えば、撮像装置1の動画画質設定がBT.2100であるのに対して、外部レコーダ3のモニタ画質設定がBT.709の場合がある。この場合には、BT.2100とBT.709とでは、ガンマと色域における処理が大きく異なる。したがって、BT.709で処理を行う外部レコーダ3に表示されるライブビュー画像は、BT.2100で処理を行う撮像装置1の動画像データよりも、露出が暗く、彩度が低い映像になってしまう。外部レコーダ3の表示部207に表示されたライブビュー画像を見て、ユーザが撮像装置1の動画画質設定を変えて撮像してしまうことが考えられる。具体的には彩度を上げた、あるいは露出を上げた動画画質設定で撮像してしまう。そうすると、BT.2100の設定により動画像データが生成される撮像装置1では、彩度が高すぎる、あるいは露出が高すぎる動画像データになってしまう。
したがって、ユーザは、外部レコーダ3の表示部207の画質設定が、撮像装置1の動画画質設定に対して正しく設定されているか否かを確認する必要がある。そこで、本実施の形態では、外部レコーダ3の表示部207のモニタ画質設定が、撮像装置1の動画画質設定に対して正しく設定できているか否かを視覚的に容易に判別することを可能にする。
図2は、撮像装置1及び外部レコーダ3の主な機能を示したブロック図である。
撮像装置1は、主にレンズ103、撮像素子105、CPU(Central Processing Unit)(プロセッサ)107、表示部113、メモリ111、接続部109を備える。また、外部レコーダ3は、主に接続部203、CPU205、表示部207、記録部209を備える。
レンズ103は、被写体像(光学像)を撮像素子105に結像させる。なお、図示は省略するが、レンズ103には絞り等の制御機構を有するほか、撮像装置1は、被写体像の撮像素子105への結像を制御するためにシャッタ等を有する。
撮像素子105は、多数の受光素子がマトリクス状に配列された受光面を備える。撮像素子105の受光面に結像された被写体像に対応する光が各受光素子によって受光され電気信号に変換される。撮像素子105の受光面上にはR(赤)、G(緑)、及びB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。なお、撮像素子105としては、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charge-Coupled Device)等の様々な撮像素子を用いることができる。撮像素子105は、アナログ画像信号を内部のAFE(Analog Front End)(不図示)を介して、アナログ画像信号のノイズ除去、増幅等を行い、同じく内部のA/D変換器(Analog/Digital変換器)(不図示)を介して、階調幅があるデジタル画像信号に変換する。ここでAFE及びA/D変換器は外部接続であってもよい。なお、撮像装置1が撮像する動画像データは複数のフレームからなるデータで構成されており、各フレームは前述したようにデジタル画像信号として生成される。
デジタル画像信号(動画像データを構成するフレームから構成される信号)は、CPU107により、画像処理が行われる。CPU107は、デジタル画像信号に対して、色信号分離、ホワイトバランス調整、ガンマ補正等の画像処理を行う。CPU107は、デジタル画像信号に対し前述した動画の種類及び設定に応じて各画像処理を行う。なお、CPU107で行われる画像処理の説明は後で行う。
また、CPU107は、その他の撮像装置1の全般的な制御を行う。CPU107は、メモリ111から必要なプログラム及び各種制御に用いる情報を読み出して、各種処理及び各種制御を行う。メモリ111は、撮像装置1の内部メモリであり、撮像装置1の各種の撮像に必要なプログラムが記憶されている。また、CPU107は、表示部113の表示制御を行う。表示部113の具体例としては、撮像装置1の背面モニタや電子ビューファインダである。
撮像装置1の接続部109と外部レコーダ3の接続部203とは、HDMIケーブル5で接続されている。外部レコーダ3の接続部203には、撮像装置1から動画像データが入力される。外部レコーダ3は、入力された動画像データを記録部209に記録する。また、CPU205は、入力された動画像データを表示部207に表示する。ここでは接続部からCPU205を経由して表示部207が接続されているが、表示部207と接続部203とが接続され、例えばCPU205が表示部を制御してもよい。なお、CPU205は、外部レコーダ3の前述する記録部209への記録制御を含め、全般的な制御を行う。CPU205は、外部レコーダ3のメモリ(不図示)から必要なプログラム及び各種制御に用いる情報を読み出して、CPU205で行われる各種処理及び各種制御を行う。
CPU107及びCPU205のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の機能部として作用する汎用的なプロセッサであるCPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの機能部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の機能部を1つのプロセッサで構成してもよい。複数の機能部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどに用いられるコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能部として作用させる形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の機能部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
図3は、CPU107で実現される動画像データの処理の機能を示すブロック図である。
CPU107は、第1動画像データ処理部121と、第2動画像データ処理部123と、第3動画像データ処理部125とを備える。
第1動画像データ処理部121は、動画像データ(RAW)を動画画質設定(第1設定条件)に基づいて処理を行う。ここで、動画像データ(RAW)とは、未だ画像処理が行われていない動画像データであり、撮像素子105を捉えた被写体像の情報をそのまま有しているデータである。動画画質設定は、撮像装置1において設定された条件であり、記録される動画像データやライブビュー画像は、動画画質設定で処理された第1動画像データが使用される。例えば、動画画質設定は、BT.2100のHLG(HybridLogGamma)やPQ(Perceptual Quantization)である。
第2動画像データ処理部123は、動画像データ(RAW)をモニタ画質設定(第2設定条件)に基づいて処理を行う。モニタ画質設定は外部レコーダ3において設定された条件であり、外部レコーダ3の表示部207には、モニタ画質設定で処理された第2動画像データが表示される。例えば、外部レコーダ3の表示部207のモニタ画質設定がBT.709である場合には、第2動画像データ処理部123は、BT.709に基づいて動画像データ(RAW)を処理する。
第3動画像データ処理部125は、動画画質設定とモニタ画質設定との差異を示す第3動画像データを、第1動画像データと第2動画像データとに基づいて生成する。ユーザは、第3動画像データを見ることにより、視覚的に容易に動画画質設定とモニタ画質設定との差異を判別することができる。
例えば、撮像装置1の動画画質設定と外部レコーダ3の表示部207のモニタ画質設定とが異なる場合には、第1動画像データと第2動画像データとは異なる画質を有することになる。したがって、ユーザは、表示部207に表示された第3動画像データを見ることにより、その異なる画質を視覚的に容易に判別することができる。一方で、撮像装置1の動画画質設定と、外部レコーダ3の表示部207のモニタ画質設定とが一致する場合には、第1動画像データと第2動画像データとは同じ画質を有することになる。したがって、ユーザは、表示部207に表示された第3動画像データを見ることにより、その同一画質を視覚的に容易に判別することができる。
図4は、第3動画像データの一例を示す模式図である。第3動画像データV3(1)は、第1動画像データV1を構成する複数の第1フレームVF1と第2動画像データV2を構成する複数の第2フレームVF2とを、時系列順に交互に並べられて生成されている。第3動画像データV3(1)では、第1フレームVF1と第2フレームVF2とは、時系列順に沿って5フレーム毎に並べられている。なお、第1フレームVF1は動画画質設定で処理されており、第2フレームVF2はモニタ画質設定で処理されている。
動画画質設定とモニタ画質設定とが異なる場合には、第1フレームVF1と第2フレームVF2との画質が異なる。このような場合に、第3動画像データV3(1)を表示部207に表示すると、それぞれ異なる画質の第1フレームVF1と第2フレームVF2とが所定の間隔で繰り返して表示される。したがって、ユーザは、表示された第3動画像データV3(1)の画質が繰り返し変わるので動画画質設定とモニタ画質設定とが異なることを、視覚的に容易に判別することができる。一方で、動画画質設定とモニタ画質設定とが同じ場合には、第1フレームVF1と第2フレームVF2との画質が同じとなる。したがって、ユーザは、第3動画像データV3(1)の画質が変更されることなく安定的に表示されるので、動画画質設定とモニタ画質設定とが同じことを、視覚的に容易に判別することができる。
なお、第3動画像データV3(1)は、図示したように時系列に沿って複数の第1フレームVF1と複数の第2フレームVF2とが交互に並べられている。例えば、第3動画像データV3(1)は、1秒間毎に第1動画像データ(複数の第1フレームVF1)と第2動画像データ(複数の第2フレームVF2)とが交互に並べられてもよい。また、第3動画像データV3(1)を単数のフレーム毎に第1フレームVF1と第2フレームVF2とを交互に並べて構成してもよい。
図5は、外部レコーダ3が接続された撮像装置1を使用した撮像方法(及び撮像方法を実行させるプログラム)に関して説明するフロー図である。
先ず、撮像装置1の第1動画像データ処理部121は、撮像装置1の動画画質設定「MV_SET」を取得する(ステップS101)。次に、外部レコーダ3(CPU205)からHDMIケーブル5を介して撮像装置1に、外部レコーダ3のモニタ画質設定「MON_SET」が送信され、撮像装置1の第2動画像データ処理部123は、モニタ画質設定「MON_SET」を取得する(ステップS102)。
次に、CPU107は撮像素子105から動画像データ(RAW)を取得する(ステップS103)。具体的には、動画像データ(RAW)を構成するフレームを時系列に沿ったフレーム番号順に取得する。その後、CPU107は、記録開始指示の信号を受信し動画記録が行われているか否かを判定する(ステップS104)。動画記録が行われているとCPU107が判定すると、撮像装置1の第1動画像データ処理部121は、「MV_SET」に対応した第1動画像データを生成し、第1動画像データを外部レコーダ3に送る(ステップS105)。一方、動画記録は行われていないとCPU107が判定すると、第3動画像データ処理部125は、以下の式で算出される数が偶数であるか否かの判定を行う(ステップS111)。
式:Int(Frame/n)
ここで式中の、Int(α)は括弧内の数αの小数を切り捨てること意味し、Flameは動画像データ(RAW)のフレーム番号を意味し、nは処理切り替えのフレーム周期を意味する。なお、処理切り替えのフレーム周期nは、ユーザが任意に決定することができる。
ここで式中の、Int(α)は括弧内の数αの小数を切り捨てること意味し、Flameは動画像データ(RAW)のフレーム番号を意味し、nは処理切り替えのフレーム周期を意味する。なお、処理切り替えのフレーム周期nは、ユーザが任意に決定することができる。
そして、式で算出された数が偶数であるとCPU107が判定した場合には、第1動画像データ処理部121は、「MV_SET」に対応する第1動画像データを生成し第3動画像データ処理部125に送る(ステップS112)。一方、式で算出された数が偶数でないとCPU107が判定した場合には、第2動画像データ処理部123は、「MON_SET」に対応する第2動画像データを生成し、第3動画像データ処理部125に送る(ステップS113)。そして、第3動画像データ処理部125は、生成された第1動画像データと第2動画像データとにより、第3動画像データを生成し、外部レコーダ3に第3動画像データを送る(ステップS114)。このように本実施形態では、Flame(フレーム番号)/n(処理切り替えのフレーム周期)の数に応じて、第1動画像データと第2動画像データとを切り替えて生成し、その後に第3動画像データを生成する。これにより、動画像データ(RAW)に対する第1動画像データを生成する処理及び第2動画像データを生成する処理を効率的に行うことができる。
その後、撮像装置1の動画画質設定が更新されたか否かの判定をCPU107が行う(ステップS106)。そして、撮像装置1の動画画質設定が更新された場合には、CPU107は撮像装置1の「MV_SET」を更新する(ステップS107)。
次に、外部レコーダ3のモニタ画質設定が更新されたか否かの判定をCPU107が行う(ステップS108)。その後、外部レコーダ3から撮像装置1に、更新された「MON_SET」が送信される(ステップS109)。その後、動画モードが終了しているか否かをCPU107が判定し(ステップS110)、動画モードが終了していない場合には、動画像データ(RAW)の次のフレームについてステップS103に戻って処理が行われる。
以上で説明したように、本実施形態では、第3動画像データ処理部125により、複数の第1フレームVF1と複数の第2フレームVF2とを交互に並べた第3動画像データが生成される。そして、ユーザは、外部レコーダ3の表示部207に表示された第3動画像データを見ることにより、動画画質設定とモニタ画質設定とが正しく設定できているか否かを視覚的に容易に判別することができる。
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。また、各動画データ処理部に代わりCPU107が動画データ処理を行ってもよい。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
<第1の実施形態の変形例>
次に、第1実施形態の変形例に関して説明する。第1の実施形態では、動画像データ(RAW)を構成するフレームに対して、そのフレーム番号に合わせて第1動画像データ又は第2動画像データが生成された(図5のステップS111~ステップS113を参照)。本例では、動画像データ(RAW)を構成するフレームに対して、第1動画像データ及び第2動画像データが共に生成される。
次に、第1実施形態の変形例に関して説明する。第1の実施形態では、動画像データ(RAW)を構成するフレームに対して、そのフレーム番号に合わせて第1動画像データ又は第2動画像データが生成された(図5のステップS111~ステップS113を参照)。本例では、動画像データ(RAW)を構成するフレームに対して、第1動画像データ及び第2動画像データが共に生成される。
図6は、外部レコーダ3が接続された撮像装置1を使用した撮像方法(及び撮像方法を実行させるプログラム)に関して説明するフロー図である。
先ず、撮像装置1の第1動画像データ処理部121は、撮像装置1の動画画質設定「MV_SET」を取得する(ステップS201)。次に、外部レコーダ3(CPU205)からHDMIケーブル5を介して撮像装置1に、外部レコーダ3のモニタ画質設定「MON_SET」が送信され、撮像装置1の第2動画像データ処理部123は、モニタ画質設定「MON_SET」を取得する(ステップS202)。
次に、CPU107は撮像素子105から動画像データ(RAW)を取得する(ステップS203)。その後、第1動画像データ処理部121は、「MV_SET」の第1動画像データを生成する(ステップS204)。また、第2動画像データ処理部123は、「MON_SET」の第2動画像データを生成する(ステップS205)。
その後、CPU107は、記録開始指示の信号を受信し動画記録が行われているか否かを判定する(ステップS206)。動画記録が行われているとCPU107が判定すると、第1動画像データ処理部121は、「MV_SET」に対応した第1動画像データを生成し、外部レコーダ3に送る(ステップS207)。一方、動画記録が行われていないとCPU107が判定すると、第3動画像データ処理部125は、上述した式(図5のステップS111を参照)で算出される数が偶数であるか否かの判定を行う(ステップS213)。
そして、式で算出された数が偶数であるとCPU107が判定した場合には、撮像装置1の第1動画像データ処理部121は、「MV_SET」に対応する第1動画像データを第3動画像データ処理部125に送る(ステップS214)。一方、式で算出された数が偶数でないとCPU107が判定した場合には、撮像装置1の第2動画像データ処理部123は、「MON_SET」に対応する第2動画像データを第3動画像データ処理部125に送る(ステップS215)。その後、第3動画像データ処理部125は、生成された第1動画像データと第2動画像データとにより、第3動画像データを生成し、外部レコーダ3に送る(ステップS216)。このように本例では、動画像データ(RAW)を構成するフレームに対して、第1動画像データ及び第2動画像データが共に生成される。これにより、動画像データ(RAW)を構成するフレームの全てに対して、第1動画像データ及び第2動画像データを有することになる。
なお、以後のステップS208~ステップS212は、図5で説明をしたステップS106~ステップS110に対応するので、説明は省略する。
以上で説明したように、本例においても、第3動画像データ処理部125により、第1動画像データV1を構成する複数の第1フレームVF1と複数の第2フレームVF2とを交互に並べた第3動画像データが生成される。そして、ユーザは、第3動画像データが外部レコーダ3の表示部207に表示されるので、撮像装置1の動画画質設定と、外部レコーダ3の表示部207のモニタ画質設定とが正しく設定できているか否かを視覚的に容易に判別することができる。
<第2実施形態>
次に、第2実施形態に関して説明する。第2実施形態では、第1フレームVF1と第2フレームVF2とを合成して第3動画像データ(第3フレームVF3)を生成する。すなわち、本実施形態においては、第1フレームと第2フレームとを合成することにより、動画画質設定とモニタ画質設定との差異を示す第3動画像データが生成される。
次に、第2実施形態に関して説明する。第2実施形態では、第1フレームVF1と第2フレームVF2とを合成して第3動画像データ(第3フレームVF3)を生成する。すなわち、本実施形態においては、第1フレームと第2フレームとを合成することにより、動画画質設定とモニタ画質設定との差異を示す第3動画像データが生成される。
図7~図9に沿って、本実施形態の第3動画像データの具体例を説明する。
図7は、本実施形態の第3動画像データの一例を示す模式図である。図7で示された第3動画像データを構成する第3フレームVF3(2)は、第1動画像データを構成する第1フレームVF1と、第2動画像データを構成する第2フレームVF2とを並べて合成している。具体的には、向かって左側に第1フレームVF1を右側に第2フレームVF2を並べて配置して合成し、第3フレームVF3(2)としている。このように、第1フレームVF1と第2フレームVF2とを並べることにより、ユーザは、動画画質設定とモニタ画質設定との差異を視覚的に容易に判別することができる。
図8は、本実施形態の第3動画像データの一例を示す模式図である。図8で示された第3動画像データを構成する第3フレームVF3(3)は、第1動画像データを構成する第1フレームVF1と、第2動画像データを構成する第2フレームVF2とを重畳して合成している。具体的には、図8に示すように、第1フレームVF1の一部の領域に、第2フレームVF2を重畳表示して第3フレームVF3(3)としている。このように、第1フレームVF1の一部の領域に、第2フレームVF2を重畳表示することにより、ユーザは、動画画質設定とモニタ画質設定との差異を視覚的に容易に判別することができる。
図9は、本実施形態の第3動画像データの一例を示す模式図である。図9で示された第3動画像データを構成する第3フレームVF3(4)は、第1動画像データを構成する第1フレームVF1の一部と、第2動画像データを構成する第2フレームVF2の一部とを合成する。具体的には、向かって左側に第1フレームVF1の左側半分の画像と、右側に第2フレームVF2の右側半分の画像と並べて合成し、第3フレームVF3(4)としている。このように、第1フレームVF1の左側半分の画像と第2フレームVF2の右側半分の画像とを合成することにより、ユーザは、動画画質設定とモニタ画質設定との差異を視覚的に容易に判別することができる。
図10は、本実施形態の撮像方法(及び撮像方法を実行させるプログラム)に関して説明するフロー図である。
先ず、撮像装置1の第1動画像データ処理部121は、撮像装置1の動画画質設定「MV_SET」を取得する(ステップS301)。次に、外部レコーダ3(CPU205)からHDMIケーブル5を介して撮像装置1に、外部レコーダ3のモニタ画質設定「MON_SET」が送信され、撮像装置1の第2動画像データ処理部123は、モニタ画質設定「MON_SET」を取得する(ステップS302)。
次に、CPU107は撮像素子105から動画像データ(RAW)を取得する(ステップS303)。そして、第1動画像データ処理部121は、「MV_SET」に対応した第1動画像データを生成する(ステップS304)。また、第2動画像データ処理部123は、「MON_SET」に対応した第2動画像データを生成する(ステップS305)。
その後、記録開始指示の信号を受信し動画記録が行われているか否かをCPU107が判定する(ステップS306)。動画記録が行われているとCPU107が判定すると、第1動画像データ処理部121は、第1動画像データを外部レコーダ3に送る(ステップS307)。一方、動画記録が行われていないとCPU107が判定すると、第3動画像データ処理部125は、第1動画像データと第2動画像データを合成した第3動画像データを生成する(ステップS313)。その後、第3動画像データを撮像装置1から外部レコーダ3に送る(ステップS314)。
なお、以後のステップS308~ステップS312は、図5で説明をしたステップS106~ステップS110に対応するので、説明は省略する。
以上で説明したように、本実施形態では、第3動画像データ処理部125により、第1フレームVF1と第2フレームVF2とを合成した第3動画像データが生成される。そして、ユーザは、外部レコーダ3の表示部207に表示され第3動画像データを確認することで、撮像装置1の動画画質設定と、外部レコーダ3の表示部207のモニタ画質設定とが正しく設定できているか否かを視覚的に容易に判別することができる。
<その他の例1>
次に、その他の例1を説明する。
次に、その他の例1を説明する。
その他の例1では、CPU107は、撮像装置1の表示部(背面モニタ又は電子ビューファインダ)113に、動画画質設定とモニタ画質設定との比較結果を表示する。
図11は、撮像装置1の背面モニタに表示される比較結果を示す図である。CPU107は、動画画質設定とモニタ画質設定との比較結果7を背面モニタに表示する。図11に示した場合では、撮像装置1の動画画質設定では動画モードが「BT.2100」であり、ビデオレンジは「Limited」である。また、外部レコーダ3のモニタ画質設定では、動画モードが「BT.709」であり、ビデオレンジは「Limited」である。また、撮像装置1の動画画質設定と外部レコーダ3のモニタ画質設定との設定が合致している場合には「○」(又は「OK」)を表示し、合致していない場合には「×」(又は「NG」)を付している。このように、設定条件が合致しているか否か、すなわち設定条件の差異を示すことにより、外部レコーダ3のどの設定を変えれば撮像装置1の動画画質設定と一致するかをユーザは容易に判別することができる。
<その他の例2>
次に、その他の例2を説明する。
次に、その他の例2を説明する。
その他の例2では、撮像装置1と外部レコーダ3とが無線により接続される。
図12は、本例の撮像装置1と外部レコーダ3の機能を示すブロック図である。なお、図2で既に説明を行った箇所は同じ符号を付し説明は省略する。
撮像装置1と外部レコーダ3とは無線により接続される。具体的には、撮像装置1は、接続部109は通信部(アンテナ)110Aを有し、通信部(アンテナ)110Bと無線で接続し、撮像した動画像データを外部レコーダ3に送信している。なお、無線接続の具体例として、Wi-Fi、UWB(Ultra Wide Band)、無線HDMI、無線SDI(Serial Digital Interface)による接続が挙げられる。
<その他の例3>
次にその他の例3を説明する。
次にその他の例3を説明する。
その他の例3では、外部レコーダ3のモニタ画質設定が撮像装置1の動画画質設定と異なる場合であっても、露出や色が確認できるライブビュー画像になるように撮像装置1側でコントロールする。例えば、本例は、撮像装置1の動画画質設定に合致する、外部レコーダ3のモニタ画質設定が存在しない場合に有効である。
図13は、本例の撮像方法(及び撮像方法を実行させるプログラム)に関して説明するフロー図である。
先ず、撮像装置1の第1動画像データ処理部121は、撮像装置1の動画画質設定「MV_SET」を取得する(ステップS401)。その後、外部レコーダ3から撮像装置1に、外部レコーダ3のモニタ画質設定「MON_SET」が送信され、撮像装置1の第2動画像データ処理部123は、モニタ画質設定「MON_SET」を取得する(ステップS402)。
その後、撮像装置1は撮像素子105から動画像データ(RAW)を取得する(ステップS403)。その後、第1動画像データ処理部121は、「MV_SET」に対応した第1画像処理で第1動画像データを生成する(ステップS404)。次に、第2動画像データ処理部123は、「MON_SET」に対応した第2画像処理で第2動画像データを生成する(ステップS405)。次に、撮像装置1から外部レコーダ3に、第1動画像データを送信する(ステップS406)。その後、撮像装置1から外部レコーダ3に、第2動画像データを送信する(ステップS407)。
その後、動画記録が行われているか否かをCPU107が判定する(ステップS408)。動画記録が行われているとCPU107が判定すると、外部レコーダ3は、第1動画像データを記録する(ステップS409)。一方、動画記録が行われていないとCPU107が判定すると、外部レコーダ3は、第2動画像データを表示部(モニタ)207に表示する(ステップS410)。
なお、以後のステップS411~ステップS415は、図5で説明をしたステップS106~ステップS110に対応するので、説明は省略する。
このように、撮像装置1は、動画画質設定の第1動画像データとモニタ画質設定の第2動画像データと生成し、外部レコーダ3に送る。そして、外部レコーダ3は、動画記録を行う場合には第1動画像データを記録し、表示部(モニタ)207には第2動画像データを表示する。これにより、撮像装置1の動画画質設定に合致する、外部レコーダ3のモニタ画質設定が存在しない場合であっても、表示部207に露出や色が確認できるライブビュー画像を表示することができる。
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1 :撮像装置
3 :外部レコーダ
5 :HDMIケーブル
103 :レンズ
105 :撮像素子
107 :CPU
109 :接続部
111 :メモリ
113 :表示部
121 :第1動画像データ処理部
123 :第2動画像データ処理部
125 :第3動画像データ処理部
203 :接続部
205 :CPU
207 :表示部
209 :記録部
3 :外部レコーダ
5 :HDMIケーブル
103 :レンズ
105 :撮像素子
107 :CPU
109 :接続部
111 :メモリ
113 :表示部
121 :第1動画像データ処理部
123 :第2動画像データ処理部
125 :第3動画像データ処理部
203 :接続部
205 :CPU
207 :表示部
209 :記録部
Claims (17)
- 外部機器と接続可能な接続部と、プロセッサを備える撮像装置であって、
前記プロセッサは、
撮像された動画像データから第1設定条件に基づいて第1動画像データを生成する処理と、
撮像された動画像データから第2設定条件に基づいて第2動画像データを生成する処理と、
前記第1設定条件と前記第2設定条件との差異を示す第3動画像データを、前記第1動画像データと前記第2動画像データとに基づいて生成する処理と、
前記接続部を介して、前記第3動画像データを前記外部機器に出力する処理と、
を行う撮像装置。 - 前記第1設定条件は、前記撮像装置において設定された条件であり、前記第2設定条件は、前記外部機器において設定された条件である請求項1に記載の撮像装置。
- 前記プロセッサは、前記第3動画像データを、前記第1動画像データを構成するフレームと、前記第2動画像データを構成するフレームとを交互に並べて生成する請求項1又は2に記載の撮像装置。
- 前記プロセッサは、前記第3動画像データを、前記第1動画像データを構成する複数のフレームと、前記第2動画像データを構成する複数のフレームとを交互に並べて生成する請求項1又は2に記載の撮像装置。
- 前記プロセッサは、前記第3動画像データを、前記第1動画像データを構成するフレームと、前記第2動画像データを構成するフレームとを合成して生成する請求項1又は2に記載の撮像装置。
- 前記プロセッサは、前記第3動画像データを、前記第1動画像データを構成するフレームと、前記第2動画像データを構成するフレームとを並べて合成して生成する請求項5に記載の撮像装置。
- 前記プロセッサは、前記第3動画像データを、前記第1動画像データを構成するフレームと、前記第2動画像データを構成するフレームとを重畳して合成して生成する請求項5に記載の撮像装置。
- 前記プロセッサは、前記第3動画像データを、前記第1動画像データを構成するフレームの一部と、前記第2動画像データを構成するフレームの一部とを合成して生成する請求項5に記載の撮像装置。
- 前記プロセッサの制御により表示用データを表示する表示部を備え、
前記プロセッサは、前記第1設定条件と前記第2設定条件とを比較し、比較結果を前記表示部に表示させる請求項1から8のいずれか1項に記載の撮像装置。 - 前記プロセッサは、前記第1設定条件と前記第2設定条件とを比較し、前記第1設定条件と前記第2設定条件との差異を前記比較結果として前記表示部に表示させる請求項9に記載の撮像装置。
- 前記プロセッサは、前記接続部を介して前記外部機器の記録開始指示の信号を受信した場合には、前記第3動画像データに代えて前記第1動画像データを出力する請求項1から10のいずれか1項に記載の撮像装置。
- 前記プロセッサは、前記第1動画像データ及び前記第2動画像データを生成した後に、前記第3動画像データを生成する請求項1から11のいずれか1項に記載の撮像装置。
- 前記プロセッサは、前記第1動画像データと前記第2動画像データとを前記第3動画像データに合わせて交互に生成する請求項4又は5に記載の撮像装置。
- 前記接続部は、無線により前記外部機器と接続する請求項1から13のいずれか1項に記載の撮像装置。
- 外部機器と接続可能な接続部と、プロセッサを備える撮像装置を使用した撮像方法であって、
前記プロセッサにより、
撮像された動画像データから第1設定条件に基づいて第1動画像データを生成するステップと、
撮像された動画像データから第2設定条件に基づいて第2動画像データを生成するステップと、
前記第1設定条件と前記第2設定条件との差異を示す第3動画像データを、前記第1動画像データと前記第2動画像データとに基づいて生成するステップと、
前記接続部を介して、前記第3動画像データを前記外部機器に出力するステップと、
を行わせる撮像方法。 - 外部機器と接続可能な接続部と、プロセッサを備える撮像装置を使用した撮像方法を行わせるプログラムであって、
前記プロセッサにより、
撮像された動画像データから第1設定条件に基づいて第1動画像データを生成するステップと、
撮像された動画像データから第2設定条件に基づいて第2動画像データを生成するステップと、
前記第1設定条件と前記第2設定条件との差異を示す第3動画像データを、前記第1動画像データと前記第2動画像データとに基づいて生成するステップと、
前記接続部を介して、前記第3動画像データを前記外部機器に出力するステップと、
を行わせるプログラム。 - 非一時的かつコンピュータ読取可能な記録媒体であって、請求項16に記載のプログラムが記録された記録媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022533944A JP7352028B2 (ja) | 2020-06-30 | 2021-06-25 | 撮像装置、撮像方法、及びプログラム |
CN202180045791.8A CN115769591A (zh) | 2020-06-30 | 2021-06-25 | 摄像装置、摄像方法及程序 |
DE112021003484.7T DE112021003484T5 (de) | 2020-06-30 | 2021-06-25 | Bildgebungsvorrichtung, bildgebungsverfahren und programm |
US18/064,572 US20230114332A1 (en) | 2020-06-30 | 2022-12-12 | Imaging device, imaging method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020112549 | 2020-06-30 | ||
JP2020-112549 | 2020-06-30 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US18/064,572 Continuation US20230114332A1 (en) | 2020-06-30 | 2022-12-12 | Imaging device, imaging method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022004570A1 true WO2022004570A1 (ja) | 2022-01-06 |
Family
ID=79316031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/024053 WO2022004570A1 (ja) | 2020-06-30 | 2021-06-25 | 撮像装置、撮像方法、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230114332A1 (ja) |
JP (1) | JP7352028B2 (ja) |
CN (1) | CN115769591A (ja) |
DE (1) | DE112021003484T5 (ja) |
WO (1) | WO2022004570A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010172462A (ja) * | 2009-01-29 | 2010-08-12 | Toshiba Corp | 医用画像表示装置 |
JP2010183173A (ja) * | 2009-02-03 | 2010-08-19 | Fujifilm Corp | 撮像装置及びそのスルー画像表示方法 |
JP2013229699A (ja) * | 2012-04-25 | 2013-11-07 | Sony Corp | 撮像装置、撮像処理方法、画像処理装置および撮像処理システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7199158B2 (ja) | 2018-05-23 | 2023-01-05 | キヤノン株式会社 | 画像処理装置およびその制御方法ならびにプログラム |
-
2021
- 2021-06-25 DE DE112021003484.7T patent/DE112021003484T5/de active Pending
- 2021-06-25 JP JP2022533944A patent/JP7352028B2/ja active Active
- 2021-06-25 CN CN202180045791.8A patent/CN115769591A/zh active Pending
- 2021-06-25 WO PCT/JP2021/024053 patent/WO2022004570A1/ja active Application Filing
-
2022
- 2022-12-12 US US18/064,572 patent/US20230114332A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010172462A (ja) * | 2009-01-29 | 2010-08-12 | Toshiba Corp | 医用画像表示装置 |
JP2010183173A (ja) * | 2009-02-03 | 2010-08-19 | Fujifilm Corp | 撮像装置及びそのスルー画像表示方法 |
JP2013229699A (ja) * | 2012-04-25 | 2013-11-07 | Sony Corp | 撮像装置、撮像処理方法、画像処理装置および撮像処理システム |
Also Published As
Publication number | Publication date |
---|---|
CN115769591A (zh) | 2023-03-07 |
US20230114332A1 (en) | 2023-04-13 |
JP7352028B2 (ja) | 2023-09-27 |
JPWO2022004570A1 (ja) | 2022-01-06 |
DE112021003484T5 (de) | 2023-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107534759B (zh) | 摄像装置、摄像方法和计算机可读介质 | |
EP3402179B1 (en) | Image-capturing system, image-capturing method, and program | |
KR101753261B1 (ko) | 촬영 시스템 및 그 영상품질 동기화 방법 | |
TW202007132A (zh) | 在相機感測器模組和視覺處理系統之間交換經hdr 組合的串流和相關聯的曝光 | |
EP2214136B1 (en) | Method and program for controlling image capture apparatus | |
US20050190270A1 (en) | Method and apparatus for processing image signal | |
WO2022004570A1 (ja) | 撮像装置、撮像方法、及びプログラム | |
JP6099009B2 (ja) | 撮像素子および撮像装置 | |
US9912873B2 (en) | Image pickup apparatus equipped with display section and method of controlling the same | |
Mody et al. | High performance and flexible imaging Sub-system | |
JP2017092850A (ja) | 撮像装置、撮像方法および会議端末装置 | |
JP2019140468A (ja) | 画像処理装置、及びその制御方法 | |
JP6939947B2 (ja) | 撮像システム | |
CN110225223B (zh) | 图像处理设备及其控制方法 | |
KR100932721B1 (ko) | 색처리 파라미터 설정 방법 및 디지털 촬상 기기 | |
JP7022544B2 (ja) | 画像処理装置及び方法、及び撮像装置 | |
WO2022044915A1 (ja) | 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム | |
JP2010279457A (ja) | 電子内視鏡、電子内視鏡システムおよび色調整方法 | |
JP7028279B2 (ja) | 電子機器 | |
JP2005117388A (ja) | 撮像装置 | |
JP6875603B2 (ja) | 撮像装置、撮像方法、及びプログラム | |
WO2024203226A1 (ja) | 表示制御装置、表示制御方法及びプログラム、撮影システム | |
JP3755950B2 (ja) | 撮影装置 | |
JP3038688B2 (ja) | 撮影装置 | |
GB2544851A (en) | Method and apparatus for synchronizing auto exposure between chromatic pixels and panchromatic pixels in a camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21833703 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2022533944 Country of ref document: JP Kind code of ref document: A |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21833703 Country of ref document: EP Kind code of ref document: A1 |