WO2023062911A1 - 電子機器、制御方法、プログラム、記憶媒体 - Google Patents

電子機器、制御方法、プログラム、記憶媒体 Download PDF

Info

Publication number
WO2023062911A1
WO2023062911A1 PCT/JP2022/028833 JP2022028833W WO2023062911A1 WO 2023062911 A1 WO2023062911 A1 WO 2023062911A1 JP 2022028833 W JP2022028833 W JP 2022028833W WO 2023062911 A1 WO2023062911 A1 WO 2023062911A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
camera
parameters
imaging means
Prior art date
Application number
PCT/JP2022/028833
Other languages
English (en)
French (fr)
Inventor
理恵 明神
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to CN202280068524.7A priority Critical patent/CN118104242A/zh
Publication of WO2023062911A1 publication Critical patent/WO2023062911A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present invention relates to electronic equipment, control methods, programs, and storage media.
  • a smartphone may be equipped with multiple cameras. Then, the user may simultaneously view a plurality of images with different angles of view that are simultaneously shot by respective cameras. In addition, a plurality of images shot at the same time are often used to create a single image work or a work such as an album, and a balance of brightness, color, etc., is often required for the plurality of images.
  • Japanese Patent Application Laid-Open No. 2002-200003 discloses a technique of changing the imaging parameters of one camera (specifically, the gain for each color) when the imaging parameters of one camera are changed in an imaging apparatus having two cameras.
  • Patent Document 1 changes in the shooting parameters of one camera and changes in the shooting parameters of the other cameras are always linked, and depending on the situation, an image different from the user's intention may be obtained. .
  • the user has to reconfigure the shooting parameters of the other cameras, and the user may not be able to easily perform the settings for acquiring the desired image, may feel annoyed, or may miss a photo opportunity. .
  • an electronic device provides a plurality of imaging means including a first imaging means for obtaining a first image and a second imaging means for obtaining a second image; Acquisition means for acquiring imaging parameters of at least one imaging means among the plurality of imaging means; Whether the first relationship, which is either the positional relationship between the first imaging means and the second imaging means or the relationship between the first image and the second image, satisfies a predetermined condition. a control means for controlling whether to change the imaging parameters of the second imaging means based on the first imaging parameters, depending on whether the imaging parameters are changed or not.
  • FIG. 1A to 1C are external views of the smartphone according to the embodiment.
  • FIG. 2 is an internal configuration diagram of the smartphone according to the embodiment.
  • 3A to 3C are diagrams for explaining display of LV images according to the embodiment.
  • 4A to 4C are diagrams for explaining display of LV images according to the embodiment.
  • FIG. 5 is a flowchart showing control processing of imaging parameters according to the embodiment.
  • ⁇ Embodiment> 1A to 1C are external views of a smartphone 100 as an example of a device (electronic device) according to this embodiment.
  • FIG. 1A is a front view of the smartphone 100
  • FIG. 1B is a rear view of the smartphone 100
  • FIG. FIG. 1C is a front view of smart phone 100 having two front cameras.
  • the display 105 is a display unit provided on the front surface of the smartphone 100 .
  • the display 105 displays images and various information on its display surface.
  • the display 105 can display a live view image (LV image) of a subject captured by the out-camera unit 114 or the in-camera unit 115 (in-cameras 115a and 115b).
  • the out-camera unit 114 includes a telephoto out-camera 114a, a standard out-camera 114b, and a wide-angle out-camera 114c.
  • a live view image (LV image) is an image captured by a camera in real time.
  • the operation unit 106 includes a touch panel 106a, a power button 106b, a volume plus button 106c, a volume minus button 106d, and a home button 106e.
  • the touch panel 106a is a touch operation member.
  • the touch panel 106 a detects a touch operation on the display surface (operation surface) of the display 105 .
  • the power button 106b is a button for switching the display 105 between lighting and extinguishing (display and non-display). Also, when the user continues to press (long press) the power button 106b for a certain amount of time (for example, 3 seconds), the power of the smartphone 100 is switched between ON and OFF.
  • the volume plus button 106 c and the volume minus button 106 d are volume buttons for controlling the volume of the audio output by the audio output unit 112 .
  • the volume plus button 106c When the user presses the volume plus button 106c, the volume of the audio output by the audio output unit 112 is increased.
  • the volume minus button 106d when the user presses the volume minus button 106d, the volume of the audio output by the audio output unit 112 is decreased.
  • the volume plus button 106c and the volume minus button 106d can also be used as shutter buttons that instruct shooting each time they are pressed.
  • the user can arbitrarily set the smartphone 100 to execute a specific process when the power button 106b and the volume down button 106d are pressed at the same time, or when the volume down button 106d is quickly pressed several times. You can also
  • the home button 106 e is an operation button for displaying the home screen, which is the startup screen of the smartphone 100 , on the display 105 .
  • the home button 106e is pressed while an arbitrary application is running (used) on the smartphone 100, the running application is temporarily closed, and then the home screen is displayed.
  • the home button 106e is assumed to be a physical button (a button that can be physically pressed), it may be a button of a graphical user interface (GUI) displayed on the display 105.
  • GUI graphical user interface
  • the audio output terminal 112a is a terminal that outputs audio to an earphone, an external speaker, or the like.
  • the audio output terminal 112a is, for example, an earphone jack.
  • the speaker 112b is a built-in speaker that outputs sound. When audio is output from the audio output unit 112, if a predetermined terminal (for example, an earphone cord) is not attached to the audio output terminal 112a, the audio is output from the speaker 112b.
  • FIG. 2 is a configuration diagram showing an example of the internal configuration of the smartphone 100 shown in FIGS. 1B and 1C.
  • Smartphone 100 has CPU 101 , memory 102 , nonvolatile memory 103 , processing unit 104 , display 105 , operation unit 106 , storage medium interface 107 , external interface 109 , and communication interface 110 .
  • Smartphone 100 also includes audio output unit 112 , posture detection unit 113 , out-camera unit 114 , in-camera unit 115 , and processing unit 116 . These components are connected to the internal bus 150 and can exchange data with each other via the internal bus 150 .
  • the CPU 101 is a control unit that controls the smartphone 100 as a whole.
  • CPU 101 has at least one processor or circuit.
  • the CPU 101 controls each component of the smartphone 100 according to a program stored in the nonvolatile memory 103 and using the memory 102 as a work memory.
  • the memory 102 has, for example, a RAM (volatile memory using a semiconductor element, etc.).
  • the nonvolatile memory 103 stores image data, audio data, other data, various programs for the CPU 101 to operate, and the like.
  • the nonvolatile memory 103 has, for example, flash memory and ROM.
  • the processing unit 104 performs various image processing and subject recognition processing on the image acquired by the out-camera unit 114 .
  • Various image processing includes, for example, A/D conversion processing, D/A conversion processing, image data encoding processing, compression processing, decoding processing, enlargement/reduction processing (resize), noise reduction processing, or color conversion processing. is.
  • the processing unit 104 has a telephoto image processing unit 104a, a standard image processing unit 104b, and a wide-angle image processing unit 104c.
  • the telephoto image processing unit 104a performs various image processing and subject recognition processing on the image acquired by the telephoto out-camera 114a.
  • the standard image processing unit 104b performs various types of image processing and subject recognition processing on images acquired by the standard out-camera 114b.
  • the wide-angle image processing unit 104c performs various image processing and object recognition processing on the image acquired by the wide-angle out-camera 114c.
  • the processing unit 116 performs various image processing and subject recognition processing on the image acquired by the in-camera unit 115 .
  • the standard image processing unit 116a performs various types of image processing and object recognition processing on the image acquired by the standard in-camera 115a.
  • the wide-angle image processing unit 116b performs various image processing and object recognition processing on the image acquired by the wide-angle in-camera 115b.
  • the telescopic out-camera 114a, the standard out-camera 114b, and the wide-angle out-camera 114c are assumed to be independent lens units. That is, the out-camera section 114 is composed of three lens units.
  • the standard in-camera 115a and the wide-angle in-camera 115b are independent lens units, and the in-camera section 115 is composed of two lens units. That is, the smart phone 100 shown in FIG. 2 has five lens units.
  • one image processing unit corresponds to one camera (imaging unit), but one image processing unit may correspond to two cameras.
  • One image processing unit may correspond to one camera. That is, one image processing unit may perform various image processing and object recognition processing on images acquired by a plurality of cameras.
  • each camera captures an image of the subject according to the shooting parameters set for each camera.
  • the shooting parameters include, for example, brightness-related parameters (shutter speed, aperture value, strobe emission state, ISO sensitivity, or brightness) or color-related parameters (white balance (WB), color temperature).
  • the CPU 101 can acquire the shooting parameters set for each camera from each camera.
  • each image processing unit processes various images (images stored in the nonvolatile memory 103 or storage medium 108, images acquired via the external interface 109, images acquired via the communication interface 110, etc.). Various types of image processing can also be applied.
  • Each image processing unit may be composed of a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 101 can perform image processing according to a program without using each image processing unit.
  • the display 105 displays an image, a GUI screen configured by a GUI (Graphical User Interface), and the like.
  • the CPU 101 causes each component to generate an image (image signal) based on the display control signal according to the program.
  • a display 105 displays an image generated by each component.
  • the smartphone 100 itself may include an interface for outputting an image, and an external monitor (such as a television) may display the image instead of the display 105 . In other words, smartphone 100 does not have to include display 105 .
  • the operation unit 106 is an input device (operation member) for accepting user operations.
  • the operation unit 106 includes a character information input device (keyboard, etc.), pointing device (mouse or touch panel), buttons, dials, joysticks, touch sensors, touch pads, or the like.
  • the touch panel is an input device that is superimposed on the display 105 and configured in a two-dimensional manner so as to output coordinate information corresponding to the touched position.
  • the operation unit 106 includes the touch panel 106a, the power button 106b, the volume plus button 106c, the volume minus button 106d, and the home button 106e, as described above.
  • a storage medium 108 such as a memory card, CD, or DVD can be attached to the storage medium interface 107 .
  • a storage medium interface 107 reads data from the storage medium 108 and writes data to the storage medium 108 .
  • Storage medium 108 may be a built-in storage of smart phone 100 .
  • the external interface 109 is an interface for connecting to an external device via a wired cable or wirelessly, and for inputting/outputting images and sounds.
  • the communication interface 110 is an interface for communicating with an external device, the network 111, etc., and transmitting and receiving various data such as files and commands.
  • the audio output unit 112 outputs video and music audio, operation sounds, ringtones, various notification sounds, and the like.
  • the audio output unit 112 includes an audio output terminal 112a for connecting an earphone or the like, and a speaker 112b.
  • the audio output unit 112 may output audio through wireless communication.
  • the posture detection unit 113 detects the posture of the smartphone 100 with respect to the direction of gravity (inclination of the posture with respect to each axis of yaw, roll, and pitch). Based on the orientation detected by orientation detection unit 113, CPU 101 determines the state of smartphone 100 (whether smartphone 100 is held horizontally, is held vertically, is oriented upward, is oriented downward, or is tilted). ) can be determined. At least one of an acceleration sensor, a gyro sensor, a geomagnetic sensor, a direction sensor, an altitude sensor, and the like can be used for the posture detection unit 113, and a plurality of sensors can be used in combination.
  • the out-camera unit 114 has three out-cameras (imaging units) arranged on the side opposite to the display 105 in the housing of the smartphone 100 .
  • the out-camera section 114 has the telephoto out-camera 114a, the standard out-camera 114b, and the wide-angle out-camera 114c as the three out-cameras.
  • the focal length of the telescopic out-camera 114a is longer than the focal length of the standard out-camera 114b. Therefore, the telephoto out-camera 114a can capture a more detailed image of the telephoto side than the standard out-camera 114b.
  • the focal length of the wide-angle out-camera 114c is shorter than the focal length of the standard out-camera 114b. Therefore, the wide-angle out-camera 114c can take a wider-angle image than the standard out-camera 114b. That is, the telephoto out-camera 114a, the standard out-camera 114b, and the wide-angle out-camera 114c have shorter focal lengths in this order, and correspondingly wider angles of view.
  • the telephoto out-camera 114a has a lens with a mechanism for optically magnifying a predetermined magnification. may have.
  • the telescopic out-camera 114a, the standard out-camera 114b, and the wide-angle out-camera 114c can simultaneously capture images.
  • one imaging sensor is arranged in one out-camera. That is, the number of imaging sensors for the out-camera unit 114 included in the smartphone 100 is the same as the number of out-cameras included in the smartphone 100 (three in the present embodiment). Similarly, imaging sensors for the in-camera unit 115 are arranged as many as the in-cameras of the smartphone 100 (two in the present embodiment). However, it is not necessary to arrange one image sensor for one camera (lens unit). That is, the three out-cameras 114a to 114c may share and use one imaging sensor (that is, the smartphone 100 has one imaging sensor for the out-camera unit 114).
  • the three out-cameras can simultaneously (parallelly or time-divisionally) capture images, it is not necessary for all three out-cameras to capture images at the same time. Any two of the three out-cameras may capture the image, or one camera may capture the image independently.
  • the in-camera unit 115 has two in-cameras (imaging units) arranged on the same surface as the display 105 on the housing of the smartphone 100 .
  • the in-camera section 115 has a standard in-camera 115a and a wide-angle in-camera 115b.
  • any one of the out cameras 114a to 114c and any one of the in cameras 115a and 115b can be simultaneously driven to perform imaging.
  • the out-camera and the in-camera take images at the same time as described above, it is not always necessary for the two cameras to take images at the same time, and one of the out-camera and the in-camera can take images independently. . Also, similarly to the out-camera unit 114, it is possible to simultaneously drive the two in-cameras 115a and 115b to perform imaging, or one in-camera may perform imaging independently.
  • the smartphone 100 can display on the display 105 the LV image acquired by each camera. That is, when a plurality of cameras are driven at the same time, the LV images acquired by imaging by the plurality of cameras are arranged on the display 105 as shown in FIGS. 3A to 3C and FIGS. Is displayed.
  • the display 105 displays an LV image 301a acquired by the wide-angle out-camera 114c, an LV image 301b acquired by the standard out-camera 114b, and an image 301c acquired by the telephoto out-camera 114a.
  • all three arranged out-cameras are used for imaging.
  • FIG. 3A from the composition of the LV image, it is assumed that the three out-cameras are shooting the same subject (person present in the LV image).
  • the display 105 displays an LV image 302a acquired by the standard out-camera 114b and an LV image 302b acquired by the telephoto out-camera 114a.
  • the LV image 302a displays a first person captured by the standard out-camera 114b
  • the LV image 302b displays a flower captured by the telephoto out-camera 114a.
  • An LV image 302a shown in FIG. 3B is obtained by electronically zooming the LV image captured by the standard out-camera 114b. Therefore, the angle of view is narrower than the LV image 301b acquired by the standard out-camera 114b shown in FIG. 3A (the size of the first person is larger).
  • two out-cameras are used in FIG. 3B, it is assumed that the user is not trying to shoot the same subject with the two out-cameras but is trying to shoot different subjects.
  • the telescopic out-camera 114a displays an LV image 303a of a second person
  • the wide-angle out-camera 114c displays an LV image 303b of a plurality of persons including the second person.
  • the user wishes to include at least the same subject (second person) in the LV images captured using the two out-cameras. For example, in a situation where a play on a stage is being filmed, the user may wish to photograph the entire stage, but the user may want to enlarge and photograph the person who is personally cheering. In such a case, of the three out-cameras, if the telephoto out-camera 114a and the wide-angle out-camera 114c are used for photographing, the photographing situation as described above can be realized.
  • the display 105 displays an LV image 404a of a third person captured by the wide-angle in-camera 115b and an LV image 404b of a house captured by the wide-angle out-camera 114c. Since the user is using the in-camera and the out-camera, it can be seen that the user who is shooting with the in-camera is shooting himself and the scenery is being shot with the out-camera. In other words, it can be seen that the user is trying to capture an image with an angle of view in which the direction in which the image is captured (the direction in which the image is captured by the camera) is diametrically opposed.
  • the display 105 displays an LV image 405a of the third person captured by the wide-angle in-camera 115b and an LV image 405b of the third person captured by the standard in-camera 115a.
  • a situation similar to the photographing situation described in FIG. 3C is assumed, and the user wants to photograph the same subject (here, the user himself) at different angles of view using two front cameras. is assumed. Although only one subject is shown in FIG. 4B, the following situations are possible.
  • the in-camera when trying to take a group photo with a plurality of people using the in-camera, framing is performed using the wide-angle camera 115b so that all of the people are included in the angle of view, and the standard in-camera 115a is used to frame oneself.
  • the standard in-camera 115a is used to frame oneself.
  • only a specific person can be enlarged and photographed.
  • the user can capture an image including a plurality of subjects with a wide angle of view and confirm only the desired person in detail.
  • the display 105 shows an LV image 406a of the third person captured by the standard in-camera 115a, an LV image 406b of the third person captured by the wide-angle in-camera 115b, and an LV image of a house captured by the wide-angle out-camera 114c.
  • An image 406c is displayed.
  • each LV image may be displayed in an arbitrary shape such as a round shape.
  • more LV images may be displayed.
  • the sizes of all LV images may be the same or different. For example, the shorter the focal length of the camera that acquired the LV image, the larger the size of the LV image.
  • the CPU 101 can detect the following operations or states on the touch panel 106a.
  • the touch panel 106a is newly touched by a finger or pen that has not touched the touch panel 106a, that is, the start of touch (hereinafter referred to as Touch-Down).
  • Touch-On a finger or pen
  • Touch-Move The finger or pen touching the touch panel 106a is separated from the touch panel 106a, that is, the end of the touch (hereinafter referred to as Touch-Up) A state in which nothing is touched on the touch panel 106a (hereinafter referred to as Touch-Off)
  • a touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. Touch-on is detected at the same time when touch-move is detected. Even if touch-on is detected, touch-move is not detected if the touch position does not move. Touch-off is detected when it is detected that all the fingers and pens that were in touch have touched up.
  • the CPU 101 is notified of these operations/states and the coordinates of the position where the finger or pen touches the touch panel 106a through the internal bus. Based on the notified information, CPU 101 determines what kind of operation (touch operation) has been performed on touch panel 106a.
  • the direction of movement of a finger or pen that moves on the touch panel 106a can also be determined for each vertical component and horizontal component on the touch panel 106a based on changes in position coordinates. If it is detected that the touch-move has been performed for a predetermined distance or more, it is determined that the slide operation has been performed.
  • a flick is, in other words, an operation of quickly tracing the touch panel 106a as if flicking it with a finger. It can be determined that a flick has been performed when a touch-move of a predetermined distance or more at a predetermined speed or more is detected, and a touch-up is detected as it is (it can be determined that a flick has occurred following a slide operation).
  • the touch panel 106a may use any type of touch panel among various types of touch panels such as a resistive film type, an electrostatic capacity type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. good. There is a method of detecting that there is a touch when there is contact with the touch panel, and a method of detecting that there is a touch when there is an approach of a finger or pen to the touch panel.
  • a shooting parameter is a parameter set in a camera at the time of shooting.
  • the shooting parameters can include brightness parameters (exposure value, shutter speed, F number (aperture value), strobe emission state, ISO sensitivity, or brightness).
  • the shooting parameters can include color parameters (white balance (WB), color temperature, or a value of a process called a filter that performs color-related image processing on an image to be shot).
  • the shooting parameters are not limited to these, and may be values (parameters) related to shooting that can be changed by the user.
  • the processing of this flowchart is implemented by the CPU 101 expanding the program stored in the nonvolatile memory 103 into the memory 102 and executing it.
  • the flowchart in FIG. 5 is started when a camera application for photographing is activated in the smartphone 100 and the smartphone 100 is placed in a photographing standby state.
  • the CPU 101 drives a plurality of cameras to start imaging. Further, the CPU 101 starts various image processing by the image processing units corresponding to the driven cameras (hereinafter referred to as "plural driving cameras").
  • the plurality of driving cameras may be two or more cameras selected by the user from among the five cameras of the out-camera unit 114 and the in-camera unit 115 .
  • the plurality of driving cameras may be the telescopic out camera 114a, the standard out camera 114b, and the wide-angle out camera 114c.
  • the plurality of drive cameras may be two, the standard out-camera 114b and the standard in-camera 115a.
  • the CPU 101 simultaneously displays on the display 105 a plurality of LV images acquired by imaging by a plurality of driving cameras in S501. Note that even if all five cameras are driven, the scene may be automatically determined from the scenery captured by the user, and the LV image captured by at least two cameras may be displayed on the display 105. Even if the five cameras are driven, the LV images by the two standard out-camera 114b and the standard in-camera 115a are displayed until the user gives an instruction, and the LV is displayed on the display 105 according to the user's instruction. Change the number of images and camera.
  • the CPU 101 displays a plurality of LV images side by side on the display 105 as shown in FIGS. 3A to 3C and 4A to 4C. Note that even when the three cameras are driven, the CPU 101 may display only the LV images acquired by any two of the three cameras on the display 105 .
  • the CPU 101 determines whether or not the shooting parameters of one of the plurality of driving cameras (hereinafter referred to as "first camera") have been changed by the user's operation. If the imaging parameters of the first camera have been changed, the process proceeds to S505; otherwise, the process proceeds to S504.
  • first camera shooting parameters of one of the plurality of driving cameras
  • the user selects the LV image (for example, the LV image 301a) is selected by touchdown.
  • the CPU 101 changes the shooting parameters of the camera corresponding to the image. is determined to have been changed.
  • the CPU 101 changes the imaging parameters corresponding to the LV image so as to acquire the LV image with the parameters changed by touch move, flick, or the like.
  • the shooting parameters are changed by a touch operation on the touch panel, but they may be changed using a physically pressable operation button or the like arranged on the smartphone 100 .
  • the CPU 101 continuously performs imaging using a plurality of driving cameras from S ⁇ b>501 and displays the LV image obtained by imaging on the display 105 . Note that in S504, the CPU 101 does not change the shooting parameters of the multiple driving cameras.
  • the CPU 101 stores in the memory 102 information about the changed imaging parameters of the first camera (for example, the wide-angle out-camera 114c) changed in S503.
  • the CPU 101 determines whether or not the relationship regarding multiple driving cameras satisfies a predetermined condition.
  • the relationship regarding the plurality of driving cameras is either the positional relationship of the plurality of driving cameras or the relationship between the plurality of images captured by the plurality of driving cameras. If the relationships regarding the plurality of driving cameras satisfy a predetermined condition, the process advances to S508. Otherwise, the process proceeds to S507.
  • the case where the predetermined condition is satisfied is the case where the user desires that the photographing parameters of the plurality of driving cameras should be linked with each other.
  • the predetermined condition is that multiple driving cameras are arranged on one surface (same surface) of the smartphone 100 . That is, a predetermined condition is satisfied if a plurality of driving cameras are in-cameras or out-cameras. On the other hand, the predetermined condition is not satisfied when the driving cameras are the in-camera and the out-camera. Therefore, when only two out-cameras are driven in S501, the predetermined condition is satisfied.
  • the predetermined condition is that all of the plurality of driving cameras are imaging a specific subject (or the same subject) (the specific subject is captured in all LV images acquired by the plurality of cameras). It may be a condition that Under this condition, the predetermined condition is satisfied when the specific subject is shown in all of the LV images 301a to 301c as shown in FIG. 3A. On the other hand, as shown in FIG. 3B, when different subjects appear in the LV image 302a and the LV image 302b, the predetermined condition is not satisfied.
  • the specific subject is, for example, the main subject to be imaged, and may be a person, an animal, or a predetermined building.
  • the predetermined condition may be a condition that the same subject is in focus in a plurality of cameras.
  • the predetermined condition is that the difference in brightness (average value, median value, maximum value, minimum value, mode value, etc.) between multiple LV images acquired by multiple driving cameras is within a predetermined value.
  • the predetermined condition may be a condition that the difference between the average luminance of the LV image with the highest average luminance and the average luminance of the LV image with the lowest average luminance is within a predetermined value.
  • the predetermined condition is that a specific subject (or the same subject) is captured in all of the plurality of LV images acquired by the plurality of driving cameras, and the luminance difference between the plurality of LV images. may be within a predetermined value. Under this condition, as shown in FIG. 3C, even when a specific subject (same person) is shown in both the LV image 303a and the LV image 303b, the brightness between the LV images is significantly different. does not meet the specified conditions.
  • the CPU 101 does not change the shooting parameters of the driving cameras other than the first camera (hereinafter simply referred to as "other driving cameras") among the plurality of driving cameras.
  • the CPU 101 does not "change the shooting parameters of the other drive cameras based on the first shooting parameters". Therefore, for example, when the user performs an operation to change the shooting parameters of another driving camera, the CPU 101 may change the parameters of the other driving camera according to the operation.
  • the CPU 101 first acquires the shooting parameters of the first camera saved in the memory 102 in S505. Then, the CPU 101 determines shooting parameters (hereinafter referred to as “updated parameters”) to be newly set for the other driving cameras based on the shooting parameters of the first camera. For example, the CPU 101 may directly determine the value of the shooting parameter of the first camera as the value of the update parameter. Alternatively, the CPU 101 may determine a value obtained by increasing or decreasing the current shooting parameters of the other driving cameras by the change amount of the shooting parameters of the first camera changed in S503 as the update parameter value. .
  • the CPU 101 changes (adjusts) the shooting parameters of the other driving cameras. Specifically, the CPU 101 changes the shooting parameters of the other driving cameras to the updated parameters determined in S508. At this time, the CPU 101 displays on the display 105 an LV image acquired by another driving camera whose imaging parameters have been changed.
  • the processing is collectively performed for all of the other driving cameras, but the processing of S506 to S509 may be performed individually for each of the other driving cameras. That is, in S506, it is determined whether or not a predetermined condition is satisfied for each of the other driving cameras (LV images acquired by the other driving cameras), and the shooting parameters of the camera are changed according to the determination result in S506. It may be switched whether to do or not. According to this, since it is possible to flexibly adjust whether or not to change the shooting parameters for each camera, it is possible to acquire an image that more closely matches the user's intention.
  • the first camera is the standard in-camera 115a capturing the LV image 406a
  • the predetermined condition is that the first camera and the other driving cameras are the 1st camera of the smartphone 100.
  • the condition is that they are arranged on one plane.
  • the wide-angle in-camera 115b capturing the LV image 406b is arranged on the same plane as the standard in-camera 115a on the smartphone 100, so the predetermined condition is satisfied in S506. Therefore, the CPU 101 changes the imaging parameters of the wide-angle in-camera 115b in S508 and S509.
  • the CPU 101 does not change the imaging parameters of the wide-angle out-camera 114c.
  • the CPU 101 determines whether or not a shooting instruction has been issued. If the shooting instruction has been issued, the process proceeds to S511; otherwise, the process proceeds to S512.
  • the shooting instruction is given by, for example, the user selecting (touching) a predetermined icon (icon for shooting) displayed on the display 105 .
  • the shooting instruction may be an instruction in response to pressing a dedicated physical button. Even if a shooting instruction is issued in response to pressing the volume plus button 106c or the volume minus button 106d, pressing the power button 106b and the volume minus button 106d at the same time, or pressing the volume minus button 106d several times in a short period of time. good.
  • the CPU 101 performs shooting preparation processing such as AF processing based on the display position of the AF (autofocus) frame, AE (auto exposure) processing, AWB (auto white balance) processing, and the like. After that, the CPU 101 performs a photographing process (a series of processes until images captured by a plurality of driving cameras are recorded as an image file in the recording medium 200).
  • shooting preparation processing such as AF processing based on the display position of the AF (autofocus) frame, AE (auto exposure) processing, AWB (auto white balance) processing, and the like.
  • AE auto exposure
  • AWB auto white balance
  • the CPU 101 determines whether or not the camera application ends. When the camera application ends, the flow chart of FIG. 5 ends. If the camera application does not end, the process returns to S503. Termination of the camera application is, for example, closing the camera application or transitioning to another application (activation of another application).
  • the CPU 101 determines whether or not a predetermined condition is satisfied. switch whether to change the shooting parameters of the camera. Specifically, when a predetermined condition is satisfied (when the user desires that the shooting parameters of a plurality of cameras be linked with each other), the CPU 101 changes the shooting parameters of one camera. Change the shooting parameters of other cameras. By controlling in this way, even when the user is shooting with a plurality of cameras, by changing the shooting parameters once, it is possible to acquire a plurality of LV images changed to the shooting parameters desired by the user. can be done.
  • the CPU 101 does not change the shooting parameters of the other cameras in accordance with the change of the shooting parameters of one camera. Since the predetermined condition is not satisfied, even if the user changes the imaging parameters of the LV image captured by one camera, there is a high possibility that the user does not want the changed parameters to be reflected. With such control, it is possible to reduce the user's annoyance without changing (interlocking) the shooting parameters against the user's intention. Therefore, even when a plurality of cameras simultaneously capture images, the user can easily obtain the image desired by the user, and furthermore, it is possible to capture the image without losing a photo opportunity.
  • the shooting parameters are parameters set in the camera when the camera takes an image
  • the shooting parameters are parameters applied to the image acquired by the camera (that is, parameters for editing the image acquired by shooting).
  • the CPU 101 may change the imaging parameters of the image captured by the second camera when the imaging parameters of the image captured by the first camera are changed. Even in this case, as a result, the smartphone 100 can easily acquire the image desired by the user.
  • the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printers equipped with displays, digital photo frames, music players, game machines, electronic book readers, and the like.
  • each functional unit in each of the above embodiments may or may not be individual hardware. Functions of two or more functional units may be implemented by common hardware. Each of the multiple functions of one functional unit may be implemented by separate hardware. Two or more functions of one functional unit may be realized by common hardware. Also, each functional unit may or may not be realized by hardware such as ASIC, FPGA, and DSP.
  • the device may have a processor and a memory (storage medium) in which a control program is stored. The functions of at least some of the functional units of the device may be realized by the processor reading out and executing the control program from the memory.
  • the present invention supplies a program that implements one or more functions of the above embodiments to a system or device via a network or storage medium, and one or more processors in the computer of the system or device read and execute the program. processing is also feasible. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
  • a circuit for example, ASIC
  • 100 smart phone
  • 101 CPU
  • 114 out-camera section
  • 115 in-camera section
  • 114a telescopic out camera
  • 114b standard out camera
  • 114c wide-angle out camera
  • 115a standard in-camera
  • 115b wide-angle in-camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

電子機器は、第1の画像を取得する第1の撮像手段と第2の画像を取得する第2の撮像手段とを含む複数の撮像手段と、前記第1の撮像手段の撮影パラメータが第1の撮影パラメータに変更された場合には、前記第1の撮像手段と前記第2の撮像手段との位置関係および前記第1の画像と前記第2の画像との関係のいずれかの関係である第1の関係が所定の条件を満たすか否かに応じて、前記第2の撮像手段の撮影パラメータを前記第1の撮影パラメータに基づき変更するか否かを切り替えるように制御する制御手段とを有する。

Description

電子機器、制御方法、プログラム、記憶媒体
 本発明は、電子機器、制御方法、プログラム、記憶媒体に関する。
 スマートフォンが複数のカメラを搭載していることがある。そして、ユーザーは、それぞれのカメラが同時に撮影した画角の異なる複数の画像を同時に観賞することがある。また、同時に撮影が行われた複数の画像を用いて、1つの画像作品やアルバムなどの作品が作成されることも多く、複数の画像において明るさや色合いなどのバランスが求められることも多い。
 特許文献1では、2つのカメラを有する撮影装置において、一方のカメラの撮影パラメータ(具体的には、各色に対するゲイン)が変更されると、他方のカメラの撮影パラメータを変更する技術が開示されている。
特開2009-17457号公報
 しかし、特許文献1では、1つのカメラの撮影パラメータの変更と他のカメラの撮影パラメータの変更とが常に連動しており、状況によっては、ユーザーの意図とは異なる画像が取得されることがある。このため、他のカメラの撮影パラメータをユーザーが設定しなおす必要が生じ、ユーザーは、所望する画像を取得するための設定を容易に行えないことや煩わしく感じること、シャッターチャンスを逃すことがあった。
 そこで、本発明は、複数の撮像手段が同時に撮像を行う場合に、ユーザーの所望する設定の画像を容易に取得可能にする技術の提供を目的とする。
 上記目的を達成するために、本発明に係る電子機器は、第1の画像を取得する第1の撮像手段と第2の画像を取得する第2の撮像手段とを含む複数の撮像手段と、前記複数の撮像手段のうち、少なくともいずれか1つの撮像手段の撮影パラメータを取得する取得手段と、ユーザーにより前記第1の撮像手段の撮影パラメータが第1の撮影パラメータに変更された場合には、前記第1の撮像手段と前記第2の撮像手段との位置関係および前記第1の画像と前記第2の画像との関係のいずれかの関係である第1の関係が所定の条件を満たすか否かに応じて、前記第2の撮像手段の撮影パラメータを前記第1の撮影パラメータに基づき変更するか否かを切り替えるように制御する制御手段と、を有する。
 本発明によれば、複数の撮像手段が同時に撮像を行う場合に、ユーザーの所望する設定の画像を容易に取得することが可能になる。
図1A~図1Cは、実施形態に係るスマートフォンの外観図である。 図2は、実施形態に係るスマートフォンの内部構成図である。 図3A~図3Cは、実施形態に係るLV画像の表示を説明する図である。 図4A~図4Cは、実施形態に係るLV画像の表示を説明する図である。 図5は、実施形態に係る撮影パラメータの制御処理を示すフローチャートである。
 以下、図面を参照して本発明の実施形態を説明する。
<実施形態>
 図1A~図1Cは、本実施形態に係る装置(電子機器)の一例としてのスマートフォン100の外観図である。
 図1Aはスマートフォン100の前面図であり、図1Bはスマートフォン100の背面図である。また、図1Cは、インカメラを2つ有するスマートフォン100の前面図である。
 ディスプレイ105は、スマートフォン100の前面に設けられた表示部である。ディスプレイ105は、画像や各種情報を表示面に表示する。ディスプレイ105は、アウトカメラ部114またはインカメラ部115(インカメラ115a,115b)が被写体を撮像したライブビュー画像(LV画像)を表示できる。アウトカメラ部114は、望遠アウトカメラ114a、標準アウトカメラ114b、広角アウトカメラ114cを含む。なお、ライブビュー画像(LV画像)とは、カメラが撮像によってリアルタイムで取得している画像である。
 操作部106は、タッチパネル106a、電源ボタン106b、音量プラスボタン106c、音量マイナスボタン106d、ホームボタン106eを含む。
 タッチパネル106aは、タッチ操作部材である。タッチパネル106aは、ディスプレイ105の表示面(操作面)に対するタッチ操作を検出する。
 電源ボタン106bは、ディスプレイ105の点灯と消灯(表示と非表示)を切り替えるためのボタンである。また、ユーザーが、ある程度の時間(例えば、3秒間)、電源ボタン106bの押下を継続(長押し)すると、スマートフォン100の電源のONとOFFが切り替わる。
 音量プラスボタン106cおよび音量マイナスボタン106dは、音声出力部112が出力する音声の音量のボリュームをコントロールするための音量ボタンである。ユーザーが音量プラスボタン106cを押下すると、音声出力部112が出力する音声の音量が大きくなる。一方、ユーザーが音量マイナスボタン106dを押下すると、音声出力部112が出力する音声の音量が小さくなる。
 また、撮影を行うためのカメラアプリケーションが起動された撮影待機状態では、音量プラスボタン106cおよび音量マイナスボタン106dは、押下されるたびに撮影を指示するシャッターボタンとして用いることもできる。なお、電源ボタン106bと音量マイナスボタン106dが同時に押下された場合、または、音量マイナスボタン106dが素早く数回押下された場合に、スマートフォン100が特定の処理を実行するように、ユーザーが任意に設定することもできる。
 ホームボタン106eは、スマートフォン100の起動画面であるホーム画面をディスプレイ105に表示させるための操作ボタンである。スマートフォン100において任意のアプリケーションが起動(使用)していた場合に、ホームボタン106eが押下されると、起動しているアプリケーションが一時的に閉じられた後に、ホーム画面が表示される。なお、ホームボタン106eは、物理ボタン(物理的に押下可能なボタン)を想定しているが、ディスプレイ105に表示されたグラフィカルユーザインタフェース(GUI)のボタンであってもよい。
 音声出力端子112aは、イヤホンや外部スピーカーなどに音声を出力する端子である。音声出力端子112aは、例えば、イヤホンジャックである。スピーカー112bは、音声を出力する内蔵型のスピーカーである。音声出力部112から音声が出力される場合において、音声出力端子112aに所定の端子(例えば、イヤホンコード)が装着されていなければ、スピーカー112bから音声が出力される。
 図2は、図1Bおよび図1Cに示すスマートフォン100の内部構成の例を示す構成図である。スマートフォン100は、CPU101、メモリ102、不揮発性メモリ103、処理部104、ディスプレイ105、操作部106、記憶媒体インターフェース107、外部インターフェース109、および通信インターフェース110を有する。また、スマートフォン100は、音声出力部112、姿勢検出部113、アウトカメラ部114、インカメラ部115、処理部116を有する。なお、これらの構成要素は、内部バス150に接続されており、内部バス150を介して互いにデータのやりとりを行うことができる。
 CPU101は、スマートフォン100の全体を制御する制御部である。CPU101は、少なくとも1つのプロセッサまたは回路を有する。CPU101は、例えば、不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、スマートフォン100の各構成要素を制御する。
 メモリ102は、例えば、RAM(半導体素子を利用した揮発性のメモリなど)を有する。不揮発性メモリ103には、画像のデータ、音声のデータ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は、例えば、フラッシュメモリやROMなどを有する。
 処理部104は、アウトカメラ部114が取得した画像に対して各種画像処理や被写体認識処理を施す。各種画像処理とは、例えば、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、または色変換処理などである。
 処理部104は、望遠画像処理部104a、標準画像処理部104b、広角画像処理部104cを有する。望遠画像処理部104aは、望遠アウトカメラ114aが取得した画像に対して各種画像処理や被写体認識処理を施す。標準画像処理部104bは、標準アウトカメラ114bが取得した画像に対して各種画像処理や被写体認識処理を施す。広角画像処理部104cは、広角アウトカメラ114cが取得した画像に対して各種画像処理や被写体認識処理を施す。
 処理部116は、インカメラ部115が取得した画像に対して各種画像処理や被写体認識処理を施す。標準画像処理部116aは、標準インカメラ115aが取得した画像に対して各種画像処理や被写体認識処理を施す。広角画像処理部116bは、広角インカメラ115bが取得した画像に対して各種画像処理や被写体認識処理を施す。本実施形態では、望遠アウトカメラ114a、標準アウトカメラ114b、広角アウトカメラ114cはそれぞれ独立したレンズユニットであるとする。すなわち、アウトカメラ部114は3つのレンズユニットから成る。同様に標準インカメラ115a、広角インカメラ115bはそれぞれ独立したレンズユニットであり、インカメラ部115は2つのレンズユニットから成る。つまり、図2に示すスマートフォン100は、5つのレンズユニットを有する。
 以下では、望遠アウトカメラ114a、標準アウトカメラ114b、広角アウトカメラ114c、標準インカメラ115a、および広角インカメラ115bを区別する必要がない場合には、これらを総称して単に「カメラ」と呼ぶ。また、望遠画像処理部104a、標準画像処理部104b、広角画像処理部104c、標準画像処理部116a、および広角画像処理部116bを区別する必要がない場合には、これらを総称して単に「画像処理部」と呼ぶ。
 なお、本実施形態では、1つのカメラ(撮像部)に対して1つの画像処理部が対応しているが、2つのカメラに対して1つの画像処理部が対応していてもよいし、3つのカメラに対して1つの画像処理部が対応していてもよい。つまり、1つの画像処理部が、複数のカメラが取得した画像に対して、各種画像処理や被写体認識処理を施してもよい。
 そして、各カメラは、それぞれに対して設定された撮影パラメータに従って、被写体を撮像する。撮影パラメータは、例えば、明るさに関するパラメータ(シャッター速度、絞り値、ストロボ発光状態、ISO感度、または輝度)、または色に関するパラメータ(ホワイトバランス(WB)、色温度)などを含む。CPU101は、各カメラから、当該カメラに設定された撮影パラメータを取得することができる。
 また、各画像処理部は、様々な画像(不揮発性メモリ103や記憶媒体108に格納された画像、外部インターフェース109を介して取得した画像、または通信インターフェース110を介して取得した画像など)に対して各種画像処理を施すこともできる。各画像処理部は、特定の画像処理を施すための専用の回路ブロックで構成されていてもよい。また、画像処理の種別によっては各画像処理部を用いずに、CPU101がプログラムに従って画像処理を行うことも可能である。
 ディスプレイ105は、画像やGUI(Graphical User Interface)により構成されたGUI画面などを表示する。CPU101は、プログラムに従った表示制御信号に基づき、各構成要素に画像(画像信号)を生成させる。ディスプレイ105は、各構成要素が生成した画像を表示する。なお、スマートフォン100自体が備える構成としては画像を出力するためのインターフェースまでとし、ディスプレイ105の代わりに外付けのモニタ(テレビなど)が画像を表示するようにしてもよい。つまり、スマートフォン100は、ディスプレイ105を含まなくてもよい。
 操作部106は、ユーザー操作を受け付けるための入力デバイス(操作部材)である。操作部106は、文字情報入力デバイス(キーボードなど)、ポインティングデバイス(マウスやタッチパネル)、ボタン、ダイヤル、ジョイスティック、タッチセンサ、またはタッチパッドなどを含む。なお、タッチパネルは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。本実施形態では、操作部106は、上述のように、タッチパネル106a、電源ボタン106b、音量プラスボタン106c、音量マイナスボタン106d、ホームボタン106eを含む。
 記憶媒体インターフェース107には、メモリーカードやCD、DVDといった記憶媒体108が装着可能である。記憶媒体インターフェース107は、記憶媒体108からのデータの読み出しや、記憶媒体108に対するデータの書き込みを行う。記憶媒体108は、スマートフォン100が有する内蔵ストレージであってもよい。
 外部インターフェース109は、有線ケーブルや無線によって外部機器と接続し、画像や音声の入出力を行うためのインターフェースである。通信インターフェース110は、外部機器やネットワーク111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。
 音声出力部112は、動画や音楽の音声、操作音、着信音、または各種通知音などを出力する。音声出力部112は、イヤホンなどを接続する音声出力端子112a、スピーカー112bを含む。音声出力部112は、無線通信によって音声出力を行ってもよい。
 姿勢検出部113は、重力方向に対するスマートフォン100の姿勢(ヨー、ロール、ピッチの各軸に対する姿勢の傾き)を検知する。CPU101は、姿勢検出部113が検知した姿勢に基づき、スマートフォン100の状態(スマートフォン100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢にされたかなど)を判定できる。姿勢検出部113には、加速度センサー、ジャイロセンサー、地磁気センサー、方位センサー、高度センサーなどのうち少なくとも1つを用いることができ、複数を組み合わせて用いることも可能である。
 アウトカメラ部114は、スマートフォン100の筐体において、ディスプレイ105とは反対の側に配置された3つのアウトカメラ(撮像部)を有する。上述のように、アウトカメラ部114は、3つのアウトカメラとして、望遠アウトカメラ114a、標準アウトカメラ114b、広角アウトカメラ114cを有する。
 望遠アウトカメラ114aの焦点距離は、標準アウトカメラ114bの焦点距離よりも長い。このため、望遠アウトカメラ114aは、標準アウトカメラ114bよりも、望遠側を詳細に撮像できる。広角アウトカメラ114cの焦点距離は、標準アウトカメラ114bの焦点距離よりも短い。このため、広角アウトカメラ114cは、標準アウトカメラ114bよりも、広角に撮像できる。すなわち、望遠アウトカメラ114a、標準アウトカメラ114b、広角アウトカメラ114cの順に焦点距離が短くなり、それに伴い画角も広くなる。本実施形態では、望遠アウトカメラ114aは、あらかじめ決められた倍率に光学的に等倍される機構のレンズを有していることを想定しているが、ユーザーによって倍率を可変できるような機構を有していてもよい。また、望遠アウトカメラ114a、標準アウトカメラ114b、広角アウトカメラ114cの3つは、同時に撮像を行うことができる。
 本実施形態では、1つのアウトカメラに1つの撮像センサーを配置することを想定している。つまり、スマートフォン100が有するアウトカメラ部114用の撮像センサーは、スマートフォン100が有するアウトカメラの数だけ(本実施形態では3つ)配置する。同様に、インカメラ部115用の撮像センサーは、スマートフォン100が有するインカメラの数だけ(本実施形態では2つ)配置する。ただし、1つのカメラ(レンズユニット)に対して1つの撮像センサーを配置しなくてもよい。すなわち、3つのアウトカメラ114a~114cは1つの撮像センサーを共有して使用する(つまり、スマートフォン100が有するアウトカメラ部114用の撮像センサーは1つである)ようにしてもよい。なお、3つのアウトカメラが同時に(並列に又は時分割で)撮像を行えることを上述したが、必ずしも3つ全てのアウトカメラが同時に撮像を行う必要はない。3つのアウトカメラのうちいずれか2つが撮像を行うようにしてもよいし、1つのカメラが単独で撮像を行うこともできる。
 インカメラ部115は、スマートフォン100の筐体においてディスプレイ105と同じ面に配置された2つのインカメラ(撮像部)を有する。インカメラ部115は、標準インカメラ115aと広角インカメラ115bを有する。
 ここで、アウトカメラ114a~114cのうちいずれか1つのカメラとインカメラ115a,115bのうちいずれか1つのカメラを同時に駆動させ、撮像を行うこともできる。
 なお、アウトカメラとインカメラが同時に撮像を行うことを上述したが、必ずしも2つのカメラが同時に撮像を行う必要はなく、アウトカメラとインカメラのうち1つのカメラが単独で撮像を行うこともできる。また、アウトカメラ部114と同様に、2つのインカメラ115a,115bを同時に駆動させて撮像を行うことが可能であり、また、1つのインカメラが単独で撮像を行ってもよい。
 スマートフォン100は、各カメラの撮像により取得されたLV画像を、ディスプレイ105上に表示することができる。つまり、複数のカメラが同時に駆動している場合には、当該複数のカメラが撮像により取得したLV画像が、図3A~図3C、および図4A~図4Cのようにディスプレイ105に並べられて同時に表示される。
 図3Aでは、ディスプレイ105は、広角アウトカメラ114cが取得したLV画像301a、標準アウトカメラ114bが取得したLV画像301b、望遠アウトカメラ114aが取得した画像301cを表示している。つまり、3つ配置されるアウトカメラ全てを使用して撮像を行っている。図3Aでは、LV画像の構図から、3つのアウトカメラが撮影しているのは同じ被写体(LV画像内に存在する人物)を撮影していると想定される。
 図3Bでは、ディスプレイ105は、標準アウトカメラ114bが取得したLV画像302a、望遠アウトカメラ114aが取得したLV画像302bを表示している。LV画像302aには標準アウトカメラ114bが撮像した第1の人物が表示され、LV画像302bには望遠アウトカメラ114aが撮像した花が表示されている。図3Bに示すLV画像302aは、標準アウトカメラ114bで撮像するLV画像を電子ズームしたものである。そのため、図3Aに示す、標準アウトカメラ114bで取得したLV画像301bよりも画角が狭くなっている(第1の人物の大きさが大きくなっている)。図3Bでは、2つのアウトカメラを使用しているが、ユーザーは2つのアウトカメラで同じ被写体を撮影しようとしているのではなく異なる被写体を撮影しようとしていると想定される。
 図3Cでは、望遠アウトカメラ114aが第2の人物を撮像したLV画像303a、広角アウトカメラ114cが第2の人物を含む複数の人物を撮像したLV画像303bを表示している。図3Cでは、2つのアウトカメラを用いて撮像するLV画像内に、少なくとも同じ被写体(第2の人物)を含めたいと考えていると想定される。例えば、舞台での演劇を撮影しているような状況において、舞台上全体を撮影したいが、ユーザーが個人的に応援する人物を拡大して撮影したいと考える場合がある。このような場合に、3つのアウトカメラのうち、望遠アウトカメラ114aと広角アウトカメラ114cを用いて撮影を行えば、上述したような撮影状況を実現することができる。
 図4Aでは、ディスプレイ105は、広角インカメラ115bが第3の人物を撮像したLV画像404a、広角アウトカメラ114cが家を撮像したLV画像404bを表示している。ユーザーがインカメラとアウトカメラを使用していることから、インカメラで撮影を行っているユーザー自身を撮影し、アウトカメラで景色などを撮影しようとしていることがわかる。つまり、撮影する方向(カメラによって撮像される向き)が正反対となる画角の画像を撮影しようとしていることがわかる。
 図4Bでは、ディスプレイ105は、広角インカメラ115bが第3の人物を撮像したLV画像405a、標準インカメラ115aが第3の人物を撮像したLV画像405bを表示している。図4Bでは、図3Cで説明した撮影状況と似た状況が想定され、ユーザーは2つのインカメラを用いて、同じ被写体(ここではユーザー自身)を異なる画角で撮影したいと考えていることが想定される。なお、図4Bでは被写体は1人しか写っていないが、以下のような状況が考えられる。例えば、インカメラを用いて複数人で集合写真を撮影しようとした場合に、広角カメラ115bを用いて複数人みなが画角に含まれるようにフレーミングを行い、標準インカメラ115aを用いて自分自身もしくは特定の人物のみを拡大して撮影することができる。これによりユーザーは、広い画角で複数人の被写体を含む画像を撮像しつつ、所望の人物のみを詳細に確認することができる。
 図4Cでは、ディスプレイ105は、標準インカメラ115aが第3の人物を撮像したLV画像406a、広角インカメラ115bが第3の人物を撮像したLV画像406b、広角アウトカメラ114cが家を撮像したLV画像406cを表示している。図4Cでは、インカメラでユーザー自身を撮影しつつ、アウトカメラを用いて景色を撮影することができる。例えば、ユーザーが旅行先などで自分自身のリアクションを重点的に撮影しつつ、景色を見て自身がとったリアクションを撮影したい場合に有効である。
 なお、本実施形態では、四角形のLV画像を並べて配置しているが、それぞれのLV画像は、丸形などの任意の形で表示されてもよい。また、3つまたは2つのLV画像が表示される場合を示したが、さらに多くのLV画像が表示されてもよい。そして、全てのLV画像の大きさは、同じであってもよいし、異なっていてもよい。例えば、LV画像を取得したカメラの焦点距離が短いほど、当該LV画像の大きさを大きくしてもよい。
 CPU101は、タッチパネル106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する。)
・タッチパネル106aを指やペンがタッチしている状態であること(以下、タッチオン
(Touch-On)と称する)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
 なお、タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。
 これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知される。CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行なわれたかを判定する。
 タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合にはスライド操作が行なわれたと判定するものとする。
 タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。
 さらに、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式など、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
(撮影パラメータの制御処理)
 以下では、図5のフローチャートを用いて、複数のカメラが同時に撮像を行っている期間に、そのうち1つのカメラの撮影パラメータを変更した場合の他のカメラの撮影パラメータの制御(撮影パラメータの制御処理)について説明する。撮影パラメータとは、撮像時にカメラに設定されるパラメータである。具体的には、撮影パラメータは、明るさに関するパラメータ(露出値、シャッター速度、F値(絞り値)、ストロボ発光状態、ISO感度、または輝度)を含むことができる。または、撮影パラメータは、色に関するパラメータ(ホワイトバランス(WB)、色温度、または撮影する画像に対して色味に関する画像処理を行う所謂フィルターと呼ばれる処理の値)などを含むことができる。また、これに限らず、撮影パラメータは、ユーザーが変更可能な撮影に関する値(パラメータ)であればよい。
 本フローチャートの処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。図5のフローチャートは、スマートフォン100において撮影を行うためのカメラアプリケーションを起動し、撮影待機状態にされると、開始される。
 S501では、CPU101は、複数のカメラを駆動して撮像を開始する。さらに、CPU101は、駆動した複数のカメラ(以下、「複数の駆動カメラ」と呼ぶ)に対応する画像処理部による各種画像処理を開始する。なお、複数の駆動カメラは、アウトカメラ部114とインカメラ部115の5つのカメラのうち、ユーザーが選択した2以上のカメラであり得る。例えば、複数の駆動カメラは、望遠アウトカメラ114a、標準アウトカメラ114b、広角アウトカメラ114cの3つであってもよい。複数の駆動カメラは、標準アウトカメラ114bと標準インカメラ115aの2つであってもよい。
 S502では、CPU101は、S501にて複数の駆動カメラが撮像することにより取得した複数のLV画像を同時に、ディスプレイ105に表示する。なお、5つのカメラ全てが駆動していたとしても、ユーザーが撮像する景色からシーンを自動で判別し、少なくとも2つのカメラで撮像したLV画像をディスプレイ105に表示するようにしてもよい。5つのカメラが駆動していても、ユーザーによる指示が行われるまでは、標準アウトカメラ114bと標準インカメラ115aの2つによるLV画像を表示し、ユーザーによる指示に応じてディスプレイ105に表示するLV画像の数やカメラの切り替えを行う。
 例えば、CPU101は、図3A~図3C、図4A~図4Cに示すように、複数のLV画像を、ディスプレイ105に並べて表示する。なお、CPU101は、3つのカメラを駆動させていている場合であっても、3つのカメラのうちいずれか2つのカメラが取得したLV画像のみをディスプレイ105に表示してもよい。
 S503では、CPU101は、ユーザーの操作によって、複数の駆動カメラのうち1つのカメラ(以下、「第1のカメラ」と称する)の撮影パラメータが変更された否かを判定する。第1のカメラの撮影パラメータが変更された場合にはS505に進み、そうでない場合にはS504に進む。
 例えば、図3A~図3Cのように複数のLV画像がディスプレイ105に表示されている状態で、ユーザーが、いずれか1つのカメラ(例えば、広角アウトカメラ114c)のLV画像(例えば、図3AのLV画像301a)をタッチダウンで選択する。そして、ユーザーがタッチムーブまたはフリックなどによってLV画像に関するパラメータ(例えば色味や明るさといった、露出値や輝度、ISO感度)を変更した場合には、CPU101は、当該画像に対応するカメラの撮影パラメータが変更されたと判定する。この場合には、CPU101は、タッチムーブまたはフリックなどによってパラメータを変更したLV画像を取得するように、当該LV画像に対応する撮影パラメータを変更する。なお、本実施形態ではタッチパネルに対するタッチ操作によって撮影パラメータを変更したが、スマートフォン100に配置される物理的に押下可能な操作ボタンなどを用いて変更できるようにしてもよい。
 S504では、CPU101は、複数の駆動カメラを用いた撮像をS501から継続して行い、撮像により取得したLV画像をディスプレイ105に表示する。なお、S504では、CPU101は、複数の駆動カメラの撮影パラメータを変更しない。
 S505では、CPU101は、S503にて変更された第1のカメラ(例えば、広角アウトカメラ114c)の変更後の撮影パラメータの情報をメモリ102に保存する。
 S506では、CPU101は、複数の駆動カメラに関する関係が、所定の条件を満たすか否かを判定する。ここで、複数の駆動カメラに関する関係とは、複数の駆動カメラの位置関係、および複数の駆動カメラが撮像により取得した複数の画像の関係のいずれかの関係である。複数の駆動カメラに関する関係が所定の条件を満たす場合にはS508に進む。そうでない場合にはS507に進む。ここで、所定の条件が満たされる場合とは、複数の駆動カメラの撮影パラメータが互いに連動してほしいとユーザーが望むような場合である。
 例えば、所定の条件は、複数の駆動カメラが、スマートフォン100の1つの面(同一の面)に配置されているという条件である。すなわち、複数の駆動カメラがインカメラ同士、アウトカメラ同士であれば、所定の条件を満たす。一方で、複数の駆動カメラが、インカメラとアウトカメラである場合は所定の条件を満たさない。従って、S501にて2つのアウトカメラのみが駆動されている場合には、所定の条件が満たされる。
 なお、所定の条件は、複数の駆動カメラの全てが、特定の被写体(または、同一の被写体)を撮像している(複数のカメラが取得した全てのLV画像に特定の被写体が写っている)という条件であってもよい。この条件であれば、図3Aのように、LV画像301a~301cの全てに特定の被写体が写っている場合には、所定の条件が満たされる。一方で、図3Bのように、LV画像302aとLV画像302bとで写っている被写体が異なる場合には、所定の条件が満たされない。なお、特定の被写体とは、例えば、撮像の対象のメインとなる被写体であり、人物、動物、または所定の建造物であり得る。また、所定の条件は、複数のカメラにおいて同じ被写体にピントが合っているという条件であってもよい。
 所定の条件は、複数の駆動カメラが取得した複数のLV画像間の輝度(輝度の平均値、中央値、最大値、最小値、または最頻値など)の差分が所定値以内であるという条件であってもよい。例えば、所定の条件は、平均輝度が最も高いLV画像の平均輝度と、平均輝度が最も低いLV画像の平均輝度との差分が所定値以内であるという条件であってもよい。または、所定の条件は、複数の駆動カメラが取得した複数のLV画像の全てに特定の被写体(または、同一の被写体)が写っている場合であり、かつ、複数のLV画像間の輝度の差分が所定値以内であるという条件であってもよい。この条件であれば、図3Cのように、LV画像303aとLV画像303bとの両方に特定の被写体(同一の人物)が写っている場合であっても、LV画像間の輝度が大きく異なる場合には、所定の条件が満たされない。
 S507では、CPU101は、複数の駆動カメラのうち第1のカメラ以外の駆動カメラ(以下、単に「他の駆動カメラ」と称する)の撮影パラメータを変更しない。ここでは、CPU101は、「第1の撮影パラメータに基づき他の駆動カメラの撮影パラメータを変更すること」を行わないようにする。このため、例えば、ユーザーが他の駆動カメラの撮影パラメータを変更するための操作を行った場合には、CPU101は、当該操作に応じて他の駆動カメラのパラメータを変更してもよい。
 S508では、CPU101は、まず、S505にてメモリ102に保存した第1のカメラの撮影パラメータを取得する。そして、CPU101は、第1のカメラの撮影パラメータに基づき、他の駆動カメラに新たに設定する撮影パラメータ(以下、「更新パラメータ」と称する)を決定する。例えば、CPU101は、第1のカメラの撮影パラメータの値をそのまま、更新パラメータの値として決定もよい。また、CPU101は、S503において変更された第1のカメラの撮影パラメータの変更量の分だけ、他の駆動カメラの現在の撮影パラメータを増減させた値を、更新パラメータの値として決定してもよい。
 S509では、CPU101は、他の駆動カメラの撮影パラメータを変更(調整)する。具体的には、CPU101は、S508にて決定した更新パラメータに、他の駆動カメラの撮影パラメータを変更する。このとき、CPU101は、撮影パラメータが変更された他の駆動カメラにより取得されたLV画像をディスプレイ105に表示する。
 なお、S506~S509では、他の駆動カメラの全てに対して一括で処理が行われているが、他の駆動カメラの1つ1つについて個別にS506~S509の処理が行われてもよい。つまり、S506において他の駆動カメラ(他の駆動カメラが取得したLV画像)のそれぞれについて、所定の条件を満たすか否かが判定されて、S506における判定結果に応じて当該カメラの撮影パラメータを変更するか否かが切り替えられてもよい。これによれば、個々のカメラについて柔軟に撮影パラメータの変更の有無を調整できるため、よりユーザーの意図に合致した画像を取得することが可能になる。
 例えば、図4Cの例において、第1のカメラが、LV画像406aを撮像している標準インカメラ115aであり、かつ、所定の条件が、第1のカメラと他の駆動カメラがスマートフォン100の1つの面に配置されているという条件である場合を想定する。この場合に、LV画像406bを撮像している広角インカメラ115bは、スマートフォン100において標準インカメラ115aと同じ面に配置されているため、S506において所定の条件が満たされる。このため、CPU101は、S508,S509において、広角インカメラ115bの撮影パラメータを変更する。一方、LV画像406cを撮像している広角アウトカメラ114cは、スマートフォン100において標準インカメラ115aと同じ面に配置されていないため、S506において所定の条件が満たされない。このため、CPU101は、広角アウトカメラ114cの撮影パラメータを変更しない。
 S510では、CPU101は、撮影指示が行われたか否かを判定する。撮影指示が行われた場合にはS511に進み、そうでない場合にはS512に進む。撮影指示は、例えば、ディスプレイ105に表示される所定のアイコン(撮影するためのアイコン)をユーザーが選択(タッチ操作)することによって行われる。また、撮影指示は、専用の物理ボタンを押下することに応じた指示であってもよい。音量プラスボタン106cや音量マイナスボタン106dの押下、電源ボタン106bと音量マイナスボタン106dの同時押下、または、音量マイナスボタン106dの短期間での数回の押下に応じて、撮影指示が行われてもよい。
 S511では、CPU101は、AF(オートフォーカス)枠の表示位置に基づいたAF処理、AE(自動露出)処理やAWB(オートホワイトバランス)処理などといった撮影準備処理を行う。その後、CPU101は、撮影処理(複数の駆動カメラによって撮像された画像を画像ファイルとして記録媒体200に記録するまでの一連の処理)を行う。
 S512では、CPU101は、カメラアプリケーションが終了するか否かを判定する。カメラアプリケーションが終了する場合には、図5のフローチャートを終了する。カメラアプリケーションが終了しない場合には、S503に戻る。カメラアプリケーションの終了とは、例えば、カメラアプリケーションが閉じられることや、別のアプリケーションへの遷移(別のアプリケーションの起動)である。
 以上、本実施形態によれば、CPU101は、複数のカメラが同時に撮像を行う場合に、1つのカメラの撮影パラメータが変更されると、所定の条件が満たされているか否かに応じて、他のカメラの撮影パラメータを変更するか否かを切り替える。具体的には、CPU101は、所定の条件が満たされる場合(複数のカメラの撮影パラメータが互いに連動してほしいとユーザーが望むような場合)には、1つのカメラの撮影パラメータの変更に伴って他のカメラの撮影パラメータを変更する。このように制御することで、ユーザーは複数のカメラで撮影している状態であっても、1回の撮影パラメータの変更によって、ユーザー所望の撮影パラメータに変更された複数のLV画像を取得することができる。複数のカメラで取得するLV画像それぞれに対して撮影パラメータの変更をユーザー自身で行う必要がないため、シャッターチャンスを失うことなく撮影を行うことができる。一方で、CPU101は、所定の条件が満たされない場合には、1つのカメラの撮影パラメータの変更に伴って他のカメラの撮影パラメータを変更することを行わない。所定の条件が満たされないため、ユーザーがある1つのカメラで撮影されるLV画像の撮影パラメータを変更したとしても、変更後のパラメータを反映してほしくないと考える可能性が高い。このような制御により、ユーザーの意図に反した撮影パラメータの変更(連動)が行われることなく、ユーザーが煩わしく感じることを低減できる。このため、複数のカメラが同時に撮像を行う場合であっても、ユーザーが所望する画像を容易に取得でき、さらにはシャッターチャンスを失うことなく撮影をすることが可能になる。
 なお、上記では、撮影パラメータは、カメラが撮像をする際に当該カメラに設定するパラメータであると説明したが、この限りではない。例えば、撮影パラメータがホワイトバランス、色温度、または輝度などであれば、撮影パラメータは、カメラが取得した画像に適用するパラメータ(すなわち、撮像により取得された画像を編集するためのパラメータ)であってもよい。つまり、CPU101は、第1のカメラが撮像した画像の撮影パラメータが変更されたら、第2のカメラが撮像した画像の撮影パラメータを変更してもよい。この場合であっても、結果として、スマートフォン100は、ユーザーが所望する画像を容易に取得できる。
 なお、CPU101が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサや回路)が処理を分担することで、装置全体の制御を行ってもよい。
 また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
 また、上述した実施形態においては、本発明をスマートフォンに適用した場合を例にして説明したが、これはこの例に限定されず、複数の撮像手段により同時に撮像を行うことのできる電子機器であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。
 なお、上記の各実施形態(各変形例)の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ASIC、FPGA、DSPなどのハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリ(記憶媒体)とを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。
(その他の実施形態)
 本発明は上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2021年10月12日提出の日本国特許出願特願2021-167309を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。
100:スマートフォン、101:CPU、
114:アウトカメラ部、115:インカメラ部、
114a:望遠アウトカメラ、114b:標準アウトカメラ、
114c:広角アウトカメラ、
115a:標準インカメラ、115b:広角インカメラ

Claims (15)

  1.  第1の画像を取得する第1の撮像手段と第2の画像を取得する第2の撮像手段とを含む複数の撮像手段と、
     前記複数の撮像手段のうち、少なくともいずれか1つの撮像手段の撮影パラメータを取得する取得手段と、
     ユーザーにより前記第1の撮像手段の撮影パラメータが第1の撮影パラメータに変更された場合には、前記第1の撮像手段と前記第2の撮像手段との位置関係および前記第1の画像と前記第2の画像との関係のいずれかの関係である第1の関係が所定の条件を満たすか否かに応じて、前記第2の撮像手段の撮影パラメータを前記第1の撮影パラメータに基づき変更するか否かを切り替えるように制御する制御手段と、
    を有することを特徴とする電子機器。
  2.  前記制御手段は、前記ユーザーにより前記第1の撮像手段の撮影パラメータが前記第1の撮影パラメータに変更された場合であって、前記第1の関係が前記所定の条件を満たす場合には、前記第2の撮像手段の撮影パラメータを前記第1の撮影パラメータに基づき変更するように制御する、
    ことを特徴とする請求項1に記載の電子機器。
  3.  前記撮影パラメータは、撮像手段に設定するパラメータ、または、当該撮像手段が取得した画像に適用するパラメータである、
    ことを特徴とする請求項1または2に記載の電子機器。
  4.  前記複数の撮像手段は、第3の画像を取得する第3の撮像手段を含み、
     前記制御手段は、前記ユーザーにより前記第1の撮像手段の撮影パラメータが前記第1の撮影パラメータに変更された場合であって、前記第1の関係が前記所定の条件を満たす場合に、前記第1の撮像手段と前記第3の撮像手段との位置関係および前記第1の画像と前記第3の画像との関係のいずれかの関係が前記所定の条件を満たさなければ、前記第3の撮像手段の撮影パラメータを前記第1の撮影パラメータに基づき変更しないように制御する、
     ことを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  5.  前記第1の関係は、前記第1の撮像手段と前記第2の撮像手段との位置関係であり、
     2つの撮像手段の位置関係が前記所定の条件を満たす場合とは、前記電子機器の1つの面に当該2つの撮像手段が設けられている場合である、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
  6.  前記第1の関係は、前記第1の画像と前記第2の画像との関係であり、
     2つの画像の関係が前記所定の条件を満たす場合とは、当該2つの画像の両方に特定の被写体が写っている場合である、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
  7.  前記第1の関係は、前記第1の画像と前記第2の画像との関係であり、
     2つの画像の関係が前記所定の条件を満たす場合とは、当該2つの画像の輝度の差分が所定値以内である場合である、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
  8.  前記第1の関係は、前記第1の画像と前記第2の画像との関係であり、
     2つの画像の関係が前記所定の条件を満たす場合とは、当該2つの画像の両方に特定の被写体が写っており、かつ、当該2つの画像の輝度の差分が所定値以内である場合である、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
  9.  前記撮影パラメータは、明るさに関するパラメータを含む、
    ことを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。
  10.  前記撮影パラメータは、シャッター速度、絞り値、ストロボ発光状態、ISO感度、輝度の少なくともいずれかを含む
    ことを特徴とする請求項9に記載の電子機器。
  11.  前記撮影パラメータは、色に関するパラメータを含む、
    ことを特徴とする請求項1乃至10のいずれか1項に記載の電子機器。
  12.  前記撮影パラメータは、ホワイトバランスと色温度の少なくともいずれかを含む、
    ことを特徴とする請求項11に記載の電子機器。
  13.  第1の画像を取得する第1の撮像手段と第2の画像を取得する第2の撮像手段とを含む複数の撮像手段を有する電子機器の制御方法であって、
     前記複数の撮像手段のうち、少なくともいずれか1つの撮像手段の撮影パラメータを取得する取得ステップと、
     ユーザーにより前記第1の撮像手段の撮影パラメータが第1の撮影パラメータに変更された場合には、前記第1の撮像手段と前記第2の撮像手段との位置関係および前記第1の画像と前記第2の画像との関係のいずれかの関係である第1の関係が所定の条件を満たすか否かに応じて、前記第2の撮像手段の撮影パラメータを前記第1の撮影パラメータに基づき変更するか否かを切り替えるように制御する制御ステップと、
    を有することを特徴とする制御方法。
  14.  コンピュータを、請求項1乃至12のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
  15.  コンピュータを、請求項1乃至12のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
PCT/JP2022/028833 2021-10-12 2022-07-26 電子機器、制御方法、プログラム、記憶媒体 WO2023062911A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280068524.7A CN118104242A (zh) 2021-10-12 2022-07-26 电子设备、控制方法、程序和存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-167309 2021-10-12
JP2021167309A JP2023057693A (ja) 2021-10-12 2021-10-12 電子機器、制御方法、プログラム、記憶媒体

Publications (1)

Publication Number Publication Date
WO2023062911A1 true WO2023062911A1 (ja) 2023-04-20

Family

ID=85988255

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028833 WO2023062911A1 (ja) 2021-10-12 2022-07-26 電子機器、制御方法、プログラム、記憶媒体

Country Status (3)

Country Link
JP (1) JP2023057693A (ja)
CN (1) CN118104242A (ja)
WO (1) WO2023062911A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251683A (ja) * 2005-03-14 2006-09-21 Fujinon Corp 立体画像撮影システム
JP2013093836A (ja) * 2011-10-03 2013-05-16 Canon Inc 撮像装置、画像処理装置およびその方法
JP2018182601A (ja) * 2017-04-17 2018-11-15 キヤノン株式会社 撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251683A (ja) * 2005-03-14 2006-09-21 Fujinon Corp 立体画像撮影システム
JP2013093836A (ja) * 2011-10-03 2013-05-16 Canon Inc 撮像装置、画像処理装置およびその方法
JP2018182601A (ja) * 2017-04-17 2018-11-15 キヤノン株式会社 撮像装置

Also Published As

Publication number Publication date
CN118104242A (zh) 2024-05-28
JP2023057693A (ja) 2023-04-24

Similar Documents

Publication Publication Date Title
JP6748582B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記録媒体
US10222903B2 (en) Display control apparatus and control method thereof
JP6757268B2 (ja) 撮像装置及びその制御方法
US9838609B2 (en) Image capturing apparatus, control apparatus and control method for controlling zooming function
JP7258482B2 (ja) 電子機器
US10958825B2 (en) Electronic apparatus and method for controlling the same
CN111385470B (zh) 电子设备、电子设备的控制方法和计算机可读介质
JP6512961B2 (ja) 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体
US10120496B2 (en) Display control apparatus and control method thereof
JP7321886B2 (ja) 撮像制御装置、その制御方法およびプログラム
JP6442266B2 (ja) 撮像制御装置、その制御方法、プログラム、及び記憶媒体
JP6324278B2 (ja) 撮像装置、画像処理装置およびその制御方法
WO2023062911A1 (ja) 電子機器、制御方法、プログラム、記憶媒体
JP2020129261A (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP7171406B2 (ja) 電子機器及びその制御方法
JP7366682B2 (ja) 電子機器及びその制御方法
JP6393296B2 (ja) 撮像装置及びその制御方法、撮像制御装置、プログラム、並びに記憶媒体
JP2018006996A (ja) 通信装置、撮像装置およびそれらの制御方法、プログラム並びに記憶媒体
JP2017041805A (ja) 撮影装置、情報処理方法及びプログラム
JP2020096303A (ja) 撮像装置、その制御方法、およびそのプログラム
US20230254555A1 (en) Electronic apparatus, control method therefor, and computer-readable storage medium storing program
US20230345121A1 (en) Image pickup device and control method thereof
JP2023047536A (ja) 電子機器
JP2023125345A (ja) 電子機器、その制御方法およびプログラム
JP2023131498A (ja) 電子機器およびその制御方法およびプログラム

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE