WO2020060081A1 - Electronic device for driving plurality of cameras on basis of external illuminance - Google Patents

Electronic device for driving plurality of cameras on basis of external illuminance Download PDF

Info

Publication number
WO2020060081A1
WO2020060081A1 PCT/KR2019/011494 KR2019011494W WO2020060081A1 WO 2020060081 A1 WO2020060081 A1 WO 2020060081A1 KR 2019011494 W KR2019011494 W KR 2019011494W WO 2020060081 A1 WO2020060081 A1 WO 2020060081A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
time
illuminance
image
processor
Prior art date
Application number
PCT/KR2019/011494
Other languages
French (fr)
Korean (ko)
Inventor
김학준
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2020060081A1 publication Critical patent/WO2020060081A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • Digital cameras have a problem of acquiring an image with a clear boundary or a very dark image due to movement of a camera or a subject in a low-light environment. Therefore, an electronic device equipped with a digital camera increases the exposure value of a digital camera in a low-light environment, or improves the image quality of a low-light image by applying a brightness / color correction algorithm for an image acquired in a low-light environment.
  • Conventional electronic devices use one camera to improve the image quality of a low-light image.
  • Various embodiments disclosed in this document provide an electronic device capable of improving image quality in a low light environment using a plurality of cameras.
  • An electronic device includes a first camera; A second camera; And a processor, wherein the processor is configured to acquire an image using the first camera, and while obtaining an image using the first camera, the illuminance outside the electronic device is designated using the first camera.
  • the second camera is deactivated, and when the time identified after the second camera is activated satisfies the third designated time, an image is acquired using the second camera, and the It may be set to deactivate the first camera.
  • the housing the housing; display; A first camera disposed on the first surface of the housing; A second camera disposed on a first surface of the housing so as to be spaced apart from the first camera at a specified distance, and having a higher image quality than the first camera in a designated illumination range; And a processor functionally connected to the display, the first camera, and the second camera, the processor outputting an image acquired using the first camera to the display, and using the first camera While outputting the obtained image to the display, the first camera is used to check the illuminance outside the electronic device, and if the external illuminance falls within the specified illuminance range, the second camera is activated, The image acquired by using the second camera may be output to the display, and may be set to deactivate the first camera.
  • an electronic device includes: a sensor module capable of detecting illuminance outside the electronic device; A first camera; A second camera; And a processor, wherein the processor acquires an image using the first camera and acquires an image using the first camera, wherein the illuminance outside the electronic device is designated using the sensor module.
  • image quality may be improved in a low-light environment using a plurality of cameras.
  • various effects that can be directly or indirectly identified through this document may be provided.
  • FIG 1 illustrates appearances of first and second surfaces of an electronic device according to an embodiment.
  • FIG. 2 is a block diagram of an electronic device according to an embodiment.
  • FIG 3 shows the structure of a tetracell image sensor according to an embodiment.
  • FIG. 4 is a schematic flowchart of a camera switching method according to an embodiment.
  • FIG. 5 is a detailed flowchart of a camera switching method according to an embodiment.
  • FIG. 6 is an example of a case where the first camera is switched to the second camera and then switched to the first camera according to an embodiment.
  • 7 is another example of switching from the first camera to the second camera and then switching to the first camera according to an embodiment.
  • FIG. 8 is an example of a case in which a first camera is used even in a change in external illuminance according to an embodiment.
  • 9 is an example of a case in which a second camera is used even in a change in external illuminance according to an embodiment.
  • FIG. 10 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 1 illustrates appearances h100 of first and second surfaces of an electronic device according to an embodiment.
  • the electronic device 100 may include a first camera 110, a second camera 120, and a display 130.
  • the first camera 110 may be provided on the first surface (eg, rear) 102 of the electronic device 100.
  • the first camera 110 may have a first angle of view and a first focal length, and photograph the first shooting range.
  • the second camera 120 may be disposed at a predetermined distance from the first camera 110 on the first surface 102 of the electronic device 100.
  • the second camera 120 has a second angle of view and a second focal length, and may photograph the second shooting range.
  • the second angle of view may be the same as or similar to the first angle of view.
  • the second focal length may be the same or similar to the first focal length.
  • the first shooting range and the second shooting range may overlap at least a designated range (eg, about 70% or more).
  • the first camera 110 and the second camera 120 may be disposed on a first surface on which the display 130 of the electronic device 100 is disposed.
  • the display 130 may be exposed to the outside of the electronic device 100 through at least a portion of the second surface (eg, front) 101 of the electronic device 100.
  • the display 130 may be, for example, a touch screen display.
  • FIG. 2 is a block diagram of an electronic device according to an embodiment.
  • the electronic device 100 may include a first camera 110, a second camera 120, a display 130, a memory 140, and a processor 150.
  • the first camera 110 may have better image quality than the second camera 120 in the first illumination range.
  • the first illuminance range may include, for example, an illuminance range exceeding the critical illuminance.
  • the critical illuminance is an illuminance that is a low illuminance criterion, and may be, for example, about 50 lux.
  • the second camera 120 may have better image quality than the first camera 110 in the second illuminance range.
  • the second illuminance range is a low illuminance range, and may include, for example, an illuminance range below a critical illuminance.
  • the total number of pixels of the first camera 110 may be greater than the total number of pixels of the second camera 120.
  • the first camera 110 may include a 24M pixel image sensor
  • the second camera 120 may include a 16M pixel image sensor.
  • the total number of pixels of the first camera 110 may be less than the total number of pixels of the second camera 120.
  • the first camera 110 may include a 16M pixel image sensor
  • the second camera 120 may include a 24M pixel tetracell image sensor.
  • the display 130 may output (display) an image obtained by using at least one of the first camera 110 or the second camera 120.
  • the display 130 may be, for example, a touch screen display that receives user input.
  • the display 130 may display various contents (for example, text, images, videos, icons, and / or symbols, etc.).
  • the display 130 may include, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or an electronic paper display.
  • LCD liquid crystal display
  • LED light emitting diode
  • OLED organic light emitting diode
  • the memory 140 may store, for example, commands or data related to at least one other component of the electronic device 100.
  • the memory 140 may be volatile memory (eg, RAM, etc.), non-volatile memory (eg, ROM, flash memory, etc.) or a combination thereof.
  • the memory 140 may store a first illumination range, a second illumination range, a first threshold time, a second threshold time, a third threshold time, and a fourth threshold time.
  • the memory 140 may store commands for activating or deactivating the first camera 110 and the second camera 120.
  • the processor 150 checks the illuminance outside the electronic device 100 using at least one of the first camera 110 or the second camera 120, and the external illuminance ranges from the first illuminance range Depending on whether it belongs to or belongs to the second illumination range, at least one of the first camera 110 or the second camera 120 is activated, and the image is imaged using the first camera 110 or the second camera 120. To obtain, and output the obtained image to the display 130.
  • the processor 150 may execute operations or data processing related to control and / or communication of at least one other component of the electronic device 100 using instructions stored in the memory 140.
  • the processor 150 includes, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application processor, an application specific integrated circuit (ASIC), and field programmable gate arrays (FPGAs). )), And may have a plurality of cores.
  • CPU central processing unit
  • GPU graphics processing unit
  • ASIC application specific integrated circuit
  • FPGAs field programmable gate arrays
  • the processor 150 may activate the first camera 110, acquire an image using the first camera 110, and output the image to the display 130.
  • the processor 150 activates the first camera 110 regardless of external illuminance, acquires an image using the first camera 110, and outputs the image to the display 130 can do.
  • the processor 150 may check external illuminance using the first camera 110 while acquiring an image using the first camera 110.
  • the processor 150 may check whether the identified external illuminance falls within the first illuminance range or the second illuminance range.
  • the processor 150 may perform a first time (first duration) in which the external illuminance belongs to the second illuminance range. Time) can be checked (measured). For example, while acquiring an image using the first camera 110, the processor 150 may start a measurement of the first time by driving a timer when it is determined that the external illuminance falls within the second illuminance range. .
  • the timer may be a component built into the processor 150. Alternatively, the timer may be configured separately from the processor 150.
  • the processor 150 may obtain a second camera when the first time in the second illuminance range satisfies the first specified time (or time condition) while acquiring an image using the first camera 110. (120) can be activated. For example, if the first time satisfies the first specified time, it may be that the first time exceeds the first threshold time.
  • the first threshold time may be determined, for example, based on at least one of the optical characteristics of the first camera 110 or the optical characteristics of the second camera 120.
  • the optical characteristic may include, for example, at least one of F number , exposure value, and aperture value.
  • the processor 150 stops driving the timer and initializes a timer (eg, when the external illuminance is out of the second illuminance range) while checking the first time that the external illuminance belongs to the second illuminance range. First time).
  • the processor 150 may deactivate the second camera 120 if the first time identified after the second camera 120 is activated satisfies the second designated time (time condition). Since the first time identified after the second camera 120 is activated is a time accumulated from before activating the second camera 120, it may be a time exceeding at least the first threshold time. When the first time satisfies the second designated time, it may be that the external illuminance is outside the second illuminance range before the first time exceeds the second threshold time.
  • the second threshold time may be set based on at least one of the optical characteristics of the first camera 110 and the optical characteristics of the second camera 120.
  • the second threshold time may be set to exceed the time required for the second camera 120 to stabilize after the second camera 120 is activated based on the optical characteristics of the second camera 120. have.
  • the second threshold time may be set to be shorter as the difference between the F number value of the first camera 110 and the F number value of the second camera 120 increases.
  • the processor 150 may acquire an image using the second camera 120 and deactivate the first camera 110.
  • the first time satisfies the third designated time the first time that the external illuminance falls within the second illuminance range while acquiring an image using the first camera 110 exceeds the second threshold time. You can.
  • the processor 150 may check the external illuminance using the second camera 120 while acquiring an image using the second camera 120. For example, while acquiring an image using the second camera 120, the processor 150 may check whether the external illuminance falls within the first illuminance range or the second illuminance range.
  • the processor 150 determines a second time (second duration) belonging to the first illuminance range when it is determined that the external illuminance falls within the first illuminance range. Can be confirmed. For example, while the processor 150 acquires an image using the second camera 120, if it determines that the external illuminance falls within the first illuminance range, it starts a timer to start measuring the second time. You can.
  • the processor 150 may activate the first camera 110.
  • the second time may exceed the third threshold time.
  • the third threshold time may be determined, for example, based on at least one of the optical characteristics of the second camera 120 or the optical characteristics of the first camera 110.
  • the processor 150 may deactivate the first camera 110 if the second time identified after activating the first camera 110 satisfies the fifth designated time (time condition). Since the second time identified after activating the first camera 110 is a time accumulated from before activating the first camera 110, it may be a time exceeding at least the third threshold time. When the second time satisfies the fifth designated time, external illuminance may be outside the first illuminance range before the second time exceeds the fourth threshold time.
  • the fourth threshold time may be set based on the optical characteristics of the first camera 110. For example, the fourth threshold time may be set to exceed a time required for the first camera 110 to stabilize after the first camera 110 is activated based on the characteristics of the first camera 110. .
  • the fourth threshold time may be set shorter as the difference between the F number value of the first camera 110 and the F number value of the second camera 120 increases.
  • the processor 150 may stop driving the timer and initialize the timer (initialize the second time).
  • the processor 150 acquires an image using the first camera 110 and the second camera 120 Can be disabled.
  • the second time satisfies the sixth designated time
  • the fourth threshold time may be set to less than the second threshold time.
  • the processor 150 when the capture request is confirmed while the processor 150 outputs an image obtained using the first camera 110 or the second camera 120 to the display 130, the processor 150 An image may be taken using a camera corresponding to the image, and the captured image may be stored in the memory 140.
  • the electronic device 100 further includes an illuminance sensor (not shown), and the processor 150 can detect external illuminance using the illuminance sensor.
  • a plurality of illuminance sensors are provided at a plurality of positions of the electronic device 100 (for example, when the illuminance sensors are provided on the front and rear surfaces of the electronic device 100), and the processor 150 is Among the first camera 110 and the second camera 120, external illuminance may be detected using an illuminance sensor located close to the camera being used to acquire an image.
  • the electronic device 100 before entering the preview mode, the electronic device 100 detects the external illuminance using the illuminance sensor, and selects the external illuminance from the first camera 110 and the second camera 120 according to the external illuminance.
  • the first camera to be used in the preview mode is determined, and the determined camera is activated in the preview mode to acquire an image from the determined camera.
  • the processor 150 may check the external illuminance, and acquire an image using a camera having higher image quality at the current illuminance among the first camera 110 and the second camera 120. In particular, it is possible to increase user satisfaction with images in a low-light environment in which image quality deteriorates.
  • the processor 150 in addition to the external illuminance, considering at least one of the optical characteristics of the first camera 110 and the second camera 120, the image quality can be substantially improved, As the camera used for acquiring an image is switched, a quality improvement effect can be obtained substantially due to the camera switching.
  • the electronic device (eg, the electronic device 100 of FIG. 2) includes a first camera (eg, the first camera 110 of FIG. 2); A second camera (eg, second camera 120 in FIG. 2); And a processor (eg, the processor 150 of FIG.
  • the processor acquires an image using the first camera and acquires an image using the first camera, while the first camera Checking the time when the illuminance outside the electronic device falls within a specified illuminance range, and activating the second camera based on at least a determination that the time satisfies the first specified time, and activating the second camera If the time checked after the time satisfies the second designated time, the second camera is deactivated, and when the time checked after the second camera is activated satisfies the third designated time, the second time It may be set to acquire an image using a 2 camera and deactivate the first camera.
  • the image quality of the image acquired using the second camera may be superior to that of the image acquired using the first camera.
  • the electronic device further includes a display (eg, the display 130), and the processor may be configured to output the image obtained by the first camera or the second camera to the display. have.
  • the designated illuminance range may include an illuminance range below a specified illuminance or an illuminance range exceeding the specified illuminance.
  • the processor may be configured to determine that the time satisfies the first specified time when the time exceeds a first threshold time while acquiring an image using the first camera.
  • the processor while acquiring an image using the first camera, in a situation where the time is less than or equal to a second threshold time, if the illuminance is outside the specified illuminance range, the time satisfies the second specified time And the second threshold time exceeds the first threshold time and may be determined based on optical characteristics of the first camera and the second camera.
  • the processor is set to determine that the time satisfies the third specified time if the time exceeds a second threshold time while acquiring an image using the first camera, and the second threshold time May exceed the first threshold time and be determined based on optical characteristics of the first camera and the second camera.
  • the second threshold time may be set to more than the time required for stabilization after the second camera is activated.
  • the second threshold time, wherein the larger the difference between the first camera and the second camera of the F number value of the F number value may be set shorter.
  • the processor while acquiring an image using the second camera, uses the second camera to identify another time when the external illuminance is out of the specified illuminance range, and the other time to determine a fourth specified time.
  • the first camera may be activated based at least on a satisfied decision.
  • the processor deactivates the first camera when the other time identified after the first camera is activated satisfies the fifth designated time, and the other time checked after the first camera is activated is removed. 6 If a specified time is satisfied, an image may be acquired using the first camera, and the second camera may be deactivated.
  • the electronic device (eg, 100 in FIG. 2) includes a housing (eg, h100 in FIG. 1); A display (eg, 130 in FIG. 1); A first camera (eg, the first camera 110 of FIG. 1) disposed on a first surface of the housing (eg, the first surface 102 of FIG. 1); A second camera disposed on a first surface of the housing to be spaced apart from the first camera at a specified distance, and having a higher image quality than the first camera in a designated illumination range (eg, the second camera 120 of FIG. 1); And a processor (eg, the processor 150 of FIG. 2) functionally connected to the display, the first camera, and the second camera.
  • a processor eg, the processor 150 of FIG. 2 functionally connected to the display, the first camera, and the second camera.
  • the processor outputs an image acquired using the first camera to the display, and outputs an image acquired using the first camera to the display, while using the first camera to externally use the electronic device.
  • the processor in an operation of activating the second camera, when the external illuminance falls within the specified illuminance range, the external illuminance confirms a first duration within the specified illuminance range, and the first duration If the time exceeds the first threshold time, it can be set to activate the second camera.
  • the processor is configured to deactivate the second camera when the first duration determined after the second camera is activated exceeds a second threshold time, and the processor is deactivated.
  • the second threshold time may exceed the first threshold time and be determined based at least on the optical characteristics of the first camera and the second camera.
  • the processor may be configured to deactivate the second camera when the illuminance is outside the specified illuminance range in a situation in which the first duration exceeds the first threshold time and is less than or equal to the second threshold time.
  • the image quality of the first camera is superior to that of the second camera, and the processor is configured to display an image acquired using the second camera on the display.
  • the external camera is used to check the external illuminance, and if the external illuminance is outside the specified illuminance range, the first camera is activated, and an image acquired using the first camera It can be set to output to the display, and to deactivate the second camera.
  • the processor in an operation of activating the first camera, if the external illuminance is outside the specified illuminance range, the external illuminance confirms a second duration outside the specified illuminance range, and the second duration If the time exceeds the third threshold time, it can be set to activate the first camera.
  • the electronic device includes: a sensor module (eg, a sensor module 1076 in FIG. 10) that can detect the illuminance outside the electronic device; A first camera (eg, first camera 110 in FIG. 2); A second camera (eg, second camera 120 in FIG. 2); And a processor (eg, the processor 150 of FIG. 2), wherein the processor acquires an image using the first camera and acquires an image using the first camera while the sensor module is acquired.
  • a sensor module eg, a sensor module 1076 in FIG. 1076 in FIG. 1076 in FIG. 1076 in FIG. 10
  • a first camera eg, first camera 110 in FIG. 2
  • a second camera eg, second camera 120 in FIG. 2
  • a processor eg, the processor 150 of FIG. 2
  • the second camera Use to check the time that the illumination outside the electronic device falls within a specified illumination range, activate the second camera based on at least a determination that the time satisfies the first specified time, and activate the second camera If the time identified thereafter satisfies the second designated time, deactivate the second camera, and if the time checked after the second camera is activated satisfies the third designated time, the second It may be set to acquire an image using a camera and deactivate the first camera.
  • the sensor module includes a plurality of illuminance sensors, and the processor uses the illuminance sensor relatively close to the first camera among the plurality of illuminance sensors while acquiring an image using the first camera. It can be set to detect external illuminance.
  • the designated illuminance range may include an illuminance range below a specified illuminance or an illuminance range exceeding the specified illuminance.
  • FIG. 3 is a diagram comparing the structure of a general image sensor having a same pixel (16 pixels) and a tetracell image sensor according to an embodiment.
  • the general image sensor 310 is an image sensor to which one color filter is applied per pixel
  • the tetracell image sensor 320 is an image sensor to which one color filter is applied per 4 pixels
  • the processor 150 displays a general image in which the size of each pixel corresponds to four pixels An image of the same or similar quality as the sensor can be obtained. Since the image sensor has a characteristic that the amount of light received from the outside increases as the pixel size increases, the tetracell image sensor 320 may have better image quality at low light than the general image sensor 310 having at least the same pixel size.
  • FIG. 4 is a schematic flowchart of a camera switching method according to an embodiment.
  • the external illumination corresponds to a second illumination range (corresponding to the 'first time' described above) Can be checked).
  • the second illuminance range may include, for example, an illuminance range below a critical illuminance.
  • the critical illuminance is a roughness that is a reference for low illuminance, and may be, for example, about 50 lux.
  • the processor 150 drives the timer to time the external illuminance falls into the second illuminance range Can measure
  • the processor 150 may activate the second camera 120 based at least on the determination that the identified time satisfies the first specified time. For example, when the identified time exceeds the first threshold time, the processor 150 may activate the second camera 120.
  • the processor 150 may deactivate the second camera 120 if the identified time after activating the second camera 120 satisfies the second designated time.
  • the time identified after activating the second camera 120 is an accumulated time from before activating the second camera 120 and may exceed at least the first threshold time.
  • the processor 150 may initialize the timer after deactivating the second camera 120.
  • the processor 150 acquires an image using the second camera 120 and first camera 110 ) Can be disabled.
  • the processor 150 may initialize the timer after deactivating the first camera 110.
  • FIG. 5 is a detailed flowchart of a camera switching method according to an embodiment.
  • the processor 150 acquires an image using the first camera 110 (eg, the first camera 110 of FIG. 1). While, it is possible to check the illuminance outside the electronic device 100 using the first camera 110.
  • the processor 150 outputs the image obtained using the first camera 110 to the display 130, or It can be stored in the memory 140.
  • the processor 150 may check whether the external illuminance identified while acquiring an image using the first camera 110 is less than or equal to a critical illuminance (eg, about 50 lux).
  • a critical illuminance eg, about 50 lux
  • the timer 150 measures a time when the external illuminance lasts below the critical illuminance. can do.
  • the processor 150 may determine whether the time that the external illuminance lasts below the threshold illuminance exceeds the first threshold time using a timer while acquiring an image using the first camera 110.
  • the processor 150 may acquire the image using the first camera 110, and if the time during which the external illuminance persists below the threshold illuminance exceeds the first threshold time, the second camera 120 (eg, : The second camera 10 of FIG. 1 may be activated.
  • the second camera 120 eg, : The second camera 10 of FIG. 1 may be activated.
  • the processor 150 may determine whether a time during which the external illuminance lasts below the threshold illuminance exceeds the second threshold time while acquiring an image using the first camera 110.
  • the processor 150 uses the second camera 120 if the time during which the external illuminance continues to be below the critical illuminance while acquiring an image using the first camera 110 exceeds the second threshold time To obtain an image and deactivate the first camera 110. In operation 535, the processor 150 may stop driving the timer and initialize the timer.
  • the processor 150 may externally illuminate It is possible to monitor whether or not the critical illuminance is below.
  • the processor 150 may perform operation 520.
  • the processor 150 may stop driving the timer and initialize the timer in operation 545.
  • the processor 150 monitors whether the external illuminance is below the critical illuminance in operation 555. You can.
  • the processor 150 may deactivate the second camera 120. In operation 555, the processor 150 may stop driving the timer and initialize the timer.
  • the 6 is converted from the first camera (eg, the first camera 110 of FIG. 2) to the second camera (eg, the second camera 120 of FIG. 2) according to an embodiment, and then back to the first camera This is an example of conversion.
  • the processor 150 eg, the processor 150 of FIG. 2 enters the preview mode according to a user input
  • the first camera 110 is activated and the first camera 110 is used.
  • the external illuminance may be detected using the first camera 110.
  • the processor 150 does not deactivate the second camera 120, so the second camera 120 may be in a deactivated state.
  • the processor 150 measures a time when the external illuminance belongs to the first illuminance range when the range to which the external illuminance belongs varies from the first illuminance range to the second illuminance range while acquiring an image using the first camera 110. can do.
  • the processor 150 activates the second camera 120 when the time when the external illuminance falls within the second illuminance range exceeds the first threshold time T 1 while acquiring an image using the first camera 110. (ON).
  • the processor 150 uses the second camera 120 when the time when the external illuminance belongs to the second illuminance range exceeds the second threshold time T 2 while acquiring the image using the first camera 110. To obtain an image and deactivate (OFF) the first camera 110.
  • the processor 150 may detect external illuminance using the second camera 120 while acquiring an image using the second camera 120. While acquiring an image using the second camera 120, the processor 150 may confirm that the range to which the external illuminance belongs changes from the second illuminance range to the first illuminance range.
  • the processor 150 may measure a time belonging to the first illuminance range when the external illuminance falls within the first illuminance range while acquiring an image using the second camera 120.
  • the processor 150 activates the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the third threshold time T 3 while acquiring an image using the second camera 120. can do.
  • the processor 150 uses the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the fourth threshold time T 4 while acquiring an image using the second camera 120. To obtain an image and deactivate (OFF) the second camera 120.
  • 7 is another example of switching from the first camera to the second camera and then switching to the first camera according to an embodiment.
  • the processor 150 eg, the processor 150 of FIG. 2 enters the preview mode according to a user input
  • the first camera 110 is activated and the first camera 110 is used While acquiring an image (eg, a preview image or a captured image), the external illuminance may be detected using the first camera 110.
  • the processor 150 does not deactivate the second camera 120, so the second camera 120 may be in a deactivated state.
  • the processor 150 may measure a time when the external illuminance belongs to the first illuminance range while determining that the external illuminance range is the second illuminance range.
  • the processor 150 activates the second camera 120 when the time when the external illuminance falls within the second illuminance range exceeds the first threshold time T 1 while acquiring an image using the first camera 110. (ON).
  • the processor 150 uses the second camera 120 when the time when the external illuminance belongs to the second illuminance range exceeds the second threshold time T 2 while acquiring the image using the first camera 110. To obtain an image and deactivate (OFF) the first camera 110.
  • the processor 150 may detect external illuminance using the second camera 120 while acquiring an image using the second camera 120. While acquiring an image using the second camera 120, the processor 150 may confirm that the range to which the external illuminance belongs changes from the second illuminance range to the first illuminance range.
  • the processor 150 may measure a time belonging to the first illuminance range when the external illuminance falls within the first illuminance range while acquiring an image using the second camera 120.
  • the processor 150 activates the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the third threshold time T 3 while acquiring an image using the second camera 120. can do.
  • the processor 150 uses the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the fourth threshold time T 4 while acquiring an image using the second camera 120. To obtain an image and deactivate (OFF) the second camera 120.
  • FIG. 8 is an example of a case in which a first camera is used even in a change in external illuminance according to an embodiment.
  • the processor 150 acquires an image using the first camera 110
  • a range in which the external illuminance belongs belongs to the second illuminance in the first illuminance range It can be seen that the range changes.
  • the processor 150 may measure the time that the external illuminance belongs to the second illuminance range.
  • the processor 150 activates the second camera 120 when the time when the external illuminance falls within the second illuminance range exceeds the first threshold time T 1 while acquiring an image using the first camera 110. can do.
  • the processor 150 While the processor 150 acquires an image using the first camera 110, a time when the external illuminance falls within the second illuminance range is greater than the first threshold time T 1 and less than or equal to the second threshold time T 2 From it can be seen that the external illuminance changes to the first illuminance range. In this case, the processor 150 may deactivate the second camera 120 again and acquire an image using the first camera 110.
  • 9 is an example of a case in which a second camera is used even in a change in external illuminance according to an embodiment.
  • the processor 150 (eg, the processor 150 of FIG. 2) has a range in which the external illuminance belongs to the first illuminance in the second illuminance range while acquiring an image using the second camera 120. It can be seen that the range changes.
  • the processor 150 may measure the time that the external illuminance belongs to the first illuminance range. The processor 150 activates the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the third threshold time T 3 while acquiring an image using the second camera 120. can do.
  • a time when the external illuminance falls within the first illuminance range is greater than or equal to the third threshold time T 3 and less than or equal to the fourth threshold time T 4 It can be seen that the external illuminance changes back to the second illuminance range. In this case, the processor 150 may deactivate the first camera 110 again and acquire an image using the second camera 120.
  • FIG. 10 is a block diagram of an electronic device 1001 (eg, the electronic device 100 of FIG. 2) in a network environment 1000 according to various embodiments.
  • the electronic device 1001 communicates with the electronic device 1002 through a first network 1098 (eg, a short-range wireless communication network), or a second network 1099.
  • An electronic device 1004 or a server 1008 may be communicated through (eg, a remote wireless communication network).
  • the electronic device 1001 may communicate with the electronic device 1004 through the server 1008.
  • the electronic device 1001 includes a processor 1020 (eg, the processor 150 of FIG. 2), a memory 1030 (eg, the memory 140 of FIG.
  • an input device 1050 Audio output device 1055, display device 1060 (e.g., display 130 in FIG. 2), audio module 1070, sensor module 1076, interface 1077, haptic module 1079, camera module ( 1080) (e.g., first camera 110 and second camera 120 in FIG. 2), power management module 1088, battery 1089, communication module 1090, subscriber identification module 1096, or antenna It may include a module 1097.
  • the components for example, the display device 1060 or the camera module 1080
  • the display device 1060 or the camera module 1080 may be omitted or one or more other components may be added to the electronic device 1001.
  • some of these components may be implemented as one integrated circuit.
  • the sensor module 1076 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the display device 1060 e.g, a display.
  • the processor 1020 executes software (eg, the program 1040) to execute at least one other component (eg, hardware or software component) of the electronic device 1001 connected to the processor 1020. It can be controlled and can perform various data processing or operations. According to one embodiment, as at least part of data processing or computation, the processor 1020 may receive instructions or data received from other components (eg, the sensor module 1076 or the communication module 1090) in the volatile memory 1032. Loaded into, process instructions or data stored in volatile memory 1032, and store result data in nonvolatile memory 1034.
  • software eg, the program 1040
  • the processor 1020 may receive instructions or data received from other components (eg, the sensor module 1076 or the communication module 1090) in the volatile memory 1032. Loaded into, process instructions or data stored in volatile memory 1032, and store result data in nonvolatile memory 1034.
  • the processor 1020 includes a main processor 1021 (eg, a central processing unit or an application processor), and an auxiliary processor 1023 (eg, a graphics processing unit, an image signal processor) that can be operated independently or together. , Sensor hub processor, or communication processor). Additionally or alternatively, the coprocessor 1023 may be configured to use less power than the main processor 1021, or to be specialized for a specified function. The coprocessor 1023 may be implemented separately from, or as part of, the main processor 1021.
  • a main processor 1021 eg, a central processing unit or an application processor
  • auxiliary processor 1023 eg, a graphics processing unit, an image signal processor
  • the coprocessor 1023 may be configured to use less power than the main processor 1021, or to be specialized for a specified function.
  • the coprocessor 1023 may be implemented separately from, or as part of, the main processor 1021.
  • the coprocessor 1023 may, for example, replace the main processor 1021 while the main processor 1021 is in an inactive (eg sleep) state, or the main processor 1021 is active (eg, executing an application) ) With the main processor 1021 while in the state, at least one of the components of the electronic device 1001 (for example, a display device 1060, a sensor module 1076, or a communication module 1090) It can control at least some of the functions or states associated with.
  • the coprocessor 1023 eg, image signal processor or communication processor
  • may be implemented as part of other functionally relevant components eg, camera module 1080 or communication module 1090). have.
  • the memory 1030 may store various data used by at least one component of the electronic device 1001 (for example, the processor 1020 or the sensor module 1076).
  • the data may include, for example, software (eg, the program 1040) and input data or output data for commands related thereto.
  • the memory 1030 may include a volatile memory 1032 or a nonvolatile memory 1034.
  • the program 1040 may be stored as software in the memory 1030, and may include, for example, an operating system 1042, middleware 1044, or an application 1046.
  • the input device 1050 may receive commands or data to be used for components (eg, the processor 1020) of the electronic device 1001 from outside (eg, a user) of the electronic device 1001.
  • the input device 1050 may include, for example, a microphone, mouse, keyboard, or digital pen (eg, a stylus pen).
  • the sound output device 1055 may output sound signals to the outside of the electronic device 1001.
  • the audio output device 1055 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call.
  • the receiver may be implemented separately from, or as part of, a speaker.
  • the display device 1060 may visually provide information to the outside of the electronic device 1001 (for example, a user).
  • the display device 1060 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 1060 may include a touch circuitry configured to sense a touch, or a sensor circuit configured to measure the strength of the force generated by the touch (eg, a pressure sensor). have.
  • the audio module 1070 may convert sound into an electrical signal, or vice versa. According to an embodiment, the audio module 1070 acquires sound through the input device 1050, or an external electronic device (eg, directly or wirelessly connected to the sound output device 1055) or the electronic device 1001 The electronic device 1002) (eg, speaker or headphone) may output sound.
  • an external electronic device eg, directly or wirelessly connected to the sound output device 1055
  • the electronic device 1002 eg, speaker or headphone
  • the sensor module 1076 detects an operating state (eg, power or temperature) of the electronic device 1001, or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state can do.
  • the sensor module 1076 includes, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a biological sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 1077 may support one or more designated protocols that can be used for the electronic device 1001 to be directly or wirelessly connected to an external electronic device (eg, the electronic device 1002).
  • the interface 1077 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 1078 may include a connector through which the electronic device 1001 is physically connected to an external electronic device (eg, the electronic device 1002).
  • the connection terminal 1078 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 1079 may convert electrical signals into mechanical stimuli (eg, vibration or movement) or electrical stimuli that the user can perceive through tactile or motor sensations.
  • the haptic module 1079 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 1080 may capture still images and videos. According to one embodiment, the camera module 1080 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 1088 may manage power supplied to the electronic device 1001.
  • the power management module 388 may be implemented, for example, as at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 1089 may supply power to at least one component of the electronic device 1001.
  • the battery 1089 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 1090 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 1001 and an external electronic device (eg, the electronic device 1002, the electronic device 1004, or the server 1008). It can support establishing and performing communication through the established communication channel.
  • the communication module 1090 operates independently of the processor 1020 (eg, an application processor), and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication.
  • the communication module 1090 is a wireless communication module 1092 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1094 (eg : Local area network (LAN) communication module, or power line communication module.
  • the corresponding communication module among these communication modules is a first network 1098 (for example, a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network 1099 (for example, a cellular network, the Internet, or It may communicate with external electronic devices through a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a computer network eg, a telecommunication network such as a LAN or WAN.
  • the wireless communication module 1092 uses a subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1096 in a communication network such as the first network 1098 or the second network 1099.
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 1001 may be identified and authenticated.
  • the antenna module 1097 may transmit a signal or power to the outside (eg, an external electronic device) or receive it from the outside.
  • the antenna module may include a single antenna including a conductor formed on a substrate (eg, a PCB) or a radiator made of a conductive pattern.
  • the antenna module 1097 may include a plurality of antennas. In this case, at least one antenna suitable for a communication scheme used in a communication network, such as the first network 1098 or the second network 1099, is transmitted from the plurality of antennas by, for example, the communication module 1090. Can be selected.
  • the signal or power may be transmitted or received between the communication module 1090 and an external electronic device through the at least one selected antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as part of the antenna module 1097.
  • peripheral devices for example, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 1001 and the external electronic device 1004 through the server 1008 connected to the second network 1099.
  • Each of the electronic devices 1002 and 1004 may be the same or a different type of device from the electronic device 1001.
  • all or part of the operations executed in the electronic device 1001 may be executed in one or more external devices of the external electronic devices 1002, 1004, or 1008.
  • the electronic device 1001 executes the function or service itself.
  • one or more external electronic devices may be requested to perform at least a portion of the function or the service.
  • the one or more external electronic devices receiving the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and deliver the result of the execution to the electronic device 1001.
  • the electronic device 1001 may process the result, as it is or additionally, and provide it as at least part of a response to the request.
  • cloud computing distributed computing, or client-server computing technology This can be used.
  • the electronic device may be various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • any (eg, first) component is referred to as a "coupled” or “connected” to another (eg, second) component, with or without the term “functionally” or “communicatively”
  • any of the above components can be connected directly to the other components (eg, by wire), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integrally configured component or a minimum unit of the component or a part thereof performing one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document may include one or more instructions stored in a storage medium (eg, internal memory 1036 or external memory 1038) readable by a machine (eg, electronic device 1001). It may be implemented as software (eg, program 1040) that includes.
  • a processor eg, processor 1020
  • a device eg, electronic device 1001
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the storage medium readable by the device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device, and does not include a signal (eg, electromagnetic wave), and this term is used when data is stored semi-permanently. It does not distinguish between temporary storage cases.
  • a method according to various embodiments disclosed in this document may be provided as being included in a computer program product.
  • Computer program products are commodities that can be traded between sellers and buyers.
  • the computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or two user devices ( It can be distributed (eg, downloaded or uploaded) directly or online between smartphones).
  • a portion of the computer program product may be temporarily stored at least temporarily in a storage medium readable by a device such as a memory of a manufacturer's server, an application store's server, or a relay server, or temporarily generated.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components the same or similar to that performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, or omitted Or, one or more other actions can be added. Accordingly, the scope of this document should be construed to include all changes or various other embodiments based on the technical spirit of this document.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

An electronic device is disclosed. The electronic device according to an embodiment disclosed in the present document comprises: a first camera; a second camera; and a processor, wherein the processor is configured to: obtain an image by using the first camera; while obtaining the image by using the first camera, check, by using the first camera, a time in which illuminance of the outside of the electronic device belongs to a designated illuminance range; activate the second camera at least on the basis of determination that the time satisfies a first designated time ; when the time checked after the second camera is activated satisfies a second designated time, deactivate the second camera; and when the time checked after the second camera is activated satisfies a third designated time, obtain an image by using the second camera, and deactivate the first camera. In addition, various embodiments inferred from the specification are also possible.

Description

외부 조도에 기반하여 복수개의 카메라를 구동하는 전자 장치An electronic device that drives multiple cameras based on external illuminance
본 문서에서 개시되는 실시예들은, 듀얼 카메라 구현 기술과 관련된다.The embodiments disclosed in this document relate to a dual camera implementation technology.
디지털 카메라는 저조도 환경에서 카메라 또는 피사체의 움직임으로 인해 경계가 뚜렷하지 않은 이미지를 획득하거나, 매우 어두운 이미지를 획득하는 문제가 있다. 그로 인해, 디지털 카메라를 구비한 전자 장치는 저조도 환경에서 디지털 카메라의 노출 값을 늘리거나, 저조도 환경에서 획득된 이미지에 대한 밝기/색감 보정 알고리즘을 적용하여 저조도 이미지의 화질을 개선하고 있다.Digital cameras have a problem of acquiring an image with a clear boundary or a very dark image due to movement of a camera or a subject in a low-light environment. Therefore, an electronic device equipped with a digital camera increases the exposure value of a digital camera in a low-light environment, or improves the image quality of a low-light image by applying a brightness / color correction algorithm for an image acquired in a low-light environment.
종래의 전자 장치는 하나의 카메라를 이용하여 저조도 이미지의 화질을 개선하고 있다.Conventional electronic devices use one camera to improve the image quality of a low-light image.
본 문서에 개시되는 다양한 실시예들은 복수의 카메라를 이용하여 저조도 환경에서 화질을 개선할 수 있는 전자 장치를 제공한다.Various embodiments disclosed in this document provide an electronic device capable of improving image quality in a low light environment using a plurality of cameras.
본 문서에 개시되는 일 실시예에 따른 전자 장치는, 제 1 카메라; 제 2 카메라; 및 프로세서를 포함하고, 상기 프로세서는, 상기 제 1 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 제 1 카메라를 이용하여 상기 전자 장치 외부의 조도가 지정된 조도 범위에 속하는 시간을 확인하고, 상기 시간이 제 1 지정된 시간을 만족하는 결정에 적어도 기반하여, 상기 제 2 카메라를 활성화하고, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 2 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 비활성화 하고, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 3 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 비활성화 하도록 설정될 수 있다.An electronic device according to an embodiment disclosed in the present disclosure includes a first camera; A second camera; And a processor, wherein the processor is configured to acquire an image using the first camera, and while obtaining an image using the first camera, the illuminance outside the electronic device is designated using the first camera. Checking the time belonging to the illuminance range, based on at least a determination that the time satisfies the first specified time, activates the second camera, and the time identified after the second camera is activated is the second designated time When the time is satisfied, the second camera is deactivated, and when the time identified after the second camera is activated satisfies the third designated time, an image is acquired using the second camera, and the It may be set to deactivate the first camera.
또한, 본 문서에 개시되는 일 실시예에 따른 전자 장치는, 하우징; 디스플레이; 상기 하우징의 제 1 면에 배치되는 제 1 카메라; 상기 제1 카메라와 지정된 간격 이격 되도록 상기 하우징의 제 1 면에 배치되고, 지정된 조도 범위에서 상기 제 1 카메라보다 화질이 우수한 제 2 카메라; 및, 상기 디스플레이, 상기 제 1 카메라 및 상기 제 2 카메라와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 제 1 카메라를 이용하여 획득한 이미지를 상기 디스플레이에 출력하고, 상기 제 1 카메라를 이용하여 획득한 이미지를 상기 디스플레이에 출력하는 동안에, 상기 제 1 카메라를 이용하여 상기 전자 장치 외부의 조도를 확인하고, 상기 외부의 조도가 상기 지정된 조도 범위에 속하면, 상기 제 2 카메라를 활성화하고, 상기 제 2 카메라를 이용하여 획득한 이미지를 상기 디스플레이에 출력하고, 상기 제 1 카메라를 비활성화하도록 설정될 수 있다.In addition, the electronic device according to an embodiment disclosed in the present document, the housing; display; A first camera disposed on the first surface of the housing; A second camera disposed on a first surface of the housing so as to be spaced apart from the first camera at a specified distance, and having a higher image quality than the first camera in a designated illumination range; And a processor functionally connected to the display, the first camera, and the second camera, the processor outputting an image acquired using the first camera to the display, and using the first camera While outputting the obtained image to the display, the first camera is used to check the illuminance outside the electronic device, and if the external illuminance falls within the specified illuminance range, the second camera is activated, The image acquired by using the second camera may be output to the display, and may be set to deactivate the first camera.
또한, 본 문서에 개시되는 일 실시예에 따른 전자 장치는, 전자 장치 외부의 조도를 감지할 수 있는 센서 모듈; 제 1 카메라; 제 2 카메라; 및 프로세서를 포함하고, 상기 프로세서는, 상기 제 1 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 센서 모듈을 이용하여 상기 전자 장치 외부의 조도가 지정된 조도 범위에 속하는 시간을 확인하고, 상기 시간이 제 1 지정된 시간을 만족하는 결정에 적어도 기반하여, 상기 제 2 카메라를 활성화하고, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 2 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 비활성화 하고, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 3 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 비활성화 하도록 설정될 수 있다.In addition, an electronic device according to an embodiment disclosed in the present disclosure includes: a sensor module capable of detecting illuminance outside the electronic device; A first camera; A second camera; And a processor, wherein the processor acquires an image using the first camera and acquires an image using the first camera, wherein the illuminance outside the electronic device is designated using the sensor module. Checking the time belonging to the range, based on the determination that the time satisfies the first specified time, activates the second camera, and confirms the time after the second camera is activated is the second specified time If satisfactory, the second camera is deactivated, and if the time identified after the second camera is activated satisfies a third designated time, an image is acquired using the second camera, and the second 1 Can be set to deactivate the camera.
본 문서에 개시되는 실시예들에 따르면, 복수의 카메라를 이용하여 저조도 환경에서 화질을 개선할 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.According to embodiments disclosed in the present document, image quality may be improved in a low-light environment using a plurality of cameras. In addition, various effects that can be directly or indirectly identified through this document may be provided.
도 1은 일 실시예에 따른 전자 장치의 제 1 면 및 제 2 면의 외관을 나타낸다.1 illustrates appearances of first and second surfaces of an electronic device according to an embodiment.
도 2는 일 실시예에 따른 전자 장치의 구성도를 나타낸다.2 is a block diagram of an electronic device according to an embodiment.
도 3은 일 실시예에 따른 테트라셀 이미지 센서의 구조를 나타낸다.3 shows the structure of a tetracell image sensor according to an embodiment.
도 4는 일 실시예에 따른 카메라 전환 방법의 개략 흐름도를 나타낸다.4 is a schematic flowchart of a camera switching method according to an embodiment.
도 5는 일 실시예에 따른 카메라 전환 방법의 세부 흐름도이다.5 is a detailed flowchart of a camera switching method according to an embodiment.
도 6은 일 실시 예에 따른 제 1 카메라에서 제 2 카메라로 전환되었다가 다시 제 1 카메라로 전환되는 경우의 일 예이다.6 is an example of a case where the first camera is switched to the second camera and then switched to the first camera according to an embodiment.
도 7은 일 실시 예에 따른 제 1 카메라에서 제 2 카메라로 전환되었다가 다시 제 1 카메라로 전환되는 경우의 다른 예이다.7 is another example of switching from the first camera to the second camera and then switching to the first camera according to an embodiment.
도 8은 일 실시 예에 따른 외부 조도 변화에도 제 1 카메라를 이용하는 경우의 예이다.8 is an example of a case in which a first camera is used even in a change in external illuminance according to an embodiment.
도 9는 일 실시 예에 따른 외부 조도 변화에도 제 2 카메라를 이용하는 경우의 예이다.9 is an example of a case in which a second camera is used even in a change in external illuminance according to an embodiment.
도 10은 다양한 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도를 나타낸다.10 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.
도 1은 일 실시예에 따른 전자 장치의 제 1 면 및 제 2 면의 외관(h100)을 나타낸다.1 illustrates appearances h100 of first and second surfaces of an electronic device according to an embodiment.
도 1을 참조하면, 전자 장치(100)는 제 1 카메라(110), 제 2 카메라(120) 및 디스플레이(130)를 포함할 수 있다.Referring to FIG. 1, the electronic device 100 may include a first camera 110, a second camera 120, and a display 130.
일 실시예에 따르면, 제 1 카메라(110)는 전자 장치(100)의 제 1 면(예: 후면)(102)에 구비될 수 있다. 제 1 카메라(110)는 제 1 화각 및 제 1 초점 거리를 가지고, 제 1 촬영 범위를 촬영할 수 있다.According to an embodiment, the first camera 110 may be provided on the first surface (eg, rear) 102 of the electronic device 100. The first camera 110 may have a first angle of view and a first focal length, and photograph the first shooting range.
일 실시예에 따르면, 제 2 카메라(120)는 전자 장치(100)의 제 1 면(102)에 제 1 카메라(110)와 지정된 간격 이격되어 배치될 수 있다. 제 2 카메라(120)는 제 2 화각 및 제 2 초점 거리를 가지고, 제 2 촬영 범위를 촬영할 수 있다. 상기 제 2 화각은 제 1 화각과 동일하거나, 유사할 수 있다. 상기 제 2 초점 거리는 제 1 초점 거리와 동일하거나, 유사할 수 있다. 상기 제 1 촬영 범위와 제 2 촬영 범위는 적어도 지정된 범위(예: 약 70% 이상) 겹칠 수 있다. 다양한 실시예에 따르면, 제 1 카메라(110) 및 제 2 카메라(120)는 전자 장치(100)의 디스플레이(130)가 배치된 제 1 면에 배치될 수 있다.According to an embodiment, the second camera 120 may be disposed at a predetermined distance from the first camera 110 on the first surface 102 of the electronic device 100. The second camera 120 has a second angle of view and a second focal length, and may photograph the second shooting range. The second angle of view may be the same as or similar to the first angle of view. The second focal length may be the same or similar to the first focal length. The first shooting range and the second shooting range may overlap at least a designated range (eg, about 70% or more). According to various embodiments, the first camera 110 and the second camera 120 may be disposed on a first surface on which the display 130 of the electronic device 100 is disposed.
일 실시예에 따르면, 디스플레이(130)는 전자 장치(100)의 제 2 면(예: 전면)(101)의 적어도 일부를 통해 전자 장치(100)의 외부로 노출될 수 있다. 디스플레이(130)는 예를 들면, 터치스크린 디스플레이일 수 있다.According to an embodiment, the display 130 may be exposed to the outside of the electronic device 100 through at least a portion of the second surface (eg, front) 101 of the electronic device 100. The display 130 may be, for example, a touch screen display.
도 2는 일 실시예에 따른 전자 장치의 구성도를 나타낸다.2 is a block diagram of an electronic device according to an embodiment.
도 2를 참조하면, 전자 장치(100)는 제 1 카메라(110), 제 2 카메라(120), 디스플레이(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 2, the electronic device 100 may include a first camera 110, a second camera 120, a display 130, a memory 140, and a processor 150.
일 실시예에 따르면, 제 1 카메라(110)는 제 1 조도 범위에서 제 2 카메라(120)보다 화질이 우수할 수 있다. 상기 제 1 조도 범위는 예를 들면, 임계 조도를 초과하는 조도 범위를 포함할 수 있다. 상기 임계 조도는 저조도 기준이 되는 조도로서, 예컨대, 약 50lux일 수 있다.According to an embodiment, the first camera 110 may have better image quality than the second camera 120 in the first illumination range. The first illuminance range may include, for example, an illuminance range exceeding the critical illuminance. The critical illuminance is an illuminance that is a low illuminance criterion, and may be, for example, about 50 lux.
일 실시예에 따르면, 제 2 카메라(120)는 제 2 조도 범위에서 제 1 카메라(110)보다 화질이 우수할 수 있다. 상기 제 2 조도 범위는 저조도 범위로서, 예를 들면, 임계 조도 이하의 조도 범위를 포함할 수 있다.According to an embodiment, the second camera 120 may have better image quality than the first camera 110 in the second illuminance range. The second illuminance range is a low illuminance range, and may include, for example, an illuminance range below a critical illuminance.
일 실시예에 따르면, 제 1 카메라(110)의 총 화소 수는 제 2 카메라(120)의 총 화소 수 보다 많을 수 있다. 예를 들어, 제 1 카메라(110)는 24M 화소 이미지 센서를 포함하고, 제 2 카메라(120)는 16M 화소 이미지 센서를 포함할 수 있다. 이와 달리, 제 2 카메라(120)가 테트라셀(tetra cell) 이미지 센서를 포함할 경우, 제 1 카메라(110)의 총 화소 수는 제 2 카메라(120)의 총 화소 수 보다 적을 수 있다. 예를 들어, 제 1 카메라(110)는 16M 화소 이미지 센서를 포함하고, 제 2 카메라(120)는 24M 화소 테트라셀 이미지 센서를 포함할 수 있다.According to an embodiment, the total number of pixels of the first camera 110 may be greater than the total number of pixels of the second camera 120. For example, the first camera 110 may include a 24M pixel image sensor, and the second camera 120 may include a 16M pixel image sensor. Alternatively, when the second camera 120 includes a tetra cell image sensor, the total number of pixels of the first camera 110 may be less than the total number of pixels of the second camera 120. For example, the first camera 110 may include a 16M pixel image sensor, and the second camera 120 may include a 24M pixel tetracell image sensor.
일 실시예에 따르면, 디스플레이(130)는 제 1 카메라(110) 또는 제 2 카메라(120) 중 적어도 하나를 이용하여 획득한 이미지를 출력(표시)할 수 있다. 디스플레이(130)는 예를 들면, 사용자 입력을 수신하는 터치스크린 디스플레이일 수 있다. 디스플레이(130)는, 예를 들면, 각종 컨텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)를 표시할 수 있다. 디스플레이(130)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다.According to an embodiment, the display 130 may output (display) an image obtained by using at least one of the first camera 110 or the second camera 120. The display 130 may be, for example, a touch screen display that receives user input. The display 130 may display various contents (for example, text, images, videos, icons, and / or symbols, etc.). The display 130 may include, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or an electronic paper display.
일 실시예에 따르면, 메모리(140)는 예를 들면, 전자 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 메모리(140)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 메모리(140)는 제 1 조도 범위, 제 2 조도 범위, 제 1 임계 시간, 제 2 임계 시간, 제 3 임계 시간 및 제 4 임계 시간을 저장할 수 있다. 메모리(140)는 제 1 카메라(110) 및 제 2 카메라(120)의 활성화 또는 비활성화를 위한 명령어들을 저장할 수 있다.According to an embodiment, the memory 140 may store, for example, commands or data related to at least one other component of the electronic device 100. The memory 140 may be volatile memory (eg, RAM, etc.), non-volatile memory (eg, ROM, flash memory, etc.) or a combination thereof. The memory 140 may store a first illumination range, a second illumination range, a first threshold time, a second threshold time, a third threshold time, and a fourth threshold time. The memory 140 may store commands for activating or deactivating the first camera 110 and the second camera 120.
일 실시예에 따르면, 프로세서(150)는 제 1 카메라(110) 또는 제 2 카메라(120) 중 적어도 하나를 이용하여 전자 장치(100) 외부의 조도를 확인하고, 외부의 조도가 제 1 조도 범위에 속하는지 아니면, 제 2 조도 범위에 속하는지에 따라서 제 1 카메라(110) 또는 제 2 카메라(120) 중 적어도 하나를 활성화하고, 제 1 카메라(110) 또는 제 2 카메라(120)를 이용하여 이미지를 획득하고, 획득한 이미지를 디스플레이(130)에 출력할 수 있다. 프로세서(150)는 메모리(140)에 저장된 명령어들을 이용하여 전자 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 프로세서(150)는 예를 들어, 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 애플리케이션 프로세서(application processor), 주문형 반도체(ASIC(application specific integrated circuit), FPGA(field programmable gate arrays)) 중 적어도 하나를 포함할 수 있으며, 복수의 코어를 가질 수 있다. According to one embodiment, the processor 150 checks the illuminance outside the electronic device 100 using at least one of the first camera 110 or the second camera 120, and the external illuminance ranges from the first illuminance range Depending on whether it belongs to or belongs to the second illumination range, at least one of the first camera 110 or the second camera 120 is activated, and the image is imaged using the first camera 110 or the second camera 120. To obtain, and output the obtained image to the display 130. The processor 150 may execute operations or data processing related to control and / or communication of at least one other component of the electronic device 100 using instructions stored in the memory 140. The processor 150 includes, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application processor, an application specific integrated circuit (ASIC), and field programmable gate arrays (FPGAs). )), And may have a plurality of cores.
일 실시예에 따르면, 프로세서(150)는 프리뷰 모드에 진입하면, 제 1 카메라(110)를 활성화하고, 제 1 카메라(110)를 이용하여 이미지를 획득하고 디스플레이(130)에 출력할 수 있다. 예를 들어, 프로세서(150)는 프리뷰 모드에 진입할 때에는 외부의 조도에 상관 없이 제 1 카메라(110)를 활성화하고, 제1 카메라(110)를 이용하여 이미지를 획득하여 디스플레이(130)에 출력할 수 있다. 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 제 1 카메라(110)를 이용하여 외부의 조도를 확인할 수 있다. 프로세서(150)는 확인된 외부의 조도가 제 1 조도 범위에 속하는지 아니면, 제 2 조도 범위에 속하는지를 확인할 수 있다.According to an embodiment, when entering the preview mode, the processor 150 may activate the first camera 110, acquire an image using the first camera 110, and output the image to the display 130. For example, when entering the preview mode, the processor 150 activates the first camera 110 regardless of external illuminance, acquires an image using the first camera 110, and outputs the image to the display 130 can do. The processor 150 may check external illuminance using the first camera 110 while acquiring an image using the first camera 110. The processor 150 may check whether the identified external illuminance falls within the first illuminance range or the second illuminance range.
프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 확인된 외부의 조도가 제 2 조도 범위에 속하면, 외부의 조도가 제 2 조도 범위에 속하는 제 1 시간(제 1 지속 시간)을 확인(측정)할 수 있다. 예를 들어, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 2 조도 범위에 속하는 것을 확인하면, 타이머를 구동하여 제 1 시간에 대한 측정을 시작할 수 있다. 상기 타이머는 프로세서(150)에 내장된 구성요소일 수 있다. 또는, 타이머는 프로세서(150)와 별개로 구성될 수 있다.If the external illuminance confirmed while acquiring an image using the first camera 110 belongs to the second illuminance range, the processor 150 may perform a first time (first duration) in which the external illuminance belongs to the second illuminance range. Time) can be checked (measured). For example, while acquiring an image using the first camera 110, the processor 150 may start a measurement of the first time by driving a timer when it is determined that the external illuminance falls within the second illuminance range. . The timer may be a component built into the processor 150. Alternatively, the timer may be configured separately from the processor 150.
프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부의 조도가 제 2 조도 범위에 속하는 제 1 시간이 제 1 지정된 시간(또는, 시간 조건)을 만족하면, 제 2 카메라(120)를 활성화할 수 있다. 예를 들어, 제 1 시간이 제 1 지정된 시간을 만족한다는 것은, 상기 제 1 시간이 제 1 임계 시간을 초과한다는 것일 수 있다. 상기 제 1 임계 시간은 예를 들면, 제 1 카메라(110)의 광학 특성 또는 제 2 카메라(120)의 광학 특성 중 적어도 하나에 기초하여 결정될 수 있다. 상기 광학 특성은 예를 들면, Fnumber, 노출 값, 조리개 값 중 적어도 하나를 포함할 수 있다. 프로세서(150)는 외부의 조도가 제 2 조도 범위에 속하는 제 1 시간을 확인하는 동안에, 외부의 조도가 제 2 조도 범위를 벗어나는 것을 확인하면, 타이머의 구동을 중단하고, 타이머를 초기화(예: 제 1 시간을 초기화)할 수 있다.While acquiring an image using the first camera 110, the processor 150 may obtain a second camera when the first time in the second illuminance range satisfies the first specified time (or time condition) while acquiring an image using the first camera 110. (120) can be activated. For example, if the first time satisfies the first specified time, it may be that the first time exceeds the first threshold time. The first threshold time may be determined, for example, based on at least one of the optical characteristics of the first camera 110 or the optical characteristics of the second camera 120. The optical characteristic may include, for example, at least one of F number , exposure value, and aperture value. The processor 150 stops driving the timer and initializes a timer (eg, when the external illuminance is out of the second illuminance range) while checking the first time that the external illuminance belongs to the second illuminance range. First time).
프로세서(150)는 제 2 카메라(120)가 활성화된 이후에 확인된 제 1 시간이 제 2 지정된 시간(시간 조건)을 만족하면, 제 2 카메라(120)를 비활성화할 수 있다. 상기 제 2 카메라(120)가 활성화된 이후에 확인된 제 1 시간은 제 2 카메라(120)를 활성화하기 이전부터 누적된 시간이므로, 적어도 제 1 임계 시간을 초과하는 시간일 수 있다. 상기 제 1 시간이 제 2 지정된 시간을 만족한다는 것은, 상기 제 1 시간이 제 2 임계 시간을 초과하기에 앞서 외부의 조도가 제 2 조도 범위를 벗어난다는 것일 수 있다. 상기 제 2 임계 시간은 제 1 카메라(110)의 광학 특성 및 제 2 카메라(120)의 광학 특성 중 적어도 하나에 기초하여 설정될 수 있다. 예를 들어, 제 2 임계 시간은 제 2 카메라(120)의 광학 특성에 기초하여 제 2 카메라(120)가 활성화된 이후에 제 2 카메라(120)가 안정화되는데 소요되는 시간을 초과하도록 설정될 수 있다. 다른 예를 들어, 제 2 임계 시간은 제 1 카메라(110)의 Fnumber 값과 제 2 카메라(120)의 Fnumber 값의 차이가 클수록 짧게 설정될 수 있다. 프로세서(150)는 제 2 카메라(120)를 비활성화할 때 타이머의 구동을 중단하고, 타이머를 초기화할 수 있다.The processor 150 may deactivate the second camera 120 if the first time identified after the second camera 120 is activated satisfies the second designated time (time condition). Since the first time identified after the second camera 120 is activated is a time accumulated from before activating the second camera 120, it may be a time exceeding at least the first threshold time. When the first time satisfies the second designated time, it may be that the external illuminance is outside the second illuminance range before the first time exceeds the second threshold time. The second threshold time may be set based on at least one of the optical characteristics of the first camera 110 and the optical characteristics of the second camera 120. For example, the second threshold time may be set to exceed the time required for the second camera 120 to stabilize after the second camera 120 is activated based on the optical characteristics of the second camera 120. have. For another example, the second threshold time may be set to be shorter as the difference between the F number value of the first camera 110 and the F number value of the second camera 120 increases. When deactivating the second camera 120, the processor 150 may stop driving the timer and initialize the timer.
프로세서(150)는 제 1 시간이 제 3 지정된 시간을 만족하면, 제 2 카메라(120)를 이용하여 이미지를 획득하고, 제 1 카메라(110)를 비활성화할 수 있다. 상기 제 1 시간이 제 3 지정된 시간을 만족한다는 것은, 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부의 조도가 제 2 조도 범위에 속하는 제 1 시간이 제 2 임계 시간을 초과하는 것일 수 있다. When the first time satisfies the third designated time, the processor 150 may acquire an image using the second camera 120 and deactivate the first camera 110. When the first time satisfies the third designated time, the first time that the external illuminance falls within the second illuminance range while acquiring an image using the first camera 110 exceeds the second threshold time. You can.
프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 제 2 카메라(120)를 이용하여 외부의 조도를 확인할 수 있다. 예를 들어, 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부의 조도가 제 1 조도 범위에 속하는지 아니면, 제 2 조도 범위에 속하는지를 확인할 수 있다. The processor 150 may check the external illuminance using the second camera 120 while acquiring an image using the second camera 120. For example, while acquiring an image using the second camera 120, the processor 150 may check whether the external illuminance falls within the first illuminance range or the second illuminance range.
프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에, 외부의 조도가 제 1 조도 범위에 속하는 것을 확인하면, 제 1 조도 범위에 속하는 제 2 시간(제 2 지속 시간)을 확인할 수 있다. 예를 들어, 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에, 외부의 조도가 제 1 조도 범위에 속하는 것을 확인하면, 타이머를 구동하여 제 2 시간에 대한 측정을 시작할 수 있다.While acquiring an image using the second camera 120, the processor 150 determines a second time (second duration) belonging to the first illuminance range when it is determined that the external illuminance falls within the first illuminance range. Can be confirmed. For example, while the processor 150 acquires an image using the second camera 120, if it determines that the external illuminance falls within the first illuminance range, it starts a timer to start measuring the second time. You can.
프로세서(150)는 제 2 시간이 제 4 지정된 시간을 만족하면, 제 1 카메라(110)를 활성화할 수 있다. 상기 제 2 시간이 제 4 지정된 시간을 만족한다는 것은, 제 2 시간이 제 3 임계 시간을 초과하는 것일 수 있다. 상기 제 3 임계 시간은 예를 들면, 제 2 카메라(120)의 광학 특성 또는 제 1 카메라(110)의 광학 특성 중 적어도 하나에 기초하여 결정될 수 있다.When the second time satisfies the fourth designated time, the processor 150 may activate the first camera 110. When the second time satisfies the fourth designated time, the second time may exceed the third threshold time. The third threshold time may be determined, for example, based on at least one of the optical characteristics of the second camera 120 or the optical characteristics of the first camera 110.
프로세서(150)는 제 1 카메라(110)를 활성화한 이후에 확인된 제 2 시간이 제 5 지정된 시간(시간 조건)을 만족하면, 제 1 카메라(110)를 비활성화할 수 있다. 상기 제 1 카메라(110)를 활성화한 이후에 확인된 제 2 시간은 제 1 카메라(110)를 활성화하기 이전부터 누적된 시간이므로, 적어도 제 3 임계 시간을 초과하는 시간일 수 있다. 상기 제 2 시간이 제 5 지정된 시간을 만족한다는 것은, 상기 제 2 시간이 제 4 임계 시간을 초과하기 전에 외부의 조도가 제 1 조도 범위를 벗어난 것일 수 있다. 상기 제 4 임계 시간은 제 1 카메라(110)의 광학 특성에 기초하여 설정될 수 있다. 예를 들어, 제 4 임계 시간은 제 1 카메라(110)의 특성에 기초하여 제 1 카메라(110)가 활성화된 이후에 제 1 카메라(110)가 안정화되는데 소요되는 시간을 초과하도록 설정될 수 있다. 다른 예를 들어, 제 4 임계 시간은 제 1 카메라(110)의 Fnumber 값과 제 2 카메라(120)의 Fnumber 값의 차이가 클수록 짧게 설정될 수 있다. 프로세서(150)는 제 1 카메라(110)를 비활성화할 때 타이머의 구동을 중단하고 타이머를 초기화(제 2 시간을 초기화)할 수 있다.The processor 150 may deactivate the first camera 110 if the second time identified after activating the first camera 110 satisfies the fifth designated time (time condition). Since the second time identified after activating the first camera 110 is a time accumulated from before activating the first camera 110, it may be a time exceeding at least the third threshold time. When the second time satisfies the fifth designated time, external illuminance may be outside the first illuminance range before the second time exceeds the fourth threshold time. The fourth threshold time may be set based on the optical characteristics of the first camera 110. For example, the fourth threshold time may be set to exceed a time required for the first camera 110 to stabilize after the first camera 110 is activated based on the characteristics of the first camera 110. . For another example, the fourth threshold time may be set shorter as the difference between the F number value of the first camera 110 and the F number value of the second camera 120 increases. When deactivating the first camera 110, the processor 150 may stop driving the timer and initialize the timer (initialize the second time).
프로세서(150)는 제 1 카메라(110)를 활성화한 이후에 확인된 제 2 시간이 제 6 지정된 시간을 만족하면, 제 1 카메라(110)를 이용하여 이미지를 획득하고, 제 2 카메라(120)를 비활성화할 수 있다. 상기 제 2 시간이 제 6 지정된 시간을 만족한다는 것은, 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부의 조도가 제 1 조도 범위에 속하는 제 2 시간이 제 4 임계 시간을 초과하는 것일 수 있다. 상기 제 4 임계 시간은 제 2 임계 시간 미만으로 설정될 수 있다.If the second time determined after activating the first camera 110 satisfies the sixth designated time, the processor 150 acquires an image using the first camera 110 and the second camera 120 Can be disabled. When the second time satisfies the sixth designated time, the second time that the external illuminance falls within the first illuminance range while acquiring an image using the second camera 120 exceeds the fourth threshold time. You can. The fourth threshold time may be set to less than the second threshold time.
일 실시예에 따르면, 프로세서(150)는 제 1 카메라(110) 또는 제 2 카메라(120)를 이용하여 획득된 이미지를 디스플레이(130)에 출력하는 도중에 촬영(capture) 요청이 확인되면, 획득된 이미지에 대응하는 카메라를 이용하여 이미지를 촬영하고, 촬영된 이미지를 메모리(140)에 저장할 수 있다.According to an embodiment, when the capture request is confirmed while the processor 150 outputs an image obtained using the first camera 110 or the second camera 120 to the display 130, the processor 150 An image may be taken using a camera corresponding to the image, and the captured image may be stored in the memory 140.
다양한 실시예에 따르면, 전자 장치(100)는 조도 센서(미도시)를 더 포함하고, 프로세서(150)는 조도 센서를 이용하여 외부의 조도를 감지할 수 있다. 다양한 실시 예에서, 전자 장치(100)의 복수의 위치에 각기 복수의 조도 센서들을 구비하고(예: 전자 장치(100)의 전면 및 후면에 각기 조도 센서가 구비된 경우), 프로세서(150)는 제 1 카메라(110)와 제 2 카메라(120) 중에서 이미지의 획득에 이용중인 카메라와 가까이 위치한 조도 센서를 이용하여 외부 조도를 감지할 수 있다. 다양한 실시 예에서, 전자 장치(100)는 프리뷰 모드로 진입하기 이전에, 조도 센서를 이용하여 외부의 조도를 감지하고, 외부의 조도에 따라 제 1 카메라(110)와 제 2 카메라(120) 중에서 프리뷰 모드에서 최초로 이용할 카메라를 결정하고, 프리뷰 모드에서 결정된 카메라를 활성화하여 결정된 카메라로부터 이미지를 획득할 수 있다.According to various embodiments, the electronic device 100 further includes an illuminance sensor (not shown), and the processor 150 can detect external illuminance using the illuminance sensor. In various embodiments, a plurality of illuminance sensors are provided at a plurality of positions of the electronic device 100 (for example, when the illuminance sensors are provided on the front and rear surfaces of the electronic device 100), and the processor 150 is Among the first camera 110 and the second camera 120, external illuminance may be detected using an illuminance sensor located close to the camera being used to acquire an image. In various embodiments, before entering the preview mode, the electronic device 100 detects the external illuminance using the illuminance sensor, and selects the external illuminance from the first camera 110 and the second camera 120 according to the external illuminance. The first camera to be used in the preview mode is determined, and the determined camera is activated in the preview mode to acquire an image from the determined camera.
상술한 실시예에 따르면, 프로세서(150)는 외부의 조도를 확인하고, 제 1 카메라(110)와 제 2 카메라(120) 중에서 현재 조도에서 더 화질이 우수한 카메라를 이용하여 이미지를 획득할 수 있어, 특히 화질이 저하되는 저조도 환경에서 이미지에 대한 사용자 만족도를 높일 수 있다. According to the above-described embodiment, the processor 150 may check the external illuminance, and acquire an image using a camera having higher image quality at the current illuminance among the first camera 110 and the second camera 120. In particular, it is possible to increase user satisfaction with images in a low-light environment in which image quality deteriorates.
또한, 상술한 실시예에 따르면, 프로세서(150)는 외부 조도 이외에, 제 1 카메라(110) 및 제 2 카메라(120)의 광학 특성 중 적어도 하나를 고려하여 실질적으로 화질이 개선될 수 있을 때, 이미지의 획득에 이용하는 카메라를 전환함에 따라 카메라 전환으로 인하여 실질적으로 화질 개선 효과를 얻을 수 있다.In addition, according to the above-described embodiment, when the processor 150, in addition to the external illuminance, considering at least one of the optical characteristics of the first camera 110 and the second camera 120, the image quality can be substantially improved, As the camera used for acquiring an image is switched, a quality improvement effect can be obtained substantially due to the camera switching.
일 실시예에 따르면, 전자 장치(예: 도 2의 전자 장치(100))는 제 1 카메라(예: 도 2의 제1 카메라(110)); 제 2 카메라(예: 도 2의 제2 카메라(120)); 및 프로세서(예: 도 2의 프로세서(150))를 포함하고, 상기 프로세서는, 상기 제 1 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 제 1 카메라를 이용하여 상기 전자 장치 외부의 조도가 지정된 조도 범위에 속하는 시간을 확인하고, 상기 시간이 제 1 지정된 시간을 만족하는 결정에 적어도 기반하여, 상기 제 2 카메라를 활성화하고, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 2 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 비활성화 하고, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 3 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 비활성화 하도록 설정될 수 있다. According to an embodiment, the electronic device (eg, the electronic device 100 of FIG. 2) includes a first camera (eg, the first camera 110 of FIG. 2); A second camera (eg, second camera 120 in FIG. 2); And a processor (eg, the processor 150 of FIG. 2), wherein the processor acquires an image using the first camera and acquires an image using the first camera, while the first camera Checking the time when the illuminance outside the electronic device falls within a specified illuminance range, and activating the second camera based on at least a determination that the time satisfies the first specified time, and activating the second camera If the time checked after the time satisfies the second designated time, the second camera is deactivated, and when the time checked after the second camera is activated satisfies the third designated time, the second time It may be set to acquire an image using a 2 camera and deactivate the first camera.
일 실시예에 따르면, 상기 외부의 조도가 상기 지정된 조도 범위에 속하는 상황에서, 상기 제 2 카메라를 이용하여 획득한 이미지의 화질이 상기 제 1 카메라를 이용하여 획득한 이미지의 화질보다 우수할 수 있다.According to an embodiment, in a situation in which the external illuminance falls within the specified illuminance range, the image quality of the image acquired using the second camera may be superior to that of the image acquired using the first camera. .
일 실시예에 따르면, 상기 전자 장치는 디스플레이(예: 디스플레이(130))를 더 포함하고, 상기 프로세서는, 상기 제 1 카메라 또는 상기 제 2 카메라를 획득한 이미지를 상기 디스플레이에 출력하도록 설정될 수 있다.According to an embodiment, the electronic device further includes a display (eg, the display 130), and the processor may be configured to output the image obtained by the first camera or the second camera to the display. have.
상기 지정된 조도 범위는, 지정된 조도 이하의 조도 범위 또는 상기 지정된 조도를 초과하는 조도 범위를 포함할 수 있다.The designated illuminance range may include an illuminance range below a specified illuminance or an illuminance range exceeding the specified illuminance.
상기 프로세서는, 상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 시간이 제 1 임계 시간을 초과하는 경우에, 상기 시간이 상기 제 1 지정된 시간을 만족하는 것으로 결정하도록 설정될 수 있다.The processor may be configured to determine that the time satisfies the first specified time when the time exceeds a first threshold time while acquiring an image using the first camera.
상기 프로세서는, 상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 시간이 제 2 임계 시간 이하인 상황에서, 상기 조도가 상기 지정된 조도 범위를 벗어나면, 상기 시간이 상기 제 2 지정된 시간을 만족하는 것으로 결정하도록 설정되고, 상기 제 2 임계 시간은, 상기 제 1 임계 시간을 초과하고, 상기 제 1 카메라 및 상기 제 2 카메라의 광학 특성에 기초하여 결정될 수 있다.The processor, while acquiring an image using the first camera, in a situation where the time is less than or equal to a second threshold time, if the illuminance is outside the specified illuminance range, the time satisfies the second specified time And the second threshold time exceeds the first threshold time and may be determined based on optical characteristics of the first camera and the second camera.
상기 프로세서는, 상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 시간이 제 2 임계 시간을 초과하면, 상기 시간이 상기 제 3 지정된 시간을 만족하는 것으로 결정하도록 설정되고, 상기 제 2 임계 시간은, 상기 제 1 임계 시간을 초과하고, 상기 제 1 카메라 및 상기 제 2 카메라의 광학 특성에 기초하여 결정될 수 있다.The processor is set to determine that the time satisfies the third specified time if the time exceeds a second threshold time while acquiring an image using the first camera, and the second threshold time May exceed the first threshold time and be determined based on optical characteristics of the first camera and the second camera.
상기 제 2 임계 시간은, 상기 제 2 카메라가 활성화된 후 안정화되는데 소요되는 시간 이상으로 설정될 수 있다.The second threshold time may be set to more than the time required for stabilization after the second camera is activated.
상기 제 2 임계 시간은, 상기 제 1 카메라의 Fnumber 값과 제 2 카메라의 Fnumber 값 간의 차이가 클수록 짧게 설정될 수 있다.The second threshold time, wherein the larger the difference between the first camera and the second camera of the F number value of the F number value may be set shorter.
상기 프로세서는, 상기 제 2 카메라를 이용하여 이미지를 획득하는 동안에, 상기 제 2 카메라를 이용하여 상기 외부의 조도가 상기 지정된 조도 범위를 벗어나는 다른 시간을 확인하고, 상기 다른 시간이 제 4 지정된 시간을 만족하는 결정에 적어도 기반하여 상기 제 1 카메라를 활성화할 수 있다. 프로세서는 상기 제 1 카메라가 활성화된 이후에 확인된 상기 다른 시간이 제 5 지정된 시간을 만족하는 경우, 상기 제 1 카메라를 비활성화 하고, 상기 제 1 카메라가 활성화된 이후에 확인된 상기 다른 시간이 제 6 지정된 시간을 만족하는 경우, 상기 제 1 카메라를 이용하여 이미지를 획득하고, 상기 제 2 카메라를 비활성화 하도록 설정될 수 있다.The processor, while acquiring an image using the second camera, uses the second camera to identify another time when the external illuminance is out of the specified illuminance range, and the other time to determine a fourth specified time. The first camera may be activated based at least on a satisfied decision. The processor deactivates the first camera when the other time identified after the first camera is activated satisfies the fifth designated time, and the other time checked after the first camera is activated is removed. 6 If a specified time is satisfied, an image may be acquired using the first camera, and the second camera may be deactivated.
일 실시예에 따르면, 전자 장치(예: 도 2의 100)는 하우징(예: 도 1의 h100); 디스플레이(예: 도 1의 130); 상기 하우징의 제 1 면(예: 도 1의 제 1 면(102))에 배치되는 제 1 카메라(예: 도 1의 제1 카메라(110)); 상기 제1 카메라와 지정된 간격 이격 되도록 상기 하우징의 제 1 면에 배치되고, 지정된 조도 범위에서 상기 제 1 카메라보다 화질이 우수한 제 2 카메라(예: 도 1의 제2 카메라(120)); 및 상기 디스플레이, 상기 제 1 카메라 및 상기 제 2 카메라와 기능적으로 연결된 프로세서(예: 도 2의 프로세서(150))를 포함할 수 있다. 상기 프로세서는, 상기 제 1 카메라를 이용하여 획득한 이미지를 상기 디스플레이에 출력하고, 상기 제 1 카메라를 이용하여 획득한 이미지를 상기 디스플레이에 출력하는 동안에, 상기 제 1 카메라를 이용하여 상기 전자 장치 외부의 조도를 확인하고, 상기 외부의 조도가 상기 지정된 조도 범위에 속하면, 상기 제 2 카메라를 활성화하고, 상기 제 2 카메라를 이용하여 획득한 이미지를 상기 디스플레이에 출력하고, 상기 제 1 카메라를 비활성화하도록 설정될 수 있다.According to an embodiment, the electronic device (eg, 100 in FIG. 2) includes a housing (eg, h100 in FIG. 1); A display (eg, 130 in FIG. 1); A first camera (eg, the first camera 110 of FIG. 1) disposed on a first surface of the housing (eg, the first surface 102 of FIG. 1); A second camera disposed on a first surface of the housing to be spaced apart from the first camera at a specified distance, and having a higher image quality than the first camera in a designated illumination range (eg, the second camera 120 of FIG. 1); And a processor (eg, the processor 150 of FIG. 2) functionally connected to the display, the first camera, and the second camera. The processor outputs an image acquired using the first camera to the display, and outputs an image acquired using the first camera to the display, while using the first camera to externally use the electronic device. Checking the illuminance of, and when the external illuminance falls within the specified illuminance range, activates the second camera, outputs an image acquired using the second camera to the display, and deactivates the first camera Can be set.
상기 프로세서는, 상기 제 2 카메라를 활성화하는 동작에서, 상기 외부의 조도가 상기 지정된 조도 범위에 속하면, 상기 외부의 조도가 상기 지정된 조도 범위에 속하는 제 1 지속 시간을 확인하고, 상기 제 1 지속 시간이 제 1 임계 시간을 초과하면, 상기 제 2 카메라를 활성화하도록 설정될 수 있다.The processor, in an operation of activating the second camera, when the external illuminance falls within the specified illuminance range, the external illuminance confirms a first duration within the specified illuminance range, and the first duration If the time exceeds the first threshold time, it can be set to activate the second camera.
상기 프로세서는, 상기 제 1 카메라를 비활성화하는 동작에서, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 제 1 지속 시간이 제 2 임계 시간을 초과하면, 상기 제 2 카메라를 비활성화하도록 설정되고, 상기 제 2 임계 시간은, 상기 제 1 임계 시간을 초과하고, 상기 제 1 카메라 및 상기 제 2 카메라의 광학 특성에 적어도 기반하여 결정될 수 있다.In the operation of deactivating the first camera, the processor is configured to deactivate the second camera when the first duration determined after the second camera is activated exceeds a second threshold time, and the processor is deactivated. The second threshold time may exceed the first threshold time and be determined based at least on the optical characteristics of the first camera and the second camera.
상기 프로세서는, 상기 제 1 지속 시간이 상기 제 1 임계 시간 초과하고 상기 제 2 임계 시간 이하인 상황에서, 상기 조도가 상기 지정된 조도 범위를 벗어나면, 상기 제 2 카메라를 비활성화하도록 설정될 수 있다.The processor may be configured to deactivate the second camera when the illuminance is outside the specified illuminance range in a situation in which the first duration exceeds the first threshold time and is less than or equal to the second threshold time.
상기 외부의 조도가 상기 지정된 조도 범위를 벗어난 상황에서, 상기 제 1 카메라의 화질은, 상기 제 2 카메라의 화질보다 우수하고, 상기 프로세서는, 상기 제 2 카메라를 이용하여 획득한 이미지를 상기 디스플레이에 출력하는 동안에, 상기 제 2 카메라를 이용하여 상기 외부의 조도를 확인하고, 상기 외부의 조도가 상기 지정된 조도 범위를 벗어나면, 상기 제 1 카메라를 활성화하고, 상기 제 1 카메라를 이용하여 획득한 이미지를 상기 디스플레이에 출력하고, 상기 제 2 카메라를 비활성화하도록 설정될 수 있다.In a situation in which the external illuminance is outside the specified illuminance range, the image quality of the first camera is superior to that of the second camera, and the processor is configured to display an image acquired using the second camera on the display. During output, the external camera is used to check the external illuminance, and if the external illuminance is outside the specified illuminance range, the first camera is activated, and an image acquired using the first camera It can be set to output to the display, and to deactivate the second camera.
상기 프로세서는, 상기 제 1 카메라를 활성화하는 동작에서, 상기 외부의 조도가 상기 지정된 조도 범위를 벗어나면, 상기 외부의 조도가 상기 지정된 조도 범위를 벗어난 제 2 지속 시간을 확인하고, 상기 제 2 지속 시간이 제 3 임계 시간을 초과하면, 상기 제 1 카메라를 활성화하도록 설정될 수 있다.The processor, in an operation of activating the first camera, if the external illuminance is outside the specified illuminance range, the external illuminance confirms a second duration outside the specified illuminance range, and the second duration If the time exceeds the third threshold time, it can be set to activate the first camera.
일 실시예에 따르면, 전자 장치(예: 도 2의 100)는, 전자 장치 외부의 조도를 감지할 수 있는 센서 모듈(예: 도 10의 센서 모듈(1076)); 제1 카메라(예: 도 2의 제 1 카메라(110)); 제 2 카메라(예: 도 2의 제 2 카메라(120)); 및 프로세서(예: 도 2의 프로세서(150))를 포함하고, 상기 프로세서는, 상기 제 1 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 센서 모듈을 이용하여 상기 전자 장치 외부의 조도가 지정된 조도 범위에 속하는 시간을 확인하고, 상기 시간이 제 1 지정된 시간을 만족하는 결정에 적어도 기반하여, 상기 제 2 카메라를 활성화하고, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 2 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 비활성화 하고, 상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 3 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 비활성화 하도록 설정될 수 있다.According to an embodiment, the electronic device (eg, 100 in FIG. 2) includes: a sensor module (eg, a sensor module 1076 in FIG. 10) that can detect the illuminance outside the electronic device; A first camera (eg, first camera 110 in FIG. 2); A second camera (eg, second camera 120 in FIG. 2); And a processor (eg, the processor 150 of FIG. 2), wherein the processor acquires an image using the first camera and acquires an image using the first camera while the sensor module is acquired. Use to check the time that the illumination outside the electronic device falls within a specified illumination range, activate the second camera based on at least a determination that the time satisfies the first specified time, and activate the second camera If the time identified thereafter satisfies the second designated time, deactivate the second camera, and if the time checked after the second camera is activated satisfies the third designated time, the second It may be set to acquire an image using a camera and deactivate the first camera.
상기 센서 모듈은, 복수의 조도 센서들을 포함하고, 상기 프로세서는, 상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에 상기 복수의 조도 센서들 중에서 상기 제 1 카메라에 상대적으로 근접한 조도 센서를 이용하여 상기 외부의 조도를 감지하도록 설정될 수 있다.The sensor module includes a plurality of illuminance sensors, and the processor uses the illuminance sensor relatively close to the first camera among the plurality of illuminance sensors while acquiring an image using the first camera. It can be set to detect external illuminance.
상기 지정된 조도 범위는, 지정된 조도 이하의 조도 범위 또는 상기 지정된 조도를 초과하는 조도 범위를 포함할 수 있다.The designated illuminance range may include an illuminance range below a specified illuminance or an illuminance range exceeding the specified illuminance.
도 3은 일 실시예에 따른 동일한 화소(16개 화소)를 갖는 일반 이미지 센서와 테트라셀 이미지 센서의 구조를 비교한 도면이다.3 is a diagram comparing the structure of a general image sensor having a same pixel (16 pixels) and a tetracell image sensor according to an embodiment.
도 3을 참조하면, 일반 이미지 센서(310)는 한 화소 당 하나의 칼라 필터가 적용되는 이미지 센서인데 반해, 테트라셀 이미지 센서(320)는 4개의 화소들 당 하나의 칼라 필터가 적용되는 이미지 센서일 수 있다. 테트라셀 이미지 센서(320)에서는 4개의 화소들이 하나의 색정보 획득에 이용되므로, 테트라셀 이미지 센서(320)를 이용하는 경우, 프로세서(150)는 각 화소의 크기가 4개의 화소에 대응하는 일반 이미지 센서와 동일 또는 유사한 화질의 이미지를 획득할 수 있다. 이미지 센서는 화소 크기가 클수록 외부로부터 받아들이는 광량이 증가하는 특성이 있으므로, 테트라셀 이미지 센서(320)는 적어도 동일한 화소 크기를 갖는 일반 이미지 센서(310)에 비해서 저조도에서 화질이 우수할 수 있다. Referring to FIG. 3, the general image sensor 310 is an image sensor to which one color filter is applied per pixel, whereas the tetracell image sensor 320 is an image sensor to which one color filter is applied per 4 pixels Can be In the tetracell image sensor 320, since four pixels are used to acquire one color information, when using the tetracell image sensor 320, the processor 150 displays a general image in which the size of each pixel corresponds to four pixels An image of the same or similar quality as the sensor can be obtained. Since the image sensor has a characteristic that the amount of light received from the outside increases as the pixel size increases, the tetracell image sensor 320 may have better image quality at low light than the general image sensor 310 having at least the same pixel size.
도 4는 일 실시예에 따른 카메라 전환 방법의 개략 흐름도를 나타낸다.4 is a schematic flowchart of a camera switching method according to an embodiment.
도 4를 참조하면, 동작 410에서, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부의 조도가 제 2 조도 범위에 속하는 시간(상술된 '제 1 시간'에 대응됨)을 확인할 수 있다. 상기 제 2 조도 범위는 예를 들면, 임계 조도 이하의 조도 범위를 포함할 수 있다. 상기 임계 조도는 저조도의 기준이 되는 조도로서, 예컨대, 약 50lux 일 수 있다. 예를 들어, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부의 조도가 제 2 조도 범위에 속하면, 타이머를 구동하여 외부의 조도가 제 2 조도 범위에 속하는 시간을 측정할 수 잇다.Referring to FIG. 4, in operation 410, while the processor 150 acquires an image using the first camera 110, the external illumination corresponds to a second illumination range (corresponding to the 'first time' described above) Can be checked). The second illuminance range may include, for example, an illuminance range below a critical illuminance. The critical illuminance is a roughness that is a reference for low illuminance, and may be, for example, about 50 lux. For example, if the external illuminance falls within the second illuminance range while acquiring an image using the first camera 110, the processor 150 drives the timer to time the external illuminance falls into the second illuminance range Can measure
동작 420에서, 프로세서(150)는 확인된 시간이 제 1 지정된 시간을 만족하는 결정에 적어도 기반하여 제 2 카메라(120)를 활성화할 수 있다. 예를 들어, 프로세서(150)는 확인된 시간이 제 1 임계 시간을 초과하면, 제 2 카메라(120)를 활성화할 수 있다.In operation 420, the processor 150 may activate the second camera 120 based at least on the determination that the identified time satisfies the first specified time. For example, when the identified time exceeds the first threshold time, the processor 150 may activate the second camera 120.
동작 430에서, 프로세서(150)는 제 2 카메라(120)를 활성화한 이후에 확인된 시간이 제 2 지정된 시간을 만족하면, 제 2 카메라(120)를 비활성화할 수 있다. 상기 제 2 카메라(120)를 활성화한 이후 확인된 시간은 제 2 카메라(120)를 활성화하기 이전부터 누적된 시간으로서 적어도 제 1 임계 시간을 초과할 수 있다. 프로세서(150)는 제 2 카메라(120)를 비활성화한 후 타이머를 초기화할 수 있다.In operation 430, the processor 150 may deactivate the second camera 120 if the identified time after activating the second camera 120 satisfies the second designated time. The time identified after activating the second camera 120 is an accumulated time from before activating the second camera 120 and may exceed at least the first threshold time. The processor 150 may initialize the timer after deactivating the second camera 120.
동작 440에서, 프로세서(150)는 제 2 카메라(120)를 활성화한 이후에 확인된 시간이 제 2 지정된 시간을 만족하면, 제 2 카메라(120)를 이용하여 이미지를 획득하고 제 1 카메라(110)를 비활성화할 수 있다. 프로세서(150)는 제 1 카메라(110)를 비활성화한 후 타이머를 초기화할 수 있다.In operation 440, if the time determined after activating the second camera 120 satisfies the second designated time, the processor 150 acquires an image using the second camera 120 and first camera 110 ) Can be disabled. The processor 150 may initialize the timer after deactivating the first camera 110.
도 5는 일 실시예에 따른 카메라 전환 방법의 세부 흐름도이다.5 is a detailed flowchart of a camera switching method according to an embodiment.
도 5를 참조하면, 동작 505에서, 프로세서(150)(예: 도 2의 프로세서(150)는 제 1 카메라(110)(예: 도 1의 제 1 카메라(110))를 이용하여 이미지를 획득하면서, 제 1 카메라(110)를 이용하여 전자 장치(100) 외부의 조도를 확인할 수 있다. 프로세서(150)는 제 1 카메라(110)를 이용하여 획득한 이미지를 디스플레이(130)에 출력하거나 또는 메모리(140)에 저장할 수 있다.Referring to FIG. 5, in operation 505, the processor 150 (eg, the processor 150 of FIG. 2) acquires an image using the first camera 110 (eg, the first camera 110 of FIG. 1). While, it is possible to check the illuminance outside the electronic device 100 using the first camera 110. The processor 150 outputs the image obtained using the first camera 110 to the display 130, or It can be stored in the memory 140.
동작 510에서, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안 확인된 외부의 조도가 임계 조도(예: 약 50 lux) 이하인지를 확인할 수 있다.In operation 510, the processor 150 may check whether the external illuminance identified while acquiring an image using the first camera 110 is less than or equal to a critical illuminance (eg, about 50 lux).
동작 515에서, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안 확인된 외부의 조도가 임계 조도 이하이면, 타이머를 구동하여 외부 조도가 임계 조도 이하로 지속되는 시간을 측정할 수 있다.In operation 515, if the external illuminance identified while acquiring an image using the first camera 110 is less than or equal to the critical illuminance, in operation 515, the timer 150 measures a time when the external illuminance lasts below the critical illuminance. can do.
동작 520에서, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안 타이머를 이용하여 외부 조도가 임계 조도 이하로 지속되는 시간이 제 1 임계 시간을 초과하는지를 확인할 수 있다. In operation 520, the processor 150 may determine whether the time that the external illuminance lasts below the threshold illuminance exceeds the first threshold time using a timer while acquiring an image using the first camera 110.
동작 525에서, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안 외부 조도가 임계 조도 이하로 지속되는 시간이 제 1 임계 시간을 초과하면, 제 2 카메라(120)(예: 도 1의 제 2 카메라(10))를 활성화할 수 있다.In operation 525, the processor 150 may acquire the image using the first camera 110, and if the time during which the external illuminance persists below the threshold illuminance exceeds the first threshold time, the second camera 120 (eg, : The second camera 10 of FIG. 1 may be activated.
동작 530에서, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안 외부 조도가 임계 조도 이하로 지속되는 시간이 제 2 임계 시간을 초과하는지를 확인할 수 있다. In operation 530, the processor 150 may determine whether a time during which the external illuminance lasts below the threshold illuminance exceeds the second threshold time while acquiring an image using the first camera 110.
동작 535에서, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안 외부 조도가 임계 조도 이하로 지속되는 시간이 제 2 임계 시간을 초과하면, 제 2 카메라(120)를 이용하여 이미지를 획득하고, 제 1 카메라(110)를 비활성화할 수 있다. 동작 535에서, 프로세서(150)는 타이머 구동을 중단하고, 타이머를 초기화할 수 있다.In operation 535, the processor 150 uses the second camera 120 if the time during which the external illuminance continues to be below the critical illuminance while acquiring an image using the first camera 110 exceeds the second threshold time To obtain an image and deactivate the first camera 110. In operation 535, the processor 150 may stop driving the timer and initialize the timer.
동작 540에서, 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안 타이머를 이용하여 측정한 외부 조도가 임계 조도 이하로 지속되는 시간이 제 1 임계 시간 이하일 경우에는 외부 조도가 임계 조도 이하인지 여부를 모니터링할 수 있다.In operation 540, when the external illumination measured using the timer while acquiring an image using the first camera 110 is less than or equal to the critical illuminance while the image is acquired using the first camera 110, the processor 150 may externally illuminate It is possible to monitor whether or not the critical illuminance is below.
동작 540에서, 외부 조도가 임계 조도 이하로 유지되면, 프로세서(150)는 동작 520을 수행할 수 있다.In operation 540, if the external illuminance is maintained below the critical illuminance, the processor 150 may perform operation 520.
동작 540에서, 외부 조도가 임계 조도를 초과하면, 프로세서(150)는 동작 545에서, 타이머의 구동을 중단하고, 타이머를 초기화할 수 있다.In operation 540, if the external illuminance exceeds the threshold illuminance, the processor 150 may stop driving the timer and initialize the timer in operation 545.
동작 530에서, 외부 조도가 임계 조도 이하로 유지되는 시간이 제 1 임계 시간 초과하나, 제 2 임계 시간 이하인 상황에서, 프로세서(150)는 동작 555에서, 외부 조도가 임계 조도 이하인지 여부를 모니터링할 수 있다.In operation 530, in a situation in which the time during which the external illuminance remains below the critical illuminance exceeds the first threshold time but is less than the second threshold time, the processor 150 monitors whether the external illuminance is below the critical illuminance in operation 555. You can.
동작 555에서, 외부 조도가 임계 조도를 초과함을 확인하면, 프로세서(150)는 제 2 카메라(120)를 비활성화할 수 있다. 동작 555에서, 프로세서(150)는 타이머의 구동을 중단하고, 타이머를 초기화할 수 있다.In operation 555, when it is determined that the external illuminance exceeds the threshold illuminance, the processor 150 may deactivate the second camera 120. In operation 555, the processor 150 may stop driving the timer and initialize the timer.
이하, 도 6 내지 9는 일 실시예에 따른 외부의 조도 변화에 따른 제 1 카메라와 제 2 카메라 간의 전환 방법에 대하여 설명한다.Hereinafter, a method of switching between a first camera and a second camera according to an external illumination change according to an embodiment will be described with reference to FIGS. 6 to 9.
도 6은 일 실시 예에 따른 제 1 카메라(예: 도 2의 제 1 카메라(110))에서 제 2 카메라(예: 도 2의 제 2 카메라(120))로 전환되었다가 다시 제 1 카메라로 전환되는 경우의 일 예이다.6 is converted from the first camera (eg, the first camera 110 of FIG. 2) to the second camera (eg, the second camera 120 of FIG. 2) according to an embodiment, and then back to the first camera This is an example of conversion.
도 6을 참조하면, 프로세서(150)(예: 도 2의 프로세서(150))는 사용자 입력에 따라 프리뷰 모드로 진입하면, 제 1 카메라(110)를 활성화하고 제 1 카메라(110)를 이용하여 이미지(예: 프리뷰 이미지 또는 촬영 이미지)를 획득하면서 제 1 카메라(110)를 이용하여 외부 조도를 감지할 수 있다. 프리뷰 모드로 진입한 때 프로세서(150)는 제 2 카메라(120)를 비활성화하지 않아, 제 2 카메라(120)는 비활성화된 상태일 수 있다.Referring to FIG. 6, when the processor 150 (eg, the processor 150 of FIG. 2) enters the preview mode according to a user input, the first camera 110 is activated and the first camera 110 is used. While acquiring an image (eg, a preview image or a captured image), the external illuminance may be detected using the first camera 110. When entering the preview mode, the processor 150 does not deactivate the second camera 120, so the second camera 120 may be in a deactivated state.
프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 속하는 범위가 제 1 조도 범위에서 제 2 조도 범위로 변화하면, 외부 조도가 제 1 조도 범위에 속하는 시간을 측정할 수 있다. 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 2 조도 범위에 속하는 시간이 제 1 임계 시간(T1)을 초과하면, 제 2 카메라(120)를 활성화(ON)할 수 있다. 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 2 조도 범위에 속하는 시간이 제 2 임계 시간(T2)를 초과하면, 제 2 카메라(120)를 이용하여 이미지를 획득하고, 제 1 카메라(110)를 비활성화(OFF)할 수 있다.The processor 150 measures a time when the external illuminance belongs to the first illuminance range when the range to which the external illuminance belongs varies from the first illuminance range to the second illuminance range while acquiring an image using the first camera 110. can do. The processor 150 activates the second camera 120 when the time when the external illuminance falls within the second illuminance range exceeds the first threshold time T 1 while acquiring an image using the first camera 110. (ON). The processor 150 uses the second camera 120 when the time when the external illuminance belongs to the second illuminance range exceeds the second threshold time T 2 while acquiring the image using the first camera 110. To obtain an image and deactivate (OFF) the first camera 110.
프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 제 2 카메라(120)를 이용하여 외부 조도를 감지할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 속하는 범위가 제 2 조도 범위에서 제 1 조도 범위로 변화하는 것을 확인할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 1 조도 범위에 속하면, 제 1 조도 범위에 속하는 시간을 측정할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 1 조도 범위에 속하는 시간이 제 3 임계 시간(T3)을 초과하면, 제 1 카메라(110)를 활성화할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 1 조도 범위에 속하는 시간이 제 4 임계 시간(T4)을 초과하면, 제 1 카메라(110)를 이용하여 이미지를 획득하고 제 2 카메라(120)를 비활성화(OFF)할 수 있다.The processor 150 may detect external illuminance using the second camera 120 while acquiring an image using the second camera 120. While acquiring an image using the second camera 120, the processor 150 may confirm that the range to which the external illuminance belongs changes from the second illuminance range to the first illuminance range. The processor 150 may measure a time belonging to the first illuminance range when the external illuminance falls within the first illuminance range while acquiring an image using the second camera 120. The processor 150 activates the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the third threshold time T 3 while acquiring an image using the second camera 120. can do. The processor 150 uses the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the fourth threshold time T 4 while acquiring an image using the second camera 120. To obtain an image and deactivate (OFF) the second camera 120.
도 7은 일 실시 예에 따른 제 1 카메라에서 제 2 카메라로 전환되었다가 다시 제 1 카메라로 전환되는 경우의 다른 예이다.7 is another example of switching from the first camera to the second camera and then switching to the first camera according to an embodiment.
도 7을 참조하면, 프로세서(150)(예: 도 2의 프로세서(150))는 사용자 입력에 따라 프리뷰 모드로 진입하면, 제 1 카메라(110)를 활성화하고 제 1 카메라(110)를 이용하여 이미지(예: 프리뷰 이미지 또는 촬영 이미지)를 획득하면서 제 1 카메라(110)를 이용하여 외부 조도를 감지할 수 있다. 프리뷰 모드로 진입한 때 프로세서(150)는 제 2 카메라(120)를 비활성화하지 않아, 제 2 카메라(120)는 비활성화된 상태일 수 있다.Referring to FIG. 7, when the processor 150 (eg, the processor 150 of FIG. 2) enters the preview mode according to a user input, the first camera 110 is activated and the first camera 110 is used While acquiring an image (eg, a preview image or a captured image), the external illuminance may be detected using the first camera 110. When entering the preview mode, the processor 150 does not deactivate the second camera 120, so the second camera 120 may be in a deactivated state.
프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 속하는 범위가 제 2 조도 범위임을 확인하면, 외부 조도가 제 1 조도 범위에 속하는 시간을 측정할 수 있다. 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 2 조도 범위에 속하는 시간이 제 1 임계 시간(T1)을 초과하면, 제 2 카메라(120)를 활성화(ON)할 수 있다. 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 2 조도 범위에 속하는 시간이 제 2 임계 시간(T2)를 초과하면, 제 2 카메라(120)를 이용하여 이미지를 획득하고, 제 1 카메라(110)를 비활성화(OFF)할 수 있다.While acquiring an image using the first camera 110, the processor 150 may measure a time when the external illuminance belongs to the first illuminance range while determining that the external illuminance range is the second illuminance range. The processor 150 activates the second camera 120 when the time when the external illuminance falls within the second illuminance range exceeds the first threshold time T 1 while acquiring an image using the first camera 110. (ON). The processor 150 uses the second camera 120 when the time when the external illuminance belongs to the second illuminance range exceeds the second threshold time T 2 while acquiring the image using the first camera 110. To obtain an image and deactivate (OFF) the first camera 110.
프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 제 2 카메라(120)를 이용하여 외부 조도를 감지할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 속하는 범위가 제 2 조도 범위에서 제 1 조도 범위로 변화하는 것을 확인할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 1 조도 범위에 속하면, 제 1 조도 범위에 속하는 시간을 측정할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 1 조도 범위에 속하는 시간이 제 3 임계 시간(T3)을 초과하면, 제 1 카메라(110)를 활성화할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 1 조도 범위에 속하는 시간이 제 4 임계 시간(T4)을 초과하면, 제 1 카메라(110)를 이용하여 이미지를 획득하고 제 2 카메라(120)를 비활성화(OFF)할 수 있다.The processor 150 may detect external illuminance using the second camera 120 while acquiring an image using the second camera 120. While acquiring an image using the second camera 120, the processor 150 may confirm that the range to which the external illuminance belongs changes from the second illuminance range to the first illuminance range. The processor 150 may measure a time belonging to the first illuminance range when the external illuminance falls within the first illuminance range while acquiring an image using the second camera 120. The processor 150 activates the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the third threshold time T 3 while acquiring an image using the second camera 120. can do. The processor 150 uses the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the fourth threshold time T 4 while acquiring an image using the second camera 120. To obtain an image and deactivate (OFF) the second camera 120.
도 8은 일 실시 예에 따른 외부 조도 변화에도 제 1 카메라를 이용하는 경우의 예이다.8 is an example of a case in which a first camera is used even in a change in external illuminance according to an embodiment.
도 8을 참조하면, 프로세서(150)(예: 도 2의 프로세서(150))는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 속하는 범위가 제 1 조도 범위에서 제 2 조도 범위로 변화함을 확인할 수 있다. 외부 조도가 속하는 범위가 제 1 조도 범위에서 제 2 조도 범위로 변화하면, 프로세서(150)는 외부 조도가 제 2 조도 범위에 속하는 시간을 측정할 수 있다. 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 2 조도 범위에 속하는 시간이 제 1 임계 시간(T1)을 초과하면, 제 2 카메라(120)를 활성화할 수 있다. 프로세서(150)는 제 1 카메라(110)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 2 조도 범위에 속하는 시간이 제 1 임계 시간(T1) 초과이고 제 2 임계 시간(T2) 이하인 상황에서 외부 조도가 제 1 조도 범위로 변화함을 확인할 수 있다. 이 경우, 프로세서(150)는 제 2 카메라(120)를 다시 비활성화하고 제 1 카메라(110)를 이용하여 이미지를 획득할 수 있다.Referring to FIG. 8, while the processor 150 (eg, the processor 150 of FIG. 2) acquires an image using the first camera 110, a range in which the external illuminance belongs belongs to the second illuminance in the first illuminance range It can be seen that the range changes. When the range to which the external illuminance belongs changes from the first illuminance range to the second illuminance range, the processor 150 may measure the time that the external illuminance belongs to the second illuminance range. The processor 150 activates the second camera 120 when the time when the external illuminance falls within the second illuminance range exceeds the first threshold time T 1 while acquiring an image using the first camera 110. can do. While the processor 150 acquires an image using the first camera 110, a time when the external illuminance falls within the second illuminance range is greater than the first threshold time T 1 and less than or equal to the second threshold time T 2 From it can be seen that the external illuminance changes to the first illuminance range. In this case, the processor 150 may deactivate the second camera 120 again and acquire an image using the first camera 110.
도 9는 일 실시 예에 따른 외부 조도 변화에도 제 2 카메라를 이용하는 경우의 예이다.9 is an example of a case in which a second camera is used even in a change in external illuminance according to an embodiment.
도 9를 참조하면, 프로세서(150)(예: 도 2의 프로세서(150))는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 속하는 범위가 제 2 조도 범위에서 제 1 조도 범위로 변화함을 확인할 수 있다. 외부 조도가 속하는 범위가 제 2 조도 범위에서 제 1 조도 범위로 변화하면, 프로세서(150)는 외부 조도가 제 1 조도 범위에 속하는 시간을 측정할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 1 조도 범위에 속하는 시간이 제 3 임계 시간(T3)을 초과하면, 제 1 카메라(110)를 활성화할 수 있다. 프로세서(150)는 제 2 카메라(120)를 이용하여 이미지를 획득하는 동안에 외부 조도가 제 1 조도 범위에 속하는 시간이 제 3 임계 시간(T3) 초과이고 제 4 임계 시간(T4) 이하인 상황에서 외부 조도가 제 2 조도 범위로 다시 변화함을 확인할 수 있다. 이 경우, 프로세서(150)는 제 1 카메라(110)를 다시 비활성화하고 제 2 카메라(120)를 이용하여 이미지를 획득할 수 있다.Referring to FIG. 9, the processor 150 (eg, the processor 150 of FIG. 2) has a range in which the external illuminance belongs to the first illuminance in the second illuminance range while acquiring an image using the second camera 120. It can be seen that the range changes. When the range to which the external illuminance belongs changes from the second illuminance range to the first illuminance range, the processor 150 may measure the time that the external illuminance belongs to the first illuminance range. The processor 150 activates the first camera 110 when the time when the external illuminance falls within the first illuminance range exceeds the third threshold time T 3 while acquiring an image using the second camera 120. can do. While the processor 150 acquires an image using the second camera 120, a time when the external illuminance falls within the first illuminance range is greater than or equal to the third threshold time T 3 and less than or equal to the fourth threshold time T 4 It can be seen that the external illuminance changes back to the second illuminance range. In this case, the processor 150 may deactivate the first camera 110 again and acquire an image using the second camera 120.
도 10은, 다양한 실시예들에 따른, 네트워크 환경(1000) 내의 전자 장치(1001)(예: 도 2의 전자 장치(100))의 블럭도이다. 도 10을 참조하면, 네트워크 환경(1000)에서 전자 장치(1001)는 제 1 네트워크(1098)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1002)와 통신하거나, 또는 제 2 네트워크(1099)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1004) 또는 서버(1008)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1001)는 서버(1008)를 통하여 전자 장치(1004)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1001)는 프로세서(1020)(예: 도 2의 프로세서(150)), 메모리(1030)(예: 도 2의 메모리(140)), 입력 장치(1050), 음향 출력 장치(1055), 표시 장치(1060)(예: 도 2의 디스플레이(130)), 오디오 모듈(1070), 센서 모듈(1076), 인터페이스(1077), 햅틱 모듈(1079), 카메라 모듈(1080)(예: 도 2의 제 1 카메라(110) 및 제 2 카메라(120)), 전력 관리 모듈(1088), 배터리(1089), 통신 모듈(1090), 가입자 식별 모듈(1096), 또는 안테나 모듈(1097)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1001)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(1060) 또는 카메라 모듈(1080))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(1076)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(1060)(예: 디스플레이)에 임베디드된 채 구현될 수 있다10 is a block diagram of an electronic device 1001 (eg, the electronic device 100 of FIG. 2) in a network environment 1000 according to various embodiments. Referring to FIG. 10, in the network environment 1000, the electronic device 1001 communicates with the electronic device 1002 through a first network 1098 (eg, a short-range wireless communication network), or a second network 1099. An electronic device 1004 or a server 1008 may be communicated through (eg, a remote wireless communication network). According to an embodiment, the electronic device 1001 may communicate with the electronic device 1004 through the server 1008. According to one embodiment, the electronic device 1001 includes a processor 1020 (eg, the processor 150 of FIG. 2), a memory 1030 (eg, the memory 140 of FIG. 2), an input device 1050, Audio output device 1055, display device 1060 (e.g., display 130 in FIG. 2), audio module 1070, sensor module 1076, interface 1077, haptic module 1079, camera module ( 1080) (e.g., first camera 110 and second camera 120 in FIG. 2), power management module 1088, battery 1089, communication module 1090, subscriber identification module 1096, or antenna It may include a module 1097. In some embodiments, at least one of the components (for example, the display device 1060 or the camera module 1080) may be omitted or one or more other components may be added to the electronic device 1001. In some embodiments, some of these components may be implemented as one integrated circuit. For example, the sensor module 1076 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while embedded in the display device 1060 (eg, a display).
프로세서(1020)는, 예를 들면, 소프트웨어(예: 프로그램(1040))를 실행하여 프로세서(1020)에 연결된 전자 장치(1001)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1020)는 다른 구성요소(예: 센서 모듈(1076) 또는 통신 모듈(1090))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1032)에 로드하고, 휘발성 메모리(1032)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1034)에 저장할 수 있다. 일실시예에 따르면, 프로세서(1020)는 메인 프로세서(1021)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1023)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(1023)은 메인 프로세서(1021)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1023)는 메인 프로세서(1021)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 1020, for example, executes software (eg, the program 1040) to execute at least one other component (eg, hardware or software component) of the electronic device 1001 connected to the processor 1020. It can be controlled and can perform various data processing or operations. According to one embodiment, as at least part of data processing or computation, the processor 1020 may receive instructions or data received from other components (eg, the sensor module 1076 or the communication module 1090) in the volatile memory 1032. Loaded into, process instructions or data stored in volatile memory 1032, and store result data in nonvolatile memory 1034. According to one embodiment, the processor 1020 includes a main processor 1021 (eg, a central processing unit or an application processor), and an auxiliary processor 1023 (eg, a graphics processing unit, an image signal processor) that can be operated independently or together. , Sensor hub processor, or communication processor). Additionally or alternatively, the coprocessor 1023 may be configured to use less power than the main processor 1021, or to be specialized for a specified function. The coprocessor 1023 may be implemented separately from, or as part of, the main processor 1021.
보조 프로세서(1023)는, 예를 들면, 메인 프로세서(1021)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1021)를 대신하여, 또는 메인 프로세서(1021)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1021)와 함께, 전자 장치(1001)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(1060), 센서 모듈(1076), 또는 통신 모듈(1090))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(1023)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(1080) 또는 통신 모듈(1090))의 일부로서 구현될 수 있다.  The coprocessor 1023 may, for example, replace the main processor 1021 while the main processor 1021 is in an inactive (eg sleep) state, or the main processor 1021 is active (eg, executing an application) ) With the main processor 1021 while in the state, at least one of the components of the electronic device 1001 (for example, a display device 1060, a sensor module 1076, or a communication module 1090) It can control at least some of the functions or states associated with. According to one embodiment, the coprocessor 1023 (eg, image signal processor or communication processor) may be implemented as part of other functionally relevant components (eg, camera module 1080 or communication module 1090). have.
메모리(1030)는, 전자 장치(1001)의 적어도 하나의 구성요소(예: 프로세서(1020) 또는 센서모듈(1076))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1040)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1030)는, 휘발성 메모리(1032) 또는 비휘발성 메모리(1034)를 포함할 수 있다. The memory 1030 may store various data used by at least one component of the electronic device 1001 (for example, the processor 1020 or the sensor module 1076). The data may include, for example, software (eg, the program 1040) and input data or output data for commands related thereto. The memory 1030 may include a volatile memory 1032 or a nonvolatile memory 1034.
프로그램(1040)은 메모리(1030)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1042), 미들 웨어(1044) 또는 어플리케이션(1046)을 포함할 수 있다. The program 1040 may be stored as software in the memory 1030, and may include, for example, an operating system 1042, middleware 1044, or an application 1046.
입력 장치(1050)는, 전자 장치(1001)의 구성요소(예: 프로세서(1020))에 사용될 명령 또는 데이터를 전자 장치(1001)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(1050)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input device 1050 may receive commands or data to be used for components (eg, the processor 1020) of the electronic device 1001 from outside (eg, a user) of the electronic device 1001. The input device 1050 may include, for example, a microphone, mouse, keyboard, or digital pen (eg, a stylus pen).
음향 출력 장치(1055)는 음향 신호를 전자 장치(1001)의 외부로 출력할 수 있다. 음향 출력 장치(1055)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output device 1055 may output sound signals to the outside of the electronic device 1001. The audio output device 1055 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from, or as part of, a speaker.
표시 장치(1060)는 전자 장치(1001)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(1060)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(1060)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. The display device 1060 may visually provide information to the outside of the electronic device 1001 (for example, a user). The display device 1060 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to an embodiment, the display device 1060 may include a touch circuitry configured to sense a touch, or a sensor circuit configured to measure the strength of the force generated by the touch (eg, a pressure sensor). have.
오디오 모듈(1070)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(1070)은, 입력 장치(1050)를 통해 소리를 획득하거나, 음향 출력 장치(1055), 또는 전자 장치(1001)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1002)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 1070 may convert sound into an electrical signal, or vice versa. According to an embodiment, the audio module 1070 acquires sound through the input device 1050, or an external electronic device (eg, directly or wirelessly connected to the sound output device 1055) or the electronic device 1001 The electronic device 1002) (eg, speaker or headphone) may output sound.
센서 모듈(1076)은 전자 장치(1001)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(1076)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 1076 detects an operating state (eg, power or temperature) of the electronic device 1001, or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state can do. According to one embodiment, the sensor module 1076 includes, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a biological sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
인터페이스(1077)는 전자 장치(1001)이 외부 전자 장치(예: 전자 장치(1002))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(1077)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 1077 may support one or more designated protocols that can be used for the electronic device 1001 to be directly or wirelessly connected to an external electronic device (eg, the electronic device 1002). According to an embodiment, the interface 1077 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(1078)는, 그를 통해서 전자 장치(1001)가 외부 전자 장치(예: 전자 장치(1002))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(1078)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 1078 may include a connector through which the electronic device 1001 is physically connected to an external electronic device (eg, the electronic device 1002). According to an embodiment, the connection terminal 1078 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(1079)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(1079)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 1079 may convert electrical signals into mechanical stimuli (eg, vibration or movement) or electrical stimuli that the user can perceive through tactile or motor sensations. According to one embodiment, the haptic module 1079 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(1080)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(1080)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 1080 may capture still images and videos. According to one embodiment, the camera module 1080 may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(1088)은 전자 장치(1001)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 1088 may manage power supplied to the electronic device 1001. According to one embodiment, the power management module 388 may be implemented, for example, as at least a part of a power management integrated circuit (PMIC).
배터리(1089)는 전자 장치(1001)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(1089)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 1089 may supply power to at least one component of the electronic device 1001. According to one embodiment, the battery 1089 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
통신 모듈(1090)은 전자 장치(1001)와 외부 전자 장치(예: 전자 장치(1002), 전자 장치(1004), 또는 서버(1008))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1090)은 프로세서(1020)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(1090)은 무선 통신 모듈(1092)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1094)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(1098)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(1099)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1092)은 가입자 식별 모듈(1096)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(1098) 또는 제 2 네트워크(1099)와 같은 통신 네트워크 내에서 전자 장치(1001)를 확인 및 인증할 수 있다. The communication module 1090 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 1001 and an external electronic device (eg, the electronic device 1002, the electronic device 1004, or the server 1008). It can support establishing and performing communication through the established communication channel. The communication module 1090 operates independently of the processor 1020 (eg, an application processor), and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 1090 is a wireless communication module 1092 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1094 (eg : Local area network (LAN) communication module, or power line communication module. The corresponding communication module among these communication modules is a first network 1098 (for example, a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network 1099 (for example, a cellular network, the Internet, or It may communicate with external electronic devices through a computer network (eg, a telecommunication network such as a LAN or WAN). These various types of communication modules may be integrated into a single component (eg, a single chip), or may be implemented as a plurality of separate components (eg, multiple chips). The wireless communication module 1092 uses a subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1096 in a communication network such as the first network 1098 or the second network 1099. The electronic device 1001 may be identified and authenticated.
안테나 모듈(1097)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(1097)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(1098) 또는 제 2 네트워크(1099)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1090)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1090)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(1097)의 일부로 형성될 수 있다.The antenna module 1097 may transmit a signal or power to the outside (eg, an external electronic device) or receive it from the outside. According to one embodiment, the antenna module may include a single antenna including a conductor formed on a substrate (eg, a PCB) or a radiator made of a conductive pattern. According to an embodiment, the antenna module 1097 may include a plurality of antennas. In this case, at least one antenna suitable for a communication scheme used in a communication network, such as the first network 1098 or the second network 1099, is transmitted from the plurality of antennas by, for example, the communication module 1090. Can be selected. The signal or power may be transmitted or received between the communication module 1090 and an external electronic device through the at least one selected antenna. According to some embodiments, other components (eg, RFIC) other than the radiator may be additionally formed as part of the antenna module 1097.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (for example, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)) and a signal ( Ex: command or data) can be exchanged with each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(1099)에 연결된 서버(1008)를 통해서 전자 장치(1001)와 외부의 전자 장치(1004)간에 송신 또는 수신될 수 있다. 전자 장치(1002, 1004) 각각은 전자 장치(1001)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(1001)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(1002, 1004, or 1008) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1001)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1001)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1001)로 전달할 수 있다. 전자 장치(1001)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. According to an embodiment, the command or data may be transmitted or received between the electronic device 1001 and the external electronic device 1004 through the server 1008 connected to the second network 1099. Each of the electronic devices 1002 and 1004 may be the same or a different type of device from the electronic device 1001. According to an embodiment, all or part of the operations executed in the electronic device 1001 may be executed in one or more external devices of the external electronic devices 1002, 1004, or 1008. For example, when the electronic device 1001 needs to perform a function or service automatically or in response to a request from a user or another device, the electronic device 1001 executes the function or service itself. In addition or in addition, one or more external electronic devices may be requested to perform at least a portion of the function or the service. The one or more external electronic devices receiving the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and deliver the result of the execution to the electronic device 1001. The electronic device 1001 may process the result, as it is or additionally, and provide it as at least part of a response to the request. To this end, for example, cloud computing, distributed computing, or client-server computing technology This can be used.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic device according to various embodiments disclosed in the present document may be various types of devices. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device. The electronic device according to the embodiment of the present document is not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that various embodiments of the document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, and include various modifications, equivalents, or substitutes of the embodiment. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly indicates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B," "A, B or C," "at least one of A, B and C," and "A Each of the phrases such as "at least one of,, B, or C" may include any one of the items listed together in the corresponding phrase of the phrases, or all possible combinations thereof. Terms such as “first”, “second”, or “first” or “second” can be used to simply distinguish a component from other components, and to separate components from other aspects (eg, importance or Order). Any (eg, first) component is referred to as a "coupled" or "connected" to another (eg, second) component, with or without the term "functionally" or "communicatively" When mentioned, it means that any of the above components can be connected directly to the other components (eg, by wire), wirelessly, or through a third component.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" as used herein may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits. The module may be an integrally configured component or a minimum unit of the component or a part thereof performing one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(1001)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1036) 또는 외장 메모리(1038))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1040))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1001))의 프로세서(예: 프로세서(1020))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may include one or more instructions stored in a storage medium (eg, internal memory 1036 or external memory 1038) readable by a machine (eg, electronic device 1001). It may be implemented as software (eg, program 1040) that includes. For example, a processor (eg, processor 1020) of a device (eg, electronic device 1001) may call and execute at least one of one or more commands stored from a storage medium. This enables the device to be operated to perform at least one function according to the at least one command called. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The storage medium readable by the device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device, and does not include a signal (eg, electromagnetic wave), and this term is used when data is stored semi-permanently. It does not distinguish between temporary storage cases.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, a method according to various embodiments disclosed in this document may be provided as being included in a computer program product. Computer program products are commodities that can be traded between sellers and buyers. The computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or two user devices ( It can be distributed (eg, downloaded or uploaded) directly or online between smartphones). In the case of online distribution, at least a portion of the computer program product may be temporarily stored at least temporarily in a storage medium readable by a device such as a memory of a manufacturer's server, an application store's server, or a relay server, or temporarily generated.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.According to various embodiments, each component (eg, module or program) of the above-described components may include a singular or a plurality of entities. According to various embodiments, one or more components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, modules or programs) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components the same or similar to that performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, or omitted Or, one or more other actions can be added. Accordingly, the scope of this document should be construed to include all changes or various other embodiments based on the technical spirit of this document.

Claims (10)

  1. 전자 장치에 있어서,In the electronic device,
    제 1 카메라;A first camera;
    제 2 카메라; 및A second camera; And
    프로세서를 포함하고, 상기 프로세서는,It includes a processor, the processor,
    상기 제 1 카메라를 이용하여 이미지를 획득하고,Acquiring an image using the first camera,
    상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 제 1 카메라를 이용하여 상기 전자 장치의 외부의 조도가 지정된 조도 범위에 속하는 시간을 확인하고,While acquiring an image using the first camera, use the first camera to check the time when the external illuminance of the electronic device falls within a designated illumination range,
    상기 시간이 제 1 지정된 시간을 만족하는 결정에 적어도 기반하여, 상기 제 2 카메라를 활성화하고,Activate the second camera based at least on a determination that the time satisfies the first specified time,
    상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 2 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 비활성화 하고, If the time identified after the second camera is activated satisfies the second designated time, deactivate the second camera,
    상기 제 2 카메라가 활성화된 이후에 확인된 상기 시간이 제 3 지정된 시간을 만족하는 경우, 상기 제 2 카메라를 이용하여 이미지를 획득하고, 상기 제 1 카메라를 비활성화 하도록 설정된 전자 장치.An electronic device configured to acquire an image using the second camera and deactivate the first camera when the time identified after the second camera is activated satisfies a third designated time.
  2. 제 1 항에 있어서, According to claim 1,
    상기 외부의 조도가 상기 지정된 조도 범위에 속하는 상황에서, In the situation where the external illuminance falls within the specified illuminance range,
    상기 제 2 카메라를 이용하여 획득한 이미지의 화질이, 상기 제 1 카메라를 이용하여 획득한 이미지의 화질보다 우수한 전자 장치.An electronic device having an image quality obtained by using the second camera that is superior to an image quality obtained by using the first camera.
  3. 제 1 항에 있어서, According to claim 1,
    디스플레이를 더 포함하고, 상기 프로세서는,Further comprising a display, the processor,
    상기 제 1 카메라 또는 상기 제 2 카메라를 획득한 이미지를 상기 디스플레이에 출력하도록 설정된 전자 장치.An electronic device configured to output the image obtained by the first camera or the second camera to the display.
  4. 제 1 항에 있어서, 상기 지정된 조도 범위는,The method of claim 1, wherein the specified illuminance range,
    지정된 조도 이하의 조도 범위 또는 상기 지정된 조도를 초과하는 조도 범위를 포함하는 전자 장치.An electronic device comprising an illuminance range below a specified illuminance or an illuminance range exceeding the specified illuminance.
  5. 제 1 항에 있어서, 상기 프로세서는,The method of claim 1, wherein the processor,
    상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 시간이 제 1 임계 시간을 초과하는 경우에, 상기 시간이 상기 제 1 지정된 시간을 만족하는 것으로 결정하도록 설정된While acquiring an image using the first camera, if the time exceeds a first threshold time, the time is set to determine that the first specified time is satisfied
    전자 장치. Electronic devices.
  6. 제 5 항에 있어서, 상기 프로세서는,The method of claim 5, wherein the processor,
    상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 시간이 제 2 임계 시간 이하인 상황에서, 상기 조도가 상기 지정된 조도 범위를 벗어나면, 상기 시간이 상기 제 2 지정된 시간을 만족하는 것으로 결정하도록 설정되고,While acquiring an image using the first camera, in a situation where the time is less than or equal to a second threshold time, if the illuminance is outside the specified illuminance range, the time is set to determine that the second specified time is satisfied Become,
    상기 제 2 임계 시간은,The second threshold time,
    상기 제 1 임계 시간을 초과하고, 상기 제 1 카메라와 상기 제 2 카메라의 광학 특성에 기초하여 결정되는 전자 장치. An electronic device that exceeds the first threshold time and is determined based on optical characteristics of the first camera and the second camera.
  7. 제 5 항에 있어서, 상기 프로세서는,The method of claim 5, wherein the processor,
    상기 제 1 카메라를 이용하여 이미지를 획득하는 동안에, 상기 시간이 제 2 임계 시간을 초과하면, 상기 시간이 상기 제 3 지정된 시간을 만족하는 것으로 결정하도록 설정되고,While acquiring an image using the first camera, if the time exceeds a second threshold time, it is set to determine that the time satisfies the third specified time,
    상기 제 2 임계 시간은,The second threshold time,
    상기 제 1 임계 시간을 초과하고, 상기 제 1 카메라의 광학 특성과 상기 제 2 카메라의 광학 특성에 기초하여 결정되는 전자 장치.An electronic device that exceeds the first threshold time and is determined based on optical characteristics of the first camera and optical characteristics of the second camera.
  8. 제 7 항에 있어서, 상기 제 2 임계 시간은,The method of claim 7, wherein the second threshold time,
    상기 제 2 카메라가 활성화된 후 안정화되는데 소요되는 시간 이상으로 설정되는 전자 장치.An electronic device that is set to more than the time it takes to stabilize after the second camera is activated.
  9. 제 7 항에 있어서, 상기 제 2 임계 시간은,The method of claim 7, wherein the second threshold time,
    상기 제 1 카메라의 Fnumber 값과 제 2 카메라의 Fnumber 값 간의 차이가 클수록 짧게 설정되는 전자 장치.Electronic apparatus in which the difference between the first camera and the second camera of the F number value of the F number value larger set shorter.
  10. 제 1 항에 있어서, 상기 프로세서는,The method of claim 1, wherein the processor,
    상기 제 2 카메라를 이용하여 이미지를 획득하는 동안에, 상기 제 2 카메라를 이용하여 상기 외부의 조도가 상기 지정된 조도 범위를 벗어나는 다른 시간을 확인하고,While acquiring an image using the second camera, using the second camera, identify another time when the external illuminance is outside the specified illuminance range,
    상기 다른 시간이 제 4 지정된 시간을 만족하는 결정에 적어도 기반하여 상기 제 1 카메라를 활성화하고,Activate the first camera based at least on a determination that the other time satisfies a fourth specified time,
    상기 제 1 카메라가 활성화된 이후에 확인된 상기 다른 시간이 제 5 지정된 시간을 만족하는 경우, 상기 제 1 카메라를 비활성화 하고,If the other time identified after the first camera is activated satisfies the fifth designated time, deactivate the first camera,
    상기 제 1 카메라가 활성화된 이후에 확인된 상기 다른 시간이 제 6 지정된 시간을 만족하는 경우, 상기 제 1 카메라를 이용하여 이미지를 획득하고, 상기 제 2 카메라를 비활성화 하도록 설정된 전자 장치.An electronic device configured to acquire an image using the first camera and deactivate the second camera when the other time identified after the first camera is activated satisfies a sixth designated time.
PCT/KR2019/011494 2018-09-18 2019-09-05 Electronic device for driving plurality of cameras on basis of external illuminance WO2020060081A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0111406 2018-09-18
KR1020180111406A KR102544709B1 (en) 2018-09-18 2018-09-18 Electronic Device which operates a plurality of cameras based on Outside illuminance

Publications (1)

Publication Number Publication Date
WO2020060081A1 true WO2020060081A1 (en) 2020-03-26

Family

ID=69887477

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/011494 WO2020060081A1 (en) 2018-09-18 2019-09-05 Electronic device for driving plurality of cameras on basis of external illuminance

Country Status (2)

Country Link
KR (1) KR102544709B1 (en)
WO (1) WO2020060081A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023106889A1 (en) * 2021-12-10 2023-06-15 삼성전자주식회사 Electronic apparatus for executing application by using different camera information according to photographing environment, and control method therefor
WO2023204419A1 (en) * 2022-04-20 2023-10-26 삼성전자 주식회사 Electronic device and method for adjusting display area of display on basis of intensity of light emitted from display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147977A (en) * 2009-03-23 2009-07-02 Sony Corp Camera system and mobile camera system
KR20160087324A (en) * 2015-01-13 2016-07-21 삼성전자주식회사 Camera activation and illuminance
US20180070009A1 (en) * 2016-09-07 2018-03-08 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
CN107948508A (en) * 2017-11-24 2018-04-20 北京图森未来科技有限公司 A kind of vehicle-mounted end image capturing system and method
KR20180086942A (en) * 2017-01-24 2018-08-01 삼성전자주식회사 Method for controlling a plurality of cameras and Electronic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147977A (en) * 2009-03-23 2009-07-02 Sony Corp Camera system and mobile camera system
KR20160087324A (en) * 2015-01-13 2016-07-21 삼성전자주식회사 Camera activation and illuminance
US20180070009A1 (en) * 2016-09-07 2018-03-08 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
KR20180086942A (en) * 2017-01-24 2018-08-01 삼성전자주식회사 Method for controlling a plurality of cameras and Electronic device
CN107948508A (en) * 2017-11-24 2018-04-20 北京图森未来科技有限公司 A kind of vehicle-mounted end image capturing system and method

Also Published As

Publication number Publication date
KR102544709B1 (en) 2023-06-20
KR20200032411A (en) 2020-03-26

Similar Documents

Publication Publication Date Title
WO2019045497A1 (en) Electronic device including display and method for correcting same
WO2020204659A1 (en) Electronic device, method, and computer-readable medium for providing bokeh effect in video
WO2019093856A1 (en) Device and method for controlling microphone according to connection of external accessory
WO2019156308A1 (en) Apparatus and method for estimating optical image stabilization motion
WO2020080845A1 (en) Electronic device and method for obtaining images
WO2021020900A1 (en) Electronic device for preventing damage of usb device and operating method thereof
WO2020130654A1 (en) Camera module having multi-cell structure and portable communication device including the same
WO2020153738A1 (en) Electronic device and method for connecting ground node to camera module
WO2020060081A1 (en) Electronic device for driving plurality of cameras on basis of external illuminance
WO2020111576A1 (en) Method for compensating for degradation on basis of execution screen of application and electronic device implementing same
WO2019172723A1 (en) Interface connected to image sensor and electronic device comprising interfaces connected among plurality of processors
WO2019107968A1 (en) Electronic device and image acquisition method thereof
WO2019125074A1 (en) Method of generating composite image using plurality of images with different exposure values and electronic device supporting the same
WO2020204404A1 (en) Electronic device and method for controlling output of light sources of electronic device
WO2021060943A1 (en) Electronic device for identifying external electronic device and method of operating same
WO2019054610A1 (en) Electronic device and method for controlling plurality of image sensors
WO2020171492A1 (en) Method for processing photographed image and electronic device therefor
WO2020190008A1 (en) Electronic device for auto focusing function and operating method thereof
WO2019143207A1 (en) Electronic device and display for reducing leakage current
WO2019203425A1 (en) Device and method for processing signal of electronic pen having changed resonant frequency
WO2019172577A1 (en) Image processing device and method of electronic device
WO2021235837A1 (en) Electronic device for performing image correction
WO2021096219A1 (en) Electronic device comprising camera and method thereof
WO2021162241A1 (en) Method and device for controlling image sensor
WO2020171607A1 (en) Touch circuit for preventing erroneous touch due to temperature change, electronic device comprising touch circuit, and method for operating same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19862117

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19862117

Country of ref document: EP

Kind code of ref document: A1