WO2021172901A1 - 카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법 - Google Patents

카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2021172901A1
WO2021172901A1 PCT/KR2021/002393 KR2021002393W WO2021172901A1 WO 2021172901 A1 WO2021172901 A1 WO 2021172901A1 KR 2021002393 W KR2021002393 W KR 2021002393W WO 2021172901 A1 WO2021172901 A1 WO 2021172901A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
electronic device
processor
input
Prior art date
Application number
PCT/KR2021/002393
Other languages
English (en)
French (fr)
Inventor
김상헌
김승년
백종우
정우철
김문휘
오영학
원종훈
정준원
최규옥
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021172901A1 publication Critical patent/WO2021172901A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/301Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements flexible foldable or roll-able electronic displays, e.g. thin LCD, OLED
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image

Definitions

  • Various embodiments of the present disclosure relate to an electronic device that provides a camera preview and an operating method thereof.
  • an electronic device for example, a portable electronic device such as a smart phone
  • communication service providers or electronic device manufacturers are competitively developing electronic devices to provide various functions and differentiate them from other companies. Accordingly, various functions provided through the electronic device are also increasingly advanced.
  • the electronic device may visually provide various contents (eg, images, videos, etc.) to the user through the display.
  • the display may include a display panel for displaying content and a display driver integrated circuit (DDI) for driving the display panel.
  • DCI display driver integrated circuit
  • the form of the mobile device may be changed. For example, a portion of the mobile device may be folded or extended.
  • the electronic device may provide the user with a mirror mode for outputting at least one image acquired through a camera on a display.
  • a mirror mode for outputting at least one image acquired through a camera on a display.
  • it may not be easy to perform an optimal function intended by the user according to a specific input that is distinguished from the user's unintentional input. For example, it may not be necessary for the user to be provided with a high-quality preview image with high power when receiving the provision of the preview mode from the electronic device.
  • the electronic device provides the preview mode with power that is generally consumed when performing other functions, a problem of wasted power may occur.
  • Various embodiments of the present document may provide a method and an electronic device for providing a preview mode in a low power state.
  • An electronic device includes a display, a camera configured to support a first maximum resolution, a processor, and a memory operatively connected to the processor, wherein the memory is executed when When the processor detects a first input to the display in a low power state, using the camera to acquire at least one first image of a second resolution lower than the first maximum resolution, displaying one first image on the display in the low power state, and after displaying the at least one first image, if a second input is sensed, use the camera to at least a third resolution higher than the second resolution.
  • the electronic device may provide a preview mode through a display in a low power state.
  • the electronic device may minimize power consumption by driving the display in a low power state.
  • the electronic device may provide a preview mode in a low power state optimized to a state desired by a user, and may process or edit a preview image according to a user's preference in some cases.
  • the electronic device controls to selectively use pixels or reduces power consumption by downsizing an image displayed on the display, and effectively performs data processing or operation of the processor 120 .
  • various effects directly or indirectly identified through this document may be provided.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure
  • FIG. 2 is a block diagram illustrating a camera module according to various embodiments of the present disclosure
  • FIG. 3 is a block diagram of a display device according to various embodiments of the present disclosure.
  • FIG. 4 is a block diagram of an electronic device according to an embodiment.
  • FIG. 5 is a block diagram of a processor, a display module, and an input interface of an electronic device, according to various embodiments of the present disclosure
  • FIG. 6 is a block diagram of a display driving module according to various embodiments of the present disclosure.
  • FIG. 7 illustrates electronic devices whose shapes change according to various embodiments of the present disclosure.
  • FIG. 8 illustrates electronic devices whose shapes change according to various embodiments of the present disclosure.
  • FIG. 9 is a flowchart illustrating an operation of an electronic device according to an embodiment disclosed in this document.
  • FIG. 10 illustrates a touch mode of an electronic device capable of changing a shape according to various embodiments of the present disclosure.
  • FIG. 11 is a flowchart illustrating an interaction between a camera and a processor according to an exemplary embodiment.
  • FIG. 12 is a block diagram illustrating a structure of an image sensor according to various embodiments of the present disclosure.
  • FIG. 13 is a flowchart illustrating an FPS control operation of an electronic device according to an exemplary embodiment.
  • FIG. 14 is an exemplary diagram for explaining the definition of a touch according to an embodiment.
  • 15 is a block diagram of a program for controlling a low power display mode in an electronic device, according to various embodiments of the present disclosure
  • FIG. 16 illustrates an operation of outputting preview images of electronic devices whose shapes are changed according to various embodiments of the present disclosure.
  • 17 illustrates a form of providing lighting on a display of an electronic device according to various embodiments of the present disclosure.
  • FIG. 18 illustrates an operation of a display that outputs a different screen according to an angle of an electronic device whose shape is changed according to various embodiments of the present disclosure
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input device 150 , a sound output device 155 , a display device 160 , an audio module 170 , and a sensor module ( 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or antenna module 197 . ) may be included. In some embodiments, at least one of these components (eg, the display device 160 or the camera module 180 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components may be implemented as one integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 160 (eg, a display).
  • the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the processor 120 executes software (eg, the program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or computation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • software eg, the program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and a secondary processor 123 (eg, a graphic processing unit, an image signal processor) that can be operated independently or together with the main processor 121 . , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function. The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • a main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, an image signal processor
  • the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function.
  • the auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • the auxiliary processor 123 may be, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190 ). have.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176 ) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input device 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes, such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display device 160 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. have.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input device 150 , or an external electronic device (eg, a sound output device 155 ) connected directly or wirelessly with the electronic device 101 .
  • the electronic device 102) eg, a speaker or headphones
  • the electronic device 102 may output a sound.
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication through the established communication channel.
  • the communication module 190 operates independently of the processor 120 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : LAN (local area network) communication module, or a power line communication module) may be included.
  • a wireless communication module 192 eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : LAN (local area network) communication module, or a power line communication module
  • a corresponding communication module may be a first network 198 (eg, a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network 199 (eg, a cellular network, the Internet, or It may communicate with the external electronic device 104 through a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a computer network eg, a telecommunication network such as a LAN or WAN.
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other.
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as a part of the antenna module 197 .
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 and 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more of the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service by itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • a or B “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C” and “A,
  • Each of the phrases “at least one of B, or C” may include any one of, or all possible combinations of, items listed together in the corresponding one of the phrases.
  • Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish the component from other components in question, and may refer components to other aspects (e.g., importance or order) is not limited.
  • one (e.g., first) component is “coupled” or “connected” to another (e.g., second) component with or without the terms “functionally” or “communicatively”
  • one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed component or a minimum unit or a part of the component that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101).
  • a machine eg, electronic device 101
  • the processor eg, the processor 120
  • the device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term refers to the case where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product).
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones).
  • a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.
  • the camera module 180 includes a lens assembly 210 , a flash 220 , an image sensor 230 , an image stabilizer 240 , a memory 250 (eg, a buffer memory), or an image signal processor. (260).
  • the lens assembly 210 may collect light emitted from a subject, which is an image to be captured.
  • the lens assembly 210 may include one or more lenses.
  • the camera module 180 may include a plurality of lens assemblies 210 . In this case, the camera module 180 may form, for example, a dual camera, a 360 degree camera, or a spherical camera.
  • Some of the plurality of lens assemblies 210 may have the same lens properties (eg, angle of view, focal length, auto focus, f number, or optical zoom), or at least one lens assembly may be a different lens assembly. It may have one or more lens properties different from the lens properties of .
  • the lens assembly 210 may include, for example, a wide-angle lens or a telephoto lens.
  • the flash 220 may emit light used to enhance light emitted or reflected from the subject.
  • the flash 220 may include one or more light emitting diodes (eg, a red-green-blue (RGB) LED, a white LED, an infrared LED, or an ultraviolet LED), or a xenon lamp.
  • the image sensor 230 may acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly 210 into an electrical signal.
  • the image sensor 230 may include, for example, one image sensor selected from among image sensors having different properties, such as an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, the same It may include a plurality of image sensors having a property, or a plurality of image sensors having different properties.
  • Each image sensor included in the image sensor 230 may be implemented using, for example, a charged coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor.
  • CCD charged coupled device
  • CMOS complementary metal oxide semiconductor
  • the image stabilizer 240 moves at least one lens or image sensor 230 included in the lens assembly 210 in a specific direction in response to the movement of the camera module 180 or the electronic device 101 including the same. Operation characteristics of the image sensor 230 may be controlled (eg, read-out timing may be adjusted, etc.). This makes it possible to compensate for at least some of the negative effects of the movement on the image being taken.
  • the image stabilizer 240 is, according to an embodiment, the image stabilizer 240 is a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 180 . Such a movement of the camera module 180 or the electronic device 101 may be detected using .
  • the image stabilizer 240 may be implemented as, for example, an optical image stabilizer.
  • the memory 250 may temporarily store at least a portion of the image acquired through the image sensor 230 for a next image processing operation. For example, when image acquisition is delayed according to the shutter or a plurality of images are acquired at high speed, the acquired original image (eg, Bayer-patterned image or high-resolution image) is stored in the memory 250 and , a copy image corresponding thereto (eg, a low-resolution image) may be previewed through the display device 160 .
  • the acquired original image eg, Bayer-patterned image or high-resolution image
  • a copy image corresponding thereto eg, a low-resolution image
  • the memory 250 may be configured as at least a part of the memory 130 or as a separate memory operated independently of the memory 130 .
  • the image signal processor 260 may perform one or more image processing on an image acquired through the image sensor 230 or an image stored in the memory 250 .
  • the one or more image processes may include, for example, depth map generation, three-dimensional modeling, panorama generation, feature point extraction, image synthesis, or image compensation (eg, noise reduction, resolution adjustment, brightness adjustment, blurring ( blurring, sharpening, or softening.
  • the image signal processor 260 may include at least one of the components included in the camera module 180 (eg, an image sensor). 230), for example, exposure time control, readout timing control, etc.
  • the image processed by the image signal processor 260 is stored back in the memory 250 for further processing.
  • the image signal processor 260 may be configured as at least a part of the processor 120 or as a separate processor operated independently of the processor 120.
  • the image signal processor 260 may be configured as the processor 120 and a separate processor, the at least one image processed by the image signal processor 260 may be displayed through the display device 160 as it is by the processor 120 or after additional image processing.
  • the electronic device 101 may include a plurality of camera modules 180 each having different properties or functions.
  • at least one of the plurality of camera modules 180 may be a wide-angle camera, and at least the other may be a telephoto camera.
  • at least one of the plurality of camera modules 180 may be a front camera, and at least the other may be a rear camera.
  • the display device 160 may include a display 310 and a display driver IC (DDI) 330 for controlling the display 310 .
  • the DDI 330 may include an interface module 331 , a memory 333 (eg, a buffer memory), an image processing module 335 , or a mapping module 337 .
  • the DDI 330 receives, for example, image data or image information including an image control signal corresponding to a command for controlling the image data from other components of the electronic device 101 through the interface module 331 . can do.
  • the image information is the processor 120 (eg, the main processor 121 (eg, application processor) or the auxiliary processor 123 (eg, an application processor) operated independently of the function of the main processor 121 ( For example: graphic processing device)
  • the DDI 330 may communicate with the touch circuit 350 or the sensor module 176 through the interface module 331.
  • the DDI 330 may communicate with the touch circuit 350 or the sensor module 176.
  • At least a portion of the received image information may be stored in the memory 333, for example, in units of frames, for example, the image processing module 335 may store at least a portion of the image data, Pre-processing or post-processing (eg, resolution, brightness, or size adjustment) may be performed based at least on the characteristics of the display 310.
  • the mapping module 337 may be pre-processed or post-processed through the image processing module 135.
  • a voltage value or a current value corresponding to the image data may be generated. According to an embodiment, the generation of the voltage value or the current value may include, for example, a property of pixels of the display 310 (eg, an arrangement of pixels).
  • At least some pixels of the display 310 are, for example, based at least in part on the voltage value or the current value.
  • visual information eg, text, image, or icon
  • corresponding to the image data may be displayed through the display 310 .
  • the display device 160 may further include a touch circuit 350 .
  • the touch circuit 350 may include a touch sensor 351 and a touch sensor IC 353 for controlling the touch sensor 351 .
  • the touch sensor IC 353 may control the touch sensor 351 to sense, for example, a touch input or a hovering input for a specific position of the display 310 .
  • the touch sensor IC 353 may detect a touch input or a hovering input by measuring a change in a signal (eg, voltage, light amount, resistance, or electric charge amount) for a specific position of the display 310 .
  • the touch sensor IC 353 may provide information (eg, location, area, pressure, or time) regarding the sensed touch input or hovering input to the processor 120 .
  • At least a part of the touch circuit 350 is disposed as a part of the display driver IC 330 , the display 310 , or outside the display device 160 . may be included as a part of other components (eg, the coprocessor 123).
  • the display device 160 may further include at least one sensor (eg, a fingerprint sensor, an iris sensor, a pressure sensor, or an illuminance sensor) of the sensor module 176 , or a control circuit therefor.
  • the at least one sensor or a control circuit therefor may be embedded in a part of the display device 160 (eg, the display 310 or the DDI 330 ) or a part of the touch circuit 350 .
  • the sensor module 176 embedded in the display device 160 includes a biometric sensor (eg, a fingerprint sensor)
  • the biometric sensor provides biometric information related to a touch input through a partial area of the display 310 . (eg, fingerprint image) can be acquired.
  • the pressure sensor may acquire pressure information related to a touch input through a part or the entire area of the display 310 .
  • the touch sensor 351 or the sensor module 176 may be disposed between pixels of the pixel layer of the display 310 , or above or below the pixel layer.
  • FIG. 4 is a block diagram of an electronic device according to an exemplary embodiment.
  • an electronic device 400 (eg, the electronic device 101 of FIG. 1 ) includes a processor 120 , a memory 130 , a display device 160 , a camera module 180 , and/or a sensor. circuit 410 may be included. Unless otherwise described, descriptions of components having the same reference numerals as those of FIG. 1 may be referred to by the description of FIG. 1 .
  • the processor 120 is configured to communicate with other components in the electronic device 400 (eg, the memory 130 , the display device 160 , the camera module 180 , and/or the sensor circuit 410 ). may be operatively linked.
  • the processor 120 may control components of the electronic device 400 (eg, the memory 130 , the display device 160 , the camera module 180 , and/or the sensor circuit 410 ).
  • the processor 120 may control the configurations of the electronic device 400 according to one or more instructions stored in the memory 130 .
  • the camera module 180 may include a plurality of cameras. According to an embodiment, the camera module 180 may be disposed on one surface (eg, front or rear) of the electronic device 400 .
  • One surface of the electronic device 400 may include the same surface or a different surface as the surface on which the display device 160 is provided.
  • the plurality of cameras may be set to acquire images of different resolutions.
  • the camera module 180 may capture an image (eg, a photo or a video) viewed through a lens.
  • Each of the plurality of cameras may include at least one sensor. For example, when the electronic device provides a mirror mode, some of the sensors are motion detection sensors that detect an operation state of an image photographed through a lens, or an illuminance sensor that detects ambient brightness of an image photographed through a lens can be
  • the display device 160 may display (output) information processed by the electronic device 400 .
  • the display device 160 may display a user interface (UI) or a graphic user interface (GUI) related to photographing using the camera module 180 .
  • the display device 160 may include various types of displays (eg, 310 of FIG. 3 ).
  • the display 310 may be at least one of a flexible display, a 3D display, and a foldable display.
  • the display 310 may be disposed on the front or rear surface of the electronic device 400 .
  • the display 310 may display a preview image based on an image acquired using the camera module 180 .
  • the display 310 may display a preview image on one area of the display 310 .
  • the display 310 may display at least one image generated from an image acquired through the camera module 180 .
  • the display 310 may be a touch screen display including an input device.
  • the processor 120 may control the resolution of at least one image output to the display based on an input sensed by the display 310 . For example, when a first input to the display 310 in a low power state is detected, the processor 120 may control the camera module 180 to acquire at least one first image having a second resolution. . For another example, the processor 120 may control the camera module 180 to acquire at least one second image of a third resolution when a second input is detected after displaying the at least one first image.
  • the first maximum resolution may be referred to as a value representing 5312x2988, that is, 15.9 million pixels.
  • the second resolution may be referred to as a lower resolution than the first maximum resolution.
  • the third resolution may be referred to as a higher resolution than the second resolution.
  • the first input may be at least one of a single tap, a double tap, a long press, a touch swipe, a touch input having a designated pattern, or a touch input having a touch area having a touch area greater than or equal to a designated size.
  • a single tap may be an input with one point of contact on the touch screen surface.
  • a double tap may be an input having two or more points of contact on the touch screen surface.
  • a long press may be an input in which the pressure applied to the contact point on the touch screen surface is longer than a specified time.
  • the touch swipe may be an input in which pressure is applied to a plurality of consecutive contact points in a predetermined area.
  • the electronic device 400 further includes at least one sensor, and detects the second input by sensing an upward motion, folding, or unfolding of the electronic device 400 using the at least one sensor. can do.
  • the processor 120 may control the power state of the display 310 .
  • the processor 120 may control the display 310 to a low power state or an Always on Display (AOD) state based on a first input or a second input sensed by the display 310 .
  • AOD Always on Display
  • the low power state or the AOD state of the display 310 may be referred to as a state in which average power consumption or average current is relatively low compared to a high power state, as will be described later with reference to FIG. 5 .
  • the processor 120 may control the display 310 to display the image collected through the camera module 180 as a preview image so that the user may check the image projected through the camera.
  • the processor 120 may generate an image by capturing an image collected through the camera module 180 at the point in time when the photographing execution request is generated according to the generation of the photographing execution request. The generated image may be temporarily or permanently stored in the memory 130 .
  • the sensor circuit 410 may be used to identify the state of the electronic device 400 .
  • the sensor circuit 410 may detect a motion of the electronic device 400 and output motion information corresponding to the sensed motion.
  • the sensor circuit 410 may obtain motion information of the electronic device 400 .
  • the motion information may be, for example, at least one of a distance between the electronic device 400 and the user or a state (eg, folding or unfolding) of the electronic device 400 .
  • Information about the distance between the electronic device 400 and the user or the state of the electronic device 400 is based on image information recognized through a proximity sensor, ultra-wideband (UWB) communication, and/or the camera module 180 . can be obtained
  • the sensor circuit 410 may further include at least one sensor.
  • the at least one sensor may include a first sensor for recognizing a folding angle of the electronic device 400 .
  • the at least one sensor may include a second sensor that detects a rotation direction of the electronic device 400 .
  • the processor 120 may recognize whether the electronic device 400 is folded or unfolded using the output of the at least one sensor.
  • the electronic device 400 may recognize the rotation direction and the rotation angle of the electronic device 400 through the at least one sensor.
  • the configuration of the electronic device 400 illustrated in FIG. 4 is exemplary, and embodiments of the present document are not limited thereto.
  • the electronic device 400 may not include at least one of the components illustrated in FIG. 4 .
  • the electronic device 400 may further include a configuration not shown in FIG. 4 .
  • FIG. 5 is a block diagram 500 of a display module and an input interface of the electronic device 101, according to various embodiments of the present disclosure.
  • the electronic device 101 may include a processor 120 , a display 510 , and an input interface 520 .
  • the processor 120 may perform an operation associated with the low power display mode.
  • the low-power display mode may be a mode in which predetermined content is output through the display 510 while the processor 120 maintains a sleep state (eg, an idle state).
  • the low power display mode may include an always on display (AOD) state.
  • the processor 120 may transmit content designated to be output in the low power display mode and output information of the content to the display driving module 512 .
  • the processor 120 may determine at least an output location (or output area) of the content based on the specified content attribute information.
  • the processor 120 may maintain a sleep state while the low power display mode is performed.
  • the processor 120 may detect the occurrence of an event while the low power display mode is being performed.
  • the event may be generated by the electronic device 101 or received from the outside.
  • An event generated by the electronic device 101 or received from the outside is associated with at least one of a single tap, a double tap, a long press, a touch swipe, a touch input of a designated pattern, or a touch input having a touch area larger than or equal to a designated size can be
  • the state of the processor 120 in response to detecting the occurrence of an event, the state of the processor 120 may be transitioned from a sleep state to a wake-up state.
  • the processor 120 transitioned to the wake-up state may control a notification object representing the detected event (eg, a low-power mirror mode, a user's face recognized through a camera) to be output through the low-power display mode.
  • the processor 120 may transmit a notification object corresponding to the event and output information of the notification object (eg, an output position and output size of the notification object) to the display driving module 512 .
  • the output location of the notification object may be one area of the display 510 .
  • the display 510 may include a display driving module 512 and a display panel 516 .
  • the display driving module 512 may drive the display panel 516 .
  • the display driving module 512 converts the preview image stored in the memory 514 (eg, graphic random access memory) of the display 510 (or the display driving module 512) to a preset number of frames. It may be provided on the display panel 516 .
  • the processor 120 changes the read-out mode of the camera module 180 based on the resolution information of the display 510 so that a preview image is displayed on the display 510 in a low power state.
  • the display driving module 512 may be controlled to be output.
  • the display driving module 512 may control the display 510 in a low power (eg, AOD) state according to a method to be described later with reference to FIG. 6 .
  • the input interface 520 may include a touch panel driving module 522 and a touch panel 524 .
  • the touch panel driving module 522 may transmit information about the received input to the processor 120 .
  • the received input may be a user's touch input (a single tap, a double tap, a touch swipe, a long press, a touch input of a designated pattern, or a touch input having a touch area greater than or equal to a designated size).
  • the display 510 and the input interface 520 are illustrated as separate components, but embodiments of the present document are not limited thereto.
  • the input interface 520 may be included in the display 510 .
  • FIG. 6 is a block diagram 600 of a display driving module according to various embodiments of the present disclosure.
  • the external DC/DC converter 602 may supply power for driving the display driving module 512 .
  • the external DC/DC converter 602 provides additional power (U_ELVSS (eg, negative output), U_ELVDD (eg, positive) to the display driving module 512 . output)), the power for driving can be adjusted low.
  • the display eg, the display 310 of FIG. 3
  • the external DC/DC converter 602 has a basic power (VLIN1) for driving the display driving module 512 .
  • Additional power (U_ELVSS, U_ELVDD) can be supplied to support high-efficiency brightness.
  • the low power state may be referred to as a state in which power consumption (eg, power consumption per unit time) is relatively lower than that of the high power state.
  • the display driving module 512 when the display 310 operates with low power, the display driving module 512 may be driven using the internal power of the display driving module 512 .
  • the internal power of the display driving module 512 may include at least one of an ELVDD regulator 616 and an ELVSS regulator 618 . That is, when the display 310 operates with low power, the display driving module 512 may drive the display 310 with a voltage lower than that of the high power operation.
  • the display driving module 512 uses the gamma control circuit 610 , the binary driver 612 , and the source driver 614 to generate the display panel 516 . ) to output the content.
  • the gamma control circuit 610 determines the voltage (eg, scale voltage) of each pixel for displaying the content by adjusting the connection of a plurality of resistors based on the content to be displayed on the display panel 516 .
  • the source driver 614 may output the voltage of each pixel determined by the gamma control circuit 610 through the display panel 516 .
  • the binary driver 612 may determine a scale voltage of each pixel for displaying the content by outputting 0 or 1 based on the content to be displayed on the display panel 516 .
  • the binary driver 612 may output the voltage of each pixel to the display panel 516 .
  • FIG. 7 illustrates electronic devices whose shapes change according to various embodiments of the present disclosure.
  • the shape of the electronic device may be physically changed according to folding/unfolding.
  • the electronic device may include a housing and a display having flexibility in at least some parts thereof. Based on a flexible portion of the electronic device, the electronic device may be folded (eg, open) or unfolded (eg, closed).
  • a flexible portion of the electronic device may be referred to as a folded portion.
  • the folded part refers to a part (eg, a hinge) or a region in which the shape of the electronic device can be changed, and is not limited to a specific structure.
  • the first electronic device 101A may include the folded portion 191A having a vertical length longer than a horizontal length.
  • the first electronic device 101A may be folded left and right with the vertical direction of the folded portion 191A as an axis.
  • the first electronic device 101A may be folded around at least the folded portion 191A.
  • the first electronic device 101A includes a flexible first display 161A (eg, the display device 160 of FIG. 1 ) and a housing 120A at a portion corresponding to the folded portion 191A. may include The first electronic device 101A may be folded left and right around the folded portion 191A.
  • the first electronic device 101A may include a second display 162A (eg, the display device 160 of FIG. 1 ) exposed to the outside in a folded state.
  • the first electronic device 101A is illustrated as an in-fold electronic device that is folded with the first display 161A inward, but embodiments of the present document are not limited thereto.
  • the first electronic device 101A may be an out-fold electronic device or an electronic device supporting both in-fold and out-fold.
  • the first display 161A is illustrated as one display, embodiments of the present document are not limited thereto.
  • the first electronic device 101A may include a plurality of displays divided around the folded portion 191A.
  • the housing 120A may also include a plurality of housings divided around the folded portion 191A.
  • the first electronic device 101A may be a combination of a plurality of electronic devices coupled to be folded around the folded portion 191A.
  • the plurality of electronic devices may be coupled to each other by a separate structure (eg, a housing or a hinge).
  • the second electronic device 101B (eg, the electronic device 101 of FIG. 1 ) has a plurality of axes (eg, the second folded portion 192B and the third a folded portion 193B).
  • the second electronic device 101B may be folded left and right about the longitudinal direction of the second folded part 192B and the third folded part 193B.
  • the second electronic device 101B may include a display 160B having flexibility at least in portions corresponding to the second folded portion 192B and the third folded portion 193B (eg, the display device ( 160)) and a housing 120B.
  • the second electronic device 101B may be folded left and right around the second folded part 192B and the third folded part 193B.
  • the second electronic device 101B is illustrated as an out-fold electronic device in which the display 160B is folded outward, but embodiments of the present document are not limited thereto.
  • the second electronic device 101B may be in-folded at the second folded portion 192B and/or the third folded portion 193B.
  • the display 160B is illustrated as one display, embodiments of the present document are not limited thereto.
  • the second electronic device 101B may include a plurality of displays divided along at least one of the second folded part 192B and the third folded part 193B.
  • the housing 120B may also include a plurality of housings divided along at least one of the second folded portion 192B and the third folded portion 193B.
  • the second electronic device 101B may be a combination of a plurality of electronic devices coupled to be folded around the second folded part 192B and the third folded part 193B.
  • the plurality of electronic devices may be coupled to each other by a separate structure (eg, a housing or a hinge).
  • the third electronic device 101C may include a fourth folded part 194C having a horizontal length longer than a vertical length.
  • the third electronic device 101C may be folded up and down with the horizontal direction of the fourth folded part 194C as an axis.
  • the third electronic device 101C includes a display 160C (eg, the display device 160 of FIG. 1 ) having flexibility in at least a portion corresponding to the fourth folded portion 194C and a housing 120C). may include.
  • the third electronic device 101C may be folded vertically around the fourth folded portion 194C.
  • the third electronic device 101C is illustrated as an in-fold electronic device that is folded inward of the display 160C, but embodiments of the present document are not limited thereto.
  • the third electronic device 101C may be out-folded or in-folded and out-folded at the fourth folded portion 194C.
  • the display 160C is illustrated as one display, embodiments of the present document are not limited thereto.
  • the third electronic device 101C may include a plurality of displays divided along the fourth folded portion 194C.
  • the housing 120C may also include a plurality of housings divided along the fourth folded portion 194C.
  • the third electronic device 101C may be a combination of a plurality of electronic devices coupled to be folded around the fourth folded portion 194C. In this case, the plurality of electronic devices may be coupled to each other by a separate structure (eg, a housing or a hinge).
  • Changes in physical shape of the electronic devices (eg, 101A, 101B, and 101C) illustrated in FIG. 7 are exemplary, and embodiments of the present document are not limited thereto.
  • the electronic device may be folded or unfolded about any axis. That is, in the displays of the electronic device, each display may be folded symmetrically or asymmetrically about an axis.
  • the shape of the electronic device may be physically changed according to extending/retracting of the housing of the electronic device.
  • the electronic device may include a housing and/or a display from which at least some portions may extend.
  • a part of the electronic device may be slid or rolled to extend (eg, open) or contract (eg, close) the electronic device.
  • the extension refers to a portion or region corresponding to a difference between the first shape and the second shape when the shape of the electronic device is changed from the first shape to the second shape, and is not limited to a specific structure.
  • the fourth electronic device 101D may include an extension part 181D that extends/retracts vertically.
  • the housing 120D of the fourth electronic device 101D may include an extension portion 181D that may extend upward of the fourth electronic device 101D.
  • the extension part 181D is a part of the housing 120D, and may extend the housing 120D of the fourth electronic device 101D by moving relatively upward with respect to the other part of the housing 120D.
  • the extension 181D may move independently of the display 160D (eg, the display device 160 of FIG. 1 ).
  • the extension 181D may protrude upward relative to the display 160D.
  • the extension portion 181D may protrude downward relative to the display 160D.
  • the extension 181D may include a camera module (eg, the camera module 180 of FIG. 1 ).
  • the camera module may be set to rotate according to the movement of the extension part 181D.
  • the fifth electronic device 101E eg, the electronic device 101 of FIG. 1
  • the fifth electronic device 101E may include an extension portion 181E that extends/retracts from side to side.
  • at least a portion of the housing 120E of the fifth electronic device 101E may include an extension portion 181E that may extend to the right of the fifth electronic device 101E.
  • the extension portion 181E is a part of the housing 120E, and may extend the housing 120E of the fifth electronic device 101E by moving to the right relative to the other portion of the housing 120E. .
  • the sixth electronic device 101F may include an extension 181F that extends/retracts from side to side.
  • the display 160F of the sixth electronic device 101F eg, the display device 160 of FIG. 1
  • the display 160F may be a rollable display.
  • the display 160F may be rolled and accommodated in the first housing 121F.
  • the display 160F may be extended between the first housing 121F and the second housing 122F by being unrolled.
  • the extended portion 181F may be generated according to the unfolding of the display 160F.
  • Changes in the physical shape of the electronic devices (eg, 101D, 101E, and 101F) illustrated in FIG. 8 are exemplary, and embodiments of the present document are not limited thereto.
  • the electronic device may extend or contract in any direction.
  • FIG. 9 illustrates an operation flowchart 900 of an electronic device according to an embodiment disclosed in this document.
  • the electronic device may detect a first input input to the display in a low power state. For example, a user input is received on the touch panel 524 , the touch panel driving module 522 transmits information about the received input to the processor 120 , and the processor 120 responds to the received input.
  • the first input may be sensed by receiving information about the first input.
  • the processor 120 acquires at least one first image of a second resolution using the camera module 180 , and displays the at least one first image of the second resolution in a low power state (eg: may be displayed on the display device 160 of FIG. 1 .
  • the second resolution may be referred to as a lower resolution than the first maximum resolution.
  • the camera module 180 may include an image sensor including a plurality of pixels. The processor 120 may obtain the at least one first image by using some pixels corresponding to the second resolution among the plurality of pixels.
  • the processor 120 may detect a designated second input received by the electronic device. For example, the processor 120 may determine whether an input received on the touch panel 524 satisfies a preset condition of the second input.
  • the electronic device may further include at least one sensor.
  • the processor 120 may detect a second input (eg, a folding angle of the electronic device, a rotational direction, a distance between the user and the electronic device, an upward motion of the electronic device, etc.) through the at least one sensor.
  • the processor may compare preset information (eg, a preset condition of the second input) with information on the sensed second input.
  • the processor may perform operation 920 .
  • the processor 120 acquires at least one second image having a third resolution through the camera module 180 and then displays (eg, the display device 160 of FIG. 1 ). may be controlled to a high power state, and the at least one second image may be displayed on a display.
  • the third resolution may be referred to as a higher resolution than the second resolution.
  • the electronic device may repeatedly perform operations 910 and 915 .
  • FIG. 10 illustrates a touch mode of an electronic device capable of changing a shape according to various embodiments of the present disclosure.
  • a first input received by the electronic device may be an input as illustrated in FIG. 10 .
  • the first terminal 1010 (eg, the electronic device 101 of FIG. 1 ) may be folded left and right around the folded part 1012 .
  • the first terminal 1010 may include a first display 1014 (eg, the display device 160 of FIG. 1 ) exposed to the outside in a folded state.
  • the first user input 1016 may be an operation of applying pressure to the first display 1014 using two fingers at least one time or more.
  • the second terminal 1020 (eg, the electronic device 101 of FIG. 1 ) may be folded up and down around the folded part 1022 .
  • the second terminal 1020 may include a second display 1024 (eg, the display device 160 of FIG. 1 ) exposed to the outside in a folded state.
  • the second user input 1026 may be an operation of applying pressure to the second display 1024 using two fingers at least one time or more.
  • FIG. 11 is a flowchart 1100 illustrating an interaction between a camera and a processor according to example embodiments.
  • the processor 120 receives a designated first input (eg, single tap, double tap, long press, touch switch) received by the electronic device (eg, the electronic device 101 of FIG. 1 ). at least one of a wipe, a touch input having a designated pattern, or a touch input having a touch area larger than or equal to a designated size) may be detected.
  • a designated first input eg, single tap, double tap, long press, touch switch
  • the processor 120 displays at least one first image on the display (eg, the display device 160 of FIG. 1 ).
  • the first pixel information may be transmitted 1113 to the camera module 180 .
  • the first pixel information may include a number of pixels of the display used to display the at least one first image, a resolution of the display, a number of rows of a pixel array of the display, and/or a column of a pixel array of the display. It can contain any number of (columns).
  • the display described in this example may refer to the display device 160 of FIG. 1 .
  • the processor 120 may transmit a signal (eg, a triggering signal) for changing the operation of the camera (eg, changing the image sensor resolution, etc.) to the camera module 180 .
  • a signal eg, a triggering signal
  • the processor 120 may repeatedly perform operation 1111 .
  • the camera module 180 receives the first pixel information from the processor 120 , and uses the image signal processor (eg, the image signal processor 260 of FIG. 2 ) to receive the received first pixel information.
  • the first pixel information may be processed or edited.
  • the image signal processor may process or edit the first pixel information and transmit 1117 image data corresponding thereto to the processor 120 .
  • the processor 120 may output at least one image to the display based on the received image data.
  • the at least one image output to the display may be output in various forms (eg, brightness of the display, resolution of the display) according to a specified condition (eg, whether the user's face is in proximity).
  • the processor 120 performs at least a specified second input received by the electronic device (eg, an angle at which the user looks at the display, the angle of the electronic device, or the distance between the user and the display). one) can be detected.
  • a specified second input received by the electronic device eg, an angle at which the user looks at the display, the angle of the electronic device, or the distance between the user and the display. one
  • the processor 120 displays at least one second image on the display (eg, the display device 160 of FIG. 1 ).
  • second pixel information may be transmitted ( 1121 ) to the camera module 180 .
  • the second pixel information may include a number of pixels of the display used to display the at least one second image, a resolution of the display, a number of rows of a pixel array of the display, and/or a column of a pixel array of the display. It can contain any number of (columns).
  • the display described in this example may refer to the display device 160 of FIG. 1 .
  • the processor 120 may transmit a signal (eg, a triggering signal) for changing the operation of the camera (eg, changing the image sensor resolution, etc.) to the camera module 180 .
  • a signal eg, a triggering signal
  • the processor 120 may repeatedly perform operation 1119 .
  • the camera module 180 receives the second pixel information from the processor 120 , and uses the image signal processor (eg, the image signal processor 260 of FIG. 2 ) to receive the received second pixel information.
  • the second pixel information may be processed or edited.
  • the image signal processor may process or edit the second pixel information and transmit ( 1125 ) image data corresponding thereto.
  • the processor 120 may output at least one image to the display based on the received image data. At this time, the at least one image output to the display has various shapes (eg, brightness of the display, resolution of the display, part of the acquired image, inversion) can be output.
  • the operation process of the camera module 180 as shown in FIG. 11 may be described in more detail in the description of FIG. 12 to be described later.
  • FIG. 12 is a block diagram 1200 illustrating a structure of an image sensor according to various embodiments of the present disclosure.
  • the image sensor 1210 (eg, the image sensor 230 of FIG. 2 ) is a camera module (eg, the electronic device 101 of FIG. 1 ) included in the electronic device (eg, the image sensor 230 of FIG. 1 ). 1 may be a component of the camera module 180).
  • an image sensor 1210 includes a pixel array 1220 , a row-driver 1230 , and a column-readout circuit. ) 1240 , a controller 1250 , a memory 1260 , or an interface 1270 .
  • the pixel array 1220 may include a plurality of pixels 1221 to 1229 .
  • the pixel array 1220 may have a structure in which a plurality of pixels 1221 to 1229 are arranged in an M x N matrix (M and N are natural numbers).
  • the pixel array 1220 in which the plurality of pixels 1221 to 1229 are arranged in an M x N two-dimensional form may have M rows and N columns.
  • the pixel array 1220 may include a plurality of photo-sensing devices, for example, photo-sensing devices such as photo diodes or pinned photo diodes.
  • the pixel array 1220 may sense light using a plurality of photo-sensing elements, and convert the light into an analog electrical signal to generate an image signal.
  • the row-driver 1230 may drive the pixel array 1220 in a row unit.
  • the raw driver 1230 controls a transfer control signal for controlling a transfer transistor of the plurality of pixels 1221 to 1229 included in the pixel array 1220 , a reset control signal for controlling the reset transistor, or a selection transistor A selection control signal may be output to the pixel array 1220 .
  • the row-driver 1230 may determine a row to be read out.
  • the column-read-out circuit 1240 may receive an analog electrical signal generated by the pixel array 1220 .
  • the column-read-out circuit 1240 may receive an analog electrical signal from a column line selected from among a plurality of columns constituting the pixel array 1220 .
  • the column-read-out circuit 1240 converts an analog electrical signal received from the selected column line into pixel data (or a digital signal) and outputs an analog-to-digital converter (ADC) 1245 .
  • ADC analog-to-digital converter
  • the selected column line may mean an even-numbered column line or an odd-numbered column line.
  • the column-read-out circuit 1240 receives an analog electrical signal from the pixel array 1220 , converts the received analog electrical signal into pixel data using the ADC 1245 , and outputs an operation. It can be called read out.
  • the column-read-out circuit 1240 and the ADC 1245 may determine a column to be read out.
  • the column-read-out circuit 1240 of the image sensor 1210 may include a plurality of ADCs 1245 .
  • Each of the plurality of ADCs 1245 may be connected in parallel to a plurality of photodiodes included in the pixel array 1220 , and analog electrical signals simultaneously received from the plurality of photodiodes may be combined with a pixel based on a parallel structure. It can be quickly converted to data.
  • the column-read-out circuit 1240 of the image sensor 1210 is configured to operate in a low power state of a display (eg, the display device 160 of FIG. 1 ) at a low frame rate (eg: Readouts can be performed at 10 frames per second (fps).
  • a display eg, the display device 160 of FIG. 1
  • Readouts can be performed at 10 frames per second (fps).
  • performing readout at 10 fps means receiving an analog electrical signal from the pixel array 1220 , converting the received analog electrical signal into pixel data using the ADC 1245 , and outputting it It may mean that the operation is performed once per 1/10 second. That is, performing the readout at 10 fps may mean outputting 10 image frames per second.
  • the controller 1250 may acquire an image frame based on pixel data received from the column-read-out circuit 1240 .
  • the controller 1250 may output the image frame to the external circuit 1280 (eg, an image signal processing (ISP), a processor, a communication circuit, or an external server) through the interface 1270 .
  • the controller 1250 generates a transfer control signal for controlling the transfer transistors of the plurality of pixels 1221 to 1229, a reset control signal for controlling the reset transistor, or a selection control signal for controlling the selection transistor. and may provide the generated signal to the raw driver 1230 .
  • the controller 1250 may generate a selection control signal for selecting at least one column line among a plurality of column lines constituting the pixel array 1220 , and transmit the generated signal to the column-read-out circuit 1240 .
  • the column-read-out circuit 1240 may enable some column lines among the plurality of column lines and disable the remaining column lines based on a selection control signal provided from the controller 1250 . can be disabled).
  • the controller 1250 may be implemented as a processor (eg, the processor 120 of FIG. 1 ) including a central processing unit (CPU) or an application processor (AP), or as a kind of block or module.
  • the controller 1250 may include a subtractor for detecting a difference between images or a comparator for comparing images with each other.
  • the controller 1250 may downsize the size of the read-out image, and detect a difference between the images by comparing a plurality of downsized images with each other.
  • the electronic device may include a motion sensor, a distance measuring sensor, and the like.
  • the controller 1250 responds to information obtained through a motion sensor for detecting motion information of the electronic device (eg, the electronic device 101 of FIG. 1 ) or a distance measuring sensor for measuring a distance to the user. Based on the image information can be controlled. For example, the controller 1250 may enlarge, reduce, invert left/right, or crop the read-out image based on information such as the angle of the electronic device, the angle at which the user looks at the display, and the distance between the user and the display. You can ping.
  • the memory 1260 is configured to read out at least one image frame from the column-readout circuit 1240 at an Nth frame rate (eg, 60 fps) or an Mth frame rate (eg, 30 fps). may be stored, and the stored at least one image frame may be transmitted to the external circuit 1280 (eg, IPS, processor, communication circuit, or external server) through the interface 1270 . That is, the memory 1260 may store at least one image frame read out from the column-read-out circuit 1240 once per 1/60 second or once per 1/30 second, and the stored at least one image frame may be transmitted to the external circuit 1280 through the interface 1270 . There is no limit to the speed of transferring the image frame to the external circuit 1280 .
  • the electronic device eg, the electronic device 101 of FIG. 1
  • the controller 1250 stores only some image frames among the plurality of N-th image frames read out at an N-th frame rate (eg, 10 fps) through the column-read-out circuit 1240 in the memory 1260 . By doing so, substantially the same effect as obtaining the Mth plurality of image frames read out at the Mth frame rate (eg, 5 fps) may be obtained. For example, the controller 1250 may store only one image frame among eight image frames read out for 8/10 seconds at 10 fps in the memory 1260 .
  • N-th frame rate eg, 10 fps
  • the image frames stored in the memory 1260 are stored in the column-read-out circuit 1240 .
  • the image frames may be substantially the same as image frames read out at 5 fps through .
  • a video composed only of image frames acquired with a period of 1/5 second is defined as a '5 fps video'
  • a video composed only of image frames selected at a ratio of 1:8 among a plurality of image frames read out at 10 fps is It can be defined as 5 fps video.
  • a moving picture composed only of image frames read out at 120 fps through the column-read-out circuit 1240 may be defined as a 5 fps moving picture.
  • the column-read-out circuit 1240 may perform the read-out at a first fps (eg, 10 fps to 30 fps) less than a specified FPS (eg, 60 fps).
  • the controller 1250 may store a plurality of image frames read out at a first fps through the column-read-out circuit 1240 in the memory 1260 to operate a display in a low power state (eg, a low power preview mode). ) can be stored in a low power state (eg, a low power preview mode).
  • the configuration of the image sensor 1210 illustrated in FIG. 12 is exemplary and embodiments of the present document are not limited thereto.
  • the image sensor 1210 may not include at least one of the components illustrated in FIG. 12 .
  • the image sensor 1210 may further include a configuration not shown in FIG. 12 .
  • the frame rates (such as 5 fps, 10 fps, 30 fps, or 60 fps) used in this document are the settings or interfaces of the electronic device (eg, the electronic device 101 of FIG. 1 ) or the interface (eg, the interface ( 177)), depending on the performance of
  • the controller 1250 may control the camera module 180 to process or edit pixel information (eg, first pixel information and second pixel information) received from the processor 120 .
  • the processor 120 may control, through the controller 1250 , to operate only some of the plurality of pixels 1211 to 1219 included in the pixel array 1220 based on pixel information received from the processor 120 .
  • the controller 1250 may control, for example, the raw driver 1230 to generate a selection signal for selecting any one row line from among a plurality of row lines.
  • any one of the raw lines may mean an even-numbered row line or an odd-numbered raw line.
  • the controller 1250 may control the column-readout circuit 1240 to generate a selection signal for selecting one column line from among a plurality of column lines.
  • any one of the column lines may mean an even-numbered column line or an odd-numbered column line.
  • the image signal processor may transmit a downsized image to the display based on at least one image data acquired through the camera. The downsized image may be output on a display in a low power state.
  • the electronic device can reduce power consumption by controlling the pixels to be selectively used or downsizing an image displayed on the display, and effectively perform data processing or operation of the processor 120 .
  • FIG. 13 is a flowchart 1300 of an FPS control operation of an electronic device according to an exemplary embodiment.
  • the processor 120 may acquire at least one first image at a first frame rate using the camera module 180 .
  • the first frame rate may be 30 fps to 60 fps.
  • the at least one first image may be image frames read out at a first frame rate through a column-read-out circuit (eg, the column-read-out circuit 1240 of FIG. 12 ).
  • the processor 120 may output the at least one first image acquired in operation 1310 to a display (eg, the display device 160 of FIG. 1 ).
  • the processor 120 may determine whether information on at least one first image output to the display or information related to movement of an electronic device acquired through a sensor circuit satisfies a specified condition.
  • the information of the at least one first image may be determined whether the user's face is recognized (eg, at least one of the brightness of the output image, whether the face is close to the face, the direction of the face, the size of the face, and the face detection time) or through the camera. It may be a recognized user's gesture or the like.
  • the information related to the movement of the electronic device obtained through the sensor circuit may be folding or unfolding of a predetermined angle, an angle at which the user views the display, and the like.
  • the information on the first image output to the display or information related to the movement of the electronic device acquired through the sensor circuit matches a specified condition (eg, brightness of the display, the distance between the user and the electronic device).
  • a specified condition eg, brightness of the display, the distance between the user and the electronic device.
  • the processor 120 may acquire at least one second image at a second frame rate.
  • the second frame rate may be referred to as a value lower than the first frame rate.
  • the processor 120 operates 1330 may be repeatedly performed.
  • the processor 120 may output the at least one second image acquired in operation 1340 to a display (eg, the display device 160 of FIG. 1 ).
  • a state of a display that outputs the at least one second image may be defined as a low power preview mode.
  • FIG. 14 is an exemplary diagram for explaining the definition of a touch according to an embodiment.
  • the touch may mean including both a direct touch and a proximity touch.
  • the electronic device may include a plurality of sensors for sensing a touch input in an input interface (eg, the input interface 520 of FIG. 5 ).
  • the touch area and the touch point may be determined based on coordinates at which the plurality of sensors are located.
  • the touch input may be a single tap 1410 .
  • a single tap may be an operation with one point of contact on the surface of the touch screen.
  • a voltage value generated by the single tap around the area 1414 (eg, area a1 ) in contact with a finger among the touch screen area 1412 is higher than the first reference voltage value Vref1. It can be referenced by value.
  • the touch input may be a double tap 1420 .
  • the double tap may be an operation of having two contact points on the surface of the touch screen.
  • a first reference voltage value Vref1 is performed in a first area (eg, area a1) and a second area (eg, area a2) that are areas 1424 in contact with a finger among the touch screen area 1422 .
  • a region having a sensing value equal to or less than the second reference voltage value Vref2 may be generated between the first region and the second region through a user's double tap.
  • the second reference voltage value Vref2 may be referred to as a value lower than the first reference voltage value Vref1.
  • the touch input may be a multi-tap 1430 .
  • the multi-tap may be an operation of having at least two or more contact points on the surface of the touch screen.
  • the multi-tap is a region (eg, between the a1 region and the a2 region) having a potential higher than the first reference voltage value Vref1 in the area 1434 in contact with the user's body among the touch screen region 1432 .
  • One region may be an operation.
  • a region having a sensing value greater than or equal to the second reference voltage value Vref2 may be generated in the area 1434 through a user's multi-tap.
  • the second reference voltage value Vref2 may be referred to as a value lower than the level of the first reference voltage value Vref1.
  • One area (eg, area a1 or area a2) of the area in which the body is in contact may be spaced apart from each other by a predetermined distance or more.
  • the processor eg, the processor 120 of FIG. 1
  • a user's input received by the display among various embodiments of the present document and terms described therein may be at least one of the exemplary touches illustrated in FIG. 14 .
  • the user's touch input is illustrated in three types of a single tap, a double tap, and a multi tap, but embodiments of the present document are not limited thereto.
  • the user's touch input may further include a long press and a touch swipe.
  • a long press may be an input in which an input applied to a point of contact on the touch screen surface is longer than a specified time.
  • the touch swipe may be an input in which pressure is applied to a plurality of consecutive contact points in a predetermined area.
  • 15 is a block diagram of a program 1500 for controlling a low power display mode in an electronic device, according to various embodiments of the present disclosure.
  • a program 1500 may include a kernel 1510 (eg, operating system 142 of FIG. 1 ), a framework 1540 ). (eg, the middleware 144 of FIG. 1 ) and an application 1550 (eg, the application 146 of FIG. 1 ).
  • a kernel 1510 eg, operating system 142 of FIG. 1
  • a framework 1540 e.g, the middleware 144 of FIG. 1
  • an application 1550 eg, the application 146 of FIG. 1
  • the application 1550 may include a system application 1552 or a low power display application 1554 (eg, AOD).
  • a low-power display mode eg, a low-power preview mode
  • the low-power display application 1554 performs a display (eg, in FIG. 1 ) while operating in the low-power display mode. It is possible to control to generate content for display through the display device 160 .
  • the low-power display application 1554 may control to generate content corresponding to the specified input.
  • the low power display application 1554 may include:
  • At least one image of a specified resolution (eg, the second resolution in FIG. 5 ) is acquired using the camera, and the at least one image is output to the display in the low power state.
  • the framework 1540 (eg, the middleware 144 of FIG. 1 ) enables the application 1550 to use a function or information provided by one or more resources of the electronic device 101 .
  • the framework 1540 may include a window manager 1544 , a power manager 1546 , and a low power display manager 1548 .
  • the framework 1540 may partially delete existing components or add new components.
  • the window manager 1544 uses image information generated through at least one image acquired through a camera to display a window corresponding to content to be output to a display panel (eg, the display panel 516 of FIG. 5 ).
  • the power manager 1546 may manage the capacity, temperature, or power of the battery, and use the corresponding information to determine or provide power information required for the operation of the electronic device.
  • the power manager 1546 may supply power corresponding to the display operation mode or power consumption level of the electronic device based on the control of the low power display application 1554 .
  • the low power display manager 1548 may provide status information of the display to the low power application 1554 .
  • the low power display manager 1548 may control the brightness of the display panel (eg, the display panel 516 of FIG. 5 ) based on the power consumption level of the electronic device.
  • the kernel 1510 may control system resources (eg, processes, memory, or power) of the electronic device.
  • the kernel 1510 may include other hardware devices of the electronic device 101 , for example, the input device 150 , the sound output device 155 , the display device 160 , the audio module 170 , and the sensor module. 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or antenna module ( 197 may include one or more drivers 1520 for driving.
  • the drivers 1520 may include a general display driver 1522 or a display control driver 524 .
  • the general display driver 1522 may store content data received through the interface of the graphic layer 1530 in the display memory (GRAM) 1560 of the display device 160 .
  • the general display driver 1522 may determine that the corresponding content data is content data to be displayed during the low-power display mode.
  • the display control driver 1524 may control the operation of the display driving module 512 based on the operation state of the electronic device.
  • the display control driver 1524 may control the brightness or resolution of content output to the display panel based on the display operation mode of the electronic device.
  • the configuration of the program 1500 shown in FIG. 15 is exemplary and embodiments of the present document are not limited thereto.
  • the program 1500 may not include at least one of the components shown in FIG. 15 .
  • the program 1500 may further include a configuration not shown in FIG. 15 .
  • FIG. 16 illustrates an operation of outputting preview images of electronic devices whose shapes are changed according to various embodiments of the present disclosure.
  • the electronic device of a first form factor 1601 includes a first surface 1612 including a camera and a display, and a first surface. It is connected to 1612 and is disposed on the left and right sides of the second surface 1614 and the first surface 1612 including a touch panel capable of a touch input (eg, the touch panel 524 of FIG. 5 ), the left and right sides It may be composed of a plurality of third surfaces 1616 connected to be opened and closed.
  • the electronic device of the first form factor 1601 detects a user's double tap input to the touch panel 524 included in the second surface 1614, and after the double tap is sensed, the first surface ( 1612)
  • the third surface 1616 that was closed above is opened left and right so that the display of the first surface 1612 is exposed to the user, and at least one image may be acquired using the camera of the first surface 1612 .
  • the electronic device of the first form factor 1601 may output the obtained at least one image through the display in a low power state on the first surface 1612 .
  • the electronic device of the second form factor 1602 (eg, the electronic device 101 of FIG. 1 ) is connected to a first surface 1622 including a camera and a display, and the first surface 1622 .
  • it may be composed of a second surface 1624 including a touch panel capable of touch input, and a third surface 1626 disposed on the upper end of the first surface 1622 and connected to open and close vertically.
  • the electronic device of the second form factor 1602 detects a user's double tap input to the touch panel 524 included in the second surface 1624, and after the double tap is sensed, the first surface ( 1622), the closed third surface 1626 is opened upward so that the display of the first surface 1622 is exposed to the user, and at least one image may be acquired using the camera of the first surface 1622 .
  • the electronic device of the second form factor 1602 may output the obtained at least one image through the display in a low power state on the first surface 1622 .
  • the form factors are shown in two types, but embodiments of the present document are not limited thereto.
  • the electronic device of the first form factor 1601 may include one third side 1616 closed on the first side 1612 .
  • the electronic device of the first form factor 1601 and the second form factor 1602 may be an out-fold electronic device or an electronic device supporting both in-fold and out-fold.
  • the electronic devices of the first form factor 1601 and the second form factor 1602 are illustrated to output content on one display, but the present invention is not limited thereto.
  • the electronic device of the first form factor 1601 and the second form factor 1602 may include a plurality of displays disposed on the second side 1614 or 1624 and the third side 1616 or 1626 .
  • 17 illustrates a form of providing lighting on a display of an electronic device according to various embodiments of the present disclosure.
  • the electronic device may include a plurality of displays (eg, the first display 1703 and the second display 1705 ).
  • the electronic device may include a first display 1703 and a second display 1705 .
  • the processor 120 outputs at least one image acquired through the camera to one area of the second display 1705, and outputs a white screen to one area 1707 of the first display 1703,
  • a lighting function may be performed by adjusting a contrast value.
  • the electronic device may include a first display 1713 and a second display 1715 .
  • the processor 120 outputs at least one image acquired through the camera to one area of the second display 1715, and outputs a white screen to one area 1717 of the second display 1715,
  • a lighting function may be performed by adjusting a contrast value.
  • the at least one image acquired through the camera may be at least one first image having a second resolution lower than the first maximum resolution.
  • the at least one image may be the at least one second image having a third resolution higher than the second resolution.
  • the electronic device outputs the at least one image to one area of the second display 1705 and performs a lighting function through one area of the first display 1703, thereby providing various changes according to the user's preference. can provide
  • the operation form of the lighting function of the electronic device shown in FIG. 17 is exemplary and embodiments of the present document are not limited thereto.
  • illumination of the first display and the second display may be provided at the same time.
  • the electronic device may include an illuminance sensor.
  • the illuminance sensor may acquire brightness information around the electronic device.
  • the processor may adjust a contrast value of an image output to one region of the first display 1703 based on the information obtained by the illuminance sensor.
  • FIG. 18 a method of providing a preview mode through a display of the electronic device 101 may be described with reference to FIG. 18 . Examples described below may be equally applied to the embodiment of FIG. 17 .
  • FIG. 18 illustrates an operation of a display that outputs a different screen according to an angle of an electronic device whose shape is changed according to various embodiments of the present disclosure
  • the shape of the electronic device 1817 may be physically changed according to folding/unfolding.
  • the electronic device may include a plurality of displays.
  • the electronic device may be unfolded at a specified hinge angle, and may output at least one first image 1815 acquired through a camera module (eg, the camera module 180 of FIG. 1 ) to the first display 1811 .
  • the electronic device may provide a lighting effect on the second display 1813 .
  • At least one second image 1821 in which a part or all of the at least one first image is enlarged according to an angle at which the user lifts the electronic device may be output on the first display.
  • the user may tilt the electronic device to hold the first display 1821 so that it can be viewed more closely.
  • the electronic device may further include at least one sensor.
  • the electronic device may extract information about the angle at which the user views the display by analyzing the information based on the information about the motion of the electronic device acquired through the motion sensor.
  • the electronic device may acquire information about the distance between the user and the display based on information acquired through the distance measuring sensor.
  • the processor eg, the processor 120 of FIG.
  • the at least one second image output to the display is illustrated as an enlarged view of the at least one first image, but is not limited thereto.
  • the at least one second image may be a reduced area of the at least one first image.
  • the at least one second image may be a left-right inversion or cropping of a region of the at least one first image.
  • the electronic device may include a display, a camera configured to support the first maximum resolution, a processor, and a memory operatively connected to the processor.
  • the memory causes the processor, when executed, to, when a first input to the display in a low power state is sensed, use the camera to generate at least one of at least one second resolution lower than the first maximum resolution. acquiring a first image, displaying at least one first image of the second resolution on the display in the low power state, and after displaying the at least one first image, when a second input is sensed, the camera to obtain at least one second image of a third resolution higher than the second resolution, control the display to a high power state, and display at least one second image of the third resolution on the display in the high power state It can store one or more instructions to make it happen.
  • the camera comprises an image sensor comprising a plurality of pixels, and the instructions, when executed, cause the processor to select some of the plurality of pixels corresponding to the second resolution. may be used to acquire the at least one first image.
  • the at least one first image comprises a series of images
  • the instructions when executed, cause the processor to obtain the series of images in less than or equal to a specified FPS (frames per second). can do.
  • the first input may be at least one of a single tap, a double tap, a long press, a touch swipe, a touch input having a designated pattern, or a touch input having a touch area larger than or equal to a designated size.
  • the processor may detect the second input by performing face recognition or gesture recognition using the camera.
  • the electronic device further includes at least one sensor, and when the one or more instructions are executed, the processor uses the at least one sensor to cause upward motion, folding or The second input may be sensed by detecting the unfolding.
  • the electronic device further includes at least one camera sensor, wherein the one instruction is executed by the processor based on the display resolution information of the electronic device, the camera sensor You can change the read out mode of
  • the processor is configured to: the at least one first image or the at least one second image according to an angle at which a user looks at the display, an angle of the electronic device, or a distance between the user and the display may be set to be displayed on the display by enlarging, reducing, inverting left and right, or cropping.
  • the one or more instructions is a part of the display other than the display unit of the display on which the first image or the second image acquired by the processor using the camera when executed is displayed, It may be set to display a white screen with a maximum contrast value.
  • the method of providing a mirror function of an electronic device when a first input to a display in a low power state is detected, at least one first image of a second resolution lower than the first maximum resolution is displayed using a camera. acquiring, displaying the at least one first image of the second resolution on the display in the low power state, after displaying the at least one first image, if a second input is detected, using the camera to obtain at least one second image of a third resolution higher than the second resolution, controlling the display to a high power state, and displaying the at least one second image of the third resolution on the display in the high power state. It may include an operation of displaying an image.
  • the camera includes an image sensor including a plurality of pixels, and the obtaining of the at least one first image includes selecting some pixels corresponding to the second resolution among the plurality of pixels. It may be an operation to acquire the at least one first image by using the .
  • the operation of acquiring the at least one first image may be an operation of acquiring a series of images included in the at least one first image at less than or equal to a specified FPS (frames per second).
  • the operation of detecting the second input after displaying the at least one first image may be an operation of detecting the second input by performing face recognition or gesture recognition using the camera.
  • the first input may be at least one of a single tap, a double tap, a long press, a touch swipe, a touch input having a designated pattern, or a touch input having a touch area larger than or equal to a designated size.
  • the operation of acquiring at least one second image of a third resolution higher than the second resolution by using the camera may include: , obtaining sensing information by using at least one sensor, and inputting the sensing information as the second input.
  • the sensing information may be information in which the at least one sensor detects an upward motion, folding, or unfolding of the electronic device.
  • the method may further include an operation of displaying on the display by enlarging, reducing, inverting left and right, or cropping the display according to the present invention.
  • the method for providing a camera preview according to various embodiments of the present document described above may be stored in a non-transitory readable medium.
  • a non-transitory readable medium may be mounted and used in various devices.
  • the non-transitory readable recording medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short moment, such as a register, cache, memory, or the like.
  • the above-described programs may be provided by being stored in a non-transitory readable recording medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

디스플레이, 제1 최대 해상도를 지원하도록 설정된 카메라, 프로세서 및 상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함하는 전자 장치가 개시된다. 전자 장치는 저전력 상태의 상기 디스플레이에 대한 제1 입력이 감지되면, 카메라를 이용하여 상기 제1 최대 해상도보다 낮은 제2 해상도의 적어도 하나의 제1 이미지를 획득하고, 상기 적어도 하나의 제1 이미지를 상기 디스플레이에 표시하고, 제2 입력이 감지되면, 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하고, 상기 디스플레이를 고전력 상태로 제어하고, 상기 제2 이미지를 상기 디스플레이에 표시하도록 할 수 있다. 이 외에도, 명세서를 통하여 파악되는 다양한 실시예들이 가능할 수 있다.

Description

카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법
본 문서의 다양한 실시 예는 카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법에 관한 것이다.
전자 장치, 예를 들어, 스마트 폰과 같은 휴대용 전자 장치를 통해 제공되는 다양한 서비스 및 부가 기능들이 점차 증가하고 있다. 이러한 전자 장치의 효용 가치를 높이고, 다양한 사용자들의 욕구를 만족시키기 위해서 통신 서비스 제공자 또는 전자 장치 제조사들은 다양한 기능들을 제공하고 다른 업체와의 차별화를 위해 전자 장치를 경쟁적으로 개발하고 있다. 이에 따라, 전자 장치를 통해서 제공되는 다양한 기능들도 점점 고도화 되고 있다.
전자 장치는 디스플레이를 통해 사용자에게 다양한 콘텐츠(예: 이미지, 동영상 등)를 시각적으로 제공할 수 있다. 예를 들어, 디스플레이는 콘텐츠를 표시하기 위한 디스플레이 패널 및 디스플레이 패널을 구동하기 위한 디스플레이 구동 회로(DDI: display driver integrated circuit)를 포함할 수 있다.
또한, 모바일 장치의 디스플레이 면을 증가시키기 위한 기술들이 개발되고 있다. 모바일 장치의 휴대성 및 디스플레이 크기를 개선하기 위하여, 모바일 장치의 형태(form)가 변경될 수 있다. 예를 들어, 모바일 장치의 일부가 접히(fold)거나 연장(extend)될 수 있다.
전자 장치는 사용자에게 카메라를 통해 획득한 적어도 하나의 이미지를 디스플레이에 출력하는 거울 모드를 제공할 수 있다. 전자 장치는 거울 모드를 제공할 때, 사용자의 비의도적인 입력과 구분되는 특정 입력에 따라 사용자가 의도하는 최적의 기능을 수행하는 것이 용이하지 않을 수 있다. 예를 들어, 사용자는 전자 장치의 프리뷰 모드 제공을 받는데 있어서 높은 전력으로 고화질의 프리뷰 이미지를 제공받는 것이 불필요할 수 있다. 전자 장치가 다른 기능들을 수행함에 있어서 일반적으로 소모되는 전력으로 프리뷰 모드를 제공하는 경우, 전력이 낭비되는 문제가 발생할 수 있다.
본 문서의 다양한 실시예들은, 저전력 상태에서 프리뷰 모드를 제공하는 방법 및 이를 위한 전자 장치를 제공할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 디스플레이, 제1 최대 해상도를 지원하도록 설정된 카메라, 프로세서, 및 상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함하고, 상기 메모리는 실행되었을 때 상기 프로세서가, 저전력 상태의 상기 디스플레이에 대한 제1 입력이 감지되면, 상기 카메라를 이용하여 상기 제1 최대 해상도보다 낮은 제2 해상도의 적어도 하나의 제1 이미지를 획득하고, 상기 제2 해상도의 적어도 하나의 제1 이미지를 상기 저전력 상태의 상기 디스플레이에 표시하고, 상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 상기 카메라를 이용하여 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하고, 상기 디스플레이를 고전력 상태로 제어하고, 상기 고전력 상태의 디스플레이에 상기 제3 해상도의 적어도 하나의 제2 이미지를 표시하도록 하는 하나 이상의 인스트럭션들(instructions)을 저장할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 거울 기능을 제공하기 위한 방법은, 저전력 상태의 디스플레이에 대한 제1 입력이 감지되면, 카메라를 이용하여 제1 최대 해상도보다 낮은 제2 해상도의 적어도 하나의 제1 이미지를 획득하는 동작, 상기 제2 해상도의 상기 적어도 하나의 제1 이미지를 상기 저전력 상태의 상기 디스플레이에 표시하는 동작, 상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 상기 카메라를 이용하여 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하는 동작, 상기 디스플레이를 고전력 상태로 제어하는 동작, 상기 고전력 상태의 상기 디스플레이에 상기 제3 해상도의 상기 적어도 하나의 제2 이미지를 표시하는 동작을 포함할 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 전자 장치는 저전력 상태의 디스플레이를 통해 프리뷰 모드를 제공할 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 복수의 디스플레이를 갖거나 접힘(folding)/펼침(unfolding)이 가능해지는 등 다양한 형태를 갖는 전자 장치가 상용화 되어감에 따라, 그러한 형태적 특징을 최대한 이용하여 사용자의 편의를 고려한 기능을 제공할 수 있다. 본 문서에 개시되는 다양한 실시 예들에 따르면, 전자 장치는 저전력 상태의 디스플레이 구동을 통해 전력 소모를 최소화할 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 전자 장치는 사용자가 원하는 상태로 최적화 된 저전력 상태의 프리뷰 모드를 제공하고, 경우에 따라 프리뷰 이미지를 사용자의 기호에 맞추어 가공 또는 편집할 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 전자 장치는 픽셀을 선택적으로 이용하도록 제어하거나, 디스플레이에 표시되는 이미지를 다운사이징함으로써 전력 소모를 낮추고, 프로세서(120)의 데이터 처리 또는 연산을 효과적으로 수행할 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시 예들에 따른, 카메라 모듈을 예시하는 블록도이다.
도 3은 다양한 실시 예들에 따른, 표시 장치의 블록도이다.
도 4는 일 실시예에 따른 전자 장치의 블록도를 도시한다.
도 5는 다양한 실시 예들에 따른, 전자 장치의 프로세서, 디스플레이 모듈 및 입력 인터페이스의 블록도이다.
도 6은 본 문서의 다양한 실시 예들에 따른, 디스플레이 구동 모듈의 블록도를 도시한다.
도 7은 다양한 실시 예들에 따른 형태가 변화하는 전자 장치들을 도시한다.
도 8은 다양한 실시 예들에 따른 형태가 변화하는 전자 장치들을 도시한다.
도 9는 본 문서에 개시되는 실시예에 따른 전자 장치의 동작 흐름도를 도시한다.
도 10은 다양한 실시 예들에 따른 형태 변경이 가능한 전자 장치의 터치 모드를 도시한다.
도 11은 일 실시 예들에 따른 카메라와 프로세서의 상호 동작을 도시하는 흐름도이다.
도 12는 다양한 실시 예들에 따른, 이미지 센서의 구조를 설명하기 위한 블록도이다.
도 13은 일 실시예에 따른 전자 장치의 FPS 조절 동작 흐름도이다.
도 14는 일 실시예에 따른 터치의 정의를 설명하기 위한 예시도이다.
도 15는 다양한 실시예들에 따른, 전자 장치에서 저전력 표시 모드를 제어하기 위한 프로그램의 블록도이다.
도 16은 다양한 실시 예들에 따른 형태가 변화하는 전자 장치들의 프리뷰 이미지를 출력하는 동작을 도시한다.
도 17은 다양한 실시 예들에 따른 전자 장치의 디스플레이 상의 조명 제공 형태를 도시한다.
도 18은 다양한 실시 예들에 따른 형태가 변화하는 전자 장치의 각도에 따라 다른 화면을 출력하는 디스플레이의 동작을 도시한다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나”, "A, B 또는 C", "A, B 및 C 중 적어도 하나” 및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는, 다양한 실시예들에 따른, 카메라 모듈(180)을 예시하는 블록도(200)이다. 도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다.
플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일실시예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.
이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 일실시예에 따르면, 이미지 스태빌라이저(240)은 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(180) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.
이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)이 프로세서(120)과 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.
도 3은 다양한 실시예들에 따른, 표시 장치(160)의 블록도(300)이다. 도 3을 참조하면, 표시 장치(160)는 디스플레이(310), 및 이를 제어하기 위한 디스플레이 드라이버 IC(DDI)(330)를 포함할 수 있다. DDI(330)는 인터페이스 모듈(331), 메모리(333)(예: 버퍼 메모리), 이미지 처리 모듈(335), 또는 맵핑 모듈(337)을 포함할 수 있다. DDI(330)은, 예를 들면, 영상 데이터, 또는 상기 영상 데이터를 제어하기 위한 명령에 대응하는 영상 제어 신호를 포함하는 영상 정보를 인터페이스 모듈(331)을 통해 전자 장치 101의 다른 구성요소로부터 수신할 수 있다. 예를 들면, 일실시예에 따르면, 영상 정보는 프로세서(120)(예: 메인 프로세서(121)(예: 어플리케이션 프로세서) 또는 메인 프로세서(121)의 기능과 독립적으로 운영되는 보조 프로세서(123)(예: 그래픽 처리 장치)로부터 수신될 수 있다. DDI(330)는 터치 회로(350) 또는 센서 모듈(176) 등과 상기 인터페이스 모듈(331)을 통하여 커뮤니케이션할 수 있다. 또한, DDI(330)는 상기 수신된 영상 정보 중 적어도 일부를 메모리(333)에, 예를 들면, 프레임 단위로 저장할 수 있다. 이미지 처리 모듈(335)은, 예를 들면, 상기 영상 데이터의 적어도 일부를 상기 영상 데이터의 특성 또는 디스플레이(310)의 특성에 적어도 기반하여 전처리 또는 후처리(예: 해상도, 밝기, 또는 크기 조정)를 수행할 수 있다. 맵핑 모듈(337)은 이미지 처리 모듈(135)를 통해 전처리 또는 후처리된 상기 영상 데이터에 대응하는 전압 값 또는 전류 값을 생성할 수 있다. 일실시예에 따르면, 전압 값 또는 전류 값의 생성은 예를 들면, 디스플레이(310)의 픽셀들의 속성(예: 픽셀들의 배열(RGB stripe 또는 pentile 구조), 또는 서브 픽셀들 각각의 크기)에 적어도 일부 기반하여 수행될 수 있다. 디스플레이(310)의 적어도 일부 픽셀들은, 예를 들면, 상기 전압 값 또는 전류 값에 적어도 일부 기반하여 구동됨으로써 상기 영상 데이터에 대응하는 시각적 정보(예: 텍스트, 이미지, 또는 아이콘)가 디스플레이(310)를 통해 표시될 수 있다.
일실시예에 따르면, 표시 장치(160)는 터치 회로(350)를 더 포함할 수 있다. 터치 회로(350)는 터치 센서(351) 및 이를 제어하기 위한 터치 센서 IC(353)를 포함할 수 있다. 터치 센서 IC(353)는, 예를 들면, 디스플레이(310)의 특정 위치에 대한 터치 입력 또는 호버링 입력을 감지하기 위해 터치 센서(351)를 제어할 수 있다. 예를 들면, 터치 센서 IC(353)는 디스플레이(310)의 특정 위치에 대한 신호(예: 전압, 광량, 저항, 또는 전하량)의 변화를 측정함으로써 터치 입력 또는 호버링 입력을 감지할 수 있다. 터치 센서 IC(353)는 감지된 터치 입력 또는 호버링 입력에 관한 정보(예: 위치, 면적, 압력, 또는 시간)를 프로세서(120) 에 제공할 수 있다. 일실시예에 따르면, 터치 회로(350)의 적어도 일부(예: 터치 센서 IC(353))는 디스플레이 드라이버 IC(330), 또는 디스플레이(310)의 일부로, 또는 표시 장치(160)의 외부에 배치된 다른 구성요소(예: 보조 프로세서(123))의 일부로 포함될 수 있다.
일실시예에 따르면, 표시 장치(160)는 센서 모듈(176)의 적어도 하나의 센서(예: 지문 센서, 홍채 센서, 압력 센서 또는 조도 센서), 또는 이에 대한 제어 회로를 더 포함할 수 있다. 이 경우, 상기 적어도 하나의 센서 또는 이에 대한 제어 회로는 표시 장치(160)의 일부(예: 디스플레이(310) 또는 DDI(330)) 또는 터치 회로(350)의 일부에 임베디드될 수 있다. 예를 들면, 표시 장치(160)에 임베디드된 센서 모듈(176)이 생체 센서(예: 지문 센서)를 포함할 경우, 상기 생체 센서는 디스플레이(310)의 일부 영역을 통해 터치 입력과 연관된 생체 정보(예: 지문 이미지)를 획득할 수 있다. 다른 예를 들면, 표시 장치(160)에 임베디드된 센서 모듈(176)이 압력 센서를 포함할 경우, 상기 압력 센서는 디스플레이(310)의 일부 또는 전체 영역을 통해 터치 입력과 연관된 압력 정보를 획득할 수 있다. 일실시예에 따르면, 터치 센서(351) 또는 센서 모듈(176)은 디스플레이(310)의 픽셀 레이어의 픽셀들 사이에, 또는 상기 픽셀 레이어의 위에 또는 아래에 배치될 수 있다.
도 4는, 일 실시예에 따른 전자 장치의 블록도를 도시한다.
도 4를 참조하면, 전자 장치(400)(예: 도 1의 전자 장치(101))는 프로세서(120), 메모리(130), 표시 장치(160), 카메라 모듈(180), 및/또는 센서 회로(410)를 포함할 수 있다. 다르게 설명되지 않으면, 도 1과 동일한 참조번호를 갖는 구성들에 대한 설명은 도 1의 설명에 의하여 참조될 수 있다.
일 실시예에 따르면, 프로세서(120)는 전자 장치(400) 내의 다른 구성 요소(예: 메모리(130), 표시 장치(160), 카메라 모듈(180), 및/또는 센서 회로(410))와 작동적으로(operatively) 연결될 수 있다. 프로세서(120)는, 전자 장치(400)의 구성들(예: 메모리(130), 표시 장치(160), 카메라 모듈(180), 및/또는 센서 회로(410))을 제어할 수 있다. 예를 들어, 프로세서(120)는 메모리(130)에 저장된 하나 이상의 인스트럭션들(instructions)에 따라서 전자 장치(400)의 구성들을 제어할 수 있다.
카메라 모듈(180)은 복수의 카메라들을 포함할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 전자 장치(400)의 일면(예: 전면 또는 후면)에 배치될 수 있다. 전자 장치(400)의 일면은, 표시 장치(160)가 구비된 면과 동일한 면 또는 상이한 면을 포함할 수 있다. 예를 들어, 상기 복수의 카메라들은 각각 서로 다른 해상도의 이미지를 획득하도록 설정될 수 있다 카메라 모듈(180)은 렌즈를 통해 보여지는 이미지(예를 들어, 사진 또는 동영상)를 촬영할 수 있다. 상기 복수의 카메라들은 각각 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 전자 장치가 거울 모드를 제공할 때, 상기 센서 중 일부는 렌즈를 통해 촬영되는 이미지의 동작 상태를 감지하는 모션 감지 센서이거나, 렌즈를 통해 촬영되는 이미지의 주변 밝기를 감지하는 조도 센서일 수 있다.
표시 장치(160)는 전자 장치(400)에서 처리되는 정보를 표시(출력)할 수 있다. 예를 들어, 표시 장치(160)는 카메라 모듈(180)을 이용한 촬영에 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있다. 표시 장치(160)는 다양한 형태의 디스플레이(예: 도 3의 310))를 포함할 수 있다. 디스플레이(310)는 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 또는 폴더블 디스플레이(foldable display) 중에서 적어도 하나일 수 있다. 예를 들면, 디스플레이(310)는 전자 장치(400)의 전면 또는 후면에 배치될 수 있다. 일 실시예에 따르면, 디스플레이(310)는 카메라 모듈(180)을 이용하여 획득된 영상을 기초로 프리뷰 영상을 표시할 수 있다. 이때, 디스플레이(310)는 디스플레이(310)의 일 영역 상에 프리뷰 영상을 표시할 수 있다. 또한, 디스플레이(310)는 카메라 모듈(180)을 통해 획득된 영상으로부터 생성된 적어도 하나의 이미지를 표시할 수 있다. 디스플레이(310)는 입력 장치를 포함하는 터치스크린 디스플레이일 수 있다.
일 실시예에 따르면, 프로세서(120)는 디스플레이(310)에 감지되는 입력에 기반하여 디스플레이에 출력되는 적어도 하나의 이미지의 해상도를 제어할 수 있다. 예를 들어, 프로세서(120)는, 저전력 상태의 상기 디스플레이(310)에 대한 제1 입력이 감지되면, 카메라 모듈(180)이 제2 해상도의 적어도 하나의 제1 이미지를 획득하도록 제어할 수 있다. 다른 예를 들어, 프로세서(120)는, 상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 카메라 모듈(180)이 제3 해상도의 적어도 하나의 제2 이미지를 획득하도록 제어할 수 있다. 예를 들어, 상기 제1 최대 해상도는 5312x2988, 즉 1,590만 화소를 나타내는 값으로 참조될 수 있다. 예를 들어, 상기 제2 해상도는 상기 제1 최대 해상도보다 낮은 해상도로 참조될 수 있다. 예를 들어, 상기 제3 해상도는 상기 제2 해상도보다 높은 해상도로 참조될 수 있다.
예를 들어, 상기 제1 입력은 싱글 탭, 더블 탭, 롱 프레스, 터치 스와이프, 지정된 패턴의 터치 입력, 또는 지정된 크기 이상의 터치 영역을 갖는 터치 입력 중 적어도 하나일 수 있다. 싱글 탭은, 터치 스크린 표면 상에 하나의 접촉점을 갖는 입력일 수 있다. 더블 탭은, 터치 스크린 표면 상에 둘 이상의 접촉점을 갖는 입력일 수 있다. 롱 프레스는, 터치 스크린 표면 상의 접촉점에 가해지는 압력이 지정된 시간보다 긴 입력일 수 있다. 터치 스와이프는, 일정 영역의 연속적인 복수 개의 접촉점들에 압력이 가해지는 입력일 수 있다. 예를 들어, 전자 장치(400)는 적어도 하나의 센서를 더 포함하고, 상기 적어도 하나의 센서를 이용하여 전자 장치(400)의 상승 모션, 폴딩 또는 언폴딩을 감지함으로써 상기 제2 입력을 감지하도록 할 수 있다.
일 실시예에 따르면, 프로세서(120)는 디스플레이(310)의 전력 상태를 제어할 수 있다. 예를 들어, 프로세서(120)는 디스플레이(310)에 감지되는 제1 입력 또는 제2 입력에 기반하여 디스플레이(310)를 저전력 상태 또는 올웨이즈 온 디스플레이(Always on display; AOD) 상태로 제어할 수 있다. 예를 들어, 디스플레이(310)의 저전력 상태 또는 AOD 상태는, 도 5와 관련하여 후술되는 바와 같이, 고전력 상태에 비하여 상대적으로 평균 소모 전력 또는 평균 전류가 낮은 상태로 참조될 수 있다.
예를 들어, 프로세서(120)는 카메라 모듈(180)을 통해 수집된 영상을 프리뷰 영상으로 표시하도록 디스플레이(310)를 제어하여 사용자가 카메라를 통해 비추어지는 영상을 확인하도록 할 수 있다. 또한, 프로세서(120)는 촬영 수행 요청 발생에 따라, 촬영 수행 요청이 발생한 시점에서 카메라 모듈(180)을 통해 수집된 영상을 촬영하여 이미지를 생성할 수 있다. 생성된 이미지는 메모리(130)에 임시적으로 또는 영구적으로 저장될 수 있다.
센서 회로(410)는 전자 장치(400)의 상태를 식별하기 위해 이용될 수 있다. 센서 회로(410)는 전자 장치(400)의 움직임을 감지하고, 감지된 움직임에 대응하는 움직임 정보를 출력할 수 있다. 예를 들어, 센서 회로(410)는 전자 장치(400)의 움직임 정보를 획득할 수 있다. 상기 움직임 정보는 예를 들면, 전자 장치(400)와 사용자 간의 거리 또는 전자 장치(400)의 상태(예: 폴딩 또는 언폴딩) 중 적어도 하나일 수 있다. 전자 장치(400)와 사용자와의 거리또는 전자 장치(400)의 상태에 관한 정보는 근접센서, UWB(ultra-wideband) 통신, 및/또는 카메라 모듈(180)을 통해 인식되는 이미지 정보를 기반으로 획득할 수 있다. 예를 들면, 센서 회로(410)는 적어도 하나의 센서를 더 포함할 수 있다. 상기 적어도 하나의 센서는 전자 장치(400)의 폴딩 각도를 인식하는 제1 센서를 포함할 수 있다. 상기 적어도 하나의 센서는 상기 전자 장치(400)의 회전 방향을 감지하는 제2 센서를 포함할 수 있다. 프로세서(120)는, 상기 적어도 하나의 센서의 출력을 이용하여 전자 장치(400)의 폴딩 또는 언폴딩 여부를 인식할 수 있다. 다른 예를 들면, 전자 장치(400)는 상기 적어도 하나의 센서를 통해 전자 장치(400)의 회전 방향 및 회전 각도를 인식할 수 있다.
도 4에 도시된 전자 장치(400)의 구성은 예시적인 것으로서 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(400)는 도 4에 도시된 구성들 중 적어도 하나를 포함하지 않을 수 있다. 다른 예를 들어, 전자 장치(400)는 도 4에 미도시된 구성을 더 포함할 수 있다.
도 5는 다양한 실시 예들에 따른, 전자 장치(101)의 디스플레이 모듈 및 입력 인터페이스의 블록도(500)이다.
도 5를 참조하면, 전자 장치(101)는 프로세서(120), 디스플레이(510) 및 입력 인터페이스(520)를 포함할 수 있다.
다양한 실시예에 따르면, 프로세서(120)는 저전력 디스플레이 모드와 연관된 동작을 수행할 수 있다. 예를 들어, 저전력 디스플레이 모드는 프로세서(120)가 슬립(sleep) 상태(예: 유휴(idle) 상태)를 유지하는 동안 소정의 콘텐츠를 디스플레이(510)를 통해 출력하는 모드일 수 있다. 예컨대, 저전력 디스플레이 모드는 올웨이즈 온 디스플레이(AOD) 상태를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 저전력 디스플레이 모드에서 출력되도록 지정된 콘텐츠와 콘텐츠의 출력 정보를 디스플레이 구동 모듈(512)로 전달할 수 있다. 다양한 실시예에 따르면, 프로세서(120)는 지정된 콘텐츠의 속성 정보에 기반하여 적어도 콘텐츠의 출력 위치(또는 출력 영역)를 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 저전력 디스플레이 모드가 수행되는 동안 슬립 상태를 유지할 수 있다.
일 실시예에 따르면, 프로세서(120)는 저전력 디스플레이 모드가 수행되는 동안 이벤트의 발생을 감지할 수 있다. 이벤트는 전자 장치(101)에 의해 생성되거나 또는 외부로부터 수신될 수 있다. 전자 장치(101)에 의해 생성되거나 또는 외부로부터 수신되는 이벤트는 싱글 탭, 더블 탭, 롱 프레스, 터치 스와이프, 지정된 패턴의 터치 입력, 또는 지정된 크기 이상의 터치 영역을 갖는 터치 입력 중 적어도 하나와 연관될 수 있다. 일 실시예에 따르면, 이벤트의 발생을 감지하는 것에 대응하여, 프로세서(120)의 상태는 슬립 상태에서 웨이크업(wake up) 상태로 천이될 수 있다. 웨이크업 상태로 천이된 프로세서(120)는, 감지된 이벤트를 대표하는 알림 객체(예: 저전력 거울 모드, 카메라를 통해 인식되는 사용자의 얼굴)가 저전력 디스플레이 모드를 통해 출력되도록 제어할 수 있다. 일 실시예에 따르면, 프로세서(120)는, 이벤트에 대응하는 알림 객체와 알림 객체의 출력 정보(예: 알림 객체의 출력 위치, 출력 크기)를 디스플레이 구동 모듈(512)로 전달할 수 있다. 예를 들면, 알림 객체의 출력 위치는 디스플레이(510)의 일 영역일 수 있다.
다양한 실시예에 따르면, 디스플레이(510)는 디스플레이 구동 모듈(512) 및 디스플레이 패널(516)을 포함할 수 있다. 일 실시예에 따르면, 디스플레이 구동 모듈(512)은 디스플레이 패널(516)을 구동할 수 있다. 예를 들어, 디스플레이 구동 모듈(512)은 디스플레이(510)(또는 디스플레이 구동 모듈(512))의 메모리(514)(예: 그래픽 램(graphic random access memory))에 저장된 프리뷰 이미지를 기 설정된 프레임 수로 디스플레이 패널(516)에 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는 디스플레이(510)의 해상도 정보를 기반으로 카메라 모듈(180)의 리드 아웃(read-out) 모드를 변경하여 저전력 상태의 디스플레이(510) 상에 프리뷰 이미지가 출력되도록 디스플레이 구동 모듈(512)을 제어할 수 있다. 예를 들어, 디스플레이 구동 모듈(512)은 도 6과 관련하여 후술되는 방법에 따라서, 디스플레이(510)를 저전력(예: AOD) 상태로 제어할 수 있다.
다양한 실시예에 따르면, 입력 인터페이스(520)는 터치패널 구동 모듈(522) 및 터치 패널(524)을 포함할 수 있다. 일 실시예에 따르면, 터치패널 구동 모듈(522)은 수신되는 입력에 대한 정보를 프로세서(120)로 전달할 수 있다. 예를 들면, 상기 수신되는 입력은 사용자의 터치 입력(싱글 탭, 더블 탭, 터치 스와이프, 롱 프레스, 지정된 패턴의 터치 입력, 또는 지정된 크기 이상의 터치 영역을 갖는 터치 입력)일 수 있다.
도 5에서, 디스플레이(510)와 입력 인터페이스(520)가 별개의 구성으로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 입력 인터페이스(520)는 디스플레이(510)에 포함될 수 있다.
도 6은 본 문서의 다양한 실시 예에 따른 디스플레이 구동 모듈의 블록도(600)를 도시한다.
일 실시 예에 따르면, 외부 DC/DC 변환기(602)는 디스플레이 구동 모듈(512)의 구동을 위한 전력을 공급할 수 있다. 예를 들어, 외부 DC/DC 변환기(602)는 전자 장치(101)가 저전력 상태로 동작하는 경우, 디스플레이 구동 모듈(512)에 대한 추가 전력(U_ELVSS(예: negative output), U_ELVDD(예: positive output))의 공급을 제한하여, 구동을 위한 전력을 낮게 조정할 수 있다. 일 실시예에 따르면, 외부 DC/DC 변환기(602)는 디스플레이(예: 도 3의 디스플레이(310))가 고전력 상태로 동작하는 경우, 디스플레이 구동 모듈(512)의 구동을 위한 기본 전력(VLIN1)과 고효율의 밝기를 지원하기 위한 추가 전력(U_ELVSS, U_ELVDD)을 공급할 수 있다. 예를 들어, 상기 저전력 상태는 상기 고전력 상태에 비하여 상대적으로 소모 전력(예: 단위 시간 당 소모 전력)이 낮은 상태로 참조될 수 있다.
도 6을 참조하면, 디스플레이 구동 모듈(512)은 디스플레이(310)가 저전력으로 동작하는 경우, 디스플레이 구동 모듈(512)의 내부 전원을 이용하여 구동할 수 있다. 일 실시예에 따르면, 디스플레이 구동 모듈(512)의 내부 전원은 ELVDD 레귤레이터(616) 또는 ELVSS 레귤레이터(618) 중 적어도 하나를 포함할 수 있다. 즉, 디스플레이 구동 모듈(512)은 디스플레이(310)가 저전력으로 동작하는 경우, 고전력 동작보다 낮은 전압으로 디스플레이(310)를 구동시킬 수 있다.
일 실시예에 따르면, 디스플레이 구동 모듈(512)은 디스플레이(310)가 저전력 상태로 동작하는 경우, 감마 조절 회로(610), 이진 드라이버(612) 및 소스 드라이버(614)를 이용하여 디스플레이 패널(516)에 콘텐츠를 출력할 수 있다. 예를 들어, 감마 조절 회로(610)는 디스플레이 패널(516)에 표시하기 위한 콘텐츠에 기반하여 다수 개의 저항의 연결을 조절함으로써, 콘텐츠를 표시하기 위한 각 픽셀의 전압(예: scale voltage)을 결정할 수 있다. 예를 들어, 소스 드라이버(614)는 감마 조절 회로(610)에 의해 결정된 상기 각 픽셀의 전압을 디스플레이 패널(516)을 통해 출력할 수 있다. 예를 들어, 이진 드라이버(612)는 디스플레이 패널(516)에 표시하기 위한 콘텐츠에 기반하여 0 또는 1을 출력함으로써, 콘텐츠를 표시하기 위한 각 픽셀의 전압(scale voltage)을 결정할 수 있다. 이진 드라이버(612)는 각 픽셀의 전압을 디스플레이 패널(516)로 출력할 수 있다.
도 7은 다양한 실시 예들에 따른 형태가 변화하는 전자 장치들을 도시한다.
다양한 실시 예들에 따르면, 전자 장치는 접힘(folding)/펼침(unfolding)에 따라서 물리적으로 형태가 변경될 수 있다. 예를 들어, 전자 장치는 적어도 일부 부분에 가요성(flexibility)을 갖는 하우징 및 디스플레이를 포함할 수 있다. 전자 장치의 가요성을 갖는 부분을 중심으로, 전자 장치는 접히거나(folded)(예: 열림(open)), 펴질(unfolded)(예: 닫힘(close)) 수 있다. 예를 들어, 전자 장치가 가요성을 갖는 부분은 접힘부로 참조될 수 있다. 접힘부는 전자 장치의 형태가 변경될 수 있는 부분(예: 힌지) 또는 영역을 지칭하는 것으로서, 특정한 구조에 한정되는 것은 아니다.
일 실시예에 따르면, 제1 전자 장치(101A)(예: 도 1의 전자 장치(101))는 세로 길이가 가로 길이보다 더 긴 접힘부(191A)를 포함할 수 있다. 제1 전자 장치(101A)는 접힘부(191A)의 세로 방향을 축으로 하여 좌우로 접힐 수 있다. 예를 들어, 제1 전자 장치(101A)는 적어도 접힘부(191A)를 중심으로 접힐 수 있다. 예를 들어, 제1 전자 장치(101A)는 접힘부(191A)에 대응하는 부분에 가요성을 갖는 제1 디스플레이(161A)(예: 도 1의 표시 장치(160)) 및 하우징(120A)을 포함할 수 있다. 제1 전자 장치(101A)는 접힘부(191A)를 중심으로 좌우로 접힐 수 있다. 제1 전자 장치(101A)는 접힌 상태에서 외부로 노출되는 제2 디스플레이(162A)(예: 도 1의 표시 장치(160))를 포함할 수 있다. 도 7에서, 제1 전자 장치(101A)는 제1 디스플레이(161A)를 안쪽으로 하여 접히는 인-폴드(in-fold) 전자 장치인 것으로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 제1 전자 장치(101A)는 아웃-폴드(out-fold) 전자 장치이거나, 인-폴드 및 아웃-폴드를 모두 지원하는 전자 장치일 수 있다. 다른 예를 들어, 제1 디스플레이(161A)는 하나의 디스플레이로 도시되어 있으나, 본 문서의 실시 예들이 이에 제한되는 것은 아니다. 제1 전자 장치(101A)는 접힘부(191A)를 중심으로 구분된 복수의 디스플레이들을 포함할 수 있다. 하우징(120A) 또한 접힘부(191A)를 중심으로 구분된 복수의 하우징들을 포함할 수 있다. 또 다른 예를 들어, 제1 전자 장치(101A)는 접힘부(191A)를 중심으로 접히도록 결합된 복수의 전자 장치들의 조합일 수 있다. 이 경우, 복수의 전자 장치들은 별도의 구조체(예: 하우징, 힌지)에 의하여 서로 결합될 수 있다.
일 실시예에 따르면, 제2 전자 장치(101B)(예: 도 1의 전자 장치(101))는 세로 길이가 가로 길이보다 더 긴 복수의 축들(예: 제2 접힘부(192B) 및 제3 접힘부(193B))을 포함할 수 있다. 제2 전자 장치(101B)는 제2 접힘부(192B) 및 제3 접힘부(193B)의 세로 방향을 중심으로 좌우로 접힐 수 있다. 예를 들어, 제2 전자 장치(101B)는 적어도 제2 접힘부(192B) 및 제3 접힘부(193B)에 대응하는 부분에 가요성을 갖는 디스플레이(160B)(예: 도 1의 표시 장치(160)) 및 하우징(120B)을 포함할 수 있다. 제2 전자 장치(101B)는 제2 접힘부(192B) 및 제3 접힘부(193B)를 중심으로 좌우로 접힐 수 있다. 도 7에서, 제2 전자 장치(101B)는 디스플레이(160B)가 바깥쪽으로 접히는 아웃-폴드(out-fold) 전자 장치인 것으로 도시되어 있으나, 본 문서의 실시 예들이 이에 제한되는 것은 아니다. 예를 들어, 제2 전자 장치(101B)는 제2 접힘부(192B) 및/또는 제3 접힘부(193B)에서 인-폴딩될 수 있다. 다른 예를 들어, 디스플레이(160B)는 하나의 디스플레이로 도시되어 있으나, 본 문서의 실시 예들이 이에 제한되는 것은 아니다. 제2 전자 장치(101B)는 제2 접힘부(192B) 및 제3 접힘부(193B) 중 적어도 하나를 따라서 구분된 복수의 디스플레이들을 포함할 수 있다. 하우징(120B) 또한 제2 접힘부(192B) 및 제3 접힘부(193B) 중 적어도 하나를 따라서 구분된 복수의 하우징들을 포함할 수 있다. 또 다른 예를 들어, 제2 전자 장치(101B)는 제2 접힘부(192B) 및 제3 접힘부(193B)를 중심으로 접히도록 결합된 복수의 전자 장치들의 조합일 수 있다. 이 경우, 예를 들어, 복수의 전자 장치들은 별도의 구조체(예: 하우징, 힌지)에 의하여 서로 결합될 수 있다.
일 실시 예에 따르면, 제3 전자 장치(101C)(예: 도 1의 전자 장치(101))는 가로 길이가 세로 길이보다 더 긴 제4 접힘부(194C)를 포함할 수 있다. 제3 전자 장치(101C)는 제4 접힘부(194C)의 가로 방향을 축으로 하여 상하로 접힐 수 있다. 예를 들어, 제3 전자 장치(101C)는 적어도 제4 접힘부(194C)에 대응하는 부분에 가요성을 갖는 디스플레이(160C)(예: 도 1의 표시 장치(160)) 및 하우징(120C)을 포함할 수 있다. 제3 전자 장치(101C)는 제4 접힘부(194C)를 중심으로 상하로 접힐 수 있다. 도 7에서, 제3 전자 장치(101C)는 디스플레이(160C)의 안쪽으로 접히는 인-폴드 전자 장치인 것으로 도시되어 있으나, 본 문서의 실시 예들이 이에 제한되는 것은 아니다. 예를 들어, 제3 전자 장치(101C)는 제4 접힘부(194C)에서 아웃-폴드 되거나, 인-폴딩 및 아웃-폴딩될 수 있다. 다른 예를 들어, 디스플레이(160C)는 하나의 디스플레이로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 제3 전자 장치(101C)는 제4 접힘부(194C)를 따라서 구분된 복수의 디스플레이들을 포함할 수 있다. 하우징(120C) 또한 제4 접힘부(194C)를 따라서 구분된 복수의 하우징들을 포함할 수 있다. 또 다른 예를 들어, 제3 전자 장치(101C)는 제4 접힘부(194C) 를 중심으로 접히도록 결합된 복수의 전자 장치들의 조합일 수 있다. 이 경우, 복수의 전자 장치들은 별도의 구조체(예: 하우징, 힌지)에 의하여 서로 결합될 수 있다.
도 7에 도시된 전자 장치(예: 101A, 101B, 및 101C)의 물리적 형태 변화는 예시적인 것으로서, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 전자 장치는 임의의(any) 축을 중심으로 접히거나 펼쳐질 수 있다. 즉, 전자 장치의 디스플레이들은 축을 중심으로 각각의 디스플레이가 대칭으로, 또는 비대칭으로 접힐 수 있다.
도 8은 다양한 실시예들에 따른 형태가 변화하는 전자 장치들을 도시한다.
다양한 실시예들에 따르면, 전자 장치의 형태는 전자 장치의 하우징의 연장(extending)/수축(retracting)에 따라서 물리적으로 변경될 수 있다. 예를 들어, 전자 장치는 적어도 일부 부분이 연장될 수 있는 하우징 및/또는 디스플레이를 포함할 수 있다. 예를 들어, 전자 장치의 일부가 슬라이딩 또는 롤링(rolling)되어 전자 장치가 연장되거나(예: 열림(open)) 수축(예: 닫힘(close))될 수 있다. 연장부는 전자 장치의 형태가 제1 형태로부터 제2 형태로 변경될 시, 제1 형태와 제2 형태 사이의 차이에 대응하는 부분 또는 영역을 지칭하는 것으로서, 특정한 구조에 한정되는 것은 아니다.
일 실시예에 따르면, 제4 전자 장치(101D)(예: 도 1의 전자 장치(101))는 상하로 연장/수축되는 연장부(181D)를 포함할 수 있다. 예를 들어, 제4 전자 장치(101D)의 하우징(120D)의 적어도 일부는 제4 전자 장치(101D)의 위쪽으로 연장될 수 있는 연장부(181D)를 포함할 수 있다. 예를 들어, 연장부(181D)는 하우징(120D)의 일부로서, 하우징(120D)의 다른 부분에 대하여 상대적으로 위쪽으로 이동함으로써 제4 전자 장치(101D)의 하우징(120D)을 연장시킬 수 있다. 연장부(181D)는 디스플레이(160D)(예: 도 1의 표시 장치(160))와는 독립적으로 움직일 수 있다. 예를 들어, 연장부(181D)는 디스플레이(160D)에 비하여 상대적으로 위쪽으로 돌출될 수 있다. 다른 예를 들어, 연장부(181D)는 디스플레이(160D)에 비하여 상대적으로 아래쪽으로 돌출될 수 있다.
일 실시예에 따르면, 연장부(181D)는 카메라 모듈(예: 도 1의 카메라 모듈(180))을 포함할 수 있다. 예를 들어, 카메라 모듈은 연장부(181D)의 이동에 따라서 회전하도록 설정될 수 있다. 일 실시예에 따르면, 제5 전자 장치(101E)(예: 도 1의 전자 장치(101))는 좌우로 연장/수축되는 연장부(181E)를 포함할 수 있다. 예를 들어, 제5 전자 장치(101E)의 하우징(120E)의 적어도 일부는 제5 전자 장치(101E)의 오른쪽으로 연장될 수 있는 연장부(181E)를 포함할 수 있다. 예를 들어, 연장부(181E)는 하우징(120E)의 일부로서, 하우징(120E)의 다른 부분에 대하여 상대적으로 오른쪽으로 이동함으로써 제5 전자 장치(101E)의 하우징(120E)을 연장시킬 수 있다.
일 실시예에 따르면, 제6 전자 장치(101F)(예: 도 1의 전자 장치(101))는 좌우로 연장/수축되는 연장부(181F)를 포함할 수 있다. 예를 들어, 제6 전자 장치(101F)의 디스플레이(160F)(예: 도 1의 표시 장치(160))는 롤러블(rollable) 디스플레이일 수 있다. 예를 들어, 디스플레이(160F)는 롤링되어(rolled) 제1 하우징(121F) 내에 수납될 수 있다. 예를 들어, 디스플레이(160F)는 언롤(unroll)됨으로써 제1 하우징(121F)과 제2 하우징(122F) 사이에서 연장될 수 있다. 디스플레이(160F)의 언롤에 따라서 연장부(181F)가 생성될 수 있다.
도 8에 도시된 전자 장치(예: 101D, 101E, 및 101F)의 물리적 형태 변화는 예시적인 것으로서, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 전자 장치는 임의의(any) 방향으로 연장되거나 수축될 수 있다.
도 7 및 도 8의 제1 전자 장치(101A), 제2 전자 장치(101B), 제3 전자 장치(101C), 제4 전자 장치(101D), 제5 전자 장치(101E), 또는 제6 전자 장치(101F)와 관련하여 다양한 전자 장치의 형태 변화들이 설명되었다. 이러한 형태 변화들은 예시적인 것으로서, 본 문서의 실시예들이 이에 제한되는 것은 아니다.
도 9는 본 문서에 개시되는 실시예에 따른 전자 장치의 동작 흐름도(900)를 도시한다.
도 9를 참조하여, 동작 905에서, 전자 장치(예: 도 1의 전자 장치(101))는 저전력 상태의 디스플레이에 입력되는 제1 입력을 감지할 수 있다. 예를 들어, 터치 패널(524)에 사용자의 입력이 수신되고, 터치패널 구동 모듈(522)은 수신되는 입력에 대한 정보를 프로세서(120)로 전달하고, 프로세서(120)는 상기 수신된 입력에 대한 정보를 전달받음으로써 제1 입력을 감지할 수 있다.
동작 910에서, 프로세서(120)는 카메라 모듈(180)을 이용하여 제2 해상도의 적어도 하나의 제1 이미지를 획득하고, 상기 제2 해상도의 적어도 하나의 제1 이미지를 저전력 상태의 디스플레이(예: 도 1의 표시 장치(160))에 표시할 수 있다. 예를 들어, 제2 해상도는 제1 최대 해상도보다 낮은 해상도로 참조될 수 있다. 예를 들어, 카메라 모듈(180)은 복수의 픽셀들을 포함하는 이미지 센서를 포함할 수 있다. 프로세서(120)는 상기 복수의 픽셀들 중 상기 제2 해상도에 대응하는 일부 픽셀들을 이용하여 상기 적어도 하나의 제1 이미지를 획득하도록 할 수 있다.
동작 915에서, 프로세서(120)는 전자 장치에 수신되는 지정된 제2 입력을 감지할 수 있다. 예를 들어, 프로세서(120)는 터치 패널(524)에 수신되는 입력이 기 설정된 제2 입력의 조건을 만족하는지 여부를 결정할 수 있다. 예를 들어, 전자 장치는 적어도 하나의 센서를 더 포함할 수 있다. 프로세서(120)는 제2 입력(예: 상기 적어도 하나의 센서를 통해 전자 장치의 폴딩 각도, 회전 방향, 사용자와 전자 장치 간의 거리, 전자 장치의 상승 모션 등)을 감지할 수 있다. 예를 들어, 프로세서는 기 설정된 정보(예: 기 설정된 제2 입력의 조건)와 상기 감지되는 제2 입력의 정보를 비교할 수 있다.
기 설정된 정보와 상기 감지되는 제2 입력의 정보가 일치하는 경우(예: 동작 915-Yes), 프로세서는 동작 920을 수행할 수 있다.
일 실시예에 따르면, 동작 920에서, 프로세서(120)는 카메라 모듈(180)을 통해 제3 해상도의 적어도 하나의 제2 이미지를 획득한 후, 디스플레이(예: 도 1의 표시 장치(160))를 고전력 상태로 제어하고, 상기 적어도 하나의 제2 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 제3 해상도는 제2 해상도보다 높은 해상도로 참조될 수 있다.
일 실시예에 따르면, 기 설정된 정보와 상기 감지되는 제2 입력의 정보가 상이한 경우(예: 동작 915-No), 전자 장치는 동작 910 및 동작 915를 반복적으로 수행할 수 있다.
도 10은 다양한 실시 예들에 따른 형태 변경이 가능한 전자 장치의 터치 모드를 도시한다.
도 10을 참조하여, 전자 장치에 수신되는 제1 입력은 도 10에 도시된 바와 같은 형태의 입력일 수 있다.
일 실시예에 따르면, 제1 단말(1010)(예: 도 1의 전자 장치(101))은 접힘부(1012)를 중심으로 좌우로 접힐 수 있다. 제1 단말(1010)은 접힌 상태에서 외부로 노출되는 제1 디스플레이(1014)(예: 도 1의 표시 장치(160))를 포함할 수 있다. 일 실시예에 따르면, 제1 사용자 입력(1016)은 두 손가락을 이용하여 제1 디스플레이(1014)에 적어도 한 차례 이상의 압력을 가하는 동작일 수 있다.
일 실시예에 따르면, 제2 단말(1020)(예: 도 1의 전자 장치(101))은 접힘부(1022)를 중심으로 상하로 접힐 수 있다. 제2 단말(1020)은 접힌 상태에서 외부로 노출되는 제2 디스플레이(1024)(예: 도 1의 표시장치(160))를 포함할 수 있다. 일 실시예에 따르면, 제2 사용자 입력(1026)은 두 손가락을 이용하여 제2 디스플레이(1024)에 적어도 한 차례 이상의 압력을 가하는 동작일 수 있다.
도 11은 일 실시 예들에 따른 카메라와 프로세서의 상호 동작을 도시하는 흐름도(1100)이다.
일 실시예에 따르면, 동작 1111에서, 프로세서(120)는 전자 장치(예: 도 1의 전자 장치(101))에 수신되는 지정된 제1 입력 (예: 싱글 탭, 더블 탭, 롱 프레스, 터치 스와이프, 지정된 패턴의 터치 입력, 또는 지정된 크기 이상의 터치 영역을 갖는 터치 입력 중 적어도 하나)을 감지할 수 있다.
일 실시예에 따르면, 지정된 제1 입력이 감지된 경우(예: 동작 1111-Yes), 프로세서(120)는 디스플레이(예: 도 1의 표시 장치(160))의 적어도 하나의 제1 이미지 표시를 위한 제1 픽셀 정보를 카메라 모듈(180)로 전송(1113)할 수 있다. 예를 들어, 제1 픽셀 정보는 적어도 하나의 제1 이미지 표시에 이용되는 디스플레이의 픽셀의 수, 디스플레이의 해상도, 디스플레이의 픽셀 어레이의 행(row)의 수, 및/또는 디스플레이의 픽셀 어레이의 열(column)의 수를 포함할 수 있다. 본 예시에 기재된 디스플레이는 도 1의 표시 장치(160)를 의미할 수 있다. 상술된 제1 픽셀 정보는 예시적인 것으로서, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 프로세서(120)는 제1 입력이 감지되면, 카메라의 동작(예: 이미지 센서 해상도 변경 등)을 변경하도록 하는 신호(예: 트리거링 신호)를 카메라 모듈(180)로 전송할 수 있다.
일 실시예에 따르면, 프로세서(120)는 지정된 제1 입력이 감지되지 않은 경우(예: 동작 1111-No), 동작 1111을 반복하여 수행할 수 있다.
일 실시예에 따르면, 동작 1115에서, 카메라 모듈(180)은 프로세서(120)로부터 제1 픽셀 정보를 수신하고, 이미지 시그널 프로세서(예: 도 2의 이미지 시그널 프로세서(260))를 이용하여 수신된 제1 픽셀 정보를 가공 또는 편집할 수 있다. 예를 들어, 이미지 시그널 프로세서는 상기 제1 픽셀 정보를 가공 또는 편집하여, 그에 대응하는 이미지 데이터를 프로세서(120)로 전송(1117)할 수 있다. 예를 들어, 프로세서(120)는 전송 받은 이미지 데이터를 기반으로 하여 디스플레이에 적어도 하나의 이미지를 출력할 수 있다. 이 때, 디스플레이에 출력되는 적어도 하나의 이미지는 지정된 조건(예: 사용자의 얼굴의 근접 여부)에 따라 다양한 형태(예: 디스플레이의 밝기, 디스플레이의 해상도)로 출력될 수 있다.
일 실시예에 따르면, 동작 1119에서, 프로세서(120)는 전자 장치에 수신되는 지정된 제2 입력(예: 사용자가 디스플레이를 바라보는 각도, 전자 장치의 각도, 또는 사용자와 상기 디스플레이와의 거리 중 적어도 하나)을 감지할 수 있다.
일 실시예에 따르면, 지정된 제2 입력이 감지된 경우(예: 동작 1119-Yes), 프로세서(120)는 디스플레이(예: 도 1의 표시 장치(160))의 적어도 하나의 제2 이미지 표시를 위한 제2 픽셀 정보를 카메라 모듈(180)로 전송(1121)할 수 있다. 예를 들어, 제2 픽셀 정보는 적어도 하나의 제2 이미지 표시에 이용되는 디스플레이의 픽셀의 수, 디스플레이의 해상도, 디스플레이의 픽셀 어레이의 행(row)의 수, 및/또는 디스플레이의 픽셀 어레이의 열(column)의 수를 포함할 수 있다. 본 예시에 기재된 디스플레이는 도 1의 표시 장치(160)를 의미할 수 있다. 상술된 제2 픽셀 정보는 예시적인 것으로서, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 프로세서(120)는 제2 입력이 감지되면, 카메라의 동작(예: 이미지 센서 해상도 변경 등)을 변경하도록 하는 신호(예: 트리거링 신호)를 카메라 모듈(180)로 전송할 수 있다.
일 실시예에 따르면, 프로세서(120)는 지정된 제2 입력이 감지되지 않은 경우(예: 동작 1119-No), 동작 1119를 반복하여 수행할 수 있다.
일 실시예에 따르면, 동작 1123에서, 카메라 모듈(180)은 프로세서(120)로부터 제2 픽셀 정보를 수신하고, 이미지 시그널 프로세서(예: 도 2의 이미지 시그널 프로세서(260))를 이용하여 수신된 제2 픽셀 정보를 가공 또는 편집할 수 있다. 예를 들어, 이미지 시그널 프로세서는 상기 제2 픽셀 정보를 가공 또는 편집하여, 그에 대응하는 이미지 데이터를 프로세서(120)로 전송(1125)할 수 있다. 예를 들어, 프로세서(120)는 전송 받은 이미지 데이터를 기반으로 하여 디스플레이에 적어도 하나의 이미지를 출력할 수 있다. 이 때, 디스플레이에 출력되는 적어도 하나의 이미지는 지정된 조건(예: 사용자의 얼굴의 근접 여부)에 따라 다양한 형태(예: 디스플레이의 밝기, 디스플레이의 해상도, 획득한 이미지의 일부, 획득한 이미지를 좌우 반전)로 출력될 수 있다.
한편, 도 11에서 도시된 바와 같은 카메라 모듈(180)의 작동 과정은 후술되는 도 12의 설명에서 더 상세하게 설명될 수 있다.
도 12는 다양한 실시 예들에 따른, 이미지 센서의 구조를 설명하기 위한 블록도(1200)이다.
본 문서의 일 실시예에 따르면, 이미지 센서(1210)(예: 도 2의 이미지 센서(230))는 전자 장치(예: 도 1의 전자 장치(101))에 구비된 카메라 모듈(예: 도 1의 카메라 모듈(180))의 일 구성 요소일 수 있다.
도 12를 참조하여, 다양한 실시예에 따른 이미지 센서(1210)는, 픽셀 어레이(pixel array)(1220), 로-드라이버(row-driver)(1230), 컬럼-리드 아웃 회로(column-readout circuit)(1240), 컨트롤러(1250), 메모리(1260), 또는 인터페이스(1270) 중 적어도 하나를 포함할 수 있다.
픽셀 어레이(1220)는 복수의 픽셀들(1221 내지 1229)로 구성될 수 있다. 예를 들어, 픽셀 어레이(1220)는 복수의 픽셀들(1221 내지 1229)이 M x N 매트릭스(matrix) 형태(M, N은 자연수)로 배열된 구조를 가질 수 있다. 복수의 픽셀들(1221 내지 1229)이 M x N의 2차원 형태로 배열된 픽셀 어레이(1220)는 M개의 행(row)과 N개의 열(column)을 가질 수 있다. 픽셀 어레이(1220)는 복수의 광 감지 소자, 예를 들어 포토 다이오드(photo diode) 또는 핀드 포토 다이오드(pinned photo diode) 등의 광 감지 소자를 포함할 수 있다. 픽셀 어레이(1220)는 복수의 광 감지 소자를 이용하여 빛을 감지하고, 이를 아날로그의 전기적 신호로 변환하여 영상 신호를 생성할 수 있다.
로-드라이버(1230)는 픽셀 어레이(1220)를 행(row) 단위로 구동할 수 있다. 예컨대, 로-드라이버(1230)는 픽셀 어레이(1220)에 포함된 복수의 픽셀들(1221 내지 1229)의 전송 트랜지스터를 제어하는 전송 제어 신호, 리셋 트랜지스터를 제어하는 리셋 제어 신호, 또는 선택 트랜지스터를 제어하는 선택 제어 신호를 픽셀 어레이(1220)로 출력할 수 있다. 로-드라이버(1230)는 리드 아웃할 행(row)을 결정할 수 있다.컬럼-리드 아웃 회로(1240)는 픽셀 어레이(1220)에서 생성된 아날로그의 전기적 신호를 수신할 수 있다. 예컨대, 컬럼-리드 아웃 회로(1240)는 픽셀 어레이(1220)를 구성하는 복수의 열(column)들 중 선택된 컬럼 라인으로부터 아날로그의 전기적 신호를 수신할 수 있다. 컬럼-리드 아웃 회로(1240)는 선택된 컬럼 라인으로부터 수신된 아날로그의 전기적 신호를 픽셀 데이터(또는 디지털의 신호)로 변환하여 출력할 수 있는 아날로그-디지털 컨버터(analog digital converter, 이하 ADC)(1245)를 포함할 수 있다. 상기 선택된 컬럼 라인은 짝수의 컬럼 라인 또는 홀수의 컬럼 라인을 의미할 수 있다. 한편, 컬럼-리드 아웃 회로(1240)가 픽셀 어레이(1220)로부터 아날로그의 전기적인 신호를 수신하고, 수신된 아날로그의 전기적 신호를 ADC(1245)를 이용하여 픽셀 데이터로 변환하여 출력하는 동작을 리드 아웃(read out)이라 명명할 수 있다. 컬럼-리드 아웃 회로(1240) 및 ADC(1245)는 리드 아웃할 열(column)을 결정할 수 있다.
일 실시예에 따르면, 이미지 센서(1210)의 컬럼-리드 아웃 회로(1240)는 복수의 ADC(1245)들을 포함할 수 있다. 복수의 ADC(1245)들 각각은 픽셀 어레이(1220)에 포함된 복수의 포토 다이오드들과 병렬적으로 연결될 수 있으며, 복수의 포토 다이오드들로부터 동시에 수신되는 아날로그의 전기적 신호들을 병렬 구조에 기반하여 픽셀 데이터로 빠르게 변환할 수 있다.
일 실시예에 따르면, 이미지 센서(1210)의 컬럼-리드 아웃 회로(1240)는, 디스플레이(예: 도 1의 표시 장치(160))의 저전력 상태에서의 운용을 위해 저속의 프레임 레이트(예: 10 fps(frames per second))로 리드 아웃을 수행할 수 있다. 예를 들어, 10 fps로 리드 아웃을 수행하는 것의 의미는, 픽셀 어레이(1220)로부터 아날로그의 전기적 신호를 수신하고, 수신된 아날로그의 전기적 신호를 ADC(1245)를 이용하여 픽셀 데이터로 변환하여 출력하는 동작을 1/10초 당 1회씩 수행하는 것을 의미할 수 있다. 즉, 10 fps로 리드 아웃을 수행하는 것의 의미는, 1초에 10개의 이미지 프레임을 출력하는 것을 의미할 수 있다.
컨트롤러(1250)는 컬럼-리드 아웃 회로(1240)로부터 수신된 픽셀 데이터를 기초로 이미지 프레임을 획득할 수 있다. 컨트롤러(1250)는 인터페이스(1270)를 통해 이미지 프레임을 외부 회로(1280)(예: ISP(Image Signal Processing), 프로세서, 통신 회로, 또는 외부 서버)로 출력할 수 있다. 일 실시 예에 따르면, 컨트롤러(1250)는 복수의 픽셀들(1221 내지 1229)의 전송 트랜지스터를 제어하는 전송 제어 신호, 리셋 트랜지스터를 제어하는 리셋 제어 신호, 또는 선택 트랜지스터를 제어하는 선택 제어 신호를 생성할 수 있으며, 생성된 신호를 로-드라이버(1230)에 제공할 수 있다. 또한, 컨트롤러(1250)는 픽셀 어레이(1220)를 구성하는 복수의 컬럼 라인들 중 적어도 하나의 컬럼 라인을 선택하기 위한 선택 제어 신호를 생성할 수 있으며, 생성된 신호를 컬럼-리드 아웃 회로(1240)에 제공할 수 있다. 예를 들어, 컬럼-리드 아웃 회로(1240)는 컨트롤러(1250)로부터 제공된 선택 제어 신호에 기초하여, 복수의 컬럼 라인들 중 일부의 컬럼 라인들을 인에이블(enable)시키고 나머지 컬럼 라인들을 디스에이블(disable)시킬 수 있다. 또한, 컨트롤러(1250)는 중앙 처리 장치(CPU) 또는 어플리케이션 프로세서(AP) 등을 포함하는 프로세서(예: 도 1의 프로세서(120))나 일종의 블럭 또는 모듈로 구현될 수도 있다.
일 실시예에 따르면, 블럭으로 구현되는 경우에는, 컨트롤러(1250)는, 이미지들 간의 차이를 검출하는 차분기(substractor) 또는 이미지들을 서로 비교할 수 있는 비교기(comparator) 등을 포함할 수 있다. 예를 들어, 컨트롤러(1250)는, 리드 아웃된 이미지의 크기를 다운사이즈(downsize) 할 수도 있으며, 다운사이즈 된 복수의 이미지를 서로 비교함으로써 이미지들 간의 차이를 감지할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))는 모션 센서(motion sensor), 거리 측정 센서 등을 포함할 수 있다. 컨트롤러(1250)는, 전자 장치(예: 도 1의 전자 장치(101))의 움직임 정보를 감지하는 모션 센서(motion sensor) 또는 사용자와의 거리를 측정하는 거리 측정 센서 등을 통하여 획득한 정보에 기반하여 이미지 정보를 제어할 수 있다. 예를 들어, 컨트롤러(1250)는, 전자 장치의 각도, 사용자가 디스플레이를 바라보는 각도, 사용자와 디스플레이와의 거리 등의 정보에 기반하여, 리드 아웃된 이미지를 확대, 축소, 좌우 반전, 또는 크로핑(cropping)할 수 있다.
일 실시예에 따르면, 메모리(1260)는 컬럼-리드 아웃 회로(1240)로부터 제 N 프레임 레이트(예: 60 fps) 또는 제 M 프레임 레이트(예: 30 fps)로 리드 아웃된 적어도 하나의 이미지 프레임을 저장할 수 있으며, 저장된 적어도 하나의 이미지 프레임을 인터페이스(1270)를 통하여 외부 회로(1280)(예: IPS, 프로세서, 통신 회로, 또는 외부 서버)에 전달할 수 있다. 즉, 메모리(1260)는 컬럼-리드 아웃 회로(1240)로부터 1/60 초 당 1회씩 또는 1/30초 당 1회씩 리드 아웃된 적어도 하나의 이미지 프레임을 저장할 수 있으며, 저장된 적어도 하나의 이미지 프레임을 인터페이스(1270)를 통하여 외부 회로(1280)에 전달할 수 있다. 외부 회로(1280)로 이미지 프레임을 전달하는 속도는 제한이 없다. 예를 들면, 전자 장치(예: 도 1의 전자 장치(101))는 리드 아웃한 이미지 프레임을 메모리(1260)에 저장하지 않고 인터페이스(1270)를 통하여 외부 회로(1280)로 곧바로 전달할 수도 있다.
한편, 컨트롤러(1250)는 컬럼-리드 아웃 회로(1240)를 통해 제 N 프레임 레이트(예: 10 fps)로 리드 아웃되는 제 N 복수의 이미지 프레임들 중 일부의 이미지 프레임들만 메모리(1260)에 저장함으로써, 실질적으로 제 M 프레임 레이트(예: 5 fps)로 리드 아웃되는 제 M 복수의 이미지 프레임들을 획득하는 것과 동일한 효과를 얻을 수도 있다. 예를 들어, 컨트롤러(1250)는 10 fps 로 8/10 초 동안 리드 아웃되는 8개의 이미지 프레임들 중 1개의 이미지 프레임만 메모리(1260)에 저장할 수 있다. 만약, 10 fps 로 리드 아웃된 복수의 이미지 프레임들 중 1:8의 비율로 선택된 이미지 프레임들만 메모리(1260)에 저장되는 경우, 메모리(1260)에 저장된 이미지 프레임들은 컬럼-리드 아웃 회로(1240)를 통해 5 fps 로 리드 아웃된 이미지 프레임들과 실질적으로 동일한 이미지 프레임들일 수 있다. 예컨대, 1/5 초의 주기로 획득된 이미지 프레임들로만 구성된 동영상을 '5 fps 동영상'으로 정의할 경우, 10 fps 로 리드 아웃된 복수의 이미지 프레임들 중 1:8의 비율로 선택된 이미지 프레임들로만 구성된 동영상은 5 fps 동영상으로 정의될 수 있다. 또한, 컬럼-리드 아웃 회로(1240)를 통해 120 fps 로 리드 아웃된 이미지 프레임들로만 구성된 동영상도 5 fps 동영상으로 정의될 수 있다.
일 실시예에 따르면, 컬럼-리드 아웃 회로(1240)는, 지정된 FPS(예: 60 fps)보다 적은 제1 fps(예: 10 fps 내지 30 fps)로 리드 아웃을 수행할 수 있다. 예를 들면, 컨트롤러(1250)는, 저전력 상태의 디스플레이(예: 저전력 프리뷰 모드) 운용을 위하여, 컬럼-리드 아웃 회로(1240)를 통하여 제1 fps로 리드 아웃 되는 복수의 이미지 프레임들을 메모리(1260)에 저장할 수 있다.
도 12에 도시된 이미지 센서(1210)의 구성은 예시적인 것으로서 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 이미지 센서(1210)는 도 12에 도시된 구성들 중 적어도 하나를 포함하지 않을 수 있다. 다른 예를 들어, 이미지 센서(1210)는 도 12에 미도시된 구성을 더 포함할 수 있다. 본 문서에서 사용된 프레임 레이트들(5 fps, 10 fps, 30 fps, 또는 60 fps 등)은 전자 장치(예: 도 1의 전자 장치(101))의 설정이나 인터페이스(예: 도 1의 인터페이스(177))의 성능에 따라 달라질 수 있다.
도 12에서 상술한 바와 같이, 컨트롤러(1250)는 카메라 모듈(180)이 프로세서(120)로부터 수신한 픽셀 정보(예: 제1 픽셀 정보, 제2 픽셀 정보)를 가공 또는 편집하도록 제어할 수 있다. 프로세서(120)는 컨트롤러(1250)를 통해, 프로세서(120)로부터 수신한 픽셀 정보에 기반하여 픽셀 어레이(1220)에 포함된 복수의 픽셀들(1211 내지 1219) 중 일부만이 작동하도록 제어할 수 있다. 컨트롤러(1250)는 예를 들어, 로-드라이버(1230)가 복수의 로 라인(row line)들 중에서 어느 하나의 로 라인을 선택할 수 있는 선택 신호를 생성하도록 제어할 수 있다. 예를 들어, 상기 어느 하나의 로 라인은 짝수 번째로 배열된 로 라인 또는 홀수 번째로 배열된 로 라인을 의미할 수 있다. 예를 들어, 컨트롤러(1250)는 컬럼-리드아웃 회로(1240)가 복수의 컬럼 라인(column line)들 중에서 어느 하나의 컬럼 라인을 선택할 수 있는 선택 신호를 생성하도록 제어할 수 있다. 예를 들어, 상기 어느 하나의 컬럼 라인은 짝수 번째로 배열된 컬럼 라인 또는 홀수 번째로 배열된 컬럼 라인을 의미할 수 있다. 다른 예를 들어, 이미지 시그널 프로세서는 카메라를 통해 획득한 적어도 하나의 이미지 데이터를 기반으로 하여 다운사이징(downsizing) 된 이미지를 디스플레이에 전달할 수 있다. 상기 다운사이징(downsizing) 된 이미지는 저전력 상태의 디스플레이 상에 출력될 수 있다. 위와 같이, 전자 장치는 픽셀을 선택적으로 이용하도록 제어하거나, 디스플레이에 표시되는 이미지를 다운사이징함으로써 전력 소모를 낮추고, 프로세서(120)의 데이터 처리 또는 연산을 효과적으로 수행할 수 있다.
도 13은 일 실시예에 따른 전자 장치의 FPS 조절 동작 흐름도(1300)이다.
도 13을 참조하여, 일 실시예에 따르면, 동작 1310에서, 프로세서(120)는 카메라 모듈(180)을 이용하여 제1 프레임 레이트로 적어도 하나의 제1 이미지를 획득할 수 있다. 예를 들어, 제1 프레임 레이트는 30 fps 내지 60 fps 일 수 있다. 예를 들어, 적어도 하나의 제1 이미지는 컬럼-리드 아웃 회로(예: 도 12의 컬럼-리드 아웃 회로(1240))를 통해 제1 프레임 레이트로 리드 아웃 된 이미지 프레임들일 수 있다.
일 실시예에 따르면, 동작 1320에서, 프로세서(120)는 동작 1310에서 획득한 적어도 하나의 제1 이미지를 디스플레이(예: 도 1의 표시 장치(160))에 출력할 수 있다.
일 실시예에 따르면, 동작 1330에서, 프로세서(120)는 디스플레이에 출력된 적어도 하나의 제1 이미지의 정보 또는 센서 회로를 통하여 획득한 전자 장치의 움직임과 관련된 정보가 지정된 조건을 만족하는지 결정할 수 있다. 예를 들어, 적어도 하나의 제1 이미지의 정보는 사용자의 얼굴 인식 여부(예: 출력된 이미지의 밝기, 얼굴 근접 여부, 얼굴 방향, 얼굴 크기, 얼굴 감지 시간 중 적어도 하나의 정보) 또는 카메라를 통해 인식되는 사용자의 제스처 등일 수 있다. 예를 들어, 센서 회로를 통하여 획득한 전자 장치의 움직임과 관련된 정보는 일정 각도의 폴딩 또는 언폴딩, 사용자가 디스플레이를 바라보는 각도 등일 수 있다.
일 실시예에 따르면, 디스플레이에 출력된 제1 이미지의 정보 또는 센서 회로를 통하여 획득한 전자 장치의 움직임과 관련된 정보가 지정된 조건(예: 디스플레이의 밝기, 사용자와 전자 장치와의 거리)과 일치하는 경우(예: 동작 1330-Yes), 동작 1340을 수행할 수 있다.
일 실시예에 따르면, 동작 1340에서, 프로세서(120)는 제2 프레임 레이트로 적어도 하나의 제2 이미지를 획득할 수 있다. 예를 들어, 제2 프레임 레이트는 제1 프레임 레이트보다 낮은 값으로 참조될 수 있다.
일 실시예에 따르면, 디스플레이에 출력된 제1 이미지의 정보 또는 센서 회로를 통하여 획득한 전자 장치의 움직임과 관련된 정보가 지정된 조건과 상이한 경우(예: 동작 1330-N), 프로세서(120)는 동작 1330을 반복적으로 수행할 수 있다.
일 실시예에 따르면, 동작 1350에서, 프로세서(120)는 동작 1340에서 획득한 적어도 하나의 제2 이미지를 디스플레이(예: 도 1의 표시 장치(160))에 출력할 수 있다. 예를 들면, 동작 1350에서 상기 적어도 하나의 제2 이미지를 출력하는 디스플레이의 상태를 저전력 프리뷰 모드로 정의할 수 있다.
도 14는 일 실시예에 따른 터치의 정의를 설명하기 위한 예시도이다.
일 실시예에 따르면, 터치는 직접 터치와 근접 터치 모두를 포함하는 의미일 수 있다. 예를 들면, 전자 장치는 입력 인터페이스(예: 도 5의 입력 인터페이스(520)) 내에 터치 입력을 감지하는 복수 개의 센서를 포함할 수 있다. 터치 영역과 터치 지점은 터치 스크린 상의 인접한 복수 개의 센서에 의해 터치 신호가 검출된 경우, 상기 복수 개의 센서가 위치하는 좌표를 기준으로 하여 결정될 수 있다.
일 실시예에 따르면, 터치 입력은 싱글 탭(1410)일 수 있다. 싱글 탭은 터치 스크린의 표면 상에 하나의 접촉점을 갖는 동작일 수 있다. 예를 들면, 싱글 탭은 터치 스크린 영역(1412) 중 손가락이 접촉하는 영역(1414)(예: a1 영역) 주위에서의 상기 싱글 탭에 의해 발생한 전압값이 제1 기준 전압값(Vref1)보다 높은 값으로 참조될 수 있다.
일 실시예에 따르면, 터치 입력은 더블 탭(1420)일 수 있다. 더블 탭은 터치 스크린의 표면 상에 두 개의 접촉점을 갖는 동작일 수 있다. 예를 들면, 더블 탭은 터치 스크린 영역(1422) 중 손가락이 접촉하는 영역(1424)인 제1 영역(예: a1 영역)과 제2 영역(예: a2 영역)에서 제1 기준 전압값(Vref1)보다 높은 값을 갖는 동작일 수 있다. 사용자의 더블 탭을 통해서 상기 제1 영역과 상기 제2 영역 사이에 제2 기준 전압값(Vref2) 이하의 센싱값을 갖는 영역이 발생할 수 있다. 예를 들면, 제2 기준 전압값(Vref2)은 제1 기준 전압값(Vref1)보다 낮은 값으로 참조될 수 있다.
일 실시예에 따르면, 터치 입력은 멀티 탭(1430)일 수 있다. 멀티 탭은 터치 스크린의 표면 상에 적어도 두 개 이상의 접촉점을 갖는 동작일 수 있다. 예를 들면, 멀티 탭은 터치 스크린 영역(1432) 중 사용자의 신체가 접촉하는 면적(1434)에 제1 기준 전압값(Vref1)보다 높은 전위 값을 갖는 영역(예: a1 영역과 a2 영역 사이의 일 영역)이 존재하는 동작일 수 있다. 예를 들면, 사용자의 멀티 탭을 통해서 상기 면적(1434) 중 제2 기준 전압값(Vref2) 이상의 센싱값을 갖는 영역이 발생할 수 있다. 예를 들면, 제2 기준 전압값(Vref2)은 제1 기준 전압값(Vref1)의 레벨보다 낮은 값으로 참조될 수 있다. 신체가 접촉하는 면적의 일 영역(예: a1 영역 또는 a2 영역)은 서로 소정 거리 이상 떨어져있을 수 있다. 예를 들면, 프로세서(예: 도 1의 프로세서(120))는 상기 소정 거리를 조정하여 면적 터치를 식별할 수 있다.
본 문서의 다양한 실시예들 및 이에 기재된 용어들 중 디스플레이가 수신하는 사용자의 입력은 도 14에 도시된 터치의 예시도 중 적어도 하나일 수 있다.
도 14에서, 사용자의 터치 입력은 싱글 탭, 더블 탭, 멀티 탭의 세 가지 유형으로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 사용자의 터치 입력은 롱 프레스, 터치 스와이프를 더 포함할 수 있다. 롱 프레스는, 터치 스크린 표면 상의 접촉점에 가해지는 입력이 지정된 시간보다 긴 입력일 수 있다. 터치 스와이프는, 일정 영역의 연속적인 복수 개의 접촉점들에 압력이 가해지는 입력일 수 있다.
도 15는 다양한 실시예들에 따른, 전자 장치에서 저전력 표시 모드를 제어하기 위한 프로그램(1500)의 블록도를 도시한다.
도 15를 참조하여, 일 실시예에 따르면, 프로그램(1500)(예: 도 1의 프로그램(140))은 커널(1510)(예: 도 1의 운영 체제(142)), 프레임워크(1540)(예: 도 1의 미들웨어(144)) 및 어플리케이션(1550)(예: 도 1의 어플리케이션(146))을 포함할 수 있다.
일 실시예에 따르면, 어플리케이션(1550)(예: 도 1의 어플리케이션(146))은 시스템 어플리케이션(1552) 또는 저전력 표시 어플리케이션(1554)(예: AOD)을 포함할 수 있다. 예를 들어, 저전력 표시 어플리케이션(1554)은 전자 장치(101)의 디스플레이 동작 모드가 저전력 표시 모드(예: 저전력 프리뷰 모드)로 전환되는 경우, 저전력 표시 모드로 동작하는 동안 디스플레이(예: 도 1의 표시 장치(160))를 통해 표시하기 위한 콘텐트를 생성하도록 제어할 수 있다. 저전력 표시 어플리케이션(1554)은 전자 장치(101)가 저전력 표시 모드로 동작 중 지정된 입력을 수신한 경우, 지정된 입력에 대응하는 콘텐트를 생성하도록 제어할 수 있다. 예를 들어, 저전력 표시 어플리케이션(1554)은,
저전력 상태의 디스플레이에 대하여 지정된 입력이 감지되면, 카메라를 이용하여 지정된 해상도(예: 도 5의 제2 해상도)의 적어도 하나의 이미지를 획득하고, 상기 적어도 하나의 이미지를 저전력 상태의 디스플레이에 출력할 수 있다.
일 실시예에 따르면, 프레임워크(framework)(1540)(예: 도 1의 미들웨어(144))는 어플리케이션(1550)이 전자 장치(101)의 하나 이상의 리소스들이 제공하는 기능 또는 정보를 사용할 수 있도록 다양한 기능들을 어플리케이션(1550)으로 제공할 수 있다. 예를 들어, 프레임워크(1540)는 윈도우 매니저(1544), 전력 매니저(1546), 저전력 표시 매니저(1548)를 포함할 수 있다. 예를 들어, 프레임 워크(1540)는 기존의 구성 요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 예를 들어, 윈도우 매니저(1544)는 카메라를 통해 획득한 적어도 하나의 이미지를 통해 생성된 이미지 정보를 이용하여 디스플레이 패널(예: 도 5의 디스플레이 패널(516))에 출력될 콘텐트에 대응하는 윈도우를 생성할 수 있다. 예를 들어, 전력 매니저(1546)는 배터리의 용량, 온도 또는 전원을 관리하고, 이 중 해당 정보를 이용하여 전자 장치의 동작에 필요한 전력 정보를 결정 또는 제공할 수 있다. 예를 들어, 전력 매니저(1546)는 저전력 표시 어플리케이션(1554)의 제어에 기반하여 전자 장치의 디스플레이 동작 모드 또는 소비 전력 레벨에 대응하는 전력을 공급할 수 있다. 예를 들어, 저전력 표시 매니저(1548)는 전자 장치의 디스플레이가 저전력 상태로 동작하는 경우, 디스플레이의 상태 정보를 저전력 어플리케이션(1554)으로 제공할 수 있다. 저전력 표시 매니저(1548)는 전자 장치의 디스플레이가 저전력 상태로 동작하는 경우, 전자 장치의 소비 전력 레벨에 기반하여 디스플레이 패널(예: 도 5의 디스플레이 패널(516))의 밝기를 제어할 수 있다.
일 실시예에 따르면, 커널(1510)(예: 도 1의 운영 체제(142))은 전자 장치의 시스템 리소스(예: 프로세스, 메모리 또는 전원)를 제어할 수 있다. 예를 들어, 커널(1510)은 전자 장치(101)의 다른 하드웨어 디바이스, 예를 들면, 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 구동하기 위한 하나 이상의 드라이버들(1520)을 포함할 수 있다. 예를 들어, 드라이버들(1520)은 일반 표시 드라이버(1522) 또는 디스플레이 제어 드라이버(524)를 포함할 수 있다. 예를 들어, 일반 표시 드라이버(1522)는 그래픽 계층(1530)의 인터페이스를 통해 수신한 콘텐트 데이터를 표시 장치(160)의 GRAM(Display Memory)(1560)에 저장할 수 있다. 일반 표시 드라이버(1522)는 그래픽 계층(1530)의 저전력 표시 모드 인터페이스(1532)를 통해 콘텐트 데이터를 수신한 경우, 해당 콘텐트 데이터가 저전력 표시 모드 동안 표시하기 위한 콘텐트 데이터인 것으로 판단할 수 있다. 디스플레이 제어 드라이버(1524)는 전자 장치의 동작 상태에 기반하여 디스플레이 구동 모듈(512)의 동작을 제어할 수 있다. 디스플레이 제어 드라이버(1524)는 전자 장치의 디스플레이 동작 모드에 기반하여 디스플레이 패널에 출력되는 콘텐트의 밝기 또는 해상도 등을 제어할 수 있다.
도 15에 도시된 프로그램(1500)의 구성은 예시적인 것으로서 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 프로그램(1500)은 도 15에 도시된 구성들 중 적어도 하나를 포함하지 않을 수 있다. 다른 예를 들어, 프로그램(1500)은 도 15에 미도시된 구성을 더 포함할 수 있다.
도 16은 다양한 실시 예들에 따른 형태가 변화하는 전자 장치들의 프리뷰 이미지를 출력하는 동작을 도시한다.
도 16을 참조하여, 일 실시예에 따르면, 제1 폼팩터(1601)의 전자 장치(예: 도 1의 전자 장치(101))는 카메라와 디스플레이를 포함하는 제1 면(1612), 제1 면(1612)과 연결되어 있으며, 터치 입력이 가능한 터치 패널(예: 도 5의 터치 패널(524))을 포함하는 제2 면(1614), 제1 면(1612)의 좌측과 우측에 배치되어 좌우로 열고 닫을 수 있게 연결된 복수의 제3 면(1616)으로 구성될 수 있다. 예를 들어, 제1 폼팩터(1601)의 전자 장치는 제2 면(1614)에 포함된 터치 패널(524)에 입력된 사용자의 더블 탭을 감지하고, 상기 더블 탭이 감지된 후에 제1 면(1612) 위에 닫혀있던 제3 면(1616)이 제1 면(1612)의 디스플레이가 사용자에게 노출되도록 좌우로 열리고, 제1 면(1612)의 카메라를 이용하여 적어도 하나의 이미지를 획득할 수 있다. 제1 폼팩터(1601)의 전자 장치는 상기 획득한 적어도 하나의 이미지를 제1 면(1612)의 저전력 상태의 디스플레이를 통해 출력할 수 있다.
일 실시예에 따르면, 제2 폼팩터(1602)의 전자 장치(예: 도 1의 전자 장치(101))는 카메라와 디스플레이를 포함하는 제1 면(1622), 제1 면(1622)과 연결되어 있으며, 터치 입력이 가능한 터치 패널을 포함하는 제2 면(1624), 제1 면(1622)의 상단부에 배치되어 상하로 열고 닫을 수 있게 연결된 제3 면(1626)으로 구성될 수 있다. 예를 들어, 제2 폼팩터(1602)의 전자 장치는 제2 면(1624)에 포함된 터치 패널(524)에 입력된 사용자의 더블 탭을 감지하고, 상기 더블 탭이 감지된 후에 제1 면(1622) 위에 닫혀있던 제3 면(1626)이 제1 면(1622)의 디스플레이가 사용자에게 노출되도록 위로 열리고, 제1 면(1622)의 카메라를 이용하여 적어도 하나의 이미지를 획득할 수 있다. 제2 폼팩터(1602)의 전자 장치는 상기 획득한 적어도 하나의 이미지를 제1 면(1622)의 저전력 상태의 디스플레이를 통해 출력할 수 있다.
폼팩터들(예: 제1 폼팩터(1601) 및 제2 폼팩터(1602))은 두 종류의 형태로 도시되어 있으나, 본 문서의 실시 예들이 이에 제한되는 것은 아니다. 제1 폼팩터(1601)의 전자 장치는 제1 면(1612) 위에 닫히는 하나의 제3 면(1616)을 포함할 수 있다. 제1 폼팩터(1601) 및 제2 폼팩터(1602)의 전자 장치는 아웃-폴드(out-fold) 전자 장치이거나, 인-폴드 및 아웃-폴드를 모두 지원하는 전자 장치일 수 있다. 다른 예를 들어, 제1 폼팩터(1601) 및 제2 폼팩터(1602)의 전자 장치는 하나의 디스플레이에 콘텐트가 출력되도록 도시되어 있으나, 이에 제한되는 것은 아니다. 제1 폼팩터(1601) 및 제2 폼팩터(1602)의 전자 장치는 제2 면(1614 또는 1624) 및 제3 면(1616 또는 1626)에 배치된 복수의 디스플레이들을 포함할 수 있다.
도 17은 다양한 실시 예들에 따른 전자 장치의 디스플레이 상의 조명 제공 형태를 도시한다.
전자 장치(예: 도 1의 전자 장치(101))는 복수의 디스플레이들(예: 제1 디스플레이(1703), 제2 디스플레이(1705))을 포함할 수 있다.
참조번호 1701을 참조하여, 일 실시예에 따르면, 전자 장치는 제1 디스플레이(1703) 및 제2 디스플레이(1705)를 포함할 수 있다. 프로세서(120)는 상기 제2 디스플레이(1705)의 일 영역에 카메라를 통해 획득한 적어도 하나의 이미지를 출력하고, 상기 제1 디스플레이(1703)의 일 영역(1707)에 흰 색 화면을 출력하고, 대비값(contrast)을 조절하여 조명 기능을 수행할 수 있다.
참조번호 1702를 참조하여, 일 실시예에 따르면, 전자 장치는 제1 디스플레이(1713) 및 제2 디스플레이(1715)를 포함할 수 있다. 프로세서(120)는 상기 제2 디스플레이(1715)의 일 영역에 카메라를 통해 획득한 적어도 하나의 이미지를 출력하고, 상기 제2 디스플레이(1715)의 일 영역(1717)에 흰 색 화면을 출력하고, 대비값(contrast)을 조절하여 조명 기능을 수행할 수 있다.
참조번호 1701 및 1702를 참조하여, 일 실시예에 따르면, 상기 카메라를 통해 획득한 적어도 하나의 이미지는, 상기 제1 최대 해상도보다 낮은 제2 해상도의 적어도 하나의 제1 이미지일 수 있다. 다른 예를 들어, 상기 적어도 하나의 이미지는 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지일 수 있다. 전자 장치는 제2 디스플레이(1705)의 일 영역에 상기 적어도 하나의 이미지를 출력하고, 제1 디스플레이(1703)의 일 영역을 통하여 조명 기능을 수행함으로써 사용자의 기호에 따라 다양하게 변화를 주는 거울 기능을 제공할 수 있다.
도 17에 도시된 전자 장치의 조명 기능 동작 형태는 예시적인 것으로서 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 제1 디스플레이와 제2 디스플레이의 조명이 동시에 제공될 수 있다. 다른 예를 들어, 전자 장치는 조도 센서를 포함 할 수 있다. 상기 조도 센서는 전자 장치 주변의 밝기 정보를 획득할 수 있다. 프로세서는 상기 조도 센서가 획득한 정보를 기반으로, 상기 제1 디스플레이(1703)의 일 영역에 출력되는 이미지의 대비값(contrast)을 조절할 수 있다.
이하에서, 도 18을 참조하여, 전자 장치(101)의 디스플레이를 통한 프리뷰 모드 제공 방법이 설명될 수 있다. 이하에서 설명되는 예시들은 도 17의 실시예에도 동일하게 적용될 수 있다.
도 18은 다양한 실시 예들에 따른 형태가 변화하는 전자 장치의 각도에 따라 다른 화면을 출력하는 디스플레이의 동작을 도시한다.
참조번호 1801을 참조하여, 일 실시예에 따르면, 전자 장치(1817)(예: 도 1의 전자 장치(101))는 접힘(folding)/펼침(unfolding)에 따라서 물리적으로 그 형태가 변경될 수 있다. 전자 장치는 복수의 디스플레이들을 포함할 수 있다. 전자 장치는 지정된 힌지 각도로 펼쳐질 수 있고, 카메라 모듈(예: 도 1의 카메라 모듈(180))을 통해 획득한 적어도 하나의 제1 이미지(1815)를 제1 디스플레이(1811)에 출력할 수 있다. 예를 들어, 전자 장치는 제2 디스플레이(1813) 상에 조명 효과를 제공할 수 있다.
참조번호 1802를 참조하여, 사용자가 전자 장치를 들어올리는 각도에 따라 상기 적어도 하나의 제1 이미지의 일부 또는 전부가 확대된 적어도 하나의 제2 이미지(1821)가 제1 디스플레이에 출력될 수 있다. 예를 들어, 사용자는 전자 장치를 기울여서 제1 디스플레이(1821)를 더 근접하여 바라볼 수 있도록 파지할 수 있다. 예를 들어, 전자 장치는 적어도 하나의 센서를 더 포함할 수 있다. 전자 장치는 모션 센서를 통하여 획득한 전자 장치의 움직임에 관한 정보를 기반으로, 상기 정보를 분석하여 사용자가 디스플레이를 바라보는 각도에 관한 정보를 추출할 수 있다. 전자 장치는 거리 측정 센서를 통하여 획득한 정보를 기반으로, 사용자와 디스플레이와의 거리 등에 관한 정보를 획득할 수 있다. 프로세서(예: 도 1의 프로세서(120))는 상기 적어도 하나의 센서를 통해 획득한 정보에 기반하여, 적어도 하나의 제1 이미지의 일부 또는 전부를 확대하고, 확대된 적어도 하나의 제2 이미지를 디스플레이에 출력할 수 있다. 디스플레이에 출력되는 적어도 하나의 제2 이미지는 적어도 하나의 제1 이미지를 확대한 것으로 도시되고 있으나, 이에 한정되지 않는다. 예를 들어, 적어도 하나의 제2 이미지는 적어도 하나의 제1 이미지의 일 영역을 축소한 것일 수 있다. 다른 예를 들어, 적어도 하나의 제2 이미지는 적어도 하나의 제1 이미지의 일 영역을 좌우 반전 또는 크로핑(cropping)한 것일 수 있다.
다양한 실시예들에 따르면, 전자 장치는 디스플레이, 제1 최대 해상도를 지원하도록 설정된 카메라, 프로세서 및 상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함할 수 있다.
일 실시예에 따르면, 상기 메모리는 실행되었을 때 상기 프로세서로 하여금, 저전력 상태의 상기 디스플레이에 대한 제1 입력이 감지되면, 상기 카메라를 이용하여 상기 제1 최대 해상도보다 낮은 제2 해상도의 적어도 하나의 제1 이미지를 획득하고, 상기 제2 해상도의 적어도 하나의 제1 이미지를 상기 저전력 상태의 상기 디스플레이에 표시하고, 상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 상기 카메라를 이용하여 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하고, 상기 디스플레이를 고전력 상태로 제어하고, 상기 고전력 상태의 디스플레이에 상기 제3 해상도의 적어도 하나의 제2 이미지를 표시하도록 하는 하나 이상의 인스트럭션들(instructions)을 저장할 수 있다.
일 실시예에 따르면, 상기 카메라는 복수의 픽셀들을 포함하는 이미지 센서를 포함하고, 상기 인스트럭션들(instructions)은 실행 시에 상기 프로세서가 상기 복수의 픽셀들 중 상기 제2 해상도에 대응하는 일부 픽셀들을 이용하여 상기 적어도 하나의 제1 이미지를 획득하도록 할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 제1 이미지는 일련의 이미지들을 포함하고, 상기 인스트럭션들(instructions)은 실행 시에 상기 프로세서가 지정된 FPS (frames per second) 이하로 상기 일련의 이미지들을 획득하도록 할 수 있다.
일 실시예에 따르면, 상기 제1 입력은, 싱글 탭, 더블 탭, 롱 프레스, 터치 스와이프, 지정된 패턴의 터치 입력, 또는 지정된 크기 이상의 터치 영역을 갖는 터치 입력 중 적어도 하나일 수 있다.
일 실시예에 따르면, 상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가 상기 카메라를 이용하여 얼굴 인식 또는 제스처 인식을 수행함으로써 상기 제2 입력을 감지하도록 할 수 있다.
일 실시예에 따르면, 전자 장치는 적어도 하나의 센서를 더 포함하고, 상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가 상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 상승 모션, 폴딩 또는 언폴딩을 감지함으로써 상기 제2 입력을 감지하도록 할 수 있다.
일 실시예에 따르면, 전자 장치는 적어도 하나의 카메라 센서;를 더 포함하고, 상기 하나의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가 상기 전자 장치의 상기 디스플레이 해상도 정보를 기반으로, 상기 카메라 센서의 리드 아웃 (read out) 모드를 변경하도록 할 수 있다.
일 실시예에 따르면, 상기 프로세서는 사용자가 상기 디스플레이를 바라보는 각도, 상기 전자 장치의 각도, 또는 사용자와 상기 디스플레이와의 거리에 따라, 상기 적어도 하나의 제1 이미지 또는 상기 적어도 하나의 제2 이미지를 확대, 축소, 좌우 반전, 또는 크로핑(cropping)하여 디스플레이에 표시하도록 설정될 수 있다.
일 실시예에 따르면, 상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가 상기 카메라를 이용하여 획득한 상기 제1 이미지 또는 제2 이미지가 표시되는 상기 디스플레이의 표시부 외의 상기 디스플레이의 일부가, 대비(contrast)값을 최대로 한 흰 색 화면을 표시하도록 설정될 수 있다.
다양한 실시예들에 따르면, 전자 장치의 거울 기능 제공 방법은, 저전력 상태의 디스플레이에 대한 제1 입력이 감지되면, 카메라를 이용하여 제1 최대 해상도보다 낮은 제2 해상도의 적어도 하나의 제1 이미지를 획득하는 동작, 상기 제2 해상도의 상기 적어도 하나의 제1 이미지를 상기 저전력 상태의 상기 디스플레이에 표시하는 동작, 상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 상기 카메라를 이용하여 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하는 동작, 상기 디스플레이를 고전력 상태로 제어하는 동작, 상기 고전력 상태의 상기 디스플레이에 상기 제3 해상도의 상기 적어도 하나의 제2 이미지를 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 카메라는 복수의 픽셀들을 포함하는 이미지 센서를 포함하고, 상기 적어도 하나의 제1 이미지를 획득하는 동작은, 상기 복수의 픽셀들 중 상기 제2 해상도에 대응하는 일부 픽셀들을 이용하여 상기 적어도 하나의 제1 이미지를 획득하도록 하는 동작일 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 제1 이미지를 획득하는 동작은, 상기 적어도 하나의 제1 이미지에 포함된 일련의 이미지들을 지정된 FPS (frames per second) 이하로 획득하는 동작일 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 제1 이미지의 표시 후에, 상기 제2 입력이 감지되는 동작은, 상기 카메라를 이용하여 얼굴인식 또는 제스처 인식을 수행함으로써 상기 제2 입력을 감지하는 동작일 수 있다.
일 실시예에 따르면, 상기 제1 입력은, 싱글 탭, 더블 탭, 롱 프레스, 터치 스와이프, 지정된 패턴의 터치 입력, 또는지정된 크기 이상의 터치 영역을 갖는 터치 입력 중 적어도 하나일 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 상기 카메라를 이용하여 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하는 동작은, 적어도 하나의 센서를 이용하여 센싱 정보들을 획득하는 동작, 상기 센싱 정보들이 상기 제2 입력으로써 입력되는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 센싱 정보들은, 상기 적어도 하나의 센서가 전자 장치의 상승 모션, 폴딩, 또는 언폴딩을 감지한 정보일 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 적어도 하나의 제1 이미지 또는 상기 적어도 하나의 제2 이미지를, 사용자가 상기 디스플레이를 바라보는 각도, 상기 전자 장치의 각도, 또는 사용자와 상기 디스플레이와의 거리에 따라 확대, 축소, 좌우 반전, 또는 크로핑(cropping)하여 상기 디스플레이에 표시하는 동작을 더 포함할 수 있다.
한편, 상술한 본 문서의 다양한 실시예들에 따른 카메라 프리뷰 제공 방법은 비일시적 판독 가능 매체(non-transitory readable medium)에 저장될 수 있다. 이러한 비일시적 판독 가능 매체는 다양한 장치에 탑재되어 사용될 수 있다.
여기서 비일시적 판독 가능 기록 매체란, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체 적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독 가능 기록 매체에 저장되어 제공될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    디스플레이;
    제1 최대 해상도를 지원하도록 설정된 카메라;
    상기 디스플레이 및 상기 카메라에 작동적으로 연결된 프로세서; 및
    상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함하고,
    상기 메모리는, 실행되었을 때 상기 프로세서가:
    저전력 상태의 상기 디스플레이에 대한 제1 입력이 감지되면, 상기 카메라를 이용하여 상기 제1 최대 해상도보다 낮은 제2 해상도의 적어도 하나의 제1 이미지를 획득하고,
    상기 제2 해상도의 적어도 하나의 제1 이미지를 상기 저전력 상태의 상기 디스플레이에 표시하고,
    상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 상기 카메라를 이용하여 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하고,
    상기 디스플레이를 고전력 상태로 제어하고,
    상기 고전력 상태의 디스플레이에 상기 제3 해상도의 적어도 하나의 제2 이미지를 표시하도록 하는 하나 이상의 인스트럭션들(instructions)을 저장하는, 전자 장치.
  2. 청구항 1에 있어서,
    상기 카메라는 복수의 픽셀들을 포함하는 이미지 센서를 포함하고,
    상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가:
    상기 복수의 픽셀들 중 상기 제2 해상도에 대응하는 일부 픽셀들을 이용하여 상기 적어도 하나의 제1 이미지를 획득하도록 하는, 전자 장치.
  3. 청구항 1에 있어서,
    상기 적어도 하나의 제1 이미지는 일련의 이미지 프레임들을 포함하고,
    상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가:
    지정된 FPS (frames per second) 이하로 상기 일련의 이미지 프레임들을 획득하도록 하는, 전자 장치.
  4. 청구항 1에 있어서,
    상기 제1 입력은, 싱글 탭, 더블 탭, 롱 프레스, 터치 스와이프, 지정된 패턴의 터치 입력, 또는 지정된 크기 이상의 터치 영역을 갖는 터치 입력 중 적어도 하나를 포함하는, 전자 장치.
  5. 청구항 1에 있어서,
    상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가:
    상기 카메라를 이용하여 얼굴 인식 또는 제스처 인식을 수행함으로써 상기 제2 입력을 감지하도록 하는, 전자 장치.
  6. 청구항 1에 있어서,
    적어도 하나의 센서;를 더 포함하고,
    상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가:
    상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 상승 모션, 폴딩 또는 언폴딩을 감지함으로써 상기 제2 입력을 감지하도록 하는, 전자 장치.
  7. 청구항 1에 있어서,
    상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가:
    사용자가 상기 디스플레이를 바라보는 각도, 상기 전자 장치의 각도, 또는 사용자와 상기 디스플레이와의 거리에 따라, 상기 적어도 하나의 제1 이미지 또는 상기 적어도 하나의 제2 이미지를 확대, 축소, 좌우 반전, 또는 크로핑(cropping)하여 표시하도록 설정된, 전자 장치.
  8. 청구항 1에 있어서,
    적어도 하나의 카메라 센서;를 더 포함하고,
    상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가:
    상기 전자 장치의 상기 디스플레이 해상도 정보를 기반으로, 상기 카메라 센서의 리드 아웃 (read out) 모드를 변경하도록 설정된, 전자 장치.
  9. 청구항 1에 있어서,
    상기 하나 이상의 인스트럭션들(instructions)은 실행 시에 상기 프로세서가:
    상기 카메라를 이용하여 획득한 상기 제1 이미지 또는 상기 제2 이미지가 표시되는 상기 디스플레이의 표시부 외의 상기 디스플레이의 일부가, 대비(contrast)값을 최대로 한 흰색 화면을 표시하도록 설정된, 전자 장치.
  10. 전자 장치로 거울 기능을 제공하기 위한 방법으로서,
    저전력 상태의 디스플레이에 대한 제1 입력이 감지되면, 카메라를 이용하여 제1 최대 해상도보다 낮은 제2 해상도의 적어도 하나의 제1 이미지를 획득하는 동작;
    상기 제2 해상도의 상기 적어도 하나의 제1 이미지를 상기 저전력 상태의 상기 디스플레이에 표시하는 동작;
    상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 상기 카메라를 이용하여 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하는 동작;
    상기 디스플레이를 고전력 상태로 제어하는 동작; 및
    상기 고전력 상태의 상기 디스플레이에 상기 제3 해상도의 상기 적어도 하나의 제2 이미지를 표시하는 동작; 을 포함하는, 방법.
  11. 청구항 10에 있어서,
    상기 카메라는 복수의 픽셀들을 포함하는 이미지 센서를 포함하고,
    상기 적어도 하나의 제1 이미지를 획득하는 동작은, 상기 복수의 픽셀들 중 상기 제2 해상도에 대응하는 일부 픽셀들을 이용하여 상기 적어도 하나의 제1 이미지를 획득하도록 하는 것인, 방법.
  12. 청구항 10에 있어서,
    상기 적어도 하나의 제1 이미지를 획득하는 동작은, 상기 적어도 하나의 제1 이미지에 포함된 일련의 이미지들을 지정된 FPS (frames per second) 이하로 획득하는 것인, 방법.
  13. 청구항 10에 있어서,
    상기 적어도 하나의 제1 이미지의 표시 후에, 상기 제2 입력이 감지되는 동작은, 상기 카메라를 이용하여 얼굴인식 또는 제스처 인식을 수행함으로써 상기 제2 입력을 감지하는 것인, 방법.
  14. 청구항 10에 있어서,
    상기 제1 입력은, 싱글 탭, 더블 탭, 롱 프레스, 터치 스와이프, 지정된 패턴의 터치 입력, 또는 지정된 크기 이상의 터치 영역을 갖는 터치 입력 중 적어도 하나인, 방법.
  15. 청구항 10에 있어서,
    상기 적어도 하나의 제1 이미지의 표시 후에, 제2 입력이 감지되면, 상기 카메라를 이용하여 상기 제2 해상도보다 높은 제3 해상도의 적어도 하나의 제2 이미지를 획득하는 동작은,
    적어도 하나의 센서를 이용하여 센싱 정보들을 획득하는 동작;
    상기 센싱 정보들이 상기 제2 입력으로써 입력되는 동작; 을 더 포함하고,
    상기 센싱 정보들은, 상기 적어도 하나의 센서가 전자 장치의 상승 모션, 폴딩, 또는 언폴딩을 감지한 정보인, 방법.
PCT/KR2021/002393 2020-02-25 2021-02-25 카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법 WO2021172901A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0022714 2020-02-25
KR1020200022714A KR20210108037A (ko) 2020-02-25 2020-02-25 카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법

Publications (1)

Publication Number Publication Date
WO2021172901A1 true WO2021172901A1 (ko) 2021-09-02

Family

ID=77490262

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/002393 WO2021172901A1 (ko) 2020-02-25 2021-02-25 카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법

Country Status (2)

Country Link
KR (1) KR20210108037A (ko)
WO (1) WO2021172901A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210141070A (ko) 2020-05-15 2021-11-23 삼성전자주식회사 복수의 카메라를 이용한 이미지 촬영 방법 및 그 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130292A (ja) * 2009-12-18 2011-06-30 Sony Corp 撮像装置、および撮像素子の読み出しモード設定方法
KR20130058910A (ko) * 2011-11-28 2013-06-05 삼성전자주식회사 저전력 셔터랙 제거 방법, 카메라 모듈 및 이를 구비하는 모바일 기기
KR20160021497A (ko) * 2014-08-18 2016-02-26 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
JP2016072931A (ja) * 2014-10-02 2016-05-09 リコーイメージング株式会社 画像表示装置を備える撮像装置
KR20170082841A (ko) * 2016-01-07 2017-07-17 삼성전자주식회사 촬영 디바이스 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130292A (ja) * 2009-12-18 2011-06-30 Sony Corp 撮像装置、および撮像素子の読み出しモード設定方法
KR20130058910A (ko) * 2011-11-28 2013-06-05 삼성전자주식회사 저전력 셔터랙 제거 방법, 카메라 모듈 및 이를 구비하는 모바일 기기
KR20160021497A (ko) * 2014-08-18 2016-02-26 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
JP2016072931A (ja) * 2014-10-02 2016-05-09 リコーイメージング株式会社 画像表示装置を備える撮像装置
KR20170082841A (ko) * 2016-01-07 2017-07-17 삼성전자주식회사 촬영 디바이스 및 그 제어 방법

Also Published As

Publication number Publication date
KR20210108037A (ko) 2021-09-02

Similar Documents

Publication Publication Date Title
WO2020171568A1 (en) Electronic device and method for changing magnification of image using multiple cameras
WO2020226294A1 (en) Foldable device and method for controlling image capturing by using plurality of cameras
WO2020032555A1 (en) Electronic device and method for providing notification related to image displayed through display and image stored in memory based on image analysis
WO2020171583A1 (en) Electronic device for stabilizing image and method for operating same
WO2019039771A1 (en) ELECTRONIC DEVICE FOR STORING DEPTH INFORMATION IN RELATION TO AN IMAGE BASED ON DEPTH INFORMATION PROPERTIES OBTAINED USING AN IMAGE, AND ITS CONTROL METHOD
WO2019035601A1 (en) IMAGE EDITING APPARATUS USING A DEPTH CARD AND ITS METHOD
WO2021141445A1 (en) Method of improving image quality in zoom scenario with single camera, and electronic device including the same
WO2021015505A1 (en) Foldable electronic device and photographing method using multiple cameras in foldable electronic device
WO2021141287A1 (ko) 카메라 프리뷰를 제공하는 전자 장치 및 그 방법
WO2019143050A1 (en) Electronic device and method for controlling autofocus of camera
WO2020130654A1 (en) Camera module having multi-cell structure and portable communication device including the same
WO2020159262A1 (en) Electronic device and method for processing line data included in image frame data into multiple intervals
WO2020071823A1 (en) Electronic device and gesture recognition method thereof
WO2021133025A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2022039424A1 (ko) 흔들림을 보정하는 방법 및 그 전자 장치
WO2022030838A1 (ko) 프리뷰 이미지를 제어하는 전자 장치 및 방법
WO2021025509A1 (en) Apparatus and method for displaying graphic elements according to object
WO2022092706A1 (ko) 복수의 카메라를 이용한 사진 촬영 방법 및 그 장치
WO2022139262A1 (ko) 관심 객체를 이용하여 비디오를 편집하는 전자 장치 및 그 동작 방법
WO2021172901A1 (ko) 카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법
WO2019054626A1 (ko) 제 1 이미지 센서에서 제공된 신호를 이용하여 제 2 이미지 센서에서 데이터를 획득하는 방법 및 전자 장치
WO2020231156A1 (en) Electronic device and method for acquiring biometric information using light of display
WO2019190250A1 (ko) 이미지에 포함된 반사 객체의 속성에 기반하여, 반사 객체에 다른 이미지를 합성하는 방법 및 전자 장치
WO2021194161A1 (ko) 고배율에서 흔들림을 보정하는 방법 및 그 전자 장치
WO2021162396A1 (ko) 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21760763

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21760763

Country of ref document: EP

Kind code of ref document: A1