WO2022059879A1 - 조도 센서를 교정하는 전자 장치 - Google Patents

조도 센서를 교정하는 전자 장치 Download PDF

Info

Publication number
WO2022059879A1
WO2022059879A1 PCT/KR2021/005500 KR2021005500W WO2022059879A1 WO 2022059879 A1 WO2022059879 A1 WO 2022059879A1 KR 2021005500 W KR2021005500 W KR 2021005500W WO 2022059879 A1 WO2022059879 A1 WO 2022059879A1
Authority
WO
WIPO (PCT)
Prior art keywords
illuminance
sensor
value
electronic device
display
Prior art date
Application number
PCT/KR2021/005500
Other languages
English (en)
French (fr)
Inventor
최광호
김종아
윤희웅
이기혁
이동한
조정호
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2022059879A1 publication Critical patent/WO2022059879A1/ko
Priority to US18/124,144 priority Critical patent/US20230221760A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays
    • G09G3/035Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays for flexible display surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/12Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto
    • H01L31/125Composite devices with photosensitive elements and electroluminescent elements within one single body
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/12Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto
    • H01L31/14Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the light source or sources being controlled by the semiconductor device sensitive to radiation, e.g. image converters, image amplifiers or image storage devices
    • H01L31/141Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the light source or sources being controlled by the semiconductor device sensitive to radiation, e.g. image converters, image amplifiers or image storage devices the semiconductor device sensitive to radiation being without a potential-jump barrier or surface barrier
    • H01L31/143Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the light source or sources being controlled by the semiconductor device sensitive to radiation, e.g. image converters, image amplifiers or image storage devices the semiconductor device sensitive to radiation being without a potential-jump barrier or surface barrier the light source being a semiconductor device with at least one potential-jump barrier or surface barrier, e.g. light emitting diode
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/12Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto
    • H01L31/16Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the semiconductor device sensitive to radiation being controlled by the light source or sources
    • H01L31/165Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the semiconductor device sensitive to radiation being controlled by the light source or sources the semiconductor sensitive to radiation being characterised by at least one potential-jump or surface barrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0214Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • H04M1/0216Foldable in one direction, i.e. using a one degree of freedom hinge
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Definitions

  • Various embodiments relate to an electronic device configured to calibrate an illuminance sensor used to control brightness of a screen.
  • the electronic device may include a display and an illuminance sensor disposed under a designated region of the display (eg, a region of interest (ROI) or a sensor region) to measure external illuminance.
  • the electronic device may adjust the brightness of the display based on the measured illuminance. For example, the electronic device may increase visibility by setting the screen of the display to be dark in a dark environment in which external illuminance is low, and by setting the screen to be bright in a bright environment in which external illuminance is relatively high.
  • the measured illuminance value for each illuminance sensor may be different.
  • the operation of controlling the screen brightness may be different for each set.
  • the screen brightness of the display set in the first electronic device and the screen brightness of the display set in the second electronic device may be different from each other due to a difference in the measured illuminance value even though the surroundings are the same brightness condition.
  • the electronic device may correct the deviation so that the same screen brightness is set in the same external environment.
  • the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. there is.
  • a portable electronic device includes: a foldable housing including a first housing and a second housing connected to the first housing to be rotatable with respect to the first housing; a first display area disposed in a space formed inside the first housing, and a second display area disposed in a space formed inside the second housing and facing the first display area when the portable electronic device is in a folded state; a display comprising; a first illuminance sensor disposed under the first display area and having a field of view facing the first display area; a state detection sensor for detecting a state of the foldable housing; Memory; and a processor connected to the display, the first illuminance sensor, the state detection sensor, and the memory.
  • the processor stores a reference value used for calibration of the illuminance sensor in the memory, recognizes that the state of the portable electronic device is a folded state using data received from the state detection sensor, and the portable electronic device according to the device being in a calibration trigger state comprising the folded state: display a first image in a sensor area positioned above the first illuminance sensor in the first display area, and in the second display area with the sensor area A second image is displayed on a facing area, and an illuminance value is calculated using data received from the first illuminance sensor while the first image and the second image are displayed, and the calculated illuminance value and the memory It may be configured to calculate a calibration value for calibrating the illuminance value measured using the first illuminance sensor based on the comparison result of the reference value stored in the , and store the calibration value in the memory.
  • an electronic device capable of setting screen brightness using the corrected illuminance value may be provided.
  • various effects directly or indirectly identified through this document may be provided.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure
  • FIG. 2 is a block diagram of a display module according to various embodiments of the present disclosure.
  • 3A to 3F illustrate a portable electronic device having an in-folding housing structure, according to an exemplary embodiment.
  • FIG. 4A is a diagram illustrating a cross-section of a display and an illuminance sensor disposed below the display when the display is in a folded state, according to an embodiment, and FIG. 4B is, when the display is in a folded state, the illuminance sensor, the sensor area, and the face-to-face area It is a diagram showing the overlapping structure of
  • FIG. 5 illustrates a configuration of a portable electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a diagram for explaining an illuminance measurement operation based on a period in which a display is turned on and turned off, according to an exemplary embodiment.
  • FIG. 7 is a diagram for explaining an illuminance correction operation based on color information of an image, according to an exemplary embodiment.
  • FIG. 8 illustrates operations for calibrating an illuminance sensor, according to various embodiments.
  • 9A and 9B are screen examples for explaining an operation for notifying an abnormality of an illuminance sensor, according to an embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 or an external electronic device (eg, a sound output module 155 ) directly or wirelessly connected to the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, underside) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • the display module 160 may include a display panel 210 and a display driver IC (DDI) 230 for controlling the display panel 210 .
  • the DDI 230 may include an interface module 231 , a memory 233 (eg, a buffer memory), an image processing module 235 , or a mapping module 237 .
  • the DDI 230 receives, for example, image data or image information including an image control signal corresponding to a command for controlling the image data from other components of the electronic device 101 through the interface module 231 . can do.
  • the image information is the processor 120 (eg, the main processor 121 (eg, an application processor) of FIG. 1 ) or the image information of FIG. 1 that is operated independently of the function of the main processor 121 . It may be received from the coprocessor 123 (eg, a graphic processing unit).
  • the DDI 230 may communicate with the touch circuit 250 or the sensor module 176 through the interface module 231 . Also, the DDI 230 may store at least a portion of the received image information in the memory 233, for example, in units of frames.
  • the image processing module 235 may pre-process or post-process (eg, adjust resolution, brightness, or size) based on at least a characteristic of the image data or a characteristic of the display panel 210 , for example, at least a portion of the image data. ) can be done.
  • the mapping module 237 may generate a voltage value or a current value corresponding to the image data pre-processed or post-processed by the image processing module 235 . According to an embodiment, the generation of the voltage value or the current value depends on, for example, the properties of the pixels of the display panel 210 (eg, an arrangement of pixels (RGB stripe or pentile structure), or the size of each sub-pixel). It may be performed based at least in part. At least some pixels of the display panel 210 are driven based at least in part on the voltage value or current value, so that visual information (eg, text, image, or icon) corresponding to the image data is displayed on the display panel ( 210) can be displayed.
  • visual information eg, text, image
  • the display module 160 may further include a touch circuit 250 .
  • the touch circuit 250 may include a touch sensor 251 and a touch sensor IC 253 for controlling the touch sensor 251 .
  • the touch sensor IC 253 may control the touch sensor 251 to sense a touch input or a hovering input for a designated position of the display panel 210 , for example.
  • the touch sensor IC 253 may detect a touch input or a hovering input by measuring a change in a signal (eg, voltage, light amount, resistance, or electric charge amount) for a designated position of the display panel 210 .
  • the touch sensor IC 253 may provide information (eg, location, area, pressure, or time) regarding the sensed touch input or hovering input to the processor 120 .
  • At least a part of the touch circuit 250 is a part of the display driver IC 230 , the display panel 210 , or the outside of the display module 160 . It may be included as a part of other arranged components (eg, the coprocessor 123 ).
  • the display module 160 may further include at least one sensor (eg, a fingerprint sensor, an iris sensor, a pressure sensor, or an illuminance sensor) of the sensor module 176 , or a control circuit therefor.
  • the at least one sensor or a control circuit therefor may be embedded in a part of the display module 160 (eg, the display panel 210 or the DDI 230 ) or a part of the touch circuit 250 .
  • the sensor module 176 embedded in the display module 160 includes a biometric sensor (eg, a fingerprint sensor)
  • the biometric sensor is a biometric sensor associated with a touch input through a partial area of the display panel 210 .
  • Information eg, fingerprint image
  • the pressure sensor acquires pressure information related to a touch input through a part or the entire area of the display panel 210 . can do.
  • the touch sensor 251 or the sensor module 176 may be disposed between pixels of the pixel layer of the display panel 210 or above or below the pixel layer.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101). It may be implemented as software (eg, the program 140) including instructions.
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly between smartphones (eg: smartphones) and online.
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.
  • the portable electronic device may have a foldable housing divided into two housings with respect to a folding axis.
  • a first portion (eg, a first display area) of a display eg, a flexible display
  • a second portion eg, a second display area
  • the foldable housing may be implemented in an in-folding manner in which the first part and the second part face each other when the portable electronic device is in a folded state.
  • the foldable housing may be implemented in an out-folding manner in which the first part and the second part face opposite to each other when the portable electronic device is in a folded state.
  • the side on which the first and second parts are arranged is the front side of the portable electronic device, the opposite side is the back side of the portable electronic device, and the side surrounding the space between the front and back sides is the side of the portable electronic device. can be defined.
  • FIGS. 3A and 3B show the front side of a foldable portable electronic device (hereinafter simply referred to as an electronic device) in an unfolded, flat or open state according to various embodiments of the present disclosure
  • FIG. 3C shows the electronic device in a folded state. or closed state
  • FIG. 3D depicts the rear surface in an unfolded state
  • FIG. 3E depicts the rear surface in a partially folded state (in other words, a partially unfolded state, or a fully folded state and a fully folded state).
  • the front side is shown in an intermediate state between unfolded states)
  • FIG. 3F is an exploded perspective view of the electronic device.
  • the portable electronic device 300 (eg, the electronic device 101 of FIG. 1 ) has a first housing 310 , a second housing 320 , and a first housing 310 .
  • the hinge assembly 340 connecting the first housing 310 and the second housing 320 so that the housing 320 is rotatable, and the foldable housings 310 and 320 are flexible arranged in a space formed It may include a flexible or foldable display 399 and a sensor module (eg, the sensor module 176 of FIG. 1 ).
  • the display 399 may be disposed from the first housing 310 to the second housing 320 across the hinge assembly 340 .
  • the display 399 includes a first display area 311 disposed in the inner space of the first housing 310 and a second display area 321 disposed in the inner space of the second housing 320 based on the folding axis A. can be divided into
  • the hinge assembly 340 is switched from an unfolded state (eg, the state of FIG. 3A ) to a folded state (eg, the state of FIG. 3C )
  • the two display areas 311 and 321 are mutually It may be implemented in an in-folding manner to face each other.
  • the two display areas 311 and 321 may face substantially the same direction.
  • the two display areas 311 and 321 may be rotated in a direction facing each other.
  • the sensor module eg, an illuminance sensor
  • the sensor area (or light transmission area) 342a of the first display area 311 when viewed from the front.
  • the location and/or size of the sensor area 342a in the first display area 311 may be determined by the location and/or size of the illuminance sensor disposed thereunder.
  • the size (eg, diameter) of the sensor area 342a may be determined based on a field of view (FOV) (or observation area) of the illuminance sensor.
  • FOV field of view
  • the sensor region 342a may be configured to have a lower pixel density and/or lower wiring density than its periphery to improve light transmittance.
  • the electronic device 300 When the electronic device 300 is in a folded state, at least a portion of the second display area 321 facing the sensor area 342a may be defined as a face-to-face area 341a, and a face-to-face area ( The location and/or size of 341a may be determined based on the location and/or size of the sensor area 342a that will align with the facing area 341a when in a collapsed state.
  • the state of the electronic device 300 may be defined.
  • the state of the electronic device 300 may be defined as an unfolded (unfolded, flat, or open) state when the angle between the two display areas 311 and 321 is about 180 degrees.
  • the state of the electronic device 300 may be defined as a folded or closed state.
  • the state of the electronic device 300 when the two display areas 311 and 321 form an angle greater than an angle in a folded state and smaller than an angle in an unfolded state (eg, between about 10 and 179 degrees) may be defined as an intermediate state (in other words, a partially folded or partially unfolded state) as shown in FIG. 3 .
  • an active region in which visual information (eg, text, image, or icon) is to be displayed on the display 399 may be determined.
  • the active area may be determined as the first display area 311 or the second display area 321 .
  • An area having a relatively smaller movement among the first display area 311 and the second display area 321 may be determined as the active area.
  • the electronic device 300 when the user opens the housing of the electronic device 300 with one hand while holding the housing of the electronic device 300 with the other hand, the electronic device 300 switches from the folded state to the intermediate state, and accordingly, the electronic device 300 ) may determine the display area of the gripped housing (ie, the housing having relatively little movement) as the activation area.
  • the entire area of the display 399 eg, both the first display area 311 and the second display area 321 ) may be determined as the active area.
  • the first housing 310 in an unfolded state, includes a first surface (a first display area) 311 and a first surface facing a first direction (eg, a front direction) (z-axis direction).
  • a second surface 312 facing a second direction (eg, a rear direction) (-z axis direction) opposite to the 311 may be included.
  • the second housing 320 has a third surface (second display area) 321 facing a first direction (eg, z-axis direction) and a second housing 320 facing a second direction (eg, -z-axis direction). It may include four sides 322 .
  • the electronic device 300 In the unfolded state, the electronic device 300 has the first surface 311 of the first housing 310 and the third surface 321 of the second housing 320 in the same first direction (eg, the z-axis direction). and may be operated in such a way that the first surface 311 and the third surface 321 face each other in the folded state.
  • the second surface 312 of the first housing 310 and the fourth surface 322 of the second housing 320 move in the same second direction (-z-axis direction). facing, the second surface 312 and the fourth surface 322 may be operated to face opposite directions in a folded state.
  • the first housing 310 is coupled to the first side frame 313 and the first side frame 313 forming a part of the exterior of the electronic device 300 , A first rear cover 314 forming at least a portion of the second surface 312 may be included.
  • the first side frame 313 includes a first side 313a, a second side 313b extending from one end of the first side 313a, and the other end of the first side 313a. It may include a third side (313c) that is.
  • the first side frame 313 may be formed in a rectangular (eg, square or rectangular) shape through the first side 313a, the second side 313b, and the third side 313c. .
  • the second housing 320 is coupled to the second side frame 323 and the second side frame 323 forming a part of the exterior of the electronic device 300 , and A second rear cover 324 forming at least a portion of the fourth surface 322 may be included.
  • the second side frame 323 includes a fourth side 323a, a fifth side 323b extending from one end of the fourth side 323a, and the other end of the fourth side 323b extending from the other end.
  • a sixth side surface 323c may be included.
  • the second side frame 323 may be formed in a rectangular shape through the fourth side surface 323a, the fifth side surface 323b, and the sixth side surface 323c.
  • the pair of housings 310 and 320 is not limited to the illustrated shape and combination, and may be implemented by a combination and/or combination of other shapes or parts.
  • the first side frame 313 may be integrally formed with the first rear cover 314
  • the second side frame 323 may be integrally formed with the second rear cover 324 .
  • the first back cover 314 and the second back cover 324 may be, for example, coated or colored glass, ceramic, polymer or metal (eg, aluminum, stainless steel (STS), or Magnesium) may be formed by at least one or a combination of two or more.
  • coated or colored glass, ceramic, polymer or metal eg, aluminum, stainless steel (STS), or Magnesium
  • STS stainless steel
  • Magnesium may be formed by at least one or a combination of two or more.
  • the electronic device 300 may include a first protective cover 315 (eg, a first protective frame or a first decorative member) coupled along an edge of the first housing 310 .
  • the electronic device 300 may include a second protective cover 325 (eg, a second protective frame or a second decorative member) coupled along an edge of the second housing 320 .
  • the first protective cover 315 and the second protective cover 325 may be formed of a metal or polymer material.
  • the electronic device 300 may include a sub-display 331 that is separately disposed from the display 399 .
  • the sub-display 331 is disposed to be exposed through a portion of the second surface 312 , so that when it is in a folded state, state information of the electronic device 300 may be displayed.
  • the sub-display 331 may be arranged to be visible from the outside through at least a partial area of the first rear cover 314 .
  • the sub-display 331 may be disposed on the fourth surface 324 of the second housing 320 . In this case, the sub-display 331 may be arranged to be visible from the outside through at least a partial area of the second rear cover 324 .
  • the electronic device 300 includes an input device 303 , a sound output device 301 , 302 , camera modules 305 and 308 , a key input device 306 , a connector port 307 , and a sensor module. (not shown) may include at least one of.
  • the sensor module eg, the sensor module 176 of FIG. 1
  • the camera 305 may be disposed below the display 399 when viewed from the front.
  • the electronic device 300 rotates the first side frame 313 , the second side frame 323 , the first side frame 313 , and the second side frame 323 . It may include a hinge module 340 for possible connection.
  • the electronic device 300 includes a first support plate 3131 extending at least partially from the first side frame 313 , and a second support plate extending at least partially from the second side frame 323 . (3231) may be included.
  • the first support plate 3131 may be integrally formed with the first side frame 313 or may be structurally coupled to the first side frame 313 .
  • the second support plate 3231 may be integrally formed with the second side frame 323 or may be structurally coupled to the second side frame 323 .
  • the electronic device 300 may include a display 399 disposed to receive support from the first support plate 3131 and the second support plate 3231 .
  • the electronic device 300 is coupled to the first side frame 313 and provides a first space between the first back cover 314 and the second side surface with the first support plate 3131 .
  • a second rear cover 324 coupled to the frame 323 and providing a second space between the frame 323 and the second support plate 3231 may be included.
  • the first side frame 313 and the first rear cover 314 may be integrally formed.
  • the second side frame 323 and the second back cover 324 may be integrally formed.
  • the electronic device 300 may include a first housing 310 provided through a first side frame 313 , a first support plate 3131 , and a first back cover 314 .
  • the electronic device 300 may include a second housing 320 provided through a second side frame 323 , a second support plate 331 , and a second rear cover 324 . .
  • the electronic device 300 includes a first board assembly 361 (eg, a main printed circuit board) disposed in a first space between the first side frame 313 and the first back cover 314 .
  • a camera assembly 363 may be included.
  • the camera assembly 363 may include a plurality of cameras (eg, the camera modules 305 and 308 of FIGS. 3A and 3C ), to be electrically connected to the first substrate assembly 361 .
  • the first bracket 351 may provide a support structure for supporting the first substrate assembly 361 and/or the camera assembly 363 and improved rigidity.
  • the electronic device 300 includes a second board assembly 362 (eg, a sub printed circuit board) disposed in the second space between the second side frame 323 and the second back cover 324 . , an antenna 390 (eg, a coil member), a second battery 372 , or a second bracket 352 .
  • the electronic device 300 crosses the hinge module 340 from the first substrate assembly 361 , and is disposed between the second side frame 323 and the second rear cover 324 .
  • the wiring member 380 eg, a flexible circuit (FPCB), which is disposed to extend to electronic components (eg, the second board assembly 362 , the second battery 372 , or the antenna 390 ) and provides an electrical connection. (flexible printed circuit board)).
  • FPCB flexible circuit
  • the electronic device 300 supports the hinge module 340 , and when the electronic device 300 is in a folded state, it is exposed to the outside, and when the electronic device 300 is in an unfolded state, it moves into the first space and the second space. It may include a hinge cover 341 disposed invisibly from the outside by being drawn in.
  • the electronic device 300 may include a first protective cover 315 coupled along an edge of the first side frame 313 .
  • the electronic device 300 may include a second protective cover 325 coupled along an edge of the second side frame 323 .
  • an edge of the first display area 311 may be protected by the first protective cover 315 .
  • An edge of the second display area 321 may be protected by the second protective cover 325 .
  • the protective cap 335 may be disposed in an area corresponding to the hinge module 340 to protect a bent portion at the edge of the display 399 .
  • FIG. 4A is a cross-sectional view of a display and an illuminance sensor disposed below the display when the display is in a folded state (eg, a view showing a portion of the electronic device shown in FIG. 3C cut in the BB' direction), according to an embodiment
  • FIG. 4B is a diagram illustrating an overlapping structure of an illuminance sensor, a sensor area, and a face area when the display is in a folded state.
  • the display 410 and the illuminance sensor 420 may be disposed inside the in-folding housing described above with reference to FIG. 3 .
  • the display 410 (eg, the display 399 of FIG. 3 ) includes a first protective cover 411 , a display panel 412 (eg, the display panel 210 of FIG. 2 ), and a second protective cover 413 ). may include.
  • the first protective cover 411 is attached to the front surface of the display panel 412 and is made of, for example, a flexible and transparent material (eg, colorless polyimide (CPI)).
  • CPI colorless polyimide
  • the second protective cover 413 is attached to the rear surface of the display panel 412 and may include a metal layer (eg, a copper sheet) and/or a light blocking layer (eg, a black emboss layer). .
  • the illuminance sensor 420 (eg, an ambient light sensor (ALS)) may be positioned under the second protective cover 413 and disposed on the substrate assembly 430 . .
  • An opening 413a may be formed in a portion of the second protective cover 413 disposed on the illuminance sensor 420 so that the illuminance sensor 420 can detect external light.
  • the illuminance sensor 420 may include a light receiving unit for detecting external light.
  • the light receiving unit may include at least one photodiode.
  • the opening 413a may be formed at a position and/or size corresponding to a field of view (FOV) angle ⁇ of the light receiving unit 420 .
  • FOV field of view
  • the sensor area 412a (eg, the sensor area 342a of FIG. 3 ) in the display panel 412 may be formed in a position and/or size corresponding to the viewing angle ⁇ .
  • the processor 120 may display an image of a specified color (eg, white, gray, black, or other color) on the sensor area 412a.
  • the image of the specified color may include an image having a luminance and/or color sufficient to allow a corrective operation of the illuminance sensor.
  • the calibration may be defined as an operation of calculating a value used to correct the illuminance value measured by the illuminance sensor 420 .
  • the processor 120 may display an image of a specified color (eg, white or black) on the face area 412b (eg, the face area 341a of FIG. 3 ).
  • a specified color eg, white or black
  • the processor 120 may display an image having a color (eg, white or black) of different brightness (eg, white or black) or an image having a color (eg, white) of the same brightness in the sensor area 412a and the facing area 412b can do.
  • the illuminance sensor 420 may include a package form further including a light emitting unit (eg, a light emitting diode).
  • the illuminance sensor 420 including the light emitting unit may operate as a proximity sensor.
  • the illuminance sensor 420 may include an illuminance sensor in which the illuminance sensor and the proximity sensor are combined into one device (or module).
  • the illuminance sensor 420 may be included in a display panel (eg, the display panel 210 of FIG. 2 ).
  • a light receiving unit eg, a photodiode
  • illuminance may be measured.
  • the opening 413a may not be formed.
  • the sensor region 412a may be formed in a position and/or size corresponding to a pixel including a light receiving unit.
  • the illuminance sensor 420 is not limited to the above-described form.
  • the electronic device 500 (eg, the electronic device 101 of FIG. 1 ) includes a first illuminance sensor 510 , a display 520 , a display driver 530 , and a state detection sensor 540 . , a memory 550 , and a processor 560 .
  • the first illuminance sensor 510 may generate data used to check the illuminance around the electronic device 500 .
  • the first illuminance sensor 510 may include at least one photodiode and be implemented as one module (eg, ASIC).
  • the first illuminance sensor 510 may be molded (eg, clear molding) to protect its internal elements.
  • the first illuminance sensor 510 includes a light receiving unit 511 for reading RGB values of visible light and an analog-to-digital converter (ADC) 512 for digitizing RGB values, and digitized RGB values (ADC values). ) may be output to the processor 560 .
  • the light receiving unit 511 may include at least one photodiode that responds to visible light (eg, light having a wavelength of about 400 to 750 nm).
  • the light receiving unit 511 may further include a photodiode for receiving infrared rays.
  • the light receiving unit 511 may include a device (eg, a cadmium sulfide (Cds) device) having a photoelectric effect in which electrons move inside are generated when receiving light energy (or light) from an external light source and the conductivity changes. there is.
  • a current may be generated by a photoelectric effect.
  • the ADC 512 may convert a current into digital data (eg, an ADC value) and transmit it to the processor 560 .
  • the processor 560 may convert data received from the first illuminance sensor 510 into an illuminance value and control the luminance (or brightness) of the display 520 based on the illuminance value.
  • the light receiving unit 511 may include a plurality of channels capable of receiving light.
  • the light receiving unit 511 includes an R (red) channel 511a for receiving red light (eg, light having a wavelength of about 550 nm to 700 nm) and green light (eg, about 450 nm).
  • R (red) channel 511a for receiving red light (eg, light having a wavelength of about 550 nm to 700 nm) and green light (eg, about 450 nm).
  • G (green) channel 511b for receiving (light having a wavelength of ⁇ 650nm)
  • B (blue) channel 511c for receiving blue light (eg, light having a wavelength of about 400nm ⁇ 550nm)
  • C (clear) channel 511d for receiving white light (eg, all R, G, and B).
  • At least one of the channels 511a, 511b, 511c, and 511d may include a photodiode.
  • the R, G, and B channels 511a, 511b, and 511c may include filters that transmit the corresponding series of light.
  • the first illuminance sensor 510 in addition to the photodiode, a color detection sensor (eg, picker sensor), a flicker sensor, an image sensor, a photoplethysmography (PPG) sensor, a proximity sensor, an iris sensor, a spectrometer sensor, Alternatively, it may include various sensors based on light, such as an ultraviolet (ultraviolet) sensor. Alternatively, the first illuminance sensor 510 may be included in the display 520 .
  • the electronic device 500 may further include a second illuminance sensor 590 .
  • the first illuminance sensor 510 eg, the illuminance sensor 420 of FIG. 4A
  • the second illuminance sensor 590 is configured such that its field of view faces the same second direction as that of the rear surface (eg, the second surface 312 or the fourth surface 322 in FIG. 3 ) of the electronic device 500 . It may be disposed under the rear surface of the electronic device 500 .
  • a sub-display may be disposed on the rear side, and a second illuminance sensor 590 may be disposed under the sub-display.
  • the display 520 may include a DDI 521 and a display panel 522 .
  • the DDI 521 eg, the DDI 230 of FIG. 2
  • the DDI 521 may control the panel 522 (eg, the display panel 210 of FIG. 2 ) to display image information.
  • the DDI 521 may control the panel 522 to output image information in units of frames.
  • the DDI 521 may provide color information of an image (or an image) to be output (or output) to another component (eg, the processor 560 ).
  • the color information may include color on pixel ratio (COPR) information.
  • COCR color on pixel ratio
  • the COPR information may indicate a ratio of R/G/B (R value, G value, and B value) in image data to be output to a designated area of the display 520 .
  • the COPR information may indicate an average of R values, an average of G values, and an average of B values to be respectively displayed in pixels included in the designated area.
  • the R average value is a red value, and may be a value within 0 to 255
  • the G average value is a green value, and may be a value within 0 to 255
  • the B average value is a blue value and may be a value within 0 to 255.
  • COPR information of a region in which a white part included in an image to be displayed on the display 520 is displayed may have a value of (R, G, B: 255, 255, 255).
  • the designated area may include, for example, an area in which an image is displayed, the entire active area of the display 520 (eg, the first display area 570 including the sensor area 571 ), or the sensor area 571 , or
  • the active area may include at least one of a plurality of sections partitioned into the active area, and the plurality of sections may be divided by coordinate values of pixels stored in the memory 550 or physical location information of the area.
  • Physical location information of the region may include, for example, wirings included in the display 520 (eg, gate line (GL) wires, data line (DL) wires, and a plurality of power wires (VDD wires, VSS wires) included in the display 520 . , Vcas wirings)) as information (eg, wiring number) on at least one wiring, and may include wiring information dividing an area.
  • wirings included in the display 520 eg, gate line (GL) wires, data line (DL) wires, and a plurality of power wires (VDD wires, VSS wires) included in the display 520 .
  • Vcas wirings as information (eg, wiring number) on at least one wiring, and may include wiring information dividing an area.
  • the panel 522 may substantially face the first display area 570 (eg, the first display area 311 of FIG. 3 ) and the first display area 570 when the electronic device 500 is in a folded state. and a second display area 580 (eg, the second display area 321 of FIG. 3 ).
  • a first illuminance sensor 510 may be disposed under the first display area 570 . Accordingly, the processor 560 sets at least a portion of the first display area 570 to the sensor area 571 (eg, the sensor area 342a of FIG. 3A ) based on the position and the FOV angle of the first illuminance sensor 510 . )) can be specified.
  • the sensor area 571 may be designated when the electronic device 500 is manufactured or booted, and information on the area designated as the sensor area 571 may be stored in the memory 550 .
  • the information on the area may include at least one of coordinate values of pixels corresponding to the sensor area 571 or physical location information (eg, wiring information) of the sensor area 581 .
  • the processor 560 may designate at least a portion of the second display area 580 as the face area 581 (eg, the face area 341a of FIG. 3A ).
  • the processor 560 may designate at least a portion of the second display area 580 as the face area 581 based on the location and size of the sensor area 571 .
  • the face area 581 may be designated when the electronic device 500 is manufactured or booted, and information thereof may be stored in the memory 550 .
  • the display driver 530 may perform an operation of adjusting the luminance of the display 520 according to the illuminance value obtained using the first illuminance sensor 510 .
  • the display driver 530 adjusts the luminance of the display 520 in real time according to the illuminance value obtained using the first illuminance sensor 510 based on a first command from the processor 560 .
  • action can be performed.
  • the display driver 530 may receive data (eg, real time (RT)_flag) representing the first command from the processor 560 , and thus may perform a real-time adjustment operation.
  • data eg, real time (RT)_flag
  • the display driver 530 maintains the luminance of the display 520 based on the second command of the processor 560 and maintains the luminance of the display 520 when the illuminance value obtained using the first illuminance sensor 510 falls within a specified illuminance range. 1
  • an operation of adjusting the luminance of the display 520 (hereinafter, a hysteresis adjustment operation) may be performed.
  • the processor 560 may stop transmission of data representing the first command as the second command, and accordingly, the display driver 530 may perform a hysteresis adjustment operation.
  • the hysteresis adjustment operation may prevent the display luminance from being frequently changed. For example, in the case of the real-time adjustment operation, the display becomes bright as the illuminance is changed upward, whereas in the case of the hysteresis adjustment operation, the luminance of the display may be maintained even if the illuminance is upwardly changed to the same value.
  • the display driver 530 may be implemented as software. Accordingly, the processor 560 may be configured to execute the display driver 530 to perform the luminance control operation of the display driver 530 . In this case, the operation of the display driver 530 may mean the operation of the processor 560 .
  • the state detection sensor 540 may generate data used to recognize a state (eg, a folded state, an intermediate state, or an unfolded state) of the electronic device 500 . .
  • a state eg, a folded state, an intermediate state, or an unfolded state
  • the state detection sensor 540 is attached to a hinge assembly (eg, the hinge assembly 340 of FIG. 3 ) and generates data corresponding to the angle. It may include a sensor (eg, an encoder or a hall sensor) that outputs the data.
  • the state detection sensor 540 may include a motion sensor (eg, an acceleration sensor and/or a gyro sensor) disposed in a space inside the housing of the electronic device 500 .
  • the state detection sensor 540 is disposed in the first housing (eg, the first housing 310 of FIG. 3 ) to position and/or move the first housing (eg, angular velocity and/or acceleration) ) a first motion sensor that generates data corresponding to, and a second housing (eg, the second housing 320 in FIG. 3 ) disposed in the second housing to generate data corresponding to the posture and/or movement of the second housing 2 It may include a motion sensor. In another embodiment, the state detection sensor 540 may be formed of a combination of a Hall sensor and an acceleration sensor.
  • the memory 550 may store a lookup table used for a luminance control operation (eg, a real-time adjustment operation or a hysteresis adjustment operation).
  • the processor 560 may check a luminance value corresponding to the ambient illuminance from a lookup table for real-time adjustment, and set the checked value as the luminance of the display 520 .
  • the processor 560 generates a luminance (eg, wake-up luminance) corresponding to the illuminance (eg, wake-up illuminance) obtained from the first illuminance sensor 510 immediately before the display 520 is turned on.
  • the processor 560 may perform a hysteresis adjustment operation by referring to a lookup table for hysteresis adjustment. For example, when the wake-up illuminance is 10 lux, the processor 560 may set the lower limit hysteresis to 1 lux and the upper limit hysteresis to 81 lux by referring to the lookup table. Accordingly, when the measured illuminance is 1 lux or less, the luminance of the screen may be set to a luminance lower than the wake-up luminance. When the measured illuminance is 81 lux or more, the luminance of the screen may be set to be higher than the wake-up luminance.
  • the memory 550 may store instructions that, when executed, cause the processor 560 to perform a luminance control operation of the display driver 530 based on data received from the first illuminance sensor 510 .
  • the memory 550 may be or include at least a portion of the memory of the DDI 521 .
  • the instructions include an operation of the processor 560: recognizing that the electronic device 500 is in a state that triggers a corrective action for the first illuminance sensor 510 (hereinafter referred to as a calibration trigger state), and according to this recognition, the sensor area 571 ) and/or an operation of displaying an image of a specified luminance or color in the face area 581 , an operation of calculating an illuminance value using data received from the first illuminance sensor 510 , and storing the calculated illuminance value in the memory 550 .
  • a calibration trigger state recognizing that the electronic device 500 is in a state that triggers a corrective action for the first illuminance sensor 510 (hereinafter referred to as a calibration trigger state), and according to this recognition, the sensor area 571 ) and/or an operation of displaying an image of a specified luminance or color in the face area 581 , an operation of calculating an illuminance value using data received from the first illuminance sensor 510 , and
  • the operation, the operation of correcting the calculated illuminance value by removing the noise component from the calculated illuminance value to converge to the actual illuminance value around the electronic device 500 , and setting the luminance of the display 520 using the corrected illuminance value action can be
  • the calibration trigger state may include a state in which the electronic device 500 is folded.
  • the calibration trigger state may include a situation in which the electronic device 500 is in a folded state, but the current time is a designated dawn time zone.
  • the calibration trigger state may include a state in which the electronic device 500 is folded and the battery of the electronic device 500 is being charged.
  • the calibration trigger state includes a situation in which the electronic device 500 is in a folded state in which it is impossible to measure the ambient illuminance with the first illuminance sensor 510, but the illuminance value measured using the second illuminance sensor 590 indicates a bright environment. can do.
  • the calibration trigger state may include a state in which the electronic device 500 is folded and the electronic device 500 is placed on a flat floor.
  • the processor 560 may recognize that the electronic device 500 is placed on a flat surface based on data generated by the gyro sensor.
  • the calibration trigger state may include a state in which the electronic device 500 is folded and there is no movement of the electronic device 500 .
  • the processor 560 may recognize that the electronic device 500 is in a stationary state without movement based on data generated by the acceleration sensor.
  • Table 1 shows the illuminance values (LUX) measured in the minimum performance sample (MIN), the average performance sample (TYP(typical)), and the maximum performance sample (MAX) under the condition that the luminance of the sensor area is the same.
  • Table 1 may show illuminance values measured from samples classified into a minimum performance sample, an average performance sample, and a maximum performance sample according to variations for each sample (eg, the electronic device 500 ) according to the illuminance measurement performance.
  • CH0 means the first raw data received from channel 0 of the corresponding sample
  • CH1 means the second raw data received from channel 1 of the corresponding sample
  • LUX is the first row data and the second row data in the given formula. 2 It may mean an illuminance value obtained by applying raw data.
  • CH0 or CH1 may mean one of an R (red) channel, a G (green) channel, a B (blue) channel, or a C (clear) channel.
  • the memory 550 may store Table 1 above as a first lookup table used for a calibration value calculation operation.
  • the memory 550 calculates a correction value for the illuminance value measured in the average performance sample when the luminance is 100, 200, and/or 255, which is a condition for matching the ratio to two decimal places. It may be stored as a first lookup table used for operation (eg, Table 2 below).
  • the instructions are an operation of the processor 560: setting the luminance of the sensor region 581 to the luminance value (100, 200, or 255) specified in the first lookup table based on the electronic device 500 being in the calibration trigger state and calculating an illuminance value using data received from the first illuminance sensor 510, and calculating a ratio of the calculated illuminance value to a reference value corresponding to the luminance value set in a first lookup table , and storing the calculated ratio in the memory 550 as a calibration value (eg, updating the ratio previously stored in the memory 550 to the calculated ratio).
  • Table 3 shows the minimum performance sample (MIN), average performance sample (TYP(typical)), and maximum performance sample (MAX ) shows the measured illuminance value (LUX).
  • CH0 means the first raw data received for a specified time (eg, 16ms, 25ms, or 50ms) from channel 0 of the corresponding sample
  • CH1 is the second data received from channel 1 of the corresponding sample for the specified time It may mean raw data.
  • the reference value (TYP illuminance value) may be an average of illuminance values measured using a plurality of samples (eg, 1000 or more samples). Referring to Table 3, it can be seen that the ratio is identical to one decimal place, except when the images displayed on the sensor area and the face area are white/white. When rounding is taken into account, it can be seen that the proportions of all combinations of colors match to one decimal place.
  • the constant ratio irrespective of the color combination means that even if a white image is displayed in either the sensor area or the face area, the deviation for each sample is kept constant, and Table 3 is a lookup table used for the calibration operation of the illuminance sensor. It may mean that it can be used.
  • White Performance CH0 CH1 LUX ratio MIN 4062 329 843 1.315 TYP 5323 420 1108 One MAX 6414 515 1332 0.831 White White Performance CH0 CH1 LUX ratio MIN 5376 449 1111 1.309 TYP 7012 568 1455 One MAX 8915 733 1846 0.788 White black Performance CH0 CH1 LUX ratio MIN 1182 107 241 1.358 TYP 1598 140 328 One MAX 1957 173 401 0.817 unfolded black White Performance CH0 CH1 LUX ratio MIN 942 88 191 1.34 TYP 1256 111 257 One MAX 1528 135 313 0.82
  • the memory 550 may store Table 3 above as a second lookup table used for a calibration value calculation operation.
  • the memory 550 may store the illuminance value measured from the average performance sample TYP in Table 3 as a second lookup table (eg, Table 4 below) used for a calibration value calculation operation.
  • the instructions are configured by the processor 560 to: select a color of a first image to be displayed on the sensor area 581 and a color of a second image to be displayed on the face-to-face area 571 based on the electronic device 500 being in a calibration trigger state.
  • An operation of setting a color combination specified in the second lookup table, an operation of calculating an illuminance value using data received from the first illuminance sensor 510, and a combination of the color set in the second lookup table compared to the calculated illuminance value An operation of calculating a ratio of a reference value corresponding to , and an operation of storing the calculated ratio as a calibration value in the memory 550 may be performed. Since the ratio (calibration value) is multiplied by the illuminance value measured by the first illuminance sensor 510 , the first illuminance sensor 510 may be calibrated to converge to the performance of the average performance sample TYP.
  • an error may occur in the calibration of the first illuminance sensor 510 .
  • a calibration value may be calculated incorrectly.
  • the deviation between the measured illuminance value and the TYP illuminance value is greater than or equal to a preset value, a problem may occur in which the first illuminance sensor 510 is misunderstood as an abnormal operation. If the deviation is greater than or equal to a preset value, the correction operation for the first illuminance sensor 510 may be canceled.
  • the electronic device 500 may include a plurality of illuminance sensors disposed under the first display area 570 .
  • the electronic device 500 may further include a third illuminance sensor spaced apart from the first illuminance sensor 510 .
  • the sensor area 571 may include a first sensor area corresponding to the first illuminance sensor 510 and a second sensor area corresponding to the third illuminance sensor, and the face-to-face area 581 is the first face-to-face area. and a second facing area.
  • the memory 550 may store Table 5 below as a lookup table used for a calibration value calculation operation.
  • the processor 560 may include an application processor (AP) 561 and/or a coprocessor 562 , and may include light sensors 510 , 590 , and a display 520 . ), the display driver 530 , the state detection sensor 540 , and the memory 550 .
  • the processor 560 controls the brightness of the display 520 based on data received from the first illuminance sensor 510 , the second illuminance sensor 590 and/or the state detection sensor 540 (eg, in real time). adjustment operation, or hysteresis adjustment operation) may be performed.
  • the auxiliary processor 562 may control overall driving of a sensor module (eg, the sensor module 176 of FIG. 1 ).
  • the auxiliary processor 562 may be used for collecting and processing data from the sensor module with less power than the AP 561 .
  • the auxiliary processor 562 may convert data received from the first illuminance sensor 510 into an illuminance value and remove a deviation from the illuminance value using the calibration value.
  • the auxiliary processor 562 uses data received from the display 520 (eg, the DDI 521 ) (eg, color information of visual information to be displayed on the sensor area 581 ) to correct the illuminance value to display the display.
  • the auxiliary processor 562 reads a luminance value corresponding to the illuminance value from a lookup table (eg, a lookup table for real-time adjustment or hysteresis adjustment) and transmits it to the DDI 521 to adjust the luminance of the display 520 .
  • the auxiliary processor 562 may be omitted from the configuration of the electronic device 500 , and accordingly, the AP 561 may perform the function of the auxiliary processor 562 .
  • the processor 560 may recognize the state of the electronic device 500 using data received from the state detection sensor 540 .
  • the processor 560 may calculate an angle formed between the display areas 570 and 580 using data received from the state detection sensor 540 , and based on the data obtained as a result of the calculation, The state of the electronic device 500 may be recognized.
  • the processor 560 may determine an active region in which visual information is to be displayed based on the state of the electronic device 500 .
  • the processor 560 (eg, the AP 561 and/or the coprocessor 562 ) is configured to cycle and/or turn on and/or off the display 520 .
  • a measurement time (eg, an integration time) for which the first illuminance sensor 510 acquires light and a measurement period may be set.
  • the display 520 may display a frame while repeating turn-on and turn-off several times.
  • the illuminance around the electronic device 500 may be distorted due to the turn-on of the display 520 .
  • the processor 560 may convert data received from the first illuminance sensor 510 into an illuminance value at a time when the display 520 is turned off.
  • the processor 560 may measure the illuminance around the electronic device 500 using data received from the first illuminance sensor 510 .
  • the processor 560 may calibrate the illuminance value obtained as a result of the measurement by using the calibration value stored in the memory 550 .
  • the processor 560 corrects the corrected illuminance value based on the color information of the image displayed on the panel 522 (eg, the sensor area 571 ), thereby correcting the distortion of ambient illuminance due to driving of the display 820 . can be prevented
  • the processor 560 may execute an operation of updating the calibration value when the electronic device 500 is in the calibration trigger state as described above.
  • FIG. 6 is a diagram 600 for explaining an illuminance measurement operation based on a period in which a display is turned on and turned off, according to an exemplary embodiment.
  • the display 520 may repeat turn-on and turn-off several times at a time when one frame is displayed.
  • a time (eg, 16.6 ms) during which all of the scan lines (eg, data wiring, gate wiring, and power wiring) of the display 520 are sequentially operated may be a time (frame time) during which one frame is displayed.
  • Turn-on and turn-off of the display 520 may be repeated several times (eg, four times) in one frame time.
  • One turn-on and turn-off time may be referred to as a duty, and the ratio of the turn-on time to the total time of one duty (eg, 4.16 ms) may be referred to as a duty ratio.
  • the first illuminance sensor 510 may repeat turn-on and turn-off several times in one frame time. A period in which the first illuminance sensor 510 is turned on and off may be shorter than a period in which the display 520 is turned on and turned off.
  • the processor 560 may set a turn-on and turn-off cycle and a duty ratio of the display 520 .
  • the processor 560 sets the turn-on time of the illuminance sensor 510 to be shorter than the turn-on time of the display 520 so that the illuminance sensor 510 is turned on at the time when the display 520 is turned off. can be set.
  • the processor 560 may calculate an illuminance value using data received from the first illuminance sensor 510 at a time when the display 520 is turned off.
  • the processor 560 may exclude data received from the first illuminance sensor 510 when the display 520 is turned on when calculating the illuminance value.
  • the first illuminance sensor 510 may receive light for a specified measurement time (eg, 50 ms) 710 , convert the received light into data, and provide it to the processor 560 .
  • the first illuminance sensor 510 may generate an interrupt signal when data is provided.
  • the display 520 may display image information in the active area in units of frames every specified frame time (eg, 16.6 ms), and generates color information corresponding to the frame to be displayed in the active area. and may provide color information to the processor 560 (eg, the AP 561 or the auxiliary processor 562 ).
  • the processor 560 eg, the AP 561 or the auxiliary processor 562 .
  • the processor 560 may update the color information stored in the memory 550 according to the color information received from the display 520 (eg, the DDI 521 ) or the display driver 530 .
  • the processor 560 may recognize the generation of the interrupt signal and check the color information (eg, the third color information 720 for the third frame displayed on the display 520 ) in the memory 550 accordingly.
  • the processor 560 may measure the illuminance around the electronic device 500 using data received from the first illuminance sensor 510 .
  • the processor 560 may convert data received from the first illuminance sensor 510 into an illuminance value, and remove a deviation from the illuminance value using a calibration value stored in the memory 550 .
  • the processor 560 may correct the illuminance value obtained as a result of the measurement based on the color information checked according to the occurrence of the interrupt. For example, the processor 560 checks the ratio of R in the active area (hereinafter referred to as A (active area)_COPR R), the ratio of G (A_COPR G), and the ratio of B (A_COPR B) in the memory 550 .
  • the processor 560 may obtain a ratio of R (hereinafter, S (sensor area)_COPR R), a ratio of G (S_COPR G), and a ratio of B (S_COPR B) in the sensor area 581 from the color information.
  • the ratio of R in the active region may mean a value representing R of an image to be displayed in the active region, for example, a mean value, a median value, or a mode value.
  • the ratio of R in the sensor region 571 (S_COPR R) is a value representing a portion to be displayed in the sensor region 571 in the image, for example, a mean value, a median value, or a mode.
  • the processor 560 calculates an illuminance value (eg, a noise component) corresponding to the luminance of the sensor region 581 based on the obtained ratio information, and removes the noise component from the illuminance value obtained as a result of the measurement. may be corrected to converge to the actual illuminance around the electronic device 500 .
  • an illuminance value eg, a noise component
  • FIG. 8 illustrates operations 800 for calibrating the first illuminance sensor 510, according to various embodiments.
  • the operations 800 of FIG. 8 may be executed by a processor (eg, the processor 560 of FIG. 5 ) and/or a display driver (eg, the display driver 530 of FIG. 5 ).
  • the processor 560 may recognize that the electronic device 500 is in the calibration trigger state described above.
  • the processor 560 may display a first image on the sensor area 571 and a second image on the face area 581 based on the recognition. For example, the processor 560 may set the color of the first image as the first color information and set the color of the second image as the second color information with reference to Table 4 . While the first image and the second image are displayed in the sensor area 571 and the face-to-face area 581, respectively, as a color combination of the first color information and the second color information, the first illuminance sensor 510 performs a specified measurement time During this time, the light may be received and the received light may be converted into data and provided to the processor 560 .
  • the processor 560 may calculate an illuminance value using data received from the first illuminance sensor 510 in response to the interrupt signal generated from the first illuminance sensor 510 .
  • the processor 560 calibrates the calculated illuminance value using the data received from the first illuminance sensor 510 using the calculated illuminance value and the reference value (illuminance value) stored in the memory 550 .
  • Calibration values can be calculated for For example, the processor 560 checks a reference value corresponding to a color combination of the first color information and the second color information in a lookup table (eg, Table 4), and compares the calculated illuminance value with the checked reference value can be calculated as the calibration value.
  • the processor 560 may store the calculated calibration value in the memory 550 .
  • 9A and 9B are screen examples for explaining an operation for notifying an abnormality of the first illuminance sensor 510, according to an embodiment.
  • the processor 560 compares the illuminance value calculated for calibration of the first illuminance sensor 510 with a specified illuminance range to determine whether the first illuminance sensor 510 is abnormal, and based on the comparison result, the first illuminance It may be determined whether there is an abnormality in the illuminance sensor 510 .
  • the illuminance range may be determined by an illuminance value (hereinafter, referred to as a minimum value) of the lowest performing sample MIN and an illuminance value (hereinafter, a maximum value) of the maximum performing sample MAX.
  • the processor 560 may determine that the first illuminance sensor 510 operates abnormally when the illuminance value is less than the specified first ratio of the minimum value or the illuminance value is greater than the specified second ratio of the maximum value. For example, when the minimum value is 10 and the measured illuminance value is 5 or less in a situation where the first ratio is 50%, it may be determined that the first illuminance sensor 510 is abnormal.
  • the illuminance range is 5 to 45, and when the measured illuminance value is out of this range, it may be determined that the first illuminance sensor 510 is abnormal.
  • the illuminance range may be determined by an illuminance value (hereinafter, referred to as an average value) of the average performance sample.
  • the processor 560 may determine that the first illuminance sensor 510 operates abnormally when the illuminance value is less than the first designated ratio of the average value or is greater than the designated second ratio of the average value. For example, when the average value is 20 and the measured illuminance value is 5 or less in a situation where the first ratio is 25%, it may be determined that the first illuminance sensor 510 is abnormal. When the average value is 20 and the measured illuminance value is 45 or more in a situation where the second ratio is designated as 225%, the first illuminance sensor 510 may be determined to be abnormal.
  • the processor 560 may notify the user of the abnormality of the first illuminance sensor 510 through the display 520 .
  • the processor 560 may guide the user of the need for inspection through the pop-up window 910 .
  • the processor 560 may guide the user of the need for inspection through a notification message 920 in the indicator screen.
  • a portable electronic device (eg, the portable electronic device 500 ) according to various embodiments of the present disclosure includes: a foldable housing including a first housing and a second housing connected to the first housing to be rotatable with respect to the first housing; a first display area disposed in a space formed inside the first housing, and a second display area disposed in a space formed inside the second housing and facing the first display area when the portable electronic device is in a folded state; a display containing (eg, display 520 ); a first illuminance sensor (eg, a first illuminance sensor 510) disposed below the first display area and having a field of view facing the first display area; a state detection sensor (eg, a state detection sensor 540) for detecting the state of the foldable housing; memory (eg, memory 550); and a processor (eg, a processor 560 ) connected to the display, the first illuminance sensor, the state detection sensor, and the memory.
  • a display containing eg, display
  • the processor stores a reference value used for calibration of the illuminance sensor in the memory, recognizes that the state of the portable electronic device is a folded state using data received from the state detection sensor, and the portable electronic device according to the device being in a calibration trigger state comprising the folded state: display a first image in a sensor area positioned above the first illuminance sensor in the first display area, and in the second display area with the sensor area A second image is displayed on a facing area, and an illuminance value is calculated using data received from the first illuminance sensor while the first image and the second image are displayed, and the calculated illuminance value and the memory It may be configured to calculate a calibration value for calibrating the illuminance value measured using the first illuminance sensor based on the comparison result of the reference value stored in the , and store the calibration value in the memory.
  • the processor may be configured to calibrate the illuminance value by calculating a ratio of the reference value to the calculated illuminance value as the calibration value, and multiplying the ratio by the illuminance value measured using the first illuminance sensor. .
  • the memory stores first color information of an image to be displayed on the sensor area, second color information of an image to be displayed on the face-to-face area, and a reference value corresponding to a color combination of the first color information and the second color information You can save the lookup table that contains it.
  • the processor sets the color of the first image as the first color information, sets the color of the second image as the second color information, and uses a color combination of the first color information and the second color information.
  • the illuminance value is calculated using the data received from the first illuminance sensor, and the color combination of the first color information and the second color information in the lookup table and identify a corresponding reference value, and calculate a ratio of the determined reference value to the calculated illuminance value as the calibration value.
  • a color combination of the first color information and the second color information may include white and black; black and white; or white and white.
  • the calibration trigger state is a situation in which the current time is a specified time zone; and at least one of a situation in which the battery of the electronic device is being charged.
  • the portable electronic device further includes a second illuminance sensor (eg, a second illuminance sensor 590) whose field of view is directed to the opposite side of the display, wherein the calibration trigger state is an illuminance value measured using the second illuminance sensor. It may further include a situation representing a bright environment.
  • a second illuminance sensor eg, a second illuminance sensor 590
  • the calibration trigger state is an illuminance value measured using the second illuminance sensor. It may further include a situation representing a bright environment.
  • the processor may be configured to notify the user of the abnormality of the first illuminance sensor through the display when the calculated illuminance value is out of a specified illuminance range to determine whether the first illuminance sensor is abnormal .
  • the processor may be configured to set the illuminance range using the reference value.
  • the memory may be configured to store a minimum value smaller than the reference value and a maximum value greater than the reference value, and the processor may be configured to set the illuminance range using the minimum value and the maximum value.
  • a portable electronic device (eg, the portable electronic device 500 ) according to various embodiments of the present disclosure includes: a foldable housing including a first housing and a second housing connected to the first housing to be rotatable with respect to the first housing; a first display area disposed in a space formed inside the first housing, and a second display area disposed in a space formed inside the second housing and facing the first display area when the portable electronic device is in a folded state; a display containing (eg, display 520 ); a first illuminance sensor (eg, a first illuminance sensor 510) disposed below the first display area and having a field of view facing the first display area; A state detection sensor (eg, state detection sensor 540) for detecting the state of the foldable housing; a processor (eg, processor 560) connected to the display, the first illuminance sensor, and the state detection sensor and a memory coupled to the processor, wherein the memory, when executed, causes the processor to: recognize that the state of the portable electronic device is
  • the instructions may include, by the processor: calculating a ratio of the reference value to the calculated illuminance value as the calibration value; and correcting the illuminance value by multiplying the ratio by the illuminance value measured using the first illuminance sensor.
  • the memory stores first color information of an image to be displayed on the sensor area, second color information of an image to be displayed on the face-to-face area, and a reference value corresponding to a color combination of the first color information and the second color information storing a lookup table including; calculating an illuminance value using data received from the first illuminance sensor while the first image and the second image are displayed as a color combination of the first color information and the second color information; checking a reference value corresponding to a color combination of the first color information and the second color information in the lookup table; and calculating a ratio of the determined reference value to the calculated illuminance value as the calibration value.
  • the instructions include, by the processor: when the calculated illuminance value is out of a specified illuminance range to determine whether or not the first illuminance sensor is abnormal, an operation of notifying the user of the abnormality of the first illuminance sensor through the display can make it work.
  • the instructions may cause the processor to: set the illuminance range using the reference value.
  • the memory stores a minimum value smaller than the reference value and a maximum value greater than the reference value, wherein the instructions cause the processor to: set the illuminance range using the minimum value and the maximum value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Composite Materials (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)

Abstract

다양한 실시예에 따른 휴대 전자 장치는, 폴더블 하우징, 디스플레이, 제1조도 센서, 상태 감지 센서, 메모리, 및 프로세서를 포함하고, 상기 프로세서는, 상기 제1조도 센서의 교정을 위해 이용되는 기준 값을 상기 메모리에 저장하고, 상기 상태 감지 센서로부터 수신된 데이터를 이용하여 상기 휴대 전자 장치가 접힌 상태인 것을 인식하고, 상기 휴대 전자 장치가 상기 접힌 상태를 포함하는 교정 트리거 상태임에 따라 제1표시 영역에 있어서 상기 제1조도 센서 위에 위치한 센서 영역에 제1이미지를 표시하고, 제2표시 영역에 있어서 상기 센서 영역과 대면하는 영역에 제2이미지를 표시하고, 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하고, 상기 계산된 조도 값과 상기 메모리에 저장된 기준 값의 비교 결과에 기반하여, 상기 제1조도 센서를 이용하여 측정되는 조도 값을 교정하기 위한 교정 값을 계산하고, 상기 교정 값을 상기 메모리에 저장하도록 구성될 수 있다.

Description

조도 센서를 교정하는 전자 장치
다양한 실시예들은 화면의 밝기를 제어하기 위해 이용되는 조도 센서를 교정(calibration)하도록 구성된 전자 장치에 관한 것이다.
전자 장치는 디스플레이, 및 디스플레이의 지정된 영역(예: ROI(region of interest) 또는 센서 영역) 아래에 배치되어 외부 조도를 측정하는 조도 센서를 포함할 수 있다. 전자 장치는, 측정된 조도에 기반하여, 디스플레이의 밝기를 조절할 수 있다. 예를 들어, 전자 장치는 주변의 외부 조도가 낮은 어두운 환경에서는 디스플레이의 화면을 어둡게 설정하고 상대적으로 외부 조도가 높은 밝은 환경에서는 화면을 밝게 설정함으로써 시인성을 높일 수 있다.
조도 센서 별 성능 차이, 조도 센서 별 노후화 정도의 차이, 조도 센서가 탑재된 세트(예: 스마트 폰) 별 조립 공차, 조도 센서 위에 배치된 디스플레이 별 투과율의 차이로 인해, 외부 환경(예: 전자 장치 주변의 밝기)이 동일함에도 불구하고, 조도 센서 별로 측정된 조도 값이 다를 수 있다.
조도 센서 별로 측정된 조도 값의 편차 때문에 화면 밝기를 제어하는 동작이 세트별로 다를 수 있다. 예컨대, 주변이 동일한 밝기 조건임에도, 제1전자 장치에서 설정된 디스플레이의 화면 밝기와 제2 전자 장치에서 설정된 디스플레이의 화면 밝기가, 측정된 조도 값의 편차로 인해, 다를 수 있다.
다양한 실시예들에서 전자 장치는 동일한 외부 환경에서 동일한 화면 밝기가 설정되도록 상기 편차를 교정할 수 있다. 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있다.
다양한 실시예에 따른 휴대 전자 장치는, 제1하우징과 상기 제1하우징에 대해 회동 가능하도록 상기 제1하우징에 연결된 제2하우징을 포함하는 폴더블 하우징; 상기 제1 하우징 내부에 형성된 공간에 배치된 제1표시 영역과, 상기 제2하우징 내부에 형성된 공간에 배치되고 상기 휴대 전자 장치가 접힌 상태일 때 상기 제1표시 영역과 마주하는 제2표시 영역을 포함하는 디스플레이; 상기 제1표시 영역 아래에 배치되되, 시야가 상기 제1표시 영역을 향하는 제1조도 센서; 상기 폴더블 하우징의 상태를 감지하기 위한 상태 감지 센서; 메모리; 및 상기 디스플레이, 상기 제1조도 센서, 상기 상태 감지 센서, 및 상기 메모리에 연결된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 조도 센서의 교정을 위해 이용되는 기준 값을 상기 메모리에 저장하고, 상기 상태 감지 센서로부터 수신된 데이터를 이용하여 상기 휴대 전자 장치의 상태가 접힌 상태인 것을 인식하고, 상기 휴대 전자 장치가 상기 접힌 상태를 포함하는 교정 트리거 상태임에 따라: 상기 제1표시 영역에 있어서 상기 제1조도 센서 위에 위치한 센서 영역에 제1이미지를 표시하고, 상기 제2표시 영역에 있어서 상기 센서 영역과 대면하는 영역에 제2이미지를 표시하고, 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하고, 상기 계산된 조도 값과 상기 메모리에 저장된 기준 값의 비교 결과에 기반하여, 상기 제1조도 센서를 이용하여 측정되는 조도 값을 교정하기 위한 교정 값을 계산하고, 상기 교정 값을 상기 메모리에 저장하도록 구성될 수 있다.
다양한 실시예들에 따르면, 교정된 조도 값을 이용하여 화면 밝기를 설정할 수 있는 전자 장치를 제공할 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시예들에 따른, 디스플레이 모듈의 블록도이다.
도 3a 내지 도 3f는, 일 실시예에 따른, 인 폴딩(in folding) 방식의 하우징 구조를 갖는 휴대 전자 장치를 도시한다.
도 4a는, 일 실시예에 따른, 디스플레이가 접힌 상태일 때 디스플레이 및 그 아래에 배치된 조도 센서의 단면을 나타낸 도면이고, 도 4b는, 디스플레이가 접힌 상태일 때 조도 센서, 센서 영역 및 대면 영역의 중첩 구조를 나타낸 도면이다.
도 5는, 다양한 실시예에 따른 휴대 전자 장치의 구성을 도시한다.
도 6은, 일 실시예에 따른, 디스플레이의 턴-온 및 턴-오프 되는 주기에 기초한 조도 측정 동작을 설명하기 위한 도면이다.
도 7은, 일 실시예에 따른, 이미지의 색상 정보에 기초한 조도 보정 동작을 설명하기 위한 도면이다.
도 8은, 다양한 실시예에 따른, 조도 센서를 교정하기 위한 동작들을 도시한다.
도 9a 및 도 9b는, 일 실시예에 따른, 조도 센서의 이상을 알리기 위한 동작을 설명하기 화면 예시들이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 다양한 실시예들에 따른, 디스플레이 모듈(160)의 블록도(200)이다. 도 2를 참조하면, 디스플레이 모듈(160)은 디스플레이 패널(210), 및 이를 제어하기 위한 디스플레이 드라이버 IC(DDI)(230)를 포함할 수 있다. DDI(230)는 인터페이스 모듈(231), 메모리(233)(예: 버퍼 메모리), 이미지 처리 모듈(235), 또는 맵핑 모듈(237)을 포함할 수 있다. DDI(230)는, 예를 들면, 영상 데이터, 또는 상기 영상 데이터를 제어하기 위한 명령에 대응하는 영상 제어 신호를 포함하는 영상 정보를 인터페이스 모듈(231)을 통해 전자 장치 101의 다른 구성요소로부터 수신할 수 있다. 예를 들면, 일 실시예에 따르면, 영상 정보는 프로세서(120)(예: 도 1의 메인 프로세서(121)(예: 어플리케이션 프로세서) 또는 메인 프로세서(121)의 기능과 독립적으로 운영되는 도 1의 보조 프로세서(123)(예: 그래픽 처리 장치))로부터 수신될 수 있다. DDI(230)는 터치 회로(250) 또는 센서 모듈(176)과 상기 인터페이스 모듈(231)을 통하여 커뮤니케이션할 수 있다. 또한, DDI(230)는 상기 수신된 영상 정보 중 적어도 일부를 메모리(233)에, 예를 들면, 프레임 단위로 저장할 수 있다. 이미지 처리 모듈(235)은, 예를 들면, 상기 영상 데이터의 적어도 일부를 상기 영상 데이터의 특성 또는 디스플레이 패널(210)의 특성에 적어도 기반하여 전처리 또는 후처리(예: 해상도, 밝기, 또는 크기 조정)를 수행할 수 있다. 맵핑 모듈(237)은 이미지 처리 모듈(235)를 통해 전처리 또는 후처리된 상기 영상 데이터에 대응하는 전압 값 또는 전류 값을 생성할 수 있다. 일 실시예에 따르면, 전압 값 또는 전류 값의 생성은 예를 들면, 디스플레이 패널(210)의 픽셀들의 속성(예: 픽셀들의 배열(RGB stripe 또는 pentile 구조), 또는 서브 픽셀들 각각의 크기)에 적어도 일부 기반하여 수행될 수 있다. 디스플레이 패널(210)의 적어도 일부 픽셀들은, 예를 들면, 상기 전압 값 또는 전류 값에 적어도 일부 기반하여 구동됨으로써 상기 영상 데이터에 대응하는 시각적 정보(예: 텍스트, 이미지, 또는 아이콘)가 디스플레이 패널(210)를 통해 표시될 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 터치 회로(250)를 더 포함할 수 있다. 터치 회로(250)는 터치 센서(251) 및 이를 제어하기 위한 터치 센서 IC(253)를 포함할 수 있다. 터치 센서 IC(253)는, 예를 들면, 디스플레이 패널(210)의 지정된 위치에 대한 터치 입력 또는 호버링 입력을 감지하기 위해 터치 센서(251)를 제어할 수 있다. 예를 들면, 터치 센서 IC(253)는 디스플레이 패널(210)의 지정된 위치에 대한 신호(예: 전압, 광량, 저항, 또는 전하량)의 변화를 측정함으로써 터치 입력 또는 호버링 입력을 감지할 수 있다. 터치 센서 IC(253)는 감지된 터치 입력 또는 호버링 입력에 관한 정보(예: 위치, 면적, 압력, 또는 시간)를 프로세서(120) 에 제공할 수 있다. 일 실시예에 따르면, 터치 회로(250)의 적어도 일부(예: 터치 센서 IC(253))는 디스플레이 드라이버 IC(230), 또는 디스플레이 패널(210)의 일부로, 또는 디스플레이 모듈(160)의 외부에 배치된 다른 구성요소(예: 보조 프로세서(123))의 일부로 포함될 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 센서 모듈(176)의 적어도 하나의 센서(예: 지문 센서, 홍채 센서, 압력 센서 또는 조도 센서), 또는 이에 대한 제어 회로를 더 포함할 수 있다. 이 경우, 상기 적어도 하나의 센서 또는 이에 대한 제어 회로는 디스플레이 모듈(160)의 일부(예: 디스플레이 패널(210) 또는 DDI(230)) 또는 터치 회로(250)의 일부에 임베디드될 수 있다. 예를 들면, 디스플레이 모듈(160)에 임베디드된 센서 모듈(176)이 생체 센서(예: 지문 센서)를 포함할 경우, 상기 생체 센서는 디스플레이 패널(210)의 일부 영역을 통해 터치 입력과 연관된 생체 정보(예: 지문 이미지)를 획득할 수 있다. 다른 예를 들면, 디스플레이 모듈(160)에 임베디드된 센서 모듈(176)이 압력 센서를 포함할 경우, 상기 압력 센서는 디스플레이 패널(210)의 일부 또는 전체 영역을 통해 터치 입력과 연관된 압력 정보를 획득할 수 있다. 일 실시예에 따르면, 터치 센서(251) 또는 센서 모듈(176)은 디스플레이 패널(210)의 픽셀 레이어의 픽셀들 사이에, 또는 상기 픽셀 레이어의 위에 또는 아래에 배치될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101))에 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
다양한 실시예에 따르면, 휴대 전자 장치(예: 도 1의 전자 장치(101))는 폴딩 축을 중심으로 2 개의 하우징으로 양분되는 폴더블 하우징을 가질 수 있다. 제1하우징에 디스플레이(예: 플랙서블 디스플레이)의 제 1 부분(예: 제1표시 영역)이 배치될 수 있고 제2하우징에 디스플레이의 제 2 부분(예: 제2표시 영역)이 배치될 수 있다. 폴더블 하우징은 휴대 전자 장치가 접힌 상태일 때 제 1 부분과 제 2 부분이 서로 마주하는 인 폴딩(in folding) 방식으로 구현될 수 있다. 또는, 폴더블 하우징은 휴대 전자 장치가 접힌 상태일 때 제 1 부분과 제 2 부분이 서로 반대로 향하는 아웃 폴딩(out folding) 방식으로 구현될 수도 있다. 디스플레이의 상기 제1부분과 상기 제2부분이 배치된 면을 휴대 전자 장치의 전면, 그 반대 면을 휴대 전자 장치의 후면, 그리고 전면과 후면 사이의 공간을 둘러싸는 면은 휴대 전자 장치의 측면으로 정의될 수 있다.
도 3a 내지 3f는, 일 실시예에 따른, 인 폴딩(in folding) 방식의 하우징 구조를 갖는 휴대 전자 장치(300)를 도시한다. 구체적으로, 도 3a및 3b는 다양한 실시예에 따른 폴더블 휴대 전자 장치(이하, 간단히 전자 장치)가 펼쳐진(unfolded, flat or open) 상태에서 전면을 도시하고, 도 3c는 전자 장치가 접힌(folded or closed) 상태에서 후면을 도시하고, 도 3d는 펼쳐진 상태에서 후면을 도시하고, 도 3e는 부분적으로 접힌(partially folded) 상태(바꾸어 말해, 부분적으로 펼쳐진 상태, 또는 완전히(fully) 접힌 상태와 완전히 펼쳐진 상태 사이의 중간 상태(intermediate state))에서 전면을 도시하고, 도 3f는 전자 장치의 분해 사시도이다.
도 3a 내지 3f를 참조하면, 휴대 전자 장치(300)(예: 도 1의 전자 장치(101))는 제1하우징(310), 제2하우징(320), 제1하우징(310)에 대해 제2하우징(320)이 회동 가능(rotatable)하도록 제1하우징(310)과 제2하우징(320)을 연결하는 힌지 조립체(340), 폴더블 하우징(310, 320)에 의해 형성된 공간 내에 배치된 플렉서블(flexible) 또는 폴더블(foldable) 디스플레이(399), 및 센서 모듈(예: 도 1의 센서 모듈(176))을 포함할 수 있다.
디스플레이(399)는 제1하우징(310)에서 힌지 조립체(340)를 가로질러 제2하우징(320)까지 배치될 수 있다. 디스플레이(399)는 폴딩 축(A)을 기준으로 제1하우징(310) 내부 공간에 배치되는 제1표시 영역(311)과 제2하우징(320) 내부 공간에 배치되는 제2표시 영역(321)으로 구분될 수 있다. 힌지 조립체(340)는 휴대 전자 장치(300)가 펼쳐진 상태(예: 도 3a의 상태)에서 접힌 상태(예: 도 3c의 상태)로 상태 전환될 때 두 표시 영역들(311, 321)이 서로 마주보도록 하는 인 폴딩 방식으로 구현될 수 있다. 예를 들어, 전자 장치(300)가 펼쳐진 상태일 때 두 표시 영역들311, 321)은 실질적으로 동일한 방향으로 향할 수 있다. 펼쳐진 상태에서 접힌 상태로 상태 전환됨에 따라 두 표시 영역들(311, 321)이 서로 마주하는 방향으로 회동될 수 있다. 센서 모듈(예: 조도 센서)은, 전면을 마주하고 볼 때, 제1표시 영역(311)의 센서 영역(또는, 광 투과 영역)(342a) 아래에 배치될 수 있다. 제1표시 영역(311) 내 센서 영역(342a)의 위치 및/또는 크기는, 그 아래에 배치된 조도 센서의 위치 및/또는 크기에 의해 결정될 수 있다. 예를 들어, 센서 영역(342a)의 크기(예: 지름)는 조도 센서의 시야(field of view; FOV)(또는, 관측 영역)를 기반으로 결정될 수 있다. 일 실시예에서, 센서 영역(342a)은 광 투과율 향상을 위하여 그 주변보다 낮은 픽셀 밀도 및/또는 낮은 배선 밀도를 갖도록 구성될 수 있다. 전자 장치(300)가 접힌 상태일 때, 제2표시 영역(321)에서 센서 영역(342a)과 마주하는 적어도 일 부분은 대면(face to face) 영역(341a)으로 정의될 수 있고, 대면 영역(341a)의 위치 및/또는 크기는, 접힌 상태일 때 대면 영역(341a)과 나란히 정렬될 센서 영역(342a)의 위치 및/또는 크기를 기반으로 결정될 수 있다.
두 표시 영역들(311, 321) 간에 이루어지는 각도에 기반하여, 전자 장치(300)의 상태가 정의될 수 있다. 예를 들어, 전자 장치(300)의 상태는, 두 표시 영역들(311, 321) 간의 각도가 약 180도인 경우 펼쳐진(unfolded, flat or open) 상태로 정의될 수 있다. 두 표시 영역들(311, 321) 간의 각도가 약 0도에서 10도 사이인 경우, 전자 장치(300)의 상태는 접힌(folded or closed) 상태로 정의될 수 있다. 두 표시 영역들(311, 321)이 접힌 상태일 때의 각도보다 크고 펼쳐진 상태일 때의 각도보다 작은 각도(예: 약 10도에서 179도 사이)를 형성하는 경우, 전자 장치(300)의 상태는 도 3에 도시된 바와 같은 중간 상태(intermediate state)(바꾸어 말해, 부분적으로 접힌(partially folded) 또는 부분적으로 펼쳐진 상태)로 정의될 수 있다.
전자 장치(300)의 상태에 기반하여, 디스플레이(399)에서 시각적 정보(예: 텍스트, 이미지, 또는 아이콘)가 표시될 활성화 영역이 결정될 수 있다. 예를 들어, 전자 장치(300)가 중간 상태인 경우, 활성화 영역은 제1표시 영역(311) 또는 제2표시 영역(321)으로 결정될 수 있다. 제1표시 영역(311) 및 제2표시 영역(321) 중 상대적으로 움직임이 더 작은 영역이 활성화 영역으로 결정될 수 있다. 예를 들어, 사용자가 전자 장치(300)의 하우징을 한 손으로 파지한 상태에서 다른 손으로 다른 하우징을 열 경우 전자 장치(300)는 접힌 상태에서 중간 상태로 상태 전환되고 이에 따라 전자 장치(300)는, 파지된 하우징(즉, 상대적으로 움직임이 적은 하우징)의 표시 영역을 활성화 영역으로 결정할 수 있다. 전자 장치(300)가 펼쳐진 상태인 경우, 디스플레이(399)의 전체 영역(예: 제1표시 영역(311) 및 제2표시 영역(321) 모두)이 활성화 영역으로 결정될 수 있다.
다양한 실시예에 따르면, 제1하우징(310)은, 펼쳐진 상태에서, 제1방향(예: 전면 방향)(z 축 방향)을 향하는 제1면(제1표시영역)(311) 및 제1면(311)에 대향하는 제2방향(예: 후면 방향)(-z 축 방향)을 향하는 제2면(312)을 포함할 수 있다. 제2하우징(320)은 펼쳐진 상태에서, 제1방향(예: z 축 방향)을 향하는 제3면(제2표시영역)(321) 및 제2방향(예: - z 축 방향)을 향하는 제4면(322)을 포함할 수 있다. 전자 장치(300)는, 펼쳐진 상태에서, 제1하우징(310)의 제1면(311)과 제2하우징(320)의 제3면(321)이 동일한 제1방향(예: z 축 방향)을 향하고, 접힌 상태에서 제1면(311)과 제3면(321)이 서로 마주보는 방식으로 동작될 수 있다. 전자 장치(300)는, 펼쳐진 상태에서, 제1하우징(310)의 제2면(312)과 제2하우징(320)의 제4면(322)이 동일한 제2방향(- z 축 방향)을 향하고, 접힌 상태에서 제2면(312)과 제4면(322)이 서로 반대 방향을 향하도록 동작될 수 있다.
다양한 실시예에 따르면, 제1하우징(310)은 전자 장치(300)의 외관의 일부를 형성하는 제1측면 프레임(313) 및 제1측면 프레임(313)과 결합되고, 전자 장치(300)의 제2면(312)의 적어도 일부를 형성하는 제1후면 커버(314)를 포함할 수 있다. 일 실시예에 따르면, 제1측면 프레임(313)은 제1측면(313a), 제1측면(313a)의 일단으로부터 연장되는 제2측면(313b), 및 제1측면(313a)의 타단으로부터 연장되는 제3측면(313c)을 포함할 수 있다. 일 실시예에 따르면, 제1측면 프레임(313)은 제1측면(313a), 제2측면(313b) 및 제3측면(313c)을 통해 장방형(예: 정사각형 또는 직사각형) 형상으로 형성될 수 있다.
다양한 실시예에 따르면, 제2하우징(320)은 전자 장치(300)의 외관의 일부를 형성하는 제2측면 프레임(323) 및 제2측면 프레임(323)과 결합되고, 전자 장치(300)의 제4면(322)의 적어도 일부를 형성하는 제2후면 커버(324)를 포함할 수 있다. 일 실시예에 따르면, 제2측면 프레임(323)은 제4측면(323a), 제4측면(323a)의 일단으로부터 연장되는 제5측면(323b) 및 제4측면(323b)의 타단으로부터 연장되는 제6측면(323c)을 포함할 수 있다. 일 실시예에 따르면, 제2측면 프레임(323)은 제4측면(323a), 제5측면(323b) 및 제6측면(323c)을 통해 장방형 형상으로 형성될 수 있다.
다양한 실시예에 따르면, 한 쌍의 하우징(310, 320)은 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수 있다. 예를 들어, 제1측면 프레임(313)은 제1후면 커버(314)와 일체로 형성될 수 있고, 제2측면 프레임(323)은 제2후면 커버(324)와 일체로 형성될 수 있다.
다양한 실시예에 따르면, 제1후면 커버(314) 및 제2후면 커버(324)는, 예를 들어, 코팅 또는 착색된 유리, 세라믹, 폴리머 또는 금속(예: 알루미늄, 스테인레스 스틸(STS), 또는 마그네슘) 중 적어도 하나 또는 둘 이상의 조합에 의하여 형성될 수 있다.
다양한 실시예에 따르면, 전자 장치(300)는 제1하우징(310)의 가장자리를 따라 결합되는 제1보호 커버(315)(예: 제1보호 프레임 또는 제1장식 부재)를 포함할 수 있다. 전자 장치(300)는 제2하우징(320)의 가장자리를 따라 결합되는 제2보호 커버(325)(예: 제2보호 프레임 또는 제2장식 부재)를 포함할 수 있다. 일 실시예에 따르면, 제1보호 커버(315) 및 제2보호 커버(325)는 금속 또는 폴리머 재질로 형성될 수 있다.
다양한 실시예에 따르면, 전자 장치(300)는 디스플레이(399)와 별도로 배치되는 서브 디스플레이(331)를 포함할 수 있다. 일 실시예에 따르면, 서브 디스플레이(331)는 제2면(312)의 일부를 통해 노출되도록 배치됨으로써, 접힌 상태일 경우, 전자 장치(300)의 상태 정보를 표시할 수 있다. 일 실시예에 따르면, 서브 디스플레이(331)는 제1후면 커버(314)의 적어도 일부 영역을 통해 외부로부터 보일 수 있게 배치될 수 있다. 어떤 실시예에서, 서브 디스플레이(331)는 제2하우징(320)의 제4면(324)에 배치될 수도 있다. 이러한 경우, 서브 디스플레이(331)는 제2후면 커버(324)의 적어도 일부 영역을 통해 외부로부터 보일 수 있게 배치될 수 있다.
다양한 실시예에 따르면, 전자 장치(300)는 입력 장치(303), 음향 출력 장치(301, 302), 카메라 모듈(305, 308), 키 입력 장치(306), 커넥터 포트(307) 및 센서 모듈(미도시) 중 적어도 하나를 포함할 수 있다. 일 실시예에서, 센서 모듈(예: 도 1의 센서 모듈(176)) 및 카메라(305)는, 전면을 마주하고 볼 때, 디스플레이(399) 아래에 배치될 수 있다.
도 3f를 참고하면, 다양한 실시예에 따른 전자 장치(300)는 제1측면 프레임(313), 제2측면 프레임(323), 제1측면 프레임(313)과 제2측면 프레임(323)을 회동 가능하게 연결하는 힌지 모듈(340)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제1측면 프레임(313)으로부터 적어도 부분적으로 연장되는 제1지지 플레이트(3131), 제2측면 프레임(323)으로부터 적어도 부분적으로 연장되는 제2지지 플레이트(3231)를 포함할 수 있다. 일 실시예에 따르면, 제1지지 플레이트(3131)는 제1측면 프레임(313)과 일체로 형성되거나, 제1측면 프레임(313)과 구조적으로 결합될 수 있다. 마찬가지로, 제2지지 플레이트(3231)는 제2측면 프레임(323)과 일체로 형성되거나, 제2측면 프레임(323)과 구조적으로 결합될 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제1지지 플레이트(3131) 및 제2지지 플레이트(3231)의 지지를 받도록 배치되는 디스플레이(399)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제1측면 프레임(313)과 결합되고, 제1지지 플레이트(3131)와의 사이에 제1공간을 제공하는 제1후면 커버(314) 및 제2측면 프레임(323)과 결합되고, 제2지지 플레이트(3231)와의 사이에 제2공간을 제공하는 제2후면 커버(324)를 포함할 수 있다. 어떤 실시예에서, 제1측면 프레임(313)과 제1후면 커버(314)는 일체로 형성될 수도 있다. 어떤 실시예에서, 제2측면 프레임(323)과 제2후면 커버(324)는 일체로 형성될 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제1측면 프레임(313), 제1지지 플레이트(3131) 및 제1후면 커버(314)를 통해 제공되는 제1하우징(310)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제2측면 프레임(323), 제2지지 플레이트(331) 및 제2후면 커버(324)를 통해 제공되는 제2하우징(320)을 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치(300)는 제1측면 프레임(313)과 제1후면 커버(314) 사이의 제1공간에 배치되는 제1기판 어셈블리(361)(예: 메인 인쇄 회로 기판), 카메라 어셈블리(363), 제1배터리(371) 또는 제1브라켓(351)을 포함할 수 있다. 일 실시예에 따르면, 카메라 어셈블리(363)는 복수의 카메라들(예: 도 3a 및 도 3c의 카메라 모듈(305, 308))을 포함할 수 있으며, 제1기판 어셈블리(361)와 전기적으로 연결될 수 있다. 일 실시예에 따르면, 제1브라켓(351)은 제1기판 어셈블리(361) 및/또는 카메라 어셈블리(363)를 지지하기 위한 지지 구조 및 향상된 강성을 제공할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제2측면 프레임(323)과 제2후면 커버(324) 사이의 제2공간에 배치되는 제2기판 어셈블리(362)(예: 서브 인쇄 회로 기판), 안테나(390)(예: 코일 부재), 제2배터리(372) 또는 제2브라켓(352)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제1기판 어셈블리(361)로부터 힌지 모듈(340)을 가로질러, 제2측면 프레임(323)과 제2후면 커버(324) 사이에 배치되는 복수의 전자 부품들(예: 제2기판 어셈블리(362), 제2배터리(372) 또는 안테나(390))까지 연장되도록 배치되고, 전기적인 연결을 제공하는 배선 부재(380)(예: 연성 회로(FPCB(flexible printed circuit board))를 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치(300)는 힌지 모듈(340)을 지지하고, 전자 장치(300)가 접힌 상태일 때, 외부로 노출되고, 펼쳐진 상태일 때, 제1공간 및 제2공간으로 인입됨으로써 외부에서 보이지 않게 배치되는 힌지 커버(341)를 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치(300)는 제1측면 프레임(313)의 가장자리를 따라 결합되는 제1보호 커버(315)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제2측면 프레임(323)의 가장자리를 따라 결합되는 제2보호 커버(325)를 포함할 수 있다. 디스플레이(399)에 있어서 제1표시 영역(311)의 가장자리가 제1보호 커버(315)에 의해 보호될 수 있다. 제2표시 영역(321)의 가장자리는 제2보호 커버(325)에 의해 보호될 수 있다. 보호 캡(335)은 힌지 모듈(340)과 대응되는 영역에 배치되어 디스플레이(399)의 가장자리에 있어서 구부러지는 부분을 보호할 수 있다.
도 4a는, 일 실시예에 따른, 디스플레이가 접힌 상태일 때 디스플레이 및 그 아래에 배치된 조도 센서의 단면도(예: 도 3c에 도시된 전자 장치의 일부를 BB’ 방향으로 절단하여 나타낸 도면) 이고, 도 4b는, 디스플레이가 접힌 상태일 때 조도 센서, 센서 영역 및 대면 영역의 중첩 구조를 나타낸 도면이다. 도 4a 및 도 4b를 참조하면, 디스플레이(410)와 조도 센서(420)는 앞서 도 3을 통해 설명된 인폴딩 방식의 하우징 내부에 배치될 수 있다.
디스플레이(410)(예: 도 3의 디스플레이(399))는 제1보호 커버(411), 디스플레이 패널(412)(예: 도 2의 디스플레이 패널(210)), 및 제2보호 커버(413)를 포함할 수 있다. 디스플레이(410)를 z축 방향에서 바라볼 때, 제1보호 커버(411)는 디스플레이 패널(412)의 전면에 부착되며 예컨대, 플랙서블하고 투명 재질의 소재(예: CPI(colorless polyImide))로 구현될 수 있다. 제2보호 커버(413)는 디스플레이 패널(412)의 배면에 부착되며 금속층(예: 구리 시트(Cu sheet)) 및/또는 차광층(예: 블랙 엠보(black embo)층)을 포함할 수 있다. 디스플레이(410)를 z축 방향에서 바라볼 때, 조도 센서(420)(예: ALS(ambient light sensor))는 제2보호 커버(413) 아래에 위치하며 기판 어셈블리(430)에 배치될 수 있다. 조도 센서(420)가 외부 광을 감지할 수 있도록 조도 센서(420)의 상부에 배치된 제2보호 커버(413)의 일부에는 개구부(opening)(413a)가 형성될 수 있다. 조도 센서(420)는 외부 광을 감지하기 위한 수광부를 포함할 수 있다. 상기 수광부는 적어도 하나의 포토 다이오드를 포함할 수 있다. 개구부(413a)는 조도 센서(420)의 수광부 시야(field of view, FOV) 각(Θ)에 대응하는 위치 및/또는 크기로 형성될 수 있다. 일 실시예에서, 디스플레이 패널(412)에서 센서 영역(412a)(예: 도 3의 센서 영역(342a))은 상기 시야 각(Θ)에 대응하는 위치 및/또는 크기로 형성될 수 있다. 조도 센서(420) 교정(calibration) 시, 프로세서(120)는 지정된 색상(예: 화이트, 그레이, 블랙, 또는 그 외 다른 색상)의 이미지를 센서 영역(412a)에 표시할 수 있다. 일 실시예에서, 지정된 색상의 이미지는 조도 센서의 교정 동작이 가능할 정도의 휘도 및/또는 색상을 갖는 이미지를 포함할 수 있다. 여기서, 교정은 조도 센서(420)에 의해 측정된 조도 값을 보정하기 위해 이용되는 값을 계산하는 동작으로 정의할 수 있다. 추가적으로, 프로세서(120)는 지정된 색상(예: 화이트, 또는 블랙)의 이미지를 대면 영역(412b)(예: 도 3의 대면 영역(341a))에 표시할 수 있다. 예를 들어, Z축 방향에서 바라볼 때 디스플레이 패널(412)에서 조도 센서(420) 바로 위에 중첩되어 위치하고 그 시야(FOV)를 둘러싸는 부분이 센서 영역(412a)으로 지정될 수 있다. 디스플레이(410)가 접힌 상태에서 Z축 방향에서 바라볼 때 디스플레이 패널(412)에서 센서 영역(412a) 위에 중첩되어 위치하고 센서 영역(412a)을 둘러싸는 부분이 대면 영역(412b)으로 지정될 수 있다. 프로세서(120)는 센서 영역(412a) 및 대면 영역(412b)에 서로 다른 명도의 색상(예: 화이트, 또는 블랙)을 갖는 이미지를 표시하거나 동일 명도의 색상(예: 화이트)을 갖는 이미지를 표시할 수 있다.
조도 센서(420)는 발광부(예: 발광 다이오드)를 더 포함하는 패키지 형태를 포함할 수 있다. 예를 들어, 발광부를 포함하는 조도 센서(420)는 근접 센서로 동작할 수도 있다. 다른 예를 들어, 조도 센서(420)는 조도 센서와 근접 센서가 하나의 기기(또는 모듈)로 결합된 근조도 센서를 포함할 수 있다. 또 다른 실시 예에서, 도시하지는 않았으나, 조도 센서(420)는 디스플레이 패널(예: 도 2의 디스플레이 패널(210))에 포함될 수도 있다. 예를 들어, 디스플레이 패널(210)에 포함된 픽셀에 수광부(예: 포토다이오드)가 포함됨으로써 조도가 측정될 수 있다. 이 경우, 개구부(413a)는 형성되지 않을 수 있다. 또한 센서 영역(412a)은 수광부를 포함하는 픽셀에 대응하는 위치 및/또는 크기로 형성될 수 있다. 조도 센서(420)가 상기의 형태로 제한되지 않음을 당업자는 용이하게 이해할 것이다.
도 5는, 다양한 실시예에 따른 휴대 전자 장치(500)의 구성을 도시한다. 도 5를 참조하면, 전자 장치(500)(예: 도 1의 전자 장치(101))는, 제1조도 센서(510), 디스플레이(520), 디스플레이 드라이버(530), 상태 감지 센서(540), 메모리(550), 및 프로세서(560)를 포함할 수 있다.
제1조도 센서(510)(예: 도 4의 조도 센서(420))는, 전자 장치(500) 주변의 조도를 확인하기 위해 사용되는 데이터를 생성할 수 있다. 일 실시예에서, 제1조도 센서(510)는 적어도 하나의 포토 다이오드를 포함하고 하나의 모듈(예: ASIC)로 구현될 수 있다. 제1조도 센서(510)는 그 내부 소자들을 보호하기 위해 몰딩(예: clear molding) 처리될 수 있다.
제1조도 센서(510)는 가시 광선의 RGB 값을 읽기 위한 수광부(511)와 RGB 값을 디지털화하기 위한 ADC(analog-to-digital converter)(512)를 포함하고, 디지털화된 RGB 값(ADC 값)을 프로세서(560)로 출력할 수 있다. 예를 들어, 수광부(511)는 가시광선(예: 약 400~750nm 파장을 갖는 빛)에 반응하는 적어도 하나의 포토 다이오드를 포함할 수 있다. 수광부(511)는 적외선을 수광하는 포토 다이오드를 더 포함할 수 있다. 수광부(511)는 외부 광원의 광 에너지(또는 빛)를 받으면 내부에 움직이는 전자가 발생하여 전도율이 변화하는 광전 효과(photoelectric effect)를 가지는 소자(예: 황화 카드뮴(Cds) 소자)를 포함할 수 있다. 수광부(511)는, 외부 광원과 마주하면, 광전효과(photoelectric effect)에 의해 전류를 발생할 수 있다. ADC(512)는 전류를 디지털 데이터(예: ADC 값)로 변환하여 프로세서(560)로 전달할 수 있다. 예컨대, 외부 광원의 빛이 강하면, 수치가 높은 조도를 나타내는 데이터가 프로세서(560)로 출력되고 외부 광원의 빛이 약하면 비교적 낮은 수치의 조도를 나타내는 데이터가 프로세서(560)로 출력될 수 있다. 프로세서(560)는 제1조도 센서(510)로부터 수신된 데이터를 조도 값으로 환산하고 조도 값에 기반하여 디스플레이(520)의 휘도(또는, 밝기)를 제어할 수 있다.
수광부(511)는 광을 수광할 수 있는 복수의 채널들을 포함할 수 있다. 일 실시예에서, 수광부(511)는, 붉은 색 계열의 광(예: 약 550nm~700nm 의 파장을 갖는 광)을 수신하는 R(red) 채널(511a), 녹색 계열의 광(예: 약 450nm~650nm 의 파장을 갖는 광)을 수신하는 G(green) 채널(511b), 푸른색 계열의 광(예: 약 400nm~550nm 의 파장을 갖는 광)을 수신하는 B(blue) 채널(511c), 및/또는 백색광(예: R, G, 및 B 모두)을 수신하는 C(clear) 채널(511d)을 포함할 수 있다. 채널들(511a, 511b, 511c, 511d) 중 적어도 하나는 포토 다이오드를 포함할 수 있다. R, G, 및 B 채널들(511a, 511b, 511c)은 해당 계열의 광을 투과시키는 필터를 포함할 수 있다.
제1조도 센서(510)는, 포토 다이오드 외에도, 색상 검출 센서(예: picker센서), 플리커(flicker) 센서, 이미지 센서, PPG(photoplethysmography) 센서, 근접 센서, 홍채 센서, 분광(spectrometer) 센서, 또는 자외선(ultraviolet) 센서와 같이 광에 기반한 다양한 센서들을 포함할 수 있다. 또는, 디스플레이(520)에 제1조도 센서(510)가 포함될 수도 있다.
전자 장치(500)는 제2조도 센서(590)를 더 포함할 수 있다. 제1조도 센서(510)(예: 도 4a의 조도 센서(420))는, 그 시야가 전자 장치(500)의 전면이 향하는 방향과 동일한 제1방향을 향하도록 전자 장치(500)의 전면 아래에서 배치될 수 있다. 제2조도 센서(590)는, 그 시야가 전자 장치(500)의 후면(예: 도 3에서 제2면(312) 또는 제4면(322))이 향하는 방향과 동일한 제2방향을 향하도록 전자 장치(500)의 후면 아래에 배치될 수 있다. 예컨대, 후면에 서브 디스플레이가 배치될 수 있고 서브 디스플레이 아래에 제2조도 센서(590)가 배치될 수 있다.
디스플레이(520)(예: 도 1의 디스플레이 모듈(160))는 DDI(521)와 디스플레이 패널(522)를 포함할 수 있다. DDI(521)(예: 도 2의 DDI(230))는 영상 정보를 표시하도록 패널(522)(예: 도 2의 디스플레이 패널(210))을 제어할 수 있다. 일 실시예에서, DDI(521)는 영상 정보를 프레임 단위로 출력하도록 패널(522)을 제어할 수 있다. DDI(521)는 출력될(또는, 출력된) 영상(또는, 이미지)의 색상 정보를 다른 구성 요소(예: 프로세서(560))로 제공할 수 있다. 예를 들어, 색상 정보는 COPR(color on pixel ratio) 정보를 포함할 수 있다. 일 실시예로서 COPR 정보는 디스플레이(520)의 지정된 영역에 출력될 영상 데이터에서 R/G/B(R 값, G 값, 및 B 값)의 비율을 나타낼 수 있다. 예를 들어, COPR 정보는 지정된 영역에 포함된 픽셀들에서 각각 표시되어야 할 R 값들의 평균, G 값들의 평균, 및 B 값들의 평균을 나타낼 수 있다. R 평균 값은 빨강색 값으로서, 0~255 내의 값일 수 있고, G 평균 값은 초록색 값으로서, 0~255 내의 값일 수 있고, B 평균 값은 파랑색 값으로서, 0~255 내의 값일 수 있다. 예컨대, 디스플레이(520)에 표시될 영상에 포함된 흰색 부분이 표시되는 영역의 COPR 정보는 (R, G, B: 255, 255, 255)의 값을 가질 수 있다. 지정된 영역은 예를 들어, 이미지가 표시되고 있는 영역, 디스플레이(520)의 활성화 영역(예: 센서 영역(571)을 포함하는 제1표시 영역(570)) 전체, 또는 센서 영역(571), 또는 활성화 영역에 구획된 다수의 섹션들(sections) 중 적어도 하나를 포함할 수 있으며, 상기 다수의 섹션들은 메모리(550)에 저장된 픽셀의 좌표 값, 또는 영역의 물리적 위치 정보로 구분될 수 있다. 영역의 물리적 위치 정보는 예를 들어, 디스플레이(520)에 포함된 배선들(예:GL(gate line) 배선들, DL(data line) 배선들, 다수의 전원 배선들(VDD 배선들, VSS 배선들, Vcas 배선들)) 중 적어도 하나의 배선에 대한 정보(예: 배선 번호)로서, 영역을 구획하는 배선 정보를 포함할 수 있다.
패널(522)은, 제1표시 영역(570)(예: 도 3의 제1표시 영역(311)), 및 전자 장치(500)가 접힌 상태일 때 제1 표시 영역(570)과 실질적으로 마주하는 제2표시 영역(580)(예: 도 3의 제2표시 영역(321))을 포함할 수 있다. 제1표시 영역(570) 아래에 제1 조도 센서(510)가 배치될 수 있다. 이에 따라 프로세서(560)는 제1표시 영역(570)의 적어도 일부를, 제1 조도 센서(510)의 위치 및 FOV 각도에 기반하여, 센서 영역(571)(예: 도 3a의 센서 영역(342a))으로 지정할 수 있다. 센서 영역(571)은 전자 장치(500)의 제조 시 또는 부팅 시 지정될 수 있으며 센서 영역(571)으로 지정된 영역에 대한 정보는 메모리(550)에 저장될 수 있다. 예를 들어, 영역에 대한 정보는 센서 영역(571)에 해당하는 픽셀들의 좌표 값들, 또는 센서 영역(581)의 물리적 위치 정보(예: 배선 정보) 중 적어도 하나를 포함할 수 있다. 프로세서(560)는 제2표시 영역(580)의 적어도 일부를 대면 영역(581)(예: 도 3a의 대면 영역(341a))으로 지정할 수 있다. 예를 들어, 프로세서(560)는 센서 영역(571)의 위치 및 크기에 기반하여 제2표시 영역(580)의 적어도 일부를 대면 영역(581)으로 지정할 수 있다. 대면 영역(581)은 전자 장치(500)의 제조 시 또는 부팅 시 지정되고 그 정보는 메모리(550)에 저장될 수 있다.
디스플레이 드라이버(530)는 제1조도 센서(510)를 이용하여 획득된 조도 값에 따라 디스플레이(520)의 휘도를 조절하는 동작을 수행할 수 있다. 일 실시예에서, 디스플레이 드라이버(530)는, 프로세서(560)의 제1명령에 기반하여, 제1조도 센서(510)를 이용하여 획득된 조도 값에 따라 디스플레이(520)의 휘도를 실시간으로 조절하는 동작을 수행할 수 있다. 예를 들어, 디스플레이 드라이버(530)는 제1명령을 나타내는 데이터(예: RT(real time)_flag)를 프로세서(560)로부터 수신할 수 있고, 이에 따라 실시간 조절 동작을 수행할 수 있다. 디스플레이 드라이버(530)는, 프로세서(560)의 제2명령에 기반하여, 제1조도 센서(510)를 이용하여 획득된 조도 값이 지정된 조도 범위에 속할 때 디스플레이(520)의 휘도를 유지하고 제1조도 센서(510)를 이용하여 획득된 조도 값이 상기 조도 범위 밖일 때 디스플레이(520)의 휘도를 조절하는 동작(이하, 히스테리시스(hysteresis) 조절 동작)을 수행할 수 있다. 예를 들어, 프로세서(560)는 제2명령으로서 제1명령을 나타내는 데이터의 전송을 중단할 수 있고 이에 따라 디스플레이 드라이버(530)는 히스테리시스 조절 동작을 수행할 수 있다. 히스테리시스 조절 동작은, 실시간 조절 동작과 비교하여, 디스플레이 휘도가 빈번하게 변경되는 것을 방지할 수 있다. 예를 들어, 실시간 조절 동작의 경우 조도가 상향 변경됨에 따라 디스플레이가 밝아지는 반면, 히스테리시스 조절 동작의 경우 조도가 동일한 값으로 상향 변경되더라도 디스플레이의 휘도는 그대로 유지될 수 있다.
디스플레이 드라이버(530)는 소프트웨어로 구현될 수 있다. 이에 따라, 프로세서(560)는 디스플레이 드라이버(530)를 실행하여 디스플레이 드라이버(530)의 휘도 조절 동작을 수행하도록 구성될 수도 있다. 이 경우, 디스플레이 드라이버(530)의 동작은 프로세서(560)의 동작을 의미할 수 있다.
상태 감지 센서(540)(예: 도 1의 센서 모듈(176))는 전자 장치(500)의 상태(예: 접힌 상태, 중간 상태, 펼쳐진 상태)를 인식하기 위해 사용되는 데이터를 생성할 수 있다. 일 실시예에서, 전자 장치(500)가 폴더블 하우징을 포함하는 경우, 상태 감지 센서(540)는 힌지 조립체(예: 도 3의 힌지 조립체(340))에 부착되고 각도에 대응하는 데이터를 생성하여 출력하는 센서(예: 인코더(encoder) 또는 홀(hall) 센서)를 포함할 수 있다. 다른 실시예에서, 상태 감지 센서(540)는 전자 장치(500)의 하우징 내부 공간에 배치된 모션 센서(예: 가속도 센서 및/또는 자이로 센서)를 포함할 수 있다. 예를 들어, 상태 감지 센서(540)는 제1하우징(예: 도 3의 제1하우징(310))에 배치되어 제1하우징의 자세(position) 및/또는 움직임(예: 각속도 및/또는 가속도)에 대응하는 데이터를 생성하는 제1모션 센서와, 제2하우징(예: 도 3의 제2하우징(320))에 배치되어 제2하우징의 자세 및/또는 움직임에 대응하는 데이터를 생성하는 제2모션 센서를 포함할 수 있다. 또 다른 실시예에서, 상태 감지 센서(540)는 홀 센서와 가속도 센서의 조합으로 이루어질 수 있다.
메모리(550)(예: 도 1의 메모리(130))는 휘도 조절 동작(예: 실시간 조절 동작, 또는 히스테리시스 조절 동작)에 이용되는 룩업 테이블을 저장할 수 있다. 예를 들어, 프로세서(560)는 주변 조도에 대응하는 휘도 값을 실시간 조절을 위한 룩업 테이블에서 확인하고, 확인된 값을 디스플레이(520)의 휘도로 설정할 수 있다. 프로세서(560)는 디스플레이(520)가 켜지기 직전에 제1조도 센서(510)로부터 획득한 조도(예: 웨이크 업(wake up) 조도)에 대응하는 휘도(예: 웨이크 업(wake up) 휘도) 값을 디스플레이(520)의 휘도로 설정하고, 디스플레이(520)를 켤 수 있다. 켜진 후, 프로세서(560)는 히스테리시스 조절을 위한 룩업 테이블을 참조하여 히스테리시스 조절 동작을 수행할 수 있다. 예컨대, 프로세서(560)는, 웨이크업 조도가 10 lux인 경우, 룩업 테이블을 참조하여 하한 히스테리시스(down hysteresis)는 1 lux로 설정하고 상한 히스테리시스는 81 lux로 설정할 수 있다. 이에 따라, 측정된 조도가 1 lux 이하이면, 웨이크 업 휘도보다 낮은 휘도로 화면의 휘도가 설정될 수 있다. 측정된 조도가 81 lux 이상이면, 웨이크 업 휘도보다 높은 휘도로 화면의 휘도가 설정될 수 있다.
메모리(550)는, 실행될 때, 제1조도 센서(510)로부터 수신된 데이터에 기반하여 디스플레이 드라이버(530)의 휘도 조절 동작을 프로세서(560)가 수행하도록 하는 인스트럭션들(instructions)을 저장할 수 있다. 메모리(550)는 DDI(521)의 메모리이거나 이 메모리의 적어도 일부를 포함할 수 있다.
인스트럭션들은 프로세서(560)가: 전자 장치(500)가 제1조도 센서(510)에 대한 교정 동작을 촉발시키는 상태(이하, 교정 트리거 상태)인 것을 인식하는 동작, 이러한 인식에 따라 센서 영역(571) 및/또는 대면 영역(581)에 지정된 휘도 또는 색상의 이미지를 표시하는 동작, 제1조도 센서(510)로부터 수신된 데이터를 이용하여 조도 값을 계산하는 동작, 계산된 조도 값을 메모리(550)에 저장된 조도 값(예: 동일한 조건 하에서 평균 성능 시료에서 계산한 조도 값)과 비교하는 동작, 비교 결과에 기반하여 제1조도 센서(510)에서 측정된 조도 값을 교정하기 위해 이용되는 교정 값을 계산하는 동작, 계산된 교정 값을 메모리(550)에 저장하는 동작, 제1조도 센서(510)로부터 수신된 데이터와 메모리(550)에 저장된 교정 값을 이용하여 조도 값을 계산하는 동작, 제1표시 영역(570)에 표시된 이미지에서 센서 영역(571)에 표시된 부분의 색상 정보(예: COPR 정보)에 기반하여, 센서 영역(571)의 휘도에 대응하는 조도 값(노이즈 성분)을 계산하는 동작, 계산된 조도 값에서 노이즈 성분을 제거함으로써 계산된 조도 값을 전자 장치(500) 주변의 실제 조도 값에 수렴되게 보정하는 동작, 및 보정된 조도 값을 이용하여 디스플레이(520)의 휘도를 설정하는 동작을 수행하도록 할 수 있다.
교정 동작은 사용자가 알아채지 못하는 상황에서 자동으로 진행될 수 있다. 이를 위해 교정 트리거 상태는 전자 장치(500)가 접힌 상태를 포함할 수 있다. 교정 트리거 상태는 전자 장치(500)가 접힌 상태이되, 현재 시간이 지정된 새벽 시간대인 상황을 포함할 수 있다. 교정 트리거 상태는 전자 장치(500)가 접힌 상태이되, 전자 장치(500)의 배터리가 충전 중인 상태를 포함할 수 있다. 교정 트리거 상태는 전자 장치(500)가 제1조도 센서(510)로 주변 조도의 측정이 불가능한 접힌 상태이되, 제2조도 센서(590)를 이용하여 측정된 조도 값이 밝은 환경을 나타내는 상황을 포함할 수 있다. 교정 트리거 상태는 전자 장치(500)가 접힌 상태이되, 전자 장치(500)가 평평한 바닥에 놓여 있는 상태를 포함할 수 있다. 예컨대, 프로세서(560)는 자이로 센서에서 생성된 데이터에 기반하여 전자 장치(500)가 평평한 바닥에 놓인 상태인 것으로 인식할 수 있다. 교정 트리거 상태는 전자 장치(500)가 접힌 상태이되, 전자 장치(500)의 움직임이 없는 상태를 포함할 수 있다. 예컨대, 프로세서(560)는 가속도 센서에서 생성된 데이터에 기반하여 전자 장치(500)가 움직임이 없는 정지 상태인 것으로 인식할 수 있다.
표 1은, 센서 영역의 휘도가 동일한 조건 하에, 최소 성능 시료(MIN), 평균 성능 시료(TYP(typical)), 및 최대 성능 시료(MAX)에서 측정된 조도 값(LUX)을 보여준다. 표 1은 조도 측정 성능에 따른 시료(예: 전자 장치(500))별 편차에 따라 최소 성능 시료, 평균 성능 시료, 및 최대 성능 시료로 구분된 시료들에서 측정된 조도값을 나타낼 수 있다. 표 1에서 CH0는 해당 시료의 채널 0로부터 수신된 제1로우 데이터를 의미하고, CH1은 해당 시료의 채널 1으로부터 수신된 제2로우 데이터를 의미하고, LUX은 주어진 계산식에 제1로우 데이터와 제2로우 데이터를 적용하여 얻은 조도 값을 의미할 수 있다. 일 실시예에서, CH0 또는 CH1은 R(red) 채널, G(green) 채널, B(blue) 채널, 또는 C(clear) 채널 중 하나를 의미할 수 있다. 표 1에서 비율은 기준 값(TYP 조도 값) 대비 각 시료의 조도 값의 비율(=조도 값/각 시료의 기준 값)을 의미할 수 있다. 표 1을 보면, 휘도가 50 이상일 때 비율은 소수점 이하 한자리까지 동일하고, 휘도가 100이상일 때는 비율이 소수점 이하 두자리까지 동일함을 알 수 있다.
휘도 50 100 200 255
채널 CH0 CH1 LUX CH0 CH1 LUX CH0 CH1 LUX CH0 CH1 LUX
MIN 553 41 116.076 1081 82 226.252 2407 187 502.228 4009 313 835.948
TYP 739 57 154.34 1474 117 306.68 3299 261 686.692 5454 434 1134.376
MAX 811 63 169.22 1600 131 331.488 3588 290 744.688 5916 479 1227.568
비율 0.752 비율 0.737 비율 0.731 비율 0.736
1 1 1 1
1.096 1.080 1.084 1.082
일 실시예에 따르면, 메모리(550)는 상기의 표 1을 교정 값 계산 동작에 이용되는 제1룩업테이블로서 저장할 수 있다. 다른 실시예에 따르면, 메모리(550)는 표 1에 있어서, 비율이 소수점 이하 두자리까지 일치되게 하는 조건인 휘도 100, 200, 및/또는 255일 때 평균 성능 시료에서 측정된 조도 값을 교정 값 계산 동작에 이용되는 제1룩업테이블(예: 아래 표 2)로서 저장할 수 있다. 인스트럭션들은 프로세서(560)가: 전자 장치(500)가 교정 트리거 상태인 것에 기반하여, 센서 영역(581)의 휘도를 제1 룩업 테이블에 지정된 휘도 값(100, 200, 또는 255)으로 설정하는 동작과, 제1조도 센서(510)로부터 수신된 데이터를 이용하여 조도 값을 계산하는 동작과, 제1룩업테이블에서 상기 설정된 휘도 값에 대응하는 기준 값 대비 상기 계산된 조도 값의 비율을 계산하는 동작, 및 계산된 비율을 교정 값으로서 메모리(550)에 저장하는 동작(예: 메모리(550)에 기 저장된 비율을 상기 계산된 비율로 갱신하는 동작)을 수행하도록 할 수 있다. 프로세서(560)는 비율(교정 값)을 이용하여 제1조도 센서(510)에 의해 측정된 조도 값을 평균 성능 시료(TYP)에 의해 측정된 조도 값에 수렴되게 교정할 수 있다. 예컨대, 프로세서(560)는 비율(=조도 값/각 시료의 기준 값)의 역수를 제1조도 센서(510)에 의해 측정된 조도 값에 곱함으로써 제1조도 센서(510)에 의해 측정된 조도 값을 평균 성능 시료(TYP)에 의해 측정된 조도 값에 수렴되게 교정할 수 있다.
휘도 100 200 255
LUX 306.68 686.692 1134.376
표 3은, 전자 장치의 상태가 동일하고 센서 영역 및 대면 영역에 표시된 이미지 색상의 조합이 동일한 조건 하에, 최소 성능 시료(MIN), 평균 성능 시료(TYP(typical)), 및 최대 성능 시료(MAX)에서 측정된 조도 값(LUX)을 보여준다. 표 3에서 CH0는 해당 시료의 채널 0로부터 지정된 시간(예: 16ms, 25ms, 또는 50ms) 동안 수신된 제1로우 데이터를 의미하고, CH1은 해당 시료의 채널 1으로부터 상기 지정된 시간 동안 수신된 제2로우 데이터를 의미할 수 있다. LUX는 주어진 계산식(예: a=0.236, b=-0.352인 경우, 0.236*CH0-0.352*CH1)에 제1로우 데이터(CH0)와 제2로우 데이터(CH1)를 적용하여 얻은 조도 값을 의미할 수 있다. 표 3에서 비율은 각 시료의 조도 값 대비 기준 값(TYP 조도 값)의 비율(=기준 값/각 시료의 조도 값)을 의미할 수 있다. 표 3에서 기준 값(TYP 조도 값)은 복수의 시료들(예: 1000개 이상의 시료들)을 이용하여 측정된 조도 값의 평균일 수 있다. 표 3을 보면, 센서 영역 및 대면 영역에 표시된 이미지가 화이트/화이트일 때를 제외하고 비율이 소수점 이하 한자리까지 일치함을 알 수 있다. 반올림을 감안하면, 색상의 조합 모두 비율이 소수점 이하 한자리까지 일치함을 알 수 있다. 이와 같이 색상 조합과 무관하게 비율이 일정함은, 센서 영역 또는 대면 영역 중 어느 영역에 화이트 이미지를 표시하더라도 시료 별 편차는 일정하게 유지되고, 표 3을 조도 센서의 교정 동작에 이용되는 룩업 테이블로서 활용될 수 있음을 의미할 수 있다.
a = 0.236
b = - 0.352
상태 센서 영역 대면 영역 =a*CH0 + b*CH1
접힌 상태 블랙 화이트 성능 CH0 CH1 LUX 비율
MIN 4062 329 843 1.315
TYP 5323 420 1108 1
MAX 6414 515 1332 0.831
화이트 화이트 성능 CH0 CH1 LUX 비율
MIN 5376 449 1111 1.309
TYP 7012 568 1455 1
MAX 8915 733 1846 0.788
화이트 블랙 성능 CH0 CH1 LUX 비율
MIN 1182 107 241 1.358
TYP 1598 140 328 1
MAX 1957 173 401 0.817
펼쳐진 상태 블랙 화이트 성능 CH0 CH1 LUX 비율
MIN 942 88 191 1.34
TYP 1256 111 257 1
MAX 1528 135 313 0.82
일 실시예에 따르면, 메모리(550)는 상기의 표 3을 교정 값 계산 동작에 이용되는 제2룩업 테이블로서 저장할 수 있다. 다른 실시예에 따르면, 메모리(550)는 표 3에서 평균 성능 시료(TYP)에서 측정된 조도 값을 교정 값 계산 동작에 이용되는 제2룩업 테이블(예: 아래 표 4)로서 저장할 수 있다. 인스트럭션들은 프로세서(560)가: 전자 장치(500)가 교정 트리거 상태인 것에 기반하여, 센서 영역(581)에 표시될 제1이미지의 색상 및 대면 영역(571)에 표시될 제2이미지의 색상을 제2 룩업 테이블에 지정된 색상 조합으로 설정하는 동작, 제1조도 센서(510)로부터 수신된 데이터를 이용하여 조도 값을 계산하는 동작, 계산된 조도 값 대비 상기 제2 룩업 테이블에서 상기 설정된 색상의 조합에 대응하는 기준 값의 비율을 계산하는 동작, 및 계산된 비율을 교정 값으로서 메모리(550)에 저장하는 동작을 수행하도록 할 수 있다. 비율(교정 값)이 제1조도 센서(510)에 의해 측정된 조도 값에 곱해지게 됨으로써 제1조도 센서(510)는 평균 성능 시료(TYP)의 성능에 수렴되게 교정될 수 있다. 예를 들어, 색상 조합이 블랙/화이트인 상황에서 제1조도 센서(510)에 의해 구해진 LUX가 900이라고 하면, 프로세서(560)는 비율 1.23(=1108/900)을 교정 값으로서 메모리(550)에 저장할 수 있다. 구해진 LUX가 1300이라고 한다면 프로세서(560)는 비율 0.85(=1108/1300)을 교정 값으로서 메모리(550)에 저장할 수 있다. 이후, 프로세서(560)는 교정 값을 이용하여 제1조도 센서(510)에 의해 측정된 조도 값에서 편차를 제거할 수 있다. 예컨대, 교정 값이 1.23이라고 한다면, 프로세서(560)는 측정된 조도 값에 1.23을 곱함으로써 조도 값을 상향 조정할 수 있다. 교정 값이 0.85라고 한다면, 프로세서(560)는 측정된 조도 값에 0.85를 곱함으로써 조도 값을 하향 조정할 수 있다.
센서영역 대면영역 LUX
접힌 상태 블랙 화이트 1108
화이트 화이트 1455
화이트 블랙 328
펼쳐진 상태 화이트 - 257
센서 영역(571)과 대면 영역(581) 사이에 이물질이 존재할 경우, 제1조도 센서(510)의 교정에 오류가 발생될 수 있다. 예를 들어, 교정 값이 잘못 계산될 수 있다. 또는, 측정된 조도 값과 TYP 조도 값 간의 편차가 기 설정된 값 이상이어서 제1조도 센서(510)가 비정상 동작하는 것으로 오인되는 문제가 발생될 수 있다. 상기 편차가 기 설정된 값 이상이면, 제1조도 센서(510)에 대한 교정 동작은 취소될 수 있다.
일 실시예에 따르면, 전자 장치(500)는 제1표시 영역(570) 아래에 배치된 복수의 조도 센서를 포함할 수 있다. 예컨대, 전자 장치(500)는 제1조도 센서(510)로부터 이격되어 배치된 제3조도 센서를 더 포함할 수 있다. 따라서, 센서 영역(571)은 제1조도 센서(510)에 대응하는 제1센서 영역과 제3조도 센서에 대응하는 제2센서 영역을 포함할 수 있고, 대면 영역(581)은 제1대면 영역과 제2 대면 영역을 포함할 수 있다. 메모리(550)는 하기의 표 5를 교정 값 계산 동작에 이용되는 룩업테이블로서 저장할 수 있다.
센서 영역 대면 영역 LUX
위치 정보 색상 정보 위치 정보 색상 정보
접힌 상태 제1센서영역 블랙 제1대면영역 화이트 1108
제2센서영역 제2대면영역 1108
... ... ... ... ...
... ... ... ... ...
프로세서(560)(예: 도 1의 프로세서(120))는 어플리케이션 프로세서(AP)(561) 및/또는 보조 프로세서(562)를 포함할 수 있고, 조도 센서들(510, 590), 디스플레이(520), 디스플레이 드라이버(530), 상태 감지 센서(540), 및 메모리(550)에 작동적으로 연결될 수 있다. 프로세서(560)는 제1조도 센서(510), 제2조도 센서(590) 및/또는 상태 감지 센서(540)로부터 수신된 데이터에 기반하여 디스플레이(520)의 휘도를 조절하는 동작(예: 실시간 조절 동작, 또는 히스테리시스 조절 동작)을 수행할 수 있다. 보조 프로세서(562)(예: 센서 허브 프로세서)는 센서 모듈(예: 도 1의 센서 모듈(176))의 전반적인 구동을 제어할 수 있다. 보조 프로세서(562)는, AP(561)보다 저전력으로 센서 모듈로부터 데이터를 수집하고 처리하는 용도로 사용될 수 있다. 예를 들어, 보조 프로세서(562)는 제1조도 센서(510)로부터 수신된 데이터를 조도 값으로 환산하고, 교정 값을 이용하여 조도 값에서 편차를 제거할 수 있다. 보조 프로세서(562)는, 디스플레이(520)(예: DDI(521))로부터 수신된 데이터(예: 센서 영역(581)에 표시될 시각적 정보의 색상 정보)를 이용하여, 조도 값을 보정함으로써 디스플레이(520)의 구동에 따른 주변 조도의 왜곡을 방지할 수 있다. 보조 프로세서(562)는 조도 값에 대응하는 휘도 값을 룩업 테이블(예: 실시간 조절 또는 히스테리시스 조절을 위한 룩업 테이블)에서 읽어 DDI(521)에 전달함으로써 디스플레이(520)의 휘도를 조절할 수 있다. 보조 프로세서(562)는 전자 장치(500)의 구성에서 생략될 수 있고 이에 따라 AP(561)가 보조 프로세서(562)의 기능을 수행할 수 있다.
프로세서(560)(예: AP(561) 및/또는 보조 프로세서(562))는 상태 감지 센서(540)로부터 수신된 데이터를 이용하여 전자 장치(500)의 상태를 인식할 수 있다. 예를 들어, 프로세서(560)는, 상태 감지 센서(540)로부터 수신된 데이터를 이용하여, 표시 영역들(570, 580) 간에 이루어지는 각도를 산출할 수 있고, 산출 결과로서 획득된 데이터에 기반하여 전자 장치(500)의 상태를 인식할 수 있다. 프로세서(560)는, 앞서 도 3을 통해 설명된 바와 같이, 전자 장치(500)의 상태에 기반하여 시각적 정보가 표시될 활성화 영역을 결정할 수 있다.
프로세서(560)(예: AP(561) 및/또는 보조 프로세서(562))는, 디스플레이(520)의 턴-온(turn-on) 및 턴-오프(turn-off)되는 주기 및/또는 턴-오프의 비율(예: AOR(AMOLED off ratio))에 기반하여, 제1조도 센서(510)가 빛을 획득하는 측정 시간(예: 누적 시간(integration time))과 측정 주기를 설정할 수 있다. 예를 들어, 디스플레이(520)는 턴-온과 턴-오프를 여러 차례 반복하면서 프레임을 표시할 수 있다. 일 실시예에서, 디스플레이(520)의 턴-온에 따른 영향으로 전자 장치(500) 주변의 조도가 왜곡될 수 있다. 이러한 왜곡을 방지하기 위해, 프로세서(560)는 디스플레이(520)가 턴-오프 되는 시간에 제1조도 센서(510)로부터 수신된 데이터를 조도 값으로 환산할 수 있다.
프로세서(560)(예: AP(561) 및/또는 보조 프로세서(562))는 제1조도 센서(510)로부터 수신된 데이터를 이용하여 전자 장치(500) 주변의 조도를 측정할 수 있다. 프로세서(560)는 측정 결과 얻은 조도 값을 메모리(550)에 저장된 교정 값을 이용하여 교정할 수 있다. 프로세서(560)는, 교정된 조도 값을, 패널(522)(예: 센서 영역(571))에 표시된 이미지의 색상 정보에 기반하여, 보정함으로써 디스플레이(820)의 구동에 따른 주변 조도의 왜곡을 방지할 수 있다.
프로세서(560)는 전자 장치(500)가 앞서 설명된 바와 같이 교정 트리거 상태일 때 교정 값을 갱신하는 동작을 실행할 수 있다.
도 6은, 일 실시예에 따른, 디스플레이의 턴-온 및 턴-오프 되는 주기에 기초한 조도 측정 동작을 설명하기 위한 도면(600)이다. 도 6을 참조하면, 디스플레이(520)는 하나의 프레임이 표시되는 시간에 턴-온 및 턴-오프를 여러 차례 반복할 수 있다. 디스플레이(520)의 주사 선들(예: 데이터 배선, 게이트 배선, 전원 배선)이 순차적으로 모두 동작하는 시간(예: 16.6ms)이 하나의 프레임이 표시되는 시간(프레임 시간)일 수 있다. 하나의 프레임 시간에 디스플레이(520)의 턴-온 및 턴-오프가 여러 번(예: 4번) 반복될 수 있다. 한 번의 턴-온 및 턴-오프 시간은 듀티(duty)로 지칭될 수 있고, 하나의 듀티(예: 4.16ms)의 전체 시간 대비 턴-온 시간의 비율은 듀티 비로 지칭될 수 있다.
제1조도 센서(510)는 하나의 프레임 시간에 턴-온 및 턴-오프를 여러 차례 반복할 수 있다. 제1조도 센서(510)가 턴-온 및 턴-오프 되는 주기는 디스플레이(520)가 턴-온 및 턴-오프 되는 주기보다 짧을 수 있다.
프로세서(560)는 디스플레이(520)의 턴-온 및 턴-오프 되는 주기와 듀티 비를 설정할 수 있다. 프로세서(560)는 디스플레이(520)가 턴-오프 되는 시간에 조도 센서(510)가 턴-온 될 수 있도록 조도 센서(510)의 턴-온 시간을 디스플레이(520)의 턴-온 시간보다 짧게 설정할 수 있다. 프로세서(560)는 디스플레이(520)가 턴-오프 되는 시간에 제1조도 센서(510)로부터 수신된 데이터를 이용하여 조도 값을 계산할 수 있다. 프로세서(560)는, 디스플레이(520)가 턴-온 되는 시간에 제1조도 센서(510)로부터 수신된 데이터를 조도 값 계산 시 제외할 수 있다.
도 7은, 일 실시예에 따른, 이미지의 색상 정보에 기초한 조도 보정 동작을 설명하기 위한 도면(700)이다. 도 7을 참조하면, 제1조도 센서(510)는 지정된 측정 시간(예를 들면, 50ms)(710)동안 광을 수신하고 수신된 광을 데이터로 변환하여 프로세서(560)로 제공할 수 있다. 제1조도 센서(510)는 데이터 제공 시점에 인터럽트 신호를 발생할 수 있다.
디스플레이(520)(예: DDI(521))는 지정된 프레임 시간(예: 16.6ms)마다 영상 정보를 프레임 단위로 활성화 영역에 표시할 수 있으며, 활성화 영역에 표시될 프레임에 대응하는 색상 정보를 생성하고, 색상 정보를 프로세서(560)(예: AP(561) 또는 보조 프로세서(562))로 제공할 수 있다.
프로세서(560)는 디스플레이(520)(예: DDI(521)) 또는 디스플레이 드라이버(530)로부터 수신된 색상 정보에 따라 메모리(550)에 저장된 색상 정보를 갱신할 수 있다. 프로세서(560)는, 인터럽트 신호의 발생을 인식하고 이에 따라 색상 정보(예: 디스플레이(520)에 표시된 제3프레임에 대한 제3색상 정보(720))를 메모리(550)에서 확인할 수 있다.
프로세서(560)는 제1조도 센서(510)로부터 수신된 데이터를 이용하여 전자 장치(500) 주변의 조도를 측정할 수 있다. 예컨대, 프로세서(560)는 제1조도 센서(510)로부터 수신된 데이터를 조도 값으로 환산하고, 메모리(550)에 저장된 교정 값을 이용하여 조도 값에서 편차를 제거할 수 있다. 프로세서(560)는, 인터럽트 발생에 따라 확인된 색상 정보에 기반하여, 상기 측정 결과 얻은 조도 값을 보정할 수 있다. 예를 들어, 프로세서(560)는 활성화 영역에서 R의 비율(이하, A(active area)_COPR R), G의 비율(A_COPR G), 및 B의 비율(A_COPR B)을 메모리(550)에서 확인된 색상 정보(예: 제3색상 정보(720))로부터 획득할 수 있다. 프로세서(560)는 센서 영역(581)에서 R의 비율(이하, S(sensor area)_COPR R), G의 비율(S_COPR G), 및 B의 비율(S_COPR B)을 상기 색상 정보로부터 획득할 수 있다. 활성화 영역에서 R의 비율(A_COPR R)은, 활성화 영역에 표시될 이미지의 R을 대표하는 값 예컨대, 평균(mean) 값, 중앙(median) 값, 또는 최빈(mode) 값을 의미할 수 있다. 센서 영역(571)에서 R의 비율(S_COPR R)은, 상기 이미지에서 센서 영역(571)에 표시될 부분을 대표하는 값 예컨대, 평균(mean) 값, 중앙(median) 값, 또는 최빈(mode) 값을 의미할 수 있다. 프로세서(560)는, 획득된 비율 정보에 기반하여 센서 영역(581)의 휘도에 대응하는 조도 값(예: 노이즈 성분)을 계산하고 상기 측정 결과 얻은 조도 값에서 상기 노이즈 성분을 제거함으로써 상기 조도 값을 전자 장치(500) 주변의 실제 조도에 수렴되게 보정할 수 있다.
도 8은, 다양한 실시예에 따른, 제1조도 센서(510)를 교정하기 위한 동작들(800)을 도시한다. 도 8의 동작들(800)은 프로세서(예: 도 5의 프로세서(560)) 및/또는 디스플레이 드라이버(예: 도 5의 디스플레이 드라이버(530))에 의해 실행될 수 있다.
동작 810에서 프로세서(560)는 전자 장치(500)가 앞서 설명된 교정 트리거 상태임을 인식할 수 있다.
동작 820에서 프로세서(560)는 상기 인식에 기반하여 센서 영역(571)에 제1이미지를 표시하고 대면 영역(581)에 제2이미지를 표시할 수 있다. 예를 들어, 프로세서(560)는 표 4를 참조하여 제1이미지의 색상을 제1색상 정보로 설정하고 제2이미지의 색상을 제2색상 정보로 설정할 수 있다. 제1색상 정보와 제2색상 정보의 색상 조합으로 제1이미지와 제2이미지가 각각 센서 영역(571) 및 대면 영역(581)에 표시되는 동안, 제1조도 센서(510)는, 지정된 측정 시간 동안, 광을 수신하고 수신된 광을 데이터로 변환하여 프로세서(560)로 제공할 수 있다.
동작 830에서 프로세서(560)는, 제1조도 센서(510)에서 발생된 인터럽트 신호에 반응하여, 제1조도 센서(510)로부터 수신된 데이터를 이용하여 조도 값을 계산할 수 있다.
동작 840에서 프로세서(560)는 상기 계산된 조도 값과 메모리(550)에 저장된 기준 값(조도 값)을 이용하여, 제1조도 센서(510)로부터 수신된 데이터를 이용하여 계산된 조도 값을 교정하기 위한 교정 값을 계산할 수 있다. 예를 들어, 프로세서(560)는 제1색상 정보와 제2색상 정보의 색상 조합에 대응하는 기준 값을 룩업 테이블(예: 표 4)에서 확인하고, 상기 계산된 조도 값 대비 상기 확인된 기준 값의 비율을 교정 값으로서 계산할 수 있다.
동작 850에서 프로세서(560)는 상기 계산된 교정 값을 메모리(550)에 저장할 수 있다.
도 9a 및 도 9b는, 일 실시예에 따른, 제1조도 센서(510)의 이상을 알리기 위한 동작을 설명하기 화면 예시들이다.
프로세서(560)는, 제1조도 센서(510)의 교정을 위해 계산된 조도 값을 제1조도 센서(510)의 이상 유무를 판단하기 위해 지정된 조도 범위와 비교하고, 비교 결과에 기반하여 제1조도 센서(510)의 이상 유무를 판단할 수 있다.
일 실시예에서, 상기 조도 범위는 최저 성능 시료(MIN)의 조도 값(이하, 최소 값) 및 최대 성능 시료(MAX)의 조도 값(이하, 최대 값)에 의해 결정될 수 있다. 프로세서(560)는, 조도 값이 최소 값의 지정된 제1비율보다 작거나 조도 값이 최대 값의 지정된 제2비율보다 큰 경우, 제1조도 센서(510)가 비정상 동작하는 것으로 결정할 수 있다. 예를 들어, 최소 값이 10이고 제1비율이 50%로 지정된 상황에서 측정된 조도 값이 5 이하인 경우, 제1조도 센서(510)는 이상 있는 것으로 결정될 수 있다. 최대 값이 30이고 제2비율이 150%로 지정된 상황에서 측정된 조도 값이 45 이상인 경우, 제1조도 센서(510)는 이상 있는 것으로 결정될 수 있다. 즉, 조도 범위는 5~45 이며, 측정된 조도 값이 이 범위를 벗어난 값일 때 제1조도 센서(510)는 이상 있는 것으로 결정될 수 있다.
다른 실시예에서, 상기 조도 범위는 평균 성능 시료의 조도 값(이하, 평균 값)에 의해 결정될 수 있다. 프로세서(560)는, 조도 값이 평균 값의 지정된 제1비율보다 작거나 평균 값의 지정된 제2비율보다 큰 경우, 제1조도 센서(510)가 비정상 동작하는 것으로 결정할 수 있다. 예를 들어, 평균 값이 20이고 제1비율이 25%로 지정된 상황에서 측정된 조도 값이 5 이하인 경우, 제1조도 센서(510)는 이상 있는 것으로 결정될 수 있다. 평균 값이 20이고 제2비율이 225%로 지정된 상황에서 측정된 조도 값이 45 이상인 경우, 제1조도 센서(510)는 이상 있는 것으로 결정될 수 있다.
프로세서(560)는 제1조도 센서(510)의 이상을 디스플레이(520)를 통해 사용자에게 알릴 수 있다. 예를 들면, 프로세서(560)는 팝업 창(910)을 통해 사용자에게 점검 필요성을 안내할 수 있다. 프로세서(560)는 인디케이터(indicator) 화면 내 알림 메시지(920)를 통해 사용자에게 점검 필요성을 안내할 수도 있다.
다양한 실시예에 따른 휴대 전자 장치(예: 휴대 전자 장치(500))는, 제1하우징과 상기 제1하우징에 대해 회동 가능하도록 상기 제1하우징에 연결된 제2하우징을 포함하는 폴더블 하우징; 상기 제1 하우징 내부에 형성된 공간에 배치된 제1표시 영역과, 상기 제2하우징 내부에 형성된 공간에 배치되고 상기 휴대 전자 장치가 접힌 상태일 때 상기 제1표시 영역과 마주하는 제2표시 영역을 포함하는 디스플레이(예: 디스플레이(520)); 상기 제1표시 영역 아래에 배치되되, 시야가 상기 제1표시 영역을 향하는 제1조도 센서(예: 제1조도 센서(510)); 상기 폴더블 하우징의 상태를 감지하기 위한 상태 감지 센서(예: 상태 감지 센서(540)); 메모리(예: 메모리(550)); 및 상기 디스플레이, 상기 제1조도 센서, 상기 상태 감지 센서, 및 상기 메모리에 연결된 프로세서(예: 프로세서(560))를 포함할 수 있다. 상기 프로세서는, 상기 조도 센서의 교정을 위해 이용되는 기준 값을 상기 메모리에 저장하고, 상기 상태 감지 센서로부터 수신된 데이터를 이용하여 상기 휴대 전자 장치의 상태가 접힌 상태인 것을 인식하고, 상기 휴대 전자 장치가 상기 접힌 상태를 포함하는 교정 트리거 상태임에 따라: 상기 제1표시 영역에 있어서 상기 제1조도 센서 위에 위치한 센서 영역에 제1이미지를 표시하고, 상기 제2표시 영역에 있어서 상기 센서 영역과 대면하는 영역에 제2이미지를 표시하고, 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하고, 상기 계산된 조도 값과 상기 메모리에 저장된 기준 값의 비교 결과에 기반하여, 상기 제1조도 센서를 이용하여 측정되는 조도 값을 교정하기 위한 교정 값을 계산하고, 상기 교정 값을 상기 메모리에 저장하도록 구성될 수 있다.
상기 프로세서는, 상기 계산된 조도 값 대비 상기 기준 값의 비율을 상기 교정 값으로서 계산하고, 상기 비율을 상기 제1조도 센서를 이용하여 측정된 조도 값에 곱해줌으로써 조도 값을 교정하도록 구성될 수 있다.
상기 메모리는 상기 센서 영역에 표시될 이미지의 제1색상 정보, 상기 대면 영역에 표시될 이미지의 제2색상 정보, 및 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합에 대응하는 기준 값을 포함하는 룩업 테이블을 저장할 수 있다. 상기 프로세서는, 상기 제1이미지의 색상을 상기 제1색상 정보로 설정하고 상기 제2이미지의 색상을 상기 제2색상 정보로 설정하고, 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합으로 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하고, 상기 룩업 테이블에서 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합에 대응하는 기준 값을 확인하고, 상기 계산된 조도 값 대비 상기 확인된 기준 값의 비율을 상기 교정 값으로서 계산하도록 구성될 수 있다. 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합은, 화이트 및 블랙; 블랙 및 화이트; 또는 화이트 및 화이트일 수 있다.
상기 교정 트리거 상태는 현재 시간이 지정된 시간 대인 상황; 및 상기 전자 장치의 배터리가 충전 중인 상황 중에서 적어도 하나의 상황을 더 포함할 수 있다.
상기 휴대 전자 장치는 시야가 상기 디스플레이의 반대로 향하는 제2조도 센서(예: 제2조도 센서(590))를 더 포함하되, 상기 교정 트리거 상태는 상기 제2조도 센서를 이용하여 측정된 조도 값이 밝은 환경을 나타내는 상황을 더 포함할 수 있다.
상기 프로세서는, 상기 계산된 조도 값이 상기 제1조도 센서의 이상 유무를 판단하기 위해 지정된 조도 범위를 벗어난 값일 때, 상기 제1조도 센서의 이상을 상기 디스플레이를 통해 사용자에게 알리도록 구성될 수 있다. 상기 프로세서는, 상기 조도 범위를 상기 기준 값을 이용하여 설정하도록 구성될 수 있다. 상기 메모리는 상기 기준 값보다 작은 최소 값, 상기 기준 값보다 큰 최대 값을 저장하되, 상기 프로세서는 상기 조도 범위를 상기 최소 값 및 상기 최대 값을 이용하여 설정하도록 구성될 수 있다.
다양한 실시예에 따른 휴대 전자 장치(예: 휴대 전자 장치(500))는, 제1하우징과 상기 제1하우징에 대해 회동 가능하도록 상기 제1하우징에 연결된 제2하우징을 포함하는 폴더블 하우징; 상기 제1 하우징 내부에 형성된 공간에 배치된 제1표시 영역과, 상기 제2하우징 내부에 형성된 공간에 배치되고 상기 휴대 전자 장치가 접힌 상태일 때 상기 제1표시 영역과 마주하는 제2표시 영역을 포함하는 디스플레이(예: 디스플레이(520)); 상기 제1표시 영역 아래에 배치되되, 시야가 상기 제1표시 영역을 향하는 제1조도 센서(예: 제1조도 센서(510)); 상기 폴더블 하우징의 상태를 감지하기 위한 상태 감지 센서((예: 상태 감지 센서(540)); 상기 디스플레이, 상기 제1조도 센서, 및 상기 상태 감지 센서에 연결된 프로세서(예: 프로세서(560)); 및 상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가: 상기 상태 감지 센서로부터 수신된 데이터를 이용하여 상기 휴대 전자 장치의 상태가 접힌 상태인 것을 인식하는 동작; 및 상기 휴대 전자 장치가 상기 접힌 상태를 포함하는 교정 트리거 상태임에 따라: 상기 제1표시 영역에 있어서 상기 제1조도 센서 위에 위치한 센서 영역에 제1이미지를 표시하고, 상기 제2표시 영역에 있어서 상기 센서 영역과 대면하는 영역에 제2이미지를 표시하고, 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하고, 상기 계산된 조도 값과 지정된 기준 값의 비교 결과에 기반하여, 상기 제1조도 센서를 이용하여 측정되는 조도 값을 교정하기 위한 교정 값을 계산하고 저장하는 동작을 수행하도록 하는 인스트럭션들을 저장할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 계산된 조도 값 대비 상기 기준 값의 비율을 상기 교정 값으로서 계산하는 동작; 및 상기 비율을 상기 제1조도 센서를 이용하여 측정된 조도 값에 곱해줌으로써 조도 값을 교정하는 동작을 수행하도록 할 수 있다.
상기 메모리는 상기 센서 영역에 표시될 이미지의 제1색상 정보, 상기 대면 영역에 표시될 이미지의 제2색상 정보, 및 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합에 대응하는 기준 값을 포함하는 룩업 테이블을 저장하고, 상기 인스트럭션들은 상기 프로세서가: 상기 제1이미지의 색상을 상기 제1색상 정보로 설정하고 상기 제2이미지의 색상을 상기 제2색상 정보로 설정하는 동작; 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합으로 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하는 동작; 상기 룩업 테이블에서 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합에 대응하는 기준 값을 확인하는 동작; 및 상기 계산된 조도 값 대비 상기 확인된 기준 값의 비율을 상기 교정 값으로서 계산하는 동작을 수행하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 계산된 조도 값이 상기 제1조도 센서의 이상 유무를 판단하기 위해 지정된 조도 범위를 벗어난 값일 때, 상기 제1조도 센서의 이상을 상기 디스플레이를 통해 사용자에게 알리는 동작을 수행하도록 할 수 있다. 상기 인스트럭션들은 상기 프로세서가: 상기 조도 범위를 상기 기준 값을 이용하여 설정하는 동작을 수행하도록 할 수 있다. 상기 메모리는 상기 기준 값보다 작은 최소 값, 상기 기준 값보다 큰 최대 값을 저장하되, 상기 인스트럭션들은 상기 프로세서가: 상기 조도 범위를 상기 최소 값 및 상기 최대 값을 이용하여 설정하는 동작을 수행하도록 할 수 있다.
본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 실시예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시예의 범위는 여기에 개시된 실시예들 이외에도 본 발명의 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 휴대 전자 장치에 있어서,
    제1하우징과 상기 제1하우징에 대해 회동 가능하도록 상기 제1하우징에 연결된 제2하우징을 포함하는 폴더블 하우징;
    상기 제1 하우징 내부에 형성된 공간에 배치된 제1표시 영역과, 상기 제2하우징 내부에 형성된 공간에 배치되고 상기 휴대 전자 장치가 접힌 상태일 때 상기 제1표시 영역과 마주하는 제2표시 영역을 포함하는 디스플레이;
    상기 제1표시 영역 아래에 배치되되, 시야가 상기 제1표시 영역을 향하는 제1조도 센서;
    상기 폴더블 하우징의 상태를 감지하기 위한 상태 감지 센서;
    메모리; 및
    상기 디스플레이, 상기 제1조도 센서, 상기 상태 감지 센서, 및 상기 메모리에 연결된 프로세서를 포함하고, 상기 프로세서는,
    상기 조도 센서의 교정을 위해 이용되는 기준 값을 상기 메모리에 저장하고,
    상기 상태 감지 센서로부터 수신된 데이터를 이용하여 상기 휴대 전자 장치의 상태가 접힌 상태인 것을 인식하고,
    상기 휴대 전자 장치가 상기 접힌 상태를 포함하는 교정 트리거 상태임에 따라:
    상기 제1표시 영역에 있어서 상기 제1조도 센서 위에 위치한 센서 영역에 제1이미지를 표시하고, 상기 제2표시 영역에 있어서 상기 센서 영역과 대면하는 영역에 제2이미지를 표시하고,
    상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하고,
    상기 계산된 조도 값과 상기 메모리에 저장된 기준 값의 비교 결과에 기반하여, 상기 제1조도 센서를 이용하여 측정되는 조도 값을 교정하기 위한 교정 값을 계산하고,
    상기 교정 값을 상기 메모리에 저장하도록 구성된 휴대 전자 장치.
  2. 제1항에 있어서, 상기 프로세서는,
    상기 계산된 조도 값 대비 상기 기준 값의 비율을 상기 교정 값으로서 계산하고,
    상기 비율을 상기 제1조도 센서를 이용하여 측정된 조도 값에 곱해줌으로써 조도 값을 교정하도록 구성된 휴대 전자 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 센서 영역에 표시될 이미지의 제1색상 정보, 상기 대면 영역에 표시될 이미지의 제2색상 정보, 및 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합에 대응하는 기준 값을 상기 메모리에 저장하고,
    상기 제1이미지의 색상을 상기 제1색상 정보로 설정하고 상기 제2이미지의 색상을 상기 제2색상 정보로 설정하고,
    상기 제1색상 정보와 상기 제2색상 정보의 색상 조합으로 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하고,
    상기 메모리에서 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합에 대응하는 기준 값을 확인하고,
    상기 계산된 조도 값 대비 상기 확인된 기준 값의 비율을 상기 교정 값으로서 계산하도록 구성된 휴대 전자 장치.
  4. 제3항에 있어서, 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합은,
    화이트 및 블랙;
    블랙 및 화이트; 또는
    화이트 및 화이트인 휴대 전자 장치.
  5. 제1항에 있어서, 상기 교정 트리거 상태는 현재 시간이 지정된 시간 대인 상황; 및 상기 전자 장치의 배터리가 충전 중인 상황 중에서 적어도 하나의 상황을 더 포함하는 휴대 전자 장치.
  6. 제1항에 있어서, 시야가 상기 디스플레이의 반대로 향하는 제2조도 센서를 더 포함하되,
    상기 교정 트리거 상태는 상기 제2조도 센서를 이용하여 측정된 조도 값이 밝은 환경을 나타내는 상황을 더 포함하는 휴대 전자 장치.
  7. 제1항에 있어서, 상기 프로세서는,
    상기 계산된 조도 값이 상기 제1조도 센서의 이상 유무를 판단하기 위해 지정된 조도 범위를 벗어난 값일 때, 상기 제1조도 센서의 이상을 상기 디스플레이를 통해 사용자에게 알리도록 구성된 휴대 전자 장치.
  8. 제7항에 있어서, 상기 프로세서는,
    상기 조도 범위를 상기 기준 값을 이용하여 설정하도록 구성된 휴대 전자 장치.
  9. 제7항에 있어서,
    상기 프로세서는,
    상기 기준 값보다 작은 최소 값, 상기 기준 값보다 큰 최대 값을 상기 메모리에 저장하고,
    상기 조도 범위를 상기 최소 값 및 상기 최대 값을 이용하여 설정하도록 구성된 휴대 전자 장치.
  10. 휴대 전자 장치에 있어서,
    제1하우징과 상기 제1하우징에 대해 회동 가능하도록 상기 제1하우징에 연결된 제2하우징을 포함하는 폴더블 하우징;
    상기 제1 하우징 내부에 형성된 공간에 배치된 제1표시 영역과, 상기 제2하우징 내부에 형성된 공간에 배치되고 상기 휴대 전자 장치가 접힌 상태일 때 상기 제1표시 영역과 마주하는 제2표시 영역을 포함하는 디스플레이;
    상기 제1표시 영역 아래에 배치되되, 시야가 상기 제1표시 영역을 향하는 제1조도 센서;
    상기 폴더블 하우징의 상태를 감지하기 위한 상태 감지 센서;
    상기 디스플레이, 상기 제1조도 센서, 및 상기 상태 감지 센서에 연결된 프로세서; 및
    상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가:
    상기 상태 감지 센서로부터 수신된 데이터를 이용하여 상기 휴대 전자 장치의 상태가 접힌 상태인 것을 인식하는 동작; 및
    상기 휴대 전자 장치가 상기 접힌 상태를 포함하는 교정 트리거 상태임에 따라: 상기 제1표시 영역에 있어서 상기 제1조도 센서 위에 위치한 센서 영역에 제1이미지를 표시하고, 상기 제2표시 영역에 있어서 상기 센서 영역과 대면하는 영역에 제2이미지를 표시하고, 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하고, 상기 계산된 조도 값과 지정된 기준 값의 비교 결과에 기반하여, 상기 제1조도 센서를 이용하여 측정되는 조도 값을 교정하기 위한 교정 값을 계산하고 저장하는 동작을 수행하도록 하는 인스트럭션들을 저장하는 휴대 전자 장치.
  11. 제10항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 계산된 조도 값 대비 상기 기준 값의 비율을 상기 교정 값으로서 계산하는 동작; 및
    상기 비율을 상기 제1조도 센서를 이용하여 측정된 조도 값에 곱해줌으로써 조도 값을 교정하는 동작을 수행하도록 하는 휴대 전자 장치.
  12. 제10항에 있어서,
    상기 인스트럭션들은 상기 프로세서가:
    상기 센서 영역에 표시될 이미지의 제1색상 정보, 상기 대면 영역에 표시될 이미지의 제2색상 정보, 및 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합에 대응하는 기준 값을 상기 메모리에 저장하고,
    상기 제1이미지의 색상을 상기 제1색상 정보로 설정하고 상기 제2이미지의 색상을 상기 제2색상 정보로 설정하는 동작;
    상기 제1색상 정보와 상기 제2색상 정보의 색상 조합으로 상기 제1이미지와 상기 제2이미지가 표시되는 동안 상기 제1조도 센서로부터 수신된 데이터를 이용하여 조도 값을 계산하는 동작;
    상기 메모리에서 상기 제1색상 정보와 상기 제2색상 정보의 색상 조합에 대응하는 기준 값을 확인하는 동작; 및
    상기 계산된 조도 값 대비 상기 확인된 기준 값의 비율을 상기 교정 값으로서 계산하는 동작을 수행하도록 하는 휴대 전자 장치.
  13. 제10항에 있어서, 상기 교정 트리거 상태는 현재 시간이 지정된 시간 대인 상황; 및 상기 전자 장치의 배터리가 충전 중인 상황 중에서 적어도 하나의 상황을 더 포함하는 휴대 전자 장치.
  14. 제10항에 있어서, 시야가 상기 디스플레이의 반대로 향하는 제2조도 센서를 더 포함하되,
    상기 교정 트리거 상태는 상기 제2조도 센서를 이용하여 측정된 조도 값이 밝은 환경을 나타내는 상황을 더 포함하는 휴대 전자 장치.
  15. 제10항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 계산된 조도 값이 상기 제1조도 센서의 이상 유무를 판단하기 위해 지정된 조도 범위를 벗어난 값일 때, 상기 제1조도 센서의 이상을 상기 디스플레이를 통해 사용자에게 알리는 동작을 수행하도록 하는 휴대 전자 장치.
PCT/KR2021/005500 2020-09-21 2021-04-30 조도 센서를 교정하는 전자 장치 WO2022059879A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/124,144 US20230221760A1 (en) 2020-09-21 2023-03-21 Electronic device for calibrating illuminance sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0121562 2020-09-21
KR1020200121562A KR20220039014A (ko) 2020-09-21 2020-09-21 조도 센서를 교정하는 전자 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/124,144 Continuation US20230221760A1 (en) 2020-09-21 2023-03-21 Electronic device for calibrating illuminance sensor

Publications (1)

Publication Number Publication Date
WO2022059879A1 true WO2022059879A1 (ko) 2022-03-24

Family

ID=80777067

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/005500 WO2022059879A1 (ko) 2020-09-21 2021-04-30 조도 센서를 교정하는 전자 장치

Country Status (3)

Country Link
US (1) US20230221760A1 (ko)
KR (1) KR20220039014A (ko)
WO (1) WO2022059879A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234557A1 (ko) * 2022-06-02 2023-12-07 삼성전자주식회사 광원 및 조도 감지가 가능한 클램쉘 타입 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160132465A (ko) * 2015-01-08 2016-11-18 시아오미 아이엔씨. 스크린의 밝기를 세팅하기 위한 방법 및 장치
KR20170122313A (ko) * 2016-04-26 2017-11-06 삼성디스플레이 주식회사 플렉서블 표시 장치 및 플렉서블 표시 장치의 영상 보상 방법
CN109887453A (zh) * 2019-03-15 2019-06-14 Oppo广东移动通信有限公司 电子设备的显示控制方法、装置和电子设备
KR102081931B1 (ko) * 2013-06-19 2020-02-26 엘지전자 주식회사 폴더블 디스플레이 디바이스 및 제어 방법
KR20200101263A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 디스플레이의 밝기를 제어하는 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102081931B1 (ko) * 2013-06-19 2020-02-26 엘지전자 주식회사 폴더블 디스플레이 디바이스 및 제어 방법
KR20160132465A (ko) * 2015-01-08 2016-11-18 시아오미 아이엔씨. 스크린의 밝기를 세팅하기 위한 방법 및 장치
KR20170122313A (ko) * 2016-04-26 2017-11-06 삼성디스플레이 주식회사 플렉서블 표시 장치 및 플렉서블 표시 장치의 영상 보상 방법
KR20200101263A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 디스플레이의 밝기를 제어하는 전자 장치
CN109887453A (zh) * 2019-03-15 2019-06-14 Oppo广东移动通信有限公司 电子设备的显示控制方法、装置和电子设备

Also Published As

Publication number Publication date
KR20220039014A (ko) 2022-03-29
US20230221760A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
WO2021162244A1 (en) Foldable mobile electronic device capable of setting brightness of display through light sensor
WO2022124734A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체
WO2022059879A1 (ko) 조도 센서를 교정하는 전자 장치
WO2022025494A1 (ko) 디스플레이의 휘도를 조절하기 위한 전자 장치 및 그의 동작 방법
WO2022030804A1 (ko) 화면 회전을 제어하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2022050620A1 (ko) 검출 회로 및 이를 포함하는 전자 장치
WO2022045579A1 (ko) 외부 장치의 위치를 보정하기 위한 전자 장치 및 그의 동작 방법
WO2022005003A1 (ko) 가변 리프레시 레이트를 갖는 표시 장치를 포함하는 전자 장치 및 그 동작 방법
WO2022103021A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2021261713A1 (ko) 조도 센서를 포함하는 전자 장치
WO2023033422A1 (ko) 디스플레이를 포함하는 전자 장치 및 그 동작 방법
WO2022260340A1 (ko) 광 센서가 포함된 디스플레이를 갖는 전자 장치
WO2023003301A2 (ko) 전자 장치 및 전자 장치에서 점멸 광원을 검출하는 방법
WO2022050627A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2022108402A1 (ko) 플렉서블 디스플레이의 동작 방법 및 전자 장치
WO2022177105A1 (ko) 투명 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
WO2024071562A1 (ko) 온 픽셀 비에 따라 밝기 레벨을 식별하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2022119412A1 (ko) 플렉서블 디스플레이 및 카메라를 포함하는 전자 장치
WO2024049081A1 (ko) 포장 박스를 포함하는 전자 장치 및 이의 지문 센서의 캘리브레이션 방법
WO2023282512A1 (ko) 주사율에 따라 감마를 변경하는 전자 장치 및 방법
WO2022149866A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그 동작 방법
WO2022186574A1 (ko) 센서 모듈의 성능을 향상 시킬 수 있는 전자 장치 및 방법
WO2023033365A1 (ko) 디스플레이를 포함하는 전자 장치 및 그의 동작 방법
WO2024101704A1 (ko) 터치 입력을 식별하는 웨어러블 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2022108104A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21869503

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21869503

Country of ref document: EP

Kind code of ref document: A1