WO2023106614A1 - Method and device for improving accuracy of ambient light measurement in electronic device - Google Patents

Method and device for improving accuracy of ambient light measurement in electronic device Download PDF

Info

Publication number
WO2023106614A1
WO2023106614A1 PCT/KR2022/015980 KR2022015980W WO2023106614A1 WO 2023106614 A1 WO2023106614 A1 WO 2023106614A1 KR 2022015980 W KR2022015980 W KR 2022015980W WO 2023106614 A1 WO2023106614 A1 WO 2023106614A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
sensor
light source
illuminance
electronic device
Prior art date
Application number
PCT/KR2022/015980
Other languages
French (fr)
Korean (ko)
Inventor
최광호
김규성
김종아
윤희웅
이기혁
이동한
조정호
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220004875A external-priority patent/KR20230085038A/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2023106614A1 publication Critical patent/WO2023106614A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/08Arrangements of light sources specially adapted for photometry standard sources, also using luminescent or radioactive material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits

Definitions

  • Embodiments of the present disclosure provide a method and apparatus capable of improving the accuracy of illuminance measurement in an electronic device.
  • an electronic device includes a display for visual support and can display various contents through the display.
  • Electronic devices provide a function of adjusting brightness, contrast, and/or luminance of a display for user convenience.
  • the electronic device includes a function of detecting ambient light using an ambient light sensor (ALS) and automatically adjusting the brightness of the display in response to the ambient light.
  • ALS ambient light sensor
  • the electronic device may be used in an inactive area other than the display area of the display (eg, a bezel arrangement structure) (eg, a black matrix (BM) area or an inactive area) or an active area of the display (eg, an under-panel arrangement structure) ), an illuminance sensor can be placed (or included), and the brightness of the display can be automatically adjusted based on the measured ambient brightness through the illuminance sensor.
  • a bezel arrangement structure eg, a black matrix (BM) area or an inactive area
  • BM black matrix
  • active area of the display eg, an under-panel arrangement structure
  • the ambient brightness sensing may be inaccurate or difficult to accurately sense due to the FOV (field of view) limitation of the illuminance sensor.
  • FOV field of view
  • the display may operate with a brightness that is darker or brighter than the brightness corresponding to the ambient brightness.
  • accuracy of illuminance (or illuminance value) measured by the illuminance sensor may deteriorate due to a FOV limit.
  • illuminance is miscalculated due to a biased direction of a light source (or light) that occurs due to a field of view (FOV) limit according to an arrangement structure of an ambient light sensor (ALS) and/or a display structure. It discloses a method and device that can reduce the
  • the direction of an external light source (eg, an IR light source) is calculated (eg, predicted), and the measured illuminance is corrected using a change in value according to the angle and/or direction of the external light source, so as to measure the illuminance.
  • an external light source eg, an IR light source
  • the measured illuminance is corrected using a change in value according to the angle and/or direction of the external light source, so as to measure the illuminance.
  • a method and apparatus capable of improving the accuracy of illuminance measurement by calculating a direction of an external light source, calculating a change in ratio according to a FOV limit in the corresponding direction, and compensating for the calculated ratio are disclosed.
  • an optical sensor eg, IR PD
  • a direction of an external light source is calculated using the optical sensor
  • a ratio between the illuminance sensor and IR is calculated in the calculated direction. /IR ratio)
  • the ratio is corrected based on the correction ratio corresponding to the direction of the light source to increase the accuracy of the illuminance and reduce the malfunction of the automatic brightness function.
  • An electronic device includes a display, an illuminance sensor including an illuminance sensor configured to sense incident light incident from an external light source, and an optical sensor, a memory, and operation with the display, the illuminance sensor, and the memory. It may include an enemy-connected processor.
  • the processor may operate to obtain a sensing value of the incident light through the optical sensor.
  • the processor may operate to calculate the direction of the light source based on the sensing value.
  • the processor may operate to calculate a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor in the calculated direction.
  • the processor may operate to determine a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change. According to an embodiment, the processor may operate to correct the illuminance corresponding to the direction of the light source based on the determined correction ratio.
  • An electronic device includes a display, an illuminance sensor, an optical sensor disposed outside the illuminance sensor and set to sense incident light incident from an external light source, a memory, and the display, the illuminance sensor, and the display. an optical sensor, and a processor operatively coupled with the memory.
  • the processor may operate to obtain a sensing value of the incident light through the optical sensor.
  • the processor may operate to calculate a ratio of an area receiving light from a photodiode of each channel of the illuminance sensor based on the sensing value.
  • the processor may operate to determine a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio.
  • the processor may operate to correct illuminance based on the determined correction ratio.
  • An operating method of an electronic device may include an operation of obtaining a sensing value of incident light incident from an external light source through an optical sensor disposed to surround an illuminance sensor.
  • the operating method may include calculating a direction of the light source based on the sensing value.
  • the operation method may include an operation of calculating a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor in the calculated direction.
  • the operating method may include determining a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change.
  • the operating method may include correcting an illuminance corresponding to a direction of the light source based on the determined correction ratio.
  • a computer-readable recording medium in which a program for executing the method in a processor may be included.
  • a non-transitory computer readable storage medium (or computer program product) storing one or more programs.
  • one or more programs when executed by a processor of an electronic device, obtain a sensing value of incident light incident from an external light source through an optical sensor disposed in a form surrounding an illuminance sensor, the sensing value Calculating the direction of the light source based on the calculated direction, calculating the ratio change of the area receiving light from the photodiode of each channel of the illuminance sensor in the calculated direction, and the illumination sensor based on the calculated ratio change may include instructions for performing an operation of determining a correction ratio for the direction of the light source and an operation of correcting the illuminance corresponding to the direction of the light source based on the determined correction ratio.
  • the field of view (FOV) limit according to the arrangement structure and / or display structure of an ambient light sensor (ALS) occurs. It is possible to reduce the miscalculation of the illuminance due to the biased direction of the light source (or light) (e.g., photometry).
  • the electronic device calculates (eg, predicts) the direction of an external light source and corrects the measured illuminance using a change in value according to the angle and/or direction of the external light source, thereby improving the accuracy of the illuminance measurement. can do.
  • the electronic device 101 may calculate a direction of an external light source, calculate a change in a ratio according to a FOV limit in the corresponding direction, determine a situation in which the calculated ratio is distorted beyond a certain level, and compensate for this. there is.
  • the electronic device 101 may dispose an optical sensor (eg, IR PD) outside the illuminance sensor to calculate the direction of the external light source.
  • the electronic device 101 detects a light source according to a difference in a ratio (eg, ALS/IR ratio) between photodiode light reception and IR light reception for each channel of an illuminance sensor in a direction of a light source (eg, a light metering direction). It is possible to calculate a correction value that compensates for the photometric direction of .
  • the electronic device 101 may apply the calculated correction value to a lux calculation formula to improve the accuracy of illuminance measurement in an external light source (eg, an IR light source).
  • an optical sensor is disposed outside the illuminance sensor, a direction of an external light source is calculated using the optical sensor, a change in ALS/IR ratio is calculated in the calculated direction, and the calculated ratio is When the ratio is distorted beyond a certain level, a correction ratio corresponding to the direction of the light source is determined in consideration of the ratio change, and the illumination intensity is corrected based on the determined correction ratio to increase the accuracy of the illumination intensity and reduce the malfunction of the automatic brightness function.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
  • FIG. 2 is a diagram illustrating an example of an electronic device according to an embodiment.
  • FIG. 3 is a diagram illustrating an example of an electronic device according to an embodiment.
  • FIG. 4 is a diagram for explaining a difference in light reception amount according to a direction of a light source in an illuminance sensor.
  • 5 is a view for explaining the direction of the amount of light received according to the direction of the light source and the principle of receiving light in a specific direction.
  • FIG. 6 is a diagram illustrating an example of configuring an illuminance sensor in an electronic device according to an exemplary embodiment.
  • FIG. 7 is a diagram illustrating an example of configuring an illuminance sensor in an electronic device according to an exemplary embodiment.
  • FIG. 8 is a diagram illustrating an example of a graph showing relative sensitivity according to wavelengths of an illuminance sensor.
  • FIG. 9 is a diagram for explaining an example of an operation of calculating a direction of a light source in the optical sensor arrangement structure of FIG. 6 according to an exemplary embodiment.
  • FIG. 10 is a diagram schematically illustrating a configuration of an electronic device according to an exemplary embodiment.
  • FIG. 11 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 within a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or the antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added.
  • some of these components eg, sensor module 176, camera module 180, or antenna module 197) are integrated into a single component (eg, display module 160). It can be.
  • the processor 120 for example, executes software (eg, the program 140) to cause at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • software eg, the program 140
  • processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • the processor 120 may include a main processor 121 (eg, a central processing unit (CPU) or an application processor (AP)) or a secondary processor (which may be operated independently of or together with the main processor 121). 123) (e.g., graphic processing unit (GPU), neural processing unit (NPU), image signal processor (ISP), sensor hub processor, or communication processor (CP, communication processor)).
  • main processor 121 e.g., a central processing unit (CPU) or an application processor (AP)
  • a secondary processor which may be operated independently of or together with the main processor 121). 123) (e.g., graphic processing unit (GPU), neural processing unit (NPU), image signal processor (ISP), sensor hub processor, or communication processor (CP, communication processor)).
  • the main processor 121 e.g., a central processing unit (CPU) or an application processor (AP)
  • secondary processor which may be operated independently of or together with the main processor 121).
  • the main processor 121 e.g., graphic processing unit (GPU), neural
  • the secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 may At least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or At least some of the functions or states related to the communication module 190) may be controlled.
  • the auxiliary processor 123 eg, an image signal processor or a communication processor
  • the auxiliary processor 123 may be implemented as part of other functionally related components (eg, the camera module 180 or the communication module 190). there is.
  • the auxiliary processor 123 eg, a neural network processing device
  • AI models can be created through machine learning.
  • Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited.
  • the artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples.
  • the artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, program 140) and commands related thereto.
  • the memory 130 may include volatile memory 132 or non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130, and may include, for example, an operating system (OS) 142, middleware 144, or an application 146. there is.
  • OS operating system
  • middleware middleware
  • application application
  • the input module 150 may receive a command or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside of the electronic device 101 (eg, a user).
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • a receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 may convert sound into an electrical signal or vice versa. According to an embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a bio sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, a secure digital (SD) card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD secure digital
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 may be a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, a : a local area network (LAN) communication module or a power line communication module).
  • a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, a legacy communication module).
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology).
  • NR access technologies include high-speed transmission of high-capacity data (eMBB, mobile broadband), minimization of terminal power and access of multiple terminals (mMTC, massive machine type communications), or high-reliability and low-latency (URLLC, ultra-reliable and low-latency communications) can be supported.
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO, full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported.
  • the wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199).
  • the wireless communication module 192 may be used to realize peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency (for realizing URLLC).
  • peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC.
  • DL downlink
  • UL uplink each of 0.5 ms or less, or round trip 1 ms or less
  • the antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC) may be additionally formed as a part of the antenna module 197 in addition to the radiator.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first surface (eg, a bottom surface) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, array antennas) disposed on or adjacent to a second surface (eg, a top surface or a side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself.
  • one or more external electronic devices may be requested to perform the function or at least part of the service.
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 .
  • the electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • Electronic devices may be devices of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart bracelet
  • first, second, or first or secondary may simply be used to distinguish that component from other corresponding components, and may refer to that component in other respects (eg, importance or order) is not limited.
  • a (eg, first) component is said to be “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively.”
  • the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits.
  • a module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • a storage medium eg, internal memory 136 or external memory 138
  • a machine eg, electronic device 101
  • a processor eg, the processor 120
  • a device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
  • a signal e.g. electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • a device-readable storage medium eg compact disc read only memory (CD-ROM)
  • an application store eg Play Store TM
  • It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
  • each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg modules or programs
  • the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. .
  • the operations performed by a module, program or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations are executed in a different order. may be added, omitted, or one or more other actions may be added.
  • FIG. 2 is a diagram illustrating an example of an electronic device according to an embodiment.
  • FIG. 3 is a diagram illustrating an example of an electronic device according to an exemplary embodiment.
  • FIGS. 2 and 3 may show various examples of a structure in which a sensor circuit (eg, an illuminance sensor and/or a roughness sensor) according to an embodiment of the present disclosure is disposed in the electronic device 101. .
  • a sensor circuit eg, an illuminance sensor and/or a roughness sensor
  • an electronic device 101 may include housings 200 and 300 including a front side, a back side, and side surfaces surrounding a space between the front and rear sides.
  • the housings 200 and 300 may refer to a structure forming some of the front, rear, and side surfaces.
  • the front surface may be formed by a front plate 210, 310 that is at least partially transparent (eg, a glass plate including various coating layers, or a polymer plate). there is.
  • the back surface may be formed by a substantially opaque back plate (not shown).
  • the back plate may be coated or tinted glass, ceramic, polymer, metal (eg, aluminum, stainless steel (STS), or magnesium), or at least two of the foregoing. can be formed by combination.
  • the side surfaces may be coupled to the front plates 210 and 310 and the rear plates and may be formed by a side bezel structure (or “side member”) including metal and/or polymer.
  • the back plate and side bezel structure may be integrally formed and include the same material (eg, a metal material such as aluminum).
  • the displays 201 and 301 may be exposed, for example, through a significant portion of the front plates 210 and 310 .
  • the displays 201 and 301 may be implemented in various forms including a liquid crystal display (LCD), an organic light emitting diode (OLED), or an active matrix OLED (AMOLED).
  • the displays 201 and 301 may display moving images or still images based on the control of a processor (eg, the processor 120 of FIG. 1 ), and may display various external objects (eg, human hands) on the displays 201 and 301 . , stylus pen) may receive an input.
  • the displays 201 and 301 may include touch sensors to receive inputs from various external objects.
  • the display 201 or 301 includes a touch sensing circuit (or touch sensor), a pressure sensor capable of measuring the strength (pressure) of a touch, and/or a digitizer that detects a magnetic stylus pen and They may be combined or placed adjacent to each other.
  • a touch sensing circuit or touch sensor
  • a pressure sensor capable of measuring the strength (pressure) of a touch
  • a digitizer that detects a magnetic stylus pen and They may be combined or placed adjacent to each other.
  • FIG. 2 may show an example in which the sensor module 230 including a proximity sensor, an illuminance sensor, and/or a roughness sensor is disposed on the front plate 210 of the electronic device 101 .
  • an electronic device 101 includes a display 201, a front plate 210, and a housing 200, and the display 201 and sound are mounted on the front plate 210. It may include an output device 220 , a sensor module 230 , a camera module 240 , and/or an indicator 250 . In some embodiments, the electronic device 101 may omit at least one of the components (eg, the indicator 250) or may additionally include other components.
  • a sensor module 330 including a proximity sensor, an illuminance sensor, and/or a roughness sensor is located under the display 301 of the electronic device 101 (eg, under the panel). ).
  • an electronic device 101 includes a display 301, a front plate 310, and a housing 300, and a sensor module 330 and a sensor module 330 under the display 301.
  • a camera module 340 may be included.
  • the electronic device 101 may additionally include other components (eg, the sound output device 220 and the indicator 250) as described in the description with reference to FIG. 2 .
  • the audio output device 220 may be disposed at the edge of the bezel area.
  • the electronic device 101 according to the embodiment of FIG. 3 may include an under panel speaker using the display 301 (eg, OLED) as a diaphragm.
  • an under-panel speaker may be placed under the display 301 and not visible from the outside.
  • the sound output device 220 may include a speaker.
  • the speaker may include a receiver for a call.
  • the sensor modules 230 and 330 may generate electrical signals or data values corresponding to an internal operating state of the electronic device 101 or an external environmental state.
  • the sensor modules 230 and 330 may include, for example, a proximity sensor, an illuminance sensor, and/or a roughness sensor.
  • the proximity sensor may detect an external object approaching the electronic device 101 .
  • the proximity sensor may include a light emitter that emits infrared rays and a light receiver that receives infrared rays reflected by an external object.
  • the illuminance sensor may measure illumination around the electronic device 101 (eg, a magnitude (unit: lux) detected by the ambient brightness).
  • the illuminance sensor may measure illuminance by measuring the amount of light through a pre-created hole.
  • the camera modules 240 and 240 may include one or a plurality of lenses, an image sensor, and/or an image signal processor. In some embodiments, two or more lenses (eg, wide-angle and telephoto lenses) and image sensors may be disposed on one side (eg, front and/or rear) of the electronic device 101 .
  • the indicator 250 may provide, for example, state information of the electronic device 101 in the form of light. In one embodiment, the indicator 250 may provide a light source interlocked with the operation of the camera modules 240 and 240 .
  • the indicator 250 includes, for example, a luminous element such as a light emitting diode (LED), an infrared (IR) LED, a laser diode (LD), and/or a xenon lamp. can do.
  • a sensor module 230 (eg, a proximity sensor, an ambient light sensor) (eg, the sensor module 176 of FIG. 1 ) may be disposed on the front plate 210 of the housing 200 .
  • the electronic device 101 may place an illuminance sensor in an inactive area of the display 201, the illuminance sensor measures illuminance (or ambient light), and based on this, It can be used for adjusting the brightness of the display 201.
  • the sensor module 330 may be disposed below the display 301 between the front surface of the housing 300 and the rear surface facing the front surface.
  • the electronic device 101 may place an illuminance sensor in an active area of the display 301, and the illuminance sensor may adjust the illuminance (or Ambient brightness) can be measured, and based on this, it can be used for adjusting the brightness of the display 301 .
  • the illuminance sensor may adjust the illuminance (or Ambient brightness) can be measured, and based on this, it can be used for adjusting the brightness of the display 301 .
  • the electronic device 101 may correct an illuminance measurement value using color on pixel ratio (COPR) information.
  • the illuminance sensor may measure the illuminance only during the display off time to minimize the influence of the display 201 or 301, and additionally correct the illuminance measurement value based on the color displayed on the display 201 or 301. You may.
  • the display off time of the display 201 or 301 may indicate a time for the illuminance sensor not to be affected by the brightness of the display 201 or 301 when sensing the illuminance.
  • the display off time can be used to control the timing to reduce the impact of the illumination measurement due to the display of the displays 201 and 301 .
  • the COPR information may be used to correct an illuminance measurement value based on a color displayed on the displays 201 and 301 . For example, since white is bright and black is dark, correction values may be different according to colors.
  • a high value of the R channel among red, green, and blue (RGB) channels of the illuminance sensor may be output, and the R channel value of the illuminance sensor is corrected. can do.
  • the displays 201 and 301 of the electronic device 101 may be implemented with a design with an increased area occupied on the front surface (eg, a bezel-less display), and various parts disposed on the front surface (eg, shown in FIG. 3 ).
  • the sensor module 330 and the camera module 340) may be disposed between the display 301 and the rear surface or may be disposed inside the display 301 .
  • the proximity sensor, illuminance sensor, and/or camera module 340 has an under display sensor structure between the display 301 and the rear surface (or the lower part of the display 301 (eg, the under display sensor)). panel)).
  • the sensor module 330 eg, a proximity sensor, an illuminance sensor
  • the camera module 340 have an in-display sensor structure and are integrated with the display 301 to display ( 301) can be formed in.
  • a sensor eg, a sensor module 330 and/or a camera module 340
  • OCTA on cell touch AMOLED
  • the size of the area where various components eg, a proximity sensor, an illuminance sensor, and/or a camera module
  • various components eg, a proximity sensor, an illuminance sensor, and/or a camera module
  • display structures in which electronic components are disposed between the display 301 and the back plate or within the display 301 are increasing.
  • the illuminance sensor may measure the illuminance by receiving an external light source through a pre-created hole in the inactive area or the active area and measuring the amount of light.
  • the illuminance accuracy according to the change in the ratio between photodiode light reception and IR light reception for each channel of the illuminance sensor (eg, ALS/IR ratio) may be reduced, which is It may lead to malfunction of automatic brightness control.
  • the ambient light accuracy may be affected.
  • such an accuracy problem may occur in sunlight, and the non-uniform arrangement of the photodiodes and the transmission performance of the filter of the photodiodes may be affected according to the inclination angle of the electronic device 101 (or the illuminance sensor set). there is. An example thereof will be described with reference to FIGS. 4 and 5 .
  • FIG. 4 is a diagram for explaining a difference in light reception amount according to a direction of a light source in an illuminance sensor.
  • 5 is a view for explaining the direction of the amount of light received according to the direction of the light source and the principle of receiving light in a specific direction.
  • examples ⁇ 401> and ⁇ 501> may represent examples in which the light source 450 is positioned in a direction perpendicular to the illuminance sensor 400 .
  • examples ⁇ 403> and ⁇ 503> are cases in which the light source 450 is biased (or tilted) in a first direction (eg, left, right, upper, or lower) that is not perpendicular to the illuminance sensor 400. example can be given.
  • Examples ⁇ 405> and ⁇ 505> may represent examples in which the light source 450 is biased in a second direction (eg, left, right, upper, or lower) that is not perpendicular to the illuminance sensor 400. .
  • the situation in which the direction of the light source 450 is inclined in a direction other than the vertical direction with respect to the illuminance sensor 400 is, for example, when the illuminance sensor 400 receives light in a diagonal direction.
  • This may include a situation where the illuminance sensor 400 is not positioned perpendicular to the light source 450 or the illuminance sensor 400 (or the electronic device 101) is tilted in one direction.
  • Example ⁇ 401> and Example ⁇ 501> when the light source 450 is positioned in a direction perpendicular to the illuminance sensor 400, through the entire area A of the photodiode 410 of the illuminance sensor 400. Light for the light source 450 may be received.
  • Example ⁇ 403> and Example ⁇ 503> when the light source 450 is located in a direction biased toward the first side instead of perpendicular to the illuminance sensor 400, the photodiode of the illuminance sensor 400 according to the FOV limit Light from the light source 450 may be received through a partial area (eg, a specific photodiode area such as area B) instead of the entire area A of 410 .
  • a partial area eg, a specific photodiode area such as area B
  • the photodiode of the illuminance sensor 400 when the light source 450 is located in a direction biased toward the second side instead of being perpendicular to the illuminance sensor 400, the photodiode of the illuminance sensor 400 according to the FOV limit Light from the light source 450 may be received through a partial area (eg, a specific photodiode area such as area C) instead of the entire area A of 410 .
  • a partial area eg, a specific photodiode area such as area C
  • ADC analog digital converter
  • the area of the photodiode 410 receiving light from 450 decreases, the incident light amount decreases and the ADC value can be sensed as low.
  • the area where the photodiode 410 receives light may vary according to the direction of the light source 450 according to the FOV limit.
  • the ratio of ALS/IR used in a calculation method (or calculation formula) designated for calculating illuminance may vary when deflected light reception is performed.
  • the ALS channels of the photodiode 410 eg, R (red), G (green), B A ratio between (blue), and/or C (clear) channel
  • light reception and IR light reception eg, ALS/IR ratio
  • the ALS channels of the photodiode 410 eg, R (red), G (green), B A ratio between (blue), and/or C (clear) channel
  • IR light reception eg, ALS/IR ratio
  • the principle in which the ALS/IR ratio is shifted is that, as described above, the light source 450 is incident on the entire area of the photodiode 410 according to the incident angle (eg, area A, area B, or area C). may be different, and the ratio of each channel may be different because the ratio of the area receiving light of the photodiode for each channel is different at a specific angle.
  • the ratio of IR and ALS may be distorted.
  • the ratio characteristics may vary depending on which direction (eg, left, right, top, or bottom) light is emitted from the illuminance sensor 400.
  • the light source 450 when the illuminance sensor 400 is tilted or the position with the light source 450 is out of the vertical range and light is incident in an oblique direction (eg, a diagonal direction) as photometry, the light source
  • the number of photodiodes 410 that receive light from 450 may vary, and the ratio may vary accordingly.
  • the ratio between the angle at which light is received from the illuminance sensor 400 and the light source 450 (eg, incident angle) and the data for each channel is checked, and when the ratio change is confirmed, the illumination intensity is corrected according to the ratio difference. can act to do so. Through this, in the present disclosure, malfunctions during automatic brightness control of the display module 160 may be reduced.
  • a plurality of optical sensors capable of identifying the direction of the light source 450 are disposed outside (or around) the illuminance sensor 400, and the measured values of the optical sensor (eg, IR PD)
  • the direction of the light source 450 may be calculated (eg, predicted) based on the difference between . Examples of this are shown in FIGS. 6 and 7 .
  • 6 and 7 are diagrams illustrating examples of configuring an illuminance sensor in an electronic device according to an exemplary embodiment.
  • FIG. 8 is a diagram illustrating an example of a graph showing relative sensitivity according to wavelengths of an illuminance sensor.
  • the electronic device 101 includes an illuminance sensor 600 and a plurality of optical sensors 700 (eg, 710, 720, 730, and 740) outside the illuminance sensor 600.
  • the illuminance sensor module 900 (or illuminance sensor set) may be configured.
  • the illuminance sensor module 900 is arranged to surround the illuminance sensor 600 by using a plurality of optical sensors 700 (eg, 710, 720, 730, 740) outside the illuminance sensor 600.
  • the optical sensors 700 may be disposed in a form surrounding the illuminance sensor 600 based on a horizontal reference point (or a flat reference point) of the illuminance sensor 600.
  • the illuminance sensor 600 is a sensor that measures (or detects) the intensity of ambient light, for example, detects light and outputs raw data. can do. According to an embodiment, the illuminance sensor 600 may operate in an interrupt mode to synchronize with COPR information of a display (eg, the display module 160 of FIG. 1 ).
  • the illuminance sensor 600 may have a plurality of channels to detect ambient light.
  • the illuminance sensor 600 generally includes visible light red (R, green), blue (B, blue) of visible light, and all visible light clear (C, clear) in order to receive visible light. ) channels.
  • the illuminance sensor 600 may determine the illuminance value based on the signal intensity according to the amount of light received through the R, G, and B bands of visible light and/or the C band of all visible light.
  • the illuminance sensor 600 may receive light of a specified band in each channel and detect which color of external light is received.
  • individual channels may receive light in an infrared (IR) band as well as a visible light band.
  • the illuminance sensor 600 may include R/G/B channels that receive light of about 450 nm band, about 550 nm band, and about 650 nm band.
  • the illuminance sensor 600 may include a channel (eg, C channel) that receives light of an IR band (eg, a band of about 940 nm).
  • the illuminance sensor 600 includes photodiodes 630 for each wavelength according to color (eg, 630-1, 630-2, 630-3, 630-4, 630- The relative sensitivity of 5) may vary.
  • the blue photodiode can show high responsiveness to light of about 450 nm band, the green photodiode to light of about 550 nm band, and the red photodiode to light of about 650 nm band.
  • the clear photodiode may show high response to light in a band of about 450 nm to about 940 nm.
  • examples of each band of the photodiode 630 are not limited to the disclosed examples, and, for example, about It can be designed in various ways, such as being implemented to accept light in a band of 400 nm to about 1000 nm.
  • the illuminance sensor module 900 arranges a plurality of additional optical sensors 700 (eg, 710, 720, 730, 740) outside the illuminance sensor 600, and the illuminance sensor module ( 900) determine the position of the external light source by determining the light reception ratio of the IR (610) (e.g., 610-1, 610-2, 610-3, 610-4, 610-5, 610-6) according to the tilt angle. It can be calculated (e.g. predicted).
  • the IR e.g., 610-1, 610-2, 610-3, 610-4, 610-5, 610-6
  • the light sensor 700 is a sensor that detects ambient light, and is, for example, an IR photodiode (PD), a spectrometric sensor, RGB sensors, and/or all types of sensors that detect light, such as UV (ultraviolet) sensors.
  • PD IR photodiode
  • RGB sensors spectrometric sensors
  • UV sensors ultraviolet (ultraviolet) sensors.
  • FIG. 6 shows four optical sensors 700 (eg, a first optical sensor 710, a second optical sensor 720, and a third optical sensor 730) around the outer periphery of the illuminance sensor 600. and a first symmetrical structure in which the fourth optical sensor 740 is symmetrically disposed.
  • four light sensors 700 may be disposed on top, bottom, left, and right sides of the illuminance sensor 600 in a shape surrounding the illuminance sensor 600 .
  • FIG. 7 shows eight optical sensors 700 (eg, a first optical sensor 710, a second optical sensor 720, and a third optical sensor 730) around the outer periphery of the illuminance sensor 600. , second symmetry in which the fourth optical sensor 740, the fifth optical sensor 715, the sixth optical sensor 725, the seventh optical sensor 735, and the eighth optical sensor 745) are symmetrically disposed.
  • An example of a structure can be given.
  • eight light sensors 700 e.g., 710 , 720, 730, 740, 715, 725, 735, 745) may be disposed.
  • the arrangement of the optical sensor 700 is not limited to the example of FIG. 6 or 7, and the position of the optical sensor 700 can be designed in various ways considering the mechanical structure, and the direction of the external light source ( Or position) may include various shapes that can be arranged to surround the illuminance sensor 600 in the outer periphery of the illuminance sensor 600 .
  • the electronic device 101 may check whether light is detected through at least one light sensor 700 among the light sensors 700 in the illuminance sensor module 900, and the light sensor detecting the light ( 700), the direction of the external light source may be calculated (eg, predicted.
  • a plurality of light sensors (eg, around the illuminance sensor 600) 700), the angle (eg, the direction of the light source) of the illuminance sensor module 900 (or the illuminance sensor 600 or set) may be determined using the optical sensor 700.
  • the external light source when light is sensed through the first optical sensor 710 to the fourth optical sensor 740, the external light source is positioned in a direction perpendicular to the illuminance sensor 600.
  • the first optical sensor 710 it may be determined that an external light source is located in a first diagonal direction (eg, a downward direction) from the illuminance sensor 600.
  • a second diagonal direction eg, a left direction
  • an external light source is located in a third diagonal direction (eg, an upward direction) from the illuminance sensor 600.
  • a fourth diagonal direction eg, right direction
  • the position of the external light source can be determined in various combinations.
  • the electronic device 101 checks the ratio of data (e.g., amount of light) of the light sensor 700 according to the incident direction of light up, down, left, right as well as top left, bottom left, top right, and bottom right.
  • the direction of the light source may be calculated (eg, predicted) in all directions through a combination of data of the optical sensor 700 .
  • FIG. 9 is a diagram for explaining an example of an operation of calculating a direction of a light source in the optical sensor arrangement structure of FIG. 6 according to an exemplary embodiment.
  • data of the optical sensors 710 and 720 of the first region 910 in the upper right direction may increase.
  • the data of the light sensors 720 and 730 of the second area 920 in the lower right direction may increase.
  • data of the optical sensors 730 and 740 of the third area 930 in the lower left direction may increase.
  • data of the optical sensors 740 and 710 of the fourth region 940 in the upper left direction may increase. This can be summarized as shown in ⁇ Table 1> below.
  • First optical sensor 710 Second optical sensor 720
  • Third optical sensor 730 Fourth optical sensor 740 top left ⁇ ⁇ ⁇ ⁇ bottom left ⁇ ⁇ ⁇ ⁇ top right ⁇ ⁇ ⁇ ⁇ bottom right ⁇ ⁇ ⁇ ⁇ award ⁇ ⁇ ⁇ ⁇ under ⁇ ⁇ ⁇ ⁇ left ⁇ ⁇ ⁇ ⁇ right ⁇ ⁇ ⁇ ⁇
  • an area receiving a small amount of light (eg, amount of light) from a light source may be represented by a triangle ( ⁇ ), and an area receiving a relatively large amount of light may be represented by a circle ( ⁇ ).
  • the direction of the external light source may be calculated (eg, predicted).
  • the direction of an external light source is calculated through the optical sensor 700, and the ratio change of each photodiode 630 of the illuminance sensor 600 is inverted in the calculated direction to correct the illuminance according to the direction of the light source.
  • the electronic device 101 may calculate the direction of the light source based on a reference range in which an external light source is located in a direction perpendicular to the illuminance sensor 600 (eg, the front side) and is incident.
  • the electronic device 101 stores an incident reference range (eg, reference ratio) in the memory 130 when an external light source is located in a direction designated with respect to the illuminance sensor 600 (eg, a vertical direction or a front surface).
  • the illuminance may be corrected by calculating the ratio of each photodiode 630 of the illuminance sensor 600 .
  • the electronic device 101 calculates the direction of the light source, and in the calculated direction, the ratio between the light reception of the photodiode 630 and the light reception of the IR 610 for each channel of the illuminance sensor according to the FOV limit (eg : ALS/IR ratio) change (e.g., an increase or decrease in angle in the reference range) can be calculated, and a situation in which the calculated ALS/IR ratio is distorted beyond a certain level can be determined.
  • the FOV limit eg : ALS/IR ratio
  • the electronic device 101 determines a correction ratio based on the direction of the light source and the angle of the tilted set for the ALS/IR ratio when the ALS/IR ratio is distorted by a certain amount or more, and based on the determined correction ratio
  • the accuracy of the illuminance may be increased and malfunction of the automatic brightness function may be reduced.
  • the ALS/IR ratio may be corrected in the following manner according to the amount of change in the angle.
  • ⁇ Equation 1> may represent an example of an equation for correcting an ALS/IR ratio through a direction of a light source and an angle of an inclined set (eg, the illuminance sensor module 900).
  • the reference range represents the ratio of the light sensor 700 when the light sensor 600 is perpendicular to the light source
  • the ratio difference is the ratio of the light sensor 700 when the light source is inclined.
  • This changed value eg the difference between the reference range and the changed range
  • the electronic device 101 may compensate as shown in ⁇ Equation 1> in consideration of the ratio of the area illuminated by the optical sensor 700 according to the angle (eg, photometry) that is deflected from the direction of the light source.
  • the electronic device 101 detects light from at least one optical sensor 700 of the illuminance sensor module 900, and data by the optical sensor 700 that detects the light ( Example:
  • the correction ratio can be determined by dividing the reference range (or reference ratio) by the ratio of the amount of light) and multiplying it by the ALS/IR ratio to correct the illuminance.
  • the electronic device 101 may calculate a correction value (e.g., correction ratio) for compensating for the direction of the light source with a difference in ALS/IR ratio, and apply the calculated correction value to an illuminance calculation formula. , it is possible to improve the illuminance accuracy according to the direction of the external light source.
  • FIG. 10 is a diagram schematically illustrating a configuration of an electronic device according to an exemplary embodiment.
  • an electronic device 101 may include a display module 160, a memory 130, an illuminance sensor module 900, and a processor 120.
  • the display module 160 can visually provide various information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 includes a touch sensing circuit (or touch sensor), a pressure sensor capable of measuring the strength of a touch, and/or a touch panel (eg, a digitizer) detecting a magnetic stylus pen.
  • the display module 160 is a touch sensing circuit, a pressure sensor, and/or a signal for a specific position of the display module 160 based on the touch panel (eg, voltage, light intensity, resistance, electromagnetic signal, and/or Alternatively, a touch input and/or a hovering input (or proximity input) may be sensed by measuring a change in charge amount.
  • the display module 160 is based on luminance corresponding to manual brightness control by a user input or automatic brightness control by an illuminance value measured by the illuminance sensor 600 under the control of the processor 120. Thus, it can operate with the corresponding brightness.
  • the display module 160 may include a liquid crystal display (LCD), an organic light emitted diode (OLED), or an active matrix organic light emitted diode (AMOLED).
  • the display module 160 may be configured as a flexible display.
  • the illuminance sensor module 900 may include an illuminance sensor 600 and an optical sensor 700 . According to an embodiment, the illuminance sensor module 900 may be disposed in an inactive area of the display module 160 or an active area of the display module 160 . In one embodiment, the illuminance sensor module 900 is directly connected to the processor 120, or an auxiliary processor managing the overall operation of the sensor module (eg, the sensor module 176 of FIG. 1) in the electronic device 101. (e.g. sensor hub or sensor hub processor). When the sculpture sensor module 900 is connected to an auxiliary processor, the operation of the processor 120 may be processed by the auxiliary processor, or the processor 120 and the auxiliary processor may process the operation in parallel.
  • an auxiliary processor managing the overall operation of the sensor module (eg, the sensor module 176 of FIG. 1) in the electronic device 101.
  • the sculpture sensor module 900 is connected to an auxiliary processor, the operation of the processor 120 may be processed by the auxiliary processor, or the processor 120 and the auxiliary processor may process the operation in parallel
  • the illuminance sensor 600 may include a device (or sensor) capable of measuring (or measuring) light (or the amount or amount of light) so that the brightness (or illuminance) of the electronic device 101 can be estimated.
  • the illuminance sensor 600 includes an element (eg, a cadmium sulfide (Cds) element) having a photoelectric effect in which electrons moving inside are generated when light energy (or light) is received and the conductivity is converted. can do.
  • the illuminance sensor 600 may include a roughness sensor combining an illuminance sensor and a proximity sensor into one device (or module).
  • the illuminance sensor 600 may include various sensors that operate (or sense) based on light, such as a picker sensor, a flicker sensor, a color sensor, and/or a spectrometer. can include In one embodiment, the illuminance sensor 600 is a sensor that measures the intensity of ambient light and may include a photodiode. The illuminance sensor 600 may determine the illuminance value through signal intensity (eg, light intensity) according to the amount of light received through the R, G, and B bands of visible light and/or the entire C band of visible light.
  • signal intensity eg, light intensity
  • the optical sensor 700 may be disposed outside the illuminance sensor 600 in a shape surrounding the illuminance sensor 600 .
  • the light sensor 700 is a sensor that detects ambient light, such as an IR photodiode (PD), a spectrometric sensor, an RGB sensor, and/or an ultraviolet (UV) sensor. Any kind of sensor that detects light can be included.
  • PD IR photodiode
  • RGB spectrometric
  • UV ultraviolet
  • the optical sensor 700 may be integrally formed with the illuminance sensor 600 in a shape surrounding the illuminance sensor 600 .
  • the illuminance sensor 600 may include an optical sensor 700 .
  • the optical sensor 700 may be formed separately from the illuminance sensor 600 in a shape surrounding the illuminance sensor 600 .
  • the optical sensor 700 may be formed outside the illuminance sensor 600 .
  • the memory 130 may store various data used by the electronic device 101 .
  • the data may include, for example, input data or output data for an application (eg, the program 140 of FIG. 1 ) and a command related thereto.
  • the memory 130 may store instructions that, when executed, cause the processor 120 to operate.
  • the application may be stored as software on the memory 130 and may be executable by the processor 120 .
  • the applications may be various applications capable of supporting automatic brightness control of the display module 160 based on ambient illumination in the electronic device 101 .
  • the memory 130 obtains a sensing value of incident light through the light sensor 700 according to an embodiment of the present disclosure, calculates a direction of a light source based on the sensing value, and illuminates in the calculated direction.
  • a ratio change of an area receiving light from the photodiode of each channel of the sensor 600 is calculated, a correction ratio for the direction of a light source of the illuminance sensor 600 is determined based on the calculated ratio change, and a correction ratio is determined according to the determined correction ratio.
  • At least one component (or module) related to a function (or operation) of correcting the illuminance corresponding to the direction of the light source may be stored.
  • the memory 130 includes a function of adjusting the brightness of the display module 160 using an illuminance sensor, executable by the processor 120 (eg, an automatic brightness adjustment function) in the form of software (or instruction form). can do.
  • the processor 120 may control a related operation to reduce erroneous calculation of illuminance due to a biased direction of an external light source (or light).
  • the processor 120 calculates the direction of the external light source using data detected by the light sensor 700 disposed outside the illuminance sensor 600, and the ALS/IR ratio in the calculated direction. Calculate the change of , and if the calculated ratio is distorted beyond a certain level, correct the illuminance based on the correction ratio corresponding to the direction of the light source, thereby increasing the accuracy of the illuminance and reducing the malfunction of the automatic brightness function. can do.
  • the processor 120 obtains a sensing value of incident light through the optical sensor 700, calculates a direction of the light source based on the sensing value, and calculates a direction of the light source for each channel of the illuminance sensor 600 in the calculated direction. Calculate the ratio change of the area where the photodiode receives light, determine the correction ratio for the direction of the light source of the illuminance sensor 600 based on the calculated ratio change, and respond to the direction of the light source based on the determined correction ratio It is possible to control related operations for correcting the intensity of illumination. According to one embodiment, the operation of the processor 120 is described below.
  • the processor 120 may include at least one component (or module) for an operation according to an embodiment of the present disclosure.
  • the processor 120 includes at least one functional module such as a light source direction estimation module 1010, a ratio change determination module 1020, a correction ratio determination module 1030, and/or a brightness adjustment module 1040.
  • the functional modules are included in the processor 120 as hardware modules (eg, circuitry), and/or software including one or more instructions executable by the processor 120. can be implemented as For example, operations performed by the processor 120 may be executed by instructions stored in the memory 130 and causing the processor 120 to operate when executed.
  • the light source direction prediction module 1010 may calculate (eg, predict) a location light source direction of an external light source from data obtained through the light sensor 700 of the illuminance sensor module 900 . According to an embodiment, the light source direction prediction module 1010 determines the direction of the light source and the incident angle at which light is incident from the light source based on data (eg, sensing values of incident light) acquired from the plurality of light sensors 700. can do. In an embodiment, the light source direction estimation module 1010 may obtain data (or information) related to an incident angle of light by an external light source using the optical sensor 700 .
  • the light source direction prediction module 1010 determines the amount of light that is projected onto the optical sensor 700 from a plurality of optical sensors 700 disposed to surround the illuminance sensor 600 outside the illuminance sensor 600. Data related to the angle of incidence can be obtained.
  • the data related to the incident angle of light is information for determining whether or not the light source is photometric for the illuminance sensor 600, for example, whether or not light is detected and/or detected by the plurality of light sensors 700. It may include information related to the amount of light (and/or intensity of light).
  • the data related to the angle of incidence of light may include an angle of incidence of light and/or a range of angles of incidence of light.
  • the light source direction prediction module 1010 uses a plurality of optical sensors 700 disposed outside the illuminance sensor 600 to determine the intensity of light projected onto an area corresponding to each optical sensor 700. (e.g. data related to the incident angle of light) can be measured.
  • the processor 120 may determine the intensity of light projected onto a first area where the first optical sensor 710 is disposed, the intensity of light projected onto a second region where the second optical sensor 720 is disposed, and a third The intensity of light projected onto the third region where the optical sensor 730 is disposed and/or the intensity of light projected onto the fourth region where the fourth optical sensor 740 is disposed may be acquired.
  • the light source direction estimation module 1010 may obtain the intensity of light projected onto a corresponding region from the plurality of light sensors 700 disposed in an area around the illuminance sensor 600 .
  • the light source direction prediction module 1010 may calculate (eg, predict) the direction of the light source based on data obtained from the light sensor 700 .
  • the light source direction prediction module 1010 may include a position of at least one optical sensor 700 transmitting data among a plurality of optical sensors 700 and/or a position transmitted from the at least one optical sensor 700.
  • the direction of the light source may be determined based on the size of data (eg, light intensity).
  • the light source direction prediction module 1010 determines that the light source moves to the left when the data of the optical sensors 710 and 720 disposed in the first region 910 in the upper right direction among the regions of the optical sensor 700 increases. It can be determined that it is located in the lower direction. For example, the light source direction prediction module 1010 determines that, when the data of the light sensors 720 and 730 disposed in the second area 920 in the lower right direction among the areas of the light sensor 700 increases, the light source It can be determined that it is located in the upper left direction.
  • the light source direction prediction module 1010 determines that the light source direction is It can be determined that it is located in the upper right direction. For example, the light source direction prediction module 1010 determines that, when the data of the optical sensors 740 and 710 disposed in the fourth region 940 in the upper-left direction among the regions of the optical sensor 700 increases, the light source moves to the right. It can be determined that it is located in the lower direction.
  • the light source direction prediction module 1010 may obtain information about an incident angle of light by comparing the intensity of light that is projected onto at least one area where the light sensor 700 is disposed. For example, the light source direction prediction module 1010 may estimate the inclination (or incident angle) of photometric light by comparing the intensity of light illuminated on a certain region. For example, the light source direction prediction module 1010 determines the intensity (eg, first intensity) of light projected onto the first optical sensor 710 in the first area 910 and the second optical sensor 720 in the first area.
  • the intensity eg, first intensity
  • the light source direction prediction module 1010 may determine whether the light emitted to the illuminance sensor 600 is metering based on whether the ratio of the incident angle and the reference angle (eg, vertical) exceeds a threshold value. there is.
  • the ratio change determination module 1020 may calculate a ratio change of an area receiving light from the photodiode of each channel of the illuminance sensor 600 in the direction of the light source calculated by the light source direction estimation module 1010. there is. According to an embodiment, the ratio change determination module 1020 calculates a change in the ALS/IR ratio in the calculated direction of the light source, compares the calculated ratio with a specified reference ratio, and determines whether the calculated ratio is deviated beyond a certain level. can determine whether
  • the correction ratio determining module 1030 determines the correction ratio for the direction of the light source based on the calculated ratio change when it is determined that the ratio calculated by the ratio determination module 1020 is distorted beyond a certain level. can decide According to an embodiment, the correction ratio determination module 1030 may determine the correction ratio based on a calculation formula such as the example of ⁇ Equation 1> described above.
  • the brightness adjustment module 1040 may correct the illuminance corresponding to the direction of the light source based on the determined correction ratio and adjust the brightness of the display module 160 based on the corrected illuminance.
  • the brightness adjustment module 1040 uses a correction value (eg, a correction ratio) corrected in accordance with the direction of the light source to calculate an illuminance (eg, an illuminance calculation formula as shown in Equation 2 below). ), the illuminance according to the direction of the light source may be corrected, and the brightness of the display module 160 may be adjusted to a brightness corresponding to the corrected illuminance.
  • the brightness adjustment module 1040 may correct an illuminance value measured in response to light acquired using the illuminance sensor 600 .
  • the brightness adjustment module 1040 may vary the degree of correcting the illuminance value according to the correction ratio.
  • the larger the incident angle the larger the dark area generated in the illuminance sensor 600 may be, and accordingly, the larger the incident angle, the larger the correction ratio and the larger the degree of correction of the illuminance value.
  • the brightness control module 1040 may correct a first illuminance value acquired through the illuminance sensor 600 to a second illuminance value when the incident angle of light falls within a first range (or first level).
  • the brightness control module 1040 determines the first light obtained through the illuminance sensor 600 when the incident angle of light falls within a second range (or second level) different from the first range (or first level).
  • the illuminance value may be corrected to a third illuminance value different from the second illuminance value.
  • the brightness adjustment module 1040 may determine the illuminance value based on an illuminance calculation formula such as ⁇ Equation 2>.
  • R may represent the intensity of light acquired through at least one red photodiode.
  • G may represent the intensity of light acquired through at least one green photodiode.
  • B may represent the intensity of light obtained through at least one blue photodiode.
  • C may represent the intensity of light acquired through at least one clear photodiode.
  • the coefficient may represent, for example, a correction ratio calculated by ⁇ Equation 1>.
  • the brightness control module 1040 may apply a coefficient having a first value (eg, a first correction ratio) to ⁇ Equation 2> to light having a first incident angle, and may have a second incident angle.
  • a coefficient having a second value for light (eg, a second correction ratio) may be applied to ⁇ Equation 2>.
  • the processor 120 may perform an application layer processing function requested by a user of the electronic device 101 .
  • the processor 120 may provide functional control and commands for various blocks of the electronic device 101 .
  • the processor 120 may perform calculations or data processing related to control and/or communication of each component of the electronic device 101 .
  • the processor 120 may include at least some of the components and/or functions of the processor 120 of FIG. 1 .
  • the processor 120 may be operatively connected to components of the electronic device 101 , for example.
  • the processor 120 may load commands or data received from other components of the electronic device 101 into the memory 130, process the commands or data stored in the memory 130, and store resultant data. there is.
  • the processor 120 may include processing circuitry and/or executable program elements. According to an embodiment, the processor 120 determines the biased light source (or light) generated due to the FOV limit according to the arrangement structure of the illuminance sensor and/or the display structure, based on the processing circuit and/or the executable program element. It is possible to control (or process) operations related to reducing miscalculation of illuminance due to orientation.
  • operations performed by the processor 120 may be implemented as a recording medium (or a computer program product).
  • the recording medium may include a non-transitory computer-readable recording medium in which a program for executing various operations performed by the processor 120 is recorded.
  • the embodiments described in this disclosure may be implemented in a recording medium readable by a computer or similar device using software, hardware, or a combination thereof.
  • the operations described in one embodiment are ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays) ), processors, controllers, micro-controllers, microprocessors, and/or electrical units for performing other functions. .
  • the recording medium includes an operation of obtaining a sensing value of incident light incident from an external light source through an optical sensor disposed in a form surrounding an illuminance sensor, and the light source based on the sensing value
  • An operation of calculating a direction of an operation of calculating a change in ratio of an area receiving light from a photodiode of each channel of the illuminance sensor in the calculated direction, and an operation of calculating a change in ratio of an area receiving light in the calculated direction, and an operation of calculating the direction of the light source of the illuminance sensor based on the calculated ratio change.
  • It may include a computer-readable recording medium recording a program for executing an operation of determining a correction ratio for , and an operation of correcting an illuminance corresponding to a direction of the light source based on the determined correction ratio.
  • the instructions include an operation of obtaining a sensing value of incident light through the optical sensor 700, calculating a direction of a light source based on the sensing value, and calculating a direction of each channel of the illuminance sensor 600 in the calculated direction.
  • It may include instructions for executing an operation of correcting the illuminance corresponding to .
  • the above operations performed by the processor 120 may be included in a computer-readable recording medium in which a program is recorded.
  • the electronic device 101 senses incident light incident from a display module (eg, the display module 160 of FIG. 1 , the display 201 or 301 of FIG. 2 or 3 ) and an external light source.
  • An illuminance sensor module eg, the illuminance sensor 600 of FIGS. 6, 7, or 10
  • an optical sensor eg, the optical sensor 700 of FIGS. 6, 7, or 10
  • a memory eg, the memory 130 of FIG. 1 or 10
  • a photodiode calculates a ratio change of an area receiving light, determines a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change, and determines a direction of the light source based on the determined correction ratio. It can operate to correct the illuminance corresponding to .
  • the optical sensor may be disposed in a form surrounding the illuminance sensor based on a horizontal reference point of the illuminance sensor.
  • a plurality of optical sensors may be formed to surround the illuminance sensor, and the plurality of optical sensors may be disposed in a symmetrical structure.
  • the optical sensor may include four optical sensors disposed above, below, left, and right outside the illuminance sensor.
  • the light sensor may include eight light sensors respectively disposed outside the upper, lower, left, right, upper left, upper right, lower left, and lower right edges of the illuminance sensor.
  • the processor may operate to calculate a direction of the light source based on a criterion in which the light source is incident when the light source is located in a direction perpendicular to the illuminance sensor.
  • the processor may operate to calculate a direction of the light source based on a degree to which incident light of the light source is sensed by the light sensor, using the light sensor disposed outside the illuminance sensor. there is.
  • the processor is configured to obtain data related to an incident angle of light shining onto the optical sensor from an optical sensor disposed outside the illuminance sensor and to surround the illuminance sensor, and Data related to is information for determining whether the light source is photometric for the illuminance sensor, and may include information related to whether or not light is sensed by the light sensor, the amount of detected light, and/or the intensity of light.
  • the processor determines the direction of the light source based on the position of at least one optical sensor transmitting the sensing value among the optical sensors and/or the size of the sensing value transmitted from the at least one optical sensor. can act to determine
  • the processor calculates a change in the ALS/IR ratio in the calculated direction of the light source, compares the calculated ratio with a designated reference ratio, and when the calculated ratio is distorted by more than a certain level, the calculation Based on the ratio change, a correction ratio for the direction of the light source may be determined.
  • the processor may operate to determine a correction ratio based on a ratio of an area illuminated by the light sensor according to the calculated photometric light source direction.
  • the processor may operate to correct the illuminance according to the direction of the light source by applying a correction ratio corrected corresponding to the direction of the light source to an illuminance calculation formula.
  • the processor may operate to adjust the brightness of the display module based on the corrected illuminance.
  • the electronic device 101 includes a display module (eg, the display module 160 of FIG. 1 , the display 201 or 301 of FIG. 2 or 3 ), an illuminance sensor (eg, the display module 160 of FIG. 6 , The illuminance sensor 600 of FIG. 7 or 10), an optical sensor disposed outside the illuminance sensor and configured to sense incident light incident from an external light source (eg, the optical sensor 700 of FIGS. 6, 7, or 10) )), a memory (eg, the memory 130 of FIG.
  • a display module eg, the display module 160 of FIG. 1 , the display 201 or 301 of FIG. 2 or 3
  • an illuminance sensor eg, the display module 160 of FIG. 6 , The illuminance sensor 600 of FIG. 7 or 10
  • an optical sensor disposed outside the illuminance sensor and configured to sense incident light incident from an external light source (eg, the optical sensor 700 of FIGS. 6, 7, or 10) )
  • a memory eg, the memory 130
  • a processor operatively connected to the display module, the illuminance sensor, the light sensor, and the memory, the processor comprising: Obtains a sensing value of the incident light through an optical sensor, calculates a ratio of an area receiving light from a photodiode of each channel of the illumination sensor based on the sensing value, and calculates a ratio of the illumination sensor based on the calculated ratio.
  • a correction ratio for the direction of the light source may be determined, and an illumination intensity may be corrected based on the determined correction ratio.
  • Operations performed by the electronic device 101 described below are performed by the processor 120 including various processing circuitry and/or executable program elements of the electronic device 101. can be executed According to an embodiment, operations performed by the electronic device 101 may be executed by instructions that are stored in the memory 130 and cause the processor 120 to operate when executed.
  • FIG. 11 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
  • FIG. 11 illustrates direction calculation of a light source based on data measured from a plurality of light sensors 700 disposed outside an illuminance sensor 600 in an electronic device 101 according to an embodiment, and An example of an operation of correcting the illuminance according to FIG.
  • the processor 120 of the electronic device 101 may measure ambient light around the electronic device 101 through the light sensor 600 . According to an embodiment, the processor 120 may obtain data about the intensity of light in bands corresponding to the R, G, B, and C channels.
  • the processor 120 may obtain data about the intensity of light in a band corresponding to the red filter from at least one photodiode including a red filter (eg, a red photodiode) among the photodiodes.
  • the processor 120 may obtain data about the intensity of light in a band corresponding to the green filter from at least one photodiode including a green filter (eg, a green photodiode) among the photodiodes.
  • the processor 120 may obtain data about the intensity of light in a band corresponding to the blue filter from at least one photodiode including a blue filter (eg, a blue photodiode) among the photodiodes.
  • the processor 120 may obtain data about the intensity of light in a band corresponding to the clear filter from at least one photodiode including a clear filter (eg, a clear photodiode) among the photodiodes.
  • the processor 120 may calculate illuminance based on data obtained for each channel.
  • the processor 120 may correct the illuminance using data obtained through the light sensor 700 when calculating (or measuring) the illuminance. To this end, when measuring the illuminance, the processor 120 may correct the illuminance based on the incident angle of light projected onto the illuminance sensor 600 through operations 1101 to 1109 .
  • the processor 120 of the electronic device 101 may obtain data (or information) related to an incident angle of light from an external light source using the optical sensor 700.
  • the processor 120 determines the incident angle of light emitted to the optical sensor 700 from the plurality of optical sensors 700 arranged to surround the illuminance sensor 600 outside the illuminance sensor 600.
  • data can be obtained.
  • the data related to the incident angle of light is information for determining whether or not the light source is photometric for the illuminance sensor 600, for example, whether or not light is detected and/or detected by the plurality of light sensors 700. It may include information related to the amount of light (and/or intensity of light).
  • the data related to the angle of incidence of light may include an angle of incidence of light and/or a range of angles of incidence of light.
  • the processor 120 uses a plurality of optical sensors 700 disposed outside the illuminance sensor 600 to determine the intensity of light (for example: data related to the incident angle of light) can be measured.
  • the processor 120 may determine the intensity of light projected onto a first area where the first optical sensor 710 is disposed, the intensity of light projected onto a second region where the second optical sensor 720 is disposed, and a third The intensity of light projected onto the third region where the optical sensor 730 is disposed and/or the intensity of light projected onto the fourth region where the fourth optical sensor 740 is disposed may be acquired.
  • the processor 120 may obtain the intensity of light projected onto a corresponding region from the plurality of light sensors 700 disposed in the surrounding region of the illuminance sensor 600 .
  • the processor 120 may calculate the direction of the light source based on data obtained from the light sensor 700.
  • the processor 120 may include a position of at least one optical sensor 700 transmitting data among a plurality of optical sensors 700 and/or a size of data transmitted from the at least one optical sensor 700. (e.g. light intensity) to determine the direction of the light source.
  • the processor 120 determines that, when data of the optical sensors 710 and 720 disposed in the first region 910 in the upper right direction among the regions of the optical sensor 700 increases, the light source moves to the lower left corner. It can be judged by being located in the direction.
  • the processor 120 moves the light source in the upper left direction. location can be judged.
  • the processor 120 when the data of the optical sensors 730 and 740 disposed in the third region 930 in the lower left direction among the regions of the optical sensor 700 increases, sets the light source to the upper right corner. It can be judged by being located in the direction.
  • the processor 120 when the data of the optical sensors 740 and 710 disposed in the fourth region 940 in the upper left direction among the regions of the optical sensor 700 increases, the light source moves to the lower right corner. It can be judged by being located in the direction.
  • the processor 120 may obtain information about an incident angle of light by comparing an intensity of light that is projected onto at least one area where the light sensor 700 is disposed. For example, the processor 120 may estimate the inclination (or incidence angle) of photometric light by comparing the intensity of light illuminated on a certain area. For example, the processor 120 determines the intensity (eg, first intensity) of light projected onto the first optical sensor 710 in the first region 910 and the intensity of light projected onto the second optical sensor 720 in the first region. It can be determined that the larger the difference in intensity (eg, the second intensity) is, the larger the incident angle of light is, and the smaller the difference between the first and second intensities is, the smaller the incident angle of light is.
  • the intensity eg, first intensity
  • the processor 120 may determine whether the light projected onto the illuminance sensor 600 is metering based on whether the ratio of the incident angle and the reference angle (eg, vertical) exceeds a threshold value. For example, the processor 120 may compare the intensity of light projected onto the light sensor 700 to determine whether or not photometric light is projected onto the illuminance sensor 600 .
  • the processor 120 may calculate a rate change based on the direction of the light source. According to an embodiment, the processor 120 may calculate a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor 600 in the calculated direction of the light source. According to an embodiment, the processor 120 calculates a change in the ALS/IR ratio in the calculated direction of the light source, compares the calculated ratio with a designated reference ratio, and determines whether the calculated ratio is distorted by a certain amount or more. can do.
  • the processor 120 may determine a correction ratio based on the ratio change. According to an embodiment, the processor 120 may determine a correction ratio for the direction of the light source based on a change in the calculated ratio when it is determined that the calculated ratio is distorted beyond a certain level. According to an embodiment, the processor 120 may determine the correction ratio based on a calculation formula such as the example of ⁇ Equation 1> described above. According to an embodiment, the processor 120 calculates the ALS/IR ratio based on a formula for compensating the light source direction and the angle of the tilted set (eg, the illuminance sensor module 900) in the calculated light source direction.
  • the processor 120 may determine the degree of correction for correcting the illuminance according to a range of incident angles in which the incident angle of light deviates from a specified range by a predetermined amount or more.
  • the processor 120 may correct the illuminance based on the correction ratio.
  • the processor 120 applies a correction value (eg, a correction ratio) corrected in accordance with the direction of the light source to an illuminance calculation formula (eg, an illuminance calculation formula as shown in Equation 2).
  • a correction value eg, a correction ratio
  • an illuminance calculation formula eg, an illuminance calculation formula as shown in Equation 2
  • the processor 120 may correct an illuminance value measured in response to light acquired using the illuminance sensor 600 .
  • the processor 120 may vary the degree of correcting the illuminance value according to the correction ratio.
  • the larger the incident angle, the larger the dark area generated in the illuminance sensor 600 may be, and accordingly, the larger the incident angle, the larger the correction ratio and the larger the degree of correction of the illuminance value.
  • the processor 120 may correct the first illuminance value obtained through the illuminance sensor 600 to the second illuminance value when the incident angle of light falls within the first range (or first level).
  • the processor 120 determines the first illuminance value obtained through the illuminance sensor 600 when the incident angle of light falls within a second range (or second level) different from the first range (or first level). may be corrected with a third illuminance value different from the second illuminance value.
  • the processor 120 may determine the illuminance value based on an illuminance calculation formula such as the example of Equation 2. For example, the processor 120 may apply a coefficient (eg, a first correction ratio) having a first value to light having a first incident angle to ⁇ Equation 2>, and may apply a coefficient having a first value to light having a second incident angle. A coefficient having a second value (eg, a second correction ratio) may be applied to ⁇ Equation 2>.
  • a coefficient eg, a first correction ratio
  • the processor 120 may adjust the brightness of the display module 160 based on the corrected illuminance.
  • the processor 120 may obtain an illuminance value close to the illuminance of the actual electronic device 101 by considering the incident angle of light measured by the optical sensor 700, and thus the surroundings of the actual electronic device 101.
  • the brightness of the display module 1600 may be adjusted to suit the environment.
  • operations 1101 to 1111 may be repeatedly or periodically performed while a function for automatically adjusting the brightness of the display module 160 is being executed.
  • the processor 120 may operate to correct the illuminance by performing the operation of FIG. 11 based on whether a change in the illuminance value or a change in the posture of the electronic device 101 is detected. . For example, when a posture change of the electronic device 101 occurs, the incident angle of light projected onto the optical sensor 700 also changes, so the illuminance value may be corrected based on the new incident angle.
  • An operating method performed by the electronic device 101 includes an optical sensor (eg, the illuminance sensor 600 of FIGS. 6, 7, or 10) disposed in a form surrounding an illuminance sensor (eg, the illuminance sensor 600 of FIG. 6, 7, or 10). Obtaining a sensing value of incident light incident from an external light source through the optical sensor 700 of FIG. 6, FIG.
  • a plurality of optical sensors may be formed, and the plurality of optical sensors may be disposed in a symmetrical structure.
  • the operation of calculating the direction of the light source may include an operation of calculating the direction of the light source based on a criterion in which the light source is located in a direction perpendicular to the illuminance sensor and is incident.
  • the calculating of the direction of the light source may include obtaining data related to an incident angle of light shining onto the optical sensor from the optical sensor disposed outside the illuminance sensor to surround the illuminance sensor. and determining a direction of the light source based on data related to the incident angle of light, wherein the data related to the incident angle of light is information for determining whether the light source is photometric for the illuminance sensor, It may include information related to whether light is detected by the light sensor, the amount of light detected, and/or the intensity of light.
  • the operation of determining the correction ratio may include an operation of determining the correction ratio based on a ratio of an area illuminated by the light sensor according to the calculated photometry of the direction of the light source.
  • the operation of correcting the illuminance may include an operation of correcting the illuminance according to the direction of the light source by applying a correction ratio corrected corresponding to the direction of the light source to an illuminance calculation formula.
  • the operation of correcting the illuminance may include adjusting the brightness of the display module based on the corrected illuminance.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Telephone Function (AREA)

Abstract

Embodiments of the present disclosure provide a method and device for improving the accuracy of ambient light measurement in an electronic device. An electronic device according to an embodiment of the present disclosure may comprise: a display module; an ambient light sensor comprising an ambient light sensor set to sense incident light which falls incident from an external light source, and an optical sensor; a memory; and a processor. The processor may operate so as to obtain a sensing value of the incident light by means of the optical sensor. The processor may operate so as to calculate the direction of the light source on the basis of the sensing value. The processor may operate so as to calculate the change in ratio of the area of a photodiode of each channel of the ambient light sensor receiving light from the calculated direction. The processor may operate so as to determine a correction ratio with respect to the direction of the light source of the ambient light sensor, on the basis of the calculated change in the ratio. The processor may operate so as to correct ambient light corresponding to the direction of the light source, on the basis of the determined correction ratio. Various embodiments are possible.

Description

전자 장치에서 조도 측정의 정확도를 개선하기 위한 방법 및 장치Method and Apparatus for Improving Accuracy of Illuminance Measurement in Electronic Devices
본 개시의 실시예는 전자 장치에서 조도 측정의 정확도를 개선할 수 있는 방법 및 장치를 제공한다.Embodiments of the present disclosure provide a method and apparatus capable of improving the accuracy of illuminance measurement in an electronic device.
디지털 기술의 발달과 함께 이동통신 단말기, PDA(personal digital assistant), 전자수첩, 스마트 폰(smart phone), 태블릿(tablet) PC(personal computer), 웨어러블 디바이스(wearable device) 및/또는 랩탑(laptop) PC와 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 이러한, 전자 장치는 기능 지지 및 증대를 위해, 전자 장치의 하드웨어적인 부분 및/또는 소프트웨어적인 부분이 지속적으로 개발되고 있다.With the development of digital technology, mobile communication terminals, PDAs (personal digital assistants), electronic notebooks, smart phones, tablet PCs (personal computers), wearable devices and / or laptops Various types of electronic devices such as personal computers are widely used. In order to support and increase functions of these electronic devices, hardware parts and/or software parts of electronic devices are continuously being developed.
일 예로, 전자 장치는 시각적 지원을 위한 디스플레이를 포함하며, 디스플레이를 통해 다양한 컨텐츠들을 표시할 수 있다. 전자 장치는 사용자의 편의를 위해 디스플레이에 대한 밝기, 명암, 및/또는 휘도를 조절하는 기능을 제공하고 있다. 예를 들어, 전자 장치는 조도 센서(ALS, ambient light sensor)를 이용하여 주변 밝기(ambient light)를 감지하고, 주변 밝기에 대응하여 디스플레이의 밝기를 자동으로 조절하는 기능을 포함하고 있다. 전자 장치는 디스플레이의 디스플레이 영역 이외의 인액티브(inactive) 영역(예: 베젤 배치 구조)(예: BM(black matrix) 영역 또는 비활성화 영역) 또는 디스플레이의 액티브(active) 영역(예: 언더 패널 배치 구조)에 조도 센서를 배치(또는 포함)할 수 있고, 조도 센서를 통해 주변 밝기를 측정하여, 이를 바탕으로 디스플레이의 밝기를 자동 조절할 수 있다.For example, an electronic device includes a display for visual support and can display various contents through the display. Electronic devices provide a function of adjusting brightness, contrast, and/or luminance of a display for user convenience. For example, the electronic device includes a function of detecting ambient light using an ambient light sensor (ALS) and automatically adjusting the brightness of the display in response to the ambient light. The electronic device may be used in an inactive area other than the display area of the display (eg, a bezel arrangement structure) (eg, a black matrix (BM) area or an inactive area) or an active area of the display (eg, an under-panel arrangement structure) ), an illuminance sensor can be placed (or included), and the brightness of the display can be automatically adjusted based on the measured ambient brightness through the illuminance sensor.
최근에는 디스플레이 기술의 발전 및/또는 조도 센서의 배치 구조(예: 언더 패널 배치 구조)에 따라, 조도 센서가 FOV(field of view) 한계로 인해 주변 밝기의 센싱이 부정확하거나, 정확한 센싱이 어려울 수 있다. 이에, 사용자가 어두운 환경으로 이동 시, 디스플레이가 주변 밝기에 대응하는 밝기가 아닌, 보다 어둡거나 보다 밝은 밝기로 동작할 수 있다. 예를 들면, 전자 장치는 조도 센서를 디스플레이의 인액티브 영역 또는 액티브 영역에 배치하는 경우, FOV 한계로 인해 조도 센서에서 측정하는 조도(또는 조도 값)의 정확도가 떨어질 수 있다.Recently, depending on the development of display technology and/or the layout structure of the illuminance sensor (e.g., under-panel layout structure), the ambient brightness sensing may be inaccurate or difficult to accurately sense due to the FOV (field of view) limitation of the illuminance sensor. there is. Accordingly, when the user moves to a dark environment, the display may operate with a brightness that is darker or brighter than the brightness corresponding to the ambient brightness. For example, when an electronic device arranges an illuminance sensor in an inactive area or an active area of a display, accuracy of illuminance (or illuminance value) measured by the illuminance sensor may deteriorate due to a FOV limit.
다양한 실시예들에서는, 조도 센서(ALS, ambient light sensor)의 배치 구조 및/또는 디스플레이 구조에 따른 FOV(field of view) 한계로 인해 발생하는 광원(또는 빛)의 편중된 방향 때문에 조도가 오계산 되는 것을 감소시킬 수 있는 방법 및 장치에 관하여 개시한다.In various embodiments, illuminance is miscalculated due to a biased direction of a light source (or light) that occurs due to a field of view (FOV) limit according to an arrangement structure of an ambient light sensor (ALS) and/or a display structure. It discloses a method and device that can reduce the
다양한 실시예들에서는, 외부 광원(예: IR 광원)의 방향을 계산(예: 예측)하고, 외부 광원의 각도 및/또는 방향에 따른 값의 변화를 이용하여 측정 조도를 보정하여, 조도 측정의 정확도를 향상할 수 있는 방법 및 장치에 관하여 개시한다.In various embodiments, the direction of an external light source (eg, an IR light source) is calculated (eg, predicted), and the measured illuminance is corrected using a change in value according to the angle and/or direction of the external light source, so as to measure the illuminance. A method and apparatus capable of improving accuracy are disclosed.
다양한 실시예들에서는, 외부 광원의 방향을 계산하여 해당 방향에서 FOV 한계에 따른 비율의 변화를 계산하고, 계산된 비율을 보상하여 조도 측정의 정확도를 향상할 수 있는 방법 및 장치에 관하여 개시한다.In various embodiments, a method and apparatus capable of improving the accuracy of illuminance measurement by calculating a direction of an external light source, calculating a change in ratio according to a FOV limit in the corresponding direction, and compensating for the calculated ratio are disclosed.
다양한 실시예들에서는, 조도 센서의 외곽에 광 센서(예: IR PD)를 배치하고, 광 센서를 이용하여 외부 광원의 방향을 계산하고, 계산된 방향에서 조도 센서와 IR 간의 비율(예: ALS/IR 비율)의 변화를 계산하고, 계산된 비율이 일정 이상으로 틀어지는 경우 비율을 광원의 방향에 대응하는 보정 비율에 기반하여 조도를 보정하여 조도의 정확도를 높이고 자동 밝기 기능의 오동작을 감소시킬 수 있는 방법 및 장치에 관하여 개시한다.In various embodiments, an optical sensor (eg, IR PD) is disposed outside the illuminance sensor, a direction of an external light source is calculated using the optical sensor, and a ratio between the illuminance sensor and IR (eg, ALS) is calculated in the calculated direction. /IR ratio), and if the calculated ratio is distorted beyond a certain level, the ratio is corrected based on the correction ratio corresponding to the direction of the light source to increase the accuracy of the illuminance and reduce the malfunction of the automatic brightness function. A method and apparatus are disclosed.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved in this document is not limited to the technical problem mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.
본 개시의 일 실시예에 따른 전자 장치는, 디스플레이, 외부 광원으로부터 입사되는 입사광을 센싱하도록 설정된 조도 센서 및 광 센서를 포함하는 조도 센서, 메모리, 및 상기 디스플레이, 상기 조도 센서, 및 상기 메모리와 작동적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 광 센서를 통해 상기 입사광의 센싱 값을 획득하도록 동작할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 센싱 값에 기반하여 상기 광원의 방향을 계산하도록 동작할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 계산된 방향에서 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하도록 동작할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 계산된 비율 변화에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하도록 동작할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 결정된 보정 비율에 기반하여 상기 광원의 방향에 대응하는 조도를 보정하도록 동작할 수 있다.An electronic device according to an embodiment of the present disclosure includes a display, an illuminance sensor including an illuminance sensor configured to sense incident light incident from an external light source, and an optical sensor, a memory, and operation with the display, the illuminance sensor, and the memory. It may include an enemy-connected processor. According to an embodiment, the processor may operate to obtain a sensing value of the incident light through the optical sensor. According to an embodiment, the processor may operate to calculate the direction of the light source based on the sensing value. According to an embodiment, the processor may operate to calculate a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor in the calculated direction. According to an embodiment, the processor may operate to determine a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change. According to an embodiment, the processor may operate to correct the illuminance corresponding to the direction of the light source based on the determined correction ratio.
본 개시의 일 실시예에 따른 전자 장치는, 디스플레이, 조도 센서, 상기 조도 센서의 외곽에 배치되고, 외부 광원으로부터 입사되는 입사광을 센싱하도록 설정된 광 센서, 메모리, 및 상기 디스플레이, 상기 조도 센서, 상기 광 센서, 및 상기 메모리와 작동적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 광 센서를 통해 상기 입사광의 센싱 값을 획득하도록 동작할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 센싱 값에 기반하여 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율을 계산하도록 동작할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 계산된 비율에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하도록 동작할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 결정된 보정 비율에 기반하여 조도를 보정하도록 동작할 수 있다.An electronic device according to an embodiment of the present disclosure includes a display, an illuminance sensor, an optical sensor disposed outside the illuminance sensor and set to sense incident light incident from an external light source, a memory, and the display, the illuminance sensor, and the display. an optical sensor, and a processor operatively coupled with the memory. According to an embodiment, the processor may operate to obtain a sensing value of the incident light through the optical sensor. According to an embodiment, the processor may operate to calculate a ratio of an area receiving light from a photodiode of each channel of the illuminance sensor based on the sensing value. According to an embodiment, the processor may operate to determine a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio. According to an embodiment, the processor may operate to correct illuminance based on the determined correction ratio.
본 개시의 일 실시예에 따른 전자 장치의 동작 방법은, 조도 센서를 에워싸는 형태로 배치된 광 센서를 통해, 외부 광원으로부터 입사되는 입사광의 센싱 값을 획득하는 동작을 포함할 수 있다. 동작 방법은, 상기 센싱 값에 기반하여 상기 광원의 방향을 계산하는 동작을 포함할 수 있다. 상기 동작 방법은, 상기 계산된 방향에서 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하는 동작을 포함할 수 있다. 동작 방법은, 상기 계산된 비율 변화에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하는 동작을 포함할 수 있다. 동작 방법은, 상기 결정된 보정 비율에 기반하여 상기 광원의 방향에 대응하는 조도를 보정하는 동작을 포함할 수 있다.An operating method of an electronic device according to an embodiment of the present disclosure may include an operation of obtaining a sensing value of incident light incident from an external light source through an optical sensor disposed to surround an illuminance sensor. The operating method may include calculating a direction of the light source based on the sensing value. The operation method may include an operation of calculating a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor in the calculated direction. The operating method may include determining a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change. The operating method may include correcting an illuminance corresponding to a direction of the light source based on the determined correction ratio.
상기와 같은 과제를 해결하기 위하여 본 개시의 다양한 실시예들에서는, 상기 방법을 프로세서에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.In various embodiments of the present disclosure to solve the above problems, a computer-readable recording medium in which a program for executing the method in a processor may be included.
일 실시예에 따르면, 하나 이상의 프로그램들을 저장하는 비 일실적(non-transitory) 컴퓨터 판독 가능 저장 매체(또는 컴퓨터 프로그램 프로덕트(product))가 기술된다. 일 실시예에 따르면, 하나 이상의 프로그램들은, 전자 장치의 프로세서에 의해 실행될 시, 조도 센서를 에워싸는 형태로 배치된 광 센서를 통해, 외부 광원으로부터 입사되는 입사광의 센싱 값을 획득하는 동작, 상기 센싱 값에 기반하여 상기 광원의 방향을 계산하는 동작, 상기 계산된 방향에서 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하는 동작, 상기 계산된 비율 변화에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하는 동작, 및 상기 결정된 보정 비율에 기반하여 상기 광원의 방향에 대응하는 조도를 보정하는 동작을 수행하는 명령어를 포함할 수 있다.According to one embodiment, a non-transitory computer readable storage medium (or computer program product) storing one or more programs is described. According to one embodiment, one or more programs, when executed by a processor of an electronic device, obtain a sensing value of incident light incident from an external light source through an optical sensor disposed in a form surrounding an illuminance sensor, the sensing value Calculating the direction of the light source based on the calculated direction, calculating the ratio change of the area receiving light from the photodiode of each channel of the illuminance sensor in the calculated direction, and the illumination sensor based on the calculated ratio change may include instructions for performing an operation of determining a correction ratio for the direction of the light source and an operation of correcting the illuminance corresponding to the direction of the light source based on the determined correction ratio.
본 개시의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 개시의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 개시의 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다.Additional scope of applicability of the present disclosure will become apparent from the detailed description that follows. However, since various changes and modifications within the spirit and scope of the present disclosure may be clearly understood by those skilled in the art, it should be understood that the detailed description and specific embodiments such as the preferred embodiments of the present disclosure are given by way of example only.
본 개시의 일 실시예에 따른 전자 장치, 그의 동작 방법 및 기록 매체에 따르면, 조도 센서(ALS, ambient light sensor)의 배치 구조 및/또는 디스플레이 구조에 따른 FOV(field of view) 한계로 인해 발생하는 광원(또는 빛)의 편중된 방향(예: 측광)으로 인해 조도가 오계산 되는 것을 감소시킬 수 있다. 일 실시예에 따르면, 전자 장치는 외부 광원의 방향을 계산(예: 예측)하고, 외부 광원의 각도 및/또는 방향에 따른 값의 변화를 이용하여 측정 조도를 보정하여, 조도 측정의 정확도를 향상할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 외부 광원의 방향을 계산하여 해당 방향에서 FOV 한계에 따른 비율의 변화를 계산하고, 계산된 비율이 일정 이상으로 틀어지는 상황을 판단하고, 이를 보상할 수 있다. According to an electronic device, an operating method thereof, and a recording medium according to an embodiment of the present disclosure, the field of view (FOV) limit according to the arrangement structure and / or display structure of an ambient light sensor (ALS) occurs. It is possible to reduce the miscalculation of the illuminance due to the biased direction of the light source (or light) (e.g., photometry). According to an embodiment, the electronic device calculates (eg, predicts) the direction of an external light source and corrects the measured illuminance using a change in value according to the angle and/or direction of the external light source, thereby improving the accuracy of the illuminance measurement. can do. According to an embodiment, the electronic device 101 may calculate a direction of an external light source, calculate a change in a ratio according to a FOV limit in the corresponding direction, determine a situation in which the calculated ratio is distorted beyond a certain level, and compensate for this. there is.
일 실시예에 따르면, 전자 장치(101)는 외부 광원의 방향을 계산하도록 조도 센서의 외곽에 광 센서(예: IR PD)를 배치할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 광원의 방향(예: 측광 방향)에서 조도 센서의 각 채널 별 포토다이오드의 수광 및 IR의 수광 간의 비율(예: ALS/IR 비율)의 차이로 광원의 측광 방향에 대해 보상하는 보정 값을 산출할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 산출된 보정 값을 통해 조도의 럭스(lux)의 계산식에 적용하여 외부 광원(예: IR 광원)에서의 조도 측정의 정확도를 개선할 수 있다.According to an embodiment, the electronic device 101 may dispose an optical sensor (eg, IR PD) outside the illuminance sensor to calculate the direction of the external light source. According to an embodiment, the electronic device 101 detects a light source according to a difference in a ratio (eg, ALS/IR ratio) between photodiode light reception and IR light reception for each channel of an illuminance sensor in a direction of a light source (eg, a light metering direction). It is possible to calculate a correction value that compensates for the photometric direction of . According to an embodiment, the electronic device 101 may apply the calculated correction value to a lux calculation formula to improve the accuracy of illuminance measurement in an external light source (eg, an IR light source).
본 개시의 실시예에 따르면, 조도 센서의 외곽에 광 센서를 배치하고, 광 센서를 이용하여 외부 광원의 방향을 계산하고, 계산된 방향에서 ALS/IR 비율의 변화를 계산하고, 계산된 비율이 일정 이상으로 틀어지는 경우 비율 변화를 고려하여, 광원의 방향에 대응하는 보정 비율을 결정하고, 결정된 보정 비율에 기반하여 조도를 보정하여 조도의 정확도를 높이고 자동 밝기 기능의 오동작을 감소시킬 수 있다.According to an embodiment of the present disclosure, an optical sensor is disposed outside the illuminance sensor, a direction of an external light source is calculated using the optical sensor, a change in ALS/IR ratio is calculated in the calculated direction, and the calculated ratio is When the ratio is distorted beyond a certain level, a correction ratio corresponding to the direction of the light source is determined in consideration of the ratio change, and the illumination intensity is corrected based on the determined correction ratio to increase the accuracy of the illumination intensity and reduce the malfunction of the automatic brightness function.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다. 본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.In addition to this, various effects identified directly or indirectly through this document may be provided. Effects obtainable in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below. will be.
도면 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.In the description of the drawings, the same or similar reference numerals may be used for the same or similar elements.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.1 is a block diagram of an electronic device in a network environment according to various embodiments.
도 2는 일 실시예에 따른 전자 장치의 예를 도시하는 도면이다.2 is a diagram illustrating an example of an electronic device according to an embodiment.
도 3은 일 실시예에 따른 전자 장치의 예를 도시하는 도면이다. 3 is a diagram illustrating an example of an electronic device according to an embodiment.
도 4는 조도 센서에서 광원의 방향에 따른 빛 수광량의 차이를 설명하기 위한 도면이다. 4 is a diagram for explaining a difference in light reception amount according to a direction of a light source in an illuminance sensor.
도 5는 광원의 방향에 따른 빛 수광량 방향과 특정 방향에서의 빛 수광 원리를 설명하기 위한 도면이다.5 is a view for explaining the direction of the amount of light received according to the direction of the light source and the principle of receiving light in a specific direction.
도 6은 일 실시예에 따른 전자 장치에서 조도 센서를 구성하는 예를 도시하는 도면이다.6 is a diagram illustrating an example of configuring an illuminance sensor in an electronic device according to an exemplary embodiment.
도 7은 일 실시예에 따른 전자 장치에서 조도 센서를 구성하는 예를 도시하는 도면이다.7 is a diagram illustrating an example of configuring an illuminance sensor in an electronic device according to an exemplary embodiment.
도 8은 조도 센서의 파장에 따른 상대적인 민감도를 나타내는 그래프 예를 도시하는 도면이다.8 is a diagram illustrating an example of a graph showing relative sensitivity according to wavelengths of an illuminance sensor.
도 9는 일 실시예에 따른 도 6의 광 센서의 배치 구조에서 광원의 방향을 계산하는 동작 예를 설명하기 위한 도면이다.FIG. 9 is a diagram for explaining an example of an operation of calculating a direction of a light source in the optical sensor arrangement structure of FIG. 6 according to an exemplary embodiment.
도 10은 일 실시예에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다.10 is a diagram schematically illustrating a configuration of an electronic device according to an exemplary embodiment.
도 11은 일 실시예에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.11 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
도 1은 다양한 실시예들에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 1 is a block diagram of an electronic device 101 within a network environment 100 according to various embodiments.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1 , in a network environment 100, an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 . According to an embodiment, the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or the antenna module 197 may be included. In some embodiments, in the electronic device 101, at least one of these components (eg, the connection terminal 178) may be omitted or one or more other components may be added. In some embodiments, some of these components (eg, sensor module 176, camera module 180, or antenna module 197) are integrated into a single component (eg, display module 160). It can be.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치(CPU, central processing unit) 또는 어플리케이션 프로세서(AP, application processor)) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치(GPU, graphic processing unit), 신경망 처리 장치(NPU, neural processing unit), 이미지 시그널 프로세서(ISP, image signal processor), 센서 허브 프로세서(sensor hub processor), 또는 커뮤니케이션 프로세서(CP, communication processor))를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (eg, the program 140) to cause at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 . According to an embodiment, the processor 120 may include a main processor 121 (eg, a central processing unit (CPU) or an application processor (AP)) or a secondary processor (which may be operated independently of or together with the main processor 121). 123) (e.g., graphic processing unit (GPU), neural processing unit (NPU), image signal processor (ISP), sensor hub processor, or communication processor (CP, communication processor)). For example, when the electronic device 101 includes the main processor 121 and the auxiliary processor 123, the auxiliary processor 123 may use less power than the main processor 121 or be set to be specialized for a designated function. can The secondary processor 123 may be implemented separately from or as part of the main processor 121 .
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(inactive)(예: 슬립(sleep)) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 may At least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or At least some of the functions or states related to the communication module 190) may be controlled. According to one embodiment, the auxiliary processor 123 (eg, an image signal processor or a communication processor) may be implemented as part of other functionally related components (eg, the camera module 180 or the communication module 190). there is. According to an embodiment, the auxiliary processor 123 (eg, a neural network processing device) may include a hardware structure specialized for processing an artificial intelligence model. AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited. The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples. The artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 . The data may include, for example, input data or output data for software (eg, program 140) and commands related thereto. The memory 130 may include volatile memory 132 or non-volatile memory 134 .
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(OS, operating system)(142), 미들 웨어(middleware)(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130, and may include, for example, an operating system (OS) 142, middleware 144, or an application 146. there is.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive a command or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside of the electronic device 101 (eg, a user). The input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101 . The sound output module 155 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. A receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 may visually provide information to the outside of the electronic device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to an embodiment, the display module 160 may include a touch sensor configured to detect a touch or a pressure sensor configured to measure the intensity of force generated by the touch.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 may convert sound into an electrical signal or vice versa. According to an embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a bio sensor, It may include a temperature sensor, humidity sensor, or light sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD(secure digital) 카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, a secure digital (SD) card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 may capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 may manage power supplied to the electronic device 101 . According to one embodiment, the power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101 . According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN(wide area network))와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported. The communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 190 may be a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, a : a local area network (LAN) communication module or a power line communication module). Among these communication modules, a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, a legacy communication module). It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunications network such as a LAN or wide area network (WAN)). These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips). The wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The electronic device 101 may be identified or authenticated.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB, enhanced mobile broadband), 단말 전력 최소화와 다수 단말의 접속(mMTC, massive machine type communications), 또는 고신뢰도와 저지연(URLLC, ultra-reliable and low-latency communications)을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO, full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology). NR access technologies include high-speed transmission of high-capacity data (eMBB, mobile broadband), minimization of terminal power and access of multiple terminals (mMTC, massive machine type communications), or high-reliability and low-latency (URLLC, ultra-reliable and low-latency communications) can be supported. The wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO, full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported. The wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199). According to one embodiment, the wireless communication module 192 may be used to realize peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency (for realizing URLLC). Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) may be supported.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device). According to an embodiment, the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna. According to some embodiments, other components (eg, a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module 197 in addition to the radiator.
다양한 실시예들에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, the mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first surface (eg, a bottom surface) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, array antennas) disposed on or adjacent to a second surface (eg, a top surface or a side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( e.g. commands or data) can be exchanged with each other.
일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC, mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.According to an embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 . Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 . According to an embodiment, all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 . For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself. Alternatively or additionally, one or more external electronic devices may be requested to perform the function or at least part of the service. One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 . The electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed. To this end, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an internet of things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199 . The electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish that component from other corresponding components, and may refer to that component in other respects (eg, importance or order) is not limited. A (eg, first) component is said to be "coupled" or "connected" to another (eg, second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document provide one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101). It may be implemented as software (eg, the program 140) including them. For example, a processor (eg, the processor 120 ) of a device (eg, the electronic device 101 ) may call at least one command among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱(heuristic)하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, the operations performed by a module, program or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations are executed in a different order. may be added, omitted, or one or more other actions may be added.
본 개시의 다양한 실시예들을 서술하기에 앞서, 본 개시의 실시예가 적용될 수 있는 전자 장치(101)에 대하여 설명한다.Prior to describing various embodiments of the present disclosure, an electronic device 101 to which embodiments of the present disclosure may be applied will be described.
도 2는 일 실시예에 따른 전자 장치의 일 예를 도시하는 도면이다. 2 is a diagram illustrating an example of an electronic device according to an embodiment.
도 3은 일 실시예에 따른 전자 장치의 일 예를 도시하는 도면이다.3 is a diagram illustrating an example of an electronic device according to an exemplary embodiment.
일 실시예에 따르면, 도 2 및 도 3은 본 개시의 실시예에 따른 센서 회로(예: 조도 센서 및/또는 근조도 센서)가 전자 장치(101)에 배치되는 구조의 다양한 예를 나타낼 수 있다.According to one embodiment, FIGS. 2 and 3 may show various examples of a structure in which a sensor circuit (eg, an illuminance sensor and/or a roughness sensor) according to an embodiment of the present disclosure is disposed in the electronic device 101. .
도 2 및 도 3을 참조하면, 일 실시예에 따른 전자 장치(101)는, 전면, 후면, 및 전면 및 후면 사이의 공간을 둘러싸는 측면을 포함하는 하우징(200, 300)을 포함할 수 있다. 일 실시예에서는, 하우징(200, 300)은, 전면, 후면, 및 측면들 중 일부를 형성하는 구조를 지칭할 수도 있다. Referring to FIGS. 2 and 3 , an electronic device 101 according to an embodiment may include housings 200 and 300 including a front side, a back side, and side surfaces surrounding a space between the front and rear sides. . In one embodiment, the housings 200 and 300 may refer to a structure forming some of the front, rear, and side surfaces.
일 실시예에 따르면, 전면은 적어도 일부분이 실질적으로 투명한 전면 플레이트(210, 310)(예: 다양한 코팅 레이어들을 포함하는 글라스 플레이트(glass plate), 또는 폴리머 플레이트(polymer plate))에 의하여 형성될 수 있다. 일 실시예에 따르면, 후면은 실질적으로 불투명한 후면 플레이트(미도시)에 의하여 형성될 수 있다. 예를 들면, 후면 플레이트는 코팅 또는 착색된 유리, 세라믹, 폴리머, 금속(예: 알루미늄(aluminum), 스테인레스 스틸(STS, stainless steel), 또는 마그네슘(magnesium)), 또는 상기 물질들 중 적어도 둘의 조합에 의하여 형성될 수 있다. 일 실시예에 따르면, 측면은 전면 플레이트(210, 310) 및 후면 플레이트와 결합하며, 금속 및/또는 폴리머를 포함하는 측면 베젤 구조(또는 "측면 부재")에 의하여 형성될 수 있다. 어떤 실시예에서는, 후면 플레이트 및 측면 베젤 구조는 일체로 형성되고 동일한 물질(예: 알루미늄과 같은 금속 물질)을 포함할 수 있다.According to one embodiment, the front surface may be formed by a front plate 210, 310 that is at least partially transparent (eg, a glass plate including various coating layers, or a polymer plate). there is. According to one embodiment, the back surface may be formed by a substantially opaque back plate (not shown). For example, the back plate may be coated or tinted glass, ceramic, polymer, metal (eg, aluminum, stainless steel (STS), or magnesium), or at least two of the foregoing. can be formed by combination. According to an embodiment, the side surfaces may be coupled to the front plates 210 and 310 and the rear plates and may be formed by a side bezel structure (or “side member”) including metal and/or polymer. In some embodiments, the back plate and side bezel structure may be integrally formed and include the same material (eg, a metal material such as aluminum).
일 실시예에 따르면, 디스플레이(201, 301)(예: 도 1의 디스플레이 모듈(160))는, 예를 들어, 전면 플레이트(210, 310)의 상당 부분을 통하여 노출될 수 있다. 디스플레이(201, 301)는 LCD(liquid crystal display), OLED(organic light emitting diode), 또는 AMOLED(active matrix OLED)를 포함하는 다양한 형태로 구현될 수 있다. 디스플레이(201, 301)는 프로세서(예: 도 1의 프로세서(120))의 제어에 기반하여 동영상 또는 정지 영상을 표시할 수 있으며, 디스플레이(201, 301) 상의 다양한 외부 객체(예: 사람의 손, 스타일러스 펜)에 의한 입력을 수신할 수 있다. 디스플레이(201, 301)는 다양한 외부 객체에 의한 입력을 수신하기 위해서 터치 센서를 포함할 수 있다. 일 실시예에 따르면, 디스플레이(201, 301)는, 터치 감지 회로(또는 터치 센서), 터치의 세기(압력)를 측정할 수 있는 압력 센서, 및/또는 자기장 방식의 스타일러스 펜을 검출하는 디지타이저와 결합되거나 인접하여 배치될 수 있다.According to an embodiment, the displays 201 and 301 (eg, the display module 160 of FIG. 1 ) may be exposed, for example, through a significant portion of the front plates 210 and 310 . The displays 201 and 301 may be implemented in various forms including a liquid crystal display (LCD), an organic light emitting diode (OLED), or an active matrix OLED (AMOLED). The displays 201 and 301 may display moving images or still images based on the control of a processor (eg, the processor 120 of FIG. 1 ), and may display various external objects (eg, human hands) on the displays 201 and 301 . , stylus pen) may receive an input. The displays 201 and 301 may include touch sensors to receive inputs from various external objects. According to an embodiment, the display 201 or 301 includes a touch sensing circuit (or touch sensor), a pressure sensor capable of measuring the strength (pressure) of a touch, and/or a digitizer that detects a magnetic stylus pen and They may be combined or placed adjacent to each other.
일 실시예에 따라, 도 2에서는 근접 센서, 조도 센서, 및/또는 근조도 센서를 포함하는 센서 모듈(230)이 전자 장치(101)의 전면 플레이트(210)에 배치되는 예를 나타낼 수 있다. According to one embodiment, FIG. 2 may show an example in which the sensor module 230 including a proximity sensor, an illuminance sensor, and/or a roughness sensor is disposed on the front plate 210 of the electronic device 101 .
도 2를 참조하면, 일 실시예에 따른 전자 장치(101)는, 디스플레이(201), 전면 플레이트(210), 및 하우징(200)을 포함하고, 전면 플레이트(210)에 디스플레이(201), 음향 출력 장치(220), 센서 모듈(230), 카메라 모듈(240), 및/또는 인디케이터(250)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성 요소들 중 적어도 하나(예: 인디케이터(250))를 생략하거나 다른 구성요소를 추가적으로 포함할 수 있다.Referring to FIG. 2 , an electronic device 101 according to an exemplary embodiment includes a display 201, a front plate 210, and a housing 200, and the display 201 and sound are mounted on the front plate 210. It may include an output device 220 , a sensor module 230 , a camera module 240 , and/or an indicator 250 . In some embodiments, the electronic device 101 may omit at least one of the components (eg, the indicator 250) or may additionally include other components.
일 실시예에 따라, 도 3에서는 근접 센서, 조도 센서, 및/또는 근조도 센서를 포함하는 센서 모듈(330)이 전자 장치(101)의 디스플레이(301) 아래(예: 언더 패널(under panel))에 배치되는 예를 나타낼 수 있다. According to an embodiment, in FIG. 3 , a sensor module 330 including a proximity sensor, an illuminance sensor, and/or a roughness sensor is located under the display 301 of the electronic device 101 (eg, under the panel). ).
도 3을 참조하면, 일 실시예에 따른 전자 장치(101)는, 디스플레이(301), 전면 플레이트(310), 및 하우징(300)을 포함하고, 디스플레이(301) 아래에 센서 모듈(330)과 카메라 모듈(340)을 포함할 수 있다. 도 3에서는 도시하지 않았으나, 전자 장치(101)는 도 2를 참조한 설명 부분에서 설명한 바와 같은 다른 구성요소(예: 음향 출력 장치(220), 인디케이터(250))를 추가적으로 포함할 수 있다. 일 실시예에 따르면, 도 3의 실시예에 따른 전자 장치(101)는 베젤 영역에서 가장 자리에 음향 출력 장치(220)가 배치될 수 있다. 일 실시예에 따르면, 도 3의 실시예에 따른 전자 장치(101)는 디스플레이(301)(예: OLED)를 진동판으로 사용하는 언더 패널 스피커를 포함할 수도 있다. 예를 들면, 언더 패널 스피커는 디스플레이(301) 아래에 배치되어 외관 상으로 보이지 않을 수 있다.Referring to FIG. 3 , an electronic device 101 according to an embodiment includes a display 301, a front plate 310, and a housing 300, and a sensor module 330 and a sensor module 330 under the display 301. A camera module 340 may be included. Although not shown in FIG. 3 , the electronic device 101 may additionally include other components (eg, the sound output device 220 and the indicator 250) as described in the description with reference to FIG. 2 . According to an embodiment, in the electronic device 101 according to the embodiment of FIG. 3 , the audio output device 220 may be disposed at the edge of the bezel area. According to an embodiment, the electronic device 101 according to the embodiment of FIG. 3 may include an under panel speaker using the display 301 (eg, OLED) as a diaphragm. For example, an under-panel speaker may be placed under the display 301 and not visible from the outside.
도 2 및 도 3에서, 음향 출력 장치(220)는 스피커를 포함할 수 있다. 스피커는 통화용 리시버를 포함할 수 있다. 센서 모듈(230, 330)은 전자 장치(101)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(230, 330)은, 예를 들어, 근접 센서, 조도 센서, 및/또는 근조도 센서를 포함할 수 있다. 근접 센서는 전자 장치(101)에 근접하는 외부 객체를 감지할 수 있다. 근접 센서는 적외선을 발광하는 발광부 및 외부 객체에 의해 반사된 적외선을 수신하는 수광부를 포함할 수 있다. 조도 센서는 전자 장치(101) 주변의 조도(illumination)(예: 주변의 밝기를 조도 센서가 감지한 크기(단위: lux))를 측정할 수 있다. 조도 센서는 미리 생성된 홀을 통해 빛의 광량을 측정하는 방식으로 조도를 측정할 수 있다.2 and 3 , the sound output device 220 may include a speaker. The speaker may include a receiver for a call. The sensor modules 230 and 330 may generate electrical signals or data values corresponding to an internal operating state of the electronic device 101 or an external environmental state. The sensor modules 230 and 330 may include, for example, a proximity sensor, an illuminance sensor, and/or a roughness sensor. The proximity sensor may detect an external object approaching the electronic device 101 . The proximity sensor may include a light emitter that emits infrared rays and a light receiver that receives infrared rays reflected by an external object. The illuminance sensor may measure illumination around the electronic device 101 (eg, a magnitude (unit: lux) detected by the ambient brightness). The illuminance sensor may measure illuminance by measuring the amount of light through a pre-created hole.
도 2 및 도 3에서, 카메라 모듈(240, 240)(예: 도 1의 카메라 모듈(180))은 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 어떤 실시예에서는, 2개 이상의 렌즈들(예: 광각 및 망원 렌즈) 및 이미지 센서들이 전자 장치(101)의 한 면(예: 전면 및/또는 후면)에 배치될 수 있다. 인디케이터(250)는, 예를 들어, 전자 장치(101)의 상태 정보를 광 형태로 제공할 수 있다. 일 실시예에서는, 인디케이터(250)는 카메라 모듈(240, 240)의 동작과 연동되는 광원을 제공할 수 있다. 인디케이터(250)는, 예를 들어, LED(light emitting diode), IR(infrared) LED, 반도체 레이저(LD, laser diode) 및/또는 제논 램프(xenon lamp)와 같은 발광 소자(luminous element)를 포함할 수 있다.In FIGS. 2 and 3 , the camera modules 240 and 240 (eg, the camera module 180 of FIG. 1 ) may include one or a plurality of lenses, an image sensor, and/or an image signal processor. In some embodiments, two or more lenses (eg, wide-angle and telephoto lenses) and image sensors may be disposed on one side (eg, front and/or rear) of the electronic device 101 . The indicator 250 may provide, for example, state information of the electronic device 101 in the form of light. In one embodiment, the indicator 250 may provide a light source interlocked with the operation of the camera modules 240 and 240 . The indicator 250 includes, for example, a luminous element such as a light emitting diode (LED), an infrared (IR) LED, a laser diode (LD), and/or a xenon lamp. can do.
도 2에서, 센서 모듈(230)(예: 근접 센서, 조도 센서)(예: 도 1의 센서 모듈(176))은 하우징(200)의 전면 플레이트(210) 상에 배치될 수 있다. 예를 들면, 전자 장치(101)는 디스플레이(201)의 인액티브(inactive) 영역에 조도 센서를 배치할 수 있고, 조도 센서는 조도(또는 주변 밝기(ambient light))를 측정하여, 이를 바탕으로 디스플레이(201)의 밝기를 조절하는 용도로 이용할 수 있다. 도 3에서, 센서 모듈(330)은 하우징(300)의 전면 및 전면과 마주보는 후면의 사이에서 디스플레이(301)의 아래에 배치될 수도 있다. 예를 들면, 전자 장치(101)는 디스플레이(301)의 액티브(active) 영역에 조도 센서를 배치할 수 있고, 조도 센서는 디스플레이 오프 타임(display off time)(또는 디스플레이 오프 구간)에서 조도(또는 주변 밝기)를 측정하여, 이를 바탕으로 디스플레이(301)의 밝기를 조절하는 용도로 이용할 수 있다. In FIG. 2 , a sensor module 230 (eg, a proximity sensor, an ambient light sensor) (eg, the sensor module 176 of FIG. 1 ) may be disposed on the front plate 210 of the housing 200 . For example, the electronic device 101 may place an illuminance sensor in an inactive area of the display 201, the illuminance sensor measures illuminance (or ambient light), and based on this, It can be used for adjusting the brightness of the display 201. In FIG. 3 , the sensor module 330 may be disposed below the display 301 between the front surface of the housing 300 and the rear surface facing the front surface. For example, the electronic device 101 may place an illuminance sensor in an active area of the display 301, and the illuminance sensor may adjust the illuminance (or Ambient brightness) can be measured, and based on this, it can be used for adjusting the brightness of the display 301 .
일 실시예에 따라, 전자 장치(101)는 COPR(color on pixel ratio) 정보를 이용하여 조도 측정 값을 보정할 수도 있다. 예를 들면, 조도 센서가 디스플레이 오프 타임에만 조도를 측정하여 디스플레이(201, 301)로부터의 영향을 최소화 할 수 있고, 추가적으로, 디스플레이(201, 301)에서 표시되는 색상에 기반하여 조도 측정 값을 보정할 수도 있다.According to an embodiment, the electronic device 101 may correct an illuminance measurement value using color on pixel ratio (COPR) information. For example, the illuminance sensor may measure the illuminance only during the display off time to minimize the influence of the display 201 or 301, and additionally correct the illuminance measurement value based on the color displayed on the display 201 or 301. You may.
일 실시예에 따라, 디스플레이(201, 301)의 디스플레이 오프 타임은, 조도 센서가 조도 센싱 시 디스플레이(201, 301) 밝기의 영향을 받지 않기 위한 시간을 나타낼 수 있다. 예를 들면, 디스플레이 오프 타임은 디스플레이(201, 301)의 표시로 인한 조도 측정 영향을 줄이기 위한 타이밍을 제어하는 데 사용될 수 있다. 일 실시예에 따라, COPR 정보는 디스플레이(201, 301)에서 표시되는 색상을 기반으로 조도 측정 값을 보정하기 위해 사용될 수 있다. 일 예로, 흰색은 밝고, 흑색은 어둡기 때문에, 색상에 따른 보정치를 다르게 할 수 있다. 일 예로, 디스플레이(201, 301)에서 표시되는 색상 중에서 적색이 많은 경우 조도 센서의 RGB(red, green, blue) 채널 중 R 채널의 값이 높게 출력될 수 있으며, 조도 센서의 R 채널 값을 보정할 수 있다.According to an embodiment, the display off time of the display 201 or 301 may indicate a time for the illuminance sensor not to be affected by the brightness of the display 201 or 301 when sensing the illuminance. For example, the display off time can be used to control the timing to reduce the impact of the illumination measurement due to the display of the displays 201 and 301 . According to an embodiment, the COPR information may be used to correct an illuminance measurement value based on a color displayed on the displays 201 and 301 . For example, since white is bright and black is dark, correction values may be different according to colors. For example, when there is a large amount of red among the colors displayed on the displays 201 and 301, a high value of the R channel among red, green, and blue (RGB) channels of the illuminance sensor may be output, and the R channel value of the illuminance sensor is corrected. can do.
최근에는, 전자 장치(101)의 디스플레이(201, 301)는 전면 상에서 차지하는 영역이 증가된 디자인(예: 베젤리스 디스플레이)으로 구현될 수 있고, 전면 상에 배치된 다양한 부품(예: 도 3의 센서 모듈(330), 카메라 모듈(340))을 디스플레이(301)와 후면 사이에 배치하거나, 또는 디스플레이(301) 내부에 배치할 수 있다. 일 실시예에 따르면, 근접 센서, 조도 센서 및/또는 카메라 모듈(340)은 언더 디스플레이 센서(under display sensor) 구조로 디스플레이(301)와 후면 사이(또는, 디스플레이(301)의 하부(예: 언더 패널))에 배치될 수 있다. 일 실시예에 따르면, 센서 모듈(330)(예: 근접 센서, 조도 센서) 및/또는 카메라 모듈(340)은 인 디스플레이 센서(in display sensor) 구조로 디스플레이(301)와 일체형으로 구성되어 디스플레이(301) 안에 형성될 수 있다. 인 디스플레이 센서 구조의 경우, 예를 들면, 터치스크린 패널 기술의 한 종류인 “OCTA(on cell touch AMOLED)” 구조와 같이, 셀 위에 센서(예: 센서 모듈(330) 및/또는 카메라 모듈(340))을 바로 증착하는 구조를 포함할 수 있다. Recently, the displays 201 and 301 of the electronic device 101 may be implemented with a design with an increased area occupied on the front surface (eg, a bezel-less display), and various parts disposed on the front surface (eg, shown in FIG. 3 ). The sensor module 330 and the camera module 340) may be disposed between the display 301 and the rear surface or may be disposed inside the display 301 . According to an embodiment, the proximity sensor, illuminance sensor, and/or camera module 340 has an under display sensor structure between the display 301 and the rear surface (or the lower part of the display 301 (eg, the under display sensor)). panel)). According to one embodiment, the sensor module 330 (eg, a proximity sensor, an illuminance sensor) and/or the camera module 340 have an in-display sensor structure and are integrated with the display 301 to display ( 301) can be formed in. In the case of an in-display sensor structure, for example, a sensor (eg, a sensor module 330 and/or a camera module 340) on a cell, such as an “on cell touch AMOLED (OCTA)” structure, which is a kind of touch screen panel technology. ))) may be included.
최근에는 디스플레이(301)가 전면 상에서 차지하는 영역이 증가하면서, 전면 상에 배치된 다양한 부품들(예: 근접 센서, 조도 센서, 및/또는 카메라 모듈)이 배치될 영역의 크기가 작아지고 있다. 예를 들면, 디스플레이(301)가 차지하는 영역이 증가하면서, 상대적으로 베젤 영역이 협소하여 디스플레이(301)와 나란히 전자 부품을 탑재하는 것이 어려울 수 있다. 이에, 전자 부품을 디스플레이(301)와 후면 플레이트 사이 또는 디스플레이(301) 안에 배치하는 디스플레이 구조가 증가하고 있다. Recently, as the area occupied by the display 301 on the front increases, the size of the area where various components (eg, a proximity sensor, an illuminance sensor, and/or a camera module) are disposed on the front is decreasing. For example, as the area occupied by the display 301 increases, it may be difficult to mount electronic components alongside the display 301 due to a relatively narrow bezel area. Accordingly, display structures in which electronic components are disposed between the display 301 and the back plate or within the display 301 are increasing.
한편, 전자 장치(101)에서 조도 센서의 배치 구조에 따라, 조도 센서가 FOV(field of view) 한계로 인해 주변 밝기의 센싱이 부정확하거나, 정확한 센싱이 어려울 수 있다. 예를 들면, 전자 장치(101)는 조도 센서를 디스플레이의 인액티브 영역 또는 액티브 영역에 배치하는 경우, 조도 센서에서 측정하는 조도(또는 조도 값)의 정확도가 떨어질 수 있다. 예를 들면, 조도 센서는 인액티브 영역 또는 액티브 영역에 미리 생성된 홀을 통해 외부 광원을 수신하여 광량을 측정하는 방식으로 조도를 측정할 수 있다. 하지만, 미리 생성된 홀 설계의 한계로 인해 조도 센서의 전체 영역이 아닌 일부 영역(예: 특정 포토다이오드 영역)으로 빛이 편중되어 입사되는 경우가 발생할 수 있다. 이러한 경우, 조도 센서에서 조도 센서의 각 채널 별 포토다이오드의 수광 및 IR의 수광 간의 비율(예: ALS/IR 비율)의 변화에 따른 조도 정확도가 감소될 수 있으며, 이는 전자 장치(101)에서 디스플레이 자동 밝기 제어에 오동작으로 이어질 수 있다. Meanwhile, depending on the arrangement structure of the illuminance sensor in the electronic device 101, sensing of the ambient brightness may be inaccurate or difficult due to the field of view (FOV) limit of the illuminance sensor. For example, when the electronic device 101 arranges an illuminance sensor in an inactive area or an active area of a display, the accuracy of illuminance (or illuminance value) measured by the illuminance sensor may deteriorate. For example, the illuminance sensor may measure the illuminance by receiving an external light source through a pre-created hole in the inactive area or the active area and measuring the amount of light. However, due to limitations of the pre-created hole design, light may be biased and incident to a partial area (eg, a specific photodiode area) rather than the entire area of the illuminance sensor. In this case, the illuminance accuracy according to the change in the ratio between photodiode light reception and IR light reception for each channel of the illuminance sensor (eg, ALS/IR ratio) may be reduced, which is It may lead to malfunction of automatic brightness control.
예를 들면, 조도 센서에서 ALS/IR의 비율이 지정된 기준 비율과 달라지게 되면 조도 정확도에 영향을 미칠 수 있다. 특히, 태양광에서 이러한 정확도 문제가 발생할 수 있으며, 전자 장치(101)(또는 조도 센서 세트)의 기울기 각도에 따라 포토다이오드의 비균일한 배치, 및 포토다이오드의 필터의 투과 성능이 영향을 미칠 수 있다. 이의 예시에 대하여 도 4 및 도 5를 참조하여 설명한다.For example, if the ratio of ALS/IR in the ambient light sensor is different from the specified reference ratio, the ambient light accuracy may be affected. In particular, such an accuracy problem may occur in sunlight, and the non-uniform arrangement of the photodiodes and the transmission performance of the filter of the photodiodes may be affected according to the inclination angle of the electronic device 101 (or the illuminance sensor set). there is. An example thereof will be described with reference to FIGS. 4 and 5 .
도 4는 조도 센서에서 광원의 방향에 따른 빛 수광량의 차이를 설명하기 위한 도면이다. 4 is a diagram for explaining a difference in light reception amount according to a direction of a light source in an illuminance sensor.
도 5는 광원의 방향에 따른 빛 수광량 방향과 특정 방향에서의 빛 수광 원리를 설명하기 위한 도면이다.5 is a view for explaining the direction of the amount of light received according to the direction of the light source and the principle of receiving light in a specific direction.
도 4 및 도 5에 도시한 바와 같이, 광원(450)의 방향에 따른 FOV 한계에 따라 조도 센서(400)의 포토다이오드(410)의 빛 수광량에 차이가 발생할 수 있다. 예를 들면, 예시 <401> 및 예시 <501>은 광원(450)이 조도 센서(400)와 수직 방향에 위치하는 경우의 예를 나타낼 수 있다. 예시 <403> 및 예시 <503>은 광원(450)이 조도 센서(400)와 수직 방향이 아닌 제1 방향(예: 좌측, 우측, 상측 또는 하측)으로 치우쳐(또는 기울어져) 위치하는 경우의 예를 나타낼 수 있다. 예시 <405> 및 예시 <505>는 광원(450)이 조도 센서(400)와 수직 방향이 아닌 제2 방향(예: 좌측, 우측, 상측 또는 하측)으로 치우쳐 위치하는 경우의 예를 나타낼 수 있다. As shown in FIGS. 4 and 5 , a difference may occur in the amount of light received by the photodiode 410 of the illuminance sensor 400 according to the FOV limit according to the direction of the light source 450 . For example, examples <401> and <501> may represent examples in which the light source 450 is positioned in a direction perpendicular to the illuminance sensor 400 . Examples <403> and <503> are cases in which the light source 450 is biased (or tilted) in a first direction (eg, left, right, upper, or lower) that is not perpendicular to the illuminance sensor 400. example can be given. Examples <405> and <505> may represent examples in which the light source 450 is biased in a second direction (eg, left, right, upper, or lower) that is not perpendicular to the illuminance sensor 400. .
일 실시예에서, 광원(450)의 방향이 조도 센서(400)에 대해 수직 방향이 아닌 다른 방향에 기울어지는 상황은, 예를 들면, 조도 센서(400)가 빛이 대각 방향으로 수광하는 경우일 수 있다. 이는, 조도 센서(400)가 광원(450)과 수직으로 위치하지 않거나, 또는 조도 센서(400)(또는 전자 장치(101))가 어느 일 방향으로 기울어져 있는 상황을 포함할 수 있다. In one embodiment, the situation in which the direction of the light source 450 is inclined in a direction other than the vertical direction with respect to the illuminance sensor 400 is, for example, when the illuminance sensor 400 receives light in a diagonal direction. can This may include a situation where the illuminance sensor 400 is not positioned perpendicular to the light source 450 or the illuminance sensor 400 (or the electronic device 101) is tilted in one direction.
예시 <401> 및 예시 <501>을 참조하면, 광원(450)이 조도 센서(400)와 수직 방향에 위치하는 경우, 조도 센서(400)의 포토다이오드(410)의 전체 영역(A)을 통해 광원(450)에 대한 빛이 수광될 수 있다. Referring to Example <401> and Example <501>, when the light source 450 is positioned in a direction perpendicular to the illuminance sensor 400, through the entire area A of the photodiode 410 of the illuminance sensor 400. Light for the light source 450 may be received.
예시 <403> 및 예시 <503>을 참조하면, 광원(450)이 조도 센서(400)와 수직 방향이 아닌 제1 측으로 치우친 방향에 위치하는 경우, FOV 한계에 따라 조도 센서(400)의 포토다이오드(410)의 전체 영역(A)이 아닌 일부 영역(예: B 영역과 같이 특정 포토다이오드 영역)을 통해 광원(450)에 대한 빛이 수광될 수 있다.Referring to Example <403> and Example <503>, when the light source 450 is located in a direction biased toward the first side instead of perpendicular to the illuminance sensor 400, the photodiode of the illuminance sensor 400 according to the FOV limit Light from the light source 450 may be received through a partial area (eg, a specific photodiode area such as area B) instead of the entire area A of 410 .
예시 <405> 및 예시 <505>를 참조하면, 광원(450)이 조도 센서(400)와 수직 방향이 아닌 제2 측으로 치우친 방향에 위치하는 경우, FOV 한계에 따라 조도 센서(400)의 포토다이오드(410)의 전체 영역(A)이 아닌 일부 영역(예: C 영역과 같이 특정 포토다이오드 영역)을 통해 광원(450)에 대한 빛이 수광될 수 있다.Referring to Examples <405> and <505>, when the light source 450 is located in a direction biased toward the second side instead of being perpendicular to the illuminance sensor 400, the photodiode of the illuminance sensor 400 according to the FOV limit Light from the light source 450 may be received through a partial area (eg, a specific photodiode area such as area C) instead of the entire area A of 410 .
예를 들면, 조도 센서(400)는, 광원(450)으로부터 빛을 받는 포토다이오드(410)의 영역이 넓을수록 입사되는 광량이 많아지고 ADC(analog digital converter) 값이 높게 센싱될 수 있고, 광원(450)으로부터 빛을 받는 포토다이오드(410)의 영역이 적을수록 입사되는 광량이 적어지고 ADC 값이 낮게 센싱될 수 있다. 예를 들면, 조도 센서(400)는 FOV 한계에 따른 광원(450)의 방향에 따라 포토다이오드(410)가 빛을 받는 영역이 달라질 수 있다.For example, in the illuminance sensor 400, the larger the area of the photodiode 410 that receives light from the light source 450, the greater the amount of incident light and the higher the analog digital converter (ADC) value. As the area of the photodiode 410 receiving light from 450 decreases, the incident light amount decreases and the ADC value can be sensed as low. For example, in the illuminance sensor 400, the area where the photodiode 410 receives light may vary according to the direction of the light source 450 according to the FOV limit.
도 4 및 도 5에 예시한 바와 같이, 편향된 빛 수광이 이루어질 경우 조도 계산을 위해 지정된 산출 방법(또는 계산식)에 사용되는 ALS/IR 의 비율이 달라질 수 있다. 예를 들면, 조도 센서(400)의 포토다이오드(410)에서 빛이 수광되는 영역(또는 면적)에 따라, 포토다이오드(410)의 ALS 채널(예: R(red), G(green), B(blue), 및/또는 C(clear) 채널)의 수광과 IR의 수광 간의 비율(예: ALS/IR 비율)이 달라질 수 있다.As illustrated in FIGS. 4 and 5 , the ratio of ALS/IR used in a calculation method (or calculation formula) designated for calculating illuminance may vary when deflected light reception is performed. For example, according to the area (or area) in which light is received from the photodiode 410 of the illuminance sensor 400, the ALS channels of the photodiode 410 (eg, R (red), G (green), B A ratio between (blue), and/or C (clear) channel) light reception and IR light reception (eg, ALS/IR ratio) may vary.
예를 들면, ALS/IR 비율이 틀어지는 원리는 상기한 바와 같이 포토다이오드(410)의 전체 영역에서 광원(450)이 입사되는 각도에 따라 입사되는 영역(예: A 영역, B 영역 또는 C 영역)이 달라질 수 있고, 특정 각도에서 각 채널 별 포토다이오드가 빛을 받는 영역의 비율이 달라져서 채널 별 비율이 달라질 수 있다. 일 예로, 도 4 및 도 5의 예시와 같이, 조도 센서(400)를 기준으로 좌측, 우측, 상측 또는 하측과 같이 대각 방향(예: 측광)에서 빛이 입사하는 경우, 조도 센서(400)의 직각 위의 수직 방향에서 빛이 입사하는 환경과 다르게 IR 과 ALS의 비율이 틀어질 수 있다. 예를 들면, 조도 센서(400)는 어느 방향(예: 좌, 우, 상, 또는 하)에서 빛이 비춰지느냐에 따라 포토다이오드(410)가 고르게 빛을 받지 못하는 상황이 발생할 수 있고, 이러한 경우 비율 특성이 달라질 수 있다. For example, the principle in which the ALS/IR ratio is shifted is that, as described above, the light source 450 is incident on the entire area of the photodiode 410 according to the incident angle (eg, area A, area B, or area C). may be different, and the ratio of each channel may be different because the ratio of the area receiving light of the photodiode for each channel is different at a specific angle. For example, as shown in the examples of FIGS. 4 and 5 , when light is incident in a diagonal direction (eg, photometry) such as left, right, upper, or lower with respect to the illuminance sensor 400, the Unlike the environment in which light is incident in the vertical direction above the right angle, the ratio of IR and ALS may be distorted. For example, depending on which direction (eg, left, right, top, or bottom) light is emitted from the illuminance sensor 400, a situation may occur in which the photodiode 410 does not receive light evenly, and in this case The ratio characteristics may vary.
일 실시예에서, 앞서 개시와 같이, 조도 센서(400)가 기울어지거나, 또는 광원(450)과의 위치가 수직 범위를 벗어나 빛이 비스듬한 방향(예: 대각 방향)에서 측광으로 입사되는 경우, 광원(450)으로부터 빛을 받는 포토다이오드(410)의 개수가 달라지게 되며 그에 따라 비율이 달라질 수 있다. In one embodiment, as described above, when the illuminance sensor 400 is tilted or the position with the light source 450 is out of the vertical range and light is incident in an oblique direction (eg, a diagonal direction) as photometry, the light source The number of photodiodes 410 that receive light from 450 may vary, and the ratio may vary accordingly.
본 개시에서는, 조도 센서(400)와 광원(450)으로부터 빛이 수광되는 각도(예: 입사각)와 채널 별 데이터 간의 비율을 확인하고, 비율 변화를 확인하는 경우, 그 비율 차이에 따라 조도를 보정하도록 동작할 수 있다. 이를 통해, 본 개시에서는 디스플레이 모듈(160)의 자동 밝기 조절 시의 오동작을 감소시킬 수 있다.In the present disclosure, the ratio between the angle at which light is received from the illuminance sensor 400 and the light source 450 (eg, incident angle) and the data for each channel is checked, and when the ratio change is confirmed, the illumination intensity is corrected according to the ratio difference. can act to do so. Through this, in the present disclosure, malfunctions during automatic brightness control of the display module 160 may be reduced.
본 개시의 실시예에 따르면, 조도 센서(400)의 외곽(또는 주변)에 광원(450)의 방향을 식별할 수 있는 복수 개의 광 센서를 배치하고, 광 센서(예: IR PD)의 측정 값의 차이에 기반하여 광원(450)의 방향을 계산(예: 예측)하도록 할 수 있다. 이의 예가 도 6 및 도 7에 도시된다.According to an embodiment of the present disclosure, a plurality of optical sensors capable of identifying the direction of the light source 450 are disposed outside (or around) the illuminance sensor 400, and the measured values of the optical sensor (eg, IR PD) The direction of the light source 450 may be calculated (eg, predicted) based on the difference between . Examples of this are shown in FIGS. 6 and 7 .
도 6 및 도 7은 일 실시예에 따른 전자 장치에서 조도 센서를 구성하는 예를 도시하는 도면들이다. 6 and 7 are diagrams illustrating examples of configuring an illuminance sensor in an electronic device according to an exemplary embodiment.
도 8은 조도 센서의 파장에 따른 상대적인 민감도를 나타내는 그래프 예를 도시하는 도면이다.8 is a diagram illustrating an example of a graph showing relative sensitivity according to wavelengths of an illuminance sensor.
일 실시예에서, 도 6 및 도 7은 본 개시의 실시예에 따른 전자 장치(101)에서 조도 센서(600)의 다양한 구성 예를 나타낼 수 있다. 예를 들면, 본 개시의 실시예에 따르면, 전자 장치(101)는 조도 센서(600) 및 조도 센서(600)의 외곽에 복수 개의 광 센서(700)(예: 710, 720, 730, 740)를 포함하여 조도 센서 모듈(900)(또는 조도 센서 세트)을 구성할 수 있다. 예를 들면, 조도 센서 모듈(900)은 조도 센서(600)의 외곽에 복수 개의 광 센서(700)(예: 710, 720, 730, 740)를 이용하여 조도 센서(600)를 에워싸도록 배치하는 배치 구조를 포함할 수 있다. 일 실시예에 따르면, 광 센서(700)(예: 710, 720, 730, 740)는 조도 센서(600)의 수평 기준점(또는 평면 기준점)을 기준으로 조도 센서(600)를 에워싸는 형태로 배치될 수 있다. 6 and 7 may show various configuration examples of the illuminance sensor 600 in the electronic device 101 according to an embodiment of the present disclosure. For example, according to an embodiment of the present disclosure, the electronic device 101 includes an illuminance sensor 600 and a plurality of optical sensors 700 (eg, 710, 720, 730, and 740) outside the illuminance sensor 600. Including, the illuminance sensor module 900 (or illuminance sensor set) may be configured. For example, the illuminance sensor module 900 is arranged to surround the illuminance sensor 600 by using a plurality of optical sensors 700 (eg, 710, 720, 730, 740) outside the illuminance sensor 600. It may include a layout structure that According to an embodiment, the optical sensors 700 (eg, 710, 720, 730, and 740) may be disposed in a form surrounding the illuminance sensor 600 based on a horizontal reference point (or a flat reference point) of the illuminance sensor 600. can
도 6 및 도 7을 참조하면, 일 실시예에서, 조도 센서(600)는 주변 빛의 세기를 측정(또는 감지)하는 센서로, 예를 들면, 빛을 감지하여 로우 데이터(raw data)를 출력할 수 있다. 일 실시예에 따르면, 조도 센서(600)는 디스플레이(예: 도 1의 디스플레이 모듈(160))의 COPR 정보와의 동기화를 맞추기 위해 인터럽트 모드(interrupt mode)로 동작할 수 있다. 6 and 7, in one embodiment, the illuminance sensor 600 is a sensor that measures (or detects) the intensity of ambient light, for example, detects light and outputs raw data. can do. According to an embodiment, the illuminance sensor 600 may operate in an interrupt mode to synchronize with COPR information of a display (eg, the display module 160 of FIG. 1 ).
조도 센서(600)는 주변의 빛을 감지하기 위해 복수 개의 채널을 가질 수 있다. 예를 들면, 조도 센서(600)는, 일반적으로 가시광을 수신하기 위해 가시광의 레드(R, red), 그린(G, green), 블루(B, blue), 및 전체 가시광의 클리어(C, clear) 채널을 포함할 수 있다. 예를 들어, 조도 센서(600)는 가시광의 R, G, B 대역 및/또는 전체 가시광의 C 대역을 통해 수신되는 광량에 따른 신호 세기를 통해 조도 값을 결정할 수 있다. The illuminance sensor 600 may have a plurality of channels to detect ambient light. For example, the illuminance sensor 600 generally includes visible light red (R, green), blue (B, blue) of visible light, and all visible light clear (C, clear) in order to receive visible light. ) channels. For example, the illuminance sensor 600 may determine the illuminance value based on the signal intensity according to the amount of light received through the R, G, and B bands of visible light and/or the C band of all visible light.
조도 센서(600)는 각각의 채널에서 지정된 대역의 빛을 수광할 수 있고, 어떤 컬러의 외부 광이 수신되는지를 감지할 수 있다. 조도 센서(600)에서 개별 채널은 가시광 대역뿐만 아니라 적외선(IR) 대역의 빛도 수신할 수 있다. 예를 들면, 조도 센서(600)는 도 8의 예시와 같이, 약 450nm 대역, 약 550nm 대역, 및 약 650nm 대역의 빛을 받아들이는 R/G/B 채널을 포함할 수 있다. 일 실시예에 따르면, 조도 센서(600)는 IR대역(예: 약 940nm 대역)의 빛을 받아들이는 채널(예: C 채널)을 포함할 있다. The illuminance sensor 600 may receive light of a specified band in each channel and detect which color of external light is received. In the illuminance sensor 600, individual channels may receive light in an infrared (IR) band as well as a visible light band. For example, as illustrated in FIG. 8 , the illuminance sensor 600 may include R/G/B channels that receive light of about 450 nm band, about 550 nm band, and about 650 nm band. According to an embodiment, the illuminance sensor 600 may include a channel (eg, C channel) that receives light of an IR band (eg, a band of about 940 nm).
예를 들어, 도 8을 참조하면, 조도 센서(600)는 컬러에 따라 파장(wavelength) 별 포토다이오드(630)(예: 630-1, 630-2, 630-3, 630-4, 630-5)의 상대적인 민감도(relative sensitivity)가 달라질 수 있다. 예를 들면, 조도 센서(600)에서 블루 포토다이오드는 약 450nm 대역의 광에, 그린 포토다이오드는 약 550nm 대역의 광에, 레드 포토다이오드는 약 650nm 대역의 광에 각각 높은 응답성을 보일 수 있다. 예를 들면, 조도 센서(600)에서 클리어 포토다이오드는 약 450nm에서 약 940nm 대역의 광에 모두 높은 응답성을 보일 수 있다. 본 개시에서, 포토다이오드(630)(예: 630-1, 630-2, 630-3, 630-4, 630-5)의 각 대역의 예시는 개시된 예시에 한정되지 않으며, 예를 들면, 약 400nm 내지 약 1000nm 대역의 광을 받아 들이도록 구현하는 것과 같이 다양하게 설계될 수 있다.For example, referring to FIG. 8 , the illuminance sensor 600 includes photodiodes 630 for each wavelength according to color (eg, 630-1, 630-2, 630-3, 630-4, 630- The relative sensitivity of 5) may vary. For example, in the illuminance sensor 600, the blue photodiode can show high responsiveness to light of about 450 nm band, the green photodiode to light of about 550 nm band, and the red photodiode to light of about 650 nm band. . For example, in the illuminance sensor 600, the clear photodiode may show high response to light in a band of about 450 nm to about 940 nm. In the present disclosure, examples of each band of the photodiode 630 (eg, 630-1, 630-2, 630-3, 630-4, and 630-5) are not limited to the disclosed examples, and, for example, about It can be designed in various ways, such as being implemented to accept light in a band of 400 nm to about 1000 nm.
본 개시의 실시예에 따르면, 조도 센서 모듈(900)은 조도 센서(600)의 외곽에 복수 개의 추가적인 광 센서(700)(예: 710, 720, 730, 740)를 배치하여, 조도 센서 모듈(900)이 기울어지는 각도에 따른 IR(610)(예: 610-1, 610-2, 610-3, 610-4, 610-5, 610-6)의 수광 비율을 판단하여 외부 광원의 위치를 계산(예: 예측)하도록 할 수 있다. 일 실시예에 따르면, 광 센서(700)(예: 710, 720, 730, 740)는 주변 빛을 감지하는 센서로, 예를 들어, IR 포토다이오드(PD), 분광 센서(spectrometric sensor), RGB 센서, 및/또는 UV(ultraviolet) 센서와 같이 빛을 감지하는 모든 종류의 센서가 포함될 수 있다. According to an embodiment of the present disclosure, the illuminance sensor module 900 arranges a plurality of additional optical sensors 700 (eg, 710, 720, 730, 740) outside the illuminance sensor 600, and the illuminance sensor module ( 900) determine the position of the external light source by determining the light reception ratio of the IR (610) (e.g., 610-1, 610-2, 610-3, 610-4, 610-5, 610-6) according to the tilt angle. It can be calculated (e.g. predicted). According to an embodiment, the light sensor 700 (eg, 710, 720, 730, 740) is a sensor that detects ambient light, and is, for example, an IR photodiode (PD), a spectrometric sensor, RGB sensors, and/or all types of sensors that detect light, such as UV (ultraviolet) sensors.
일 실시예에서, 도 6은 조도 센서(600)의 외곽 주변에 4개의 광 센서(700)(예: 제1 광 센서(710), 제2 광 센서(720), 제3 광 센서(730) 및 제4 광 센서(740))가 대칭적으로 배치되는 제1 대칭 구조의 예를 나타낼 수 있다. 예를 들면, 조도 센서(600)를 기준으로, 조도 센서(600)를 에워싸는 형상으로 상, 하, 좌, 우에 4개의 광 센서(700)가 배치될 수 있다.In one embodiment, FIG. 6 shows four optical sensors 700 (eg, a first optical sensor 710, a second optical sensor 720, and a third optical sensor 730) around the outer periphery of the illuminance sensor 600. and a first symmetrical structure in which the fourth optical sensor 740 is symmetrically disposed. For example, four light sensors 700 may be disposed on top, bottom, left, and right sides of the illuminance sensor 600 in a shape surrounding the illuminance sensor 600 .
일 실시예에서, 도 7은 조도 센서(600)의 외곽 주변에 8개의 광 센서(700)(예: 제1 광 센서(710), 제2 광 센서(720), 제3 광 센서(730), 제4 광 센서(740), 제5 광 센서(715), 제6 광 센서(725), 제7 광 센서(735) 및 제8 광 센서(745))가 대칭적으로 배치되는 제2 대칭 구조의 예를 나타낼 수 있다. 예를 들면, 조도 센서(600)를 기준으로, 조도 센서(600)를 에워싸는 형상으로 상, 하, 좌, 우, 우상, 우하, 좌하, 및 좌상에 8개의 광 센서(700)(예: 710, 720, 730, 740, 715, 725, 735, 745)가 배치될 수 있다. In one embodiment, FIG. 7 shows eight optical sensors 700 (eg, a first optical sensor 710, a second optical sensor 720, and a third optical sensor 730) around the outer periphery of the illuminance sensor 600. , second symmetry in which the fourth optical sensor 740, the fifth optical sensor 715, the sixth optical sensor 725, the seventh optical sensor 735, and the eighth optical sensor 745) are symmetrically disposed. An example of a structure can be given. For example, based on the illuminance sensor 600, eight light sensors 700 (e.g., 710 , 720, 730, 740, 715, 725, 735, 745) may be disposed.
본 개시에서, 광 센서(700)의 배치는 도 6 또는 도 7의 예시에 제한되지 않으며, 광 센서(700)의 배치 위치는 기구적인 구조를 고려하여 다양하게 설계가능하며, 외부 광원의 방향(또는 위치)를 판단하기 위해 조도 센서(600)의 외곽에서 조도 센서(600)를 에워싸도록 배치 가능한 다양한 형태를 포함할 수 있다.In the present disclosure, the arrangement of the optical sensor 700 is not limited to the example of FIG. 6 or 7, and the position of the optical sensor 700 can be designed in various ways considering the mechanical structure, and the direction of the external light source ( Or position) may include various shapes that can be arranged to surround the illuminance sensor 600 in the outer periphery of the illuminance sensor 600 .
일 실시예에 따르면, 전자 장치(101)는 조도 센서 모듈(900)에서 광 센서(700) 중에서 적어도 하나의 광 센서(700)를 통해 빛이 감지되는지 확인할 수 있고, 빛을 감지하는 광 센서(700)에 기반하여 외부 광원의 방향을 계산(예: 예측하도록 할 수 있다. 예를 들면, 도 6 또는 도 7의 예시와 같이, 본 개시에서는 조도 센서(600)의 주변에 복수 개의 광 센서(700)를 배치하여, 조도 센서 모듈(900)(또는 조도 센서(600) 또는 세트)의 각도(예: 광원의 방향)를 광 센서(700)를 이용하여 판단할 수 있다. According to an embodiment, the electronic device 101 may check whether light is detected through at least one light sensor 700 among the light sensors 700 in the illuminance sensor module 900, and the light sensor detecting the light ( 700), the direction of the external light source may be calculated (eg, predicted. For example, as in the example of FIG. 6 or 7, in the present disclosure, a plurality of light sensors (eg, around the illuminance sensor 600) 700), the angle (eg, the direction of the light source) of the illuminance sensor module 900 (or the illuminance sensor 600 or set) may be determined using the optical sensor 700.
일 실시예에 따라, 도 6을 참조하여 살펴보면, 제1 광 센서(710) 내지 제4 광 센서(740)를 통해 빛이 감지되는 경우, 외부 광원이 조도 센서(600)와 수직 방향에 위치하는 것으로 판단할 수 있다. 예를 들어, 제1 광 센서(710)를 통해 빛이 감지되는 경우, 외부 광원이 조도 센서(600)와 제1 대각 방향(예: 아래 방향)에 위치하는 것으로 판단할 수 있다. 예를 들어, 제2 광 센서(720)를 통해 빛이 감지되는 경우, 외부 광원이 조도 센서(600)와 제2 대각 방향(예: 좌 방향)에 위치하는 것으로 판단할 수 있다. 예를 들어, 제3 광 센서(730)를 통해 빛이 감지되는 경우, 외부 광원이 조도 센서(600)와 제3 대각 방향(예: 위 방향)에 위치하는 것으로 판단할 수 있다. 예를 들어, 제4 광 센서(740)를 통해 빛이 감지되는 경우, 외부 광원이 조도 센서(600)와 제4 대각 방향(예: 우 방향)에 위치하는 것으로 판단할 수 있다. According to an embodiment, referring to FIG. 6 , when light is sensed through the first optical sensor 710 to the fourth optical sensor 740, the external light source is positioned in a direction perpendicular to the illuminance sensor 600. can be judged to be For example, when light is sensed through the first optical sensor 710, it may be determined that an external light source is located in a first diagonal direction (eg, a downward direction) from the illuminance sensor 600. For example, when light is sensed through the second optical sensor 720, it may be determined that an external light source is located in a second diagonal direction (eg, a left direction) from the illuminance sensor 600. For example, when light is sensed through the third optical sensor 730, it may be determined that an external light source is located in a third diagonal direction (eg, an upward direction) from the illuminance sensor 600. For example, when light is sensed through the fourth light sensor 740, it may be determined that the external light source is located in a fourth diagonal direction (eg, right direction) from the illuminance sensor 600.
이는 설명을 위해 예시한 것이며, 본 개시의 실시예들이 이에 제한하지 않으며, 후술되는 도 9의 예시와 같이 조도 센서(600)를 에워싸는 복수 개의 광 센서(700)(예: 710, 720, 730, 740)를 이용하여 다양한 조합으로 외부 광원의 위치를 판단할 수 있다. 예를 들면, 전자 장치(101)는 광 센서(700)의 데이터(예: 광량)의 비율을 확인하여 빛의 입사 방향에 따라 상, 하, 좌, 우 뿐만 아니라, 좌상, 좌하, 우상, 우하와 같이 광 센서(700)의 데이터의 조합을 통해서 전방위적으로 광원의 방향을 계산(예: 예측)할 수 있다.This is an example for explanation, and the embodiments of the present disclosure are not limited thereto, and a plurality of light sensors 700 (eg, 710, 720, 730, 740), the position of the external light source can be determined in various combinations. For example, the electronic device 101 checks the ratio of data (e.g., amount of light) of the light sensor 700 according to the incident direction of light up, down, left, right as well as top left, bottom left, top right, and bottom right. As such, the direction of the light source may be calculated (eg, predicted) in all directions through a combination of data of the optical sensor 700 .
도 9는 일 실시예에 따른 도 6의 광 센서의 배치 구조에서 광원의 방향을 계산하는 동작 예를 설명하기 위한 도면이다.FIG. 9 is a diagram for explaining an example of an operation of calculating a direction of a light source in the optical sensor arrangement structure of FIG. 6 according to an exemplary embodiment.
도 9를 참조하면, 일 예로, 광원이 좌하단 방향에 위치하는 경우 우상단 방향의 제1 영역(910)의 광 센서(710, 720)의 데이터가 증가할 수 있다. 일 예로, 광원이 좌상단 방향에 위치하는 경우 우하단 방향의 제2 영역(920)의 광 센서(720, 730)의 데이터가 증가할 수 있다. 일 예로, 광원이 우상단 방향에 위치하는 경우 좌하단 방향의 제3 영역(930)의 광 센서(730, 740)의 데이터가 증가할 수 있다. 일 예로, 광원이 우하단 방향에 위치하는 경우 좌상단 방향의 제4 영역(940)의 광 센서(740, 710)의 데이터가 증가할 수 있다. 이를 정리하면 아래 <표 1>과 같이 나타낼 수 있다. Referring to FIG. 9 , for example, when the light source is located in the lower left direction, data of the optical sensors 710 and 720 of the first region 910 in the upper right direction may increase. For example, when the light source is located in the upper left direction, the data of the light sensors 720 and 730 of the second area 920 in the lower right direction may increase. For example, when the light source is located in the upper right direction, data of the optical sensors 730 and 740 of the third area 930 in the lower left direction may increase. For example, when the light source is located in the lower right direction, data of the optical sensors 740 and 710 of the fourth region 940 in the upper left direction may increase. This can be summarized as shown in <Table 1> below.
광원 위치light source location 제1 광 센서(710)First optical sensor 710 제2 광 센서(720)Second optical sensor 720 제3 광 센서(730)Third optical sensor 730 제4 광 센서(740)Fourth optical sensor 740
좌상단top left
좌하단bottom left
우상단top right
우하단bottom right
award
under
left
right
<표 1>의 예시에서, 광원으로부터 빛의 양(예: 광량)이 작은 영역은 세모(△)로 나타낼 수 있고, 빛의 양이 상대적으로 많이 들어오는 영역을 동그라미(○)로 나타낼 수 있다.In the example of <Table 1>, an area receiving a small amount of light (eg, amount of light) from a light source may be represented by a triangle (Δ), and an area receiving a relatively large amount of light may be represented by a circle (○).
본 개시에 따르면, 전술한 바와 같은 조도 센서 모듈(900)의 광 센서(700)의 배치를 통해, 외부 광원의 방향을 계산(예: 예측)할 수 있다. 본 개시에 따르면, 광 센서(700)를 통해 외부 광원의 방향을 계산하고, 계산된 방향에서 조도 센서(600)의 포토다이오드(630) 각각의 비율 변화를 역산하여 광원의 방향에 따라 조도를 보정할 수 있다. 예를 들면, 전자 장치(101)는 외부 광원이 조도 센서(600)에 대해 수직 방향(예: 전면)에 위치하여 입사되는 기준 범위에 기반하여 광원의 방향을 계산할 수 있다. 예를 들어, 전자 장치(101)는 외부 광원이 조도 센서(600)에 대해 지정된 방향(예: 수직 방향, 전면)에 위치하여 입사되는 기준 범위(예: 기준 비율)가 메모리(130)에 저장되어 있는 경우, 조도 센서(600)의 포토다이오드(630) 각각의 비율을 계산하여 조도를 보정할 수 있다.According to the present disclosure, through the arrangement of the optical sensor 700 of the illuminance sensor module 900 as described above, the direction of the external light source may be calculated (eg, predicted). According to the present disclosure, the direction of an external light source is calculated through the optical sensor 700, and the ratio change of each photodiode 630 of the illuminance sensor 600 is inverted in the calculated direction to correct the illuminance according to the direction of the light source. can do. For example, the electronic device 101 may calculate the direction of the light source based on a reference range in which an external light source is located in a direction perpendicular to the illuminance sensor 600 (eg, the front side) and is incident. For example, the electronic device 101 stores an incident reference range (eg, reference ratio) in the memory 130 when an external light source is located in a direction designated with respect to the illuminance sensor 600 (eg, a vertical direction or a front surface). In this case, the illuminance may be corrected by calculating the ratio of each photodiode 630 of the illuminance sensor 600 .
본 개시에 따르면, 전자 장치(101)는 광원의 방향을 계산하고, 계산된 방향에서 FOV 한계에 따른 조도 센서의 각 채널 별 포토다이오드(630)의 수광 및 IR(610)의 수광 간의 비율(예: ALS/IR 비율)의 변화(예: 기준 범위에서 각도가 증가하거나 감소)를 계산하고, 계산된 ALS/IR 비율이 일정 이상으로 틀어지는 상황을 판단할 수 있다. 본 개시에 따르면, 전자 장치(101)는 ALS/IR 비율이 일정 이상으로 틀어지는 경우 ALS/IR 비율을 광원의 방향과 기울어진 세트의 각도에 기반하여 보정 비율을 결정하고, 결정된 보정 비율에 기반하여 조도를 보정하여, 조도의 정확도를 높이고 자동 밝기 기능의 오동작을 감소시킬 수 있다. 일 실시예에 따라, ALS/IR 비율이 변화(예: 기준 범위에서 일정 각도 이상 증가하거나 감소)하는 경우, 그 각도의 변화량에 따라 아래와 같은 방식으로 ALS/IR 비율을 보정할 수 있다. According to the present disclosure, the electronic device 101 calculates the direction of the light source, and in the calculated direction, the ratio between the light reception of the photodiode 630 and the light reception of the IR 610 for each channel of the illuminance sensor according to the FOV limit (eg : ALS/IR ratio) change (e.g., an increase or decrease in angle in the reference range) can be calculated, and a situation in which the calculated ALS/IR ratio is distorted beyond a certain level can be determined. According to the present disclosure, the electronic device 101 determines a correction ratio based on the direction of the light source and the angle of the tilted set for the ALS/IR ratio when the ALS/IR ratio is distorted by a certain amount or more, and based on the determined correction ratio By correcting the illuminance, the accuracy of the illuminance may be increased and malfunction of the automatic brightness function may be reduced. According to an embodiment, when the ALS/IR ratio changes (eg, increases or decreases over a certain angle within a reference range), the ALS/IR ratio may be corrected in the following manner according to the amount of change in the angle.
Figure PCTKR2022015980-appb-img-000001
Figure PCTKR2022015980-appb-img-000001
일 실시예에서, <수학식 1>은 ALS/IR 비율을 광원 방향과 기울어진 세트(예: 조도 센서 모듈(900))의 각도를 통해 보정하는 수식의 예를 나타낼 수 있다. <수학식 1>에서, 기준 범위는 조도 센서(600)가 광원과 수직 방향을 이루는 경우의 광 센서(700)의 비율을 나타내고, 비율 차이는 광원이 기울어진 상황에서 광 센서(700)의 비율이 변경된 값(예: 기준 범위와 변화된 변화 범위 간의 차이)을 나타낼 수 있다. 예를 들면, 전자 장치(101)는 광원 방향에서 틀어지는 각도(예: 측광)에 따라 광 센서(700)에 비춰지는 면적의 비율을 감안하여 <수학식 1>의 예시와 같이 보상할 수 있다.In one embodiment, <Equation 1> may represent an example of an equation for correcting an ALS/IR ratio through a direction of a light source and an angle of an inclined set (eg, the illuminance sensor module 900). In Equation 1, the reference range represents the ratio of the light sensor 700 when the light sensor 600 is perpendicular to the light source, and the ratio difference is the ratio of the light sensor 700 when the light source is inclined. This changed value (eg the difference between the reference range and the changed range) can be represented. For example, the electronic device 101 may compensate as shown in <Equation 1> in consideration of the ratio of the area illuminated by the optical sensor 700 according to the angle (eg, photometry) that is deflected from the direction of the light source.
일 실시예에 따른 전자 장치(101)는 전술한 바와 같이, 조도 센서 모듈(900)의 적어도 하나의 광 센서(700)로부터 빛을 감지하고, 빛을 감지하는 광 센서(700)에 의한 데이터(예: 광량)의 비율에 기준 범위(또는 기준 비율)를 나누어, 이를 ALS/IR 비율에 곱해주는 방식으로 보정 비율을 결정하여, 조도를 보정할 수 있다. 예를 들면, 전자 장치(101)는 ALS/IR비율의 차이로 광원의 방향을 보상하는 보정 값(예: 보정 비율)을 산출할 수 있고, 산출된 보정 값을 이용하여 조도의 계산식에 적용하여, 외부 광원의 방향에 따른 조도 정확도를 개선할 수 있다. As described above, the electronic device 101 according to an embodiment detects light from at least one optical sensor 700 of the illuminance sensor module 900, and data by the optical sensor 700 that detects the light ( Example: The correction ratio can be determined by dividing the reference range (or reference ratio) by the ratio of the amount of light) and multiplying it by the ALS/IR ratio to correct the illuminance. For example, the electronic device 101 may calculate a correction value (e.g., correction ratio) for compensating for the direction of the light source with a difference in ALS/IR ratio, and apply the calculated correction value to an illuminance calculation formula. , it is possible to improve the illuminance accuracy according to the direction of the external light source.
도 10은 일 실시예에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다. 10 is a diagram schematically illustrating a configuration of an electronic device according to an exemplary embodiment.
도 10을 참조하면, 일 실시예에 따른 전자 장치(101)는 디스플레이 모듈(160), 메모리(130), 조도 센서 모듈(900), 및 프로세서(120)를 포함할 수 있다. Referring to FIG. 10 , an electronic device 101 according to an embodiment may include a display module 160, a memory 130, an illuminance sensor module 900, and a processor 120.
일 실시예에 따라, 디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 다양한 정보를 시각적으로 제공할 수 있다. 일 실시예에 따라, 디스플레이 모듈(160)는 터치 감지 회로(또는 터치 센서), 터치의 세기를 측정할 수 있는 압력 센서 및/또는 자기장 방식의 스타일러스 펜을 검출하는 터치 패널(예: 디지타이저)을 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치 감지 회로, 압력 센서 및/또는 터치 패널에 기반하여 디스플레이 모듈(160)의 특정 위치에 대한 신호(예: 전압, 광량, 저항, 전자기 신호 및/또는 전하량)의 변화를 측정함으로써 터치 입력 및/또는 호버링 입력(또는 근접 입력)을 감지할 수 있다. According to an embodiment, the display module 160 can visually provide various information to the outside of the electronic device 101 (eg, a user). According to an embodiment, the display module 160 includes a touch sensing circuit (or touch sensor), a pressure sensor capable of measuring the strength of a touch, and/or a touch panel (eg, a digitizer) detecting a magnetic stylus pen. can include According to an embodiment, the display module 160 is a touch sensing circuit, a pressure sensor, and/or a signal for a specific position of the display module 160 based on the touch panel (eg, voltage, light intensity, resistance, electromagnetic signal, and/or Alternatively, a touch input and/or a hovering input (or proximity input) may be sensed by measuring a change in charge amount.
일 실시예에 따르면, 디스플레이 모듈(160)은 프로세서(120)의 제어 하에, 사용자 입력에 의한 수동 밝기 조절 또는 조도 센서(600)에 의해 측정되는 조도 값에 의한 자동 밝기 조절에 대응하는 휘도에 기반하여, 대응하는 밝기로 동작할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 액정 표시 장치(LCD, liquid crystal display), OLED(organic light emitted diode), AMOLED(active matrix organic light emitted diode)로 구성될 수 있다. 어떤 실시예에 따르면, 디스플레이 모듈(160)은 플렉서블 디스플레이(flexible display)로 구성될 수 있다.According to an embodiment, the display module 160 is based on luminance corresponding to manual brightness control by a user input or automatic brightness control by an illuminance value measured by the illuminance sensor 600 under the control of the processor 120. Thus, it can operate with the corresponding brightness. According to an embodiment, the display module 160 may include a liquid crystal display (LCD), an organic light emitted diode (OLED), or an active matrix organic light emitted diode (AMOLED). According to some embodiments, the display module 160 may be configured as a flexible display.
일 실시예에 따라, 조도 센서 모듈(900)은 조도 센서(600) 및 광 센서(700)를 포함할 수 있다. 일 실시예에 따라, 조도 센서 모듈(900)은 디스플레이 모듈(160)의 인액티브(inactive) 영역 또는 디스플레이 모듈(160)의 액티브(active) 영역에 배치될 수 있다. 일 실시예에서, 조도 센서 모듈(900)이 프로세서(120)와 직접 연결되거나, 또는 전자 장치(101)에서 센서 모듈(예: 도 1의 센서 모듈(176))의 전반적인 동작을 관리하는 보조 프로세서(예: 센서 허브 또는 센서 허브 프로세서)와 연결될 수도 있다. 조소 센서 모듈(900)이 보조 프로세서와 연결되는 경우, 프로세서(120)의 동작을 보조 프로세서에 의해 처리하거나, 또는 프로세서(120)와 보조 프로세서가 병행하여 동작을 처리할 수 있다.According to an embodiment, the illuminance sensor module 900 may include an illuminance sensor 600 and an optical sensor 700 . According to an embodiment, the illuminance sensor module 900 may be disposed in an inactive area of the display module 160 or an active area of the display module 160 . In one embodiment, the illuminance sensor module 900 is directly connected to the processor 120, or an auxiliary processor managing the overall operation of the sensor module (eg, the sensor module 176 of FIG. 1) in the electronic device 101. (e.g. sensor hub or sensor hub processor). When the sculpture sensor module 900 is connected to an auxiliary processor, the operation of the processor 120 may be processed by the auxiliary processor, or the processor 120 and the auxiliary processor may process the operation in parallel.
조도 센서(600)는 전자 장치(101)의 주변의 밝기(또는 조도)를 추정할 수 있도록 빛(또는 빛의 양 또는 광량)을 계측(또는 측정)할 수 있는 장치(또는 센서)를 포함할 수 있다. 예를 들면, 조도 센서(600)는 광 에너지(또는 빛)를 받으면 내부에 움직이는 전자가 발생하여 전도율이 변환하는 광전 효과(photoelectric effect)를 가지는 소자(예: 황화카드뮴(Cds) 소자)를 포함할 수 있다. 일 실시예에 따라, 조도 센서(600)는 조도 센서와 근접 센서를 하나의 기기(또는 모듈)로 결합한 근조도 센서를 포함할 수 있다. 어떤 실시예에서는 조도 센서(600)는 피커(picker) 센서, 플리커(flicker) 센서, 컬러(color) 센서, 및/또는 분광 센서(spectrometer)와 같이 광에 기반하여 동작(또는 센싱)하는 다양한 센서를 포함할 수 있다. 일 실시예에서, 조도 센서(600)는 주변 빛의 세기를 측정하는 센서로서, 포토다이오드를 포함할 수 있다. 조도 센서(600)는 가시광의 R, G, B 대역 및/또는 전체 가시광의 C 대역을 통해 수신되는 광량에 따른 신호 세기(예: 광의 세기)를 통해 조도 값을 결정할 수 있다. The illuminance sensor 600 may include a device (or sensor) capable of measuring (or measuring) light (or the amount or amount of light) so that the brightness (or illuminance) of the electronic device 101 can be estimated. can For example, the illuminance sensor 600 includes an element (eg, a cadmium sulfide (Cds) element) having a photoelectric effect in which electrons moving inside are generated when light energy (or light) is received and the conductivity is converted. can do. According to an embodiment, the illuminance sensor 600 may include a roughness sensor combining an illuminance sensor and a proximity sensor into one device (or module). In some embodiments, the illuminance sensor 600 may include various sensors that operate (or sense) based on light, such as a picker sensor, a flicker sensor, a color sensor, and/or a spectrometer. can include In one embodiment, the illuminance sensor 600 is a sensor that measures the intensity of ambient light and may include a photodiode. The illuminance sensor 600 may determine the illuminance value through signal intensity (eg, light intensity) according to the amount of light received through the R, G, and B bands of visible light and/or the entire C band of visible light.
일 실시예에서, 광 센서(700)는 조도 센서(600)를 에워싸는 형상으로 조도 센서(600)의 외곽에 배치될 수 있다. 일 실시예에서, 광 센서(700)는 주변 빛을 감지하는 센서로, 예를 들어, IR 포토다이오드(PD), 분광 센서(spectrometric sensor), RGB 센서, 및/또는 UV(ultraviolet) 센서와 같이 빛을 감지하는 모든 종류의 센서가 포함될 수 있다. In one embodiment, the optical sensor 700 may be disposed outside the illuminance sensor 600 in a shape surrounding the illuminance sensor 600 . In one embodiment, the light sensor 700 is a sensor that detects ambient light, such as an IR photodiode (PD), a spectrometric sensor, an RGB sensor, and/or an ultraviolet (UV) sensor. Any kind of sensor that detects light can be included.
일 실시예에서, 광 센서(700)는 조도 센서(600)를 에워싸는 형상으로 조도 센서(600)와 일체로 형성될 수 있다. 예를 들어, 조도 센서(600)는 광 센서(700)을 포함할 수 있다. 다양한 실시예에 따르면, 광 센서(700)는 조도 센서(600)를 에워싸는 형상으로 조도 센서(600)와 별도로 형성될 수도 있다. 예를 들어, 광 센서(700)는 조도 센서(600)의 외부에 형성될 수도 있다.In one embodiment, the optical sensor 700 may be integrally formed with the illuminance sensor 600 in a shape surrounding the illuminance sensor 600 . For example, the illuminance sensor 600 may include an optical sensor 700 . According to various embodiments, the optical sensor 700 may be formed separately from the illuminance sensor 600 in a shape surrounding the illuminance sensor 600 . For example, the optical sensor 700 may be formed outside the illuminance sensor 600 .
일 실시예에 따라, 메모리(130)는 전자 장치(101)에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 어플리케이션(예: 도 1의 프로그램(140)), 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 일 실시예에 따라, 메모리(130)는 실행 시에, 프로세서(120)가 동작하도록 하는 인스트럭션들(instructions)을 저장할 수 있다. 예를 들면, 어플리케이션은 메모리(130) 상에 소프트웨어로서 저장될 수 있고, 프로세서(120)에 의해 실행 가능할 수 있다. 일 실시예에 따라, 어플리케이션은 전자 장치(101)에서 주변의 조도에 기반하여 디스플레이 모듈(160)에 대한 자동 밝기 조절을 지원할 수 있는 다양한 어플리케이션일 수 있다. According to an embodiment, the memory 130 may store various data used by the electronic device 101 . The data may include, for example, input data or output data for an application (eg, the program 140 of FIG. 1 ) and a command related thereto. According to one embodiment, the memory 130 may store instructions that, when executed, cause the processor 120 to operate. For example, the application may be stored as software on the memory 130 and may be executable by the processor 120 . According to an embodiment, the applications may be various applications capable of supporting automatic brightness control of the display module 160 based on ambient illumination in the electronic device 101 .
일 실시예에 따르면, 메모리(130)는 본 개시의 실시예에 따른 광 센서(700)를 통해 입사광의 센싱 값을 획득하고, 센싱 값에 기반하여 광원의 방향을 계산하고, 계산된 방향에서 조도 센서(600)의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하고, 계산된 비율 변화에 기반하여 조도 센서(600)의 광원의 방향에 대한 보정 비율을 결정하고, 결정된 보정 비율에 기반하여 광원의 방향에 대응하는 조도를 보정하는 기능(또는 동작)과 관련된 적어도 하나의 구성 요소(또는 모듈)를 저장할 수 있다. 예를 들면, 메모리(130)는 프로세서(120)에 의해 실행 가능한 조도 센서를 이용한 디스플레이 모듈(160)의 밝기를 조정하는 기능(예: 자동 밝기 조정 기능)을 소프트웨어 형태(또는 인스트럭션 형태)로 포함할 수 있다. According to an embodiment, the memory 130 obtains a sensing value of incident light through the light sensor 700 according to an embodiment of the present disclosure, calculates a direction of a light source based on the sensing value, and illuminates in the calculated direction. A ratio change of an area receiving light from the photodiode of each channel of the sensor 600 is calculated, a correction ratio for the direction of a light source of the illuminance sensor 600 is determined based on the calculated ratio change, and a correction ratio is determined according to the determined correction ratio. At least one component (or module) related to a function (or operation) of correcting the illuminance corresponding to the direction of the light source may be stored. For example, the memory 130 includes a function of adjusting the brightness of the display module 160 using an illuminance sensor, executable by the processor 120 (eg, an automatic brightness adjustment function) in the form of software (or instruction form). can do.
일 실시예에 따라, 프로세서(120)는 외부 광원(또는 빛)의 편중된 방향으로 인하여 조도가 오계산 되는 것을 감소시키기 위한 관련된 동작을 제어할 수 있다. 일 실시예에 따르면, 프로세서(120)는 조도 센서(600)의 외곽에 배치된 광 센서(700)에 의해 감지되는 데이터를 이용하여 외부 광원의 방향을 계산하고, 계산된 방향에서 ALS/IR 비율의 변화를 계산하고, 계산된 비율이 일정 이상으로 틀어지는 경우 비율을 광원의 방향에 대응하는 보정 비율에 기반하여 조도를 보정하고, 이를 통해 조도의 정확도를 높이고 자동 밝기 기능의 오동작을 감소시키도록 동작할 수 있다. According to an embodiment, the processor 120 may control a related operation to reduce erroneous calculation of illuminance due to a biased direction of an external light source (or light). According to an embodiment, the processor 120 calculates the direction of the external light source using data detected by the light sensor 700 disposed outside the illuminance sensor 600, and the ALS/IR ratio in the calculated direction. Calculate the change of , and if the calculated ratio is distorted beyond a certain level, correct the illuminance based on the correction ratio corresponding to the direction of the light source, thereby increasing the accuracy of the illuminance and reducing the malfunction of the automatic brightness function. can do.
일 실시예에 따르면, 프로세서(120)는 광 센서(700)를 통해 입사광의 센싱 값을 획득하고, 센싱 값에 기반하여 광원의 방향을 계산하고, 계산된 방향에서 조도 센서(600)의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하고, 계산된 비율 변화에 기반하여 조도 센서(600)의 광원의 방향에 대한 보정 비율을 결정하고, 결정된 보정 비율에 기반하여 광원의 방향에 대응하는 조도를 보정하기 위한 관련된 동작을 제어할 수 있다. 일 실시예에 따라, 프로세서(120)의 동작과 관련하여 후술된다.According to an embodiment, the processor 120 obtains a sensing value of incident light through the optical sensor 700, calculates a direction of the light source based on the sensing value, and calculates a direction of the light source for each channel of the illuminance sensor 600 in the calculated direction. Calculate the ratio change of the area where the photodiode receives light, determine the correction ratio for the direction of the light source of the illuminance sensor 600 based on the calculated ratio change, and respond to the direction of the light source based on the determined correction ratio It is possible to control related operations for correcting the intensity of illumination. According to one embodiment, the operation of the processor 120 is described below.
일 실시예에 따르면, 프로세서(120)는 본 개시의 실시예에 따른 동작을 위한 적어도 하나의 구성요소(또는 모듈)를 포함할 수 있다. 예를 들면, 프로세서(120)는 광원 방향 예측 모듈(1010), 비율 변화 판단 모듈(1020), 보정 비율 결정 모듈(1030), 및/또는 밝기 조정 모듈(1040)과 같은 적어도 하나의 기능 모듈을 포함할 수 있다. 일 실시예에 따라, 기능 모듈 중 적어도 일부는 하드웨어 모듈(예: 회로(circuitry))로 프로세서(120)에 포함되거나, 및/또는 프로세서(120)에 의해 실행될 수 있는 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 프로세서(120)에서 수행하는 동작들은, 메모리(130)에 저장되고, 실행 시에, 프로세서(120)가 동작하도록 하는 인스트럭션들에 의해 실행될 수 있다.According to one embodiment, the processor 120 may include at least one component (or module) for an operation according to an embodiment of the present disclosure. For example, the processor 120 includes at least one functional module such as a light source direction estimation module 1010, a ratio change determination module 1020, a correction ratio determination module 1030, and/or a brightness adjustment module 1040. can include According to an embodiment, at least some of the functional modules are included in the processor 120 as hardware modules (eg, circuitry), and/or software including one or more instructions executable by the processor 120. can be implemented as For example, operations performed by the processor 120 may be executed by instructions stored in the memory 130 and causing the processor 120 to operate when executed.
일 실시예에서, 광원 방향 예측 모듈(1010)은 조도 센서 모듈(900)의 광 센서(700)를 통해 획득하는 데이터로부터, 외부 광원의 위치된 광원 방향을 계산(예: 예측)할 수 있다. 일 실시예에 따르면, 광원 방향 예측 모듈(1010)은 복수 개의 광 센서(700)로부터 획득되는 데이터(예: 입사광의 센싱 값)에 기반하여 광원의 방향 및 광원으로부터 빛이 입사되는 입사 각도를 판단할 수 있다. 일 실시예에서, 광원 방향 예측 모듈(1010)은 광 센서(700)를 이용하여 외부 광원에 의한 광의 입사각에 관련된 데이터(또는 정보)를 획득할 수 있다. In an embodiment, the light source direction prediction module 1010 may calculate (eg, predict) a location light source direction of an external light source from data obtained through the light sensor 700 of the illuminance sensor module 900 . According to an embodiment, the light source direction prediction module 1010 determines the direction of the light source and the incident angle at which light is incident from the light source based on data (eg, sensing values of incident light) acquired from the plurality of light sensors 700. can do. In an embodiment, the light source direction estimation module 1010 may obtain data (or information) related to an incident angle of light by an external light source using the optical sensor 700 .
일 실시예에 따르면, 광원 방향 예측 모듈(1010)은 조도 센서(600)의 외곽에서 조도 센서(600)를 에워싸도록 배치된 복수 개의 광 센서(700)로부터 광 센서(700)로 비춰지는 광의 입사각에 관련된 데이터를 획득할 수 있다. 일 실시예에서, 광의 입사각에 관련된 데이터는 광원이 조도 센서(600)에 대해 측광인지 여부를 판단하기 위한 정보로, 예를 들면, 복수 개의 광 센서(700)에서 빛의 감지 여부 및/또는 감지된 광량(및/또는 광의 세기)에 관련된 정보를 포함할 수 있다. 어떤 실시예에 따르면, 광의 입사각에 관련된 데이터는 광의 입사각 및/또는 광의 입사각의 범위를 포함할 수 있다. According to an embodiment, the light source direction prediction module 1010 determines the amount of light that is projected onto the optical sensor 700 from a plurality of optical sensors 700 disposed to surround the illuminance sensor 600 outside the illuminance sensor 600. Data related to the angle of incidence can be obtained. In one embodiment, the data related to the incident angle of light is information for determining whether or not the light source is photometric for the illuminance sensor 600, for example, whether or not light is detected and/or detected by the plurality of light sensors 700. It may include information related to the amount of light (and/or intensity of light). According to some embodiments, the data related to the angle of incidence of light may include an angle of incidence of light and/or a range of angles of incidence of light.
일 실시예에 따르면, 광원 방향 예측 모듈(1010)은 조도 센서(600)의 외곽에 배치된 복수 개의 광 센서(700)를 이용하여 각각의 광 센서(700)에 대응하는 영역에 비춰지는 광의 세기(예: 광의 입사각에 관련된 데이터)를 측정할 수 있다. 일 실시예에서, 프로세서(120)는 제1 광 센서(710)가 배치된 제1 영역에 비춰지는 광의 세기, 제2 광 센서(720)가 배치된 제2 영역에 비춰지는 광의 세기, 제3 광 센서(730)가 배치된 제3 영역에 비춰지는 광의 세기, 및/또는 제4 광 센서(740)가 배치된 제4 영역에 비춰지는 광의 세기를 획득할 수 있다. 일 실시예에서, 광원 방향 예측 모듈(1010)은 조도 센서(600)의 주변 영역에 배치된 복수 개의 광 센서(700)로부터 각각 대응하는 영역에 비춰지는 광의 세기를 획득할 수 있다.According to an embodiment, the light source direction prediction module 1010 uses a plurality of optical sensors 700 disposed outside the illuminance sensor 600 to determine the intensity of light projected onto an area corresponding to each optical sensor 700. (e.g. data related to the incident angle of light) can be measured. In an embodiment, the processor 120 may determine the intensity of light projected onto a first area where the first optical sensor 710 is disposed, the intensity of light projected onto a second region where the second optical sensor 720 is disposed, and a third The intensity of light projected onto the third region where the optical sensor 730 is disposed and/or the intensity of light projected onto the fourth region where the fourth optical sensor 740 is disposed may be acquired. In an embodiment, the light source direction estimation module 1010 may obtain the intensity of light projected onto a corresponding region from the plurality of light sensors 700 disposed in an area around the illuminance sensor 600 .
일 실시예에 따르면, 광원 방향 예측 모듈(1010)은 광 센서(700)로부터 획득된 데이터에 기반하여 광원의 방향을 계산(예: 예측)할 수 있다. 일 실시예에 따르면, 광원 방향 예측 모듈(1010)은 복수 개의 광 센서(700) 중에서 데이터를 전달하는 적어도 하나의 광 센서(700)의 위치 및/또는 적어도 하나의 광 센서(700)로부터 전달되는 데이터의 크기(예: 광의 세기)에 기반하여 광원의 방향을 결정할 수 있다. According to an embodiment, the light source direction prediction module 1010 may calculate (eg, predict) the direction of the light source based on data obtained from the light sensor 700 . According to an embodiment, the light source direction prediction module 1010 may include a position of at least one optical sensor 700 transmitting data among a plurality of optical sensors 700 and/or a position transmitted from the at least one optical sensor 700. The direction of the light source may be determined based on the size of data (eg, light intensity).
예를 들면, 광원 방향 예측 모듈(1010)은 광 센서(700)의 영역들 중 우상단 방향의 제1 영역(910)에 배치된 광 센서(710, 720)의 데이터가 증가하는 경우, 광원이 좌하단 방향에 위치하는 것으로 판단할 수 있다. 예를 들면, 광원 방향 예측 모듈(1010)은 광 센서(700)의 영역들 중 우하단 방향의 제2 영역(920)에 배치된 광 센서(720, 730)의 데이터가 증가하는 경우, 광원이 좌상단 방향에 위치하는 것으로 판단할 수 있다. 예를 들면, 광원 방향 예측 모듈(1010)은 광 센서(700)의 영역들 중 좌하단 방향의 제3 영역(930)에 배치된 광 센서(730, 740)의 데이터가 증가하는 경우, 광원이 우상단 방향에 위치하는 것으로 판단할 수 있다. 예를 들면, 광원 방향 예측 모듈(1010)은 광 센서(700)의 영역들 중 좌상단 방향의 제4 영역(940)에 배치된 광 센서(740, 710)의 데이터가 증가하는 경우, 광원이 우하단 방향에 위치하는 것으로 판단할 수 있다. For example, the light source direction prediction module 1010 determines that the light source moves to the left when the data of the optical sensors 710 and 720 disposed in the first region 910 in the upper right direction among the regions of the optical sensor 700 increases. It can be determined that it is located in the lower direction. For example, the light source direction prediction module 1010 determines that, when the data of the light sensors 720 and 730 disposed in the second area 920 in the lower right direction among the areas of the light sensor 700 increases, the light source It can be determined that it is located in the upper left direction. For example, when the data of the optical sensors 730 and 740 disposed in the third region 930 in the lower left direction among the regions of the optical sensor 700 increases, the light source direction prediction module 1010 determines that the light source direction is It can be determined that it is located in the upper right direction. For example, the light source direction prediction module 1010 determines that, when the data of the optical sensors 740 and 710 disposed in the fourth region 940 in the upper-left direction among the regions of the optical sensor 700 increases, the light source moves to the right. It can be determined that it is located in the lower direction.
일 실시예에 따르면, 광원 방향 예측 모듈(1010)은 광 센서(700)가 배치된 적어도 하나의 영역에 비춰지는 광의 세기를 비교하여 광의 입사각에 관한 정보를 획득할 수도 있다. 예를 들면, 광원 방향 예측 모듈(1010)은 어느 일 영역에 비춰지는 광의 세기를 비교하여 측광의 기울기(또는 입사각)를 추정할 수 있다. 일 예로, 광원 방향 예측 모듈(1010)은 제1 영역(910)의 제1 광 센서(710)에 비춰지는 광의 세기(예: 제1 세기)와 제1 영역의 제2 광 센서(720)에 비춰지는 광의 세기(예: 제2 세기)의 차이가 클 수록 광의 입사각이 크고, 제1 세기와 제2 세기의 차이가 작을수록 광의 입사각이 작다고 판단할 수 있다. 일 실시예에서, 광원 방향 예측 모듈(1010)은 입사각과 기준각(예: 수직)의 비가 임계 값을 초과하는지 여부에 기반하여 조도 센서(600)에 비춰지는 광이 측광인지 여부를 판단할 수 있다.According to an embodiment, the light source direction prediction module 1010 may obtain information about an incident angle of light by comparing the intensity of light that is projected onto at least one area where the light sensor 700 is disposed. For example, the light source direction prediction module 1010 may estimate the inclination (or incident angle) of photometric light by comparing the intensity of light illuminated on a certain region. For example, the light source direction prediction module 1010 determines the intensity (eg, first intensity) of light projected onto the first optical sensor 710 in the first area 910 and the second optical sensor 720 in the first area. It may be determined that the greater the difference in intensity (eg, the second intensity) of the irradiated light is, the greater the incident angle of light is, and the smaller the difference between the first and second intensities is, the smaller the incident angle of light is. In an embodiment, the light source direction prediction module 1010 may determine whether the light emitted to the illuminance sensor 600 is metering based on whether the ratio of the incident angle and the reference angle (eg, vertical) exceeds a threshold value. there is.
일 실시예에서, 비율 변화 판단 모듈(1020)은 광원 방향 예측 모듈(1010)에 의해 계산된 광원의 방향에서 조도 센서(600)의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산할 수 있다. 일 실시예에 따르면, 비율 변화 판단 모듈(1020)은 광원의 계산된 방향에서 ALS/IR 비율의 변화를 계산하고, 계산된 비율과 지정된 기준 비율을 비교하여, 계산된 비율이 일정 이상으로 틀어지는지 여부를 판단할 수 있다.In an embodiment, the ratio change determination module 1020 may calculate a ratio change of an area receiving light from the photodiode of each channel of the illuminance sensor 600 in the direction of the light source calculated by the light source direction estimation module 1010. there is. According to an embodiment, the ratio change determination module 1020 calculates a change in the ALS/IR ratio in the calculated direction of the light source, compares the calculated ratio with a specified reference ratio, and determines whether the calculated ratio is deviated beyond a certain level. can determine whether
일 실시예에서, 보정 비율 결정 모듈(1030)은 비율 판단 판단 모듈(1020)에 의해 계산된 비율이 일정 이상으로 틀어지는 것을 판단하는 경우, 계산된 비율 변화에 기반하여 광원의 방향에 대한 보정 비율을 결정할 수 있다. 일 실시예에 따르면, 보정 비율 결정 모듈(1030)은 전술한 <수학식 1>의 예시와 같은 계산식에 기반하여 보정 비율을 결정할 수 있다.In one embodiment, the correction ratio determining module 1030 determines the correction ratio for the direction of the light source based on the calculated ratio change when it is determined that the ratio calculated by the ratio determination module 1020 is distorted beyond a certain level. can decide According to an embodiment, the correction ratio determination module 1030 may determine the correction ratio based on a calculation formula such as the example of <Equation 1> described above.
일 실시예에서, 밝기 조정 모듈(1040)은 결정된 보정 비율에 기반하여 광원의 방향에 대응하는 조도를 보정하고, 보정된 조도에 기반하여 디스플레이 모듈(160)의 밝기를 조정할 수 있다. 일 실시예에 따르면, 밝기 조정 모듈(1040)은 광원의 방향에 대응하여 보정된 보정 값(예: 보정 비율)을 이용하여 조도의 계산식(예: 아래 <수학식 2>의 예시와 같은 조도 계산식)에 적용하여, 광원의 방향에 따른 조도를 보정하고, 보정된 조도에 대응하는 밝기로 디스플레이 모듈(160)의 밝기를 조정할 수 있다.In an embodiment, the brightness adjustment module 1040 may correct the illuminance corresponding to the direction of the light source based on the determined correction ratio and adjust the brightness of the display module 160 based on the corrected illuminance. According to an embodiment, the brightness adjustment module 1040 uses a correction value (eg, a correction ratio) corrected in accordance with the direction of the light source to calculate an illuminance (eg, an illuminance calculation formula as shown in Equation 2 below). ), the illuminance according to the direction of the light source may be corrected, and the brightness of the display module 160 may be adjusted to a brightness corresponding to the corrected illuminance.
일 실시예에 따르면, 밝기 조정 모듈(1040)은 조도 센서(600)를 이용하여 획득한 광에 대응하여 측정된 조도 값을 보정할 수 있다. 일 실시예에서, 밝기 조정 모듈(1040)은 보정 비율에 따라 조도 값을 보정하는 정도를 다르게 할 수 있다. 일 실시예에서, 입사각이 클수록 조도 센서(600)에 발생하는 어두운 영역이 커질 수 있으며, 따라서 입사각이 클수록 보정 비율이 커질 수 있고, 조도 값이 보정되는 정도가 더 커질 수 있다. 예를 들면, 밝기 조정 모듈(1040)은 광의 입사각이 제1 범위(또는 제1 레벨)에 속하는 경우 조도 센서(600)를 통해 획득된 제1 조도 값을 제2 조도 값으로 보정할 수 있다. 일 실시예에 따르면, 밝기 조정 모듈(1040)은 광의 입사각이 제1 범위(또는 제1 레벨)와 다른 제2 범위(또는 제2 레벨)에 속하는 경우 조도 센서(600)를 통해 획득된 제1 조도 값을 제2 조도 값과 다른 제3 조도 값으로 보정할 수 있다.According to an embodiment, the brightness adjustment module 1040 may correct an illuminance value measured in response to light acquired using the illuminance sensor 600 . In one embodiment, the brightness adjustment module 1040 may vary the degree of correcting the illuminance value according to the correction ratio. In one embodiment, the larger the incident angle, the larger the dark area generated in the illuminance sensor 600 may be, and accordingly, the larger the incident angle, the larger the correction ratio and the larger the degree of correction of the illuminance value. For example, the brightness control module 1040 may correct a first illuminance value acquired through the illuminance sensor 600 to a second illuminance value when the incident angle of light falls within a first range (or first level). According to an exemplary embodiment, the brightness control module 1040 determines the first light obtained through the illuminance sensor 600 when the incident angle of light falls within a second range (or second level) different from the first range (or first level). The illuminance value may be corrected to a third illuminance value different from the second illuminance value.
일 실시예에서, 밝기 조정 모듈(1040)은 조도 값을 <수학식 2>의 예시와 같은 조도 계산식에 기반하여 결정할 수 있다.In an embodiment, the brightness adjustment module 1040 may determine the illuminance value based on an illuminance calculation formula such as <Equation 2>.
Figure PCTKR2022015980-appb-img-000002
Figure PCTKR2022015980-appb-img-000002
<수학식 2>에서, R은 적어도 하나의 레드 포토다이오드를 통해 획득한 광의 세기를 나타낼 수 있다. G는 적어도 하나의 그린 포토다이오드를 통해 획득한 광의 세기를 나타낼 수 있다. B는 적어도 하나의 블루 포토다이오드를 통해 획득한 광의 세기를 나타낼 수 있다. C는 적어도 하나의 클리어 포토다이오드를 통해 획득한 광의 세기를 나타낼 수 있다. <수학식 2>에서, coefficient는, 예를 들면, <수학식 1>에 의해 계산된 보정 비율을 나타낼 수 있다. 예를 들면, 밝기 조정 모듈(1040)은 제1 입사각을 가지는 광에 대해 제1 값을 가지는 계수(예: 제1 보정 비율)를 <수학식 2>에 적용할 수 있고, 제2 입사각을 가지는 광에 대해 제2 값을 가지는 계수(예: 제2 보정 비율)를 <수학식 2>에 적용할 수 있다.In <Equation 2>, R may represent the intensity of light acquired through at least one red photodiode. G may represent the intensity of light acquired through at least one green photodiode. B may represent the intensity of light obtained through at least one blue photodiode. C may represent the intensity of light acquired through at least one clear photodiode. In <Equation 2>, the coefficient may represent, for example, a correction ratio calculated by <Equation 1>. For example, the brightness control module 1040 may apply a coefficient having a first value (eg, a first correction ratio) to <Equation 2> to light having a first incident angle, and may have a second incident angle. A coefficient having a second value for light (eg, a second correction ratio) may be applied to <Equation 2>.
일 실시예에 따르면, 프로세서(120)는, 전자 장치(101)의 사용자에 의해 요구되는 응용 계층 처리 기능을 할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 다양한 블록들을 위한 기능의 제어 및 명령을 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 각 구성 요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있다. 예를 들어, 프로세서(120)는 도 1의 프로세서(120)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 프로세서(120)는, 예를 들어, 전자 장치(101)의 구성요소들과 작동적으로 연결될 수 있다. 프로세서(120)는 전자 장치(101)의 다른 구성요소로부터 수신된 명령 또는 데이터를 메모리(130)에 로드(load)하고, 메모리(130)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 저장할 수 있다.According to an embodiment, the processor 120 may perform an application layer processing function requested by a user of the electronic device 101 . According to an embodiment, the processor 120 may provide functional control and commands for various blocks of the electronic device 101 . According to an embodiment, the processor 120 may perform calculations or data processing related to control and/or communication of each component of the electronic device 101 . For example, the processor 120 may include at least some of the components and/or functions of the processor 120 of FIG. 1 . The processor 120 may be operatively connected to components of the electronic device 101 , for example. The processor 120 may load commands or data received from other components of the electronic device 101 into the memory 130, process the commands or data stored in the memory 130, and store resultant data. there is.
일 실시예에 따르면, 프로세서(120)는 처리 회로(processing circuitry) 및/또는 실행 가능한 프로그램 요소(executable program elements)를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 처리 회로 및/또는 실행 가능한 프로그램 요소에 기반하여, 조도 센서의 배치 구조 및/또는 디스플레이 구조에 따른 FOV 한계로 인해 발생하는 광원(또는 빛)의 편중된 방향 때문에 조도가 오계산 되는 것을 감소하는 것과 관련된 동작을 제어(또는 처리)할 수 있다.According to one embodiment, the processor 120 may include processing circuitry and/or executable program elements. According to an embodiment, the processor 120 determines the biased light source (or light) generated due to the FOV limit according to the arrangement structure of the illuminance sensor and/or the display structure, based on the processing circuit and/or the executable program element. It is possible to control (or process) operations related to reducing miscalculation of illuminance due to orientation.
일 실시예에 따르면, 프로세서(120)에서 수행하는 동작들은, 기록 매체(또는 컴퓨터 프로그램 프로덕트(product))로 구현될 수 있다. 예를 들어, 기록 매체는 프로세서(120)에서 수행하는 다양한 동작을 실행시키기 위한 프로그램을 기록한 비 일시적(non-transitory) 컴퓨터(computer)로 판독 가능한 기록 매체를 포함할 수 있다.According to one embodiment, operations performed by the processor 120 may be implemented as a recording medium (or a computer program product). For example, the recording medium may include a non-transitory computer-readable recording medium in which a program for executing various operations performed by the processor 120 is recorded.
본 개시에서 설명되는 실시예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 일 실시예에서 설명되는 동작들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 및/또는 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. The embodiments described in this disclosure may be implemented in a recording medium readable by a computer or similar device using software, hardware, or a combination thereof. According to hardware implementation, the operations described in one embodiment are ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays) ), processors, controllers, micro-controllers, microprocessors, and/or electrical units for performing other functions. .
일 실시예에서, 기록 매체(또는 컴퓨터 프로그램 프로덕트)는, 조도 센서를 에워싸는 형태로 배치된 광 센서를 통해, 외부 광원으로부터 입사되는 입사광의 센싱 값을 획득하는 동작, 상기 센싱 값에 기반하여 상기 광원의 방향을 계산하는 동작, 상기 계산된 방향에서 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하는 동작, 상기 계산된 비율 변화에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하는 동작, 및 상기 결정된 보정 비율에 기반하여 상기 광원의 방향에 대응하는 조도를 보정하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.In one embodiment, the recording medium (or computer program product) includes an operation of obtaining a sensing value of incident light incident from an external light source through an optical sensor disposed in a form surrounding an illuminance sensor, and the light source based on the sensing value An operation of calculating a direction of , an operation of calculating a change in ratio of an area receiving light from a photodiode of each channel of the illuminance sensor in the calculated direction, and an operation of calculating a change in ratio of an area receiving light in the calculated direction, and an operation of calculating the direction of the light source of the illuminance sensor based on the calculated ratio change. It may include a computer-readable recording medium recording a program for executing an operation of determining a correction ratio for , and an operation of correcting an illuminance corresponding to a direction of the light source based on the determined correction ratio.
다양한 실시예들에서, 인스트럭션들은, 광 센서(700)를 통해 입사광의 센싱 값을 획득하는 동작, 센싱 값에 기반하여 광원의 방향을 계산하고, 계산된 방향에서 조도 센서(600)의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하는 동작, 계산된 비율 변화에 기반하여 조도 센서(600)의 광원의 방향에 대한 보정 비율을 결정하는 동작, 및 결정된 보정 비율에 기반하여 광원의 방향에 대응하는 조도를 보정하는 동작을 실행시키기 위한 인스트럭션들을 포함할 수 있다. 일 실시예에 따라, 프로세서(120)가 수행하는 상기의 동작들은, 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 포함할 수 있다.In various embodiments, the instructions include an operation of obtaining a sensing value of incident light through the optical sensor 700, calculating a direction of a light source based on the sensing value, and calculating a direction of each channel of the illuminance sensor 600 in the calculated direction. An operation of calculating the ratio change of the area receiving light from the photodiode, an operation of determining a correction ratio for the direction of the light source of the illuminance sensor 600 based on the calculated ratio change, and an operation of determining the direction of the light source based on the determined correction ratio It may include instructions for executing an operation of correcting the illuminance corresponding to . According to one embodiment, the above operations performed by the processor 120 may be included in a computer-readable recording medium in which a program is recorded.
본 개시의 실시예에 따른 전자 장치(101)는, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160), 도 2 또는 도 3의 디스플레이(201, 301)), 외부 광원으로부터 입사되는 입사광을 센싱하도록 설정된 조도 센서(예: 도 6, 도 7 또는 도 10의 조도 센서(600)) 및 광 센서(예: 도 6, 도 7 또는 도 10의 광 센서(700))를 포함하는 조도 센서 모듈(900), 메모리(예: 도 1 또는 도 10의 메모리(130)), 및 상기 디스플레이 모듈, 상기 조도 센서 모듈, 및 상기 메모리와 작동적으로 연결된 프로세서(예: 도 1 또는 도 10의 프로세서(120))를 포함하고, 상기 프로세서는, 상기 광 센서를 통해 상기 입사광의 센싱 값을 획득하고, 상기 센싱 값에 기반하여 상기 광원의 방향을 계산하고, 상기 계산된 방향에서 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하고, 상기 계산된 비율 변화에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하고, 및 상기 결정된 보정 비율에 기반하여 상기 광원의 방향에 대응하는 조도를 보정하도록 동작할 수 있다.The electronic device 101 according to an embodiment of the present disclosure senses incident light incident from a display module (eg, the display module 160 of FIG. 1 , the display 201 or 301 of FIG. 2 or 3 ) and an external light source. An illuminance sensor module (eg, the illuminance sensor 600 of FIGS. 6, 7, or 10) and an optical sensor (eg, the optical sensor 700 of FIGS. 6, 7, or 10) set to 900), a memory (eg, the memory 130 of FIG. 1 or 10), and the display module, the illuminance sensor module, and a processor operatively connected to the memory (eg, the processor 120 of FIG. 1 or 10). )), wherein the processor obtains a sensing value of the incident light through the light sensor, calculates a direction of the light source based on the sensing value, and calculates a direction of each channel of the illuminance sensor in the calculated direction. A photodiode calculates a ratio change of an area receiving light, determines a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change, and determines a direction of the light source based on the determined correction ratio. It can operate to correct the illuminance corresponding to .
일 실시예에 따르면, 상기 광 센서는, 상기 조도 센서의 수평 기준점을 기준으로 상기 조도 센서를 에워싸는 형태로 배치될 수 있다.According to an embodiment, the optical sensor may be disposed in a form surrounding the illuminance sensor based on a horizontal reference point of the illuminance sensor.
일 실시예에 따르면, 상기 광 센서는, 상기 조도 센서를 에워싸도록 복수 개로 형성되며, 상기 복수 개의 광 센서는 대칭 구조로 배치될 수 있다.According to an embodiment, a plurality of optical sensors may be formed to surround the illuminance sensor, and the plurality of optical sensors may be disposed in a symmetrical structure.
일 실시예에 따르면, 상기 광 센서는, 상기 조도 센서의 상, 하, 좌, 우 외곽에 각각 배치되는 4개의 광 센서를 포함할 수 있다.According to an embodiment, the optical sensor may include four optical sensors disposed above, below, left, and right outside the illuminance sensor.
일 실시예에 따르면, 상기 광 센서는, 상기 조도 센서의 상, 하, 좌, 우, 좌상, 우상, 좌하, 우하 외곽에 각각 배치되는 8개의 광 센서를 포함할 수 있다.According to an embodiment, the light sensor may include eight light sensors respectively disposed outside the upper, lower, left, right, upper left, upper right, lower left, and lower right edges of the illuminance sensor.
일 실시예에 따르면, 상기 프로세서는, 상기 광원이 상기 조도 센서에 대해 수직 방향에 위치하여 입사되는 기준에 기반하여 상기 광원의 방향을 계산하도록 동작할 수 있다.According to an embodiment, the processor may operate to calculate a direction of the light source based on a criterion in which the light source is incident when the light source is located in a direction perpendicular to the illuminance sensor.
일 실시예에 따르면, 상기 프로세서는, 상기 조도 센서의 외곽에 배치된 상기 광 센서를 이용하여, 상기 광 센서에 상기 광원의 입사광이 센싱되는 정도에 기반하여 상기 광원의 방향을 계산하도록 동작할 수 있다.According to an embodiment, the processor may operate to calculate a direction of the light source based on a degree to which incident light of the light source is sensed by the light sensor, using the light sensor disposed outside the illuminance sensor. there is.
일 실시예에 따르면, 상기 프로세서는, 상기 조도 센서의 외곽에서 상기 조도 센서를 에워싸도록 배치된 상기 광 센서로부터, 상기 광 센서로 비춰지는 광의 입사각에 관련된 데이터를 획득하도록 설정되고, 상기 광의 입사각에 관련된 데이터는, 상기 광원이 상기 조도 센서에 대해 측광인지 여부를 판단하기 위한 정보로, 상기 광 센서에서 빛의 감지 여부, 감지된 광량, 및/또는 광의 세기에 관련된 정보를 포함할 수 있다.According to an embodiment, the processor is configured to obtain data related to an incident angle of light shining onto the optical sensor from an optical sensor disposed outside the illuminance sensor and to surround the illuminance sensor, and Data related to is information for determining whether the light source is photometric for the illuminance sensor, and may include information related to whether or not light is sensed by the light sensor, the amount of detected light, and/or the intensity of light.
일 실시예에 따르면, 상기 프로세서는, 상기 광 센서 중에서 상기 센싱 값을 전달하는 적어도 하나의 광 센서의 위치 및/또는 적어도 하나의 광 센서로부터 전달되는 센싱 값의 크기에 기반하여 상기 광원의 방향을 결정하도록 동작할 수 있다.According to an embodiment, the processor determines the direction of the light source based on the position of at least one optical sensor transmitting the sensing value among the optical sensors and/or the size of the sensing value transmitted from the at least one optical sensor. can act to determine
일 실시예에 따르면, 상기 프로세서는, 상기 광원의 계산된 방향에서 ALS/IR 비율의 변화를 계산하고, 계산된 비율과 지정된 기준 비율을 비교하여, 계산된 비율이 일정 이상으로 틀어지는 경우, 상기 계산된 비율 변화에 기반하여 상기 광원의 방향에 대한 보정 비율을 결정하도록 동작할 수 있다.According to an embodiment, the processor calculates a change in the ALS/IR ratio in the calculated direction of the light source, compares the calculated ratio with a designated reference ratio, and when the calculated ratio is distorted by more than a certain level, the calculation Based on the ratio change, a correction ratio for the direction of the light source may be determined.
일 실시예에 따르면, 상기 프로세서는, 계산된 광원 방향의 측광에 따라 상기 광 센서에 비춰지는 면적의 비율에 기반하여 보정 비율을 결정하도록 동작할 수 있다.According to an embodiment, the processor may operate to determine a correction ratio based on a ratio of an area illuminated by the light sensor according to the calculated photometric light source direction.
일 실시예에 따르면, 상기 프로세서는, 광원의 방향에 대응하여 보정된 보정 비율을 조도의 계산식에 적용하여, 상기 광원의 방향에 따른 조도를 보정하도록 동작할 수 있다.According to an embodiment, the processor may operate to correct the illuminance according to the direction of the light source by applying a correction ratio corrected corresponding to the direction of the light source to an illuminance calculation formula.
일 실시예에 따르면, 상기 프로세서는, 보정된 조도에 기반하여 상기 디스플레이 모듈의 밝기를 조절하도록 동작할 수 있다.According to an embodiment, the processor may operate to adjust the brightness of the display module based on the corrected illuminance.
본 개시의 실시예에 따른 전자 장치(101)는, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160), 도 2 또는 도 3의 디스플레이(201, 301)), 조도 센서(예: 도 6, 도 7 또는 도 10의 조도 센서(600)), 상기 조도 센서의 외곽에 배치되고, 외부 광원으로부터 입사되는 입사광을 센싱하도록 설정된 광 센서(예: 도 6, 도 7 또는 도 10의 광 센서(700)), 메모리(예: 도 1 또는 도 10의 메모리(130)), 및 상기 디스플레이 모듈, 상기 조도 센서, 상기 광 센서, 및 상기 메모리와 작동적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 광 센서를 통해 상기 입사광의 센싱 값을 획득하고, 상기 센싱 값에 기반하여 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율을 계산하고, 상기 계산된 비율에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하고, 및 상기 결정된 보정 비율에 기반하여 조도를 보정하도록 동작할 수 있다.The electronic device 101 according to an embodiment of the present disclosure includes a display module (eg, the display module 160 of FIG. 1 , the display 201 or 301 of FIG. 2 or 3 ), an illuminance sensor (eg, the display module 160 of FIG. 6 , The illuminance sensor 600 of FIG. 7 or 10), an optical sensor disposed outside the illuminance sensor and configured to sense incident light incident from an external light source (eg, the optical sensor 700 of FIGS. 6, 7, or 10) )), a memory (eg, the memory 130 of FIG. 1 or 10), and a processor operatively connected to the display module, the illuminance sensor, the light sensor, and the memory, the processor comprising: Obtains a sensing value of the incident light through an optical sensor, calculates a ratio of an area receiving light from a photodiode of each channel of the illumination sensor based on the sensing value, and calculates a ratio of the illumination sensor based on the calculated ratio. A correction ratio for the direction of the light source may be determined, and an illumination intensity may be corrected based on the determined correction ratio.
이하에서는 다양한 실시예들의 전자 장치(101)의 동작 방법에 대해서 상세하게 설명한다. 이하에서 설명하는 전자 장치(101)에서 수행하는 동작들은, 전자 장치(101)의 다양한 프로세싱 회로(various processing circuitry) 및/또는 실행 가능한 프로그램 요소(executable program elements)를 포함하는 프로세서(120)에 의해 실행될 수 있다. 일 실시예에 따라, 전자 장치(101)에서 수행하는 동작들은, 메모리(130)에 저장되고, 실행 시에, 프로세서(120)가 동작하도록 하는 인스트럭션들(instructions)에 의해 실행될 수 있다. Hereinafter, an operating method of the electronic device 101 according to various embodiments will be described in detail. Operations performed by the electronic device 101 described below are performed by the processor 120 including various processing circuitry and/or executable program elements of the electronic device 101. can be executed According to an embodiment, operations performed by the electronic device 101 may be executed by instructions that are stored in the memory 130 and cause the processor 120 to operate when executed.
도 11은 일 실시예에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다. 11 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
일 실시예에 따라, 도 11은 일 실시예에 따른 전자 장치(101)에서 조도 센서(600)의 외곽에 배치된 복수 개의 광 센서(700)로부터 측정되는 데이터에 기반하여 광원의 방향 계산 및 그에 따른 조도를 보정하는 동작 예를 나타낼 수 있다.According to an embodiment, FIG. 11 illustrates direction calculation of a light source based on data measured from a plurality of light sensors 700 disposed outside an illuminance sensor 600 in an electronic device 101 according to an embodiment, and An example of an operation of correcting the illuminance according to FIG.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 조도 센서(600)를 통해 전자 장치(101)의 주변의 조도를 측정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 R, G, B, C 채널에 대응하는 대역의 광의 세기에 관한 데이터를 획득할 수 있다. According to an embodiment, the processor 120 of the electronic device 101 may measure ambient light around the electronic device 101 through the light sensor 600 . According to an embodiment, the processor 120 may obtain data about the intensity of light in bands corresponding to the R, G, B, and C channels.
예를 들면, 프로세서(120)는 포토다이오드 중 레드 필터를 포함하는 적어도 하나의 포토다이오드(예: 레드 포토다이오드)로부터 레드 필터에 대응하는 대역의 광의 세기에 관한 데이터를 획득할 수 있다. 예를 들면, 프로세서(120)는 포토다이오드 중 그린 필터를 포함하는 적어도 하나의 포토다이오드(예: 그린 포토다이오드)로부터 그린 필터에 대응하는 대역의 광의 세기에 관한 데이터를 획득할 수 있다. 예를 들면, 프로세서(120)는 포토다이오드 중 블루 필터를 포함하는 적어도 하나의 포토다이오드(예: 블루 포토다이오드)로부터 블루 필터에 대응하는 대역의 광의 세기에 관한 데이터를 획득할 수 있다. 예를 들면, 프로세서(120)는 포토다이오드 중 클리어 필터를 포함하는 적어도 하나의 포토다이오드(예: 클리어 포토다이오드)로부터 클리어 필터에 대응하는 대역의 광의 세기에 관한 데이터를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 각 채널 별로 획득된 데이터를 기반으로 조도를 계산할 수 있다. For example, the processor 120 may obtain data about the intensity of light in a band corresponding to the red filter from at least one photodiode including a red filter (eg, a red photodiode) among the photodiodes. For example, the processor 120 may obtain data about the intensity of light in a band corresponding to the green filter from at least one photodiode including a green filter (eg, a green photodiode) among the photodiodes. For example, the processor 120 may obtain data about the intensity of light in a band corresponding to the blue filter from at least one photodiode including a blue filter (eg, a blue photodiode) among the photodiodes. For example, the processor 120 may obtain data about the intensity of light in a band corresponding to the clear filter from at least one photodiode including a clear filter (eg, a clear photodiode) among the photodiodes. According to an embodiment, the processor 120 may calculate illuminance based on data obtained for each channel.
일 실시예에 따르면, 전자 장치(101)의 조도 센서(600)에 광이 조사되는 경우 조도 센서(600)를 통해 획득된 조도 값은 실제 전자 장치(101)의 전면의 조도와 차이가 있을 수 있다. 본 개시에 따르면, 프로세서(120)는 조도를 계산(또는 측정)할 때, 광 센서(700)를 통해 획득된 데이터를 이용하여 조도를 보정할 수 있다. 이를 위하여, 프로세서(120)는 조도 측정 시에, 동작 1101 내지 동작 1109를 통해 조도 센서(600)에 비춰지는 광의 입사각에 기반하여 조도를 보정할 수 있다.According to an embodiment, when light is irradiated to the illuminance sensor 600 of the electronic device 101, the illuminance value obtained through the illuminance sensor 600 may differ from the actual illuminance of the front surface of the electronic device 101. there is. According to the present disclosure, the processor 120 may correct the illuminance using data obtained through the light sensor 700 when calculating (or measuring) the illuminance. To this end, when measuring the illuminance, the processor 120 may correct the illuminance based on the incident angle of light projected onto the illuminance sensor 600 through operations 1101 to 1109 .
도 11을 참조하면, 동작 1101에서, 전자 장치(101)의 프로세서(120)는 광 센서(700)를 이용하여 외부 광원에 의한 광의 입사각에 관련된 데이터(또는 정보)를 획득할 수 있다. Referring to FIG. 11 , in operation 1101, the processor 120 of the electronic device 101 may obtain data (or information) related to an incident angle of light from an external light source using the optical sensor 700.
일 실시예에 따르면, 프로세서(120)는 조도 센서(600)의 외곽에서 조도 센서(600)를 에워싸도록 배치된 복수 개의 광 센서(700)로부터 광 센서(700)로 비춰지는 광의 입사각에 관련된 데이터를 획득할 수 있다. 일 실시예에서, 광의 입사각에 관련된 데이터는 광원이 조도 센서(600)에 대해 측광인지 여부를 판단하기 위한 정보로, 예를 들면, 복수 개의 광 센서(700)에서 빛의 감지 여부 및/또는 감지된 광량(및/또는 광의 세기)에 관련된 정보를 포함할 수 있다. 어떤 실시예에 따르면, 광의 입사각에 관련된 데이터는 광의 입사각 및/또는 광의 입사각의 범위를 포함할 수 있다. According to an embodiment, the processor 120 determines the incident angle of light emitted to the optical sensor 700 from the plurality of optical sensors 700 arranged to surround the illuminance sensor 600 outside the illuminance sensor 600. data can be obtained. In one embodiment, the data related to the incident angle of light is information for determining whether or not the light source is photometric for the illuminance sensor 600, for example, whether or not light is detected and/or detected by the plurality of light sensors 700. It may include information related to the amount of light (and/or intensity of light). According to some embodiments, the data related to the angle of incidence of light may include an angle of incidence of light and/or a range of angles of incidence of light.
일 실시예에 따르면, 프로세서(120)는 조도 센서(600)의 외곽에 배치된 복수 개의 광 센서(700)를 이용하여 각각의 광 센서(700)에 대응하는 영역에 비춰지는 광의 세기(예: 광의 입사각에 관련된 데이터)를 측정할 수 있다. 일 실시예에서, 프로세서(120)는 제1 광 센서(710)가 배치된 제1 영역에 비춰지는 광의 세기, 제2 광 센서(720)가 배치된 제2 영역에 비춰지는 광의 세기, 제3 광 센서(730)가 배치된 제3 영역에 비춰지는 광의 세기, 및/또는 제4 광 센서(740)가 배치된 제4 영역에 비춰지는 광의 세기를 획득할 수 있다. According to an embodiment, the processor 120 uses a plurality of optical sensors 700 disposed outside the illuminance sensor 600 to determine the intensity of light (for example: data related to the incident angle of light) can be measured. In an embodiment, the processor 120 may determine the intensity of light projected onto a first area where the first optical sensor 710 is disposed, the intensity of light projected onto a second region where the second optical sensor 720 is disposed, and a third The intensity of light projected onto the third region where the optical sensor 730 is disposed and/or the intensity of light projected onto the fourth region where the fourth optical sensor 740 is disposed may be acquired.
일 실시예에서, 프로세서(120)는 조도 센서(600)의 주변 영역에 배치된 복수 개의 광 센서(700)로부터 각각 대응하는 영역에 비춰지는 광의 세기를 획득할 수 있다.In an embodiment, the processor 120 may obtain the intensity of light projected onto a corresponding region from the plurality of light sensors 700 disposed in the surrounding region of the illuminance sensor 600 .
동작 1103에서, 프로세서(120)는 광 센서(700)로부터 획득된 데이터에 기반하여 광원의 방향을 계산할 수 있다. 일 실시예에 따르면, 프로세서(120)는 복수 개의 광 센서(700) 중에서 데이터를 전달하는 적어도 하나의 광 센서(700)의 위치 및/또는 적어도 하나의 광 센서(700)로부터 전달되는 데이터의 크기(예: 광의 세기)에 기반하여 광원의 방향을 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광 센서(700)의 영역들 중 우상단 방향의 제1 영역(910)에 배치된 광 센서(710, 720)의 데이터가 증가하는 경우, 광원이 좌하단 방향에 위치하는 것으로 판단할 수 있다. 예를 들면, 프로세서(120)는 광 센서(700)의 영역들 중 우하단 방향의 제2 영역(920)에 배치된 광 센서(720, 730)의 데이터가 증가하는 경우, 광원이 좌상단 방향에 위치하는 것으로 판단할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광 센서(700)의 영역들 중 좌하단 방향의 제3 영역(930)에 배치된 광 센서(730, 740)의 데이터가 증가하는 경우, 광원이 우상단 방향에 위치하는 것으로 판단할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광 센서(700)의 영역들 중 좌상단 방향의 제4 영역(940)에 배치된 광 센서(740, 710)의 데이터가 증가하는 경우, 광원이 우하단 방향에 위치하는 것으로 판단할 수 있다. In operation 1103, the processor 120 may calculate the direction of the light source based on data obtained from the light sensor 700. According to an embodiment, the processor 120 may include a position of at least one optical sensor 700 transmitting data among a plurality of optical sensors 700 and/or a size of data transmitted from the at least one optical sensor 700. (e.g. light intensity) to determine the direction of the light source. According to an embodiment, the processor 120 determines that, when data of the optical sensors 710 and 720 disposed in the first region 910 in the upper right direction among the regions of the optical sensor 700 increases, the light source moves to the lower left corner. It can be judged by being located in the direction. For example, when the data of the optical sensors 720 and 730 disposed in the second region 920 in the lower right direction among the regions of the optical sensor 700 increases, the processor 120 moves the light source in the upper left direction. location can be judged. According to an embodiment, the processor 120, when the data of the optical sensors 730 and 740 disposed in the third region 930 in the lower left direction among the regions of the optical sensor 700 increases, sets the light source to the upper right corner. It can be judged by being located in the direction. According to an embodiment, the processor 120, when the data of the optical sensors 740 and 710 disposed in the fourth region 940 in the upper left direction among the regions of the optical sensor 700 increases, the light source moves to the lower right corner. It can be judged by being located in the direction.
일 실시예에 따르면, 프로세서(120)는 광 센서(700)가 배치된 적어도 하나의 영역에 비춰지는 광의 세기를 비교하여 광의 입사각에 관한 정보를 획득할 수도 있다. 예를 들면, 프로세서(120)는 어느 일 영역에 비춰지는 광의 세기를 비교하여 측광의 기울기(또는 입사각)를 추정할 수 있다. 일 예로, 프로세서(120)는 제1 영역(910)의 제1 광 센서(710)에 비춰지는 광의 세기(예: 제1 세기)와 제1 영역의 제2 광 센서(720)에 비춰지는 광의 세기(예: 제2 세기)의 차이가 클 수록 광의 입사각이 크고, 제1 세기와 제2 세기의 차이가 작을수록 광의 입사각이 작다고 판단할 수 있다. 일 실시예에서, 프로세서(120)는 입사각과 기준각(예: 수직)의 비가 임계 값을 초과하는지 여부에 기반하여 조도 센서(600)에 비춰지는 광이 측광인지 여부를 판단할 수 있다. 예를 들면, 프로세서(120)는 광 센서(700)에 비춰지는 광의 세기를 비교하여 조도 센서(600)에 측광이 비춰지는지 여부를 판단할 수 있다. According to an embodiment, the processor 120 may obtain information about an incident angle of light by comparing an intensity of light that is projected onto at least one area where the light sensor 700 is disposed. For example, the processor 120 may estimate the inclination (or incidence angle) of photometric light by comparing the intensity of light illuminated on a certain area. For example, the processor 120 determines the intensity (eg, first intensity) of light projected onto the first optical sensor 710 in the first region 910 and the intensity of light projected onto the second optical sensor 720 in the first region. It can be determined that the larger the difference in intensity (eg, the second intensity) is, the larger the incident angle of light is, and the smaller the difference between the first and second intensities is, the smaller the incident angle of light is. In an embodiment, the processor 120 may determine whether the light projected onto the illuminance sensor 600 is metering based on whether the ratio of the incident angle and the reference angle (eg, vertical) exceeds a threshold value. For example, the processor 120 may compare the intensity of light projected onto the light sensor 700 to determine whether or not photometric light is projected onto the illuminance sensor 600 .
동작 1105에서, 프로세서(120)는 광원의 방향에 기반하여 비율 변화를 계산할 수 있다. 일 실시예에 따르면, 프로세서(120)는 계산된 광원의 방향에서 조도 센서(600)의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광원의 계산된 방향에서 ALS/IR 비율의 변화를 계산하고, 계산된 비율과 지정된 기준 비율을 비교하여, 계산된 비율이 일정 이상으로 틀어지는지 여부를 판단할 수 있다.At operation 1105, the processor 120 may calculate a rate change based on the direction of the light source. According to an embodiment, the processor 120 may calculate a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor 600 in the calculated direction of the light source. According to an embodiment, the processor 120 calculates a change in the ALS/IR ratio in the calculated direction of the light source, compares the calculated ratio with a designated reference ratio, and determines whether the calculated ratio is distorted by a certain amount or more. can do.
동작 1107에서, 프로세서(120)는 비율 변화에 기반하여 보정 비율을 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 계산된 비율이 일정 이상으로 틀어지는 것을 판단하는 경우, 계산된 비율 변화에 기반하여 광원의 방향에 대한 보정 비율을 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전술한 <수학식 1>의 예시와 같은 계산식에 기반하여 보정 비율을 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 ALS/IR 비율을 광원 방향과 기울어진 세트(예: 조도 센서 모듈(900))의 각도를 통해 보상할 수 있는 수식에 기반하여, 계산된 광원 방향에서 틀어지는 각도(예: 측광)에 따라 광 센서(700)에 비춰지는 면적의 비율을 감안하여 <수학식 1>의 예시와 같이 보상할 수 있다. 예를 들면, 프로세서(120)는 광의 입사각이 지정된 범위보다 일정 이상 벗어나는 입사각의 범위에 따라 조도를 보정하기 위한 보정 정도를 결정할 수 있다. At operation 1107, the processor 120 may determine a correction ratio based on the ratio change. According to an embodiment, the processor 120 may determine a correction ratio for the direction of the light source based on a change in the calculated ratio when it is determined that the calculated ratio is distorted beyond a certain level. According to an embodiment, the processor 120 may determine the correction ratio based on a calculation formula such as the example of <Equation 1> described above. According to an embodiment, the processor 120 calculates the ALS/IR ratio based on a formula for compensating the light source direction and the angle of the tilted set (eg, the illuminance sensor module 900) in the calculated light source direction. In consideration of the ratio of the area illuminated by the optical sensor 700 according to the twisted angle (eg, photometry), compensation can be performed as shown in Equation 1. For example, the processor 120 may determine the degree of correction for correcting the illuminance according to a range of incident angles in which the incident angle of light deviates from a specified range by a predetermined amount or more.
동작 1109에서, 프로세서(120)는 보정 비율에 기반하여 조도를 보정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광원의 방향에 대응하여 보정된 보정 값(예: 보정 비율)을 이용하여 조도의 계산식(예: <수학식 2>의 예시와 같은 조도 계산식)에 적용하여, 광원의 방향에 따른 조도를 보정할 수 있다. 예를 들면, 프로세서(120)는 조도 센서(600)를 이용하여 획득한 광에 대응하여 측정된 조도 값을 보정할 수 있다. 일 실시예에서, 프로세서(120)는 보정 비율에 따라 조도 값을 보정하는 정도를 다르게 할 수 있다. 일 실시예에서, 입사각이 클수록 조도 센서(600)에 발생하는 어두운 영역이 커질 수 있으며, 따라서 입사각이 클수록 보정 비율이 커질 수 있고, 조도 값이 보정되는 정도가 더 커질 수 있다. 일 실시예에 따르면, 프로세서(120)는 광의 입사각이 제1 범위(또는 제1 레벨)에 속하는 경우 조도 센서(600)를 통해 획득된 제1 조도 값을 제2 조도 값으로 보정할 수 있다. In operation 1109, the processor 120 may correct the illuminance based on the correction ratio. According to an embodiment, the processor 120 applies a correction value (eg, a correction ratio) corrected in accordance with the direction of the light source to an illuminance calculation formula (eg, an illuminance calculation formula as shown in Equation 2). Thus, the illuminance according to the direction of the light source can be corrected. For example, the processor 120 may correct an illuminance value measured in response to light acquired using the illuminance sensor 600 . In one embodiment, the processor 120 may vary the degree of correcting the illuminance value according to the correction ratio. In one embodiment, the larger the incident angle, the larger the dark area generated in the illuminance sensor 600 may be, and accordingly, the larger the incident angle, the larger the correction ratio and the larger the degree of correction of the illuminance value. According to an embodiment, the processor 120 may correct the first illuminance value obtained through the illuminance sensor 600 to the second illuminance value when the incident angle of light falls within the first range (or first level).
일 실시예에 따르면, 프로세서(120)는 광의 입사각이 제1 범위(또는 제1 레벨)와 다른 제2 범위(또는 제2 레벨)에 속하는 경우 조도 센서(600)를 통해 획득된 제1 조도 값을 제2 조도 값과 다른 제3 조도 값으로 보정할 수 있다. 일 실시예에 따라, 프로세서(120)는 조도 값을 <수학식 2>의 예시와 같은 조도 계산식에 기반하여 결정할 수 있다. 예를 들면, 프로세서(120)는 제1 입사각을 가지는 광에 대해 제1 값을 가지는 계수(예: 제1 보정 비율)를 <수학식 2>에 적용할 수 있고, 제2 입사각을 가지는 광에 대해 제2 값을 가지는 계수(예: 제2 보정 비율)를 <수학식 2>에 적용할 수 있다.According to an embodiment, the processor 120 determines the first illuminance value obtained through the illuminance sensor 600 when the incident angle of light falls within a second range (or second level) different from the first range (or first level). may be corrected with a third illuminance value different from the second illuminance value. According to an embodiment, the processor 120 may determine the illuminance value based on an illuminance calculation formula such as the example of Equation 2. For example, the processor 120 may apply a coefficient (eg, a first correction ratio) having a first value to light having a first incident angle to <Equation 2>, and may apply a coefficient having a first value to light having a second incident angle. A coefficient having a second value (eg, a second correction ratio) may be applied to <Equation 2>.
동작 1111에서, 프로세서(120)는 보정된 조도에 기반하여 디스플레이 모듈(160)의 밝기를 조절할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광 센서(700)로 측정되는 광의 입사각을 고려함으로써 실제 전자 장치(101)의 조도와 가까운 조도 값을 획득할 수 있고, 따라서 실제 전자 장치(101) 주변의 환경에 적합하도록 디스플레이 모듈(1600)의 밝기를 조절할 수 있다.In operation 1111, the processor 120 may adjust the brightness of the display module 160 based on the corrected illuminance. According to an embodiment, the processor 120 may obtain an illuminance value close to the illuminance of the actual electronic device 101 by considering the incident angle of light measured by the optical sensor 700, and thus the surroundings of the actual electronic device 101. The brightness of the display module 1600 may be adjusted to suit the environment.
일 실시예에 따르면, 동작 1101 내지 동작 1111은 디스플레이 모듈(160)의 밝기가 자동으로 조절되는 기능이 실행되는 동안에는 반복적, 또는 주기적으로 수행될 수 있다. 일 실시예에 따르면, 프로세서(120)는 조도 값의 변화가 감지되는지 여부 또는 전자 장치(101)의 자세 변화가 감지되는지 여부에 기반하여 도 11의 동작을 수행하여 조도를 보정하도록 동작할 수 있다. 예를 들면, 전자 장치(101)의 자세 변화가 발생한 경우에는 광 센서(700)에 비춰지는 광의 입사각도 달라지기 때문에 조도 값을 새로운 입사각에 기반하여 보정할 수 있다.According to an embodiment, operations 1101 to 1111 may be repeatedly or periodically performed while a function for automatically adjusting the brightness of the display module 160 is being executed. According to an embodiment, the processor 120 may operate to correct the illuminance by performing the operation of FIG. 11 based on whether a change in the illuminance value or a change in the posture of the electronic device 101 is detected. . For example, when a posture change of the electronic device 101 occurs, the incident angle of light projected onto the optical sensor 700 also changes, so the illuminance value may be corrected based on the new incident angle.
본 개시의 실시예에 따른 전자 장치(101)에서 수행하는 동작 방법은, 조도 센서(예: 도 6, 도 7 또는 도 10의 조도 센서(600))를 에워싸는 형태로 배치된 광 센서(예: 도 6, 도 7 또는 도 10의 광 센서(700))를 통해, 외부 광원으로부터 입사되는 입사광의 센싱 값을 획득하는 동작, 상기 센싱 값에 기반하여 상기 광원의 방향을 계산하는 동작, 상기 계산된 방향에서 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하는 동작, 상기 계산된 비율 변화에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하는 동작, 및 상기 결정된 보정 비율에 기반하여 상기 광원의 방향에 대응하는 조도를 보정하는 동작을 포함할 수 있다.An operating method performed by the electronic device 101 according to an embodiment of the present disclosure includes an optical sensor (eg, the illuminance sensor 600 of FIGS. 6, 7, or 10) disposed in a form surrounding an illuminance sensor (eg, the illuminance sensor 600 of FIG. 6, 7, or 10). Obtaining a sensing value of incident light incident from an external light source through the optical sensor 700 of FIG. 6, FIG. 7 or 10), calculating the direction of the light source based on the sensing value, and An operation of calculating a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor in a direction, an operation of determining a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change, and An operation of correcting the illuminance corresponding to the direction of the light source based on the determined correction ratio may be included.
일 실시예에 따르면, 상기 광 센서는 복수 개로 형성하고, 상기 복수 개의 광 센서는 대칭 구조로 배치할 수 있다.According to an embodiment, a plurality of optical sensors may be formed, and the plurality of optical sensors may be disposed in a symmetrical structure.
일 실시예에 따르면, 상기 광원의 방향을 계산하는 동작은, 상기 광원이 상기 조도 센서에 대해 수직 방향에 위치하여 입사되는 기준에 기반하여 상기 광원의 방향을 계산하는 동작을 포함할 수 있다.According to an embodiment, the operation of calculating the direction of the light source may include an operation of calculating the direction of the light source based on a criterion in which the light source is located in a direction perpendicular to the illuminance sensor and is incident.
일 실시예에 따르면, 상기 광원의 방향을 계산하는 동작은, 상기 조도 센서의 외곽에서 상기 조도 센서를 에워싸도록 배치된 상기 광 센서로부터, 상기 광 센서로 비춰지는 광의 입사각에 관련된 데이터를 획득하는 동작, 상기 광의 입사각에 관련된 데이터에 기반하여 상기 광원의 방향을 결정하는 동작을 포함하고, 상기 광의 입사각에 관련된 데이터는, 상기 광원이 상기 조도 센서에 대해 측광인지 여부를 판단하기 위한 정보로, 상기 광 센서에서 빛의 감지 여부, 감지된 광량, 및/또는 광의 세기에 관련된 정보를 포함할 수 있다.According to an embodiment, the calculating of the direction of the light source may include obtaining data related to an incident angle of light shining onto the optical sensor from the optical sensor disposed outside the illuminance sensor to surround the illuminance sensor. and determining a direction of the light source based on data related to the incident angle of light, wherein the data related to the incident angle of light is information for determining whether the light source is photometric for the illuminance sensor, It may include information related to whether light is detected by the light sensor, the amount of light detected, and/or the intensity of light.
일 실시예에 따르면, 상기 보정 비율을 결정하는 동작은, 계산된 광원 방향의 측광에 따라 상기 광 센서에 비춰지는 면적의 비율에 기반하여 보정 비율을 결정하는 동작을 포함할 수 있다.According to an embodiment, the operation of determining the correction ratio may include an operation of determining the correction ratio based on a ratio of an area illuminated by the light sensor according to the calculated photometry of the direction of the light source.
일 실시예에 따르면, 상기 조도를 보정하는 동작은, 상기 광원의 방향에 대응하여 보정된 보정 비율을 조도의 계산식에 적용하여, 상기 광원의 방향에 따른 조도를 보정하는 동작을 포함할 수 있다.According to an embodiment, the operation of correcting the illuminance may include an operation of correcting the illuminance according to the direction of the light source by applying a correction ratio corrected corresponding to the direction of the light source to an illuminance calculation formula.
일 실시예에 따르면, 상기 조도를 보정하는 동작은, 보정된 조도에 기반하여 디스플레이 모듈의 밝기를 조절하는 동작을 포함할 수 있다.According to one embodiment, the operation of correcting the illuminance may include adjusting the brightness of the display module based on the corrected illuminance.
본 명세서와 도면에 개시된 본 개시의 다양한 실시예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.Various embodiments of the present disclosure disclosed in the present specification and drawings are only presented as specific examples to easily explain the technical content of the present disclosure and help understanding of the present disclosure, and are not intended to limit the scope of the present disclosure. Therefore, the scope of the present disclosure should be construed as including all changes or modified forms derived based on the technical spirit of the present disclosure in addition to the embodiments disclosed herein.

Claims (15)

  1. 전자 장치에 있어서, In electronic devices,
    디스플레이;display;
    외부 광원으로부터 입사되는 입사광을 센싱하도록 설정된 조도 센서 및 광 센서를 포함하는 조도 센서;an illuminance sensor including an illuminance sensor and an optical sensor configured to sense incident light incident from an external light source;
    메모리; 및Memory; and
    상기 디스플레이, 상기 조도 센서, 및 상기 메모리와 작동적으로 연결된 프로세서를 포함하고, 상기 프로세서는,a processor operatively coupled with the display, the ambient light sensor, and the memory, the processor comprising:
    상기 광 센서를 통해 상기 입사광의 센싱 값을 획득하고,Obtaining a sensing value of the incident light through the optical sensor;
    상기 센싱 값에 기반하여 상기 광원의 방향을 계산하고, Calculate the direction of the light source based on the sensing value,
    상기 계산된 방향에서 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하고,Calculate a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor in the calculated direction;
    상기 계산된 비율 변화에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하고, 및Determine a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change, and
    상기 결정된 보정 비율에 기반하여 상기 광원의 방향에 대응하는 조도를 보정하도록 설정된 전자 장치.An electronic device configured to correct illuminance corresponding to a direction of the light source based on the determined correction ratio.
  2. 제1항에 있어서, 상기 광 센서는, The method of claim 1, wherein the optical sensor,
    상기 조도 센서의 수평 기준점을 기준으로 상기 조도 센서를 에워싸는 형태로 배치되는 것을 특징으로 하는 전자 장치.The electronic device characterized in that it is disposed in a form surrounding the illuminance sensor based on the horizontal reference point of the illuminance sensor.
  3. 제1항에 있어서, 상기 광 센서는,The method of claim 1, wherein the optical sensor,
    상기 조도 센서를 에워싸도록 복수 개로 형성되며, It is formed in plurality to surround the illuminance sensor,
    상기 복수 개의 광 센서는 대칭 구조로 배치되는 것을 특징으로 하는 전자 장치.The electronic device, characterized in that the plurality of optical sensors are arranged in a symmetrical structure.
  4. 제3항에 있어서, 상기 광 센서는,The method of claim 3, wherein the optical sensor,
    상기 조도 센서의 상, 하, 좌, 우 외곽에 각각 배치되는 4개의 광 센서를 포함하도록 설정된 전자 장치.An electronic device configured to include four optical sensors disposed above, below, left, and right outside the illuminance sensor, respectively.
  5. 제3항에 있어서, 상기 광 센서는,The method of claim 3, wherein the optical sensor,
    상기 조도 센서의 상, 하, 좌, 우, 좌상, 우상, 좌하, 우하 외곽에 각각 배치되는 8개의 광 센서를 포함하도록 설정된 전자 장치.The electronic device configured to include eight optical sensors respectively disposed outside the upper, lower, left, right, upper left, upper right, lower left, and lower right edges of the illuminance sensor.
  6. 제1항에 있어서, 상기 프로세서는,The method of claim 1, wherein the processor,
    상기 광원이 상기 조도 센서에 대해 수직 방향에 위치하여 입사되는 기준에 기반하여 상기 광원의 방향을 계산하도록 설정된 전자 장치.An electronic device configured to calculate a direction of the light source based on a criterion in which the light source is incident in a direction perpendicular to the illuminance sensor.
  7. 제1항에 있어서, 상기 프로세서는,The method of claim 1, wherein the processor,
    상기 조도 센서의 외곽에 배치된 상기 광 센서를 이용하여, 상기 광 센서에 상기 광원의 입사광이 센싱되는 정도에 기반하여 상기 광원의 방향을 계산하도록 설정된 전자 장치.The electronic device configured to calculate a direction of the light source based on a degree to which incident light of the light source is sensed by the light sensor by using the light sensor disposed outside the illuminance sensor.
  8. 제7항에 있어서, 상기 프로세서는,The method of claim 7, wherein the processor,
    상기 조도 센서의 외곽에서 상기 조도 센서를 에워싸도록 배치된 상기 광 센서로부터, 상기 광 센서로 비춰지는 광의 입사각에 관련된 데이터를 획득하도록 설정되고,It is set to acquire data related to an incident angle of light shining on the optical sensor from the optical sensor disposed outside the illuminance sensor to surround the illuminance sensor,
    상기 광의 입사각에 관련된 데이터는, 상기 광원이 상기 조도 센서에 대해 측광인지 여부를 판단하기 위한 정보로, 상기 광 센서에서 빛의 감지 여부, 감지된 광량, 및/또는 광의 세기에 관련된 정보를 포함하는 전자 장치.The data related to the incident angle of the light is information for determining whether the light source is photometric for the illuminance sensor, and includes information related to whether light is detected by the light sensor, the amount of light detected, and / or the intensity of light electronic device.
  9. 제8항에 있어서, 상기 프로세서는,The method of claim 8, wherein the processor,
    상기 광 센서 중에서 상기 센싱 값을 전달하는 적어도 하나의 광 센서의 위치 및/또는 적어도 하나의 광 센서로부터 전달되는 센싱 값의 크기에 기반하여 상기 광원의 방향을 결정하도록 설정된 전자 장치.An electronic device configured to determine a direction of the light source based on a position of at least one light sensor transmitting the sensed value among the light sensors and/or a magnitude of the sensed value transmitted from the at least one light sensor.
  10. 제1항에 있어서, 상기 프로세서는,The method of claim 1, wherein the processor,
    상기 광원의 계산된 방향에서 ALS/IR 비율의 변화를 계산하고, Calculate the change in ALS / IR ratio in the calculated direction of the light source;
    계산된 비율과 지정된 기준 비율을 비교하여, 계산된 비율이 일정 이상으로 틀어지는 경우, 상기 계산된 비율 변화에 기반하여 상기 광원의 방향에 대한 보정 비율을 결정하도록 설정된 전자 장치.An electronic device configured to compare the calculated ratio with a specified reference ratio and determine a correction ratio for a direction of the light source based on a change in the calculated ratio when the calculated ratio is distorted by a certain amount or more.
  11. 제10항에 있어서, 상기 프로세서는, The method of claim 10, wherein the processor,
    계산된 광원 방향의 측광에 따라 상기 광 센서에 비춰지는 면적의 비율에 기반하여 보정 비율을 결정하도록 설정된 전자 장치.An electronic device configured to determine a correction ratio based on a ratio of an area illuminated by the light sensor according to the calculated photometric light source direction.
  12. 제1항에 있어서, 상기 프로세서는,The method of claim 1, wherein the processor,
    보정된 조도에 기반하여 상기 디스플레이의 밝기를 조절하도록 설정된 전자 장치.An electronic device set to adjust the brightness of the display based on the calibrated illuminance.
  13. 전자 장치의 동작 방법에 있어서, In the method of operating an electronic device,
    조도 센서를 에워싸는 형태로 배치된 광 센서를 통해, 외부 광원으로부터 입사되는 입사광의 센싱 값을 획득하는 동작;obtaining a sensing value of incident light incident from an external light source through an optical sensor disposed to surround the illuminance sensor;
    상기 센싱 값에 기반하여 상기 광원의 방향을 계산하는 동작; calculating a direction of the light source based on the sensing value;
    상기 계산된 방향에서 상기 조도 센서의 각 채널의 포토다이오드가 빛을 받는 영역의 비율 변화를 계산하는 동작;calculating a ratio change of an area receiving light from a photodiode of each channel of the illuminance sensor in the calculated direction;
    상기 계산된 비율 변화에 기반하여 상기 조도 센서의 상기 광원의 방향에 대한 보정 비율을 결정하는 동작; 및determining a correction ratio for the direction of the light source of the illuminance sensor based on the calculated ratio change; and
    상기 결정된 보정 비율에 기반하여 상기 광원의 방향에 대응하는 조도를 보정하는 동작을 포함하는 방법.and correcting the illuminance corresponding to the direction of the light source based on the determined correction ratio.
  14. 제13항에 있어서, 상기 광원의 방향을 계산하는 동작은,The method of claim 13, wherein the operation of calculating the direction of the light source,
    상기 조도 센서의 외곽에서 상기 조도 센서를 에워싸도록 배치된 상기 광 센서로부터, 상기 광 센서로 비춰지는 광의 입사각에 관련된 데이터를 획득하는 동작, obtaining data related to an incident angle of light projected onto the optical sensor from the optical sensor disposed outside the illuminance sensor to surround the illuminance sensor;
    상기 광의 입사각에 관련된 데이터에 기반하여 상기 광원의 방향을 결정하는 동작을 포함하고,determining a direction of the light source based on data related to an incident angle of the light;
    상기 광의 입사각에 관련된 데이터는, 상기 광원이 상기 조도 센서에 대해 측광인지 여부를 판단하기 위한 정보로, 상기 광 센서에서 빛의 감지 여부, 감지된 광량, 및/또는 광의 세기에 관련된 정보를 포함하는 방법.The data related to the incident angle of the light is information for determining whether the light source is photometric for the illuminance sensor, and includes information related to whether light is detected by the light sensor, the amount of light detected, and / or the intensity of light method.
  15. 제13항에 있어서, 상기 보정 비율을 결정하는 동작은, The method of claim 13, wherein the determining of the correction ratio comprises:
    계산된 광원 방향의 측광에 따라 상기 광 센서에 비춰지는 면적의 비율에 기반하여 보정 비율을 결정하는 동작을 포함하고,Determining a correction ratio based on a ratio of an area illuminated by the optical sensor according to the calculated photometry of the direction of the light source;
    상기 조도를 보정하는 동작은,The operation of correcting the illuminance,
    상기 광원의 방향에 대응하여 보정된 보정 비율을 조도의 계산식에 적용하여, 상기 광원의 방향에 따른 조도를 보정하는 동작,Correcting the illuminance according to the direction of the light source by applying the corrected correction ratio corresponding to the direction of the light source to the illuminance calculation formula;
    보정된 조도에 기반하여 디스플레이의 밝기를 조절하는 동작을 포함하는 방법.A method comprising adjusting the brightness of a display based on the calibrated illuminance.
PCT/KR2022/015980 2021-12-06 2022-10-19 Method and device for improving accuracy of ambient light measurement in electronic device WO2023106614A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0173201 2021-12-06
KR20210173201 2021-12-06
KR1020220004875A KR20230085038A (en) 2021-12-06 2022-01-12 Apparatus and method for improving the accuracy of illuminance measurements in electronic device
KR10-2022-0004875 2022-01-12

Publications (1)

Publication Number Publication Date
WO2023106614A1 true WO2023106614A1 (en) 2023-06-15

Family

ID=86730641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/015980 WO2023106614A1 (en) 2021-12-06 2022-10-19 Method and device for improving accuracy of ambient light measurement in electronic device

Country Status (1)

Country Link
WO (1) WO2023106614A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100022791A (en) * 2008-08-20 2010-03-03 삼성전자주식회사 Light sensing circuit, liquid crystal display comprising the same and drividng method of the same
US20120236297A1 (en) * 2011-03-16 2012-09-20 Seiko Epson Corporation Optical sensor and electronic apparatus
KR20170096565A (en) * 2016-02-16 2017-08-24 삼성전자주식회사 Electronic apparatus
KR20180036150A (en) * 2016-09-30 2018-04-09 삼성전자주식회사 Spectrometric sensing apparatus in electronic device and method thereof
KR20210087349A (en) * 2020-01-02 2021-07-12 삼성전자주식회사 LIDAR device and operating method for the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100022791A (en) * 2008-08-20 2010-03-03 삼성전자주식회사 Light sensing circuit, liquid crystal display comprising the same and drividng method of the same
US20120236297A1 (en) * 2011-03-16 2012-09-20 Seiko Epson Corporation Optical sensor and electronic apparatus
KR20170096565A (en) * 2016-02-16 2017-08-24 삼성전자주식회사 Electronic apparatus
KR20180036150A (en) * 2016-09-30 2018-04-09 삼성전자주식회사 Spectrometric sensing apparatus in electronic device and method thereof
KR20210087349A (en) * 2020-01-02 2021-07-12 삼성전자주식회사 LIDAR device and operating method for the same

Similar Documents

Publication Publication Date Title
WO2020101344A1 (en) Electronic device and illuminance sensing method based on display information on electronic device
WO2019074330A1 (en) Method for obtaining biometric information and electronic device thereof
WO2020171551A1 (en) Electronic device for controlling brightness of display
WO2021157908A1 (en) Electronic device and method for controlling brightness of display
WO2021162244A1 (en) Foldable mobile electronic device capable of setting brightness of display through light sensor
WO2020071884A1 (en) Electronic device including sensor mounted below display panel
EP4139914A1 (en) Electronic device including display
WO2021010737A1 (en) An electronic device including an optical sensor mounted on back surface of a display
WO2019182408A1 (en) Device and method for compensating for temperature change in strain gauge pressure sensor and method for implementing strain gauge pressure from touchscreen element
WO2022244955A1 (en) Electronic device comprising proximity sensor having plurality of light receiving elements, and control method therefor
WO2022154379A1 (en) Electronic device and brightness adjustment method
WO2020036381A1 (en) Electronic device including scattering member and light receiving element obtaining light scattered by scattering member and method of controlling same
WO2022025494A1 (en) Electronic device for controlling luminance of display and operating method thereof
WO2020111794A1 (en) Electronic device including display panel including electrodes having different shapes for respective areas
WO2023008854A1 (en) Electronic device comprising optical sensor embedded in display
WO2023106614A1 (en) Method and device for improving accuracy of ambient light measurement in electronic device
WO2022182123A1 (en) Electronic device including optical sensor embedded in display
WO2022030736A1 (en) Method and device for measuring illuminance
WO2022050620A1 (en) Detection circuit, and electronic device comprising same
WO2021071111A1 (en) Electronic device including point detector and biometric information obtaining method using the same
WO2023017993A1 (en) Electronic device for configuring brightness of display by using illuminance sensor
WO2022239978A1 (en) Electronic device comprising fingerprint sensor and method
WO2023106712A1 (en) Electronic device and operation method thereof
WO2023128364A1 (en) Display panel for under display camera (udc), and electronic device comprising same
WO2023106711A1 (en) Electronic device including lidar device and operation method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22904448

Country of ref document: EP

Kind code of ref document: A1