WO2023068628A1 - 근접 센싱 방법 및 전자 장치 - Google Patents

근접 센싱 방법 및 전자 장치 Download PDF

Info

Publication number
WO2023068628A1
WO2023068628A1 PCT/KR2022/015315 KR2022015315W WO2023068628A1 WO 2023068628 A1 WO2023068628 A1 WO 2023068628A1 KR 2022015315 W KR2022015315 W KR 2022015315W WO 2023068628 A1 WO2023068628 A1 WO 2023068628A1
Authority
WO
WIPO (PCT)
Prior art keywords
light source
electronic device
reflected
processor
display module
Prior art date
Application number
PCT/KR2022/015315
Other languages
English (en)
French (fr)
Inventor
안태윤
진인태
유주완
이다솜
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2023068628A1 publication Critical patent/WO2023068628A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Definitions

  • Various embodiments of the present disclosure relate to proximity sensing methods and electronic devices.
  • the electronic device may include a large screen touch display to secure wide visibility and improve convenience of operation.
  • the electronic device may include, as an optical module, at least one camera module (eg, an under display camera (UDC)) disposed under a display in an internal space. At least one camera module may be disposed below the display to capture an external subject by passing through at least a portion of the display.
  • UDC under display camera
  • An electronic device performing a call function may at least partially contact a user's ear with an area where a speaker is disposed by a user, and may require a proximity sensing function to detect this.
  • Electronic devices may use a proximity sensor for proximity sensing, but due to a large-screen display (eg, a display with an extended screen display area), there may be restrictions on the placement of the proximity sensor.
  • a proximity sensor When the proximity sensor is disposed below the display, sensing performance may deteriorate due to a decrease in transmittance and a problem of emission noise of the display.
  • production cost may increase.
  • Various embodiments of the present disclosure may provide a method and an electronic device for performing a proximity sensing function using a UDC disposed under a display.
  • an electronic device may include a display module including at least one pixel, a camera disposed on a rear surface of the display module, a memory configured to store a light source reference value corresponding to at least one light source, the display module, and the display module. a camera and a processor operatively coupled to the memory.
  • the processor emits at least one light source based on the at least one pixel through the display module, acquires a reflected light source reflected by the at least one light source through the camera, and Based on the reflective light source, a reflection value corresponding to the at least one light source is identified, noise included in the reflective light source is removed based on a light source reference value stored in the memory and the checked reflection value, and the noise is Proximity to the object may be determined based on the removed reflected light source.
  • an operation of emitting at least one light source based on at least one pixel through a display module, and obtaining a reflected light source reflected by an object through a camera module An operation of checking a reflection value corresponding to the at least one light source based on the acquired reflection light source, and removing noise included in the reflection light source based on a light source reference value stored in a memory and the checked reflection value. and determining proximity to the object based on the reflective light source from which the noise has been removed.
  • a light source emitted from a display may be reflected as reflected light by an object (eg, a human body), and the reflected light may be received through a camera (eg, UDC) disposed below the display.
  • the electronic device may sense the proximity of an object by using the reflected light.
  • the display may be designed such that a partial area of the display corresponding to the camera arrangement area has high transmittance. Due to this, accuracy of proximity sensing may be improved. According to an embodiment, since the UDC performs a proximity sensing function, costs due to disposing of a separate proximity sensor do not occur, and a space in which a separate proximity sensor is disposed can be secured. According to an embodiment, an electronic device may be designed to have a display and a proximity sensing function based on UDC with high accuracy. In addition to this, various effects identified directly or indirectly through this document may be provided.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
  • UDC under display camera
  • FIG. 3 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • FIG. 4 is a flowchart illustrating a proximity sensing method using a display module and a camera module according to various embodiments of the present disclosure.
  • FIG. 5 is a flowchart illustrating a method of obtaining a reference value for removing noise according to various embodiments of the present disclosure.
  • FIG. 6 is an exemplary diagram illustrating a situation in which a first area of a display module is covered by a reflector according to various embodiments of the present disclosure.
  • FIG. 7 is a flowchart illustrating a situation in which a proximity sensing function is performed when a call is received according to various embodiments of the present disclosure.
  • FIG. 8 is a time table illustrating a situation in which each component performs a proximity sensing function when a call is received according to various embodiments of the present disclosure.
  • FIG. 9 is an exemplary diagram illustrating a situation in which a certain percentage of pixels are covered based on a plurality of pixels included in a display module according to various embodiments of the present disclosure.
  • FIG. 10 is a flowchart illustrating a method of determining proximity of an object according to execution of a proximity sensing function according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 within a network environment 100, according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • the server 108 e.g, a long-distance wireless communication network
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or the antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added.
  • some of these components eg, sensor module 176, camera module 180, or antenna module 197) are integrated into a single component (eg, display module 160). It can be.
  • the processor 120 for example, executes software (eg, the program 140) to cause at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • software eg, the program 140
  • processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor).
  • a main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor.
  • NPU neural network processing unit
  • the secondary processor 123 may use less power than the main processor 121 or be set to be specialized for a designated function.
  • the secondary processor 123 may be implemented separately from or as part of the main processor 121 .
  • the secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the auxiliary processor 123 eg, an image signal processor or a communication processor
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited.
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples.
  • the artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, program 140) and commands related thereto.
  • the memory 130 may include volatile memory 132 or non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside of the electronic device 101 (eg, a user).
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • a receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 may convert sound into an electrical signal or vice versa. According to an embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a bio sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 may be a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, a : a local area network (LAN) communication module or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, a : a local area network (LAN) communication module or a power line communication module.
  • a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a telecommunications network such as a computer network (eg, a LAN or a WAN).
  • a telecommunications network such as a computer network (eg, a LAN or a WAN).
  • These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips).
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology).
  • NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low latency
  • -latency communications can be supported.
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • the wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported.
  • the wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199).
  • the wireless communication module 192 is a peak data rate for eMBB realization (eg, 20 Gbps or more), a loss coverage for mMTC realization (eg, 164 dB or less), or a U-plane latency for URLLC realization (eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) may be supported.
  • eMBB peak data rate for eMBB realization
  • a loss coverage for mMTC realization eg, 164 dB or less
  • U-plane latency for URLLC realization eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less
  • the antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC) may be additionally formed as a part of the antenna module 197 in addition to the radiator.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first surface (eg, a lower surface) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, array antennas) disposed on or adjacent to a second surface (eg, a top surface or a side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself.
  • one or more external electronic devices may be requested to perform the function or at least part of the service.
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 .
  • the electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • UDC under display camera
  • the electronic device 200 includes a first surface (or front surface) 210A, a second surface (or rear surface) 210B, and a gap between the first surface 210A and the second surface 210B. It may include a housing 210 including a side surface 210C surrounding the space.
  • a display module 160 may be disposed corresponding to the first surface 210A, and content may be displayed through the display module 160 .
  • the display module 160 is, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, microelectromechanical systems (MEMS) displays, and/or electronic paper.
  • the electronic device 200 may display at least one piece of content (eg, text, image, video, icon, and/or symbol) through the display module 160 .
  • the display module 160 may include a touch screen, and may receive, for example, an electronic pen input, a touch input using a part of the user's body, a gesture input, a proximity input, and/or a hovering input.
  • the display module 160 may include a glass cover (window panel) visually exposed to the outside and/or various layers.
  • the display module 160 is the entire (bezel- less) or most of it.
  • the display module 160 may be implemented in a form extending to the side 210C (eg, top/bottom/left/right side) of the electronic device 200 .
  • At least one camera 201 (eg, the camera module 180 of FIG. 1 or an under display camera (UDC)) is disposed under a display module 160.
  • a display module 160 can include Referring to FIG. 2 , one camera 201 is illustrated as being disposed under the display module 160, but the position and number of cameras disposed therein are not limited.
  • the housing 210 of the electronic device 200 may secure an internal space for disposing at least one camera 201, and may be designed in such a way that the at least one camera 201 is disposed in the internal space. .
  • At least one camera 201 may be disposed to be at least partially visually exposed to the outside through the display module 160 .
  • the at least one camera 201 may be disposed in a form in contact with an external environment through a transmissive area 201 ′ at least partially implemented on the front surface 210A of the display module 160 .
  • an area where the display module 160 and at least one camera 201 face each other eg, a transmissive area 201', a light emitting area through the display module 160
  • it may be formed to have a certain transmittance.
  • the transmission region may be formed to have a transmittance in a range of about 5% to about 20%.
  • the transmission area may include an area overlapping an effective aperture (eg, an angle of view, a camera lens arrangement area) of the camera module through which light formed through the image sensor and for generating an image passes.
  • the transmissive area 201' of the display module 160 may include an area with a lower pixel density than the surrounding area.
  • the transmission area may replace an opening through which at least one camera 201 is visually exposed to the outside.
  • the electronic device 200 may emit at least one light source based on at least one pixel included in the display module 160 .
  • the at least one light source may include a red light source, a green light source, and/or a blue light source.
  • the electronic device 200 may perform a light emitting function based on at least one pixel included in the display module 160, and while at least partially transmitting through the transparent region 201', the external At least one light source may illuminate the environment. At least one pixel may function as a light emitting unit.
  • the electronic device 200 may receive light transmitted from the external environment based on the camera 201 disposed below the display module 160 .
  • the camera 201 may at least partially acquire reflected light reflected from an external subject.
  • the electronic device 200 may emit at least one light source through the display module 160, and reflect light reflected by an external subject based on the at least one light source into the camera 201. ) can be obtained using For example, at least one pixel included in the display module 160 may operate as a light emitting unit, and the camera 201 disposed below the display module 160 may operate as a light receiving unit.
  • a partial area of the display module 160 may be set as a transmission area 201' corresponding to the position of the lens of the camera 201.
  • the transmissive area 201' may be designed to have a higher transmittance than other areas of the display module 160 except for the transmissive area.
  • the electronic device 200 since the transmission region 201 ′ has high transmittance, the electronic device 200 can more accurately receive reflected light through the camera 201 .
  • the electronic device 200 may utilize the display module 160 as a light emitting unit and the camera 201 as a light receiving unit, and perform proximity sensing based on the display module 160 and the camera 201. function can be performed.
  • the electronic device 200 replaces a separate proximity sensor with a display module 160 that emits a light source by itself and a camera 201 disposed below the display module 160 (eg: UDC) can be used.
  • FIG. 3 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • the electronic device of FIG. 3 (eg, the electronic device 101 of FIG. 1 ) may be at least partially similar to the electronic device 200 of FIG. 2 or may further include other embodiments of the electronic device 200 .
  • the electronic device 101 may utilize a display module (eg, the display module 160 of FIG. 1 ) as a light emitting unit and a camera module (eg, the camera module 180 of FIG. 1 ) as a light receiving unit.
  • a display module eg, the display module 160 of FIG. 1
  • a camera module eg, the camera module 180 of FIG. 1
  • the electronic device 101 may receive the reflected light through the camera module 180 .
  • the electronic device 101 may perform a proximity sensing function based on the display module 180 (eg, a light emitter) and the camera module 180 (eg, a light receiver).
  • the camera module 180 may be disposed below (eg, the back surface) of the display module 160, and an area of the display module 160 corresponding to the position where the camera module 180 is disposed (eg, transmission in FIG. 2 Region 201') may be implemented to have high transmittance.
  • the transmissive area 201' may be designed to have higher transmittance than the rest of the screen display area of the display module 160 except for the transmissive area 201'.
  • the electronic device 101 includes a processor (eg, the processor 120 of FIG. 1 ), a memory (eg, the memory 130 of FIG. 1 ), a display module 160 , a sensor module (eg, the FIG. 1) and/or an under display camera (UDC) 310 (eg, the camera module 180 of FIG. 1).
  • the electronic device 101 may use the display module 160 and the UDC 310 instead of the proximity sensor.
  • at least one pixel included in the display module 160 may be used as a light emitting unit, and the UDC 310 may be used as a light receiving unit.
  • the electronic device 101 may store the light source reference value 320 (eg, calibration information and/or calibration data) in the memory 130 in advance, and the light source stored in the memory 130 Based on the reference value, a noise component of the reflected light obtained from the outside may be removed.
  • the light source reference value 320 eg, calibration information and/or calibration data
  • the processor 120 may execute a program (eg, the program 140 of FIG. 1 ) stored in the memory 130 to control at least one other component (eg, a hardware or software component) and obtain various data. Can perform processing or calculations. For example, the processor 120 generates first light emitted through a partial area of the display module 160 (eg, the transmissive area 201' in FIG. 2 ) and second light received through the camera module 180 . Based on (eg, reflected light), a proximity sensing function may be performed, and the proximity of a human body (eg, an object) to the electronic device 101 may be determined.
  • a program eg, the program 140 of FIG. 1
  • the processor 120 generates first light emitted through a partial area of the display module 160 (eg, the transmissive area 201' in FIG. 2 ) and second light received through the camera module 180 . Based on (eg, reflected light), a proximity sensing function may be performed, and the proximity of a human body (eg, an object) to
  • the light source reference value 320 stored in the memory 130 is first data for at least one light source (eg, visible light) emitted from at least one pixel included in the display module 160 and the at least one light source Second data about reflected light reflected by an external object (eg, a human body) may be included.
  • the light source reference value 320 may include calibration information by a calibration operation and may be stored in advance.
  • the light source reference value 320 may include light source data by which, when light emitted through at least one pixel is reflected by an object, the reflected light is received by the UDC 310 without a surrounding noise component.
  • the light source reference value 320 may include data on a light source not including a noise component and a reflective light source.
  • the processor 120 may determine whether or not a noise component is included in the acquired light source based on the light source reference value 320 stored in the memory 130, and The noise component may be removed from the light source.
  • the display module 160 may be implemented in a form in which at least one pixel is arranged based on a set interval and position.
  • the display module 160 may operate with at least one pixel in an ON state or an OFF state.
  • the display module 160 may emit at least one light source based on the at least one pixel when the at least one pixel is in an ON state.
  • the at least one light source may include a red light source, a green light source, and/or a blue light source.
  • the processor 120 may repeatedly emit light from at least one light source according to a predetermined period.
  • the processor 120 may set a value in the range of about 0 to 255 in response to at least one light source.
  • the processor 120 may emit red light.
  • the processor 120 may implement various colors by combining at least one light source. For example, when a red light source, a green light source, and/or a blue light source are all set to a value of 255, the processor 120 may implement and emit white light.
  • a portion of the screen display area of the display module 160 eg, the transmissive area 201' in FIG. 2 ) may have a high transmittance.
  • At least one UDC 310 may be disposed below (eg, a rear surface) of the display module 160, and the at least one UDC 310 generates light (eg, reflected light) from an external environment. can receive light.
  • a transmissive area 201' may be set corresponding to the position where the at least one UDC 310 is disposed, and the transmissive area 201' may be designed to have high transmittance. there is.
  • the display module 160 can be used as a light emitting unit.
  • the display module 160 may include a touch screen panel and may detect a user's touch input. For example, when a touch input is sensed through the display module 160, the processor 120 may check coordinate information corresponding to the touch input to the display module 160. The processor 120 may determine whether an object (eg, a human body) is close to the display module 160 based on coordinate information according to a user's touch input.
  • an object eg, a human body
  • the sensor module 176 may be used to check the state of the electronic device 101 (eg, use state, standby state, sleep state), an illumination sensor for checking the brightness of the surrounding environment, and the electronic device 101 It may include at least one of a grip sensor for checking grip and/or a gyro sensor for checking the position of the electronic device 101 .
  • the electronic device 101 may use an illuminance sensor to check the brightness of the surrounding environment and determine whether the electronic device 101 is left in a bag.
  • the electronic device 101 can determine whether the user grips the electronic device 101 using the grip sensor, and can predict whether or not the electronic device 101 will be used based on the grip type.
  • the electronic device 101 may check the position and arrangement position of the electronic device 101 using the gyro sensor.
  • the electronic device 101 may use the sensor module 176 to determine whether the electronic device 101 operates in a specific situation.
  • the UDC 310 (eg, the camera module 180 of FIG. 1 ) may be disposed below (eg, the rear surface) of the display module 160 and uses a light source (eg, a reflected light source, a reflected light) generated from an external environment. You can receive (acquire) light.
  • the UDC 310 may operate in one of an ON state and/or an OFF state in a situation in which it is used as a light receiving unit. For example, when at least one light source is emitted from the display module 160, the UDC 310 may operate in an ON state.
  • the processor 120 may obtain a reflection light source in which at least one light source is reflected by an object using the UDC 310 in an ON state.
  • the display module 160 may set a portion of the display area as a transmissive area having high transmittance (eg, the transmissive area 201' in FIG. 2 ).
  • the UDC 310 may be disposed below the transmissive area 201' of the display module 160.
  • at least one UDC 310 may be disposed at least partially under the display module 160 .
  • the electronic device 101 may utilize at least one pixel included in the display module 160 as a light emitting unit and may utilize the UDC 310 as a light receiving unit.
  • the electronic device 101 may receive the reflected light source through the UDC 310 when the light source emitted from the display module 160 is reflected by an external object.
  • the electronic device 101 may perform a proximity sensing function based on the display module 180 (eg, a light emitter) and the UDC 310 (eg, a light receiver).
  • the electronic device 101 may store the light source reference value 320 previously acquired through the calibration operation in the memory 130, and may remove noise components of the reflected light source based on the light source reference value 320.
  • the electronic device 101 when the electronic device 101 receives light of the reflective light source, based on the light source reference value 320 stored in the memory 130, the electronic device 101 may remove a noise component of the reflective light source, and the noise component is removed.
  • the proximity sensing function can be more accurately performed. Accuracy of proximity sensing may be improved.
  • the electronic device 101 includes a display module 160 including at least one pixel, a camera module 180 disposed on a rear surface of the display module 160, and a display module corresponding to at least one light source. It may include a memory 130 that stores a light source reference value, and a processor 120 operatively connected to the display module 160 , the camera module 180 , and the memory 130 .
  • the processor 120 emits at least one light source based on the at least one pixel through the display module 160, and the at least one light source reflects a light source reflected by an object in the camera module ( 180), checks a reflection value corresponding to the at least one light source based on the obtained reflected light source, and based on the light source reference value stored in the memory 130 and the checked reflection value, Noise included in the reflective light source may be removed, and proximity to the object may be determined based on the reflective light source from which the noise is removed.
  • the camera module 180 is disposed on the rear surface of the first area (eg, the transmissive area 201' of FIG. 2) of the display module 160, and the first area 201' is characterized in that it has higher transmittance than other areas of the display module 160 except for the first area 201'.
  • the processor 120 emits at least one light source while transmitting through the first region 201' based on at least one pixel distributed in the first region 201'. can do.
  • the processor 120 transmits the reflected light source through the first area 201' through the camera module 180 disposed on the rear surface of the first area 201'. can be lighted.
  • the electronic device 101 further includes a reflector disposed on a surface of the display module 160 while entirely covering the first region 201', and the processor 120 operates on the reflector. While covering the first region 201', at least one light source emits light through at least one pixel distributed in the first region 201', and the at least one light source is reflected by the reflector. The reflected light source is received through the camera module 180 disposed on the rear surface of the first area 201', and a reflection value corresponding to the at least one light source is determined as a light source reference value based on the received reflected light source. , and the light source reference value may be stored in the memory 130 .
  • the light source reference value may include at least one of a reference reflection value not including noise according to an external environment and a frequency value and an amplitude value corresponding to the at least one light source.
  • the at least one light source may include at least one of a red light source, a green light source, and a blue light source.
  • the processor 120 may implement white light by combining the at least one light source and emit the implemented white light.
  • the processor 120 may emit light from at least one light source among a plurality of light sources according to a set order.
  • the electronic device 101 further includes a sensor module 176 including a gyro sensor for detecting a posture of the electronic device 101, and the processor 120 uses the gyro sensor.
  • the posture of the electronic device 101 is checked, and when the checked posture matches the set posture, at least one light source based on the at least one pixel may be emitted through the display module 160. there is.
  • the electronic device 101 further includes a communication module 190 for communicating with an external electronic device, and the processor 120 communicates with the external electronic device through the communication module 190.
  • the camera module 180 may be at least partially activated.
  • the processor 120 stops the light emission operation of the at least one light source based on the at least one pixel when the distance to the object is equal to or less than a set threshold, and the activated camera module can be disabled.
  • the processor 120 checks the received light amount corresponding to the acquired reflected light source, determines whether the checked light received amount is less than the reference light received amount stored in the memory 130, and determines whether the at least one Based on the pixels of , check the ratio of the pixels covered by the object, check whether the ratio of the identified pixels exceeds the reference ratio stored in the memory 130, and determine whether the light reception amount is less than the reference light reception amount or , or if the ratio of the pixels exceeds the reference ratio, it may be determined that the object is in close proximity.
  • FIG. 4 is a flowchart illustrating a proximity sensing method using a display module and a camera module according to various embodiments of the present disclosure.
  • the electronic device of FIG. 4 (eg, the electronic device 101 of FIG. 1 ) may be at least partially similar to the electronic device 200 of FIG. 2 or may further include other embodiments of the electronic device 200 .
  • the electronic device 101 of FIG. 4 may include at least one component shown in FIG. 3 .
  • the processor eg, the processor 120 of FIG. 1
  • transmits a first area eg, the transparent area 201 of FIG. 2
  • a display module eg, the display module 160 of FIG. 1
  • at least one light source eg, a red light source, a green light source, and/or a blue light source
  • at least one light source may include visible light.
  • the processor 120 may set a value in the range of about 0 to 255 in response to at least one light source, and implement various colors by combining at least one light source. For example, when the red light source is set to a value of 255, the processor 120 may emit the red light source.
  • the processor 120 may implement white light and emit the white light.
  • the electronic device 101 may set a partial area of the display module 160 as the first area 201', and the first area 201' may have a relatively higher transmittance than its surroundings.
  • At least one pixel from which at least one light source emits light may be at least partially distributed in the first region 201'.
  • At least one light source emitted through at least one pixel may pass through the first region 201' and be transmitted to the external environment.
  • the processor 120 processes a camera module (eg, the camera module 180 of FIG. 1, the camera 201 of FIG. 2, or an under display camera (UDC)) disposed on the rear surface of the first area 201'.
  • a camera module eg, the camera module 180 of FIG. 1, the camera 201 of FIG. 2, or an under display camera (UDC)
  • at least one light source may acquire (receive) reflected light (eg, a reflected light source) reflected by an object.
  • at least one camera module 180 may be disposed under (eg, a rear surface of) the display module 160 .
  • At least one camera module 180 may include an under display camera (UDC).
  • the camera module 180 may at least partially receive light (light) generated from an external environment.
  • the camera module 180 may be used as a light receiving unit.
  • the camera module 180 may receive light transmitted through the first region 201'.
  • at least one light source emitted from the display module 160 may be reflected by an object (eg, a human body or a subject), and the reflected light source may be at least partially received through the camera module 180.
  • the electronic device 101 may measure a distance to an object based on a light source emitted from the display module 160 and a light source received through the camera module 180 . Referring to FIG. 10, a flowchart of measuring a distance to an object is shown. In the detailed description of FIG. 10, an operation of measuring a distance to the object will be described.
  • a light source emitted through the first area 201' may be reflected by an object, and a light source (eg, a reflective light source) reflected by the object may be reflected by the camera through the first area 201'. (201).
  • a light source eg, a reflective light source
  • the processor 120 may check a reflection value corresponding to at least one light source based on the obtained reflected light source.
  • the reflection value may refer to a digital value (eg, an ADC value) when an analog value of light is converted into a digital value based on a reflective light source.
  • the reflective light source may include at least one light source (eg, a red light source, a green light source, and/or a blue light source).
  • the reflection light source may include a light source combining at least one of a red light source, a green light source, and/or a blue light source.
  • the processor 120 may check each reflection value corresponding to each light source (eg, a red light source, a green light source, and/or a blue light source) based on the obtained reflected light source. For example, a reflection value corresponding to a red light source, a reflection value corresponding to a green light source, and/or a reflection value corresponding to a blue light source may be checked.
  • each reflection value may include a frequency and an amplitude corresponding to a color.
  • the processor 120 may remove noise included in at least one light source based on a reference value (eg, calibration data) stored in a memory (eg, the memory 130 of FIG. 1) and the checked reflection value.
  • a reference value eg, calibration data
  • a noise component may be included at least in part.
  • a reflection light source for the at least one light source eg, a visible light source
  • the processor 120 may at least partially remove noise components included in the reflection light source.
  • the electronic device 101 may store light source reference values (eg, calibration data) corresponding to each light source (eg, a red light source, a green light source, and/or a blue light source) in advance.
  • the light source reference value may be obtained through a calibration operation and may include a reflection value of a reflective light source that does not include a noise component based on an external environment.
  • the calibration operation will be described in detail with respect to FIG. 5 .
  • the processor 120 may compare a reference value of a light source that does not include a noise component based on the external environment with a reflection value of a reflective light source that at least partially includes a noise component based on the external environment.
  • a noise component included in the light source may be at least partially removed.
  • the processor 120 may measure the distance to the object based on the noise-removed reflection light source.
  • the processor 120 sets a threshold value (eg, a first threshold value corresponding to a received light amount value and a second threshold value corresponding to a ratio of occluded pixels) for determining proximity to an object in advance. It can be set and stored in the memory 130 .
  • the processor 120 performs a calibration operation (eg, the calibration operation of FIGS. 5 and 6 ) to obtain a first threshold value (eg, the amount of light received in a state where the first region 201′ is covered by the reflector). value) may be determined, and the determined first threshold may be stored in a memory (eg, the memory 130 of FIG.
  • the processor 120 may calculate a received light amount value based on the reflective light source from which the noise is removed, and determine whether the object is approaching by comparing it with a first threshold value stored in the memory 130 . For another example, the processor 120 may set the ratio of the occluded pixels to the second threshold based on the pixels disposed corresponding to the first area 201'. For another example, the processor 120 may determine that the object is approaching when a ratio of occluded pixels exceeds a second threshold so as not to be exposed to the external environment. According to an embodiment, the processor 120 may determine proximity to the object or measure a distance away from the object based on the first threshold and the second threshold.
  • the electronic device 101 may implement white light based on at least one pixel included in the first region 201', and the white light can emit light.
  • the processor 120 may implement a white light source by combining at least one light source.
  • the electronic device 101 may receive the reflected light source corresponding to the white light source through the camera module 180 .
  • the processor 120 may determine a distance (eg, proximity) to an object based on the reflected light source.
  • the processor 120 may remove a noise component included in the reflective light source based on the light source reference value 320 stored in the memory 130, and the noise component may be removed from the object based on the reflective light source. distance can be measured more accurately.
  • the electronic device 101 checks the distance to the object based on the white light source, and then sequentially emits other light sources (eg, a red light source, a green light source, and/or a blue light source), and additionally You can check the distance to the object.
  • the electronic device 101 may perform a proximity sensing function based on at least one light source (eg, visible light).
  • the electronic device 101 may use at least one or more light sources to more accurately measure a distance to an object.
  • FIG. 5 is a flowchart illustrating a method of obtaining a reference value for removing noise according to various embodiments of the present disclosure.
  • the electronic device of FIG. 5 (eg, the electronic device 101 of FIG. 1 ) may be at least partially similar to the electronic device 200 of FIG. 2 or may further include other embodiments of the electronic device 200 .
  • the electronic device 101 of FIG. 5 may include at least one component shown in FIG. 3 .
  • the electronic device 101 may use at least one light source (eg, visible light) to determine whether or not an object is approached (eg, a proximity sensing function is performed).
  • the electronic device 101 can improve the accuracy of determining proximity to an object by removing noise components included in visible light.
  • noise components generated from the external environment may be introduced into visible light generated from at least one light source (eg, the display module 160 of FIG. 1 ).
  • the electronic device 101 determines the arrangement state of the camera module (eg, the camera module 180 of FIG. 1 ) and the setting state of the display module 160 (eg : brightness level), it may be difficult to accurately analyze the reflected light source.
  • the electronic device 101 may perform the calibration operation of FIG. 5 in advance, and analyze the reflected light source based on a limited situation (eg, a situation in which noise components are not introduced from the external environment).
  • the electronic device 101 may perform a calibration operation to check the frequency and amplitude of the reflective light source, and store the checked frequency and amplitude of the reflective light source as reference values (eg, light source reference values) in a memory (eg, FIG. 1 ). It can be stored in the memory 130 of.
  • the electronic device 101 may remove a noise component of the reflected light source received from the external environment based on the reference value stored in the memory 130 .
  • the electronic device 101 may determine proximity to an object based on the reflective light source from which noise components are removed, and accuracy of determining proximity to the object may be improved. According to another embodiment, the electronic device 101 may continuously accumulate data on the reflective light source from which noise components are removed in the memory 130 and may collect data according to a specific situation. The electronic device 101 may improve the accuracy of a proximity sensing function based on the reflection light source by collecting or updating data on the reflection light source.
  • FIG. 5 illustrates a sequence of calibration operations previously performed by the electronic device 101 .
  • FIG. 6 illustrates a situation in which a reflector entirely covers a transmissive area through which at least one light source is transmitted (eg, the transmissive area 201′ of FIG. 2 ) during a calibration operation.
  • the calibration operation may include an operation of analyzing a reflected light source in a state in which no noise component is introduced from the external environment.
  • the electronic device 101 performs a calibration operation to acquire at least one reference value corresponding to at least one light source (eg, a red light source, a green light source, and/or a blue light source).
  • the electronic device 101 may provide a reference value of a red light source corresponding to a red (R) light source, a green light source reference value corresponding to a green (G) light source, and/or a blue light source corresponding to a blue (B) light source.
  • a reference value can be obtained.
  • the processor of the electronic device 101 (eg, the processor 120 of FIG. 1) is in a state in which a reflector is disposed in the first region (eg, the transmissive region 201′ of FIG. 2) of the display module 160.
  • a light source eg, a red light source, a green light source, and/or a blue light source
  • the display module 160 includes at least one pixel and can emit visible light itself through the at least one pixel.
  • visible light may be implemented by combining at least one light source based on at least one light source.
  • the calibration operation may be an operation for obtaining a light source reference value (eg, the light source reference value 320 of FIG. 3 and calibration data) for at least one light source.
  • the electronic device 101 may receive the reflected light source reflected by the object, and remove a noise component included in the reflected light source based on the light source reference value 320 stored in the memory 130.
  • a reflective light source reflected by an object may be in a state in which a noise component generated from an external environment is included.
  • the processor 120 uses a camera (eg, the camera module 180 of FIG. 1 or the UDC 310 of FIG. 3) disposed on the rear surface of the first area 201' to generate at least one light source.
  • a reflective light source reflected by the reflector may be obtained.
  • the electronic device 101 may be in a state in which the first region 201' is completely covered by the reflector.
  • the at least one light source may be reflected by a reflector, and the reflected light source (eg: reflection light source) may be received.
  • the reflection light source may include a light source that does not include a noise component generated based on the external environment.
  • the electronic device 101 may perform a calibration operation to remove a noise component generated from the external environment and included in the reflection light source. During the calibration operation, the electronic device 101 may obtain a light source reference value for the reflected light source reflected by the reflector and store the light source reference value in the memory 130 . According to an embodiment, when receiving a reflective light source reflected by an external object, the electronic device 101 may remove a noise component included in the reflective light source based on a light source reference value stored in the memory 130. there is.
  • the processor 120 may store at least one light source and a frequency and amplitude corresponding to each light source in the memory 130 as reference values.
  • the processor 120 obtains light source reference values corresponding to at least one light source (eg, a red (R) light source, a green (G) light source, and/or a blue (B) light source), respectively. and the light source reference value may be stored in the memory 130 .
  • the processor 120 individually stores the frequency and amplitude corresponding to a red light source, the frequency and amplitude corresponding to a green light source, and the frequency and amplitude corresponding to a blue light source based on the reflected light source reflected by the reflector. (130).
  • the calibration operation may be performed in advance in the process of designing the electronic device 101, and the electronic device 101 may be manufactured with light source reference values already stored in the memory 130.
  • the electronic device 101 may at least partially remove a noise component included in a reflective light source reflected by an object based on a light source reference value stored in the memory 130 by a calibration operation.
  • the electronic device 101 may perform a proximity sensing function for an object based on a reflective light source from which a noise component based on an external environment is removed. According to an embodiment, since a noise component is removed from the reflection light source, accuracy of the proximity sensing function may be improved.
  • FIG. 6 is an exemplary diagram illustrating a situation in which a first area of a display module is covered by a reflector according to various embodiments of the present disclosure.
  • the calibration operation can be performed in the electronic device 200 (eg, the electronic device 101 of FIG. 1 ).
  • the first region eg, the transmissive region 201′ of FIG. 2
  • the calibration operation can be performed in the electronic device 200 (eg, the electronic device 101 of FIG. 1 ).
  • the electronic device 200 may emit at least one light source (eg, visible light) through at least one pixel disposed in the first region 201' of the display module 160, and , the at least one pixel may be used as a light emitting unit.
  • the electronic device 200 corresponds to the first area 201' of the display module 160 and includes a camera 201 (eg, the camera of FIG. 1 ) disposed under (eg, the rear surface) the display module 160.
  • a camera 201 eg, the camera of FIG. 1
  • the camera 201 may be used as a light receiving unit.
  • a light source emitted from at least one pixel may be reflected by the reflector 610 , and the reflected light source (eg, a reflective light source) may be received through the camera 201 .
  • the electronic device 200 may emit at least one light source (eg, a red (R) light source, a green (G) light source, and/or a blue (B) light source) according to a set order. and a reflective light source corresponding to each of the at least one light source may be obtained.
  • a reflection light source reflected by an object may include a noise component based on an external environment.
  • the electronic device 200 performs a calibration operation to obtain a reflective light source corresponding to each light source (eg, a reflective light source reflected by the reflector 610 and a noise component based on the external environment).
  • reflective light source may be obtained, and a light source reference value for a reflective light source corresponding to each light source may be stored in the memory 130 .
  • the electronic device 200 may convert an analog value of the light source into a digital value (eg, an ADC value) based on the reflected light source reflected by the reflector 610, and convert the converted digital value into a digital value. It can be saved as the light source reference value.
  • the digital values may include values for frequencies and amplitudes corresponding to at least one light source.
  • the electronic device 200 may store frequencies and amplitudes corresponding to each light source in a memory (eg, the memory 130 of FIG. 1 ) as light source reference values.
  • the electronic device 200 when the electronic device 200 receives a reflective light source through the camera module 180 in an actual use environment, the electronic device 200 stores the light source reference value stored in the memory 130 and the received reflection. Light sources may be compared or analyzed, and a noise component of the light-received reflection light source may be removed. For example, a reflected light source received from an external environment may include a noise component based on the external environment. The electronic device 200 may at least partially remove noise components included in the reflection light source based on the light source reference value. According to an embodiment, the electronic device 200 may check a distance to an object based on a reflective light source from which noise components are removed, and perform a proximity sensing function more accurately.
  • the electronic device 200 uses at least one pixel as a light emitting unit and utilizes the camera module 180 (UDC) as a light receiving unit, without a separate proximity sensor, to perform a proximity sensing function based on a reflected light source.
  • UDC camera module 180
  • FIG. 7 is a flowchart illustrating a situation in which a proximity sensing function is performed when a call is received according to various embodiments of the present disclosure.
  • the electronic device of FIG. 7 (eg, the electronic device 101 of FIG. 1 ) may be at least partially similar to the electronic device 200 of FIG. 2 or may further include other embodiments of the electronic device 200 .
  • the electronic device 101 of FIG. 7 may include at least one component shown in FIG. 3 .
  • a processor (eg, the processor 120 of FIG. 1 ) of the electronic device 101 communicates with an external electronic device (eg, the processor 120 of FIG. 1 ) via a communication module (eg, the communication module 190 of FIG. 1 ). It is possible to check call signals from the electronic devices 102 and 104 of the other party and the other party's electronic device, and through a display module (eg, the display module 160 of FIG. 1), the phone number and/or An ID (eg, name) of a registered counterpart in correspondence with the external electronic device may be displayed.
  • a display module eg, the display module 160 of FIG. 1
  • the processor 120 may switch the display module 160 from an OFF state to an ON state, and indicates an external electronic device (eg, the other party's ID) that transmitted the call signal.
  • a user interface (UI) including a notification message may be displayed.
  • the processor 120 may determine a call with an external electronic device in response to a user input while the user interface including the notification message is displayed. For example, the user may check the ID (eg, the phone number of the external electronic device) of the other party who has transmitted the call signal based on the user interface, and determine whether or not to make a call with the other party.
  • the ID eg, the phone number of the external electronic device
  • the processor 120 may determine whether the electronic device 101 is gripped using a sensor module (eg, the sensor module 176 of FIG. 1).
  • the sensor module 176 may include a touch sensor for determining whether or not the user grips and a gyro sensor for detecting the posture and position of the electronic device 101 .
  • the processor 120 may determine whether the electronic device 101 is gripped based on the sensing information obtained through the sensor module 176 .
  • the processor 120 initiates a camera (eg, the camera module 180 of FIG. 1, FIG. UDC (310) of can be activated.
  • the processor 120 may at least partially activate functions required when the camera module 180 is used as a light receiving unit.
  • the processor 120 may at least partially activate some functions required in a situation in which light is received from the outside.
  • the processor 120 selects at least one light source (eg, red (R) light source, green (G) light source, and/or blue (B) light source)). For example, the processor 120 may emit at least one light source to an external environment based on at least one pixel distributed in the first region 201'. According to an embodiment, the electronic device 101 may utilize at least one pixel disposed in the first region 201' as a light emitting unit.
  • at least one light source eg, red (R) light source, green (G) light source, and/or blue (B) light source.
  • the processor 120 may obtain a reflected light source in which at least one light source is reflected by an object (eg, a human body). For example, the user moves the electronic device 101 so that the user's ears are positioned where the audio module (eg, the audio module 170 of FIG. 1 and the speaker) of the electronic device 101 is placed for a call with the other party. can make it In this case, at least one light source may be at least partially reflected on the user's body (eg, an object), and the reflected light source may be received through the camera module 180 .
  • the processor 120 may use the camera module 180 as a light receiving unit to at least partially obtain a reflective light source.
  • the processor 120 may obtain a reflection value corresponding to at least one light source based on the obtained reflected light source.
  • the processor 120 may obtain a reflection value corresponding to each light source (eg, a red (R) light source, a green (G) light source, and/or a blue (B) light source).
  • the reflective light source is a reflective light source for visible light and may include a noise component generated based on an external environment.
  • the processor 120 may measure the distance to the object based on the light source reference value stored in the memory 130 and the obtained reflection value.
  • the light source reference value includes a value (e.g., calibration data) measured based on the calibration operation described in FIGS.
  • a light source of and a reference reflection value corresponding to each may be included.
  • the light source reference value may include calibration data obtained based on a calibration operation in the electronic device 101 .
  • the light source reference value may include a reflection value corresponding to each light source based on a reflective light source that does not include a noise component generated based on an external environment.
  • the processor 120 may include a light source reference value (eg, a reflection value without a noise component generated based on the external environment) and a reflection value obtained based on a specular light source (eg, a reflection value generated based on the external environment). reflection values including noise components) can be compared, and noise components can be extracted.
  • the processor 120 may remove the extracted noise component from the reflection value obtained based on the reflection light source, and measure the distance to the object based on the reflection value from which the noise component is removed.
  • the processor 120 may deactivate the camera 201 when the measured distance is less than or equal to a set threshold, and light is emitted through at least one pixel disposed in the first area 201' of the display module 160. action can be stopped.
  • a set threshold may mean that the user places the electronic device 101 adjacent to the user's ear and mouth for a call with the other party.
  • the electronic device 101 may switch the display module 160 to an OFF state, stop a light emitting operation of at least one pixel, and perform a camera operation.
  • a light receiving operation by the module 180 may be stopped.
  • the electronic device 101 when the electronic device 101 is disposed adjacent to the user's ear (by performing a proximity sensing function to determine that an object (eg, human body) is in proximity), the electronic device 101 is Components related to the sensing function (eg, at least one pixel operating as a light emitting unit and the camera module 180 operating as a light receiving unit) may be stopped or deactivated.
  • the sensing function eg, at least one pixel operating as a light emitting unit and the camera module 180 operating as a light receiving unit
  • the electronic device 101 may perform a proximity sensing function (eg, operating at least one pixel as a light emitting unit and operating the camera module 180 as a light receiving unit) in response to receiving a call, and may perform an object When it is confirmed that (eg, a human body) is disposed adjacently, power consumption may be reduced by stopping the operation of components related to the proximity sensing function.
  • a proximity sensing function eg, operating at least one pixel as a light emitting unit and operating the camera module 180 as a light receiving unit
  • FIG. 8 is a time table illustrating a situation in which each component performs a proximity sensing function when a call is received according to various embodiments of the present disclosure.
  • the electronic device of FIG. 8 (eg, the electronic device 101 of FIG. 1 ) may be at least partially similar to the electronic device 200 of FIG. 2 or may further include other embodiments of the electronic device 200 .
  • FIG. 8 an operation sequence of the processor 120, the display module 160, and/or the camera module 180 corresponding to the components of the electronic device 101 is illustrated.
  • FIG. 8 the operation in the flowchart of FIG. 7 is specifically shown as an operation for each component.
  • the processor eg, the processor 120 of FIG. 1
  • the external electronic device eg, the electronic device of FIG. 1
  • a communication module eg, the communication module 190 of FIG. 1
  • a call signal eg, call signal transmitted from the other party's electronic device
  • the processor 120 may determine a call connection with the other party. For example, in response to confirmation of the call signal to the external electronic device, the processor 120 sends a notification message indicating the external electronic device (eg, the other party's ID) that transmitted the call signal through the display module 160. Can display embedded user interfaces. The user may check the other party (eg, an external electronic device) that has transmitted the call signal based on the user interface, and in operation 701 may determine a call with the other party.
  • the external electronic device eg, the other party's ID
  • the processor 120 may determine whether the electronic device 101 is gripped by using a sensor module (eg, the sensor module 176 of FIG. 1 ).
  • the sensor module 176 may include a touch sensor for determining whether or not the user grips and a gyro sensor for detecting the posture and position of the electronic device 101 .
  • the processor 120 may perform operations 803 and 805 .
  • the electronic device 101 may perform operations 803 and 805 when a set time elapses after receiving a call in operation 701 .
  • the processor 120 may request the camera module 180 to activate the camera.
  • the camera may include a UDC (eg, UDC 310 of FIG. 3 ) disposed on the rear surface of the first area (eg, transmission area 201′ of FIG. 2 ) of the display module 160 .
  • the processor 120 may transmit a request signal to the camera module 180 to at least partially activate some functions required to receive light from the outside.
  • the processor 120 may request the display module 180 to emit light.
  • the processor 120 may select at least one light source (eg, a white (W) light source, a red (R) light source, based on at least one pixel distributed in the first region 201' of the display module 180.
  • a request signal may be transmitted to the display module 180 to emit light, green (G) light source, and/or blue (B) light source).
  • the processor 120 may activate (ON) a camera disposed on the rear surface of the first region 201' of the display module 180 .
  • the processor 120 may at least partially activate some of the functions of the camera so that the camera can perform a light receiving function.
  • the processor 120 may emit light from at least one light source based on at least one pixel.
  • at least one light source may pass through the first region 201' and emit light to an external environment.
  • At least one light source may be at least partially reflected by an external object (eg, a human body or a subject).
  • the processor 120 may obtain a reflection light source reflected by an object and obtain a reflection value based on the obtained reflection light source. .
  • the processor 120 may compare the obtained reflection value with a light source reference value (eg, the light source reference value 320 of FIG. 3 ) stored in a memory (eg, the memory 130 of FIG. 1 ), and a noise component included in the reflected light source. can be detected.
  • the processor 120 may remove the detected noise component based on the reflective light source, and measure the distance to the object based on the reflective light source from which the noise component is removed.
  • the processor 120 may measure the distance to the object. Since the noise component is removed from the reflected light source, the processor 120 can more accurately measure the distance. According to an embodiment, the electronic device 101 can perform a light emitting function based on at least one pixel included in the display module 160 and can perform a light receiving function based on the camera module 180. . The electronic device 101 may perform a proximity sensing function based on the display module 160 and the camera module 180 . The processor 120 may perform operations 807 and 809 when the distance to the measured object is less than or equal to a set threshold.
  • the processor 120 may request the camera module 180 to deactivate the camera. For example, when the distance to the measured object is less than or equal to a threshold value, it may mean that the user places the electronic device 101 adjacent to the ear and mouth for a call.
  • the electronic device 101 may request the camera module 180 to deactivate the camera in order to stop the proximity sensing function.
  • the processor 120 may request the display module 160 to stop the light emitting function of at least one pixel.
  • the electronic device 101 may request the display module 160 to deactivate the camera in order to stop the proximity sensing function.
  • the camera module 180 may deactivate (OFF) the camera in response to the request in operation 807.
  • the processor 120 may at least partially deactivate the camera so that a function of receiving light through the camera is stopped.
  • the display module 160 may stop the light emitting function of at least one pixel in response to the request in operation 809.
  • the processor 120 may at least partially control the display module 160 so that a light emitting function through at least one pixel is stopped.
  • FIG. 9 is an exemplary diagram illustrating a situation in which a certain percentage of pixels are covered based on a plurality of pixels included in a display module according to various embodiments of the present disclosure.
  • the electronic device of FIG. 9 (eg, the electronic device 101 of FIG. 1 ) may be at least partially similar to the electronic device 200 of FIG. 2 , or may further include other embodiments of the electronic device 200 .
  • the electronic device 101 of FIG. 9 may include at least one component shown in FIG. 3 .
  • At least one pixel group 910 distributed in a first area (eg, the transmissive area 201′ of FIG. 2 ) of a display module (eg, the display module 160 of FIG. 1 ) is shown. do.
  • the processor of the electronic device 101 eg, the processor 120 of FIG. 1
  • the processor 120 may obtain a reflection value corresponding to at least one pixel included in the pixel group 910, and based on the obtained reflection value, at least one pixel is covered by an object. You can check whether you lost or not.
  • the processor 120 may determine the number 920 of pixels having a reflection value less than or equal to a set threshold, and the determined number of pixels 920 is When the set ratio to the total number of pixels is exceeded, it may be determined that the object is close to the electronic device 101 . Based on the pixel group 910 , the processor 120 may distinguish an area 920 at least partially covered by an object and areas 911 , 912 , and 913 not covered by an object.
  • the electronic device 101 may perform a light emitting function using at least one pixel included in the display module 160, and a camera included in the camera module 180 (eg, FIG. 2 ).
  • the light reception function may be performed using the camera 201 of FIG. 3 and the UDC 310 of FIG. 3 .
  • at least one pixel may be used as a light emitting unit and a camera may be used as a light receiving unit.
  • the electronic device 101 includes at least one light source (eg, red (R)) based on at least one pixel distributed in the first area (eg, the transmissive area 201′ of FIG.
  • a light source, a green (G) light source, and/or a blue (B) light source) may be emitted, and when the at least one light source is reflected by an external object, the reflected light source is received through the camera 201. can do.
  • the electronic device 101 may be in a state in which the light source reference value 320 previously obtained through a calibration operation is stored in the memory 130 .
  • the electronic device 101 may compare the reflection value corresponding to the received reflection light source with the light source reference value 320 stored in the memory 130 to extract a noise component included in the reflection light source.
  • the electronic device 101 may remove a noise component included in the reflective light source and perform a proximity sensing function based on the reflective light source from which the noise component is removed.
  • the electronic device 101 since the electronic device 101 performs a proximity sensing function based on a reflective light source from which noise components are removed, accuracy of proximity sensing may be improved. According to an embodiment, the electronic device 101 may accurately perform a proximity sensing function based on at least one pixel and the camera module 180 (eg, the UDC 310).
  • the electronic device 101 may perform a proximity sensing function (eg, at least one pixel functions as a light emitting unit and the camera module 180 functions as a light receiving unit). and whether the electronic device 101 is moved near the user's ear and mouth can be checked.
  • the electronic device 101 may stop the proximity sensing function. For example, at least one pixel used as a light receiving unit may be turned off, and the function of the camera module 180 used as a light emitting unit may be turned off at least partially.
  • the electronic device 101 may perform a proximity sensing function using visible light (eg, at least one light source emits light through at least one pixel), and removes a noise component for the reflected light source. By removing it, it is possible to more accurately measure the distance to the object.
  • visible light eg, at least one light source emits light through at least one pixel
  • the electronic device 101 performs a light receiving function based on the display module 160 and a light emitting function based on the camera module 180 without a separate proximity sensor, thereby performing a proximity sensing function.
  • the electronic device 101 may remove a noise component of the reflected light source and improve the accuracy of the proximity sensing function based on the light source reference value (eg, calibration data) obtained based on the calibration operation.
  • the electronic device 101 may check the position of the electronic device 101 using a gyro sensor included in a sensor module (eg, the sensor module 176 of FIG. 1 ). For example, when the user makes a call using a speaker while the electronic device 101 is placed on a table, the electronic device 101 uses a gyro sensor to detect that the electronic device 101 is placed on the table. You can check. Additionally, the electronic device 101 may use a proximity sensing function to confirm a user's gesture input (eg, perform a set gesture using a hand), and in response to the confirmation of the gesture input, perform a call function. there is.
  • a gyro sensor included in a sensor module eg, the sensor module 176 of FIG. 1 .
  • the electronic device 101 may use an illuminance sensor included in the sensor module 176 to determine whether the electronic device 101 is located in a bag. For example, when the electronic device 101 is placed in a bag, the electronic device 101 may use an illuminance sensor to check a state in which the electronic device 101 is placed in the bag, and enter a sleep mode. can switch The electronic device 101 may check the state of the electronic device 101 using the gyro sensor.
  • FIG. 10 is a flowchart illustrating a method of determining proximity of an object according to execution of a proximity sensing function according to various embodiments of the present disclosure.
  • the electronic device of FIG. 10 (eg, the electronic device 101 of FIG. 1 ) may be at least partially similar to the electronic device 200 of FIG. 2 or may further include other embodiments of the electronic device 200 .
  • the electronic device 101 of FIG. 10 may include at least one component shown in FIG. 3 .
  • the electronic device 101 may use at least one light source (eg, a visible light source or a white light source) to determine whether or not the electronic device 101 is close to an object (eg, a proximity sensing function is performed).
  • the electronic device 101 can remove noise components included in the reflected light source and more accurately analyze the reflected light source.
  • the electronic device 101 may determine proximity to an object based on the received light amount corresponding to the reflected light source.
  • the electronic device 101 may determine a ratio of pixels covered by an object based on pixels disposed in the first area (eg, the transmission area 201′ of FIG. 2 ), and the confirmation Based on the ratio of occluded pixels, proximity to the object can be determined.
  • a processor eg, the processor 120 of FIG. 1
  • a display module eg, the display module 160 of FIG. 1
  • White light eg, visible light
  • at least one pixel may include at least one light source (eg, a red light source, a green light source, and/or a blue light source), and the at least one light source may be combined to , can produce white light.
  • At least one pixel may generate white light.
  • the electronic device 101 may utilize at least one pixel disposed in the first region 201' as a light emitting unit.
  • the processor 120 obtains reflected light through a camera module (eg, the camera module 180 of FIG. 1) disposed in the first area 201'.
  • a camera module eg, the camera module 180 of FIG. 1
  • the camera module 180 may be disposed on the rear surface of the first region 201' (eg, the rear surface of the display module 160).
  • the electronic device 101 may utilize the camera module 180 disposed in the first region 201' as a light receiving unit.
  • the processor 120 determines a reflection value corresponding to at least one light source (eg, a red light source, a green light source, and/or a blue light source) based on the acquired reflected light.
  • a light source eg, a red light source, a green light source, and/or a blue light source
  • a frequency and an amplitude corresponding to each light source may be identified as the reflection value.
  • the processor 120 may remove noise based on a reference value (eg, a light source reference value) stored in a memory (eg, the memory 130 of FIG. 1) and a confirmed reflection value.
  • the reference value may include a value (eg, calibration data) measured based on a calibration operation (eg, the calibration operation of FIGS. 5 and 6 ) in the electronic device 101 .
  • the processor 120 may perform a calibration operation in advance to check at least one light source and a reference value (eg, a reference reflection value, frequency, and/or amplitude) corresponding to each light source.
  • the reference value may include a reflection value that does not include a noise component based on the external environment.
  • the processor 120 may include a light source reference value (eg, a reflection value without a noise component generated based on the external environment) and a reflection value obtained based on a reflected light (circle) (eg, based on the external environment).
  • a reflection value including a generated noise component may be compared, and noise included in the reflected light may be at least partially removed.
  • the processor 120 may calculate a received light amount value according to the obtained reflected light based on at least one light source. For example, the processor 120 may subtract a value corresponding to noise included in the reflected light from the total light received amount of the reflected light obtained through the first area 201', and the received light amount value according to the reflected light. can be calculated. According to an embodiment, the processor 120 may determine whether an object is close based on the calculated light received value.
  • the processor 120 may check whether the calculated light reception amount value exceeds a set first threshold value.
  • the first threshold is a value previously set and stored in the memory 130, and may include a reference light received amount value for determining proximity to an object.
  • a high light reception amount value means that there is a lot of reflected light received through the first region 201 ′, and it may mean that the object is not close to the electronic device 101 .
  • the processor 120 may perform an additional proximity sensing function.
  • the processor 120 may determine that the electronic device 101 is close to the object, and in operation 1015 the object distance can be checked.
  • the processor 120 may determine whether a ratio of occluded pixels exceeds a set second threshold based on at least one pixel disposed in the first region 201'.
  • the second threshold is a value previously set and stored in the memory 130, and may include a reference ratio value of occluded pixels for determining proximity to an object.
  • a high ratio of occluded pixels among all pixels disposed in the first area 201' may mean that an object (eg, a human body) is close to the first area 201'.
  • the processor 120 may determine that the electronic device 101 is in close proximity to the object, and in operation 1015, it may determine the distance to the object. .
  • the processor 120 may determine that the electronic device 101 is not close to the object, and operation In 1001 , white light may be emitted based on at least one light source.
  • the processor 120 may check the distance to the object based on the reflected light from which noise components are removed in operation 1007. For example, the processor 120 may determine a reflection value (eg, frequency and/or amplitude) corresponding to at least one light source based on the reflected light, and may determine a distance to the object based on the checked reflection value.
  • a reflection value eg, frequency and/or amplitude
  • an operation of emitting at least one light source based on at least one pixel through a display module eg, the display module 160 of FIG. 1
  • the at least one light source is applied to an object
  • the camera module 180 is disposed on the rear surface of the first area (eg, the transmissive area 201' of FIG. 2) of the display module 160, and the first area 201' is characterized in that it has higher transmittance than other areas of the display module 160 except for the first area 201'.
  • the method includes an operation of emitting light of at least one light source while transmitting through the first region 201' based on at least one pixel distributed in the first region 201'; When at least one emitted light source is reflected by the object, the reflected light passes through the first area 201' and through the camera module 180 disposed on the rear surface of the first area 201'. An operation of receiving the light source may be further included.
  • At least one light source in a state in which a reflector for reflecting the light source covers the first area 201', at least one light source is transmitted through at least one pixel distributed in the first area 201'.
  • An operation of emitting light, an operation of receiving the reflected light source reflected by the reflector by the at least one light source through the camera module 180 disposed on the rear surface of the first area 201', Based on this, an operation of setting a reflection value corresponding to the at least one light source as a light source reference value, and an operation of storing the light source reference value in the memory 130 may be further included.
  • the light source reference value includes at least one of a reference reflection value that does not include noise according to an external environment and a frequency value and an amplitude value corresponding to the at least one light source, and the at least one light source is red. It is characterized in that it includes at least one of a (red) light source, a green light source, and a blue light source.
  • the method according to an embodiment may include emitting at least one light source based on the at least one pixel through the display module 160 in response to a call decision with the external electronic device; When at least one light source is reflected by an object, an operation of at least partially activating the camera module 180 to receive the reflected light source may be further included.
  • the method includes an operation of checking a received light amount corresponding to the obtained reflected light source, an operation of checking whether the checked light received amount is less than a reference light received amount stored in the memory, based on the at least one pixel, An operation of checking the ratio of pixels covered by the object, an operation of checking whether the ratio of the identified pixels exceeds a reference ratio stored in the memory, and an operation of determining whether the received light amount is less than the reference light received amount or the ratio of the pixels When the ratio exceeds the reference ratio, an operation of determining that the object is in close proximity may be further included.
  • Electronic devices may be devices of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart bracelet
  • first, second, or first or secondary may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited.
  • a (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits.
  • a module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • a storage medium eg, internal memory 136 or external memory 138
  • a machine eg, electronic device 101
  • a processor eg, the processor 120
  • a device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
  • a signal e.g. electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • a device-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
  • each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg modules or programs
  • the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. .
  • the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)

Abstract

다양한 실시예에 따르면, 전자 장치는, 적어도 하나의 픽셀을 포함하는 디스플레이 모듈, 상기 디스플레이 모듈의 배면에 배치된 카메라 모듈, 적어도 하나의 광원에 대응되는 광원 기준값을 저장하는 메모리, 및 상기 디스플레이 모듈, 상기 카메라 모듈 및 상기 메모리에 작동적으로 연결된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이 모듈을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하고, 상기 적어도 하나의 광원이 오브젝트에 의해 반사된 반사 광원을 상기 카메라를 통해 획득하고, 상기 획득된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 확인하고, 상기 메모리에 저장된 광원 기준값과 상기 확인된 반사값을 기반으로, 상기 반사 광원에 포함된 노이즈를 제거하고, 상기 노이즈가 제거된 반사 광원을 기반으로 상기 오브젝트와의 근접 여부를 판단할 수 있다. 그 밖에 다양한 실시예들이 가능할 수 있다.

Description

근접 센싱 방법 및 전자 장치
본 발명의 다양한 실시 예는 근접 센싱 방법 및 전자 장치에 관한 것이다.
전자 장치, 예를 들어, 휴대용 전자 장치는 그 기능 및 사용자의 선호도에 따라 다양한 크기로 출시되고 있다. 전자 장치는 넓은 시인성 확보와 조작의 편의성 향상을 위해, 대화면 터치 디스플레이를 포함할 수 있다. 전자 장치는, 광학 모듈로써, 내부 공간에서, 디스플레이 아래에 배치되는 적어도 하나의 카메라 모듈(예: UDC(under display camera))을 포함할 수 있다. 적어도 하나의 카메라 모듈은 디스플레이의 적어도 일부를 투과하여, 외부의 피사체를 촬영하도록 디스플레이의 아래에 배치될 수 있다.
통화 기능을 수행 중인 전자 장치는 사용자에 의해, 스피커가 배치된 영역이 사용자의 귀에 적어도 부분적으로 접촉될 수 있으며, 이를 감지하기 위한 근접 센싱 기능이 필요할 수 있다.
전자 장치는 근접 센싱을 위해 근접 센서가 사용될 수 있으나, 대화면 디스플레이(예: 화면 표시 영역이 확장된 디스플레이)로 인해, 근접 센서의 배치 위치에 제약이 있을 수 있다. 근접 센서가 디스플레이의 아래에 배치되는 경우에는 투과율 저하 문제 및 디스플레이의 발광 노이즈 문제로 인해, 센싱 성능이 저하될 수 있다. 또한, 전자 장치 설계 시, 근접 센서가 추가되므로, 생산 단가가 상승할 수 있다.
본 발명의 다양한 실시예는 디스플레이의 아래에 배치된 UDC를 활용하여 근접 센싱 기능을 수행하는 방법 및 전자 장치를 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치는, 적어도 하나의 픽셀을 포함하는 디스플레이 모듈, 상기 디스플레이 모듈의 배면에 배치된 카메라, 적어도 하나의 광원에 대응되는 광원 기준값을 저장하는 메모리, 및 상기 디스플레이 모듈, 상기 카메라 및 상기 메모리에 작동적으로 연결된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이 모듈을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하고, 상기 적어도 하나의 광원이 오브젝트에 의해 반사된 반사 광원을 상기 카메라를 통해 획득하고, 상기 획득된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 확인하고, 상기 메모리에 저장된 광원 기준값과 상기 확인된 반사값을 기반으로, 상기 반사 광원에 포함된 노이즈를 제거하고, 상기 노이즈가 제거된 반사 광원을 기반으로 상기 오브젝트와의 근접 여부를 판단할 수 있다.
다양한 실시예에 따른 방법에 있어서, 디스플레이 모듈을 통해, 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하는 동작, 상기 적어도 하나의 광원이 오브젝트에 의해 반사된 반사 광원을 카메라 모듈을 통해 획득하는 동작, 상기 획득된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 확인하는 동작, 메모리에 저장된 광원 기준값과 상기 확인된 반사값을 기반으로, 상기 반사 광원에 포함된 노이즈를 제거하는 동작, 및 상기 노이즈가 제거된 반사 광원을 기반으로 상기 오브젝트와의 근접 여부를 판단하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들은 디스플레이로부터 발광된 광원이 오브젝트(예: 인체)에 의해 반사광으로 반사되고, 상기 반사광이 디스플레이 아래에 배치된 카메라(예: UDC)를 통해 수광될 수 있다. 전자 장치는 반사광을 이용하여, 오브젝트의 근접 여부를 센싱할 수 있다.
일 실시예에 따르면, 카메라의 배치 영역에 대응되는 디스플레이의 일부 영역이 높은 투과율을 갖도록, 디스플레이가 설계될 수 있다. 이로 인해, 근접 센싱의 정확도가 향상될 수 있다. 일 실시예에 따르면, UDC가 근접 센싱 기능을 수행하므로, 별도의 근접 센서 배치로 인한 비용이 발생하지 않으며, 별도의 근접 센서가 배치될 공간도 확보할 수 있다. 일 실시예에 따르면, 전자 장치는 디스플레이 및 UDC에 기반한 근접 센싱 기능이 높은 정확도를 갖도록 설계될 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은 본 발명의 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 본 발명의 다양한 실시예에 따른 디스플레이 모듈의 아래에 배치된 UDC(under display camera)를 도시한 예시도이다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치의 블록도이다.
도 4는 본 발명의 다양한 실시예에 따른 디스플레이 모듈 및 카메라 모듈을 사용하여 근접 센싱하는 방법을 도시한 흐름도이다.
도 5는 본 발명의 다양한 실시예에 따른 노이즈의 제거를 위한 기준값을 획득하는 방법을 도시한 흐름도이다.
도 6은 본 발명의 다양한 실시예에 따른 반사체가 디스플레이 모듈의 제 1 영역을 가린 상황을 도시한 예시도이다.
도 7은 본 발명의 다양한 실시예에 따른 통화 수신 시, 근접 센싱 기능이 수행되는 상황을 도시한 흐름도이다.
도 8은 본 발명의 다양한 실시예에 따른 통화 수신 시, 각각의 구성 요소에서 근접 센싱 기능을 수행하는 상황이 도시된 타임 테이블이다.
도 9는 본 발명의 다양한 실시예에 따른 디스플레이 모듈에 포함된 다수 개의 픽셀들을 기반으로, 일정 비율의 픽셀들이 가려지는 상황을 도시한 예시도이다.
도 10은 본 발명의 다양한 실시예에 따른 근접 센싱 기능의 수행에 따라, 오브젝트의 근접 여부를 결정하는 방법을 도시한 흐름도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 본 발명의 다양한 실시예에 따른 디스플레이 모듈의 아래에 배치된 UDC(under display camera)를 도시한 예시도이다.
도 2를 참조하면, 전자 장치(200)는 제 1 면(또는 전면)(210A), 제 2 면(또는 후면)(210B), 및 제 1 면(210A) 및 제 2 면(210B) 사이의 공간을 둘러싸는 측면(210C)을 포함하는 하우징(210)을 포함할 수 있다. 전자 장치(200)는 제 1 면(210A)에 대응하여, 디스플레이 모듈(160)이 배치될 수 있고, 상기 디스플레이 모듈(160)을 통해, 컨텐츠를 표시할 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 예를 들면, 액정 디스플레이(liquid crystal display, LCD), 발광 다이오드(light emitting diode, LED) 디스플레이, 유기 발광 다이오드(organic light emitting diodes, OLED) 디스플레이, 마이크로 전자 기계 시스템(microelectromechanical systems, MEMS) 디스플레이, 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 전자 장치(200)는 디스플레이 모듈(160)을 통해, 적어도 하나의 컨텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼)를 표시할 수 있다. 디스플레이 모듈(160)은 터치 스크린(touchscreen)을 포함할 수 있으며, 예를 들면, 전자 펜 입력, 사용자의 신체 일부를 이용한 터치 입력, 제스쳐 입력, 근접 입력, 및/또는 호버링 입력을 수신할 수 있다. 디스플레이 모듈(160)은 시각적으로 외부로 노출되는 글래스 커버(윈도우(window) 패널) 및/또는 다양한 레이어들을 포함할 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 전자 장치(200)의 전면(210A)(예: 메인 화면, 컨텐츠가 주요하게 출력되는 면, 액티브 영역이 주요하게 배치되는 면)의 전부(bezel-less) 또는 대부분을 차지하도록 배치될 수 있다. 디스플레이 모듈(160)은 전자 장치(200)의 측면(210C)(예: 상/하/좌/우 측면)으로 확대되는 형태로 구현될 수 있다.
도 2를 참조하면, 전자 장치(200)는 디스플레이 모듈(160)의 아래에 적어도 하나의 카메라(201)(예: 도 1의 카메라 모듈(180), UDC(under display camera))가 배치되는 형태를 포함할 수 있다. 도 2를 참조하면, 하나의 카메라(201)가 디스플레이 모듈(160)의 아래에 배치된 것으로 도시되었으나, 카메라가 배치된 위치 및 카메라의 개수는 한정되지 않는다. 전자 장치(200)의 하우징(210)은 적어도 하나의 카메라(201)가 배치되기 위한 내부 공간을 확보할 수 있고, 상기 내부 공간에 적어도 하나의 카메라(201)가 배치되는 형태로 설계될 수 있다.
도 2를 참조하면, 적어도 하나의 카메라(201)는 디스플레이 모듈(160)을 통해, 외부에 적어도 부분적으로 시각적으로 노출되도록 배치될 수 있다. 예를 들어, 적어도 하나의 카메라(201)는 디스플레이 모듈(160)의 전면(210A)에서 적어도 부분적으로 구현된 투과 영역(201’)을 통해, 외부 환경과 접하는 형태로 배치될 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)과 적어도 하나의 카메라(201)가 대면하는 영역(예: 투과 영역(201’), 디스플레이 모듈(160)을 통한 발광 영역)은 컨텐츠를 표시하는 영역의 일부로서 일정 투과율을 갖도록 형성될 수 있다. 예를 들어, 투과 영역은 약 5% ~ 약 20% 범위의 투과율을 갖도록 형성될 수 있다. 이러한 투과 영역은 이미지 센서를 통해 결상되어, 화상을 생성하기 위한 광이 통과하는 카메라 모듈의 유효 구경(예: 화각, 카메라 렌즈의 배치 영역)과 중첩되는 영역을 포함할 수 있다. 예를 들어, 디스플레이 모듈(160)의 투과 영역(201’)은 주변 보다 픽셀의 밀도가 낮은 영역을 포함할 수 있다. 예를 들어, 투과 영역은 적어도 하나의 카메라(201)가 외부로 시각적으로 노출되기 위한 오프닝(opening)을 대체할 수 있다.
일 실시예에 따르면, 전자 장치(200)는 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀을 기반으로, 적어도 하나의 광원을 발광시킬 수 있다. 예를 들어, 적어도 하나의 광원은 빨간색(red) 광원, 초록색(green) 광원, 및/또는 파란색(blue) 광원을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀을 기반으로, 발광 기능을 수행할 수 있고, 투과 영역(201’)을 적어도 부분적으로 투과하면서, 외부 환경에 적어도 하나의 광원을 발광시킬 수 있다. 적어도 하나의 픽셀은 발광부로 기능할 수 있다.
일 실시예에 따르면, 전자 장치(200)는 디스플레이 모듈(160)의 아래에 배치된 카메라(201)를 기반으로, 외부 환경으로부터 전달되는 광원을 수광시킬 수 있다. 예를 들어, 카메라(201)는 외부의 피사체로부터 반사된 반사광을 적어도 부분적으로 획득할 수 있다.
일 실시예에 따르면, 전자 장치(200)는 디스플레이 모듈(160)을 통해, 적어도 하나의 광원을 발광시킬 수 있고, 상기 적어도 하나의 광원을 기반으로 외부의 피사체에 의해 반사된 반사광을 카메라(201)를 이용하여 획득할 수 있다. 예를 들어, 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀은 발광부로 동작할 수 있고, 상기 디스플레이 모듈(160)의 아래에 배치된 카메라(201)는 수광부로 동작할 수 있다.
일 실시예에 따르면, 카메라(201)의 렌즈 위치에 대응하여, 디스플레이 모듈(160)의 일부 영역이 투과 영역(201’)으로 설정될 수 있다. 예를 들어, 투과 영역(201’)은 디스플레이 모듈(160)에서 투과 영역을 제외한 나머지 영역 보다 높은 투과율을 갖도록 설계될 수 있다. 일 실시예에 따르면, 투과 영역(201’)이 높은 투과율을 가지므로, 전자 장치(200)는 카메라(201)를 통해 반사광을 보다 정확하게 수광할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 디스플레이 모듈(160)을 발광부로 활용할 수 있고, 카메라(201)를 수광부로 활용할 수 있으며, 디스플레이 모듈(160) 및 카메라(201)를 기반으로 근접 센싱 기능을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 별도의 근접 센서를 대신하여, 자체적으로 광원을 발광하는 디스플레이 모듈(160) 및 상기 디스플레이 모듈(160)의 아래에 배치된 카메라(201)(예: UDC)를 사용할 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치의 블록도이다.
도 3의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(200)와 적어도 일부 유사하거나, 전자 장치(200)의 다른 실시예들을 더 포함할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))을 발광부로 활용할 수 있고, 카메라 모듈(예: 도 1의 카메라 모듈(180))을 수광부로 활용할 수 있다. 전자 장치(101)는 디스플레이 모듈(160)로부터 발광된 광원이 외부의 오브젝트에 의해 반사되는 경우, 카메라 모듈(180)을 통해, 반사광을 수광할 수 있다. 전자 장치(101)는 디스플레이 모듈(180)(예: 발광부) 및 카메라 모듈(180)(예: 수광부)을 기반으로 근접 센싱 기능을 수행할 수 있다. 카메라 모듈(180)은 디스플레이 모듈(160)의 아래(예: 배면)에 배치될 수 있고, 카메라 모듈(180)의 배치 위치에 대응되는 디스플레이 모듈(160)의 일 영역(예: 도 2의 투과 영역(201’))은 높은 투과율을 갖도록 구현될 수 있다. 예를 들어, 투과 영역(201’)은 디스플레이 모듈(160)의 화면 표시 영역 중에서, 상기 투과 영역(201’)이 제외된 나머지 영역 보다, 높은 투과율을 갖도록 설계될 수 있다.
도 3을 참조하면, 전자 장치(101)는 프로세서(예: 도 1의 프로세서(120)), 메모리(예: 도 1의 메모리(130)), 디스플레이 모듈(160), 센서 모듈(예: 도 1의 센서 모듈(176)) 및/또는 UDC(under display camera)(310)(예: 도 1의 카메라 모듈(180))를 포함할 수 있다. 전자 장치(101)는 근접 센서를 대신하여, 디스플레이 모듈(160) 및 UDC(310)를 사용할 수 있다. 예를 들어, 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀이 발광부로 활용될 수 있고, UDC(310)가 수광부로 활용될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 사전에 메모리(130)에 광원 기준값(320)(예: 캘리브레이션 정보, 및/또는 캘리브레이션 데이터)이 저장될 수 있고, 상기 메모리(130)에 저장된 광원 기준값을 기반으로, 외부로부터 획득된 반사광에 대한 노이즈 성분을 제거할 수 있다.
프로세서(120)는 메모리(130)에 저장된 프로그램(예: 도 1의 프로그램(140))을 실행하여, 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 예를 들어, 프로세서(120)는 디스플레이 모듈(160)의 일부 영역(예: 도 2의 투과 영역(201’))을 통해 발광된 제 1 광 및 카메라 모듈(180)을 통해 수광된 제 2 광(예: 반사광)을 기반으로, 근접 센싱 기능을 수행할 수 있으며, 전자 장치(101)에 대한 인체(예: 오브젝트)의 근접 여부를 확인할 수 있다.
메모리(130)에 저장된 광원 기준값(320)은 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀로부터 발광된, 적어도 하나의 광원(예: 가시광선)에 대한 제 1 데이터 및 상기 적어도 하나의 광원이 외부 오브젝트(예: 인체)에 의해 반사된, 반사광에 대한 제 2 데이터를 포함할 수 있다. 예를 들어, 광원 기준값(320)은 캘리브레이션(calibration) 동작에 의한 캘리브레이션 정보를 포함할 수 있고, 사전에 미리 저장될 수 있다. 광원 기준값(320)은 적어도 하나의 픽셀을 통해 발광된 광이 오브젝트에 의해 반사된 경우, 반사 광이 주변의 노이즈 성분 없이, UDC(310)에 수광되는 광원 데이터를 포함할 수 있다. 일 실시예에 따르면, 광원 기준값(320)은 노이즈 성분이 포함되지 않은 광원 및 반사 광원에 대한 데이터를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광원을 획득하는 경우, 메모리(130)에 저장된 광원 기준값(320)을 기반으로 상기 획득된 광원에 노이즈 성분이 포함되어 있는지 여부를 확인할 수 있고, 상기 획득된 광원에서 상기 노이즈 성분을 제거할 수 있다.
디스플레이 모듈(160)은 적어도 하나의 픽셀(pixel)이 설정된 간격 및 위치를 기반으로 배열된 형태로 구현될 수 있다. 디스플레이 모듈(160)은 적어도 하나의 픽셀을 ON 상태 또는 OFF 상태로 동작할 수 있다. 예를 들어, 디스플레이 모듈(160)은 적어도 하나의 픽셀이 ON 상태일 때, 상기 적어도 하나의 픽셀을 기반으로, 적어도 하나의 광원을 발광할 수 있다. 예를 들어, 적어도 하나의 광원은 빨간색(red) 광원, 초록색(green) 광원, 및/또는 파란색(blue) 광원을 포함할 수 있다. 프로세서(120)는 일정 주기에 따라, 반복적으로 적어도 하나의 광원을 발광시킬 수 있다. 프로세서(120)는 적어도 하나의 광원에 대응하여, 약 0~255 범위의 값을 설정할 수 있다. 예를 들어, 빨간색 광원이 255 값으로 설정되고, 초록색 광원 및 파란색 광원이 0 값으로 설정되는 경우, 프로세서(120)는 빨간색 광을 발광시킬 수 있다. 프로세서(120)는 적어도 하나의 광원을 조합함으로써, 다양한 색상을 구현할 수 있다. 예를 들어, 빨간색 광원, 초록색 광원, 및/또는 파란색 광원이 모두 255 값으로 설정되는 경우, 프로세서(120)는 백색(white) 광을 구현하여 발광시킬 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)의 화면 표시 영역 중에서 일부 영역(예: 도 2의 투과 영역(201’))은 높은 투과율을 갖도록 구현될 수 있다. 예를 들어, 디스플레이 모듈(160)의 아래(예: 배면)에 적어도 하나의 UDC(310)가 배치될 수 있고, 적어도 하나의 UDC(310)는 외부 환경으로부터 발생된 광(예: 반사 광)을 수광할 수 있다. 디스플레이 모듈(160)은 상기 적어도 하나의 UDC(310)가 배치된 위치에 대응하여, 투과 영역(201’)이 설정될 수 있고, 상기 투과 영역(201’)의 경우 높은 투과율을 갖도록 설계될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀을 통해, 광이 발광되므로, 상기 디스플레이 모듈(160)을 발광부로 활용할 수 있다.
디스플레이 모듈(160)은 터치스크린 패널(touchscreen panel)을 포함할 수 있으며, 사용자의 터치 입력을 감지할 수 있다. 예를 들어, 디스플레이 모듈(160)을 통해, 터치 입력이 감지되는 경우, 프로세서(120)는 디스플레이 모듈(160)에 대한 터치 입력에 대응되는 좌표 정보를 확인할 수 있다. 프로세서(120)는 사용자의 터치 입력에 따른 좌표 정보를 기반으로, 디스플레이 모듈(160)에 대응하여, 오브젝트(예: 인체)의 근접 여부를 판단할 수 있다.
센서 모듈(176)은 전자 장치(101)의 상태(예: 사용 상태, 대기 상태, 슬립 상태)를 확인하기 위해 활용될 수 있으며, 주변 환경의 밝기를 확인하기 위한 조도 센서, 전자 장치(101)에 그립 여부를 확인하기 위한 그립 센서, 및/또는 전자 장치(101)에 대한 자세(position)을 확인하기 위한 자이로 센서 중 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 전자 장치(101)는 조도 센서를 사용하여, 주변 환경의 밝기를 확인할 수 있고, 전자 장치(101)가 가방 속에 방치되어 있는지 여부를 확인할 수 있다. 전자 장치(101)는 그립 센서를 사용하여, 사용자가 전자 장치(101)를 파지하였는지 여부를 확인할 수 있고, 파지 형태를 기반으로 전자 장치(101)의 사용 여부를 예측할 수 있다. 전자 장치(101)는 자이로 센서를 사용하여, 전자 장치(101)의 자세(position) 및 배치 위치를 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 센서 모듈(176)을 사용하여, 특정 상황에서의 전자 장치(101)의 동작 여부를 결정할 수 있다.
UDC(310)(예: 도 1의 카메라 모듈(180))는 디스플레이 모듈(160)의 아래(예: 배면)에 배치될 수 있고, 외부 환경으로부터 생성된 광원(예: 반사 광원, 반사광)을 수광(획득)할 수 있다. UDC(310)는 수광부로 활용되는 상황에 있어서, ON 상태 및/또는 OFF 상태 중 하나로 동작할 수 있다. 예를 들어, 디스플레이 모듈(160)로부터 적어도 하나의 광원이 발광되는 경우 UDC(310)는 ON 상태로 동작할 수 있다. 일 실시예에 따르면, 프로세서(120)는 ON 상태의 UDC(310)를 사용하여, 적어도 하나의 광원이 오브젝트에 의해 반사된 반사 광원을 획득할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 표시 영역 중에서 일부 영역을 높은 투과율을 갖는 투과 영역(예: 도 2의 투과 영역(201’))으로 설정할 수 있다. UDC(310)는 디스플레이 모듈(160)의 투과 영역(201’) 아래에 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 UDC(310)가 디스플레이 모듈(160)의 아래에, 적어도 부분적으로 배치될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀을 발광부로 활용할 수 있고, UDC(310)를 수광부로 활용할 수 있다. 전자 장치(101)는 디스플레이 모듈(160)로부터 발광된 광원이 외부의 오브젝트에 의해 반사되는 경우, UDC(310)를 통해, 반사 광원을 수광할 수 있다. 전자 장치(101)는 디스플레이 모듈(180)(예: 발광부) 및 UDC(310)(예: 수광부)를 기반으로 근접 센싱 기능을 수행할 수 있다. 전자 장치(101)는 사전에 캘리브레이션 동작에 의해 획득된 광원 기준값(320)을 메모리(130)에 저장할 수 있고, 광원 기준값(320)을 기반으로 반사 광원에 대한 노이즈 성분을 제거할 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 반사 광원의 수광 시, 메모리(130)에 저장된 광원 기준값(320)을 기반으로 상기 반사 광원에 대한 노이즈 성분을 제거할 수 있고, 상기 노이즈 성분이 제거된 반사 광원을 사용함으로써, 보다 정확하게 근접 센싱 기능을 수행할 수 있다. 근접 센싱의 정확도가 향상될 수 있다.
다양한 실시예에 따르면, 전자 장치(101)는, 적어도 하나의 픽셀을 포함하는 디스플레이 모듈(160), 상기 디스플레이 모듈(160)의 배면에 배치된 카메라 모듈(180), 적어도 하나의 광원에 대응되는 광원 기준값을 저장하는 메모리(130), 및 상기 디스플레이 모듈(160), 상기 카메라 모듈(180) 및 상기 메모리(130)에 작동적으로 연결된 프로세서(120)를 포함할 수 있다. 상기 프로세서(120)는, 상기 디스플레이 모듈(160)을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하고, 상기 적어도 하나의 광원이 오브젝트에 의해 반사된 반사 광원을 상기 카메라 모듈(180)을 통해 획득하고, 상기 획득된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 확인하고, 상기 메모리(130)에 저장된 광원 기준값과 상기 확인된 반사값을 기반으로, 상기 반사 광원에 포함된 노이즈를 제거하고, 상기 노이즈가 제거된 반사 광원을 기반으로 상기 오브젝트와의 근접 여부를 판단할 수 있다.
일 실시예에 따르면, 상기 카메라 모듈(180)은 상기 디스플레이 모듈(160)에서 제 1 영역(예: 도 2의 투과 영역(201’))의 배면에 배치되고, 상기 제 1 영역(201’)은 상기 디스플레이 모듈(160) 중 상기 제 1 영역(201’)을 제외한 나머지 영역들보다 높은 투과율을 갖는 것을 특징으로 한다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 제 1 영역(201’)에 분포된 적어도 하나의 픽셀을 기반으로, 상기 제 1 영역(201’)을 투과하면서, 적어도 하나의 광원을 발광할 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 제 1 영역(201’)의 배면에 배치된 상기 카메라 모듈(180)을 통해, 상기 반사 광원이 상기 제 1 영역(201’)을 투과하면서 수광될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 상기 제 1 영역(201’)을 전체적으로 덮으면서, 상기 디스플레이 모듈(160)의 표면에 배치되는 반사체를 더 포함하고, 상기 프로세서(120)는 상기 반사체가 상기 제 1 영역(201’)을 덮은 상태에서, 상기 제 1 영역(201’)에 분포된 적어도 하나의 픽셀을 통해 적어도 하나의 광원을 발광하고, 상기 적어도 하나의 광원이 상기 반사체에 의해 반사된 반사 광원을 상기 제 1 영역(201’)의 배면에 배치된 상기 카메라 모듈(180)을 통해 수광하고, 상기 수광된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 광원 기준값으로 설정하고, 상기 광원 기준값을 상기 메모리(130)에 저장할 수 있다.
일 실시예에 따르면, 상기 광원 기준값은 외부 환경에 따른 노이즈가 포함되지 않은 기준 반사값 및 상기 적어도 하나의 광원에 대응되는 주파수 값 및 진폭 값 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 광원은 빨간색(red) 광원, 초록색(green) 광원 및 파란색(blue) 광원 중 적어도 하나를 포함하는 것을 특징으로 한다.
일 실시예에 따르면, 상기 프로세서(120)는 상기 적어도 하나의 광원을 조합하여 백색(white) 광을 구현하고, 상기 구현된 백색 광을 발광할 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 설정된 순서에 따라, 복수 개의 광원들 중에서 적어도 하나의 광원을 발광할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 상기 전자 장치(101)의 자세를 감지하는 자이로 센서가 포함된 센서 모듈(176)을 더 포함하고, 상기 프로세서(120)는, 상기 자이로 센서를 사용하여, 상기 전자 장치(101)의 자세를 확인하고, 상기 확인된 자세가 설정된 자세에 매칭되는 경우 상기 디스플레이 모듈(160)을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 외부 전자 장치와 통신하기 위한 통신 모듈(190)을 더 포함하고, 상기 프로세서(120)는, 상기 통신 모듈(190)을 통한 상기 외부 전자 장치와의 통화 결정에 응답하여, 상기 디스플레이 모듈(160)을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하고, 상기 발광된 적어도 하나의 광원이 오브젝트에 의해 반사되는 경우, 반사 광원을 수광하기 위해 상기 카메라 모듈(180)을 적어도 부분적으로 활성화할 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 오브젝트와의 거리가 설정된 임계값 이하인 경우, 상기 적어도 하나의 픽셀을 기반으로 상기 적어도 하나의 광원의 발광 동작을 중지하고, 상기 활성화된 카메라 모듈을 비활성화할 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 획득된 반사 광원에 대응되는 수광량을 확인하고, 상기 확인된 수광량이 상기 메모리(130)에 저장된 기준 수광량 미만인지 여부를 확인하고, 상기 적어도 하나의 픽셀을 기반으로, 상기 오브젝트에 의해 가려진 픽셀의 비율을 확인하고, 상기 확인된 픽셀의 비율이 상기 메모리(130)에 저장된 기준 비율을 초과하는지 여부를 확인하고, 상기 수광량이 상기 기준 수광량 미만이거나, 또는 상기 픽셀의 비율이 상기 기준 비율을 초과하는 경우, 상기 오브젝트와 근접하였음을 판단할 수 있다.
도 4는 본 발명의 다양한 실시예에 따른 디스플레이 모듈 및 카메라 모듈을 사용하여 근접 센싱하는 방법을 도시한 흐름도이다.
도 4의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(200)와 적어도 일부 유사하거나, 전자 장치(200)의 다른 실시예들을 더 포함할 수 있다. 도 4의 전자 장치(101)는 도 3에 도시된 적어도 하나의 구성부들을 포함할 수 있다.
동작 401에서 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))의 제 1 영역(예: 도 2의 투과 영역(201’))을 통해, 적어도 하나의 광원(예: 빨간색(red) 광원, 초록색(green) 광원, 및/또는 파란색(blue) 광원)을 발광시킬 수 있다. 예를 들어, 적어도 하나의 광원은 가시광선을 포함할 수 있다. 프로세서(120)는 적어도 하나의 광원에 대응하여, 약 0~255 범위의 값을 설정할 수 있고, 적어도 하나의 광원을 조합함으로써, 다양한 색상을 구현할 수 있다. 예를 들어, 빨간색 광원이 255 값으로 설정되는 경우, 프로세서(120)는 빨간색 광원을 발광시킬 수 있다. 빨간색 광원, 초록색 광원, 및/또는 파란색 광원이 모두 255 값으로 설정되는 경우, 프로세서(120)는 백색(white) 광을 구현할 수 있고, 상기 백색 광을 발광시킬 수 있다. 전자 장치(101)는 디스플레이 모듈(160)의 일부 영역을 제 1 영역(201’)으로 설정할 수 있으며, 제 1 영역(201’)은 투과율이 주변보다 상대적으로 높게 구현될 수 있다. 적어도 하나의 광원이 발광되는 적어도 하나의 픽셀은 제 1 영역(201’)에 적어도 부분적으로 분포될 수 있다. 적어도 하나의 픽셀을 통해 발광된 적어도 하나의 광원은 제 1 영역(201’)을 투과하여 외부 환경으로 전달될 수 있다.
동작 403에서 프로세서(120)는 제 1 영역(201’)의 배면에 배치된 카메라 모듈(예: 도 1의 카메라 모듈(180), 도 2의 카메라(201), UDC(under display camera))를 사용하여, 적어도 하나의 광원이 오브젝트에 의해 반사된 반사광(예: 반사 광원)을 획득(수광)할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 디스플레이 모듈(160)의 아래(예: 배면)에, 적어도 하나의 카메라 모듈(180)이 배치될 수 있다. 적어도 하나의 카메라 모듈(180)은 UDC(under display camera)를 포함할 수 있다. 카메라 모듈(180)은 외부 환경으로부터 발생된 빛(광)을 적어도 부분적으로 수광할 수 있다. 카메라 모듈(180)은 수광부로 활용될 수 있다. 예를 들어, 카메라 모듈(180)은 제 1 영역(201’)을 투과해 전달되는 광원을 수광할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)로부터 발광된 적어도 하나의 광원은 오브젝트(예: 인체, 피사체)에 의해 반사될 수 있고, 반사 광원은 카메라 모듈(180)을 통해, 적어도 부분적으로 수광될 수 있다. 전자 장치(101)는 디스플레이 모듈(160)로부터 발광된 광원 및 카메라 모듈(180)을 통해 수광된 광원을 기반으로 오브젝트와의 거리를 측정할 수 있다. 도 10을 참조하면, 오브젝트와의 거리를 측정하는 흐름도를 도시한다. 도 10에 대한 상세한 설명에서, 상기 오브젝트와의 거리를 측정하는 동작을 설명한다. 일 실시예에 따르면, 제 1 영역(201’)을 통해 발광된 광원은 오브젝트에 반사될 수 있고, 오브젝트에 의해 반사된 광원(예: 반사 광원)은 상기 제 1 영역(201’)을 통해 카메라(201)에 수광될 수 있다.
동작 405에서 프로세서(120)는 획득된 반사 광원을 기반으로, 적어도 하나의 광원에 대응되는 반사값을 확인할 수 있다. 예를 들어, 반사값은 반사 광원을 기반으로, 빛에 대한 아날로그(analog) 값을 디지털(digital) 값으로 변환하였을 때, 디지털 값(예: ADC값)을 의미할 수 있다. 예를 들어, 반사 광원은 적어도 하나의 광원(예: 빨간색(red) 광원, 초록색(green) 광원, 및/또는 파란색(blue) 광원)을 포함할 수 있다. 반사 광원은 빨간색 광원, 초록색 광원, 및/또는 파란색 광원 중 적어도 하나를 조합하는 광원을 포함할 수 있다. 프로세서(120)는 상기 획득된 반사 광원을 기반으로, 각각의 광원(예: 빨간색 광원, 초록색 광원 및/또는 파란색 광원)에 대응되는 각각의 반사값을 확인할 수 있다. 예를 들어, 빨간색 광원에 대응되는 반사값, 초록색 광원에 대응되는 반사값, 및/또는 파란색 광원에 대응되는 반사값을 확인할 수 있다. 예를 들어, 각각의 반사값은 색상에 대응되는 주파수 및 진폭(amplitude)을 포함할 수 있다.
동작 407에서 프로세서(120)는 메모리(예: 도 1의 메모리(130))에 저장된 기준값(예: 캘리브레이션 데이터) 및 확인된 반사값을 기반으로 적어도 하나의 광원에 포함된 노이즈를 제거할 수 있다. 일 실시예에 따르면, 적어도 하나의 광원(예: 가시 광선)은 디스플레이 모듈(160)로부터 생성된 광원이므로, 적어도 부분적으로 노이즈 성분이 포함될 수 있다. 상기 적어도 하나의 광원(예: 가시 광원)에 대한 반사 광원은 적외선(IR) 광원과 비교하여, 상대적으로 노이즈 성분의 유입에 취약할 수 있다. 동작 407에서 프로세서(120)는 반사 광원에 포함된 노이즈 성분을 적어도 부분적으로 제거할 수 있다. 예를 들어, 전자 장치(101)는 사전에 각각의 광원(예: 빨간색 광원, 초록색 광원 및/또는 파란색 광원)에 대응되는 광원 기준값(예: 캘리브레이션 데이터)을 저장할 수 있다. 광원 기준값은 캘리브레이션 동작에 의해, 획득될 수 있으며, 외부 환경에 기반한 노이즈 성분이 포함되지 않은 반사 광원에 대한 반사값을 포함할 수 있다. 캘리브레이션 동작은 도 5에 대한 상세한 설명에서 설명한다. 일 실시예에 따르면, 프로세서(120)는 외부 환경에 기반한 노이즈 성분이 포함되지 않은 광원 기준값과, 외부 환경에 기반한 노이즈 성분이 적어도 부분적으로 포함된, 반사 광원에 대한 반사값을 비교할 수 있고, 반사 광원에 포함된 노이즈 성분을 적어도 부분적으로 제거할 수 있다.
동작 409에서 프로세서(120)는 노이즈가 제거된 반사 광원을 기반으로, 오브젝트와의 거리를 측정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 오브젝트와의 근접 여부를 판단하기 위한 임계값(예: 수광량 값에 대응되는 제 1 임계값 및 가려진 픽셀의 비율에 대응되는 제 2 임계값)을 사전에 설정할 수 있고, 메모리(130)에 저장할 수 있다. 예를 들어, 프로세서(120)는 캘리브레이션 동작(예: 도 5 및 도 6의 캘리브레이션 동작)을 수행하여, 제 1 임계값(예: 제 1 영역(201’)이 반사체에 의해 가려진 상태에서의 수광량 값)을 결정할 수 있고, 상기 결정된 제 1 임계값을 메모리(예: 도 1의 메모리(130))에 저장할 수 있다. 프로세서(120)는 상기 노이즈가 제거된 반사 광원을 기반으로 수광량 값을 산출할 수 있고, 상기 메모리(130)에 저장된 제 1 임계값과 비교함으로써, 상기 오브젝트가 근접하였는지 여부를 결정할 수 있다. 다른 예를 들어, 프로세서(120)는 제 1 영역(201’)에 대응하여 배치된 픽셀들을 기반으로, 가려진 픽셀에 대한 비율을 제 2 임계값으로 설정할 수 있다. 다른 예를 들어, 프로세서(120)는 외부 환경으로 노출되지 않도록, 가려진 픽셀의 비율이 제 2 임계값을 초과하는 경우 상기 오브젝트가 근접하였음을 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제 1 임계값 및 제 2 임계값을 기반으로 상기 오브젝트와의 근접 여부를 확인하거나, 또는 상기 오브젝트와의 떨어진 거리를 측정할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 근접 센싱 기능의 수행 시, 제 1 영역(201’)에 포함된 적어도 하나의 픽셀을 기반으로, 백색(white) 광을 구현할 수 있고, 상기 백색 광을 발광시킬 수 있다. 예를 들어, 프로세서(120)는 적어도 하나의 광원을 조합하여, 백색 광원을 구현할 수 있다. 외부 환경으로 발광된 백색 광원이 오브젝트에 의해 반사되는 경우, 전자 장치(101)는 카메라 모듈(180)을 통해, 상기 백색 광원에 대응되는 반사 광원을 수광할 수 있다. 프로세서(120)는 반사 광원을 기반으로 오브젝트와의 거리(예: 근접 여부)를 확인할 수 있다. 예를 들어, 프로세서(120)는 메모리(130)에 저장된 광원 기준값(320)을 기반으로, 반사 광원에 포함된 노이즈 성분을 제거할 수 있고, 상기 노이즈 성분이 제거된 반사 광원을 기반으로 오브젝트와의 거리를 보다 정확하게 측정할 수 있다.
다른 실시예에 따르면, 전자 장치(101)는 백색 광원을 기반으로, 오브젝트와의 거리를 확인한 후, 다른 광원들(예: 빨간색 광원, 초록색 광원 및/또는 파란색 광원)을 순차적으로 발광시켜서, 추가적으로 오브젝트와의 거리를 확인할 수 있다. 전자 장치(101)는 적어도 하나의 광원(예: 가시광선)을 기반으로 근접 센싱 기능을 수행할 수 있다. 전자 장치(101)는 적어도 하나 이상의 광원을 사용하여, 오브젝트와의 거리를 보다 정확하게 측정할 수 있다.
도 5는 본 발명의 다양한 실시예에 따른 노이즈의 제거를 위한 기준값을 획득하는 방법을 도시한 흐름도이다.
도 5의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(200)와 적어도 일부 유사하거나, 전자 장치(200)의 다른 실시예들을 더 포함할 수 있다. 도 5의 전자 장치(101)는 도 3에 도시된 적어도 하나의 구성부들을 포함할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 적어도 하나의 광원(예: 가시광선)을 사용하여, 오브젝트에 대한 근접 여부(예: 근접 센싱 기능의 수행)를 확인할 수 있다. 전자 장치(101)는 가시광선에 포함된 노이즈 성분을 제거함으로써, 오브젝트에 대한 근접 여부를 확인하는 정확도가 향상될 수 있다. 예를 들어, 적어도 하나의 광원(예: 도 1의 디스플레이 모듈(160))으로부터 생성된 가시광선은 외부 환경으로부터 생성된 노이즈 성분이 유입될 수 있다. 예를 들어, 오브젝트에 의해 반사된 반사 광원을 수광함에 있어서, 전자 장치(101)는 카메라 모듈(예: 도 1의 카메라 모듈(180))의 배치 상태 및 디스플레이 모듈(160)의 설정 상태(예: 밝기 정도)에 따라, 상기 반사 광원을 정확하게 분석하기 어려울 수 있다. 일 실시예에 따르면, 전자 장치(101)는 사전에 도 5의 캘리브레이션 동작을 수행할 수 있고, 제한된 상황(예: 외부 환경으로부터 노이즈 성분이 유입되지 않은 상황)을 기반으로, 반사 광원을 분석할 수 있다. 전자 장치(101)는 캘리브레이션 동작을 수행하여, 반사 광원에 대한 주파수 및 진폭을 확인할 수 있고, 상기 확인된 반사 광원에 대한 주파수 및 진폭을 기준값(예: 광원 기준값)으로, 메모리(예: 도 1의 메모리(130))에 저장할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 메모리(130)에 저장된 기준값을 기반으로, 외부 환경으로부터 수광된 반사 광원에 대한 노이즈 성분을 제거할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 노이즈 성분이 제거된 반사 광원을 기반으로, 오브젝트에 대한 근접 여부를 확인할 수 있고, 상기 오브젝트에 대한 근접 여부를 확인하는 정확도가 향상될 수 있다. 다른 실시예에 따르면, 전자 장치(101)는 노이즈 성분이 제거된 반사 광원에 대한 데이터를 계속적으로 메모리(130)에 누적시킬 수 있고, 특정 상황에 따른 데이터를 수집할 수 있다. 전자 장치(101)는 반사 광원에 대한 데이터를 수집하거나, 또는 업데이트하여, 상기 반사 광원에 기반한 근접 센싱 기능의 정확도를 향상시킬 수 있다.
도 5는 전자 장치(101)에서 사전에 수행하는 캘리브레이션 동작의 순서를 도시한다. 도 6은 캘리브레이션 동작 시, 적어도 하나의 광원이 투과되는 투과 영역(예: 도 2의 투과 영역(201’))을 반사체가 전체적으로 가린 상황을 도시한다. 예를 들어, 캘리브레이션 동작은 외부 환경으로부터 노이즈 성분이 유입되지 않는 상태에서의 반사 광원을 분석하는 동작을 포함할 수 있다. 전자 장치(101)는 캘리브레이션 동작을 수행하여, 적어도 하나의 광원(예: 빨간색(red) 광원, 초록색(green) 광원, 및/또는 파란색(blue) 광원)에 대응되는 적어도 하나의 기준값을 획득할 수 있다. 예를 들어, 전자 장치(101)는 빨간색(R) 광원에 대응되는 빨간색 광원의 기준값, 초록색(G) 광원에 대응되는 초록색 광원의 기준값, 및/또는 파란색(B) 광원에 대응되는 파란색 광원의 기준값을 획득할 수 있다.
동작 501에서 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 디스플레이 모듈(160)의 제 1 영역(예: 도 2의 투과 영역(201’))에 반사체가 배치된 상태에서, 제 1 영역(201’)에 대응하여 배치된 적어도 하나의 픽셀을 통해, 적어도 하나의 광원(예: 빨간색(red) 광원, 초록색(green) 광원, 및/또는 파란색(blue) 광원)을 발광할 수 있다. 디스플레이 모듈(160)은 적어도 하나의 픽셀을 포함하며, 적어도 하나의 픽셀을 통해, 자체적으로 가시광선을 발광할 수 있다. 예를 들어, 가시광선은 적어도 하나의 광원을 기반으로, 적어도 하나의 광원이 조합되어 구현될 수 있다. 일 실시예에 따르면, 캘리브레이션 동작은 적어도 하나의 광원에 대한 광원 기준값(예: 도 3의 광원 기준값(320), 캘리브레이션 데이터)을 획득하기 위한 동작일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 오브젝트에 의해 반사된 반사 광원을 수광할 수 있고, 메모리(130)에 저장된 광원 기준값(320)을 기반으로, 반사 광원에 포함된 노이즈 성분을 제거할 수 있다. 예를 들어, 오브젝트에 의해 반사된 반사 광원은 외부 환경으로부터 생성된 노이즈 성분이 포함된 상태일 수 있다.
동작 503에서 프로세서(120)는 제 1 영역(201’)의 배면에 배치된 카메라(예: 도 1의 카메라 모듈(180), 도 3의 UDC(310))를 사용하여, 적어도 하나의 광원이 반사체에 의해 반사된 반사 광원을 획득할 수 있다. 캘리브레이션 동작 시, 전자 장치(101)는 제 1 영역(201’)이 반사체에 의해 완전하게 덮어진 상태일 수 있다. 예를 들어, 디스플레이 모듈(160)의 적어도 하나의 픽셀에서 적어도 하나의 광원이 발광되는 경우 반사체에 의해 상기 적어도 하나의 광원이 반사될 수 있고, 카메라(180)를 통해, 반사된 광원(예: 반사 광원)이 수광될 수 있다. 예를 들어, 반사 광원은 외부 환경에 기반하여 생성된 노이즈 성분이 포함되지 않은 광원을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 외부 환경으로부터 생성되어, 반사 광원에 포함된 노이즈 성분을 제거하기 위해, 캘리브레이션 동작을 수행할 수 있다. 캘리브레이션 동작 시, 전자 장치(101)는 반사체에 의해 반사된 반사 광원에 대한 광원 기준값을 획득할 수 있고, 메모리(130)에 광원 기준값을 저장할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 외부의 오브젝트에 의해 반사된 반사 광원을 수광하는 경우, 메모리(130)에 저장된 광원 기준값을 기반으로, 상기 반사 광원에 포함된 노이즈 성분을 제거할 수 있다.
동작 505에서 프로세서(120)는 적어도 하나의 광원, 각각에 대응되는 주파수 및 진폭(amplitude)을 기준값으로 메모리(130)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 적어도 하나의 광원(예: 빨간색(R) 광원, 초록색(G) 광원, 및/또는 파란색(B) 광원)), 각각에 대응되는 광원 기준값을 획득할 수 있고, 메모리(130)에 광원 기준값을 저장할 수 있다. 예를 들어, 프로세서(120)는 반사체에 의해 반사된 반사 광원을 기반으로, 빨간색 광원에 대응되는 주파수 및 진폭, 초록색 광원에 대응되는 주파수 및 진폭, 파란색 광원에 대응되는 주파수 및 진폭을 개별적으로 메모리(130)에 저장할 수 있다. 일 실시예에 따르면, 캘리브레이션 동작은 전자 장치(101) 설계 과정에서 미리 수행될 수 있고, 전자 장치(101)는 광원 기준값이 이미 메모리(130)에 저장된 채로 제작될 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 캘리브레이션 동작에 의해, 메모리(130)에 저장된 광원 기준값을 기반으로, 오브젝트에 의해 반사된 반사 광원에 포함된 노이즈 성분을 적어도 부분적으로 제거할 수 있다. 전자 장치(101)는 외부 환경에 기반한 노이즈 성분이 제거된 반사 광원을 기반으로, 오브젝트에 대한 근접 센싱 기능을 수행할 수 있다. 일 실시예에 따르면, 반사 광원에서 노이즈 성분이 제거되었으므로, 상기 근접 센싱 기능에 대한 정확도가 향상될 수 있다.
도 6은 본 발명의 다양한 실시예에 따른 반사체가 디스플레이 모듈의 제 1 영역을 가린 상황을 도시한 예시도이다.
도 6을 참조하면, 전자 장치(200)(예: 도 1의 전자 장치(101))는 디스플레이 모듈(160)의 제 1 영역(예: 도 2의 투과 영역(201’))이 반사체(610)에 의해 완전하게 가려진 상태에서, 캘리브레이션 동작을 수행할 수 있다.
일 실시예에 따르면, 전자 장치(200)는 디스플레이 모듈(160)의 제 1 영역(201’)에 배치된 적어도 하나의 픽셀을 통해, 적어도 하나의 광원(예: 가시광선)을 발광시킬 수 있고, 상기 적어도 하나의 픽셀을 발광부로 활용할 수 있다. 전자 장치(200)는 디스플레이 모듈(160)의 제 1 영역(201’)에 대응하여, 상기 디스플레이 모듈(160)의 아래(예: 배면)에 배치된 카메라(201)(예: 도 1의 카메라 모듈(180), 도 3의 UDC(310))를 통해, 적어도 하나의 광원(예: 반사 광원)을 수광할 수 있고, 카메라(201)를 수광부로 활용할 수 있다. 적어도 하나의 픽셀로부터 발광된 광원은 반사체(610)에 의해 반사될 수 있으며, 반사된 광원(예: 반사 광원)은 카메라(201)를 통해, 수광될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 설정된 순서에 따라, 적어도 하나의 광원(예: 빨간색(R) 광원, 초록색(G) 광원, 및/또는 파란색(B) 광원))을 발광시킬 수 있고, 상기 적어도 하나의 광원, 각각에 대응되는 반사 광원을 획득할 수 있다. 예를 들어, 오브젝트에 의해 반사된 반사 광원은 외부 환경에 기반한 노이즈 성분이 포함될 수 있다.
일 실시예에 따르면, 전자 장치(200)는 캘리브레이션 동작을 수행하여, 각각의 광원에 대응되는 반사 광원(예: 반사체(610)에 의해 반사된 반사 광원, 외부 환경에 기반한 노이즈 성분이 포함되지 않은 반사 광원)을 획득할 수 있고, 메모리(130)에 각각의 광원에 대응되는 반사 광원에 대한 광원 기준값을 저장할 수 있다. 예를 들어, 전자 장치(200)는 반사체(610)에 의해 반사된 반사 광원을 기반으로, 광원에 대한 아날로그 값을 디지털 값(예: ADC값)으로 변환할 수 있고, 상기 변환된 디지털 값을 광원 기준값으로 저장할 수 있다. 디지털 값은 적어도 하나의 광원에 대응되는 주파수 및 진폭에 대한 값을 포함할 수 있다. 전자 장치(200)는 각각의 광원에 대응되는 주파수 및 진폭(amplitude)을 광원 기준값으로 메모리(예: 도 1의 메모리(130))에 저장할 수 있다.
일 실시예에 따르면, 전자 장치(200)가 실제 사용 환경에서 카메라 모듈(180)을 통해, 반사 광원을 수광하는 경우, 전자 장치(200)는 메모리(130)에 저장된 광원 기준값 및 상기 수광된 반사 광원을 비교 또는 분석할 수 있고, 상기 수광된 반사 광원에 대한 노이즈 성분을 제거할 수 있다. 예를 들어, 외부 환경으로부터 수광된 반사 광원은 외부 환경에 기반한 노이즈 성분이 포함될 수 있다. 전자 장치(200)는 광원 기준값을 기반으로 상기 반사 광원에 포함된 노이즈 성분을 적어도 부분적으로 제거할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 노이즈 성분이 제거된 반사 광원을 기반으로, 오브젝트와의 거리를 확인할 수 있고, 보다 정확하게 근접 센싱 기능을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 별도의 근접 센서 없이, 적어도 하나의 픽셀을 발광부로 활용하고, 카메라 모듈(180)(UDC)을 수광부로 활용하여, 반사 광원에 기반한 근접 센싱 기능을 수행할 수 있다.
도 7은 본 발명의 다양한 실시예에 따른 통화 수신 시, 근접 센싱 기능이 수행되는 상황을 도시한 흐름도이다.
도 7의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(200)와 적어도 일부 유사하거나, 전자 장치(200)의 다른 실시예들을 더 포함할 수 있다. 도 7의 전자 장치(101)는 도 3에 도시된 적어도 하나의 구성부들을 포함할 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 통신 모듈(예: 도 1의 통신 모듈(190))을 통해, 외부 전자 장치(예: 도 1의 전자 장치(102, 104), 상대방의 전자 장치)로부터 걸려온 통화 신호를 확인할 수 있고, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))을 통해, 상기 외부 전자 장치의 전화 번호 및/또는 상기 외부 전자 장치에 대응하여 등록된 상대방의 ID(예: 이름)을 표시할 수 있다. 예를 들어, 프로세서(120)는 통화 신호의 수신 시, 디스플레이 모듈(160)을 OFF 상태에서 ON 상태로 전환할 수 있고, 상기 통화 신호를 송신한 외부 전자 장치(예: 상대방의 ID)를 나타내는 알림 메시지가 포함된 사용자 인터페이스(user interface, UI)를 표시할 수 있다.
동작 701에서 프로세서(120)는 알림 메시지가 포함된 사용자 인터페이스가 표시된 상태에서, 사용자 입력에 응답하여, 외부 전자 장치와의 통화를 결정할 수 있다. 예를 들어, 사용자는 사용자 인터페이스를 기반으로, 통화 신호를 송신한 상대방의 ID(예: 외부 전자 장치의 전화 번호)를 확인할 수 있고, 상대방과의 통화 여부를 결정할 수 있다.
동작 703에서 프로세서(120)는 센서 모듈(예: 도 1의 센서 모듈(176))을 사용하여 전자 장치(101)에 대한 그립 여부를 확인할 수 있다. 예를 들어, 센서 모듈(176)은 사용자의 그립 여부를 판단하기 위한 터치 센서 및 전자 장치(101)의 자세 및 위치를 감지하기 위한 자이로 센서를 포함할 수 있다. 프로세서(120)는 센서 모듈(176)을 통해 획득한 센싱 정보를 기반으로, 전자 장치(101)에 대한 그립 여부를 확인할 수 있다.
동작 705에서 프로세서(120)는 디스플레이 모듈(160)의 제 1 영역(예: 도 2의 투과 영역(201’))의 배면에 배치된 카메라(예: 도 1의 카메라 모듈(180), 도 3의 UDC(310))를 활성화할 수 있다. 예를 들어, 프로세서(120)는 카메라 모듈(180)이 수광부로 활용되는 경우에 필요한 기능을 적어도 부분적으로 활성화시킬 수 있다. 프로세서(120)는 카메라 모듈(180)의 기능들 중에서 외부로부터 광원을 수광하는 상황에서 필요한 일부 기능을 적어도 부분적으로 활성화시킬 수 있다.
동작 707에서 프로세서(120)는 디스플레이 모듈(160)의 제 1 영역(201’)에 배치된 적어도 하나의 픽셀을 통해, 적어도 하나의 광원(예: 빨간색(R) 광원, 초록색(G) 광원, 및/또는 파란색(B) 광원))을 발광시킬 수 있다. 예를 들어, 프로세서(120)는 제1 영역(201’)에 분포된 적어도 하나의 픽셀을 기반으로, 적어도 하나의 광원을 외부 환경으로 발광시킬 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제 1 영역(201’)에 배치된 적어도 하나의 픽셀을 발광부로 활용할 수 있다.
동작 709에서 프로세서(120)는 적어도 하나의 광원이 오브젝트(예: 인체)에 의해 반사된 반사 광원을 획득할 수 있다. 예를 들어, 사용자는 상대방과의 통화를 위해, 전자 장치(101)의 오디오 모듈(예: 도 1의 오디오 모듈(170), 스피커)이 배치된 위치에 귀가 위치하도록 전자 장치(101)를 이동시킬 수 있다. 이 때, 적어도 하나의 광원은 사용자의 인체(예: 오브젝트)에 적어도 부분적으로 반사될 수 있고, 반사된 반사 광원이 카메라 모듈(180)을 통해 수광될 수 있다. 프로세서(120)는 카메라 모듈(180)을 수광부로 활용하여, 반사 광원을 적어도 부분적으로 획득할 수 있다.
동작 711에서 프로세서(120)는 획득된 반사 광원을 기반으로, 적어도 하나의 광원에 대응되는 반사값을 획득할 수 있다. 예를 들어, 프로세서(120)는 각각의 광원(예: 빨간색(R) 광원, 초록색(G) 광원, 및/또는 파란색(B) 광원))에 대응되는 반사값을 획득할 수 있다. 반사 광원은 가시 광선에 대한 반사 광원으로, 외부 환경에 기반하여 생성된 노이즈 성분이 포함될 수 있다.
동작 713에서 프로세서(120)는 메모리(130)에 저장된 광원 기준값 및 상기 획득된 반사값을 기반으로 오브젝트와의 거리를 측정할 수 있다. 예를 들어, 광원 기준값은 도 5 및 도 6에서 설명된 캘리브레이션 동작을 기반으로 측정된 값(예: 캘리브레이션 데이터)을 포함하며, 사전에 전자 장치(101)에서 반사체를 사용하여 획득된, 적어도 하나의 광원, 각각에 대응되는 기준 반사값을 포함할 수 있다. 광원 기준값은 전자 장치(101)에서의 캘리브레이션 동작에 기반하여, 획득된 캘리브레이션 데이터를 포함할 수 있다. 광원 기준값은 외부 환경에 기반하여 생성된 노이즈 성분이 포함되지 않은 반사 광원을 기반으로, 각각의 광원에 대응되는 반사값을 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광원 기준값(예: 외부 환경에 기반하여 생성된 노이즈 성분이 없는 반사값) 및 반사 광원을 기반으로 획득된 반사값(예: 외부 환경에 기반하여 생성된 노이즈 성분이 포함된 반사값)을 비교할 수 있고, 노이즈 성분을 추출할 수 있다. 프로세서(120)는 상기 반사 광원에 기반하여 획득된 반사값에서 상기 추출된 노이즈 성분을 제거할 수 있고, 노이즈 성분이 제거된 반사값을 기반으로 오브젝트와의 거리를 측정할 수 있다.
동작 715에서 프로세서(120)는 측정된 거리가 설정된 임계값 이하인 경우 카메라(201)를 비활성화할 수 있고, 디스플레이 모듈(160)의 제 1 영역(201’)에 배치된 적어도 하나의 픽셀을 통한 발광 동작을 중지할 수 있다. 예를 들어, 측정된 거리가 설정된 임계값 이하라는 것은 사용자가 상대방과의 통화를 위해, 전자 장치(101)를 사용자의 귀와 입에 인접하게 배치하였다는 것을 의미할 수 있다. 전자 장치(101)가 사용자의 귀에 인접하여 배치된 경우, 전자 장치(101)는 디스플레이 모듈(160)을 OFF 상태로 전환시킬 수 있고, 적어도 하나의 픽셀에 대한 발광 동작을 중지시킬 수 있고, 카메라 모듈(180)에 의한 수광 동작을 중지시킬 수 있다. 일 실시예에 따르면, 전자 장치(101)가 사용자의 귀에 인접하여 배치된 경우, (근접 센싱 기능을 수행하여, 오브젝트(예: 인체)가 근접하였음을 확인하는 경우) 전자 장치(101)는 근접 센싱 기능과 관련된 구성 요소들(예: 발광부로 동작하는 적어도 하나의 픽셀, 수광부로 동작하는 카메라 모듈(180))의 동작을 중지시키거나, 또는 비활성화시킬 수 있다.
일 실시예에 따르면, 전자 장치(101)는 통화 수신에 응답하여, 근접 센싱 기능(예: 적어도 하나의 픽셀을 발광부로 동작, 카메라 모듈(180)을 수광부로 동작)을 수행할 수 있고, 오브젝트(예: 인체)가 인접하게 배치되었음을 확인하는 경우, 상기 근접 센싱 기능과 관련된 구성 요소들의 동작을 중단시킴으로써, 전력 소모를 줄일 수 있다.
도 8은 본 발명의 다양한 실시예에 따른 통화 수신 시, 각각의 구성 요소에서 근접 센싱 기능을 수행하는 상황이 도시된 타임 테이블이다.
도 8의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(200)와 적어도 일부 유사하거나, 전자 장치(200)의 다른 실시예들을 더 포함할 수 있다. 도 8을 참조하면, 전자 장치(101)의 구성 요소에 해당하는, 프로세서(120), 디스플레이 모듈(160), 및/또는 카메라 모듈(180)에 대한 동작 순서가 도시되어 있다.
도 8을 참조하면, 도 7의 흐름도에서의 동작이 각각의 구성 요소에 대한 동작으로 구체적으로 도시되어 있다.
동작 801에서 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 통신 모듈(예: 도 1의 통신 모듈(190))을 통해, 외부 전자 장치(예: 도 1의 전자 장치(102, 104), 상대방의 전자 장치)로부터 송신된 통화 신호(예: call 신호)를 확인할 수 있다.
동작 701(예: 도 7의 동작 701)에서 프로세서(120)는 상대방과의 통화 연결을 결정할 수 있다. 예를 들어, 프로세서(120)는 외부 전자 장치에 대한 call 신호의 확인에 응답하여, 디스플레이 모듈(160)을 통해, 통화 신호를 송신한 외부 전자 장치(예: 상대방의 ID)를 나타내는 알림 메시지가 포함된 사용자 인터페이스를 표시할 수 있다. 사용자는 사용자 인터페이스를 기반으로, call 신호를 송신한 상대방(예: 외부 전자 장치)을 확인할 수 있고, 동작 701에서 상대방과의 통화를 결정할 수 있다.
동작 703(예: 도 7의 동작 703)에서 프로세서(120)는 센서 모듈(예: 도 1의 센서 모듈(176))을 사용하여 전자 장치(101)에 대한 그립 여부를 확인할 수 있다. 예를 들어, 센서 모듈(176)은 사용자의 그립 여부를 판단하기 위한 터치 센서 및 전자 장치(101)의 자세 및 위치를 감지하기 위한 자이로 센서를 포함할 수 있다. 프로세서(120)는 전자 장치(101)에 대한 사용자의 그립이 확인되는 경우 동작 803 및 동작 805를 수행할 수 있다. 다른 실시예에 따르면, 전자 장치(101)는 동작 701에서의 통화 수신 이후에, 설정된 시간이 경과하게 되면, 동작 803 및 동작 805를 수행할 수도 있다.
동작 803에서 프로세서(120)는 카메라 모듈(180)에 카메라의 활성화를 요청할 수 있다. 예를 들어, 카메라는 디스플레이 모듈(160)의 제 1 영역(예: 도 2의 투과 영역(201’))의 배면에 배치된 UDC(예: 도 3의 UDC(310))를 포함할 수 있다. 프로세서(120)는 카메라 모듈(180)에 대한 기능들 중에서, 외부로부터 광원을 수광하기 위해 필요한 일부 기능을 적어도 부분적으로 활성화시키도록 카메라 모듈(180)에 요청 신호를 전달할 수 있다.
동작 805에서 프로세서(120)는 디스플레이 모듈(180)에 광원의 발광을 요청할 수 있다. 예를 들어, 프로세서(120)는 디스플레이 모듈(180)의 제 1 영역(201’)에 분포된 적어도 하나의 픽셀을 기반으로, 적어도 하나의 광원(예: 백색(W) 광원, 빨간색(R) 광원, 초록색(G) 광원, 및/또는 파란색(B) 광원))을 발광시키도록 디스플레이 모듈(180)에 요청 신호를 전달할 수 있다.
동작 705(예: 도 7의 동작 705)에서 프로세서(120)는 디스플레이 모듈(180)의 제 1 영역(201’)의 배면에 배치된 카메라를 활성화(ON)시킬 수 있다. 프로세서(120)는 카메라가 수광 기능을 수행할 수 있도록, 카메라의 기능들 중 일부 기능을 적어도 부분적으로 활성화시킬 수 있다.
동작 707(예: 도 7의 동작 707)에서 프로세서(120)는 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광시킬 수 있다. 예를 들어, 적어도 하나의 광원은 제 1 영역(201’)을 투과하여, 외부 환경으로 발광될 수 있다. 적어도 하나의 광원은 외부의 오브젝트(예: 인체, 피사체)에 의해 적어도 부분적으로 반사될 수 있다.
동작 709 및 동작 711(예: 도 7의 동작 709 및 동작 711)에서 프로세서(120)는 오브젝트에 의해 반사된 반사 광원을 획득할 수 있고, 상기 획득된 반사 광원에 기반한 반사값을 획득할 수 있다. 프로세서(120)는 획득한 반사값과 메모리(예: 도 1의 메모리(130))에 저장된 광원 기준값(예: 도 3의 광원 기준값(320))을 비교할 수 있고, 반사 광원에 포함된 노이즈 성분을 검출할 수 있다. 프로세서(120)는 반사 광원을 기반으로 상기 검출된 노이즈 성분을 제거할 수 있고, 노이즈 성분이 제거된 반사 광원을 기반으로, 오브젝트와의 거리를 측정할 수 있다.
동작 713(예: 도 7의 동작 713)에서 프로세서(120)는 오브젝트와의 거리를 측정할 수 있다. 반사 광원에서 노이즈 성분이 제거되었으므로, 프로세서(120)는 보다 정확하게 거리를 측정할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀을 기반으로 발광 기능을 수행할 수 있고, 카메라 모듈(180)을 기반으로 수광 기능을 수행할 수 있다. 전자 장치(101)는 디스플레이 모듈(160) 및 카메라 모듈(180)을 기반으로 근접 센싱 기능을 수행할 수 있다. 프로세서(120)는 상기 측정된 오브젝트와의 거리가 설정된 임계값 이하인 경우 동작 807 및 동작 809를 수행할 수 있다.
동작 807에서 프로세서(120)는 카메라 모듈(180)에 카메라의 비활성화를 요청할 수 있다. 예를 들어, 상기 측정된 오브젝트와의 거리가 임계값 이하인 것은 사용자가 통화를 위해, 전자 장치(101)를 귀와 입에 인접하게 배치하였다는 것을 의미할 수 있다. 전자 장치(101)는 근접 센싱 기능을 중단하기 위해, 카메라 모듈(180)에 카메라의 비활성화를 요청할 수 있다.
동작 809에서 프로세서(120)는 디스플레이 모듈(160)에 적어도 하나의 픽셀에 대한 발광 기능의 중지를 요청할 수 있다. 전자 장치(101)는 근접 센싱 기능을 중단하기 위해, 디스플레이 모듈(160)에 카메라의 비활성화를 요청할 수 있다.
동작 715에서 카메라 모듈(180)은 동작 807의 요청에 응답하여, 카메라를 비활성화(OFF)시킬 수 있다. 프로세서(120)는 카메라를 통한 수광 기능이 중단되도록 카메라를 적어도 부분적으로 비활성화시킬 수 있다. 동작 715에서 디스플레이 모듈(160)은 동작 809의 요청에 응답하여, 적어도 하나의 픽셀에 대한 발광 기능을 중지시킬 수 있다. 프로세서(120)는 적어도 하나의 픽셀을 통한 발광 기능이 중단되도록 디스플레이 모듈(160)을 적어도 부분적으로 제어할 수 있다.
도 9는 본 발명의 다양한 실시예에 따른 디스플레이 모듈에 포함된 다수 개의 픽셀들을 기반으로, 일정 비율의 픽셀들이 가려지는 상황을 도시한 예시도이다.
도 9의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(200)와 적어도 일부 유사하거나, 전자 장치(200)의 다른 실시예들을 더 포함할 수 있다. 도 9의 전자 장치(101)는 도 3에 도시된 적어도 하나의 구성부들을 포함할 수 있다.
도 9를 참조하면, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))의 제 1 영역(예: 도 2의 투과 영역(201’))에 분포된 적어도 하나의 픽셀 그룹(910)을 도시한다. 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀을 기반으로, 픽셀 그룹(910)을 설정할 수 있고, 픽셀 그룹(910)을 기준으로 오브젝트(예: 인체, 피사체)에 의해 가려진 영역(920)을 확인할 수 있다. 예를 들어, 프로세서(120)는 픽셀 그룹(910)에 포함된 적어도 하나의 픽셀에 대응되는 반사값을 획득할 수 있고, 상기 획득된 반사값을 기반으로, 적어도 하나의 픽셀이 오브젝트에 의해 가려졌는지 여부를 확인할 수 있다.
프로세서(120)는 제 1 영역(201’)에 분포된 전체 픽셀 수를 기준으로, 설정된 임계값 이하의 반사값을 갖는 픽셀 수(920)를 확인할 수 있고, 상기 확인된 픽셀 수(920)가 전체 픽셀 수 대비 설정된 비율을 초과하는 경우 오브젝트가 전자 장치(101)에 근접하였음을 판단할 수 있다. 프로세서(120)는 픽셀 그룹(910)을 기반으로, 오브젝트에 의해 적어도 부분적으로 가려진 영역(920) 및 오브젝트에 의해 가려지지 않은 영역(911, 912, 913)을 구분할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 디스플레이 모듈(160)에 포함된 적어도 하나의 픽셀을 사용하여, 발광 기능을 수행할 수 있고, 카메라 모듈(180)에 포함된 카메라(예: 도 2의 카메라(201), 도 3의 UDC(310))를 사용하여, 수광 기능을 수행할 수 있다. 예를 들어, 적어도 하나의 픽셀은 발광부로 활용될 수 있고, 카메라는 수광부로 활용될 수 있다. 전자 장치(101)는 디스플레이 모듈(160)의 제 1 영역(예: 도 2의 투과 영역(201’))에 분포된 적어도 하나의 픽셀을 기반으로, 적어도 하나의 광원(예: 빨간색(R) 광원, 초록색(G) 광원, 및/또는 파란색(B) 광원))을 발광할 수 있고, 상기 적어도 하나의 광원이 외부의 오브젝트에 의해 반사되는 경우, 카메라(201)를 통해, 반사 광원을 수광할 수 있다. 전자 장치(101)는 사전에 캘리브레이션 동작에 의해 획득된 광원 기준값(320)이 메모리(130)에 저장된 상태일 수 있다. 전자 장치(101)는 수광된 반사 광원에 대응되는 반사값과 상기 메모리(130)에 저장된 광원 기준값(320)을 비교하여, 상기 반사 광원에 포함된 노이즈 성분을 추출할 수 있다. 전자 장치(101)는 반사 광원에 포함된 노이즈 성분을 제거할 수 있고, 노이즈 성분이 제거된 반사 광원을 기반으로 근접 센싱 기능을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 노이즈 성분이 제거된 반사 광원을 기반으로 근접 센싱 기능을 수행하므로, 근접 센싱에 대한 정확도가 향상될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 적어도 하나의 픽셀 및 카메라 모듈(180)(예: UDC(310))를 기반으로, 근접 센싱 기능을 정확하게 수행할 수 있다.
일 실시예에 따르면, 상대방과의 통화 연결을 결정한 경우, 전자 장치(101)는 근접 센싱 기능(예: 적어도 하나의 픽셀을 발광부로 기능하고, 카메라 모듈(180)을 수광부로 기능)을 수행할 수 있으며, 전자 장치(101)가 사용자의 귀와 입 근처로 이동되었는지 여부를 확인할 수 있다. 전자 장치(101)가 귀와 입 근처에 위치하는 경우, 전자 장치(101)는 근접 센싱 기능을 중단할 수 있다. 예를 들어, 수광부로 활용되는 적어도 하나의 픽셀을 OFF시킬 수 있고, 발광부로 활용되는 카메라 모듈(180)의 기능을 적어도 부분적으로 OFF 시킬 수 있다. 일 실시예에 따르면, 전자 장치(101)는 가시광선(예: 적어도 하나의 픽셀을 통해 적어도 하나의 광원을 발광)을 사용하여, 근접 센싱 기능을 수행할 수 있으며, 반사 광원에 대한 노이즈 성분을 제거함으로써, 보다 정확하게 오브젝트와의 거리를 측정할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 별도의 근접 센서 없이, 디스플레이 모듈(160)을 기반으로 수광 기능을 수행하고, 카메라 모듈(180)을 기반으로 발광 기능을 수행하여, 근접 센싱 기능을 수행할 수 있다. 전자 장치(101)는 캘리브레이션 동작에 기반하여 획득한 광원 기준값(예: 캘리브레이션 데이터)을 기반으로, 반사 광원에 대한 노이즈 성분을 제거할 수 있고, 근접 센싱 기능에 대한 정확도를 향상시킬 수 있다.
다른 실시예에 따르면, 전자 장치(101)는 센서 모듈(예: 도 1의 센서 모듈(176))에 포함된 자이로 센서를 사용하여, 전자 장치(101)의 자세(position)를 확인할 수 있다. 예를 들어, 전자 장치(101)가 탁자 위에 놓은 상태에서, 사용자가 스피커를 사용하여 통화를 하는 경우, 전자 장치(101)는 자이로 센서를 사용하여, 전자 장치(101)가 탁자 위에 위치하였음을 확인할 수 있다. 추가적으로 전자 장치(101)는 근접 센싱 기능을 사용하여, 사용자의 제스처 입력(예: 손을 이용하여 설정된 제스처를 수행)을 확인할 수 있고, 상기 제스처 입력의 확인에 응답하여, 통화 기능을 수행할 수 있다.
다른 실시예에 따르면, 전자 장치(101)는 센서 모듈(176)에 포함된 조도 센서를 사용하여, 전자 장치(101)가 가방 속에 위치하고 있는지 여부를 확인할 수 있다. 예를 들어, 전자 장치(101)가 가방 속에 위치하는 경우, 전자 장치(101)는 조도 센서를 사용하여, 전자 장치(101)가 가방 속에 위치한 상태를 확인할 수 있고, 슬립 모드(sleep mode)로 전환할 수 있다. 전자 장치(101)는 자이로 센서를 사용하여, 전자 장치(101)의 상태를 확인할 수도 있다.
도 10은 본 발명의 다양한 실시예에 따른 근접 센싱 기능의 수행에 따라, 오브젝트의 근접 여부를 결정하는 방법을 도시한 흐름도이다.
도 10의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(200)와 적어도 일부 유사하거나, 전자 장치(200)의 다른 실시예들을 더 포함할 수 있다. 도 10의 전자 장치(101)는 도 3에 도시된 적어도 하나의 구성부들을 포함할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 적어도 하나의 광원(예: 가시광선, 백색 광원)을 사용하여, 오브젝트에 대한 근접 여부(예: 근접 센싱 기능의 수행)를 판단할 수 있다. 전자 장치(101)는 반사 광원을 수광함에 있어서, 상기 반사 광원에 포함된 노이즈 성분을 제거할 수 있고, 상기 반사 광원을 보다 정확하게 분석할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 반사 광원에 대응되는 수광량을 기반으로, 오브젝트에 대한 근접 여부를 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제 1 영역(예: 도 2의 투과 영역(201’))에 배치된 픽셀들을 기반으로, 오브젝트에 의해 가려진 픽셀의 비율을 확인할 수 있고, 상기 확인된 가려진 픽셀의 비율을 기반으로, 오브젝트에 대한 근접 여부를 확인할 수 있다.
도 10을 참조하면, 동작 1001에서 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))의 제 1 영역(예: 도 2의 투과 영역(201’))에 배치된 적어도 하나의 픽셀을 통해, 백색 광(예: 가시광선)을 발광할 수 있다. 예를 들어, 적어도 하나의 픽셀은 적어도 하나의 광원(예: 빨간색(red) 광원, 초록색(green) 광원 및/또는 파란색(blue) 광원)을 포함할 수 있고, 상기 적어도 하나의 광원을 조합하여, 백색 광을 생성할 수 있다. 빨간색 광원, 초록색 광원, 및/또는 파란색 광원이 모두 255 값으로 설정되는 경우, 적어도 하나의 픽셀은 백색(white) 광을 생성할 수 있다. 전자 장치(101)는 제 1 영역(201’)에 배치된 적어도 하나의 픽셀을 발광부로 활용할 수 있다.
동작 1003에서 상기 발광된 백색광이 오브젝트에 의해 반사된 경우 프로세서(120)는 제 1 영역(201’)에 배치된 카메라 모듈(예: 도 1의 카메라 모듈(180))을 통해 반사 광을 획득할 수 있다. 예를 들어, 카메라 모듈(180)은 제 1 영역(201’)의 배면(예: 디스플레이 모듈(160)의 배면)에 배치될 수 있다. 전자 장치(101)는 제 1 영역(201’)에 배치된 카메라 모듈(180)을 수광부로 활용할 수 있다.
동작 1005에서 프로세서(120)는 상기 획득한 반사광을 기반으로, 적어도 하나의 광원(예: 빨간색(red) 광원, 초록색(green) 광원 및/또는 파란색(blue) 광원)에 대응되는 반사값을 확인할 수 있다. 예를 들어, 반사값은 각각의 광원에 대응되는 주파수 및 진폭(amplitude)을 확인할 수 있다.
동작 1007에서 프로세서(120)는 메모리(예: 도 1의 메모리(130))에 저장된 기준값(예: 광원 기준값) 및 확인된 반사값을 기반으로 노이즈를 제거할 수 있다. 예를 들어, 기준값은 전자 장치(101)에서 캘리브레이션 동작(예: 도 5 및 도 6의 캘리브레이션 동작)을 기반으로 측정된 값(예: 캘리브레이션 데이터)을 포함할 수 있다. 프로세서(120)는 사전에 캘리브레이션 동작을 수행하여, 적어도 하나의 광원, 각각에 대응되는 기준값(예: 기준 반사값, 주파수 및/또는 진폭)을 확인할 수 있다. 예를 들어, 기준값은 외부 환경에 기반한 노이즈 성분이 포함되지 않은 반사값을 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 광원 기준값(예: 외부 환경에 기반하여 생성된 노이즈 성분이 없는 반사값) 및 반사광(원)을 기반으로 획득된 반사값(예: 외부 환경에 기반하여 생성된 노이즈 성분이 포함된 반사값)을 비교할 수 있고, 상기 반사광에 포함된 노이즈를 적어도 부분적으로 제거할 수 있다.
동작 1009에서 프로세서(120)는 적어도 하나의 광원을 기반으로, 상기 획득된 반사광에 따른 수광량 값을 산출할 수 있다. 예를 들어, 프로세서(120)는 제 1 영역(201’)을 통해, 획득된 반사광에 대한 전체 수광량에서, 상기 반사광에 포함된 노이즈에 대응되는 값을 차감할 수 있고, 상기 반사광에 따른 수광량 값을 산출할 수 있다. 일 실시예에 따르면, 프로세서(120)는 산출된 수광량 값을 기반으로 오브젝트의 근접 여부를 판단할 수 있다.
동작 1011에서 프로세서(120)는 상기 산출된 수광량 값이 설정된 제 1 임계값을 초과하는지 여부를 확인할 수 있다. 예를 들어, 제 1 임계값은 미리 설정되어 메모리(130)에 저장된 값으로, 오브젝트에 대한 근접 여부를 판단하는 기준 수광량 값을 포함할 수 있다. 예를 들어, 수광량 값이 높다는 것은 제 1 영역(201’)을 통해 수광되는 반사광이 많다는 것을 의미하며, 오브젝트가 전자 장치(101)에 근접하지 않았음을 의미할 수 있다. 동작 1011에서 상기 산출된 수광량 값이 제 1 임계값을 초과하는 경우, 동작 1013에서 프로세서(120)는 추가적인 근접 센싱 기능을 수행할 수 있다. 다른 실시예에 따르면, 동작 1011에서 상기 산출된 수광량 값이 제 1 임계값을 초과하지 않는 경우, 프로세서(120)는 전자 장치(101)가 오브젝트와 근접하였음을 판단할 수 있고, 동작 1015에서 오브젝트와의 거리를 확인할 수 있다.
동작 1013에서 프로세서(120)는 제 1 영역(201’)에 배치된 적어도 하나의 픽셀을 기반으로, 가려진 픽셀의 비율이 설정된 제 2 임계값을 초과하는지 여부를 확인할 수 있다. 예를 들어, 제 2 임계값은 미리 설정되어 메모리(130)에 저장된 값으로, 오브젝트에 대한 근접 여부를 판단하기 위한, 가려진 픽셀의 기준 비율 값을 포함할 수 있다. 예를 들어, 제 1 영역(201’)에 배치된 전체 픽셀들 중에서 가려진 픽셀의 비율이 높다는 것은 오브젝트(예: 인체)가 상기 제 1 영역(201’)에 근접하였음을 의미할 수 있다. 동작 1013에서 상기 가려진 픽셀의 비율이 설정된 제 2 임계값을 초과하는 경우, 프로세서(120)는 전자 장치(101)가 오브젝트와 근접하였음을 결정할 수 있고, 동작 1015에서 오브젝트와의 거리를 확인할 수 있다. 다른 실시예에 따르면, 동작 1013에서 상기 가려진 픽셀의 비율이 설정된 제 2 임계값을 초과하지 않는 경우, 프로세서(120)는 전자 장치(101)가 오브젝트와 근접하지 않았음을 판단할 수 있고, 동작 1001에서 적어도 하나의 광원을 기반으로 백색 광을 발광할 수 있다.
동작 1015에서 프로세서(120)는 동작 1007에서 노이즈 성분이 제거된 반사광을 기반으로, 오브젝트와의 거리를 확인할 수 있다. 예를 들어, 프로세서(120)는 상기 반사광을 기반으로, 적어도 하나의 광원에 대응되는 반사값(예: 주파수 및/또는 진폭)을 확인할 수 있고, 상기 확인된 반사값을 기반으로 오브젝트와의 거리를 측정할 수 있다.
다양한 실시예에 따른 방법에 있어서, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))을 통해, 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하는 동작, 상기 적어도 하나의 광원이 오브젝트에 의해 반사된 반사 광원을 카메라 모듈(예: 도 1의 카메라 모듈(180))을 통해 획득하는 동작, 상기 획득된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 확인하는 동작, 메모리(예: 도 1의 메모리(130))에 저장된 광원 기준값과 상기 확인된 반사값을 기반으로, 상기 반사 광원에 포함된 노이즈를 제거하는 동작, 및 상기 노이즈가 제거된 반사 광원을 기반으로 상기 오브젝트와의 근접 여부를 판단하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 카메라 모듈(180)은 상기 디스플레이 모듈(160)에서 제 1 영역(예: 도 2의 투과 영역(201’))의 배면에 배치되고, 상기 제 1 영역(201’)은 상기 디스플레이 모듈(160) 중 상기 제 1 영역(201’)을 제외한 나머지 영역들보다 높은 투과율을 갖는 것을 특징으로 한다.
일 실시예에 따른 방법은, 상기 제 1 영역(201’)에 분포된 적어도 하나의 픽셀을 기반으로, 상기 제 1 영역(201’)을 투과하면서, 적어도 하나의 광원을 발광하는 동작, 및 상기 발광된 적어도 하나의 광원이 상기 오브젝트에 의해 반사되는 경우, 상기 제 1 영역(201’)을 투과하면서 상기 제 1 영역(201’)의 배면에 배치된 상기 카메라 모듈(180)을 통해, 반사된 광원을 수광하는 동작을 더 포함할 수 있다.
일 실시예에 따른 방법은, 광원을 반사시키기 위한 반사체가 상기 제 1 영역(201’)을 덮은 상태에서, 상기 제 1 영역(201’)에 분포된 적어도 하나의 픽셀을 통해 적어도 하나의 광원을 발광하는 동작, 상기 적어도 하나의 광원이 상기 반사체에 의해 반사된 반사 광원을 상기 제 1 영역(201’)의 배면에 배치된 상기 카메라 모듈(180)을 통해 수광하는 동작, 상기 수광된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 광원 기준값으로 설정하는 동작, 및 상기 광원 기준값을 상기 메모리(130)에 저장하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 광원 기준값은 외부 환경에 따른 노이즈가 포함되지 않은 기준 반사값 및 상기 적어도 하나의 광원에 대응되는 주파수 값 및 진폭 값 중 적어도 하나를 포함하고, 상기 적어도 하나의 광원은 빨간색(red) 광원, 초록색(green) 광원 및 파란색(blue) 광원 중 적어도 하나를 포함하는 것을 특징으로 한다.
일 실시예에 따른 방법은, 상기 외부 전자 장치와의 통화 결정에 응답하여, 상기 디스플레이 모듈(160)을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하는 동작, 및 상기 발광된 적어도 하나의 광원이 오브젝트에 의해 반사되는 경우, 반사 광원을 수광하기 위해 상기 카메라 모듈(180)을 적어도 부분적으로 활성화하는 동작을 더 포함할 수 있다.
일 실시예에 따른 방법은, 상기 획득된 반사 광원에 대응되는 수광량을 확인하는 동작, 상기 확인된 수광량이 상기 메모리에 저장된 기준 수광량 미만인지 여부를 확인하는 동작, 상기 적어도 하나의 픽셀을 기반으로, 상기 오브젝트에 의해 가려진 픽셀의 비율을 확인하는 동작, 상기 확인된 픽셀의 비율이 상기 메모리에 저장된 기준 비율을 초과하는지 여부를 확인하는 동작, 및 상기 수광량이 상기 기준 수광량 미만이거나, 또는 상기 픽셀의 비율이 상기 기준 비율을 초과하는 경우 상기 오브젝트와 근접하였음을 판단하는 동작을 더 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    적어도 하나의 픽셀을 포함하는 디스플레이 모듈;
    상기 디스플레이 모듈의 배면에 배치된 카메라 모듈;
    적어도 하나의 광원에 대응되는 광원 기준값을 저장하는 메모리; 및
    상기 디스플레이 모듈, 상기 카메라 모듈 및 상기 메모리에 작동적으로 연결된 프로세서; 를 포함하고,
    상기 프로세서는,
    상기 디스플레이 모듈을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하고,
    상기 적어도 하나의 광원이 오브젝트에 의해 반사된 반사 광원을 상기 카메라 모듈을 통해 획득하고,
    상기 획득된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 확인하고,
    상기 메모리에 저장된 광원 기준값과 상기 확인된 반사값을 기반으로, 상기 반사 광원에 포함된 노이즈를 제거하고,
    상기 노이즈가 제거된 반사 광원을 기반으로 상기 오브젝트와의 근접 여부를 판단하는 전자 장치
  2. 제 1 항에 있어서,
    상기 카메라 모듈은 상기 디스플레이 모듈에서 제 1 영역의 배면에 배치되고,
    상기 제 1 영역은 상기 디스플레이 모듈 중 상기 제 1 영역을 제외한 나머지 영역들보다 높은 투과율을 갖는 것을 특징으로 하는 전자 장치.
  3. 제 2 항에 있어서,
    상기 프로세서는,
    상기 제 1 영역에 분포된 적어도 하나의 픽셀을 기반으로, 상기 제 1 영역을 투과하면서, 적어도 하나의 광원을 발광하고,
    상기 발광된 적어도 하나의 광원이 상기 오브젝트에 의해 반사되는 경우, 상기 제 1 영역의 배면에 배치된 상기 카메라 모듈을 통해, 상기 제 1 영역을 투과하면서 수광된 반사 광원을 획득하는 전자 장치.
  4. 제 2 항에 있어서,
    상기 제 1 영역을 전체적으로 덮으면서, 상기 디스플레이 모듈의 표면에 배치되는 반사체를 더 포함하고,
    상기 프로세서는,
    상기 반사체가 상기 제 1 영역을 덮은 상태에서, 상기 제 1 영역에 분포된 적어도 하나의 픽셀을 통해 적어도 하나의 광원을 발광하고,
    상기 적어도 하나의 광원이 상기 반사체에 의해 반사된 반사 광원을 상기 제 1 영역의 배면에 배치된 상기 카메라 모듈을 통해 수광하고,
    상기 수광된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 광원 기준값으로 설정하고,
    상기 광원 기준값을 상기 메모리에 저장하는 전자 장치.
  5. 제 1 항에 있어서,
    상기 광원 기준값은 외부 환경에 따른 노이즈가 포함되지 않은 기준 반사값 및 상기 적어도 하나의 광원에 대응되는 주파수 값 및 진폭 값 중 적어도 하나를 포함하는 전자 장치.
  6. 제 1 항에 있어서,
    상기 적어도 하나의 광원은 빨간색(red) 광원, 초록색(green) 광원 및 파란색(blue) 광원 중 적어도 하나를 포함하고,
    상기 프로세서는,
    상기 적어도 하나의 광원을 조합하여 백색(white) 광을 구현하고, 상기 구현된 백색 광을 발광하거나, 또는, 설정된 순서에 따라, 복수 개의 광원들 중에서 적어도 하나의 광원을 발광하는 전자 장치.
  7. 제 1 항에 있어서,
    상기 전자 장치의 자세를 감지하는 자이로 센서가 포함된 센서 모듈을 더 포함하고,
    상기 프로세서는,
    상기 자이로 센서를 사용하여, 상기 전자 장치의 자세를 확인하고,
    상기 확인된 자세가 설정된 자세에 매칭되는 경우 상기 디스플레이 모듈을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하는 전자 장치.
  8. 제 1 항에 있어서,
    외부 전자 장치와 통신하기 위한 통신 모듈을 더 포함하고,
    상기 프로세서는,
    상기 통신 모듈을 통한 상기 외부 전자 장치와의 통화 결정에 응답하여, 상기 디스플레이 모듈을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하고,
    상기 발광된 적어도 하나의 광원이 오브젝트에 의해 반사되는 경우, 반사 광원을 수광하기 위해 상기 카메라 모듈을 적어도 부분적으로 활성화하고,
    상기 활성화된 카메라 모듈을 통해 수광된, 상기 반사 광원을 기반으로 상기 오브젝트와의 거리를 확인하고,
    상기 오브젝트와의 거리가 설정된 임계값 이하인 경우, 상기 적어도 하나의 픽셀을 기반으로 상기 적어도 하나의 광원의 발광 동작을 중지하고,
    상기 활성화된 카메라 모듈을 비활성화하는 전자 장치.
  9. 제 1 항에 있어서,
    상기 프로세서는,
    상기 획득된 반사 광원에 대응되는 수광량을 확인하고,
    상기 확인된 수광량이 상기 메모리에 저장된 기준 수광량 미만인지 여부를 확인하고,
    상기 적어도 하나의 픽셀을 기반으로, 상기 오브젝트에 의해 가려진 픽셀의 비율을 확인하고,
    상기 확인된 픽셀의 비율이 상기 메모리에 저장된 기준 비율을 초과하는지 여부를 확인하고,
    상기 수광량이 상기 기준 수광량 미만이거나, 또는 상기 픽셀의 비율이 상기 기준 비율을 초과하는 경우, 상기 오브젝트와 근접하였음을 판단하는 전자 장치.
  10. 방법에 있어서,
    디스플레이 모듈을 통해, 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하는 동작;
    상기 적어도 하나의 광원이 오브젝트에 의해 반사된 반사 광원을 카메라 모듈을 통해 획득하는 동작;
    상기 획득된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 확인하는 동작;
    메모리에 저장된 광원 기준값과 상기 확인된 반사값을 기반으로, 상기 반사 광원에 포함된 노이즈를 제거하는 동작; 및
    상기 노이즈가 제거된 반사 광원을 기반으로 상기 오브젝트와의 근접 여부를 판단하는 동작; 을 포함하는 방법.
  11. 제 10 항에 있어서,
    상기 카메라 모듈은 상기 디스플레이 모듈에서 제 1 영역의 배면에 배치되고,
    상기 제 1 영역은 상기 디스플레이 모듈 중 상기 제 1 영역을 제외한 나머지 영역들보다 높은 투과율을 갖는 것을 특징으로 하는 방법.
  12. 제 11 항에 있어서,
    상기 제 1 영역에 분포된 적어도 하나의 픽셀을 기반으로, 상기 제 1 영역을 투과하면서, 적어도 하나의 광원을 발광하는 동작; 및
    상기 발광된 적어도 하나의 광원이 상기 오브젝트에 의해 반사되는 경우, 상기 제 1 영역을 투과하면서 상기 제 1 영역의 배면에 배치된 상기 카메라 모듈을 통해, 반사된 광원을 수광하는 동작; 을 더 포함하는 방법.
  13. 제 11 항에 있어서,
    광원을 반사시키기 위한 반사체가 상기 제 1 영역을 덮은 상태에서, 상기 제 1 영역에 분포된 적어도 하나의 픽셀을 통해 적어도 하나의 광원을 발광하는 동작;
    상기 적어도 하나의 광원이 상기 반사체에 의해 반사된 반사 광원을 상기 제 1 영역의 배면에 배치된 상기 카메라 모듈을 통해 수광하는 동작;
    상기 수광된 반사 광원을 기반으로, 상기 적어도 하나의 광원에 대응되는 반사값을 광원 기준값으로 설정하는 동작; 및
    상기 광원 기준값을 상기 메모리에 저장하는 동작; 을 더 포함하는 방법.
  14. 제 10 항에 있어서,
    상기 외부 전자 장치와의 통화 결정에 응답하여, 상기 디스플레이 모듈을 통해, 상기 적어도 하나의 픽셀을 기반으로 적어도 하나의 광원을 발광하는 동작; 및
    상기 발광된 적어도 하나의 광원이 오브젝트에 의해 반사되는 경우, 반사 광원을 수광하기 위해 상기 카메라 모듈을 적어도 부분적으로 활성화하는 동작; 을 더 포함하는 방법.
  15. 제 10 항에 있어서,
    상기 획득된 반사 광원에 대응되는 수광량을 확인하는 동작;
    상기 확인된 수광량이 상기 메모리에 저장된 기준 수광량 미만인지 여부를 확인하는 동작;
    상기 적어도 하나의 픽셀을 기반으로, 상기 오브젝트에 의해 가려진 픽셀의 비율을 확인하는 동작;
    상기 확인된 픽셀의 비율이 상기 메모리에 저장된 기준 비율을 초과하는지 여부를 확인하는 동작; 및
    상기 수광량이 상기 기준 수광량 미만이거나, 또는 상기 픽셀의 비율이 상기 기준 비율을 초과하는 경우 상기 오브젝트와 근접하였음을 판단하는 동작; 을 더 포함하는 방법.
PCT/KR2022/015315 2021-10-22 2022-10-11 근접 센싱 방법 및 전자 장치 WO2023068628A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210141559A KR20230057608A (ko) 2021-10-22 2021-10-22 근접 센싱 방법 및 전자 장치
KR10-2021-0141559 2021-10-22

Publications (1)

Publication Number Publication Date
WO2023068628A1 true WO2023068628A1 (ko) 2023-04-27

Family

ID=86058369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/015315 WO2023068628A1 (ko) 2021-10-22 2022-10-11 근접 센싱 방법 및 전자 장치

Country Status (2)

Country Link
KR (1) KR20230057608A (ko)
WO (1) WO2023068628A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140010845A (ko) * 2012-07-17 2014-01-27 삼성전자주식회사 전자장치에서 자동응답시스템 서비스 이용중 화면 꺼짐 방지를 위한 방법 및 장치
KR101697131B1 (ko) * 2009-07-03 2017-01-17 베이징 아이어터치 시스템 코퍼레이션 리미티드 인터랙티브 디스플레이 디바이스
KR20180030376A (ko) * 2016-09-13 2018-03-22 삼성전자주식회사 광학 기반 지문 검출을 제공하기 위해 빛을 방출하는 디스플레이를 포함하는 전자 장치
KR20200123210A (ko) * 2018-06-11 2020-10-28 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 제어 방법, 제어 장치, 전자 장치 및 저장 매체
WO2021058436A1 (de) * 2019-09-24 2021-04-01 Behr-Hella Thermocontrol Gmbh Anzeigevorrichtung mit integrierter, optisch arbeitender näherungssensorik

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101697131B1 (ko) * 2009-07-03 2017-01-17 베이징 아이어터치 시스템 코퍼레이션 리미티드 인터랙티브 디스플레이 디바이스
KR20140010845A (ko) * 2012-07-17 2014-01-27 삼성전자주식회사 전자장치에서 자동응답시스템 서비스 이용중 화면 꺼짐 방지를 위한 방법 및 장치
KR20180030376A (ko) * 2016-09-13 2018-03-22 삼성전자주식회사 광학 기반 지문 검출을 제공하기 위해 빛을 방출하는 디스플레이를 포함하는 전자 장치
KR20200123210A (ko) * 2018-06-11 2020-10-28 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 제어 방법, 제어 장치, 전자 장치 및 저장 매체
WO2021058436A1 (de) * 2019-09-24 2021-04-01 Behr-Hella Thermocontrol Gmbh Anzeigevorrichtung mit integrierter, optisch arbeitender näherungssensorik

Also Published As

Publication number Publication date
KR20230057608A (ko) 2023-05-02

Similar Documents

Publication Publication Date Title
WO2019088650A1 (en) Antenna for electromagnetic interference detection and portable electronic device including the same
WO2021162435A1 (en) Electronic device and method for activating fingerprint sensor
WO2020256463A1 (en) Electronic device including sub display and method of operating same
WO2019245197A1 (en) Biometric information sensing device and controlling method thereof
WO2022244955A1 (ko) 복수의 수광 소자들을 가지는 근접 센서를 포함하는 전자 장치 및 그 제어 방법
WO2020111794A1 (en) Electronic device including display panel including electrodes having different shapes for respective areas
WO2022025494A1 (ko) 디스플레이의 휘도를 조절하기 위한 전자 장치 및 그의 동작 방법
WO2022131549A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022050620A1 (ko) 검출 회로 및 이를 포함하는 전자 장치
WO2022203330A1 (ko) 전자 장치 및 그것의 지문 인식 방법
WO2023068628A1 (ko) 근접 센싱 방법 및 전자 장치
WO2022154470A1 (ko) 마이크 모듈을 포함하는 전자 장치
WO2022177299A1 (ko) 통화 기능의 제어 방법 및 이를 지원하는 전자 장치
WO2022065845A1 (ko) 입력 데이터 처리 방법 및 이를 지원하는 전자 장치
WO2020171601A1 (ko) 디스플레이 내에 배치된 센서에 인접한 픽셀들을 제어하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
WO2021118121A1 (en) Electronic device for controlling optical sensor module and operating method thereof
WO2020171359A1 (ko) 전자 장치 및 그 촬영 관련 정보 안내 방법
WO2023043118A1 (ko) 전자 장치 및 전자 장치의 터치 인식 방법
WO2022191531A1 (ko) 전자 장치 및 그 케이스 장치
WO2022196984A1 (ko) 카메라를 포함하는 전자 장치 및 이의 동작 방법
WO2022075725A1 (ko) 전자 장치 및 전자 장치에서 피부 형광 측정 방법
WO2023003173A1 (ko) 음향 부품 어셈블리를 포함하는 전자 장치
WO2022050627A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2024090787A1 (ko) 전자 장치 및 이의 생체 인증 ui 운용 방법
WO2022103108A1 (ko) 전자 장치 및 전자 장치의 터치 입력 감지 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22883851

Country of ref document: EP

Kind code of ref document: A1