WO2024063622A1 - 카메라의 초점을 조정하기 위한 안테나를 포함하는 전자 장치 및 방법 - Google Patents

카메라의 초점을 조정하기 위한 안테나를 포함하는 전자 장치 및 방법 Download PDF

Info

Publication number
WO2024063622A1
WO2024063622A1 PCT/KR2023/014579 KR2023014579W WO2024063622A1 WO 2024063622 A1 WO2024063622 A1 WO 2024063622A1 KR 2023014579 W KR2023014579 W KR 2023014579W WO 2024063622 A1 WO2024063622 A1 WO 2024063622A1
Authority
WO
WIPO (PCT)
Prior art keywords
antenna
camera
fov
electronic device
antenna element
Prior art date
Application number
PCT/KR2023/014579
Other languages
English (en)
French (fr)
Inventor
윤수민
서동일
이정원
김호생
박성진
조재훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220160956A external-priority patent/KR20240041786A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US18/474,674 priority Critical patent/US20240114240A1/en
Publication of WO2024063622A1 publication Critical patent/WO2024063622A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q1/00Details of, or arrangements associated with, antennas
    • H01Q1/12Supports; Mounting means
    • H01Q1/22Supports; Mounting means by structural association with other equipment or articles
    • H01Q1/24Supports; Mounting means by structural association with other equipment or articles with receiving set
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q1/00Details of, or arrangements associated with, antennas
    • H01Q1/12Supports; Mounting means
    • H01Q1/22Supports; Mounting means by structural association with other equipment or articles
    • H01Q1/24Supports; Mounting means by structural association with other equipment or articles with receiving set
    • H01Q1/247Supports; Mounting means by structural association with other equipment or articles with receiving set with frequency mixer, e.g. for direct satellite reception or Doppler radar

Definitions

  • the present disclosure relates to an electronic device and method including an antenna for adjusting the focus of a camera.
  • An electronic device may include radar to recognize the distance to an object, such as an external entity. Additionally, an electronic device may use a camera to acquire an image including an external object. To obtain a clear image, the electronic device can adjust the focus of the camera.
  • one aspect of the present disclosure is to provide an electronic device and method for adjusting the focus of a camera.
  • an electronic device includes a first antenna element, an array antenna including a plurality of second antenna elements spaced apart from each other, a camera, and the first antenna element, the array antenna, and the It may include a processor coupled to the camera.
  • the processor may be configured to identify a field of view (FoV) of the camera. Based on the FoV, which is a first value, the processor identifies a distance from an external object within the FoV using at least one antenna element of the first set among the plurality of second antenna elements and the first antenna element. It can be configured to do so.
  • FoV field of view
  • the processor uses the first antenna element and at least one antenna element of the second set among the plurality of second antenna elements to It may be configured to identify a distance from an external object.
  • the processor may be configured to adjust the focus distance of the camera based on the identified distance.
  • the processor may be configured to acquire an image of the external object through the camera having the adjusted focal length.
  • a method performed by an electronic device may include identifying a field of view (FoV) of a camera of the electronic device.
  • the method includes, based on the FoV, which is a first value, an operation of identifying a distance from an external object within the FoV using at least one antenna element and a first antenna element of a first set among a plurality of second antenna elements. It can be included.
  • the method is based on the FoV, which is a second value different from the first value, and uses the first antenna element and at least one antenna element of the second set among the plurality of second antenna elements to detect the external within the FoV. It may include an operation that identifies the distance from the object.
  • the method may include adjusting the focus distance of the camera based on the identified distance.
  • the method may include acquiring an image of the external object through the camera having the adjusted focal length.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to an embodiment of the present disclosure.
  • FIG. 2 illustrates an example for explaining whether an external entity can be recognized according to the field of view (FoV) of a camera and the FoV of a radar of an electronic device according to an embodiment of the present disclosure.
  • FoV field of view
  • Figure 3 shows an example of the gain and beam width of an antenna according to the number of antenna elements according to an embodiment of the present disclosure.
  • FIG. 4 shows an example of an electronic device including a plurality of antennas for adjusting the focus of a camera according to an embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating an example of a method for adjusting the focus of a camera using a plurality of antennas according to an embodiment of the present disclosure.
  • FIG. 6 illustrates another example of an electronic device including a plurality of antennas for adjusting the focus of a camera according to an embodiment of the present disclosure.
  • FIG. 7 shows examples of arrangement between a camera and a plurality of antennas of an electronic device according to an embodiment of the present disclosure.
  • FIG. 8 illustrates an example of an electronic device including a plurality of transmit antennas and a plurality of receive antennas according to an embodiment of the present disclosure, and an example of an area of FoV according to a transmit beam and a receive beam.
  • FIG. 9A shows an example of an antenna disposed in a display area of an electronic device according to an embodiment of the present disclosure.
  • FIG. 9B shows an example of an electronic device including an antenna disposed on the rear of the electronic device to adjust the focus of a camera according to an embodiment of the present disclosure.
  • FIG. 10 shows an example of an arrangement between a camera and an antenna of an electronic device including an under display camera (UDC) according to an embodiment of the present disclosure.
  • UDC under display camera
  • FIG. 11 illustrates an example of a method using beamforming to adjust the focus of a camera in an electronic device including a plurality of antennas according to an embodiment of the present disclosure.
  • FIG. 12A shows an example of an electronic device including a plurality of antennas for adjusting the focus of the camera in an electronic device including a plurality of cameras according to an embodiment of the present disclosure.
  • FIG. 12B shows an example of an electronic device including a plurality of antennas for adjusting the focus of a camera when the zoom of the camera is changed according to an embodiment of the present disclosure.
  • FIG. 13 is a flowchart illustrating an example of an auto focusing algorithm based on radar data according to an embodiment of the present disclosure.
  • a component surface may include reference to one or more surfaces.
  • Terms referring to the components of the device used in the following description e.g., processor, radar, antenna, antenna element, array antenna, camera, module, etc.
  • terms for computational states e.g. step, operation, procedure
  • terms referring to signals e.g. signal, information, etc.
  • terms to refer to data e.g., parameter, value, magnification, etc.
  • terms to refer to the concept of wireless communication e.g., beam, beamwidth, Coverage (coverage, etc.) is an example for convenience of explanation. Accordingly, the present disclosure is not limited to the terms described below, and other terms having equivalent technical meaning may be used.
  • the expressions greater than or less than may be used to determine whether a specific condition is satisfied or fulfilled, but this is only a description for expressing an example, and the description of more or less may be used. It's not exclusion. Conditions written as ‘more than’ can be replaced with ‘more than’, conditions written as ‘less than’ can be replaced with ‘less than’, and conditions written as ‘more than and less than’ can be replaced with ‘greater than and less than’.
  • 'A' to 'B' means at least one of the elements from A to (including A) and B (including B).
  • FIG. 1 is a block diagram of an electronic device in a network environment according to an embodiment of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a second network 199.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores instructions or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores instructions or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes the main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g., a central processing unit or an application processor
  • an auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support a 5G network after the 4G (fourth generation) network and next-generation communication technology, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support a high frequency band (eg, mmWave (limiter wave) band), for example, to achieve a high data transmission rate.
  • mmWave limiter wave
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports peak data rate (e.g., 20 Gbps (gigabits per second) or more) for realizing eMBB, loss coverage (e.g., 164 dB (decibels) or less) for realizing mMTC, or URLLC.
  • peak data rate e.g., 20 Gbps (gigabits per second) or more
  • loss coverage e.g., 164 dB (decibels) or less
  • U-plane latency for realization e.g., downlink (DL) and uplink (UL) of less than 0.5 ms each, or round trip of less than 1 ms (milliseconds) can be supported.
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for the communication method used in the communication network, such as the first network 198 or the second network 199, is connected to the plurality of antennas by, for example, the communication module 190. can be selected Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • FIG. 2 illustrates an example for explaining whether an external entity can be recognized according to the field of view (FoV) of a camera and the FoV of a radar of an electronic device according to an embodiment of the present disclosure.
  • FoV unit: degree [°]
  • the FoV of a camera can be determined as a unique value depending on the camera's lens.
  • the electronic device may require a process of adjusting the focus of the camera in order to identify an object (or external object) and acquire an image through the camera.
  • the electronic device uses a camera that can adjust its focus (or focal length) within the lens of the camera (e.g., a camera that includes a phase detection sensor) or a sensor that can measure the distance to an object. (Example: Lidar (laser imaging detection and ranging), ToF (time of flight) sensor, etc.) identifies the distance to the object and transfers that information to the lens to adjust focus.
  • the electronic device can identify the distance and adjust focus through a separate ranging sensor.
  • the electronic device can adjust focus through a camera that can adjust its own focus, or it can identify the distance to the object and adjust focus through a separate sensor, but in this case, the size of the camera itself increases or additional As components are required, separate mounting space within the electronic device may be required. Additionally, the size of electronic devices may increase and the production costs of electronic devices may increase. Therefore, a method is required for an electronic device to calculate the distance to an object (or external object) and adjust the focus of the camera without additional configuration. At this time, in order to calculate the distance from the electronic device to the object, the electronic device may use radar.
  • Radar may refer to a device that recognizes the distance to an object by detecting signals reflected from an object or external entity. For example, a radar can calculate the distance to an object based on the time it takes for a signal transmitted through an antenna to be reflected by an object and received, and the speed of the signal. In the following description of the present disclosure, radar may be understood as the same as a structure that refers to or includes an antenna.
  • the electronic device may include an ultra-wideband (UWB) antenna.
  • UWB ultra-wideband
  • Electronic devices can support services such as finding a lost electronic device using direction and distance detection technology using a UWB antenna, and transmitting and receiving data with an external device.
  • electronic devices may include antennas to support radar technology using the 60 gigahertz (GHz) frequency.
  • GHz gigahertz
  • the electronics need to identify the distance to the object in order to adjust the focus of the camera without additional components.
  • Electronic devices can use radar to identify the distance to an object. However, if the area recognized by the camera and the area recognized by the radar are different, it may be difficult for the electronic device to precisely adjust the focus of the camera. Specific details related to this are shown through the first situation 200 and the second situation 250 in FIG. 2.
  • a first situation 200 is shown in which the FoV of the camera of the electronic device matches the FoV of the radar
  • a second situation 250 is shown in which the FoV of the camera of the electronic device and the FoV of the radar do not match each other.
  • the camera's FoV (201) and the radar's FoV (203) may be the same. If the camera's FoV (201) is the same as the radar's FoV (203), the camera can recognize an external object by recognizing an area requiring recognition on the radar and transmitting accurate information to the camera.
  • the electronic device can identify a desired area through a camera, and the electronic device can acquire an image including an object (eg, an external object) within the desired area.
  • the camera's FoV (201) and the radar's FoV (205) may not be the same. If the camera's FoV (201) and the radar's FoV (205) are not the same, the radar may not recognize an area that requires recognition by the camera or may recognize it incorrectly. Therefore, the radar may transmit incorrect information to the camera, causing the camera to not recognize external objects. In other words, the electronic device may not be able to identify the desired area through the camera, and the electronic device may acquire images that are unclear because they do not include objects (e.g., foreign objects) within the desired area or are out of focus. there is.
  • objects e.g., foreign objects
  • the FoV of a camera may be determined depending on the camera's lens.
  • the FoV of a radar can be determined depending on the width of the beam formed through the antenna.
  • the width of the beam formed through the antenna may be determined based on the directivity of the antenna.
  • the directivity of the antenna may be determined depending on the type of antenna.
  • types of antennas may include dipole antennas, patch antennas, loop antennas, etc.
  • the camera's FoV can be changed in both the horizontal and vertical components (and diagonal components), it may be difficult to configure the radar's FoV to correspond to the camera's FoV just by changing the antenna type. Therefore, a method is required to change the FoV of the radar to correspond to the FoV of the camera without changing the type of antenna.
  • Figure 3 shows an example of the gain and beam width of an antenna according to the number of antenna elements according to an embodiment of the present disclosure.
  • the antenna element may refer to each component included in the antenna.
  • an antenna may refer to a device including at least one antenna element.
  • beam may refer to the radiation state of a signal transmitted by an antenna including at least one antenna element.
  • the beam may include a mainlobe with the highest signal intensity and a sidelobe that is reflexively generated according to signal synthesis.
  • the gain of the antenna may refer to the gain in the main lobe of the beam
  • the width of the beam may refer to the angle between the center and both points of which the maximum gain in the main lobe of the beam is reduced by 3dB.
  • the graph in FIG. 3 shows a first line 301 showing the gain and beam width of an antenna containing one antenna element, and a second line 303 showing the gain and beam width of an antenna containing two antenna elements. ), a third line 305 showing the gain and beam width of an antenna including 4 antenna elements, a fourth line 307 showing the gain and beam width of an antenna including 6 antenna elements, 8 A fifth line 309 is shown showing the gain and beam width of the antenna comprising the antenna elements.
  • the maximum gain of each antenna is formed in the 0° direction.
  • the first line 301 showing the gain and beam width of an antenna including one antenna element will be used as a reference.
  • an antenna including two antenna elements has a gain about 3 dBi higher in the 0° direction than an antenna including one antenna element.
  • an antenna including two antenna elements can form a narrower beam width by a ratio of 0.42 compared to an antenna including one antenna element.
  • the antenna including four antenna elements has a gain about 6 dBi higher in the 0° direction compared to the antenna including one antenna element.
  • an antenna including four antenna elements can form a narrower beam width by a ratio of 0.205 compared to an antenna including one antenna element.
  • the fourth line 307 and the fifth line 309 when the number of antenna elements increases, the gain of the antenna increases, but the width of the beam formed by the antenna may decrease. Additionally, as the number of antenna elements, which are components constituting an antenna, increases, the size of the antenna may also increase.
  • an array antenna which is an antenna in which a plurality of antenna elements are arranged, has high directivity (as the number of antenna elements increases, the maximum gain in a certain direction increases and the beam width decreases).
  • the technology using an array antenna is a technology that improves the gain of the antenna by arranging similar types of antenna elements in a row or horizontal plane, and can be used in areas that require high-gain antenna design, such as 5G mmWave, military radar, and base stations.
  • electronic devices may be equipped with a mmWave module for 5G mmWave communication.
  • Antennas included in the module of an electronic device may be designed as an array such as 1x5 to achieve high gain.
  • Array antennas can achieve high directivity in a specific direction by using the property that signals radiated from each antenna element produce constructive interference in a specific direction, amplifying the signal, and lower the signal by causing destructive interference in other directions. .
  • the reinforcement/offset effect increases, and thus the directivity of the array antenna can increase.
  • the apparatus and method of the present disclosure configure the FoV of a radar (e.g., antenna) with a value corresponding to the FoV of the camera through an electronic device including a plurality of antenna elements, and thereby configure the focal distance (focal distance) of the camera.
  • a radar e.g., antenna
  • FIG. 4 shows an example of an electronic device including a plurality of antennas for adjusting the focus of a camera according to an embodiment of the present disclosure.
  • a plurality of antennas included in the electronic devices 400 and 450 of FIG. 4 may include a transmit antenna and a receive antenna.
  • Electronic devices 400 and 450 exemplify the electronic device 101 .
  • the transmitting antenna may include at least one antenna element, and the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • FIG. 4 shows a receive antenna 405 including two antenna elements (2x1, 1x2), but the present disclosure is not limited thereto.
  • the receiving antenna 405 may be an array antenna including three antenna elements (eg, 3x1, 1x3).
  • the receiving antenna 405 may be an array antenna including four antenna elements (eg, 1x4, 2x2, 4x1).
  • FIG. 4 shows a transmission antenna 401 including one antenna element, but may be configured as an antenna including a plurality of antenna elements.
  • the transmission antenna 401 which is comprised of an array antenna including a plurality of antenna elements, is described in detail in FIG. 8 below.
  • the electronic device 400 may include a transmitting antenna 401, a camera 403, and a receiving antenna 405.
  • the transmitting antenna 401, the camera 403, and the receiving antenna 405 may be arranged so that at least part of the virtual line passing through the center of the camera 403 overlaps.
  • each of the transmitting antenna 401 and the receiving antenna 405 may be arranged so that the center of the transmitting antenna 401 and the receiving antenna 405 coincide with an imaginary line passing through the center of the camera 403.
  • the transmitting antenna 401 may be placed so that the center of the camera 403 coincides
  • the receiving antenna 405 may be placed in an area where an imaginary line passing through the center of the camera 403 passes.
  • the transmitting antenna 401 may be placed in an area where an imaginary line passes through the center of the camera 403, and the receiving antenna 405 may be placed so that the center of the camera 403 coincides with it.
  • the transmission antenna 401 of the electronic devices 400 and 450 may be used to transmit signals.
  • the transmitting antenna 401 may transmit a signal to identify (or calculate) the distance to an object.
  • the transmitting antenna 401 may transmit signals for transmitting and receiving data to and from an external electronic device.
  • the signal may include a reference signal.
  • the reference signal is a sounding reference signal (SRS), a channel state information-reference signal (CSI-RS), a demodulation-reference signal (DM-RS), a channel state information-reference signal (CSI-RS), and SS/ May include PBCH (synchronization signal/physical broadcast channel).
  • the transmitting antenna 401 may be composed of various types of antennas.
  • the transmitting antenna 401 may be one of a dipole antenna, a monopole antenna, a patch antenna, a loop antenna, and an inverted F antenna (IFA).
  • IFA inverted F antenna
  • the receiving antenna 405 of the electronic devices 400 and 450 may be used to receive various signals, including a signal transmitted from the transmitting antenna 401.
  • the receiving antenna 405 may receive a signal to identify (or calculate) the distance to an object.
  • the receiving antenna 405 may receive signals for transmitting and receiving data to and from an external electronic device.
  • the signal may include a reference signal.
  • the reference signal is a sounding reference signal (SRS), a channel state information-reference signal (CSI-RS), a demodulation-reference signal (DM-RS), a channel state information-reference signal (CSI-RS), and SS/ May include PBCH (synchronization signal/physical broadcast channel).
  • SRS sounding reference signal
  • CSI-RS channel state information-reference signal
  • DM-RS demodulation-reference signal
  • CSI-RS channel state information-reference signal
  • SS/ May include PBCH (synchronization signal/physical broadcast channel).
  • the receiving antenna 405 of the electronic devices 400 and 450 may include a plurality of antenna elements, and the plurality of antenna elements may be arranged to be spaced a certain distance apart from each other.
  • a certain distance may be determined based on the wavelength of a signal transmitted and received by a plurality of antenna elements.
  • the wavelength of a signal received through a plurality of antenna elements When saying that, the plurality of antenna elements are 0.4 to 0.7 It can be separated by as much.
  • the spaced apart distance may mean the distance between the centers of the antenna elements.
  • Arranging a plurality of antenna elements spaced apart from each other may be intended to reduce interference between antenna elements and the influence of sidelobes and increase signal performance.
  • the receiving antenna 405 may be composed of various types of antennas.
  • each antenna element of the receiving antenna 405 may be one of a dipole antenna, a monopole antenna, a patch antenna, a loop antenna, and an inverted F antenna (IFA).
  • IFA inverted F antenna
  • the camera 403 of the electronic devices 400 and 450 may include at least one lens and sensor.
  • the field of view (FoV) of the camera 403 may be determined based on the focal length and the size of the film or sensor on which the image is formed.
  • the lens of the camera 403 may be defined as super wide angle, wide angle, telephoto, etc. In other words, if the type of camera 403 changes, the FoV of the camera 403 may change.
  • the FoV of the camera 403 can be defined as a set of multiple components.
  • the FoV of the camera 403 may include a horizontal component (or horizontal) FoV, a vertical component (or vertical) FoV, or a horizontal component FoV, a vertical component FoV, and a diagonal FoV.
  • a horizontal component or horizontal
  • a vertical component or vertical
  • FoV or a horizontal component
  • a vertical component or a diagonal
  • Table 1 An example of the camera 403 consisting of a FoV including a horizontal component and a vertical component of the FoV is shown in Table 1 below.
  • Table 1 illustrates the FoV of a camera, including the FoV(H) of the horizontal component and the FoV(V) of the vertical component, and the configuration of the corresponding antenna (or array antenna).
  • the beam width of an antenna may be related to the directivity of the antenna.
  • the beam width of the antenna can be understood as substantially the same as the FoV of the radar. Referring to Case 1, which is the standard, when the FoV of the horizontal component is 100° and the FoV of the vertical component is 100°,
  • the antenna may include one antenna element (1x1).
  • the antenna may include two antenna elements (2x1).
  • the electronic device in Case 2 can be understood as an example of the electronic device 400 in FIG. 4.
  • the antenna in Case 2 can form a beam with a FoV of the horizontal component narrower than the vertical component and a beam width of the corresponding antenna by arranging more antenna elements relatively horizontally.
  • a relatively precise beam can be formed when forming a beam through a large number of antenna elements compared to when forming a beam through a small number of antenna elements.
  • a narrow beam in the horizontal direction i.e., a narrow beam in the horizontal direction
  • the antenna in Case 2 can form a beam with a beam width that corresponds to (or matches) the FoV of the camera whose horizontal component FoV is relatively narrow.
  • the antenna may include two antenna elements (1x2).
  • the electronic device in Case 3 can be understood as an example of the electronic device 450 in FIG. 4.
  • the antenna in Case 3 can form a beam with a FoV of the vertical component narrower than the horizontal component and a beam width of the corresponding antenna by arranging more antenna elements relatively vertically. Similar to what was described in Case 2, a narrow beam in the vertical direction (i.e., a narrow beam in the vertical direction) can be formed by arranging more antenna elements in the vertical direction. Accordingly, the antenna in Case 3 can form a beam with a beam width that corresponds to (or matches) the FoV of the camera whose vertical component FoV is relatively narrow.
  • the antenna may include four antenna elements (2x2).
  • the antenna of Case 4 can form a beam with a beam width of the antenna corresponding to the FoV of the horizontal component and the FoV of the vertical component that is relatively narrow compared to Case 1.
  • the antenna in Case 4 can form a beam with a beam width that corresponds to (or matches) the FoV of the camera, where the horizontal component FoV and the vertical component FoV are relatively narrow.
  • the antenna may include 8 antenna elements (2x4).
  • the antenna of Case 5 can form a beam with a beam width of the antenna corresponding to the FoV of the camera, which includes a FoV of the vertical component narrower than the horizontal component. Therefore, the antenna in Case 5 can form a beam with a beam width that corresponds to (or matches) the FoV of the camera whose horizontal component FoV is relatively narrow.
  • the electronic device can configure the antenna based on the FoV of the camera to correspond (or match) the beam width of the antenna (i.e., the FoV of the radar) and the FoV of the camera. Accordingly, the electronic device can precisely adjust the focus (or focal length) of the camera by effectively identifying the distance of the object through the camera's FoV and the corresponding antenna (or radar) and transmitting this information to the processor.
  • FIG. 5 is a flowchart illustrating an example of a method for adjusting the focus of a camera using a plurality of antennas according to an embodiment of the present disclosure.
  • the method of adjusting the focus of the camera using the plurality of antennas is performed using an electronic device (e.g., the electronic device 101, the electronic device 400, the electronic device 450) or at least one processor of the electronic device 101. It may be performed by a (processor) (e.g., processor 120).
  • the FoV of the camera may include a horizontal component and a vertical component.
  • the FoV of the camera is described, but the present disclosure is not limited thereto and may also include cases where the horizontal component FoV and the vertical component FoV are distinguished.
  • the electronic device 101 may identify the field of view (FoV) of the camera.
  • the FoV of a camera can be determined based on the focal length and the size of the film or sensor on which the camera's image is formed.
  • the FoV of the camera may be a predetermined value depending on the focal length and the size of the film or sensor.
  • the electronic device 101 may identify that an application related to the camera is being executed.
  • the electronic device 101 may identify a distance from an external object based on the identified FoV.
  • the electronic device 101 may identify at least one antenna element among a plurality of antenna elements of a receiving antenna (eg, an array antenna) based on the identified FoV value.
  • the electronic device 101 may identify the distance from an external object by transmitting and receiving signals using at least one antenna element of the identified receiving antenna and a pair of transmitting antennas. For example, if the FoV is of the first value, the electronic device 101 may identify at least one antenna element of the first set among a plurality of antenna elements of the receiving antenna. The electronic device 101 may identify the distance from an external object by transmitting and receiving a signal using at least one antenna element and a pair of transmission antennas of the identified first set. Additionally, in the case of the FoV of the second value, the electronic device 101 may identify at least one antenna element of the second set among the plurality of antenna elements of the receiving antenna.
  • the electronic device 101 may identify the distance from an external object by transmitting and receiving signals using at least one antenna element and a pair of transmission antennas of the identified second set.
  • at least one antenna element of the first set and at least one antenna element of the second set may be different from each other or at least partially overlap with each other.
  • the receiving antenna includes four antenna elements (Ant1, Ant2, Ant3, and Ant4).
  • at least one antenna element in the first set may be two antenna elements (Ant1, Ant2)
  • at least one antenna element in the second set may be three antenna elements (Ant1, Ant3, Ant4).
  • Ant1 may overlap the first set and the second set.
  • At least one antenna element in the first set may be one antenna element (Ant1), and at least one antenna element in the second set may be two antenna elements (Ant2, Ant3).
  • the first set of antenna configurations and the second set of antenna configurations may not overlap each other.
  • at least one antenna element of the first set may be two antenna elements (Ant1, Ant2), and at least one antenna element of the second set may be three antenna elements (Ant1, Ant2, Ant3). there is.
  • the antenna configuration of the first set may be completely overlapped with the antenna configuration included in the antenna configuration of the second set.
  • the electronic device 101 may adjust the focal length of the camera of the electronic device 101 based on the distance from the identified external object. For example, the electronic device 101 may adjust the focal length of the camera by calculating the focal length of the camera corresponding to the distance from the identified external object and adjusting the distance between the plurality of lenses of the camera accordingly. there is.
  • the electronic device 101 may acquire an image of an external object through a camera whose focal length is adjusted.
  • FIG. 6 illustrates another example of an electronic device including a plurality of antennas for adjusting the focus of a camera according to an embodiment of the present disclosure.
  • a plurality of antennas included in an electronic device may include a transmitting antenna and a receiving antenna.
  • the transmitting antenna may include at least one antenna element
  • the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • an electronic device may include a transmitting antenna 601, a receiving antenna 605, and a camera 603.
  • FIG. 6 shows a first axis, which is an imaginary line extending horizontally (or horizontally) passing through the centers of the transmitting antenna 601 and the receiving antenna 605 (e.g., an array antenna), and the camera 603.
  • the second axes which are imaginary lines extending in the horizontal direction while passing through the center, do not coincide with each other.
  • the present disclosure is not limited to this, and the axis passing through the center of the transmitting antenna 601 and the axis passing through the center of the receiving antenna 605 may not coincide with each other.
  • the distance between the electronic device 101 and the object is minimized while minimizing calibration.
  • the distance can be measured and calculated.
  • the object identified by the transmitting antenna 601 and the receiving antenna 605 e.g., radar
  • the object identified by the camera 603 are different from each other, so calibration is required.
  • the electronic device 101 may detect an object from the electronic device 101 based on information about the distance 607 between the transmitting antenna and the distance 607 between the camera 603 and the receiving antenna. (or, the distance to an external object) can be identified.
  • the distance 607 between the camera 603 and the receiving antenna may be an average of the distances to the centers of the receiving antennas 605 or each of the antenna elements included in the receiving antenna 605.
  • the electronic device 101 may identify the distance from the electronic device 101 to the object based on information about the angle and distance between the camera 603 and the object.
  • the electronic device 101 can identify the distance from the electronic device 101 to the object based on information about the angle and distance between the radar (transmitting antenna 601 and receiving antenna 605) and the object. there is.
  • the information about the angle may be the angle between the virtual line connecting objects (or external objects) from the camera 603 or the radar and the virtual line in the horizontal direction (or horizontal), or the angle of arrival (AoA). You can.
  • the electronic device 101 includes information about the distance between the camera 603 and the transmitting antenna 601, information about the distance between the camera 603 and the receiving antenna 605, and the camera 603 and the receiving antenna 605.
  • the distance to can be corrected. Accordingly, the electronic device 101 of FIG. 6 can precisely calculate and adjust the focal length of the camera 603, like the electronic devices 400 and 450 of FIG. 4.
  • FIG. 7 shows examples of arrangement between a camera and a plurality of antennas of an electronic device according to an embodiment of the present disclosure.
  • the plurality of antennas of the electronic devices 700 and 750 of FIG. 7 may include a transmit antenna and a receive antenna.
  • the electronic devices 700 and 750 exemplify the electronic device 101 .
  • the transmitting antenna may include at least one antenna element, and the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • FIG. 7 shows a case where the transmitting antenna 701, the camera 703, and the receiving antenna 705 are arranged in different arrays.
  • the electronic devices 400 and 450 in FIG. 4 are arranged in the order of the transmitting antenna 401, the camera 403, and the receiving antenna 405, but the electronic device 700 in FIG. 7 includes the camera 703.
  • the transmitting antenna 701, and the receiving antenna 705, and the electronic device 750 may be arranged in the following order: the transmitting antenna 701, the receiving antenna 705, and the camera 703.
  • the flowchart of FIG. 5 may be equally applied to the electronic devices 700 and 750 for adjusting the focal length of the camera 703 through the transmitting antenna 701 and the receiving antenna 705.
  • Figure 7 shows a case where the axes, which are imaginary lines extending in the horizontal direction while passing through the centers of the transmitting antenna 701, the receiving antenna 705, and the camera 703, are the same, but do not coincide as shown in Figure 6. This case may also apply.
  • FIG. 8 illustrates an example of an electronic device including a plurality of transmit antennas and a plurality of receive antennas according to an embodiment of the present disclosure, and an example of the area of FoV according to the transmit beam and the receive beam.
  • FIG. 8 illustrates a case where, unlike the electronic device of FIGS. 4 to 7 including a transmission antenna composed of one antenna element, the transmission antenna is also composed of an array antenna.
  • a transmit beam refers to a beam formed by a transmit antenna
  • a receive beam refers to a beam formed by a receive antenna.
  • the electronic device 800 may include a transmitting antenna 801, a camera 803, and a receiving antenna 805.
  • the electronic device 800 exemplifies the electronic device 101 .
  • the transmitting antenna 801 may be an array antenna including a plurality of antenna elements.
  • the transmitting antenna 801 may be an array antenna having a 1x2 (width x height) arrangement. Accordingly, the transmission antenna 801 can form a beam 820 in which the vertical beam width is relatively narrow compared to the horizontal beam width.
  • the receiving antenna 805 may be an array antenna including a plurality of antenna elements.
  • the receiving antenna 805 may be an array antenna having a 2x1 (width x height) arrangement.
  • the receiving antenna 805 may form a beam 810 in which the horizontal beam width is relatively narrow compared to the vertical beam width.
  • FIG. 8 shows a transmitting antenna 801 and a receiving antenna 805 including two antenna elements as an example, but the present disclosure is not limited thereto.
  • the transmitting antenna 801 may include three antenna elements (1x3) arranged vertically.
  • the beam 820 formed by the transmission antenna 801 may have a narrower beam width in the vertical direction.
  • the area 830 where the beam 820 formed by the transmitting antenna 801 and the beam 810 formed by the receiving antenna 805 overlap can be defined as the FoV of the radar.
  • a radar measures the distance of an object by receiving a transmitted signal, and the FoV of the radar can be determined based on the coverage (or beam width) of the transmission beam and the coverage of the reception beam. Additionally, the performance of the radar can be determined based on the gain of the transmitting antenna and the gain of the receiving antenna as shown in the equation below.
  • the P rx is the reception power
  • the P tx is the transmission power
  • the G tx is the transmission antenna gain
  • the G rx is the reception antenna gain
  • the ⁇ is the radar cross section (RCS) of the reflector. , remind may mean the wavelength of the signal, and R may mean the distance to the object.
  • the performance of the radar may be related to the reception performance of the transmitted signal, and the reception performance may be determined according to the power of the received signal. Accordingly, radar performance can be improved not only when the number of antenna elements of the receiving antenna 805 increases but also when the number of antenna elements of the transmitting antenna 801 increases. However, for more precise distance measurement, it is necessary to match the FoV of the radar and the FoV of the camera, so the electronic device 800 controls the configuration of the antenna elements constituting the transmitting antenna 801 and the receiving antenna 805. You can. Additionally, the electronic device 800 may determine the configuration of the transmitting antenna 801 and the receiving antenna 805 by considering the feasible space and arrangement of the electronic device 800.
  • FIG. 9A shows an example of an antenna disposed in a display area of an electronic device according to an embodiment of the present disclosure.
  • the plurality of antennas of the electronic device 900 of FIG. 9A may include a transmit antenna and a receive antenna.
  • the electronic device 900 exemplifies the electronic device 101 .
  • the transmitting antenna may include at least one antenna element, and the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • the electronic device 900 may include a transmitting antenna 901, a camera 903, and a receiving antenna 905. Assuming that the direction in which the display of the electronic device 900 is placed is the front of the electronic device 900, the transmitting antenna 901, the camera 903, and the receiving antenna 905 are placed on the front of the electronic device 900. It can be.
  • the transmit antenna 901 and the receive antenna 905 may include at least one antenna element.
  • each of the transmit antenna 901 and the receive antenna 905 may include two antenna elements (1x2). At this time, the antenna elements may be arranged to be spaced a certain distance apart from each other.
  • Each antenna element of the transmitting antenna 901 may be composed of various types.
  • Each antenna element of the receiving antenna 905 may be composed of various types.
  • each antenna element may be a dipole antenna, a monopole antenna, a patch antenna, a loop antenna, It may be one of the IFA (inverted F antenna).
  • each antenna element may be configured in a transparent mesh pattern.
  • the antenna elements of the transmitting antenna 901 and the receiving antenna 905 are configured as patch antennas, they can be formed as shown in FIG. 9A.
  • the transmitting antenna 901 and the receiving antenna 905 may be configured in a mesh pattern, and the feed lines for the transmitting antenna 901 and the receiving antenna 905 may also be configured in a mesh pattern.
  • the feed line may be located at the upper part of the transmitting antenna 901 and the receiving antenna 905.
  • the present disclosure is not limited to this, and the feed line is configured to transmit in consideration of the positions of the transmitting antenna 901 and the receiving antenna 905 disposed in the electronic device 900 and other components of the electronic device 900. It can be positioned relative to the antenna 901 and the receiving antenna 905.
  • the electronic device 900 can be configured to adjust the focal length of the camera 903 while minimizing the impact on visual information displayed externally through the display.
  • FIG. 9B shows an example of an electronic device including an antenna disposed on the rear of the electronic device to adjust the focus of a camera according to an embodiment of the present disclosure.
  • the plurality of antennas of the electronic device 950 of FIG. 9B may include a transmit antenna and a receive antenna.
  • the electronic device 950 exemplifies the electronic device 101 .
  • the transmitting antenna 901 may include at least one antenna element, and the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • the electronic device 950 includes a module (hereinafter referred to as a mmWave module) 951 for transmitting and receiving signals in the mmWave band, and a module for transmitting and receiving signals in the ultra-waveband (UWB) band ( Hereinafter, referred to as a UWB module.) (953) may be included.
  • the mmWave module 951 and the UWB module 953 may be placed on the back of the electronic device 900 in the opposite direction from the display placed on the front of the electronic device 900 in FIG. 9A. This is merely for convenience of explanation, and the present disclosure is not limited thereto.
  • the mmWave module 951 or the UWB module 953 may be disposed sequentially on the front, side, or front, side, and rear of the electronic device 950.
  • the electronic device 950 of the present disclosure may use the mmWave module 951 or the UWB module 953 as a radar (or antenna) for adjusting the focal length of the camera. Through this, the focal length of the camera can be adjusted using the module of the electronic device 950.
  • the mmWave module 951 may include 1x5 antenna radiators 951-1, 951-2, 951-3, 951-4, and 951-5.
  • the UWB module 953 may include L-type (1x2 & 2x1) antenna radiators 953-1, 953-2, and 953-3.
  • the number of antenna radiators included in the structure according to the embodiment of the present disclosure is not limited thereto.
  • FIG. 10 shows an example of an arrangement between a camera and an antenna of an electronic device including an under display camera (UDC) according to an embodiment of the present disclosure.
  • the plurality of antennas of the electronic device 1000 of FIG. 10 may include a transmit antenna and a receive antenna.
  • the electronic device 1000 exemplifies the electronic device 101.
  • the transmitting antenna may include at least one antenna element, and the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • the electronic device 1000 may include a transmitting antenna 1001, a camera area 1003, and a receiving antenna 1005.
  • the transmitting antenna 1001 and the receiving antenna 1005 may each include two antenna elements (2x1).
  • the transmitting antenna 1001, the camera area 1003, and the receiving antenna 1005 of the electronic device 1000 may be disposed in an area where the display is placed (i.e., the front of the electronic device 1000).
  • the camera area 1003 may represent an area for an under display camera (UDC) disposed (or mounted) on the lower surface of the display.
  • UDC under display camera
  • the camera area may also be referred to as a camera hole or camera window area.
  • the transmitting antenna 1001 or the receiving antenna 1005 may at least partially overlap the camera area 1003.
  • a portion of at least one antenna element of the transmitting antenna 1001 may overlap with a portion of the camera area 1003.
  • some of the antenna elements may overlap with a portion of the camera area 1003.
  • part of the antenna element may mean all or part of the area occupied by one antenna element.
  • Figure 10 shows that a partial area of one antenna element of the transmit antenna 1001 overlaps the camera area 1003.
  • the overlap of the transmitting antenna 1001 and the receiving antenna 1005 with the camera area 1003 means that other components (e.g. sensors, etc.) placed on the front of the electronic device 1000, information displayed on the display, and the camera area ( 1003) may be determined based on the performance of a camera (eg, UDC) located within the camera.
  • the transmitting antenna 1001 and the receiving antenna 1005 may overlap with the camera area 1003.
  • the transmitting antenna 1001 and the receiving antenna 1005 may overlap with the camera area 1003.
  • the transmitting antenna 1001 and the receiving antenna 1005 may overlap with the camera area 1003.
  • the effective range of the camera area 1003 may mean an area in which the camera of the camera area 1003 can identify an external object.
  • the electronic device 1000 includes the transmitting antenna 1001 or the receiving antenna 1005 with at least a portion overlapping with the camera area 1003. can do. Accordingly, the electronic device 1000 may include antennas for adjusting the focus of a camera located within the camera area 1003 while considering the arrangement of other components of the electronic device 1000, and the camera area 1003 Focus can be adjusted effectively within a range that does not affect the performance of the camera being positioned.
  • FIG. 11 illustrates an example of a method using beamforming to adjust the focus of a camera in an electronic device including a plurality of antennas according to an embodiment of the present disclosure.
  • the plurality of antennas of the electronic device 1100 of FIG. 11 may include a transmit antenna and a receive antenna.
  • the electronic device 1100 exemplifies the electronic device 101.
  • the transmitting antenna may include at least one antenna element, and the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • the electronic device 1100 may include a transmitting antenna 1101, a camera 1103, and a receiving antenna 1105.
  • the transmitting antenna 1101, the camera 1103, and the receiving antenna 1105 may be disposed in the display area of the electronic device 1100.
  • the electronic device 1100 can expand the FoV of the radar to correspond to the FoV of the camera using beamforming.
  • the electronic device 1100 can form three beams 1110, 1120, and 1130 using the receiving antenna 1105, the beam width of each beam is 50°, and the FoV of the camera 1103 is 70. Assume °.
  • One beam formed by the electronic device 1100 through the receiving antenna 1105 has narrower coverage than the FoV of the camera 1103, and the FoV of the radar of the electronic device 1100 and the FoV of the camera 1103 FoVs cannot be matched to each other.
  • the electronic device 1100 covers the area corresponding to the FoV of the camera 1103 through the three beams 1110, 1120, and 1130 by sweeping a plurality of beams formed through beamforming. )can do.
  • the electronic device 1100 can adjust the FoV of the radar corresponding to the FoV of the camera 1103 through beamforming, and can effectively adjust the focal length of the camera 1103.
  • FIG. 12A shows an example of an electronic device including a plurality of antennas for adjusting the focus of the camera in an electronic device including a plurality of cameras according to an embodiment of the present disclosure.
  • the plurality of antennas of the electronic device 1200 of FIG. 12A may include a transmit antenna and a receive antenna.
  • the electronic device 1200 exemplifies the electronic device 101.
  • the transmitting antenna may include at least one antenna element, and the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • the electronic device 1200 may include a transmitting antenna 1201, a first camera 1203-1, a second camera 1203-2, and a receiving antenna 1205.
  • the first camera 1203-1 and the second camera 1203-2 may have different FoVs.
  • the first camera 1203-1 may have a FoV value greater than that of the second camera 1203-2. That is, since the first camera 1203-1 has a larger FoV than the second camera 1203-2, a wider range of areas can be identified.
  • an electronic device 1200 including two cameras is described as an example, but the present disclosure is not limited thereto.
  • the electronic device 1200 may include 3, 4, 5, or 6 or more cameras.
  • the electronic device 1200 may receive a signal by changing the configuration of the receiving antenna 1205. For example, when identifying that the first camera 1203-1 is operating, the electronic device 1200 uses only one antenna element 1205-1 as the receiving antenna 1205 in response to the relatively wide FoV of the camera. It can be configured to operate and receive signals through the antenna element 1205-1.
  • the electronic device 1200 configures the antenna elements 1205-2 to operate as the receiving antenna 1205 in response to the relatively narrow FoV of the camera. It can be configured, and signals can be received through antenna elements 1205-2. As described above, the operation of the electronic device 1200 to identify an operating camera among a plurality of cameras may be performed before operation 501 of FIG. 5 .
  • FIG. 12B shows an example of an electronic device including a plurality of antennas for adjusting the focus of a camera when the zoom of the camera is changed according to an embodiment of the present disclosure.
  • the plurality of antennas of the electronic device 1250 of FIG. 12B may include a transmit antenna and a receive antenna.
  • the electronic device 1250 exemplifies the electronic device 101.
  • the transmitting antenna may include at least one antenna element, and the receiving antenna may include a plurality of antenna elements.
  • an electronic device including a transmitting antenna and a receiving antenna as separate antennas will be described as an example.
  • the present disclosure is not limited thereto, and embodiments of the present disclosure transmit signals through some antenna elements among a plurality of antenna elements, and transmit signals through other antenna elements that include the portion or do not include the portion. It may also include receiving a signal through another antenna element.
  • the electronic device 1250 may include a transmitting antenna 1201, a camera 1203, and a receiving antenna 1205.
  • the zoom of the camera 1203 may mean the magnification of the image identified and acquired through the camera 1203. Additionally, zooming in and out of the camera 1203 may mean digital zoom.
  • the electronic device 1250 can substantially change the FoV of the camera 1203 by zooming in and out the camera 1203. For example, assuming that the magnification of the image acquired in the basic state of the camera 1203 is 1.0x, the electronic device 1250 increases the magnification of the image (exceeding 1.0x) by zooming in or zooms out to increase the magnification of the image. The magnification can be reduced (less than 1.0x). When zooming in, the area of the image acquired through the camera 1203 narrows, so the FoV of the camera 1203 can be substantially reduced. When zooming out, the area of the image acquired through the camera 1203 expands, so the FoV of the camera 1203 can substantially increase.
  • the electronic device 1250 can identify whether a command for zooming in or zooming out of the camera 1203 is triggered. As the electronic device 1250 identifies that the command is triggered, the electronic device 1250 may receive the signal by changing the configuration of the receiving antenna 1205. For example, when identifying a command to perform a zoom-out for the zoom of the camera 1203, the electronic device 1250 uses only one antenna element 1205-3 to correspond to the relatively wide FoV of the camera and receives the receiving antenna 1205. ), and the electronic device 1250 can receive a signal through the antenna element 1205-3.
  • the electronic device 1250 when identifying a command to perform a zoom in for the zoom of the camera 1203, connects the antenna elements 1205-4 to the receiving antenna 1205 in response to the relatively narrow FoV of the camera. It can be configured to operate, and the electronic device 1250 can receive signals through the antenna elements 1205-4. As described above, the operation of the electronic device 1250 to identify whether the zoom-in/zoom-out command of the camera 1203 is triggered may be performed before operation 501 of FIG. 5 .
  • FIG. 13 is a flowchart illustrating an example of an auto focusing algorithm based on radar data according to an embodiment of the present disclosure.
  • the auto-focusing algorithm of FIG. 13 is an algorithm for automatically adjusting the focus of a camera, and is operated by an electronic device (e.g., electronic device 101) of the present disclosure or at least one processor (e.g., electronic device 101) of the electronic device 101. : Can be performed by the processor 120).
  • AF auto focus
  • AF auto focus
  • the electronic device 101 can identify that an application related to the camera is running.
  • the electronic device 101 may operate an autofocus (or autofocusing) algorithm as it detects object movement within the camera's FoV.
  • the electronic device 101 may adjust AF to correspond to the distance of the object and identify whether there is a contrast peak.
  • the electronic device can identify whether there is a contrast peak based on information about the distance.
  • Information about the distance may include dual pixel-phase detection auto focus (2PDAF) of a wide-angle camera or discrete phase detection data (PD data).
  • information about the distance may include radar data 1303-1 of the electronic device. Radar data 1303-1 may include information about the distance from an electronic device identified by radar (or antenna) to an object.
  • the contrast peak refers to the point where contrast is at the maximum level. Autofocusing based on the contrast peak is performed to analyze the light coming through the camera lens. This is because when the light passing through the camera's lens shows maximum contrast, the contrast level increases and the camera's focus is most accurately adjusted.
  • operation 1305 may be entered to maintain the AF position. Afterwards, when movement of an object is detected, operation 1301 can be performed. If the electronic device 101 identifies that the contrast peak is not in operation 1303, operation 1307 may be entered.
  • the electronic device 101 may identify the movement direction of the AF location based on the phase detection difference.
  • the electronic device 101 can identify the moving direction of the AF position by detecting the phase difference between different lights coming through the lenses of the camera.
  • the electronic device 101 may adjust AF based on the identified AF position movement direction and identify whether there is a contrast peak. If the electronic device 101 identifies that the contrast peak is not in operation 1309, operation 1311 may be entered. In operation 1311, the electronic device 101 may additionally move the AF position, and then enter operation 1307 again to identify the AF position movement direction based on the phase detection difference. If the electronic device 101 identifies a contrast peak in operation 1309, the electronic device 101 may enter operation 1313 and maintain the AF position. Afterwards, the electronic device 101 may perform operation 1301 when it detects movement of an object.
  • an apparatus and method including a plurality of antennas include a camera.
  • a technology for finely adjusting the focus is disclosed.
  • the electronic device may configure the number of antenna elements of the antenna performing the radar function to vary. Accordingly, the electronic device can adjust the width of the beam formed by the antenna (or coverage of the beam, field of view (FoV) of the radar) to a value corresponding to the FoV of the camera.
  • the electronic device can measure and calculate the distance to the object through signals transmitted and received according to the number of identified antenna elements, and adjust the focal length of the camera based on the identified distance.
  • An electronic device can acquire a clear image including an external object within the camera's FoV through a camera with an adjusted focal length. Therefore, according to the device and method including a plurality of antennas according to the embodiments of the present disclosure, the device and method including a sensor capable of measuring a separate distance (e.g., Lidar, ToF sensor, etc.) or ranging Compared to devices and methods including ranging sensors, no separate mounting space is required. Additionally, since no additional parts are required, the manufacturing process can be simplified and production costs can be reduced.
  • a separate distance e.g., Lidar, ToF sensor, etc.
  • the electronic device 101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250 includes a first antenna element 401. can do.
  • the electronic device 101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250 includes an array antenna 405 including a plurality of second antenna elements spaced apart from each other. It can be included.
  • the electronic devices 101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, and 1250 may include a camera 403.
  • the electronic device may include a processor 120 coupled to the first antenna element 401, the array antenna 405, and the camera 403.
  • the processor 120 may be configured to identify a field of view (FoV) of the camera 403 (501). Based on the FoV, which is a first value, the processor 120 uses the first antenna element 401 and at least one antenna element of the first set among the plurality of second antenna elements 405 to determine the FoV. It may be configured to identify a distance from an external object within 503. The processor 120 selects at least one antenna element of the second set among the plurality of second antenna elements 405 and the first antenna element 401 based on the FoV, which is a second value different from the first value. ) may be configured to identify the distance from the external object within the FoV (503). The processor 120 may be configured to adjust the focus distance of the camera 403 based on the identified distance (505). The processor 120 may be configured to acquire an image of the external object through the camera 403 having the adjusted focal length (507).
  • FoV field of view
  • first coverage of the first beam formed based on the at least one antenna element of the first set and coverage of the second beam formed based on the first antenna element 401 A first area where two coverages overlap or a third coverage of a third beam formed based on at least one antenna element of the second set and of the second beam formed based on the first antenna element 401 At least one of the second areas where the second coverage overlaps may correspond to the FoV.
  • each of the first antenna element 401 and the plurality of second antenna elements 405 may be arranged along an imaginary line passing through the center of the camera 403.
  • the processor 120 includes first information about the distance between the camera 403 and the first antenna element 401, the camera 403 and at least one antenna of the first set. second information about the distance between elements or at least one antenna element of the second set, and a first angle of arrival (AoA) from the camera 403 to the external object, at least one antenna of the first set and calibrate the identified distance based on a second AoA from the element or at least one antenna element of the second set to the external object.
  • AoA angle of arrival
  • the electronic devices 101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, and 1250 may further include a display.
  • the first antenna element 401, the camera 403, and the array antenna 405 may be disposed on one side of the display.
  • Each of the first antenna element 401 and the plurality of second antenna elements 405 may be configured in a mesh pattern.
  • the electronic devices 101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, and 1250 may further include a display.
  • Each of the first antenna element 401 and the plurality of second antenna elements 405 is connected to the electronic device 101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100 on which the display is disposed.
  • 1200, 1250 may be composed of a UWB (ultra-wideband) module disposed on one side and the opposite side.
  • the electronic devices 101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, and 1250 may further include a display.
  • the camera 403 may be configured as an under display camera (UDC) disposed on the lower surface of the display. At least a portion of the first antenna element 401 may be arranged to overlap the camera 403. At least a portion of the plurality of second antenna elements 405 may be arranged to overlap the camera 403 .
  • UDC under display camera
  • the processor 120 may be further configured to identify whether the coverage of each of the beams that can be formed by the plurality of second antenna elements 405 is smaller than the FoV of the camera. there is. When the coverage of each of the beams is smaller than the FoV of the camera 403, the processor 120 uses the beams formed by the beams and the first antenna element 401 to detect the external object within the FoV. It may be further configured to identify the distance of.
  • the electronic device uses an array antenna (801) different from the array antenna (405). More may be included.
  • the first antenna element 401 may be included in the other array antenna 801.
  • the area where the first coverage of the first beam formed based on at least one antenna element of the first set and the fourth coverage of the fourth beam formed based on the other array antenna 801 overlap is It may correspond to the FoV of the camera 403.
  • the FoV of the camera 403 may include a first FoV for the horizontal component and a second FoV for the vertical component.
  • the array of the array antenna 405 may be determined based on the first FoV and the second FoV.
  • the electronic devices include a plurality of cameras (403, 1203-1). It may include cameras 1203-1 and 1203-2. Among the plurality of cameras 1203-1 and 1203-2, the FoV of another camera 1203-2 may be smaller than the FoV of the cameras 403 and 1203-1.
  • the processor 120 may be further configured to identify whether the camera 1203-1 or the other camera 1203-2 is operating. When the processor 120 identifies that the other camera 1203-2 is operating, the processor 120 selects a third set of the plurality of second antenna elements 405 based on the FoV of the other camera 1203-2. It may be further configured to identify the distance from the external object within the FoV of the other camera 1203-2 using at least one antenna element 1205-2 and the first antenna elements 401 and 1201. .
  • the FoV of the camera 403 or 1203 when the magnification of the image acquired through the camera 403 or 1203 is the first magnification, the FoV of the camera 403 or 1203 may have the first value.
  • the magnification of the image acquired through the camera (403, 1203) is a second magnification that is different from the first magnification, the FoV of the camera (403, 1203) may have the second value.
  • the method performed by the electronic device includes the electronic device (101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250) includes the electronic device (101, 400, It may include an operation 501 of identifying the field of view (FoV) of the camera 403 of 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, and 1250.
  • the method is based on the FoV, which is a first value, and a plurality of It may include an operation 503 of identifying a distance from an external object within the FoV using at least one antenna element of the first set of the two antenna elements 405 and the first antenna element 401.
  • the method uses the first antenna element 401 and at least one antenna element of the second set among the plurality of second antenna elements 405 based on the FoV, which is a second value different from the first value.
  • an operation 503 of identifying the distance from the external object within the FoV may be included.
  • the method may include an operation 505 of adjusting the focus distance of the camera 403 based on the identified distance.
  • the method may include an operation 507 of acquiring an image of the external object through the camera 403 having the adjusted focal length.
  • first coverage of the first beam formed based on the at least one antenna element of the first set and coverage of the second beam formed based on the first antenna element 401 A first area where two coverages overlap or a third coverage of a third beam formed based on at least one antenna element of the second set and of the second beam formed based on the first antenna element 401 At least one of the second areas where the second coverage overlaps may correspond to the FoV.
  • each of the first antenna element 401 and the plurality of second antenna elements 405 may be arranged along an imaginary line passing through the center of the camera.
  • the method comprises first information about the distance between the camera 403 and the first antenna element 401, the camera 403 and at least one antenna element of the first set, or second information about the distance between at least one antenna element of the second set, and a first angle of arrival (AoA) from the camera 403 to the external object, the at least one antenna element of the first set, or The method may further include correcting the identified distance based on a second AoA between at least one antenna element of the second set and to the external object.
  • AoA angle of arrival
  • the method further includes identifying whether the coverage of each of the beams that can be formed by the plurality of second antenna elements 405 is smaller than the FoV of the camera 403. can do.
  • the method uses the beams formed by the beams and the first antenna element 401 to determine the distance from the external object within the FoV when the coverage of each of the beams is smaller than the value of the FoV of the camera 403. It may further include an operation to identify.
  • the FoV of the camera 403 may include a first FoV for the horizontal component and a second FoV for the vertical component.
  • the array of the array antenna 405 may be determined based on the first FoV and the second FoV.
  • the method includes a plurality of cameras (1203-1, 1203-2) may further include identifying whether the cameras 403, 1203-1 or another camera 1203-2 is operating.
  • the method identifies that the other camera 1203-2 is operating, at least one of the third set of the plurality of second antenna elements 405 is based on the FoV of the other camera 1203-2. It may further include an operation of identifying the distance from the external object within the FoV of the other camera 1203-2 using the antenna element 1205-2 and the first antenna elements 401 and 1201.
  • the FoV of the other camera 1203-2 may be set to a smaller value than the FoV of the cameras 403 and 1203-1.
  • the FoV of the camera 403 or 1203 when the magnification of the image acquired through the camera 403 or 1203 is the first magnification, the FoV of the camera 403 or 1203 may have the first value.
  • the magnification of the image acquired through the camera (403, 1203) is a second magnification that is different from the first magnification, the FoV of the camera (403, 1203) may have the second value.
  • Electronic devices may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited.
  • One (e.g. first) component is said to be “coupled” or “connected” to another (e.g. second) component, with or without the terms “functionally” or “communicatively”.
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Variable-Direction Aerials And Aerial Arrays (AREA)

Abstract

전자 장치는, 제1 안테나 엘리먼트, 서로 이격된 복수의 제2 안테나 엘리먼트들을 포함하는 어레이 안테나, 카메라, 상기 제1 안테나 엘리먼트, 상기 어레이 안테나 및 상기 카메라와 연결된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 카메라의 FoV(field of view)를 식별하고, 제1 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들 중 제1 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트를 이용하여 상기 FoV 내의 외부 객체로부터의 거리를 식별하고, 제2 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들 중 제2 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트를 이용하여 상기 외부 객체로부터의 거리를 식별하고, 상기 식별된 거리에 기반하여 상기 카메라의 초점(focus) 거리를 조정(adjust)하고, 및 상기 조정된 초점 거리를 가지는 상기 카메라를 통해 상기 외부 객체에 대한 이미지를 획득하도록 구성될 수 있다.

Description

카메라의 초점을 조정하기 위한 안테나를 포함하는 전자 장치 및 방법
본 개시는, 카메라의 초점(focus)을 조정(adjusting)하기 위한 안테나(antenna)를 포함하는 전자 장치(electronic device) 및 방법(method)에 관한 것이다.
전자 장치(electronic device)는, 외부 객체(external entity)와 같은 물체와의 거리를 인식하기 위하여 레이더(radar)를 포함할 수 있다. 또한, 전자 장치는 외부 객체를 포함하는 이미지를 획득하기 위하여 카메라(camera)를 이용할 수 있다. 명료한(clear) 이미지를 획득하기 위하여, 전자 장치는 카메라의 초점을 조정할 수 있다.
상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 정보(background information )로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련된 종래 기술(prior art)로서 적용될 수 있는지에 대하여 어떠한 주장이나 결정이 제기되지 않는다.
본 개시의 양태(aspect)들은 적어도 위에서 언급한 문제점들 및/또는 단점을 해결하고 후술되는 적어도 이점들을 제공하기 위한 것이다. 따라서, 본 개시의 일 측면은 카메라의 초점을 조정하기 위한 전자 장치 및 방법을 제공하는 것이다.
추가적인 양태는, 다음의 설명에서 부분적으로 설명될 것이고, 부분적으로는 설명으로부터 명백해지거나 제시된 실시예들의 실시에 의해 학습될 수 있다.
본 개시의 일 측면(aspect)에 따라, 전자 장치(electronic device)가 제공된다. 상기 전자 장치는, 제1 안테나 엘리먼트(antenna element), 서로 이격된 복수의 제2 안테나 엘리먼트들을 포함하는 어레이 안테나(array antenna), 카메라(camera), 및 상기 제1 안테나 엘리먼트, 상기 어레이 안테나 및 상기 카메라와 연결된(coupled) 프로세서(processor)를 포함할 수 있다. 상기 프로세서는, 상기 카메라의 FoV(field of view)를 식별하도록 구성될 수 있다. 상기 프로세서는, 제1 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들 중 제1 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트를 이용하여 상기 FoV 내의 외부 객체로부터의 거리를 식별하도록 구성될 수 있다. 상기 프로세서는, 상기 제1 값과 다른 제2 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들 중 제2 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트를 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하도록 구성될 수 있다. 상기 프로세서는, 상기 식별된 거리에 기반하여 상기 카메라의 초점(focus) 거리를 조정(adjust)하도록 구성될 수 있다. 상기 프로세서는, 상기 조정된 초점 거리를 가지는 상기 카메라를 통해 상기 외부 객체에 대한 이미지를 획득하도록 구성될 수 있다.
본 개시의 다른 측면에 따라, 전자 장치(electronic device)에 의해 수행되는 방법이 제공된다. 상기 방법은 상기 전자 장치의 카메라의 FoV(field of view)를 식별하는 동작을 포함할 수 있다. 상기 방법은 제1 값인 상기 FoV에 기반하여, 복수의 제2 안테나 엘리먼트들 중 제1 세트의 적어도 하나의 안테나 엘리먼트 및 제1 안테나 엘리먼트를 이용하여 상기 FoV 내의 외부 객체로부터의 거리를 식별하는 동작을 포함할 수 있다. 상기 방법은 상기 제1 값과 다른 제2 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들 중 제2 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트를 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하는 동작을 포함할 수 있다. 상기 방법은 상기 식별된 거리에 기반하여 상기 카메라의 초점(focus) 거리를 조정(adjust)하는 동작을 포함할 수 있다. 상기 방법은 상기 조정된 초점 거리를 가지는 상기 카메라를 통해 상기 외부 객체에 대한 이미지를 획득하는 동작을 포함할 수 있다.
본 개시의 다른 측면들, 이점들, 및 현저한(salient) 특징들은 첨부된 도면들과 함께 본 개시의 다양한 실시예들을 개시하는 다음의 상세한 설명으로부터 당업자에게 명백해질 것이다.
본 개시의 특정 실시예들의 상기 및 다른 측면들, 특징들, 및 이점들은 첨부된 도면과 함께 취해진 다음의 설명으로부터 더욱 명백해질 것이다.
도 1은 본 개시의 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 본 개시의 실시예에 따른 전자 장치의 카메라의 FoV(field of view) 및 레이더(radar)의 FoV에 따라 외부 객체(external entity)의 인식 가능 여부를 설명하기 위한 예를 도시한다.
도 3은 본 개시의 실시예에 따른 안테나 엘리먼트(antenna element)의 수에 따른 안테나의 이득(gain) 및 빔 폭(beamwidth)에 대한 예를 도시한다.
도 4는 본 개시의 실시예에 따른 카메라(camera)의 초점을 조정(adjusting)하기 위한 복수의 안테나들을 포함하는 전자 장치의 예를 도시한다.
도 5는 본 개시의 실시예에 따른 복수의 안테나들을 이용하여 카메라(camera)의 초점을 조정(adjusting)하는 방법에 대한 예를 도시하는 흐름도이다.
도 6은 본 개시의 실시예에 따른 카메라(camera)의 초점을 조정(adjusting)하기 위한 복수의 안테나들을 포함하는 전자 장치의 다른 예를 도시한다.
도 7은 본 개시의 실시예에 따른 전자 장치의 카메라 및 복수의 안테나들 사이의 배치에 대한 예들을 도시한다.
도 8은 본 개시의 실시예에 따른 복수의 송신 안테나들 및 복수의 수신 안테나들을 포함하는 전자 장치의 예 및 송신 빔과 수신 빔에 따른 FoV의 영역에 대한 예를 도시한다.
도 9a는 본 개시의 실시예에 따른 전자 장치의 디스플레이 영역에 배치되는 안테나의 예를 도시한다.
도 9b는 본 개시의 실시예에 따른 카메라(camera)의 초점을 조정(adjusting)하기 위하여, 전자 장치의 후면에 배치되는 안테나를 포함하는 전자 장치의 예를 도시한다.
도 10은 본 개시의 실시예에 따른 UDC(under display camera)를 포함하는 전자 장치의 카메라와 안테나 사이의 배치에 대한 예를 도시한다.
도 11은 본 개시의 실시예에 따른 복수의 안테나들을 포함하는 전자 장치에서 카메라(camera)의 초점을 조정(adjusting)하기 위하여, 빔포밍(beamforming)을 이용하는 방법에 대한 예를 도시한다.
도 12a는 본 개시의 실시예에 따른 복수의 카메라(camera)들을 포함하는 전자 장치에 있어서, 카메라의 초점을 조정(adjusting)하기 위한 복수의 안테나들을 포함하는 전자 장치의 예를 도시한다.
도 12b는 본 개시의 실시예에 따른 카메라(camera)의 줌(zoom)이 변경되는 경우, 카메라의 초점을 조정(adjusting)하기 위한 복수의 안테나들을 포함하는 전자 장치의 예를 도시한다.
도 13은 본 개시의 실시예에 따른 레이더(radar) 데이터에 기반한 오토 포커싱 알고리즘(auto focusing algorithm)에 대한 예를 도시하는 흐름도이다.
도면들 전체에 걸쳐 동일한 구성요소들을 나타내기 위한 동일한 참조 번호가 이용될 수 있다.
첨부된 도면들을 참조하는 다음의 설명은 청구범위 및 등가물들에 의해 정의되는 본 개시의 다양한 실시예들의 포괄적인 이해를 돕기 위해 제공된다. 이해를 돕기 위한 다양한 특정 세부 사항들을 포함하나 이는 단지 예시로써 간주되어야 한다. 따라서, 당업자는 본 명세서에 기술된 다양한 실시예들의 다양한 변경들 및 수정들이 본 개시의 범위 및 사상을 벗어나지 않고 이루어질 수 있음을 인식할 것이다. 또한, 공지된 기능들 및 구성들에 대한 설명들은 명확성과 간결성을 위해 생략될 수 있다.
이하의 설명 및 청구범위 내에서 사용되는 용어들 및 단어들은 서지적 의미로 제한되지 않으며, 발명자가 개시 내용을 명확하고 일관되게 이해하기 위해 사용하는 것일 뿐이다. 따라서, 본 개시의 다양한 실시예들에 대한 다음의 설명은 첨부된 청구범위 및 그 등가물에 의해 정의된 바와 같이 본 개시를 제한할 목적이 아니라 예시적인 목적으로만 제공된다는 것이 당업자에게 명백해야 한다.
단수 형태 "a", "an", "the"는 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함하는 것으로 이해될 수 있다. 따라서, 예를 들어, "구성요소 표면(a component surface)"은 하나 이상의 표면들을에 대한 언급을 포함할 수 있다.
기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다.
이하에서 설명되는 본 개시의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 개시의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 개시의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.
이하 설명에서 사용되는 장치의 구성 요소를 지칭하는 용어(예: 프로세서(processor), 레이더(radar), 안테나(antenna), 안테나 엘리먼트(antenna element), 어레이 안테나(array antenna), 카메라(camera), 모듈(module) 등), 연산 상태를 위한 용어(예: 단계(step), 동작(operation), 절차(procedure)), 신호를 지칭하는 용어(예: 신호(signal), 정보(information) 등), 데이터를 지칭하기 위한 용어(예: 파라미터(parameter), 값(value), 배율(magnification) 등), 무선 통신의 개념을 지칭하기 위한 용어(예: 빔(beam), 빔 폭(beamwidth), 커버리지(coverage) 등)는 설명의 편의를 위해 예시된 것이다. 따라서, 본 개시가 후술되는 용어들에 한정되는 것은 아니며, 동등한 기술적 의미를 가지는 다른 용어가 사용될 수 있다.
또한, 본 개시에서, 특정 조건의 만족(satisfied), 충족(fulfilled) 여부를 판단하기 위해, 초과 또는 미만의 표현이 사용될 수 있으나, 이는 일 예를 표현하기 위한 기재일 뿐 이상 또는 이하의 기재를 배제하는 것이 아니다. '이상'으로 기재된 조건은 '초과', '이하'로 기재된 조건은 '미만', '이상 및 미만'으로 기재된 조건은 '초과 및 이하'로 대체될 수 있다. 또한, 이하, 'A' 내지 'B'는 A부터(A 포함) B까지의(B 포함) 요소들 중 적어도 하나를 의미한다.
도 1은 본 개시의 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G(fourth generation) 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave (milimiter wave) 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps(gigabits per second) 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB(decibels) 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms(milliseconds) 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 본 개시의 실시예에 따른 전자 장치의 카메라의 FoV(field of view) 및 레이더(radar)의 FoV에 따라 외부 객체(external entity)의 인식 가능 여부를 설명하기 위한 예를 도시한다. 여기서, FoV(단위: degree[°])는 카메라 또는 레이더가 인식 가능한 범위에 대한 각도를 의미할 수 있다. 카메라의 FoV는 카메라의 렌즈(lens)에 따라 고유한 값으로 결정될 수 있다.
전자 장치는 카메라를 통해 물체(또는 외부 객체)를 식별하고 이미지를 획득하기 위하여, 카메라의 초점을 조정하는 과정이 요구될 수 있다. 전자 장치는 카메라의 렌즈 내에서 자체적으로 초점(또는 초점 거리)을 조정가능한 카메라(예: 위상 검출 센서(phase detection sensor)를 포함하는 카메라)를 이용하거나, 물체까지의 거리를 측정할 수 있는 센서(예: Lidar(laser imaging detection and ranging), ToF(time of flight) 센서 등)을 통해 물체까지의 거리를 식별하고 렌즈로 해당 정보를 전달하여 초점을 조절할 수 있다. 또는, 전자 장치는 별도의 거리 탐지를 위한 센서(ranging sensor)를 통해 거리를 식별하고 초점을 조절할 수 있다. 상술한 바와 같이, 전자 장치는 자체적으로 초점을 조절가능한 카메라를 통해 초점을 조정하거나, 별도의 센서를 통해 물체까지의 거리를 식별하고 초점을 조정할 수 있으나, 이 경우 카메라 자체의 크기가 커지거나 추가적인 부품을 요구하는 바 전자 장치 내 별도의 실장 공간이 요구될 수 있다. 또한, 전자 장치의 크기는 확대되고, 전자 장치의 생산 비용이 증가될 수 있다. 따라서, 전자 장치가 추가적인 구성없이 물체(또는 외부 객체)까지의 거리를 계산하고 카메라의 초점을 조정하기 위한 방안이 요구된다. 이 때, 전자 장치로부터 물체까지의 거리를 계산하기 위하여, 전자 장치는 레이더(radar)를 이용할 수 있다.
레이더는 물체 또는 외부 객체(external entity)에서 반사된 신호를 탐지하여 물체까지의 거리를 인식하는 장치를 지칭할 수 있다. 예를 들어, 레이더는 안테나를 통해 송신된 신호가 물체에 반사되어 수신되기까지 소요되는 시간 및 신호의 속력에 기반하여 물체까지의 거리를 계산할 수 있다. 이하 본 개시의 설명에 있어서, 레이더는 안테나를 지칭하거나 포함하는 구조체와 동일하게 이해될 수 있다.
레이더는 사용하는 어플리케이션(application)에 따라 주파수, 송신 전력, 안테나 이득이 달라질 수 있다. 특히, 신호의 대역폭이 넓을수록 안테나의 분해능(resolution)이 정교해지는 바, 레이더의 활용 범위가 넓어질 수 있다. 이러한 레이더 기능을 구현하기 위하여, 전자 장치는 UWB(ultra-wideband) 안테나를 포함할 수 있다. 전자 장치는, UWB 안테나를 통한 방향 및 거리 탐지 기술을 이용하여 분실된 전자 장치를 찾는 서비스, 외부 장치와 데이터를 송수신하는 서비스 등을 지원할 수 있다. UWB 외에도 전자 장치는 60 GHz(gigahertz) 주파수를 이용한 레이더 기술을 지원하기 위한 안테나를 포함할 수 있다.
전자 장치는, 추가적인 부품없이 카메라의 초점을 조정하기 위하여, 물체까지의 거리를 식별할 필요가 있다. 전자 장치는 물체까지의 거리를 식별하기 위하여 레이더를 이용할 수 있다. 그러나, 카메라가 인식하는 영역과 레이더가 인식하는 영역이 서로 다른 경우, 전자 장치는 카메라의 초점을 정밀하게 조정하기 어려울 수 있다. 이와 관련한 구체적인 내용은 도 2의 제1 상황(200) 및 제2 상황(250)을 통해 도시된다.
도 2를 참고하면, 전자 장치의 카메라의 FoV와 레이더의 FoV가 일치하는 제1 상황(200), 전자 장치의 카메라의 FoV와 레이더의 FoV가 서로 일치하지 않는 제2 상황(250)을 도시한다. 제1 상황(200)을 참고하면, 카메라의 FoV(201)과 레이더의 FoV(203)는 동일할 수 있다. 카메라의 FoV(201)이 레이더의 FoV(203)이 동일한 경우, 카메라가 인식이 필요한 영역을 레이더에서 인식하여 정확한 정보를 카메라에 전달함으로써 카메라는 외부 객체를 인식할 수 있다. 다시 말해서, 전자 장치는 카메라를 통해 원하는 영역을 식별할 수 있고, 전자 장치는 원하는 영역 내의 물체(예: 외부 객체)를 포함하는 이미지를 획득할 수 있다. 이와 달리, 제2 상황(250)을 참고하면, 카메라의 FoV(201)과 레이더의 FoV(205)는 동일하지 않을 수 있다. 카메라의 FoV(201)과 레이더의 FoV(205)는 동일하지 않은 경우, 카메라가 인식이 필요한 영역을 레이더에서 인식하지 못하거나 잘못 인식할 수 있다. 따라서 레이더는 잘못된 정보를 카메라에 전달함으로써 카메라는 외부 객체를 인식하지 못할 수 있다. 다시 말해서, 전자 장치는 카메라를 통해 원하는 영역을 식별하지 못할 수 있고, 전자 장치는 원하는 영역 내의 물체(예: 외부 객체)를 포함하지 않거나 초점이 맞지 않아 명료하지 않은(unclear) 이미지를 획득할 수 있다.
따라서, 원하는 이미지를 획득하기 위하여, 전자 장치는 카메라의 FoV와 레이더의 FoV를 일치하도록 설계될 필요가 있다. 카메라의 FoV는 카메라의 렌즈에 따라 결정될 수 있다. 레이더의 FoV는 안테나를 통해 형성되는 빔의 폭에 따라 결정될 수 있다. 여기서, 안테나를 통해 형성되는 빔의 폭은 안테나의 지향성(directivity)에 기반하여 결정될 수 있다. 안테나의 지향성은 안테나의 타입(type)에 따라 결정될 수 있다. 예를 들어, 안테나의 타입은 다이폴(dipole) 안테나, 패치(patch) 안테나, 루프(loop) 안테나 등을 포함할 수 있다. 안테나의 타입을 변경함으로써, 안테나에 의해 형성되는 빔의 폭은 약 10 내지 20° 범위에서 변경될 수 있다. 그러나, 카메라의 FoV는 수평 성분, 수직 성분(및 대각 성분)에서 모두 변경될 수 있는 바, 안테나의 타입을 변경하는 것만으로는 카메라의 FoV에 대응하도록 레이더의 FoV를 구성하기는 어려울 수 있다. 따라서, 안테나의 타입을 변경하지 않고, 카메라의 FoV에 대응하도록 레이더의 FoV를 변경할 수 있는 방안이 요구된다.
도 3은 본 개시의 실시예에 따른 안테나 엘리먼트(antenna element)의 수에 따른 안테나의 이득(gain) 및 빔 폭(beamwidth)에 대한 예를 도시한다. 여기서, 안테나 엘리먼트는 안테나에 포함되는 각 구성요소들을 지칭할 수 있다. 다시 말해서, 안테나는 적어도 하나의 안테나 엘리먼트를 포함하는 장치를 의미할 수 있다. 예를 들어, 이중 편파를 고려하기 위하여 2개의 방사체(radiator)들을 포함하는 안테나는 2개의 안테나 엘리먼트들을 포함하는 것으로 고려될 수 있다. 또한, 빔은 적어도 하나의 안테나 엘리먼트를 포함하는 안테나에 의해 송신되는 신호의 방사 상태를 의미할 수 있다. 특히, 빔은 신호의 세기가 가장 높은 주엽(mainlobe) 및 신호의 합성에 따라 반사적으로 발생되는 부엽(sidelobe)을 포함할 수 있다. 상기 안테나의 이득은 빔의 주엽에서의 이득을 의미할 수 있고, 상기 빔의 폭은 빔의 주엽에서의 최대 이득의 3dB 감소된 양 지점과 중심 사이의 각을 의미할 수 있다.
도 3의 그래프는, 1개의 안테나 엘리먼트를 포함하는 안테나의 이득 및 빔 폭을 도시하는 제1 선(301), 2개의 안테나 엘리먼트들을 포함하는 안테나의 이득 및 빔 폭을 도시하는 제2 선(303), 4개의 안테나 엘리먼트들을 포함하는 안테나의 이득 및 빔 폭을 도시하는 제3 선(305), 6개의 안테나 엘리먼트들을 포함하는 안테나의 이득 및 빔 폭을 도시하는 제4 선(307), 8개의 안테나 엘리먼트들을 포함하는 안테나의 이득 및 빔 폭을 도시하는 제5 선(309)을 도시한다.
제1 선(301) 내지 제5 선(309)을 참고하면, 모두 0°방향에서 안테나들 각각의 최대 이득이 형성된다. 이하, 상대적인 비교를 위하여 1개의 안테나 엘리먼트를 포함하는 안테나의 이득 및 빔 폭을 도시하는 제1 선(301)을 기준으로 한다. 제1 선(301)과 제2 선(303)을 비교하면, 2개의 안테나 엘리먼트들을 포함하는 안테나는 1개의 안테나 엘리먼트를 포함하는 안테나 대비 0° 방향에서 약 3dBi 더 높은 이득을 갖는다. 그러나, 2개의 안테나 엘리먼트들을 포함하는 안테나는 1개의 안테나 엘리먼트를 포함하는 안테나 대비 0.42의 비율만큼 더 좁은 빔 폭을 형성할 수 있다. 또한, 제1 선(301)과 제3 선(305)을 비교하면, 4개의 안테나 엘리먼트들을 포함하는 안테나는 1개의 안테나 엘리먼트를 포함하는 안테나 대비 0° 방향에서 약 6dBi 더 높은 이득을 갖는다. 그러나, 4개의 안테나 엘리먼트들을 포함하는 안테나는 1개의 안테나 엘리먼트를 포함하는 안테나 대비 0.205의 비율만큼 더 좁은 빔 폭을 형성할 수 있다. 제4 선(307) 및 제5 선(309)을 고려하면, 안테나 엘리먼트들의 개수가 늘어나는 경우, 안테나의 이득은 증가하나 안테나가 형성하는 빔의 폭이 감소될 수 있다. 또한, 안테나를 구성하는 구성 요소인 안테나 엘리먼트들의 개수가 증가하는 바, 안테나의 크기 또한 증가될 수 있다.
상술한 바에 따르면, 복수의 안테나 엘리먼트들이 배열(array)된 안테나인 어레이 안테나(array antenna)는 안테나 엘리먼트들의 수가 증가할수록 일정 방향으로의 최대 이득이 증가되고, 빔의 폭이 감소하는 바 높은 지향성(directivity)을 가질 수 있다. 구체적으로, 어레이 안테나를 이용하는 기술은 유사한 타입의 안테나 엘리먼트들을 일렬 또는 수평면에 배치하여 안테나의 이득을 개선하는 기술로 5G mmWave, 군사용 Radar, 기지국 등 고이득 안테나 설계가 필요한 영역에서 사용될 수 있다. 예를 들어, 전자 장치는 5G mmWave 통신을 위해 mmWave 모듈이 실장될 수 있다. 전자 장치의 모듈 내에 포함되는 안테나들은 높은 이득의 구현을 위해 1x5 등의 어레이로 설계될 수 있다. 어레이 안테나는 각 안테나 엘리먼트에서 방사된 신호들이 특정 방향으로 보강 간섭을 이루어 신호가 증폭되고 그 외의 방향으로는 상쇄 간섭을 이루어 신호가 낮아지는 성질을 이용하여, 특정 방향으로의 높은 지향성을 구현할 수 있다. 어레이 안테나를 구성하는 안테나 엘리먼트의 수가 많아질수록 해당 보강/상쇄 효과는 더 증가되게 되며, 이에 따라 어레이 안테나의 지향성은 증가할 수 있다. 이하, 본 개시의 장치 및 방법은 복수의 안테나 엘리먼트들을 포함하는 전자 장치를 통해, 카메라의 FoV에 대응하는 값을 갖는 레이더(예: 안테나)의 FoV를 구성하고, 이를 통해 카메라의 초점 거리(focal length)를 효과적으로 조정(adjusting)하기 위한 방안을 제안한다.
도 4는 본 개시의 실시예에 따른 카메라(camera)의 초점을 조정(adjusting)하기 위한 복수의 안테나들을 포함하는 전자 장치의 예를 도시한다. 도 4의 전자 장치(400, 450)에 포함되는 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 전자 장치(400, 450)는 전자 장치(101)를 예시한다.
송신 안테나는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치가 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 4를 참고하면, 수직 성분(또는, 세로)의 FoV 값이 수평 성분(또는 가로)의 FoV 값보다 큰 FoV로 구성된 카메라(403)의 초점을 조정하기 위한 전자 장치(400) 및 수직 성분(또는, 세로)의 FoV 값이 수평 성분(또는 가로)의 FoV 값보다 작은 FoV로 구성된 카메라(403)의 초점을 조정하기 위한 전자 장치(450)의 구조에 대한 예를 도시한다. 도 4는 2개의 안테나 엘리먼트들(2x1, 1x2)을 포함하는 수신 안테나(405)를 도시하나, 본 개시가 이에 제한되는 것은 아니다. 예를 들어, 수신 안테나(405)는 3개의 안테나 엘리먼트들(예: 3x1, 1x3)을 포함하는 어레이 안테나일 수 있다. 또한, 수신 안테나(405)는 4개의 안테나 엘리먼트들(예: 1x4, 2x2, 4x1)을 포함하는 어레이 안테나일 수 있다. 또한, 도 4는 1개의 안테나 엘리먼트를 포함하는 송신 안테나(401)를 도시하나, 복수의 안테나 엘리먼트들을 포함하는 안테나로 구성될 수 있다. 복수의 안테나 엘리먼트들을 포함하는 어레이 안테나로 구성되는 송신 안테나(401)에 대한 설명은, 이하의 도 8에서 구체적으로 서술된다.
전자 장치(400)는 송신 안테나(401), 카메라(403), 수신 안테나(405)를 포함할 수 있다. 송신 안테나(401), 카메라(403), 및 수신 안테나(405)는 카메라(403)의 중심을 지나는 가상의 선과 적어도 일부가 중첩되도록 배치될 수 있다. 예를 들어, 송신 안테나(401) 및 수신 안테나(405) 각각은 카메라(403)의 중심을 지나는 가상의 선과 중심이 일치되도록 배치될 수 있다. 또는, 송신 안테나(401)는 카메라(403)의 중심이 일치되도록 배치되고, 수신 안테나(405)는 카메라(403)의 중심을 지나는 가상의 선이 지나는 영역에 배치될 수 있다. 또한, 송신 안테나(401)는 카메라(403)의 중심을 지나는 가상의 선이 지나는 영역에 배치될 수 있고, 수신 안테나(405)는 카메라(403)의 중심이 일치되도록 배치될 수 있다.
전자 장치(400, 450)의 송신 안테나(401)는 신호를 송신하기 위해 이용될 수 있다. 예를 들어, 송신 안테나(401)는 물체와의 거리를 식별(또는 계산)하기 위한 신호를 송신할 수 있다. 또한, 송신 안테나(401)는 외부 전자 장치와 데이터를 송수신하기 위한 신호를 전송할 수도 있다. 신호는 기준 신호(reference signal)를 포함할 수 있다. 예를 들어, 기준 신호는 SRS(sounding reference signal), CSI-RS(channel state information-reference signal), DM-RS(demodulation-reference signal), CSI-RS(channel state information-reference signal), SS/PBCH(synchronization signal/physical broadcast channel)를 포함할 수 있다. 송신 안테나(401)는 다양한 타입의 안테나로 구성될 수 있다. 예를 들어, 송신 안테나(401)는 다이폴(dipole) 안테나, 모노폴(monopole) 안테나, 패치(patch) 안테나, 루프(loop) 안테나, IFA(inverted F antenna) 중 하나일 수 있다.
전자 장치(400, 450)의 수신 안테나(405)는 송신 안테나(401)로부터 송신된 신호를 포함하는 다양한 신호들을 수신하기 위해 이용될 수 있다. 예를 들어, 수신 안테나(405)는 물체와의 거리를 식별(또는 계산)하기 위한 신호를 수신할 수 있다. 또한, 수신 안테나(405)는 외부 전자 장치와 데이터를 송수신하기 위한 신호를 수신할 수도 있다. 신호는 기준 신호(reference signal)를 포함할 수 있다. 예를 들어, 기준 신호는 SRS(sounding reference signal), CSI-RS(channel state information-reference signal), DM-RS(demodulation-reference signal), CSI-RS(channel state information-reference signal), SS/PBCH(synchronization signal/physical broadcast channel)를 포함할 수 있다. 전자 장치(400, 450)의 수신 안테나(405)는 복수의 안테나 엘리먼트들을 포함할 수 있고, 복수의 안테나 엘리먼트들은 서로 일정 거리 이격되어 배치될 수 있다. 여기서, 일정 거리는 복수의 안테나 엘리먼트들이 송수신하는 신호의 파장(wavelength)에 기반하여 결정될 수 있다. 예를 들어, 복수의 안테나 엘리먼트들을 통해 수신되는 신호의 파장을
Figure PCTKR2023014579-appb-img-000001
라고 할 때, 복수의 안테나 엘리먼트들은 0.4 내지 0.7
Figure PCTKR2023014579-appb-img-000002
만큼 이격될 수 있다. 여기서, 이격된 거리는 안테나 엘리먼트들의 중심 사이의 거리를 의미할 수 있다. 서로 이격된 복수의 안테나 엘리먼트들을 배치는 안테나 엘리먼트들 사이의 간섭(interference) 및 부엽(sidelobe)의 영향을 줄이고 신호의 성능을 높이기 위함일 수 있다. 수신 안테나(405)는 다양한 타입의 안테나로 구성될 수 있다. 예를 들어, 수신 안테나(405)의 안테나 엘리먼트 각각은 다이폴(dipole) 안테나, 모노폴(monopole) 안테나, 패치(patch) 안테나, 루프(loop) 안테나, IFA(inverted F antenna) 중 하나일 수 있다.
전자 장치(400, 450)의 카메라(403)는 적어도 하나의 렌즈 및 센서(sensor)를 포함할 수 있다. 이 때, 카메라(403)의 FoV(field of view)는 초점 거리(focal length) 및 상이 맺히는 필름(film) 또는 센서(sensor)의 크기에 기반하여 결정될 수 있다. FoV에 따라, 카메라(403)의 렌즈는 초광각(super wide angle), 광각(wide angle), 망원(telephoto) 등으로 정의될 수 있다. 다시 말해서, 카메라(403)의 종류가 달라지는 경우 카메라(403)는 FoV가 변경될 수 있다. 카메라(403)의 FoV는 복수의 성분들의 집합으로 정의될 수 있다. 예를 들어, 카메라(403)의 FoV는 수평 성분(또는, 가로)의 FoV, 수직 성분(또는, 세로)의 FoV 또는 수평 성분의 FoV, 수직 성분의 FoV 및 대각 성분의 FoV을 포함할 수 있다. 수평 성분 및 수직 성분의 FoV를 포함하는 FoV로 구성되는 카메라(403)에 대한 예시는 이하 표 1과 같다.
Case 1 Case 2 Case 3 Case 4 Case 5
카메라 FoV 100°(H)100°(V) 70°(H)
100°(V)
100°(H)
70°(V)
70°(H)
70°(V)
70°(H)
40°(V)
안테나 구성(가로x세로) 1x1 (Ref) 2x1 1x2 2x2 2x4
표 1은 수평 성분의 FoV(H) 및 수직 성분의 FoV(V)를 포함하는 카메라의 FoV 및 이에 따른 안테나(또는 어레이 안테나)의 구성을 예시한다. 이하의, 안테나의 빔 폭은 안테나의 지향성과 관련될 수 있다. 또한, 안테나의 빔 폭은 실질적으로 레이더(radar)의 FoV와 동일하게 이해될 수 있다.기준이 되는 Case 1을 참고하면, 수평 성분의 FoV가 100°이고 수직 성분의 FoV가 100°인 경우, 안테나는 1개의 안테나 엘리먼트(1x1)를 포함할 수 있다.
Case 2를 참고하면, 수평 성분의 FoV가 70°이고 수직 성분의 FoV가 100°인 경우, 안테나는 2개의 안테나 엘리먼트들(2x1)을 포함할 수 있다. Case 2의 전자 장치는 도 4의 전자 장치(400)의 예로 이해될 수 있다. Case 2의 안테나는 비교적 가로에 더 많은 안테나 엘리먼트들을 배치함으로써, 수직 성분 보다 좁은 수평 성분의 FoV과 대응하는 안테나의 빔 폭을 갖는 빔을 형성할 수 있다. 적은 수의 안테나 엘리먼트들을 통해서 빔을 형성하는 경우보다 많은 안테나 엘리먼트들을 통해서 빔을 형성하는 경우가 비교적 정밀한 빔을 형성할 수 있다. 이와 같이, 가로 방향에 더 많은 안테나 엘리먼트들을 배치하여 가로 방향으로 좁은 빔(즉, 수평 방향으로 폭이 좁은 빔)을 형성할 수 있다. 따라서, Case 2의 안테나는 수평 성분의 FoV가 비교적 더 좁은 카메라의 FoV와 대응(또는 매칭(matching))하는 빔 폭을 갖는 빔을 형성할 수 있다.
Case 3을 참고하면, 수평 성분의 FoV가 100°이고 수직 성분의 FoV가 70°인 경우, 안테나는 2개의 안테나 엘리먼트들(1x2)을 포함할 수 있다. Case 3의 전자 장치는 도 4의 전자 장치(450)의 예로 이해될 수 있다. Case 3의 안테나는 비교적 세로에 더 많은 안테나 엘리먼트들을 배치함으로써, 수평 성분 보다 좁은 수직 성분의 FoV과 대응하는 안테나의 빔 폭을 갖는 빔을 형성할 수 있다. Case 2에서 서술한 바와 유사하게, 세로 방향에 더 많은 안테나 엘리먼트들을 배치하여 세로 방향으로 좁은 빔(즉, 수직 방향으로 폭이 좁은 빔)을 형성할 수 있다. 따라서, Case 3의 안테나는 수직 성분의 FoV가 비교적 더 좁은 카메라의 FoV와 대응(또는 매칭(matching))하는 빔 폭을 갖는 빔을 형성할 수 있다.
Case 4를 참고하면, 수평 성분의 FoV가 70°이고 수직 성분의 FoV가 70°인 경우, 안테나는 4개의 안테나 엘리먼트들(2x2)을 포함할 수 있다. Case 4의 안테나는 Case 1과 비교하여 세로 및 가로에 더 많은 안테나 엘리먼트들을 배치함으로써, Case 1에 대하여 비교적 좁은 수평 성분의 FoV 및 수직 성분의 FoV과 대응하는 안테나의 빔 폭을 갖는 빔을 형성할 수 있다. 따라서, Case 4의 안테나는 수평 성분의 FoV 및 수직 성분의 FoV가 비교적 더 좁은 카메라의 FoV와 대응(또는 매칭(matching))하는 빔 폭을 갖는 빔을 형성할 수 있다.
Case 5를 참고하면, 수평 성분의 FoV가 70°이고 수직 성분의 FoV가 40°인 경우, 안테나는 8개의 안테나 엘리먼트들(2x4)을 포함할 수 있다. Case 5의 안테나는 Case 4와 비교하여 세로에 더 많은 안테나 엘리먼트들을 배치함으로써, 수평 성분 보다 좁은 수직 성분의 FoV를 포함하는 카메라의 FoV와 대응하는 안테나의 빔 폭을 갖는 빔을 형성할 수 있다. 따라서, Case 5의 안테나는 수평 성분의 FoV가 비교적 더 좁은 카메라의 FoV와 대응(또는 매칭(matching))하는 빔 폭을 갖는 빔을 형성할 수 있다.
다시 말해서, 전자 장치는 카메라의 FoV에 기반하여 안테나를 구성함으로써, 안테나의 빔 폭(즉, 레이더의 FoV)과 카메라의 FoV를 대응(또는 매칭)할 수 있다. 이에 따라, 전자 장치는 카메라의 FoV와 대응하는 안테나(또는 레이더)를 통해 효과적으로 물체의 거리를 식별하고 이에 대한 정보를 프로세서에 전달함으로써 카메라의 초점(또는 초점 거리)를 정밀하게 조정할 수 있다.
도 5는 본 개시의 실시예에 따른 복수의 안테나들을 이용하여 카메라(camera)의 초점을 조정(adjusting)하는 방법에 대한 예를 도시하는 흐름도이다. 여기서, 복수의 안테나들은 이용하여 카메라의 초점을 조정하는 방법은 전자 장치(예: 전자 장치(101), 전자 장치(400), 전자 장치(450)) 또는 전자 장치(101)의 적어도 하나의 프로세서(processor)(예: 프로세서(120))에 의해 수행될 수 있다. 또한, 도 4에서 설명한 바와 같이 카메라의 FoV는 수평 성분 및 수직 성분을 포함할 수 있다. 도 5에서는 설명의 편의를 위하여 카메라의 FoV로 설명하나, 본 개시가 이에 제한되는 것은 아니며 수평 성분의 FoV 및 수직 성분의 FoV를 구분하는 경우도 포함될 수 있다.
동작(501)에서, 전자 장치(101)는 카메라의 FoV(field of view)를 식별할 수 있다. 카메라의 FoV는 초점 거리(focal length) 및 카메라의 상이 맺히는 필름(film) 또는 센서(sensor)의 크기에 기반하여 결정될 수 있다. 여기서, 카메라의 FoV는 초점 거리 및 필름 또는 센서의 크기에 따라 미리 결정된 값일 수 있다. 도 5에서는 도시하지 않았으나, 동작(501) 이전에 전자 장치(101)는 카메라와 관련된 어플리케이션(application)이 실행됨을 식별할 수 있다.
동작(503)에서, 전자 장치(101)는 식별된 FoV에 기반하여 외부 객체로부터의 거리를 식별할 수 있다. 전자 장치(101)는 식별된 FoV의 값에 기반하여 수신 안테나(예: 어레이 안테나)의 복수의 안테나 엘리먼트들 중 적어도 하나의 안테나 엘리먼트를 식별할 수 있다.
전자 장치(101)는 식별된 수신 안테나의 적어도 하나의 안테나 엘리먼트 및 송신 안테나의 쌍을 이용하여 신호를 송수신함으로써, 외부 객체로부터의 거리를 식별할 수 있다. 예를 들어, 제1 값의 FoV인 경우, 전자 장치(101)는 수신 안테나의 복수의 안테나 엘리먼트들 중 제1 세트의 적어도 하나의 안테나 엘리먼트를 식별할 수 있다. 전자 장치(101)는 식별된 제1 세트의 적어도 하나의 안테나 엘리먼트 및 송신 안테나의 쌍을 이용하여 신호를 송수신함으로써 외부 객체로부터의 거리를 식별할 수 있다. 또한, 제2 값의 FoV인 경우, 전자 장치(101)는 수신 안테나의 복수의 안테나 엘리먼트들 중 제2 세트의 적어도 하나의 안테나 엘리먼트를 식별할 수 있다. 전자 장치(101)는 식별된 제2 세트의 적어도 하나의 안테나 엘리먼트 및 송신 안테나의 쌍을 이용하여 신호를 송수신함으로써 외부 객체로부터의 거리를 식별할 수 있다. 이 때, 제1 세트의 적어도 하나의 안테나 엘리먼트와 제2 세트의 적어도 하나의 안테나 엘리먼트는 서로 다르거나, 적어도 일부가 중첩될 수 있다. 수신 안테나가 4개의 안테나 엘리먼트(Ant1, Ant2, Ant3, Ant4)를 포함하는 경우를 가정하자. 예를 들어, 제1 세트의 적어도 하나의 안테나 엘리먼트가 2개의 안테나 엘리먼트(Ant1, Ant2)들이고, 제2 세트의 적어도 하나의 안테나 엘리먼트는 3개의 안테나 엘리먼트(Ant1, Ant3, Ant4)들일 수 있다. 이 경우, Ant1은 제1 세트와 제2 세트에 중첩될 수 있다. 다른 예를 들어, 제1 세트의 적어도 하나의 안테나 엘리먼트가 1개의 안테나 엘리먼트(Ant1)이고, 제2 세트의 적어도 하나의 안테나 엘리먼트는 2개의 안테나 엘리먼트(Ant2, Ant3)들일 수 있다. 이 경우, 제1 세트의 안테나 구성과 제2 세트의 안테나 구성은 서로 중첩되지 않을 수 있다. 또 다른 예를 들어, 제1 세트의 적어도 하나의 안테나 엘리먼트가 2개의 안테나 엘리먼트(Ant1, Ant2)이고, 제2 세트의 적어도 하나의 안테나 엘리먼트는 3개의 안테나 엘리먼트(Ant1, Ant2, Ant3)들일 수 있다. 이 경우, 제1 세트의 안테나 구성은 제2 세트의 안테나 구성에 포함되는 안테나 구성으로 전부 중첩될 수 있다.
동작(505)에서, 전자 장치(101)는 식별된 외부 객체로부터의 거리에 기반하여, 전자 장치(101)의 카메라의 초점 거리를 조정할 수 있다. 예를 들어, 전자 장치(101)는 식별된 외부 객체로부터의 거리에 대응하는 카메라의 초점 거리를 계산하고, 이에 따라, 카메라의 복수의 렌즈들 사이의 거리를 조정함으로써 카메라의 초점 거리를 조정할 수 있다.
동작(507)에서, 전자 장치(101)는 초점 거리가 조정된 카메라를 통해 외부 객체에 대한 이미지를 획득할 수 있다.
도 6은 본 개시의 실시예에 따른 카메라(camera)의 초점을 조정(adjusting)하기 위한 복수의 안테나들을 포함하는 전자 장치의 다른 예를 도시한다.
도 6을 참조하면, 전자 장치(예: 전자 장치(101), 전자 장치(400), 전자 장치(450))에 포함되는 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 송신 안테나는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치를 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 6을 참고하면, 전자 장치(예: 전자 장치(101))는 송신 안테나(601), 수신 안테나(605), 및 카메라(603)를 포함할 수 있다. 도 4와 달리, 도 6은 송신 안테나(601) 및 수신 안테나(605)(예: 어레이 안테나)의 중심을 지나면서 수평 방향(또는 가로)으로 연장된 가상의 선인 제1 축과 카메라(603)의 중심을 지나면서 수평 방향으로 연장된 가상의 선인 제2 축이 서로 일치하지 않는 경우를 도시한다. 다만, 본 개시가 이에 제한되는 것은 아니며, 송신 안테나(601)의 중심을 지나는 축과 수신 안테나(605)의 중심을 지나는 축이 서로 일치하지 않을 수 있다. 도 4에서 개시하는 바와 같이 전자 장치(101)의 송신 안테나, 카메라, 및 수신 안테나가 동일한 축을 기준으로 적어도 일부가 중첩되거나 일치하는 경우, 캘리브레이션(calibration)을 최소화하면서 전자 장치(101)로부터 물체 사이의 거리를 측정 및 계산할 수 있다.
그러나, 도 6의 전자 장치(101)의 경우 송신 안테나(601) 및 수신 안테나(605)(예: 레이더)가 식별하는 물체와 카메라(603)가 식별하는 물체는 서로 상이한 바, 캘리브레이션이 요구될 수 있다. 예를 들어, 전자 장치(101)는 카메라(603)로부터 송신 안테나 사이의 거리(607) 및 카메라(603)으로부터 수신 안테나 사이의 거리(607)에 대한 정보에 기반하여 전자 장치(101)로부터 물체(또는, 외부 객체)까지의 거리를 식별할 수 있다. 카메라(603)로부터 수신 안테나 사이의 거리(607)는 수신 안테나(605)들의 중심 또는 수신 안테나(605)에 포함되는 안테나 엘리먼트들 각각까지의 거리에 대한 평균일 수 있다. 또한, 전자 장치(101)는 카메라(603)와 물체 사이의 각도에 대한 정보 및 거리에 대한 정보에 기반하여 전자 장치(101)로부터 물체까지의 거리를 식별할 수 있다. 전자 장치(101)는 레이더(송신 안테나(601) 및 수신 안테나(605))와 물체 사이의 각도에 대한 정보 및 거리에 대한 정보에 기반하여 전자 장치(101)로부터 물체까지의 거리를 식별할 수 있다. 예를 들어, 각도에 대한 정보는 카메라(603) 또는 레이더로부터 물체(또는 외부 객체) 사이를 연결한 가상의 선과 수평 방향(또는 가로)의 가상의 선 사이의 각도 또는 AoA(arrival of angle)일 수 있다.
상술한 바에 따르면, 전자 장치(101)는 카메라(603)와 송신 안테나(601) 사이의 거리에 대한 정보, 카메라(603)와 수신 안테나(605) 사이의 거리에 대한 정보, 카메라(603)와 물체 사이의 각도에 대한 정보 및 거리에 대한 정보, 및 송신 안테나(601) 및 수신 안테나(605)와 물체 사이의 각도에 대한 정보 및 거리에 대한 정보에 기반하여, 레이더를 통해 측정 및 계산된 물체까지의 거리를 보정할 수 있다. 이에 따라, 도 6의 전자 장치(101)는, 도 4의 전자 장치(400, 450)과 같이, 카메라(603)의 초점 거리를 정밀하게 계산하고 조정할 수 있다.
도 7은 본 개시의 실시예에 따른 전자 장치의 카메라 및 복수의 안테나들 사이의 배치에 대한 예들을 도시한다. 도 7의 전자 장치(700, 750)의 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 전자 장치(700, 750)는, 전자 장치(101)를 예시한다. 송신 안테나는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치가 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 4와 달리, 도 7은 송신 안테나(701), 카메라(703), 및 수신 안테나(705)가 다른 배열(array)로 배치된 경우를 도시한다. 예를 들어, 도 4의 전자 장치(400, 450)는 송신 안테나(401), 카메라(403), 및 수신 안테나(405) 순서로 배치되나, 도 7의 전자 장치(700)는 카메라(703), 송신 안테나(701), 및 수신 안테나(705) 순서로 배치되고, 전자 장치(750)는 송신 안테나(701), 수신 안테나(705) 및 카메라(703) 순서로 배치될 수 있다. 전자 장치(700, 750)가 송신 안테나(701) 및 수신 안테나(705)를 통해 카메라(703)의 초점 거리를 조정하는 것은 도 5의 흐름도가 동일하게 적용될 수 있다. 또한, 도 7은 송신 안테나(701), 수신 안테나(705), 및 카메라(703)의 중심을 지나면서 수평 방향으로 연장된 가상의 선인 축이 동일한 경우를 개시하나, 도 6과 같이 일치하지 않는 경우도 적용될 수 있다.
도 8은 본 개시의 실시예에 따른 복수의 송신 안테나들 및 복수의 수신 안테나들을 포함하는 전자 장치의 예 및 송신 빔과 수신 빔에 따른 FoV의 영역에 대한 예를 도시한다. 도 8은, 도 4 내지 도 7의 전자 장치가 하나의 안테나 엘리먼트로 구성된 송신 안테나를 포함하는 것과 달리, 송신 안테나도 어레이 안테나로 구성된 경우를 도시한다. 송신 빔은 송신 안테나에 의해 형성되는 빔을, 수신 빔은 수신 안테나에 의해 형성되는 빔을 지칭한다.
도 8을 참고하면, 전자 장치(800)는 송신 안테나(801), 카메라(803), 및 수신 안테나(805)를 포함할 수 있다. 전자 장치(800)는, 전자 장치(101)를 예시한다. 송신 안테나(801)는 복수의 안테나 엘리먼트들을 포함하는 어레이 안테나(array antenna)일 수 있다. 예를 들어, 송신 안테나(801)는 1x2(가로x세로) 배열을 갖는 어레이 안테나일 수 있다. 이에 따라, 송신 안테나(801)는 세로 방향의 빔 폭이 가로 방향의 빔 폭에 비해 상대적으로 좁은 빔(820)을 형성할 수 있다. 수신 안테나(805)는 복수의 안테나 엘리먼트들을 포함하는 어레이 안테나(array antenna)일 수 있다. 예를 들어, 수신 안테나(805)는 2x1(가로x세로) 배열을 갖는 어레이 안테나일 수 있다. 이에 따라, 수신 안테나(805)는 가로 방향의 빔 폭이 세로 방향의 빔 폭에 비해 상대적으로 좁은 빔(810)을 형성할 수 있다. 도 8은 2개의 안테나 엘리먼트들을 포함하는 송신 안테나(801) 및 수신 안테나(805)를 예로 도시하나, 본 개시가 이에 제한되는 것은 아니다. 예를 들어, 송신 안테나(801)는 세로로 배열된 3개의 안테나 엘리먼트들(1x3)을 포함할 수 있다. 이 때, 송신 안테나(801)가 형성하는 빔(820)은 세로 방향으로 더 좁은 빔의 폭을 갖는 빔일 수 있다.
송신 안테나(801)가 형성하는 빔(820)과 수신 안테나(805)가 형성하는 빔(810)이 중첩되는 영역(830)은 레이더의 FoV로 정의될 수 있다. 레이더는 송신된 신호를 수신하여 물체의 거리를 측정하는 바, 레이더의 FoV는 송신 빔의 커버리지(coverage)(또는, 빔 폭)과 수신 빔의 커버리지에 기반하여 결정될 수 있다. 또한, 레이더의 성능은 이하의 식과 같이 송신 안테나의 이득 및 수신 안테나의 이득에 기반하여 결정될 수 있다.
Figure PCTKR2023014579-appb-img-000003
상기 Prx는 수신 전력을, 상기 Ptx는 송신 전력을, 상기 Gtx는 송신 안테나 이득을, 상기 Grx는 수신 안테나 이득을, 상기 σ는 반사체의 레이더 반사 면적(radar cross section, RCS)을, 상기
Figure PCTKR2023014579-appb-img-000004
는 신호의 파장을, 상기 R은 물체까지의 거리를 의미할 수 있다.
수학식 1을 참고하면, 레이더의 성능은 송신된 신호의 수신 성능과 관련될 수 있고, 수신 성능은 수신 신호의 전력에 따라 결정될 수 있다. 따라서, 수신 안테나(805)의 안테나 엘리먼트의 수가 증가하는 경우 뿐만 아니라 송신 안테나(801)의 안테나 엘리먼트의 수가 증가하는 경우에도, 레이더의 성능은 개선될 수 있다. 다만, 보다 정밀한 거리 측정을 위하여 레이더의 FoV와 카메라의 FoV를 대응시킬 필요가 있는 바, 전자 장치(800)는 송신 안테나(801) 및 수신 안테나(805)를 구성하는 안테나 엘리먼트의 구성을 제어할 수 있다. 또한, 전자 장치(800)는 송신 안테나(801) 및 수신 안테나(805)의 구성을 전자 장치(800)의 구현 가능한 공간 및 배치를 고려하여 결정할 수 있다.
도 9a는 본 개시의 실시예에 따른 전자 장치의 디스플레이 영역에 배치되는 안테나의 예를 도시한다. 도 9a의 전자 장치(900)의 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 전자 장치(900)는, 전자 장치(101)를 예시한다. 송신 안테나는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치가 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 9a를 참고하면, 전자 장치(900)는 송신 안테나(901), 카메라(903), 및 수신 안테나(905)를 포함할 수 있다. 전자 장치(900)의 디스플레이가 배치되는 방향을 전자 장치(900)의 전면으로 가정할 때, 송신 안테나(901), 카메라(903) 및 수신 안테나(905)는 전자 장치(900)의 전면에 배치될 수 있다. 송신 안테나(901) 및 수신 안테나(905)는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있다. 예를 들어, 송신 안테나(901) 및 수신 안테나(905) 각각은 2개의 안테나 엘리먼트들(1x2)을 포함할 수 있다. 이 때, 안테나 엘리먼트들은 서로 일정 거리 이격되어 배치될 수 있다.
송신 안테나(901)의 각 안테나 엘리멘트는 다양한 타입들로 구성될 수 있다. 수신 안테나(905)의 각 안테나 엘리멘트는 다양한 타입들로 구성될 수 있다 예를 들어, 각 안테나 엘리먼트는 다이폴(dipole) 안테나, 모노폴(monopole) 안테나, 패치(patch) 안테나, 루프(loop) 안테나, IFA(inverted F antenna) 중 하나일 수 있다. 또한, 디스플레이의 영역에 배치되는 송신 안테나(901) 및 수신 안테나(905)의 경우, 각 안테나 엘리먼트는 투명한 매쉬(mesh) 패턴으로 구성될 수 있다. 예를 들어, 송신 안테나(901) 및 수신 안테나(905)의 안테나 엘리먼트들이 패치 안테나로 구성되는 경우 도 9a에서 도시하는 바와 같이 형성될 수 있다. 예를 들어, 송신 안테나(901) 및 수신 안테나(905)는 매쉬 패턴으로 구성될 수 있고, 송신 안테나(901)와 수신 안테나(905)를 위한 급전 선로도 매쉬 패턴으로 구성될 수 있다. 상기 급전 선로는, 송신 안테나(901) 및 수신 안테나(905) 기준 상단 부분에 위치될 수 있다. 다만, 본 개시가 이에 제한되는 것은 아니며, 전자 장치(900)에 배치되는 송신 안테나(901) 및 수신 안테나(905)의 위치, 전자 장치(900)의 다른 구성요소들을 고려하여 상기 급전 선로가 송신 안테나(901) 및 수신 안테나(905)에 대하여 위치될 수 있다. 매쉬 패턴으로 구성된 안테나 엘리먼트를 이용함으로써, 디스플레이를 통해 외부로 표시되는 시각 정보에 미치는 영향을 최소화하면서 카메라(903)의 초점 거리를 조정하기 위한 전자 장치(900)가 구성될 수 있다.
도 9b는 본 개시의 실시예에 따른 카메라(camera)의 초점을 조정(adjusting)하기 위하여, 전자 장치의 후면에 배치되는 안테나를 포함하는 전자 장치의 예를 도시한다. 도 9b의 전자 장치(950)의 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 전자 장치(950)는, 전자 장치(101)를 예시한다. 송신 안테나(901)는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치가 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 9b를 참고하면, 전자 장치(950)는 mmWave 대역의 신호를 송수신하기 위한 모듈(이하, mmWave 모듈로 지칭한다.)(951), UWB(ultra-waveband) 대역의 신호를 송수신하기 위한 모듈(이하, UWB 모듈로 지칭한다.)(953)을 포함할 수 있다. mmWave 모듈(951) 및 UWB 모듈(953)은 도 9a의 전자 장치(900)의 전면에 배치되는 디스플레이와 반대 방향인 전자 장치(900)의 후면에 배치될 수 있다. 이는 설명의 편의를 위한 것에 불과하면, 본 개시가 이에 제한되는 것은 아니다. 예를 들어, mmWave 모듈(951) 또는 UWB 모듈(953)은 전자 장치(950)의 전면, 측면, 혹은 전면, 측면 및 후면에 연속하여 배치될 수도 있다. 본 개시의 전자 장치(950)가 카메라의 초점 거리를 조정하기 위한 레이더(또는, 안테나)는 mmWave 모듈(951) 또는 UWB 모듈(953)을 이용할 수 있다. 이를 통해, 전자 장치(950)의 모듈을 이용하여 카메라의 초점 거리를 조정할 수 있다.
예를 들어, mmWave 모듈(951)은 1x5의 안테나 방사체들(951-1, 951-2, 951-3, 951-4, 951-5)을 포함할 수 있다. 예를 들어, UWB 모듈(953)은 L형(1x2 & 2x1) 안테나 방사체들(953-1, 953-2, 953-3)을 포함할 수 있다. 다만, 본 개시의 실시예에 따른 구조가 포함하는 안테나 방사체들의 개수가 이에 제한되는 것은 아니다.
도 10은 본 개시의 실시예에 따른 UDC(under display camera)를 포함하는 전자 장치의 카메라와 안테나 사이의 배치에 대한 예를 도시한다. 도 10의 전자 장치(1000)의 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 전자 장치(1000)는, 전자 장치(101)를 예시한다. 송신 안테나는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치가 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 10을 참고하면, 전자 장치(1000)는 송신 안테나(1001), 카메라 영역(1003), 및 수신 안테나(1005)를 포함할 수 있다. 예를 들어, 송신 안테나(1001) 및 수신 안테나(1005)는 각각 2개의 안테나 엘리먼트들(2x1)을 포함할 수 있다. 전자 장치(1000)의 송신 안테나(1001), 카메라 영역(1003), 및 수신 안테나(1005)는 디스플레이가 배치되는 영역(즉, 전자 장치(1000)의 전면))에 배치될 수 있다. 특히, 카메라 영역(1003)은 디스플레이의 하부면에 배치(또는 실장)되는 UDC(under display camera)에 대한 영역을 나타낼 수 있다. 예를 들어, 카메라 영역은 카메라 홀 또는 카메라 윈도우 영역으로도 지칭될 수 있다.
UDC를 위한 카메라 영역(1003)의 경우, 송신 안테나(1001) 또는 수신 안테나(1005)는 카메라 영역(1003)과 적어도 일부가 중첩될 수 있다. 예를 들어, 송신 안테나(1001)의 적어도 하나의 안테나 엘리먼트 중 안테나 엘리먼트의 일부가 카메라 영역(1003)의 일부와 중첩될 수 있다. 수신 안테나(1005)의 복수의 안테나 엘리먼트들 중 안테나 엘리먼트의 일부가 카메라 영역(1003)의 일부와 중첩될 수 있다. 여기서, 안테나 엘리먼트의 일부는 하나의 안테나 엘리먼트가 차지하는 영역의 전체 또는 일부를 의미할 수 있다. 예를 들어, 도 10은 송신 안테나(1001)의 하나의 안테나 엘리먼트의 일부 영역이 카메라 영역(1003)과 중첩됨을 도시한다.
송신 안테나(1001) 및 수신 안테나(1005)가 카메라 영역(1003)과 중첩되는 것은 전자 장치(1000)의 전면에 배치되는 다른 구성 요소(예: 센서 등), 디스플레이에서 표시되는 정보 및 카메라 영역(1003) 내 위치되는 카메라(예: UDC)의 성능에 기반하여 결정될 수 있다. 예를 들어, 다른 구성 요소의 실장 영역을 고려하여, 송신 안테나(1001) 및 수신 안테나(1005)가 카메라 영역(1003)과 중첩될 수 있다. 디스플레이에서 표시되는 정보를 가리지 않기 위하여, 송신 안테나(1001) 및 수신 안테나(1005)가 카메라 영역(1003)과 중첩될 수 있다. 또한, 카메라 영역(1003)의 유효 범위에 기반하여, 송신 안테나(1001) 및 수신 안테나(1005)가 카메라 영역(1003)와 중첩될 수 있다. 여기서, 카메라 영역(1003)의 유효 범위는 카메라 영역(1003)의 카메라가 외부 물체를 식별가능한 영역을 의미할 수 있다.
상술한 바에 따르면, 전자 장치(1000)는, UDC로 구성되는 카메라 영역(1003)의 경우, 송신 안테나(1001) 또는 수신 안테나(1005)는 카메라 영역(1003)과 적어도 일부가 중첩한 상태로 포함할 수 있다. 이에 따라, 전자 장치(1000)는 전자 장치(1000)의 다른 구성 요소들의 배치를 고려하면서 카메라 영역(1003) 내 위치되는 카메라의 초점을 조정하기 위한 안테나들을 포함할 수 있고, 카메라 영역(1003) 내 위치되는 카메라의 성능에 영향을 주지 않는 범위 내에서 효과적으로 초점을 조정할 수 있다.
도 11은 본 개시의 실시예에 따른 복수의 안테나들을 포함하는 전자 장치에서 카메라(camera)의 초점을 조정(adjusting)하기 위하여, 빔포밍(beamforming)을 이용하는 방법에 대한 예를 도시한다. 도 11의 전자 장치(1100)의 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 전자 장치(1100)는, 전자 장치(101)를 예시한다. 송신 안테나는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치를 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 11을 참고하면, 전자 장치(1100)는 송신 안테나(1101), 카메라(1103), 및 수신 안테나(1105)를 포함할 수 있다. 송신 안테나(1101), 카메라(1103), 및 수신 안테나(1105)는 전자 장치(1100)의 디스플레이 영역에 배치될 수 있다.
전자 장치(1100)는 빔포밍을 이용하여 카메라의 FoV와 대응하도록 레이더의 FoV를 확장할 수 있다. 예를 들어, 전자 장치(1100)는 수신 안테나(1105)를 이용하여 3개의 빔들(1110, 1120, 1130)을 형성가능하고, 각 빔들의 빔 폭은 50°, 카메라(1103)의 FoV가 70°인 경우를 가정한다. 전자 장치(1100)가 수신 안테나(1105)를 통해 형성하는 하나의 빔은 카메라(1103)의 FoV 보다 좁은 커버리지(coverage)를 갖는 바, 전자 장치(1100)의 레이더의 FoV와 카메라(1103)의 FoV가 서로 매칭(matching)될 수 없다. 따라서, 전자 장치(1100)는 빔포밍을 통해 형성된 복수의 빔들을 스위핑(sweeping)함으로써, 카메라(1103)의 FoV와 대응하는 영역을 3개의 빔들(1110, 1120, 1130)을 통해 모두 커버(cover)할 수 있다.
상술한 바에 따라, 전자 장치(1100)는 빔포밍을 통해 카메라(1103)의 FoV를 대응하는 레이더의 FoV를 조절할 수 있고, 카메라(1103)의 초점 거리를 효과적으로 조정할 수 있다.
도 12a는 본 개시의 실시예에 따른 복수의 카메라(camera)들을 포함하는 전자 장치에 있어서, 카메라의 초점을 조정(adjusting)하기 위한 복수의 안테나들을 포함하는 전자 장치의 예를 도시한다. 도 12a의 전자 장치(1200)의 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 전자 장치(1200)는 전자 장치(101)를 예시한다. 송신 안테나는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치가 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 12a를 참고하면, 전자 장치(1200)는 송신 안테나(1201), 제1 카메라(1203-1), 제2 카메라(1203-2), 및 수신 안테나(1205)를 포함할 수 있다. 제1 카메라(1203-1)와 제2 카메라(1203-2)는 서로 다른 FoV를 가질 수 있다. 예를 들어, 제1 카메라(1203-1)는 제2 카메라(1203-2)보다 큰 값을 갖는 FoV를 가질 수 있다. 즉, 제1 카메라(1203-1)가 제2 카메라(1203-2)보다 FoV가 큰 값을 갖는 바, 더 넓은 범위의 영역을 식별할 수 있다. 도 12a를 참조하면, 2개의 카메라들을 포함하는 전자 장치(1200)를 예시로 설명하나, 본 개시가 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(1200)는 3개, 4개, 5개 또는 6개 이상의 카메라들을 포함할 수 있다.
전자 장치(1200)는 다른 FoV를 갖는 카메라(1203-1 또는 1203-2)의 동작 여부를 식별함에 따라, 수신 안테나(1205)의 구성을 달리하여 신호를 수신할 수 있다. 예를 들어, 제1 카메라(1203-1)가 동작하는 것을 식별하는 경우, 전자 장치(1200)는 비교적 넓은 카메라의 FoV와 대응하여 하나의 안테나 엘리먼트(1205-1)만을 수신 안테나(1205)로 동작하도록 구성할 수 있고, 안테나 엘리먼트(1205-1)를 통해 신호를 수신할 수 있다.
이와 달리, 제2 카메라(1203-2)가 동작하는 것을 식별하는 경우, 전자 장치(1200)는 비교적 좁은 카메라의 FoV와 대응하여 안테나 엘리먼트들(1205-2)을 수신 안테나(1205)로 동작하도록 구성할 수 있고, 안테나 엘리먼트들(1205-2)을 통해 신호를 수신할 수 있다. 상기와 같이 전자 장치(1200)가 복수의 카메라들 중 동작되는 카메라를 식별하는 동작은, 도 5의 동작(501) 이전에 수행될 수 있다.
도 12b는 본 개시의 실시예에 따른 카메라(camera)의 줌(zoom)이 변경되는 경우, 카메라의 초점을 조정(adjusting)하기 위한 복수의 안테나들을 포함하는 전자 장치의 예를 도시한다. 도 12b의 전자 장치(1250)의 복수의 안테나들은 송신 안테나 및 수신 안테나를 포함할 수 있다. 전자 장치(1250)는, 전자 장치(101)를 예시한다. 송신 안테나는 적어도 하나의 안테나 엘리먼트들을 포함할 수 있고, 수신 안테나는 복수의 안테나 엘리먼트들을 포함할 수 있다. 이하에서는 설명의 편의를 위하여, 송신 안테나 및 수신 안테나를 별개의 안테나로 포함하는 전자 장치가 예로 서술된다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 본 개시의 실시예는 복수의 안테나 엘리먼트들 중 일부의 안테나 엘리먼트를 통해 신호를 송신하고 상기 일부를 포함하는 다른 일부의 안테나 엘리먼트 또는 상기 일부를 포함하지 않는 또 다른 일부의 안테나 엘리먼트를 통해 신호를 수신하는 경우도 포함할 수 있다.
도 12b를 참고하면, 전자 장치(1250)는 송신 안테나(1201), 카메라(1203), 및 수신 안테나(1205)를 포함할 수 있다. 여기서, 카메라(1203)의 줌은 카메라(1203)를 통해 식별되어 획득되는 이미지의 배율을 의미할 수 있다. 또한, 카메라(1203)의 줌을 줌인 및 줌아웃하는 것은 디지털 줌(digital zoom)을 의미할 수 있다.
전자 장치(1250)는 카메라(1203)의 줌을 줌인(zoom-in) 및 줌아웃(zoom-out)함으로써 실질적으로 카메라(1203)의 FoV를 변경할 수 있다. 예를 들어, 카메라(1203)의 기본 상태에서 획득되는 이미지의 배율을 1.0x이라 가정할 때, 전자 장치(1250)는 줌인을 통해 이미지의 배율을 확대(1.0x 초과)하거나 줌아웃을 통해 이미지의 배율을 축소(1.0x 미만)할 수 있다. 줌인을 하는 경우, 카메라(1203)를 통해 획득되는 이미지의 영역이 좁아지는 바 카메라(1203)의 FoV는 실질적으로 감소될 수 있다. 줌아웃을 하는 경우, 카메라(1203)를 통해 획득되는 이미지의 영역이 넓어지는 바 카메라(1203)의 FoV는 실질적으로 증가할 수 있다.
전자 장치(1250)는 카메라(1203)의 줌인 또는 줌아웃에 대한 명령이 트리거(trigger)되는지 여부를 식별할 수 있다. 전자 장치(1250)는 상기 명령이 트리거되는 것을 식별함에 따라, 수신 안테나(1205)의 구성을 달리하여 신호를 수신할 수 있다. 예를 들어, 카메라(1203)의 줌에 대한 줌아웃을 수행하라는 명령을 식별하는 경우, 전자 장치(1250)는 비교적 넓은 카메라의 FoV와 대응하여 하나의 안테나 엘리먼트(1205-3)만을 수신 안테나(1205)로 동작하도록 구성할 수 있고, 전자 장치(1250)는 안테나 엘리먼트(1205-3)를 통해 신호를 수신할 수 있다. 이와 달리, 카메라(1203)의 줌에 대한 줌인을 수행하라는 명령을 식별하는 경우, 전자 장치(1250)는 비교적 좁은 카메라의 FoV와 대응하여 안테나 엘리먼트들(1205-4)을 수신 안테나(1205)로 동작하도록 구성할 수 있고, 전자 장치(1250)는 안테나 엘리먼트들(1205-4)을 통해 신호를 수신할 수 있다. 상기와 같이 전자 장치(1250)가 카메라(1203)의 줌인 줌아웃 명령이 트리거되는지 여부를 식별하는 동작은, 도 5의 동작(501) 이전에 수행될 수 있다.
도 13은 본 개시의 실시예에 따른 레이더(radar) 데이터에 기반한 오토 포커싱 알고리즘(auto focusing algorithm)에 대한 예를 도시하는 흐름도이다. 도 13의 오토 포커싱 알고리즘은, 카메라의 초점을 자동으로 조정하기 위한 알고리즘으로, 본 개시의 전자 장치(예: 전자 장치(101)) 또는 전자 장치(101)의 적어도 하나의 프로세서(processor)(예: 프로세서(120))에 의해 수행될 수 있다. 이하, AF(auto focus)는 카메라의 초점(또는 초점 거리)을 의미할 수 있다.
도 13을 참고하면, 전자 장치(101)는 카메라와 관련된 어플리케이션(application)이 실행됨을 식별할 수 있다.
동작(1301)에서, 전자 장치(101)는 카메라의 FoV 내의 물체 이동을 감지함에 따라 오토 포커스(또는 오토 포커싱) 알고리즘을 작동할 수 있다.
동작(1303)에서, 전자 장치(101)는 물체의 거리에 대응하도록 AF를 조정하고, 콘트라스트 피크(contrast peak)인지 여부를 식별할 수 있다. 동작(1303)에서 전자 장치는 거리에 대한 정보들에 기반하여 콘트라스트 피크인지 여부를 식별할 수 있다. 거리에 대한 정보는, 광각 카메라(wide camera)의 2PDAF(dual pixel-phase detection auto focus) 또는 이산형 PD data(discrete phase detection data)를 포함할 수 있다. 또한, 거리에 대한 정보는 전자 장치의 레이더 데이터(1303-1)를 포함할 수 있다. 레이더 데이터(1303-1)는 레이더(또는, 안테나)에 의해 식별된 전자 장치로부터 물체까지의 거리에 대한 정보를 포함할 수 있다. 콘트라스트 피크는 콘트라스트가 최대 레벨(level)인 지점을 의미한다. 콘트라스트 피크에 기반하여 오토 포커싱을 수행하는 것은 카메라의 렌즈를 통해 들어온 빛에 기반하여 분석하기 위함이다. 이는, 카메라의 렌즈를 통과한 빛이 최대 대비를 보이는 경우, 콘트라스트 레벨이 높아지고, 카메라의 초점이 가장 정확하게 조정되기 때문이다.
동작(1303)에서 전자 장치(101)가 콘트라스트 피크임을 식별하는 경우, 동작(1305)으로 진입하여 AF 위치(position)를 유지할 수 있다. 이 후, 물체의 이동을 감지하는 경우 동작(1301)을 수행할 수 있다. 동작(1303)에서 전자 장치(101)가 콘트라스트 피크가 아닌 것을 식별하는 경우, 동작(1307)으로 진입할 수 있다.
동작(1307)에서, 전자 장치(101)는 위상 검출(phase detection) 차이에 기반하여, AF 위치의 이동 방향을 식별할 수 있다. 전자 장치(101)는 카메라의 렌즈들을 통해 들어오는 서로 다른 빛의 위상 차이를 검출하여 AF 위치의 이동 방향을 식별할 수 있다. 이후, 동작(1309)에서, 전자 장치(101)는 식별된 AF 위치 이동 방향에 기반하여 AF를 조정할 수 있고, 콘트라스트 피크인지 여부를 식별할 수 있다. 동작(1309)에서 전자 장치(101)가 콘트라스트 피크가 아닌 것을 식별하는 경우, 동작(1311)로 진입할 수 있다. 동작(1311)에서, 전자 장치(101)는 AF 위치를 추가적으로 이동할 수 있고, 다시 동작(1307)에 진입하여 위상 검출 차이에 기반하여 AF 위치 이동 방향을 식별할 수 있다. 동작(1309)에서 전자 장치(101)가 콘트라스트 피크임을 식별하는 경우, 전자 장치(101)는 동작(1313)으로 진입하여 AF 위치(position)를 유지할 수 있다. 이후, 전자 장치(101)는 물체의 이동을 감지하는 경우 동작(1301)을 수행할 수 있다.
도 1 내지 도8, 도 9a, 도 9b, 도 10, 도 11, 도12a, 도 12b 및 도 13을 참고하면, 본 개시의 실시예들에 따른 복수의 안테나들을 포함하는 장치 및 방법은, 카메라의 초점을 정교하게 조정하기 위한 기술을 개시한다. 카메라의 초점을 조정함에 있어서, 전자 장치는 레이더 기능을 수행하는 안테나의 안테나 엘리먼트 개수를 달리 구성할 수 있다. 이에 따라, 전자 장치는 안테나에 의해 형성되는 빔의 폭(또는, 빔의 커버리지, 레이더의 FoV(field of view))을 카메라의 FoV와 대응하는 값으로 조정할 수 있다. 전자 장치는 식별된 안테나 엘리먼트 개수에 따라 송수신 된 신호를 통해 물체 까지의 거리를 측정 및 계산하고, 식별된 거리에 기반하여 카메라의 초점 거리를 조정할 수 있다. 전자 장치는, 초점 거리가 조정된 카메라를 통해 카메라의 FoV 내의 외부 물체를 포함하는 선명한 이미지를 획득할 수 있다. 따라서, 본 개시의 실시예들에 따른 복수의 안테나들을 포함하는 장치 및 방법에 따를 때, 별도의 거리를 측정할 수 있는 센서(예: Lidar, ToF 센서 등)를 포함하는 장치 및 방법 또는 레인징 센서(ranging sensor)를 포함하는 장치 및 방법과 비교하여, 별도의 실장 공간이 요구되지 않는다. 또한, 추가적인 부품이 요구되지 않아 제작 공정이 단순화되고 생산 비용이 감소할 수 있다.
상술한 바와 같은, 전자 장치(electronic device)(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)는 제1 안테나 엘리먼트(antenna element)(401)를 포함할 수 있다. 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)는 서로 이격된 복수의 제2 안테나 엘리먼트들을 포함하는 어레이 안테나(array antenna)(405)를 포함할 수 있다. 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)는 카메라(camera)(403)를 포함할 수 있다. 전자 장치는 상기 제1 안테나 엘리먼트(401), 상기 어레이 안테나(405) 및 상기 카메라(403)와 연결된(coupled) 프로세서(processor)(120)를 포함할 수 있다. 상기 프로세서(120)는 상기 카메라(403)의 FoV(field of view)를 식별하도록 구성될 수 있다(501). 상기 프로세서(120)는 제1 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들(405) 중 제1 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트(401)를 이용하여 상기 FoV 내의 외부 객체로부터의 거리를 식별하도록 구성될 수 있다(503). 상기 프로세서(120)는 상기 제1 값과 다른 제2 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들(405) 중 제2 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트(401)를 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하도록 구성될 수 있다(503). 상기 프로세서(120)는 상기 식별된 거리에 기반하여 상기 카메라(403)의 초점(focus) 거리를 조정(adjust)하도록 구성될 수 있다(505). 상기 프로세서(120)는 상기 조정된 초점 거리를 가지는 상기 카메라(403)를 통해 상기 외부 객체에 대한 이미지를 획득하도록 구성될 수 있다(507).
일 실시예에 따르면, 상기 제1 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제1 빔의 제1 커버리지(coverage) 및 상기 제1 안테나 엘리먼트(401)에 기반하여 형성되는 제2 빔의 제2 커버리지가 중첩되는 제1 영역 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제3 빔의 제3 커버리지 및 상기 제1 안테나 엘리먼트(401)에 기반하여 형성되는 상기 제2 빔의 상기 제2 커버리지가 중첩되는 제2 영역 중 적어도 하나는 상기 FoV와 대응할 수 있다.
일 실시예에 따르면, 상기 제1 안테나 엘리먼트(401) 및 상기 복수의 제2 안테나 엘리먼트들(405) 각각은 상기 카메라(403)의 중심을 지나는 가상의 선을 따라(along) 배치될 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는 상기 카메라(403)와 상기 제1 안테나 엘리먼트(401) 사이의 거리에 대한 제1 정보, 상기 카메라(403)와 상기 제1 세트의 적어도 하나의 안테나 엘리먼트 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트 사이의 거리에 대한 제2 정보, 및 상기 카메라(403)로부터 상기 외부 객체로의 제1 AoA(arrival of angle), 상기 제1 세트 적어도 하나의 안테나 엘리먼트 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트로부터 상기 외부 객체로의 제2 AoA에 기반하여 상기 식별된 거리를 보정하도록 더 구성될 수 있다.
일 실시예에 따르면, 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)는 디스플레이를 더 포함할 수 있다. 상기 제1 안테나 엘리먼트(401), 상기 카메라(403) 및 상기 어레이 안테나(405)는 상기 디스플레이의 일 면에 배치될 수 있다. 상기 제1 안테나 엘리먼트(401) 및 상기 복수의 제2 안테나 엘리먼트들(405) 각각은 매쉬(mesh) 패턴으로 구성될 수 있다.
일 실시예에 따르면, 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)는 디스플레이를 더 포함할 수 있다. 상기 제1 안테나 엘리먼트(401) 및 상기 복수의 제2 안테나 엘리먼트들(405) 각각은 상기 디스플레이가 배치되는 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)의 일 면과 반대되는 면에 배치되는 UWB(ultra-wideband) 모듈(module)로 구성될 수 있다.
일 실시예에 따르면, 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)는 디스플레이를 더 포함할 수 있다. 상기 카메라(403)는 상기 디스플레이의 하부면에 배치되는 UDC(under display camera)로 구성될 수 있다. 상기 제1 안테나 엘리먼트(401)의 적어도 일부가 상기 카메라(403)와 중첩되도록 배치될 수 있다. 상기 복수의 제2 안테나 엘리먼트들(405)의 적어도 일부가 상기 카메라(403)와 중첩되도록 배치될 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는 상기 복수의 제2 안테나 엘리먼트들(405)에 의해 형성가능한 빔들 각각의 커버리지(coverage)가 상기 카메라의 FoV 보다 작은지 여부를 식별하도록 더 구성될 수 있다. 상기 프로세서(120)는, 상기 빔들 각각의 커버리지가 상기 카메라(403)의 FoV 보다 작은 경우, 상기 빔들 및 상기 제1 안테나 엘리먼트(401)에 의해 형성되는 빔을 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하도록 더 구성될 수 있다.
일 실시예에 따르면, 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)는, 상기 어레이 안테나(405)와 다른 어레이 안테나(801)를 더 포함할 수 있다. 상기 제1 안테나 엘리먼트(401)는 상기 다른 어레이 안테나(801)에 포함될 수 있다. 상기 제1 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제1 빔의 제1 커버리지(coverage) 및 상기 다른 어레이 안테나(801)에 기반하여 형성되는 제4 빔의 제4 커버리지가 중첩되는 영역은 상기 카메라(403)의 FoV와 대응할 수 있다.
일 실시예에 따르면, 상기 카메라(403)의 FoV는 수평 성분에 대한 제1 FoV 및 수직 성분에 대한 제2 FoV를 포함할 수 있다. 상기 어레이 안테나(405)의 배열(array)은 상기 제1 FoV 및 상기 제2 FoV에 기반하여 결정될 수 있다.
일 실시예에 따르면, 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)는, 상기 카메라(403, 1203-1)를 포함하는 복수의 카메라들(1203-1, 1203-2)을 포함할 수 있다. 상기 복수의 카메라들(1203-1, 1203-2) 중 다른(another) 카메라(1203-2)의 FoV은 상기 카메라(403, 1203-1)의 FoV 보다 작을 수 있다. 상기 프로세서(120)는 상기 카메라(1203-1) 또는 상기 다른 카메라(1203-2)가 동작하는지 여부를 식별하도록 더 구성될 수 있다. 상기 프로세서(120)는 상기 다른 카메라(1203-2)가 동작하는 것을 식별하는 경우, 상기 다른 카메라(1203-2)의 FoV에 기반하여 상기 복수의 제2 안테나 엘리먼트들(405) 중 제3 세트의 적어도 하나의 안테나 엘리먼트(1205-2) 및 상기 제1 안테나 엘리먼트(401, 1201)를 이용하여 상기 다른 카메라(1203-2)의 FoV 내의 상기 외부 객체로부터의 거리를 식별하도록 더 구성될 수 있다.
일 실시예에 따르면, 상기 카메라(403, 1203)를 통해 획득되는 이미지의 배율이 제1 배율인 경우, 상기 카메라(403, 1203)의 FoV는 상기 제1 값을 가질 수 있다. 상기 카메라(403, 1203)를 통해 획득되는 이미지의 배율이 상기 제1 배율과 다른 제2 배율인 경우, 상기 카메라(403, 1203)의 FoV는 상기 제2 값을 가질 수 있다.
상술한 바와 같은, 전자 장치(electronic device)(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)에 의해 수행되는 방법은 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)의 카메라(403)의 FoV(field of view)를 식별하는 동작(501)을 포함할 수 있다. 상기 방법은 제1 값인 상기 FoV에 기반하여, 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)의 어레이 안테나(405) 내의 복수의 제2 안테나 엘리먼트들(405) 중 제1 세트의 적어도 하나의 안테나 엘리먼트 및 제1 안테나 엘리먼트(401)를 이용하여 상기 FoV 내의 외부 객체로부터의 거리를 식별하는 동작(503)을 포함할 수 있다. 상기 방법은 상기 제1 값과 다른 제2 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들(405) 중 제2 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트(401)를 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하는 동작(503)을 포함할 수 있다. 상기 방법은 상기 식별된 거리에 기반하여 상기 카메라(403)의 초점(focus) 거리를 조정(adjust)하는 동작(505)을 포함할 수 있다. 상기 방법은 상기 조정된 초점 거리를 가지는 상기 카메라(403)를 통해 상기 외부 객체에 대한 이미지를 획득하는 동작(507)을 포함할 수 있다.
일 실시예에 따르면, 상기 제1 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제1 빔의 제1 커버리지(coverage) 및 상기 제1 안테나 엘리먼트(401)에 기반하여 형성되는 제2 빔의 제2 커버리지가 중첩되는 제1 영역 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제3 빔의 제3 커버리지 및 상기 제1 안테나 엘리먼트(401)에 기반하여 형성되는 상기 제2 빔의 상기 제2 커버리지가 중첩되는 제2 영역 중 적어도 하나는 상기 FoV와 대응할 수 있다.
일 실시예에 따르면, 상기 제1 안테나 엘리먼트(401) 및 상기 복수의 제2 안테나 엘리먼트들(405) 각각은 상기 카메라의 중심을 지나는 가상의 선을 따라(along) 배치될 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 카메라(403)와 상기 제1 안테나 엘리먼트(401) 사이의 거리에 대한 제1 정보, 상기 카메라(403)와 상기 제1 세트의 적어도 하나의 안테나 엘리먼트 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트 사이의 거리에 대한 제2 정보, 및 상기 카메라(403)로부터 상기 외부 객체로의 제1 AoA(arrival of angle), 상기 제1 세트 적어도 하나의 안테나 엘리먼트 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트 사이와 상기 외부 객체로의 제2 AoA에 기반하여 상기 식별된 거리를 보정하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 복수의 제2 안테나 엘리먼트들(405)에 의해 형성가능한 빔들 각각의 커버리지(coverage)가 상기 카메라(403)의 FoV 보다 작은지 여부를 식별하는 동작을 더 포함할 수 있다. 상기 방법은 상기 빔들 각각의 커버리지가 상기 카메라(403)의 FoV의 값보다 작은 경우, 상기 빔들 및 상기 제1 안테나 엘리먼트(401)에 의해 형성되는 빔을 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 카메라(403)의 FoV는 수평 성분에 대한 제1 FoV 및 수직 성분에 대한 제2 FoV를 포함할 수 있다. 상기 어레이 안테나(405)의 배열(array)은 상기 제1 FoV 및 상기 제2 FoV에 기반하여 결정될 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)에 포함되는 복수의 카메라들(1203-1, 1203-2) 중 상기 카메라(403, 1203-1) 또는 다른(another) 카메라(1203-2)가 동작하는지 여부를 식별하는 동작을 더 포함할 수 있다. 상기 방법은 상기 다른 카메라(1203-2)가 동작하는 것을 식별하는 경우, 상기 다른 카메라(1203-2)의 FoV에 기반하여 상기 복수의 제2 안테나 엘리먼트들(405) 중 제3 세트의 적어도 하나의 안테나 엘리먼트(1205-2) 및 상기 제1 안테나 엘리먼트(401, 1201)를 이용하여 상기 다른 카메라(1203-2)의 FoV 내의 상기 외부 객체로부터의 거리를 식별하는 동작을 더 포함할 수 있다. 상기 다른 카메라(1203-2)의 FoV은 상기 카메라(403, 1203-1)의 FoV 보다 작은 값으로 형성될 수 있다.
일 실시예에 따르면, 상기 카메라(403, 1203)를 통해 획득되는 이미지의 배율이 제1 배율인 경우, 상기 카메라(403, 1203)의 FoV는 상기 제1 값을 가질 수 있다. 상기 카메라(403, 1203)를 통해 획득되는 이미지의 배율이 상기 제1 배율과 다른 제2 배율인 경우, 상기 카메라(403, 1203)의 FoV는 상기 제2 값을 가질 수 있다.
본 문서에 개시된 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
본 개시의 다양한 실시예들을 참조하여 도시되고 설명되었으나, 청구범위 및 그 등가물에 의해 정의되는 본 개시의 사상 및 범위를 벗어나지 않고 형태 및 세부사항들에 있어서 다양한 변경들이 이루어질 수 있음을 당업자는 이해할 것이다.

Claims (15)

  1. 전자 장치(electronic device)(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)에 있어서,
    제1 안테나 엘리먼트(antenna element)(401);
    서로 이격된 복수의 제2 안테나 엘리먼트들을 포함하는 어레이 안테나(array antenna)(405);
    카메라(camera)(403); 및
    상기 제1 안테나 엘리먼트(401), 상기 어레이 안테나(405) 및 상기 카메라(403)와 연결된(coupled) 프로세서(processor)(120)를 포함하고,
    상기 프로세서(120)는:
    상기 카메라(403)의 FoV(field of view)를 식별하고(501),
    제1 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들(405) 중 제1 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트(401)를 이용하여 상기 FoV 내의 외부 객체로부터의 거리를 식별하고(503),
    상기 제1 값과 다른 제2 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들(405) 중 제2 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트(401)를 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하고(503),
    상기 식별된 거리에 기반하여 상기 카메라(403)의 초점(focus) 거리를 조정(adjust)하고(505), 및
    상기 조정된 초점 거리를 가지는 상기 카메라(403)를 통해 상기 외부 객체에 대한 이미지를 획득하도록(507), 구성되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  2. 청구항 1에 있어서,
    상기 제1 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제1 빔의 제1 커버리지(coverage) 및 상기 제1 안테나 엘리먼트(401)에 기반하여 형성되는 제2 빔의 제2 커버리지가 중첩되는 제1 영역 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제3 빔의 제3 커버리지 및 상기 제1 안테나 엘리먼트(401)에 기반하여 형성되는 상기 제2 빔의 상기 제2 커버리지가 중첩되는 제2 영역 중 적어도 하나는 상기 FoV와 대응하는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  3. 청구항 1에 있어서,
    상기 제1 안테나 엘리먼트(401) 및 상기 복수의 제2 안테나 엘리먼트들(405) 각각은 상기 카메라(403)의 중심을 지나는 가상의 선을 따라(along) 배치되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  4. 청구항 1에 있어서,
    상기 프로세서(120)는:
    상기 카메라(403)와 상기 제1 안테나 엘리먼트(401) 사이의 거리에 대한 제1 정보, 상기 카메라(403)와 상기 제1 세트의 적어도 하나의 안테나 엘리먼트 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트 사이의 거리에 대한 제2 정보, 상기 카메라(403)로부터 상기 외부 객체로의 제1 AoA(arrival of angle), 및 상기 제1 세트 적어도 하나의 안테나 엘리먼트 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트로부터 상기 외부 객체로의 제2 AoA에 기반하여 상기 식별된 거리를 보정하도록, 더 구성되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  5. 청구항 1에 있어서,
    디스플레이를 더 포함하고,
    상기 제1 안테나 엘리먼트(401), 상기 카메라(403) 및 상기 어레이 안테나(405)는 상기 디스플레이의 일 면에 배치되고,
    상기 제1 안테나 엘리먼트(401) 및 상기 복수의 제2 안테나 엘리먼트들(405) 각각은 매쉬(mesh) 패턴으로 구성되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  6. 청구항 1에 있어서,
    디스플레이를 더 포함하고,
    상기 제1 안테나 엘리먼트(401) 및 상기 복수의 제2 안테나 엘리먼트들(405) 각각은 상기 디스플레이가 배치되는 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)의 일 면과 반대되는 면에 배치되는 UWB(ultra-wideband) 모듈(module)로 구성되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  7. 청구항 1에 있어서,
    디스플레이를 더 포함하고,
    상기 카메라(403)는 상기 디스플레이의 하부면에 배치되는 UDC(under display camera)로 구성되고, 및
    상기 제1 안테나 엘리먼트(401)의 적어도 일부가 상기 카메라(403)와 중첩되도록 배치되거나, 상기 복수의 제2 안테나 엘리먼트들(405)의 적어도 일부가 상기 카메라(403)와 중첩되도록 배치되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  8. 청구항 1에 있어서,
    상기 프로세서(120)는:
    상기 복수의 제2 안테나 엘리먼트들(405)에 의해 형성가능한 빔들 각각의 커버리지(coverage)가 상기 카메라의 FoV 보다 작은지 여부를 식별하고,
    상기 빔들 각각의 커버리지가 상기 카메라(403)의 FoV 보다 작은 경우, 상기 빔들 및 상기 제1 안테나 엘리먼트(401)에 의해 형성되는 빔을 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하도록, 더 구성되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  9. 청구항 1에 있어서,
    상기 어레이 안테나(405)와 다른 어레이 안테나(801)를 더 포함하고,
    상기 제1 안테나 엘리먼트(401)는 상기 다른 어레이 안테나(801)에 포함되고, 및
    상기 제1 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제1 빔의 제1 커버리지(coverage) 및 상기 다른 안테나 어레이(801)에 기반하여 형성되는 제4 빔의 제4 커버리지가 중첩되는 영역은 상기 카메라(403)의 FoV와 대응하는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  10. 청구항 1에 있어서,
    상기 카메라(403)의 FoV는 수평 성분에 대한 제1 FoV 및 수직 성분에 대한 제2 FoV를 포함하고, 및
    상기 어레이 안테나(405)의 배열(array)은 상기 제1 FoV 및 상기 제2 FoV에 기반하여 결정되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  11. 청구항 1에 있어서,
    상기 카메라(403, 1203-1)를 포함하는 복수의 카메라들(1203-1, 1203-2)을 포함하고,
    상기 복수의 카메라들(1203-1, 1203-2) 중 다른(another) 카메라(1203-2)의 FoV는 상기 카메라(403, 1203-1)의 FoV 보다 작고,
    상기 프로세서(120)는:
    상기 카메라(1203-1) 또는 상기 다른 카메라(1203-2)가 동작하는지 여부를 식별하고;
    상기 다른 카메라(1203-2)가 동작하는 것을 식별하는 경우, 상기 다른 카메라(1203-2)의 FoV에 기반하여 상기 복수의 제2 안테나 엘리먼트들(405) 중 제3 세트의 적어도 하나의 안테나 엘리먼트(1205-2) 및 상기 제1 안테나 엘리먼트(401, 1201)를 이용하여 상기 다른 카메라(1203-2)의 FoV 내의 상기 외부 객체로부터의 거리를 식별하도록, 더 구성되는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  12. 청구항 1에 있어서,
    상기 카메라(403, 1203)를 통해 획득되는 이미지의 배율이 제1 배율인 경우, 상기 카메라(403, 1203)의 FoV는 상기 제1 값을 가지고,
    상기 카메라(403, 1203)를 통해 획득되는 이미지의 배율이 상기 제1 배율과 다른 제2 배율인 경우, 상기 카메라(403, 1203)의 FoV는 상기 제2 값을 갖는,
    전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250).
  13. 전자 장치(electronic device)(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)에 의해 수행되는 방법에 있어서,
    상기 방법은:
    상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)의 카메라(403)의 FoV(field of view)를 식별하는 동작(501);
    제1 값인 상기 FoV에 기반하여, 상기 전자 장치(101, 400, 450, 700, 750, 800, 900, 950, 1000, 1100, 1200, 1250)의 어레이 안테나(405) 내의 복수의 제2 안테나 엘리먼트들(405) 중 제1 세트의 적어도 하나의 안테나 엘리먼트 및 제1 안테나 엘리먼트(401)를 이용하여 상기 FoV 내의 외부 객체로부터의 거리를 식별하는 동작;
    상기 제1 값과 다른 제2 값인 상기 FoV에 기반하여, 상기 복수의 제2 안테나 엘리먼트들(405) 중 제2 세트의 적어도 하나의 안테나 엘리먼트 및 상기 제1 안테나 엘리먼트(401)를 이용하여 상기 FoV 내의 상기 외부 객체로부터의 거리를 식별하는 동작; 및
    상기 식별된 거리에 기반하여 상기 카메라(403)의 초점(focus) 거리를 조정(adjust)하는 동작; 및
    상기 조정된 초점 거리를 가지는 상기 카메라(403)를 통해 상기 외부 객체에 대한 이미지를 획득하는 동작을 포함하는,
    방법.
  14. 청구항 13에 있어서,
    상기 제1 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제1 빔의 제1 커버리지(coverage) 및 상기 제1 안테나 엘리먼트(401)에 기반하여 형성되는 제2 빔의 제2 커버리지가 중첩되는 제1 영역 또는 상기 제2 세트의 적어도 하나의 안테나 엘리먼트에 기반하여 형성되는 제3 빔의 제3 커버리지 및 상기 제1 안테나 엘리먼트(401)에 기반하여 형성되는 상기 제2 빔의 상기 제2 커버리지가 중첩되는 영역 중 적어도 하나는 상기 FoV와 대응하는,
    방법.
  15. 청구항 13에 있어서,
    상기 제1 안테나 엘리먼트(401) 및 상기 복수의 제2 안테나 엘리먼트들(405) 각각은 상기 카메라의 중심을 지나는 가상의 선을 따라(along) 배치되는,
    방법.
PCT/KR2023/014579 2022-09-23 2023-09-22 카메라의 초점을 조정하기 위한 안테나를 포함하는 전자 장치 및 방법 WO2024063622A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/474,674 US20240114240A1 (en) 2022-09-23 2023-09-26 Electronic device and method including antenna for adjusting focus of camera

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0121217 2022-09-23
KR20220121217 2022-09-23
KR1020220160956A KR20240041786A (ko) 2022-09-23 2022-11-25 카메라의 초점을 조정하기 위한 안테나를 포함하는 전자 장치 및 방법
KR10-2022-0160956 2022-11-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/474,674 Continuation US20240114240A1 (en) 2022-09-23 2023-09-26 Electronic device and method including antenna for adjusting focus of camera

Publications (1)

Publication Number Publication Date
WO2024063622A1 true WO2024063622A1 (ko) 2024-03-28

Family

ID=90455049

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/014579 WO2024063622A1 (ko) 2022-09-23 2023-09-22 카메라의 초점을 조정하기 위한 안테나를 포함하는 전자 장치 및 방법

Country Status (2)

Country Link
US (1) US20240114240A1 (ko)
WO (1) WO2024063622A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180061993A (ko) * 2016-11-30 2018-06-08 (주)스마트레이더시스템 이동수단 영상 처리 방법 및 장치
KR20200042020A (ko) * 2017-10-02 2020-04-22 레이아 인코포레이티드 공유 카메라를 구비하는 카메라 서브-어레이들을 갖는 멀티뷰 카메라 어레이, 멀티뷰 시스템, 및 방법
KR20210048959A (ko) * 2019-10-24 2021-05-04 삼성전자주식회사 안테나를 포함하는 전자 장치
JP2022511815A (ja) * 2018-12-05 2022-02-01 テレフオンアクチーボラゲット エルエム エリクソン(パブル) オブジェクトターゲッティング
KR20220023237A (ko) * 2020-08-20 2022-03-02 (주)오투원스 이동 물체를 고속으로 추적하고 예측하여 고품질의 영상을 지속적으로 제공하는 카메라의 고속 줌과 포커싱을 위한 장치 및 이를 이용한 카메라의 고속 줌과 포커싱 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180061993A (ko) * 2016-11-30 2018-06-08 (주)스마트레이더시스템 이동수단 영상 처리 방법 및 장치
KR20200042020A (ko) * 2017-10-02 2020-04-22 레이아 인코포레이티드 공유 카메라를 구비하는 카메라 서브-어레이들을 갖는 멀티뷰 카메라 어레이, 멀티뷰 시스템, 및 방법
JP2022511815A (ja) * 2018-12-05 2022-02-01 テレフオンアクチーボラゲット エルエム エリクソン(パブル) オブジェクトターゲッティング
KR20210048959A (ko) * 2019-10-24 2021-05-04 삼성전자주식회사 안테나를 포함하는 전자 장치
KR20220023237A (ko) * 2020-08-20 2022-03-02 (주)오투원스 이동 물체를 고속으로 추적하고 예측하여 고품질의 영상을 지속적으로 제공하는 카메라의 고속 줌과 포커싱을 위한 장치 및 이를 이용한 카메라의 고속 줌과 포커싱 방법

Also Published As

Publication number Publication date
US20240114240A1 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
WO2021107604A1 (en) Electronic device including antenna that radiates waves by a non-conducting portion
WO2022030923A1 (ko) 도래각 데이터 획득 방법 및 이를 지원하는 전자 장치
WO2022154643A1 (ko) 안테나 및 이를 포함하는 전자 장치
WO2022086248A1 (ko) 줌 기능을 지원하는 전자 장치 및 방법
WO2024063622A1 (ko) 카메라의 초점을 조정하기 위한 안테나를 포함하는 전자 장치 및 방법
WO2022265242A1 (ko) 안테나 모듈 및 이를 포함하는 전자 장치, 및 전자 장치의 동작 방법
WO2022231113A1 (ko) 측위 통신을 지원하는 전자 장치
WO2022086074A1 (ko) 안테나 기반의 위치를 측정하는 방법 및 전자 장치
WO2023277298A1 (ko) 이미지 안정화 방법 및 이를 위한 전자 장치
WO2022149812A1 (ko) 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법
WO2022139164A1 (ko) 전자 장치 및 전자 장치에서 외부 장치들을 공간별로 그룹핑 하는 방법
WO2022065849A1 (ko) 무선 주파수 신호의 제약을 방지하기 위하여 배열된 복수의 안테나를 포함하는 전자 장치
WO2022119392A1 (ko) 안테나 모듈을 포함하는 전자 장치
WO2022045579A1 (ko) 외부 장치의 위치를 보정하기 위한 전자 장치 및 그의 동작 방법
WO2021251642A1 (ko) 카메라 모듈에 배치된 안테나 모듈을 포함하는 전자 장치
WO2022005049A1 (ko) 안테나 모듈 및 이를 포함하는 전자 장치
WO2022014880A1 (en) Antenna module and electronic device including the same
WO2022050591A1 (ko) 안테나 모듈과 동축 케이블을 포함하는 전자 장치
WO2022030898A1 (ko) 무선 통신을 이용한 측위 방법 및 이를 지원하는 전자 장치
WO2021261797A1 (ko) Uwb 안테나를 포함하는 전자 장치 및 방법
KR20240041786A (ko) 카메라의 초점을 조정하기 위한 안테나를 포함하는 전자 장치 및 방법
WO2024039016A1 (ko) 렌즈들을 포함하는 카메라 및 이를 포함하는 전자 장치
WO2023210940A1 (ko) 렌즈형 악세사리 착용에 따른 카메라 사용을 위한 전자 장치 및 방법
WO2022158797A1 (ko) 무선 통신 기반의 측위 방법 및 전자 장치
WO2023249231A1 (ko) 카메라를 포함하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23868673

Country of ref document: EP

Kind code of ref document: A1