WO2024076081A1 - 렌즈 어셈블리 및 이를 포함한 전자 장치 - Google Patents

렌즈 어셈블리 및 이를 포함한 전자 장치 Download PDF

Info

Publication number
WO2024076081A1
WO2024076081A1 PCT/KR2023/014804 KR2023014804W WO2024076081A1 WO 2024076081 A1 WO2024076081 A1 WO 2024076081A1 KR 2023014804 W KR2023014804 W KR 2023014804W WO 2024076081 A1 WO2024076081 A1 WO 2024076081A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
electronic device
lens assembly
image
module
Prior art date
Application number
PCT/KR2023/014804
Other languages
English (en)
French (fr)
Inventor
김한응
이환선
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220157380A external-priority patent/KR20240047267A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2024076081A1 publication Critical patent/WO2024076081A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/18Optical objectives specially designed for the purposes specified below with lenses having one or more non-spherical faces, e.g. for reducing geometrical aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/02Simple or compound lenses with non-spherical faces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B9/00Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or -
    • G02B9/62Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having six components only
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B9/00Exposure-making shutters; Diaphragms
    • G03B9/02Diaphragms

Definitions

  • Examples disclosed in this document relate to a wide-angle lens assembly in which the externally exposed area of the electronic device is reduced and an electronic device including the same.
  • Optical devices such as cameras capable of taking images or moving pictures, have been widely used.
  • film-type optical devices were the mainstay, but recently, digital cameras or video cameras with solid-state image sensors such as CCD (charge coupled device) or CMOS (complementary metal-oxide semiconductor) have been used. video cameras) are becoming widely available.
  • Optical devices employing solid-state image sensors are gradually replacing film-type optical devices because they are easier to store, copy, and move images than film-type optical devices.
  • the optical device may include an optical system consisting of a lens assembly comprised of a plurality of lenses and an image sensor with a high pixel count.
  • the lens assembly can obtain high quality (high resolution) images and/or videos by, for example, having a low F number (Fno) and low aberration.
  • Fno F number
  • the more pixels an image sensor contains, the higher the number of pixels, and an image sensor with a higher number of pixels can acquire high-resolution (higher-resolution) images and/or videos.
  • a high-pixel image sensor In order to implement a high-pixel image sensor in a limited mounting space within an electronic device, a plurality of pixels with very small sizes, for example, pixels in the micrometer unit, can be placed. Recently, image sensors containing tens to hundreds of millions of micrometer-scale pixels are being installed in portable electronic devices such as smartphones and tablets. Such high-performance optical devices can have the effect of enticing users to purchase electronic devices.
  • An electronic device may include a lens assembly, an image sensor including an image forming surface, and/or an optical member.
  • the lens assembly includes at least six lenses sequentially arranged along the optical axis in a direction from the object side to the image side, including a first lens, a second lens, a third lens, a fourth lens, a fifth lens, and/or a third lens. May contain 6 lenses.
  • the first lens may have positive refractive power.
  • the sixth lens may have positive refractive power.
  • the image side surface of the sixth lens may be concave.
  • the optical member may be disposed between the object side and the imaging surface.
  • the first lens may have a larger central thickness measured with respect to the optical axis than other lenses.
  • the distance between the optical member and the object-side surface of the second lens may be about 0.6 mm to about 1.4 mm.
  • the lens assembly can satisfy the following [Conditional Expression 1].
  • 'TTL' in [Conditional Expression 1] is the distance from the object side of the first lens to the imaging surface, 'IH' is half the diagonal length of the image sensor, and 'HFOV' is the lens assembly and It is half the angle of view of the entire optical system including the image sensor)
  • the lens assembly may include an image sensor and/or an aperture including at least six lens imaging surfaces sequentially arranged along the optical axis in a direction from the object side to the image side.
  • the at least six lenses may include a first lens, a second lens, a third lens, a fourth lens, a fifth lens, and/or a sixth lens.
  • the first lens may have positive refractive power.
  • the first lens may have a convex object-side surface.
  • the sixth lens may have positive refractive power.
  • the sixth lens may have a concave image side.
  • the aperture may be disposed between the object side and the first lens.
  • the first lens may have a larger central thickness measured with respect to the optical axis than other lenses.
  • the distance between the aperture and the object-side surface of the second lens may be about 0.6 mm to about 1.4 mm.
  • the lens assembly can satisfy the following [Conditional Expression 1].
  • 'TTL' in [Conditional Expression 1] is the distance from the object side of the first lens to the imaging surface, 'IH' is half the diagonal length of the image sensor, and 'HFOV' is the distance of the lens assembly. half angle of view)
  • FIG. 1 is a block diagram of an electronic device in a network environment according to an embodiment disclosed in this document.
  • FIG. 2 is a block diagram illustrating a camera module according to an embodiment disclosed in this document.
  • FIG. 3 is a front perspective view of an electronic device according to an embodiment disclosed in this document.
  • Figure 4 is a rear perspective view of an electronic device according to an embodiment disclosed in this document.
  • Figure 5 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • Figure 6 is a cross-sectional view showing a lens barrel and lens assembly, according to an embodiment disclosed in this document.
  • FIG. 7 is a graph showing spherical aberration of the lens assembly of FIG. 5 according to an embodiment disclosed in this document.
  • FIG. 8 is a graph showing astigmatism of the lens assembly of FIG. 5 according to an embodiment disclosed in this document.
  • FIG. 9 is a graph showing distortion aberration of the lens assembly of FIG. 5 according to an embodiment disclosed in this document.
  • Figure 10 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • FIG. 11 is a graph showing spherical aberration of the lens assembly of FIG. 10 according to an embodiment disclosed in this document.
  • FIG. 12 is a graph showing astigmatism of the lens assembly of FIG. 10 according to an embodiment disclosed in this document.
  • FIG. 13 is a graph showing distortion aberration of the lens assembly of FIG. 10 according to an embodiment disclosed in this document.
  • Figure 14 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • FIG. 15 is a graph showing spherical aberration of the lens assembly of FIG. 14 according to an embodiment disclosed in this document.
  • FIG. 16 is a graph showing astigmatism of the lens assembly of FIG. 14 according to an embodiment disclosed in this document.
  • FIG. 17 is a graph showing distortion aberration of the lens assembly of FIG. 14 according to an embodiment disclosed in this document.
  • Figure 18 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • FIG. 19 is a graph showing spherical aberration of the lens assembly of FIG. 18 according to an embodiment disclosed in this document.
  • FIG. 20 is a graph showing astigmatism of the lens assembly of FIG. 18 according to an embodiment disclosed in this document.
  • FIG. 21 is a graph showing distortion aberration of the lens assembly of FIG. 18 according to an embodiment disclosed in this document.
  • Figure 22 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • FIG. 23 is a graph showing spherical aberration of the lens assembly of FIG. 22 according to an embodiment disclosed in this document.
  • FIG. 24 is a graph showing astigmatism of the lens assembly of FIG. 22 according to an embodiment disclosed in this document.
  • FIG. 25 is a graph showing distortion aberration of the lens assembly of FIG. 22 according to an embodiment disclosed in this document.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to an embodiment disclosed in this document.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network).
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted, or one or more other components may be added to the electronic device 101.
  • some of these components are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores instructions or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores instructions or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 is a main processor 121 (e.g., a central processing unit or an application processor), or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit). (NPU; neural processing unit), image signal processor, sensor hub processor, or communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit). (NPU; neural processing unit), image signal processor, sensor hub processor, or communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g. : Sound can be output through the electronic device 102 (e.g., speaker or headphone).
  • an external electronic device e.g. : Sound can be output through the electronic device 102 (e.g., speaker or headphone).
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 to an external electronic device (eg, the electronic device 102) directly or wirelessly.
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module 190 is a direct (e.g., wired) communication channel or wireless communication channel between the electronic device 101 and an external electronic device (e.g., the electronic device 102, the electronic device 104, or the server 108). can support the establishment of and communication through established communication channels.
  • Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module 190 may be a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It can communicate with external electronic devices through telecommunication networks such as cellular networks, 5G networks, next-generation communication networks, the Internet, or computer networks (e.g., LAN or WAN).
  • telecommunication networks such as cellular networks, 5G networks, next-generation communication networks, the Internet, or computer networks (e.g., LAN or WAN).
  • telecommunication networks such as cellular networks, 5G networks, next-generation communication networks, the Internet, or computer networks (e.g., LAN or WAN).
  • telecommunication networks such as cellular networks, 5G networks, next-generation communication networks, the Internet, or computer networks (e.g., LAN or WAN).
  • LAN or WAN wide area network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobjile broadband)), minimizing terminal power and connecting multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for the communication method used in the communication network, such as the first network 198 or the second network 199, is connected to the plurality of antennas by, for example, the communication module 190. can be selected Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side)
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing, distributed computing, mobile edge computing (MEC) or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is a block diagram 200 illustrating a camera module 280 (eg, camera module 180 of FIG. 1 ) according to one embodiment of the present disclosure.
  • the camera module 280 includes a lens assembly 210, a flash 220, an image sensor 230, an image stabilizer 240, a memory 250 (e.g., buffer memory), or an image signal processor. It may include (260).
  • lens assembly 210 may include an image sensor 230.
  • the lens assembly 210 may collect light emitted from a subject that is the target of image capture.
  • Lens assembly 210 may include one or more lenses.
  • the camera module 280 may include a plurality of lens assemblies 210.
  • the camera module 280 may form, for example, a dual camera, a 360-degree camera, or a spherical camera.
  • Some of the plurality of lens assemblies 210 have the same lens properties (e.g., angle of view, focal length, autofocus, F-number, or optical zoom), or at least one lens assembly has different It may have one or more lens properties that are different from the lens properties of the lens assembly.
  • the lens assembly 210 may include, for example, a wide-angle lens or a telephoto lens.
  • the flash 220 may emit light used to enhance light emitted or reflected from a subject.
  • the flash 220 may include one or more light emitting diodes (eg, red-green-blue (RGB) LED, white LED, infrared LED, or ultraviolet LED), or a xenon lamp.
  • the image sensor 230 may acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly 210 into an electrical signal.
  • the image sensor 230 is one image sensor selected from among image sensors with different properties, such as an RGB sensor, a BW (black and white) sensor, an IR sensor, or a UV sensor, and the same It may include a plurality of image sensors having different properties, or a plurality of image sensors having different properties.
  • Each image sensor included in the image sensor 230 may be implemented using, for example, a charged coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor.
  • CCD charged coupled device
  • CMOS complementary metal oxide semiconductor
  • the image stabilizer 240 moves at least one lens or image sensor 230 included in the lens assembly 210 in a specific direction in response to the movement of the camera module 280 or the electronic device 201 including the same.
  • the operating characteristics of the image sensor 230 can be controlled (e.g., adjusting read-out timing, etc.). This allows to compensate for at least some of the negative effects of said movement on the image being captured.
  • the image stabilizer 240 uses a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 280 to stabilize the camera module 280 or an electronic device (e.g. : Such movement of the electronic device 101 in FIG. 1 can be detected.
  • the image stabilizer 240 may be implemented as, for example, an optical image stabilizer.
  • the memory 250 may at least temporarily store at least a portion of the image acquired through the image sensor 230 for the next image processing task. For example, when image acquisition is delayed due to the shutter or when multiple images are acquired at high speed, the acquired original image (e.g., Bayer-patterned image or high-resolution image) is stored in the memory 250. , the corresponding copy image (e.g., low resolution image) may be previewed through the display module 160 of FIG. 1. Thereafter, when a specified condition is satisfied (eg, user input or system command), at least a portion of the original image stored in the memory 250 may be obtained and processed, for example, by the image signal processor 260.
  • the memory 250 may be configured as at least a part of a memory (eg, memory 130 of FIG. 1) or as a separate memory that operates independently.
  • the image signal processor 260 may perform one or more image processes on an image acquired through the image sensor 230 or an image stored in the memory 250.
  • the one or more image processes may include, for example, depth map creation, three-dimensional modeling, panorama creation, feature point extraction, image compositing, or image compensation (e.g., noise reduction, resolution adjustment, brightness adjustment, blurring). may include blurring, sharpening, or softening.
  • the image signal processor 260 may include at least one of the components included in the camera module 280 (e.g., an image sensor). (230)) may perform control (e.g., exposure time control, read-out timing control, etc.).
  • the image processed by the image signal processor 260 is stored back in the memory 250 for further processing.
  • the image signal processor 260 may be configured as at least a part of a processor (e.g., the processor 120 of FIG. 1), or may be configured as a separate processor that operates independently of the processor 120.
  • the image signal processor 260 is configured as a separate processor from the processor 120, at least one image processed by the image signal processor 260 is displayed as is or after additional image processing by the processor 120. It may be displayed through module 160.
  • an electronic device may include a plurality of camera modules 280, each with different properties or functions.
  • at least one of the plurality of camera modules 280 may be a wide-angle camera and at least another one may be a telephoto camera.
  • at least one of the plurality of camera modules 280 may be a front camera, and at least another one may be a rear camera.
  • FIG 3 is a front perspective view of an electronic device according to an embodiment disclosed in this document.
  • Figure 4 is a rear perspective view of an electronic device according to an embodiment disclosed in this document.
  • the configuration of the electronic device 101 in FIGS. 3 and 4 may be the same in whole or in part as the configuration of the electronic device 101 in FIG. 1 .
  • FIG. 3 is a front perspective view of an electronic device, according to an embodiment disclosed in this document.
  • 4 is a rear perspective view of an electronic device, according to an embodiment disclosed in this document.
  • the electronic device 101 has a front side (310A), a back side (310B), and a side surface (310C) surrounding the space between the front side (310A) and the back side (310B).
  • ) may include a housing 310 including.
  • the housing 310 may refer to a structure that forms part of the front side 310A in FIG. 3, the back side 310B, and the side surfaces 310C in FIG. 4.
  • the front surface 310A may be formed at least in part by a substantially transparent front plate 302 (eg, a glass plate including various coating layers, or a polymer plate).
  • the rear 310B may be formed by the rear cover 311.
  • the rear cover 311 may be formed of, for example, glass, ceramic, polymer, metal (eg, aluminum, stainless steel (STS), or magnesium), or a combination of at least two of these materials.
  • the side 310C combines with the front plate 302 and the rear cover 311 and may be formed by a side bezel structure (or “sidewall”) 318 comprising metal and/or polymer.
  • the back cover 311 and the side bezel structure 318 may be integrally formed and include the same material (eg, glass, a metallic material such as aluminum, or ceramic).
  • the front plate 302 has two first edge regions 310D that are bent and seamlessly extended from the front surface 310A toward the rear cover 311. These may be included at both ends of the long edges of the front plate 302.
  • the rear cover 311 has two second edge regions 310E that are curved from the rear surface 310B toward the front plate 302 and extend seamlessly to form long edges. It can be included at both ends.
  • the front plate 302 (or the rear cover 311) may include only one of the first edge areas 310D (or the second edge areas 310E). In one embodiment, some of the first edge areas 310D or the second edge areas 310E may not be included.
  • the side bezel structure 318 when viewed from the side of the electronic device 101, has a side bezel structure that does not include the first edge regions 310D or the second edge regions 310E. It may have a first thickness (or width). For example, when viewed from the side of the electronic device 101, the side bezel structure 318 has the first thickness on the side including the first edge regions 310D or second edge regions 310E. It may have a thinner second thickness.
  • the electronic device 101 includes a display 301, audio modules 303, 307, and 314 (e.g., the audio module 170 in FIG. 1), and a sensor module (e.g., the sensor module in FIG. 1). (176)), camera modules 305, 312, 313 (e.g., camera module 180 in FIG. 1 and/or camera module 280 in FIG. 3), key input device 317 (e.g., in FIG. 1) It may include at least one of an input module 150) and connector holes 308 and 309 (e.g., connection terminal 178 of FIG. 1). In one embodiment, the electronic device 101 may omit at least one of the components (eg, the connector hole 309) or may additionally include another component.
  • the display 301 may be visually exposed, for example, through a significant portion of the front plate 302. In one embodiment, at least a portion of the display 301 may be visually exposed through the front plate 302 forming the front surface 310A and the first edge areas 310D. In one embodiment, the edges of the display 301 may be formed to be substantially the same as the adjacent outer shape of the front plate 302. In one embodiment (not shown), in order to expand the area to which the display 301 is visually exposed, the distance between the outer edge of the display 301 and the outer edge of the front plate 302 may be formed to be substantially the same.
  • the surface of the housing 310 may include a screen display area formed as the display 301 is visually exposed.
  • the screen display area may include a front surface 310A and first edge areas 310D.
  • a recess or opening is formed in a portion of the screen display area (e.g., front surface 310A, first edge area 310D) of the display 301, and the recess Alternatively, it may include at least one of an audio module 314, a sensor module (not shown), a light emitting element (not shown), and a camera module 305 that are aligned with the opening.
  • an audio module 314, a sensor module (not shown), a camera module 305, a fingerprint sensor (not shown), and a light emitting device are provided on the back of the screen display area of the display 301. It may include at least one element (not shown).
  • the display 301 is coupled to or adjacent to a touch detection circuit, a pressure sensor capable of measuring the intensity (pressure) of touch, and/or a digitizer that detects a magnetic field-type stylus pen. It can be placed like this.
  • a portion of the key input device 317 may be disposed in the first edge areas 310D and/or the second edge areas 310E.
  • the audio modules 303, 307, and 314 may include, for example, a microphone hole 303 and speaker holes 307 and 314.
  • a microphone for acquiring external sound may be placed inside the microphone hole 303, and in one embodiment, a plurality of microphones may be placed to detect the direction of the sound.
  • the speaker holes 307 and 314 may include an external speaker hole 307 and a receiver hole 314 for calls.
  • the speaker holes 307 and 314 and the microphone hole 303 may be implemented as one hole, or a speaker may be included without the speaker holes 307 and 314 (e.g., piezo speaker).
  • the audio modules 303, 307, and 314 are not limited to the above structure, and can be designed in various ways, such as installing only some audio modules or adding new audio modules, depending on the structure of the electronic device 101.
  • a sensor module may generate, for example, an electrical signal or data value corresponding to an internal operating state of the electronic device 101 or an external environmental state.
  • the sensor module may include, for example, a first sensor module (e.g., proximity sensor) and/or a second sensor module (e.g., fingerprint sensor) disposed on the front 310A of the housing 310, and/ Alternatively, it may include a third sensor module (eg, HRM sensor) and/or a fourth sensor module (eg, fingerprint sensor) disposed on the rear surface (310B) of the housing 310.
  • the fingerprint sensor may be disposed on the front 310A (eg, display 301) as well as the rear 310B of the housing 310.
  • the electronic device 101 includes sensor modules not shown, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, It may further include at least one of a humidity sensor or an illuminance sensor.
  • the sensor module is not limited to the above structure, and can be designed in various ways, such as installing only some sensor modules or adding a new sensor module, depending on the structure of the electronic device 101.
  • the camera modules 305, 312, and 313 include, for example, a front camera module 305 disposed on the front 310A of the electronic device 101, and a rear camera module 305 disposed on the rear 310B. It may include a camera module 312 and/or a flash 313 (eg, the flash 220 of FIG. 3).
  • the camera modules 305 and 312 include one or a plurality of lenses, an image sensor (e.g., the sensor module 176 of FIG. 1 and/or the image sensor 230 of FIG. 3), and/or an image signal processor ( Example: may include the image signal processor 260 of FIG. 3).
  • the flash 313 may include, for example, a light emitting diode or a xenon lamp.
  • two or more lenses an infrared camera, a wide-angle lens, and a telephoto lens
  • image sensors may be disposed on one side of the electronic device 101.
  • the camera modules 305, 312, and 313 are not limited to the above structure, and can be designed in various ways, such as installing only some camera modules or adding new camera modules, depending on the structure of the electronic device 101.
  • the electronic device 101 may include a plurality of camera modules (e.g., a dual camera or a triple camera) each having different properties (e.g., angle of view) or functions.
  • a plurality of camera modules 305 and 312 including lenses with different angles of view may be configured, and the electronic device 101 may perform a camera operation in the electronic device 101 based on the user's selection.
  • the angle of view of the modules 305 and 312 can be controlled to change.
  • at least one of the plurality of camera modules 305 and 312 may be a wide-angle camera, and at least another one may be a telephoto camera.
  • the plurality of camera modules 305 and 312 may be a front camera, and at least another one may be a rear camera. Additionally, the plurality of camera modules 305 and 312 may include at least one of a wide-angle camera, a telephoto camera, or an infrared (IR) camera (eg, a time of flight (TOF) camera or a structured light camera). According to one embodiment, the IR camera may operate as at least part of the sensor module. For example, the TOF camera may operate as at least part of a sensor module (not shown) to detect the distance to the subject.
  • IR infrared
  • TOF time of flight
  • the key input device 317 may be disposed on the side 310C of the housing 310.
  • the electronic device 101 may not include some or all of the above-mentioned key input devices 317 and the key input devices 317 not included may be displayed on the display 301, such as soft keys. It can be implemented in different forms.
  • the key input device may include a sensor module 316 disposed on the rear surface 310B of the housing 310.
  • a light emitting device may be disposed, for example, on the front surface 310A of the housing 310.
  • a light emitting device may provide status information of the electronic device 101 in the form of light.
  • a light emitting device may provide, for example, a light source linked to the operation of the front camera module 305.
  • Light-emitting devices may include, for example, LEDs, IR LEDs, and/or xenon lamps.
  • the connector holes 308 and 309 are, for example, a first connector hole that can accommodate a connector (for example, a USB connector) for transmitting and receiving power and/or data with an external electronic device.
  • a connector for example, a USB connector
  • 308 and/or may include a second connector hole 309 (eg, an earphone jack) capable of accommodating a connector for transmitting and receiving audio signals to and from an external electronic device.
  • some camera modules 305 among the camera modules 305 and 312, and/or some sensor modules among the sensor modules (not shown) are exposed to the outside through at least a portion of the display 301.
  • the camera module 305 may include a punch hole camera disposed inside a hole or recess formed on the back of the display 301.
  • the camera module 312 may be disposed inside the housing 310 so that the lens is exposed to the rear 310B of the electronic device 101.
  • the camera module 312 may be placed on a printed circuit board (eg, printed circuit board 340 in FIG. 4).
  • the camera module 305 and/or the sensor module are configured to be in contact with the external environment through a transparent area from the internal space of the electronic device 101 to the front plate 302 of the display 301. can be placed. Additionally, some sensor modules 304 may be arranged to perform their functions without being visually exposed through the front plate 302 in the internal space of the electronic device.
  • Figure 5 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • Figure 6 is a cross-sectional view showing a lens barrel and lens assembly, according to an embodiment disclosed in this document.
  • FIG. 7 is a graph showing spherical aberration of the lens assembly of FIG. 5 according to an embodiment disclosed in this document.
  • FIG. 8 is a graph showing astigmatism of the lens assembly of FIG. 5 according to an embodiment disclosed in this document.
  • FIG. 9 is a graph showing distortion aberration of the lens assembly of FIG. 5 according to an embodiment disclosed in this document.
  • Figure 7 is a graph showing the spherical aberration of the lens assembly 400 according to an embodiment of the present disclosure, where the horizontal axis represents the coefficient of longitudinal spherical aberration and the vertical axis represents the distance from the optical axis O. It is expressed through normalization and shows the change in longitudinal spherical aberration depending on the wavelength of light. Longitudinal spherical aberration, for example, is expressed for light with wavelengths of 656.2700 (NM, nanometer), 587.5600 (NM), 546.0700 (NM), 486.1300 (NM), and 435.8400 (NM), respectively.
  • Figure 8 is a graph showing astigmatic field curves of the lens assembly 400 according to an embodiment of the present disclosure, for light with a wavelength of 546.0700 (NM), and 'S' is a sagittal surface. plane), and 'T' illustrates the tangential plane.
  • FIG. 9 is a graph showing the distortion of the lens assembly 400 according to an embodiment of the present disclosure, for light with a wavelength of 546.0700 (NM).
  • a lens assembly 400 (e.g., lens assembly 210 of FIG. 2) according to one of various embodiments of the present disclosure includes an image sensor I (e.g., an image of FIG. 2). It may include a sensor 230), an aperture (sto), and/or a plurality of lenses (eg, at least 6 elements) (L1, L2, L3, L4, L5, L6).
  • the image sensor I includes an imaging surface (img) that receives at least a portion of the light incident through the aperture (sto) and/or focused through the lenses (L1, L2, L3, L4, L5, L6). can do.
  • the aperture sto, lenses L1, L2, L3, L4, L5, L6, and/or image sensor I may be substantially aligned on the optical axis O.
  • 'aligned on the optical axis (O)' means the image forming surface (img) of the image sensor (I) at the aperture (sto) and/or the lenses (L1, L2, L3, L4, L5, L6). It can be understood that the area through which light incident on ), or the imaging surface (img) of the image sensor (I), is aligned with the optical axis (O).
  • the aperture sto may be disposed between the object obj and the first lens L1, for example, on one side (e.g., the object side side S2) of the first lens L1. It can be implemented.
  • the lenses (L1, L2, L3, L4, L5, L6) are sequentially aligned along the optical axis (O) in the direction from the object (obj) toward the image sensor (I). ), a second lens (L2), a third lens (L3), a fourth lens (L4), a fifth lens (L5), and/or a sixth lens (L6).
  • the lenses (L1, L2, L3, L4, L5, L6) and/or the infrared cut-off filter (F) have an object side facing the object (obj) and an image facing the image sensor (I). (image) can include each side.
  • the first lens L1 may include an object side surface S2 and an image side surface S3.
  • the second lens L2 may include an object-side surface S4 and an image-side surface S5.
  • the third lens L3 may include an object side surface S7 and an image side surface S8.
  • the fourth lens L4 may include an object side surface S9 and an image side surface S10.
  • the fifth lens L5 may include an object side surface S11 and an image side surface S12.
  • the sixth lens L6 may include an object side surface S13 and an image side surface S14.
  • a portion of the object-side surface S2 of the first lens L1 may be exposed to the outside of the lens barrel through an opening of the lens barrel (e.g., the lens barrel 10 in FIG. 6). .
  • At least one of the lenses L1, L2, L3, L4, L5, and L6 is capable of reciprocating along the optical axis O direction, and is used in an electronic device (e.g., electronic device 101 in FIG. 1 and /or the electronic device 101 of FIGS. 3 and 4) or the processor (e.g., the processor 120 of FIG. 1) reciprocates at least one of the lenses (L1, L2, L3, L4, L5, and L6) By doing this, you can perform focus adjustment or focal distance adjustment.
  • the lens assembly 400 may be disposed in at least one of the camera module 305 in FIG. 3 and/or the camera modules 312 in FIG. 4.
  • the lens assembly 400 may further include an infrared cut-off filter (F).
  • the infrared cut-off filter (F) is not discernible to the user's naked eye, but can block light (e.g., infrared) in a wavelength band detected by the film or image sensor (I).
  • the infrared cut filter (F) may block infrared rays. It can be replaced with a band-pass filter that transmits and blocks visible light.
  • the infrared cut-off filter F may be replaced with a bandpass filter that transmits infrared rays.
  • the infrared cut-off filter (F) may include an object-side surface (S15) and an image-side surface (S16).
  • the infrared cut-off filter (F) and/or the image sensor (I) may be described as a separate component from the lens assembly 400.
  • the infrared cut-off filter (F) and/or the image sensor (I) may be an electronic device (e.g., the electronic device 101 of FIG. 1 and/or the electronic device 101 of FIGS. 3 and 4) or an optical device (e.g., Example: It may be mounted on the camera module 180 of FIG. 1, the camera module 280 of FIG. 2, and/or the camera modules 305, 312, and 313 of FIGS. 3 and 4, and forms the lens assembly 400.
  • a plurality of lenses (L1, L2, L3, L4, L5, L6) are aligned with the infrared cut-off filter (F) and/or the image sensor (I) along the optical axis (O) to the electronic device or the optical device. Can be installed.
  • an electronic device e.g., electronic device 101 of Figure 1 and/or electronic device 101 of Figures 3 and 4 and/or an optical device (e.g., camera module of Figure 1).
  • the camera module 280 of FIG. 2 and/or the camera modules 305, 312, and 313 of FIGS. 3 and 4) may include a lens barrel 10 and/or a film mask 11.
  • FIG. 6 may show a portion of the lens assembly 400 (eg, the first lens L1 and the second lens L2) disposed within the lens barrel 10.
  • the electronic device uses a front camera (e.g., first camera device 305 in Figure 3). It can be included.
  • the front camera 305 may be arranged to receive light through a camera exposure area.
  • the camera exposure area is at least a portion (e.g., under display camera (UDC) area) of the screen area of the display (e.g., the display module 160 in FIG. 1 or the display 301 in FIG. 3), the screen area.
  • UDC under display camera
  • the lens barrel 10 may be disposed inside a display (eg, the display module 160 of FIG. 1 or the display 301 of FIG. 3) of the electronic device.
  • the lens barrel 10 may receive light through a camera exposure area formed on the display.
  • At least one (e.g., the second lens (L2)) of the plurality of lenses (L1, L2, L3, L4, L5, L6) included in the lens assembly 400 is positioned at the starting point of the non-effective mirror. It may include a rib extending as a part of the inner surface of the lens barrel 10 and the object-side surface of another adjacent lens (e.g., the object-side surface S7 of the third lens L3).
  • the non-effective diameter of the lens may mean the part of the lens that does not correspond to the effective diameter (e.g., D1 in Figure 6).
  • the effective diameter of the lens refers to the distance perpendicular to the optical axis (O) from the center of the lens (e.g.
  • the non-effective diameter of the lens may refer to the remaining portion of the lens extending from the end of the effective diameter of the lens to the lens barrel (eg, lens barrel 10).
  • the electronic device 101 may further include a film mask 11 inside the lens barrel 10.
  • the film mask 11 adjusts the amount of light entering the lens, such as aperture diaphragm (determines the F number (Fno) as the entrance pupil) or field diaphragm (adjusts the peripheral light amount ratio and/or aberration by adjusting the size of the peripheral light flux).
  • the object-side surface S2 of the first lens L1 and a portion of the lens barrel 10 may face each other.
  • a film mask 11 may be disposed between the object-side surface S2 of the first lens L1 facing each other and a portion of the lens barrel 10.
  • the image side surface S3 of the first lens L1 and the object side surface S4 of the second lens L2 may face each other.
  • a film mask 11 may be disposed between the edge of the image side surface S3 of the first lens L1 and the edge of the object side surface S4 of the second lens L2, which face each other.
  • the lens barrel 10 may be formed to surround at least a portion of the lens assembly 400 and the film mask 11.
  • the lens barrel 10 stably seats the lens assembly 400 and the film mask 11 in the inner space, blocks external light, and prevents the electronic device 101 from falling and foreign substances from entering. It can play a role in preventing.
  • the object side side of the lenses is the side facing the object (obj) and/or the image side side is the side facing the image sensor (I) or image forming surface (img).
  • the shape of can be described using the terms 'concave' or 'convex'.
  • the reference to the shape of the surface of the lens may be a description of the point intersecting the optical axis O or the shape of the paraxial region intersecting the optical axis O.
  • the object-side surface is concave’ can describe a shape in which the center of the radius of curvature of the object-side surface is located on the object (obj) side.
  • the object-side surface is convex can describe a shape in which the center of the radius of curvature of the object-side surface is located on the image sensor (I) side. Therefore, even if one surface of the lens (the optical axis portion of the surface) is described as having a convex shape, the edge portion of the lens (a portion spaced a predetermined distance from the optical axis portion of the surface) may be concave. Likewise, even if one surface of the lens (the optical axis portion of the surface) is described as having a concave shape, the edge portion of the lens (a portion spaced a predetermined distance from the optical axis portion of the surface) may be convex.
  • an inflection point may mean a point at which the radius of curvature changes in a part that does not intersect the optical axis.
  • the radius of curvature, thickness, total track length (TTL), focal length, etc. of the lenses (L1, L2, L3, L4, L5, L6) of the present disclosure are all expressed in mm units unless otherwise specified. You can have Additionally, the thickness of the lenses (L1, L2, L3, L4, L5, L6), the distance between the lenses, and TTL (or overall length (OAL)) may be distances measured around the optical axis (O) of the lens.
  • the aperture sto may be disposed closer to the object obj than the lenses L1, L2, L3, L4, L5, and L6.
  • This arrangement of the aperture (sto) can enable the implementation of a slimmed-down lens assembly 400 with a wide angle of view.
  • the distance between the aperture sto and the object-side surface S4 of the second lens L2 is about 0.6 mm to about 1.4 mm. It may be mm.
  • the first lens L1 is, for example, a lens disposed closest to the object obj or the aperture sto and may have positive refractive power.
  • the first lens L1 may be a meniscus lens convex toward the object obj.
  • This first lens (L1) has a meniscus shape convex toward the object (obj), so that the entire length of the lens assembly 400 (e.g., the image forming surface (img) from the object-side surface (S2) of the first lens (L1) ) can be reduced.
  • the central thickness of the first lens may be greater than the thickness of the other lenses (L2, L3, L4, L5, and L6).
  • the center thickness may be measured based on the optical axis (O).
  • the second lens L2 may be disposed second from the aperture sto and may have negative refractive power.
  • the object side surface S4 and/or the image side surface S5 of the second lens L2 may be concave.
  • the third lens L3 may be placed third from the aperture sto and may have positive refractive power.
  • the third lens L3 may be a meniscus lens with a convex shape toward the image side.
  • the object-side surface L7 of the third lens L3 may be concave
  • the image-side surface L8 of the third lens L3 may be convex.
  • the fourth lens L4 may be disposed fourth from the aperture sto and may have negative refractive power or, depending on the embodiment, may have positive refractive power.
  • the fifth lens L5 may be placed fifth from the aperture sto and may have negative refractive power.
  • the fifth lens L5 may include at least one inflection point on the object side surface S11 and/or the image side surface S12.
  • the fifth lens L5 may be a meniscus lens with a convex shape toward the object obj.
  • the object-side surface S11 of the fifth lens L5 may be convex
  • the image-side surface S12 of the fifth lens L5 may be concave.
  • the sixth lens L6 may be placed closest to the image sensor I.
  • the sixth lens L6 may have positive refractive power.
  • the sixth lens L6 may include at least one inflection point on the object side surface S13 and/or the image side surface S14.
  • the sixth lens L6 may include at least one inflection point on the object side surface S13 and/or the image side surface S14. It may be a meniscus lens with a convex shape toward the (obj) side.
  • the object-side surface S13 of the sixth lens L6 may be convex
  • the image-side surface S14 of the sixth lens L6 may be concave.
  • the infrared cut-off filter (F) may be disposed between the sixth lens (L6) and the image sensor (I).
  • the above refractive power or lens shape of the fifth lens (L5) and/or the sixth lens (L6) facilitates, for example, control of optical performance in the peripheral area (e.g., astigmatism correction) and the image forming surface (img). ) can suppress the increase in the angle of incidence of the surrounding area rays incident on the rays.
  • some of the plurality of lenses have at least one lens surface (e.g., object side surface and/or image side surface) as aspheric. can be formed.
  • Spherical aberration that may occur in a lens can be suppressed by implementing the lens surfaces of some of the plurality of lenses (L1, L2, L3, L4, L5, and L6) as aspheric.
  • by forming the lens surface as an aspherical surface coma can be prevented from occurring in the periphery of the image sensor (I), astigmatism control can be facilitated, and the image sensor (I) can be easily controlled. The occurrence of field curvature from the center of the image plane (img) to the periphery can be reduced.
  • the aperture sto is disposed closer to the object obj than the lenses L1, L2, L3, L4, L5, and L6, and substantially defines the area where light enters the lens assembly 400. It can be defined.
  • the lenses (L1, L2, L3, L4, L5, L6) are substantially disposed between the aperture (sto) and the image sensor (I), and focus the light incident through the aperture (sto) onto the image sensor. You can join the company with (I).
  • the aperture sto is disposed closer to the object obj than the lenses L1, L2, L3, L4, L5, and L6, so that the lenses L1, L2, L3, L4, L5, and L6 Even if the effective diameter of the first lens (L1) disposed first on the object (obj) side or closest to the aperture is reduced, it can be easy to secure wide-angle performance. For example, by arranging the aperture sto closer to the object obj than the lenses L1, L2, L3, L4, L5, and L6, the lens assembly 400 can be miniaturized and have improved wide-angle performance.
  • the lens assembly 400 is miniaturized and/or has a small aperture and can be used with a high-pixel sensor (e.g., image sensor I). ) can provide wide-angle performance suitable for.
  • the lens assembly 400 can implement an angle of view of approximately 100 degrees while providing optical performance suitable for a high-performance image sensor.
  • the lens assembly 400 may be formed to have a small diameter.
  • the top of the lens barrel which is the outermost part of the lens barrel (e.g., the lens barrel 10 in FIG. 6) where the first lens L1 is disposed,
  • the outer diameter of the portion e.g., D1 in FIG. 6) may be reduced.
  • a camera exposure area e.g., a punch-hole (e.g., punch-hole ( The size of the punch-hole or punched hole area can be reduced.
  • a smaller diameter of the first lens L1 and/or the second lens L2 may contribute to expansion of the display, for example, when the lens assembly 400 is placed on the front camera.
  • the lens assembly 400 may have a smaller diameter and/or have improved wide-angle performance, thereby contributing to miniaturization of the electronic device and/or suppressing encroachment of screen area when deployed as a front camera. there is.
  • the lens assembly 400 when implementing a front camera of an electronic device, can provide improved wide-angle performance while providing an environment in which a high-performance image sensor can be utilized.
  • the lens assembly 400 may satisfy the conditions presented through the following [Equation 1].
  • 'TTL' is the distance from the object side surface (S2) of the first lens (L1) to the imaging surface (img), the distance measured from the optical axis (O) (hereinafter, 'lens total length') It can be.
  • 'IH' is half the diagonal length of the image sensor (I), which is the maximum height of the imaging surface (img) among the heights or distances measured from the optical axis (O) to the edge of the imaging surface (img). You can.
  • 'HFOV' may be the half angle of view of the entire optical system including the lens assembly and image sensor. If the calculated value of [Equation 1] is less than 0.8, manufacturing sensitivity may increase.
  • the thickness of the lenses L1, L2, L3, L4, L5, and L6 may become too small, making manufacturing difficult. If the calculated value of [Equation 1] is greater than 2, it may be difficult to miniaturize (or slim) the lens assembly 400, and for example, it may be difficult to reduce the overall length of the lens assembly 400.
  • the overall height of the optical device on which the lens assembly 400 is mounted e.g., the camera modules 305 and 312 of FIG. 3 or 4) may increase, and the overall height of the optical device (e.g., the camera module 305 or 312 of FIG. 3 or 4) may be increased, and the height of the entire optical device (e.g., the camera module 305 or 312 of FIG. 3 or FIG. 4) may be increased.
  • a portion of the optical device may protrude from the exterior of the electronic device 101 of FIG. 4 .
  • the lens assembly 400 may satisfy the conditions presented through the following [Equation 2].
  • 'f6' may be the effective focal length of the sixth lens L6.
  • 'f' may be the composite effective focal length of the entire optical system including the lens assembly 400 and the image sensor. For example, if the calculated value of [Equation 2] is less than 1.7, the lens assembly 400 may be slimmed, but the sensitivity of the sixth lens L6 may increase. Accordingly, it may be difficult to control the optical performance of the lens assembly 400 (eg, aberration correction) and adjustment of manufacturing sensitivity may be difficult.
  • the lens assembly 400 may satisfy the conditions presented through the following [Equation 3].
  • 'L1S1' may be the radius of curvature of the object side surface (S2) of the first lens
  • 'L6S2' may be the radius of curvature of the image side surface (S14) of the sixth lens.
  • the calculated value of [Equation 3] is greater than 4, there may be difficulty in controlling the distortion aberration.
  • the calculated value of [Equation 2] is less than 1, the sensitivity of the lenses (L1, L2, L3, L4, L5, and L6) increases, making manufacturing difficult.
  • the lens assemblies (400, 500, 600, 700, 800) of this [Example 1] and/or [Example 2-5] described below have the above-described [Equation 1] as shown in [Table 1] below.
  • the conditions of [-3] can be satisfied.
  • Example 1 Example 2
  • Example 3 Example 4
  • Example 5 Equation 1 1.7 1.7 1.5 1.7 1.5 Equation 2 7.6 5.4 1.9 3.1 2.0 Equation 3 1.8 1.7 2.2 1.9 2.2
  • the lens assembly 400 can be implemented as a lens assembly 400 that is slim and has a wide angle of view by satisfying at least one of the above-mentioned conditions.
  • the lens assembly 400 meets the conditions presented through the shape of the above-described lenses (L1, L2, L3, L4, L5, L6) (e.g., lens surface)(s) and the above-described [mathematical equations]. It can be at least partially satisfied, and can be manufactured to the specifications shown in [Table 2] below.
  • lens surface 6 may refer to the gap between the second lens (L2) and the third lens (L3), and the measured value of the thickness may be the air gap between the two lenses.
  • 'z' is the distance from the vertex of the lens (L1, L2, L3, L4, L5, L6) in the direction of the optical axis (O)
  • 'y' is the distance in the direction perpendicular to the optical axis (O).
  • 'c'' is the reciprocal of the radius of curvature at the vertex of the lens
  • 'K(Conic)' is the Conic constant
  • 'A', 'B', 'C', 'D', 'E', ' 'F', 'G', 'H', 'J', 'K', 'L', 'M', 'N', and 'O' may each mean an aspherical coefficient.
  • FIG. 10 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • FIG. 11 is a graph showing spherical aberration of the lens assembly of FIG. 10 according to an embodiment disclosed in this document.
  • FIG. 12 is a graph showing astigmatism of the lens assembly of FIG. 10 according to an embodiment disclosed in this document.
  • FIG. 13 is a graph showing distortion aberration of the lens assembly of FIG. 10 according to an embodiment disclosed in this document.
  • Figure 11 is a graph showing the spherical aberration of the lens assembly 500 according to an embodiment of the present disclosure, where the horizontal axis represents the coefficient of longitudinal spherical aberration, and the vertical axis normalizes the distance from the optical axis O.
  • the change in longitudinal spherical aberration according to the wavelength of light is shown.
  • Longitudinal spherical aberration is, for example, expressed for light with wavelengths of 656.2725 (NM, nanometer), 587.5618 (NM), 546.0740 (NM), 486.1327 (NM), and 435.8343 (NM), respectively.
  • Figure 12 is a graph showing astigmatism of the lens assembly 500 according to an embodiment of the present disclosure, for light with a wavelength of 546.0740 (NM), where 'S' illustrates a sagittal plane, and , 'T' illustrates the tangential plane.
  • FIG. 13 is a graph showing the distortion rate of the lens assembly 500 according to an embodiment of the present disclosure, for light with a wavelength of 546.0740 (NM).
  • the lens assembly 500 may satisfy at least some of the conditions presented through the shape of the lens (e.g., lens surface)(s) described above with reference to FIGS. 5 and 6 and the above-described [mathematical equations], , can be manufactured with the specifications shown in the following [Table 6], and can have the aspheric coefficients of [Table 7], [Table 8], and [Table 9].
  • Figure 14 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • FIG. 15 is a graph showing spherical aberration of the lens assembly of FIG. 14 according to an embodiment disclosed in this document.
  • FIG. 16 is a graph showing astigmatism of the lens assembly of FIG. 14 according to an embodiment disclosed in this document.
  • FIG. 17 is a graph showing distortion aberration of the lens assembly of FIG. 14 according to an embodiment disclosed in this document.
  • the lens assembly 600 may satisfy at least some of the conditions presented through the shape of the lens (e.g., lens surface)(s) described above with reference to FIGS. 5 and 6 and the above-described [mathematical equations], , can be manufactured to the specifications shown in the following [Table 10], and can have the aspheric coefficients of [Table 11], [Table 12], and [Table 13].
  • Figure 18 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • FIG. 19 is a graph showing spherical aberration of the lens assembly of FIG. 18 according to an embodiment disclosed in this document.
  • FIG. 20 is a graph showing astigmatism of the lens assembly of FIG. 18 according to an embodiment disclosed in this document.
  • FIG. 21 is a graph showing distortion aberration of the lens assembly of FIG. 18 according to an embodiment disclosed in this document.
  • the lens assembly 700 may satisfy at least some of the conditions presented through the shape of the lens (e.g., lens surface)(s) described above with reference to FIGS. 5 and 6 and the above-described [mathematical equations], , can be manufactured with the specifications shown in the following [Table 14], and can have the aspheric coefficients of [Table 15], [Table 16], and [Table 17].
  • Figure 22 is a configuration diagram showing an optical system including a lens assembly and an image sensor according to an embodiment disclosed in this document.
  • FIG. 23 is a graph showing spherical aberration of the lens assembly of FIG. 22 according to an embodiment disclosed in this document.
  • FIG. 24 is a graph showing astigmatism of the lens assembly of FIG. 22 according to an embodiment disclosed in this document.
  • FIG. 25 is a graph showing distortion aberration of the lens assembly of FIG. 22 according to an embodiment disclosed in this document.
  • the lens assembly 800 may satisfy at least some of the conditions presented through the shape of the lens (e.g., lens surface)(s) described above with reference to FIGS. 5 and 6 and the above-described [mathematical equations], , can be manufactured with the specifications shown in the following [Table 18], and can have the aspherical coefficients of [Table 19], [Table 20], and [Table 21].
  • the lens assemblies 400, 500, 600, 700, and 800 satisfy the above-described conditions, thereby providing good wide-angle performance with a field of view of about 100 degrees when combined with a high-pixel image sensor.
  • the camera exposure area is relatively reduced compared to the same angle of view. It can be.
  • the aperture sto is disposed closer to the object obj than the lenses L1, L2, L3, L4, L5, and L6, thereby increasing the effective diameter of the first lens L1 or the second lens L2. It can be easy to reduce.
  • the aperture (sto) is disposed on the object (obj) side rather than the lenses (L1, L2, L3, L4, L5, L6) to reduce the diameter of the lens assemblies (400, 500, 600, 700, 800) and provide good It can provide wide-angle performance.
  • the distance between the object side surface S4 of the second lens L2, which is the second lens arranged from the aperture sto, and the aperture sto is within a specified range (e.g., about 0.6 mm to about 1.4 mm). ), it is possible to secure the thickness of the lens barrel supporting the lens (e.g., the lens barrel 10 in FIG. 6).
  • An electronic device includes a lens assembly (400; 500; 600; 700; 800), an image sensor (230; I) including an imaging plane (img), and/or an optical member (sto) may include.
  • the lens assembly includes at least six lenses (L1, L2, L3, L4, L5, L6) arranged sequentially along the optical axis (O) in the direction from the object (obj) side to the image side, It may include a first lens (L1), a second lens (L2), a third lens (L3), a fourth lens (L4), a fifth lens (L5), and/or a sixth lens (L6).
  • the first lens may have positive refractive power.
  • the sixth lens may have positive refractive power.
  • the image side S14 of the sixth lens may be concave.
  • the optical member may be disposed between the object side and the imaging surface.
  • the first lens may have a larger central thickness measured with respect to the optical axis than the other lenses (L2, L3, L4, L5, and L6).
  • the distance T1 between the optical member and the object-side surface S4 of the second lens may be about 0.6 mm to about 1.4 mm.
  • the lens assembly can satisfy the following [Conditional Expression 1].
  • 'TTL' in [Conditional Expression 1] is the distance from the object side of the first lens to the imaging surface, 'IH' is half the diagonal length of the image sensor, and 'HFOV' is the lens assembly and It is half the angle of view of the entire optical system including the image sensor)
  • the lens assembly may satisfy the following [Conditional Expression 2].
  • f6 is the effective focal length of the sixth lens
  • f is the composite effective focal length of the entire optical system including the lens assembly and image sensor.
  • the lens assembly may satisfy the following [Conditional Equation 3].
  • L1S1 is the radius of curvature of the object-side surface of the first lens
  • L6S2 is the radius of curvature of the image-side surface of the sixth lens.
  • the object-side surface S2 of the first lens may be formed to be convex.
  • the object-side surface S13 of the sixth lens may be formed to be convex.
  • the optical member may include an aperture and be disposed between the object side and the first lens.
  • the second lens may have negative refractive power.
  • the fifth lens may have negative refractive power.
  • the third lens has positive refractive power and may have a meniscus shape convex toward the image side.
  • the first lens may have an image side S3 that is convex.
  • the first lens, the second lens, the third lens, the fourth lens, the At least one surface of the fifth lens or the sixth lens may be formed as an aspherical surface.
  • the object-side surface and the image-side surface of at least one of the fifth lens or the sixth lens may each be formed as an aspherical surface.
  • the lens assembly includes at least six lenses (L1, L2, L3, L4, L5, L6), an image sensor 230 (I) including an imaging surface (img), and/or an aperture (sto).
  • the at least six lenses include a first lens (L1), a second lens (L2), a third lens (L), a fourth lens (L4), a fifth lens (L5), and/or a sixth lens (L6).
  • the first lens may have positive refractive power.
  • the object-side surface S2 of the first lens may be convex.
  • the sixth lens may have positive refractive power.
  • the sixth lens may have a concave image side surface (S14).
  • the aperture may be disposed between the object side and the first lens.
  • the first lens may have a larger central thickness measured with respect to the optical axis than the other lenses (L2, L3, L4, L5, and L6).
  • the distance between the aperture and the object-side surface of the second lens may be about 0.6 mm to about 1.4 mm.
  • the lens assembly can satisfy the following [Conditional Expression 1].
  • 'TTL' in [Conditional Expression 1] is the distance from the object side of the first lens to the imaging surface, 'IH' is half the diagonal length of the image sensor, and 'HFOV' is the lens assembly and It is half the angle of view of the entire optical system including the image sensor)
  • the object-side surface S2 of the first lens may be formed to be convex.
  • the object-side surface S13 of the sixth lens may be formed to be convex.
  • the optical member may include an aperture and be disposed between the object side and the first lens.
  • the second lens may have negative refractive power.
  • the fifth lens may have negative refractive power.
  • the third lens has positive refractive power and may have a meniscus shape convex toward the image side.
  • Electronic devices including displays, are gradually expanding their scope to meet the demand for large screens.
  • the arrangement structure of various components arranged through the front plate for example, at least one camera module, may also be changed accordingly.
  • the display may include an exposed area (e.g. an opening, punch hole, or perforated hole) formed in a position facing the camera module.
  • the size of the camera exposure area may be determined by the size of the outer diameter of the lens barrel of a camera module including a plurality of lenses.
  • the lens barrel supporting the lenses may have limitations in reducing the outer diameter of the lens barrel due to the limited design structure of the thickness of the flesh supporting the lens.
  • an optical system of six or more elements with optimal power for implementing an ultra-wide angle is provided even if the first lens has a small effective diameter, thereby miniaturizing electronic devices. and/or compaction may be possible.
  • An electronic device may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited.
  • One (e.g. first) component is said to be “coupled” or “connected” to another (e.g. second) component, with or without the terms “functionally” or “communicatively”.
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in one embodiment of this document may include a unit implemented in hardware, software, or firmware, and may be interchangeable with terms such as logic, logic block, component, or circuit, for example. can be used
  • a module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • One embodiment of the present document is one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • a method according to an embodiment disclosed in this document may be provided and included in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or via an application store (e.g. Play Store TM ) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately placed in other components.
  • one or more of the above-described corresponding components or operations may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

본 문서에 개시되는 실시예에 따른 전자 장치는, 렌즈 어셈블리, 결상면을 포함하는 이미지 센서 및/또는 광학 부재를 포함할 수 있다. 상기 렌즈 어셈블리는, 물체측으로부터 상측을 향하는 방향으로 광축을 따라 순차적으로 배열된 적어도 6매의 렌즈로서, 제1 렌즈, 제2 렌즈, 제3 렌즈, 제4 렌즈, 제5 렌즈 및/또는 제6 렌즈를 포함할 수 있다. 상기 제1 렌즈는 정의 굴절력을 가질 수 있다. 상기 제6 렌즈는 정의 굴절력을 가질 수 있다. 상기 제6 렌즈의 상측 면은 오목하게 형성될 수 있다. 상기 광학 부재는 상기 물체측과 상기 결상면 사이에 배치될 수 있다. 상기 제1 렌즈는 다른 렌즈에 비하여 상기 광축을 기준으로 측정된 중심 두께가 더 크게 형성될 수 있다.

Description

렌즈 어셈블리 및 이를 포함한 전자 장치
본 문서에 개시된 예들은, 전자 장치의 외부로 노출되는 영역이 축소된 광각의 렌즈 어셈블리 및 이를 포함하는 전자 장치에 관한 것이다.
광학 장치, 예를 들어, 이미지나 동영상 촬영이 가능한 카메라가 널리 사용되어 왔다. 기존에는 필름(film) 방식의 광학 장치가 주를 이루었다면, 근자에는 CCD(charge coupled device)나 CMOS(complementary metal-oxide semiconductor) 등과 같은 고체 이미지 센서를 가진 디지털 카메라(digital camera)나 비디오 카메라(video camera)가 널리 보급되고 있다. 고체 이미지 센서(CCD 또는 CMOS)를 채용한 광학 장치는, 필름 방식의 광학 장치에 비해, 이미지의 저장과 복제, 이동이 용이하여 점차 필름 방식의 광학 장치를 대체하고 있다.
높은 품질의 이미지 및/또는 동영상을 획득하기 위해서, 광학 장치는 복수의 렌즈들로 구성된 렌즈 어셈블리와 높은 화소수를 가진 이미지 센서로 이루어진 광학계(optical system)를 포함할 수 있다. 렌즈 어셈블리는, 예를 들면, 낮은 F 수(Fno), 그리고 적은 수차(aberration)를 가짐으로써, 고품질(높은 해상력)의 이미지 및/또는 동영상을 획득하게 할 수 있다. 낮은 F 수, 적은 수차를 얻기 위해서는, 달리 말해, 밝고 높은 해상력을 가진 이미지를 얻기 위해서는 다수의 렌즈들을 조합할 필요가 있다. 이미지 센서는 픽셀들을 많이 포함할수록 화소 수가 높아지며, 높은 화소 수를 가진 이미지 센서일수록 고해상도(높은 분해능)의 이미지 및/또는 영상을 획득할 수 있다. 전자 장치 내의 제한된 실장 공간 안에 고화소 이미지 센서를 구현하기 위하여 크기가 매우 작은 픽셀, 예를 들면, 마이크로 미터 단위의 픽셀을 복수 개 배치할 수 있다. 근래에는, 수천만 개 내지 수억 개의 마이크로 미터 단위의 픽셀들을 포함하는 이미지 센서가 스마트폰, 태블릿과 같은 휴대용 전자 장치에도 탑재되고 있다. 이러한 고성능의 광학 장치는 사용자로 하여금 전자 장치의 구매를 유인하는 효과를 가질 수 있다.
상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 기술(related art)로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련된 종래 기술(prior art)로서 적용될 수 있는지에 대하여 어떠한 주장이나 결정이 제기되지 않는다.
본 문서에 개시되는 실시예에 따른 전자 장치는, 렌즈 어셈블리, 결상면을 포함하는 이미지 센서 및/또는 광학 부재를 포함할 수 있다. 상기 렌즈 어셈블리는, 물체측으로부터 상측을 향하는 방향으로 광축을 따라 순차적으로 배열된 적어도 6매의 렌즈로서, 제1 렌즈, 제2 렌즈, 제3 렌즈, 제4 렌즈, 제5 렌즈 및/또는 제6 렌즈를 포함할 수 있다. 상기 제1 렌즈는 정의 굴절력을 가질 수 있다. 상기 제6 렌즈는 정의 굴절력을 가질 수 있다. 상기 제6 렌즈의 상측 면은 오목하게 형성될 수 있다. 상기 광학 부재는 상기 물체측과 상기 결상면 사이에 배치될 수 있다. 상기 제1 렌즈는 다른 렌즈에 비하여 상기 광축을 기준으로 측정된 중심 두께가 더 크게 형성될 수 있다. 상기 광학 부재와 상기 제2 렌즈의 물체측 면 사이의 거리는 약 0.6mm 내지 약 1.4mm일 수 있다. 상기 렌즈 어셈블리는, 다음의 [조건식 1]을 만족할 수 있다.
[조건식 1]
0.8 < TTL/(IH*tan(HFOV)) < 2
(여기서, 상기 [조건식 1]의 'TTL'은 제1 렌즈의 물체측 면으로부터 상기 결상면까지의 거리이고, 'IH'는 상기 이미지 센서의 대각선 길이의 절반이며, 'HFOV'는 렌즈 어셈블리 및 이미지 센서를 포함하는 전체 광학계의 반 화각임)
본 문서에 개시되는 실시예에 따른 렌즈 어셈블리는, 물체측으로부터 상측을 향하는 방향으로 광축을 따라 순차적으로 배열된 적어도 6매의 렌즈 결상면을 포함하는 이미지 센서 및/또는 조리개를 포함할 수 있다. 상기 적어도 6매의 렌즈는, 제1 렌즈, 제2 렌즈, 제3 렌즈, 제4 렌즈, 제5 렌즈 및/또는 제6 렌즈를 포함할 수 있다. 상기 제1 렌즈는 정의 굴절력을 가질 수 있다. 상기 제1 렌즈는 물체측 면이 볼록하게 형성될 수 있다. 상기 제6 렌즈는 정의 굴절력을 가질 수 있다. 상기 제6 렌즈는 상측 면이 오목하게 형성될 수 있다. 상기 조리개는 상기 물체측과 상기 제1 렌즈 사이에 배치될 수 있다. 상기 제1 렌즈는 다른 렌즈에 비하여 상기 광축을 기준으로 측정된 중심 두께가 크게 형성될 수 있다. 상기 조리개와 상기 제2 렌즈의 물체측 면 사이의 거리는 약 0.6mm 내지 약 1.4mm일 수 있다. 상기 렌즈 어셈블리는, 다음의 [조건식 1]을 만족할 수 있다.
[조건식 1]
0.8 < TTL/(IH*tan(HFOV)) < 2
(여기서, 상기 [조건식 1]의 'TTL'은 제1 렌즈의 물체측 면으로부터 상기 결상면까지의 거리이고, 'IH'는 상기 이미지 센서의 대각선 길이의 절반이며, 'HFOV'는 렌즈 어셈블리의 반 화각임)
도 1은 본 문서에 개시되는 일 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 본 문서에 개시되는 일 실시예에 따른 카메라 모듈을 예시하는 블럭도이다.
도 3은 본 문서에 개시되는 일 실시예에 따른 전자 장치의 전면 사시도이다.
도 4는 본 문서에 개시되는 일 실시예에 따른 전자 장치의 후면 사시도이다.
도 5는 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다.
도 6는 본 문서에 개시되는 일 실시예에 따른, 렌즈 배럴 및 렌즈 어셈블리를 보여주는 단면도이다.
도 7 본 문서에 개시된 일 실시예에 따른, 도 5의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 8은 본 문서에 개시된 일 실시예에 따른, 도 5의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 9은 본 문서에 개시된 일 실시예에 따른, 도 5의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
도 10은 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다.
도 11은 본 문서에 개시된 일 실시예에 따른, 도 10의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 12는 본 문서에 개시된 일 실시예에 따른, 도 10의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 13은 본 문서에 개시된 일 실시예에 따른, 도 10의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
도 14는 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다.
도 15는 본 문서에 개시된 일 실시예에 따른, 도 14의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 16은 본 문서에 개시된 일 실시예에 따른, 도 14의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 17은 본 문서에 개시된 일 실시예에 따른, 도 14의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
도 18은 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다.
도 19는 본 문서에 개시된 일 실시예에 따른, 도 18의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 20은 본 문서에 개시된 일 실시예에 따른, 도 18의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 21은 본 문서에 개시된 일 실시예에 따른, 도 18의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
도 22는 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다.
도 23은 본 문서에 개시된 일 실시예에 따른, 도 22의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 24는 본 문서에 개시된 일 실시예에 따른, 도 22의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 25는 본 문서에 개시된 일 실시예에 따른, 도 22의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
첨부된 도면의 전반에서, 유사한 부품, 구성 및/또는 구조에 대해서는 유사한 참조 번호가 부여될 수 있다.
도 1은 본 문서에 개시된 일 실시예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 일 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 일 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU; neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼) 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부의 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부의 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부의 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부의 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(globjal navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobjile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부의 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 일 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
일 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobjile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104 또는 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC; mobjile edge computing) 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 일 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 본 개시의 일 실시예에 따른 카메라 모듈(280)(예: 도 1의 카메라 모듈(180))을 예시하는 블록도(200)이다. 도 2를 참조하면, 카메라 모듈(280)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 일 실시예에서, 렌즈 어셈블리(210)는 이미지 센서(230)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(280)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(280)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, F-넘버(F-number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다.
플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일 실시예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일 실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.
이미지 스태빌라이저(240)는 카메라 모듈(280) 또는 이를 포함하는 전자 장치(201)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일 실시예에 따르면, 이미지 스태빌라이저(240)는 카메라 모듈(280)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(280) 또는 전자 장치(예: 도 1의 전자 장치(101))의 그런 움직임을 감지할 수 있다. 일 실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(250)는 이미지 센서(230)를 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 도 1의 디스플레이 모듈(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일 실시예에 따르면, 메모리(250)는 메모리(예: 도 1의 메모리(130))의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.
이미지 시그널 프로세서(260)는 이미지 센서(230)를 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(280)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(280)의 외부 구성 요소(예: 도 1의 메모리(130), 디스플레이 모듈(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일 실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(예: 도 1의 프로세서(120))의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)가 프로세서(120)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 디스플레이 모듈(160)을 통해 표시될 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(280)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(280)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(280)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.
도 3은 본 문서에 개시된 일 실시예에 따른 전자 장치의 전면 사시도이다. 도 4는 본 문서에 개시된 일 실시예에 따른 전자 장치의 후면 사시도이다.
도 3 및 도 4의 전자 장치(101)의 구성은 도 1의 전자 장치(101)의 구성과 전부 또는 일부와 동일할 수 있다.
도 3는 본 문서에 개시되는 일 실시예에 따른, 전자 장치의 전면 사시도이다. 도 4은 본 문서에 개시되는 일 실시예에 따른, 전자 장치의 후면 사시도이다.
도 3 및 도 4을 참조하면, 일 실시예에 따른 전자 장치(101)는, 전면(310A), 후면(310B), 및 전면(310A) 및 후면(310B) 사이의 공간을 둘러싸는 측면(310C)을 포함하는 하우징(310)을 포함할 수 있다. 일 실시예(미도시)에서는, 상기 하우징(310)은, 도 3의 전면(310A), 도 4의 후면(310B) 및 측면(310C)들 중 일부를 형성하는 구조를 지칭할 수도 있다. 일 실시예에 따르면, 상기 전면(310A)은 적어도 일부분이 실질적으로 투명한 전면 플레이트(302)(예: 다양한 코팅 레이어들을 포함하는 글라스 플레이트, 또는 폴리머 플레이트)에 의하여 형성될 수 있다. 후면(310B)은 후면 커버(311)에 의하여 형성될 수 있다. 상기 후면 커버(311)는, 예를 들어, 유리, 세라믹, 폴리머, 금속(예: 알루미늄, 스테인레스 스틸(STS), 또는 마그네슘), 또는 상기 물질들 중 적어도 둘의 조합에 의하여 형성될 수 있다. 상기 측면(310C)은, 전면 플레이트(302) 및 후면 커버(311)와 결합하며, 금속 및/또는 폴리머를 포함하는 측면 베젤 구조 (또는 "측벽")(318)에 의하여 형성될 수 있다. 일 실시예에서, 후면 커버(311) 및 측면 베젤 구조(318)는 일체로 형성되고 동일한 물질(예: 유리, 알루미늄과 같은 금속 물질 또는 세라믹)을 포함할 수 있다.
도 3를 참조하면, 일 실시예에 따르면, 상기 전면 플레이트(302)는, 상기 전면(310A)으로부터 상기 후면 커버(311) 쪽으로 휘어져 심리스하게(seamless) 연장된 2개의 제1 엣지 영역(310D)들을, 상기 전면 플레이트(302)의 긴 엣지(long edge) 양단에 포함할 수 있다. 도 4을 참조하면, 일 실시예에 따르면, 상기 후면 커버(311)는, 상기 후면(310B)으로부터 상기 전면 플레이트(302) 쪽으로 휘어져 심리스하게 연장된 2개의 제2 엣지 영역(310E)들을 긴 엣지 양단에 포함할 수 있다. 일 실시예에서, 상기 전면 플레이트(302)(또는 상기 후면 커버(311))가 상기 제1 엣지 영역(310D)들(또는 상기 제2 엣지 영역(310E)들) 중 하나 만을 포함할 수 있다. 일 실시예에서, 상기 제1 엣지 영역(310D)들 또는 제2 엣지 영역(310E)들 중 일부가 포함되지 않을 수 있다. 예를 들어, 상기 전자 장치(101)의 측면에서 볼 때, 측면 베젤 구조(318)는, 상기와 같은 제1 엣지 영역(310D)들 또는 제2 엣지 영역(310E)들이 포함되지 않는 측면 쪽에서는 제1 두께(또는 폭)을 가질 수 있다. 예를 들어, 상기 전자 장치(101)의 측면에서 볼 때, 측면 베젤 구조(318)는, 상기 제1 엣지 영역(310D)들 또는 제2 엣지 영역(310E)들을 포함한 측면 쪽에서는 상기 제1 두께보다 얇은 제2 두께를 가질 수 있다.
일 실시예에 따르면, 전자 장치(101)는, 디스플레이(301), 오디오 모듈(303, 307, 314)(예: 도 1의 오디오 모듈(170)), 센서 모듈(예: 도 1의 센서 모듈(176)), 카메라 모듈(305, 312, 313)(예: 도 1의 카메라 모듈(180) 및/또는 도 3의 카메라 모듈(280)), 키 입력 장치(317)(예: 도 1의 입력 모듈(150)), 및 커넥터 홀(308, 309)(예: 도 1의 연결 단자(178)) 중 적어도 하나 이상을 포함할 수 있다. 일 실시예에서, 전자 장치(101)는, 구성요소들 중 적어도 하나(예: 커넥터 홀(309))를 생략하거나 다른 구성요소를 추가적으로 포함할 수 있다.
일 실시예에 따르면, 디스플레이(301)는, 예를 들어, 전면 플레이트(302)의 상당 부분을 통하여 시각적으로 노출될 수 있다. 일 실시예에서, 상기 전면(310A), 및 상기 제1 엣지 영역(310D)들을 형성하는 전면 플레이트(302)를 통하여 상기 디스플레이(301)의 적어도 일부가 시각적으로 노출될 수 있다. 일 실시예에서, 디스플레이(301)의 모서리를 상기 전면 플레이트(302)의 인접한 외곽 형상과 대체로 동일하게 형성할 수 있다. 일 실시예(미도시)에서는, 디스플레이(301)가 시각적으로 노출되는 면적을 확장하기 위하여, 디스플레이(301)의 외곽과 전면 플레이트(302)의 외곽 간의 간격이 대체로 동일하게 형성될 수 있다.
일 실시예에 따르면, 하우징(310)의 표면(또는 전면 플레이트(302))은 디스플레이(301)가 시각적으로 노출됨에 따라 형성되는 화면 표시 영역을 포함할 수 있다. 일례로, 화면 표시 영역은 전면(310A), 및 제1 엣지 영역(310D)들을 포함할 수 있다.
일 실시예(미도시)에서, 디스플레이(301)의 화면 표시 영역(예: 전면(310A), 제1 엣지 영역(310D))의 일부에 리세스 또는 개구부(opening)를 형성하고, 상기 리세스 또는 상기 개구부(opening)와 정렬되는 오디오 모듈(314), 센서 모듈(미도시), 발광 소자(미도시), 및 카메라 모듈(305) 중 적어도 하나 이상을 포함할 수 있다. 일 실시예(미도시)에서 따르면, 디스플레이(301)의 화면 표시 영역의 배면에, 오디오 모듈(314), 센서 모듈(미도시), 카메라 모듈(305), 지문 센서(미도시), 및 발광 소자(미도시) 중 적어도 하나 이상을 포함할 수 있다. 일 실시예(미도시)에 따르면, 디스플레이(301)는, 터치 감지 회로, 터치의 세기(압력)를 측정할 수 있는 압력 센서, 및/또는 자기장 방식의 스타일러스 펜을 검출하는 디지타이저와 결합되거나 인접하여 배치될 수 있다. 일 실시예에 따르면, 상기 키 입력 장치(317)의 적어도 일부가, 상기 제1 엣지 영역(310D)들, 및/또는 상기 제2 엣지 영역(310E)들에 배치될 수 있다.
일 실시예에 따르면, 오디오 모듈(303, 307, 314)은, 예를 들면, 마이크 홀(303) 및 스피커 홀(307, 314)을 포함할 수 있다. 마이크 홀(303)은 외부의 소리를 획득하기 위한 마이크가 내부에 배치될 수 있고, 일 실시예에서 소리의 방향을 감지할 수 있도록 복수개의 마이크가 배치될 수 있다. 스피커 홀(307, 314)은, 외부 스피커 홀(307) 및 통화용 리시버 홀(314)을 포함할 수 있다. 일 실시예에서 스피커 홀(307, 314)과 마이크 홀(303)이 하나의 홀로 구현 되거나, 스피커 홀(307, 314) 없이 스피커가 포함될 수 있다(예: 피에조 스피커). 오디오 모듈(303, 307, 314)은 상기 구조에 한정된 것은 아니며, 전자 장치(101)의 구조에 따라 일부 오디오 모듈만 장착되거나 새로운 오디오 모듈이 부가되는 등 다양하게 설계 변경할 수 있다.
일 실시예에 따르면, 센서 모듈(미도시)은, 예를 들면, 전자 장치(101)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(미도시)은, 예를 들어, 하우징(310)의 전면(310A)에 배치된 제1 센서 모듈(예: 근접 센서) 및/또는 제2 센서 모듈(예: 지문 센서), 및/또는 상기 하우징(310)의 후면(310B)에 배치된 제3 센서 모듈(예: HRM 센서) 및/또는 제4 센서 모듈(예: 지문 센서)을 포함할 수 있다. 일 실시예에서(미도시), 상기 지문 센서는 하우징(310)의 전면(310A)(예: 디스플레이(301))뿐만 아니라 후면(310B)에 배치될 수 있다. 전자 장치(101)는, 도시되지 않은 센서 모듈, 예를 들어, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서 중 적어도 하나를 더 포함할 수 있다. 상기 센서 모듈은 상기 구조에 한정된 것은 아니며, 전자 장치(101)의 구조에 따라 일부 센서 모듈만 장착되거나 새로운 센서 모듈이 부가되는 등 다양하게 설계 변경할 수 있다.
일 실시예에 따르면, 카메라 모듈(305, 312, 313)은, 예를 들면, 전자 장치(101)의 전면(310A)에 배치된 전면 카메라 모듈(305), 및 후면(310B)에 배치된 후면 카메라 모듈(312), 및/또는 플래쉬(313)(예: 도 3의 플래쉬(220))를 포함할 수 있다. 상기 카메라 모듈(305, 312)은, 하나 또는 복수의 렌즈들, 이미지 센서(예: 도 1의 센서 모듈(176) 및/또는 도 3의 이미지 센서(230)), 및/또는 이미지 시그널 프로세서(예: 도 3의 이미지 시그널 프로세서(260))를 포함할 수 있다. 플래쉬(313)는, 예를 들어, 발광 다이오드 또는 제논 램프(xenon lamp)를 포함할 수 있다. 일 실시예에서, 2개 이상의 렌즈들(적외선 카메라, 광각 및 망원 렌즈)(예: 도 3의 렌즈 어셈블리(210)) 및 이미지 센서들이 전자 장치(101)의 한 면에 배치될 수 있다. 카메라 모듈(305, 312, 313)은 상기 구조에 한정된 것은 아니며, 전자 장치(101)의 구조에 따라 일부 카메라 모듈만 장착되거나 새로운 카메라 모듈이 부가되는 등 다양하게 설계 변경할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 각각 다른 속성(예: 화각) 또는 기능을 가진 복수의 카메라 모듈들(예: 듀얼 카메라, 또는 트리플 카메라)을 포함할 수 있다. 예를 들면, 서로 다른 화각을 갖는 렌즈를 포함하는 카메라 모듈(305, 312)이 복수로 구성될 수 있고, 전자 장치(101)는 사용자의 선택에 기반하여, 전자 장치(101)에서 수행되는 카메라 모듈(305, 312)의 화각을 변경하도록 제어할 수 있다. 예를 들면, 상기 복수의 카메라 모듈(305, 312)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(305, 312)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다. 또한, 복수의 카메라 모듈(305, 312)들은, 광각 카메라, 망원 카메라, 또는 IR(infrared) 카메라(예: TOF(time of flight) camera, structured light camera) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, IR 카메라는 센서 모듈의 적어도 일부로 동작될 수 있다. 예를 들어, TOF 카메라는 피사체와의 거리를 감지하기 위한 센서 모듈(미도시)의 적어도 일부로 동작될 수 있다.
일 실시예에 따르면, 키 입력 장치(317)는, 하우징(310)의 측면(310C)에 배치될 수 있다. 일 실시예에서, 전자 장치(101)는 상기 언급된 키 입력 장치(317) 중 일부 또는 전부를 포함하지 않을 수 있고 포함되지 않은 키 입력 장치(317)는 디스플레이(301) 상에 소프트 키와 같은 다른 형태로 구현될 수 있다. 일 실시예에서, 키 입력 장치는 하우징(310)의 후면(310B)에 배치된 센서 모듈(316)을 포함할 수 있다.
일 실시예에 따르면, 발광 소자(미도시)는, 예를 들어, 하우징(310)의 전면(310A)에 배치될 수 있다. 발광 소자(미도시)는, 예를 들어, 전자 장치(101)의 상태 정보를 광 형태로 제공할 수 있다. 일 실시예에서, 발광 소자(미도시)는, 예를 들어, 전면 카메라 모듈(305)의 동작과 연동되는 광원을 제공할 수 있다. 발광 소자(미도시)는, 예를 들어, LED, IR LED 및/또는 제논 램프를 포함할 수 있다.
일 실시예에 따르면, 커넥터 홀(308, 309)은, 예를 들면, 외부 전자 장치와 전력 및/또는 데이터를 송수신하기 위한 커넥터(예를 들어, USB 커넥터)를 수용할 수 있는 제1 커넥터 홀(308), 및/또는 외부 전자 장치와 오디오 신호를 송수신하기 위한 커넥터를 수용할 수 있는 제2 커넥터 홀(309)(예: 이어폰 잭)을 포함할 수 있다.
일 실시예에 따르면, 카메라 모듈들(305, 312) 중 일부 카메라 모듈(305), 및/또는 센서 모듈(미도시)들 중 일부 센서 모듈은 디스플레이(301)의 적어도 일부를 통해 외부로 노출되도록 배치될 수 있다. 예를 들어, 카메라 모듈(305)은 디스플레이(301)의 배면에 형성된 홀 또는 리세스의 내부에 배치되는, 펀치 홀 카메라를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(312)은 렌즈가 전자 장치(101)의 후면(310B)으로 노출되도록 하우징(310) 내부에 배치될 수 있다. 예를 들어, 카메라 모듈(312)은 인쇄회로기판(예: 도 4의 인쇄회로기판(340))에 배치될 수 있다.
일 실시예에 따르면, 카메라 모듈(305), 및/또는 센서 모듈은 전자 장치(101)의 내부 공간에서, 디스플레이(301)의, 전면 플레이트(302)까지 투명 영역을 통해 외부 환경과 접할 수 있도록 배치될 수 있다. 또한, 일부 센서 모듈(304)은 전자 장치의 내부 공간에서 전면 플레이트(302)를 통해 시각적으로 노출되지 않고 그 기능을 수행하도록 배치될 수도 있다.
도 5는 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다. 도 6는 본 문서에 개시되는 일 실시예에 따른, 렌즈 배럴 및 렌즈 어셈블리를 보여주는 단면도이다. 도 7은 본 문서에 개시된 일 실시예에 따른, 도 5의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다. 도 8은 본 문서에 개시된 일 실시예에 따른, 도 5의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다. 도 9는 본 문서에 개시된 일 실시예에 따른, 도 5의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
도 7은 본 개시의 일 실시예에 따른 렌즈 어셈블리(400)의 구면수차를 나타내는 그래프로서, 가로축은 종방향 구면수차(longitudinal spherical aberration)의 계수를 나타내고, 세로축은 광축(O)으로부터의 거리를 규격화(normalization)하여 나타내며, 빛의 파장에 따른 종방향 구면수차의 변화를 보여준다. 종방향 구면수차는, 예를 들면, 파장이 656.2700(NM, nanometer), 587.5600(NM), 546.0700(NM), 486.1300(NM), 435.8400(NM)인 광에 대해 각각 나타낸다. 도 8은 본 개시의 일 실시예에 따른 렌즈 어셈블리(400)의 비점수차(astigmatic field curves)를 나타내는 그래프로서, 파장이 546.0700(NM)인 광에 대해 나타낸 것이며, 'S '는 구결면(sagittal plane)을 예시하고, 'T'는 자오면(tangential plane)을 예시하고 있다. 도 9은 본 개시의 일 실시예에 따른 렌즈 어셈블리(400)의 왜곡율(distortion)을 나타내는 그래프로서, 파장이 546.0700(NM)인 광에 대해 나타낸 것이다.
도 5 내지 도 9을 참조하면, 본 개시의 다양한 실시예 중 하나에 따른 렌즈 어셈블리(400)(예: 도 2의 렌즈 어셈블리(210))는, 이미지 센서(I)(예: 도 2의 이미지 센서(230)), 조리개(sto) 및/또는 복수(예: 적어도 6매)의 렌즈(L1, L2, L3, L4, L5, L6)들을 포함할 수 있다. 이미지 센서(I)는 조리개(sto)를 통해 입사된, 및/또는 렌즈(L1, L2, L3, L4, L5, L6)들을 통해 집속된 빛의 적어도 일부를 수신하는 결상면(img)을 포함할 수 있다. 일 실시예에서, 조리개(sto), 렌즈(L1, L2, L3, L4, L5, L6)들 및/또는 이미지 센서(I)는 실질적으로 광축(O) 상에 정렬될 수 있다. 본 문서에서, '광축(O) 상에 정렬된다'라 함은, 조리개(sto) 및/또는 렌즈(L1, L2, L3, L4, L5, L6)에서 이미지 센서(I)의 결상면(img)으로 입사되는 빛이 투과하는 영역, 또는 이미지 센서(I)의 결상면(img)이 광축(O)에 정렬된 것으로 이해될 수 있다. 일 실시예에 따르면, 조리개(sto)는 물체(obj)와 제1 렌즈(L1) 사이에 배치될 수 있고, 예컨대 제1 렌즈(L1)의 일 면(예: 물체측 면(S2))에 구현될 수 있다.
일 실시예에서, 렌즈(L1, L2, L3, L4, L5, L6)들은, 물체(obj)로부터 이미지 센서(I)를 향하는 방향으로 광축(O)을 따라 순차적으로 정렬된 제1 렌즈(L1), 제2 렌즈(L2), 제3 렌즈(L3), 제4 렌즈(L4), 제5 렌즈(L5) 및/또는 제6 렌즈(L6)를 포함할 수 있다. 일 실시예에 따르면, 렌즈(L1, L2, L3, L4, L5, L6)들 및/또는 적외선 차단 필터(F)는, 물체(obj)를 향하는 물체측 면과 이미지 센서(I)를 향하는 상(image)측 면을 각각 포함할 수 있다. 예를 들어, 제1 렌즈(L1)는 물체측 면(S2) 및 상측 면(S3)을 포함할 수 있다. 제2 렌즈(L2)는 물체측 면(S4) 및 상측 면(S5)을 포함할 수 있다. 제3 렌즈(L3)는 물체측 면(S7) 및 상측 면(S8)을 포함할 수 있다. 제4 렌즈(L4)는 물체측 면(S9) 및 상측 면(S10)을 포함할 수 있다. 제5 렌즈(L5)는 물체측 면(S11) 및 상측 면(S12)을 포함할 수 있다. 제6 렌즈(L6)는 물체측 면(S13) 및 상측 면(S14)을 포함할 수 있다. 일 실시예에 따르면, 제1 렌즈(L1)의 물체측 면(S2)의 일부는 렌즈 배럴(예: 도 6의 렌즈 배럴(10))의 개구를 통해 상기 렌즈 배럴의 외부로 노출될 수 있다.
일 실시예에서, 렌즈(L1, L2, L3, L4, L5, L6)들 중 적어도 하나는 광축(O) 방향을 따라 왕복 운동할 수 있으며, 전자 장치(예: 도 1 전자 장치(101) 및/또는 도 3 및 도 4의 전자 장치(101)) 또는 프로세서(예: 도 1의 프로세서(120))는, 렌즈(L1, L2, L3, L4, L5, L6)들 중 적어도 하나를 왕복 운동시킴으로써, 초점 조절 또는 초점 거리 조절을 수행할 수 있다. 일 실시예에서, 렌즈 어셈블리(400)는 도 3의 카메라 모듈(305) 및/또는 도 4의 카메라 모듈들(312)) 중 적어도 하나에 배치될 수 있다.
일 실시예에 따르면, 렌즈 어셈블리(400)는 적외선 차단 필터(F)를 더 포함할 수 있다. 적외선 차단 필터(F)는 사용자의 육안으로는 식별되지 않지만 필름 또는 이미지 센서(I)에 의해 감지되는 파장 대역의 빛(예: 적외선)을 차단할 수 있다. 일 실시예에서, 렌즈 어셈블리(400) 또는 전자 장치(예: 도 1 전자 장치(101) 및/또는 도 3 및 도 4의 전자 장치(101))의 용도에 따라 적외선 차단 필터(F)는 적외선을 투과시키고 가시광선을 차단하는 대역통과 필터로 대체될 수 있다. 예를 들어, 적외선을 감지하는 용도의 렌즈 어셈블리(400)나 전자 장치(101)에서, 적외선 차단 필터(F)는 적외선을 투과시키는 대역통과 필터로 대체될 수 있다. 예를 들어, 적외선 차단 필터(F)는 물체측 면(S15) 및 상측 면(S16)을 포함할 수 있다.
일 실시예에 따르면, 적외선 차단 필터(F) 및/또는 이미지 센서(I)는 렌즈 어셈블리(400)와는 별도의 구성으로서 설명될 수도 있다. 예를 들어, 적외선 차단 필터(F) 및/또는 이미지 센서(I)는 전자 장치(예: 도 1 전자 장치(101) 및/또는 도 3 및 도 4의 전자 장치(101)) 또는 광학 장치(예: 도 1 카메라 모듈(180), 도 2의 카메라 모듈(280) 및/또는 도 3 및 도 4의 카메라 모듈(305, 312, 313))에 탑재될 수 있으며, 렌즈 어셈블리(400)를 이루는 복수의 렌즈(L1, L2, L3, L4, L5, L6)가 광축(O)을 따라 적외선 차단 필터(F) 및/또는 이미지 센서(I)와 정렬된 상태로 상기 전자 장치 또는 상기 광학 장치에 장착될 수 있다.
도 6을 참조하면, 일 실시예에서, 전자 장치(예: 도 1 전자 장치(101) 및/또는 도 3 및 도 4의 전자 장치(101)) 및/또는 광학 장치(예: 도 1 카메라 모듈(180), 도 2의 카메라 모듈(280) 및/또는 도 3 및 도 4의 카메라 모듈(305, 312, 313))는 렌즈 배럴(10) 및/또는 필름 마스크(11)를 포함할 수 있다. 예를 들어, 도 6은 렌즈 배럴(10) 내에 렌즈 어셈블리(400)의 일부(예: 제1 렌즈(L1) 및 제2 렌즈(L2))가 배치된 모습을 나타낼 수 있다.
일 실시예에서, 전자 장치(예: 도 1 전자 장치(101) 및/또는 도 3 및 도 4의 전자 장치(101))는 전면 카메라(예: 도 3의 제1 카메라 장치(305))를 포함할 수 있다. 예를 들어, 상기 전면 카메라(305)는, 카메라 노출 영역을 통해 빛을 수신하도록 배치될 수 있다. 여기서, 상기 카메라 노출 영역은, 디스플레이(예: 도 1의 디스플레이 모듈(160) 또는 도 3의 디스플레이(301))의 화면 영역의 적어도 일부(예: UDC(under display camera) 영역), 화면 영역의 둘레 영역, 화면 영역의 내측으로 연장 또는 돌출된 노치 영역 및/또는 화면 영역의 일부에 관통 형성된 홀(예: 펀치-홀(punch-hole) 또는 천공 홀)일 수 있다. 예를 들어, 렌즈 배럴(10)은 상기 전자 장치의 디스플레이(예: 도 1의 디스플레이 모듈(160) 또는 도 3의 디스플레이(301)) 내측에 배치될 수 있다. 예를 들어, 상기 렌즈 배럴(10)은 상기 디스플레이에 형성된 카메라 노출 영역을 통해 빛을 수신할 수 있다.
도 6을 참조하면, 렌즈 어셈블리(400)에 포함된 복수 개의 렌즈(L1, L2, L3, L4, L5, L6)들 중 적어도 하나(예: 제2 렌즈(L2))는 비유효경의 시작점에서 상기 렌즈 배럴(10)의 내측면과, 인접한 다른 렌즈의 물체측 면((예: 제3 렌즈(L3)의 물체측 면(S7))의 일부로 연장된 형태의 리브(rib)를 포함할 수 있다. 여기서, 렌즈의 비유효경(non-effective diameter)이란, 렌즈에서 유효경(effective diameter)(예: 도 6의 D1)에 해당하지 않는 부분을 의미하는 것일 수 있다. 예를 들어, 렌즈의 유효경은 렌즈에 광선이 통과하는 실질적인(substantial) 영역에 대응한 렌즈(예: 렌즈((L1, L2, L3, L4, L5, L6))의 중심으로부터 광축(O)에 수직한 방향의 거리를 의미하는 것이며, 렌즈의 비유효경은 상기 렌즈의 유효경의 단부에서부터 렌즈 배럴(예: 렌즈 배럴(10))까지 연장된 렌즈의 나머지 부분을 의미할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 렌즈 배럴(10)의 내측에 필름 마스크(11)를 더 포함할 수 있다. 필름 마스크(11)는 렌즈에 입사하는 광량을 조절해주어 구경 조리개(입사동으로서 F 수(Fno)를 결정함) 또는 시야 조리개(주변 광속의 크기를 조절하여 주변 광량비 및/또는 수차를 조절)의 역할을 할 수 있다. 예를 들어, 제1 렌즈(L1)의 물체측 면(S2)과 렌즈 배럴(10)의 일부는 서로 대면할 수 있다. 서로 대면하는 제1 렌즈(L1) 의 물체측 면(S2)과 렌즈 배럴(10)의 일부 사이에는 필름 마스크(11)가 배치될 수 있다. 예를 들어, 제1 렌즈(L1)의 상측 면(S3)과 제2 렌즈(L2)의 물체측 면(S4)은 서로 대면할 수 있다. 서로 대면하는 제1 렌즈(L1)의 상측 면(S3) 가장자리와 제2 렌즈(L2)의 물체측 면(S4)의 가장자리 사이에는 필름 마스크(11)가 배치될 수 있다.
일 실시예에 따르면, 렌즈 배럴(10)은 렌즈 어셈블리(400)와 필름 마스크(11)의 적어도 일부를 둘러싸도록 형성될 수 있다. 예를 들어, 렌즈 배럴(10)은, 내측 공간에 렌즈 어셈블리(400)와 필름 마스크(11)를 안정적으로 안착시키고, 외부의 광을 차단해주며, 전자 장치(101)의 낙하와 이물질의 유입으로부터 막아주는 역할을 할 수 있다.
이하의 상세한 설명에서는 렌즈(L1, L2, L3, L4, L5, L6)들의 물체(obj)측을 향하는 면인 물체측 면 및/또는 이미지 센서(I)나 결상면(img)을 향하는 면인 상측 면의 형상에 관해 '오목하다' 또는 '볼록하다'라는 용어를 사용하여 설명할 수 있다. 이러한 렌즈의 면의 형상에 관한 언급은, 광축(O)에 교차하는 지점 또는 광축(O)에 교차하는 근축 영역의 형상에 관한 설명일 수 있다. '물체측 면이 오목하다'라 함은 물체측 면의 곡률 반경 중심이 물체(obj) 측에 위치된 형상을 설명할 수 있다. '물체측 면이 볼록하다'라 함은 물체측 면의 곡률 반경 중심이 이미지 센서(I) 측에 위치된 형상을 설명할 수 있다. 따라서, 렌즈의 일면(해당 면의 광축 부분)이 볼록한 형상이라고 설명되어도, 렌즈의 가장자리 부분(해당 면의 광축 부분으로부터 소정거리 이격된 부분)은 오목할 수 있다. 마찬가지로, 렌즈의 일면(해당 면의 광축 부분이)이 오목한 형상이라고 설명되어도, 렌즈의 가장자리 부분(해당 면의 광축 부분으로부터 소정거리 이격된 부분)은 볼록할 수 있다. 이하의 상세한 설명 및 청구범위에서 변곡점(inflection point)이라 함은 광축과 교차하지 않는 부분에서 곡률 반지름이 변경되는 지점을 의미할 수 있다.
아울러, 이하의 상세한 설명에서, 본 개시의 렌즈(L1, L2, L3, L4, L5, L6)의 곡률 반지름, 두께, TTL(total track length), 초점 거리 등은 특별한 언급이 없는 한 모두 ㎜ 단위를 가질 수 있다. 또한, 렌즈(L1, L2, L3, L4, L5, L6)의 두께, 렌즈들 간의 간격, TTL(또는 OAL(overall length))은 렌즈의 광축(O)을 중심으로 측정된 거리일 수 있다.
일 실시예에 따르면, 렌즈 어셈블리(400)에서, 조리개(sto)는 렌즈(L1, L2, L3, L4, L5, L6)들보다 물체(obj)측에 배치될 수 있다. 이러한 조리개(sto)의 배치는, 광각의 화각을 갖는, 슬림화된 렌즈 어셈블리(400)를 구현 가능하도록 할 수 있다. 일 실시예에 따르면, 렌즈 어셈블리(400)에서, 조리개(sto)와 상기 제2 렌즈(L2)의 물체측 면(S4) 사이의 거리(예: 도 5의 T1)는 약 0.6mm 내지 약 1.4mm일 수 있다.
일 실시예에 따르면, 제1 렌즈(L1)는 예를 들면, 물체(obj) 또는 조리개(sto)에 가장 가까이 배치된 렌즈로서 정의 굴절력(positive refractive power)을 가질 수 있다. 일 실시예에서, 제1 렌즈(L1)는 물체(obj)측으로 볼록한 메니스커스 렌즈일 수 있다. 이러한 제1 렌즈(L1)는, 물체(obj)측으로 볼록한 메니스커스 형상을 가짐으로써 렌즈 어셈블리(400)의 전장(예: 제1 렌즈(L1)의 물체측 면(S2)으로부터 결상면(img)까지의 거리)을 축소할 수 있다. 일 실시예에서, 제1 렌즈의 중심 두께(thickness)는 다른 렌즈들(L2, L3, L4, L5, L6)의 두께보다 클 수 있다. 예를 들어, 상기 중심 두께는 광축(O)을 기준으로 측정될 수 있다.
일 실시예에 따르면, 제2 렌즈(L2)는 조리개(sto)로부터 두번째로 배치될 수 있고, 부의 굴절력(negative refractive power)을 가질 수 있다. 일 실시예에서, 제2 렌즈(L2)는 물체측 면(S4) 및/또는 상측 면(S5)이 오목한 형상일 수 있다.
일 실시예에 따르면, 제3 렌즈(L3)는 조리개(sto)로부터 세번째로 배치될 수 있고, 정의 굴절력을 가질 수 있다. 일 실시예에 따르면, 제3 렌즈(L3)는 상(image) 측으로 볼록한 형상의 메니스커스 렌즈일 수 있다. 예를 들어, 제3 렌즈(L3)의 물체측 면(L7)은 오목할 수 있고, 제3 렌즈(L3)의 상측 면(L8)은 볼록할 수 있다.
일 실시예에 따르면, 제4 렌즈(L4)는 조리개(sto)로부터 네번째로 배치될 수 있고 부의 굴절력을 가질 수 있으며, 실시예에 따라 정의 굴절력을 가질 수 있다.
일 실시예에 따르면, 제5 렌즈(L5)는 조리개(sto)로부터 다섯번째로 배치될 수 있고, 부의 굴절력을 가질 수 있다. 예를 들어, 제5 렌즈(L5)의 물체측 면(S11) 및/또는 상측 면(S12)에 적어도 하나의 변곡점을 포함할 수 있다. 예를 들어, 제5 렌즈(L5)는 물체(obj)측으로 볼록한 형상의 메니스커스 렌즈일 수 있다. 예를 들어, 제5 렌즈(L5)의 물체측 면(S11)은 볼록할 수 있고, 제5 렌즈(L5)의 상측 면(S12)은 오목할 수 있다.
일 실시예에 따르면, 제6 렌즈(L6)는 이미지 센서(I)에 가장 가까이 배치될 수 있다. 예를 들어, 제6 렌즈(L6)는 정의 굴절력을 가질 수 있다. 예를 들어, 제6 렌즈(L6)는 물체측 면(S13) 및/또는 상측 면(S14)에 각각 적어도 하나의 변곡점을 포함할 수 있다, 일 실시예에서, 제6 렌즈(L6)는 물체(obj)측으로 볼록한 형상의 메니스커스 렌즈일 수 있다. 예를 들어, 제6 렌즈(L6)의 물체측 면(S13)은 볼록할 수 있고, 제6 렌즈(L6)의 상측 면(S14)은 오목할 수 있다. 일 실시예에서, 적외선 차단 필터(F)는 제6 렌즈(L6)와 이미지 센서(I) 사이에 배치될 수 있다. 제5 렌즈(L5) 및/또는 제6 렌즈(L6)의 위와 같은 굴절력이나 렌즈 형상은, 예를 들어, 주변 영역의 광학 성능 제어(예: 비점수차 보정)를 용이하게 하며, 결상면(img)에 입사되는 주변 영역 광선의 입사각이 커지는 것을 억제할 수 있다.
일 실시예에 따르면, 복수의 렌즈(L1, L2, L3, L4, L5, L6)들 중 일부는, 적어도 하나의 렌즈 면(예: 물체측 면 및/또는 상측 면)을 비구면(aspheric)으로 형성할 수 있다. 렌즈에서 발생 가능한 구면 수차는, 복수의 렌즈(L1, L2, L3, L4, L5, L6)들 중 일부의 렌즈 면을 비구면(aspheric)으로 구현함으로써 억제될 수 있다. 일 실시예에 따르면, 렌즈 면을 비구면으로 형성함으로써, 이미지 센서(I)의 주변부에서 코마(coma)가 발생되는 것을 방지할 수 있고, 비점수차 제어가 용이해질 수 있으며, 이미지 센서(I)의 결상면(img)의 중심부로부터 주변부까지의 상면만곡의 발생을 저감할 수 있다.
일 실시예에 따르면, 조리개(sto)는 렌즈(L1, L2, L3, L4, L5, L6)들보다 물체(obj)측에 배치되며, 실질적으로 렌즈 어셈블리(400)로 빛이 입사되는 영역을 정의할 수 있다. 예를 들어, 렌즈(L1, L2, L3, L4, L5, L6)들은 실질적으로 조리개(sto)와 이미지 센서(I) 사이에 배치되며, 조리개(sto)를 통해 입사된 빛을 집속하여 이미지 센서(I)로 입사시킬 수 있다. 일 실시예에서, 조리개(sto)가 렌즈(L1, L2, L3, L4, L5, L6)들보다 물체(obj)측에 배치됨으로써, 렌즈(L1, L2, L3, L4, L5, L6)들(예: 물체(obj)측 첫번째로 배치된, 또는 조리개에 가장 가까이 배치된 제1 렌즈(L1))의 유효경을 줄이더라도 광각 성능을 확보하기 용이할 수 있다. 예컨대, 조리개(sto)가 렌즈(L1, L2, L3, L4, L5, L6)들보다 물체(obj)측에 배치됨으로써, 렌즈 어셈블리(400)는 소형화되면서도 향상된 광각 성능을 가질 수 있다. 이러한 렌즈(L1, L2, L3, L4, L5, L6)들의 구성 및 조리개(sto)의 배치를 통해, 렌즈 어셈블리(400)는 소형화 및/또는 소구경화되면서 고화소 센서(예: 이미지 센서(I))에 적합한 광각 성능을 제공할 수 있다. 예를 들어, 렌즈 어셈블리(400)는 고성능 이미지 센서에 적합한 광학적 성능을 제공하면서 대략 100도의 화각을 구현할 수 있다.
본 문서에 개시된 일 실시예에 따른 렌즈 어셈블리(400), 예컨대 제1 렌즈(L1) 및/또는 제2 렌즈(L2)는 소구경으로 형성될 수 있다. 예를 들어, 제1 렌즈의 소구경화됨에 따라, 제1 렌즈(L1)가 배치된 렌즈 배럴(예: 도 6의 렌즈 배럴(10))의 가장 외측 부분인, 상기 렌즈 배럴의 탑(top) 부분의 외경(예: 도 6의 D1)이 축소될 수 있다. 이에, 전자 장치(예: 도 1 전자 장치(101) 및/또는 도 3 및 도 4의 전자 장치(101)) 또는 광학 장치(예: 카메라 모듈)에 형성된 카메라 노출 영역(예: 펀치-홀(punch-hole) 또는 천공 홀 영역)의 크기가 축소될 수 있다. 예를 들어, 제1 렌즈(L1) 및/또는 제2 렌즈(L2)의 소구경화는, 예컨대 렌즈 어셈블리(400)가 전면 카메라에 배치될 때, 디스플레이의 확장에 기여할 수 있다. 일 실시예에서, 렌즈 어셈블리(400)는 소구경화되고 및/또는 향상된 광각 성능을 가짐으로써, 전면 카메라로 배치될 때 전자 장치의 소형화에 기여할 수 있으며, 및/또는 화면 영역의 잠식을 억제할 수 있다. 일 실시예에서, 전자 장치의 전면 카메라를 구현함에 있어, 렌즈 어셈블리(400)는 고성능 이미지 센서를 활용할 수 있는 환경을 제공하면서 향상된 광각 성능을 제공할 수 있다.
일 실시예에 따르면, 렌즈 어셈블리(400)는 다음의 [수학식 1]을 통해 제시된 조건을 만족할 수 있다.
Figure PCTKR2023014804-appb-img-000001
[수학식 1]에서, 'TTL'은 제1 렌즈(L1)의 물체측 면(S2)으로부터 결상면(img)까지의 거리로서 광축(O)에서 측정된 거리(이하, '렌즈 전장')일 수 있다. [수학식 1]에서, 'IH'는 이미지 센서(I)의 대각선 길이의 절반으로서, 광축(O)으로부터 결상면(img) 가장자리까지 측정된 높이 또는 거리 중 결상면(img)의 최대 높이일 수 있다. [수학식 1]에서, 'HFOV'는 렌즈 어셈블리 및 이미지 센서를 포함하는 전체 광학계의 반 화각일 수 있다. [수학식 1]의 산출값이 0.8보다 작은 경우, 제조 민감도가 증가할 수 잇다. 예를 들어, 렌즈(L1, L2, L3, L4, L5, L6)들의 두께가 너무 작아져 제작에 어려움이 있을 수 있다. [수학식 1]의 산출값이 2보다 커지는 경우, 렌즈 어셈블리(400)의 소형화(또는 슬림화)가 곤란할 수 있고, 예컨대 렌즈 어셈블리(400)는 전장의 축소가 어려울 수 있다. 이러한 렌즈 어셈블리(400)가 실장된 광학 장치(예: 도 3 또는 도 4의 카메라 모듈(305, 312) 전체의 높이가 증가할 수 있고, 예컨대 전자 장치(예: 도 1, 도 3 및/또는 도 4의 전자 장치(101))의 외관으로 상기 광학 장치의 일부가 돌출될 수 있다.
일 실시예에 따르면, 렌즈 어셈블리(400)는 다음의 [수학식 2]를 통해 제시된 조건을 만족할 수 있다.
Figure PCTKR2023014804-appb-img-000002
[수학식 1]에서, 'f6'은 제6 렌즈(L6)의 유효 초점거리일 수 있다. [수학식 1]에서, 'f'는 렌즈 어셈블리(400)와 이미지 센서를 포함하는 전체 광학계의 합성 유효 초점거리일 수 있다. 예를 들어, [수학식 2]의 산출값이 1.7보다 작은 경우, 렌즈 어셈블리(400)가 슬림화될 수 있으나, 제6 렌즈(L6)의 민감도가 증가할 수 있다. 이에, 렌즈 어셈블리(400)의 광학적 성능을 제어(예: 수차 보정)하기 어려울 수 있고, 제조 민감도의 조정이 어려울 수 있다.
일 실시예에 따르면, 렌즈 어셈블리(400)는 다음의 [수학식 3]를 통해 제시된 조건을 만족할 수 있다.
Figure PCTKR2023014804-appb-img-000003
[수학식 3]에서, 'L1S1'은 제1 렌즈의 물체측 면(S2)의 곡률 반경일 수 있고, 'L6S2'는 제6 렌즈의 상측 면(S14)의 곡률 반경일 수 있다. 예를 들어, [수학식 3]의 산출값이 4보다 커지는 경우, 왜곡 수차의 제어에 어려움이 있을 수 있다. 예를 들어, [수학식 2]의 산출값이 1보다 작아지면, 렌즈(L1, L2, L3, L4, L5, L6)들의 민감도가 커져 제작이 어려울 수 있다.
본 [실시예1] 및/또는 후술되는 [실시예2-5]의 렌즈 어셈블리(400, 500, 600, 700, 800)는 아래의 [표 1]에서 기재하는 바와 같이 상술한 [수학식 1-3]의 조건을 만족할 수 있다.
실시예 1 실시예 2 실시예 3 실시예 4 실시예 5
수학식 1 1.7 1.7 1.5 1.7 1.5
수학식 2 7.6 5.4 1.9 3.1 2.0
수학식 3 1.8 1.7 2.2 1.9 2.2
이와 같이, 렌즈 어셈블리(400)는 상술한 조건들 중 적어도 하나를 만족함으로써, 슬림화되면서 광각의 화각을 갖는 렌즈 어셈블리(400)로서 구현될 수 있다. 일 실시예에서, 렌즈 어셈블리(400)는 상술한 렌즈(L1, L2, L3, L4, L5, L6) (예: 렌즈면)(들)의 형상과 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족할 수 있으며, 다음의 [표 2]에 예시된 사양으로 제작될 수 있다. [표 2]에서, 렌즈 면 6은 제2 렌즈(L2)와 제3 렌즈(L3) 사이의 간극을 지칭할 수 있고, 그 두께의 측정 값은 두 렌즈 사이의 공기 간격일 수 있다.
렌즈면
(Surface)
곡률 반경
(Radius)
두께
(Thickness)
유효경
(H-Ape)
유효 초점 거리
(EFL)
굴절률
(Nd)
아베수
(Vd)
obj infinity infinity        
sto infinity -0.020 0.720      
2 1.507 0.725 0.737 2.74 1.544 56.1
3 -199.390 0.148 0.715      
4 -15.548 0.180 0.680 -6.94 1.671 19.2
5 6.793 0.090 0.693      
6 infinity 0.156 0.707      
7 -6.218 0.221 0.732 27.37 1.544 56.1
8 -4.447 0.052 0.875      
9 -14.504 0.197 1.124 -62.10 1.614 25.9
10 -23.391 0.206 1.254      
11 -59.008 0.418 1.362 -14.95 1.614 25.9
12 11.028 0.094 1.641      
13 0.987 0.551 1.927 24.97 1.535 55.7
14 0.858 0.300 2.302      
15 infinity 0.110 2.428 infinity 1.517 64.2
16 infinity 0.572 2.466      
img infinity 0.016 2.805      
하기의 [표 3], [표 4] 및 [표 5]는 렌즈(L1, L2, L3, L4, L5, L6)들의 비구면 계수를 기재한 것으로서, 비구면의 정의는 다음의 [수학식 4]를 통해 산출될 수 있다.
Figure PCTKR2023014804-appb-img-000004
여기서, 'z'는 렌즈(L1, L2, L3, L4, L5, L6)의 정점으로부터 광축(O) 방향으로의 거리를, 'y'는 광축(O)에 수직인 방향으로의 거리를, 'c''은 렌즈의 정점에서 곡률 반경의 역수를, 'K(Conic)'는 코닉(Conic) 상수를, 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'J', 'K', 'L', 'M', 'N', 'O'는 각각 비구면 계수를 의미할 수 있다.
렌즈면
(Surface)
2 3 4 5
K(Conic) -7.5553E-01 -1.0000E+00 -1.5000E+01 3.8528E+01
A(4th) -4.5489E-02 -1.9895E-01 -1.2362E-01 4.0921E-02
B(6th) 7.7952E-01 1.2215E-01 -1.2918E-01 -6.1975E-01
C(8th) -7.7347E+00 -1.1471E+00 2.2162E+00 4.5662E+00
D(10th) 4.1204E+01 4.8612E+00 -6.5439E+00 -1.2739E+01
E(12th) -1.2936E+02 -1.0287E+01 1.0134E+01 1.7561E+01
F(14th) 2.3598E+02 1.1765E+01 -6.0079E+00 -9.5720E+00
G(16th) -2.3193E+02 -5.6623E+00 0.0000E+00 0.0000E+00
H(18th) 9.5050E+01 0.0000E+00 0.0000E+00 0.0000E+00
J(20th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
K(22th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
L(24th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
7 8 9 10
K(Conic) 6.2434E+01 1.5470E+01 -1.0821E+01 -5.1938E+00
A(4th) 1.9313E-01 2.3997E-01 -8.5698E-02 1.3201E-01
B(6th) -3.3531E+00 -2.6775E+00 4.4734E-01 -6.2398E-01
C(8th) 1.5907E+01 9.5107E+00 -9.5728E-01 1.1543E+00
D(10th) -5.5305E+01 -2.1309E+01 1.0828E+00 -1.1698E+00
E(12th) 1.5736E+02 3.1992E+01 -6.5748E-01 7.0201E-01
F(14th) -3.5062E+02 -3.4813E+01 1.9661E-01 -2.3267E-01
G(16th) 5.3197E+02 2.9234E+01 -2.2346E-02 3.2279E-02
H(18th) -4.6644E+02 -1.7374E+01 0.0000E+00 0.0000E+00
J(20th) 1.7518E+02 5.2544E+00 0.0000E+00 0.0000E+00
K(22th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
L(24th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
11 12 13 14
K(Conic) -6.4819E+01 8.1422E+00 -1.8239E+00 -1.0107E+00
A(4th) 9.0439E-01 6.4901E-02 -1.0119E+00 -8.7151E-01
B(6th) -2.7123E+00 6.5221E-01 1.9427E+00 1.2437E+00
C(8th) 4.1401E+00 -2.9380E+00 -3.3938E+00 -1.6312E+00
D(10th) 4.3725E-02 5.2915E+00 4.1223E+00 1.6549E+00
E(12th) -2.0844E+01 -5.5968E+00 -3.3859E+00 -1.2380E+00
F(14th) 6.2342E+01 3.7841E+00 1.9445E+00 6.7710E-01
G(16th) -1.0369E+02 -1.6551E+00 -7.9902E-01 -2.7022E-01
H(18th) 1.1179E+02 4.5294E-01 2.3649E-01 7.8260E-02
J(20th) -8.0867E+01 -7.0375E-02 -4.9986E-02 -1.6225E-02
K(22th) 3.8979E+01 4.7149E-03 7.3506E-03 2.3424E-03
L(24th) -1.2007E+01 4.4868E-06 -7.1307E-04 -2.2332E-04
M(26th) 2.1368E+00 0.0000E+00 4.0929E-05 1.2627E-05
N(28th) -1.6703E-01 0.0000E+00 -1.0499E-06 -3.2036E-07
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
[실시예 2]
도 10은 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다. 도 11은 본 문서에 개시된 일 실시예에 따른, 도 10의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다. 도 12는 본 문서에 개시된 일 실시예에 따른, 도 10의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다. 도 13은 본 문서에 개시된 일 실시예에 따른, 도 10의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
도 11은 본 개시의 일 실시예에 따른 렌즈 어셈블리(500)의 구면수차를 나타내는 그래프로서, 가로축은 종방향 구면수차의 계수를 나타내고, 세로축은 광축(O)으로부터의 거리를 규격화(normalization)하여 나타내며, 빛의 파장에 따른 종방향 구면수차의 변화가 도시된다. 종방향 구면수차는, 예를 들면, 파장이 656.2725(NM, nanometer), 587.5618(NM), 546.0740(NM), 486.1327(NM), 435.8343(NM)인 광에 대해 각각 나타낸다. 도 12는 본 개시의 일 실시예에 따른 렌즈 어셈블리(500)의 비점수차를 나타내는 그래프로서, 파장이 546.0740(NM)인 광에 대해 나타낸 것이며, 'S '는 구결면(sagittal plane)을 예시하고, 'T'는 자오면(tangential plane)을 예시하고 있다. 도 13은 본 개시의 일 실시예에 따른 렌즈 어셈블리(500)의 왜곡율을 나타내는 그래프로서, 파장이 546.0740(NM)인 광에 대해 나타낸 것이다.
일 실시예에서, 렌즈 어셈블리(500)는 도 5 및 도 6를 참조하여 상술한 렌즈(예: 렌즈면)(들)의 형상과 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족할 수 있으며, 다음의 [표 6]에 예시된 사양으로 제작될 수 있고, [표 7], [표 8] 및 [표 9]의 비구면 계수를 가질 수 있다.
렌즈면
(surface)
곡률 반경
(Radius)
두께
(Thickness)
유효경
(H-Ape)
유효 초점 거리
(EFL)
굴절률
(Nd)
아베수
(Vd)
obj infinity infinity        
sto infinity -0.100 0.717      
2 1.489 0.734 0.730 2.73 1.544 56.1
3 358.091 0.136 0.705      
4 -23.426 0.190 0.678 -7.05 1.671 19.2
5 6.034 0.091 0.691      
6 infinity 0.157 0.700      
7 -6.041 0.221 0.733 38.35 1.544 56.1
8 -4.750 0.073 0.881      
9 -17.205 0.190 1.170 -102.97 1.614 25.9
10 -23.652 0.174 1.284      
11 -34.834 0.417 1.347 -12.92 1.614 25.9
12 10.452 0.081 1.604      
13 0.977 0.563 1.922 17.65 1.535 55.7
14 0.870 0.700 2.345      
15 infinity 0.110 2.656 infinity 1.517 64.2
16 infinity 0.164 2.695      
img infinity 0.006 2.807      
렌즈면
(Surface)
2 3 4 5
K(Conic) -7.0156E-01 -1.0000E+00 -1.0000E+00 3.6156E+01
A(4th) -2.4663E-02 -2.0465E-01 -1.2547E-01 4.5241E-02
B(6th) 4.5147E-01 2.5310E-01 2.1671E-02 -5.2762E-01
C(8th) -4.8692E+00 -2.3223E+00 9.6163E-01 3.9819E+00
D(10th) 2.6884E+01 9.8734E+00 -2.8305E+00 -1.1832E+01
E(12th) -8.6396E+01 -2.1661E+01 5.1504E+00 1.7661E+01
F(14th) 1.5964E+02 2.5287E+01 -3.4307E+00 -1.0568E+01
G(16th) -1.5790E+02 -1.2274E+01 0.0000E+00 0.0000E+00
H(18th) 6.4893E+01 0.0000E+00 0.0000E+00 0.0000E+00
J(20th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
K(22th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
L(24th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
7 8 9 10
K(Conic) 6.2223E+01 1.9132E+01 -7.0745E-01 -1.0000E+01
A(4th) 1.9992E-01 3.2144E-01 -2.5141E-02 4.0861E-02
B(6th) -3.5605E+00 -2.8998E+00 1.8218E-01 -1.3326E-01
C(8th) 1.8998E+01 7.3785E+00 -5.0063E-01 1.2319E-01
D(10th) -7.1758E+01 -4.6692E+00 6.9977E-01 -2.4862E-02
E(12th) 1.9323E+02 -2.6572E+01 -5.2191E-01 -1.4659E-02
F(14th) -3.4495E+02 8.7756E+01 1.9756E-01 5.0381E-03
G(16th) 3.5909E+02 -1.2482E+02 -2.9818E-02 9.3448E-05
H(18th) -1.6733E+02 8.9452E+01 0.0000E+00 0.0000E+00
J(20th) 6.5005E+00 -2.6134E+01 0.0000E+00 0.0000E+00
K(22th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
L(24th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
11 12 13 14
K(Conic) 1.0000E+01 8.3569E+00 -1.8574E+00 -1.0105E+00
A(4th) 8.8342E-01 1.0770E-01 -9.3195E-01 -8.1126E-01
B(6th) -2.8551E+00 2.6562E-01 1.6323E+00 1.0741E+00
C(8th) 5.6575E+00 -1.6414E+00 -2.6289E+00 -1.2947E+00
D(10th) -6.6446E+00 2.8918E+00 2.9657E+00 1.1977E+00
E(12th) -1.8182E+00 -2.8176E+00 -2.2765E+00 -8.1181E-01
F(14th) 2.4923E+01 1.6578E+00 1.2368E+00 4.0077E-01
G(16th) -5.2061E+01 -5.6158E-01 -4.8936E-01 -1.4408E-01
H(18th) 6.1795E+01 7.8400E-02 1.4254E-01 3.7580E-02
J(20th) -4.7197E+01 1.1588E-02 -3.0385E-02 -7.0248E-03
K(22th) 2.3592E+01 -5.6495E-03 4.6253E-03 9.1646E-04
L(24th) -7.4669E+00 5.7963E-04 -4.7729E-04 -7.9216E-05
M(26th) 1.3580E+00 0.0000E+00 2.9966E-05 4.0770E-06
N(28th) -1.0811E-01 0.0000E+00 -8.6506E-07 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
[실시예 3]
도 14는 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다. 도 15는 본 문서에 개시된 일 실시예에 따른, 도 14의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다. 도 16은 본 문서에 개시된 일 실시예에 따른, 도 14의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다. 도 17은 본 문서에 개시된 일 실시예에 따른, 도 14의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
일 실시예에서, 렌즈 어셈블리(600)는 도 5 및 도 6를 참조하여 상술한 렌즈(예: 렌즈면)(들)의 형상과 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족할 수 있으며, 다음의 [표 10]에 예시된 사양으로 제작될 수 있고, [표 11], [표 12] 및 [표 13]의 비구면 계수를 가질 수 있다.
렌즈면
(surface)
곡률 반경
(Radius)
두께
(Thickness)
유효경
(H-Ape)
유효 초점 거리
(EFL)
굴절률
(Nd)
아베수
(Vd)
Obj infinity infinity        
sto infinity 0.000 0.649      
2 1.750 0.691 0.649 2.70 1.544 56.1
3 -8.081 0.129 0.682      
4 -4.277 0.200 0.666 -6.64 1.661 20.4
5 -121.768 0.060 0.680      
6 infinity 0.155 0.718      
7 -50.924 0.298 0.772 22.00 1.544 56.1
8 -9.745 0.092 0.922      
9 -11.412 0.200 1.098 -170.79 1.614 25.9
10 -12.876 0.129 1.223      
11 340.090 0.331 1.308 -7.17 1.635 23.9
12 4.531 0.097 1.614      
13 0.801 0.588 1.824 5.72 1.535 55.7
14 0.805 0.700 2.162      
15 infinity 0.110 2.674 infinity 1.517 64.2
16 infinity 0.142 2.712      
img infinity 0.008 2.800      
렌즈면
(Surface)
2 3 4 5
K(Conic) -1.5159E+00 0.0000E+00 3.4845E+01 9.8000E+01
A(4th) -3.5697E-02 -1.9371E-01 -5.4326E-02 5.8764E-02
B(6th) 7.7102E-01 -1.4906E-01 2.3419E-01 -5.1050E-01
C(8th) -1.1709E+01 5.0806E-01 -2.7481E+00 4.9390E+00
D(10th) 1.0320E+02 -5.0117E+00 1.7048E+01 -2.9037E+01
E(12th) -5.9913E+02 2.5099E+01 -6.7106E+01 9.7503E+01
F(14th) 2.3337E+03 -6.6523E+01 1.7315E+02 -1.9324E+02
G(16th) -6.0738E+03 9.9797E+01 -2.4720E+02 2.1001E+02
H(18th) 1.0151E+04 -7.6470E+01 1.5018E+02 -9.6982E+01
J(20th) -9.8561E+03 1.8771E+01 0.0000E+00 0.0000E+00
K(22th) 4.2219E+03 0.0000E+00 0.0000E+00 0.0000E+00
L(24th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
7 8 9 10
K(Conic) 6.1187E+01 9.5285E+01 0.0000E+00 0.0000E+00
A(4th) -8.9112E-02 1.9887E-01 -1.7912E-02 -2.7665E-02
B(6th) 6.8545E-01 -2.1177E+00 -6.2688E-02 1.7780E-01
C(8th) -2.1329E+01 5.1709E+00 5.0684E-01 -3.6289E-01
D(10th) 2.2078E+02 1.8230E+00 -1.2344E+00 3.2817E-01
E(12th) -1.3382E+03 -6.3797E+01 1.3846E+00 -1.3361E-01
F(14th) 5.2790E+03 2.5712E+02 -7.3658E-01 1.9870E-02
G(16th) -1.3944E+04 -5.7807E+02 1.5031E-01 0.0000E+00
H(18th) 2.4451E+04 8.0760E+02 0.0000E+00 0.0000E+00
J(20th) -2.7298E+04 -6.9428E+02 0.0000E+00 0.0000E+00
K(22th) 1.7562E+04 3.3727E+02 0.0000E+00 0.0000E+00
L(24th) -4.9554E+03 -7.1000E+01 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
11 12 13 14
K(Conic) 5.0053E+01 6.0831E+00 -2.3157E+00 -1.1003E+00
A(4th) 1.0740E+00 1.4916E-01 -8.7727E-01 -7.2642E-01
B(6th) -4.2844E+00 -5.2211E-01 1.7619E+00 7.3421E-01
C(8th) 1.6073E+01 4.5436E+00 -3.6933E+00 -5.4045E-01
D(10th) -5.1462E+01 -1.9495E+01 6.9708E+00 1.9138E-01
E(12th) 1.2343E+02 4.6572E+01 -1.0651E+01 3.9522E-02
F(14th) -2.1673E+02 -7.2433E+01 1.1784E+01 -6.7546E-02
G(16th) 2.7814E+02 7.8510E+01 -9.0936E+00 1.9004E-02
H(18th) -2.5972E+02 -6.1017E+01 4.9045E+00 7.2691E-03
J(20th) 1.7407E+02 3.4245E+01 -1.8607E+00 -7.5047E-03
K(22th) -8.1413E+01 -1.3758E+01 4.9507E-01 2.7853E-03
L(24th) 2.5181E+01 3.8551E+00 -9.0566E-02 -5.8698E-04
M(26th) -4.6204E+00 -7.1473E-01 1.0863E-02 7.3916E-05
N(28th) 3.8003E-01 7.8714E-02 -7.7017E-04 -5.2041E-06
O(30th) 0.0000E+00 -3.8956E-03 2.4484E-05 1.5825E-07
[실시예 4]
도 18은 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다. 도 19는 본 문서에 개시된 일 실시예에 따른, 도 18의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다. 도 20은 본 문서에 개시된 일 실시예에 따른, 도 18의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다. 도 21은 본 문서에 개시된 일 실시예에 따른, 도 18의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
일 실시예에서, 렌즈 어셈블리(700)는 도 5 및 도 6를 참조하여 상술한 렌즈(예: 렌즈면)(들)의 형상과 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족할 수 있으며, 다음의 [표 14]에 예시된 사양으로 제작될 수 있고, [표 15], [표 16] 및 [표 17]의 비구면 계수를 가질 수 있다.
렌즈면
(surface)
곡률 반경
(Radius)
두께
(Thickness)
유효경
(H-Ape)
유효 초점 거리
(EFL)
굴절률
(Nd)
아베수
(Vd)
Obj infinity infinity        
sto infinity 0.000 0.721      
2 1.542 0.750 0.727 2.67 1.544 56.1
3 -22.809 0.120 0.727      
4 -7.055 0.195 0.705 -6.90 1.661 20.4
5 13.437 0.107 0.685      
6 infinity 0.142 0.722      
7 -57.923 0.270 0.769 20.84 1.544 56.1
8 -9.535 0.086 0.937      
9 -6.483 0.233 1.122 -23.51 1.635 23.9
10 -11.535 0.138 1.289      
11 20.853 0.335 1.404 -9.13 1.635 23.9
12 4.543 0.140 1.638      
13 0.877 0.531 1.823 10.21 1.535 55.7
14 0.822 0.500 2.107      
15 infinity 0.110 2.536 infinity 1.517 64.2
16 infinity 0.363 2.578      
img infinity -0.012 2.800      
렌즈면
(Surface)
2 3 4 5
K(Conic) -8.6671E-01 0.0000E+00 3.4930E+01 7.0421E+01
A(4th) -3.4245E-02 -1.9225E-01 -4.6663E-02 8.7409E-02
B(6th) 9.1974E-01 9.0060E-02 -2.1425E-01 -7.1259E-01
C(8th) -1.3343E+01 -8.8290E-01 1.8780E+00 6.9407E+00
D(10th) 1.1018E+02 3.2179E+00 -3.3671E+00 -3.5622E+01
E(12th) -5.7093E+02 -5.3680E+00 -1.3790E+01 1.1409E+02
F(14th) 1.8989E+03 -4.2047E+00 7.8346E+01 -2.2671E+02
G(16th) -4.0464E+03 4.4546E+01 -1.3425E+02 2.5635E+02
H(18th) 5.3296E+03 -8.4076E+01 7.9375E+01 -1.2517E+02
J(20th) -3.9413E+03 5.2114E+01 0.0000E+00 0.0000E+00
K(22th) 1.2479E+03 0.0000E+00 0.0000E+00 0.0000E+00
L(24th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
7 8 9 10
K(Conic) 6.1187E+01 3.6245E+01 -2.5996E+01 0.0000E+00
A(4th) 8.4046E-02 3.2065E-01 -1.9375E-02 -9.3190E-03
B(6th) -1.3324E+00 -1.2622E+00 2.3103E-01 9.1893E-03
C(8th) -2.5491E+00 -5.8585E+00 -6.7908E-01 4.6812E-02
D(10th) 7.2293E+01 6.0202E+01 1.0770E+00 -1.7686E-01
E(12th) -5.3274E+02 -2.5108E+02 -9.5910E-01 2.7654E-01
F(14th) 2.4040E+03 6.5087E+02 4.4187E-01 -2.2336E-01
G(16th) -7.1941E+03 -1.1295E+03 -8.1865E-02 9.2130E-02
H(18th) 1.4169E+04 1.3158E+03 0.0000E+00 -1.5530E-02
J(20th) -1.7575E+04 -9.8867E+02 0.0000E+00 0.0000E+00
K(22th) 1.2420E+04 4.3336E+02 0.0000E+00 0.0000E+00
L(24th) -3.8077E+03 -8.4208E+01 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
11 12 13 14
K(Conic) -3.0242E+00 5.8919E+00 -2.4776E+00 -1.1219E+00
A(4th) 8.4655E-01 -1.1531E-01 -1.0380E+00 -9.1296E-01
B(6th) -2.3459E+00 2.0035E+00 2.5359E+00 1.4108E+00
C(8th) 4.9617E+00 -7.5960E+00 -5.4283E+00 -1.9722E+00
D(10th) -1.0725E+01 1.5420E+01 8.7603E+00 2.1616E+00
E(12th) 2.0566E+01 -2.0639E+01 -1.0713E+01 -1.8022E+00
F(14th) -3.0145E+01 1.9385E+01 9.6952E+00 1.1252E+00
G(16th) 3.1358E+01 -1.3128E+01 -6.3106E+00 -5.1783E-01
H(18th) -2.2197E+01 6.5471E+00 2.9065E+00 1.7290E-01
J(20th) 1.0163E+01 -2.4783E+00 -9.3451E-01 -4.1078E-02
K(22th) -2.7114E+00 7.4635E-01 2.0492E-01 6.7353E-03
L(24th) 2.9520E-01 -1.8557E-01 -2.9214E-02 -7.2202E-04
M(26th) 2.5718E-02 3.6492E-02 2.4423E-03 4.5426E-05
N(28th) -7.0314E-03 -4.8090E-03 -9.0938E-05 -1.2693E-06
O(30th) 0.0000E+00 2.9985E-04 0.0000E+00 0.0000E+00
[실시예 5]
도 22는 본 문서에 개시되는 일 실시예에 따른 렌즈 어셈블리 및 이미지 센서를 포함하는 광학계를 나타내는 구성도이다. 도 23은 본 문서에 개시된 일 실시예에 따른, 도 22의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다. 도 24는 본 문서에 개시된 일 실시예에 따른, 도 22의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다. 도 25는 본 문서에 개시된 일 실시예에 따른, 도 22의 렌즈 어셈블리의 왜곡수차를 나타내는 그래프이다.
일 실시예에서, 렌즈 어셈블리(800)는 도 5 및 도 6를 참조하여 상술한 렌즈(예: 렌즈면)(들)의 형상과 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족할 수 있으며, 다음의 [표 18]에 예시된 사양으로 제작될 수 있고, [표 19], [표 20] 및 [표 21]의 비구면 계수를 가질 수 있다.
렌즈면
(surface)
곡률 반경
(Radius)
두께
(Thickness)
유효경
(H-Ape)
유효 초점 거리
(EFL)
굴절률
(Nd)
아베수
(Vd)
Obj infinity infinity        
sto infinity -0.110 0.649      
2 1.740 0.700 0.656 2.69 1.544 56.1
3 -8.192 0.120 0.687      
4 -4.398 0.200 0.673 -6.29 1.661 20.4
5 98.000 0.073 0.690      
6 infinity 0.156 0.732      
7 -69.323 0.291 0.781 19.69 1.544 56.1
8 -9.329 0.081 0.925      
9 -17.530 0.202 1.113 256.42 1.614 25.9
10 -15.858 0.138 1.242      
11 -87.322 0.305 1.317 -6.67 1.635 23.9
12 4.506 0.120 1.595      
13 0.808 0.598 1.835 5.80 1.535 55.7
14 0.809 0.500 2.172      
15 infinity 0.110 2.564 infinity 1.517 64.2
16 infinity 0.338 2.602      
img infinity 0.012 2.800      
렌즈면
(Surface)
2 3 4 5
K(Conic) -1.3953E+00 0.0000E+00 3.5342E+01 -9.3000E+01
A(4th) -4.2871E-02 -1.7374E-01 -3.2208E-02 5.4084E-02
B(6th) 8.9026E-01 -5.5043E-01 -3.0927E-01 -5.3548E-01
C(8th) -1.1702E+01 6.1922E+00 2.7911E+00 4.8724E+00
D(10th) 8.3081E+01 -5.2569E+01 -1.6948E+01 -2.6966E+01
E(12th) -3.3354E+02 2.6989E+02 6.1314E+01 8.5997E+01
F(14th) 6.2316E+02 -8.4374E+02 -1.1859E+02 -1.6269E+02
G(16th) 2.6121E+02 1.5845E+03 1.1771E+02 1.6879E+02
H(18th) -3.5587E+03 -1.6417E+03 -4.3098E+01 -7.3713E+01
J(20th) 6.2720E+03 7.1992E+02 0.0000E+00 0.0000E+00
K(22th) -3.7490E+03 0.0000E+00 0.0000E+00 0.0000E+00
L(24th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
7 8 9 10
K(Conic) 6.1187E+01 9.4354E+01 0.0000E+00 0.0000E+00
A(4th) -5.7164E-02 2.8412E-01 -4.7612E-02 -5.2867E-02
B(6th) 8.1446E-02 -3.8064E+00 -2.9005E-01 4.9912E-01
C(8th) -1.5441E+01 2.0099E+01 2.4175E+00 -1.7767E+00
D(10th) 1.7749E+02 -8.2258E+01 -7.0141E+00 3.8139E+00
E(12th) -1.0914E+03 2.6705E+02 1.0992E+01 -5.4276E+00
F(14th) 4.2518E+03 -6.5155E+02 -1.0400E+01 4.9841E+00
G(16th) -1.0979E+04 1.1333E+03 6.0438E+00 -2.7740E+00
H(18th) 1.8740E+04 -1.3446E+03 -2.0114E+00 8.4332E-01
J(20th) -2.0336E+04 1.0274E+03 2.9482E-01 -1.0720E-01
K(22th) 1.2702E+04 -4.5371E+02 0.0000E+00 0.0000E+00
L(24th) -3.4722E+03 8.7905E+01 0.0000E+00 0.0000E+00
M(26th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
N(28th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
O(30th) 0.0000E+00 0.0000E+00 0.0000E+00 0.0000E+00
렌즈면
(Surface)
11 12 13 14
K(Conic) -9.5000E+01 6.1284E+00 -2.3055E+00 -1.0990E+00
A(4th) 1.0990E+00 1.9399E-01 -8.6476E-01 -7.5523E-01
B(6th) -3.9740E+00 -9.3049E-01 1.5472E+00 8.6278E-01
C(8th) 1.2651E+01 6.7118E+00 -2.6324E+00 -8.2647E-01
D(10th) -3.2446E+01 -2.6362E+01 4.3134E+00 6.2251E-01
E(12th) 5.6876E+01 6.0237E+01 -6.5745E+00 -4.1890E-01
F(14th) -6.1845E+01 -9.0421E+01 7.6124E+00 2.7889E-01
G(16th) 3.1433E+01 9.4643E+01 -6.1173E+00 -1.6813E-01
H(18th) 1.2987E+01 -7.0946E+01 3.3905E+00 7.9665E-02
J(20th) -3.4888E+01 3.8356E+01 -1.3076E+00 -2.7466E-02
K(22th) 2.7415E+01 -1.4828E+01 3.5092E-01 6.6482E-03
L(24th) -1.1547E+01 3.9937E+00 -6.4402E-02 -1.0955E-03
M(26th) 2.6179E+00 -7.1101E-01 7.7199E-03 1.1686E-04
N(28th) -2.5180E-01 7.5109E-02 -5.4543E-04 -7.2706E-06
O(30th) 0.0000E+00 -3.5605E-03 1.7244E-05 2.0033E-07
일 실시예에 따르면, 렌즈 어셈블리(400, 500, 600, 700, 800)는 상술한 조건들을 만족함으로써, 고화소 이미지 센서와 조합되면서 화각이 약 100도인 양호한 광각 성능을 제공할 수 있다. 일 실시예에 따르면, 일부 렌즈(예: 제1 렌즈(L1))를 소구경화하고 전체 렌즈 어셈블리(400, 500, 600, 700, 800)를 슬림화함으로써, 동일한 화각 대비 카메라 노출 영역이 상대적으로 축소될 수 있다. 일 실시예에서, 조리개(sto)는 렌즈(L1, L2, L3, L4, L5, L6)들보다 물체(obj)측에 배치됨으로써 제1 렌즈(L1)나 제2 렌즈(L2)의 유효경을 줄이기 용이할 수 있다. 예컨대, 조리개(sto)는 렌즈(L1, L2, L3, L4, L5, L6)들보다 물체(obj)측에 배치되어 렌즈 어셈블리(400, 500, 600, 700, 800)를 소구경화하면서도, 양호한 광각 성능을 제공할 수 있다. 일 실시예에서, 조리개(sto)로부터 두번째로 배열된 렌즈인 제2 렌즈(L2)의 물체측 면(S4)과 조리개(sto) 사이의 거리를 지정된 범위(예: 약 0.6mm 내지 약 1.4mm)로 설계함으로써, 렌즈를 지지하는 렌즈 배럴(예: 도 6의 렌즈 배럴(10))의 살 두께를 확보할 수 있다. 본 문서에 개시되는 실시예에 따른 전자 장치는, 렌즈 어셈블리(400; 500; 600; 700; 800), 결상면(img)을 포함하는 이미지 센서(230; I) 및/또는 광학 부재(sto)를 포함할 수 있다. 상기 렌즈 어셈블리는, 물체(obj)측으로부터 상(image)측을 향하는 방향으로 광축(O)을 따라 순차적으로 배열된 적어도 6매의 렌즈(L1, L2, L3, L4, L5, L6)로서, 제1 렌즈(L1), 제2 렌즈(L2), 제3 렌즈(L3), 제4 렌즈(L4), 제5 렌즈(L5) 및/또는 제6 렌즈(L6)를 포함할 수 있다. 상기 제1 렌즈는 정의 굴절력을 가질 수 있다. 상기 제6 렌즈는 정의 굴절력을 가질 수 있다. 상기 제6 렌즈는 상측 면(S14)이 오목하게 형성될 수 있다. 상기 광학 부재는 상기 물체측과 상기 결상면 사이에 배치될 수 있다. 상기 제1 렌즈는 다른 렌즈(L2, L3, L4, L5, L6)에 비하여 상기 광축을 기준으로 측정된 중심 두께가 크게 형성될 수 있다. 상기 광학 부재와 상기 제2 렌즈의 물체측 면(S4) 사이의 거리(T1)는 약 0.6mm 내지 약 1.4mm일 수 있다. 상기 렌즈 어셈블리는, 다음의 [조건식 1]을 만족할 수 있다.
[조건식 1]
0.8 < TTL/(IH*tan(HFOV)) < 2
(여기서, 상기 [조건식 1]의 'TTL'은 제1 렌즈의 물체측 면으로부터 상기 결상면까지의 거리이고, 'IH'는 상기 이미지 센서의 대각선 길이의 절반이며, 'HFOV'는 렌즈 어셈블리 및 이미지 센서를 포함하는 전체 광학계의 반 화각임)
일 실시예에서, 상기 렌즈 어셈블리는, 다음의 [조건식 2]를 만족할 수 있다.
[조건식 2] f6/f > 1.7
(여기서, f6은 제6 렌즈의 유효 초점거리이고, f는 렌즈 어셈블리와 이미지 센서를 포함하는 전체 광학계의 합성 유효 초점거리임.)
일 실시예에서, 상기 렌즈 어셈블리는, 다음의 [조건식 3]을 만족할 수 있다.
[조건식 3] 1< L1S1/L6S2< 4
(여기서, L1S1은 제1 렌즈의 물체측 면의 곡률 반경이고, L6S2는 제6 렌즈의 상측 면의 곡률 반경임.)
일 실시예에서, 상기 제1 렌즈는, 물체측 면(S2)이 볼록하게 형성될 수 있다.
일 실시예에서, 상기 제6 렌즈는, 물체측 면(S13)이 볼록하게 형성될 수 있다.
일 실시예에서, 상기 광학 부재는, 조리개를 포함하고 상기 물체측과 상기 제1 렌즈 사이에 배치될 수 있다.
일 실시예에서, 상기 제2 렌즈는 부의 굴절력을 가질 수 있다.
일 실시예에서, 상기 제5 렌즈는 부의 굴절력을 가질 수 있다.
일 실시예에서, 상기 제3 렌즈는 정의 굴절력을 가지며, 상측으로 볼록한 메니스커스 형상일 수 있다.
일 실시예에서, 상기 제1 렌즈는, 상측 면(S3)이 볼록하게 형성될 수 있다.일 실시예에서, 상기 제1 렌즈, 상기 제2 렌즈, 상기 제3 렌즈, 상기 제4 렌즈, 상기 제5 렌즈 또는 상기 제6 렌즈의 적어도 하나의 면은 비구면으로 형성될 수 있다.
일 실시예에서, 상기 제5 렌즈 또는 제6 렌즈 중 적어도 하나는, 물체측 면 및 상측 면이 각각 비구면으로 형성될 수 있다.
본 문서에 개시되는 실시예에 따른 렌즈 어셈블리는, 물체(obj)측으로부터 상(image)측을 향하는 방향으로 광축(O)을 따라 순차적으로 배열된 적어도 6매의 렌즈(L1, L2, L3, L4, L5, L6), 결상면(img)을 포함하는 이미지 센서(230; I) 및/또는 조리개(sto)를 포함할 수 있다. 상기 적어도 6매의 렌즈는, 제1 렌즈(L1), 제2 렌즈(L2), 제3 렌즈(L), 제4 렌즈(L4), 제5 렌즈(L5) 및/또는 제6 렌즈(L6)를 포함할 수 있다. 상기 제1 렌즈는 정의 굴절력을 가질 수 있다. 상기 제1 렌즈는 물체측 면(S2)이 볼록하게 형성될 수 있다. 상기 제6 렌즈는 정의 굴절력을 가질 수 있다. 상기 제6 렌즈는 상측 면(S14)이 오목하게 형성될 수 있다. 상기 조리개는 상기 물체측과 상기 제1 렌즈 사이에 배치될 수 있다. 상기 제1 렌즈는 다른 렌즈(L2, L3, L4, L5, L6)에 비하여 상기 광축을 기준으로 측정된 중심 두께가 크게 형성될 수 있다. 상기 조리개와 상기 제2 렌즈의 물체측 면 사이의 거리는 약 0.6mm 내지 약 1.4mm일 수 있다. 상기 렌즈 어셈블리는, 다음의 [조건식 1]을 만족할 수 있다.
[조건식 1]
0.8 < TTL/(IH*tan(HFOV)) < 2
(여기서, 상기 [조건식 1]의 'TTL'은 제1 렌즈의 물체측 면으로부터 상기 결상면까지의 거리이고, 'IH'는 상기 이미지 센서의 대각선 길이의 절반이며, 'HFOV'는 렌즈 어셈블리 및 이미지 센서를 포함하는 전체 광학계의 반 화각임)
일 실시예에서, 상기 제1 렌즈는, 물체측 면(S2)이 볼록하게 형성될 수 있다.
일 실시예에서, 상기 제6 렌즈는, 물체측 면(S13)이 볼록하게 형성될 수 있다.
일 실시예에서, 상기 광학 부재는, 조리개를 포함하고 상기 물체측과 상기 제1 렌즈 사이에 배치될 수 있다.
일 실시예에서, 상기 제2 렌즈는 부의 굴절력을 가질 수 있다.
일 실시예에서, 상기 제5 렌즈는 부의 굴절력을 가질 수 있다.
일 실시예에서, 상기 제3 렌즈는 정의 굴절력을 가지며, 상측으로 볼록한 메니스커스 형상일 수 있다.
디스플레이를 포함한 전자 장치는 대화면 요구에 부응 하고자 점차 그 영역을 확장되어 가고 있다. 이러한 디스플레이 영역의 확장에 부응 하여 전면 플레이트를 통해 배치 되는 다양한 부품들 예를 들어 적어도 하나의 카메라 모듈의 배치 구조 역시 이에 맞게 변경 될 수 있다. 카메라 모듈 배치 구조에 의한 디스플레이 영역의 확장을 도모 하고 전자 부품의 원활한 배치를 위하여, 디스플레이는 카메라 모듈과 대면하는 위치에 형성 되는 노출영역(예: 오프닝, 펀치 홀 또는 천공 홀)을 포함 할 수 있다. 일반적으로, 카메라 노출 영역의 크기는 복수의 렌즈들을 포함하는 카메라 모듈의 렌즈 배럴의 외경의 크기에 의해 결정될 수 있다. 그러나 렌즈들을 지지하는 렌즈 배럴은 렌즈를 지지하는 살두께의 제한적인 설계 구조에 의해 렌즈 배럴의 외경을 줄이는데 한계가 있을 수 있다.
본 문서에 개시된 실시예는, 상술한 문제점 및/또는 단점을 적어도 해소하고 후술하는 장점을 적어도 제공하기 위한 것으로서, 양호한 광학적 성능을 제공하면서 소형화된 렌즈 어셈블리 및/또는 그를 포함하는 전자 장치를 제공할 수 있다.
본 문서에 개시된 다양한 실시예들에 따르면, 제1 렌즈가 작은 유효경을 갖더라도 초광각을 구현하기 위한 최적의 파워(power)를 가진 6매 이상의 광학계(optical system)을 제공하며, 이로써 전자 장치의 소형화 및/또는 컴팩트화가 가능할 수 있다.
본 문서에 개시된 다양한 실시예들에 따르면, 스마트 폰과 같은 소형화 및/또는 경량화된 전자 장치에 탑재되기 용이하며, 전자 장치의 광학적 기능의 확장 또는 광학적 성능의 향상에 기여할 수 있다.
본 문서의 개시로부터 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 문서의 기재로부터 본 문서에 개시된이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 문서의 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 본 문서의 기재로부터 본 문서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 문서에 개시된 일 실시예는 본 발명을 한정하는 것이 아니라 일 예시로서 이해되어야 할 것이다. 첨부된 청구항과 그 균등물을 포함하여, 본 문서에 개시된 전체 관점에서 벗어나지 않는 범위에서 그 형식과 세부적인 구성에 다양한 변화가 이루어질 수 있음은 당업자에게 자명하다 할 것이다.
본 문서에 개시된 일 실시예에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 일 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정일 실시예로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 일 실시예에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 일 실시예는 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 일 실시예에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
일 실시예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 일 실시예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 일 실시예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (12)

  1. 렌즈 어셈블리(400; 500; 600; 700; 800)에 있어서,
    물체(obj)측으로부터 상(image)측을 향하는 방향으로 광축(O)을 따라 순차적으로 배열된 적어도 6매의 렌즈(L1, L2, L3, L4, L5, L6)로서, 정의 굴절력을 가지며 물체측 면(S2)이 볼록하게 형성된 제1 렌즈(L1), 제2 렌즈(L2), 제3 렌즈(L), 제4 렌즈(L4), 제5 렌즈(L5) 및 정의 굴절력을 가지며 상측 면(S14)이 오목하게 형성된 제6 렌즈(L6);
    결상면(img)을 포함하는 이미지 센서(230; I); 및
    상기 물체와 상기 제1 렌즈 사이에 배치된 조리개(sto)를 포함하고,
    상기 제1 렌즈의 중심 두께는 다른 렌즈의 상기 광축을 기준으로 측정된 중심 두께에 비하여 더 크고,
    상기 조리개와 상기 제2 렌즈의 물체측 면(S4) 사이의 거리(T1)는 0.6mm 내지 1.4mm이고,
    다음의 [조건식 1]을 만족하는 렌즈 어셈블리.
    [조건식 1]
    0.8 < TTL/(IH*tan(HFOV)) < 2
    (여기서, 상기 [조건식 1]의 'TTL'은 제1 렌즈의 물체측 면으로부터 상기 결상면까지의 거리이고, 'IH'는 상기 이미지 센서의 대각선 길이의 절반이며, 'HFOV'는 렌즈 어셈블리 및 이미지 센서를 포함하는 전체 광학계의 반 화각임)
  2. 제1 항에 있어서,
    다음의 [조건식 2]를 만족하는 렌즈 어셈블리.
    [조건식 2] f6/f > 1.7
    (여기서, f6은 제6 렌즈의 유효 초점거리이고, f는 렌즈 어셈블리와 이미지 센서를 포함하는 전체 광학계의 합성 유효 초점거리임.)
  3. 제1 항 또는 제2 항에 있어서,
    다음의 [조건식 3]를 만족하는 렌즈 어셈블리.
    [조건식 3] 1< L1S1/L6S2< 4
    (여기서, L1S1은 제1 렌즈의 물체측 면의 곡률 반경이고, L6S2는 제6 렌즈의 상측 면의 곡률 반경임.)
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서,
    상기 제1 렌즈는, 물체측 면(S2)이 볼록하게 형성된, 렌즈 어셈블리.
  5. 제1 항 내지 제4 항 중 어느 한 항에 있어서,
    상기 제6 렌즈는, 물체측 면(S13)이 볼록하게 형성된, 렌즈 어셈블리.
  6. 제1 항 내지 제5 항 중 어느 한 항에 있어서,
    상기 제2 렌즈는 부의 굴절력을 갖는, 렌즈 어셈블리.
  7. 제1 항 내지 제6 항 중 어느 한 항에 있어서,
    상기 제5 렌즈는 부의 굴절력을 갖는, 렌즈 어셈블리.
  8. 제1 항 내지 제7 항 중 어느 한 항에 있어서,
    상기 제3 렌즈는 정의 굴절력을 가지며, 상측으로 볼록한 메니스커스 형상인, 렌즈 어셈블리.
  9. 제1 항 내지 제8 항 중 어느 한 항에 있어서,
    상기 제1 렌즈는, 상측 면(S3)이 볼록하게 형성된, 렌즈 어셈블리.
  10. 제1 항 내지 제9 항 중 어느 한 항에 있어서,
    상기 제1 렌즈, 상기 제2 렌즈, 상기 제3 렌즈, 상기 제4 렌즈, 상기 제5 렌즈 또는 상기 제6 렌즈의 적어도 하나의 면은 비구면으로 형성될 수 있는, 렌즈 어셈블리.
  11. 제1 항 내지 제10 항 중 어느 한 항에 있어서,
    상기 제5 렌즈 또는 제6 렌즈 중 적어도 하나는, 물체측 면 및 상측 면이 각각 비구면으로 형성된, 렌즈 어셈블리.
  12. 제1 항 내지 제11 항 중 어느 한 항에 따른 렌즈 어셈블리를 포함하는 전자 장치.
PCT/KR2023/014804 2022-10-04 2023-09-26 렌즈 어셈블리 및 이를 포함한 전자 장치 WO2024076081A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220126307 2022-10-04
KR10-2022-0126307 2022-10-04
KR1020220157380A KR20240047267A (ko) 2022-10-04 2022-11-22 렌즈 어셈블리 및 이를 포함한 전자 장치
KR10-2022-0157380 2022-11-22

Publications (1)

Publication Number Publication Date
WO2024076081A1 true WO2024076081A1 (ko) 2024-04-11

Family

ID=90608393

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/014804 WO2024076081A1 (ko) 2022-10-04 2023-09-26 렌즈 어셈블리 및 이를 포함한 전자 장치

Country Status (1)

Country Link
WO (1) WO2024076081A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160046255A (ko) * 2014-10-20 2016-04-28 삼성전기주식회사 촬상 광학계
KR20170009356A (ko) * 2015-07-16 2017-01-25 삼성전기주식회사 촬상 광학계
KR20180059396A (ko) * 2016-11-25 2018-06-04 삼성전기주식회사 촬상 광학계
KR20200075794A (ko) * 2020-06-11 2020-06-26 삼성전기주식회사 촬상 광학계
JP2022046400A (ja) * 2020-09-10 2022-03-23 レイテック オプティカル (ジョウシュウ) カンパニーリミテッド 撮像光学レンズ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160046255A (ko) * 2014-10-20 2016-04-28 삼성전기주식회사 촬상 광학계
KR20170009356A (ko) * 2015-07-16 2017-01-25 삼성전기주식회사 촬상 광학계
KR20180059396A (ko) * 2016-11-25 2018-06-04 삼성전기주식회사 촬상 광학계
KR20200075794A (ko) * 2020-06-11 2020-06-26 삼성전기주식회사 촬상 광학계
JP2022046400A (ja) * 2020-09-10 2022-03-23 レイテック オプティカル (ジョウシュウ) カンパニーリミテッド 撮像光学レンズ

Similar Documents

Publication Publication Date Title
WO2020116922A1 (en) Lens assembly and electronic device including the same
WO2020101193A1 (en) Lens assembly and electronic device including the same
WO2019132283A1 (ko) 옵티칼 렌즈 어셈블리 및 이를 포함한 전자 장치
WO2022169332A1 (ko) 렌즈 어셈블리 및 이를 포함한 전자 장치
WO2021091090A1 (en) Lens assembly and electronic device including the same
WO2023017955A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2022114619A1 (ko) 렌즈 어셈블리를 포함하는 전자 장치
WO2022182018A1 (ko) 카메라 모듈 및 이를 포함하는 전자 장치
WO2022139424A1 (ko) 전자 장치 및 그의 사용자 시선을 추적하고 증강 현실 서비스를 제공하는 방법
WO2024076081A1 (ko) 렌즈 어셈블리 및 이를 포함한 전자 장치
WO2024034907A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2024054067A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023229174A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023106578A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023128198A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023158081A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2022250474A1 (ko) 렌즈 어셈블리 및 이를 포함한 전자 장치
WO2024071973A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023136427A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023013846A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2022260238A1 (ko) 카메라 모듈 및 카메라 모듈을 포함하는 전자 장치
WO2023243861A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023068475A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2024063603A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2022270734A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치